JP2009259269A - Face image recording system and face image recording method - Google Patents

Face image recording system and face image recording method Download PDF

Info

Publication number
JP2009259269A
JP2009259269A JP2009174032A JP2009174032A JP2009259269A JP 2009259269 A JP2009259269 A JP 2009259269A JP 2009174032 A JP2009174032 A JP 2009174032A JP 2009174032 A JP2009174032 A JP 2009174032A JP 2009259269 A JP2009259269 A JP 2009259269A
Authority
JP
Japan
Prior art keywords
face
face image
user
history information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009174032A
Other languages
Japanese (ja)
Inventor
Akio Okazaki
彰夫 岡崎
Toshio Sato
俊雄 佐藤
Kentaro Yokoi
謙太朗 横井
Hiroshi Sukegawa
寛 助川
Atsushi Ogata
淳 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009174032A priority Critical patent/JP2009259269A/en
Publication of JP2009259269A publication Critical patent/JP2009259269A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make it possible for a monitor to determine spoofing and report it real-time in each input terminal. <P>SOLUTION: This invention takes an image of a user's face verified through ID verification using ID information in the input terminal 2 by a user and checks whether the user concerned is an identical person via a face registering server 3 through face verification using the face image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、重要施設(部屋,フロア,建物など)の出入り管理やコンピュータあるいは端末などのアクセスにおけるカメラを用いた不正抑止、及びアクセス者の行動把握のためのシステムに関する。   The present invention relates to a system for managing access to an important facility (room, floor, building, etc.), fraud prevention using a camera in accessing a computer or a terminal, and grasping an accessor's action.

従来、カメラを用いて管理を行うシステムとしては主に2通りある。
一つは,銀行やコンビニエンスストアなどに設置されている監視システムである。この種の監視システムでは、カメラ(監視カメラ)により撮影されている人物の監視、あるいは、上記カメラにて撮影した画像の記録を行う。上記監視カメラからの映像は、別の場所にモニタリングされ、監視員によりチェックされる。ここでの中心技術は、最適な状態の人物や顔の画像を撮像する技術、撮像した画像を高速で伝送技術、あるいは撮像した画像を高圧縮で記録する技術などである。
Conventionally, there are mainly two systems for performing management using a camera.
One is a monitoring system installed in banks and convenience stores. In this type of surveillance system, a person photographed by a camera (surveillance camera) is monitored, or an image photographed by the camera is recorded. The video from the surveillance camera is monitored at another location and checked by a supervisor. The central technique here is a technique for capturing an image of a person or face in an optimal state, a technique for transmitting the captured image at high speed, or a technique for recording the captured image with high compression.

もう一つは、人物に対する認証処理を行う認証システムである。この種の認証システムでは、被認証者の顔画像などの生体情報を用いて個人認証(本人確認)を行う。たとえば、あらかじめアクセス権利をもつユーザの顔画像パターンを登録しておき、アクセス時にユーザの顔画像をカメラより入力し,リアルタイムで登録画像パターンとの照合を行い、本人かどうかを判定する。顔画像パターンを用いる方法は、指紋に代表される生体情報に基づいた(バイオメトリクス)個人認証方法に属するが、離れた位置から非接触で入力でき、その顔画像と照合のために抽出された顔パターン特徴を履歴として残せるという利点がある。   The other is an authentication system that performs authentication processing for a person. In this type of authentication system, personal authentication (identification) is performed using biological information such as a face image of the person to be authenticated. For example, a face image pattern of a user who has an access right is registered in advance, and the user's face image is input from the camera at the time of access, and is compared with the registered image pattern in real time to determine whether the user is the person. The method using a face image pattern belongs to the (biometrics) personal authentication method based on biometric information typified by fingerprints, but can be input in a non-contact manner from a distant position and extracted for collation with the face image. There is an advantage that the face pattern feature can be left as a history.

しかしながら、従来の監視カメラを用いた監視システムでは、ユーザに自分の顔が撮像されていることをなるべく意識されないようにするために、監視カメラを一定距離だけ離した比較的高位置に設置する場合が多い。このような場合、必ずしも個人が特定可能な正面向きの顔画像が得られないなど人物の顔画像がいつも適性に撮像されないという問題がある。言いかえれば、入力の際のユーザ負担(使い勝手)という観点からは問題は少ないが、不正抑止力という点では、必ずしも強力とは言えないことがある。   However, in a conventional surveillance system using a surveillance camera, the surveillance camera is installed at a relatively high position separated by a certain distance in order to prevent the user from being aware that his / her face is captured as much as possible. There are many. In such a case, there is a problem that a face image of a person is not always properly captured such that a face image facing the front that can be identified by an individual cannot always be obtained. In other words, there are few problems from the viewpoint of user burden (usability) at the time of input, but it may not necessarily be powerful in terms of fraud deterrence.

一方、従来の個人認証(本人確認)システムでは、ユーザに意識して正面顔を入力してもらい、あらかじめ登録してある顔画像(もしくは顔パターン)データとの照合をリアルタイムに行ってアクセス管理を行う。このような顔画像入力による個人認証方法は、指紋などの他の生体照合方法と比較するとユーザにとってなじみ易く、顔画像を入力する際のユーザへの負担という点では優れている。しかしながら、人物を監視するシステムや人物の画像を録画するシステムと比較した場合、セキュリティレベルにおいてかなり高くなる反面、事前に顔画像パターンを登録する手間や、外光などの照明変動が認識性能に影響を与えるという点で使い勝手が悪いという問題点がある。   On the other hand, in the conventional personal authentication (identity confirmation) system, the user is consciously input the front face, and access control is performed in real time by collating with face image (or face pattern) data registered in advance. Do. Such a personal authentication method by inputting a face image is easier for the user to compare with other biometric verification methods such as fingerprints, and is superior in terms of the burden on the user when inputting a face image. However, compared with systems that monitor people and systems that record human images, the security level is considerably higher, but the effort to register face image patterns in advance and lighting fluctuations such as outside light affect recognition performance. There is a problem that it is not easy to use because it gives

このように、従来のシステムでは、使い勝手とセキュリティレベルにおいて一長一短があり、両者のバランスにおいて中間的な装置あるいはシステムがこれまで存在せず、応用範囲が狭いという問題点がある。   As described above, the conventional system has advantages and disadvantages in usability and security level, and there is no intermediate device or system in the balance between the two, and there is a problem that the application range is narrow.

山口,福井,前田著、「動画像を用いた顔認識システム」,信学技法PRMU97−50,1997年6月Yamaguchi, Fukui, Maeda, "Face recognition system using moving images", IEICE PRMU97-50, June 1997 福井,山口著、「形状抽出とパターン照合の組合せによる顔特徴点抽出」,信学論D-II,Vol.J-80-D-II,No.8,1997年8月Fukui, Yamaguchi, “Face feature point extraction by combination of shape extraction and pattern matching”, IEICE D-II, Vol.J-80-D-II, No.8, August 1997 佐藤俊雄ほか著、「立ち位置変動を考慮した顔照合セキュリティシステムFacePassの開発」、映像情報メディア学会誌・論文小特集「セキュリティのための情報メディア処理」,Vol.56,No.7,pp.1111−1117、2002年7月Toshio Sato et al., "Development of FacePass Security System FacePass Considering Standing Position Fluctuation", Journal of the Institute of Image Information and Television Engineers, Special Issue on Information Media Processing for Security, Vol.56, No.7, pp. 1111–1117, July 2002 長尾真著、「画像認識論」、コロナ社、1983年Nagao Makoto, "Image Recognition", Corona, 1983

本発明は,上記事情を考慮してなされたもので,その目的とするところは、顔照合による非接触性の利点を活かし、ユーザの使い勝手、及び利便性をできるだけ損なわないようにしながら,情報セキュリティや物理セキュリティにおけるセキュリティレベル及び不正抑止効果を高めることが可能なシステムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and its purpose is to take advantage of the non-contact property by face matching and to minimize the usability and convenience of the user as much as possible. Another object of the present invention is to provide a system capable of enhancing the security level and fraud deterrent effect in physical security.

この発明の顔画像記録システムは、複数の地点に設置された複数の入力端末と、これらの入力端末からのデータを受信可能なサーバ装置とを有するものにおいて、前記入力端末は、各設置地点においてユーザの顔画像を入力する画像入力手段と、この画像入力手段により入力された顔画像データと、その撮影地点及び撮影時間を含む履歴情報とを前記サーバ装置へ送信する送信手段とを有し、前記サーバ装置は、前記入力端末から送信された顔画像データとその履歴情報とを記録する画像記録手段と、前記入力端末からの顔画像データを受信した場合、前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとを照合する照合手段と、この照合手段により前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとの照合が成功した場合、前記入力端末から受信した顔画像データと照合した顔画像データに対応する履歴情報を前記画像記録手段から読み出し、その履歴情報に含まれている撮影場所と撮影時間とに基づいて当該ユーザの行動の軌跡を表示する表示手段とを有する。   The face image recording system of the present invention has a plurality of input terminals installed at a plurality of points and a server device capable of receiving data from these input terminals. An image input means for inputting a user's face image; and a transmission means for transmitting face image data input by the image input means and history information including the shooting location and shooting time to the server device; When the server device receives the face image data transmitted from the input terminal and the image recording means for recording the face image data, and the face image data from the input terminal, the face image data received from the input terminal And face image data already recorded in the image recording means, face image data received from the input terminal by the matching means, and the face image data When the collation with the face image data already recorded in the image recording means is successful, the history information corresponding to the face image data collated with the face image data received from the input terminal is read from the image recording means, and the history Display means for displaying a trajectory of the user's action based on the shooting location and the shooting time included in the information.

この発明によれば、顔照合による非接触性の利点を活かし、ユーザの使い勝手、及び利便性をできるだけ損なわないようにしながら,情報セキュリティや物理セキュリティにおけるセキュリティレベル及び不正抑止効果を高めることが可能な顔画像記録システムを提供できる。   According to the present invention, it is possible to enhance the security level and fraud deterrent effect in information security and physical security while making the most of the convenience and convenience of the user as much as possible by taking advantage of non-contact by face matching. A face image recording system can be provided.

この発明の各実施の形態に係る顔画像記録システムのモデルの一例を概略的に示す図。The figure which shows schematically an example of the model of the face image recording system which concerns on each embodiment of this invention. この発明の各実施の形態に係る顔画像記録システムのモデルの一例を概略的に示す図。The figure which shows schematically an example of the model of the face image recording system which concerns on each embodiment of this invention. ネットワーク型のシステム構成を示す図。The figure which shows a network type system structure. 顔画像入力装置の外観構成例を示す図。The figure which shows the external appearance structural example of a face image input device. 顔画像入力装置の設置例を示す側面図。The side view which shows the example of installation of a face image input device. 顔画像入力装置の制御系統としての全体構成を示す図。The figure which shows the whole structure as a control system of a face image input device. 顔記録サーバの構成例を概略的に示すブロック図。The block diagram which shows schematically the structural example of a face recording server. 第1の実施の形態に係る入力端末における顔画像の入力処理の流れを説明ためのフローチャート。The flowchart for demonstrating the flow of the input process of the face image in the input terminal which concerns on 1st Embodiment. 第1の実施の形態に係る入力端末における顔画像の入力処理の流れを説明ためのフローチャート。The flowchart for demonstrating the flow of the input process of the face image in the input terminal which concerns on 1st Embodiment. 第1の実施の形態に係る顔記録サーバの動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the face recording server which concerns on 1st Embodiment. 第2の実施の形態に係る顔記録サーバでの処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process in the face recording server which concerns on 2nd Embodiment. 表示部の表示例を示す図。The figure which shows the example of a display of a display part. 表示部の表示例を示す図。The figure which shows the example of a display of a display part. 第4の実施の形態に係る顔記録サーバの動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the face recording server which concerns on 4th Embodiment. 表示部の表示例を示す図。The figure which shows the example of a display of a display part. 第5の実施の形態に係わる入力端末の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the input terminal concerning 5th Embodiment. 第5の実施の形態に係わる入力端末の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the input terminal concerning 5th Embodiment. 行動記録レポートの表示例(構成例)を示す図。The figure which shows the example of a display (structure example) of an action record report. 人物検知処理を説明するための図。The figure for demonstrating a person detection process. 第6の実施の形態に係る入力端末の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the input terminal which concerns on 6th Embodiment. 第6の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the face recording server 3 which concerns on 6th Embodiment. 表示部の表示例を示す図。The figure which shows the example of a display of a display part. 第7の実施の形態に係る顔記録サーバの動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the face recording server which concerns on 7th Embodiment. 第7の実施の形態に係る入力端末の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the input terminal which concerns on 7th Embodiment.

以下、この発明の第1〜第7の実施の形態について図面を参照して説明する。
まず、各実施の形態に共通な構成となるシステムについて説明する。
本発明の各実施の形態に係るシステムは、図1及び図2に示すように、大きく2つにモデル化できる。図1は、モデルAのシステム構成を概略的に示す図であり、図2は、モデルBのシステム構成を概略的に示す図である。
Hereinafter, first to seventh embodiments of the present invention will be described with reference to the drawings.
First, a system having a configuration common to the embodiments will be described.
The system according to each embodiment of the present invention can be roughly modeled into two as shown in FIGS. FIG. 1 is a diagram schematically illustrating a system configuration of model A, and FIG. 2 is a diagram schematically illustrating a system configuration of model B.

まず、モデルAは、図1に示すように、ID認証装置1、顔画像入力装置2、顔記録サーバ3、及び、顔履歴データベース4などから構成されている。上記ID認証装置1は、ユーザが入力するID情報に基づいてID認証処理を行う。ここで、ユーザが入力するID情報としては、IDカードに記憶されているID情報、あるいは、キー入力される情報(ID番号、パスワード)などの情報である。上記顔画像入力装置2は、ユーザの少なくとも顔を含む領域の画像(顔画像)を入力(撮影)し、その入力画像から顔の特徴パターンを検出したり、入力された画像に基づく顔画像データを上記顔記録サーバ3へ伝送したりするものである。上記顔記録サーバ3は、上記顔画像入力装置2から伝送された顔画像データを履歴情報とともに上記顔履歴データベース4に記録したり、上記顔履歴データベース4から特定の人物の顔画像データを検索したりするものである。上記顔履歴データベース4は、例えば、大容量磁気ディスクで構成される。   First, as shown in FIG. 1, the model A includes an ID authentication device 1, a face image input device 2, a face recording server 3, a face history database 4, and the like. The ID authentication device 1 performs ID authentication processing based on ID information input by the user. Here, the ID information input by the user is information such as ID information stored in the ID card or information (ID number, password) input by key input. The face image input device 2 inputs (photographs) an image (face image) of an area including at least the face of the user, detects a face feature pattern from the input image, and face image data based on the input image Is transmitted to the face recording server 3. The face recording server 3 records the face image data transmitted from the face image input device 2 in the face history database 4 together with history information, or searches the face history database 4 for face image data of a specific person. It is something to do. The face history database 4 is composed of, for example, a large capacity magnetic disk.

すなわち、モデルAにおいて、ユーザは、まず、自身のID情報をIDカードあるいはキー入力により入力する。すると、上記ID認証装置1は、ユーザにより入力されたID情報に基づいてユーザ認証を行う。ここで、ユーザ認証としては、ユーザが本人であるか否かを判断するものであっても良いし、ユーザが誰であるかを判断するものであっても良い。   That is, in the model A, the user first inputs his / her ID information by an ID card or key input. Then, the ID authentication device 1 performs user authentication based on the ID information input by the user. Here, as user authentication, it may be determined whether or not the user is the person himself / herself, or may be determined as to who the user is.

上記ID認証装置1によりユーザが認証されると、上記顔画像入力装置2は、図示しないカメラにて当該ユーザの顔画像を入力(撮影)する。当該ユーザの顔画像が顔画像データとして入力されると、上記顔画像入力装置2は、入力画像データから顔の特徴パターンを検出する。これにより、入力画像データから顔の特徴パターンを検出すると、上記顔画像入力装置2は、顔の特徴パターンが検出された入力画像データをその入力画像データの属性情報とともに、上記顔記録サーバ3へ伝送する。上記顔記録サーバ3では、上記顔画像入力装置2から伝送された入力された顔画像データとその属性情報とを上記顔履歴データベース4に記録する。   When the user is authenticated by the ID authentication device 1, the face image input device 2 inputs (photographs) the user's face image with a camera (not shown). When the face image of the user is input as face image data, the face image input device 2 detects a face feature pattern from the input image data. Thus, when a facial feature pattern is detected from the input image data, the facial image input device 2 sends the input image data from which the facial feature pattern has been detected to the face recording server 3 together with attribute information of the input image data. To transmit. The face recording server 3 records the input face image data transmitted from the face image input device 2 and its attribute information in the face history database 4.

また、モデルBは、図2に示すように,上記モデルAのID認証装置1が省略された構成となっており、上記のようなモデルAでのID情報によるユーザ認証を省略される。
すなわち、モデルBでは、まず、上記顔画像入力装置2によりユーザの顔画像を撮影する。当該ユーザの顔画像を入力すると、上記顔画像入力装置2は、入力された画像に基づく顔画像データから顔の特徴パターンを検出する。これにより、入力画像データから顔の特徴パターンを検出すると、上記顔画像入力装置2は、顔の特徴パターンが検出された入力画像データをその入力画像データの属性情報とともに、上記顔記録サーバ3へ伝送する。上記顔記録サーバ3では、上記顔画像入力装置2から伝送された入力画像データとその属性情報とを上記顔履歴データベース4に記録する。
Further, as shown in FIG. 2, the model B has a configuration in which the model A ID authentication apparatus 1 is omitted, and the user authentication based on the ID information in the model A as described above is omitted.
That is, in the model B, first, the face image input device 2 captures a user's face image. When the face image of the user is input, the face image input device 2 detects a face feature pattern from the face image data based on the input image. Thus, when a facial feature pattern is detected from the input image data, the facial image input device 2 sends the input image data from which the facial feature pattern has been detected to the face recording server 3 together with attribute information of the input image data. To transmit. The face recording server 3 records the input image data transmitted from the face image input device 2 and its attribute information in the face history database 4.

なお、モデルA及びモデルBの実現形態としては、顔画像入力装置2の機能と顔記録サーバ3の機能と有する一体型の装置(スタンドアロン型)で構成されるようにしても良いし、図3に示すように、複数の顔画像入力装置2に対してネットワークを介して顔記録サーバ3が接続されているシステム(ネットワーク型)で構成されるようにしても良い。   As an implementation form of the model A and the model B, the model A and the model B may be configured as an integrated device (stand-alone type) having the function of the face image input device 2 and the function of the face recording server 3. As shown in FIG. 6, the face recording server 3 may be connected to a plurality of face image input devices 2 via a network (network type).

以下の説明では、本システム全体が、図3に示されるようなネットワーク型で構成されるものとする。すなわち、本システムにおいて、各顔画像入力装置(端末)2は、顔画像データをその履歴情報とともに上記顔記録サーバ3へ伝送する。上記顔記録サーバ3は、各顔画像入力装置2から送られてくる顔画像データと履歴情報を顔記録サーバ3に接続されている顔履歴データベース4に蓄える。また、上記顔記録サーバ3では、管理者(監視員)の操作により指定された人物の顔データの検索(トラッキング)を行うようになっている。   In the following description, it is assumed that the entire system is configured as a network type as shown in FIG. That is, in this system, each face image input device (terminal) 2 transmits the face image data to the face recording server 3 together with the history information. The face recording server 3 stores face image data and history information sent from each face image input device 2 in a face history database 4 connected to the face recording server 3. Further, the face recording server 3 searches (tracks) the face data of the person specified by the operation of the administrator (monitoring person).

次に、上記顔画像入力装置2について説明する。
図4は、上記顔画像入力装置2の外観構成例を示す図である。また、図4では、上記顔画像入力装置2の制御に基づいて動作する機器の例として自動ドア及び電気錠が示されている。
図4に示す構成では、顔画像入力装置2が操作部11と処理部12とにより構成されている。上記操作部11には上記処理部12が接続され、上記処理部12には自動ドア及び電気錠を制御する電気錠制御部が接続されている。
Next, the face image input device 2 will be described.
FIG. 4 is a diagram showing an external configuration example of the face image input apparatus 2. In FIG. 4, an automatic door and an electric lock are shown as examples of devices that operate based on the control of the face image input device 2.
In the configuration illustrated in FIG. 4, the face image input device 2 includes an operation unit 11 and a processing unit 12. The processing unit 12 is connected to the operation unit 11, and an electric lock control unit that controls an automatic door and an electric lock is connected to the processing unit 12.

上記操作部11には、図4に示すように、表示部(ディスプレイ)21、カメラ22、スピーカ23、テンキー24などが組み込まれている。
上記表示部21は、例えばカラー液晶表示装置により構成される。上記表示部21には、上記カメラ22から入力された画像上に顔領域の検出結果(例えば、顔領域を表す円図形で示す)を重ねて表示される。上記カメラ22は、ユーザの少なくとも顔を含む領域の画像(顔画像)を複数枚撮影(入力)する。上記テンキー24は、ID情報などを入力するキーである。上記スピーカ23は、上記処理部12からの音声データを再生するものであり、音声ガイドなどを行う。なお、図4に示す顔画像入力装置2をモデルBに適用する場合には、上記テンキー24は省略しても良い。
As shown in FIG. 4, the operation unit 11 includes a display unit (display) 21, a camera 22, a speaker 23, a numeric keypad 24, and the like.
The display unit 21 is configured by, for example, a color liquid crystal display device. On the display unit 21, the detection result of the face area (for example, indicated by a circle representing the face area) is displayed on the image input from the camera 22. The camera 22 captures (inputs) a plurality of images (face images) of an area including at least the face of the user. The numeric keypad 24 is a key for inputting ID information and the like. The speaker 23 reproduces audio data from the processing unit 12 and performs audio guidance. When the face image input device 2 shown in FIG. 4 is applied to the model B, the numeric keypad 24 may be omitted.

また、上記処理部12は、上記カメラ22により入力された画像データから顔の特徴量を検出する顔検出、上記カメラ22を制御するカメラ制御、上記テンキー24を制御するテンキー制御、上記自動ドアあるいは上記電気錠制御を介して電気錠を制御するドア制御、上記カメラ22からの入力画像データを外部に伝送する画像伝送、上記カメラ22からの入力画像データを記憶装置に記憶する画像記録などの機能を有している。   Further, the processing unit 12 detects a face feature amount from image data input by the camera 22, performs camera control to control the camera 22, numeric key control to control the numeric key 24, the automatic door or Functions such as door control for controlling the electric lock through the electric lock control, image transmission for transmitting the input image data from the camera 22 to the outside, and image recording for storing the input image data from the camera 22 in the storage device have.

図5(a)、(b)は、顔画像入力装置2の設置例を示す側面図である。
図5(a)は、壁掛けタイプの操作部11を有する顔画像入力装置2の設置例を示す側面図である。図5(a)では、図4に示すように構成された操作部11が壁に掛けて設置されている。このような構成では、操作部11の正面に立つ利用者Pの顔は、斜め下方からカメラ22によって撮影されるようになっている。また、操作部11はケーブルを介して処理部12に接続されている。
FIGS. 5A and 5B are side views showing an installation example of the face image input device 2.
FIG. 5A is a side view showing an installation example of the face image input apparatus 2 having the wall-hanging type operation unit 11. In FIG. 5A, the operation unit 11 configured as shown in FIG. 4 is installed on a wall. In such a configuration, the face of the user P standing in front of the operation unit 11 is photographed by the camera 22 from obliquely below. The operation unit 11 is connected to the processing unit 12 via a cable.

また、図5(b)は、据え置きが可能なポール型の顔画像入力装置2の例である。図5(b)に示す構成例では、ポール形状の筐体に表示部21、及びカメラ22などの操作部11の構成が設けられるともに、筐体内に処理部12が設置される。また、図5(b)に示す構成において、ポール形状の筐体の高さは、人間の身長に合わせて、例えば、140〜150cmに設定される。すなわち、図5(b)に示す構成のポール形状の筐体は、ユーザの正面向きの顔を安定して撮影できる上記カメラ22の取り付け位置を確保できる高さがあれば良く、そのカメラ22の近傍に表示部21が設置される。   FIG. 5B shows an example of a pole-type face image input device 2 that can be stationary. In the configuration example shown in FIG. 5B, the configuration of the operation unit 11 such as the display unit 21 and the camera 22 is provided in a pole-shaped housing, and the processing unit 12 is installed in the housing. In the configuration shown in FIG. 5B, the height of the pole-shaped housing is set to, for example, 140 to 150 cm according to the height of the person. That is, the pole-shaped housing having the configuration shown in FIG. 5B only needs to be high enough to secure the mounting position of the camera 22 that can stably photograph the face facing the user. A display unit 21 is installed in the vicinity.

また、図5(a)、(b)に示すような構成の顔画像入力装置2がネットワーク型のシステムに適用される場合、上記処理部12には、無線LANやブルートゥースなどの無線通信による上記顔記録サーバ3との無線通信機能(送信手段)を設けるようにしても良い。このように顔画像入力装置2に無線通信機能を搭載することによりネットワーク回線や顔記録サーバ3と接続するための配線の手間を省くことができ、顔画像入力装置2の設置や増設などが容易となる。   Further, when the face image input device 2 having the configuration shown in FIGS. 5A and 5B is applied to a network type system, the processing unit 12 includes the above-described wireless communication such as wireless LAN or Bluetooth. A wireless communication function (transmission means) with the face recording server 3 may be provided. In this way, by installing the wireless communication function in the face image input device 2, it is possible to save the trouble of wiring for connecting to the network line and the face recording server 3, and the face image input device 2 can be easily installed and expanded. It becomes.

図6は、顔画像入力装置の制御系統としての全体構成を示す図である。
上記顔画像入力装置2は、図6に示すように、ユーザインターフェースとしての操作部11と処理部12とから構成されている。また、上記顔画像入力装置2は、LANを介して上記顔記録サーバ3及びプリンタなどに接続されている。上記顔画像入力装置2の操作部11は、例えば、図4に示すような外観構成からなり、ディスプレイ21、カメラ22、スピーカ23、テンキー24などを有している。また、図6に示す構成例では、上記カメラ22により撮影するユーザの顔を照明する照明手段を図示していないが、上記カメラ22の近傍などにユーザの顔を照明する照明手段を設けるようにしても良い。
FIG. 6 is a diagram illustrating an overall configuration as a control system of the face image input apparatus.
As shown in FIG. 6, the face image input apparatus 2 includes an operation unit 11 and a processing unit 12 as a user interface. The face image input device 2 is connected to the face recording server 3 and a printer via a LAN. The operation unit 11 of the face image input device 2 has an external configuration as shown in FIG. 4, for example, and includes a display 21, a camera 22, a speaker 23, a numeric keypad 24, and the like. In addition, in the configuration example shown in FIG. 6, the illumination unit that illuminates the user's face photographed by the camera 22 is not shown, but the illumination unit that illuminates the user's face is provided near the camera 22. May be.

また、上記顔画像入力装置2の処理部12は、処理プロセッサ31、ワークメモリ32、プログラムメモリ33、I/Oボード34、キャプチャボード35、ディスクインターフェース36、LANインターフェース38、及びシステムバス39から構成されている。さらに、上記キャプチャボード35は、A/D変換回路41、及び画像メモリ42を有している。   The processing unit 12 of the face image input device 2 includes a processing processor 31, a work memory 32, a program memory 33, an I / O board 34, a capture board 35, a disk interface 36, a LAN interface 38, and a system bus 39. Has been. Further, the capture board 35 has an A / D conversion circuit 41 and an image memory 42.

上記処理プロセッサ31は、種々の処理を実行することにより、顔画像入力装置2全体の制御を行うものである。上記ワークメモリ32は、処理中の画像データやその他のデータなどを一時的に記憶するメモリである。上記プログラムメモリ33は、制御用のプログラムなどが記憶されるメモリである。上記処理プロセッサ31は、上記プログラムメモリ33に記憶されている制御プログラムに基づいて種々の機能を実現するようになっている。例えば、上記処理プロセッサ31は、各カメラに対し制御信号を送って顔画像データを取込み,そのデータに対しワークメモリ32を使いながら顔画像データの登録処理を行う。   The processor 31 controls the face image input apparatus 2 as a whole by executing various processes. The work memory 32 is a memory that temporarily stores image data being processed, other data, and the like. The program memory 33 is a memory that stores a control program and the like. The processing processor 31 realizes various functions based on a control program stored in the program memory 33. For example, the processing processor 31 sends a control signal to each camera to fetch face image data, and performs face image data registration processing while using the work memory 32 for the data.

上記I/Oボード34は、種々のインターフェースとして機能し、上記ティスプレイ21、上記スピーカ23、及び上記テンキー24などに接続される。上記キャプチャボード35は、上記カメラ22で撮影された画像を処理部12内に取り込む際のインターフェースである。上記キャプチャボード35内のA/D変換回路41は、上記カメラ22で撮影されたアナログ信号からなる画像データを取り込んでデジタル信号の画像データに変換するものである。上記画像メモリ34は、画像データを一旦蓄えるバッファリングするメモリである。上記画像メモリ34には、上記カメラ22で撮影され、上記A/D変換回路41によりA/D変換された画像データが蓄積される。なお、上記カメラ22がUSB(ユニバーサル・シリアル・バス)インターフェースを備えている場合、A/D変換回路41は不要でUSBインターフェースを持たせれば良い。   The I / O board 34 functions as various interfaces and is connected to the display 21, the speaker 23, the numeric keypad 24, and the like. The capture board 35 is an interface for capturing an image captured by the camera 22 into the processing unit 12. The A / D conversion circuit 41 in the capture board 35 captures image data composed of analog signals photographed by the camera 22 and converts them into digital signal image data. The image memory 34 is a buffering buffer that temporarily stores image data. In the image memory 34, image data shot by the camera 22 and A / D converted by the A / D conversion circuit 41 is stored. When the camera 22 includes a USB (Universal Serial Bus) interface, the A / D conversion circuit 41 is not necessary and the USB interface may be provided.

上記ディスクインターフェース36は、上記磁気ディスク(記録装置)37に対するデータの読出し、或は、書込みを行うものである。上記磁気ディスク37は、上記カメラ22から入力した入力画像データや入力画像データの履歴情報などを記憶する。また、上記磁気ディスク37は、一時的なバッファメモリとしても機能する。上記LANインターフェース38は、LANとの接続するためのインターフェースである。上記システムバス39は、制御データや画像データなどデータを送受信するデータバスである。上記システムバス39は、上記処理プロセッサ31、ワークメモリ32、プログラムメモリ33、I/Oボード34、キャプチャボード35内の画像メモリ42、ディスクインターフェース36、及びLANインターフェース38に接続されている。   The disk interface 36 reads / writes data from / to the magnetic disk (recording device) 37. The magnetic disk 37 stores input image data input from the camera 22, history information of the input image data, and the like. The magnetic disk 37 also functions as a temporary buffer memory. The LAN interface 38 is an interface for connecting to a LAN. The system bus 39 is a data bus that transmits and receives data such as control data and image data. The system bus 39 is connected to the processor 31, work memory 32, program memory 33, I / O board 34, image memory 42 in the capture board 35, disk interface 36, and LAN interface 38.

また、当該顔画像入力装置2がモデルAの形態で利用される場合、上記磁気ディスク37には、各ユーザのIDコード及びパスワードなどのID情報が記憶されるID情報テーブル37aが設けられ、上記プログラムメモリ33には、ID情報による認証(ID認証)を行うための制御プログラムが記憶される。これにより、当該顔画像入力装置2がモデルAの形態で利用される場合、上記処理プロセッサ31は、上記ID認証部1として、ユーザがテンキー24などにより入力したID情報と上記ID情報テーブル37aに記憶されているID情報との照合を行うことによりユーザに対するID認証を行う。   When the face image input device 2 is used in the form of Model A, the magnetic disk 37 is provided with an ID information table 37a in which ID information such as ID codes and passwords of the respective users is stored. The program memory 33 stores a control program for performing authentication based on ID information (ID authentication). Thereby, when the face image input apparatus 2 is used in the form of model A, the processor 31 serves as the ID authentication unit 1 in the ID information input by the user with the numeric keypad 24 and the ID information table 37a. The ID authentication for the user is performed by collating with the stored ID information.

また、上記処理プロセッサ31が上記プログラムメモリ33に記憶されている制御プログラムに基づいて実現する機能としては、特徴量抽出処理、情報生成処理、画像処理、及び画像伝送処理などがある。
上記特徴量抽出処理は、上記カメラ22で撮影した画像から顔の特徴量(特徴パターン)を抽出する処理である。上記情報生成処理は、上記カメラ22で撮影した画像に関する属性情報(撮影時間等)を生成する処理である。また、上記処理プロセッサ31が実行する画像処理は、例えば、上記カメラ22で撮影した画像に対して、顔領域を切り出す処理、画像濃度の補正処理、正規化処理、あるいは画像圧縮処理などである。上記画像伝送処理は、上記カメラ22にて撮影した画像に基づく顔画像データをその履歴情報とともに上記顔記録サーバ3へ転送する処理である。
The functions realized by the processor 31 based on the control program stored in the program memory 33 include a feature amount extraction process, an information generation process, an image process, and an image transmission process.
The feature amount extraction processing is processing for extracting a facial feature amount (feature pattern) from an image photographed by the camera 22. The information generation process is a process of generating attribute information (such as a shooting time) regarding an image shot by the camera 22. The image processing executed by the processing processor 31 is, for example, a process of extracting a face area, an image density correction process, a normalization process, or an image compression process on an image captured by the camera 22. The image transmission process is a process of transferring face image data based on an image taken by the camera 22 to the face recording server 3 together with history information.

次に、上記顔記録サーバ3の構成例について説明する。
図7は、顔記録サーバ3の構成例を概略的に示すブロック図である。
図7に示すように、上記顔記録サーバ3は、制御部51、プログラムメモリ52、ワークメモリ53、磁気ディスクインターフェース54、表示部55、操作部56、LANインターフェース57などを有している。
Next, a configuration example of the face recording server 3 will be described.
FIG. 7 is a block diagram schematically showing a configuration example of the face recording server 3.
As shown in FIG. 7, the face recording server 3 includes a control unit 51, a program memory 52, a work memory 53, a magnetic disk interface 54, a display unit 55, an operation unit 56, a LAN interface 57, and the like.

上記制御部51は、顔記録サーバ3全体の制御を司る。上記プログラムメモリ52は、制御用のプログラムなどが記憶されるメモリである。上記ワークメモリ53は、処理中の画像やデータなどを一時的に記憶するメモリである。上記磁気ディスクインターフェース54は、上記顔履歴データベース4にアクセスするためのインターフェースである。   The control unit 51 controls the entire face recording server 3. The program memory 52 is a memory that stores a control program and the like. The work memory 53 is a memory that temporarily stores an image or data being processed. The magnetic disk interface 54 is an interface for accessing the face history database 4.

上記表示部55は、表示装置により構成され、上記顔履歴データベース4の検索結果などを表示する。上記操作部83は、キーボード或はマウス等の入力装置により構成され、当該顔記録サーバ3を操作する監視員からの操作指示などが入力される。上記LANインターフェース57は、上記LANを介して上記顔画像入力装置2とのデータの送受信を行うためのインターフェースである。   The display unit 55 is constituted by a display device, and displays search results of the face history database 4 and the like. The operation unit 83 is configured by an input device such as a keyboard or a mouse, and an operation instruction or the like is input from a monitor who operates the face recording server 3. The LAN interface 57 is an interface for transmitting and receiving data to and from the face image input device 2 via the LAN.

上記顔記録サーバ3では、上記制御部51が上記プログラムメモリ52に記憶されている制御プログラムに基づいて動作することにより種々の処理を実現している。例えば、上記顔記録サーバ3では、上記顔画像入力装置2からの顔画像をその履歴とともに上記顔履歴データベース4に記録する機能と、上記顔履歴データベース4に記憶されている情報を検索する機能を有している。   In the face recording server 3, various processes are realized by the control unit 51 operating based on the control program stored in the program memory 52. For example, the face recording server 3 has a function of recording a face image from the face image input device 2 together with its history in the face history database 4 and a function of searching information stored in the face history database 4. Have.

以下、上記のように構成されるシステムをベースとして実現される7つの実施の形態について説明する。
まず、第1の実施の形態について説明する。
この第1の実施の形態は、上記モデルAのネットワーク型システムに適用されるものである。また、この第1の実施の形態の実現形態としては、一体型装置であっても良いし、ネットワーク型のシステムであっても良い。
以下に説明する第1の実施の形態では、複数の地点にID認証機能を有する顔画像入力装置(以下、入力端末と呼ぶ)2が設置され、これらの入力端末が無線LANなどのネットワークを介して、監視員あるいは管理者が操作する顔記録サーバ3に接続されているものとする。
Hereinafter, seven embodiments realized based on the system configured as described above will be described.
First, the first embodiment will be described.
The first embodiment is applied to the model A network type system. In addition, as an implementation form of the first embodiment, an integrated apparatus or a network system may be used.
In the first embodiment described below, a face image input device (hereinafter referred to as an input terminal) 2 having an ID authentication function is installed at a plurality of points, and these input terminals are connected via a network such as a wireless LAN. It is assumed that the monitor is connected to the face recording server 3 operated by a supervisor or administrator.

まず、第1の実施の形態に係る入力端末2における顔画像の入力処理について説明する。
図8は、第1の実施の形態に係る入力端末2における顔画像の入力処理の流れを説明ためのフローチャートである。図8に示す処理は、各入力端末の上記処理プロセッサ31により実行されるものである。
まず、入力端末2が設置されている地点のユーザは、上記操作部11のテンキー24により当該ユーザのID情報としてIDコードとパスワードとを入力する。なお、IDコードは、各ユーザに対して管理者側が予め提供するものであり、パスワードは、各ユーザが登録時などに自由に設定するものであるとする。
First, face image input processing in the input terminal 2 according to the first embodiment will be described.
FIG. 8 is a flowchart for explaining a flow of face image input processing in the input terminal 2 according to the first embodiment. The processing shown in FIG. 8 is executed by the processing processor 31 of each input terminal.
First, a user at a point where the input terminal 2 is installed inputs an ID code and a password as ID information of the user using the numeric keypad 24 of the operation unit 11. The ID code is provided in advance by the administrator to each user, and the password is freely set by each user at the time of registration.

ユーザによりID情報(IDコード及びパスワード)が入力されると、上記処理プロセッサ31は、ID情報による認証処理(ID認証)を行う(ステップS11)。このID認証において、上記処理プロセッサ31は、ユーザが入力したID情報(IDコード及びパスワード)と上記磁気ディスク37のID情報テーブル37aに記憶されているID情報(各ユーザのIDコード及びパスワード)とを照合する。   When ID information (ID code and password) is input by the user, the processor 31 performs an authentication process (ID authentication) based on the ID information (step S11). In this ID authentication, the processor 31 receives the ID information (ID code and password) input by the user and the ID information (ID code and password of each user) stored in the ID information table 37a of the magnetic disk 37. Is matched.

この照合によりユーザが入力したID情報と一致するID情報がID情報テーブル37aに存在しない場合(ステップS11、失敗)、上記処理プロセッサ31は、当該ユーザに対するID認証が失敗したと判断する。このようにID認証が失敗した場合、上記処理プロセッサ31は、ユーザが入力したID情報が認証されなかった旨を上記表示部21に表示し、当該ユーザのアクセスをリジェクトする。   If there is no ID information in the ID information table 37a that matches the ID information input by the user as a result of this collation (step S11, failure), the processing processor 31 determines that the ID authentication for the user has failed. Thus, when ID authentication fails, the said processor 31 displays on the said display part 21 that the ID information which the user input was not authenticated, and rejects the said user's access.

上記照合によりユーザが入力したID情報と一致するID情報がID情報データベース37aに存在した場合(ステップS11、成功)、上記処理プロセッサ31は、当該ユーザに対するID認証が成功したと判断する。このようにID認証が成功した場合、上記処理プロセッサ31は、例えば、上記表示部21にユーザが入力したID情報が認証された旨を表示するとともに、少なくとも正面向きの顔を含む画像(顔画像)を上記カメラ22にて撮影することを当該ユーザに対して促す。このような案内とともに、上記処理プロセッサ31は、上記カメラ22によりユーザの顔画像を入力する画像入力処理を行う(ステップS12)。   When ID information that matches the ID information input by the user by the above collation exists in the ID information database 37a (step S11, success), the processing processor 31 determines that the ID authentication for the user has been successful. When the ID authentication is successful in this way, the processing processor 31 displays, for example, that the ID information input by the user has been authenticated on the display unit 21 and an image (face image) including at least a front-facing face. ) Is urged to be taken by the camera 22. Along with such guidance, the processor 31 performs an image input process for inputting the user's face image by the camera 22 (step S12).

上記画像入力処理では、上記処理プロセッサ31の制御によりカメラ22が1フレーム分の画像を撮影し、撮影した画像をキャプチャボード35によって上記処理部12内に取り込む。上記カメラ22が撮影した顔画像を顔画像データとして処理部12内に取り込むと、上記処理プロセッサ31は、取り込んだ画像データ全体から顔の特徴点を検出することにより顔検出処理を行う(ステップ13)。この顔検出処理では、上記カメラ22により取り込んだ画像データ(入力画像データ)から粗く顔画像領域を探索し、続いて細かく顔領域内の瞳領域中心点と鼻孔領域中心点との4つの特徴点を顔の特徴点として検出する処理である。   In the image input process, the camera 22 captures an image for one frame under the control of the processing processor 31, and the captured image is captured into the processing unit 12 by the capture board 35. When the face image captured by the camera 22 is captured in the processing unit 12 as face image data, the processing processor 31 performs face detection processing by detecting facial feature points from the entire captured image data (step 13). ). In this face detection process, the face image area is roughly searched from the image data (input image data) captured by the camera 22, and then the four feature points of the pupil area center point and the nostril area center point in the face area are finely searched. Is detected as a feature point of the face.

このような顔検出処理において入力画像から顔の特徴点が検出できなった場合、つまり、顔の検出に失敗した場合(ステップS13、失敗)、上記処理プロセッサ31は、当該ユーザのアクセスをリジェクトする。この場合、上記処理プロセッサ31は、上記ステップS12の画像入力処理へ戻り、再度、顔画像を撮影して顔検出処理を行う。   When face feature points cannot be detected from the input image in such face detection processing, that is, when face detection fails (step S13, failure), the processor 31 rejects the user's access. . In this case, the processor 31 returns to the image input process in step S12, and again captures a face image and performs a face detection process.

また、上記顔検出処理により入力画像から顔の特徴点が検出できた場合、つまり、顔の検出に成功した場合(ステップS13、成功)、上記処理プロセッサ31は、検出した顔の特徴点に基づいて顔パターン領域の切出処理を行う(ステップS14)。   In addition, when the face feature point can be detected from the input image by the face detection process, that is, when the face detection is successful (step S13, success), the processing processor 31 is based on the detected face feature point. Then, the face pattern area is cut out (step S14).

この切出処理により入力された顔画像データから顔パターン領域を切り出すと、上記処理プロセッサ31は、顔パターン領域の画像データに対して正規化処理を行う(ステップS16)。この正規化処理では、顔パターン領域の画像データに対して幾何補正および濃度補正を行う。これらの処理が完了すると、処理プロセッサ31は、抽出された特徴点に基づいて顔の特徴量としての特徴ベクトル(顔パターン)を算出(生成)する(ステップS16)。   When the face pattern area is cut out from the face image data input by this cut-out process, the processing processor 31 performs a normalization process on the image data of the face pattern area (step S16). In this normalization process, geometric correction and density correction are performed on the image data of the face pattern region. When these processes are completed, the processor 31 calculates (generates) a feature vector (face pattern) as a face feature amount based on the extracted feature points (step S16).

当該ユーザの顔の特徴量としての特徴ベクトルを算出すると、上記処理プロセッサ31は、履歴情報の生成処理として当該ユーザのID情報、撮影時間、及び、撮影地点などからなる履歴情報を生成する。この履歴情報の生成処理により履歴情報を生成すると、上記処理プロセッサ31は、当該履歴情報、撮影した画像、及びその画像から算出した特徴ベクトルなどからなる顔履歴情報を上記顔記録サーバ3へ伝送する伝送処理を実行する(ステップS17)。なお、この伝送処理において上記顔記録サーバ3へデータを伝送する際、上記処理プロセッサ31は、上記磁気ディスク37を一時バッファとして用いる。   When the feature vector as the feature amount of the user's face is calculated, the processing processor 31 generates history information including the ID information, shooting time, shooting point, and the like of the user as history information generation processing. When history information is generated by the history information generation process, the processor 31 transmits face history information including the history information, a captured image, a feature vector calculated from the image, and the like to the face recording server 3. A transmission process is executed (step S17). In this transmission process, when data is transmitted to the face recording server 3, the processor 31 uses the magnetic disk 37 as a temporary buffer.

また、図8に示す動作例では、上記カメラ22にて撮影した1フレームの顔画像を対象としているが、あらかじめ設定した複数枚(N枚)のフレームを収集するようにしてもよい。この場合の入力端末2の動作は、図9に示すように、顔の特徴点の検出に成功したフレームの数が少なくともN枚になるまで、図8のステップS12及びステップS13の処理を繰返し行うものである。   Further, in the operation example shown in FIG. 8, the face image of one frame taken by the camera 22 is targeted, but a plurality of preset (N) frames may be collected. As shown in FIG. 9, the operation of the input terminal 2 in this case repeats the processing of step S12 and step S13 in FIG. 8 until the number of frames in which facial feature points have been successfully detected is at least N. Is.

すなわち、図9に示す動作例では、まず、上記ステップS12で画像を入力すると、上記処理プロセッサ31は、上記カメラ22から入力したフレーム数(入力フレーム数)がTとなったか否かを判断する。この判断により入力フレーム数がTに達していないと判断した場合、上記処理プロセッサ31は、当該入力フレームの画像に基づく画像データに対して顔検出処理を行う(ステップS22)。この顔検出処理により顔の特徴点が検出できなかった場合(ステップS22、失敗)、上記処理プロセッサ31は、上記ステップS12へ戻り、上記カメラ22から次のフレームの画像を入力する。   That is, in the operation example shown in FIG. 9, first, when an image is input in step S <b> 12, the processing processor 31 determines whether or not the number of frames (input frame number) input from the camera 22 has become T. . If it is determined by this determination that the number of input frames has not reached T, the processing processor 31 performs face detection processing on the image data based on the image of the input frame (step S22). If a face feature point cannot be detected by this face detection process (step S22, failure), the processing processor 31 returns to step S12 and inputs an image of the next frame from the camera 22.

また、上記顔検出処理により顔の特徴点が検出できた場合(ステップS22、成功)、上記処理プロセッサ31は、当該フレームの画像を受理し、そのフレーム(受理フレーム)の画像を上記磁気ディスク37などの記憶手段に蓄積する。当該フレームを受理すると、上記処理プロセッサ31は、受理フレームが所定数(M)に達したか否かを判断する(ステップS23)。この判断により受理フレーム数がMに達していないと判断した場合、上記処理プロセッサ31は、上記ステップS12へ戻り、上記カメラ22から次のフレームの画像を入力する。また、上記判断により受理フレーム数がMに達したと判断した場合、上記処理プロセッサ31は、蓄積した受理フレームの対する処理を行うステップS25へ進む。   When the facial feature point can be detected by the face detection process (step S22, success), the processing processor 31 accepts the image of the frame and the image of the frame (acceptance frame) as the magnetic disk 37. It accumulates in the storage means. When receiving the frame, the processor 31 determines whether or not the number of received frames has reached a predetermined number (M) (step S23). If it is determined by this determination that the number of accepted frames has not reached M, the processor 31 returns to step S12 and inputs an image of the next frame from the camera 22. If it is determined by the above determination that the number of accepted frames has reached M, the processor 31 proceeds to step S25 in which processing is performed on the accumulated accepted frames.

また、上記ステップS21で、入力フレーム数がTに達したと判断した場合、上記処理プロセッサ31は、それまでに受理した受理フレーム数がN以上であるか否かを判断する(ステップS24)。この判断により受理フレーム数がN以上でないと判断した場合、上記処理プロセッサ31は、当該ユーザに対する顔画像の入力処理をリジェクトする。また、上記判断により受理フレーム数がN以上であると判断した場合、上記処理プロセッサ31は、上記ステップS25へ進む。   If it is determined in step S21 that the number of input frames has reached T, the processor 31 determines whether or not the number of frames received so far is N or more (step S24). If it is determined by this determination that the number of accepted frames is not N or more, the processor 31 rejects the face image input process for the user. On the other hand, if it is determined by the above determination that the number of accepted frames is N or more, the processing processor 31 proceeds to step S25.

上記ステップS25では、受理フレームとして上記磁気ディスク37などの記録手段に蓄積された複数の画像に対して上記ステップS14〜S16の処理を行う。すなわち、上記処理プロセッサ31は、顔の特徴点が検出できた画像が少なくともN以上獲得できた場合に、それらの画像に対して顔パターン領域の切出処理、画像正規化処理、及び特徴ベクトルの算出処理を行う。   In step S25, the processes in steps S14 to S16 are performed on a plurality of images stored in a recording unit such as the magnetic disk 37 as a reception frame. That is, when at least N or more images in which facial feature points can be detected have been acquired, the processing processor 31 extracts face pattern regions, image normalization processing, and feature vectors for those images. Perform the calculation process.

上記ステップS25の処理が完了すると、上記処理プロセッサ31は、入力した一群の顔画像データに対するユーザのID情報、撮影時間及び撮影地点などからなる履歴情報を生成する。このような履歴情報を生成すると、上記処理プロセッサ31は、当該履歴情報、受理した全ての顔画像データ、及びそれらの顔画像データから算出した特徴ベクトルなどからなる顔履歴情報を上記顔記録サーバ3へ伝送する(ステップS17)。   When the process of step S25 is completed, the processor 31 generates history information including user ID information, shooting time, shooting point, and the like for the input group of face image data. When such history information is generated, the processor 31 obtains face history information including the history information, all received face image data, feature vectors calculated from the face image data, and the face recording server 3. (Step S17).

なお、上記顔記録サーバ3に伝送する画像のフレーム数は多ければ多いほど、上記顔記録サーバ3での顔検索の精度を上げることができる。しかしながら、上記入力端末2で収集すべき顔画像データのフレーム数が多くなればなるほど、顔画像の入力(登録)処理に時間がかかることとなる。そこで、図9に示す動作例では、パラメータMを導入し,ユーザが入力端末での処理として許容できる範囲の入力フレーム数を設定しておき、その入力フレーム数内において、N枚からM枚までのフレーム数(少なくともN以上のフレーム)の画像を収集するようになっている。   Note that the greater the number of frames of the image transmitted to the face recording server 3, the higher the accuracy of the face search in the face recording server 3. However, as the number of frames of face image data to be collected by the input terminal 2 increases, the face image input (registration) process takes longer. Therefore, in the operation example shown in FIG. 9, the parameter M is introduced, the number of input frames within a range that the user can accept as processing at the input terminal is set, and N to M frames within the number of input frames. The number of frames (at least N or more frames) is collected.

また、図8及び図9の動作説明においては、上記表示部に表示される案内や上記スピーカによる音声ガイダンスなどに関する処理は省略しているが、画像入力処理時に、ユーザに対して顔の正面をカメラ22に向けるようなガイダンスを行ったり、顔検出に成功した場合にユーザにアクセス許可を報知したり、逆に失敗した場合にユーザのアクセスを拒否したり、ユーザにリトライを促すといったことを行うようにしても良い。   Further, in the explanation of the operations in FIG. 8 and FIG. 9, processing related to guidance displayed on the display unit and voice guidance by the speaker is omitted, but the front of the face is shown to the user at the time of image input processing. Guidance is directed to the camera 22, the user is notified of access permission when face detection is successful, the user is denied access when it fails, and the user is prompted to retry. You may do it.

次に、第1の実施の形態に係る顔記録サーバ3の動作について説明する。
図10は、第1の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャートである。
まず、上記顔記録サーバ3は、上記入力端末2からの顔履歴情報を受信する(ステップS31)。ここでは、上記入力端末2から受信した顔履歴情報には、少なくともユーザのID情報と当該ユーザの顔画像データから抽出した顔の特徴パターン(顔パターン)とを含まれているものとする。
Next, the operation of the face recording server 3 according to the first embodiment will be described.
FIG. 10 is a flowchart for explaining the operation of the face recording server 3 according to the first embodiment.
First, the face recording server 3 receives face history information from the input terminal 2 (step S31). Here, it is assumed that the face history information received from the input terminal 2 includes at least user ID information and a facial feature pattern (face pattern) extracted from the user's face image data.

上記入力端末2か顔履歴情報を受信した場合、上記顔記録サーバ3の制御部51は、受信した顔履歴情報をそのID情報に対応づけて顔履歴データベース4に記録する(ステップS32)。さらに、上記制御部51は、当該顔履歴情報がそのID情報に対応する最初の顔履歴情報か否かを判断する(ステップS33)。   When the face history information is received from the input terminal 2, the control unit 51 of the face recording server 3 records the received face history information in the face history database 4 in association with the ID information (step S32). Further, the control unit 51 determines whether or not the face history information is the first face history information corresponding to the ID information (step S33).

この判断により当該顔履歴情報がそのID情報に対応する最初の顔履歴情報であると判断した場合、つまり、当該顔履歴情報と同じID情報の顔履歴情報が存在しない場合、上記制御部51は、当該顔履歴情報に含まれている顔パターンをそのID情報に対応するユーザの代表顔パターンとして上記顔履歴データベース4に記録する(ステップS34)。ここで、代表顔パターンとは、各ユーザの顔パターンを代表するものであるとする。また、上記代表顔パターンは、新たに取得した顔パターンを用いて照合処理(同定処理)を行う場合に、各ユーザの辞書データとしての顔パターンとして用いられる。   When it is determined by this determination that the face history information is the first face history information corresponding to the ID information, that is, when face history information having the same ID information as the face history information does not exist, the control unit 51 The face pattern included in the face history information is recorded in the face history database 4 as the representative face pattern of the user corresponding to the ID information (step S34). Here, the representative face pattern is assumed to represent the face pattern of each user. The representative face pattern is used as a face pattern as dictionary data for each user when a matching process (identification process) is performed using a newly acquired face pattern.

また、上記ステップS33で、当該顔履歴情報がそのID情報に対応する最初の顔履歴情報でないと判断した場合、つまり、当該顔履歴情報と同じID情報の顔履歴情報が既に顔履歴データベース4に存在している場合、上記制御部51は、既に上記顔履歴データベース4に記録されている当該顔履歴情報のID情報に対応する顔パターン(代表顔パターン)と当該顔履歴情報の顔パターンとの照合(同定)処理を行う(ステップS35)。この照合処理の結果としては、当該顔履歴情報の顔パターンと代表顔パターンとの照合度が算出される。   If it is determined in step S33 that the face history information is not the first face history information corresponding to the ID information, that is, face history information having the same ID information as the face history information is already stored in the face history database 4. If the face history information is present, the control unit 51 determines whether the face pattern (representative face pattern) corresponding to the ID information of the face history information already recorded in the face history database 4 and the face pattern of the face history information. A collation (identification) process is performed (step S35). As a result of this matching process, a matching degree between the face pattern of the face history information and the representative face pattern is calculated.

なお、顔パターンの照合処理の具体的な処理方法としては、文献3に記載されているような「相互部分空間法」を適用できる。さらに、顔パターン照合の方法としては、デジタル画像処理やパターン認識分野で知られている従来技術(例えば、特徴ベクトル間の「相関法」や文字認識などで使われている「部分空間法」など)を適用することができる。   As a specific processing method of face pattern matching processing, a “mutual subspace method” as described in Document 3 can be applied. Furthermore, as face pattern matching methods, conventional techniques known in the field of digital image processing and pattern recognition (for example, “correlation method between feature vectors” and “subspace method” used in character recognition, etc. ) Can be applied.

上記照合処理の結果としての照合度が算出されると、上記制御部51は、算出した照合度が所定の閾値以上か否かを判断する(ステップS36)。この判断により照合度が所定の閾値以上であると判断した場合、上記制御部51は、当該ユーザが本人でない(「なりすまし」である)と判断し、上記表示部55あるいは図示しないアラーム等により監視員に対して当該ユーザが「なりすまし」である旨を報知する。   When the collation degree as a result of the collation processing is calculated, the control unit 51 determines whether or not the calculated collation degree is equal to or greater than a predetermined threshold (step S36). If it is determined by this determination that the collation degree is equal to or greater than a predetermined threshold, the control unit 51 determines that the user is not the person himself (“spoofing”) and monitors the display unit 55 or an alarm (not shown). Inform the employee that the user is “spoofing”.

なお、ユーザが「なりすまし」であると判断した場合、上記ステップS32で上記顔履歴データベース4に記録した当該顔履歴情報には、当該ユーザが「なりすまし」である旨、あるいは、当該顔履歴情報が無効である旨が記録される。また、このような場合には当該顔履歴情報を上記顔履歴データベース4から削除するようにしても良い。   When it is determined that the user is “spoofing”, the face history information recorded in the face history database 4 in step S32 includes the fact that the user is “spoofing” or the face history information includes Invalidity is recorded. In such a case, the face history information may be deleted from the face history database 4.

ここで、「なりすまし」とは、上記入力端末2でID認証を行った人物が他のユーザになりすましていることである。従って、「なりすまし検知」とは、上記入力端末2でID認証を行った人物が他のユーザになりすましていないかを上記入力端末2で撮影された顔画像(顔画像データ)に基づいて判断するものである。   Here, “spoofing” means that a person who has performed ID authentication at the input terminal 2 is impersonating another user. Therefore, “spoofing detection” is based on the face image (face image data) taken by the input terminal 2 to determine whether the person who has performed ID authentication at the input terminal 2 is impersonating another user. Is.

また、上記判断により照合度が所定の閾値以上でないと判断すると、上記制御部51は、当該ユーザが本人である(「なりすまし」でない)と判断する。これにより当該ユーザが本人であると判断した場合、上記制御部51は、当該顔履歴情報の顔パターンにより当該ユーザの代表顔パターンを更新する処理を行う(ステップS38)。   If it is determined by the above determination that the collation degree is not equal to or greater than a predetermined threshold, the control unit 51 determines that the user is the person himself (not “spoofing”). Thus, when it is determined that the user is the user, the control unit 51 performs a process of updating the representative face pattern of the user with the face pattern of the face history information (step S38).

また、上記代表顔パターンの更新処理では、代表顔パターンを当該顔履歴情報の顔パターンに書き換えるようにしても良し、既存の代表顔パターンと当該顔履歴情報の顔パターンとから平均的な顔パターンを生成して代表顔パターンとするようにしても良い。前者の場合は、当該顔履歴情報の顔パターンが最新のユーザの顔パターンであるので、ユーザの代表顔パターンが常に最新の顔パターンに書き換えることができるという利点がある。また、後者の場合は、既存の代表顔パターンと最新の顔パターンとに基づいて代表顔パターンが更新されていくため、質の高い代表顔パターンを生成することができるという利点がある。   In the representative face pattern update process, the representative face pattern may be rewritten to the face pattern of the face history information, and an average face pattern is calculated from the existing representative face pattern and the face pattern of the face history information. May be used as a representative face pattern. In the former case, since the face pattern of the face history information is the latest face pattern of the user, there is an advantage that the representative face pattern of the user can always be rewritten to the latest face pattern. In the latter case, since the representative face pattern is updated based on the existing representative face pattern and the latest face pattern, there is an advantage that a high-quality representative face pattern can be generated.

なお、当該顔履歴情報の顔パターンが安定した状態の顔パターンでないと判断できる場合には、当該ユーザの代表顔パターンの更新処理を行わないようにしても良い。また、上記ステップS38では代表顔パターンの更新を行わずに、別途、管理者が上記顔履歴データベース4に記録されている顔パターンから代表顔パターンとするものを対話的に指定するようにしても良い。   If it can be determined that the face pattern of the face history information is not a stable face pattern, the update process of the representative face pattern of the user may not be performed. In step S38, the representative face pattern is not updated, and the administrator interactively designates the face pattern recorded in the face history database 4 as the representative face pattern. good.

上記のように、上記第1の実施の形態では、入力端末2においてユーザが入力したID情報によるID認証で認証されたユーザの顔画像を撮影し、その顔画像に基づく顔画像データを用いた顔照合により顔記録サーバで当該ユーザが本人であるか否かを確認するようにしたものである。   As described above, in the first embodiment, the face image of the user authenticated by ID authentication based on the ID information input by the user at the input terminal 2 is captured, and the face image data based on the face image is used. The face recording server confirms whether or not the user is the person himself / herself by face matching.

すなわち、上記第1の実施の形態では、上記顔記録サーバが、各入力端末から送られてきた顔履歴情報に含まれるID情報に基づいて、同じID情報をもった過去の履歴情報の顔画像データと当該顔履歴情報の顔画像データとの照合処理を行い、この照合処理により当該顔履歴情報の人物が本人であると確認(同定)されなければ、「なりすまし(本人ではない)」と判定して監視員に報知するようにしたものである。   That is, in the first embodiment, the face recording server is a face image of past history information having the same ID information based on the ID information included in the face history information sent from each input terminal. If the data and the face image data of the face history information are collated, and the person of the face history information is not confirmed (identified) by this collation processing, it is determined as “spoofing (not the person)” This is to inform the monitoring personnel.

これにより、第1の実施の形態によれば、リアルタイム(複数の入力端末からの顔履歴情報に基づいて処理を行うための多少の時間遅れとしての準リアルタイムも含めるものとする)で各入力端末における「なりすまし」を顔記録サーバにて判断し、監視員に報知することがきる。   Thus, according to the first embodiment, each input terminal in real time (including a near real time as a slight time delay for processing based on face history information from a plurality of input terminals). The “spoofing” can be determined by the face recording server and notified to the monitoring staff.

以下、第2の実施の形態について説明する。
この第2の実施の形態は、例えば、上記モデルBのネットワークシステムに適用される。また、第2の実施の形態の実現形態としては、一体型装置であっても良いし、ネットワーク型のシステムであっても良い。この第2の実施の形態では、リアルタイムで当該ユーザの顔履歴情報の一覧(「1地点追跡」結果)をモニタリングするシステムである。
Hereinafter, a second embodiment will be described.
This second embodiment is applied to the model B network system, for example. Further, as an implementation form of the second embodiment, it may be an integrated device or a network type system. In the second embodiment, a list of face history information of the user (“one-point tracking” result) is monitored in real time.

なお、この第2の実施の形態は、入力端末としての顔画像入力装置の外観構成やシステム全体構成などは、上記第1の実施の形態と同じものであるとする。但し、この第2の実施の形態では、入力端末2でのID認証(キーイン入力及びそのコード処理)が不要となる(モデルBを対象とする)ため、上記テンキー24等のID認証に係る構成は省略しても良い。   In the second embodiment, the appearance configuration and the overall system configuration of a face image input device as an input terminal are the same as those in the first embodiment. However, in the second embodiment, ID authentication (key-in input and code processing thereof) at the input terminal 2 is not required (for model B), and the configuration related to ID authentication of the numeric keypad 24, etc. May be omitted.

この第2の実施の形態では、上記顔履歴データベース4に記録される顔履歴情報は、ユーザごとの顔履歴情報のグループとしてのクラスタごとに記録される。従って、上記顔履歴データベース4に記録される顔履歴情報には、ユーザごとに割り当てられるクラスタ番号が付与され、クラスタごとにグループ化される。また、各クラスタには、そのユーザの代表的な顔パターンとして代表顔パターンが定義されている。   In the second embodiment, the face history information recorded in the face history database 4 is recorded for each cluster as a group of face history information for each user. Accordingly, the face history information recorded in the face history database 4 is given a cluster number assigned for each user, and is grouped for each cluster. In each cluster, a representative face pattern is defined as a representative face pattern of the user.

次に、第2の実施の形態に係る入力端末2の動作について説明する。
上記第2の実施の形態において、上記入力端末2は、ID認証以外の動作は上記第1の実施の形態とほぼ同様な動作を行う。すなわち、第2の実施の形態の入力端末2では、図8又は図9に示す動作から上記ステップS11の動作を省略した動作を行う。このため、上記入力端末2は、ユーザのID情報を含まない顔履歴情報を生成して上記顔記録サーバ3へ伝送するようになっている。
Next, the operation of the input terminal 2 according to the second embodiment will be described.
In the second embodiment, the input terminal 2 performs substantially the same operation as the first embodiment except for the ID authentication. That is, the input terminal 2 according to the second embodiment performs an operation in which the operation in step S11 is omitted from the operation illustrated in FIG. Therefore, the input terminal 2 generates face history information that does not include user ID information and transmits the face history information to the face recording server 3.

次に、第2の実施の形態に係る顔記録サーバ3の動作について説明する。
図11は、第2の実施の形態に係る顔記録サーバ3での処理の流れを説明するためのフローチャートである。
Next, the operation of the face recording server 3 according to the second embodiment will be described.
FIG. 11 is a flowchart for explaining the flow of processing in the face recording server 3 according to the second embodiment.

まず、上記顔記録サーバ3は、上記入力端末2からの顔履歴情報を受信する(ステップS41)。ここでは、上記入力端末2から受信した顔履歴情報には、当該ユーザの顔画像から抽出した顔の特徴パターン(顔パターン)が含まれているが、ユーザのID情報は含まれないものとする。   First, the face recording server 3 receives face history information from the input terminal 2 (step S41). Here, the face history information received from the input terminal 2 includes a face feature pattern (face pattern) extracted from the user's face image, but does not include user ID information. .

上記入力端末2から顔履歴情報を受信した場合、上記顔記録サーバ3の制御部51は、受信した顔履歴情報が当該顔記録サーバ3が最初に受信した顔履歴情報か否かを判断する(ステップS42)。この判断により最初の顔履歴情報と判断した場合、つまり、上記顔履歴データベース4に顔履歴情報が蓄積されていない場合(ステップS42、YES)、上記制御部51は、後述するステップS46へ進む。   When the face history information is received from the input terminal 2, the control unit 51 of the face recording server 3 determines whether or not the received face history information is the face history information received by the face recording server 3 first ( Step S42). If it is determined as the first face history information by this determination, that is, if face history information is not accumulated in the face history database 4 (YES in step S42), the control unit 51 proceeds to step S46 described later.

また、上記判断により最初の顔履歴情報でないと判断した場合、つまり、上記顔履歴データベース4に顔履歴情報が蓄積されていると判断した場合(ステップS42、NO)、上記制御部51は、受信した顔履歴情報の顔パターンと顔履歴データベース4に蓄積されている各クラスタの代表顔パターンとの照合処理を行う(ステップS43)。この照合処理では、受信した顔履歴情報の顔パターンと各クラスタの代表顔パターンとの照合度をそれぞれ算出し、それらの照合度のうち最大照合度を照合結果とする。また、上記顔履歴情報に顔画像を入力した入力端末を示す端末IDを含めておき、上記照合処理においては、受信した顔履歴情報の顔パターンと照合するクラスタを当該顔履歴情報と同じ端末IDの顔履歴情報を有するものに限定するようにしても良い。   When it is determined that the face history information is not the first face history information, that is, when it is determined that the face history information is stored in the face history database 4 (NO in step S42), the control unit 51 receives the information. The face pattern of the face history information thus matched is compared with the representative face pattern of each cluster stored in the face history database 4 (step S43). In this matching process, the matching degree between the face pattern of the received face history information and the representative face pattern of each cluster is calculated, and the maximum matching degree among the matching degrees is used as a matching result. Further, a terminal ID indicating an input terminal that has input a face image is included in the face history information, and in the matching process, a cluster to be matched with the face pattern of the received face history information is the same terminal ID as the face history information. May be limited to those having face history information.

上記照合処理により当該顔履歴情報の顔パターンに対する最大照合度が得られると、上記制御部51は、その最大照合度となる代表顔パターンのクラスタ番号を判定する(ステップS43)。さらに、上記制御部51は、上記照合処理で得られた最大照合度が所定の閾値以上か否かを判断する(ステップS44)。   When the maximum matching degree for the face pattern of the face history information is obtained by the matching process, the control unit 51 determines the cluster number of the representative face pattern that is the maximum matching degree (step S43). Further, the control unit 51 determines whether or not the maximum collation degree obtained by the collation process is greater than or equal to a predetermined threshold (step S44).

この判断により最大照合度が所定の閾値以上でないと判断すると、上記制御部51は、新たなクラスタを1つ生成し、上記顔履歴データベース4に記録する。上記顔履歴データベース4に新たなクラスタを記録すると、さらに、上記制御部51は、受信した顔履歴情報をそのクラスタに属する顔履歴情報として上記顔履歴データベース4に記録する。この際、上記制御部51は、当該顔履歴情報の顔パターンをそのクラスタの代表顔パターンとして上記顔履歴データベース4に記録する(ステップS46)。   If it is determined by this determination that the maximum matching degree is not equal to or greater than a predetermined threshold, the control unit 51 generates one new cluster and records it in the face history database 4. When a new cluster is recorded in the face history database 4, the control unit 51 further records the received face history information in the face history database 4 as face history information belonging to the cluster. At this time, the control unit 51 records the face pattern of the face history information in the face history database 4 as a representative face pattern of the cluster (step S46).

このような動作により当該顔履歴情報を上記顔履歴データベース4に記録すると、上記制御部51は、その顔履歴情報のユーザが初めて上記入力端末2で撮影されたユーザである旨を上記表示部に表示する。これにより、上記顔記録サーバ3の監視員は、初めてのユーザが当該入力端末2に現れたことをリアルタイムで認識できる。   When the face history information is recorded in the face history database 4 by such an operation, the control unit 51 informs the display unit that the user of the face history information is the first user who took a picture with the input terminal 2. indicate. Thereby, the supervisor of the face recording server 3 can recognize in real time that the first user has appeared on the input terminal 2.

また、上記ステップS45で、上記照合処理により得られた最大照合度が所定の閾値以上であると判断した場合、上記制御部51は、当該顔履歴情報のユーザが上記ステップS44で判定した最大照合度となったクラスタ(対応するクラスタ)のユーザであることを判断する。これにより、上記制御部51は、対応するクラスタに当該顔履歴情報が属するように、当該顔履歴情報を上記顔履歴データベース4に記録する(ステップS48)。当該顔履歴情報を上記顔履歴データベース4に記録する際、上記制御部51は、そのクラスタの代表顔パターンを当該顔履歴情報の顔パターンにより更新する(ステップS49)。   If it is determined in step S45 that the maximum matching degree obtained by the matching process is equal to or greater than a predetermined threshold, the control unit 51 determines the maximum matching determined by the user of the face history information in step S44. It is determined that the user is the user of the cluster (corresponding cluster). Accordingly, the control unit 51 records the face history information in the face history database 4 so that the face history information belongs to the corresponding cluster (step S48). When the face history information is recorded in the face history database 4, the control unit 51 updates the representative face pattern of the cluster with the face pattern of the face history information (step S49).

当該顔履歴情報を上記顔履歴データベース4に記録すると、上記制御部51は、そのクラスタのユーザの行動履歴を上記表示部55に表示する。この際、当該ユーザの行動履歴として上記表示部55には、例えば、図12に示すような画面が表示される。図12に示す表示例では、当該ユーザのクラスタ番号、及び、最新の顔画像を撮影した入力端末を示す端末番号とともに、当該ユーザの行動履歴を示す情報が表示されている。上記表示部21に表示される当該ユーザの行動履歴としては、当該クラスタ内の顔履歴情報ごとに、登録番号、アクセス日時(アクセス月日、アクセス時間)、顔画像(記録されている顔画像の縮小画像等)などが最新のものから順に表示される。   When the face history information is recorded in the face history database 4, the control unit 51 displays the action history of the users of the cluster on the display unit 55. At this time, for example, a screen as shown in FIG. 12 is displayed on the display unit 55 as the action history of the user. In the display example illustrated in FIG. 12, information indicating the user's action history is displayed together with the cluster number of the user and the terminal number indicating the input terminal that has captured the latest face image. The user's action history displayed on the display unit 21 includes, for each face history information in the cluster, a registration number, access date / time (access date / time, access time), face image (of the recorded face image). Etc.) are displayed in order from the latest one.

なお、上記ステップS49では、受信した顔履歴情報(最新の顔履歴情報)の顔パターンに基づいて当該クラスタの代表顔パターンを更新するものとしたが、顔履歴情報を受信するごとに、上記顔記録サーバ3の管理者が受信した顔履歴情報の顔パターンで対応するクラスタの代表顔パターンを更新するか否かを指定するようにしても良い。また、各クラスタで複数の代表顔パターンを有することを可能とし、顔履歴情報を受信するごとに、上記顔記録サーバ3が顔履歴情報の顔パターンを代表顔パターンとして追加するようにしても良い。また、顔履歴情報を受信するごとに、上記制御部51が、受信した顔履歴情報の顔パターンと対応するクラスタの代表顔パターンと1つにマージするようにしても良い。ここで、マージするとは、例えば、複数の顔パターンを平均化したり、統計的に主成分分析をおこなって主成分のみを保持したりするものである。   In step S49, the representative face pattern of the cluster is updated based on the face pattern of the received face history information (latest face history information). The administrator of the recording server 3 may specify whether to update the representative face pattern of the corresponding cluster with the face pattern of the face history information received. Further, each cluster can have a plurality of representative face patterns, and each time face history information is received, the face recording server 3 may add the face pattern of the face history information as a representative face pattern. . Further, each time the face history information is received, the control unit 51 may merge with the representative face pattern of the cluster corresponding to the face pattern of the received face history information. Here, merging means, for example, averaging a plurality of face patterns or statistically performing principal component analysis to hold only the principal components.

上記のように、第2の実施の形態では、上記顔記録サーバが各入力端末から顔履歴情報をごとに、今送られてきた顔履歴情報の顔パターンと上記顔履歴データベース4に記録されている各クラスタの代表顔パターンとを照合し、当該顔履歴情報の顔パターンと同定された代表顔パターンを有するクラスタに属する顔履歴情報により、当該ユーザの行動履歴を表示する。これにより、上記顔記録サーバの管理者は、各入力端末で人物が撮影される度に、その人物の行動履歴を容易に確認することができる。
また、上記第2の実施の形態では、上記履歴データベースにユーザごとのクラスタとして各顔履歴情報を分類して記録するようにしているため、照合処理が効率化できる。
As described above, in the second embodiment, the face record server records the face history information from each input terminal in the face history database 4 and the face history database 4 that are currently sent. The user's action history is displayed based on the face history information belonging to the cluster having the identified representative face pattern and the face pattern of the face history information. Thereby, the manager of the face recording server can easily check the action history of the person every time the person is photographed at each input terminal.
In the second embodiment, since the face history information is classified and recorded as clusters for each user in the history database, the matching process can be made efficient.

以下、第3の実施の形態について説明する。
この第3の実施の形態は、例えば、上記モデルBのネットワーク型のシステムに適用される。また、第3の実施の形態では複数地点に設置された入力端末が必要となるため、実現形態としてはネットワーク型のシステムとなる。
The third embodiment will be described below.
The third embodiment is applied to the model B network type system, for example. In the third embodiment, since input terminals installed at a plurality of points are required, a network type system is realized as an implementation form.

この第3の実施の形態は、顔記録サーバ3において、各入力端末2で撮影したユーザの行動軌跡(「多地点追跡」結果)をリアルタイムでモニタリングするものである。すなわち、この第3の実施の形態は、上記第2の実施の形態を拡張したものであり、複数の地点に設置された入力端末から得られた顔履歴情報を元に、各入力端末で撮影されたユーザの行動履歴として、当該ユーザの行動の軌跡を監視員に報知するものである。   In the third embodiment, the face recording server 3 monitors a user's action trajectory (“multi-point tracking” result) taken by each input terminal 2 in real time. That is, the third embodiment is an extension of the second embodiment, and is photographed at each input terminal based on face history information obtained from input terminals installed at a plurality of points. As a user's action history, the user's action trajectory is notified to the monitoring staff.

また、第3の実施の形態が適用される顔画像入力装置の外観構成及びシステム構成は、第2の実施の形態と同様である。つまり、第3の実施の形態も、上記第1の実施の形態と同じものであり、第1の実施の形態における入力端末2でのID認証(キーイン入力及びそのコード処理)が不要となる。   The appearance configuration and system configuration of the face image input apparatus to which the third embodiment is applied are the same as those of the second embodiment. That is, the third embodiment is also the same as the first embodiment, and ID authentication (key-in input and its code processing) at the input terminal 2 in the first embodiment is not necessary.

この第3の実施の形態では、上記第2の実施の形態と同様に、上記顔履歴データベース4に記録される顔履歴情報は、ユーザごとの顔履歴情報のグループとしてのクラスタごとに分類して記録される。特に、第3の実施の形態では、複数の端末間の履歴情報についても照合処理を行うことが必要となるため,第2の実施の形態に比べて、処理量がそれだけ多くなる。このため、第3の実施の形態では、これまでの検索結果(ユーザクラスタ情報)を常に保持することにより重複処理をなくし、同定処理を効率化するようになっている。   In the third embodiment, as in the second embodiment, the face history information recorded in the face history database 4 is classified for each cluster as a group of face history information for each user. To be recorded. In particular, in the third embodiment, since it is necessary to perform collation processing on history information between a plurality of terminals, the processing amount is increased as compared with the second embodiment. For this reason, in the third embodiment, the search results (user cluster information) so far are always retained to eliminate duplication processing and to make the identification processing more efficient.

また、第3の実施の形態に係る入力端末2の動作についても、上記第2の実施の形態と同様である。つまり、第3の実施の形態において、上記入力端末2は、図8又は図9に示す動作から上記ステップS11の動作を省略した動作を行う。このため、上記入力端末2は、ユーザのID情報を含まない顔履歴情報を生成して上記顔記録サーバ3へ伝送するようになっている。但し、この第3の実施の形態では、顔履歴情報に少なくとも撮影場所及び顔画像を撮影した撮影時間が含まれる。上記撮影場所を示す情報としては、顔画像を撮影した入力端末を示す端末番号が用いられる。   The operation of the input terminal 2 according to the third embodiment is also the same as that of the second embodiment. That is, in the third embodiment, the input terminal 2 performs an operation in which the operation in step S11 is omitted from the operation illustrated in FIG. 8 or FIG. Therefore, the input terminal 2 generates face history information that does not include user ID information and transmits the face history information to the face recording server 3. However, in the third embodiment, the face history information includes at least the shooting location and the shooting time for shooting the face image. As the information indicating the shooting location, a terminal number indicating the input terminal that shot the face image is used.

また、第3の実施の形態に係る顔記録サーバ3の動作は、上記表示部55に表示するユーザの行動履歴としての情報以外は上記第2の実施の形態とほぼ同様である。すなわち、第3の実施の形態において上記顔記録サーバ3の動作は、上記ステップS50以外は図11に示す動作と同様である。   The operation of the face recording server 3 according to the third embodiment is substantially the same as that of the second embodiment except for the information as the user action history displayed on the display unit 55. That is, in the third embodiment, the operation of the face recording server 3 is the same as the operation shown in FIG. 11 except for step S50.

図11に示す動作の上記ステップS50において、上記顔記録サーバ3の制御部51は、まず、受信した顔履歴情報の顔パターンとの照合が成功したユーザ(クラスタ)の履歴情報を上記顔履歴データベース4から読み出す。次に、上記制御部51は、上記顔履歴データベース4から読み出した履歴情報に基づいて、当該ユーザの行動の軌跡を上記表示部55に表示する。この際、上記表示部55には、図13に示すような画面が表示される。   In step S50 of the operation shown in FIG. 11, the control unit 51 of the face recording server 3 first stores the history information of the user (cluster) that has been successfully verified with the face pattern of the received face history information in the face history database. Read from 4. Next, based on the history information read from the face history database 4, the control unit 51 displays the user's action trajectory on the display unit 55. At this time, a screen as shown in FIG. 13 is displayed on the display unit 55.

図13に示す表示例では、クラスタ番号、及び、最新のアクセス日時を表示するとともに、当該ユーザの過去の顔履歴情報に基づく、当該ユーザが過去に撮影された地点(撮影した入力端末の端末番号)及び撮影時間が行動の軌跡として表示されている。また、図13に示す表示例では、撮影地点と撮影時間とをチャートにて表示している。   In the display example shown in FIG. 13, the cluster number and the latest access date and time are displayed, and the point where the user has been photographed in the past based on the user's past face history information (the terminal number of the photographed input terminal) ) And the shooting time are displayed as a trajectory of action. In the display example shown in FIG. 13, the shooting point and the shooting time are displayed in a chart.

なお、上記表示部55にユーザの行動の軌跡として表示する顔履歴情報は、所定の条件に基づいて制限するようにしても良い。たとえば、現在までの経過時間が所定期間内の顔履歴情報に限定して、ユーザの行動の軌跡を表示するようにしても良い。この場合、現在までの経過時間が所定期間のものだけを表示することができ、古い顔履歴情報に基づくユーザの行動の軌跡を表示しないようにすることができる。また、ユーザの行動の軌跡として表示する顔履歴情報の数を制限するようにしても良い。例えば、最新の顔履歴情報から順に所定の件数分の顔履歴情報を表示するようにする。これにより、所定件数の軌跡を表示することができ、監視員が見やすい表示を行うことができる。   The face history information displayed on the display unit 55 as the user's action trajectory may be limited based on a predetermined condition. For example, the trajectory of the user's action may be displayed by limiting the elapsed time up to the present to face history information within a predetermined period. In this case, it is possible to display only those whose elapsed time up to the present time is a predetermined period, and it is possible to prevent the user's behavior trajectory based on the old face history information from being displayed. Further, the number of face history information to be displayed as a user's action trajectory may be limited. For example, a predetermined number of pieces of face history information are displayed in order from the latest face history information. Thereby, a predetermined number of trajectories can be displayed, and a display that can be easily viewed by the supervisor can be performed.

以下、第4の実施の形態について説明する。
この第4の実施の形態は、例えば、上記モデルA及びモデルBのネットワーク型のシステムに適用される。また、第4の実施の形態の実現形態としては、一体型装置であっても良いし、ネットワーク型のシステムであっても良い。この第4の実施の形態では、事前に顔画像を登録しておき、リアルタイムで「特定人物検知」を行うものである。
この第4の実施の形態は、入力端末2としての顔画像入力装置の外観構成やシステム全体の構成などは、上記第1の実施の形態と同じものであるとする。また、この第4の実施の形態において、入力端末2は、ID認証(キーイン入力及びそのコード処理)を行うモデルAの形態であっても良いし、ID認証が不要なモデルBの形態であっても良い。
Hereinafter, a fourth embodiment will be described.
The fourth embodiment is applied to, for example, the model A and model B network type systems. Moreover, as an implementation form of the fourth embodiment, an integrated apparatus or a network type system may be used. In the fourth embodiment, face images are registered in advance and “specific person detection” is performed in real time.
In the fourth embodiment, the appearance configuration of the face image input device as the input terminal 2 and the configuration of the entire system are the same as those in the first embodiment. In the fourth embodiment, the input terminal 2 may be in the form of model A that performs ID authentication (key-in input and its code processing), or in the form of model B that does not require ID authentication. May be.

また、第4の実施の形態における入力端末2の動作については、第1の実施の形態と同様に、図8又は図9に示す動作を行う者であっても良いし、第2、第3の実施の形態のように図8又は図9に示す動作から上記ステップS11の動作を省略した動作であっても良い。   In addition, the operation of the input terminal 2 in the fourth embodiment may be a person who performs the operation shown in FIG. 8 or FIG. 9 as in the first embodiment, or the second and third An operation in which the operation in step S11 is omitted from the operation shown in FIG. 8 or FIG.

次に、第4の実施の形態に係る顔記録サーバ3の動作について説明する。
この第4の実施の形態では、管理者は、予め特定人物の顔画像情報(顔パターン)のリスト(以下、「特定人物リスト」と呼ぶ)4aを作成して上記顔履歴データベース4に記録しておくものとする。ここで、特定人物とは、管理者が特に監視の対象としたい人物である。例えば、特定人物としては、不審者や要注意人物などが挙げられる。
Next, the operation of the face recording server 3 according to the fourth embodiment will be described.
In the fourth embodiment, the administrator creates a face image information (face pattern) list (hereinafter referred to as “specific person list”) 4 a of a specific person in advance and records it in the face history database 4. Shall be kept. Here, the specific person is a person that the administrator particularly wants to monitor. For example, the specific person may be a suspicious person or a person who needs attention.

また、特定人物リスト4aに登録される顔パターンは、上記顔履歴データベース4に蓄積されている顔履歴情報から選択される顔パターンであるものとする。また、上記特定人物リスト4aに登録される顔パターンは、写真などの顔画像データから作成された顔パターンであっても良いし、他の機器から取り込んだ顔パターンや他の機器から取り込んだ顔画像から作成した顔パターンなどであっても良い。   The face pattern registered in the specific person list 4a is a face pattern selected from the face history information stored in the face history database 4. Further, the face pattern registered in the specific person list 4a may be a face pattern created from face image data such as a photograph, a face pattern taken from another device, or a face taken from another device. It may be a face pattern created from an image.

図14は、第4の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャートである。
まず、上記顔記録サーバ3の管理者は、予め上記のような特定人物リスト4aを上記顔履歴データベース4に登録しておくものとする。この状態で、上記入力端末2から顔履歴情報を受信すると、上記制御部51は、受信した顔履歴情報を上記顔履歴データベース4に記録する(ステップS61)。上記入力端末2から受信した顔履歴情報を上記顔履歴データベース4に記録すると、上記制御部51は、受信した顔履歴情報の顔パターンと上記特定人物リスト4aに登録されている全ての顔パターンとの照合処理を行う(ステップS62)。この照合処理の結果としては、受信した顔履歴情報の顔パターンと上記特定人物リスト4aに登録されている全ての顔パターンとの照合度が得られる。
FIG. 14 is a flowchart for explaining the operation of the face recording server 3 according to the fourth embodiment.
First, it is assumed that the administrator of the face recording server 3 registers the specific person list 4a as described above in the face history database 4 in advance. When the face history information is received from the input terminal 2 in this state, the control unit 51 records the received face history information in the face history database 4 (step S61). When the face history information received from the input terminal 2 is recorded in the face history database 4, the control unit 51 includes the face pattern of the received face history information and all the face patterns registered in the specific person list 4a. Is performed (step S62). As a result of this collation processing, the collation degree between the face pattern of the received face history information and all the face patterns registered in the specific person list 4a is obtained.

上記照合処理の結果が得られると、上記制御部51は、この照合処理の結果として得られた各照合度が閾値以上から否かを判断する。この判断により所定の閾以上の照合度が無かった場合には処理を終了する。また、上記判断により所定の閾値以上の照合度があった場合、上記制御部51は、その照合度を与える特定人物に対する情報を上記特定人物リスト4aから読み出して上記表示部55に表示する。この場合、例えば、図15に示すような表示例が上記表示部55に表示される。   When the result of the collation process is obtained, the control unit 51 determines whether or not each collation degree obtained as a result of the collation process is greater than or equal to a threshold value. If it is determined that there is no verification degree equal to or greater than a predetermined threshold, the process is terminated. Further, when the collation degree is equal to or higher than a predetermined threshold based on the above determination, the control unit 51 reads information on the specific person giving the collation degree from the specific person list 4a and displays it on the display unit 55. In this case, for example, a display example as shown in FIG. 15 is displayed on the display unit 55.

また、図15に示す表示例では、アクセス日時、当該顔履歴情報を入力した入力端末を示す端末番号、当該顔履歴情報の顔画像、及び、ヒットした特定人物(当該顔履歴情報の顔パターンとの照合度が所定の閾値以上となった人物)の顔画像などが表示されている。   In the display example shown in FIG. 15, the access date and time, the terminal number indicating the input terminal that has input the face history information, the face image of the face history information, and the hit specific person (the face pattern of the face history information and The face image of a person whose collation degree is equal to or greater than a predetermined threshold is displayed.

また、この第4の実施の形態は、上記第1、第2、第3の実施の形態と併用して実施することが可能である。例えば,上記第1の実施の形態と併用することにより、第1の実施の形態で説明したような「なりすまし検知」で「なりすまし」を行ったと判断された人物の顔履歴情報を特定人物リスト4aに登録するようにすることも可能である。また、第4の実施の形態と上記第2あるいは第3の実施の形態と併用して実施することにより、特定人物と照合した人物の過去の履歴情報を上記顔履歴データベースから抽出し、当該人物の行動履歴や行動の軌跡などを表示することが可能である。   The fourth embodiment can be implemented in combination with the first, second, and third embodiments. For example, by using together with the first embodiment, the face history information of the person who is determined to have performed “spoofing” by “spoofing detection” as described in the first embodiment is used as the specific person list 4a. It is also possible to register for. In addition, by carrying out in combination with the fourth embodiment and the second or third embodiment, past history information of a person collated with a specific person is extracted from the face history database, and the person It is possible to display an action history, an action trajectory, and the like.

上記のように、上記顔履歴データベース4などに予め特定人物リストを登録しておき、上記顔記録サーバが入力端末2から顔履歴情報を受信した場合、受信した顔履歴情報の顔パターンと上記特定人物リストに登録されている全ての人物の顔パターンとの照合処理を行い、この照合処理で顔履歴情報の人物が上記特定人物リストに登録されている人物と同定された場合にはその旨を監視員に報知するようにしてものである。   As described above, when a specific person list is registered in advance in the face history database 4 and the face recording server receives face history information from the input terminal 2, the face pattern of the received face history information and the specific When the matching process is performed with the face patterns of all persons registered in the person list, and the person in the face history information is identified as the person registered in the specific person list by this matching process, this is indicated. It is intended to notify the monitor.

これにより、第4の実施の形態によれば、顔記録サーバの監視員は、予め指定した人物を容易に発見したり、特定の人物に対する監視を容易に行ったりすることができ、セキュリティレベルを向上させることができる。   Thereby, according to the fourth embodiment, the monitoring staff of the face recording server can easily find a person designated in advance or can easily monitor a specific person, and the security level can be increased. Can be improved.

以下、第5の実施の形態について説明する。
この第5の実施の形態は、例えば、上記モデルAと上記モデルBの中間的なモデルに適用される。この第5の実施の形態では、例えば日記のような、ユーザの行動記録を示す情報を自動的に作成するものである。
The fifth embodiment will be described below.
The fifth embodiment is applied to an intermediate model between the model A and the model B, for example. In the fifth embodiment, information indicating a user's action record such as a diary is automatically created.

この第5の実施の形態では、例えば、最初のアクセス時などに少なくとも1回はID情報を入力する。すなわち、第5の実施の形態は、少なくとも1度はID情報が入力されることが条件であるが、1度ID情報を入力したユーザはその後の運用においてID情報を必ずしも入力する必要はない。また、第5の実施の形態の実現形態としては、一体型装置であっても良いし、ネットワーク型のシステムであっても良い。   In the fifth embodiment, for example, ID information is input at least once at the time of first access or the like. That is, in the fifth embodiment, it is a condition that ID information is input at least once, but a user who has input ID information does not necessarily need to input ID information in subsequent operations. In addition, as an implementation form of the fifth embodiment, an integrated device may be used or a network system may be used.

次に、第5の実施の形態に係る入力端末2の動作について説明する。
この第5の実施の形態において、入力端末2は、通常の運用時の動作としては、第1の実施の形態とほぼ同様であるが、図8又は図9に示す動作のうち上記ステップS11の処理が異なる。すなわち、上記入力端末2には、通常の運用時に、各ユーザが少なくとも一度、自身のID情報を入力する必要がある。従って、少なくとも1度ID情報を入力したことがあるユーザは、通常の運用時にはID情報の入力を省略することが可能である。この場合、入力端末は、図8又は図9に示す動作から上記ステップS11の動作を省略した動作を行う。
Next, the operation of the input terminal 2 according to the fifth embodiment will be described.
In the fifth embodiment, the input terminal 2 is substantially the same as the operation in the first embodiment as the operation at the time of normal operation. Of the operations shown in FIG. 8 or FIG. Processing is different. That is, each user needs to input his / her ID information to the input terminal 2 at least once during normal operation. Therefore, a user who has input ID information at least once can omit input of ID information during normal operation. In this case, the input terminal performs an operation in which the operation in step S11 is omitted from the operation illustrated in FIG. 8 or FIG.

図16は、第5の実施の形態に係わる入力端末2の動作を説明するためのフローチャートである。
まず、管理者は、上記入力端末2の操作部としてのテンキー24などにより専用の動作モード(管理者モード)を起動させる。この管理者モードでは、第5の実施の形態としてのユーザの行動記録を作成する動作モードを実行することができるようになっている。
FIG. 16 is a flowchart for explaining the operation of the input terminal 2 according to the fifth embodiment.
First, the administrator activates a dedicated operation mode (administrator mode) using the numeric keypad 24 as an operation unit of the input terminal 2. In the administrator mode, an operation mode for creating a user action record as the fifth embodiment can be executed.

この管理者モードが起動すると、管理者は、ユーザの行動記録の表示あるいは作成を指示する。すると、上記入力端末2の処理プロセッサ31は、上記顔記録サーバ3を介して上記顔履歴データベース4にアクセスする。上記顔履歴データベース4にアクセスすると、上記処理プロセッサ31は、上記顔履歴データベース4に記録されている顔履歴情報のうちID情報が付与されている顔履歴情報を検索する。   When this manager mode is activated, the manager instructs display or creation of user action records. Then, the processor 31 of the input terminal 2 accesses the face history database 4 via the face recording server 3. When the face history database 4 is accessed, the processor 31 searches for face history information to which ID information is assigned from among the face history information recorded in the face history database 4.

これにより、ID情報が付与されている顔履歴情報を検索すると、上記処理プロセッサ31は、ID情報が付与されている顔履歴情報の顔パターンを照合用のテンプレート(辞書データ)として、他の顔履歴情報の顔パターンとの照合処理を行う。この照合処理によりID情報が付与されていない顔履歴情報の顔パターンに対しては、ID情報が付与されている各顔履歴情報の顔パターンとの照合度が算出される。   Thus, when the face history information to which the ID information is assigned is searched, the processing processor 31 uses the face pattern of the face history information to which the ID information is assigned as a matching template (dictionary data) for another face. The collation process with the face pattern of the history information is performed. With respect to the face pattern of the face history information to which ID information is not given by this matching process, the degree of matching with the face pattern of each face history information to which ID information is given is calculated.

この照合処理の結果に基づいて、上記処理プロセッサ31は、ID情報が付与されていない顔履歴情報に、それぞれ照合度が最も高かった顔パターンを有する顔履歴情報のID情報を割り付ける(ステップS71)。つまり、ID情報が付与されていなかった顔履歴情報は、照合度が最も高かった顔パターンの顔履歴情報と同定される。   Based on the result of this matching process, the processor 31 assigns ID information of face history information having a face pattern having the highest matching degree to face history information to which no ID information is assigned (step S71). . That is, the face history information to which no ID information is assigned is identified as the face history information of the face pattern having the highest matching degree.

これによりID情報が付与されていなかった顔履歴情報にID情報が割り振られると、上記処理プロセッサ31は、各ID情報ごとに、撮影場所や撮影時間等の履歴を時系列などでまとめ、各ID情報つまり各ユーザの行動履歴を示す行動記録レポートを作成し、出力する。この行動記録レポートは、LANなどに接続されている用紙に印刷して出力するようにしても良いし、上記表示部21に表示出力するようにしても良い。   As a result, when the ID information is assigned to the face history information to which no ID information is assigned, the processing processor 31 summarizes the history of shooting locations, shooting times, etc. in time series for each ID information. An action record report indicating information, that is, an action history of each user is created and output. This action record report may be printed on paper connected to a LAN or the like, or may be displayed on the display unit 21.

また、図17は、第5の実施の形態に係わる入力端末2の動作を説明するためのフローチャートであり、図16に示す動作の変形例である。
すなわち、図17に示す動作例では、上記ステップS71において、単に、最も照合度が高いID情報に割り振るのではなく、所定の閾値以上で、かつ、最も照合度が高いID情報に割り振るものである。従って、図17に示す動作例では、最大照合度が所定の閾値より小さい場合、当該顔履歴情報に対するID情報の割り付けを保留する(ステップS73)。
FIG. 17 is a flowchart for explaining the operation of the input terminal 2 according to the fifth embodiment, and is a modification of the operation shown in FIG.
That is, in the operation example shown in FIG. 17, in step S71 described above, the ID information is not simply assigned to the ID information with the highest matching degree, but is assigned to the ID information with the highest matching degree and higher than the predetermined threshold value. . Therefore, in the operation example shown in FIG. 17, when the maximum matching degree is smaller than the predetermined threshold, the allocation of ID information to the face history information is suspended (step S73).

次に、上記入力端末2の処理プロセッサ31は、ID情報の割り付けができた顔履歴情報をID情報ごとに集めてそれらの顔パターンをマージすることによって、ID情報に対応した1つのテンプレート(照合用の辞書データ)を生成する(ステップS74)。これにより、各ID情報ごとのテンプレートが生成されると、上記処理プロセッサ31は、ID情報の割り付けがまだの顔履歴情報(ID情報の割り付けが保留されている顔履歴情報)の顔パターンと各ID情報ごとのテンプレートとの照合処理を行う。   Next, the processor 31 of the input terminal 2 collects the face history information for which the ID information has been assigned for each ID information and merges the face patterns, thereby obtaining one template corresponding to the ID information (matching). Dictionary data) is generated (step S74). As a result, when a template for each ID information is generated, the processing processor 31 determines the face pattern of the face history information (face history information for which ID information allocation is suspended) and the face patterns that have not yet been assigned ID information. A collation process with a template for each ID information is performed.

この照合処理によりID情報の割り付け保留されている顔履歴情報の顔パターンに対しては、ID情報ごとのテンプレートとの照合度が算出される。この照合処理の結果に基づいて、上記処理プロセッサ31は、ID情報の割り付け保留されている顔履歴情報に、それぞれ照合度が最も高かったテンプレートのID情報を割り付ける(ステップS75)。これにより、全ての顔履歴情報にID情報が割り付けられ、上記ステップS72でIDごとの行動記録レポートが作成及び出力される。
また、図16及び図17に示す動作例では、ID情報が付与されている全ての顔履歴情報を対象として行動記録レポートを作成して出力するようにしたが、上記管理者が特定のユーザのID情報のみを指定することにより、そのID情報のユーザに関する行動記録レポートを作成して出力するようにしても良い。この場合、ID情報が付与されている全ての顔履歴情報の顔パターンについて照合処理を行う必要がなくなるため、処理時間を短縮して所望のユーザの行動記録レポートを早く作成して出力できる。
With respect to the face pattern of the face history information whose ID information is put on hold by this matching process, a matching degree with the template for each ID information is calculated. Based on the result of this collation processing, the processor 31 assigns the ID information of the template having the highest collation degree to the face history information whose ID information assignment is suspended (step S75). As a result, ID information is assigned to all face history information, and an action record report for each ID is created and output in step S72.
Further, in the operation examples shown in FIGS. 16 and 17, an action record report is generated and output for all face history information to which ID information is assigned. By specifying only the ID information, an action record report regarding the user of the ID information may be created and output. In this case, since it is not necessary to perform collation processing for all face patterns of face history information to which ID information is assigned, it is possible to shorten the processing time and quickly create and output a desired user action record report.

図16に示す動作と図17に示す動作との主な相違点は、図17に示す処理の方が精度が高くなるがそれだけ処理時間が長くなることである。   The main difference between the operation shown in FIG. 16 and the operation shown in FIG. 17 is that the processing shown in FIG. 17 is more accurate but the processing time is longer.

また、上記ステップS74の処理は、複数の顔パターンを1つのテンプレートに統合(マージ)するようにしたが、マージの方法としては、例えば、非特許文献4に示されているような、平均化や統計的に主成分分析をおこなって主成分のみを取出す従来方法を用いることができる。また、上記ステップS74の処理での作成したテンプレートを次回の照合処理から各ID情報の顔パターンを代表するテンプレートとして用いるようにしても良い。なお、図16及び図17の処理は、パターン認識分野においては「クラスタリング」と呼ばれている手法に属し、例えば、非特許文献4に示されている「K平均アルゴリズム」と呼ばれているアルゴリズムを用いてもよい。   In the process of step S74, a plurality of face patterns are integrated (merged) into one template. As a merging method, for example, averaging as shown in Non-Patent Document 4 is performed. Alternatively, a conventional method of statistically performing principal component analysis and extracting only the principal components can be used. Further, the template created in the process of step S74 may be used as a template representing the face pattern of each ID information from the next collation process. 16 and 17 belong to a technique called “clustering” in the pattern recognition field, and for example, an algorithm called “K average algorithm” shown in Non-Patent Document 4 is used. May be used.

また、上記行動記録レポートは、例えば、18に示す表示例のように構成される。図18に示す表示例では、ID情報としてのユーザID及び入力端末を示す端末番号とともに、行動記録としての登録番号、アクセス日時(アクセス月日、アクセス時間)、顔画像などが表示されている。   Moreover, the said action recording report is comprised like the example of a display shown, for example. In the display example shown in FIG. 18, a user ID as ID information and a terminal number indicating an input terminal, a registration number as an action record, an access date (access date and time), a face image, and the like are displayed.

また、上記行動記録レポートは、端末(操作部)の表示画面に出力され、管理者が確認後、その指示によりプリントアウトする。行動記録のレポートをプリントするプリンタは、例えば、LANを経由してネットワーク接続されても良いし、端末装置内部に組み込んでも良い。   The action record report is output on the display screen of the terminal (operation unit), and after confirmation by the administrator, is printed out according to the instruction. A printer that prints an action record report may be connected to a network via a LAN, for example, or may be incorporated in a terminal device.

また、この第5の実施の形態に係る顔記録サーバ3は、通常、運用時においては上記第1、第2、第3あるいは第4の実施の形態と同様な動作を行う。また、図16あるいは図17の処理と同様な処理を上記顔記録サーバ3により実行するようにしても良い。この場合、上記顔記録サーバ3の管理者が上記操作部56によって専用の動作モード(管理者モード)を起動させることにより開始するようにすれば良い。   The face recording server 3 according to the fifth embodiment normally performs the same operation as that of the first, second, third, or fourth embodiment during operation. Further, the face recording server 3 may execute processing similar to the processing in FIG. 16 or FIG. In this case, the manager of the face recording server 3 may be started by activating a dedicated operation mode (administrator mode) by the operation unit 56.

上記のように、第5の実施の形態では、過去の顔履歴情報に対して顔パターンの照合処理を行って、各ユーザごとの行動記録としての履歴情報を作成して出力するようにしたものである。これにより、上記顔履歴データベースに蓄積された顔履歴情報を区分けし、さらに、各ユーザごとの行動記録を容易に抽出することができる。   As described above, in the fifth embodiment, face pattern matching processing is performed on past face history information, and history information as action records for each user is created and output. It is. Thereby, the face history information accumulated in the face history database can be classified, and further, action records for each user can be easily extracted.

以下、第6の実施の形態について説明する。
この第6の実施の形態は、上述の各システムに適用できる。この第6の実施の形態は、顔画像を入力するためのカメラ22を人物監視のための監視カメラとしても用いるシステムである。上記のようなシステムでは、顔画像を入力している時以外は、上記カメラ22が待機状態となっている。そこで、第6の実施の形態では、「人物監視機能」を新たに付加し、上記カメラ22の使用効率を高めるものである。
Hereinafter, a sixth embodiment will be described.
The sixth embodiment can be applied to each of the systems described above. In the sixth embodiment, a camera 22 for inputting a face image is also used as a surveillance camera for person monitoring. In the system as described above, the camera 22 is in a standby state except when a face image is input. Therefore, in the sixth embodiment, a “person monitoring function” is newly added to increase the use efficiency of the camera 22.

この第6の実施の形態では、上記入力端末2にて撮影している画像に基づいて、上記カメラ22に接近している人物及び上記カメラ22から遠ざかっている人物を検出し、この間に上記カメラ22が撮影している映像を上記顔記録サーバ3に伝送したり記録したりするものである。   In the sixth embodiment, a person approaching the camera 22 and a person moving away from the camera 22 are detected based on an image photographed by the input terminal 2, and the camera is in the meantime. The video imaged by the camera 22 is transmitted to the face recording server 3 and recorded.

なお、以下の第6の実施の形態の説明では、ネットワーク型のシステムでの適用例について説明するが、ネットワーク型のシステムではなく、スタンドアロン型の装置に対しても適用可能である。スタンドアロン型の装置に第6の実施の形態を適用した場合、上記カメラ22に人物が接近してから遠ざかるまでの間の時間帯に、上記カメラ22が撮影した動画像は、当該ユーザの履歴情報として入力端末2内の磁気ディスク37に記録するようにすればよい。   In the following description of the sixth embodiment, an example of application in a network type system will be described. However, the present invention can also be applied to a stand-alone apparatus instead of a network type system. When the sixth embodiment is applied to a stand-alone device, the moving image captured by the camera 22 during the time period from when the person approaches the camera 22 until it moves away is the history information of the user. As described above, the data may be recorded on the magnetic disk 37 in the input terminal 2.

通常、ある地点に設置したカメラ22に対して、ユーザ(あるいは通行人)は、接近、顔画像の入力、遠ざかりという流れになる。従って、この第6の実施の形態では、顔画像の入力処理の成功あるいは失敗にかかわらず、当該ユーザが上記カメラ22に対して接近してから遠ざかるまでの映像を取得する。このため、上記第6の実施の形態で説明する処理は、上記第1、第2、第3の実施の形態にて説明したユーザの顔履歴情報を上記顔履歴データベース4に記録する顔履歴情報の記録処理(第6の実施の形態では入力モードを呼ぶ)とは別の処理として上記顔履歴情報の記録処理に平行して実行される。   Normally, a user (or a passerby) has a flow of approaching, inputting a face image, and moving away from the camera 22 installed at a certain point. Therefore, in the sixth embodiment, images from the time when the user approaches the camera 22 until the user moves away are acquired regardless of the success or failure of the face image input process. For this reason, the process described in the sixth embodiment includes the face history information for recording the user's face history information described in the first, second, and third embodiments in the face history database 4. This process is executed in parallel with the face history information recording process as a process different from the recording process (referred to as the input mode in the sixth embodiment).

次に、上記カメラ22への人物の接近及び遠ざかりの検知について説明する。
まず、上記カメラ22への人物の接近は、上記カメラ22の近傍に設けた近接センサが人物を検知した時、あるいは、上記カメラ22が撮影している画像から人物らしい画像領域が検出された時などに検知される。また、上記カメラ22からの人物の遠ざかりは、上記カメラ22の近傍に設けた近接センサが人物を検知しなくなった時、あるいは、上記カメラ22が撮影している画像から人物らしい画像領域が検出されなくなった時などに検知される。つまり、人物の検知は、近接センサによるものと上記カメラ22が撮影している画像に対する画像処理によるものとがある。
Next, detection of approaching and moving away of a person from the camera 22 will be described.
First, the approach of the person to the camera 22 is detected when a proximity sensor provided in the vicinity of the camera 22 detects the person or when an image region that is likely to be a person is detected from an image captured by the camera 22. Detected. Further, the distance of the person from the camera 22 is detected when the proximity sensor provided in the vicinity of the camera 22 no longer detects the person, or from the image captured by the camera 22, a human-like image area is detected. Detected when it runs out. In other words, the detection of a person includes a proximity sensor and an image process for an image taken by the camera 22.

次に、上記カメラ22が撮影している画像に対する画像処理により人物を検知する処理について説明する。
図19は、上記カメラ22が撮影している画像か人物の有無を検知する人物検知処理を説明するための図である。
図19に示すように、まず、上記カメラ22が撮影している背景画像を上記磁気ディスク37などに登録しておく(ステップS81)。この状態において、上記処理プロセッサ31は、上記カメラ22が撮影している画像を随時取得している(ステップS82)。上記処理プロセッサ31では、上記カメラ22にて撮影した画像データと上記背景画像データとの差分を算出したり、2値化したりすることにより、随時、上記カメラ22にて撮影した画像データに変化があるか否かを判断している(ステップS83)。
Next, processing for detecting a person by image processing on an image captured by the camera 22 will be described.
FIG. 19 is a diagram for explaining person detection processing for detecting the presence of an image or a person photographed by the camera 22.
As shown in FIG. 19, first, a background image taken by the camera 22 is registered in the magnetic disk 37 or the like (step S81). In this state, the processor 31 acquires an image taken by the camera 22 as needed (step S82). The processor 31 calculates the difference between the image data captured by the camera 22 and the background image data or binarizes the image data captured by the camera 22 at any time. It is determined whether or not there is (step S83).

この判断により上記カメラ22にて撮影した画像データと予め登録されている背景画像データとに変化があると判断した場合、上記制御部51は、上記カメラ22にて撮影された画像データと背景画像データとの差分画像データなどから変化成分を抽出する(ステップS84)。この変化成分を抽出すると、上記制御部51は、抽出した変化成分の面積の大きさが所定の閾値よりも大きいか否かを判断する。この判断により抽出した変化成分の面積が所定の閾値よりも大きいと判断した場合、上記制御部51は、上記カメラ22の撮影範囲内に人物が存在することを検知する。   If it is determined that there is a change between the image data captured by the camera 22 and the background image data registered in advance, the control unit 51 determines the image data captured by the camera 22 and the background image. A change component is extracted from difference image data from the data or the like (step S84). When the change component is extracted, the control unit 51 determines whether or not the size of the area of the extracted change component is larger than a predetermined threshold value. When it is determined that the area of the change component extracted by this determination is larger than a predetermined threshold, the control unit 51 detects that a person is present within the shooting range of the camera 22.

次に、第6の実施の形態に係る入力端末2の動作について説明する。
図20は、第6の実施の形態に係る入力端末2の動作を説明するためのフローチャートである。
まず、上記入力端末2のカメラ22は、所定の撮影範囲の画像を随時撮影しているものとする。上記処理プロセッサ31は、例えば、所定間隔ごとに、上記カメラ22から画像を取り込み(ステップS91)、上記のような人物検知処理により、上記カメラ22の撮影範囲内に人物が存在するか否かを判断する(ステップS92)。
Next, the operation of the input terminal 2 according to the sixth embodiment will be described.
FIG. 20 is a flowchart for explaining the operation of the input terminal 2 according to the sixth embodiment.
First, it is assumed that the camera 22 of the input terminal 2 is taking images of a predetermined shooting range as needed. For example, the processing processor 31 captures an image from the camera 22 at predetermined intervals (step S91), and determines whether or not a person exists within the shooting range of the camera 22 by the person detection process as described above. Judgment is made (step S92).

この判断により人物の存在が検知されると、上記処理プロセッサ31は、上記顔記録サーバ3へ上記カメラ22が撮影している連続画像(動画像)の画像データの伝送を開始する(ステップS93)。これにより、上記顔記録サーバ3への動画像のデータの伝送を開始すると、上記処理プロセッサ31は、上記顔記録サーバ3への動画像のデータの伝送を継続して実行するとともに、上記カメラ22が撮影している画像に対してユーザの顔画像を検出する顔検出処理を行う(ステップS94)。なお、ここでは、入力端末2がモデルBの場合を想定しているが、入力端末2がモデルAの場合、上記ステップS94ではユーザによりID情報が入力されたか否かを判断する。   When the presence of a person is detected by this determination, the processing processor 31 starts transmitting image data of continuous images (moving images) captured by the camera 22 to the face recording server 3 (step S93). . Thus, when transmission of moving image data to the face recording server 3 is started, the processing processor 31 continuously executes transmission of moving image data to the face recording server 3 and the camera 22. A face detection process for detecting the face image of the user is performed on the image taken by the user (step S94). Here, it is assumed that the input terminal 2 is model B. However, if the input terminal 2 is model A, it is determined in step S94 whether or not ID information has been input by the user.

上記顔検出処理にて顔画像が検出されなかった場合(ステップS94、NO)、上記処理プロセッサ31は、上記人物検知処理を行って人物が上記カメラ22の撮影範囲からいなくなったか否かを判断する(ステップS95)。この判断により人物がいなくなっていないと判断した場合、つまり、上記カメラ22の撮影範囲内に人物がまだ存在していると判断した場合(ステップS95、NO)、上記処理プロセッサ31は、上記ステップS94へ戻る。また、上記ステップS95の判断により人物がいなくなったと判断した場合(ステップS95、YES)、上記処理プロセッサ31は、上記顔記録サーバ3への動画像のデータの伝送を終了する(ステップS96)。   When a face image is not detected in the face detection process (step S94, NO), the processing processor 31 performs the person detection process to determine whether or not a person is out of the shooting range of the camera 22. (Step S95). If it is determined by this determination that there is no person, that is, if it is determined that there is still a person within the shooting range of the camera 22 (step S95, NO), the processing processor 31 performs step S94. Return to. If it is determined in step S95 that there is no more person (YES in step S95), the processing processor 31 ends the transmission of moving image data to the face recording server 3 (step S96).

また、上記ステップS94の顔検出処理で顔画像が検出された場合(ステップS94、YES)、上記処理プロセッサ31は、顔履歴情報を生成して上記顔記録サーバ3へ伝送する入力モードの処理を実行する(ステップS97)。この入力モードの処理を実行すると、上記処理プロセッサ31は、さらに、上記人物検知処理を行って人物が上記カメラ22の撮影範囲からいなくなったか否かを判断する(ステップS98)。   When a face image is detected in the face detection process in step S94 (YES in step S94), the processing processor 31 performs a process of an input mode for generating face history information and transmitting it to the face recording server 3. Execute (Step S97). When the processing in this input mode is executed, the processor 31 further performs the person detection process to determine whether or not the person is no longer in the shooting range of the camera 22 (step S98).

この判断により人物がいなくなっていないと判断した場合、つまり、上記カメラ22の撮影範囲内に人物がまだ存在していると判断した場合(ステップS98、NO)、上記処理プロセッサ31は、人物がいなくなったと判断するまで人物検知処理を繰返し実行する。このステップS98で人物がいなくなったと判断した場合(ステップS98、YES)、上記処理プロセッサ31は、上記顔記録サーバ3への動画像のデータの伝送を終了する(ステップS96)。   If it is determined by this determination that there is no person, that is, if it is determined that a person still exists within the shooting range of the camera 22 (NO in step S98), the processor 31 disappears. The person detection process is repeated until it is determined that the If it is determined in step S98 that there are no more persons (step S98, YES), the processing processor 31 ends the transmission of moving image data to the face recording server 3 (step S96).

上記のように、入力端末2では、上記カメラ22にて撮影している画像から撮影範囲内の人物の有無を検知し、人物が存在する場合には上記入力モードの処理と平行してその動画像のデータを人物がいなくなるまで上記顔記録サーバ3へ伝送するようにしてものである。これにより、上記カメラ22に対して人物が接近してきてから遠ざかるまでの画像を上記顔記録サーバ3へ伝送することが可能となる。   As described above, the input terminal 2 detects the presence / absence of a person within the shooting range from the image taken by the camera 22, and if there is a person, the moving image is parallel to the input mode processing. The image data is transmitted to the face recording server 3 until there is no more person. As a result, it is possible to transmit images from the time when the person approaches the camera 22 until the person moves away to the face recording server 3.

次に、第6の実施の形態に係る顔記録サーバ3の動作について説明する。
図21は、第6の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャートである。
まず、上記顔記録サーバ3の制御部51は、上記入力端末2からの動画像を伝送する旨のリクエストがあったか否かを判断する(ステップS101)。この判断により入力端末2からの動画像のデータを伝送する旨のリクエストがあったと判断した場合、上記制御部51は、当該入力端末2から伝送される動画像のデータ(ストリームデータ)を受信し、上記表示部55に表示する。この際、上記表示部55には、例えば、図22に示すような画面が表示される。図22に示す表示例では、各入力端末2から伝送されてきた動画像のデータがそれぞれの入力端末を示す端末番号とともに表示されている。なお、ここでは、入力端末2から送られてきた動画像のデータを表示部55に表示するようにしたが、入力端末2から送られてきた動画像のデータを顔履歴データベース4などの記録装置に記録するようにしても良い。
Next, the operation of the face recording server 3 according to the sixth embodiment will be described.
FIG. 21 is a flowchart for explaining the operation of the face recording server 3 according to the sixth embodiment.
First, the control unit 51 of the face recording server 3 determines whether or not there is a request for transmitting a moving image from the input terminal 2 (step S101). If it is determined that there is a request to transmit moving image data from the input terminal 2, the control unit 51 receives moving image data (stream data) transmitted from the input terminal 2. Are displayed on the display unit 55. At this time, for example, a screen as shown in FIG. 22 is displayed on the display unit 55. In the display example shown in FIG. 22, moving image data transmitted from each input terminal 2 is displayed together with a terminal number indicating each input terminal. Although the moving image data sent from the input terminal 2 is displayed on the display unit 55 here, the moving image data sent from the input terminal 2 is recorded on the recording device such as the face history database 4. You may make it record on.

これにより、上記顔記録サーバ3の監視員は、上記表示部55に表示された動画像を見て、上記カメラ22の撮影範囲内の様子をリアルタイムで監視することができる。   Thereby, the monitor of the face recording server 3 can monitor the state within the shooting range of the camera 22 in real time by looking at the moving image displayed on the display unit 55.

上記のように、第6の実施の形態では、他の実施の形態のような動作とともに、入力端末2のカメラ22が撮影している人物を含む動画像のデータを上記顔記録サーバ3に伝送し、上記顔記録サーバでは各入力端末から伝送されてきた動画像のデータを動画像として表示したり、記録したりするようにしたものである。
これにより、上記監視員が、各入力端末のカメラの撮影範囲における様子をリアルタイムで、かつ、効率的に監視することができる。
As described above, in the sixth embodiment, moving image data including a person photographed by the camera 22 of the input terminal 2 is transmitted to the face recording server 3 together with the operation as in the other embodiments. The face recording server displays or records moving image data transmitted from each input terminal as a moving image.
Thereby, the said monitoring person can monitor the mode in the imaging | photography range of the camera of each input terminal efficiently in real time.

以下、第7の実施の形態について説明する。
この第7の実施の形態は、例えば、上記した各実施の形態のシステムに適用される。この第7の実施の形態では、事前に顔画像を登録しておき、その事前に登録されている顔画像から顔照合用テンプレート(辞書)としての顔パターンを生成し、顔の特徴点を検出する顔検出処理に加えて簡易的な顔画像による照合処理を追加したものである。
The seventh embodiment will be described below.
The seventh embodiment is applied to, for example, the systems of the above-described embodiments. In the seventh embodiment, face images are registered in advance, a face pattern as a face matching template (dictionary) is generated from the registered face images, and feature points of the face are detected. In addition to the face detection process to be performed, a simple face image matching process is added.

この第7の実施の形態は、上記第1〜第6の実施の形態に対する付加機能として実現可能である。この第7の実施の形態は、入力端末2で顔画像による個人認証が顔検出処理の後処理として実行される。さらに、第7の実施の形態における個人認証と従来の個人認証装置との違いは、ユーザの顔辞書が管理者の操作によって履歴情報から構成される点である。これにより、第7の実施の形態では、ユーザにとっての顔画像の登録という作業が発生せず、あくまで顔検出の後処理として実行されるのでユーザの使い勝手がそこなわれないというメリットがある。さらに、入力端末での個人認証における照合度のしきい値を通常より低くしておくことにおり、本人誤排除率がほぼゼロになり、ユーザの使い勝手がそこなわれないというメリットもある。   The seventh embodiment can be realized as an additional function to the first to sixth embodiments. In the seventh embodiment, personal authentication using a face image is executed as a post-processing of face detection processing at the input terminal 2. Furthermore, the difference between the personal authentication in the seventh embodiment and the conventional personal authentication device is that the face dictionary of the user is constituted by history information by the operation of the administrator. Thereby, in the seventh embodiment, there is an advantage that the user's usability is not lost because the operation of registering the face image for the user does not occur and is executed as a post-processing of face detection. Furthermore, the threshold value of the collation degree in personal authentication at the input terminal is set lower than usual, and there is also an advantage that the user error rejection rate becomes almost zero and user convenience is not lost.

まず、第7の実施の形態に係る顔記録サーバ3の動作について説明する。
図23は、第7の実施の形態に係る顔記録サーバ3の動作を説明するためのフローチャートである。なお、ここでは、上記顔履歴データベース4に蓄積されている顔履歴情報にはユーザを示すID情報が含まれていないものとする。
First, the operation of the face recording server 3 according to the seventh embodiment will be described.
FIG. 23 is a flowchart for explaining the operation of the face recording server 3 according to the seventh embodiment. Here, it is assumed that the face history information stored in the face history database 4 does not include ID information indicating the user.

まず、上記顔記録サーバ3の管理者は、操作部56により上記顔履歴データベース4に蓄積されている顔履歴情報のクラスタリングを指示する。なお、実現形態がスタンドアロンの場合には入力端末2のテンキー24によりクラスタリングを指示する。すると、上記上記制御部51は、上記顔履歴データベース4に蓄積されている全ての顔履歴情報の顔パターンを同士で照合処理することにより顔履歴情報のクラスタリングを行う(ステップS111)。   First, the administrator of the face recording server 3 instructs the clustering of the face history information accumulated in the face history database 4 by the operation unit 56. If the implementation is a stand-alone, clustering is instructed by the numeric keypad 24 of the input terminal 2. Then, the control unit 51 performs face history information clustering by collating the face patterns of all the face history information accumulated in the face history database 4 (step S111).

このような照合処理の結果としては、照合度が所定の閾値以上となる顔パターン(顔履歴情報)の組み合わせが得られる。すなわち、この照合処理により上記顔履歴データベース4に蓄積されている顔履歴情報から同一のユーザの顔履歴情報が判定される。この照合処理の結果に基づいて、上記制御部51は、上記顔履歴データベース4に蓄積されている顔履歴情報をユーザごとに分類する。ユーザごとに顔履歴情報を分類すると、上記制御部51は、それぞれのユーザ(クラスタ)に対してIDコードとしてのクラスタ番号を付与する(ステップS112)。   As a result of such collation processing, a combination of face patterns (face history information) having a collation degree equal to or higher than a predetermined threshold is obtained. That is, the face history information of the same user is determined from the face history information accumulated in the face history database 4 by this matching process. Based on the result of this collation processing, the control unit 51 classifies the face history information accumulated in the face history database 4 for each user. When the face history information is classified for each user, the control unit 51 assigns a cluster number as an ID code to each user (cluster) (step S112).

さらに、上記制御部51は、それぞれのクラスタ内で各顔履歴情報の顔パターンを1つに統合(マージ)することにより、各クラスタ(ユーザ)ごとに1つのテンプレート(顔照合用の辞書データ)としての顔パターンを生成する(ステップS113)。なお、クラスタ内の顔パターン(特徴ベクトル)データを1つにマージしてテンプレートとする方法としては、例えば、平均化や統計的に主成分分析をおこなって主成分のみを取出すといった従来方法を用いることができる。これらの技術は、非特許文献4などに記載されている。
このような処理により各クラスタのテンプレートデータを生成すると、上記制御部51は、入力端末2側にテンプレートデータをダウンロードする(ステップS114)。このテンプレートデータには、少なくとも各クラスタ(ユーザ)のテンプレートとIDコードとが含まれる。
Further, the control unit 51 integrates (merges) the face patterns of the face history information into one in each cluster, so that one template for each cluster (user) (face matching dictionary data). As a face pattern is generated (step S113). As a method for merging facial pattern (feature vector) data in a cluster into one template, for example, a conventional method is used in which only principal components are extracted by averaging or statistically performing principal component analysis. be able to. These techniques are described in Non-Patent Document 4 and the like.
When the template data of each cluster is generated by such processing, the control unit 51 downloads the template data to the input terminal 2 side (step S114). This template data includes at least a template of each cluster (user) and an ID code.

上記のように、第7の実施の形態において、上記顔記録サーバ3では、上記顔履歴データベース4に蓄積されている顔履歴情報の顔パターン同士の照合処理を行い、この照合結果に基づいて顔履歴情報をユーザごとにクラスタリングし、さらに、クラスタリングされた各クラスタ内の顔履歴情報の顔パターンから当該ユーザのテンプレート(代表顔パターン)を生成し、入力端末2にダウンロードするようにしたものである。   As described above, in the seventh embodiment, the face recording server 3 collates face patterns of the face history information accumulated in the face history database 4, and based on the collation result, The history information is clustered for each user, and a template (representative face pattern) of the user is generated from the face patterns of the face history information in each clustered cluster and downloaded to the input terminal 2. .

次に、第7の実施の形態に係る入力端末2の動作について説明する。
まず、入力端末2には、上記顔記録サーバ3からのテンプレートデータがダウンロードされている。このテンプレートデータには、少なくとも顔照合用の顔パターン(テンプレート)とそのクラスタ(ユーザ)に付与されたIDコードが含まれる。従って、上記顔記録サーバ3からテンプレートデータがダウンロードされると、上記入力端末2の処理プロセッサ31は、当該テンプレートデータのテンプレートとそのユーザのIDコードとを対応づけて磁気ディスク37に登録する。なお、上記顔記録サーバ3にてクラスタリングされた顔履歴情報のユーザには、管理者から自身のIDコードが知らされているものとする。
Next, the operation of the input terminal 2 according to the seventh embodiment will be described.
First, the template data from the face recording server 3 is downloaded to the input terminal 2. The template data includes at least a face pattern (template) for face matching and an ID code assigned to the cluster (user). Therefore, when template data is downloaded from the face recording server 3, the processor 31 of the input terminal 2 associates the template of the template data with the ID code of the user and registers them in the magnetic disk 37. It is assumed that the user of the face history information clustered by the face recording server 3 is informed of his / her ID code from the administrator.

図24は、第7の実施の形態に係る入力端末2の動作を説明するためのフローチャートである。
図24に示すフローチャートのステップS11〜S17は、図8に示すフローチャートのステップS11〜S17と同様であるため、説明を省略する。すなわち、上記ステップS16において、上記カメラ22から入力した画像から当該ユーザの顔パターンを生成すると、上記処理プロセッサ31は、入力画像から生成した顔パターンと、上記磁気ディスク37に記録されている当該ユーザが上記ステップS11で入力したID情報に対応するテンプレート(顔パターン)との照合処理を行う(ステップS121)。
FIG. 24 is a flowchart for explaining the operation of the input terminal 2 according to the seventh embodiment.
Steps S11 to S17 in the flowchart shown in FIG. 24 are the same as steps S11 to S17 in the flowchart shown in FIG. That is, when the user's face pattern is generated from the image input from the camera 22 in step S16, the processor 31 displays the face pattern generated from the input image and the user recorded on the magnetic disk 37. Is collated with the template (face pattern) corresponding to the ID information input in step S11 (step S121).

この照合処理の結果は、照合度として与えられる。従って、上記処理プロセッサ31は、上記照合処理で得られた照合度が所定の閾値以上であるか否かを判断する(ステップS122)。この判断により上記照合処理で得られた照合度が所定の閾値以上であると判断した場合、上記処理プロセッサ31は、上記ステップS17へ進み、顔履歴情報を上記顔記録サーバ3へ伝送する処理を行う。また、上記判断により上記照合処理で得られた照合度が所定の閾値以上でないと判断した場合、上記処理プロセッサ31は、当該ユーザが本人でない(「なりすまし」である)と判断し、当該ユーザに対する処理をリジェクトする。   The result of this matching process is given as a matching degree. Therefore, the processor 31 determines whether or not the collation degree obtained by the collation process is greater than or equal to a predetermined threshold (step S122). If it is determined by this determination that the collation degree obtained in the collation process is greater than or equal to a predetermined threshold value, the processing processor 31 proceeds to step S17 and performs a process of transmitting face history information to the face recording server 3. Do. In addition, when it is determined by the above determination that the collation degree obtained by the above collation processing is not equal to or greater than a predetermined threshold, the processor 31 determines that the user is not the person himself ("impersonation"), and Reject processing.

なお、上記ステップS122の処理で用いられる照合度は、通常よりも低い値に設定するようにしても良い。この場合、顔画像による照合処理が「軽く」なり、本人であるにもかかわらずに誤認識よってリジェクトされる可能性をゼロに近くすることができる。つまり、通常よりも低い閾値を設定して「軽い」照合処理を行うことにより、本人誤排除率がほぼゼロになり、ユーザの使い勝手がそこなわれないというメリットがある。   Note that the matching degree used in the process of step S122 may be set to a value lower than usual. In this case, the collation process by the face image becomes “light”, and the possibility of being rejected due to erroneous recognition even though the person is the person can be made close to zero. That is, by setting a threshold value lower than usual and performing “light” collation processing, there is an advantage that the false error rejection rate becomes almost zero and user convenience is not lost.

上記のように、第7の実施の形態では、上記顔記録サーバで蓄積されている顔履歴情報をクラスタリングしてユーザごとに分類して、各ユーザの照合用の顔パターンとしてのテンプレートを生成し、そのテンプレートとIDコードとを上記入力端末へダウンロードするようにしたものである。これにより、上記顔履歴データベースに蓄積された顔履歴情報からユーザごとのクラスタ、あるいは、テンプレートを作成することができ、ユーザがテンプレートを作成する手間が省ける。   As described above, in the seventh embodiment, the face history information accumulated in the face recording server is clustered and classified for each user, and a template as a face pattern for each user is generated. The template and the ID code are downloaded to the input terminal. As a result, a cluster or template for each user can be created from the face history information accumulated in the face history database, saving the user from creating a template.

さらに、第7の実施の形態では、入力端末にテンプレートとIDコードとを登録しておき、顔画像を入力する際に入力端末で顔照合によるなりすまし検知を行うようにしたものである。これにより、入力端末での顔画像の入力処理の段階でなりすましを検知することが可能となる。   Furthermore, in the seventh embodiment, a template and an ID code are registered in the input terminal, and impersonation detection by face matching is performed at the input terminal when a face image is input. Thereby, it is possible to detect impersonation at the stage of face image input processing at the input terminal.

以上詳述したように、各実施の形態によれば、ユーザがセキュリティ性の高い対象にアクセスする際に,正面顔の登録を義務付けて不正アクセスを抑止する。また、第1のモデルとして、ユーザが入力したID情報によるID認証を行った上で当該ユーザの顔画像による照合処理及び顔画像の記録を行うシステムと、第2のモデルとして、ID情報の入力を省略して、顔画像による照合処理及び顔画像の記録だけを行うシステムとの2つのシステムを想定する。   As described above in detail, according to each embodiment, when a user accesses an object with high security, registration of the front face is obligated and unauthorized access is suppressed. In addition, as a first model, a system that performs ID authentication based on ID information input by a user and then performs collation processing and recording of the face image of the user's face image, and input of ID information as a second model Are omitted, and two systems are assumed: a system that performs only a face image matching process and a face image recording.

さらに、各モデルに履歴として蓄積される顔画像とその履歴情報に対する自動トラッキング(検索)機能をもたせ、第1のモデルでは「なりすまし検知」を行ってセキュリティレベルを向上させることができ、第2のモデルおいては「ユーザ分類」を行って、効率的な顔画像とその履歴情報との蓄積を行うことが可能となる。さらに、特定人物を検索する機能は、どちらのモデルにおいても実施可能であり、他の機能との組み合わせが可能である。また、各モデルの実現形態においては、一体型装置(スタンドアロン型)とネットワーク型のシステムの両方が有り得る。さらに、顔トラッキング(顔画像による照合処理)は、リアルタイム処理、またはバッチ処理の2通りの処理が可能である。   Furthermore, each model has a face image accumulated as a history and an automatic tracking (search) function for the history information. In the first model, “spoofing detection” can be performed to improve the security level. In the model, it is possible to perform “user classification” to accumulate efficient face images and their history information. Furthermore, the function of searching for a specific person can be implemented in either model and can be combined with other functions. Moreover, in the implementation form of each model, there can be both an integrated apparatus (stand-alone type) and a network type system. Furthermore, face tracking (collation processing using face images) can be performed in two ways: real-time processing or batch processing.

このような各実施の形態の効果としては、ユーザには正面向きの顔を記録することが義務づけられるので、従来の人物を監視するシステムや監視用の画像を記録するシステムに比べて、不正アクセスの抑止効果が高くなる。また、従来の顔照合装置に比べ利便性が向上する。これらの結果、従来の装置やシステムでは実現できていない利便性とセキュリティレベルのバランスの取れた効率的なシステムが提供でき、当該システムの応用範囲を広くすることが可能となる。   As an effect of each of these embodiments, since the user is obliged to record a face facing forward, unauthorized access is compared to a conventional system for monitoring a person or a system for recording a monitoring image. The deterrent effect becomes higher. Further, convenience is improved as compared with the conventional face matching device. As a result, it is possible to provide an efficient system that balances convenience and security levels that cannot be realized by conventional apparatuses and systems, and it is possible to widen the application range of the system.

1…ID認証部、2…顔画像入力装置、3…顔記録サーバ、4…顔履歴データベース、4a…特定人物リスト、4…顔画像履歴データベース、11…操作部、12…処理部、21…表示部、22…カメラ、24…テンキー、31…処理プロセッサ、37…LANインターフェース、37…磁気ディスク、38…LANインターフェース、51…制御部、55…表示部、56…操作部、57…LANインターフェース   DESCRIPTION OF SYMBOLS 1 ... ID authentication part, 2 ... Face image input device, 3 ... Face recording server, 4 ... Face history database, 4a ... Specific person list, 4 ... Face image history database, 11 ... Operation part, 12 ... Processing part, 21 ... Display unit, 22 ... Camera, 24 ... Numpad, 31 ... Processing processor, 37 ... LAN interface, 37 ... Magnetic disk, 38 ... LAN interface, 51 ... Control unit, 55 ... Display unit, 56 ... Operating unit, 57 ... LAN interface

Claims (3)

複数の地点に設置された複数の入力端末と、これらの入力端末からのデータを受信可能なサーバ装置とを有する顔画像記録システムにおいて、
前記入力端末は、
各設置地点においてユーザの顔画像を入力する画像入力手段と、
この画像入力手段により入力された顔画像データと、その撮影地点及び撮影時間を含む履歴情報とを前記サーバ装置へ送信する送信手段と、を有し、
前記サーバ装置は、
前記入力端末から送信された顔画像データとその履歴情報とを記録する画像記録手段と、
前記入力端末からの顔画像データを受信した場合、前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとを照合する照合手段と、
この照合手段により前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとの照合が成功した場合、前記入力端末から受信した顔画像データと照合した顔画像データに対応する履歴情報を前記画像記録手段から読み出し、その履歴情報に含まれている撮影場所と撮影時間とに基づいて当該ユーザの行動の軌跡を表示する表示手段と、を有する、
ことを特徴とする顔画像記録システム。
In a face image recording system having a plurality of input terminals installed at a plurality of points and a server device capable of receiving data from these input terminals,
The input terminal is
Image input means for inputting a user's face image at each installation point;
Transmission means for transmitting the face image data input by the image input means and history information including the shooting location and shooting time to the server device,
The server device
Image recording means for recording face image data and history information transmitted from the input terminal;
When face image data from the input terminal is received, collation means for collating face image data received from the input terminal and face image data already recorded in the image recording means;
When the collation means succeeds in collating the face image data received from the input terminal with the face image data already recorded in the image recording means, the face image data collated with the face image data received from the input terminal Display means for reading history information corresponding to the image recording means, and displaying a trajectory of the user's action based on the shooting location and the shooting time included in the history information,
A face image recording system characterized by that.
前記画像記録手段は、顔画像データとその履歴情報とをユーザごとに分類して記録し、
前記照合手段は、前記画像入力手段により入力されたユーザの顔画像データと前記画像記録手段に既に記録されている各ユーザの顔画像データと照合し、
前記表示手段は、前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されているユーザの顔画像データとの照合が成功した場合、前記入力端末から受信した顔画像データと照合したユーザの履歴情報を前記画像記録手段から読み出し、その履歴情報に含まれている撮影場所と撮影時間とに基づいて当該ユーザの行動の軌跡を表示する、
ことを特徴とする前記請求項1に記載の顔画像記録システム。
The image recording means classifies and records the face image data and its history information for each user,
The collation means collates the user's face image data input by the image input means with the face image data of each user already recorded in the image recording means,
The display unit collates with the face image data received from the input terminal when the collation between the face image data received from the input terminal and the user face image data already recorded in the image recording unit is successful. Read the user's history information from the image recording means, and display the user's action trajectory based on the shooting location and shooting time included in the history information.
The face image recording system according to claim 1, wherein:
複数の地点に設置された複数の入力端末と、これらの入力端末に接続されたサーバ装置とを有する顔画像記録システムの顔画像記録方法であって、
前記入力端末の各設置地点においてユーザの顔画像を入力する画像入力工程と、
この画像入力工程により入力された顔画像と、その撮影地点及び撮影時間を含む履歴情報とを前記サーバ装置へ送信する送信工程と、
前記入力端末から送信された顔画像データとその履歴情報とを画像記録手段に記録する画像記録工程と、
前記入力端末から顔画像データを受信した場合、前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとを照合する照合工程と、
この照合工程により前記入力端末から受信した顔画像データと前記画像記録手段に既に記録されている顔画像データとの照合が成功した場合、前記入力端末から受信した顔画像データと照合した顔画像データに対応する履歴情報を前記画像記録手段から読み出し、その履歴情報に含まれている撮影場所と撮影時間とに基づいて当該ユーザの行動の軌跡を表示する表示工程と、
を有することを特徴とする顔画像記録方法。
A face image recording method of a face image recording system having a plurality of input terminals installed at a plurality of points and a server device connected to these input terminals,
An image input step of inputting a user's face image at each installation point of the input terminal;
A transmission step of transmitting the face image input by the image input step and history information including the shooting point and the shooting time to the server device;
An image recording step of recording the face image data transmitted from the input terminal and its history information in an image recording means;
A collation step of collating the face image data received from the input terminal with the face image data already recorded in the image recording means when receiving the face image data from the input terminal;
When the collation between the face image data received from the input terminal and the face image data already recorded in the image recording means is successful, the face image data collated with the face image data received from the input terminal. A display step of reading the history information corresponding to the image recording means, and displaying the locus of the user's action based on the shooting location and the shooting time included in the history information;
A face image recording method characterized by comprising:
JP2009174032A 2009-07-27 2009-07-27 Face image recording system and face image recording method Pending JP2009259269A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009174032A JP2009259269A (en) 2009-07-27 2009-07-27 Face image recording system and face image recording method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009174032A JP2009259269A (en) 2009-07-27 2009-07-27 Face image recording system and face image recording method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003056188A Division JP2004265231A (en) 2003-03-03 2003-03-03 Face picture recording system and method

Publications (1)

Publication Number Publication Date
JP2009259269A true JP2009259269A (en) 2009-11-05

Family

ID=41386524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009174032A Pending JP2009259269A (en) 2009-07-27 2009-07-27 Face image recording system and face image recording method

Country Status (1)

Country Link
JP (1) JP2009259269A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061875A (en) * 2011-09-14 2013-04-04 Hitachi Information & Communication Engineering Ltd Authentication system and reliability determination method
US8416998B2 (en) 2010-03-25 2013-04-09 Sony Corporation Information processing device, information processing method, and program
JP2013182325A (en) * 2012-02-29 2013-09-12 Toshiba Corp Face registration device, program and face registration method
JP2014038557A (en) * 2012-08-20 2014-02-27 Canon Inc Authentication device, authentication method, and program
US9189680B2 (en) 2011-09-14 2015-11-17 Hitachi Information & Telecommunication Engineering, Ltd. Authentication system
JPWO2015016262A1 (en) * 2013-07-30 2017-03-02 日本電気株式会社 Information processing apparatus, authentication system, authentication method, and program
CN106657913A (en) * 2016-12-24 2017-05-10 深圳云天励飞技术有限公司 Video processing method and device
JP2021525425A (en) * 2018-06-05 2021-09-24 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. Information processing methods and devices, electronic devices and storage media
JP2022031747A (en) * 2018-04-26 2022-02-22 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
JP2022058211A (en) * 2020-09-30 2022-04-11 大日本印刷株式会社 Personal authentication system, server, server program, transaction device and device program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141589A (en) * 1997-07-17 1999-02-12 Hitachi Ltd Method and system for supervising mobile object
JP2000126160A (en) * 1998-10-23 2000-05-09 Toppan Printing Co Ltd Security system
JP2002027313A (en) * 2000-07-03 2002-01-25 Fuji Photo Film Co Ltd Image selecting device
JP2002352291A (en) * 2001-05-28 2002-12-06 Toshiba Corp Device and method for managing admission

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141589A (en) * 1997-07-17 1999-02-12 Hitachi Ltd Method and system for supervising mobile object
JP2000126160A (en) * 1998-10-23 2000-05-09 Toppan Printing Co Ltd Security system
JP2002027313A (en) * 2000-07-03 2002-01-25 Fuji Photo Film Co Ltd Image selecting device
JP2002352291A (en) * 2001-05-28 2002-12-06 Toshiba Corp Device and method for managing admission

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8416998B2 (en) 2010-03-25 2013-04-09 Sony Corporation Information processing device, information processing method, and program
JP2013061875A (en) * 2011-09-14 2013-04-04 Hitachi Information & Communication Engineering Ltd Authentication system and reliability determination method
US9189680B2 (en) 2011-09-14 2015-11-17 Hitachi Information & Telecommunication Engineering, Ltd. Authentication system
JP2013182325A (en) * 2012-02-29 2013-09-12 Toshiba Corp Face registration device, program and face registration method
JP2014038557A (en) * 2012-08-20 2014-02-27 Canon Inc Authentication device, authentication method, and program
CN103632130A (en) * 2012-08-20 2014-03-12 佳能株式会社 Authentication apparatus that authenticates object, authentication method, and storage medium
JPWO2015016262A1 (en) * 2013-07-30 2017-03-02 日本電気株式会社 Information processing apparatus, authentication system, authentication method, and program
US10114936B2 (en) 2013-07-30 2018-10-30 Nec Corporation Information processing device, authentication system, authentication method, and program
CN106657913A (en) * 2016-12-24 2017-05-10 深圳云天励飞技术有限公司 Video processing method and device
JP2022031747A (en) * 2018-04-26 2022-02-22 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
JP2021525425A (en) * 2018-06-05 2021-09-24 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. Information processing methods and devices, electronic devices and storage media
JP2022058211A (en) * 2020-09-30 2022-04-11 大日本印刷株式会社 Personal authentication system, server, server program, transaction device and device program
JP7226496B2 (en) 2020-09-30 2023-02-21 大日本印刷株式会社 Personal authentication system, server, server program, transaction device and device program

Similar Documents

Publication Publication Date Title
JP2009259269A (en) Face image recording system and face image recording method
JP2004265231A (en) Face picture recording system and method
US7120278B2 (en) Person recognition apparatus
JP4177598B2 (en) Face image recording apparatus, information management system, face image recording method, and information management method
JP4153691B2 (en) Face image matching device and face image matching method
JP5805040B2 (en) Person authentication dictionary update method, person authentication dictionary update apparatus, person authentication dictionary update program, and person authentication system
JP2008071366A (en) Face image collating device, face image collating system, and face image collating method
JP2008305400A (en) Face image recording apparatus, and face image recording method
JP2008040781A (en) Subject verification apparatus and subject verification method
JP7196932B2 (en) Information processing device, information processing method, and program
JP2011039959A (en) Monitoring system
JP7056194B2 (en) Information processing equipment
JP4797517B2 (en) Monitoring device and method, and program
JP2011170711A (en) Moving object tracking system and moving object tracking method
JP2006309491A (en) Biometrics system
JP2007328590A (en) Information processor, information processing method, monitoring system and program
JP2012083997A (en) Authentication system and determination method for authentication reliability
JP2020052822A (en) Information processing apparatus, authentication system, control method thereof, and program
JP2024056872A (en) Stay management apparatus, stay management method, and program
JP2010182056A (en) Password input device and password verification system
JP7020567B2 (en) Information processing systems, information processing equipment, information processing methods, and programs
JP2010086263A (en) Biometrics matching device, face matching device and biometrics matching method
JP4434560B2 (en) Entrance / exit management system
KR101286750B1 (en) Password estimation system using gesture.
JP5055151B2 (en) Imaging processing system and method, management server and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525