JP2012133411A - Face collation system, face collation device and face collation method - Google Patents

Face collation system, face collation device and face collation method Download PDF

Info

Publication number
JP2012133411A
JP2012133411A JP2010282417A JP2010282417A JP2012133411A JP 2012133411 A JP2012133411 A JP 2012133411A JP 2010282417 A JP2010282417 A JP 2010282417A JP 2010282417 A JP2010282417 A JP 2010282417A JP 2012133411 A JP2012133411 A JP 2012133411A
Authority
JP
Japan
Prior art keywords
face
image data
collation
template
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010282417A
Other languages
Japanese (ja)
Other versions
JP5730000B2 (en
Inventor
Kazutaka Adachi
和隆 安達
Yojiro Kamise
陽二郎 神瀬
Hiroshi Kameyama
博史 亀山
Hirokatsu Shimada
裕功 嶋田
Hisakazu Yanagiuchi
久和 柳内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2010282417A priority Critical patent/JP5730000B2/en
Publication of JP2012133411A publication Critical patent/JP2012133411A/en
Application granted granted Critical
Publication of JP5730000B2 publication Critical patent/JP5730000B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce a processing load on a face collation device for collating a face template with input face image data obtained by many monitoring cameras, and to efficiently suppress the leakage of the face template in the collation processing.SOLUTION: A primary collation device 30 placed in each area collates input face image data imaged by cameras 10 and detected by face detection devices 20 with an average face template 32a. When the collation result is equal to or higher than a predetermined threshold, the primary collation device transmits the input face image data to a secondary collation device 60. The secondary collation device collates the input face image data with a face template.

Description

この発明は、多数の監視カメラで入力顔画像データを取得し、この入力顔画像データを顔テンプレートと照合処理する場合に、照合処理を行う装置の処理負荷を軽減しつつ、顔テンプレートの漏洩を効率良く抑制する顔照合システム、顔照合装置及び顔照合方法に関する。   In the present invention, when input face image data is acquired by a large number of surveillance cameras and this input face image data is collated with a face template, the face template is leaked while reducing the processing load of the apparatus that performs the collation process. The present invention relates to a face matching system, a face matching device, and a face matching method that are efficiently suppressed.

従来、監視対象者の顔画像の参照データ(以下、「顔テンプレート」と言う)をあらかじめ登録しておき、監視カメラで撮影した映像から人物の顔画像データ(以下、「入力顔画像データ」と言う)を切り出し、切り出した入力顔画像データを顔テンプレートと照合処理する従来技術が知られている。   Conventionally, reference data (hereinafter referred to as “face template”) of the face image of the person to be monitored is registered in advance, and the face image data of the person (hereinafter referred to as “input face image data”) from the video captured by the surveillance camera And the input face image data thus cut out is collated with a face template.

ここで、顔画像の照合処理を行う顔画像照合装置に接続される監視カメラの台数が増えれば増えるほど、顔画像照合装置の処理負荷が累増するため、かかる顔画像照合装置の処理負荷を軽減する先行技術が提案されている。例えば、特許文献1には、複数台の監視カメラをコンピュータに接続するとともに、該監視カメラに顔テンプレートを登録しておき、照合処理が成功した場合に入力顔画像データをコンピュータに送信することで、監視に必要なコンピュータの労力を軽減する技術が開示されている。   Here, as the number of monitoring cameras connected to the face image matching device that performs face image matching processing increases, the processing load on the face image matching device increases, so the processing load on the face image matching device is reduced. Prior art has been proposed. For example, in Patent Document 1, a plurality of surveillance cameras are connected to a computer, a face template is registered in the surveillance camera, and input face image data is transmitted to the computer when the matching process is successful. A technique for reducing the computer labor required for monitoring is disclosed.

また、特許文献2には、監視カメラ側で処理が必要な映像フレームにインデックスを入れ、センタ側でインデックスの付いた画像を処理することで、高速かつ高精度に照合処理を行う技術が開示されている。さらに、特許文献3には、監視カメラで取得した画像から認証された人物と監視者とが対応付けられている場合に、監視者に対して人物の画像を公開することで、プライバシーを守ることができる技術が開示されている。   Patent Document 2 discloses a technique for performing high-speed and high-precision collation processing by putting an index into a video frame that needs to be processed on the monitoring camera side and processing the indexed image on the center side. ing. Furthermore, in Patent Document 3, when a person authenticated from an image acquired by a surveillance camera is associated with a supervisor, privacy is protected by publishing the person's image to the supervisor. Techniques that can be used are disclosed.

特開2007−158421号公報JP 2007-158421 A 特開2007−233495号公報JP 2007-233495 A 特開2007−318333号公報JP 2007-318333 A

しかしながら、上記特許文献1のものは、監視カメラがセキュリティエリア以外の場所に設置された場合に、監視カメラ内に登録した顔テンプレートが漏洩する可能性がある。ここで、顔テンプレートが特徴量データである場合に、第三者が一見して顔そのものを視認できないが、かかる特徴量データであっても個人を特定できるデータであることに変わりはないので、第三者への漏洩は問題となる。特に、設置される監視カメラの台数が増えれば増えるほど、かかる漏洩のリスクは増大する。監視対象者の顔テンプレートを厳格に管理する必要がある場合に、上記特許文献1のものでは不十分となる。   However, the thing of the said patent document 1 may leak the face template registered in the surveillance camera, when a surveillance camera is installed in places other than a security area. Here, when the face template is feature amount data, a third party cannot see the face itself at first glance, but such feature amount data is still data that can identify an individual. Leakage to a third party is a problem. In particular, the risk of such leakage increases as the number of surveillance cameras installed increases. When it is necessary to strictly manage the face template of the person to be monitored, the above-mentioned Patent Document 1 is insufficient.

また、上記特許文献2のものは、上記顔テンプレートの漏洩のリスクはないものの、結局はセンタ側で顔照合処理を行うことになるので、設置される監視カメラの台数が増えればセンタの処理負荷が増加する。特に、駅構内、空港及び街頭に設置される監視カメラを用いる場合には、数千〜数万台の監視カメラが対象となるため、たとえ特許文献2を用いたとしてもセンタによる顔照合処理の処理負荷は膨大なものとなる。   Moreover, although the thing of the said patent document 2 does not have the risk of the leak of the said face template, since the face collation process will be finally performed by the center side, if the number of the monitoring cameras installed increases, the processing load of a center Will increase. In particular, when using surveillance cameras installed in stations, airports, and streets, thousands to tens of thousands of surveillance cameras are targeted. The processing load is enormous.

さらに、上記特許文献3によれば、監視者に提供する公開画像を制限することでプライバシーを守ることができる反面で、ネットワークに接続された監視カメラの台数が増加すると、監視カメラで取得した画像を照合処理するセンタでの処理負荷が増大すると言う問題点がある。   Furthermore, according to the above-mentioned Patent Document 3, privacy can be protected by restricting the public images provided to the observer, but when the number of surveillance cameras connected to the network increases, images acquired by the surveillance cameras There is a problem that the processing load at the center that performs the verification processing increases.

これらのことから、多数の監視カメラで入力顔画像データを取得し、この入力顔画像データを顔テンプレートと照合処理する場合に、照合処理を行う顔照合装置の処理負荷をいかに軽減するか、顔テンプレートの漏洩をいかに防止するかが重要な課題となっている。   For these reasons, how to reduce the processing load of the face matching device that performs the matching process when the input face image data is acquired by a large number of surveillance cameras and this input face image data is matched with the face template. How to prevent template leakage is an important issue.

本発明は、上述した課題を解決するためになされたものであって、多数の監視カメラで入力顔画像データを取得し、この入力顔画像データを顔テンプレートと照合処理する場合に、照合処理を行う顔照合装置の処理負荷を軽減しつつ、顔テンプレートの漏洩を効率良く抑制することができる顔照合システム、顔照合装置及び顔照合方法を提供することを目的とする。   The present invention has been made in order to solve the above-described problems. When input face image data is acquired by a number of surveillance cameras and the input face image data is checked against a face template, matching processing is performed. An object of the present invention is to provide a face matching system, a face matching device, and a face matching method that can efficiently suppress leakage of a face template while reducing the processing load of the face matching device to be performed.

上述した課題を解決し、目的を達成するため、本発明は、あらかじめ登録された複数の監視対象者の顔テンプレートと撮像装置で撮像された入力顔画像データとを顔照合処理する顔照合システムであって、複数の監視対象者の顔画像データに基づいて複数の顔テンプレート並びに合成顔テンプレートを生成するテンプレート生成装置と、複数の拠点にそれぞれ配置された複数の撮像装置と、前記撮像装置により撮像された入力顔画像データを前記テンプレート生成装置により生成された前記合成顔テンプレートと照合処理して、所定値以上の照合率を有する入力顔画像データを送信処理する1次照合装置と、前記1次照合装置から受信した入力顔画像データを前記テンプレート生成装置で生成された顔テンプレートと照合処理する2次照合装置とを備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the present invention is a face matching system that performs face matching processing on face templates of a plurality of monitoring subjects registered in advance and input face image data captured by an imaging device. A template generation device that generates a plurality of face templates and a combined face template based on face image data of a plurality of monitoring subjects, a plurality of imaging devices respectively disposed at a plurality of bases, and an image captured by the imaging device A primary collation device that performs a collation process on the input face image data thus generated with the composite face template generated by the template generation device, and transmits input face image data having a collation rate equal to or higher than a predetermined value; A secondary collation device for collating input face image data received from the collation device with the face template generated by the template generation device Characterized by comprising and.

本発明によれば、複数の監視対象者の顔画像データに基づいて複数の顔テンプレート並びに合成顔テンプレートを生成し、一又は複数の撮像装置により撮像された入力顔画像データを合成顔テンプレートと1次照合装置で照合処理し、所定値以上の照合率を有する入力顔画像データを顔テンプレートと2次照合装置で照合処理するよう構成したので、2次合装置の処理負荷を軽減しつつ、1次照合装置での顔テンプレートの漏洩を効率良く抑制することができる。   According to the present invention, a plurality of face templates and a combined face template are generated based on face image data of a plurality of monitoring subjects, and input face image data captured by one or a plurality of imaging devices is combined with a combined face template and 1 Since the collation process is performed by the secondary collation device and the input face image data having a collation rate equal to or higher than a predetermined value is collated by the face template and the secondary collation device, the processing load of the secondary collation device is reduced. It is possible to efficiently suppress the leakage of the face template in the next verification device.

図1は、本実施例に係る顔照合システムのシステム構成を示すブロック図である。FIG. 1 is a block diagram illustrating a system configuration of the face matching system according to the present embodiment. 図2は、図1に示した運用管理装置の内部構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing an internal configuration of the operation management apparatus shown in FIG. 図3は、図2に示した顔テンプレート及び平均顔テンプレートの一例を示す図である。FIG. 3 is a diagram illustrating an example of the face template and the average face template illustrated in FIG. 図4は、図1に示した1次照合装置の内部構成を示す機能ブロック図である。FIG. 4 is a functional block diagram showing an internal configuration of the primary collation apparatus shown in FIG. 図5は、自動しきい値設定を説明するための説明図である。FIG. 5 is an explanatory diagram for explaining automatic threshold setting. 図6は、図1に示した2次照合装置の内部構成を示す機能ブロック図である。FIG. 6 is a functional block diagram showing an internal configuration of the secondary verification apparatus shown in FIG. 図7は、図1に示した顔検出装置の内部構成を示す機能ブロック図である。FIG. 7 is a functional block diagram showing an internal configuration of the face detection apparatus shown in FIG. 図8は、図1に示した運用管理装置による顔テンプレート及び平均顔テンプレートの登録処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a registration process procedure of the face template and the average face template by the operation management apparatus shown in FIG. 図9は、図1に示した1次照合装置及び2次照合装置による照合処理を経て、入力顔画像データを表示するまでの処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a processing procedure until the input face image data is displayed through the collation processing by the primary collation device and the secondary collation device shown in FIG. 図10は、運用管理装置の別の例を示すブロック図である。FIG. 10 is a block diagram illustrating another example of the operation management apparatus.

以下に、添付図面を参照して、本発明に係る顔照合システム、顔照合装置及び顔照合方法の好適な実施例を詳細に説明する。本実施例では、合成顔テンプレートの一例として平均顔テンプレートを用いた場合について説明する。なお、本実施例では、説明の便宜上、4台のカメラ、2台の1次照合装置及び1台の2次照合装置を用いた簡易的な構成を採用した場合について説明するが、本発明はこれに限定されるものではなく膨大な数のカメラ等を収容する場合に適用することもできる。   Exemplary embodiments of a face matching system, a face matching device, and a face matching method according to the present invention will be described below in detail with reference to the accompanying drawings. In this embodiment, a case where an average face template is used as an example of a synthetic face template will be described. In the present embodiment, for convenience of explanation, a case where a simple configuration using four cameras, two primary collation devices, and one secondary collation device will be described. The present invention is not limited to this, and can also be applied to a case where a large number of cameras are accommodated.

まず、本実施例に係る顔照合システムのシステム構成について説明する。図1は、本実施例に係る顔照合システムのシステム構成を示すブロック図である。同図に示すように、この顔照合システムでは、センタに配設された運用管理装置50及び2次照合装置60と、拠点Aに配設された1次照合装置30a及び拠点Bに配設された1次照合装置30bとがネットワーク40を介して接続される。また、1次照合装置30aは、顔検出装置20a及び20bを介してカメラ10a及び10bと接続され、1次照合装置30bは、顔検出装置20c及び20dを介してカメラ10c及び10dと接続されている。   First, the system configuration of the face matching system according to the present embodiment will be described. FIG. 1 is a block diagram illustrating a system configuration of the face matching system according to the present embodiment. As shown in the figure, in this face collation system, the operation management device 50 and the secondary collation device 60 disposed in the center, and the primary collation device 30a and the base B disposed in the base A are disposed. The primary verification device 30 b is connected via the network 40. The primary verification device 30a is connected to the cameras 10a and 10b via the face detection devices 20a and 20b, and the primary verification device 30b is connected to the cameras 10c and 10d via the face detection devices 20c and 20d. Yes.

ここで、かかるセンタは、入退出管理等のセキュリティ対策が厳重に講じられた区域であり、不正者による顔テンプレートの不正な持ち出しが抑制されている。一方、拠点A及びBは、上記センタほどのセキュリティ対策が講じられていない区域である。なお、カメラ10a〜10dをカメラ10と総称し、顔検出装置20a〜20dを顔検出装置20と総称し、1次照合装置30a〜30bを1次照合装置30と総称する。カメラ10a〜10d、顔検出装置20a〜20d及び1次照合装置30a〜30bは、それぞれ同じ機能を有する装置である。   Here, such a center is an area where security measures such as entrance / exit management are strictly taken, and unauthorized removal of face templates by unauthorized persons is suppressed. On the other hand, the bases A and B are areas where security measures are not taken as much as the center. The cameras 10a to 10d are collectively referred to as the camera 10, the face detection devices 20a to 20d are collectively referred to as the face detection device 20, and the primary verification devices 30a to 30b are collectively referred to as the primary verification device 30. The cameras 10a to 10d, the face detection devices 20a to 20d, and the primary verification devices 30a to 30b are devices having the same functions.

カメラ10は、動画像を撮像できるCCD素子(Charge Coupled Device Image Sensor)からなるカメラである。このカメラ10には、その取付け角度を自動制御する制御機構が設けられており、顔検出装置20からの制御信号により画角等が制御される。   The camera 10 is a camera composed of a CCD element (Charge Coupled Device Image Sensor) that can capture a moving image. The camera 10 is provided with a control mechanism for automatically controlling the mounting angle, and the angle of view and the like are controlled by a control signal from the face detection device 20.

顔検出装置20は、カメラ10から受信した動画像データから人の顔画像を検出し、検出した顔画像データを1次照合装置30に送信する装置である。動画像データから顔画像データを検出する場合には、動画像データから静止画像データを順次取り出し、取り出した静止画像に人の顔部分が存在するか否かをテンプレートマッチング技術等により判定する。人の顔部分が存在すると判定した場合には、静止画像データから顔部分の部分画像データ(以下、「入力顔画像データ」と言う)を切り出して、1次照合装置30に送信することになる。   The face detection device 20 is a device that detects a human face image from the moving image data received from the camera 10 and transmits the detected face image data to the primary verification device 30. When face image data is detected from moving image data, still image data is sequentially extracted from the moving image data, and whether or not a human face portion exists in the extracted still image is determined by a template matching technique or the like. If it is determined that a human face portion exists, partial image data of the face portion (hereinafter referred to as “input face image data”) is cut out from the still image data and transmitted to the primary verification device 30. .

また、この顔検出装置20は、所定の位置に存在すべき基準物の基準座標位置をあらかじめ登録しておき、動画像データから取り出した静止画像データに存在する基準物の座標位置と基準座標位置との間に所定値以上の位置ずれが存在する場合には、その位置ずれ量を算出して位置ずれ量を補正するための制御信号をカメラ10の制御機構に送信する。この制御信号を受信した制御機構は、自動的にカメラ10の画角等を変更する。このように、カメラ10の画角等を自動変更することにより、カメラ10を操作して別の方向を見た場合や、物が当たるなどしてカメラ10の方向がずれてしまった場合に、監視すべき方向へ戻すことができる。   Further, the face detection apparatus 20 registers in advance the reference coordinate position of the reference object that should exist at a predetermined position, and the reference object coordinate position and the reference coordinate position that exist in the still image data extracted from the moving image data. If there is a positional deviation greater than or equal to a predetermined value, a control signal for calculating the positional deviation amount and correcting the positional deviation amount is transmitted to the control mechanism of the camera 10. The control mechanism that has received this control signal automatically changes the angle of view of the camera 10. In this way, by automatically changing the angle of view of the camera 10 or the like, when the camera 10 is operated to look at another direction, or when the direction of the camera 10 is shifted due to an object hitting, It is possible to return to the direction to be monitored.

1次照合装置30は、運用管理装置50から送信され、複数の監視対象者の顔画像データを平均化した平均顔テンプレート32aをあらかじめ記憶部32に記憶し、顔検出装置20で検出された入力顔画像データと記憶部32に記憶した平均顔テンプレート32aとの照合値を算出し、その照合値が所定のしきい値以上である場合に、入力顔画像データを2次照合装置60に対して送信する処理部である。この照合値は、入力顔画像データが平均顔テンプレート32aと近いほど高い値となるものであり、例えば相互相関値等の従来技術を用いて算出することができる。   The primary verification device 30 stores an average face template 32a, which is transmitted from the operation management device 50 and averages face image data of a plurality of monitoring subjects, in the storage unit 32 in advance, and is detected by the face detection device 20. A collation value between the face image data and the average face template 32a stored in the storage unit 32 is calculated, and when the collation value is equal to or greater than a predetermined threshold value, the input face image data is sent to the secondary collation device 60. A processing unit for transmission. The collation value becomes higher as the input face image data is closer to the average face template 32a, and can be calculated using a conventional technique such as a cross-correlation value.

このように、かかる1次照合装置30は、複数の監視対象者の顔画像データそのものではなく、これらの監視対象者の顔画像データを平均化した平均顔テンプレート32aを記憶部32に記憶することとしたので、1次照合装置30がセキュリティ対策の不十分な区域に配置された場合であっても、監視対象者の顔画像データそのものが漏洩する状況を回避することができる。   As described above, the primary collation device 30 stores not the face image data of a plurality of monitoring subjects themselves but the average face template 32a obtained by averaging the face image data of the monitoring subjects in the storage unit 32. Therefore, even when the primary verification device 30 is placed in an area where security measures are insufficient, it is possible to avoid a situation in which the face image data of the monitoring subject itself leaks.

また、この1次照合装置30は、カメラ10の設置時又は該カメラ10の運用開始時に、学習期間としてカメラ10の前を通行する監視対象者を含まない非監視対象者を一定時間撮像し、各カメラ10から顔検出装置20を介して受信した入力顔画像データと平均顔テンプレート32aとの照合値を計算し、その照合値の分布に基づいてしきい値を自動設定する。これにより、学習が完了した後は、カメラ10ごとの最適なしきい値を自動設定することができる。   In addition, the primary verification device 30 images a non-monitoring target person that does not include a monitoring target person who passes in front of the camera 10 as a learning period when the camera 10 is installed or when the operation of the camera 10 is started. A collation value between the input face image data received from each camera 10 via the face detection device 20 and the average face template 32a is calculated, and a threshold value is automatically set based on the distribution of the collation values. Thereby, after learning is completed, the optimal threshold value for every camera 10 can be automatically set.

2次照合装置60は、運用管理装置50から送信され、複数の監視対象者の顔画像データからなる複数の顔テンプレート62aをあらかじめ記憶部62に記憶し、1次照合装置30から受信した入力顔画像データと記憶部62に記憶した顔テンプレート62aとの照合値を算出し、その照合値が所定のしきい値以上である場合に、該入力顔画像データ並びに顔テンプレート62aに対応する監視対象者の識別情報を運用管理装置50に対して送信する処理部である。   The secondary collation device 60 stores a plurality of face templates 62 a composed of face image data of a plurality of monitoring subjects in advance in the storage unit 62 and received from the primary collation device 30. When a collation value between the image data and the face template 62a stored in the storage unit 62 is calculated and the collation value is equal to or greater than a predetermined threshold value, the monitoring target person corresponding to the input face image data and the face template 62a Is a processing unit that transmits the identification information to the operation management apparatus 50.

このように、かかる2次照合装置60は、複数の監視対象者の顔テンプレート62すなわち顔画像データそのものと入力顔画像データとを照合処理することとしたので、正確な照合を行うことができる。この際、1次照合装置30でフィルタリングされた入力顔画像データのみを照合対象としているため、処理負荷を軽減することができる。特に、カメラ10の台数が膨大な数にのぼる場合に効果的である。   As described above, since the secondary collation device 60 collates the face template 62 of a plurality of monitoring subjects, that is, the face image data itself and the input face image data, it can perform accurate collation. At this time, since only the input face image data filtered by the primary collation device 30 is a collation target, the processing load can be reduced. This is particularly effective when the number of cameras 10 is enormous.

運用管理装置50は、顔照合システム全体の運用管理を行う装置である。具体的には、監視対象者の画像データを識別情報並びに氏名、住所、照合対象理由等の登録情報とともに登録する。かかる監視対象者の画像データは、他のサーバ装置や記憶デバイスから取得する。   The operation management device 50 is a device that performs operation management of the entire face matching system. Specifically, the image data of the person to be monitored is registered together with identification information and registration information such as name, address, and reason for verification. The image data of the monitoring subject is acquired from another server device or storage device.

また、この運用管理装置50は、監視対象者の画像データから顔テンプレート及び平均顔テンプレートを生成して2次照合装置60に送信するとともに、複数の監視対象者の顔テンプレートを平均化して平均顔テンプレートを生成して1次照合装置30に送信する。なお、かかる顔テンプレート及び平均顔テンプレートは、運用管理装置50内部にも記憶する。   In addition, the operation management device 50 generates a face template and an average face template from the image data of the monitoring target person and transmits them to the secondary verification device 60, and averages the face templates of the plurality of monitoring target persons to average face values. A template is generated and transmitted to the primary verification device 30. The face template and the average face template are also stored in the operation management apparatus 50.

また、この運用管理装置50は、2次照合装置60から入力顔画像データ及び識別情報を受信したならば、この識別情報を用いて顔テンプレート及び属性情報を検索し、入力顔画像データ、顔テンプレート及び属性情報を表示部52に表示する。なお、入力顔画像データを撮像したカメラ10の位置情報等を併せて表示することもできる。かかる場合には、カメラ10の位置情報を1次照合装置30から取得する必要がある。   Further, when the operation management apparatus 50 receives the input face image data and the identification information from the secondary verification apparatus 60, the operation management apparatus 50 searches the face template and the attribute information using the identification information, and inputs the face image data and the face template. And the attribute information is displayed on the display unit 52. Note that the position information of the camera 10 that captured the input face image data can also be displayed. In such a case, the position information of the camera 10 needs to be acquired from the primary verification device 30.

次に、図1に示した運用管理装置50の構成を具体的に説明する。図2は、図1に示した運用管理装置50の内部構成を示す機能ブロック図である。同図に示すように、この運用管理装置50は、入力部51、表示部52、インタフェース部53、記憶部54及び制御部55を有する。入力部51は、キーボードやマウスからなる入力デバイスであり、表示部52は、液晶パネルやディスプレイ装置からなる表示デバイスである。インタフェース部53は、LAN及びネットワーク40を介して他装置とデータ通信を行うためのインタフェース部である。   Next, the configuration of the operation management apparatus 50 shown in FIG. 1 will be specifically described. FIG. 2 is a functional block diagram showing an internal configuration of the operation management apparatus 50 shown in FIG. As shown in the figure, the operation management apparatus 50 includes an input unit 51, a display unit 52, an interface unit 53, a storage unit 54, and a control unit 55. The input unit 51 is an input device including a keyboard and a mouse, and the display unit 52 is a display device including a liquid crystal panel and a display device. The interface unit 53 is an interface unit for performing data communication with other devices via the LAN and the network 40.

記憶部54は、フラッシュメモリやハードディスク装置等からなる記憶デバイスであり、登録データ54a、顔テンプレート54b及び平均顔テンプレート54cを記憶する。登録データ54aは、各監視対象者の顔画像データ並びに氏名、住所及び登録理由等の属性情報を該監視対象者の識別情報に対応づけたデータである。顔テンプレート54bは、図3(a)に示すように監視対象者の顔を複数の向きから見た顔画像データである。平均顔テンプレート54cは、図3(c)に示すように複数の識別対象者の顔画像を平均化した顔画像データである。   The storage unit 54 is a storage device including a flash memory, a hard disk device, and the like, and stores registration data 54a, a face template 54b, and an average face template 54c. The registration data 54a is data in which each monitoring target person's face image data and attribute information such as name, address, and registration reason are associated with the monitoring target person's identification information. The face template 54b is face image data obtained by viewing the face of the person to be monitored from a plurality of directions as shown in FIG. The average face template 54c is face image data obtained by averaging a plurality of identification target person's face images as shown in FIG.

制御部55は、運用管理装置50を全体制御する制御装置であり、顔テンプレート生成部55a、平均顔テンプレート生成部55b及び運用管理部55cを有する。顔テンプレート生成部55aは、図3(a)に示すように監視対象者の顔写真の画像データから顔部分の部分画像データを切り出し、周知の画像処理技術を用いてこの部分画像データ内の顔の向きを変えつつ10個の顔画像データからなる顔テンプレートを生成する。   The control unit 55 is a control device that controls the entire operation management device 50, and includes a face template generation unit 55a, an average face template generation unit 55b, and an operation management unit 55c. As shown in FIG. 3A, the face template generation unit 55a cuts out partial image data of the face portion from the image data of the face image of the person to be monitored, and uses a known image processing technique to detect the face in the partial image data. A face template composed of 10 face image data is generated while changing the direction of.

平均顔テンプレート生成部55bは、図3(b)に示すように、複数の監視対象者の顔写真から顔の部分画像データを切り出し、切り出した部分画像データの顔パーツ(目、鼻、口)等を平均化したものである。なお、平均顔を生成する際には、様々な従来技術を用いることができる。   As shown in FIG. 3B, the average face template generation unit 55b cuts out partial facial image data from a plurality of monitoring subject's facial photographs, and facial parts (eyes, nose, mouth) of the extracted partial image data. Etc. are averaged. Various conventional techniques can be used when generating the average face.

運用管理部55cは、顔照合システム全体の運用管理を行う処理部であり、カメラ10、顔検出装置20、1次照合装置30又は2次照合装置を新たに登録する処理や、これらの登録済み装置を抹消する処理を行う。また、この運用管理部55cは、2次照合装置60から入力顔画像データ及び識別情報を受信したならば、この識別情報に対応する顔画像データ、顔テンプレート及び登録情報を検索し、入力顔画像データとともに表示部52に表示する処理を行う。   The operation management unit 55c is a processing unit that performs operation management of the entire face matching system. The operation management unit 55c newly registers the camera 10, the face detection device 20, the primary matching device 30, or the secondary matching device. Process to erase the device. Further, when the operation management unit 55c receives the input face image data and the identification information from the secondary verification device 60, the operation management unit 55c searches for the face image data, the face template, and the registration information corresponding to the identification information, and inputs the input face image. A process of displaying on the display unit 52 together with the data is performed.

次に、図1に示した1次照合装置30の内部構成について説明する。図4は、図1に示した1次照合装置30の内部構成を示す機能ブロック図である。同図に示すように、この1次照合装置30は、インタフェース部31、記憶部32及び制御部33を有する。インタフェース部31は、ネットワーク40を介して他装置とデータ通信を行うためのインタフェース部である。   Next, the internal configuration of the primary verification device 30 shown in FIG. 1 will be described. FIG. 4 is a functional block diagram showing the internal configuration of the primary verification device 30 shown in FIG. As shown in the figure, the primary verification device 30 includes an interface unit 31, a storage unit 32, and a control unit 33. The interface unit 31 is an interface unit for performing data communication with other devices via the network 40.

記憶部32は、フラッシュメモリやハードディスク装置等からなる記憶デバイスであり、平均顔テンプレート32aを記憶する。この平均顔テンプレート32aは、図2に示した運用管理装置50から送信されたものであり、運用管理装置50の記憶部54に記憶した平均顔テンプレート54cと同じものである。   The storage unit 32 is a storage device including a flash memory, a hard disk device, and the like, and stores an average face template 32a. The average face template 32a is transmitted from the operation management apparatus 50 shown in FIG. 2, and is the same as the average face template 54c stored in the storage unit 54 of the operation management apparatus 50.

制御部33は、1次照合装置30を全体制御する制御部であり、平均顔照合処理部33a及び自動しきい値設定部33bを有する。平均顔照合処理部33aは、顔検出装置20から受信した入力顔画像データと記憶部32に記憶した平均顔テンプレート32aとの照合処理を行い、この照合値が所定のしきい値以上である場合に、入力顔画像データを2次照合装置60に送信する処理部である。なお、かかる照合処理には、相互相関処理等の各種従来技術を用いることができる。   The control unit 33 is a control unit that controls the primary collation device 30 as a whole, and includes an average face collation processing unit 33a and an automatic threshold setting unit 33b. The average face matching processing unit 33a performs a matching process between the input face image data received from the face detection device 20 and the average face template 32a stored in the storage unit 32, and the matching value is equal to or greater than a predetermined threshold value. And a processing unit that transmits the input face image data to the secondary collation device 60. Note that various conventional techniques such as cross-correlation processing can be used for such verification processing.

自動しきい値設定部33bは、カメラ10の設置時又は該カメラ10の運用開始時に、学習期間としてカメラ10の前を通行する監視対象者を含まない非監視対象者を一定時間撮像し、各カメラ10から顔検出装置20を介して受信した入力顔画像データと平均顔テンプレート32aとの照合値を計算し、その照合値の分布に基づいてしきい値を自動設定する処理部である。   The automatic threshold value setting unit 33b captures a non-monitoring target person that does not include a monitoring target person who passes in front of the camera 10 as a learning period when the camera 10 is installed or when the operation of the camera 10 is started. This is a processing unit that calculates a collation value between the input face image data received from the camera 10 via the face detection device 20 and the average face template 32a, and automatically sets a threshold value based on the distribution of the collation value.

具体的には、入力顔画像データと平均顔テンプレート32aとの照合値のヒストグラムが、図5に示すような分布関数となった場合には、この分布関数の平均、分散、標準偏差σを求め、例えば3σをしきい値として設定すれば良い。   Specifically, when the histogram of the matching value between the input face image data and the average face template 32a becomes a distribution function as shown in FIG. 5, the average, variance, and standard deviation σ of this distribution function are obtained. For example, 3σ may be set as the threshold value.

これにより、学習が完了した後は、カメラ10ごとの最適なしきい値を自動設定することができる。カメラ10ごとに性能、撮影角度、照明環境などがそれぞれ異なる場合があるからである。なお、顔の向きごと、平均顔テンプレート32aが複数存在する場合には平均顔テンプレート32aごとにしきい値を自動設定することもできる。   Thereby, after learning is completed, the optimal threshold value for every camera 10 can be automatically set. This is because the performance, shooting angle, lighting environment, and the like may be different for each camera 10. When there are a plurality of average face templates 32a for each face orientation, a threshold value can be automatically set for each average face template 32a.

次に、図1に示した2次照合装置60の内部構成について説明する。図6は、図1に示した2次照合装置60の内部構成を示す機能ブロック図である。同図に示すように、この2次照合装置60は、インタフェース部61、記憶部62及び制御部63を有する。インタフェース部61は、LAN及びネットワーク40を介して他装置とデータ通信を行うためのインタフェース部である。   Next, the internal configuration of the secondary verification device 60 shown in FIG. 1 will be described. FIG. 6 is a functional block diagram showing the internal configuration of the secondary verification device 60 shown in FIG. As shown in the figure, the secondary verification device 60 includes an interface unit 61, a storage unit 62, and a control unit 63. The interface unit 61 is an interface unit for performing data communication with other devices via the LAN and the network 40.

記憶部62は、フラッシュメモリやハードディスク装置等からなる記憶デバイスであり、複数の顔テンプレート62aを記憶する。この顔テンプレート62aは、図2に示した運用管理装置50から送信されたものであり、運用管理装置50の記憶部54に記憶した顔テンプレート54bと同じものである。   The storage unit 62 is a storage device including a flash memory, a hard disk device, and the like, and stores a plurality of face templates 62a. The face template 62a is transmitted from the operation management apparatus 50 shown in FIG. 2, and is the same as the face template 54b stored in the storage unit 54 of the operation management apparatus 50.

制御部63は、2次照合装置60を全体制御する制御部であり、顔照合処理部63aを有する。顔照合処理部63aは、1次照合装置30から受信した入力顔画像データと記憶部62に記憶した複数の顔テンプレート62aとの照合処理を行い、この照合値が所定のしきい値以上である場合に、入力顔画像データ及び識別情報を運用管理装置50に送信する処理部である。なお、かかる照合処理についても、相互相関処理等の各種従来技術を用いることができる。   The control unit 63 is a control unit that totally controls the secondary collation device 60, and includes a face collation processing unit 63a. The face matching processing unit 63a performs matching processing between the input face image data received from the primary matching device 30 and the plurality of face templates 62a stored in the storage unit 62, and the matching value is equal to or greater than a predetermined threshold value. In this case, the processing unit transmits the input face image data and the identification information to the operation management apparatus 50. Note that various conventional techniques such as cross-correlation processing can also be used for such verification processing.

次に、図1に示した顔検出装置20の内部構成について説明する。図7は、図1に示した顔検出装置20の内部構成を示す機能ブロック図である。同図に示すように、この顔検出装置20は、インタフェース部21、記憶部22及び制御部23を有する。インタフェース部21は、カメラ10及び1次照合装置30とデータ通信を行うためのインタフェース部である。   Next, the internal configuration of the face detection apparatus 20 shown in FIG. 1 will be described. FIG. 7 is a functional block diagram showing an internal configuration of the face detection apparatus 20 shown in FIG. As shown in the figure, the face detection apparatus 20 includes an interface unit 21, a storage unit 22, and a control unit 23. The interface unit 21 is an interface unit for performing data communication with the camera 10 and the primary verification device 30.

記憶部22は、フラッシュメモリやハードディスク装置等からなる記憶デバイスであり、カメラ10から受信した動画像データを一時記憶する。一時記憶した動画像データは、運用管理装置50から要求された場合に、該運用管理装置50に対して送信する。   The storage unit 22 is a storage device including a flash memory, a hard disk device, and the like, and temporarily stores moving image data received from the camera 10. The temporarily stored moving image data is transmitted to the operation management apparatus 50 when requested by the operation management apparatus 50.

制御部23は、顔検出装置20を全体制御する制御部であり、顔検出処理部23a及びカメラ位置制御部23bを有する。顔検出処理部23aは、カメラ10から受信した動画像データを記憶部22に記憶するとともに、該動画像データから人の顔画像を検出し、検出した顔画像データを1次照合装置30に送信する処理部である。具体的には、動画像データから静止画像データを順次取り出し、取り出した静止画像に人の顔部分が存在するか否かをテンプレートマッチング技術等により判定する。   The control unit 23 is a control unit that controls the entire face detection device 20, and includes a face detection processing unit 23a and a camera position control unit 23b. The face detection processing unit 23 a stores the moving image data received from the camera 10 in the storage unit 22, detects a human face image from the moving image data, and transmits the detected face image data to the primary verification device 30. Is a processing unit. Specifically, still image data is sequentially extracted from the moving image data, and whether or not a human face portion exists in the extracted still image is determined by a template matching technique or the like.

カメラ位置制御部23bは、所定の位置に存在すべき基準物の基準座標位置をあらかじめ登録しておき、動画像データから取り出した静止画像に存在する基準物の座標位置と基準座標位置との間に所定値以上の位置ずれが存在する場合には、その位置ずれ量を算出して位置ずれ量を補正するための制御信号をカメラ10の制御機構に送信する。   The camera position control unit 23b registers in advance a reference coordinate position of a reference object that should exist at a predetermined position, and between the reference object coordinate position and the reference coordinate position that exist in the still image extracted from the moving image data. If there is a positional deviation greater than or equal to a predetermined value, a control signal for calculating the positional deviation amount and correcting the positional deviation amount is transmitted to the control mechanism of the camera 10.

次に、顔テンプレート及び平均顔テンプレートの登録処理手順について説明する。図8は、図1に示した運用管理装置50による顔テンプレート及び平均顔テンプレートの登録処理手順を示すフローチャートである。   Next, the registration process procedure of the face template and the average face template will be described. FIG. 8 is a flowchart showing the registration processing procedure of the face template and the average face template by the operation management apparatus 50 shown in FIG.

図8に示すように、運用管理装置50は、他のサーバ装置又は記憶デバイスから顔写真データを取り込み、識別情報を付与しつつ属性情報の登録を終えたならば(ステップS101)、顔テンプレートを生成する(ステップS102)。具体的には、図3(a)に示すように、テンプレートマッチング等を用いて顔写真データから顔の部分画像データを切り出し、この部分画像データ内の顔の向きを既存の画像処理技術で変えつつ10個の顔画像データを生成し、これを顔テンプレートとする。   As shown in FIG. 8, when the operation management apparatus 50 captures face photo data from another server apparatus or storage device and completes registration of attribute information while providing identification information (step S101), the operation management apparatus 50 selects a face template. Generate (step S102). Specifically, as shown in FIG. 3A, partial image data of a face is cut out from face photo data by using template matching or the like, and the orientation of the face in the partial image data is changed by an existing image processing technique. Ten face image data are generated while this is used as a face template.

その後、平均顔テンプレートを生成する(ステップS103)。具体的には、図3(b)に示すように、複数の顔写真から顔の部分画像データを切り出し、既存技術を用いて顔パーツを平均化しつつ平均顔を生成する。   Thereafter, an average face template is generated (step S103). Specifically, as shown in FIG. 3B, partial image data of a face is cut out from a plurality of face photographs, and an average face is generated while averaging face parts using an existing technique.

そして、生成した顔テンプレート54b及び平均顔テンプレート54cを記憶部54に記憶した後(ステップS104)、他の顔写真データが存在する場合には(ステップS105;Yes)ステップS101に移行して同様の処理を繰り返す。   Then, after the generated face template 54b and average face template 54c are stored in the storage unit 54 (step S104), if other face photo data exists (step S105; Yes), the process proceeds to step S101 and the same Repeat the process.

一方、他の顔写真データが存在しない場合には(ステップS105;No)、顔テンプレートを2次照合装置60に送信するとともに(ステップS106)、平均顔テンプレートを1次照合装置30に対して送信する(ステップS107)。   On the other hand, when there is no other face photo data (step S105; No), the face template is transmitted to the secondary collation device 60 (step S106), and the average face template is transmitted to the primary collation device 30. (Step S107).

2次照合装置60は、かかる顔テンプレートを受信したならば(ステップS108;Yes)、受信した顔テンプレートを記憶部62に登録する(ステップS109)。同様に、1次照合装置30は、上記平均顔テンプレートを受信したならば(ステップS110;Yes)、受信した平均顔テンプレートを記憶部32に登録する(ステップS111)。   If the secondary collation device 60 receives such a face template (step S108; Yes), it registers the received face template in the storage unit 62 (step S109). Similarly, when the primary collation device 30 receives the average face template (step S110; Yes), it registers the received average face template in the storage unit 32 (step S111).

上記一連の処理を行うことにより、1次照合装置30に平均顔テンプレート32aを登録するとともに、2次照合装置60に顔テンプレート62aを登録して、顔照合処理を行う準備が完了することになる。   By performing the above-described series of processing, the average face template 32a is registered in the primary collation device 30, and the face template 62a is registered in the secondary collation device 60, and preparation for performing the face collation processing is completed. .

次に、図1に示した1次照合装置30及び2次照合装置60による照合処理を経て、入力顔画像データを表示するまでの処理手順について説明する。図9は、図1に示した1次照合装置30及び2次照合装置60による照合処理を経て、入力顔画像データを表示するまでの処理手順を示すフローチャートである。   Next, a processing procedure until the input face image data is displayed through the collation processing by the primary collation device 30 and the secondary collation device 60 shown in FIG. 1 will be described. FIG. 9 is a flowchart showing a processing procedure until the input face image data is displayed after the collation processing by the primary collation device 30 and the secondary collation device 60 shown in FIG.

まず、カメラ10により撮像された動画像データが顔検出装置20が受信し、顔検出装置20が動画像データから静止画像データを切り出して人の顔画像データを抽出して、これを入力顔画像データとして1次照合装置30に送信する。   First, the moving image data captured by the camera 10 is received by the face detection device 20, and the face detection device 20 extracts still image data from the moving image data to extract human face image data, which is input face image. The data is transmitted to the primary verification device 30 as data.

1次照合装置30は、この入力顔画像データを受信したならば(ステップS201;Yes)、この入力顔画像データを平均顔テンプレート32aと照合する平均顔照合処理を行い(ステップS202)、照合値が所定のしきい値以上である場合には(ステップS203;Yes)、入力顔画像データを2次照合装置60に対して送信する(ステップS204)。なお、照合値が所定のしきい値未満である場合には(ステップS203;No)、入力顔画像データを2次照合装置60に対して送信しない。   When the primary collation device 30 receives the input face image data (step S201; Yes), the primary collation device 30 performs an average face collation process for collating the input face image data with the average face template 32a (step S202), and a collation value. Is equal to or greater than the predetermined threshold value (step S203; Yes), the input face image data is transmitted to the secondary verification device 60 (step S204). If the collation value is less than the predetermined threshold value (step S203; No), the input face image data is not transmitted to the secondary collation device 60.

2次照合装置60は、この入力顔画像データを受信したならば(ステップS205;Yes)、この入力顔画像データを顔テンプレート62aと照合する顔照合処理を行い(ステップS206)、照合値が所定のしきい値以上である場合には(ステップS207;Yes)、入力顔画像データ及び識別情報を運用管理装置50に対して送信する(ステップS208)。なお、照合値が所定のしきい値未満である場合には(ステップS207;No)、入力顔画像データ及び識別情報を運用管理装置50に対して送信しない。   If the input face image data is received (step S205; Yes), the secondary matching device 60 performs face matching processing for matching the input face image data with the face template 62a (step S206), and the matching value is predetermined. If it is equal to or greater than the threshold value (step S207; Yes), the input face image data and the identification information are transmitted to the operation management apparatus 50 (step S208). If the collation value is less than the predetermined threshold (step S207; No), the input face image data and the identification information are not transmitted to the operation management apparatus 50.

運用管理装置50は、入力顔画像データ及び識別情報を受信したならば(ステップS209;Yes)、この識別情報を用いて顔テンプレート及び属性情報を検索し、入力顔画像データ、顔テンプレート及び属性情報を表示する(ステップS210)。なお、この属性情報には、監視対象者の氏名、住所、照合対象とされた理由等のほか、顔写真データも含まれる。   If the operation management device 50 receives the input face image data and the identification information (step S209; Yes), the operation management device 50 searches the face template and the attribute information using the identification information, and inputs the face image data, the face template, and the attribute information. Is displayed (step S210). The attribute information includes face photograph data in addition to the name and address of the person to be monitored, the reason for the subject of verification, and the like.

なお、図10に示したように、運用管理装置70の制御部55内に追跡処理部72及び身体テンプレート生成部73を設けることもできる。追跡処理部72は、監視対象者の存在位置を追跡処理する処理部である。すでに説明した一連の処理を通じて、カメラ10により撮像された動画像データ内に監視対象者が存在すれば、この監視対象者の入力顔画像データ等が運用管理装置70に通知される。   As shown in FIG. 10, a tracking processing unit 72 and a body template generation unit 73 can be provided in the control unit 55 of the operation management apparatus 70. The tracking processing unit 72 is a processing unit that performs tracking processing of the location of the monitoring target person. If there is a monitoring subject in the moving image data captured by the camera 10 through the series of processes described above, the operation management device 70 is notified of the input face image data of the monitoring subject.

ここで、運用管理装置70は、最終的な入力顔画像データを受信する際に併せてカメラ10の識別情報及び撮影時刻を受信することができれば、「該当する監視対象者がいつどこにいたか」の情報を入手できる。このため、追跡処理部72は、2次照合装置60から通知される情報を用いて監視対象者の行動軌跡を収集し、監視対象者の移動経路を把握するための追跡処理に利用することができる。なお、かかる追跡処理を行うためには、顔検出装置20が1次照合装置30に対して入力顔画像データとともにカメラ10の識別情報及び撮影時刻を通知し、同様に1次照合装置30が2次照合装置に対して入力顔画像データとともにカメラ10の識別情報及び撮影時刻を通知する必要がある。なお、追跡処理の詳細については、既存技術を用いることができるが、経路予測を行いつつ追跡処理を行うことが望ましい。   Here, if the operation management apparatus 70 can receive the identification information and the photographing time of the camera 10 at the time of receiving the final input face image data, “when and where the corresponding monitoring subject was located”. Information is available. For this reason, the tracking processing unit 72 collects the behavior trajectory of the monitoring target person using the information notified from the secondary verification device 60 and can use it for the tracking process for grasping the movement route of the monitoring target person. it can. In order to perform such tracking processing, the face detection device 20 notifies the primary collation device 30 of the identification information and the photographing time of the camera 10 together with the input face image data. It is necessary to notify the next verification device of the identification information of the camera 10 and the photographing time together with the input face image data. As for details of the tracking process, an existing technique can be used, but it is desirable to perform the tracking process while performing route prediction.

身体テンプレート生成部73は、監視対象者の身体テンプレート71を生成する処理部であり、例えば、姿全体や身長、色などの外観上の特徴や、歩き方などの動作の特徴の特徴量を身体テンプレート71とすることができる。   The body template generation unit 73 is a processing unit that generates the body template 71 of the person to be monitored. For example, the body template generation unit 73 stores the features of appearance features such as the whole figure, height, and color, and the features of movement features such as walking. A template 71 can be used.

具体的には、図3(a)に示した顔テンプレートと同様のものを体全体の写真から生成し、生成した身体テンプレート71を1次照合装置30に対して送信するとともに、記憶部54内に記憶する。この身体テンプレート71を受信した1次照合装置30は、身体テンプレート71を用いた照合処理によって所定の照合率以上の結果が得られた場合に、運用管理装置70に対してその結果を通知することになる。かかる身体テンプレート71を用いた処理を行うことにより、動画像データ内に監視対象者の顔が撮像されていない場合であっても追跡処理を行うことができる。なお、平均身体テンプレートを生成して1次照合装置30に送信するとともに、身体テンプレート71を2次照合装置60に送信し、上記顔画像を用いた照合処理と同様の処理を行うこともできる。そして、顔が検出されたカメラ10から一定の範囲内に設置されたカメラ10の画像を所定時間遡って照合して検出処理することで、移動経路を推定することができる。   Specifically, a face template similar to that shown in FIG. 3A is generated from a photograph of the entire body, and the generated body template 71 is transmitted to the primary verification device 30 and stored in the storage unit 54. To remember. The primary verification device 30 that has received the body template 71 notifies the operation management device 70 of the result when a result equal to or higher than a predetermined verification rate is obtained by the verification process using the body template 71. become. By performing the process using the body template 71, the tracking process can be performed even when the face of the person to be monitored is not captured in the moving image data. In addition, while generating an average body template and transmitting it to the primary collation apparatus 30, the body template 71 can also be transmitted to the secondary collation apparatus 60, and the process similar to the collation process using the said face image can also be performed. Then, the movement path can be estimated by collating and detecting the images of the camera 10 installed within a certain range from the camera 10 from which the face is detected, for a predetermined time.

上述してきたように、本実施例では、各拠点に配置された1次照合装置30では、カメラ10で撮像され顔検出装置20で検出された入力顔画像データを平均顔テンプレート32aと照合処理して所定のしきい値以上である場合に入力顔画像データを2次照合装置60に送信し、2次照合装置では、この入力顔画像データを顔テンプレートと照合処理するよう構成したので、セキュリティ対策が講じられていない拠点に顔テンプレートを置く必要がなくなるため、情報の漏洩を防止することができる。併せて、カメラ10の設置台数が累増した場合であっても、2次照合装置60の処理負荷を軽減することができる。   As described above, in the present embodiment, the primary collation device 30 disposed at each site collates the input face image data captured by the camera 10 and detected by the face detection device 20 with the average face template 32a. The input face image data is transmitted to the secondary collation device 60 when the input face image data is equal to or greater than the predetermined threshold value, and the secondary collation device is configured to perform collation processing on the input face image data with the face template. Since it is no longer necessary to place a face template at a location where no is taken, information leakage can be prevented. In addition, even when the number of cameras 10 installed is increased, the processing load of the secondary verification device 60 can be reduced.

なお、上記実施例では、4台のカメラ10、4台の顔検出装置20、2台の1次照合装置30及び1台の2次照合装置60を用いた場合を示したが、本発明はこれに限定されるものではなく、より多くのカメラ10等を設けた場合に適用することができる。特に、数千〜数万台のカメラ10を設けた場合で適している。この場合であっても、2次照合装置60の処理負荷を軽減するとともに、監視対象者の情報漏洩を防止することができる。   In the above embodiment, the case where four cameras 10, four face detection devices 20, two primary collation devices 30 and one secondary collation device 60 are used is shown. The present invention is not limited to this, and can be applied when more cameras 10 or the like are provided. In particular, it is suitable when thousands to tens of thousands of cameras 10 are provided. Even in this case, it is possible to reduce the processing load of the secondary verification device 60 and prevent information leakage of the monitoring target person.

また、上記実施例では、平均顔テンプレートを生成する際に、複数の監視対象者の顔のパーツを平均化する場合を示したが、平均化に伴う監視対象者の個人特徴の喪失を防ぐために、監視対象者の顔パーツのうちの特異な顔パーツを重み付け処理することもできる。また、多数の監視対象者の顔画像データを用いて1つの平均顔テンプレートのみを生成すると、個人特徴を喪失する可能性が高まるため、所定人数毎(例えば10人)に平均顔テンプレートを生成することが考えられる。この場合、抽出した特徴が似ているものをグループとすることが望ましい。例えば、特徴量の空間で、所定の距離の範囲内にある顔で平均顔を生成することが望まれる。   In the above embodiment, when generating an average face template, a case is shown in which the parts of the faces of a plurality of monitoring subjects are averaged. In order to prevent loss of personal characteristics of the monitoring subjects due to averaging. The unique face parts among the face parts of the monitoring subject can be weighted. In addition, if only one average face template is generated using the face image data of a large number of monitoring subjects, the possibility of losing personal characteristics increases, so an average face template is generated for each predetermined number of people (for example, 10 people). It is possible. In this case, it is desirable to group the extracted features that are similar. For example, it is desired to generate an average face with faces within a predetermined distance in a feature amount space.

さらに、上記実施例では、具体的な事例への言及を省略したが、民間の監視カメラを用いた警察庁によるテロリストや指名手配被疑者の検挙や、事業所内の構内監視システム、ゴト師や万引き容疑人物の検知等に用いることができる。   Furthermore, in the above embodiment, reference to specific cases was omitted. It can be used to detect suspects.

この際、処理対象とする人物をあらかじめ絞り込んでサーバの処理を軽減することもできる。例えば、駅の自動改札を通過する人をカメラ10で撮影する場合に、定期券を持った人物を処理対象から除外することで絞り込みを行うことができる。この場合には、あらかじめ定期券の購入時に定期券購入者を非検出対象者として事前登録しておき、改札機にて読み取った人物のうち定期券購入者を非検出対象者として照合処理から除外することになる。また、定期券交換によるなりすましについては、定期券によりIDが判明しているので1対1照合することができるため、サーバの負荷は比較的低い。さらに、地方からの出張者や旅行者などに対しては、通行数の少ない地方の駅のサーバで処理して非検出対象者であることが判明したならば、そのチケットを所持する人物を照合対象から除外することができる。   At this time, the processing of the server can be reduced by narrowing down the persons to be processed in advance. For example, when a person who passes an automatic ticket gate at a station is photographed by the camera 10, it is possible to narrow down by excluding the person with the commuter pass from the processing target. In this case, the commuter pass purchaser is pre-registered as a non-detection target in advance when purchasing the commuter pass, and the commuter pass purchaser is excluded from the verification process as a non-detection target person among the people read by the ticket gate Will do. Further, for impersonation by commuter pass exchange, since the ID is known from the commuter pass, one-to-one verification can be performed, so the load on the server is relatively low. In addition, for business travelers and travelers from the local area, if it is determined that the person is a non-detection target after being processed by a server at a local station with a small number of traffic, the person who owns the ticket is verified. Can be excluded from the target.

また、上記実施例では、合成顔テンプレートの一例として平均顔テンプレートを用いる場合を示したが、本発明はこれに限定されるものではなく、複数の顔画像データから生成したモンタージュやモーフィングを用いることもできる。   Moreover, although the case where the average face template is used as an example of the synthetic face template is shown in the above embodiment, the present invention is not limited to this, and montage or morphing generated from a plurality of face image data is used. You can also.

以上のように、本発明に係る顔照合システム、顔照合装置及び顔照合方法は、多数の監視カメラで入力顔画像データを取得し、この入力顔画像データを顔テンプレートと照合処理する場合に、照合処理を行う顔照合装置の処理負荷を軽減しつつ、顔テンプレートの漏洩を効率良く抑制する場合に適している。   As described above, the face matching system, the face matching device, and the face matching method according to the present invention acquire input face image data with a large number of monitoring cameras, and when this input face image data is checked against a face template, It is suitable for efficiently suppressing the leakage of the face template while reducing the processing load of the face matching device that performs the matching process.

10 カメラ
20 顔検出装置
21 インタフェース部
22 記憶部
23 制御部
23a 顔検出処理部
23b カメラ位置制御部
30 1次照合装置
31 インタフェース部
32 記憶部
32a 平均顔テンプレート
33 制御部
33a 平均顔照合処理部
33b 自動しきい値設定部33b
40 ネットワーク
50 運用管理装置
51 入力部
52 表示部
53 インタフェース部
54 記憶部
54a 登録データ
54b 顔テンプレート
54c 平均顔テンプレート
55 制御部
60 2次照合装置
61 インタフェース部
62 記憶部
62a 顔テンプレート
63 制御部
63a 顔照合処理部
70 運用管理装置
71 身体テンプレート
72 追跡処理部
73 身体テンプレート生成部
DESCRIPTION OF SYMBOLS 10 Camera 20 Face detection apparatus 21 Interface part 22 Storage part 23 Control part 23a Face detection process part 23b Camera position control part 30 Primary collation apparatus 31 Interface part 32 Storage part 32a Average face template 33 Control part 33a Average face collation process part 33b Automatic threshold setting unit 33b
DESCRIPTION OF SYMBOLS 40 Network 50 Operation management apparatus 51 Input part 52 Display part 53 Interface part 54 Storage part 54a Registration data 54b Face template 54c Average face template 55 Control part 60 Secondary collation apparatus 61 Interface part 62 Storage part 62a Face template 63 Control part 63a Face Verification processing unit 70 Operation management device 71 Body template 72 Tracking processing unit 73 Body template generation unit

Claims (7)

あらかじめ登録された複数の監視対象者の顔テンプレートと撮像装置で撮像された入力顔画像データとを顔照合処理する顔照合システムであって、
複数の監視対象者の顔画像データに基づいて複数の顔テンプレート並びに合成顔テンプレートを生成するテンプレート生成装置と、
複数の拠点にそれぞれ配置された複数の撮像装置と、
前記撮像装置により撮像された入力顔画像データを前記テンプレート生成装置により生成された前記合成顔テンプレートと照合処理して、所定値以上の照合率を有する入力顔画像データを送信処理する1次照合装置と、
前記1次照合装置から受信した入力顔画像データを前記テンプレート生成装置で生成された顔テンプレートと照合処理する2次照合装置と
を備えたことを特徴とする顔照合システム。
A face matching system that performs face matching processing on a plurality of pre-registered face templates of monitoring subjects and input face image data captured by an imaging device,
A template generation device that generates a plurality of face templates and a combined face template based on face image data of a plurality of monitoring subjects;
A plurality of imaging devices respectively disposed at a plurality of bases;
A primary collation device that performs collation processing on input face image data captured by the image capturing device with the composite face template generated by the template generation device, and transmits input face image data having a collation rate equal to or higher than a predetermined value. When,
A face collation system, comprising: a secondary collation device that collates input face image data received from the primary collation device with a face template generated by the template generation device.
前記1次照合装置は一又は複数の撮像装置とともに各拠点に配置され、前記2次照合装置は入退出管理等のセキュリティ対策が講じられたセンタに配置されることを特徴とする請求項1に記載の顔照合システム。   The primary verification device is disposed at each base together with one or a plurality of imaging devices, and the secondary verification device is disposed at a center where security measures such as entry / exit management are taken. The face matching system described. 前記1次照合装置は、前記撮像装置により所定の期間撮像された入力顔画像データと前記合成顔テンプレートとを照合処理した照合率の分布に基づいて前記送信処理対象とする所定値を自動設定することを特徴とする請求項1又は2に記載の顔照合システム。   The primary collation device automatically sets a predetermined value as a transmission processing target based on a distribution of a collation rate obtained by collating input face image data captured by the imaging device for a predetermined period and the synthetic face template. The face collation system according to claim 1 or 2, wherein 前記1次照合装置は、前記撮像装置により撮像された入力顔画像データ内に所在する基準物と該基準物の正規の所在位置との位置ずれ量を前記撮像装置に通知し、前記撮像装置は、前記1次照合装置から受信した位置ずれ量に基づいて画角を制御することを特徴とする請求項1、2又は3に記載の顔照合システム。   The primary verification device notifies the imaging device of a positional deviation amount between a reference object located in the input face image data imaged by the imaging device and a normal location of the reference object, and the imaging device The face collation system according to claim 1, wherein the angle of view is controlled based on a positional deviation amount received from the primary collation device. 前記2次照合装置は、前記1次照合装置から受信した入力顔画像データと前記顔テンプレートとを照合処理した照合処理結果に基づいて、該当する監視対象者の追跡情報を生成することを特徴とする請求項1〜4のいずれか一つに記載の顔照合システム。   The secondary collation device generates tracking information of a corresponding monitoring target person based on a collation processing result obtained by collating the input face image data received from the primary collation device and the face template. The face collation system according to any one of claims 1 to 4. あらかじめ登録された複数の監視対象者の顔テンプレートと撮像装置で撮像された入力顔画像データとを顔照合処理する顔照合方法であって、
複数の監視対象者の顔画像データに基づいて複数の顔テンプレート並びに合成顔テンプレートを生成するテンプレート生成工程と、
一又は複数の撮像装置により撮像された入力顔画像データを前記テンプレート生成工程で生成された前記合成顔テンプレートと照合処理する1次照合工程と、
前記1次照合工程で所定値以上の照合率を有する入力顔画像データを前記テンプレート生成工程で生成された顔テンプレートと照合処理する2次照合工程と
を含んだことを特徴とする顔照合方法。
A face matching method for performing face matching processing on a plurality of pre-registered face templates of monitoring subjects and input face image data captured by an imaging device,
A template generating step for generating a plurality of face templates and a combined face template based on the face image data of a plurality of monitoring subjects;
A primary matching step of matching input face image data captured by one or more imaging devices with the synthetic face template generated in the template generation step;
A face matching method, comprising: a secondary matching step of matching input face image data having a matching rate equal to or higher than a predetermined value in the primary matching step with the face template generated in the template generation step.
あらかじめ登録された複数の監視対象者の顔テンプレートと撮像装置で撮像された入力顔画像データとを顔照合処理する顔照合装置であって、
複数の監視対象者の顔画像データに基づいて生成された合成顔テンプレートを記憶する記憶部と、
所定の撮像装置により撮像された入力顔画像データを前記記憶部に記憶された前記合成顔テンプレートと照合処理して、所定値以上の照合率を有する入力顔画像データを抽出処理する抽出処理部と
を備えたことを特徴とする顔照合装置。
A face matching device that performs face matching processing on a plurality of pre-registered face templates of monitoring subjects and input face image data captured by an imaging device,
A storage unit for storing a composite face template generated based on face image data of a plurality of monitoring subjects;
An extraction processing unit for extracting input face image data having a matching rate equal to or greater than a predetermined value by comparing input face image data captured by a predetermined imaging device with the composite face template stored in the storage unit; A face collation apparatus comprising:
JP2010282417A 2010-12-17 2010-12-17 Face matching system, face matching device, and face matching method Active JP5730000B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010282417A JP5730000B2 (en) 2010-12-17 2010-12-17 Face matching system, face matching device, and face matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010282417A JP5730000B2 (en) 2010-12-17 2010-12-17 Face matching system, face matching device, and face matching method

Publications (2)

Publication Number Publication Date
JP2012133411A true JP2012133411A (en) 2012-07-12
JP5730000B2 JP5730000B2 (en) 2015-06-03

Family

ID=46648971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010282417A Active JP5730000B2 (en) 2010-12-17 2010-12-17 Face matching system, face matching device, and face matching method

Country Status (1)

Country Link
JP (1) JP5730000B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140239A (en) * 2019-02-26 2020-09-03 沖電気工業株式会社 Information processing device and face recognition system
CN112926353A (en) * 2019-12-05 2021-06-08 王体 Distributed cloud processing method for field data
CN113591544A (en) * 2021-06-10 2021-11-02 东风汽车集团股份有限公司 Method, system and device for tracking user through vehicle and electronic equipment
WO2023079587A1 (en) * 2021-11-02 2023-05-11 日本電気株式会社 Biometric authentication device, biometric authentication method, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62212781A (en) * 1986-03-14 1987-09-18 Hitachi Ltd Personal identification system
JP2000215313A (en) * 1999-01-22 2000-08-04 Mitsubishi Electric Corp Method and device identifying data
US20030039380A1 (en) * 2001-08-24 2003-02-27 Hiroshi Sukegawa Person recognition apparatus
JP2003296711A (en) * 2002-03-29 2003-10-17 Nec Corp Method, device and program for identifying facial image
JP2004356730A (en) * 2003-05-27 2004-12-16 Toshiba Corp Image photographing apparatus and image recognizing apparatus
JP2007052770A (en) * 2005-07-21 2007-03-01 Omron Corp Monitoring apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62212781A (en) * 1986-03-14 1987-09-18 Hitachi Ltd Personal identification system
JP2000215313A (en) * 1999-01-22 2000-08-04 Mitsubishi Electric Corp Method and device identifying data
US20030039380A1 (en) * 2001-08-24 2003-02-27 Hiroshi Sukegawa Person recognition apparatus
JP2003296711A (en) * 2002-03-29 2003-10-17 Nec Corp Method, device and program for identifying facial image
JP2004356730A (en) * 2003-05-27 2004-12-16 Toshiba Corp Image photographing apparatus and image recognizing apparatus
JP2007052770A (en) * 2005-07-21 2007-03-01 Omron Corp Monitoring apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140239A (en) * 2019-02-26 2020-09-03 沖電気工業株式会社 Information processing device and face recognition system
JP7392264B2 (en) 2019-02-26 2023-12-06 沖電気工業株式会社 Information processing equipment and face recognition system
CN112926353A (en) * 2019-12-05 2021-06-08 王体 Distributed cloud processing method for field data
CN112926353B (en) * 2019-12-05 2024-03-19 上海岽利信息科技有限公司 Site data distributed cloud processing method
CN113591544A (en) * 2021-06-10 2021-11-02 东风汽车集团股份有限公司 Method, system and device for tracking user through vehicle and electronic equipment
WO2023079587A1 (en) * 2021-11-02 2023-05-11 日本電気株式会社 Biometric authentication device, biometric authentication method, and recording medium

Also Published As

Publication number Publication date
JP5730000B2 (en) 2015-06-03

Similar Documents

Publication Publication Date Title
CN110491004B (en) Resident community personnel safety management system and method
CN109743541B (en) Intelligent monitoring method and device, computer equipment and storage medium
US8340366B2 (en) Face recognition system
JP2021535520A (en) Systems and methods for identifying and verifying one or more individuals using facial recognition
JP2022082561A (en) Analysis server, monitoring system, monitoring method, and program
KR102012672B1 (en) Anti-crime system and method using face recognition based people feature recognition
WO2018180588A1 (en) Facial image matching system and facial image search system
US20130216107A1 (en) Method of surveillance by face recognition
JP2007317062A (en) Person recognition apparatus and method
JP7196932B2 (en) Information processing device, information processing method, and program
KR102233265B1 (en) A method for controlling access based on the user's biometric information based on deep learning, and an electronic lock system access control system for the same
JP2014106794A (en) Face authentication device, authentication method and program thereof, and information apparatus
CN109815813A (en) Image processing method and Related product
JP2023111974A (en) Image masking device and image masking method
CN111539338A (en) Pedestrian mask wearing control method, device, equipment and computer storage medium
JP5730000B2 (en) Face matching system, face matching device, and face matching method
US11881056B2 (en) Image processing device, image processing method, and storage medium
CN106067009A (en) A kind of smart city road face identification system
CN110717428A (en) Identity recognition method, device, system, medium and equipment fusing multiple features
JPWO2020065852A1 (en) Authentication system, authentication method, and program
JP2012124658A (en) System and method for detecting specific person
WO2022057329A1 (en) Safety monitoring method, apparatus, and system, and storage medium
US11106895B1 (en) Video alert and secondary verification system and method
JP2005140754A (en) Method of detecting person, monitoring system, and computer program
AU2020435735B2 (en) Gate system, gate apparatus, image processing method therefor, program, and arrangement method for gate apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150407

R150 Certificate of patent or registration of utility model

Ref document number: 5730000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150