JP2008108243A - Person recognition device and person recognition method - Google Patents

Person recognition device and person recognition method Download PDF

Info

Publication number
JP2008108243A
JP2008108243A JP2007249753A JP2007249753A JP2008108243A JP 2008108243 A JP2008108243 A JP 2008108243A JP 2007249753 A JP2007249753 A JP 2007249753A JP 2007249753 A JP2007249753 A JP 2007249753A JP 2008108243 A JP2008108243 A JP 2008108243A
Authority
JP
Japan
Prior art keywords
face
person
unit
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007249753A
Other languages
Japanese (ja)
Inventor
Hiroshi Sukegawa
寛 助川
Bunpei Irie
文平 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007249753A priority Critical patent/JP2008108243A/en
Publication of JP2008108243A publication Critical patent/JP2008108243A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a person recognition device and a person recognition method, allowing efficient access control or person monitoring for a person of a recognition object, based on photographing conditions by a plurality of cameras. <P>SOLUTION: The first face detecting part detects a face of a passenger, based on an image photographed by the first camera set to be easily recognized by the passenger. The second face detecting detects the face of the passenger, based on an image photographed by the second camera set difficult to be recognized by the passenger. A classification part classifies the passenger, based on a detection result of the face by the first face detecting part and a detection result of the face by the second face detecting part, and regulates a threshold value for authentication used for face collation processing by a face collation part, based on a classification result. The face collation part calculates the similarity between feature information of the face obtained from a face image of the passenger and feature information of the face of a registrant stored in a face feature control part, and determines whether the passenger is the registrant or not, according to whether the calculated similarity is the regulated threshold value for the authentication or more, or not. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、たとえば、生体認証を応用した入退場管理システムあるいは人物監視システムなどに適用される人物認識装置および人物認識方法に関する。   The present invention relates to a person recognition apparatus and a person recognition method applied to, for example, an entrance / exit management system or a person monitoring system using biometric authentication.

従来、入退場の管理あるいは人物の監視などに適用される技術として、歩行者(通行者)を撮影し、撮影した画像を記録したり、撮影した画像から歩行者を特定したりする技術が提案されている。このような技術のうち最もポピュラーなものは、監視カメラで撮影した映像を常時記録するシステムである。しかしながら、監視カメラで撮影した映像を常時記録するシステムでは、長時間に亘って記録された映像の中から特定の人物の画像を探すことは容易ではない。このため、人感センサが人物を検知した場合にのみカメラが撮影した映像を記録するシステム、あるいは、カメラが撮影した映像から人物らしい画像が検出された場合にのみ映像を記録するシステムなどが提案されている。   Conventionally, as a technique applied to entrance / exit management or person monitoring, a technique has been proposed in which a pedestrian (passerby) is photographed, the photographed image is recorded, and the pedestrian is identified from the photographed image. Has been. The most popular of these technologies is a system that constantly records video taken by a surveillance camera. However, in a system that constantly records video captured by a surveillance camera, it is not easy to search for an image of a specific person from videos recorded over a long period of time. For this reason, a system that records video captured by the camera only when the human sensor detects a person, or a system that records video only when a human-like image is detected from video captured by the camera is proposed. Has been.

たとえば、特開2003−169320号公報(特許文献1)には、第1および第2の監視カメラを設置し、これらの監視カメラを意識して行動している人物を監視するシステムである。これは、不審者が監視カメラを意識して行動する可能性が高いという前提に基づいている。特開2003−169320号公報に記載されているシステムでは、第1の監視カメラおよび第2の監視カメラの意識したと判定された人物が含まれる画像を記録したり、警報を出力したりする。   For example, Japanese Patent Laid-Open No. 2003-169320 (Patent Document 1) is a system in which first and second surveillance cameras are installed and a person who is acting with awareness of these surveillance cameras is monitored. This is based on the premise that a suspicious person is likely to act with the surveillance camera in mind. In the system described in Japanese Patent Laid-Open No. 2003-169320, an image including a person determined to be conscious of the first monitoring camera and the second monitoring camera is recorded, or an alarm is output.

しかしながら、特開2003−169320号公報に記載の技術では、カメラの設置状態などによっては、顔を隠す必要がない一般の人物が不審者らしいと判定されることが多くなり、誤報が多くなりやすいと考えられる。また、特開2003−169320号公報に記載の技術では、不審者が監視カメラに顔を映さないようにしたときに画像の記録あるいは警報の出力などの対応ができなくなるという問題もある。   However, in the technique described in Japanese Patent Laid-Open No. 2003-169320, depending on the installation state of the camera, it is often determined that a general person who does not need to hide his face is likely to be a suspicious person, and misinformation is likely to increase. it is conceivable that. In addition, the technique described in Japanese Patent Application Laid-Open No. 2003-169320 has a problem that when a suspicious person does not project a face on a surveillance camera, it is impossible to record an image or output an alarm.

また、特許第3088880号公報(特許文献2)には、カメラで撮影している画像から顔を隠している人物が検出された場合に、管理者および通行者に通知するシステムが記載されている。これは、監視カメラに顔を映らないようにしている人物(顔を隠している人物)が不審者である可能性が高いという前提に基づいている。特許第3088880号公報には、監視カメラで撮影した画像から人物の頭部らしい領域を抽出し、その領域から人物の顔を検出できたかどうかにより、顔を隠している人物かどうかを判定するシステムが記載されている。   Japanese Patent No. 3088880 (Patent Document 2) describes a system for notifying an administrator and a passer-by when a person hiding his face is detected from an image captured by a camera. . This is based on the premise that there is a high possibility that a person who does not show his / her face on the surveillance camera (person who hides his / her face) is a suspicious person. Japanese Patent No. 3088880 discloses a system that extracts a region that is likely to be a person's head from an image captured by a monitoring camera, and determines whether or not the person's face is hidden based on whether or not the person's face has been detected from that region. Is described.

しかしながら、特許第3088880号公報には、顔を隠した人物を不審者として扱うとしている。このため、特許第3088880号公報の技術では、たまたま顔がカメラの方向を向いていない人物、および、サングラスあるいはマスクなどで顔の検出できなかった人物が全て不審者らしいと判定されてしまうという問題がある。   However, in Japanese Patent No. 3088880, a person whose face is hidden is treated as a suspicious person. For this reason, in the technique of Japanese Patent No. 3088880, there is a problem that it is determined that all persons who happen to be faceless in the direction of the camera and persons whose face cannot be detected by sunglasses or masks are likely to be suspicious. There is.

また、特開2004−118359号公報(特許文献3)には、異なる条件で設置した複数のカメラが撮影した画像に基づいて通行者に対する顔照合の安定化を図るという技術が記載されている。特開2004−118359号公報には、種々の条件で設置されている複数のカメラで撮影した画像に対して、各カメラの設置条件に応じた条件で人物の顔による照合を行う技術が記載されている。しかしながら、特開2004−118359号公報には、不審者らしい人物を判定する点については記載されていない。   Japanese Unexamined Patent Application Publication No. 2004-118359 (Patent Document 3) describes a technique for stabilizing face collation for passers-by based on images taken by a plurality of cameras installed under different conditions. Japanese Patent Application Laid-Open No. 2004-118359 describes a technique for collating images of a plurality of cameras installed under various conditions using human faces under conditions according to the installation conditions of each camera. ing. However, Japanese Patent Laid-Open No. 2004-118359 does not describe the point of determining a person who seems to be a suspicious person.

上述したような従来の技術では、不審者らしい人物を確実に検出したり、各人物の不審者らしさに応じた効率的な認証処理を行ったりするのが困難であるという問題点がある。
特開2003−169320号公報 特許第3088880号公報 特開2004−118359号公報
In the conventional techniques as described above, there is a problem that it is difficult to reliably detect a person who seems to be a suspicious person or to perform an efficient authentication process according to each person's suspicious person.
JP 2003-169320 A Japanese Patent No. 3088880 JP 2004-118359 A

この発明の一形態は、人物に対して効率的なアクセス制御あるいは人物監視を行うことができる人物認識装置および人物認識方法を提供することを目的とする。   An object of one aspect of the present invention is to provide a person recognition apparatus and a person recognition method capable of performing efficient access control or person monitoring for a person.

この発明の一形態としての人物認識装置は、人物に認識され易い状態で設置されたカメラにより撮影された画像を取得する第1の画像取得部と、人物に認識され難い状態で設置されたカメラにより撮影された画像を取得する第2の画像取得部と、前記第1の画像取得部により取得した画像から人物の顔を検出する第1の顔検出部と、前記第2の画像取得部により取得した画像から前記人物の顔を検出する第2の顔検出部と、前記第1のカメラにより撮影された人物と前記第2のカメラにより撮影された人物とを対応付ける対応付け部と、前記対応付け部による対応付けの結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づいて前記人物を分類する分類部とを有する。   A person recognition apparatus according to an aspect of the present invention includes a first image acquisition unit that acquires an image taken by a camera installed in a state that is easily recognized by a person, and a camera installed in a state that is difficult to be recognized by a person. A second image acquisition unit that acquires an image captured by the first image acquisition unit, a first face detection unit that detects a human face from the image acquired by the first image acquisition unit, and the second image acquisition unit. A second face detection unit that detects the face of the person from the acquired image; an association unit that associates the person photographed by the first camera with the person photographed by the second camera; and the correspondence A classification unit that classifies the person based on a result of association by the attaching unit, a detection result of the face by the first face detection unit, and a detection result of the face by the second face detection unit;

この発明の一形態としての人物認識方法は、人物に認識され易い状態で設置された第1のカメラで撮影された画像を取得し、人物に認識され難い状態で設置された第2のカメラで撮影された画像を取得し、前記第1のカメラで撮影された画像から人物の顔を検出し、前記第2のカメラで撮影された画像から前記人物の顔を検出し、前記第1のカメラにより撮影された人物と前記第2のカメラにより撮影された人物とを対応付け、前記対応付けの結果と前記第1のカメラで撮影された画像からの顔の検出結果と前記第2のカメラで撮影された画像からの顔の検出結果とに基づいて前記人物を分類する。   According to another aspect of the present invention, there is provided a person recognition method that acquires an image taken by a first camera installed in a state that is easily recognized by a person, and uses a second camera installed in a state that is difficult for a person to recognize. Acquiring a photographed image, detecting a human face from an image photographed by the first camera, detecting the human face from an image photographed by the second camera, and the first camera; The person photographed by the second camera and the person photographed by the second camera are associated with each other, the result of the association, the face detection result from the image photographed by the first camera, and the second camera The person is classified based on a face detection result from the captured image.

この発明の一形態によれば、人物に対して効率的なアクセス制御あるいは人物監視を行うことができる人物認識装置および人物認識方法を提供できる。   According to one aspect of the present invention, it is possible to provide a person recognition device and a person recognition method capable of performing efficient access control or person monitoring for a person.

以下、本発明の各実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係るアクセス制御装置としての人物(通行者)認識装置10の構成例を概略的に示すものである。
図1に示す通行者認識装置10は、カメラで撮影した画像から人物の顔の特徴情報を抽出し、抽出した顔の特徴情報と登録者の顔の特徴情報と照合(顔照合)する顔照合装置として機能する。さらに、図1に示す通行者認識装置10は、上記顔照合により顔の特徴情報が登録者の顔の特徴情報と一致すると判定された人物のアクセス(図1に示す例では通行)を許可するアクセス制御装置としても機能する。
Embodiments of the present invention will be described below with reference to the drawings.
First, the first embodiment will be described.
FIG. 1 schematically shows a configuration example of a person (passerby) recognition device 10 as an access control device according to the first embodiment.
A passer-by identification apparatus 10 shown in FIG. 1 extracts face feature information of a person from an image taken by a camera, and performs face matching that matches the extracted face feature information and registrant face feature information (face matching). Functions as a device. Further, the passer-by identification apparatus 10 shown in FIG. 1 permits access (passage in the example shown in FIG. 1) of a person who has been determined by facial matching that the facial feature information matches the facial feature information of the registrant. It also functions as an access control device.

また、図1に示す通行者認識装置10は、たとえば、特定の人物(登録者)のみのセキュリティエリア内への入場を通行を許可するアクセス制御、あるいは、通行者の中から重要顧客あるいは要注意人物などの特定の人物を検出する人物検出などに適用されることが想定される。たとえば、図1に示す通行者認識装置10は、特定の建造物あるいはセキュリティエリアに入場しようとする人物を管理する入場管理システム、あるいは、商用施設、娯楽施設あるいは交通機関の施設などの多くの人物が通行する場所での人物監視を行う監視システムなどに適用されることが想定される。   In addition, the passer-by identification device 10 shown in FIG. 1 is, for example, access control that allows only a specific person (registrant) to enter the security area, or an important customer or a caution from the passer-by It is assumed that the present invention is applied to person detection for detecting a specific person such as a person. For example, the passer-by identification apparatus 10 shown in FIG. 1 is an entrance management system that manages a person who wants to enter a specific building or security area, or a large number of persons such as commercial facilities, entertainment facilities, or transportation facilities. It is assumed that the present invention is applied to a monitoring system that monitors a person in a place where a person passes.

上記通行者認識装置10は、図1に示すように、第1の画像取得部111、第2の画像取得部112、第1の人物検出部121、第2の人物検出部122、第1の顔検出部131、第2の顔検出部132、人物対応付け部140、分類部150、顔特徴管理部160、顔照合部170、通行制御部180および履歴管理部190などを有している。   As shown in FIG. 1, the passer-by identification apparatus 10 includes a first image acquisition unit 111, a second image acquisition unit 112, a first person detection unit 121, a second person detection unit 122, and a first person. It includes a face detection unit 131, a second face detection unit 132, a person association unit 140, a classification unit 150, a face feature management unit 160, a face matching unit 170, a traffic control unit 180, a history management unit 190, and the like.

上記第1の画像取得部111は、例えば、カメラ、A/D変換器、出力インターフェースなどにより構成される。カメラは、通行者Mの少なくとも顔を含んでいる画像を撮影する。A/D変換器は、カメラが撮影した画像をデジタル化する。出力インターフェースは、A/D変換器によりデジタル化された画像を人物検出部121へ出力する。第1の画像取得部111のカメラ(以下、第1のカメラとも称する)は、認識対象者となる通行者Mに認識され易いように設置される。さらに、第1の画像取得部111のカメラの近傍には、表示部111aが設けられている。表示部111aは、認識対象者Mにより第1の画像取得部111のカメラが注目され易いように、第1の画像取得部111のカメラ近傍に設置される。表示部111aは、たとえば、液晶表示器などにより構成される。   The first image acquisition unit 111 includes, for example, a camera, an A / D converter, an output interface, and the like. The camera captures an image including at least the face of the passerby M. The A / D converter digitizes the image taken by the camera. The output interface outputs the image digitized by the A / D converter to the person detection unit 121. The camera of the first image acquisition unit 111 (hereinafter also referred to as the first camera) is installed so that it can be easily recognized by the passerby M who is the recognition target person. Further, a display unit 111 a is provided in the vicinity of the camera of the first image acquisition unit 111. The display unit 111a is installed in the vicinity of the camera of the first image acquisition unit 111 so that the camera of the first image acquisition unit 111 is easily noticed by the recognition target person M. The display unit 111a is configured by, for example, a liquid crystal display.

上記第2の画像取得部112は、例えば、カメラ、A/D変換器、出力インターフェースなどにより構成される。カメラは、通行者Mの少なくとも顔を含んでいる画像を撮影する。A/D変換器は、カメラが撮影した画像をデジタル化する。出力インターフェースは、A/D変換器によりデジタル化された画像を人物検出部122へ出力する。第2の画像取得部112のカメラ(以下、第2のカメラとも称する)は、認識対象者となる通行者Mに認識され難いように設置される。さらに、第2の画像取得部112のカメラの前面には、ブラインドとして機能するアクリル板112aが設けられている。アクリル板112aは、第2の画像取得部112が通行者Mに発見され難いようにするために、カメラを隠すように設置される。つまり、第2の画像取得部112のカメラ(第2のカメラ)は、隠しカメラであれば良い。たとえば、第2のカメラは、アクリル板112aで隠す以外に、通行者に発見され難い小型カメラを用いるようにしても良い。   The second image acquisition unit 112 includes, for example, a camera, an A / D converter, an output interface, and the like. The camera captures an image including at least the face of the passerby M. The A / D converter digitizes the image taken by the camera. The output interface outputs the image digitized by the A / D converter to the person detection unit 122. The camera of the second image acquisition unit 112 (hereinafter, also referred to as a second camera) is installed so that it is difficult for the passer-by M who is a recognition target to be recognized. Furthermore, an acrylic plate 112a that functions as a blind is provided on the front surface of the camera of the second image acquisition unit 112. The acrylic plate 112a is installed so as to hide the camera so that the second image acquisition unit 112 is not easily detected by the passerby M. That is, the camera (second camera) of the second image acquisition unit 112 may be a hidden camera. For example, the second camera may be a small camera that is hard to be found by a passer-by other than hiding with the acrylic plate 112a.

すなわち、第1の画像取得部111のカメラが、通行者Mに認識され易いようになっているのに対して、第2の画像取得部112のカメラは、通行者Mに認識され難いようになっている。これにより、第1の画像取得部111では、カメラの存在を意識している通行者Mの顔画像が撮影でき、第2の画像取得部112は、カメラの存在を意識していない状態の通行者Mの顔画像が撮影できるようになっている。   That is, the camera of the first image acquisition unit 111 is easily recognized by the passer-by M, while the camera of the second image acquisition unit 112 is not easily recognized by the passer-by M. It has become. As a result, the first image acquisition unit 111 can capture the face image of the passer-by M who is conscious of the presence of the camera, and the second image acquisition unit 112 is in the state of being unaware of the presence of the camera. The face image of the person M can be taken.

第1の人物検出部121および第2の人物検出部122は、第1の画像取得部111および第2の画像取得部112により取得された画像からそれぞれ人物らしい画像領域(人物領域)を検出する。第1の人物検出部121および第2の人物検出部122により検出された人物らしい画像領域を示す情報は、それぞれ第1の顔検出部131および第2の顔検出部132へ出力される。   The first person detection unit 121 and the second person detection unit 122 detect image areas (person areas) that are likely to be persons from the images acquired by the first image acquisition unit 111 and the second image acquisition unit 112, respectively. . Information indicating the person-like image area detected by the first person detection unit 121 and the second person detection unit 122 is output to the first face detection unit 131 and the second face detection unit 132, respectively.

第1、第2の人物検出部121および122により人物領域を検出する手法には、文献1(中井宏章:「事後確率を用いた移動物体検出手法」、情報処理学会研究報告、SIG−CV90−1、1994年)に記載されている手法が適用可能である。上記文献1に記載の手法では、入力された画像に対して、背景画像の差分を用いて変化領域を人物領域として抽出する。また、上記文献1には、人物領域の人物(通行者)の特徴として、抽出した人物領域(変化領域)の形状、面積あるいは色分布情報などの特徴情報を取得できる。   As a technique for detecting a person region by the first and second person detection units 121 and 122, Reference 1 (Hiroaki Nakai: “A moving object detection technique using a posteriori probability”, Information Processing Society of Japan Research Report, SIG-CV90- 1, 1994) can be applied. In the technique described in Document 1, a change area is extracted as a person area using a difference between background images for an input image. Further, in Document 1, characteristic information such as the shape, area, or color distribution information of the extracted person area (change area) can be acquired as the characteristics of the person (passerby) in the person area.

なお、人物の検出精度を高めるため、通行者認識装置10には、通行者Mの位置あるいは移動方向などを予測するための構成を追加するようにしても良い。この場合、通行者認識装置10では、通行者の位置あるいは移動方向などの予測結果に基づいて、通行者Mを効率的に撮影したり、人物領域を効率的に検出したりする制御が可能となる。たとえば、通行者Mの位置あるいは移動方向などを予測するための構成としては、人物の位置を検知するための距離センサ、人物を検知する人感センサ、あるいは、人物の移動を把握するための別の監視カメラ(たとえば、広角な撮影が可能なカメラ)などが考えられる。   In addition, in order to improve the detection accuracy of a person, the passer-by identification device 10 may be added with a configuration for predicting the position or moving direction of the passer-by M. In this case, the passer-by identification device 10 can perform control to efficiently photograph the passer-by M or to detect the person area efficiently based on the prediction result of the passer's position or moving direction. Become. For example, as a configuration for predicting the position or moving direction of the passerby M, a distance sensor for detecting the position of the person, a human sensor for detecting the person, or another for detecting the movement of the person Such a surveillance camera (for example, a camera capable of wide-angle shooting) can be considered.

上記第1、第2の顔検出部131、132は、顔領域の検出処理を行なう。すなわち、上記第1の顔検出部131および第2の顔検出部132は、それぞれ第1の人物検出部121および第2の人物検出部122で検出された人物領域内の画像において、顔らしい領域を検出する。たとえば、上記第1、第2の顔検出部131および132は、あらかじめ用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域として検出する。なお、上記第1、第2の顔検出部131及び132では、固有空間法あるいは部分空間法を利用した顔領域を抽出する手法などを用いるようにしても良い。   The first and second face detection units 131 and 132 perform face area detection processing. That is, the first face detection unit 131 and the second face detection unit 132 are regions that are likely to be faces in the images within the person region detected by the first person detection unit 121 and the second person detection unit 122, respectively. Is detected. For example, the first and second face detection units 131 and 132 detect a position that gives the highest correlation value as a face region by obtaining a correlation value while moving a prepared template in the image. Note that the first and second face detection units 131 and 132 may use a method of extracting a face region using the eigenspace method or the subspace method.

上記第1、第2の顔検出部131および132は、さらに、検出した顔領域の画像から当該人物の顔の特徴情報を検出する。すなわち、上記第1、第2の顔検出部131および132は、検出した顔領域の画像から顔における特徴部分として、目、鼻あるいは口などの顔部位の位置を検出する。上記第1、第2の顔検出部131および132は、顔の特徴部分として検出した顔の部位の位置に基づいて、当該人物の顔の特徴情報を算出する。   The first and second face detection units 131 and 132 further detect feature information of the face of the person from the detected face area image. That is, the first and second face detection units 131 and 132 detect the position of a facial part such as an eye, nose, or mouth as a characteristic part of the face from the detected face area image. The first and second face detection units 131 and 132 calculate the facial feature information of the person based on the position of the facial part detected as the facial feature part.

たとえば、目、鼻あるいは口などの顔部位の位置を検出する手法としては、文献2(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997年))に開示されている方法などが適用可能である。   For example, methods for detecting the position of a facial part such as eyes, nose or mouth are described in Reference 2 (Kazuhiro Fukui, Osamu Yamaguchi: “Face feature point extraction by combination of shape extraction and pattern matching”), IEICE Transactions (D), vol.J80-D-II, No. 8, pp2170-2177 (1997)) and the like can be applied.

また、上記目、鼻あるいは口の検出を検出手法としては、文献3(湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集、pp219−224(2004年))に開示されている手法なども適用可能である。   Further, as a detection method for detecting the eyes, nose or mouth, Reference 3 (Mayumi Yuasa, Ayako Nakajima: “Digital Make System Based on High-Precision Facial Feature Point Detection”, Proc. (2004)) can also be applied.

一般に、1枚の画像の中から1つの特徴情報を抽出する場合、画像全体に対して抽出すべき特徴情報のテンプレートとの相関値を求めることにより、相関値が最大となる領域を示す位置とサイズが特徴情報の抽出結果として得られる。また、時系列で連続する複数の画像から複数の特徴情報を抽出する場合、複数の特徴情報の重なりを考慮しつつ各画像において相関値の局所的な最大値を求めことにより、各画像における特徴情報の候補が絞り込まれる。各画像における特徴情報の候補について連続する画像間での関係性(時間的な推移)を考慮することにより、複数の特徴情報が選出される。   In general, when extracting one piece of feature information from one image, a position indicating a region where the correlation value is maximized is obtained by obtaining a correlation value with a template of feature information to be extracted for the entire image. The size is obtained as a result of extracting feature information. In addition, when extracting a plurality of feature information from a plurality of images that are continuous in time series, the feature in each image is obtained by obtaining a local maximum correlation value in each image while considering the overlap of the plurality of feature information. Information candidates are narrowed down. A plurality of feature information is selected by considering the relationship (temporal transition) between successive images for feature information candidates in each image.

第1、第2の顔検出部131および132により抽出される顔の特徴情報としては、たとえば、顔領域の濃淡情報を用いた情報が得られるものとする。この場合、上記第1、第2の顔検出部131および132は、検出された顔の部品の位置に基づいて、顔領域を一定の大きさ及び一定の形状に切り出し、切り出した顔領域の濃淡情報を取得する。ここで、顔の特徴情報は、mピクセル×nピクセルの領域の濃淡値をm×n次元のベクトル(特徴ベクトル)として表した情報を用いるものとする。   As the facial feature information extracted by the first and second face detection units 131 and 132, for example, information using shading information of the face region is obtained. In this case, the first and second face detection units 131 and 132 cut out the face area into a fixed size and a fixed shape based on the detected positions of the face parts, and the shading of the cut out face area is changed. Get information. Here, as the facial feature information, information representing the gray value of an area of m pixels × n pixels as an m × n-dimensional vector (feature vector) is used.

このような特徴ベクトル間の類似度は、たとえば、単純類似度法という手法により算出される。単純類似度法では、第1のベクトルの長さと第2のベクトルの長さとをそれぞれ「1」とするように正規化し、それらの正規化された第1および第2のベクトルの内積を計算することにより、ベクトル間の類似性を示す類似度が求められる。1つの画像から得られる1つの特徴ベクトルと所定の特徴ベクトル(予め登録された特徴ベクトル)とを照合する場合、上記第1、第2の顔検出部131および132は、1つの画像から1つの特徴ベクトルを算出すれば良い。   Such similarity between feature vectors is calculated by a method called a simple similarity method, for example. In the simple similarity method, the length of the first vector and the length of the second vector are normalized to be “1”, and the inner product of the normalized first and second vectors is calculated. Thus, the similarity indicating the similarity between the vectors is obtained. When one feature vector obtained from one image is collated with a predetermined feature vector (a feature vector registered in advance), the first and second face detection units 131 and 132 are configured to detect one feature image from one image. What is necessary is just to calculate a feature vector.

ただし、連続した複数の画像としての動画像から特徴情報を計算をすることにより、精度の高い認識処理が行なえる。このため、ここでは、動画像から特徴情報を算出する手法について説明する。なお、動画像は、所定時間ごとの連続する各フレームの画像として取得されるものとする。上記第1、第2の顔検出部131および132は、動画像から得られる顔の特徴情報として部分空間を算出する。部分空間は、各フレームの画像から得られる特徴ベクトルの相関性に基づいて算出される情報である。   However, highly accurate recognition processing can be performed by calculating feature information from moving images as a plurality of continuous images. Therefore, here, a method for calculating feature information from a moving image will be described. In addition, a moving image shall be acquired as an image of each continuous frame for every predetermined time. The first and second face detection units 131 and 132 calculate a partial space as face feature information obtained from a moving image. The partial space is information calculated based on the correlation of feature vectors obtained from the images of each frame.

すなわち、上記第1、第2の顔検出部131および132は、各フレームの画像におけるm×nピクセルの顔領域の画像から特徴ベクトルをそれぞれ算出する。顔検出部131および132は、各画像から得られた各特徴ベクトルに対する相関行列(または、共分散行列)を算出し、周知のK−L展開による正規直交ベクトル(固有ベクトル)を求める。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトルの集合を用いて表現される。ここで、相関行列をCd、固有ベクトルの行列をΦとすると、以下の数式1の関係が成り立つ。   That is, the first and second face detection units 131 and 132 calculate feature vectors from the image of the face area of m × n pixels in each frame image. The face detection units 131 and 132 calculate a correlation matrix (or covariance matrix) for each feature vector obtained from each image, and obtain an orthonormal vector (eigenvector) by a well-known KL expansion. The subspace is expressed using a set of eigenvectors by selecting k eigenvectors corresponding to eigenvalues in descending order of eigenvalues. Here, when the correlation matrix is Cd and the eigenvector matrix is Φ, the following relationship of Equation 1 holds.

Cd=ΦdΛdΦdT … (数式1)
上記数式1により、固有ベクトルの行列Φdが算出できる。この情報が顔の特徴情報としての部分空間(入力部分空間)となる。なお、顔特徴管理部160には、予め登録用として撮影した顔画像から、上述したような計算方法で算出された部分空間(登録部分空間)を顔の特徴情報として登録するようにすれば良い。
Cd = ΦdΛdΦdT (Equation 1)
The matrix Φd of eigenvectors can be calculated by the above equation 1. This information becomes a partial space (input subspace) as facial feature information. In addition, the facial feature management unit 160 may register a partial space (registered partial space) calculated by the above-described calculation method from facial images taken in advance for registration as facial feature information. .

人物対応付け部140は、第1の画像取得部111で撮影された人物と第2の画像取得部112で撮影された人物とを対応付ける処理を行う。すなわち、人物対応付け部140は、第1の人物検出部121による人物の検出結果、第2の人物検出部122による人物の検出結果、第1の顔検出部131による顔の検出結果、あるいは、第2の顔検出部132による顔の検出結果に基づいて、第1の画像取得部111で撮影した人物と第2の画像取得部112で撮影した人物とを対応付ける。言い換えると、人物対応付け部140は、第1の画像取得部111(あるいは第2の画像取得部112)で撮影した画像から検出された人物と同一人物を、第2の画像取得部112(あるいは第1の画像取得部111)で撮影した画像から検出された人物から検出する。   The person association unit 140 performs processing for associating a person photographed by the first image acquisition unit 111 with a person photographed by the second image acquisition unit 112. That is, the person associating unit 140 includes a person detection result by the first person detection unit 121, a person detection result by the second person detection unit 122, a face detection result by the first face detection unit 131, or Based on the detection result of the face by the second face detection unit 132, the person photographed by the first image acquisition unit 111 and the person photographed by the second image acquisition unit 112 are associated with each other. In other words, the person association unit 140 identifies the same person as the person detected from the image captured by the first image acquisition unit 111 (or the second image acquisition unit 112) as the second image acquisition unit 112 (or Detection is performed from a person detected from an image captured by the first image acquisition unit 111).

人物対応付け部140は、例えば、第1の人物検出部121により検出された人物の画像領域および第2の人物検出部122により検出された人物の画像領域における、形状、面積、色分布情報などにより各人物を対応付ける。なお、色分布情報は、R,G,B各色別のヒストグラムなどにより識別される。つまり、第1の画像取得部111で撮影された人物の画像と第2の画像取得部112で撮影された人物の画像とは、形状、面積、色分布などが類似するものが同一人物の画像として対応づけられる。   The person associating unit 140 includes, for example, the shape, area, color distribution information, and the like in the person image area detected by the first person detection unit 121 and the person image area detected by the second person detection unit 122. To associate each person with The color distribution information is identified by a histogram for each color of R, G, and B. That is, the image of the person taken by the first image acquisition unit 111 and the image of the person taken by the second image acquisition unit 112 are similar in shape, area, color distribution, etc. It is corresponded as.

また、人物対応付け部140には、人物対応付け精度を高めるために、補助検知部140aを設けるようにしても良い。補助検知部140aとしては、たとえば、距離センサ、人感センサ、温度センサ、重量センサなどを設けるようにしても良い。   The person association unit 140 may be provided with an auxiliary detection unit 140a in order to increase the person association accuracy. As the auxiliary detection unit 140a, for example, a distance sensor, a human sensor, a temperature sensor, a weight sensor, or the like may be provided.

たとえば、補助検知部140aとしての距離センサでは、センサの設置位置から人物までの距離を推定することができる。このため、距離センサで検知された人物までの距離に基づいて各人物の位置が追跡できる。このような各人物の位置の追跡結果に基づいて、人物対応付け部140は、画像取得部111で撮影された画像から検出された人物と画像取得部112で撮影された画像から検出された人物とを対応付けることができる。   For example, in the distance sensor as the auxiliary detection unit 140a, the distance from the sensor installation position to the person can be estimated. For this reason, the position of each person can be tracked based on the distance to the person detected by the distance sensor. Based on the tracking result of the position of each person, the person association unit 140 detects the person detected from the image captured by the image acquisition unit 111 and the person detected from the image captured by the image acquisition unit 112. Can be associated with each other.

また、補助検知部140aとしての人感センサでは、人物の存在を検知することができる。補助検知部140aとしての温度センサでは、人物の温度(体温)により人物の存在を検知することができる。補助検知部140aとしての重量センサでは、人物の体重により人物の存在を検知することができる。これらの補助検知部140aとしてのセンサによる検知結果に基づいて各人物が追跡できる。従って、このような各人物の追跡結果に基づいて、人物対応付け部140は、画像取得部111で撮影された画像から検出された人物と画像取得部112で撮影された画像から検出された人物とを対応付けることができる。   Further, the presence sensor as the auxiliary detection unit 140a can detect the presence of a person. The temperature sensor as the auxiliary detection unit 140a can detect the presence of a person based on the temperature (body temperature) of the person. The weight sensor as the auxiliary detection unit 140a can detect the presence of a person based on the weight of the person. Each person can be tracked based on the detection result by the sensor as the auxiliary detection unit 140a. Therefore, based on the tracking result of each person, the person association unit 140 detects the person detected from the image captured by the image acquisition unit 111 and the person detected from the image captured by the image acquisition unit 112. Can be associated with each other.

さらに、人物対応付け精度を高めるための補助検知部140aとしては、通路全体を広角に撮影可能な監視カメラを設けるようにしても良い。この場合、補助検知部140aとしての監視カメラは、通路全体の撮影画像から各人物を追跡できるようになっている。このような各人物の追跡結果に基づいて、人物対応付け部140は、画像取得部111で撮影された画像から検出された人物と画像取得部112で撮影された画像から検出された人物とを対応付けることが可能となる。   Furthermore, as the auxiliary detection unit 140a for increasing the accuracy of person association, a surveillance camera capable of photographing the entire passage at a wide angle may be provided. In this case, the monitoring camera as the auxiliary detection unit 140a can track each person from the captured image of the entire passage. Based on the tracking result of each person, the person association unit 140 determines the person detected from the image captured by the image acquisition unit 111 and the person detected from the image captured by the image acquisition unit 112. It is possible to associate them.

分類部150は、人物対応付け部140で対応付けられた人物の状態(行動パターン)に基づいて各人物を分類する。分類部150では、第1の画像取得部111で撮影した人物の状態と第2の画像取得部112で撮影した当該人物(人物対応付け部140で対応付けられた人物)の状態とに基づいて当該人物の行動パターンがどのように分類されるかを判定する。たとえば、分類部150は、顔検出部131による顔の検出結果と顔検出部132による顔の検出結果とに基づいて各人物を幾つかのパターンに分類する。   The classification unit 150 classifies each person based on the state (behavior pattern) of the person associated by the person association unit 140. In the classification unit 150, based on the state of the person photographed by the first image acquisition unit 111 and the state of the person photographed by the second image acquisition unit 112 (person associated by the person association unit 140). It is determined how the behavior pattern of the person is classified. For example, the classification unit 150 classifies each person into several patterns based on the face detection result by the face detection unit 131 and the face detection result by the face detection unit 132.

つまり、分類部150は、第1の画像取得部111で撮影した画像から検出された人物の顔が検出された(第1の画像取得部111のカメラに対して顔を隠している状態)か否かと、第2の画像取得部112で撮影した画像から検出された人物の顔が検出された(第2の画像取得部112のカメラに対して顔を隠している状態)か否かと、により当該人物を4つのパターンに分類する。このような分類部150による分類結果は、顔照合部170あるいは通行制御部180による処理内容を決定づける要素となる。   That is, whether the classification unit 150 detects a human face detected from the image captured by the first image acquisition unit 111 (a state in which the face is hidden from the camera of the first image acquisition unit 111). And whether or not a human face detected from the image captured by the second image acquisition unit 112 is detected (a state in which the face is hidden from the camera of the second image acquisition unit 112). The person is classified into four patterns. Such a classification result by the classification unit 150 is an element that determines the processing content by the face matching unit 170 or the traffic control unit 180.

たとえば、上述しように、第1の画像取得部111のカメラは、通行者Mに認識され易いように設置されている。このため、第1の画像取得部111で取得した画像から顔が検出された人物は、不審者である可能性が低いと推測できる。このような推測に基づいて、分類部150は、第1の画像取得部111で取得した画像から顔が検出された人物については顔照合を行い、第1の画像取得部111で取得した画像から顔が検出されなかった人物については顔照合を行わずに通行を不可とする。   For example, as described above, the camera of the first image acquisition unit 111 is installed so that the passerby M can easily recognize it. For this reason, it can be estimated that a person whose face is detected from the image acquired by the first image acquisition unit 111 is unlikely to be a suspicious person. Based on such an assumption, the classification unit 150 performs face matching on a person whose face is detected from the image acquired by the first image acquisition unit 111, and uses the image acquired by the first image acquisition unit 111. A person whose face is not detected is not allowed to pass without performing face matching.

また、第2の画像取得部112のカメラは、通行者Mに認識され難いように設置されている。このため、第2の画像取得部112で取得した画像から顔が検出された人物は、カメラの存在を知っていてカメラに顔を向けている人物、あるいは、カメラの存在を知らないで顔が撮影されている人物の何れかであると推定される。このような推測に基づいて、分類部150は、第1の画像取得部111で取得した画像から顔が検出された人物のうち、第2の画像取得部112で取得した画像から顔が検出された人物については、通行許可となり易いように制御する。これに対して、分類部150は、第1の画像取得部111で取得した画像から顔が検出された人物のうち、第2の画像取得部112で取得した画像から顔が検出されなかった人物については通常の顔照合により通行の可否を判定するように制御する。なお、上記分類部150による各人物の分類処理の例については、後で詳細に説明するものとする。   Further, the camera of the second image acquisition unit 112 is installed so that it is difficult for the passerby M to recognize it. For this reason, the person whose face is detected from the image acquired by the second image acquisition unit 112 is a person who knows the existence of the camera and faces the camera, or the face without knowing the existence of the camera. It is estimated that it is one of the persons being photographed. Based on such estimation, the classification unit 150 detects a face from the image acquired by the second image acquisition unit 112 among the persons whose faces are detected from the image acquired by the first image acquisition unit 111. The person is controlled so that the passage is easily permitted. On the other hand, the classification unit 150 is a person whose face is not detected from the image acquired by the second image acquisition unit 112 among the persons whose face is detected from the image acquired by the first image acquisition unit 111. Is controlled so as to determine whether or not traffic is allowed by normal face matching. An example of the classification process of each person by the classification unit 150 will be described in detail later.

顔特徴管理部160は、辞書データとしての登録者の顔の特徴情報を記憶するものである。たとえば、顔特徴管理部160には、上述したような部分空間が登録者の顔の特徴情報として登録される。ただし、顔特徴管理部160に登録される登録者の顔の特徴情報は、登録者の顔画像(動画像あるいは1つの画像)、各顔画像から得られるm×nの特徴ベクトル、あるいは、K−L展開を行なう直前の相関行列などであっても良い。これらの登録者の顔の特徴情報は、当該登録者を識別するための識別情報としてのID番号に対応づけて顔特徴管理部160により記憶される。   The face feature management unit 160 stores registrant face feature information as dictionary data. For example, the facial feature management unit 160 registers the partial space as described above as facial feature information of the registrant. However, the registrant's face feature information registered in the face feature management unit 160 includes the registrant's face image (moving image or one image), m × n feature vectors obtained from each face image, or K It may be a correlation matrix just before -L expansion. The facial feature information of the registrant is stored by the facial feature management unit 160 in association with an ID number as identification information for identifying the registrant.

また、顔特徴管理部160には、各登録者ごとに1つの顔の特徴情報を記憶するようにして良いいし、各登録者ごとに複数の顔の特徴情報を記憶するようにしても良い。また、、各登録者に複数の顔の特徴情報を記憶する場合、上記顔照合部170では、たとえば、状況に応じて選択した各登録者ごとに1つの顔の特徴情報を用いて顔照合処理を行うようにしても良いし、各登録者の複数の顔の特徴情報を用いてぞれぞれ顔照合処理を行うようにしても良い。   The face feature management unit 160 may store one face feature information for each registrant, or may store a plurality of face feature information for each registrant. When storing a plurality of facial feature information for each registrant, the face matching unit 170 uses, for example, one facial feature information for each registrant selected according to the situation. Alternatively, the face matching process may be performed using feature information of a plurality of faces of each registrant.

顔照合部170は、第1の顔検出部131あるいは第2の顔検出部132で検出された顔の特徴情報と上記顔特徴管理部160に記憶されている登録者の顔の特徴情報とを照合するものである。上記顔照合部170では、照合結果としての両者の類似度を算出する。顔照合部170では、算出した類似度が認証用の閾値以上であるか否かにより当該人物の通行の可否を判定する。   The face collation unit 170 uses the facial feature information detected by the first facial detection unit 131 or the second facial detection unit 132 and the facial feature information of the registrant stored in the facial feature management unit 160. It is to be verified. The face matching unit 170 calculates the similarity between the two as a matching result. The face matching unit 170 determines whether or not the person is allowed to pass based on whether or not the calculated similarity is equal to or greater than an authentication threshold.

たとえば、顔照合部170では、第1の顔検出部131あるいは第2の顔検出部132で得られた顔の特徴情報としての部分空間(入力部分空間)と顔特徴管理部160に記憶されている1つまたは複数の部分空間(登録部分空間)との類似度を求める。これにより、顔照合部170は、算出した類似度を認証用の閾値と比較することにより、通行者が登録者であるか否かを判定する。   For example, in the face matching unit 170, the facial feature information obtained by the first face detection unit 131 or the second face detection unit 132 is stored in the partial space (input partial space) and the facial feature management unit 160. The degree of similarity with one or more subspaces (registered subspaces) is obtained. Thereby, the face collation part 170 determines whether a passerby is a registrant by comparing the calculated similarity with the threshold value for authentication.

なお、上記認証用の閾値は、所定の認証用の閾値を基準に調整可能となっている。上記認証用の閾値は、後述する処理において、分類部150による分類結果に基づいて調整されるようになっている。   The authentication threshold value can be adjusted based on a predetermined authentication threshold value. The threshold value for authentication is adjusted based on the classification result by the classification unit 150 in the processing described later.

また、第1の画像取得部111あるいは第2の画像取得部112により取得した1つの画像中に複数の通行者が存在する場合、上記顔照合部170は、上述した顔照合処理を検出された人数分繰り返すことで、取得した画像内に存在する各通行者全員に対する顔照合処理を行う。   When there are a plurality of passersby in one image acquired by the first image acquisition unit 111 or the second image acquisition unit 112, the face verification unit 170 has detected the above-described face verification process. By repeating the process for the number of persons, face collation processing is performed for all passersby present in the acquired image.

また、2つの部分空間の類似度を求める計算方法は、部分空間法や複合類似度法などの方法が適用可能である。たとえば、2つの部分空間の類似度は、文献4(前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」,電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345〜352(1985年))に開示されている相互部分空間法により算出できる。上記文献3では、2つの部分空間のなす角度を類似度として定義している。ここで、相関行列をCin、固有ベクトルをΦinとすると、以下の数式2の関係が成り立つ。   As a calculation method for obtaining the similarity between two subspaces, a method such as a subspace method or a composite similarity method can be applied. For example, the similarity between two subspaces can be found in Reference 4 (Kenichi Maeda, Sadaichi Watanabe: “Pattern matching method introducing local structure”, IEICE Transactions (D), vol. J68-D, No. .3, pp 345-352 (1985)). In Reference 3 above, an angle formed by two partial spaces is defined as a similarity. Here, when the correlation matrix is Cin and the eigenvector is Φin, the relationship of Equation 2 below holds.

Cin=ΦinΛinΦinT … (数式2)
上記数式2により、固有ベクトルΦinが算出できる。これにより、2つのΦinおよびΦdで表される2つの部分空間の類似度(0.0〜1.0)が算出できる。
Cin = ΦinΛinΦinT (Formula 2)
The eigenvector Φin can be calculated by the above equation 2. Thereby, the similarity (0.0-1.0) of two partial spaces represented by two (PHI) in and (PHI) d is computable.

また、取得された1つの画像内に複数の顔が存在する場合、顔照合部170は、検出された各人物の顔の特徴情報について、順番に顔特徴管理部160に保存されている顔の特徴情報との類似度を総当りで計算する。これにより、取得された1つの画像内に存在する全ての人物に対する顔照合の結果を得ることができる。たとえば、X名の通行者が歩いてきた場合(つまり、取得した1つの画像からX名の顔の特徴情報が検出された場合)、顔特徴管理部160にY名分の顔の特徴情報が記憶されていれば、「X×Y」回の類似度演算を行うことにより、X名全員の顔照合結果が得られる。   In addition, when a plurality of faces exist in one acquired image, the face collation unit 170 sequentially detects the facial feature information of each person that has been stored in the facial feature management unit 160. The degree of similarity with feature information is calculated brute force. Thereby, it is possible to obtain face matching results for all persons existing in one acquired image. For example, when an X passerby walks (that is, when facial feature information of X name is detected from one acquired image), facial feature information for Y names is stored in the facial feature management unit 160. If stored, the face collation result of all X names can be obtained by performing similarity calculation “X × Y” times.

また、取得したm枚の画像から得られた入力部分空間がどの登録部分空間とも照合が成功しない場合(つまり、撮影している人物が登録者の誰とも判定されない場合)、順次取得される次のフレームの画像と過去の複数フレームの画像とにより入力部分空間が更新される。このような入力部分空間の更新は、次に取得されるフレームの画像に対する相関行列を過去の複数のフレームの画像から作成された相関行列の和に追加し、再度固有ベクトルの計算するようにすれば良い。つまり、通行者の顔画像を連続して撮影した画像(動画像)により顔照合を行なう場合、順次入力される画像により入力部分空間を更新しながら照合を行うことにより、徐々に精度の高くなる計算が可能となる。   Further, when the input subspace obtained from the acquired m images does not collate with any registered subspace (that is, when the person being photographed is not determined as any of the registrants), The input subspace is updated with the image of the previous frame and the images of the past plural frames. Such an update of the input subspace is performed by adding the correlation matrix for the image of the next acquired frame to the sum of the correlation matrices created from the images of a plurality of past frames and calculating the eigenvector again. good. That is, when face matching is performed using images (moving images) obtained by continuously capturing the face images of passers-by, the accuracy is gradually increased by performing matching while updating the input subspace with sequentially input images. Calculation is possible.

通行制御部180は、顔照合部170による顔照合の結果あるいは分類部150による分類結果に基づいて通行者Mの通行を制御するものである。通行制御部180は、自動ドア、電子錠付ドア、ゲートなどの開閉を制御する信号を出力することにより通行者Mの通行を制御するようになっている。   The pass control unit 180 controls the pass of the passer-by M based on the result of face collation by the face collation unit 170 or the classification result by the classification unit 150. The passage control unit 180 controls the passage of the passer-by M by outputting a signal for controlling opening / closing of an automatic door, an electronic lock door, a gate, and the like.

たとえば、上記通行制御部180は、顔照合部170での照合結果により通行可と判定された人物(登録者と一致すると判定された人物)を通行させるために、自動ドア、電子錠付ドア、あるいは、ゲートを開放するための制御信号を出力する。また、上記通行制御部180は、通行不可と判定された人物(登録者と一致しないと判定された人物および顔照合ができなかった人物)の通行を阻止するために、自動ドア、電子錠付ドア、あるいは、ゲートを閉鎖するための制御信号を出力する(あるいは、開放するための制御信号を出力しない)。   For example, the passage control unit 180 is configured to pass an automatic door, an electronic lock door, a person who is determined to be allowed to pass (a person who is determined to match the registrant) based on the result of the comparison in the face matching unit 170, Alternatively, a control signal for opening the gate is output. In addition, the traffic control unit 180 includes an automatic door, an electronic lock, and an electronic door to prevent traffic of a person who is determined not to pass (a person who is determined not to match the registrant and a person whose face cannot be matched). A control signal for closing a door or a gate is output (or a control signal for opening is not output).

履歴管理部190は、通行者Mに関する履歴情報(通行履歴)を記憶するものである。履歴管理部190は、当該通行者認識装置10と通信可能な管理サーバなどにより実現するようにしても良い。履歴管理部190には、履歴情報として、各通行者に対する判定結果、通行日時、撮影された画像などが記録される。また、履歴管理部190には、不審者らしいと判定された通行者Mについてのみ履歴情報を記録するようにしても良い。   The history management unit 190 stores history information (passage history) regarding the passerby M. The history management unit 190 may be realized by a management server or the like that can communicate with the passer-by identification device 10. In the history management unit 190, the determination result for each passer-by, the date and time of passage, the captured image, and the like are recorded as history information. Further, history information may be recorded in the history management unit 190 only for the passerby M determined to be a suspicious person.

次に、第1の画像取得部111および第2の画像取得部112の設置例について説明する。
第1の画像取得部111および第2の画像取得部112は、上述したように、カメラ、A/D変換器、出力インターフェースなどを有している。第1の画像取得部111および第2の画像取得部112は、それぞれ異なる条件で通行者Mを撮影するために、設置状態などが異なっている。上述したように、第1の画像取得部111は、通行者Mが認識し易い位置に設置され、さらに、通行者Mがカメラの存在に気づき易いように、カメラ近傍に表示部111aが設けられている。第2の画像取得部112は、通行者Mに認識され難いように、カメラを隠すためのアクリル板112aが設けられている。これら第1の画像取得部111および第2の画像取得部112は、通行者Mが通行する通路の形状等に応じて種々の設置形態が考えられる。
Next, an installation example of the first image acquisition unit 111 and the second image acquisition unit 112 will be described.
As described above, the first image acquisition unit 111 and the second image acquisition unit 112 include a camera, an A / D converter, an output interface, and the like. The first image acquisition unit 111 and the second image acquisition unit 112 have different installation states and the like in order to photograph the passerby M under different conditions. As described above, the first image acquisition unit 111 is installed at a position where the passer-by M can easily recognize, and the display unit 111a is provided in the vicinity of the camera so that the passer-by M can easily recognize the presence of the camera. ing. The 2nd image acquisition part 112 is provided with the acrylic board 112a for concealing a camera so that the passer-by M cannot recognize easily. The first image acquisition unit 111 and the second image acquisition unit 112 may have various installation forms depending on the shape of the passage through which the passer-by M passes.

図2および図3は、第1の画像取得部111と第2の画像取得部112の設置例を示す図である。図2に示す例では、たとえば、登録者のみが入場可能なエリア(セキュリティエリア)の入口(ゲート)G1に通じる通路P1と、通路P1における第1の画像取得部111および第2の画像取得部112の設置例を示している。   FIGS. 2 and 3 are diagrams illustrating an installation example of the first image acquisition unit 111 and the second image acquisition unit 112. In the example shown in FIG. 2, for example, a passage P1 leading to an entrance (gate) G1 of an area (security area) where only a registrant can enter, and a first image acquisition unit 111 and a second image acquisition unit in the passage P1. 112 shows an example of installation.

図2に示すように、上記通路P1は、ゲートG1の手前で折れ曲がっている。従って、セキュリティエリアへ入場しようとする人物(通行者)Mは、ゲートG1の手前で左折してゲートG1に到達するものと考えられる。   As shown in FIG. 2, the passage P1 is bent in front of the gate G1. Accordingly, it is considered that the person (passerby) M who intends to enter the security area turns left before the gate G1 and reaches the gate G1.

第2の画像取得部112は、通路P1が折れ曲がっている場所に設置されている。第2の画像取得部112のカメラ(第2のカメラ)は、ゲートG1に向かって歩行している通行者が、折れ曲がり場所に差し掛かった際に、歩行中の通行者を撮影するように設置されている。図2に示す例では、第2のカメラは、通路P1の折れ曲がっている場所に、通路P1を形成する壁の外側に設置されている。また、第2のカメラは、壁に沿って設置されたアクリル板112aで隠されている。このような構成により、第2のカメラは、通行者Mに認識され難い。つまり、上記第2のカメラでは、当該カメラを意識していない可能性が高い通行者Mを撮影することが可能となっている。   The second image acquisition unit 112 is installed in a place where the passage P1 is bent. The camera (second camera) of the second image acquisition unit 112 is installed so that a passerby walking toward the gate G1 photographs a passerby who is walking when the passerby approaches a bending place. ing. In the example shown in FIG. 2, the second camera is installed outside the wall forming the passage P <b> 1 at a place where the passage P <b> 1 is bent. The second camera is hidden by an acrylic plate 112a installed along the wall. With such a configuration, the second camera is hardly recognized by the passerby M. That is, with the second camera, it is possible to photograph the passerby M who is highly likely not to be aware of the camera.

第1の画像取得部111は、通路P1のゲートG1の手前近傍に設置されている。第1の画像取得部111のカメラ(第1のカメラ)は、通路P1からゲートG1に向かって進んでいる通行者を撮影できるように設置されている。さらに、ゲートG1の近傍には、ゲートG1に向かってくる通行者Mに対して案内あるいは撮影している画像などを表示する表示部111aが設置されている。表示部111aに表示される画像に通行者Mが注目することにより、上記第1のカメラは、さらに、通行者Mに意識され易くなっている。つまり、上記第1のカメラでは、当該カメラを意識している可能性が高い通行者Mを撮影することが可能となっている。   The first image acquisition unit 111 is installed near the gate G1 of the passage P1. The camera (first camera) of the first image acquisition unit 111 is installed so that a passerby traveling from the passage P1 toward the gate G1 can be photographed. Further, in the vicinity of the gate G1, a display unit 111a that displays an image or the like that is being guided or photographed to a passer-by M that is approaching the gate G1 is installed. When the passer-by M pays attention to the image displayed on the display unit 111a, the first camera is further conscious of the passer-by M. That is, with the first camera, it is possible to photograph the passerby M who is highly likely to be conscious of the camera.

図3は、たとえば、セキュリティエリアの入口(ゲート)G2に通じる通路P2と、その通路P2に設置された第1の画像取得部111および第2の画像取得部112の設定例を示す図である。図3に示す例では、上記通路P2は、直線状となっている。従って、セキュリティエリアへ入場しようとする人物(通行者)Mは、ほぼ直進してゲートG2に到達するものと考えられる。   FIG. 3 is a diagram illustrating a setting example of the passage P2 leading to the entrance (gate) G2 of the security area and the first image acquisition unit 111 and the second image acquisition unit 112 installed in the passage P2, for example. . In the example shown in FIG. 3, the passage P2 is linear. Therefore, it is considered that the person (passerby) M who intends to enter the security area travels substantially straight and reaches the gate G2.

図3に示す構成例では、第2の画像取得部112は、通路P2をゲートG2へ向かって直進してくる通行者の顔を撮影するように設置されている。つまり、第2のカメラは、ゲートG2に向かって歩行中の通行者を撮影するように設置されている。図3に示す例では、第2のカメラは、通路P2においてゲートG2手前に設置される第1のカメラよりもさらに手前に、通路P2を形成する壁の外側(あるいは壁の中)に設置されている。また、第2のカメラは、通行者Mに認識され難いように、アクリル板112aで隠されている。つまり、上記第2のカメラでは、当該カメラを意識していない可能性が高い通行者Mを撮影することが可能となっている。   In the configuration example shown in FIG. 3, the second image acquisition unit 112 is installed so as to photograph the face of a passerby traveling straight through the passage P2 toward the gate G2. That is, the second camera is installed so as to photograph a passerby walking toward the gate G2. In the example shown in FIG. 3, the second camera is installed outside (or inside) the wall forming the passage P2 in front of the first camera installed in front of the gate G2 in the passage P2. ing. The second camera is hidden by the acrylic plate 112a so that it is difficult for the passerby M to recognize it. That is, with the second camera, it is possible to photograph the passerby M who is highly likely not to be aware of the camera.

図3に示す構成例では、第1の画像取得部111は、通路P2のゲートG2の手前近傍に設置されている。第1のカメラは、通路P2を直進して、ゲートG2に到達する直前の通行者(あるいはゲートG2に到達した通行者)を撮影できるように設置されている。さらに、ゲートG2の近傍には、ゲートG2に向かってくる通行者Mに対して案内あるいは撮影している画像などを表示する表示部111aが設置されている。表示部111aに表示される画像に通行者Mが注目することにより、上記第1のカメラは、さらに、通行者Mに意識され易くなっている。つまり、上記第1のカメラでは、当該カメラを意識している可能性が高い通行者Mを撮影することが可能となっている。   In the configuration example illustrated in FIG. 3, the first image acquisition unit 111 is installed in the vicinity of the passage P2 in front of the gate G2. The first camera is installed so as to be able to photograph a passerby (or a passerby who has reached the gate G2) immediately before reaching the gate G2 by going straight through the passage P2. Further, in the vicinity of the gate G2, a display unit 111a that displays an image or the like that is being guided or photographed for a passer-by M that approaches the gate G2. When the passer-by M pays attention to the image displayed on the display unit 111a, the first camera is further conscious of the passer-by M. That is, with the first camera, it is possible to photograph the passerby M who is highly likely to be conscious of the camera.

次に、分類部150による各人物の分類方法について説明する。
上述したように、分類部150では、たとえば、第1の顔検出部131および第2の顔検出部132による顔の検出結果に基づいて各人物を分類する。各人物をどのように分類し、それらの分類結果に応じてどのような処理を行うかは、当該通行者認識装置の設置状況、システム全体の運用形態、あるいは、セキュリティポリシーなどに応じて適宜設定されるものである。
Next, a method for classifying each person by the classification unit 150 will be described.
As described above, the classification unit 150 classifies each person based on the detection results of the faces by the first face detection unit 131 and the second face detection unit 132, for example. How to classify each person and what kind of processing to perform according to the classification result is set appropriately according to the installation status of the passer-by identification device, the overall system operation mode, security policy, etc. It is what is done.

すなわち、分類部150は、予め設定される分類基準に従って各人物を分類する。言い換えれば、分類部150は、所定の分類基準に基づいて、第1の画像取得部111のカメラで撮影された人物の状態(たとえば、顔の検出結果)と第2の画像取得部112のカメラで撮影された人物の状態(たとえば、顔の検出結果)との組合せがどのような分類となるかを判定する。   That is, the classification unit 150 classifies each person according to a preset classification standard. In other words, the classification unit 150 determines the state of a person (for example, a face detection result) captured by the camera of the first image acquisition unit 111 and the camera of the second image acquisition unit 112 based on a predetermined classification criterion. The classification of the combination with the state of the person photographed in step (for example, the detection result of the face) is determined.

図4は、分類部150による各人物に対する分類基準の例を示す図である。
ここでは、第1の画像取得部111のカメラ(第1のカメラ)が通行者に認識され易いように設置され、第2の画像取得部112のカメラ(第2のカメラ)が通行者に認識され難いように設置されているものとする。
FIG. 4 is a diagram illustrating an example of classification criteria for each person by the classification unit 150.
Here, the camera (first camera) of the first image acquisition unit 111 is installed so as to be easily recognized by the passer-by, and the camera (second camera) of the second image acquisition unit 112 is recognized by the passer-by. It is assumed that it is installed so that it is hard to be done.

図4に示す「No.3」および「No.4」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出できなかった場合、つまり、第1の人物検出部121により検出された人物の顔が第1の顔検出部131で検出できなかった場合(第1のカメラの画像:顔検出NG)、分類部150は、当該人物が不審者らしい人物であると分類し、当該人物に対する通行を不可と判定する。   According to “No. 3” and “No. 4” shown in FIG. 4, when the face of the person detected from the image acquired by the first image acquisition unit 111 cannot be detected, that is, the first person When the face of the person detected by the detection unit 121 cannot be detected by the first face detection unit 131 (first camera image: face detection NG), the classification unit 150 is a person who seems to be a suspicious person. It is classified as being, and it is determined that traffic to the person is impossible.

さらに、図4に示す「No.4」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出できず、かつ、第2の画像取得部112により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できなかった場合(第1のカメラの画像:顔検出NG、かつ、第2のカメラの画像:顔検出NG)、分類部150は、当該人物が全く顔が検出できなかった不審者らしい人物であると分類し、当該人物に対する通行が不可であると判定する。   Furthermore, according to “No. 4” illustrated in FIG. 4, a human face detected from the image acquired by the first image acquisition unit 111 cannot be detected, and the human face acquired by the second image acquisition unit 112 is acquired. When the face of the person associated with the person detected from the image cannot be detected (first camera image: face detection NG and second camera image: face detection NG), the classification unit 150 The person is classified as a person who seems to be a suspicious person whose face could not be detected at all, and it is determined that the person cannot pass through the person.

この場合、履歴管理部190には、不審者らしいと判定された人物の履歴情報が記録される。この履歴管理部190に記録される履歴情報は、当該人物の顔が検出できていないため、判定結果および判定時刻などの情報となる。ただし、当該人物が検出された画像は存在するため、当該人物が検出された画像を履歴情報とともに記録するようにしても良い。なお、上記のように顔が全く検出できなかった人物は、後で顔を確認することができない(顔の記録が残らない)人物であるため、最も警戒すべき人物であると想定される。   In this case, history information of a person who is determined to be a suspicious person is recorded in the history management unit 190. The history information recorded in the history management unit 190 is information such as a determination result and a determination time because the face of the person has not been detected. However, since an image in which the person is detected exists, the image in which the person is detected may be recorded together with history information. In addition, since the person whose face could not be detected as described above is a person whose face cannot be confirmed later (the face is not recorded), it is assumed that he is the person who should be most wary.

また、図4に示す「No.3」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出できず、かつ、第2の画像取得部112により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できた場合(第1のカメラの画像:顔検出NG、かつ、第2のカメラの画像:顔検出OK)、分類部150は、当該人物が顔が検出できた不審者らしい人物であると分類し、当該人物の通行が不可であるとともに当該人物の顔画像を履歴管理部190に記録すると判定する。この場合、履歴管理部190には、不審者らしいと判定された人物の顔画像を含む履歴情報が記録される。このため、当該人物の顔は、履歴情報に含まれる顔画像で確認することが可能となる。   Further, according to “No. 3” illustrated in FIG. 4, the face of the person detected from the image acquired by the first image acquisition unit 111 cannot be detected, and acquired by the second image acquisition unit 112. When the face of the person associated with the person detected from the image can be detected (first camera image: face detection NG and second camera image: face detection OK), the classification unit 150 The person is classified as a person who seems to be a suspicious person whose face could be detected, and it is determined that the person cannot pass and the face image of the person is recorded in the history management unit 190. In this case, history information including a face image of a person determined to be a suspicious person is recorded in the history management unit 190. For this reason, the face of the person can be confirmed with the face image included in the history information.

図4に示す「No.1」および「No.2」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出できた場合、つまり、第1の人物検出部121により検出された人物の顔が第2の顔検出部131で検出できた場合(第1のカメラの画像:顔検出OK)、分類部150は、当該人物が不審者らしくない人物であると分類し、当該人物に対する通行の可否を判定するための顔照合を実行すると判定する。   According to “No. 1” and “No. 2” shown in FIG. 4, when the face of a person detected from the image acquired by the first image acquisition unit 111 can be detected, that is, the first person detection When the face of the person detected by the unit 121 can be detected by the second face detection unit 131 (first camera image: face detection OK), the classification unit 150 is a person who is not likely to be a suspicious person. It is determined that face collation for determining whether or not the person can pass is executed.

さらに、図4に示す「No.2」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出でき、かつ、第2の画像取得部112により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できなかった場合(第1のカメラの画像:顔検出OK、かつ、第2のカメラの画像:顔検出NG)、分類部150は、当該人物が不審者らしくない人物(一般的な歩行状態の人物)と分類し、当該人物に対する顔照合に用いる認証用の閾値を所定値とすると判定する。   Furthermore, according to “No. 2” illustrated in FIG. 4, the face of the person detected from the image acquired by the first image acquisition unit 111 can be detected, and the image acquired by the second image acquisition unit 112 When the face of the person associated with the person detected from the above cannot be detected (first camera image: face detection OK and second camera image: face detection NG), the classification unit 150 The person is classified as a person who does not look like a suspicious person (a person in a general walking state), and the authentication threshold value used for face matching for the person is determined to be a predetermined value.

図4に示す「No.1」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出でき、かつ、第2の画像取得部112により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できた場合(第1のカメラの画像:顔検出OK、かつ、第2のカメラの画像:顔検出OK)、分類部150は、当該人物が第2カメラの位置を知っている不審者らしくない人物と分類し、当該人物に対する顔照合に用いる認証用の閾値を所定値よりも緩和(調整)すると判定する。   According to “No. 1” illustrated in FIG. 4, the human face detected from the image acquired by the first image acquisition unit 111 can be detected and detected from the image acquired by the second image acquisition unit 112. When the face of the person associated with the person is detected (first camera image: face detection OK and second camera image: face detection OK), the classification unit 150 determines that the person The person is classified as a person who does not seem to be a suspicious person who knows the position of the second camera, and determines that the threshold value for authentication used for face matching for the person is relaxed (adjusted) from a predetermined value.

すなわち、図4に示す例では、第1のカメラで撮影した画像から顔が検出できたか否かにより不審者らしいか否かが判定されるようになっている。このような設定は、通行者に認識され易いように設置されている第1のカメラに対して顔を隠していない(カメラの方を見ている)人物は不審者である可能性が低い人物であるという推測に基づいている。従って、少なくとも登録者に対しては、第1のカメラに顔を向けるように予め知らされているという運用形態が想定される。   That is, in the example shown in FIG. 4, it is determined whether or not it seems to be a suspicious person depending on whether or not a face can be detected from an image taken by the first camera. Such a setting is such that a person who does not hide his face (looking at the camera) with respect to the first camera installed so as to be easily recognized by a passerby is unlikely to be a suspicious person. It is based on the assumption that it is. Therefore, an operation mode in which at least a registrant is informed in advance to face the first camera is assumed.

さらに、図4に示す例では、第1のカメラで撮影した画像から顔が検出できた人物に対する認証用の閾値は、第2のカメラで撮影した画像から顔が検出できたか否かにより調整されるようになっている。つまり、第1のカメラで撮影した画像と第2のカメラで撮影した画像とから顔が検出できた人物については、顔照合に用いる認証用の閾値を緩和することにより登録者との照合が成功し易くなる(通行が許可され易くなる)ようになっている。このような設定は、通行者に認識され難い状態で設置されている第2のカメラで顔が撮影された人物は、第2のカメラの存在を予め知っている登録者である可能性が高いという推測に基づいている。従って、登録者に対しては、第2のカメラの位置を予め知らせておくような運用形態が考えられる。   Further, in the example shown in FIG. 4, the authentication threshold for a person whose face can be detected from the image captured by the first camera is adjusted depending on whether the face can be detected from the image captured by the second camera. It has become so. In other words, for a person whose face can be detected from the image taken with the first camera and the image taken with the second camera, matching with the registrant succeeded by relaxing the authentication threshold used for face matching. (Passage is easily permitted). In such a setting, a person whose face is photographed by the second camera installed in a state that is difficult to be recognized by a passerby is likely to be a registrant who already knows the existence of the second camera. Based on the guess. Therefore, an operation mode in which the registrant is notified in advance of the position of the second camera is conceivable.

なお、上記のような設定(各人物の分類方法)は、システムの運用形態、第2のカメラの設置状況あるいは第2のカメラの秘匿性などに応じて適宜設定されるできものである。これは、第1、第2のカメラで撮影される通行者の状態が通行者のシステムの運用形態、第2のカメラの設置状況あるいは第2のカメラの秘匿性などによって異なると推測されるためである。たとえば、第2のカメラが一般的な歩行状態の通行者の顔を撮影し易い状態であるか否か、第2のカメラが通行者に発見され易いか否かなどによって、第2のカメラで顔が撮影された通行者の状態が異なると推測される。   Note that the above settings (classification method for each person) can be set as appropriate according to the system operation mode, the installation status of the second camera, the secrecy of the second camera, and the like. This is because it is presumed that the state of the passerby photographed by the first and second cameras differs depending on the operation mode of the passer's system, the installation status of the second camera, the secrecy of the second camera, and the like. It is. For example, depending on whether the second camera is in a state where it is easy to capture the face of a passerby in a general walking state, whether the second camera is easy to be found by a passer-by, etc. It is presumed that the state of the passerby whose face was photographed is different.

次に、第1の実施の形態としての通行者認識装置10の動作例について説明する。
図5は、通行者認識装置10の動作例を説明するためのフローチャートである。
なお、ここでは、図4に示すような分類方法が予め設定されている場合を想定するものとする。
Next, an operation example of the passer-by identification apparatus 10 according to the first embodiment will be described.
FIG. 5 is a flowchart for explaining an operation example of the passer-by identification device 10.
Here, it is assumed that a classification method as shown in FIG. 4 is preset.

まず、第1の画像取得部111のカメラ(第1のカメラ)および第2の画像取得部112のカメラ(第2のカメラ)は、通路内の所定の領域を撮影しているものとする。第1のカメラで撮影された画像(各フレームの画像)は、順次第1の画像取得部111を介して第1の人物検出部121へ供給される。同様に、第2のカメラで撮影された画像(各フレームの画像)は、順次第2の画像取得部112を介して第2の人物検出部122へ供給される。これにより、第1の人物検出部121および第2の人物検出部122では、それぞれ供給された画像から人物を検出する処理を行っている(ステップS101およびS102)。   First, it is assumed that the camera (first camera) of the first image acquisition unit 111 and the camera (second camera) of the second image acquisition unit 112 are capturing a predetermined area in the passage. Images (images of each frame) captured by the first camera are sequentially supplied to the first person detection unit 121 via the first image acquisition unit 111. Similarly, images (images of each frame) captured by the second camera are sequentially supplied to the second person detection unit 122 via the second image acquisition unit 112. As a result, the first person detection unit 121 and the second person detection unit 122 perform processing for detecting a person from the supplied images (steps S101 and S102).

この状態において第1の人物検出部121が人物を検出した場合(ステップS101、YES)、第1の顔検出部131は、第1の人物検出部121により検出された人物の画像から顔の領域を検出する処理を行う(ステップS103)。同様に、第2の人物検出部122が人物を検出した場合(ステップS101でNO、かつ、ステップS102でYES)、第2の顔検出部132は、第2の人物検出部122により検出された人物の画像から顔の領域を検出する処理を行う(ステップS104)。上記第1の人物検出部121あるいは第2の人物検出部122で人物が検出されると、上記人物対応付け部140は、上記第1の人物検出部121で検出された人物と上記第2の人物検出部122で検出された人物との対応付けを行う(ステップS105)。   In this state, when the first person detection unit 121 detects a person (step S101, YES), the first face detection unit 131 detects a face region from the person image detected by the first person detection unit 121. The process which detects is performed (step S103). Similarly, when the second person detection unit 122 detects a person (NO in step S101 and YES in step S102), the second face detection unit 132 is detected by the second person detection unit 122. A process of detecting a face region from a person image is performed (step S104). When a person is detected by the first person detecting unit 121 or the second person detecting unit 122, the person associating unit 140 detects the person detected by the first person detecting unit 121 and the second person detecting unit 121. The person detected by the person detection unit 122 is associated with the person (step S105).

人物対応付け部140による対応付け処理は、第1のカメラで撮影された人物と第2のカメラで撮影された人物とを対応付ける処理である。このため、一方のカメラでのみ撮影されている人物の画像については、他方のカメラで撮影された画像と対応付けを行うことができない。ただし、運用形態によっては、一方のカメラで撮影された画像からのみ人物が検出された場合、他方のカメラで撮影された画像から当該人物が検出されなかったことを対応づけ処理の結果として得られるようにしても良い。   The association process by the person association unit 140 is a process for associating a person photographed with the first camera with a person photographed with the second camera. For this reason, an image of a person photographed with only one camera cannot be associated with an image photographed with the other camera. However, depending on the operation mode, when a person is detected only from an image captured by one camera, it can be obtained as a result of the association process that the person has not been detected from an image captured by the other camera. You may do it.

人物対応付け部140による対応付けの結果、第1の人物検出部121および第2の人物検出部122による人物の検出結果などに基づいて、分類部150では、当該人物(通行者)の分類を判定することが可能か否かを判定する(ステップS106)。ここで、図4に示す例では、第1のカメラおよび第2のカメラで撮影された人物であることを分類するための前提としている。このため、図4に示すような分類が設定される場合、分類部150は、第1のカメラで撮影された画像から検出された人物と第2のカメラで撮影された画像から検出された人物とが同一人物として対応付けられたか否かにより分類が可能か否かを判定する。ただし、一方のカメラで撮影された画像からのみ人物が検出された場合であっても、当該人物を分類可能な設定であれば、分類部150は、一方のカメラで撮影された画像から人物が検出されれば、当該人物の分類が可能であると判定する。   The classification unit 150 classifies the person (passerby) based on the result of the association by the person association unit 140 and the detection result of the person by the first person detection unit 121 and the second person detection unit 122. It is determined whether it can be determined (step S106). Here, in the example illustrated in FIG. 4, it is assumed that the person is a person photographed by the first camera and the second camera. Therefore, when the classification as shown in FIG. 4 is set, the classification unit 150 causes the person detected from the image captured by the first camera and the person detected from the image captured by the second camera. Are determined as to whether or not they are associated with each other as the same person. However, even if a person is detected only from an image captured by one camera, the classification unit 150 can detect the person from an image captured by one camera as long as the person can be classified. If it is detected, it is determined that the person can be classified.

たとえば、第2のカメラは、通行者に認識され難いように設置されている。このため、第2のカメラで撮影された画像から確実に人物を検出することが難しい場合もありうる。さらに、図2あるいは図3に示す設置例では、第1のカメラが入口近傍に設置され、第2のカメラが第1のカメラよりも手前に設置されている。このような場合、第1のカメラで撮影された画像から検出された人物については、第2のカメラで撮影された画像から検出されなかった場合であっても、図4に示す「No2」あるいは「No3」と同様に、当該人物を分類するようにしても良い。この場合、人物対応付け部140では、第1のカメラで撮影された画像から検出された人物と対応付けられる人物が第2のカメラで撮影された画像から検出されなかった旨を対応付け処理の結果として分類部150へ供給するようにすれば良い。   For example, the second camera is installed so that it is difficult for a passer-by to recognize it. For this reason, it may be difficult to reliably detect a person from an image captured by the second camera. Further, in the installation example shown in FIG. 2 or FIG. 3, the first camera is installed in the vicinity of the entrance, and the second camera is installed in front of the first camera. In such a case, even if the person detected from the image captured by the first camera is not detected from the image captured by the second camera, “No 2” shown in FIG. Similar to “No 3”, the person may be classified. In this case, the person association unit 140 indicates that the person associated with the person detected from the image captured by the first camera has not been detected from the image captured by the second camera. As a result, it may be supplied to the classification unit 150.

上記判定により人物の分類が可能でないと判定された場合(ステップS106、NO)、上記分類部150による分類判定が可能な状態となるまで、上記ステップS101〜S106の処理が繰り返し実行される。   If it is determined that the person cannot be classified by the above determination (step S106, NO), the processes of steps S101 to S106 are repeated until the classification by the classification unit 150 is possible.

また、上記判定により人物の分類が可能であると判定された場合(ステップS106、YES)、分類部150では、人物対応付け部140で対応付け処理の結果が得られた人物に対する分類処理を行う。すなわち、分類部150は、まず、第1のカメラで撮影された画像(第1の人物検出部121で検出された人物の画像)から第1の顔検出部131により顔が検出されたか否かを判定する(ステップS107)。   If it is determined that the person can be classified by the above determination (step S106, YES), the classification unit 150 performs a classification process on the person whose result of the association process is obtained by the person association unit 140. . That is, the classification unit 150 first determines whether or not a face is detected by the first face detection unit 131 from an image captured by the first camera (a person image detected by the first person detection unit 121). Is determined (step S107).

上記第1のカメラで撮影された画像から顔が検出されなかった場合(ステップS107、NO)、上記分類部150は、さらに、第2のカメラで撮影された画像から当該人物(第1の人物検出部121で検出された人物に対応付けられた人物)の顔が第2の顔検出部132により検出されたか否かを判定する(ステップS108)。   When a face is not detected from the image captured by the first camera (step S107, NO), the classification unit 150 further determines the person (first person) from the image captured by the second camera. It is determined whether the face of the person associated with the person detected by the detection unit 121 has been detected by the second face detection unit 132 (step S108).

これらの判定により第1のカメラおよび第2のカメラで撮影された画像(人物の画像)から顔が検出できなった場合(ステップS108、NO)、分類部150は、図4に示す分類に基づいて、当該人物が顔が検出できなかった不審者らしい人物であると分類する。このような分類に応じて、分類部150は、処理内容として、当該人物に対する顔照合を行わずに、当該人物に関する履歴情報を記録し、当該人物の通行を不可とするものと判断する。   When the face cannot be detected from the images (person images) taken by the first camera and the second camera by these determinations (step S108, NO), the classification unit 150 is based on the classification shown in FIG. Then, the person is classified as a person who seems to be a suspicious person whose face could not be detected. In accordance with such classification, the classification unit 150 records the history information about the person without performing face matching on the person as the processing content, and determines that the person cannot pass.

この場合、履歴管理部190は、当該顔が検出できなかった不審者らしい人物に関する履歴情報として、当該人物が検出された日時、当該人物に対する判定結果、当該人物が検出された画像など記録する(ステップS109)。これと共に、通行制御部180は、自動ドア、電子錠、あるいは、ゲートなどを閉鎖することにより当該人物の通行を拒否する(ステップS110)。この際、通行制御部180は、表示部111aあるいは図示しないスピーカにより「顔が確認できないため通行不可である」あるいは「顔を隠さないでください」などの警告を出力するようにしても良い。これにより、顔をカメラに向けることを促したり、不正行為を防止したりすることが可能となる。   In this case, the history management unit 190 records the date and time when the person was detected, the determination result for the person, the image where the person was detected, and the like as the history information regarding the person who seems to be a suspicious person whose face could not be detected ( Step S109). At the same time, the passage control unit 180 rejects the passage of the person by closing the automatic door, the electronic lock, or the gate (step S110). At this time, the passage control unit 180 may output a warning such as “Cannot pass because face cannot be confirmed” or “Please do not hide the face” by the display unit 111a or a speaker (not shown). As a result, it is possible to urge the face to face the camera or prevent fraud.

また、上記判定により第1のカメラで撮影された画像から顔が検出されず、第2のカメラで撮影された画像(人物の画像)から顔が検出された場合(ステップS108、YES)、分類部150は、図4に示す分類に基づいて、当該人物が顔が検出できた不審者らしい人物であると分類する。このような分類に応じて、分類部150は、処理内容として、当該人物に対する顔照合を行わずに、当該人物に関する顔画像を含む履歴情報を記録し、当該人物の通行を不可とするものと判断する。   If the face is not detected from the image captured by the first camera by the above determination and the face is detected from the image captured by the second camera (person image) (YES in step S108), the classification is performed. Based on the classification shown in FIG. 4, unit 150 classifies the person as a suspicious person whose face was detected. In accordance with such classification, the classification unit 150 records the history information including the face image related to the person without processing the face collation for the person as processing contents, and prohibits the passage of the person. to decide.

この場合、履歴管理部190は、当該顔が検出できた不審者らしい人物に関する履歴情報として、当該人物の顔画像、当該人物が検出された日時、当該人物に対する判定結果、当該人物が検出された画像など記録する(ステップS111)。これと共に、通行制御部180では、自動ドア、電子錠、あるいは、ゲートなどを閉鎖することにより当該人物の通行を拒否する(ステップS110)。この際、通行制御部180は、表示部111aあるいは図示しないスピーカにより「(第1のカメラで)顔が確認できないため通行不可である」あるいは「顔を隠さないでください」などの警告を出力するようにしても良い。これにより、顔をカメラ(第1のカメラ)に向けることを促したり、不正行為を防止したりすることが可能となる。   In this case, the history management unit 190 detects the person's face image, the date and time when the person was detected, the determination result for the person, and the person was detected as history information about the person who seems to be a suspicious person. An image or the like is recorded (step S111). At the same time, the passage control unit 180 rejects the passage of the person by closing the automatic door, the electronic lock, or the gate (step S110). At this time, the passage control unit 180 outputs a warning such as “Don't pass because the face cannot be confirmed (by the first camera)” or “Please do not hide the face” from the display unit 111a or a speaker (not shown). You may do it. As a result, it is possible to prompt the user to turn his face to the camera (first camera) or to prevent fraud.

上記第1のカメラで撮影された画像から顔が検出された場合(ステップS107、YES)、上記分類部150は、さらに、第2のカメラで撮影された画像から当該人物(人物検出部121で検出された人物に対応付けられた人物)の顔が検出されたか否かを判定する(ステップS112)。   When a face is detected from the image captured by the first camera (step S107, YES), the classification unit 150 further determines the person (in the person detection unit 121) from the image captured by the second camera. It is determined whether or not a face of a person associated with the detected person is detected (step S112).

これらの判定により第1のカメラで撮影された画像から顔が検出され、かつ、第2のカメラで撮影された画像(人物の画像)からも同一人物の顔が検出された場合(ステップS112、YES)、分類部150は、図4に示す分類に基づいて、当該人物が第2のカメラの存在を知っている通行者であると分類する。このような分類に応じて、分類部150は、処理内容として、当該人物に対する顔照合に用いられる認証用の閾値を所定値(所定の認証用の閾値)よりも緩和し(ステップS113)、この緩和した認証用の閾値による顔照合を行うものとする(ステップS114)。   When a face is detected from an image photographed by the first camera by these determinations, and a face of the same person is also detected from an image photographed by the second camera (person image) (step S112, YES), the classification unit 150 classifies the person as a passerby who knows the presence of the second camera based on the classification shown in FIG. In accordance with such classification, the classification unit 150 relaxes the authentication threshold used for face matching for the person as a processing content, rather than a predetermined value (predetermined authentication threshold) (step S113). It is assumed that face matching is performed using the relaxed threshold for authentication (step S114).

この場合、顔照合部170は、分類部150により指定された所定値を緩和した認証用の閾値を用いて、上記顔検出部131あるいは顔検出部132により検出された顔の特徴情報と顔特徴管理部160に記憶されている各登録者の顔の特徴情報とを照合する顔照合処理を行う(ステップS114)。   In this case, the face matching unit 170 uses the authentication threshold value obtained by relaxing the predetermined value specified by the classifying unit 150, and the face feature information and the face feature detected by the face detecting unit 131 or the face detecting unit 132. A face matching process is performed to match the facial feature information of each registrant stored in the management unit 160 (step S114).

また、上記判定により第1のカメラで撮影された画像から顔が検出され、かつ、第2のカメラで撮影された画像(人物の画像)からは同一人物の顔が検出されなかった場合(ステップS112、NO)、分類部150は、図4に示す分類に基づいて、当該人物が一般的な通行状態の通行者であると分類する。このような分類に応じて、分類部150は、処理内容として、当該人物に対する顔照合に用いられる認証用の閾値を所定の認証用の閾値とし、この所定の認証用の閾値による顔照合を行うものとする(ステップS114)。   Further, when the face is detected from the image taken by the first camera by the above determination, and the face of the same person is not detected from the image (person image) taken by the second camera (step) (S112, NO), the classification unit 150 classifies the person as a general passerby based on the classification shown in FIG. In accordance with such classification, the classification unit 150 sets, as processing details, a threshold for authentication used for face matching for the person as a predetermined threshold for authentication, and performs face matching using the predetermined threshold for authentication. It is assumed (step S114).

この場合、顔照合部170は、分類部150により指定された所定の認証用の閾値を用いて、上記顔検出部131あるいは顔検出部132により検出された顔の特徴情報と顔特徴管理部160に記憶されている各登録者の顔の特徴情報とを照合する顔照合処理を行う(ステップS114)。   In this case, the face collation unit 170 uses the predetermined authentication threshold specified by the classification unit 150 and the face feature information detected by the face detection unit 131 or the face detection unit 132 and the face feature management unit 160. A face matching process is performed to match the facial feature information of each registrant stored in (step S114).

なお、図5に示す処理手順では、顔照合を行う場合、少なくとも第1のカメラで撮影された画像から通行者Mの顔が検出されている。また、上記第1のカメラは、通行者に認識され易いように設置されている。このため、第1のカメラでは、第2のカメラに比べて良好な顔画像を含む画像が撮影できる可能性が高いと推測される。このため、ここでは、第1のカメラで撮影された画像から検出された顔画像(顔の特徴情報)を用いて顔照合処理を行うものとする。   In the processing procedure shown in FIG. 5, when face matching is performed, the face of the passerby M is detected from at least an image photographed by the first camera. The first camera is installed so that it can be easily recognized by a passerby. For this reason, it is estimated that the first camera is more likely to capture an image including a good face image than the second camera. For this reason, here, it is assumed that face matching processing is performed using a face image (face feature information) detected from an image taken by the first camera.

すなわち、顔照合部170は、上記顔検出部131により検出された顔の特徴情報と顔特徴管理部160に記憶されている各登録者の顔の特徴情報との類似度を算出する。各登録者との類似度を算出すると、顔照合部170は、算出した類似度のうち最大の類似度を選択し、選択した類似度が分類部150により判定された分類に応じた閾値(分類部150により調整された閾値)以上であるか否かを判定する。   That is, the face collation unit 170 calculates the similarity between the face feature information detected by the face detection unit 131 and the face feature information of each registrant stored in the face feature management unit 160. When the similarity with each registrant is calculated, the face matching unit 170 selects the maximum similarity among the calculated similarities, and the threshold (classification) according to the classification determined by the classification unit 150 is selected. It is determined whether or not the threshold value adjusted by the unit 150 is greater than or equal to.

ここで、図4に示す例では、第2のカメラで当該人物の顔が検出されている場合、分類部150は、所定の認証用の閾値を緩和した認証用の閾値を当該人物に対する顔照合に用いられる認証用の閾値とする。また、第2のカメラで当該人物の顔が検出されなった場合、分類部150は、所定の認証用の閾値を当該人物に対する顔照合に用いられる認証用の閾値とする。すなわち、分類部150は、第1のカメラで撮影された画像から顔が検出された人物については、第2のカメラで撮影された画像から顔が検出されたか否かにより顔照合に用いる認証用の閾値を調整するようになっている。   Here, in the example illustrated in FIG. 4, when the face of the person is detected by the second camera, the classification unit 150 uses the authentication threshold obtained by relaxing the predetermined authentication threshold as the face matching for the person. It is set as the threshold value for authentication used for. When the face of the person is not detected by the second camera, the classification unit 150 sets a predetermined authentication threshold as an authentication threshold used for face matching for the person. That is, for the person whose face is detected from the image photographed by the first camera, the classification unit 150 uses the authentication for face collation depending on whether or not the face is detected from the image photographed by the second camera. The threshold value is adjusted.

上記判定により最大類似度が認証用の閾値以上であると判定した場合、顔照合部170は、第1のカメラで顔が撮影された人物が最大類似度となった登録者であると判断する。つまり、最大類似度が認証用の閾値以上である場合、顔照合部170は、顔照合が成功したものと判断する。また、上記判定により最大類似度が認証用の閾値未満であると判定した場合、顔照合部170は、第1のカメラで顔が撮影された人物がどの登録者でもないと判断する。つまり、最大類似度が認証用の閾値未満である場合、顔照合部170は、顔照合が失敗したものと判断する。   If it is determined by the above determination that the maximum similarity is equal to or greater than the threshold value for authentication, the face matching unit 170 determines that the person whose face is photographed by the first camera is the registrant who has the maximum similarity. . That is, when the maximum similarity is equal to or greater than the authentication threshold, the face matching unit 170 determines that the face matching is successful. If it is determined by the above determination that the maximum similarity is less than the threshold value for authentication, the face matching unit 170 determines that the person whose face has been photographed by the first camera is not any registrant. That is, when the maximum similarity is less than the threshold for authentication, the face matching unit 170 determines that face matching has failed.

上記ステップS114の顔照合が成功した場合(ステップS115、YES)、通行制御部180では、自動ドア、電子錠、あるいは、ゲートなどを開放することにより当該人物の通行を許可する(ステップS116)。この際、通行制御部180は、表示部111aあるいは図示しないスピーカにより通行を許可する旨の案内を出力するようにしても良い。   When the face collation in step S114 is successful (step S115, YES), the passage control unit 180 permits passage of the person by opening an automatic door, an electronic lock, a gate, or the like (step S116). At this time, the traffic control unit 180 may output a guidance indicating that traffic is permitted by the display unit 111a or a speaker (not shown).

また、上記ステップS114の顔照合が失敗した場合(ステップS115、NO)、通行制御部180では、自動ドア、電子錠、あるいは、ゲートなどを閉鎖することにより当該人物の通行を拒否する(ステップS110)。この際、通行制御部180は、表示部111aあるいは図示しないスピーカにより「登録者であることが確認できないため通行不可」である旨の案内を出力するようにしても良い。   If the face collation in step S114 fails (step S115, NO), the passage control unit 180 rejects the passage of the person by closing the automatic door, electronic lock, gate, or the like (step S110). ). At this time, the passage control unit 180 may output a guidance indicating that “passage is not possible because it is not possible to confirm the registrant” from the display unit 111a or a speaker (not shown).

上記のように、第1の実施の形態としての通行者認識装置では、通行者に認識され易いように設置したカメラで撮影した画像からの顔の検出結果と通行者に認識され難いように設置したカメラで撮影した画像からの顔の検出結果とに基づいて、通行者を分類し、それらの分類に応じた処理を行うようにしたものである。これにより、各カメラで撮影された人物の状態から推測される通行者の行動に応じた通行制御処理が可能となる。   As described above, in the passer-by identification device as the first embodiment, the face detection result from the image taken by the camera installed so that the passer-by is easily recognized and the passer-by recognition are not easily installed. The passers are classified based on the detection results of the face from the image taken by the camera, and processing corresponding to the classification is performed. Thereby, the traffic control process according to the action of the passerby estimated from the state of the person photographed with each camera becomes possible.

なお、上記第1の実施の形態では、上記2種類の画像取得部111,112を1台ずつ設置することを前提に説明した。しかしながら、画像取得部(カメラ)は、通路の形状あるいは運用形態に応じて設置台数を増やすようにしても良い。この場合、人物対応付け部140では、設置された画像取得部(カメラ)の数に応じて対応付け処理を増やすことで対応することが可能である。   Note that the first embodiment has been described on the assumption that the two types of image acquisition units 111 and 112 are installed one by one. However, the image acquisition unit (camera) may increase the number of installed units according to the shape of the passage or the operation mode. In this case, the person association unit 140 can cope with this by increasing the association processing according to the number of installed image acquisition units (cameras).

次に、第2の実施の形態について説明する。
図6は、第2の実施の形態に係るアクセス制御装置としての人物(通行者)認識装置20の構成例を概略的に示すものである。
Next, a second embodiment will be described.
FIG. 6 schematically shows a configuration example of a person (passerby) recognition device 20 as an access control device according to the second embodiment.

図6に示す通行者認識装置20は、上記第1の実施の形態で説明した通行者認識装置10と同様に、顔照合機能を有するアクセス制御装置として機能するものである。また、図6に示す通行者認識装置20の運用形態についても、上記第1の実施の形態で説明した通行者認識装置10と同様な適用例が想定される。   The passer-by identification device 20 shown in FIG. 6 functions as an access control device having a face matching function, like the passer-by identification device 10 described in the first embodiment. Moreover, the application example similar to the passer-by identification device 10 described in the first embodiment is also assumed for the operation mode of the passer-by identification device 20 shown in FIG.

上記通行者認識装置20は、図6に示すように、第1の画像取得部211、第2の画像取得部212、第1の人物検出部221、第2の人物検出部222、第1の顔検出部231、第2の顔検出部232、人物対応付け部240、分類部250、なりすまし判定部255、顔特徴管理部260、顔照合部270、通行制御部280および履歴管理部290などを有している。   As shown in FIG. 6, the passer-by identification apparatus 20 includes a first image acquisition unit 211, a second image acquisition unit 212, a first person detection unit 221, a second person detection unit 222, and a first person. A face detection unit 231, a second face detection unit 232, a person association unit 240, a classification unit 250, an impersonation determination unit 255, a face feature management unit 260, a face matching unit 270, a traffic control unit 280, a history management unit 290, and the like Have.

なお、第1の画像取得部211、表示部211a、第2の画像取得部212、アクリル板212a、第1の人物検出部221、第2の人物検出部222、第1の顔検出部231、第2の顔検出部232、人物対応付け部240、分類部250、顔特徴管理部260、通行制御部280および履歴管理部290は、第1の実施の形態で説明した、第1の画像取得部111、表示部111a、第2の画像取得部112、アクリル板112a、第1の人物検出部121、第2の人物検出部122、第1の顔検出部131、第2の顔検出部132、人物対応付け部140、分類部150、顔特徴管理部160、通行制御部180および履歴管理部190と同様な機能を有しているため、詳細な説明を省略するものとする。   In addition, the 1st image acquisition part 211, the display part 211a, the 2nd image acquisition part 212, the acrylic board 212a, the 1st person detection part 221, the 2nd person detection part 222, the 1st face detection part 231, The second face detection unit 232, the person association unit 240, the classification unit 250, the face feature management unit 260, the traffic control unit 280, and the history management unit 290 are the first image acquisition described in the first embodiment. Unit 111, display unit 111 a, second image acquisition unit 112, acrylic plate 112 a, first person detection unit 121, second person detection unit 122, first face detection unit 131, and second face detection unit 132. The person association unit 140, the classification unit 150, the face feature management unit 160, the traffic control unit 180, and the history management unit 190 have the same functions, and thus detailed description thereof will be omitted.

第1の画像取得部211は、第1の画像取得部111と同様に、通行者Mにカメラが認識され易いように設置されている。第2の画像取得部212は、第2の画像取得部112と同様に、通行者Mにカメラが認識され難いように設置されている。また、第1の画像取得部211および第2の画像取得部212の設置例についても、第1の画像取得部111および第2の画像取得部112と同様な設置例が想定可能である。   Similar to the first image acquisition unit 111, the first image acquisition unit 211 is installed so that the camera can be easily recognized by the passerby M. Similar to the second image acquisition unit 112, the second image acquisition unit 212 is installed so that the camera cannot be easily recognized by the passerby M. Further, with respect to the installation examples of the first image acquisition unit 211 and the second image acquisition unit 212, an installation example similar to that of the first image acquisition unit 111 and the second image acquisition unit 112 can be assumed.

次に、上記なりすまし判定部255について説明する。   Next, the impersonation determination unit 255 will be described.

なりすまし判定部255は、通行者がなりすましを行っているか否かを判定(なりすましの有無を判定)する。すなわち、なりすまし判定部255では、上記人物対応付け部240で対応付けられた通行者がなりすましを行っているか否かを判定する。なりまし判定部255によるなりすまし判定処理には、種々の適用手法が可能である。ただし、本実施の形態において、なりすまし判定部255は、第1のカメラで撮影された顔画像と第2のカメラで撮影された同一人物の顔画像との変化によってなりすましを判定するものとする。このため、本実施の形態において、なりすまし判定部255は、第1のカメラおよび第2のカメラで共に顔が撮影された人物を対象として、なりすましの判定を行うものとする。   The impersonation determination unit 255 determines whether a passerby is impersonating (determining whether impersonation is present). That is, the impersonation determination unit 255 determines whether or not the passerby associated with the person association unit 240 is impersonating. Various application methods are possible for the impersonation determination process by the impersonation determination unit 255. However, in this embodiment, the impersonation determination unit 255 determines impersonation based on a change between a face image photographed by the first camera and a face image of the same person photographed by the second camera. For this reason, in this embodiment, the impersonation determination unit 255 performs impersonation determination for a person whose face is photographed by both the first camera and the second camera.

顔照合部270は、上記第1の実施の形態で説明した顔照合部170と同様に、第1の画像取得部211(あるいは第2の画像取得部212)により取得した画像から検出された顔の特徴情報と顔特徴管理部260に記憶されている登録者の顔の特徴情報との照合を行う機能を有している。さらに、顔照合部270は、第1の画像取得部211で取得した画像から第1の顔検出部231により検出された顔の特徴情報(以下、第1の特徴情報とも称する)と第2の画像取得部212で取得した画像から第2の顔検出部232により検出された顔の特徴情報(以下、第2の特徴情報とも称する)との類似度を算出する機能を有している。なお、上記顔照合部270による第1の特徴情報と第2の特徴情報との類似度の算出手法は、上記第1の実施の形態で説明した手法が適用される。   The face matching unit 270 is a face detected from the image acquired by the first image acquisition unit 211 (or the second image acquisition unit 212), similarly to the face matching unit 170 described in the first embodiment. And the feature information of the registrant's face stored in the face feature management unit 260 are collated. Further, the face collating unit 270 includes face feature information (hereinafter also referred to as first feature information) detected by the first face detecting unit 231 from the image acquired by the first image acquiring unit 211 and the second. The image acquisition unit 212 has a function of calculating the similarity with the face feature information detected by the second face detection unit 232 (hereinafter also referred to as second feature information) from the image acquired by the image acquisition unit 212. Note that the method described in the first embodiment is applied to the method of calculating the similarity between the first feature information and the second feature information by the face matching unit 270.

次に、なりすまし判定部255によるなりすまし判定処理について説明する。   Next, the impersonation determination process by the impersonation determination unit 255 will be described.

たとえば、なりすまし判定部255は、第1の特徴情報と第2の特徴情報との類似度と所定のなりすまし判定用の閾値とを比較することにより、なりすましの有無を判定する。たとえば、なりすまし判定部255は、第1の特徴情報と第2の特徴情報との類似度が所定のなりすまし判定用の閾値未満であれば、なりすまし有りと判定するものとする。これは、第2のカメラに気がついていない人物が、第1のカメラには他人になりました状態で撮影される場合を想定している。このような場合、第2のカメラで撮影された顔と第1のカメラで撮影された顔とが著しく異なる(たとえば、同一人物とは判定できない程度に第1の特徴情報と第2の特徴情報との類似度が低くなる)と推測される。このため、なりすまし判定部255は、第1の特徴情報と第2の特徴情報との類似度が所定閾値(Ta)未満であるか否かにより、なりすましか否かを判定するようになっている。   For example, the impersonation determination unit 255 determines the presence / absence of impersonation by comparing the similarity between the first feature information and the second feature information with a predetermined impersonation determination threshold. For example, the impersonation determination unit 255 determines that there is impersonation if the similarity between the first feature information and the second feature information is less than a predetermined impersonation determination threshold. This assumes a case where a person who is unaware of the second camera is photographed in a state where the first camera has become another person. In such a case, the face photographed by the second camera and the face photographed by the first camera are significantly different (for example, the first feature information and the second feature information to the extent that they cannot be determined as the same person). It is estimated that the degree of similarity becomes lower. For this reason, the impersonation determination unit 255 determines whether or not impersonation is based on whether the similarity between the first feature information and the second feature information is less than a predetermined threshold (Ta). .

この場合、なりすまし判定部255は、顔照合部270により第1の特徴情報と第2の特徴情報との類似度を算出させる。これにより、なりすまし判定部255は、顔照合部270により算出された第1の特徴情報と第2の特徴情報との類似度が所定の閾値(Ta)未満であるか否かにより、なりすましの有無を判定する。   In this case, the impersonation determination unit 255 causes the face matching unit 270 to calculate the similarity between the first feature information and the second feature information. As a result, the impersonation determination unit 255 determines whether or not impersonation occurs depending on whether the similarity between the first feature information and the second feature information calculated by the face matching unit 270 is less than a predetermined threshold (Ta). Determine.

なお、本実施の形態では、第1、第2のカメラが歩行中の通行者の顔を撮影し、かつ、第2のカメラは通行者に意識されてないことが想定している。このため、当該通行者の姿勢あるいは表情の変化などにより、同一人物(なりすまし無しの通行者)であっても、第1の特徴情報と第2の特徴情報とは大きく変動する可能性がある。従って、上記閾値Taは、当該通行者認識装置20の運用形態に応じて同一人物がなりすましと判定されないように設定する必要がある。たとえば、上記閾値Taとしては、第1の画像取得部211で取得された画像から検出された顔の特徴情報と登録者の顔の特徴情報とが同一人物であるか否かを判定するための所定閾値(緩和された閾値)よりも小さい値が設定される。   In the present embodiment, it is assumed that the first and second cameras capture the face of a passerby while walking, and that the second camera is not conscious of the passerby. For this reason, the first feature information and the second feature information may greatly fluctuate even for the same person (passer without impersonation) due to a change in the posture or expression of the passerby. Therefore, the threshold value Ta needs to be set so that the same person is not determined to be impersonated according to the operation mode of the passer-by identification device 20. For example, the threshold Ta is used to determine whether or not the facial feature information detected from the image acquired by the first image acquisition unit 211 and the facial feature information of the registrant are the same person. A value smaller than a predetermined threshold (relaxed threshold) is set.

また、不審者が第2のカメラに気がついている場合などでは、第2のカメラにも第1のカメラと同様になりすました状態の人物の顔が撮影される可能性がある。このような場合、両者の類似度が極端に高くなる(略同一となる)ことが推測される。これに対して、本実施の形態では、第1、第2のカメラが歩行中の通行者の顔を撮影することを想定しているため、当該通行者の姿勢あるいは表情の変化などにより、第1の特徴情報と第2の特徴情報とが略同一になる(両者の類似度が極端に高くなる)可能性が少ないという状況も考えられる。このような状況を想定すると、第1の特徴情報と第2の特徴情報との類似度が極端に高い(たとえば、類似度が所定閾値Tb以上)人物を、なりましと判定するようにしても良い。この場合、なりすまし判定部255は、上述した条件と組み合わせて閾値Ta以上かつ閾値Tb未満であるか否かにより、なりすましが無しか有りかを判定するようにしても良い。   In addition, when the suspicious person is aware of the second camera, the face of the person who is impersonated like the first camera may be photographed on the second camera. In such a case, it is presumed that the similarity between the two becomes extremely high (substantially the same). In contrast, in the present embodiment, it is assumed that the first and second cameras capture the face of a walking passerby. There may be a situation in which there is a low possibility that the first feature information and the second feature information are substantially the same (the degree of similarity between them is extremely high). Assuming such a situation, a person who has extremely high similarity between the first feature information and the second feature information (for example, the similarity is equal to or greater than a predetermined threshold Tb) may be determined to be impersonated. good. In this case, the impersonation determination unit 255 may determine whether there is no impersonation depending on whether or not the threshold Ta is greater than or less than the threshold Tb in combination with the above-described conditions.

次に、分類部150およびなりすまし判定部255による各人物の分類方法について説明する。   Next, a method for classifying each person by the classification unit 150 and the impersonation determination unit 255 will be described.

図7は、各人物の分類基準と各分類の人物に対する処理内容の例を示す図である。   FIG. 7 is a diagram showing an example of the classification criteria for each person and the processing contents for each classification person.

図7に示す分類例は、図4に示す分類例になりすましの有無に応じた分類を加えたものである。従って、図7に示す分類例は、第1の画像取得部111で取得した画像および第2の画像取得部112で取得した画像から共に顔が検出され、かつ、なりすまし有りと判定された場合以外は、図4に示す分類例と同様である。   The classification example shown in FIG. 7 is the same as the classification example shown in FIG. 4 except that a classification corresponding to the presence or absence of impersonation is added. Therefore, the classification example shown in FIG. 7 is other than the case where a face is detected from both the image acquired by the first image acquisition unit 111 and the image acquired by the second image acquisition unit 112 and it is determined that there is impersonation. Is the same as the classification example shown in FIG.

すなわち、なりすまし有りと判定された場合、なりすまし判定部255は、上記顔照合部270による顔特徴管理部260に記憶されている登録者の顔の特徴情報との照合を行わずに、上記通行制御部280により当該人物の通行を拒否するとともに、履歴管理部290によりなりすましと判定された画像(第1、第2のカメラで撮影された画像)を記録するように制御する。この場合、さらに、なりすまし判定部255は、図示しないスピーカにより警報を発したり、図示しない通信インターフェースにより外部へ警告と通知するようにしても良い。   In other words, when it is determined that there is impersonation, the impersonation determination unit 255 does not collate with the registrant's face feature information stored in the face feature management unit 260 by the face collation unit 270, and performs the above traffic control. The unit 280 rejects the person's passage, and controls the history management unit 290 to record images determined to be spoofed (images taken by the first and second cameras). In this case, the impersonation determination unit 255 may further issue an alarm with a speaker (not shown) or notify the outside with a warning through a communication interface (not shown).

次に、第2の実施の形態としての通行者認識装置20の動作例について説明する。
図8は、通行者認識装置20の動作例を説明するためのフローチャートである。図8に示す動作では、図7に示すような分類方法が予め設定されている場合を想定している。
Next, an operation example of the passer-by identification device 20 according to the second embodiment will be described.
FIG. 8 is a flowchart for explaining an operation example of the passer-by identification device 20. In the operation shown in FIG. 8, it is assumed that a classification method as shown in FIG. 7 is set in advance.

なお、図8に示すフローチャートのステップS201〜S216は、図5に示すフローチャートのステップS101〜S116と同様な処理で実現可能である。つまり、図8に示す動作例は、図5に示す動作例に、なりすまし判定処理(ステップS221)を加えた処理である。従って、図5に示すステップと同様な処理については、詳細な説明を省略するものとする。   Note that steps S201 to S216 in the flowchart shown in FIG. 8 can be realized by the same processing as steps S101 to S116 in the flowchart shown in FIG. That is, the operation example shown in FIG. 8 is a process obtained by adding impersonation determination processing (step S221) to the operation example shown in FIG. Therefore, detailed description of the same processing as the step shown in FIG. 5 is omitted.

ずなわち、第1のカメラで撮影した画像から顔が検出され、かつ、第2のカメラで撮影した画像からも同一人物と判定された人物の顔が検出された場合(S207でYESかつS212でYES)、なりすまし判定部255は、第1のカメラで撮影された画像と第2のカメラで撮影された画像とに基づいて、なりすまし判定処理を行う(ステップS221)。このなりすまし判定処理では、上述したように、第1のカメラで撮影された画像から検出された顔の特徴情報(第1の特徴情報)と第2のカメラで撮影された画像から検出された顔の特徴情報(第2の特徴情報)との類似度がなりすまし判定用の所定の閾値Ta未満であるか否かによりなりすましか否かを判定する。   In other words, when a face is detected from an image captured by the first camera and a face of a person determined to be the same person is detected from an image captured by the second camera (YES in S207 and S212). YES), the impersonation determination unit 255 performs an impersonation determination process based on the image captured by the first camera and the image captured by the second camera (step S221). In this impersonation determination process, as described above, face feature information (first feature information) detected from an image photographed by the first camera and a face detected from the image photographed by the second camera It is determined whether or not impersonation is based on whether or not the degree of similarity to the feature information (second feature information) is less than a predetermined threshold Ta for impersonation determination.

たとえば、第1の特徴情報と第2の特徴情報との類似度が閾値Ta以上であった場合、なりすまし判定部255は、なりすまし無しと判定する。これに対して、第1の特徴情報と第2の特徴情報との類似度が閾値Ta未満であった場合、なりすまし判定部255は、なりすまし有りと判定する。   For example, when the degree of similarity between the first feature information and the second feature information is greater than or equal to the threshold value Ta, the impersonation determination unit 255 determines that there is no impersonation. On the other hand, when the similarity between the first feature information and the second feature information is less than the threshold value Ta, the impersonation determination unit 255 determines that there is impersonation.

上記判定によりなりすまし無しと判定された場合(ステップS221、NO)、上記顔照合部270は、上記ステップS113及びS114と同様に、認証用の所定の閾値を緩和した閾値により第1の特徴情報と登録者の顔の特徴情報との照合処理(顔照合処理)を行う(ステップS213及びS214)。この場合、通行制御部280は、顔照合部270による顔照合処理の結果に応じて当該人物に対する通行制御を行う(ステップS210、S215及びS216)。   When it is determined that there is no spoofing based on the above determination (step S221, NO), the face matching unit 270 uses the first feature information based on a threshold value obtained by relaxing the predetermined threshold value for authentication, as in steps S113 and S114. Collation processing (face collation processing) with the facial feature information of the registrant is performed (steps S213 and S214). In this case, the traffic control unit 280 performs traffic control for the person according to the result of the face matching process by the face matching unit 270 (steps S210, S215, and S216).

また、上記判定によりなりすまし有りと判定された場合(ステップS221、YES)、上記履歴管理部290は、なりすましと判定された画像(第1及び第2の画像取得部で取得した各画像)を含む履歴情報を記録する(ステップS211)。この場合、通行制御部280は、当該人物に対する通行を拒否する(ステップS210)。   When it is determined that there is impersonation by the above determination (step S221, YES), the history management unit 290 includes images determined as impersonation (each image acquired by the first and second image acquisition units). History information is recorded (step S211). In this case, the traffic control unit 280 rejects traffic for the person (step S210).

上記のように、第2の実施の形態としての通行者認識装置20では、通行者に認識され易いように設置したカメラで撮影した画像からの顔の検出結果と、通行者に認識され難いように設置したカメラで撮影した画像からの顔の検出結果とに基づいて、通行者を分類する。これと共に、通行者認識装置20では、通行者に認識され易いように設置したカメラで撮影した画像から検出された顔の特徴情報と、通行者に認識され難いように設置したカメラで撮影した画像から検出された顔の特徴情報とを比較することにより、通行者がなりすましを行っているか否かを判定する。これにより、なりすましを排除しつつ、各カメラで撮影された人物の状態から推測される通行者の行動に応じた通行制御処理が可能となる。   As described above, in the passer-by identification apparatus 20 according to the second embodiment, the detection result of the face from the image taken by the camera installed so that the passer-by is easily recognized, and the passer-by is less likely to be recognized by the passer-by. A passer-by is classified based on a face detection result from an image photographed by a camera installed in the camera. At the same time, in the passer-by identification device 20, facial feature information detected from an image taken by a camera installed so as to be easily recognized by a passer-by, and an image taken by a camera installed so as not to be recognized by a passer-by. It is determined whether or not the passerby is impersonating by comparing with the facial feature information detected from. This makes it possible to perform traffic control processing according to the behavior of the passerby estimated from the state of the person photographed by each camera while eliminating impersonation.

なお、上記第2の実施の形態で説明した通行者認識装置20は、画像取得部(カメラ)の設置台数を通路の形状あるいは運用形態に応じて増やすようにしても良い。この場合も、なりすまし判定部255では、各画像取得部で取得された画像から検出される顔の特徴情報を比較することにより、通行者がなりすましを行っているか否かを判定することが可能である。   In addition, the passer-by identification device 20 described in the second embodiment may increase the number of installed image acquisition units (cameras) according to the shape of the passage or the operation mode. Also in this case, the impersonation determination unit 255 can determine whether or not the passerby is impersonating by comparing the facial feature information detected from the images acquired by the respective image acquisition units. is there.

次に、第3の実施の形態について説明する。
図9は、第3の実施の形態に係る人物監視装置としての人物(通行者)認識装置30の構成例を概略的に示すものである。
Next, a third embodiment will be described.
FIG. 9 schematically shows a configuration example of a person (passerby) recognition apparatus 30 as a person monitoring apparatus according to the third embodiment.

図9に示す通行者認識装置30は、上記第1の実施の形態で説明した通行者認識装置10と同様に、顔照合機能を有する。本第3の実施の形態では、通行者認識装置30は、通行者を監視する監視装置として機能するものを想定する。たとえば、図9に示す通行者認識装置30は、通行者の顔を認識し、その認識結果を外部装置などへ通知する監視装置に適用される。但し、通行者認識装置30は、第1、第2の実施の形態で説明したような運用形態のアクセス制御装置に適用することも可能である。   The passer-by identification device 30 shown in FIG. 9 has a face matching function, similar to the passer-by identification device 10 described in the first embodiment. In the third embodiment, it is assumed that the passer-by identification device 30 functions as a monitoring device that monitors the passer-by. For example, the passer-by identification device 30 shown in FIG. 9 is applied to a monitoring device that recognizes the face of a passer-by and notifies the recognition result to an external device or the like. However, the passer-by identification device 30 can be applied to the access control device in the operation mode as described in the first and second embodiments.

上記通行者認識装置30は、図9に示すように、第1の画像取得部311、第2の画像取得部312、第1の人物検出部321、第2の人物検出部322、第1の顔検出部331、第2の顔検出部332、人物対応付け部340、分類部350、顔特徴管理部360、不審者リスト361、重要人物(VIP)リスト362、顔検索部370、出力部380および履歴管理部390などを有している。   As shown in FIG. 9, the passer-by identification device 30 includes a first image acquisition unit 311, a second image acquisition unit 312, a first person detection unit 321, a second person detection unit 322, Face detection unit 331, second face detection unit 332, person association unit 340, classification unit 350, face feature management unit 360, suspicious person list 361, important person (VIP) list 362, face search unit 370, output unit 380 And a history management unit 390 and the like.

なお、第1の画像取得部311、表示部311a、第2の画像取得部312、アクリル板312a、第1の人物検出部321、第2の人物検出部322、第1の顔検出部331、第2の顔検出部332、人物対応付け部340および履歴管理部390は、第1の実施の形態で説明した第1の画像取得部111、表示部111a、第2の画像取得部112、アクリル板112a、第1の人物検出部121、第2の人物検出部122、第1の顔検出部131、第2の顔検出部132、人物対応付け部140および履歴管理部190と同様な機能を有しているため、詳細な説明を省略するものとする。   In addition, the 1st image acquisition part 311, the display part 311a, the 2nd image acquisition part 312, the acrylic board 312a, the 1st person detection part 321, the 2nd person detection part 322, the 1st face detection part 331, The second face detection unit 332, the person association unit 340, and the history management unit 390 are the first image acquisition unit 111, the display unit 111a, the second image acquisition unit 112, and the acrylic described in the first embodiment. Functions similar to those of the board 112a, the first person detection unit 121, the second person detection unit 122, the first face detection unit 131, the second face detection unit 132, the person association unit 140, and the history management unit 190 Since it has, detailed description shall be abbreviate | omitted.

第1の画像取得部311は、第1の画像取得部111と同様に、通行者Mにカメラが認識され易いように設置されている。第2の画像取得部312は、第2の画像取得部112と同様に、通行者Mにカメラが認識され難いように設置されている。第1の画像取得部311および第2の画像取得部312は、第1の画像取得部111および第2の画像取得部112と同様な設置例が想定可能である。但し、第1の画像取得部311および第2の画像取得部312は、たとえば、入口に接近する人物を撮影するだけではなく、入口付近を通行する通行者の顔を撮影するように設置される形態も可能である。なお、第1の画像取得部311および第2の画像取得部312の設置例については、後で詳細に説明する。   Similar to the first image acquisition unit 111, the first image acquisition unit 311 is installed so that the camera can be easily recognized by the passerby M. Similar to the second image acquisition unit 112, the second image acquisition unit 312 is installed so that the camera is difficult for the passerby M to recognize. The first image acquisition unit 311 and the second image acquisition unit 312 can be assumed to be installed similarly to the first image acquisition unit 111 and the second image acquisition unit 112. However, the first image acquisition unit 311 and the second image acquisition unit 312 are installed not only to photograph a person approaching the entrance, but also to photograph a face of a passerby passing near the entrance. Forms are also possible. An installation example of the first image acquisition unit 311 and the second image acquisition unit 312 will be described in detail later.

分類部350は、上記第1の実施の形態で説明した分類部150と同様に、人物対応付け部340で対応付けられた人物の状態(行動パターン)に基づいて各人物を分類する。分類部350は、たとえば、顔検出部331による顔の検出結果と顔検出部332による顔の検出結果とに基づいて各人物を幾つかのパターンに分類する。なお、第3の実施の形態としての分類例について後で詳細に説明するものとする。   Similar to the classification unit 150 described in the first embodiment, the classification unit 350 classifies each person based on the state (behavior pattern) of the person associated by the person association unit 340. For example, the classification unit 350 classifies each person into several patterns based on the face detection result by the face detection unit 331 and the face detection result by the face detection unit 332. A classification example as the third embodiment will be described in detail later.

顔特徴管理部360は、検索対象となる各人物の顔の特徴情報を含む登録者情報が記憶されている。さらに、顔特徴管理部360は、不審者リスト361およびVIPリスト362を有している。不審者リスト361は、不審者として登録されている人物の顔の特徴情報が記憶されている。VIPリスト362は、重要人物(VIP)として登録されている人物の顔の特徴情報が記憶されている。ただし、顔特徴管理部360には、不審者およびVIPをリストで分けずに、各人物(顔の特徴情報)に対する属性情報として不審者およびVIPを区別するようにしても良い。   The face feature management unit 360 stores registrant information including face feature information of each person to be searched. Further, the face feature management unit 360 has a suspicious person list 361 and a VIP list 362. The suspicious person list 361 stores facial feature information of a person registered as a suspicious person. The VIP list 362 stores facial feature information of persons registered as important persons (VIP). However, the facial feature management unit 360 may distinguish the suspicious person and the VIP as attribute information for each person (facial feature information) without separating the suspicious person and the VIP in a list.

顔検索部370は、通行者の顔の特徴情報との類似度が最大、かつ、検索用の閾値以上となる顔の特徴情報を顔特徴管理部360から検索する。ここで、顔検索部370は、通行者の顔の特徴情報との類似度が最大となる類似度が検索用の閾値以上であるか否かにより、通行者と最も類似する1人の人物を検索するものとする。ただし、顔検索部370は、類似度が検索用の閾値以上となる全ての人物を検索結果として得るようにしても良い。   The face search unit 370 searches the face feature management unit 360 for face feature information that has a maximum similarity to the passer's face feature information and that is equal to or greater than a search threshold. Here, the face search unit 370 determines one person who is most similar to the passerby depending on whether or not the similarity that maximizes the similarity with the feature information of the passer's face is equal to or greater than a search threshold. Shall be searched. However, the face search unit 370 may obtain all persons whose similarity is equal to or higher than the search threshold as search results.

すなわち、顔検索部370は、第1の顔検出部331あるいは第2の顔検出部332により検出された顔の特徴情報と顔特徴管理部360に記憶されている各顔の特徴情報との類似度を算出する。顔検索部370は、算出した類似度のうち最大類似度が検索用の閾値以上であるか否かを判定する。最大類似度が検索用の閾値以上であると判定した場合、顔検索部370は、通行者が最大類似度となった人物であると判定する(つまり、最大類似度となった人物を検索結果とする)。   That is, the face search unit 370 resembles the face feature information detected by the first face detection unit 331 or the second face detection unit 332 and the feature information of each face stored in the face feature management unit 360. Calculate the degree. The face search unit 370 determines whether or not the maximum similarity among the calculated similarities is equal to or greater than a search threshold. When it is determined that the maximum similarity is equal to or greater than the search threshold, the face search unit 370 determines that the passerby is the person who has the maximum similarity (that is, the person who has the maximum similarity is the search result). And).

ここで、上記顔検索部370による検索処理に用いられる検索用の閾値は、分類部350による分類結果に応じて調整される値である。また、VIPリスト362に対する検索用の閾値(VIPリスト362に記憶されている顔の特徴情報との類似度に対する検索用の閾値)、あるいは、不審者リスト361に対する検索用の閾値(不審者リスト361に記憶されている顔の特徴情報との類似度に対する検索用の閾値)は、選択的に調整可能である。たとえば、VIPリスト362に対する検索用の閾値が緩和されると、通行者と一致すると判定される人物がVIPリスト362から検索され易くなる。不審者リスト361に対する検索用の閾値が緩和されると、通行者と一致すると判定される人物が不審者リスト361から検索され易くなる。   Here, the search threshold value used in the search process by the face search unit 370 is a value adjusted according to the classification result by the classification unit 350. Further, a search threshold for the VIP list 362 (search threshold for similarity to the facial feature information stored in the VIP list 362) or a search threshold for the suspicious person list 361 (suspicious person list 361). The threshold value for search for the similarity to the facial feature information stored in (2) can be selectively adjusted. For example, when the search threshold for the VIP list 362 is relaxed, it is easier to search the VIP list 362 for a person who is determined to match the passerby. When the search threshold for the suspicious person list 361 is relaxed, it is easier to search the person who is determined to match the passerby from the suspicious person list 361.

出力部380は、上記顔検索部370による検索結果、あるいは、上記分類部350による分類結果などに応じた情報を監視装置などの外部装置へ出力する通信インターフェースとして機能する。この場合、出力部380は、顔検索部370による検索結果あるいは分類部350による分類結果を示す情報として、第1、第2のカメラで撮影した映像などの画像情報あるいは警報などの音声情報を監視装置へ出力する。これにより、監視装置により監視を行っている管理者は、上記検索結果および分類結果などをリアルタイムで確認することが可能となる。   The output unit 380 functions as a communication interface that outputs information according to the search result by the face search unit 370 or the classification result by the classification unit 350 to an external device such as a monitoring device. In this case, the output unit 380 monitors image information such as images captured by the first and second cameras or audio information such as an alarm as information indicating the search result by the face search unit 370 or the classification result by the classification unit 350. Output to the device. Thereby, the administrator who is monitoring by the monitoring device can confirm the search result and the classification result in real time.

また、出力部380は、表示部311aに検索結果あるいは警告を表示したり、図示しないスピーカにより警報を発するようにしても良い。これにより、通行者自身が、上記検索結果および分類結果などをリアルタイムで認識することが可能となる。   The output unit 380 may display a search result or a warning on the display unit 311a, or may issue a warning through a speaker (not shown). Thereby, the passerby can recognize the search result and the classification result in real time.

次に、第3の実施の形態としての第1の画像取得部311および第2の画像取得部312の設置例について説明する。   Next, an installation example of the first image acquisition unit 311 and the second image acquisition unit 312 as the third embodiment will be described.

図10および図11は、第1の画像取得部311と第2の画像取得部312の設置例を示す図である。   FIGS. 10 and 11 are diagrams illustrating an installation example of the first image acquisition unit 311 and the second image acquisition unit 312.

図10では、途中にゲートG3が設けられている直線状の通路P3と、通路P3における第1の画像取得部311および第2の画像取得部312の設置例を示している。図10に示す例では、図10中に点線の矢印で示すa方向に対して、第1の画像取得部311のカメラ(第1のカメラ)はゲートG3の手前に設けられ、第2の画像取得部312のカメラ(第2のカメラ)はゲートG3を過ぎた場所に設けられている。   FIG. 10 shows an installation example of the linear passage P3 in which the gate G3 is provided in the middle, and the first image acquisition unit 311 and the second image acquisition unit 312 in the passage P3. In the example shown in FIG. 10, the camera (first camera) of the first image acquisition unit 311 is provided in front of the gate G3 in the a direction indicated by the dotted arrow in FIG. The camera (second camera) of the acquisition unit 312 is provided at a location past the gate G3.

すなわち、図10に示す例では、第1のカメラは、ゲートG3に接近してくる通行者の顔を撮影するように設置される。また、第1のカメラの近傍には、通行者に対する案内などを表示する表示部311aが設置されている。これにより、ゲートG3に接近する通行者は、第1のカメラを意識したり、表示部311aに表示されている案内を目視したりする。つまり、第1のカメラは、当該第1のカメラを意識しつつゲートG3に接近してくる通行者の顔が撮影され易いようになっている。   That is, in the example shown in FIG. 10, the first camera is installed so as to photograph the face of a passerby approaching the gate G3. In addition, a display unit 311a for displaying guidance for passers-by is provided in the vicinity of the first camera. As a result, a passerby approaching the gate G3 is aware of the first camera or visually observes the guidance displayed on the display unit 311a. That is, the first camera can easily photograph the face of a passerby approaching the gate G3 while being conscious of the first camera.

第2のカメラは、ゲートG3を通過した通行者の顔を撮影するように設置されている。また、第2のカメラは、アクリル板312aにより隠されている。これにより、ゲートG3を通過した通行者は、第2のカメラを意識することなく通路P3を通行する。つまり、第2のカメラには、当該第2のカメラを意識していない通行者が撮影されるようになっている。   The second camera is installed so as to photograph the face of a passerby who has passed through the gate G3. The second camera is hidden by the acrylic plate 312a. Thereby, the passerby who passed gate G3 passes passage P3, without being conscious of the 2nd camera. That is, a passerby who is not conscious of the second camera is photographed by the second camera.

図11では、途中にゲートG4が設けられている直線状の通路P4と、通路P4における第1の画像取得部311および第2の画像取得部312の設置例を示している。   FIG. 11 shows a linear path P4 in which a gate G4 is provided in the middle, and an installation example of the first image acquisition unit 311 and the second image acquisition unit 312 in the path P4.

図11に示す例では、第1の画像取得部311のカメラ(第1のカメラ)は、図11に示すa方向に対してゲートG4の手前に設けられ、第2の画像取得部312のカメラ(第2のカメラ)は、図11に示すa方向とは逆のb方向に対して、ゲートG4の手前に設けられている。   In the example shown in FIG. 11, the camera (first camera) of the first image acquisition unit 311 is provided in front of the gate G4 with respect to the direction a shown in FIG. The (second camera) is provided in front of the gate G4 in the b direction opposite to the a direction shown in FIG.

すなわち、第1のカメラは、ゲートG4にa方向から接近してくる通行者の顔を撮影するように設置される。また、第1のカメラの近傍には、通行者に対する案内などを表示する表示部311aが設置されている。これにより、ゲートG4にa方向から接近する通行者は、第1のカメラを意識したり、表示部311aに表示されている案内を目視したりする。つまり、第1のカメラは、ゲートG4に向かって、当該第1のカメラを意識しつつa方向から接近する通行者が撮影され易いようになっている。   That is, the first camera is installed so as to photograph the face of a passerby approaching the gate G4 from the direction a. In addition, a display unit 311a for displaying guidance for passers-by is provided in the vicinity of the first camera. As a result, a passerby who approaches the gate G4 from the direction a is aware of the first camera or visually observes the guidance displayed on the display unit 311a. In other words, the first camera can easily photograph a passerby approaching from the a direction toward the gate G4 while being conscious of the first camera.

また、第2のカメラは、ゲートG4にa方向とは逆のb方向から接近してくる通行者の顔を撮影するように設置される。また、第2のカメラは、アクリル板312aにより隠されている。これにより、ゲートG4にb方向から接近してくる通行者は、第2のカメラを意識することなく通路P4を通行する。つまり、第2のカメラには、a方向とは逆方向からゲートG4に接近してくる、当該第2のカメラを意識していない通行者が撮影されるようになっている。   The second camera is installed so as to photograph the face of a passerby approaching the gate G4 from the b direction opposite to the a direction. The second camera is hidden by the acrylic plate 312a. Thereby, the passerby who approaches the gate G4 from the direction b passes through the passage P4 without being aware of the second camera. That is, a passerby who is approaching the gate G4 from the direction opposite to the direction a and is not aware of the second camera is photographed by the second camera.

上述した設置例のように、第3の実施の形態としての通行者認識装置30では、運用形態などに応じて様々な設置方法で第1のカメラと第2のカメラとを設置可能である。すなわち、通行者認識装置30は、通行者を監視することを想定しているため、通行者を撮影できる位置であれば、第1および第2のカメラは、様々な場所に設置可能である。   As in the installation example described above, in the passer-by identification apparatus 30 as the third embodiment, the first camera and the second camera can be installed by various installation methods depending on the operation mode and the like. That is, since the passer-by identification device 30 is supposed to monitor a passer-by, the first and second cameras can be installed at various locations as long as the passer-by can be photographed.

次に、分類部350による各人物の分類方法について説明する。
分類部350では、第1の実施の形態と同様に、たとえば、第1の顔検出部331および第2の顔検出部332による顔の検出結果に基づいて各人物を分類する。各人物をどのように分類し、それらの分類結果に応じてどのような処理を行うかは、当該通行者認識装置の設置状況、システム全体の運用形態、あるいは、セキュリティポリシーなどに応じて適宜設定されるものである。すなわち、分類部350は、予め設定される分類基準に従って各人物を分類する。
Next, a method for classifying each person by the classification unit 350 will be described.
As in the first embodiment, the classification unit 350 classifies each person based on the face detection results by the first face detection unit 331 and the second face detection unit 332, for example. How to classify each person and what kind of processing to perform according to the classification result is set appropriately according to the installation status of the passer-by identification device, the overall system operation mode, security policy, etc. It is what is done. That is, the classification unit 350 classifies each person according to a preset classification standard.

図12は、第3の実施の形態としての分類部350による各人物に対する分類基準の例を示す図である。
ここでは、第1の画像取得部311のカメラ(以下、第1カメラとも称する)が通行者に認識され易いように設置され、第2の画像取得部312のカメラ(以下、第2カメラとも称する)が通行者に認識され難いように設置されているものとする。
FIG. 12 is a diagram illustrating an example of classification criteria for each person by the classification unit 350 according to the third embodiment.
Here, the camera of the first image acquisition unit 311 (hereinafter also referred to as the first camera) is installed so as to be easily recognized by passers-by, and the camera of the second image acquisition unit 312 (hereinafter also referred to as the second camera). ) Is installed in such a way that it is difficult for a passer-by to recognize it.

図12に示す「No.3」および「No.4」によれば、第1の画像取得部311により取得した画像から人物の顔が検出できなかった場合、つまり、人物検出部321により検出された人物の顔が顔検出部331で検出できなかった場合(第1のカメラの画像:顔検出NG)、分類部350は、当該人物が不審者らしい人物であると分類する。このような分類は、意図的に第1のカメラに顔が撮影されないようにしている人物は不審者らしい人物であるという推測に基づいている。   According to “No. 3” and “No. 4” shown in FIG. 12, when a human face cannot be detected from the image acquired by the first image acquisition unit 311, that is, detected by the human detection unit 321. If the face detection unit 331 cannot detect the face of the person (first camera image: face detection NG), the classification unit 350 classifies the person as a person who seems to be a suspicious person. Such classification is based on the assumption that the person who intentionally prevents the first camera from taking a face is a person who seems to be a suspicious person.

また、図12に示す「No.4」によれば、第1の画像取得部311により取得した画像から検出された人物の顔が検出できず、かつ、第2の画像取得部312により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できなかった場合(第1のカメラの画像:顔検出NG、かつ、第2のカメラの画像:顔検出NG)、分類部350は、当該人物が全く顔が検出できなかった不審者らしい人物であると分類する。   In addition, according to “No. 4” illustrated in FIG. 12, a human face detected from the image acquired by the first image acquisition unit 311 cannot be detected, and the human face acquired by the second image acquisition unit 312 is acquired. When the face of the person associated with the person detected from the image cannot be detected (first camera image: face detection NG and second camera image: face detection NG), the classification unit 350 The person is classified as a person who seems to be a suspicious person whose face could not be detected at all.

この場合、分類部350は、出力部380により監視装置へ警報を出力させるとともに、履歴管理部390に不審者らしいと判定された人物の画像を含む履歴情報が記録させる。履歴管理部390に記録される履歴情報は、たとえば、判定結果、判定時刻および当該人物が検出された画像などである。なお、上記のように顔が全く検出できなかった人物については、後で顔画像を取得できれば、その顔画像から得られる顔の特徴情報とともに不審者リストに登録することも可能である。   In this case, the classification unit 350 causes the output unit 380 to output an alarm to the monitoring device, and causes the history management unit 390 to record history information including an image of a person determined to be a suspicious person. The history information recorded in the history management unit 390 is, for example, a determination result, a determination time, an image in which the person is detected, and the like. For a person whose face could not be detected as described above, if a face image can be acquired later, it can be registered in the suspicious person list together with facial feature information obtained from the face image.

また、図12に示す「No.3」によれば、第1の画像取得部311により取得した画像から人物の顔が検出できず、かつ、第2の画像取得部312により取得した画像から当該人物に対応付けられる人物の顔が検出できた場合(第1のカメラの画像:顔検出NG、かつ、第2のカメラの画像:顔検出OK)、分類部350は、当該人物が顔が検出できた不審者らしい人物であると分類する。   Further, according to “No. 3” illustrated in FIG. 12, a human face cannot be detected from the image acquired by the first image acquisition unit 311, and the image acquired by the second image acquisition unit 312 When the face of the person associated with the person can be detected (first camera image: face detection NG and second camera image: face detection OK), the classification unit 350 detects the face of the person. Classify the person as a suspicious person.

この場合、第2の画像取得部312により取得した画像から検出できた顔画像から得られる顔の特徴情報による顔検索が可能である。このため、図12に示す例では、処理内容として、不審者リスト361を重点的に顔検索し、その検索結果を出力するものと設定されている。すなわち、図12に示す「No.3」の場合、分類部350は、不審者リスト361を重点的に顔検索するために、不審者リスト361に対する検索用の閾値を所定の検索用の閾値よりも小さくする(閾値を緩和する)。これにより、顔検索部370による顔検索処理では、検索結果として、不審者リスト361に記憶されている不審者が抽出され易くなる。なお、図12に示す「No.3」の場合、分類部350は、VIPリスト362に対する検索用の閾値を所定の検索用の閾値よりも大きく(閾値を厳しく)するようにしても良い。この場合、検索結果としては、VIPリスト362に記憶されているVIPが抽出され難くなる。   In this case, face search based on face feature information obtained from the face image detected from the image acquired by the second image acquisition unit 312 is possible. For this reason, in the example illustrated in FIG. 12, the processing content is set to focus on the suspicious person list 361 and output the search result. That is, in the case of “No. 3” illustrated in FIG. 12, the classification unit 350 sets the search threshold for the suspicious person list 361 based on a predetermined search threshold in order to perform a face search mainly on the suspicious person list 361. Is also made smaller (the threshold is relaxed). Thereby, in the face search process by the face search unit 370, the suspicious person stored in the suspicious person list 361 is easily extracted as the search result. In the case of “No. 3” illustrated in FIG. 12, the classification unit 350 may make the search threshold for the VIP list 362 larger (stricter threshold) than the predetermined search threshold. In this case, it is difficult to extract VIPs stored in the VIP list 362 as search results.

また、不審者リスト361を重点的に顔検索する方法としては、不審者リスト361に記憶されている顔の特徴情報のみを検索対象として検索するようにしても良い。さらに、この場合も、分類部350は、不審者リスト361に対する検索用の閾値を所定の検索用の閾値よりも小さくする(閾値を緩和する)ようにしても良い。   Further, as a method of searching for a face with emphasis on the suspicious person list 361, only the face feature information stored in the suspicious person list 361 may be searched as a search target. Furthermore, also in this case, the classification unit 350 may make the search threshold for the suspicious person list 361 smaller (relax the threshold) than the predetermined search threshold.

また、図12に示す「No.1」および「No.2」によれば、第1の画像取得部311により取得した画像から検出された人物の顔が検出できた場合、つまり、人物検出部321により検出された人物の顔が顔検出部331で検出できた場合(第1のカメラの画像:顔検出OK)、分類部350は、当該人物が重量人物あるいは一般の通行者らしい人物であると分類する。   Further, according to “No. 1” and “No. 2” shown in FIG. 12, when a human face detected from the image acquired by the first image acquisition unit 311 can be detected, that is, the person detection unit When the face detected by the H.321 can be detected by the face detection unit 331 (first camera image: face detection OK), the classification unit 350 is a person who seems to be a heavy person or a general passerby. Classify as

また、図12に示す「No.2」によれば、第1の画像取得部311により取得した画像から検出された人物の顔が検出でき、かつ、第2の画像取得部312により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できなかった場合(第1のカメラの画像:顔検出OK、かつ、第2のカメラの画像:顔検出NG)、分類部350は、当該人物が一般の通行者らしい人物と分類する。この分類は、顔を隠す意図がない一般の通行者は、第2のカメラの設置位置を知らされていなければ、第1のカメラでは顔が撮影されるが、第2のカメラでは顔が撮影され難い(あるいは顔が撮影されることが不確定である)という推測に基づいている。   In addition, according to “No. 2” illustrated in FIG. 12, a human face detected from the image acquired by the first image acquisition unit 311 can be detected, and the image acquired by the second image acquisition unit 312 can be detected. When the face of the person associated with the person detected from the above cannot be detected (first camera image: face detection OK and second camera image: face detection NG), the classification unit 350 The person is classified as a person who seems to be a general passerby. In this classification, a general passerby who does not intend to hide the face is photographed with the first camera but is not photographed with the second camera unless the installation position of the second camera is informed. This is based on the assumption that it is difficult to do this (or that it is uncertain that the face is shot).

この場合、第1の画像取得部311により取得した画像から検出できた顔画像から得られる顔の特徴情報による顔検索が可能である。このため、図12に示す例では、処理内容として、各リスト(不審者リスト361およびVIPリスト362)を顔検索し、その検索結果を出力するものと設定されている。すなわち、図12に示す「No.2」の場合、分類部350は、各リストに記憶されている各顔の特徴情報を検索対象として、第1の画像取得部311により取得した画像から得られた顔の特徴情報との類似度が所定の検索用の閾値以上となるものを顔検索部370に検索させる。   In this case, face search based on facial feature information obtained from the face image detected from the image acquired by the first image acquisition unit 311 is possible. For this reason, in the example shown in FIG. 12, as the processing content, each list (suspicious person list 361 and VIP list 362) is searched for a face, and the search result is output. That is, in the case of “No. 2” illustrated in FIG. 12, the classification unit 350 is obtained from the image acquired by the first image acquisition unit 311 using the feature information of each face stored in each list as a search target. The face search unit 370 searches for a face whose similarity with the facial feature information is greater than or equal to a predetermined search threshold.

図12に示す「No.1」によれば、第1の画像取得部311により取得した画像から検出された人物の顔が検出でき、かつ、第2の画像取得部312により取得した画像からも当該人物の顔が検出できた場合(第1のカメラの画像:顔検出OK、かつ、第2のカメラの画像:顔検出OK)、分類部350は、当該人物が第2カメラの位置を知っている重要人物(VIP)らしい人物と分類する。   According to “No. 1” illustrated in FIG. 12, a human face detected from the image acquired by the first image acquisition unit 311 can be detected, and also from the image acquired by the second image acquisition unit 312. When the face of the person can be detected (first camera image: face detection OK and second camera image: face detection OK), the classification unit 350 knows the position of the second camera. It is classified as a person who seems to be an important person (VIP).

なお、ここで、重要人物には、予め第2のカメラの位置が知らされていること想定するものとする。すなわち、上記分類は、顔を隠す意図がなく、かつ、第2のカメラの設置位置を知らされている重要人物は、第1のカメラおよび第2のカメラで顔が撮影される可能性が高いという推測に基づいている。   Here, it is assumed that the important person is previously informed of the position of the second camera. That is, in the above classification, an important person who does not intend to hide the face and is informed of the installation position of the second camera is likely to photograph the face with the first camera and the second camera. Based on the guess.

この場合、図12に示す例では、処理内容として、VIPリスト362を重点的に顔検索し、その検索結果を出力するものと設定されている。すなわち、図12に示す「No.1」の場合、分類部350は、VIPリスト362を重点的に顔検索するために、VIPリスト362に対する検索用の閾値を所定の検索用の閾値よりも小さくする(閾値を緩和する)。これにより、顔検索部370による顔検索処理では、検索結果として、VIPリスト362に記憶されている重要人物が抽出され易くなる。   In this case, in the example shown in FIG. 12, the face search is focused on the VIP list 362 as the processing content, and the search result is output. That is, in the case of “No. 1” illustrated in FIG. 12, the classification unit 350 makes the search threshold for the VIP list 362 smaller than the predetermined search threshold in order to focus face search on the VIP list 362. (Reducing the threshold). Thereby, in the face search process by the face search unit 370, an important person stored in the VIP list 362 is easily extracted as a search result.

なお、図12に示す「No.1」の場合、分類部350は、不審者リスト361に対する検索用の閾値を所定の検索用の閾値よりも大きく(閾値を厳しく)するようにしても良い。この場合、顔検索の結果としては、不審者リスト361に記憶されている不審者が抽出され難くなる。   In the case of “No. 1” shown in FIG. 12, the classification unit 350 may make the search threshold for the suspicious person list 361 larger (stricter threshold) than the predetermined search threshold. In this case, as a result of the face search, it is difficult to extract suspicious persons stored in the suspicious person list 361.

また、VIPリスト362を重点的に顔検索する方法としては、VIPリスト362に記憶されている顔の特徴情報のみを検索対象として検索するようにしても良い。さらに、この場合も、分類部350は、VIPリスト362に対する顔検索に用いられる検索用の閾値を所定の検索用の閾値よりも小さくする(閾値を緩和する)ようにしても良い。   In addition, as a method of searching for a face focusing on the VIP list 362, only the face feature information stored in the VIP list 362 may be searched as a search target. Furthermore, also in this case, the classification unit 350 may make the search threshold used for the face search for the VIP list 362 smaller than the predetermined search threshold (relax the threshold).

上記のように、図12に示す例では、第1のカメラあるいは第2のカメラで撮影した画像から検出された顔の特徴情報に対する顔検索処理は、第1のカメラで撮影された画像からの顔の検出結果と第2のカメラで撮影された画像からの顔の検出結果に基づいて、重点的に検索(たとえば、検索用の閾値を緩和して検索)するリストが選択されるようになっている。つまり、図12に示す例では、第1のカメラで撮影された画像からの顔の検出結果と第2のカメラで撮影された画像からの顔の検出結果に基づいて、各リストに対する検索用の閾値を調整するように設定されている。これにより、通行者の状態(第1、第2のカメラに対する顔の向け方)に応じた効率的な顔検索処理および人物監視処理が実現できる。   As described above, in the example illustrated in FIG. 12, the face search process for the facial feature information detected from the image captured by the first camera or the second camera is performed from the image captured by the first camera. Based on the detection result of the face and the detection result of the face from the image taken by the second camera, a list to be intensively searched (for example, search by reducing the search threshold) is selected. ing. That is, in the example shown in FIG. 12, search for each list is performed based on the face detection result from the image captured by the first camera and the face detection result from the image captured by the second camera. It is set to adjust the threshold value. Thereby, efficient face search processing and person monitoring processing according to the state of the passerby (the direction of the face toward the first and second cameras) can be realized.

なお、上記のような設定(各人物の分類方法)は、システムの運用形態、第2のカメラの設置状況あるいは第2のカメラの秘匿性などに応じて適宜設定されるできものである。これは、第1、第2のカメラで撮影される通行者の状態が通行者のシステムの運用形態、第2のカメラの設置状況あるいは第2のカメラの秘匿性などによって異なると推測されるためである。たとえば、第2のカメラが一般的な歩行状態の通行者の顔を撮影し易い状態であるか否か、あるいは、第2のカメラが通行者に発見され易いか否かなどによって、第2のカメラで顔が撮影される通行者に対する分類が異なると推測される。   Note that the above settings (classification method for each person) can be set as appropriate according to the system operation mode, the installation status of the second camera, the secrecy of the second camera, and the like. This is because it is presumed that the state of the passerby photographed by the first and second cameras differs depending on the operation mode of the passer's system, the installation status of the second camera, the secrecy of the second camera, and the like. It is. For example, whether the second camera is in a state where it is easy to capture the face of a passerby in a general walking state, or whether the second camera is easily found by a passer-by, or the like, It is estimated that the classification for passers-by whose faces are photographed by the camera is different.

次に、第3の実施の形態としての通行者認識装置30の動作例について説明する。
図13は、通行者認識装置30の動作例を説明するためのフローチャートである。図13に示す動作では、図12に示すような分類および処理内容が予め設定されている場合を想定するものとする。なお、図13に示すフローチャートのステップS301〜S308及びS312は、図5に示すフローチャートのステップS101〜S108及びS112と同様な処理で実現可能であるため、詳細な説明を省略する。
Next, an operation example of the passer-by identification device 30 as the third embodiment will be described.
FIG. 13 is a flowchart for explaining an operation example of the passer-by identification device 30. In the operation illustrated in FIG. 13, it is assumed that the classification and processing content illustrated in FIG. 12 are set in advance. Note that steps S301 to S308 and S312 of the flowchart shown in FIG. 13 can be realized by the same processing as steps S101 to S108 and S112 of the flowchart shown in FIG.

すなわち、第1のカメラおよび第2のカメラで撮影された画像(人物の画像)から顔が検出できなった場合(ステップS307でNO、かつ、ステップS308でNO)、分類部350は、図12に示す分類に基づいて、当該人物が顔が検出できなかった不審者らしい人物であると分類する。このような分類に応じて、分類部350は、処理内容が、当該人物に関する履歴情報を記録し、顔が検出できない不審者らしい人物が検出された旨の警報を監視装置へ出力するものと判断する。   That is, when a face cannot be detected from images (person images) taken by the first camera and the second camera (NO in step S307 and NO in step S308), the classification unit 350 performs the process shown in FIG. The person is classified as a person who seems to be a suspicious person whose face could not be detected. In response to such classification, the classification unit 350 determines that the processing content records history information about the person and outputs an alarm to the monitoring device that a person who seems to be a suspicious person whose face cannot be detected is detected. To do.

この場合、履歴管理部390は、当該顔が検出できなかった不審者らしい人物に関する履歴情報として、当該人物が検出された日時、当該人物に対する判定結果、当該人物が検出された画像など記録する(ステップS309)。これと共に、出力部380は、顔が検出できない不審者らしい人物が検出された旨を警報として監視装置へ出力する(ステップS310)。この際、出力部380は、表示部311aあるいは図示しないスピーカにより「顔が確認できない」あるいは「顔を隠さないでください」などの警告を出力するようにしても良い。   In this case, the history management unit 390 records the date and time when the person was detected, the determination result for the person, the image where the person was detected, and the like as the history information regarding the person who seems to be a suspicious person whose face could not be detected ( Step S309). At the same time, the output unit 380 outputs a warning to the monitoring device that a suspicious person whose face cannot be detected has been detected (step S310). At this time, the output unit 380 may output a warning such as “Cannot confirm face” or “Do not hide face” from the display unit 311a or a speaker (not shown).

また、上記第1のカメラで撮影された画像から顔が検出されず、第2のカメラで撮影された画像(人物の画像)から顔が検出された場合(ステップS307でNO、かつ、ステップS308でYES)、分類部350は、図12に示す分類に基づいて、当該人物が顔が検出できた不審者らしい人物であると分類する。このような分類に応じて、分類部350は、処理内容が、不審者リスト361を重点的に顔検索し、その検索結果を出力するものと判断する。ここで、分類部350は、不審者リスト361を重点的に顔検索するために、不審者リスト361に対する検索用の閾値を緩和する(ステップS311)。なお、この場合、分類部350は、VIPリスト362に対する検索用の閾値を厳しくするようにしても良い。また、分類部350は、不審者リスト361のみを検索対象とするようにしても良い。   Further, when a face is not detected from the image captured by the first camera and a face is detected from an image (person image) captured by the second camera (NO in step S307 and step S308). Based on the classification shown in FIG. 12, the classification unit 350 classifies the person as a person who seems to be a suspicious person whose face could be detected. In accordance with such classification, the classification unit 350 determines that the processing content is focused on the suspicious person list 361 and the search result is output. Here, the classification unit 350 relaxes a search threshold for the suspicious person list 361 in order to perform a face search mainly on the suspicious person list 361 (step S311). In this case, the classification unit 350 may tighten the search threshold for the VIP list 362. In addition, the classification unit 350 may search only the suspicious person list 361.

この場合、顔検索部370は、顔検索処理として、第2の画像取得部312により取得した画像から検出された顔の特徴情報と不審者リスト361に記憶されている顔の特徴情報との類似度し、各類似度と緩和された検索用の閾値と比較する(ステップS314)。これにより、顔検索部370は、類似度が緩和された検索用の閾値以上となった不審者を検索結果として出力部380へ供給する。   In this case, the face search unit 370 performs similarity between the face feature information detected from the image acquired by the second image acquisition unit 312 and the face feature information stored in the suspicious person list 361 as the face search process. Each similarity is compared with the relaxed search threshold (step S314). As a result, the face search unit 370 supplies the suspicious person whose similarity is equal to or higher than the search threshold with the similarity reduced to the output unit 380 as a search result.

このような顔検索処理の検索結果を受けた出力部380は、当該検索結果を監視装置へ出力する(ステップS316)。この検索結果には、たとえば、当該人物の顔が検出された画像、および、類似度が緩和された検索用の閾値以上となった不審者を示す情報などが含まれる。この際、出力部380は、表示部311aあるいは図示しないスピーカにより「(第1のカメラで)顔が確認できない」あるいは「顔を隠さないでください」などの警告を出力するようにしても良い。   The output unit 380 that has received the search result of such face search processing outputs the search result to the monitoring device (step S316). This search result includes, for example, an image in which the person's face is detected, information indicating a suspicious person whose similarity is less than or equal to a search threshold, and the like. At this time, the output unit 380 may output a warning such as “Can't confirm face with (first camera)” or “Do not hide face” by display unit 311a or a speaker (not shown).

上記第1のカメラで撮影された画像から顔が検出され、かつ、第2のカメラで撮影された画像(人物の画像)からも同一人物の顔が検出された場合(ステップS307でYES、かつ、ステップS312でYES)、分類部350は、図12に示す分類に基づいて、当該人物が第2のカメラの存在を知っている重要人物であると分類する。このような分類に応じて、分類部350は、処理内容が、VIPリスト362を重点的に顔検索し、その検索結果を出力するものと判断する。ここで、分類部350は、VIPリスト362を重点的に顔検索するために、VIPリスト362に対する検索用の閾値を緩和する(ステップS313)。なお、この場合、分類部350は、不審者リスト361に対する検索用の閾値を厳しくするようにしても良い。また、分類部350は、VIPリスト362のみを検索対象とするようにしても良い。   When a face is detected from the image captured by the first camera and a face of the same person is detected from an image (person image) captured by the second camera (YES in step S307), and Based on the classification shown in FIG. 12, the classification unit 350 classifies the person as an important person who knows the presence of the second camera. In accordance with such classification, the classification unit 350 determines that the processing content is a face search focusing on the VIP list 362 and outputs the search result. Here, the classification unit 350 relaxes a search threshold for the VIP list 362 in order to search for a face in the VIP list 362 (step S313). In this case, the classification unit 350 may tighten the search threshold for the suspicious person list 361. Further, the classification unit 350 may search only the VIP list 362.

この場合、顔検索部370は、顔検索処理として、第1の画像取得部311あるいは第2の画像取得部312により取得した画像から検出された顔の特徴情報とVIPリスト362に記憶されている顔の特徴情報との類似度し、各類似度と緩和された検索用の閾値と比較する(ステップS314)。これにより、顔検索部370は、類似度が緩和された検索用の閾値以上となったVIPを検索結果として出力部380へ供給する。   In this case, the face search unit 370 stores the face feature information detected from the image acquired by the first image acquisition unit 311 or the second image acquisition unit 312 and the VIP list 362 as the face search process. The similarity with the facial feature information is compared, and each similarity is compared with the relaxed search threshold (step S314). As a result, the face search unit 370 supplies, to the output unit 380, a VIP whose search level is equal to or higher than the search threshold with the similarity reduced.

このような顔検索処理の検索結果を受けた出力部380は、当該検索結果を監視装置へ出力する(ステップS316)。この検索結果には、たとえば、当該人物の顔が検出された画像、および、類似度が緩和された検索用の閾値以上となったVIPを示す情報などが含まれる。この際、出力部380は、表示部311aあるいは図示しないスピーカにより「(第1のカメラで)顔が確認できた」あるいは「閾値以上となったVIPに対応する案内情報」などの案内を出力するようにしても良い。   The output unit 380 that has received the search result of such face search processing outputs the search result to the monitoring device (step S316). This search result includes, for example, an image in which the face of the person is detected, information indicating a VIP whose similarity is less than or equal to a search threshold value, and the like. At this time, the output unit 380 outputs guidance such as “a face can be confirmed (by the first camera)” or “guidance information corresponding to a VIP that is equal to or greater than the threshold” by the display unit 311a or a speaker (not shown). You may do it.

また、上記第1のカメラで撮影された画像から顔が検出され、かつ、第2のカメラで撮影された画像(人物の画像)からは同一人物の顔が検出されなかった場合(ステップS307でYES、かつ、ステップS312でNO)、分類部350は、図12に示す分類に基づいて、当該人物が一般の通行者であると分類する。このような分類に応じて、分類部350は、処理内容が、各リスト(不審者リスト361およびVIPリスト362)を顔検索し、その検索結果を出力するものと判断する。   Further, when a face is detected from the image captured by the first camera and a face of the same person is not detected from the image captured by the second camera (person image) (in step S307). YES and NO in step S312), classification unit 350 classifies the person as a general passer-by based on the classification shown in FIG. In accordance with such classification, the classification unit 350 determines that the processing content is a face search for each list (suspicious person list 361 and VIP list 362) and outputs the search result.

この場合、顔検索部370は、顔検索処理として、第1の画像取得部311により取得した画像から検出された顔の特徴情報と各リストに記憶されている顔の特徴情報との類似度を算出し、各類似度と所定の検索用の閾値とを比較する(ステップS314)。これにより、顔検索部370は、類似度が検索用の閾値以上となった人物を検索結果として出力部380へ供給する。   In this case, as the face search process, the face search unit 370 calculates the similarity between the face feature information detected from the image acquired by the first image acquisition unit 311 and the face feature information stored in each list. Each similarity is calculated and compared with a predetermined search threshold (step S314). Thereby, the face search unit 370 supplies a person whose similarity is equal to or higher than the search threshold to the output unit 380 as a search result.

このような顔検索処理の検索結果を受けた出力部380は、当該検索結果を監視装置へ出力する(ステップS316)。この検索結果には、たとえば、当該人物の顔が検出された画像、および、類似度が所定の検索用の閾値以上となった人物を示す情報などが含まれる。この際、出力部380は、表示部311aあるいは図示しないスピーカにより「(第1のカメラで)顔が確認できた」あるいは「閾値以上となった人物を示す情報」などの案内を出力するようにしても良い。ただし、検索結果として不審者リスト361に記憶される不審者が検出された場合、出力部380は、当該人物に対する警戒を促すため、警報などを発するようにしても良い。   The output unit 380 that has received the search result of such face search processing outputs the search result to the monitoring device (step S316). This search result includes, for example, an image in which the face of the person is detected, information indicating a person whose similarity is equal to or higher than a predetermined search threshold, and the like. At this time, the output unit 380 outputs guidance such as “the face can be confirmed (by the first camera)” or “information indicating a person who has exceeded the threshold” by the display unit 311a or a speaker (not shown). May be. However, when a suspicious person stored in the suspicious person list 361 is detected as a search result, the output unit 380 may issue an alarm or the like to urge the person to be alert.

上記のように、第3の実施の形態としての通行者認識装置では、通行者に認識され易いように設置したカメラで撮影した画像からの顔の検出結果と通行者に認識され難いように設置したカメラで撮影した画像からの顔の検出結果とに基づいて、通行者を分類し、それらの分類に応じた顔検索処理あるいは監視処理を行うようにしたものである。これにより、各カメラで撮影された人物の状態から推測される通行者の行動に応じた効率的な人物監視処理が可能となる。   As described above, in the passer-by identification apparatus as the third embodiment, the face detection result from the image taken by the camera installed so that the passer-by is easily recognized and the passer-by identification are not easily recognized. A passer is classified based on a face detection result from an image photographed by the camera, and face search processing or monitoring processing is performed according to the classification. Thereby, an efficient person monitoring process according to a passer's action presumed from the state of the person imaged with each camera is attained.

なお、上記第3の実施の形態では、上記2種類の画像取得部111,112を1台ずつ設置することを前提に説明した。しかしながら、画像取得部(カメラ)は、監視するエリアの状況あるいは運用形態に応じて設置台数を増やすようにしても良い。この場合、人物対応付け部340では、設置された画像取得部(カメラ)の数に応じて対応付け処理を増やすことで対応することが可能である。   Note that the third embodiment has been described on the assumption that the two types of image acquisition units 111 and 112 are installed one by one. However, the image acquisition unit (camera) may increase the number of installed units according to the situation of the area to be monitored or the operation mode. In this case, the person association unit 340 can cope with this by increasing the association processing according to the number of installed image acquisition units (cameras).

本発明の、第1の実施の形態に係る通行者認識装置の構成例を概略的に示すブロック図。1 is a block diagram schematically showing a configuration example of a passer-by identification device according to a first embodiment of the present invention. 第1の実施の形態としての第1の画像取得部および第2の画像取得部の設置例を説明するための模式図。The schematic diagram for demonstrating the example of installation of the 1st image acquisition part and 2nd image acquisition part as 1st Embodiment. 第1の実施の形態としての第1の画像取得部および第2の画像取得部の設置例を説明するための模式図。The schematic diagram for demonstrating the example of installation of the 1st image acquisition part and 2nd image acquisition part as 1st Embodiment. 第1の実施の形態に係る通行者の分類例を説明する図。The figure explaining the classification example of the passerby which concerns on 1st Embodiment. 第1の実施の形態に係る通行者認識装置における処理手順の例を説明するためのフローチャート。The flowchart for demonstrating the example of the process sequence in the passer-by identification apparatus which concerns on 1st Embodiment. 第2の実施の形態に係る通行者認識装置の構成例を概略的に示すブロック図。The block diagram which shows roughly the structural example of the passer-by identification apparatus which concerns on 2nd Embodiment. 第2の実施の形態に係る通行者の分類例を説明する図。The figure explaining the classification example of the passerby which concerns on 2nd Embodiment. 第2の実施の形態に係る通行者認識装置における処理手順の例を説明するためのフローチャート。The flowchart for demonstrating the example of the process sequence in the passer-by identification apparatus which concerns on 2nd Embodiment. 第3の実施の形態に係る通行者認識装置の構成例を概略的に示すブロック図。The block diagram which shows roughly the structural example of the passer-by identification apparatus which concerns on 3rd Embodiment. 第3の実施の形態としての第1の画像取得部および第2の画像取得部の設置例を説明するための模式図。The schematic diagram for demonstrating the example of installation of the 1st image acquisition part as a 3rd embodiment, and a 2nd image acquisition part. 第3の実施の形態としての第1の画像取得部および第2の画像取得部の設置例を説明するための模式図。The schematic diagram for demonstrating the example of installation of the 1st image acquisition part as a 3rd embodiment, and a 2nd image acquisition part. 第3の実施の形態に係る通行者の分類例を説明する図。The figure explaining the classification example of the passerby which concerns on 3rd Embodiment. 第3の実施の形態に係る通行者認識装置における処理手順の例を説明するためのフローチャート。The flowchart for demonstrating the example of the process sequence in the passer-by identification apparatus which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

10、20、30…人物認識装置(通行者認識装置)、111、211、311…第1の画像取得部、111a、211a、311a…表示部、112、212、312…第2の画像取得部、112a、212a、312a…アクリル板、121、221、」321…第1の人物検出部、122、222、322…第2の人物検出部、131、231、331…第1の顔検出部、132、232、332…第2の顔検出部、140a…補助検知部、150、250、350…分類部、160、260、360…顔特徴管理部、170、270…顔照合部、180、280…通行制御部、190、290…履歴管理部、255…判定部、361…不審者リスト、362…重要人物リスト、370…顔検索部、380…出力部、390…履歴管理部。   DESCRIPTION OF SYMBOLS 10, 20, 30 ... Person recognition apparatus (passerby recognition apparatus), 111, 211, 311 ... 1st image acquisition part, 111a, 211a, 311a ... Display part, 112, 212, 312 ... 2nd image acquisition part 112a, 212a, 312a ... acrylic plates, 121, 221, "321 ... first person detection unit, 122, 222, 322 ... second person detection unit, 131, 231, 331 ... first face detection unit, 132, 232, 332 ... second face detection unit, 140a ... auxiliary detection unit, 150, 250, 350 ... classification unit, 160, 260, 360 ... face feature management unit, 170, 270 ... face collation unit, 180, 280 ... traffic control unit, 190, 290 ... history management unit, 255 ... determination unit, 361 ... suspicious person list, 362 ... important person list, 370 ... face search unit, 380 ... output unit, 390 ... history management .

Claims (20)

顔画像により人物を認識する人物認識装置であって、
人物に認識され易い状態で設置された第1のカメラにより撮影された画像を取得する第1の画像取得部と、
人物に認識され難い状態で設置された第2のカメラにより撮影された画像を取得する第2の画像取得部と、
前記第1の画像取得部により取得した画像から人物の顔を検出する第1の顔検出部と、
前記第2の画像取得部により取得した画像から前記人物の顔を検出する第2の顔検出部と、
前記第1のカメラにより撮影された人物と前記第2のカメラにより撮影された人物とを対応付ける対応付け部と、
前記対応付け部による対応付けの結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づいて前記人物を分類する分類部と、
を有する。
A person recognition device for recognizing a person from a face image,
A first image acquisition unit that acquires an image captured by a first camera installed in a state that is easily recognized by a person;
A second image acquisition unit for acquiring an image taken by a second camera installed in a state that is difficult to be recognized by a person;
A first face detection unit for detecting a human face from the image acquired by the first image acquisition unit;
A second face detection unit for detecting the face of the person from the image acquired by the second image acquisition unit;
An associating unit for associating a person photographed by the first camera with a person photographed by the second camera;
A classification unit that classifies the person based on a result of association by the association unit, a face detection result by the first face detection unit, and a face detection result by the second face detection unit;
Have
前記分類部は、前記人物が不審者らしい人物か否かを判定する、
ことを特徴とする前記請求項1に記載の人物認識装置。
The classification unit determines whether the person is a suspicious person;
The person recognition apparatus according to claim 1, wherein:
前記分類部は、前記対応付け部により前記第2のカメラで撮影された人物と対応付けられる人物の顔が前記第1の顔検出部により検出されたか否かにより前記人物が不審者らしい人物か否かを判定する、
ことを特徴とする前記請求項2に記載の人物認識装置。
The classification unit determines whether the person is a suspicious person depending on whether the face of the person associated with the person photographed by the second camera by the association unit is detected by the first face detection unit. Determine whether or not
The person recognition apparatus according to claim 2, wherein:
さらに、登録者の顔画像を記憶するメモリと、
前記分類部により前記人物が不審者らしい人物でないと判定された場合、前記メモリに記憶されている登録者の顔画像と、前記第1の顔検出部により検出された前記人物の顔画像あるいは前記第2の顔検出部により検出された前記人物の顔画像との類似度が認証用の閾値以上であるか否かにより顔照合を行う顔照合部と、を有する、
ことを特徴とする前記請求項2に記載の人物認識装置。
Furthermore, a memory for storing the registrant's face image,
When the classification unit determines that the person is not a suspicious person, the face image of the registrant stored in the memory and the face image of the person detected by the first face detection unit or the A face matching unit that performs face matching based on whether the similarity with the face image of the person detected by the second face detection unit is equal to or higher than a threshold for authentication,
The person recognition apparatus according to claim 2, wherein:
さらに、登録者の顔画像を記憶するメモリと、
このメモリに記憶されている顔画像と前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が認証用の閾値以上であるか否かにより顔照合を行う顔照合部と、を有し、
前記分類部は、さらに、前記対応付け部により対応付け結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づく前記人物の分類に応じて前記顔照合部による顔照合に用いられる認証用の閾値を調整する、
ことを特徴とする前記請求項1に記載の人物認識装置。
Furthermore, a memory for storing the registrant's face image,
Face matching is performed based on whether the similarity between the face image stored in the memory and the face image detected by the first face detection unit or the second face detection unit is greater than or equal to an authentication threshold. A face matching unit to perform,
The classification unit is further adapted to classify the person based on the association result by the association unit, the face detection result by the first face detection unit, and the face detection result by the second face detection unit. Adjusting a threshold for authentication used for face matching by the face matching unit.
The person recognition apparatus according to claim 1, wherein:
前記分類部は、前記対応付け部により対応づけられる人物の顔が前記第1の顔検出部および前記第2の顔検出部で検出された場合に当該人物に対する認証用の閾値を緩和する、
ことを特徴とする前記請求項5に記載の人物認識装置。
The classification unit relaxes an authentication threshold for the person when the face of the person associated by the association unit is detected by the first face detection unit and the second face detection unit,
The person recognition apparatus according to claim 5, wherein:
さらに、前記対応付け部により対応づけられる人物に対する前記第1の顔検出部で検出された顔画像と前記第2の顔検出部で検出された顔画像とに基づいて当該人物がなりすましを行っているか否かを判定するなりすまし判定部を有する、
ことを特徴とする前記請求項1に記載の人物認識装置。
Further, the person impersonates the person associated by the association unit based on the face image detected by the first face detection unit and the face image detected by the second face detection unit. An impersonation determination unit that determines whether or not
The person recognition apparatus according to claim 1, wherein:
前記なりすまし判定部は、前記対応付け部により対応付けられる前記第1の顔検出部により検出された人物の顔画像と前記第2の顔検出部により検出された前記人物の顔画像とが同一人物らしくないと判定された場合に当該人物がなりすましを行っていると判定する、
ことを特徴とする前記請求項7に記載の人物認識装置。
The impersonation determination unit is configured such that the face image of the person detected by the first face detection unit associated with the association unit and the face image of the person detected by the second face detection unit are the same person It is determined that the person is impersonating when it is determined that
The person recognition apparatus according to claim 7, wherein:
さらに、各登録者の顔画像と分類を示す情報とを対応づけて記憶するメモリと、
前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が検索用の閾値以上である登録者の顔画像を前記メモリから検索する顔検索部と、を有し、
前記分類部は、前記対応付け部による対応付けの結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づく前記人物の分類に応じて前記顔検索部による検索に用いられる検索用の閾値を調整する、
ことを特徴とする前記請求項1に記載の人物認識装置。
Further, a memory for storing each registrant's face image and information indicating the classification in association with each other,
A face search unit that searches a face image of a registrant whose similarity with the face image detected by the first face detection unit or the second face detection unit is a search threshold or more from the memory. Have
The classification unit according to the classification of the person based on a result of association by the association unit, a face detection result by the first face detection unit, and a face detection result by the second face detection unit Adjusting a search threshold used for search by the face search unit;
The person recognition apparatus according to claim 1, wherein:
前記メモリには、不審者の顔画像を記憶し、
前記分類部は、前記対応付け部により対応付けられる前記第2の顔検出部により検出された人物の顔が前記第1の顔検出部により検出されなかった場合、前記不審者の顔画像に対する検索用の閾値を緩和し、
前記顔検索部は、前記第2の顔検出部により検出された顔画像との類似度が前記分類部により緩和された検索用の閾値以上である不審者の顔画像を検索する、
ことを特徴とする前記請求項9に記載の人物認識装置。
The memory stores a suspicious person's face image,
The classification unit searches for the suspicious person's face image when the face of the person detected by the second face detection unit associated by the association unit is not detected by the first face detection unit. Relax the threshold for
The face search unit searches for a face image of a suspicious person whose similarity with the face image detected by the second face detection unit is equal to or higher than a search threshold relaxed by the classification unit;
The person recognition apparatus according to claim 9, wherein:
前記メモリには、特定人物の顔画像を記憶し、
前記分類部は、前記対応付け部により対応付けられる人物の顔が前記第1の顔検出部および前記第2の顔検出部により検出された場合、前記特定人物の顔画像に対する検索用の閾値を緩和し、
前記顔検索部は、前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が前記分類部により緩和された検索用の閾値以上である特定人物の顔画像を検索する、
ことを特徴とする前記請求項9に記載の人物認識装置。
The memory stores a face image of a specific person,
The classification unit sets a search threshold for the face image of the specific person when the face of the person associated by the association unit is detected by the first face detection unit and the second face detection unit. Relax,
The face search unit includes a face of a specific person whose similarity to the face image detected by the first face detection unit or the second face detection unit is equal to or more than a search threshold that is relaxed by the classification unit. Search for images,
The person recognition apparatus according to claim 9, wherein:
さらに、各登録者の顔画像と分類を示す情報とを対応づけて記憶するメモリと、
前記分類部による前記人物の分類と一致する分類の登録者の顔画像を検索対象として、前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が検索用の閾値以上である登録者の顔画像を検索する顔検索部と、を有する、
ことを特徴とする前記請求項1に記載の人物認識装置。
Further, a memory for storing each registrant's face image and information indicating the classification in association with each other,
Using the face image of a registrant whose classification matches the classification of the person by the classification unit as a search target, the similarity with the face image detected by the first face detection unit or the second face detection unit is searched. A face search unit for searching for a registrant's face image that is equal to or greater than a threshold for use.
The person recognition apparatus according to claim 1, wherein:
前記メモリには、不審者の顔画像を記憶し、
前記分類部は、前記対応付け部により対応づけられる前記第2の顔検出部により検出された人物の顔が前記第1の顔検出部により顔が検出されなかった場合、前記人物を不審者として分類し、
前記顔検索部は、前記第1の顔検出部により顔が検出されなかった場合、不審者の顔画像を検索対象として、前記第2の顔検出部により検出された顔画像との類似度が検索用の閾値以上である顔画像を検索する、
ことを特徴とする前記請求項12に記載の人物認識装置。
The memory stores a suspicious person's face image,
The classification unit sets the person as a suspicious person when the face of the person detected by the second face detection unit associated with the association unit is not detected by the first face detection unit. Classify and
When the face is not detected by the first face detection unit, the face search unit sets the similarity to the face image detected by the second face detection unit with the face image of the suspicious person as a search target. Search for face images that are greater than or equal to the search threshold,
The person recognition apparatus according to claim 12, wherein:
前記メモリには、特定人物の顔画像を記憶し、
前記分類部は、前記対応付け部により対応付けられる人物の顔が前記第1の顔検出部および前記第2の顔検出部により検出された場合、前記人物を特定人物として分類し、
前記顔検索部は、前記メモリに記憶されている特定人物の顔画像を検索対象として、前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が検索用の閾値以上である顔画像を検索する、
ことを特徴とする前記請求項12に記載の人物認識装置。
The memory stores a face image of a specific person,
The classification unit classifies the person as a specific person when the face of the person associated by the association unit is detected by the first face detection unit and the second face detection unit,
The face search unit searches a face image of a specific person stored in the memory as a search target, and searches for a similarity to the face image detected by the first face detection unit or the second face detection unit. Search for face images that are above the threshold for
The person recognition apparatus according to claim 12, wherein:
顔画像により人物を認識する人物認識装置に用いられる人物認識方法であって、
人物に認識され易い状態で設置された第1のカメラで撮影された画像を取得し、
人物に認識され難い状態で設置された第2のカメラで撮影された画像を取得し、
前記第1のカメラで撮影された画像から人物の顔を検出し、
前記第2のカメラで撮影された画像から前記人物の顔を検出し、
前記第1のカメラにより撮影された人物と前記第2のカメラにより撮影された人物とを対応付け、
前記対応付けの結果と前記第1のカメラで撮影された画像からの顔の検出結果と前記第2のカメラで撮影された画像からの顔の検出結果とに基づいて前記人物を分類する、
ことを特徴とする人物認識方法。
A person recognition method used in a person recognition device for recognizing a person from a face image,
Obtain an image taken with a first camera installed in a state that is easily recognized by a person,
Acquire an image taken with a second camera installed in a state that is difficult for humans to recognize,
Detecting a human face from an image taken by the first camera;
Detecting the face of the person from an image taken by the second camera;
Associating a person photographed by the first camera with a person photographed by the second camera;
Classifying the person based on a result of the association, a face detection result from an image taken by the first camera, and a face detection result from an image taken by the second camera;
A person recognition method characterized by the above.
前記分類することは、前記対応付けにより対応付けられる前記第2のカメラで撮影された画像から検出された人物の顔が前記第1のカメラで撮影された画像から検出されたか否かにより前記人物を不審者として分類するか否かを判定する、
ことを特徴とする前記請求項15に記載の人物認識方法。
The classification is based on whether or not the face of a person detected from an image captured by the second camera associated with the association is detected from an image captured by the first camera. Whether to classify as a suspicious person,
The person recognition method according to claim 15, wherein:
さらに、前記対応付けの結果と前記第1のカメラで撮影された画像からの顔の検出結果と前記第2のカメラで撮影された画像からの顔の検出結果とに基づく前記人物の分類に応じて顔照合に用いられる認証用の閾値を調整し、
メモリに記憶されている登録者の顔画像と、前記第1のカメラで撮影された画像から検出された顔画像あるいは前記第2のカメラで撮影された画像から検出された顔画像との類似度が、前記調整された認証用の閾値以上であるか否かにより顔照合を行う、
ことを特徴とする前記請求項15に記載の人物認識方法。
Furthermore, according to the classification of the person based on the result of the association, the detection result of the face from the image captured by the first camera, and the detection result of the face from the image captured by the second camera Adjust the threshold for authentication used for face matching,
The degree of similarity between the face image of the registrant stored in the memory and the face image detected from the image taken with the first camera or the image taken with the second camera Face matching is performed based on whether or not is equal to or more than the adjusted authentication threshold value.
The person recognition method according to claim 15, wherein:
さらに、前記対応付けにより対応付けられる前記第1のカメラで撮影された画像から検出された前記人物の顔画像と前記第2のカメラで撮影された画像から検出された前記人物の顔画像とに基づいて、当該人物がなりすましを行っているか否かを判定する、
ことを特徴とする前記請求項15に記載の人物認識方法。
Furthermore, the person's face image detected from the image photographed by the first camera associated with the association and the person's face image detected from the image photographed by the second camera. To determine whether the person is impersonating,
The person recognition method according to claim 15, wherein:
さらに、前記対応付けの結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づく前記人物の分類に応じて顔検索に用いられる検索用の閾値を調整し、
前記第1のカメラで撮影された画像から検出された顔画像あるいは前記第2のカメラで撮影された画像から検出された顔画像との類似度が検索用の閾値以上である登録者の顔画像を、各登録者の顔画像と分類を示す情報とが対応づけられて記憶されているメモリから検索する、
ことを特徴とする前記請求項15に記載の人物認識方法。
Further, for search used for face search according to the classification of the person based on the association result, the face detection result by the first face detection unit, and the face detection result by the second face detection unit Adjust the threshold of
A face image of a registrant whose similarity with a face image detected from an image taken by the first camera or a face image detected from an image taken by the second camera is equal to or greater than a search threshold. Is searched from a memory in which each registrant's face image and information indicating the classification are stored in association with each other.
The person recognition method according to claim 15, wherein:
さらに、前記分類による前記人物の分類と一致する分類の登録者の顔画像を検索対象として、前記第1のカメラで撮影された画像から検出された顔画像あるいは前記第2のカメラで撮影された画像から検出された顔画像との類似度が検索用の閾値以上である登録者の顔画像を、各登録者の顔画像と分類を示す情報とが対応づけられて記憶されているメモリから検索する、
ことを特徴とする前記請求項15に記載の人物認識方法。
Further, a face image of a registrant whose classification matches the classification of the person according to the classification is used as a search target, and a face image detected from an image photographed by the first camera or photographed by the second camera. Search for a registrant's face image whose similarity with the detected face image is greater than or equal to the search threshold from a memory in which each registrant's face image is associated with information indicating the classification. To
The person recognition method according to claim 15, wherein:
JP2007249753A 2006-09-28 2007-09-26 Person recognition device and person recognition method Pending JP2008108243A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007249753A JP2008108243A (en) 2006-09-28 2007-09-26 Person recognition device and person recognition method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006265582 2006-09-28
JP2007249753A JP2008108243A (en) 2006-09-28 2007-09-26 Person recognition device and person recognition method

Publications (1)

Publication Number Publication Date
JP2008108243A true JP2008108243A (en) 2008-05-08

Family

ID=39441515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007249753A Pending JP2008108243A (en) 2006-09-28 2007-09-26 Person recognition device and person recognition method

Country Status (1)

Country Link
JP (1) JP2008108243A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176561A (en) * 2009-01-30 2010-08-12 Equos Research Co Ltd Security system
JP2010199903A (en) * 2009-02-25 2010-09-09 Casio Computer Co Ltd Imaging apparatus, method of specifying face area and program
WO2011132387A1 (en) * 2010-04-19 2011-10-27 パナソニック株式会社 Collating device
JP2012168477A (en) * 2011-02-16 2012-09-06 Nikon Corp Noise estimation device, signal processor, imaging apparatus, and program
JP2012212969A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Image monitoring apparatus
JP2015026317A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, control method, and program
KR101546137B1 (en) 2012-09-20 2015-08-20 가부시끼가이샤 도시바 Person recognizing device and method
JP2018005574A (en) * 2016-07-01 2018-01-11 キヤノン株式会社 Image processing device, control method and program of image processing device
JP2018128970A (en) * 2017-02-10 2018-08-16 株式会社テイパーズ Non-stop face authentication system
JP2019110474A (en) * 2017-12-19 2019-07-04 セコム株式会社 Suspicious person detection device
KR20190098656A (en) * 2018-02-14 2019-08-22 삼성전자주식회사 Method and device to verify liveness
CN110431560A (en) * 2017-11-28 2019-11-08 深圳市商汤科技有限公司 The searching method and device of target person, equipment, program product and medium
WO2020115890A1 (en) 2018-12-07 2020-06-11 日本電気株式会社 Information processing system, information processing device, information processing method, and program
WO2022024316A1 (en) * 2020-07-30 2022-02-03 日本電気株式会社 Authentication system, authentication device, authentication method, and computer program
JP2022031747A (en) * 2018-04-26 2022-02-22 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
JP7276494B2 (en) 2019-11-05 2023-05-18 日本電気株式会社 gate system
JP7298952B1 (en) 2022-02-28 2023-06-27 Necプラットフォームズ株式会社 Image determination device, traffic management device, and image determination method

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176561A (en) * 2009-01-30 2010-08-12 Equos Research Co Ltd Security system
JP2010199903A (en) * 2009-02-25 2010-09-09 Casio Computer Co Ltd Imaging apparatus, method of specifying face area and program
WO2011132387A1 (en) * 2010-04-19 2011-10-27 パナソニック株式会社 Collating device
JP2011227654A (en) * 2010-04-19 2011-11-10 Panasonic Corp Collation device
US9047505B2 (en) 2010-04-19 2015-06-02 Panasonic Intellectual Property Management Co., Ltd. Collating device
JP2012168477A (en) * 2011-02-16 2012-09-06 Nikon Corp Noise estimation device, signal processor, imaging apparatus, and program
JP2012212969A (en) * 2011-03-30 2012-11-01 Secom Co Ltd Image monitoring apparatus
KR101546137B1 (en) 2012-09-20 2015-08-20 가부시끼가이샤 도시바 Person recognizing device and method
JP2015026317A (en) * 2013-07-29 2015-02-05 オムロン株式会社 Programmable display apparatus, control method, and program
JP2018005574A (en) * 2016-07-01 2018-01-11 キヤノン株式会社 Image processing device, control method and program of image processing device
JP2018128970A (en) * 2017-02-10 2018-08-16 株式会社テイパーズ Non-stop face authentication system
CN110431560A (en) * 2017-11-28 2019-11-08 深圳市商汤科技有限公司 The searching method and device of target person, equipment, program product and medium
CN110431560B (en) * 2017-11-28 2023-12-19 深圳市商汤科技有限公司 Target person searching method, device, equipment and medium
JP2019110474A (en) * 2017-12-19 2019-07-04 セコム株式会社 Suspicious person detection device
JP7102137B2 (en) 2017-12-19 2022-07-19 セコム株式会社 Suspicious person detection device
KR20190098656A (en) * 2018-02-14 2019-08-22 삼성전자주식회사 Method and device to verify liveness
KR102483647B1 (en) * 2018-02-14 2023-01-03 삼성전자주식회사 Method and device to verify liveness
JP2022031747A (en) * 2018-04-26 2022-02-22 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, and program
WO2020115890A1 (en) 2018-12-07 2020-06-11 日本電気株式会社 Information processing system, information processing device, information processing method, and program
US11847848B2 (en) 2018-12-07 2023-12-19 Nec Corporation Information processing apparatus, information processing method, and program
JP7276494B2 (en) 2019-11-05 2023-05-18 日本電気株式会社 gate system
WO2022024316A1 (en) * 2020-07-30 2022-02-03 日本電気株式会社 Authentication system, authentication device, authentication method, and computer program
JP7298952B1 (en) 2022-02-28 2023-06-27 Necプラットフォームズ株式会社 Image determination device, traffic management device, and image determination method

Similar Documents

Publication Publication Date Title
JP2008108243A (en) Person recognition device and person recognition method
US20080080748A1 (en) Person recognition apparatus and person recognition method
EP3067829B1 (en) Person authentication method
JP4836633B2 (en) Face authentication device, face authentication method, and entrance / exit management device
JP4389956B2 (en) Face recognition device, face recognition method, and computer program
JP4241763B2 (en) Person recognition apparatus and method
KR100808316B1 (en) Person searching device, person searching method and access control system
US9477876B2 (en) Person recognition apparatus and method thereof
JP6409929B1 (en) Verification system
JP6148065B2 (en) Face recognition system
JP6148064B2 (en) Face recognition system
JP2007334623A (en) Face authentication device, face authentication method, and access control device
JPWO2015136938A1 (en) Information processing method and information processing system
JP2005084815A (en) Face recognition device, face recognition method and passage control apparatus
JP2011070576A (en) Image processor and image processing method
JP2007156541A (en) Person recognition apparatus and method and entry/exit management system
JP4862518B2 (en) Face registration device, face authentication device, and face registration method
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
KR101515214B1 (en) Identification method using face recognition and entrance control system and method thereof using the identification method
JP2009059073A (en) Unit and method for imaging, and unit and method for person recognition
JP2007206898A (en) Face authentication device and access management device
JP5955056B2 (en) Face image authentication device
JP5752977B2 (en) Image monitoring device
JP2010086403A (en) Facial recognition device, facial recognition method, and passage controller
JP2009032116A (en) Face authentication apparatus, face authentication method, and access management apparatus