JP2008108243A - Person recognition device and person recognition method - Google Patents
Person recognition device and person recognition method Download PDFInfo
- Publication number
- JP2008108243A JP2008108243A JP2007249753A JP2007249753A JP2008108243A JP 2008108243 A JP2008108243 A JP 2008108243A JP 2007249753 A JP2007249753 A JP 2007249753A JP 2007249753 A JP2007249753 A JP 2007249753A JP 2008108243 A JP2008108243 A JP 2008108243A
- Authority
- JP
- Japan
- Prior art keywords
- face
- person
- unit
- image
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、たとえば、生体認証を応用した入退場管理システムあるいは人物監視システムなどに適用される人物認識装置および人物認識方法に関する。 The present invention relates to a person recognition apparatus and a person recognition method applied to, for example, an entrance / exit management system or a person monitoring system using biometric authentication.
従来、入退場の管理あるいは人物の監視などに適用される技術として、歩行者(通行者)を撮影し、撮影した画像を記録したり、撮影した画像から歩行者を特定したりする技術が提案されている。このような技術のうち最もポピュラーなものは、監視カメラで撮影した映像を常時記録するシステムである。しかしながら、監視カメラで撮影した映像を常時記録するシステムでは、長時間に亘って記録された映像の中から特定の人物の画像を探すことは容易ではない。このため、人感センサが人物を検知した場合にのみカメラが撮影した映像を記録するシステム、あるいは、カメラが撮影した映像から人物らしい画像が検出された場合にのみ映像を記録するシステムなどが提案されている。 Conventionally, as a technique applied to entrance / exit management or person monitoring, a technique has been proposed in which a pedestrian (passerby) is photographed, the photographed image is recorded, and the pedestrian is identified from the photographed image. Has been. The most popular of these technologies is a system that constantly records video taken by a surveillance camera. However, in a system that constantly records video captured by a surveillance camera, it is not easy to search for an image of a specific person from videos recorded over a long period of time. For this reason, a system that records video captured by the camera only when the human sensor detects a person, or a system that records video only when a human-like image is detected from video captured by the camera is proposed. Has been.
たとえば、特開2003−169320号公報(特許文献1)には、第1および第2の監視カメラを設置し、これらの監視カメラを意識して行動している人物を監視するシステムである。これは、不審者が監視カメラを意識して行動する可能性が高いという前提に基づいている。特開2003−169320号公報に記載されているシステムでは、第1の監視カメラおよび第2の監視カメラの意識したと判定された人物が含まれる画像を記録したり、警報を出力したりする。 For example, Japanese Patent Laid-Open No. 2003-169320 (Patent Document 1) is a system in which first and second surveillance cameras are installed and a person who is acting with awareness of these surveillance cameras is monitored. This is based on the premise that a suspicious person is likely to act with the surveillance camera in mind. In the system described in Japanese Patent Laid-Open No. 2003-169320, an image including a person determined to be conscious of the first monitoring camera and the second monitoring camera is recorded, or an alarm is output.
しかしながら、特開2003−169320号公報に記載の技術では、カメラの設置状態などによっては、顔を隠す必要がない一般の人物が不審者らしいと判定されることが多くなり、誤報が多くなりやすいと考えられる。また、特開2003−169320号公報に記載の技術では、不審者が監視カメラに顔を映さないようにしたときに画像の記録あるいは警報の出力などの対応ができなくなるという問題もある。 However, in the technique described in Japanese Patent Laid-Open No. 2003-169320, depending on the installation state of the camera, it is often determined that a general person who does not need to hide his face is likely to be a suspicious person, and misinformation is likely to increase. it is conceivable that. In addition, the technique described in Japanese Patent Application Laid-Open No. 2003-169320 has a problem that when a suspicious person does not project a face on a surveillance camera, it is impossible to record an image or output an alarm.
また、特許第3088880号公報(特許文献2)には、カメラで撮影している画像から顔を隠している人物が検出された場合に、管理者および通行者に通知するシステムが記載されている。これは、監視カメラに顔を映らないようにしている人物(顔を隠している人物)が不審者である可能性が高いという前提に基づいている。特許第3088880号公報には、監視カメラで撮影した画像から人物の頭部らしい領域を抽出し、その領域から人物の顔を検出できたかどうかにより、顔を隠している人物かどうかを判定するシステムが記載されている。 Japanese Patent No. 3088880 (Patent Document 2) describes a system for notifying an administrator and a passer-by when a person hiding his face is detected from an image captured by a camera. . This is based on the premise that there is a high possibility that a person who does not show his / her face on the surveillance camera (person who hides his / her face) is a suspicious person. Japanese Patent No. 3088880 discloses a system that extracts a region that is likely to be a person's head from an image captured by a monitoring camera, and determines whether or not the person's face is hidden based on whether or not the person's face has been detected from that region. Is described.
しかしながら、特許第3088880号公報には、顔を隠した人物を不審者として扱うとしている。このため、特許第3088880号公報の技術では、たまたま顔がカメラの方向を向いていない人物、および、サングラスあるいはマスクなどで顔の検出できなかった人物が全て不審者らしいと判定されてしまうという問題がある。 However, in Japanese Patent No. 3088880, a person whose face is hidden is treated as a suspicious person. For this reason, in the technique of Japanese Patent No. 3088880, there is a problem that it is determined that all persons who happen to be faceless in the direction of the camera and persons whose face cannot be detected by sunglasses or masks are likely to be suspicious. There is.
また、特開2004−118359号公報(特許文献3)には、異なる条件で設置した複数のカメラが撮影した画像に基づいて通行者に対する顔照合の安定化を図るという技術が記載されている。特開2004−118359号公報には、種々の条件で設置されている複数のカメラで撮影した画像に対して、各カメラの設置条件に応じた条件で人物の顔による照合を行う技術が記載されている。しかしながら、特開2004−118359号公報には、不審者らしい人物を判定する点については記載されていない。 Japanese Unexamined Patent Application Publication No. 2004-118359 (Patent Document 3) describes a technique for stabilizing face collation for passers-by based on images taken by a plurality of cameras installed under different conditions. Japanese Patent Application Laid-Open No. 2004-118359 describes a technique for collating images of a plurality of cameras installed under various conditions using human faces under conditions according to the installation conditions of each camera. ing. However, Japanese Patent Laid-Open No. 2004-118359 does not describe the point of determining a person who seems to be a suspicious person.
上述したような従来の技術では、不審者らしい人物を確実に検出したり、各人物の不審者らしさに応じた効率的な認証処理を行ったりするのが困難であるという問題点がある。
この発明の一形態は、人物に対して効率的なアクセス制御あるいは人物監視を行うことができる人物認識装置および人物認識方法を提供することを目的とする。 An object of one aspect of the present invention is to provide a person recognition apparatus and a person recognition method capable of performing efficient access control or person monitoring for a person.
この発明の一形態としての人物認識装置は、人物に認識され易い状態で設置されたカメラにより撮影された画像を取得する第1の画像取得部と、人物に認識され難い状態で設置されたカメラにより撮影された画像を取得する第2の画像取得部と、前記第1の画像取得部により取得した画像から人物の顔を検出する第1の顔検出部と、前記第2の画像取得部により取得した画像から前記人物の顔を検出する第2の顔検出部と、前記第1のカメラにより撮影された人物と前記第2のカメラにより撮影された人物とを対応付ける対応付け部と、前記対応付け部による対応付けの結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づいて前記人物を分類する分類部とを有する。 A person recognition apparatus according to an aspect of the present invention includes a first image acquisition unit that acquires an image taken by a camera installed in a state that is easily recognized by a person, and a camera installed in a state that is difficult to be recognized by a person. A second image acquisition unit that acquires an image captured by the first image acquisition unit, a first face detection unit that detects a human face from the image acquired by the first image acquisition unit, and the second image acquisition unit. A second face detection unit that detects the face of the person from the acquired image; an association unit that associates the person photographed by the first camera with the person photographed by the second camera; and the correspondence A classification unit that classifies the person based on a result of association by the attaching unit, a detection result of the face by the first face detection unit, and a detection result of the face by the second face detection unit;
この発明の一形態としての人物認識方法は、人物に認識され易い状態で設置された第1のカメラで撮影された画像を取得し、人物に認識され難い状態で設置された第2のカメラで撮影された画像を取得し、前記第1のカメラで撮影された画像から人物の顔を検出し、前記第2のカメラで撮影された画像から前記人物の顔を検出し、前記第1のカメラにより撮影された人物と前記第2のカメラにより撮影された人物とを対応付け、前記対応付けの結果と前記第1のカメラで撮影された画像からの顔の検出結果と前記第2のカメラで撮影された画像からの顔の検出結果とに基づいて前記人物を分類する。 According to another aspect of the present invention, there is provided a person recognition method that acquires an image taken by a first camera installed in a state that is easily recognized by a person, and uses a second camera installed in a state that is difficult for a person to recognize. Acquiring a photographed image, detecting a human face from an image photographed by the first camera, detecting the human face from an image photographed by the second camera, and the first camera; The person photographed by the second camera and the person photographed by the second camera are associated with each other, the result of the association, the face detection result from the image photographed by the first camera, and the second camera The person is classified based on a face detection result from the captured image.
この発明の一形態によれば、人物に対して効率的なアクセス制御あるいは人物監視を行うことができる人物認識装置および人物認識方法を提供できる。 According to one aspect of the present invention, it is possible to provide a person recognition device and a person recognition method capable of performing efficient access control or person monitoring for a person.
以下、本発明の各実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係るアクセス制御装置としての人物(通行者)認識装置10の構成例を概略的に示すものである。
図1に示す通行者認識装置10は、カメラで撮影した画像から人物の顔の特徴情報を抽出し、抽出した顔の特徴情報と登録者の顔の特徴情報と照合(顔照合)する顔照合装置として機能する。さらに、図1に示す通行者認識装置10は、上記顔照合により顔の特徴情報が登録者の顔の特徴情報と一致すると判定された人物のアクセス(図1に示す例では通行)を許可するアクセス制御装置としても機能する。
Embodiments of the present invention will be described below with reference to the drawings.
First, the first embodiment will be described.
FIG. 1 schematically shows a configuration example of a person (passerby)
A passer-by
また、図1に示す通行者認識装置10は、たとえば、特定の人物(登録者)のみのセキュリティエリア内への入場を通行を許可するアクセス制御、あるいは、通行者の中から重要顧客あるいは要注意人物などの特定の人物を検出する人物検出などに適用されることが想定される。たとえば、図1に示す通行者認識装置10は、特定の建造物あるいはセキュリティエリアに入場しようとする人物を管理する入場管理システム、あるいは、商用施設、娯楽施設あるいは交通機関の施設などの多くの人物が通行する場所での人物監視を行う監視システムなどに適用されることが想定される。
In addition, the passer-by
上記通行者認識装置10は、図1に示すように、第1の画像取得部111、第2の画像取得部112、第1の人物検出部121、第2の人物検出部122、第1の顔検出部131、第2の顔検出部132、人物対応付け部140、分類部150、顔特徴管理部160、顔照合部170、通行制御部180および履歴管理部190などを有している。
As shown in FIG. 1, the passer-by
上記第1の画像取得部111は、例えば、カメラ、A/D変換器、出力インターフェースなどにより構成される。カメラは、通行者Mの少なくとも顔を含んでいる画像を撮影する。A/D変換器は、カメラが撮影した画像をデジタル化する。出力インターフェースは、A/D変換器によりデジタル化された画像を人物検出部121へ出力する。第1の画像取得部111のカメラ(以下、第1のカメラとも称する)は、認識対象者となる通行者Mに認識され易いように設置される。さらに、第1の画像取得部111のカメラの近傍には、表示部111aが設けられている。表示部111aは、認識対象者Mにより第1の画像取得部111のカメラが注目され易いように、第1の画像取得部111のカメラ近傍に設置される。表示部111aは、たとえば、液晶表示器などにより構成される。
The first
上記第2の画像取得部112は、例えば、カメラ、A/D変換器、出力インターフェースなどにより構成される。カメラは、通行者Mの少なくとも顔を含んでいる画像を撮影する。A/D変換器は、カメラが撮影した画像をデジタル化する。出力インターフェースは、A/D変換器によりデジタル化された画像を人物検出部122へ出力する。第2の画像取得部112のカメラ(以下、第2のカメラとも称する)は、認識対象者となる通行者Mに認識され難いように設置される。さらに、第2の画像取得部112のカメラの前面には、ブラインドとして機能するアクリル板112aが設けられている。アクリル板112aは、第2の画像取得部112が通行者Mに発見され難いようにするために、カメラを隠すように設置される。つまり、第2の画像取得部112のカメラ(第2のカメラ)は、隠しカメラであれば良い。たとえば、第2のカメラは、アクリル板112aで隠す以外に、通行者に発見され難い小型カメラを用いるようにしても良い。
The second
すなわち、第1の画像取得部111のカメラが、通行者Mに認識され易いようになっているのに対して、第2の画像取得部112のカメラは、通行者Mに認識され難いようになっている。これにより、第1の画像取得部111では、カメラの存在を意識している通行者Mの顔画像が撮影でき、第2の画像取得部112は、カメラの存在を意識していない状態の通行者Mの顔画像が撮影できるようになっている。
That is, the camera of the first
第1の人物検出部121および第2の人物検出部122は、第1の画像取得部111および第2の画像取得部112により取得された画像からそれぞれ人物らしい画像領域(人物領域)を検出する。第1の人物検出部121および第2の人物検出部122により検出された人物らしい画像領域を示す情報は、それぞれ第1の顔検出部131および第2の顔検出部132へ出力される。
The first
第1、第2の人物検出部121および122により人物領域を検出する手法には、文献1(中井宏章:「事後確率を用いた移動物体検出手法」、情報処理学会研究報告、SIG−CV90−1、1994年)に記載されている手法が適用可能である。上記文献1に記載の手法では、入力された画像に対して、背景画像の差分を用いて変化領域を人物領域として抽出する。また、上記文献1には、人物領域の人物(通行者)の特徴として、抽出した人物領域(変化領域)の形状、面積あるいは色分布情報などの特徴情報を取得できる。
As a technique for detecting a person region by the first and second
なお、人物の検出精度を高めるため、通行者認識装置10には、通行者Mの位置あるいは移動方向などを予測するための構成を追加するようにしても良い。この場合、通行者認識装置10では、通行者の位置あるいは移動方向などの予測結果に基づいて、通行者Mを効率的に撮影したり、人物領域を効率的に検出したりする制御が可能となる。たとえば、通行者Mの位置あるいは移動方向などを予測するための構成としては、人物の位置を検知するための距離センサ、人物を検知する人感センサ、あるいは、人物の移動を把握するための別の監視カメラ(たとえば、広角な撮影が可能なカメラ)などが考えられる。
In addition, in order to improve the detection accuracy of a person, the passer-
上記第1、第2の顔検出部131、132は、顔領域の検出処理を行なう。すなわち、上記第1の顔検出部131および第2の顔検出部132は、それぞれ第1の人物検出部121および第2の人物検出部122で検出された人物領域内の画像において、顔らしい領域を検出する。たとえば、上記第1、第2の顔検出部131および132は、あらかじめ用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域として検出する。なお、上記第1、第2の顔検出部131及び132では、固有空間法あるいは部分空間法を利用した顔領域を抽出する手法などを用いるようにしても良い。
The first and second
上記第1、第2の顔検出部131および132は、さらに、検出した顔領域の画像から当該人物の顔の特徴情報を検出する。すなわち、上記第1、第2の顔検出部131および132は、検出した顔領域の画像から顔における特徴部分として、目、鼻あるいは口などの顔部位の位置を検出する。上記第1、第2の顔検出部131および132は、顔の特徴部分として検出した顔の部位の位置に基づいて、当該人物の顔の特徴情報を算出する。
The first and second
たとえば、目、鼻あるいは口などの顔部位の位置を検出する手法としては、文献2(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997年))に開示されている方法などが適用可能である。 For example, methods for detecting the position of a facial part such as eyes, nose or mouth are described in Reference 2 (Kazuhiro Fukui, Osamu Yamaguchi: “Face feature point extraction by combination of shape extraction and pattern matching”), IEICE Transactions (D), vol.J80-D-II, No. 8, pp2170-2177 (1997)) and the like can be applied.
また、上記目、鼻あるいは口の検出を検出手法としては、文献3(湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集、pp219−224(2004年))に開示されている手法なども適用可能である。 Further, as a detection method for detecting the eyes, nose or mouth, Reference 3 (Mayumi Yuasa, Ayako Nakajima: “Digital Make System Based on High-Precision Facial Feature Point Detection”, Proc. (2004)) can also be applied.
一般に、1枚の画像の中から1つの特徴情報を抽出する場合、画像全体に対して抽出すべき特徴情報のテンプレートとの相関値を求めることにより、相関値が最大となる領域を示す位置とサイズが特徴情報の抽出結果として得られる。また、時系列で連続する複数の画像から複数の特徴情報を抽出する場合、複数の特徴情報の重なりを考慮しつつ各画像において相関値の局所的な最大値を求めことにより、各画像における特徴情報の候補が絞り込まれる。各画像における特徴情報の候補について連続する画像間での関係性(時間的な推移)を考慮することにより、複数の特徴情報が選出される。 In general, when extracting one piece of feature information from one image, a position indicating a region where the correlation value is maximized is obtained by obtaining a correlation value with a template of feature information to be extracted for the entire image. The size is obtained as a result of extracting feature information. In addition, when extracting a plurality of feature information from a plurality of images that are continuous in time series, the feature in each image is obtained by obtaining a local maximum correlation value in each image while considering the overlap of the plurality of feature information. Information candidates are narrowed down. A plurality of feature information is selected by considering the relationship (temporal transition) between successive images for feature information candidates in each image.
第1、第2の顔検出部131および132により抽出される顔の特徴情報としては、たとえば、顔領域の濃淡情報を用いた情報が得られるものとする。この場合、上記第1、第2の顔検出部131および132は、検出された顔の部品の位置に基づいて、顔領域を一定の大きさ及び一定の形状に切り出し、切り出した顔領域の濃淡情報を取得する。ここで、顔の特徴情報は、mピクセル×nピクセルの領域の濃淡値をm×n次元のベクトル(特徴ベクトル)として表した情報を用いるものとする。
As the facial feature information extracted by the first and second
このような特徴ベクトル間の類似度は、たとえば、単純類似度法という手法により算出される。単純類似度法では、第1のベクトルの長さと第2のベクトルの長さとをそれぞれ「1」とするように正規化し、それらの正規化された第1および第2のベクトルの内積を計算することにより、ベクトル間の類似性を示す類似度が求められる。1つの画像から得られる1つの特徴ベクトルと所定の特徴ベクトル(予め登録された特徴ベクトル)とを照合する場合、上記第1、第2の顔検出部131および132は、1つの画像から1つの特徴ベクトルを算出すれば良い。
Such similarity between feature vectors is calculated by a method called a simple similarity method, for example. In the simple similarity method, the length of the first vector and the length of the second vector are normalized to be “1”, and the inner product of the normalized first and second vectors is calculated. Thus, the similarity indicating the similarity between the vectors is obtained. When one feature vector obtained from one image is collated with a predetermined feature vector (a feature vector registered in advance), the first and second
ただし、連続した複数の画像としての動画像から特徴情報を計算をすることにより、精度の高い認識処理が行なえる。このため、ここでは、動画像から特徴情報を算出する手法について説明する。なお、動画像は、所定時間ごとの連続する各フレームの画像として取得されるものとする。上記第1、第2の顔検出部131および132は、動画像から得られる顔の特徴情報として部分空間を算出する。部分空間は、各フレームの画像から得られる特徴ベクトルの相関性に基づいて算出される情報である。
However, highly accurate recognition processing can be performed by calculating feature information from moving images as a plurality of continuous images. Therefore, here, a method for calculating feature information from a moving image will be described. In addition, a moving image shall be acquired as an image of each continuous frame for every predetermined time. The first and second
すなわち、上記第1、第2の顔検出部131および132は、各フレームの画像におけるm×nピクセルの顔領域の画像から特徴ベクトルをそれぞれ算出する。顔検出部131および132は、各画像から得られた各特徴ベクトルに対する相関行列(または、共分散行列)を算出し、周知のK−L展開による正規直交ベクトル(固有ベクトル)を求める。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトルの集合を用いて表現される。ここで、相関行列をCd、固有ベクトルの行列をΦとすると、以下の数式1の関係が成り立つ。
That is, the first and second
Cd=ΦdΛdΦdT … (数式1)
上記数式1により、固有ベクトルの行列Φdが算出できる。この情報が顔の特徴情報としての部分空間(入力部分空間)となる。なお、顔特徴管理部160には、予め登録用として撮影した顔画像から、上述したような計算方法で算出された部分空間(登録部分空間)を顔の特徴情報として登録するようにすれば良い。
Cd = ΦdΛdΦdT (Equation 1)
The matrix Φd of eigenvectors can be calculated by the above equation 1. This information becomes a partial space (input subspace) as facial feature information. In addition, the facial
人物対応付け部140は、第1の画像取得部111で撮影された人物と第2の画像取得部112で撮影された人物とを対応付ける処理を行う。すなわち、人物対応付け部140は、第1の人物検出部121による人物の検出結果、第2の人物検出部122による人物の検出結果、第1の顔検出部131による顔の検出結果、あるいは、第2の顔検出部132による顔の検出結果に基づいて、第1の画像取得部111で撮影した人物と第2の画像取得部112で撮影した人物とを対応付ける。言い換えると、人物対応付け部140は、第1の画像取得部111(あるいは第2の画像取得部112)で撮影した画像から検出された人物と同一人物を、第2の画像取得部112(あるいは第1の画像取得部111)で撮影した画像から検出された人物から検出する。
The
人物対応付け部140は、例えば、第1の人物検出部121により検出された人物の画像領域および第2の人物検出部122により検出された人物の画像領域における、形状、面積、色分布情報などにより各人物を対応付ける。なお、色分布情報は、R,G,B各色別のヒストグラムなどにより識別される。つまり、第1の画像取得部111で撮影された人物の画像と第2の画像取得部112で撮影された人物の画像とは、形状、面積、色分布などが類似するものが同一人物の画像として対応づけられる。
The
また、人物対応付け部140には、人物対応付け精度を高めるために、補助検知部140aを設けるようにしても良い。補助検知部140aとしては、たとえば、距離センサ、人感センサ、温度センサ、重量センサなどを設けるようにしても良い。
The
たとえば、補助検知部140aとしての距離センサでは、センサの設置位置から人物までの距離を推定することができる。このため、距離センサで検知された人物までの距離に基づいて各人物の位置が追跡できる。このような各人物の位置の追跡結果に基づいて、人物対応付け部140は、画像取得部111で撮影された画像から検出された人物と画像取得部112で撮影された画像から検出された人物とを対応付けることができる。
For example, in the distance sensor as the
また、補助検知部140aとしての人感センサでは、人物の存在を検知することができる。補助検知部140aとしての温度センサでは、人物の温度(体温)により人物の存在を検知することができる。補助検知部140aとしての重量センサでは、人物の体重により人物の存在を検知することができる。これらの補助検知部140aとしてのセンサによる検知結果に基づいて各人物が追跡できる。従って、このような各人物の追跡結果に基づいて、人物対応付け部140は、画像取得部111で撮影された画像から検出された人物と画像取得部112で撮影された画像から検出された人物とを対応付けることができる。
Further, the presence sensor as the
さらに、人物対応付け精度を高めるための補助検知部140aとしては、通路全体を広角に撮影可能な監視カメラを設けるようにしても良い。この場合、補助検知部140aとしての監視カメラは、通路全体の撮影画像から各人物を追跡できるようになっている。このような各人物の追跡結果に基づいて、人物対応付け部140は、画像取得部111で撮影された画像から検出された人物と画像取得部112で撮影された画像から検出された人物とを対応付けることが可能となる。
Furthermore, as the
分類部150は、人物対応付け部140で対応付けられた人物の状態(行動パターン)に基づいて各人物を分類する。分類部150では、第1の画像取得部111で撮影した人物の状態と第2の画像取得部112で撮影した当該人物(人物対応付け部140で対応付けられた人物)の状態とに基づいて当該人物の行動パターンがどのように分類されるかを判定する。たとえば、分類部150は、顔検出部131による顔の検出結果と顔検出部132による顔の検出結果とに基づいて各人物を幾つかのパターンに分類する。
The
つまり、分類部150は、第1の画像取得部111で撮影した画像から検出された人物の顔が検出された(第1の画像取得部111のカメラに対して顔を隠している状態)か否かと、第2の画像取得部112で撮影した画像から検出された人物の顔が検出された(第2の画像取得部112のカメラに対して顔を隠している状態)か否かと、により当該人物を4つのパターンに分類する。このような分類部150による分類結果は、顔照合部170あるいは通行制御部180による処理内容を決定づける要素となる。
That is, whether the
たとえば、上述しように、第1の画像取得部111のカメラは、通行者Mに認識され易いように設置されている。このため、第1の画像取得部111で取得した画像から顔が検出された人物は、不審者である可能性が低いと推測できる。このような推測に基づいて、分類部150は、第1の画像取得部111で取得した画像から顔が検出された人物については顔照合を行い、第1の画像取得部111で取得した画像から顔が検出されなかった人物については顔照合を行わずに通行を不可とする。
For example, as described above, the camera of the first
また、第2の画像取得部112のカメラは、通行者Mに認識され難いように設置されている。このため、第2の画像取得部112で取得した画像から顔が検出された人物は、カメラの存在を知っていてカメラに顔を向けている人物、あるいは、カメラの存在を知らないで顔が撮影されている人物の何れかであると推定される。このような推測に基づいて、分類部150は、第1の画像取得部111で取得した画像から顔が検出された人物のうち、第2の画像取得部112で取得した画像から顔が検出された人物については、通行許可となり易いように制御する。これに対して、分類部150は、第1の画像取得部111で取得した画像から顔が検出された人物のうち、第2の画像取得部112で取得した画像から顔が検出されなかった人物については通常の顔照合により通行の可否を判定するように制御する。なお、上記分類部150による各人物の分類処理の例については、後で詳細に説明するものとする。
Further, the camera of the second
顔特徴管理部160は、辞書データとしての登録者の顔の特徴情報を記憶するものである。たとえば、顔特徴管理部160には、上述したような部分空間が登録者の顔の特徴情報として登録される。ただし、顔特徴管理部160に登録される登録者の顔の特徴情報は、登録者の顔画像(動画像あるいは1つの画像)、各顔画像から得られるm×nの特徴ベクトル、あるいは、K−L展開を行なう直前の相関行列などであっても良い。これらの登録者の顔の特徴情報は、当該登録者を識別するための識別情報としてのID番号に対応づけて顔特徴管理部160により記憶される。
The face
また、顔特徴管理部160には、各登録者ごとに1つの顔の特徴情報を記憶するようにして良いいし、各登録者ごとに複数の顔の特徴情報を記憶するようにしても良い。また、、各登録者に複数の顔の特徴情報を記憶する場合、上記顔照合部170では、たとえば、状況に応じて選択した各登録者ごとに1つの顔の特徴情報を用いて顔照合処理を行うようにしても良いし、各登録者の複数の顔の特徴情報を用いてぞれぞれ顔照合処理を行うようにしても良い。
The face
顔照合部170は、第1の顔検出部131あるいは第2の顔検出部132で検出された顔の特徴情報と上記顔特徴管理部160に記憶されている登録者の顔の特徴情報とを照合するものである。上記顔照合部170では、照合結果としての両者の類似度を算出する。顔照合部170では、算出した類似度が認証用の閾値以上であるか否かにより当該人物の通行の可否を判定する。
The
たとえば、顔照合部170では、第1の顔検出部131あるいは第2の顔検出部132で得られた顔の特徴情報としての部分空間(入力部分空間)と顔特徴管理部160に記憶されている1つまたは複数の部分空間(登録部分空間)との類似度を求める。これにより、顔照合部170は、算出した類似度を認証用の閾値と比較することにより、通行者が登録者であるか否かを判定する。
For example, in the
なお、上記認証用の閾値は、所定の認証用の閾値を基準に調整可能となっている。上記認証用の閾値は、後述する処理において、分類部150による分類結果に基づいて調整されるようになっている。
The authentication threshold value can be adjusted based on a predetermined authentication threshold value. The threshold value for authentication is adjusted based on the classification result by the
また、第1の画像取得部111あるいは第2の画像取得部112により取得した1つの画像中に複数の通行者が存在する場合、上記顔照合部170は、上述した顔照合処理を検出された人数分繰り返すことで、取得した画像内に存在する各通行者全員に対する顔照合処理を行う。
When there are a plurality of passersby in one image acquired by the first
また、2つの部分空間の類似度を求める計算方法は、部分空間法や複合類似度法などの方法が適用可能である。たとえば、2つの部分空間の類似度は、文献4(前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」,電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345〜352(1985年))に開示されている相互部分空間法により算出できる。上記文献3では、2つの部分空間のなす角度を類似度として定義している。ここで、相関行列をCin、固有ベクトルをΦinとすると、以下の数式2の関係が成り立つ。
As a calculation method for obtaining the similarity between two subspaces, a method such as a subspace method or a composite similarity method can be applied. For example, the similarity between two subspaces can be found in Reference 4 (Kenichi Maeda, Sadaichi Watanabe: “Pattern matching method introducing local structure”, IEICE Transactions (D), vol. J68-D, No. .3, pp 345-352 (1985)). In Reference 3 above, an angle formed by two partial spaces is defined as a similarity. Here, when the correlation matrix is Cin and the eigenvector is Φin, the relationship of
Cin=ΦinΛinΦinT … (数式2)
上記数式2により、固有ベクトルΦinが算出できる。これにより、2つのΦinおよびΦdで表される2つの部分空間の類似度(0.0〜1.0)が算出できる。
Cin = ΦinΛinΦinT (Formula 2)
The eigenvector Φin can be calculated by the
また、取得された1つの画像内に複数の顔が存在する場合、顔照合部170は、検出された各人物の顔の特徴情報について、順番に顔特徴管理部160に保存されている顔の特徴情報との類似度を総当りで計算する。これにより、取得された1つの画像内に存在する全ての人物に対する顔照合の結果を得ることができる。たとえば、X名の通行者が歩いてきた場合(つまり、取得した1つの画像からX名の顔の特徴情報が検出された場合)、顔特徴管理部160にY名分の顔の特徴情報が記憶されていれば、「X×Y」回の類似度演算を行うことにより、X名全員の顔照合結果が得られる。
In addition, when a plurality of faces exist in one acquired image, the
また、取得したm枚の画像から得られた入力部分空間がどの登録部分空間とも照合が成功しない場合(つまり、撮影している人物が登録者の誰とも判定されない場合)、順次取得される次のフレームの画像と過去の複数フレームの画像とにより入力部分空間が更新される。このような入力部分空間の更新は、次に取得されるフレームの画像に対する相関行列を過去の複数のフレームの画像から作成された相関行列の和に追加し、再度固有ベクトルの計算するようにすれば良い。つまり、通行者の顔画像を連続して撮影した画像(動画像)により顔照合を行なう場合、順次入力される画像により入力部分空間を更新しながら照合を行うことにより、徐々に精度の高くなる計算が可能となる。 Further, when the input subspace obtained from the acquired m images does not collate with any registered subspace (that is, when the person being photographed is not determined as any of the registrants), The input subspace is updated with the image of the previous frame and the images of the past plural frames. Such an update of the input subspace is performed by adding the correlation matrix for the image of the next acquired frame to the sum of the correlation matrices created from the images of a plurality of past frames and calculating the eigenvector again. good. That is, when face matching is performed using images (moving images) obtained by continuously capturing the face images of passers-by, the accuracy is gradually increased by performing matching while updating the input subspace with sequentially input images. Calculation is possible.
通行制御部180は、顔照合部170による顔照合の結果あるいは分類部150による分類結果に基づいて通行者Mの通行を制御するものである。通行制御部180は、自動ドア、電子錠付ドア、ゲートなどの開閉を制御する信号を出力することにより通行者Mの通行を制御するようになっている。
The
たとえば、上記通行制御部180は、顔照合部170での照合結果により通行可と判定された人物(登録者と一致すると判定された人物)を通行させるために、自動ドア、電子錠付ドア、あるいは、ゲートを開放するための制御信号を出力する。また、上記通行制御部180は、通行不可と判定された人物(登録者と一致しないと判定された人物および顔照合ができなかった人物)の通行を阻止するために、自動ドア、電子錠付ドア、あるいは、ゲートを閉鎖するための制御信号を出力する(あるいは、開放するための制御信号を出力しない)。
For example, the
履歴管理部190は、通行者Mに関する履歴情報(通行履歴)を記憶するものである。履歴管理部190は、当該通行者認識装置10と通信可能な管理サーバなどにより実現するようにしても良い。履歴管理部190には、履歴情報として、各通行者に対する判定結果、通行日時、撮影された画像などが記録される。また、履歴管理部190には、不審者らしいと判定された通行者Mについてのみ履歴情報を記録するようにしても良い。
The
次に、第1の画像取得部111および第2の画像取得部112の設置例について説明する。
第1の画像取得部111および第2の画像取得部112は、上述したように、カメラ、A/D変換器、出力インターフェースなどを有している。第1の画像取得部111および第2の画像取得部112は、それぞれ異なる条件で通行者Mを撮影するために、設置状態などが異なっている。上述したように、第1の画像取得部111は、通行者Mが認識し易い位置に設置され、さらに、通行者Mがカメラの存在に気づき易いように、カメラ近傍に表示部111aが設けられている。第2の画像取得部112は、通行者Mに認識され難いように、カメラを隠すためのアクリル板112aが設けられている。これら第1の画像取得部111および第2の画像取得部112は、通行者Mが通行する通路の形状等に応じて種々の設置形態が考えられる。
Next, an installation example of the first
As described above, the first
図2および図3は、第1の画像取得部111と第2の画像取得部112の設置例を示す図である。図2に示す例では、たとえば、登録者のみが入場可能なエリア(セキュリティエリア)の入口(ゲート)G1に通じる通路P1と、通路P1における第1の画像取得部111および第2の画像取得部112の設置例を示している。
FIGS. 2 and 3 are diagrams illustrating an installation example of the first
図2に示すように、上記通路P1は、ゲートG1の手前で折れ曲がっている。従って、セキュリティエリアへ入場しようとする人物(通行者)Mは、ゲートG1の手前で左折してゲートG1に到達するものと考えられる。 As shown in FIG. 2, the passage P1 is bent in front of the gate G1. Accordingly, it is considered that the person (passerby) M who intends to enter the security area turns left before the gate G1 and reaches the gate G1.
第2の画像取得部112は、通路P1が折れ曲がっている場所に設置されている。第2の画像取得部112のカメラ(第2のカメラ)は、ゲートG1に向かって歩行している通行者が、折れ曲がり場所に差し掛かった際に、歩行中の通行者を撮影するように設置されている。図2に示す例では、第2のカメラは、通路P1の折れ曲がっている場所に、通路P1を形成する壁の外側に設置されている。また、第2のカメラは、壁に沿って設置されたアクリル板112aで隠されている。このような構成により、第2のカメラは、通行者Mに認識され難い。つまり、上記第2のカメラでは、当該カメラを意識していない可能性が高い通行者Mを撮影することが可能となっている。
The second
第1の画像取得部111は、通路P1のゲートG1の手前近傍に設置されている。第1の画像取得部111のカメラ(第1のカメラ)は、通路P1からゲートG1に向かって進んでいる通行者を撮影できるように設置されている。さらに、ゲートG1の近傍には、ゲートG1に向かってくる通行者Mに対して案内あるいは撮影している画像などを表示する表示部111aが設置されている。表示部111aに表示される画像に通行者Mが注目することにより、上記第1のカメラは、さらに、通行者Mに意識され易くなっている。つまり、上記第1のカメラでは、当該カメラを意識している可能性が高い通行者Mを撮影することが可能となっている。
The first
図3は、たとえば、セキュリティエリアの入口(ゲート)G2に通じる通路P2と、その通路P2に設置された第1の画像取得部111および第2の画像取得部112の設定例を示す図である。図3に示す例では、上記通路P2は、直線状となっている。従って、セキュリティエリアへ入場しようとする人物(通行者)Mは、ほぼ直進してゲートG2に到達するものと考えられる。
FIG. 3 is a diagram illustrating a setting example of the passage P2 leading to the entrance (gate) G2 of the security area and the first
図3に示す構成例では、第2の画像取得部112は、通路P2をゲートG2へ向かって直進してくる通行者の顔を撮影するように設置されている。つまり、第2のカメラは、ゲートG2に向かって歩行中の通行者を撮影するように設置されている。図3に示す例では、第2のカメラは、通路P2においてゲートG2手前に設置される第1のカメラよりもさらに手前に、通路P2を形成する壁の外側(あるいは壁の中)に設置されている。また、第2のカメラは、通行者Mに認識され難いように、アクリル板112aで隠されている。つまり、上記第2のカメラでは、当該カメラを意識していない可能性が高い通行者Mを撮影することが可能となっている。
In the configuration example shown in FIG. 3, the second
図3に示す構成例では、第1の画像取得部111は、通路P2のゲートG2の手前近傍に設置されている。第1のカメラは、通路P2を直進して、ゲートG2に到達する直前の通行者(あるいはゲートG2に到達した通行者)を撮影できるように設置されている。さらに、ゲートG2の近傍には、ゲートG2に向かってくる通行者Mに対して案内あるいは撮影している画像などを表示する表示部111aが設置されている。表示部111aに表示される画像に通行者Mが注目することにより、上記第1のカメラは、さらに、通行者Mに意識され易くなっている。つまり、上記第1のカメラでは、当該カメラを意識している可能性が高い通行者Mを撮影することが可能となっている。
In the configuration example illustrated in FIG. 3, the first
次に、分類部150による各人物の分類方法について説明する。
上述したように、分類部150では、たとえば、第1の顔検出部131および第2の顔検出部132による顔の検出結果に基づいて各人物を分類する。各人物をどのように分類し、それらの分類結果に応じてどのような処理を行うかは、当該通行者認識装置の設置状況、システム全体の運用形態、あるいは、セキュリティポリシーなどに応じて適宜設定されるものである。
Next, a method for classifying each person by the
As described above, the
すなわち、分類部150は、予め設定される分類基準に従って各人物を分類する。言い換えれば、分類部150は、所定の分類基準に基づいて、第1の画像取得部111のカメラで撮影された人物の状態(たとえば、顔の検出結果)と第2の画像取得部112のカメラで撮影された人物の状態(たとえば、顔の検出結果)との組合せがどのような分類となるかを判定する。
That is, the
図4は、分類部150による各人物に対する分類基準の例を示す図である。
ここでは、第1の画像取得部111のカメラ(第1のカメラ)が通行者に認識され易いように設置され、第2の画像取得部112のカメラ(第2のカメラ)が通行者に認識され難いように設置されているものとする。
FIG. 4 is a diagram illustrating an example of classification criteria for each person by the
Here, the camera (first camera) of the first
図4に示す「No.3」および「No.4」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出できなかった場合、つまり、第1の人物検出部121により検出された人物の顔が第1の顔検出部131で検出できなかった場合(第1のカメラの画像:顔検出NG)、分類部150は、当該人物が不審者らしい人物であると分類し、当該人物に対する通行を不可と判定する。
According to “No. 3” and “No. 4” shown in FIG. 4, when the face of the person detected from the image acquired by the first
さらに、図4に示す「No.4」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出できず、かつ、第2の画像取得部112により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できなかった場合(第1のカメラの画像:顔検出NG、かつ、第2のカメラの画像:顔検出NG)、分類部150は、当該人物が全く顔が検出できなかった不審者らしい人物であると分類し、当該人物に対する通行が不可であると判定する。
Furthermore, according to “No. 4” illustrated in FIG. 4, a human face detected from the image acquired by the first
この場合、履歴管理部190には、不審者らしいと判定された人物の履歴情報が記録される。この履歴管理部190に記録される履歴情報は、当該人物の顔が検出できていないため、判定結果および判定時刻などの情報となる。ただし、当該人物が検出された画像は存在するため、当該人物が検出された画像を履歴情報とともに記録するようにしても良い。なお、上記のように顔が全く検出できなかった人物は、後で顔を確認することができない(顔の記録が残らない)人物であるため、最も警戒すべき人物であると想定される。
In this case, history information of a person who is determined to be a suspicious person is recorded in the
また、図4に示す「No.3」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出できず、かつ、第2の画像取得部112により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できた場合(第1のカメラの画像:顔検出NG、かつ、第2のカメラの画像:顔検出OK)、分類部150は、当該人物が顔が検出できた不審者らしい人物であると分類し、当該人物の通行が不可であるとともに当該人物の顔画像を履歴管理部190に記録すると判定する。この場合、履歴管理部190には、不審者らしいと判定された人物の顔画像を含む履歴情報が記録される。このため、当該人物の顔は、履歴情報に含まれる顔画像で確認することが可能となる。
Further, according to “No. 3” illustrated in FIG. 4, the face of the person detected from the image acquired by the first
図4に示す「No.1」および「No.2」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出できた場合、つまり、第1の人物検出部121により検出された人物の顔が第2の顔検出部131で検出できた場合(第1のカメラの画像:顔検出OK)、分類部150は、当該人物が不審者らしくない人物であると分類し、当該人物に対する通行の可否を判定するための顔照合を実行すると判定する。
According to “No. 1” and “No. 2” shown in FIG. 4, when the face of a person detected from the image acquired by the first
さらに、図4に示す「No.2」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出でき、かつ、第2の画像取得部112により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できなかった場合(第1のカメラの画像:顔検出OK、かつ、第2のカメラの画像:顔検出NG)、分類部150は、当該人物が不審者らしくない人物(一般的な歩行状態の人物)と分類し、当該人物に対する顔照合に用いる認証用の閾値を所定値とすると判定する。
Furthermore, according to “No. 2” illustrated in FIG. 4, the face of the person detected from the image acquired by the first
図4に示す「No.1」によれば、第1の画像取得部111により取得した画像から検出された人物の顔が検出でき、かつ、第2の画像取得部112により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できた場合(第1のカメラの画像:顔検出OK、かつ、第2のカメラの画像:顔検出OK)、分類部150は、当該人物が第2カメラの位置を知っている不審者らしくない人物と分類し、当該人物に対する顔照合に用いる認証用の閾値を所定値よりも緩和(調整)すると判定する。
According to “No. 1” illustrated in FIG. 4, the human face detected from the image acquired by the first
すなわち、図4に示す例では、第1のカメラで撮影した画像から顔が検出できたか否かにより不審者らしいか否かが判定されるようになっている。このような設定は、通行者に認識され易いように設置されている第1のカメラに対して顔を隠していない(カメラの方を見ている)人物は不審者である可能性が低い人物であるという推測に基づいている。従って、少なくとも登録者に対しては、第1のカメラに顔を向けるように予め知らされているという運用形態が想定される。 That is, in the example shown in FIG. 4, it is determined whether or not it seems to be a suspicious person depending on whether or not a face can be detected from an image taken by the first camera. Such a setting is such that a person who does not hide his face (looking at the camera) with respect to the first camera installed so as to be easily recognized by a passerby is unlikely to be a suspicious person. It is based on the assumption that it is. Therefore, an operation mode in which at least a registrant is informed in advance to face the first camera is assumed.
さらに、図4に示す例では、第1のカメラで撮影した画像から顔が検出できた人物に対する認証用の閾値は、第2のカメラで撮影した画像から顔が検出できたか否かにより調整されるようになっている。つまり、第1のカメラで撮影した画像と第2のカメラで撮影した画像とから顔が検出できた人物については、顔照合に用いる認証用の閾値を緩和することにより登録者との照合が成功し易くなる(通行が許可され易くなる)ようになっている。このような設定は、通行者に認識され難い状態で設置されている第2のカメラで顔が撮影された人物は、第2のカメラの存在を予め知っている登録者である可能性が高いという推測に基づいている。従って、登録者に対しては、第2のカメラの位置を予め知らせておくような運用形態が考えられる。 Further, in the example shown in FIG. 4, the authentication threshold for a person whose face can be detected from the image captured by the first camera is adjusted depending on whether the face can be detected from the image captured by the second camera. It has become so. In other words, for a person whose face can be detected from the image taken with the first camera and the image taken with the second camera, matching with the registrant succeeded by relaxing the authentication threshold used for face matching. (Passage is easily permitted). In such a setting, a person whose face is photographed by the second camera installed in a state that is difficult to be recognized by a passerby is likely to be a registrant who already knows the existence of the second camera. Based on the guess. Therefore, an operation mode in which the registrant is notified in advance of the position of the second camera is conceivable.
なお、上記のような設定(各人物の分類方法)は、システムの運用形態、第2のカメラの設置状況あるいは第2のカメラの秘匿性などに応じて適宜設定されるできものである。これは、第1、第2のカメラで撮影される通行者の状態が通行者のシステムの運用形態、第2のカメラの設置状況あるいは第2のカメラの秘匿性などによって異なると推測されるためである。たとえば、第2のカメラが一般的な歩行状態の通行者の顔を撮影し易い状態であるか否か、第2のカメラが通行者に発見され易いか否かなどによって、第2のカメラで顔が撮影された通行者の状態が異なると推測される。 Note that the above settings (classification method for each person) can be set as appropriate according to the system operation mode, the installation status of the second camera, the secrecy of the second camera, and the like. This is because it is presumed that the state of the passerby photographed by the first and second cameras differs depending on the operation mode of the passer's system, the installation status of the second camera, the secrecy of the second camera, and the like. It is. For example, depending on whether the second camera is in a state where it is easy to capture the face of a passerby in a general walking state, whether the second camera is easy to be found by a passer-by, etc. It is presumed that the state of the passerby whose face was photographed is different.
次に、第1の実施の形態としての通行者認識装置10の動作例について説明する。
図5は、通行者認識装置10の動作例を説明するためのフローチャートである。
なお、ここでは、図4に示すような分類方法が予め設定されている場合を想定するものとする。
Next, an operation example of the passer-by
FIG. 5 is a flowchart for explaining an operation example of the passer-
Here, it is assumed that a classification method as shown in FIG. 4 is preset.
まず、第1の画像取得部111のカメラ(第1のカメラ)および第2の画像取得部112のカメラ(第2のカメラ)は、通路内の所定の領域を撮影しているものとする。第1のカメラで撮影された画像(各フレームの画像)は、順次第1の画像取得部111を介して第1の人物検出部121へ供給される。同様に、第2のカメラで撮影された画像(各フレームの画像)は、順次第2の画像取得部112を介して第2の人物検出部122へ供給される。これにより、第1の人物検出部121および第2の人物検出部122では、それぞれ供給された画像から人物を検出する処理を行っている(ステップS101およびS102)。
First, it is assumed that the camera (first camera) of the first
この状態において第1の人物検出部121が人物を検出した場合(ステップS101、YES)、第1の顔検出部131は、第1の人物検出部121により検出された人物の画像から顔の領域を検出する処理を行う(ステップS103)。同様に、第2の人物検出部122が人物を検出した場合(ステップS101でNO、かつ、ステップS102でYES)、第2の顔検出部132は、第2の人物検出部122により検出された人物の画像から顔の領域を検出する処理を行う(ステップS104)。上記第1の人物検出部121あるいは第2の人物検出部122で人物が検出されると、上記人物対応付け部140は、上記第1の人物検出部121で検出された人物と上記第2の人物検出部122で検出された人物との対応付けを行う(ステップS105)。
In this state, when the first
人物対応付け部140による対応付け処理は、第1のカメラで撮影された人物と第2のカメラで撮影された人物とを対応付ける処理である。このため、一方のカメラでのみ撮影されている人物の画像については、他方のカメラで撮影された画像と対応付けを行うことができない。ただし、運用形態によっては、一方のカメラで撮影された画像からのみ人物が検出された場合、他方のカメラで撮影された画像から当該人物が検出されなかったことを対応づけ処理の結果として得られるようにしても良い。
The association process by the
人物対応付け部140による対応付けの結果、第1の人物検出部121および第2の人物検出部122による人物の検出結果などに基づいて、分類部150では、当該人物(通行者)の分類を判定することが可能か否かを判定する(ステップS106)。ここで、図4に示す例では、第1のカメラおよび第2のカメラで撮影された人物であることを分類するための前提としている。このため、図4に示すような分類が設定される場合、分類部150は、第1のカメラで撮影された画像から検出された人物と第2のカメラで撮影された画像から検出された人物とが同一人物として対応付けられたか否かにより分類が可能か否かを判定する。ただし、一方のカメラで撮影された画像からのみ人物が検出された場合であっても、当該人物を分類可能な設定であれば、分類部150は、一方のカメラで撮影された画像から人物が検出されれば、当該人物の分類が可能であると判定する。
The
たとえば、第2のカメラは、通行者に認識され難いように設置されている。このため、第2のカメラで撮影された画像から確実に人物を検出することが難しい場合もありうる。さらに、図2あるいは図3に示す設置例では、第1のカメラが入口近傍に設置され、第2のカメラが第1のカメラよりも手前に設置されている。このような場合、第1のカメラで撮影された画像から検出された人物については、第2のカメラで撮影された画像から検出されなかった場合であっても、図4に示す「No2」あるいは「No3」と同様に、当該人物を分類するようにしても良い。この場合、人物対応付け部140では、第1のカメラで撮影された画像から検出された人物と対応付けられる人物が第2のカメラで撮影された画像から検出されなかった旨を対応付け処理の結果として分類部150へ供給するようにすれば良い。
For example, the second camera is installed so that it is difficult for a passer-by to recognize it. For this reason, it may be difficult to reliably detect a person from an image captured by the second camera. Further, in the installation example shown in FIG. 2 or FIG. 3, the first camera is installed in the vicinity of the entrance, and the second camera is installed in front of the first camera. In such a case, even if the person detected from the image captured by the first camera is not detected from the image captured by the second camera, “
上記判定により人物の分類が可能でないと判定された場合(ステップS106、NO)、上記分類部150による分類判定が可能な状態となるまで、上記ステップS101〜S106の処理が繰り返し実行される。
If it is determined that the person cannot be classified by the above determination (step S106, NO), the processes of steps S101 to S106 are repeated until the classification by the
また、上記判定により人物の分類が可能であると判定された場合(ステップS106、YES)、分類部150では、人物対応付け部140で対応付け処理の結果が得られた人物に対する分類処理を行う。すなわち、分類部150は、まず、第1のカメラで撮影された画像(第1の人物検出部121で検出された人物の画像)から第1の顔検出部131により顔が検出されたか否かを判定する(ステップS107)。
If it is determined that the person can be classified by the above determination (step S106, YES), the
上記第1のカメラで撮影された画像から顔が検出されなかった場合(ステップS107、NO)、上記分類部150は、さらに、第2のカメラで撮影された画像から当該人物(第1の人物検出部121で検出された人物に対応付けられた人物)の顔が第2の顔検出部132により検出されたか否かを判定する(ステップS108)。
When a face is not detected from the image captured by the first camera (step S107, NO), the
これらの判定により第1のカメラおよび第2のカメラで撮影された画像(人物の画像)から顔が検出できなった場合(ステップS108、NO)、分類部150は、図4に示す分類に基づいて、当該人物が顔が検出できなかった不審者らしい人物であると分類する。このような分類に応じて、分類部150は、処理内容として、当該人物に対する顔照合を行わずに、当該人物に関する履歴情報を記録し、当該人物の通行を不可とするものと判断する。
When the face cannot be detected from the images (person images) taken by the first camera and the second camera by these determinations (step S108, NO), the
この場合、履歴管理部190は、当該顔が検出できなかった不審者らしい人物に関する履歴情報として、当該人物が検出された日時、当該人物に対する判定結果、当該人物が検出された画像など記録する(ステップS109)。これと共に、通行制御部180は、自動ドア、電子錠、あるいは、ゲートなどを閉鎖することにより当該人物の通行を拒否する(ステップS110)。この際、通行制御部180は、表示部111aあるいは図示しないスピーカにより「顔が確認できないため通行不可である」あるいは「顔を隠さないでください」などの警告を出力するようにしても良い。これにより、顔をカメラに向けることを促したり、不正行為を防止したりすることが可能となる。
In this case, the
また、上記判定により第1のカメラで撮影された画像から顔が検出されず、第2のカメラで撮影された画像(人物の画像)から顔が検出された場合(ステップS108、YES)、分類部150は、図4に示す分類に基づいて、当該人物が顔が検出できた不審者らしい人物であると分類する。このような分類に応じて、分類部150は、処理内容として、当該人物に対する顔照合を行わずに、当該人物に関する顔画像を含む履歴情報を記録し、当該人物の通行を不可とするものと判断する。
If the face is not detected from the image captured by the first camera by the above determination and the face is detected from the image captured by the second camera (person image) (YES in step S108), the classification is performed. Based on the classification shown in FIG. 4,
この場合、履歴管理部190は、当該顔が検出できた不審者らしい人物に関する履歴情報として、当該人物の顔画像、当該人物が検出された日時、当該人物に対する判定結果、当該人物が検出された画像など記録する(ステップS111)。これと共に、通行制御部180では、自動ドア、電子錠、あるいは、ゲートなどを閉鎖することにより当該人物の通行を拒否する(ステップS110)。この際、通行制御部180は、表示部111aあるいは図示しないスピーカにより「(第1のカメラで)顔が確認できないため通行不可である」あるいは「顔を隠さないでください」などの警告を出力するようにしても良い。これにより、顔をカメラ(第1のカメラ)に向けることを促したり、不正行為を防止したりすることが可能となる。
In this case, the
上記第1のカメラで撮影された画像から顔が検出された場合(ステップS107、YES)、上記分類部150は、さらに、第2のカメラで撮影された画像から当該人物(人物検出部121で検出された人物に対応付けられた人物)の顔が検出されたか否かを判定する(ステップS112)。
When a face is detected from the image captured by the first camera (step S107, YES), the
これらの判定により第1のカメラで撮影された画像から顔が検出され、かつ、第2のカメラで撮影された画像(人物の画像)からも同一人物の顔が検出された場合(ステップS112、YES)、分類部150は、図4に示す分類に基づいて、当該人物が第2のカメラの存在を知っている通行者であると分類する。このような分類に応じて、分類部150は、処理内容として、当該人物に対する顔照合に用いられる認証用の閾値を所定値(所定の認証用の閾値)よりも緩和し(ステップS113)、この緩和した認証用の閾値による顔照合を行うものとする(ステップS114)。
When a face is detected from an image photographed by the first camera by these determinations, and a face of the same person is also detected from an image photographed by the second camera (person image) (step S112, YES), the
この場合、顔照合部170は、分類部150により指定された所定値を緩和した認証用の閾値を用いて、上記顔検出部131あるいは顔検出部132により検出された顔の特徴情報と顔特徴管理部160に記憶されている各登録者の顔の特徴情報とを照合する顔照合処理を行う(ステップS114)。
In this case, the
また、上記判定により第1のカメラで撮影された画像から顔が検出され、かつ、第2のカメラで撮影された画像(人物の画像)からは同一人物の顔が検出されなかった場合(ステップS112、NO)、分類部150は、図4に示す分類に基づいて、当該人物が一般的な通行状態の通行者であると分類する。このような分類に応じて、分類部150は、処理内容として、当該人物に対する顔照合に用いられる認証用の閾値を所定の認証用の閾値とし、この所定の認証用の閾値による顔照合を行うものとする(ステップS114)。
Further, when the face is detected from the image taken by the first camera by the above determination, and the face of the same person is not detected from the image (person image) taken by the second camera (step) (S112, NO), the
この場合、顔照合部170は、分類部150により指定された所定の認証用の閾値を用いて、上記顔検出部131あるいは顔検出部132により検出された顔の特徴情報と顔特徴管理部160に記憶されている各登録者の顔の特徴情報とを照合する顔照合処理を行う(ステップS114)。
In this case, the
なお、図5に示す処理手順では、顔照合を行う場合、少なくとも第1のカメラで撮影された画像から通行者Mの顔が検出されている。また、上記第1のカメラは、通行者に認識され易いように設置されている。このため、第1のカメラでは、第2のカメラに比べて良好な顔画像を含む画像が撮影できる可能性が高いと推測される。このため、ここでは、第1のカメラで撮影された画像から検出された顔画像(顔の特徴情報)を用いて顔照合処理を行うものとする。 In the processing procedure shown in FIG. 5, when face matching is performed, the face of the passerby M is detected from at least an image photographed by the first camera. The first camera is installed so that it can be easily recognized by a passerby. For this reason, it is estimated that the first camera is more likely to capture an image including a good face image than the second camera. For this reason, here, it is assumed that face matching processing is performed using a face image (face feature information) detected from an image taken by the first camera.
すなわち、顔照合部170は、上記顔検出部131により検出された顔の特徴情報と顔特徴管理部160に記憶されている各登録者の顔の特徴情報との類似度を算出する。各登録者との類似度を算出すると、顔照合部170は、算出した類似度のうち最大の類似度を選択し、選択した類似度が分類部150により判定された分類に応じた閾値(分類部150により調整された閾値)以上であるか否かを判定する。
That is, the
ここで、図4に示す例では、第2のカメラで当該人物の顔が検出されている場合、分類部150は、所定の認証用の閾値を緩和した認証用の閾値を当該人物に対する顔照合に用いられる認証用の閾値とする。また、第2のカメラで当該人物の顔が検出されなった場合、分類部150は、所定の認証用の閾値を当該人物に対する顔照合に用いられる認証用の閾値とする。すなわち、分類部150は、第1のカメラで撮影された画像から顔が検出された人物については、第2のカメラで撮影された画像から顔が検出されたか否かにより顔照合に用いる認証用の閾値を調整するようになっている。
Here, in the example illustrated in FIG. 4, when the face of the person is detected by the second camera, the
上記判定により最大類似度が認証用の閾値以上であると判定した場合、顔照合部170は、第1のカメラで顔が撮影された人物が最大類似度となった登録者であると判断する。つまり、最大類似度が認証用の閾値以上である場合、顔照合部170は、顔照合が成功したものと判断する。また、上記判定により最大類似度が認証用の閾値未満であると判定した場合、顔照合部170は、第1のカメラで顔が撮影された人物がどの登録者でもないと判断する。つまり、最大類似度が認証用の閾値未満である場合、顔照合部170は、顔照合が失敗したものと判断する。
If it is determined by the above determination that the maximum similarity is equal to or greater than the threshold value for authentication, the
上記ステップS114の顔照合が成功した場合(ステップS115、YES)、通行制御部180では、自動ドア、電子錠、あるいは、ゲートなどを開放することにより当該人物の通行を許可する(ステップS116)。この際、通行制御部180は、表示部111aあるいは図示しないスピーカにより通行を許可する旨の案内を出力するようにしても良い。
When the face collation in step S114 is successful (step S115, YES), the
また、上記ステップS114の顔照合が失敗した場合(ステップS115、NO)、通行制御部180では、自動ドア、電子錠、あるいは、ゲートなどを閉鎖することにより当該人物の通行を拒否する(ステップS110)。この際、通行制御部180は、表示部111aあるいは図示しないスピーカにより「登録者であることが確認できないため通行不可」である旨の案内を出力するようにしても良い。
If the face collation in step S114 fails (step S115, NO), the
上記のように、第1の実施の形態としての通行者認識装置では、通行者に認識され易いように設置したカメラで撮影した画像からの顔の検出結果と通行者に認識され難いように設置したカメラで撮影した画像からの顔の検出結果とに基づいて、通行者を分類し、それらの分類に応じた処理を行うようにしたものである。これにより、各カメラで撮影された人物の状態から推測される通行者の行動に応じた通行制御処理が可能となる。 As described above, in the passer-by identification device as the first embodiment, the face detection result from the image taken by the camera installed so that the passer-by is easily recognized and the passer-by recognition are not easily installed. The passers are classified based on the detection results of the face from the image taken by the camera, and processing corresponding to the classification is performed. Thereby, the traffic control process according to the action of the passerby estimated from the state of the person photographed with each camera becomes possible.
なお、上記第1の実施の形態では、上記2種類の画像取得部111,112を1台ずつ設置することを前提に説明した。しかしながら、画像取得部(カメラ)は、通路の形状あるいは運用形態に応じて設置台数を増やすようにしても良い。この場合、人物対応付け部140では、設置された画像取得部(カメラ)の数に応じて対応付け処理を増やすことで対応することが可能である。
Note that the first embodiment has been described on the assumption that the two types of
次に、第2の実施の形態について説明する。
図6は、第2の実施の形態に係るアクセス制御装置としての人物(通行者)認識装置20の構成例を概略的に示すものである。
Next, a second embodiment will be described.
FIG. 6 schematically shows a configuration example of a person (passerby)
図6に示す通行者認識装置20は、上記第1の実施の形態で説明した通行者認識装置10と同様に、顔照合機能を有するアクセス制御装置として機能するものである。また、図6に示す通行者認識装置20の運用形態についても、上記第1の実施の形態で説明した通行者認識装置10と同様な適用例が想定される。
The passer-
上記通行者認識装置20は、図6に示すように、第1の画像取得部211、第2の画像取得部212、第1の人物検出部221、第2の人物検出部222、第1の顔検出部231、第2の顔検出部232、人物対応付け部240、分類部250、なりすまし判定部255、顔特徴管理部260、顔照合部270、通行制御部280および履歴管理部290などを有している。
As shown in FIG. 6, the passer-by
なお、第1の画像取得部211、表示部211a、第2の画像取得部212、アクリル板212a、第1の人物検出部221、第2の人物検出部222、第1の顔検出部231、第2の顔検出部232、人物対応付け部240、分類部250、顔特徴管理部260、通行制御部280および履歴管理部290は、第1の実施の形態で説明した、第1の画像取得部111、表示部111a、第2の画像取得部112、アクリル板112a、第1の人物検出部121、第2の人物検出部122、第1の顔検出部131、第2の顔検出部132、人物対応付け部140、分類部150、顔特徴管理部160、通行制御部180および履歴管理部190と同様な機能を有しているため、詳細な説明を省略するものとする。
In addition, the 1st
第1の画像取得部211は、第1の画像取得部111と同様に、通行者Mにカメラが認識され易いように設置されている。第2の画像取得部212は、第2の画像取得部112と同様に、通行者Mにカメラが認識され難いように設置されている。また、第1の画像取得部211および第2の画像取得部212の設置例についても、第1の画像取得部111および第2の画像取得部112と同様な設置例が想定可能である。
Similar to the first
次に、上記なりすまし判定部255について説明する。
Next, the
なりすまし判定部255は、通行者がなりすましを行っているか否かを判定(なりすましの有無を判定)する。すなわち、なりすまし判定部255では、上記人物対応付け部240で対応付けられた通行者がなりすましを行っているか否かを判定する。なりまし判定部255によるなりすまし判定処理には、種々の適用手法が可能である。ただし、本実施の形態において、なりすまし判定部255は、第1のカメラで撮影された顔画像と第2のカメラで撮影された同一人物の顔画像との変化によってなりすましを判定するものとする。このため、本実施の形態において、なりすまし判定部255は、第1のカメラおよび第2のカメラで共に顔が撮影された人物を対象として、なりすましの判定を行うものとする。
The
顔照合部270は、上記第1の実施の形態で説明した顔照合部170と同様に、第1の画像取得部211(あるいは第2の画像取得部212)により取得した画像から検出された顔の特徴情報と顔特徴管理部260に記憶されている登録者の顔の特徴情報との照合を行う機能を有している。さらに、顔照合部270は、第1の画像取得部211で取得した画像から第1の顔検出部231により検出された顔の特徴情報(以下、第1の特徴情報とも称する)と第2の画像取得部212で取得した画像から第2の顔検出部232により検出された顔の特徴情報(以下、第2の特徴情報とも称する)との類似度を算出する機能を有している。なお、上記顔照合部270による第1の特徴情報と第2の特徴情報との類似度の算出手法は、上記第1の実施の形態で説明した手法が適用される。
The
次に、なりすまし判定部255によるなりすまし判定処理について説明する。
Next, the impersonation determination process by the
たとえば、なりすまし判定部255は、第1の特徴情報と第2の特徴情報との類似度と所定のなりすまし判定用の閾値とを比較することにより、なりすましの有無を判定する。たとえば、なりすまし判定部255は、第1の特徴情報と第2の特徴情報との類似度が所定のなりすまし判定用の閾値未満であれば、なりすまし有りと判定するものとする。これは、第2のカメラに気がついていない人物が、第1のカメラには他人になりました状態で撮影される場合を想定している。このような場合、第2のカメラで撮影された顔と第1のカメラで撮影された顔とが著しく異なる(たとえば、同一人物とは判定できない程度に第1の特徴情報と第2の特徴情報との類似度が低くなる)と推測される。このため、なりすまし判定部255は、第1の特徴情報と第2の特徴情報との類似度が所定閾値(Ta)未満であるか否かにより、なりすましか否かを判定するようになっている。
For example, the
この場合、なりすまし判定部255は、顔照合部270により第1の特徴情報と第2の特徴情報との類似度を算出させる。これにより、なりすまし判定部255は、顔照合部270により算出された第1の特徴情報と第2の特徴情報との類似度が所定の閾値(Ta)未満であるか否かにより、なりすましの有無を判定する。
In this case, the
なお、本実施の形態では、第1、第2のカメラが歩行中の通行者の顔を撮影し、かつ、第2のカメラは通行者に意識されてないことが想定している。このため、当該通行者の姿勢あるいは表情の変化などにより、同一人物(なりすまし無しの通行者)であっても、第1の特徴情報と第2の特徴情報とは大きく変動する可能性がある。従って、上記閾値Taは、当該通行者認識装置20の運用形態に応じて同一人物がなりすましと判定されないように設定する必要がある。たとえば、上記閾値Taとしては、第1の画像取得部211で取得された画像から検出された顔の特徴情報と登録者の顔の特徴情報とが同一人物であるか否かを判定するための所定閾値(緩和された閾値)よりも小さい値が設定される。
In the present embodiment, it is assumed that the first and second cameras capture the face of a passerby while walking, and that the second camera is not conscious of the passerby. For this reason, the first feature information and the second feature information may greatly fluctuate even for the same person (passer without impersonation) due to a change in the posture or expression of the passerby. Therefore, the threshold value Ta needs to be set so that the same person is not determined to be impersonated according to the operation mode of the passer-
また、不審者が第2のカメラに気がついている場合などでは、第2のカメラにも第1のカメラと同様になりすました状態の人物の顔が撮影される可能性がある。このような場合、両者の類似度が極端に高くなる(略同一となる)ことが推測される。これに対して、本実施の形態では、第1、第2のカメラが歩行中の通行者の顔を撮影することを想定しているため、当該通行者の姿勢あるいは表情の変化などにより、第1の特徴情報と第2の特徴情報とが略同一になる(両者の類似度が極端に高くなる)可能性が少ないという状況も考えられる。このような状況を想定すると、第1の特徴情報と第2の特徴情報との類似度が極端に高い(たとえば、類似度が所定閾値Tb以上)人物を、なりましと判定するようにしても良い。この場合、なりすまし判定部255は、上述した条件と組み合わせて閾値Ta以上かつ閾値Tb未満であるか否かにより、なりすましが無しか有りかを判定するようにしても良い。
In addition, when the suspicious person is aware of the second camera, the face of the person who is impersonated like the first camera may be photographed on the second camera. In such a case, it is presumed that the similarity between the two becomes extremely high (substantially the same). In contrast, in the present embodiment, it is assumed that the first and second cameras capture the face of a walking passerby. There may be a situation in which there is a low possibility that the first feature information and the second feature information are substantially the same (the degree of similarity between them is extremely high). Assuming such a situation, a person who has extremely high similarity between the first feature information and the second feature information (for example, the similarity is equal to or greater than a predetermined threshold Tb) may be determined to be impersonated. good. In this case, the
次に、分類部150およびなりすまし判定部255による各人物の分類方法について説明する。
Next, a method for classifying each person by the
図7は、各人物の分類基準と各分類の人物に対する処理内容の例を示す図である。 FIG. 7 is a diagram showing an example of the classification criteria for each person and the processing contents for each classification person.
図7に示す分類例は、図4に示す分類例になりすましの有無に応じた分類を加えたものである。従って、図7に示す分類例は、第1の画像取得部111で取得した画像および第2の画像取得部112で取得した画像から共に顔が検出され、かつ、なりすまし有りと判定された場合以外は、図4に示す分類例と同様である。
The classification example shown in FIG. 7 is the same as the classification example shown in FIG. 4 except that a classification corresponding to the presence or absence of impersonation is added. Therefore, the classification example shown in FIG. 7 is other than the case where a face is detected from both the image acquired by the first
すなわち、なりすまし有りと判定された場合、なりすまし判定部255は、上記顔照合部270による顔特徴管理部260に記憶されている登録者の顔の特徴情報との照合を行わずに、上記通行制御部280により当該人物の通行を拒否するとともに、履歴管理部290によりなりすましと判定された画像(第1、第2のカメラで撮影された画像)を記録するように制御する。この場合、さらに、なりすまし判定部255は、図示しないスピーカにより警報を発したり、図示しない通信インターフェースにより外部へ警告と通知するようにしても良い。
In other words, when it is determined that there is impersonation, the
次に、第2の実施の形態としての通行者認識装置20の動作例について説明する。
図8は、通行者認識装置20の動作例を説明するためのフローチャートである。図8に示す動作では、図7に示すような分類方法が予め設定されている場合を想定している。
Next, an operation example of the passer-
FIG. 8 is a flowchart for explaining an operation example of the passer-
なお、図8に示すフローチャートのステップS201〜S216は、図5に示すフローチャートのステップS101〜S116と同様な処理で実現可能である。つまり、図8に示す動作例は、図5に示す動作例に、なりすまし判定処理(ステップS221)を加えた処理である。従って、図5に示すステップと同様な処理については、詳細な説明を省略するものとする。 Note that steps S201 to S216 in the flowchart shown in FIG. 8 can be realized by the same processing as steps S101 to S116 in the flowchart shown in FIG. That is, the operation example shown in FIG. 8 is a process obtained by adding impersonation determination processing (step S221) to the operation example shown in FIG. Therefore, detailed description of the same processing as the step shown in FIG. 5 is omitted.
ずなわち、第1のカメラで撮影した画像から顔が検出され、かつ、第2のカメラで撮影した画像からも同一人物と判定された人物の顔が検出された場合(S207でYESかつS212でYES)、なりすまし判定部255は、第1のカメラで撮影された画像と第2のカメラで撮影された画像とに基づいて、なりすまし判定処理を行う(ステップS221)。このなりすまし判定処理では、上述したように、第1のカメラで撮影された画像から検出された顔の特徴情報(第1の特徴情報)と第2のカメラで撮影された画像から検出された顔の特徴情報(第2の特徴情報)との類似度がなりすまし判定用の所定の閾値Ta未満であるか否かによりなりすましか否かを判定する。
In other words, when a face is detected from an image captured by the first camera and a face of a person determined to be the same person is detected from an image captured by the second camera (YES in S207 and S212). YES), the
たとえば、第1の特徴情報と第2の特徴情報との類似度が閾値Ta以上であった場合、なりすまし判定部255は、なりすまし無しと判定する。これに対して、第1の特徴情報と第2の特徴情報との類似度が閾値Ta未満であった場合、なりすまし判定部255は、なりすまし有りと判定する。
For example, when the degree of similarity between the first feature information and the second feature information is greater than or equal to the threshold value Ta, the
上記判定によりなりすまし無しと判定された場合(ステップS221、NO)、上記顔照合部270は、上記ステップS113及びS114と同様に、認証用の所定の閾値を緩和した閾値により第1の特徴情報と登録者の顔の特徴情報との照合処理(顔照合処理)を行う(ステップS213及びS214)。この場合、通行制御部280は、顔照合部270による顔照合処理の結果に応じて当該人物に対する通行制御を行う(ステップS210、S215及びS216)。
When it is determined that there is no spoofing based on the above determination (step S221, NO), the
また、上記判定によりなりすまし有りと判定された場合(ステップS221、YES)、上記履歴管理部290は、なりすましと判定された画像(第1及び第2の画像取得部で取得した各画像)を含む履歴情報を記録する(ステップS211)。この場合、通行制御部280は、当該人物に対する通行を拒否する(ステップS210)。
When it is determined that there is impersonation by the above determination (step S221, YES), the
上記のように、第2の実施の形態としての通行者認識装置20では、通行者に認識され易いように設置したカメラで撮影した画像からの顔の検出結果と、通行者に認識され難いように設置したカメラで撮影した画像からの顔の検出結果とに基づいて、通行者を分類する。これと共に、通行者認識装置20では、通行者に認識され易いように設置したカメラで撮影した画像から検出された顔の特徴情報と、通行者に認識され難いように設置したカメラで撮影した画像から検出された顔の特徴情報とを比較することにより、通行者がなりすましを行っているか否かを判定する。これにより、なりすましを排除しつつ、各カメラで撮影された人物の状態から推測される通行者の行動に応じた通行制御処理が可能となる。
As described above, in the passer-by
なお、上記第2の実施の形態で説明した通行者認識装置20は、画像取得部(カメラ)の設置台数を通路の形状あるいは運用形態に応じて増やすようにしても良い。この場合も、なりすまし判定部255では、各画像取得部で取得された画像から検出される顔の特徴情報を比較することにより、通行者がなりすましを行っているか否かを判定することが可能である。
In addition, the passer-
次に、第3の実施の形態について説明する。
図9は、第3の実施の形態に係る人物監視装置としての人物(通行者)認識装置30の構成例を概略的に示すものである。
Next, a third embodiment will be described.
FIG. 9 schematically shows a configuration example of a person (passerby)
図9に示す通行者認識装置30は、上記第1の実施の形態で説明した通行者認識装置10と同様に、顔照合機能を有する。本第3の実施の形態では、通行者認識装置30は、通行者を監視する監視装置として機能するものを想定する。たとえば、図9に示す通行者認識装置30は、通行者の顔を認識し、その認識結果を外部装置などへ通知する監視装置に適用される。但し、通行者認識装置30は、第1、第2の実施の形態で説明したような運用形態のアクセス制御装置に適用することも可能である。
The passer-
上記通行者認識装置30は、図9に示すように、第1の画像取得部311、第2の画像取得部312、第1の人物検出部321、第2の人物検出部322、第1の顔検出部331、第2の顔検出部332、人物対応付け部340、分類部350、顔特徴管理部360、不審者リスト361、重要人物(VIP)リスト362、顔検索部370、出力部380および履歴管理部390などを有している。
As shown in FIG. 9, the passer-
なお、第1の画像取得部311、表示部311a、第2の画像取得部312、アクリル板312a、第1の人物検出部321、第2の人物検出部322、第1の顔検出部331、第2の顔検出部332、人物対応付け部340および履歴管理部390は、第1の実施の形態で説明した第1の画像取得部111、表示部111a、第2の画像取得部112、アクリル板112a、第1の人物検出部121、第2の人物検出部122、第1の顔検出部131、第2の顔検出部132、人物対応付け部140および履歴管理部190と同様な機能を有しているため、詳細な説明を省略するものとする。
In addition, the 1st
第1の画像取得部311は、第1の画像取得部111と同様に、通行者Mにカメラが認識され易いように設置されている。第2の画像取得部312は、第2の画像取得部112と同様に、通行者Mにカメラが認識され難いように設置されている。第1の画像取得部311および第2の画像取得部312は、第1の画像取得部111および第2の画像取得部112と同様な設置例が想定可能である。但し、第1の画像取得部311および第2の画像取得部312は、たとえば、入口に接近する人物を撮影するだけではなく、入口付近を通行する通行者の顔を撮影するように設置される形態も可能である。なお、第1の画像取得部311および第2の画像取得部312の設置例については、後で詳細に説明する。
Similar to the first
分類部350は、上記第1の実施の形態で説明した分類部150と同様に、人物対応付け部340で対応付けられた人物の状態(行動パターン)に基づいて各人物を分類する。分類部350は、たとえば、顔検出部331による顔の検出結果と顔検出部332による顔の検出結果とに基づいて各人物を幾つかのパターンに分類する。なお、第3の実施の形態としての分類例について後で詳細に説明するものとする。
Similar to the
顔特徴管理部360は、検索対象となる各人物の顔の特徴情報を含む登録者情報が記憶されている。さらに、顔特徴管理部360は、不審者リスト361およびVIPリスト362を有している。不審者リスト361は、不審者として登録されている人物の顔の特徴情報が記憶されている。VIPリスト362は、重要人物(VIP)として登録されている人物の顔の特徴情報が記憶されている。ただし、顔特徴管理部360には、不審者およびVIPをリストで分けずに、各人物(顔の特徴情報)に対する属性情報として不審者およびVIPを区別するようにしても良い。
The face
顔検索部370は、通行者の顔の特徴情報との類似度が最大、かつ、検索用の閾値以上となる顔の特徴情報を顔特徴管理部360から検索する。ここで、顔検索部370は、通行者の顔の特徴情報との類似度が最大となる類似度が検索用の閾値以上であるか否かにより、通行者と最も類似する1人の人物を検索するものとする。ただし、顔検索部370は、類似度が検索用の閾値以上となる全ての人物を検索結果として得るようにしても良い。
The
すなわち、顔検索部370は、第1の顔検出部331あるいは第2の顔検出部332により検出された顔の特徴情報と顔特徴管理部360に記憶されている各顔の特徴情報との類似度を算出する。顔検索部370は、算出した類似度のうち最大類似度が検索用の閾値以上であるか否かを判定する。最大類似度が検索用の閾値以上であると判定した場合、顔検索部370は、通行者が最大類似度となった人物であると判定する(つまり、最大類似度となった人物を検索結果とする)。
That is, the
ここで、上記顔検索部370による検索処理に用いられる検索用の閾値は、分類部350による分類結果に応じて調整される値である。また、VIPリスト362に対する検索用の閾値(VIPリスト362に記憶されている顔の特徴情報との類似度に対する検索用の閾値)、あるいは、不審者リスト361に対する検索用の閾値(不審者リスト361に記憶されている顔の特徴情報との類似度に対する検索用の閾値)は、選択的に調整可能である。たとえば、VIPリスト362に対する検索用の閾値が緩和されると、通行者と一致すると判定される人物がVIPリスト362から検索され易くなる。不審者リスト361に対する検索用の閾値が緩和されると、通行者と一致すると判定される人物が不審者リスト361から検索され易くなる。
Here, the search threshold value used in the search process by the
出力部380は、上記顔検索部370による検索結果、あるいは、上記分類部350による分類結果などに応じた情報を監視装置などの外部装置へ出力する通信インターフェースとして機能する。この場合、出力部380は、顔検索部370による検索結果あるいは分類部350による分類結果を示す情報として、第1、第2のカメラで撮影した映像などの画像情報あるいは警報などの音声情報を監視装置へ出力する。これにより、監視装置により監視を行っている管理者は、上記検索結果および分類結果などをリアルタイムで確認することが可能となる。
The
また、出力部380は、表示部311aに検索結果あるいは警告を表示したり、図示しないスピーカにより警報を発するようにしても良い。これにより、通行者自身が、上記検索結果および分類結果などをリアルタイムで認識することが可能となる。
The
次に、第3の実施の形態としての第1の画像取得部311および第2の画像取得部312の設置例について説明する。
Next, an installation example of the first
図10および図11は、第1の画像取得部311と第2の画像取得部312の設置例を示す図である。
FIGS. 10 and 11 are diagrams illustrating an installation example of the first
図10では、途中にゲートG3が設けられている直線状の通路P3と、通路P3における第1の画像取得部311および第2の画像取得部312の設置例を示している。図10に示す例では、図10中に点線の矢印で示すa方向に対して、第1の画像取得部311のカメラ(第1のカメラ)はゲートG3の手前に設けられ、第2の画像取得部312のカメラ(第2のカメラ)はゲートG3を過ぎた場所に設けられている。
FIG. 10 shows an installation example of the linear passage P3 in which the gate G3 is provided in the middle, and the first
すなわち、図10に示す例では、第1のカメラは、ゲートG3に接近してくる通行者の顔を撮影するように設置される。また、第1のカメラの近傍には、通行者に対する案内などを表示する表示部311aが設置されている。これにより、ゲートG3に接近する通行者は、第1のカメラを意識したり、表示部311aに表示されている案内を目視したりする。つまり、第1のカメラは、当該第1のカメラを意識しつつゲートG3に接近してくる通行者の顔が撮影され易いようになっている。
That is, in the example shown in FIG. 10, the first camera is installed so as to photograph the face of a passerby approaching the gate G3. In addition, a
第2のカメラは、ゲートG3を通過した通行者の顔を撮影するように設置されている。また、第2のカメラは、アクリル板312aにより隠されている。これにより、ゲートG3を通過した通行者は、第2のカメラを意識することなく通路P3を通行する。つまり、第2のカメラには、当該第2のカメラを意識していない通行者が撮影されるようになっている。
The second camera is installed so as to photograph the face of a passerby who has passed through the gate G3. The second camera is hidden by the
図11では、途中にゲートG4が設けられている直線状の通路P4と、通路P4における第1の画像取得部311および第2の画像取得部312の設置例を示している。
FIG. 11 shows a linear path P4 in which a gate G4 is provided in the middle, and an installation example of the first
図11に示す例では、第1の画像取得部311のカメラ(第1のカメラ)は、図11に示すa方向に対してゲートG4の手前に設けられ、第2の画像取得部312のカメラ(第2のカメラ)は、図11に示すa方向とは逆のb方向に対して、ゲートG4の手前に設けられている。
In the example shown in FIG. 11, the camera (first camera) of the first
すなわち、第1のカメラは、ゲートG4にa方向から接近してくる通行者の顔を撮影するように設置される。また、第1のカメラの近傍には、通行者に対する案内などを表示する表示部311aが設置されている。これにより、ゲートG4にa方向から接近する通行者は、第1のカメラを意識したり、表示部311aに表示されている案内を目視したりする。つまり、第1のカメラは、ゲートG4に向かって、当該第1のカメラを意識しつつa方向から接近する通行者が撮影され易いようになっている。
That is, the first camera is installed so as to photograph the face of a passerby approaching the gate G4 from the direction a. In addition, a
また、第2のカメラは、ゲートG4にa方向とは逆のb方向から接近してくる通行者の顔を撮影するように設置される。また、第2のカメラは、アクリル板312aにより隠されている。これにより、ゲートG4にb方向から接近してくる通行者は、第2のカメラを意識することなく通路P4を通行する。つまり、第2のカメラには、a方向とは逆方向からゲートG4に接近してくる、当該第2のカメラを意識していない通行者が撮影されるようになっている。
The second camera is installed so as to photograph the face of a passerby approaching the gate G4 from the b direction opposite to the a direction. The second camera is hidden by the
上述した設置例のように、第3の実施の形態としての通行者認識装置30では、運用形態などに応じて様々な設置方法で第1のカメラと第2のカメラとを設置可能である。すなわち、通行者認識装置30は、通行者を監視することを想定しているため、通行者を撮影できる位置であれば、第1および第2のカメラは、様々な場所に設置可能である。
As in the installation example described above, in the passer-by
次に、分類部350による各人物の分類方法について説明する。
分類部350では、第1の実施の形態と同様に、たとえば、第1の顔検出部331および第2の顔検出部332による顔の検出結果に基づいて各人物を分類する。各人物をどのように分類し、それらの分類結果に応じてどのような処理を行うかは、当該通行者認識装置の設置状況、システム全体の運用形態、あるいは、セキュリティポリシーなどに応じて適宜設定されるものである。すなわち、分類部350は、予め設定される分類基準に従って各人物を分類する。
Next, a method for classifying each person by the
As in the first embodiment, the
図12は、第3の実施の形態としての分類部350による各人物に対する分類基準の例を示す図である。
ここでは、第1の画像取得部311のカメラ(以下、第1カメラとも称する)が通行者に認識され易いように設置され、第2の画像取得部312のカメラ(以下、第2カメラとも称する)が通行者に認識され難いように設置されているものとする。
FIG. 12 is a diagram illustrating an example of classification criteria for each person by the
Here, the camera of the first image acquisition unit 311 (hereinafter also referred to as the first camera) is installed so as to be easily recognized by passers-by, and the camera of the second image acquisition unit 312 (hereinafter also referred to as the second camera). ) Is installed in such a way that it is difficult for a passer-by to recognize it.
図12に示す「No.3」および「No.4」によれば、第1の画像取得部311により取得した画像から人物の顔が検出できなかった場合、つまり、人物検出部321により検出された人物の顔が顔検出部331で検出できなかった場合(第1のカメラの画像:顔検出NG)、分類部350は、当該人物が不審者らしい人物であると分類する。このような分類は、意図的に第1のカメラに顔が撮影されないようにしている人物は不審者らしい人物であるという推測に基づいている。
According to “No. 3” and “No. 4” shown in FIG. 12, when a human face cannot be detected from the image acquired by the first
また、図12に示す「No.4」によれば、第1の画像取得部311により取得した画像から検出された人物の顔が検出できず、かつ、第2の画像取得部312により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できなかった場合(第1のカメラの画像:顔検出NG、かつ、第2のカメラの画像:顔検出NG)、分類部350は、当該人物が全く顔が検出できなかった不審者らしい人物であると分類する。
In addition, according to “No. 4” illustrated in FIG. 12, a human face detected from the image acquired by the first
この場合、分類部350は、出力部380により監視装置へ警報を出力させるとともに、履歴管理部390に不審者らしいと判定された人物の画像を含む履歴情報が記録させる。履歴管理部390に記録される履歴情報は、たとえば、判定結果、判定時刻および当該人物が検出された画像などである。なお、上記のように顔が全く検出できなかった人物については、後で顔画像を取得できれば、その顔画像から得られる顔の特徴情報とともに不審者リストに登録することも可能である。
In this case, the
また、図12に示す「No.3」によれば、第1の画像取得部311により取得した画像から人物の顔が検出できず、かつ、第2の画像取得部312により取得した画像から当該人物に対応付けられる人物の顔が検出できた場合(第1のカメラの画像:顔検出NG、かつ、第2のカメラの画像:顔検出OK)、分類部350は、当該人物が顔が検出できた不審者らしい人物であると分類する。
Further, according to “No. 3” illustrated in FIG. 12, a human face cannot be detected from the image acquired by the first
この場合、第2の画像取得部312により取得した画像から検出できた顔画像から得られる顔の特徴情報による顔検索が可能である。このため、図12に示す例では、処理内容として、不審者リスト361を重点的に顔検索し、その検索結果を出力するものと設定されている。すなわち、図12に示す「No.3」の場合、分類部350は、不審者リスト361を重点的に顔検索するために、不審者リスト361に対する検索用の閾値を所定の検索用の閾値よりも小さくする(閾値を緩和する)。これにより、顔検索部370による顔検索処理では、検索結果として、不審者リスト361に記憶されている不審者が抽出され易くなる。なお、図12に示す「No.3」の場合、分類部350は、VIPリスト362に対する検索用の閾値を所定の検索用の閾値よりも大きく(閾値を厳しく)するようにしても良い。この場合、検索結果としては、VIPリスト362に記憶されているVIPが抽出され難くなる。
In this case, face search based on face feature information obtained from the face image detected from the image acquired by the second
また、不審者リスト361を重点的に顔検索する方法としては、不審者リスト361に記憶されている顔の特徴情報のみを検索対象として検索するようにしても良い。さらに、この場合も、分類部350は、不審者リスト361に対する検索用の閾値を所定の検索用の閾値よりも小さくする(閾値を緩和する)ようにしても良い。
Further, as a method of searching for a face with emphasis on the
また、図12に示す「No.1」および「No.2」によれば、第1の画像取得部311により取得した画像から検出された人物の顔が検出できた場合、つまり、人物検出部321により検出された人物の顔が顔検出部331で検出できた場合(第1のカメラの画像:顔検出OK)、分類部350は、当該人物が重量人物あるいは一般の通行者らしい人物であると分類する。
Further, according to “No. 1” and “No. 2” shown in FIG. 12, when a human face detected from the image acquired by the first
また、図12に示す「No.2」によれば、第1の画像取得部311により取得した画像から検出された人物の顔が検出でき、かつ、第2の画像取得部312により取得した画像から検出された当該人物に対応付けられる人物の顔が検出できなかった場合(第1のカメラの画像:顔検出OK、かつ、第2のカメラの画像:顔検出NG)、分類部350は、当該人物が一般の通行者らしい人物と分類する。この分類は、顔を隠す意図がない一般の通行者は、第2のカメラの設置位置を知らされていなければ、第1のカメラでは顔が撮影されるが、第2のカメラでは顔が撮影され難い(あるいは顔が撮影されることが不確定である)という推測に基づいている。
In addition, according to “No. 2” illustrated in FIG. 12, a human face detected from the image acquired by the first
この場合、第1の画像取得部311により取得した画像から検出できた顔画像から得られる顔の特徴情報による顔検索が可能である。このため、図12に示す例では、処理内容として、各リスト(不審者リスト361およびVIPリスト362)を顔検索し、その検索結果を出力するものと設定されている。すなわち、図12に示す「No.2」の場合、分類部350は、各リストに記憶されている各顔の特徴情報を検索対象として、第1の画像取得部311により取得した画像から得られた顔の特徴情報との類似度が所定の検索用の閾値以上となるものを顔検索部370に検索させる。
In this case, face search based on facial feature information obtained from the face image detected from the image acquired by the first
図12に示す「No.1」によれば、第1の画像取得部311により取得した画像から検出された人物の顔が検出でき、かつ、第2の画像取得部312により取得した画像からも当該人物の顔が検出できた場合(第1のカメラの画像:顔検出OK、かつ、第2のカメラの画像:顔検出OK)、分類部350は、当該人物が第2カメラの位置を知っている重要人物(VIP)らしい人物と分類する。
According to “No. 1” illustrated in FIG. 12, a human face detected from the image acquired by the first
なお、ここで、重要人物には、予め第2のカメラの位置が知らされていること想定するものとする。すなわち、上記分類は、顔を隠す意図がなく、かつ、第2のカメラの設置位置を知らされている重要人物は、第1のカメラおよび第2のカメラで顔が撮影される可能性が高いという推測に基づいている。 Here, it is assumed that the important person is previously informed of the position of the second camera. That is, in the above classification, an important person who does not intend to hide the face and is informed of the installation position of the second camera is likely to photograph the face with the first camera and the second camera. Based on the guess.
この場合、図12に示す例では、処理内容として、VIPリスト362を重点的に顔検索し、その検索結果を出力するものと設定されている。すなわち、図12に示す「No.1」の場合、分類部350は、VIPリスト362を重点的に顔検索するために、VIPリスト362に対する検索用の閾値を所定の検索用の閾値よりも小さくする(閾値を緩和する)。これにより、顔検索部370による顔検索処理では、検索結果として、VIPリスト362に記憶されている重要人物が抽出され易くなる。
In this case, in the example shown in FIG. 12, the face search is focused on the
なお、図12に示す「No.1」の場合、分類部350は、不審者リスト361に対する検索用の閾値を所定の検索用の閾値よりも大きく(閾値を厳しく)するようにしても良い。この場合、顔検索の結果としては、不審者リスト361に記憶されている不審者が抽出され難くなる。
In the case of “No. 1” shown in FIG. 12, the
また、VIPリスト362を重点的に顔検索する方法としては、VIPリスト362に記憶されている顔の特徴情報のみを検索対象として検索するようにしても良い。さらに、この場合も、分類部350は、VIPリスト362に対する顔検索に用いられる検索用の閾値を所定の検索用の閾値よりも小さくする(閾値を緩和する)ようにしても良い。
In addition, as a method of searching for a face focusing on the
上記のように、図12に示す例では、第1のカメラあるいは第2のカメラで撮影した画像から検出された顔の特徴情報に対する顔検索処理は、第1のカメラで撮影された画像からの顔の検出結果と第2のカメラで撮影された画像からの顔の検出結果に基づいて、重点的に検索(たとえば、検索用の閾値を緩和して検索)するリストが選択されるようになっている。つまり、図12に示す例では、第1のカメラで撮影された画像からの顔の検出結果と第2のカメラで撮影された画像からの顔の検出結果に基づいて、各リストに対する検索用の閾値を調整するように設定されている。これにより、通行者の状態(第1、第2のカメラに対する顔の向け方)に応じた効率的な顔検索処理および人物監視処理が実現できる。 As described above, in the example illustrated in FIG. 12, the face search process for the facial feature information detected from the image captured by the first camera or the second camera is performed from the image captured by the first camera. Based on the detection result of the face and the detection result of the face from the image taken by the second camera, a list to be intensively searched (for example, search by reducing the search threshold) is selected. ing. That is, in the example shown in FIG. 12, search for each list is performed based on the face detection result from the image captured by the first camera and the face detection result from the image captured by the second camera. It is set to adjust the threshold value. Thereby, efficient face search processing and person monitoring processing according to the state of the passerby (the direction of the face toward the first and second cameras) can be realized.
なお、上記のような設定(各人物の分類方法)は、システムの運用形態、第2のカメラの設置状況あるいは第2のカメラの秘匿性などに応じて適宜設定されるできものである。これは、第1、第2のカメラで撮影される通行者の状態が通行者のシステムの運用形態、第2のカメラの設置状況あるいは第2のカメラの秘匿性などによって異なると推測されるためである。たとえば、第2のカメラが一般的な歩行状態の通行者の顔を撮影し易い状態であるか否か、あるいは、第2のカメラが通行者に発見され易いか否かなどによって、第2のカメラで顔が撮影される通行者に対する分類が異なると推測される。 Note that the above settings (classification method for each person) can be set as appropriate according to the system operation mode, the installation status of the second camera, the secrecy of the second camera, and the like. This is because it is presumed that the state of the passerby photographed by the first and second cameras differs depending on the operation mode of the passer's system, the installation status of the second camera, the secrecy of the second camera, and the like. It is. For example, whether the second camera is in a state where it is easy to capture the face of a passerby in a general walking state, or whether the second camera is easily found by a passer-by, or the like, It is estimated that the classification for passers-by whose faces are photographed by the camera is different.
次に、第3の実施の形態としての通行者認識装置30の動作例について説明する。
図13は、通行者認識装置30の動作例を説明するためのフローチャートである。図13に示す動作では、図12に示すような分類および処理内容が予め設定されている場合を想定するものとする。なお、図13に示すフローチャートのステップS301〜S308及びS312は、図5に示すフローチャートのステップS101〜S108及びS112と同様な処理で実現可能であるため、詳細な説明を省略する。
Next, an operation example of the passer-
FIG. 13 is a flowchart for explaining an operation example of the passer-
すなわち、第1のカメラおよび第2のカメラで撮影された画像(人物の画像)から顔が検出できなった場合(ステップS307でNO、かつ、ステップS308でNO)、分類部350は、図12に示す分類に基づいて、当該人物が顔が検出できなかった不審者らしい人物であると分類する。このような分類に応じて、分類部350は、処理内容が、当該人物に関する履歴情報を記録し、顔が検出できない不審者らしい人物が検出された旨の警報を監視装置へ出力するものと判断する。
That is, when a face cannot be detected from images (person images) taken by the first camera and the second camera (NO in step S307 and NO in step S308), the
この場合、履歴管理部390は、当該顔が検出できなかった不審者らしい人物に関する履歴情報として、当該人物が検出された日時、当該人物に対する判定結果、当該人物が検出された画像など記録する(ステップS309)。これと共に、出力部380は、顔が検出できない不審者らしい人物が検出された旨を警報として監視装置へ出力する(ステップS310)。この際、出力部380は、表示部311aあるいは図示しないスピーカにより「顔が確認できない」あるいは「顔を隠さないでください」などの警告を出力するようにしても良い。
In this case, the
また、上記第1のカメラで撮影された画像から顔が検出されず、第2のカメラで撮影された画像(人物の画像)から顔が検出された場合(ステップS307でNO、かつ、ステップS308でYES)、分類部350は、図12に示す分類に基づいて、当該人物が顔が検出できた不審者らしい人物であると分類する。このような分類に応じて、分類部350は、処理内容が、不審者リスト361を重点的に顔検索し、その検索結果を出力するものと判断する。ここで、分類部350は、不審者リスト361を重点的に顔検索するために、不審者リスト361に対する検索用の閾値を緩和する(ステップS311)。なお、この場合、分類部350は、VIPリスト362に対する検索用の閾値を厳しくするようにしても良い。また、分類部350は、不審者リスト361のみを検索対象とするようにしても良い。
Further, when a face is not detected from the image captured by the first camera and a face is detected from an image (person image) captured by the second camera (NO in step S307 and step S308). Based on the classification shown in FIG. 12, the
この場合、顔検索部370は、顔検索処理として、第2の画像取得部312により取得した画像から検出された顔の特徴情報と不審者リスト361に記憶されている顔の特徴情報との類似度し、各類似度と緩和された検索用の閾値と比較する(ステップS314)。これにより、顔検索部370は、類似度が緩和された検索用の閾値以上となった不審者を検索結果として出力部380へ供給する。
In this case, the
このような顔検索処理の検索結果を受けた出力部380は、当該検索結果を監視装置へ出力する(ステップS316)。この検索結果には、たとえば、当該人物の顔が検出された画像、および、類似度が緩和された検索用の閾値以上となった不審者を示す情報などが含まれる。この際、出力部380は、表示部311aあるいは図示しないスピーカにより「(第1のカメラで)顔が確認できない」あるいは「顔を隠さないでください」などの警告を出力するようにしても良い。
The
上記第1のカメラで撮影された画像から顔が検出され、かつ、第2のカメラで撮影された画像(人物の画像)からも同一人物の顔が検出された場合(ステップS307でYES、かつ、ステップS312でYES)、分類部350は、図12に示す分類に基づいて、当該人物が第2のカメラの存在を知っている重要人物であると分類する。このような分類に応じて、分類部350は、処理内容が、VIPリスト362を重点的に顔検索し、その検索結果を出力するものと判断する。ここで、分類部350は、VIPリスト362を重点的に顔検索するために、VIPリスト362に対する検索用の閾値を緩和する(ステップS313)。なお、この場合、分類部350は、不審者リスト361に対する検索用の閾値を厳しくするようにしても良い。また、分類部350は、VIPリスト362のみを検索対象とするようにしても良い。
When a face is detected from the image captured by the first camera and a face of the same person is detected from an image (person image) captured by the second camera (YES in step S307), and Based on the classification shown in FIG. 12, the
この場合、顔検索部370は、顔検索処理として、第1の画像取得部311あるいは第2の画像取得部312により取得した画像から検出された顔の特徴情報とVIPリスト362に記憶されている顔の特徴情報との類似度し、各類似度と緩和された検索用の閾値と比較する(ステップS314)。これにより、顔検索部370は、類似度が緩和された検索用の閾値以上となったVIPを検索結果として出力部380へ供給する。
In this case, the
このような顔検索処理の検索結果を受けた出力部380は、当該検索結果を監視装置へ出力する(ステップS316)。この検索結果には、たとえば、当該人物の顔が検出された画像、および、類似度が緩和された検索用の閾値以上となったVIPを示す情報などが含まれる。この際、出力部380は、表示部311aあるいは図示しないスピーカにより「(第1のカメラで)顔が確認できた」あるいは「閾値以上となったVIPに対応する案内情報」などの案内を出力するようにしても良い。
The
また、上記第1のカメラで撮影された画像から顔が検出され、かつ、第2のカメラで撮影された画像(人物の画像)からは同一人物の顔が検出されなかった場合(ステップS307でYES、かつ、ステップS312でNO)、分類部350は、図12に示す分類に基づいて、当該人物が一般の通行者であると分類する。このような分類に応じて、分類部350は、処理内容が、各リスト(不審者リスト361およびVIPリスト362)を顔検索し、その検索結果を出力するものと判断する。
Further, when a face is detected from the image captured by the first camera and a face of the same person is not detected from the image captured by the second camera (person image) (in step S307). YES and NO in step S312),
この場合、顔検索部370は、顔検索処理として、第1の画像取得部311により取得した画像から検出された顔の特徴情報と各リストに記憶されている顔の特徴情報との類似度を算出し、各類似度と所定の検索用の閾値とを比較する(ステップS314)。これにより、顔検索部370は、類似度が検索用の閾値以上となった人物を検索結果として出力部380へ供給する。
In this case, as the face search process, the
このような顔検索処理の検索結果を受けた出力部380は、当該検索結果を監視装置へ出力する(ステップS316)。この検索結果には、たとえば、当該人物の顔が検出された画像、および、類似度が所定の検索用の閾値以上となった人物を示す情報などが含まれる。この際、出力部380は、表示部311aあるいは図示しないスピーカにより「(第1のカメラで)顔が確認できた」あるいは「閾値以上となった人物を示す情報」などの案内を出力するようにしても良い。ただし、検索結果として不審者リスト361に記憶される不審者が検出された場合、出力部380は、当該人物に対する警戒を促すため、警報などを発するようにしても良い。
The
上記のように、第3の実施の形態としての通行者認識装置では、通行者に認識され易いように設置したカメラで撮影した画像からの顔の検出結果と通行者に認識され難いように設置したカメラで撮影した画像からの顔の検出結果とに基づいて、通行者を分類し、それらの分類に応じた顔検索処理あるいは監視処理を行うようにしたものである。これにより、各カメラで撮影された人物の状態から推測される通行者の行動に応じた効率的な人物監視処理が可能となる。 As described above, in the passer-by identification apparatus as the third embodiment, the face detection result from the image taken by the camera installed so that the passer-by is easily recognized and the passer-by identification are not easily recognized. A passer is classified based on a face detection result from an image photographed by the camera, and face search processing or monitoring processing is performed according to the classification. Thereby, an efficient person monitoring process according to a passer's action presumed from the state of the person imaged with each camera is attained.
なお、上記第3の実施の形態では、上記2種類の画像取得部111,112を1台ずつ設置することを前提に説明した。しかしながら、画像取得部(カメラ)は、監視するエリアの状況あるいは運用形態に応じて設置台数を増やすようにしても良い。この場合、人物対応付け部340では、設置された画像取得部(カメラ)の数に応じて対応付け処理を増やすことで対応することが可能である。
Note that the third embodiment has been described on the assumption that the two types of
10、20、30…人物認識装置(通行者認識装置)、111、211、311…第1の画像取得部、111a、211a、311a…表示部、112、212、312…第2の画像取得部、112a、212a、312a…アクリル板、121、221、」321…第1の人物検出部、122、222、322…第2の人物検出部、131、231、331…第1の顔検出部、132、232、332…第2の顔検出部、140a…補助検知部、150、250、350…分類部、160、260、360…顔特徴管理部、170、270…顔照合部、180、280…通行制御部、190、290…履歴管理部、255…判定部、361…不審者リスト、362…重要人物リスト、370…顔検索部、380…出力部、390…履歴管理部。
DESCRIPTION OF
Claims (20)
人物に認識され易い状態で設置された第1のカメラにより撮影された画像を取得する第1の画像取得部と、
人物に認識され難い状態で設置された第2のカメラにより撮影された画像を取得する第2の画像取得部と、
前記第1の画像取得部により取得した画像から人物の顔を検出する第1の顔検出部と、
前記第2の画像取得部により取得した画像から前記人物の顔を検出する第2の顔検出部と、
前記第1のカメラにより撮影された人物と前記第2のカメラにより撮影された人物とを対応付ける対応付け部と、
前記対応付け部による対応付けの結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づいて前記人物を分類する分類部と、
を有する。 A person recognition device for recognizing a person from a face image,
A first image acquisition unit that acquires an image captured by a first camera installed in a state that is easily recognized by a person;
A second image acquisition unit for acquiring an image taken by a second camera installed in a state that is difficult to be recognized by a person;
A first face detection unit for detecting a human face from the image acquired by the first image acquisition unit;
A second face detection unit for detecting the face of the person from the image acquired by the second image acquisition unit;
An associating unit for associating a person photographed by the first camera with a person photographed by the second camera;
A classification unit that classifies the person based on a result of association by the association unit, a face detection result by the first face detection unit, and a face detection result by the second face detection unit;
Have
ことを特徴とする前記請求項1に記載の人物認識装置。 The classification unit determines whether the person is a suspicious person;
The person recognition apparatus according to claim 1, wherein:
ことを特徴とする前記請求項2に記載の人物認識装置。 The classification unit determines whether the person is a suspicious person depending on whether the face of the person associated with the person photographed by the second camera by the association unit is detected by the first face detection unit. Determine whether or not
The person recognition apparatus according to claim 2, wherein:
前記分類部により前記人物が不審者らしい人物でないと判定された場合、前記メモリに記憶されている登録者の顔画像と、前記第1の顔検出部により検出された前記人物の顔画像あるいは前記第2の顔検出部により検出された前記人物の顔画像との類似度が認証用の閾値以上であるか否かにより顔照合を行う顔照合部と、を有する、
ことを特徴とする前記請求項2に記載の人物認識装置。 Furthermore, a memory for storing the registrant's face image,
When the classification unit determines that the person is not a suspicious person, the face image of the registrant stored in the memory and the face image of the person detected by the first face detection unit or the A face matching unit that performs face matching based on whether the similarity with the face image of the person detected by the second face detection unit is equal to or higher than a threshold for authentication,
The person recognition apparatus according to claim 2, wherein:
このメモリに記憶されている顔画像と前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が認証用の閾値以上であるか否かにより顔照合を行う顔照合部と、を有し、
前記分類部は、さらに、前記対応付け部により対応付け結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づく前記人物の分類に応じて前記顔照合部による顔照合に用いられる認証用の閾値を調整する、
ことを特徴とする前記請求項1に記載の人物認識装置。 Furthermore, a memory for storing the registrant's face image,
Face matching is performed based on whether the similarity between the face image stored in the memory and the face image detected by the first face detection unit or the second face detection unit is greater than or equal to an authentication threshold. A face matching unit to perform,
The classification unit is further adapted to classify the person based on the association result by the association unit, the face detection result by the first face detection unit, and the face detection result by the second face detection unit. Adjusting a threshold for authentication used for face matching by the face matching unit.
The person recognition apparatus according to claim 1, wherein:
ことを特徴とする前記請求項5に記載の人物認識装置。 The classification unit relaxes an authentication threshold for the person when the face of the person associated by the association unit is detected by the first face detection unit and the second face detection unit,
The person recognition apparatus according to claim 5, wherein:
ことを特徴とする前記請求項1に記載の人物認識装置。 Further, the person impersonates the person associated by the association unit based on the face image detected by the first face detection unit and the face image detected by the second face detection unit. An impersonation determination unit that determines whether or not
The person recognition apparatus according to claim 1, wherein:
ことを特徴とする前記請求項7に記載の人物認識装置。 The impersonation determination unit is configured such that the face image of the person detected by the first face detection unit associated with the association unit and the face image of the person detected by the second face detection unit are the same person It is determined that the person is impersonating when it is determined that
The person recognition apparatus according to claim 7, wherein:
前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が検索用の閾値以上である登録者の顔画像を前記メモリから検索する顔検索部と、を有し、
前記分類部は、前記対応付け部による対応付けの結果と前記第1の顔検出部による顔の検出結果と前記第2の顔検出部による顔の検出結果とに基づく前記人物の分類に応じて前記顔検索部による検索に用いられる検索用の閾値を調整する、
ことを特徴とする前記請求項1に記載の人物認識装置。 Further, a memory for storing each registrant's face image and information indicating the classification in association with each other,
A face search unit that searches a face image of a registrant whose similarity with the face image detected by the first face detection unit or the second face detection unit is a search threshold or more from the memory. Have
The classification unit according to the classification of the person based on a result of association by the association unit, a face detection result by the first face detection unit, and a face detection result by the second face detection unit Adjusting a search threshold used for search by the face search unit;
The person recognition apparatus according to claim 1, wherein:
前記分類部は、前記対応付け部により対応付けられる前記第2の顔検出部により検出された人物の顔が前記第1の顔検出部により検出されなかった場合、前記不審者の顔画像に対する検索用の閾値を緩和し、
前記顔検索部は、前記第2の顔検出部により検出された顔画像との類似度が前記分類部により緩和された検索用の閾値以上である不審者の顔画像を検索する、
ことを特徴とする前記請求項9に記載の人物認識装置。 The memory stores a suspicious person's face image,
The classification unit searches for the suspicious person's face image when the face of the person detected by the second face detection unit associated by the association unit is not detected by the first face detection unit. Relax the threshold for
The face search unit searches for a face image of a suspicious person whose similarity with the face image detected by the second face detection unit is equal to or higher than a search threshold relaxed by the classification unit;
The person recognition apparatus according to claim 9, wherein:
前記分類部は、前記対応付け部により対応付けられる人物の顔が前記第1の顔検出部および前記第2の顔検出部により検出された場合、前記特定人物の顔画像に対する検索用の閾値を緩和し、
前記顔検索部は、前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が前記分類部により緩和された検索用の閾値以上である特定人物の顔画像を検索する、
ことを特徴とする前記請求項9に記載の人物認識装置。 The memory stores a face image of a specific person,
The classification unit sets a search threshold for the face image of the specific person when the face of the person associated by the association unit is detected by the first face detection unit and the second face detection unit. Relax,
The face search unit includes a face of a specific person whose similarity to the face image detected by the first face detection unit or the second face detection unit is equal to or more than a search threshold that is relaxed by the classification unit. Search for images,
The person recognition apparatus according to claim 9, wherein:
前記分類部による前記人物の分類と一致する分類の登録者の顔画像を検索対象として、前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が検索用の閾値以上である登録者の顔画像を検索する顔検索部と、を有する、
ことを特徴とする前記請求項1に記載の人物認識装置。 Further, a memory for storing each registrant's face image and information indicating the classification in association with each other,
Using the face image of a registrant whose classification matches the classification of the person by the classification unit as a search target, the similarity with the face image detected by the first face detection unit or the second face detection unit is searched. A face search unit for searching for a registrant's face image that is equal to or greater than a threshold for use.
The person recognition apparatus according to claim 1, wherein:
前記分類部は、前記対応付け部により対応づけられる前記第2の顔検出部により検出された人物の顔が前記第1の顔検出部により顔が検出されなかった場合、前記人物を不審者として分類し、
前記顔検索部は、前記第1の顔検出部により顔が検出されなかった場合、不審者の顔画像を検索対象として、前記第2の顔検出部により検出された顔画像との類似度が検索用の閾値以上である顔画像を検索する、
ことを特徴とする前記請求項12に記載の人物認識装置。 The memory stores a suspicious person's face image,
The classification unit sets the person as a suspicious person when the face of the person detected by the second face detection unit associated with the association unit is not detected by the first face detection unit. Classify and
When the face is not detected by the first face detection unit, the face search unit sets the similarity to the face image detected by the second face detection unit with the face image of the suspicious person as a search target. Search for face images that are greater than or equal to the search threshold,
The person recognition apparatus according to claim 12, wherein:
前記分類部は、前記対応付け部により対応付けられる人物の顔が前記第1の顔検出部および前記第2の顔検出部により検出された場合、前記人物を特定人物として分類し、
前記顔検索部は、前記メモリに記憶されている特定人物の顔画像を検索対象として、前記第1の顔検出部あるいは前記第2の顔検出部により検出された顔画像との類似度が検索用の閾値以上である顔画像を検索する、
ことを特徴とする前記請求項12に記載の人物認識装置。 The memory stores a face image of a specific person,
The classification unit classifies the person as a specific person when the face of the person associated by the association unit is detected by the first face detection unit and the second face detection unit,
The face search unit searches a face image of a specific person stored in the memory as a search target, and searches for a similarity to the face image detected by the first face detection unit or the second face detection unit. Search for face images that are above the threshold for
The person recognition apparatus according to claim 12, wherein:
人物に認識され易い状態で設置された第1のカメラで撮影された画像を取得し、
人物に認識され難い状態で設置された第2のカメラで撮影された画像を取得し、
前記第1のカメラで撮影された画像から人物の顔を検出し、
前記第2のカメラで撮影された画像から前記人物の顔を検出し、
前記第1のカメラにより撮影された人物と前記第2のカメラにより撮影された人物とを対応付け、
前記対応付けの結果と前記第1のカメラで撮影された画像からの顔の検出結果と前記第2のカメラで撮影された画像からの顔の検出結果とに基づいて前記人物を分類する、
ことを特徴とする人物認識方法。 A person recognition method used in a person recognition device for recognizing a person from a face image,
Obtain an image taken with a first camera installed in a state that is easily recognized by a person,
Acquire an image taken with a second camera installed in a state that is difficult for humans to recognize,
Detecting a human face from an image taken by the first camera;
Detecting the face of the person from an image taken by the second camera;
Associating a person photographed by the first camera with a person photographed by the second camera;
Classifying the person based on a result of the association, a face detection result from an image taken by the first camera, and a face detection result from an image taken by the second camera;
A person recognition method characterized by the above.
ことを特徴とする前記請求項15に記載の人物認識方法。 The classification is based on whether or not the face of a person detected from an image captured by the second camera associated with the association is detected from an image captured by the first camera. Whether to classify as a suspicious person,
The person recognition method according to claim 15, wherein:
メモリに記憶されている登録者の顔画像と、前記第1のカメラで撮影された画像から検出された顔画像あるいは前記第2のカメラで撮影された画像から検出された顔画像との類似度が、前記調整された認証用の閾値以上であるか否かにより顔照合を行う、
ことを特徴とする前記請求項15に記載の人物認識方法。 Furthermore, according to the classification of the person based on the result of the association, the detection result of the face from the image captured by the first camera, and the detection result of the face from the image captured by the second camera Adjust the threshold for authentication used for face matching,
The degree of similarity between the face image of the registrant stored in the memory and the face image detected from the image taken with the first camera or the image taken with the second camera Face matching is performed based on whether or not is equal to or more than the adjusted authentication threshold value.
The person recognition method according to claim 15, wherein:
ことを特徴とする前記請求項15に記載の人物認識方法。 Furthermore, the person's face image detected from the image photographed by the first camera associated with the association and the person's face image detected from the image photographed by the second camera. To determine whether the person is impersonating,
The person recognition method according to claim 15, wherein:
前記第1のカメラで撮影された画像から検出された顔画像あるいは前記第2のカメラで撮影された画像から検出された顔画像との類似度が検索用の閾値以上である登録者の顔画像を、各登録者の顔画像と分類を示す情報とが対応づけられて記憶されているメモリから検索する、
ことを特徴とする前記請求項15に記載の人物認識方法。 Further, for search used for face search according to the classification of the person based on the association result, the face detection result by the first face detection unit, and the face detection result by the second face detection unit Adjust the threshold of
A face image of a registrant whose similarity with a face image detected from an image taken by the first camera or a face image detected from an image taken by the second camera is equal to or greater than a search threshold. Is searched from a memory in which each registrant's face image and information indicating the classification are stored in association with each other.
The person recognition method according to claim 15, wherein:
ことを特徴とする前記請求項15に記載の人物認識方法。 Further, a face image of a registrant whose classification matches the classification of the person according to the classification is used as a search target, and a face image detected from an image photographed by the first camera or photographed by the second camera. Search for a registrant's face image whose similarity with the detected face image is greater than or equal to the search threshold from a memory in which each registrant's face image is associated with information indicating the classification. To
The person recognition method according to claim 15, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007249753A JP2008108243A (en) | 2006-09-28 | 2007-09-26 | Person recognition device and person recognition method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006265582 | 2006-09-28 | ||
JP2007249753A JP2008108243A (en) | 2006-09-28 | 2007-09-26 | Person recognition device and person recognition method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008108243A true JP2008108243A (en) | 2008-05-08 |
Family
ID=39441515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007249753A Pending JP2008108243A (en) | 2006-09-28 | 2007-09-26 | Person recognition device and person recognition method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008108243A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010176561A (en) * | 2009-01-30 | 2010-08-12 | Equos Research Co Ltd | Security system |
JP2010199903A (en) * | 2009-02-25 | 2010-09-09 | Casio Computer Co Ltd | Imaging apparatus, method of specifying face area and program |
WO2011132387A1 (en) * | 2010-04-19 | 2011-10-27 | パナソニック株式会社 | Collating device |
JP2012168477A (en) * | 2011-02-16 | 2012-09-06 | Nikon Corp | Noise estimation device, signal processor, imaging apparatus, and program |
JP2012212969A (en) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | Image monitoring apparatus |
JP2015026317A (en) * | 2013-07-29 | 2015-02-05 | オムロン株式会社 | Programmable display apparatus, control method, and program |
KR101546137B1 (en) | 2012-09-20 | 2015-08-20 | 가부시끼가이샤 도시바 | Person recognizing device and method |
JP2018005574A (en) * | 2016-07-01 | 2018-01-11 | キヤノン株式会社 | Image processing device, control method and program of image processing device |
JP2018128970A (en) * | 2017-02-10 | 2018-08-16 | 株式会社テイパーズ | Non-stop face authentication system |
JP2019110474A (en) * | 2017-12-19 | 2019-07-04 | セコム株式会社 | Suspicious person detection device |
KR20190098656A (en) * | 2018-02-14 | 2019-08-22 | 삼성전자주식회사 | Method and device to verify liveness |
CN110431560A (en) * | 2017-11-28 | 2019-11-08 | 深圳市商汤科技有限公司 | The searching method and device of target person, equipment, program product and medium |
WO2020115890A1 (en) | 2018-12-07 | 2020-06-11 | 日本電気株式会社 | Information processing system, information processing device, information processing method, and program |
WO2022024316A1 (en) * | 2020-07-30 | 2022-02-03 | 日本電気株式会社 | Authentication system, authentication device, authentication method, and computer program |
JP2022031747A (en) * | 2018-04-26 | 2022-02-22 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
JP7276494B2 (en) | 2019-11-05 | 2023-05-18 | 日本電気株式会社 | gate system |
JP7298952B1 (en) | 2022-02-28 | 2023-06-27 | Necプラットフォームズ株式会社 | Image determination device, traffic management device, and image determination method |
-
2007
- 2007-09-26 JP JP2007249753A patent/JP2008108243A/en active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010176561A (en) * | 2009-01-30 | 2010-08-12 | Equos Research Co Ltd | Security system |
JP2010199903A (en) * | 2009-02-25 | 2010-09-09 | Casio Computer Co Ltd | Imaging apparatus, method of specifying face area and program |
WO2011132387A1 (en) * | 2010-04-19 | 2011-10-27 | パナソニック株式会社 | Collating device |
JP2011227654A (en) * | 2010-04-19 | 2011-11-10 | Panasonic Corp | Collation device |
US9047505B2 (en) | 2010-04-19 | 2015-06-02 | Panasonic Intellectual Property Management Co., Ltd. | Collating device |
JP2012168477A (en) * | 2011-02-16 | 2012-09-06 | Nikon Corp | Noise estimation device, signal processor, imaging apparatus, and program |
JP2012212969A (en) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | Image monitoring apparatus |
KR101546137B1 (en) | 2012-09-20 | 2015-08-20 | 가부시끼가이샤 도시바 | Person recognizing device and method |
JP2015026317A (en) * | 2013-07-29 | 2015-02-05 | オムロン株式会社 | Programmable display apparatus, control method, and program |
JP2018005574A (en) * | 2016-07-01 | 2018-01-11 | キヤノン株式会社 | Image processing device, control method and program of image processing device |
JP2018128970A (en) * | 2017-02-10 | 2018-08-16 | 株式会社テイパーズ | Non-stop face authentication system |
CN110431560A (en) * | 2017-11-28 | 2019-11-08 | 深圳市商汤科技有限公司 | The searching method and device of target person, equipment, program product and medium |
CN110431560B (en) * | 2017-11-28 | 2023-12-19 | 深圳市商汤科技有限公司 | Target person searching method, device, equipment and medium |
JP2019110474A (en) * | 2017-12-19 | 2019-07-04 | セコム株式会社 | Suspicious person detection device |
JP7102137B2 (en) | 2017-12-19 | 2022-07-19 | セコム株式会社 | Suspicious person detection device |
KR20190098656A (en) * | 2018-02-14 | 2019-08-22 | 삼성전자주식회사 | Method and device to verify liveness |
KR102483647B1 (en) * | 2018-02-14 | 2023-01-03 | 삼성전자주식회사 | Method and device to verify liveness |
JP2022031747A (en) * | 2018-04-26 | 2022-02-22 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing method, and program |
WO2020115890A1 (en) | 2018-12-07 | 2020-06-11 | 日本電気株式会社 | Information processing system, information processing device, information processing method, and program |
US11847848B2 (en) | 2018-12-07 | 2023-12-19 | Nec Corporation | Information processing apparatus, information processing method, and program |
JP7276494B2 (en) | 2019-11-05 | 2023-05-18 | 日本電気株式会社 | gate system |
WO2022024316A1 (en) * | 2020-07-30 | 2022-02-03 | 日本電気株式会社 | Authentication system, authentication device, authentication method, and computer program |
JP7298952B1 (en) | 2022-02-28 | 2023-06-27 | Necプラットフォームズ株式会社 | Image determination device, traffic management device, and image determination method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008108243A (en) | Person recognition device and person recognition method | |
US20080080748A1 (en) | Person recognition apparatus and person recognition method | |
EP3067829B1 (en) | Person authentication method | |
JP4836633B2 (en) | Face authentication device, face authentication method, and entrance / exit management device | |
JP4389956B2 (en) | Face recognition device, face recognition method, and computer program | |
JP4241763B2 (en) | Person recognition apparatus and method | |
KR100808316B1 (en) | Person searching device, person searching method and access control system | |
US9477876B2 (en) | Person recognition apparatus and method thereof | |
JP6409929B1 (en) | Verification system | |
JP6148065B2 (en) | Face recognition system | |
JP6148064B2 (en) | Face recognition system | |
JP2007334623A (en) | Face authentication device, face authentication method, and access control device | |
JPWO2015136938A1 (en) | Information processing method and information processing system | |
JP2005084815A (en) | Face recognition device, face recognition method and passage control apparatus | |
JP2011070576A (en) | Image processor and image processing method | |
JP2007156541A (en) | Person recognition apparatus and method and entry/exit management system | |
JP4862518B2 (en) | Face registration device, face authentication device, and face registration method | |
JP2006236260A (en) | Face authentication device, face authentication method, and entrance/exit management device | |
KR101515214B1 (en) | Identification method using face recognition and entrance control system and method thereof using the identification method | |
JP2009059073A (en) | Unit and method for imaging, and unit and method for person recognition | |
JP2007206898A (en) | Face authentication device and access management device | |
JP5955056B2 (en) | Face image authentication device | |
JP5752977B2 (en) | Image monitoring device | |
JP2010086403A (en) | Facial recognition device, facial recognition method, and passage controller | |
JP2009032116A (en) | Face authentication apparatus, face authentication method, and access management apparatus |