JP5180630B2 - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP5180630B2
JP5180630B2 JP2008064756A JP2008064756A JP5180630B2 JP 5180630 B2 JP5180630 B2 JP 5180630B2 JP 2008064756 A JP2008064756 A JP 2008064756A JP 2008064756 A JP2008064756 A JP 2008064756A JP 5180630 B2 JP5180630 B2 JP 5180630B2
Authority
JP
Japan
Prior art keywords
person
image
authenticated
authentication
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008064756A
Other languages
Japanese (ja)
Other versions
JP2009223429A (en
Inventor
秀行 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2008064756A priority Critical patent/JP5180630B2/en
Publication of JP2009223429A publication Critical patent/JP2009223429A/en
Application granted granted Critical
Publication of JP5180630B2 publication Critical patent/JP5180630B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、被認証者が認証を受ける場所の画像を撮像して監視を行う監視装置に関する。   The present invention relates to a monitoring apparatus that performs monitoring by capturing an image of a place where a person to be authenticated is authenticated.

例えば出入口を通行する人物を制限するために、認証装置によってこの人物を認証し、認証結果に応じて出入口を開閉するなどの制御が行われることがある。さらに、この場合において、認証を受けずに不正に出入口を通行しようとする人物(不正通行者)を監視するために、監視カメラ等によってこの出入口付近の画像を撮像することもある。   For example, in order to restrict a person who passes through the entrance / exit, control may be performed such as authenticating the person by an authentication device and opening / closing the entrance / exit according to the authentication result. Furthermore, in this case, in order to monitor a person who attempts to pass through the entrance / exit without being authenticated (an unauthorized passer), an image near the entrance / exit may be captured by a monitoring camera or the like.

上記事例において、監視カメラ等によって撮像された監視画像を用いて有効に不正通行者の監視を行うためには、監視画像の中に映っている人物の中から、認証を受けた被認証者と認証されていない不正通行者とを識別する必要がある。このような識別の方法の一つとして、認証装置が被認証者の認証を行った際に、認証装置の前方所定範囲に存在する人物を、被認証者として特定する技術が提案されている(特許文献1参照)。
特開2004‐185484号公報
In the above case, in order to effectively monitor an unauthorized passerby using a monitoring image captured by a monitoring camera or the like, an authenticated person to be authenticated is selected from persons shown in the monitoring image. It is necessary to identify unauthorized passers. As one of such identification methods, a technique has been proposed in which a person existing in a predetermined range in front of the authentication device is specified as the authentication target when the authentication device authenticates the authentication target ( Patent Document 1).
JP 2004-185484 A

ところで、出入口付近には複数の人物が往来する。上記従来例の技術では、複数の人物が、偶然に、あるいは不正な意図で同時に認証装置前方の所定範囲内に立った場合などにおいて、複数の人物のどちらが認証を受けた被認証者か、正しく特定できないことがあり得る。また、人物の影や、人物が持っている手荷物、台車などが監視画像に映っていると、これら外乱の影響で監視画像に映っている人物像を精度よく抽出できず、被認証者と比べて認証装置から離れた位置に立っている人物の方を被認証者と誤認識してしまう問題も発生しうる。特に、認証装置が被認証者の顔を撮像して、撮像された顔の画像を解析して被認証者が誰かを認証する場合、被認証者は認証装置に接触する必要はなく、認証装置から離れた位置で認証を受けることが可能となる。このような認証方法を用いる場合、上記問題が生じる可能性は高くなる。また、従来例の技術では、被認証者の像を特定するために、認証装置で得られている情報が十分に活用されていなかった。   By the way, a plurality of people come and go near the entrance. In the technology of the above conventional example, in the case where a plurality of persons stand within a predetermined range in front of the authentication device by chance or by unjust intention, it is correctly determined which of the plurality of persons has been authenticated. It may not be possible to specify. In addition, if the shadow of a person, baggage, or a trolley that the person has is reflected in the monitoring image, the person image reflected in the monitoring image cannot be accurately extracted due to the influence of these disturbances, and compared with the person to be authenticated. As a result, a person standing at a position away from the authentication device may be erroneously recognized as a person to be authenticated. In particular, when the authentication device captures the face of the person to be authenticated and analyzes the captured face image to authenticate the person to be authenticated, the person to be authenticated does not need to contact the authentication device. It is possible to receive authentication at a position away from the station. When such an authentication method is used, there is a high possibility that the above problem will occur. Further, in the technology of the conventional example, the information obtained by the authentication device has not been sufficiently utilized to identify the image of the person to be authenticated.

本発明は上記実情に鑑みてなされたものであって、その目的の一つは、被認証者が認証を受ける場所の画像を撮像して監視を行う場合に、撮像された監視画像の中から精度よく被認証者を特定することのできる監視装置を提供することにある。   The present invention has been made in view of the above circumstances, and one of its purposes is that when an image of a place where the person to be authenticated is authenticated is imaged and monitored, it is selected from the captured monitoring images. An object of the present invention is to provide a monitoring device that can specify a person to be authenticated with high accuracy.

上記課題を解決するための本発明に係る監視装置は、被認証者の顔を含む認証用画像を撮像する認証用画像撮像部と、前記認証用画像の中から、前記被認証者の顔を示す顔領域を検出し、当該顔領域内の画像に基づいて前記被認証者を認証する認証部と、上方から前記被認証者を含む監視画像を撮像する監視画像撮像部と、前記監視画像の中から、1又は複数の人物像を抽出する人物像抽出手段と、前記認証用画像撮像部及び前記監視画像撮像部のカメラパラメータ同士の関係から、前記認証部が検出した被認証者の顔領域の位置に対応する人物像を被認証者の人物像とする被認証者特定手段と、を含むことを特徴とする。   The monitoring device according to the present invention for solving the above-described problem includes an authentication image capturing unit that captures an authentication image including the face of the person to be authenticated, and the face of the person to be authenticated from the authentication image. An authentication unit that detects a face area to be shown and authenticates the person to be authenticated based on an image in the face area; a monitoring image pickup unit that picks up a monitoring image including the person to be authenticated from above; and The face area of the person to be authenticated detected by the authentication unit based on the relationship between the human image extraction means for extracting one or a plurality of human images and the camera parameters of the authentication image capturing unit and the monitoring image capturing unit And a person-to-be-authenticated person specifying means that uses a person image corresponding to the position of the person to be authenticated as a person image.

また、上記監視装置において、前記人物像抽出手段は、人の頭部領域を人物像として検出することとしてもよい。   In the monitoring apparatus, the person image extraction unit may detect a human head region as a person image.

また、上記監視装置において、前記被認証者特定手段は、前記認証用画像内において前記被認証者の顔領域が検出された位置に基づいて、前記監視画像内において前記被認証者の顔が存在すると推定される範囲を算出し、当該算出した範囲を用いて前記被認証者の人物像を特定することとしてもよい。   Further, in the monitoring device, the authentication-subjected person specifying means includes the face of the authentication-subject person in the monitoring image based on a position where the face area of the authentication-subject person is detected in the authentication image. Then, an estimated range may be calculated, and the person image of the person to be authenticated may be specified using the calculated range.

さらに、上記監視装置において、前記被認証者特定手段は、前記認証用画像内において検出された前記被認証者の顔領域の大きさにさらに基づいて、前記抽出された人物像の中から、前記被認証者の人物像を特定することとしてもよい。   Further, in the monitoring device, the authentication-subjected person specifying means further includes the extracted person image based on the size of the face area of the person to be authenticated detected in the authentication image. The person image of the person to be authenticated may be specified.

また、上記監視装置において、前記監視画像撮像部は、前記認証部が前記被認証者を認証する際に前記被認証者が存在すると推定される位置を、略鉛直上方から撮像する位置に設置されることとしてもよい。   Further, in the monitoring apparatus, the monitoring image capturing unit is installed at a position where the position estimated to be the person to be authenticated when the authenticating unit authenticates the person to be authenticated is imaged from above substantially vertically. It is also good to do.

本発明によれば、被認証者の認証を行う際に撮像した認証用画像内における被認証者の顔の位置の情報を用いて、監視画像から抽出された人物像の中から、精度よく被認証者の人物像を特定することができる。   According to the present invention, using the information on the position of the face of the person to be authenticated in the authentication image captured when authenticating the person to be authenticated, the target is accurately extracted from the person image extracted from the monitoring image. The person image of the certifier can be specified.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明の一実施形態に係る監視装置1は、図1に示すように、認証装置10と、制御部11と、記憶部12と、監視画像撮像部13と、認証信号受信部14と、操作部15と、出力部16と、を含んで構成されている。本実施形態では、監視装置1は、監視対象となる出入口であるドアDを通行しようとする人物の認証を行うとともに、このドアD周辺の画像を撮像することにより、ドアDを通行しようとする人物の監視を行う。   As shown in FIG. 1, the monitoring device 1 according to an embodiment of the present invention includes an authentication device 10, a control unit 11, a storage unit 12, a monitoring image imaging unit 13, an authentication signal receiving unit 14, and an operation. The unit 15 and the output unit 16 are included. In the present embodiment, the monitoring device 1 authenticates a person who wants to pass through the door D, which is an entrance / exit to be monitored, and attempts to pass through the door D by capturing an image around the door D. Monitor people.

認証装置10は、ドアDを通行しようとする人物の認証を行う装置であって、図1に示すように、認証用画像撮像部21と、認証情報記憶部22と、認証処理部23と、認証信号送信部24と、を含んで構成されている。なお、認証装置10を構成する各部は、一つの筺体内に収容されてもよいし、認証用画像撮像部21とその他の部分とがそれぞれ別の筺体に収容され、通信線によって接続されてもよい。また、以下では、認証装置10による認証を受ける人物を、被認証者Paという。本実施形態では、認証装置10は、被認証者Paの顔を撮像して得られる画像を用いて、被認証者Paの認証を行う。   The authentication device 10 is a device for authenticating a person who is going to pass through the door D. As shown in FIG. 1, the authentication image capturing unit 21, the authentication information storage unit 22, the authentication processing unit 23, And an authentication signal transmission unit 24. In addition, each part which comprises the authentication apparatus 10 may be accommodated in one housing, and the image pick-up part 21 for authentication and other parts may each be accommodated in another housing, and may be connected by the communication line. Good. In the following, a person who is authenticated by the authentication device 10 is referred to as a person to be authenticated Pa. In the present embodiment, the authentication device 10 authenticates the person to be authenticated Pa using an image obtained by imaging the face of the person to be authenticated Pa.

認証用画像撮像部21は、被認証者Paの顔を含む認証用画像を撮像するビデオカメラ等の撮像装置である。被認証者Paの顔を撮像するため、例えば認証用画像撮像部21は、ドアD近傍の壁面の、人の身長に応じた高さ(例えば約1.5m)の位置に設置される。また、認証用画像撮像部21の撮像方向は、床面に対して略水平な方向となっている。なお、認証用画像撮像部21は、継続的に認証用画像を撮像してもよいし、例えば被認証者Paが所定のボタンを押下したタイミングで認証用画像を撮像してもよい。認証用画像撮像部21によって撮像された認証用画像は、認証処理部23に対して出力される。   The authentication image capturing unit 21 is an imaging device such as a video camera that captures an authentication image including the face of the person Pa to be authenticated. In order to image the face of the person Pa to be authenticated, for example, the authentication image capturing unit 21 is installed at a height (for example, about 1.5 m) on the wall surface near the door D according to the height of the person. The image capturing direction of the authentication image capturing unit 21 is substantially horizontal with respect to the floor surface. Note that the authentication image capturing unit 21 may continuously capture the authentication image, or may capture the authentication image at the timing when the person to be authenticated Pa presses a predetermined button, for example. The authentication image captured by the authentication image capturing unit 21 is output to the authentication processing unit 23.

認証情報記憶部22は、例えばROM等のメモリ素子を含んで構成され、予め認証の対象となる人物の認証情報を記憶している。具体的に、認証情報記憶部22は、ドアDの通行が許可される1又は複数の人物(以下、通行許可者という)それぞれの認証情報を記憶する。ここで認証情報は、例えば通行許可者の顔の特徴を表す特徴量など、通行許可者を他の人物と区別して特定するための情報である。   The authentication information storage unit 22 includes, for example, a memory element such as a ROM, and stores authentication information of a person to be authenticated in advance. Specifically, the authentication information storage unit 22 stores authentication information of each of one or more persons (hereinafter referred to as permitted persons) who are permitted to pass the door D. Here, the authentication information is information for distinguishing and identifying a permitted person from other persons, such as a feature amount representing a feature of the permitted person's face.

認証処理部23は、例えばデジタルシグナルプロセッサ(DSP)等の演算装置により構成され、被認証者Paを認証する認証処理を実行する。具体的に、まず認証処理部23は、認証用画像撮像部21が撮像した認証用画像の中から、被認証者Paの顔を示す顔領域を検出する。ここで、認証用画像の中から被認証者Paの顔領域を検出する方法としては、例えば特開2005−92262号公報に記載された方法を用いることができる。なお、認証用画像の中から複数の顔領域が検出された場合、認証処理部23は、これら顔領域の中から、例えば最も大きな顔領域など、所定の基準を満たす顔領域を、被認証者Paの顔を示す顔領域として選択する。   The authentication processing unit 23 is configured by an arithmetic device such as a digital signal processor (DSP), for example, and executes authentication processing for authenticating the person Pa to be authenticated. Specifically, the authentication processing unit 23 first detects a face region indicating the face of the person to be authenticated Pa from the authentication image captured by the authentication image capturing unit 21. Here, as a method of detecting the face area of the person Pa to be authenticated from the authentication image, for example, a method described in JP-A-2005-92262 can be used. When a plurality of face areas are detected from the authentication image, the authentication processing unit 23 selects a face area that satisfies a predetermined criterion, such as the largest face area, from the face areas. A face area indicating the face of Pa is selected.

さらに、認証処理部23は、検出した被認証者Paの顔領域内の画像に基づいて、被認証者Paを認証する。すなわち、検出した顔領域の画像を解析して得られる解析結果と、認証情報記憶部22に記憶された通行許可者の認証情報と、を照合することにより、被認証者Paが通行許可者であるか否か判定する。この顔画像の解析及び認証情報との照合の方法としては、例えば特開2007−299186号公報に記載された方法を用いることができる。   Further, the authentication processing unit 23 authenticates the person to be authenticated Pa based on the detected image in the face area of the person to be authenticated Pa. That is, by comparing the analysis result obtained by analyzing the image of the detected face area with the authentication information of the permitted person stored in the authentication information storage unit 22, the authenticated person Pa is the permitted person. Judge whether there is. As a method of analyzing the face image and collating with the authentication information, for example, a method described in Japanese Patent Application Laid-Open No. 2007-299186 can be used.

認証処理部23は、認証処理の結果、被認証者Paが通行許可者であることを認証した場合、所定の認証信号を認証信号送信部24に対して出力する。この認証信号には、被認証者Paの認証に成功したことを示す情報のほか、認証用画像の中から検出された被認証者Paの顔領域に関する情報(以下、顔領域情報という)が含まれる。具体的に、顔領域情報は、認証用画像内において被認証者Paの顔領域が検出された位置を示す位置情報(位置座標の情報など)を少なくとも含んでいる。この位置情報は、例えば顔領域の重心位置を示す情報であってもよいし、顔領域に外接する外接矩形の中心位置を示す情報であってもよい。さらに、顔領域情報には、認証用画像内において検出された顔領域の大きさを示すサイズ情報(例えば顔領域に外接する外接矩形の幅及び高さを表す数値など)が含まれてもよい。   As a result of the authentication processing, the authentication processing unit 23 outputs a predetermined authentication signal to the authentication signal transmission unit 24 when it is authenticated that the person to be authenticated Pa is a permitted person. This authentication signal includes information indicating that authentication of the person to be authenticated Pa was successful, as well as information on the face area of the person to be authenticated Pa detected from the authentication image (hereinafter referred to as face area information). It is. Specifically, the face area information includes at least position information (position coordinate information or the like) indicating a position where the face area of the person to be authenticated Pa is detected in the authentication image. This position information may be information indicating the center of gravity of the face area, for example, or may be information indicating the center position of a circumscribed rectangle that circumscribes the face area. Further, the face area information may include size information indicating the size of the face area detected in the authentication image (for example, numerical values indicating the width and height of a circumscribed rectangle circumscribing the face area). .

認証信号送信部24は、例えばLANインタフェース等の通信装置であって、被認証者Paの認証が成功したタイミングで認証処理部23が出力する認証信号を、認証信号受信部14に対して送信する。また、認証信号送信部24は、この認証処理部23が出力する認証信号を受けて、ドアDを開錠するための制御信号を電気錠(不図示)に対して出力する。これにより、ドアDが所定時間だけ開錠され、被認証者Paはその間にドアDを通行できる。   The authentication signal transmission unit 24 is a communication device such as a LAN interface, for example, and transmits an authentication signal output from the authentication processing unit 23 to the authentication signal reception unit 14 at a timing when the authentication of the user Pa is successful. . The authentication signal transmission unit 24 receives the authentication signal output from the authentication processing unit 23 and outputs a control signal for unlocking the door D to an electric lock (not shown). Thereby, the door D is unlocked only for a predetermined time, and the person to be authenticated Pa can pass through the door D in the meantime.

制御部11は、例えばCPUやDSP等の演算装置であって、記憶部12に記憶されるプログラムに従って各種の情報処理を実行する。本実施形態では、制御部11は、監視画像撮像部13によって撮像される監視画像を解析して、異常を検知した場合に当該異常の検知に応じた信号を出力部16に出力する処理を行う。なお、本実施形態において制御部11が実行する処理の具体例については、後述する。   The control unit 11 is an arithmetic device such as a CPU or a DSP, for example, and executes various types of information processing according to programs stored in the storage unit 12. In the present embodiment, the control unit 11 analyzes the monitoring image captured by the monitoring image capturing unit 13 and performs processing to output a signal corresponding to the detection of the abnormality to the output unit 16 when the abnormality is detected. . In addition, the specific example of the process which the control part 11 performs in this embodiment is mentioned later.

記憶部12は、例えばROMやRAM等のメモリ素子を含んで構成され、制御部11によって実行される各種のプログラムや、制御部11が実行する処理により利用される各種のパラメタなどの情報が記憶される。   The storage unit 12 includes a memory element such as a ROM and a RAM, for example, and stores various programs executed by the control unit 11 and information such as various parameters used by processing executed by the control unit 11. Is done.

監視画像撮像部13は、上方から被認証者Paを含む監視画像を撮像するビデオカメラ等の撮像装置である。本実施形態では、監視画像撮像部13は、継続して所定時間おきに監視画像の撮像を続けており、各タイミングで撮像した監視画像(フレーム画像)を、制御部11に対して順次出力する。   The monitoring image capturing unit 13 is an imaging device such as a video camera that captures a monitoring image including the person to be authenticated Pa from above. In this embodiment, the monitoring image capturing unit 13 continuously captures monitoring images at predetermined time intervals, and sequentially outputs the monitoring images (frame images) captured at each timing to the control unit 11. .

図2(a)及び図2(b)は、監視装置1の監視対象となる空間(以下、監視空間という)の様子の一例を示す図である。図2(a)は、認証装置10が被認証者Paの認証を行っている時点での被認証者Paを側面から見た図を示しており、図2(b)は、同じ被認証者Paを背面から見た図を示している。これらの図に示されるように、監視画像撮像部13は、認証装置10が被認証者Paを認証する際に被認証者Paが存在すると推定される位置を撮像可能な位置に設置され、その撮像方向は水平面より下向きになっている。これにより、監視画像撮像部13は、認証用画像撮像部21の撮像方向とは異なる撮像方向で、同じ被認証者Paを含む画像を撮像する。図3は、監視画像撮像部13によって撮像される監視画像の一例を示す図である。図3の例では、監視画像内に、ドアDと、認証用画像撮像部21と、被認証者Paと、が映っている。ここで、被認証者Paが存在すると推定される位置の略鉛直上方に監視画像撮像部13が設置されることによって、監視画像撮像部13によって撮像された監視画像内において、被認証者Paの人物像が、その周囲に存在する他の人物の人物像と重なりにくくすることができる。   2A and 2B are diagrams illustrating an example of a state of a space to be monitored by the monitoring device 1 (hereinafter referred to as a monitoring space). FIG. 2A shows a view of the authenticated person Pa as viewed from the side when the authentication apparatus 10 is authenticating the authenticated person Pa, and FIG. 2B shows the same authenticated person. The figure which looked at Pa from the back is shown. As shown in these drawings, the monitoring image capturing unit 13 is installed at a position where it is possible to capture the position where the authenticated person Pa is estimated to exist when the authenticated apparatus 10 authenticates the authenticated person Pa. The imaging direction is downward from the horizontal plane. Thereby, the monitoring image capturing unit 13 captures an image including the same person to be authenticated Pa in an image capturing direction different from the image capturing direction of the authentication image capturing unit 21. FIG. 3 is a diagram illustrating an example of a monitoring image captured by the monitoring image capturing unit 13. In the example of FIG. 3, the door D, the authentication image capturing unit 21, and the person to be authenticated Pa are shown in the monitoring image. Here, by installing the monitoring image capturing unit 13 substantially vertically above the position where it is estimated that the authenticated user Pa exists, in the monitoring image captured by the monitoring image capturing unit 13, It is possible to make it difficult for the person image to overlap with the person images of other persons existing around the person image.

認証信号受信部14は、例えばLANインタフェース等の通信装置であって、認証装置10の認証信号送信部24が送信する認証信号を受信して、所定の一時記憶領域に記憶する。一時記憶領域に記憶された認証信号に含まれる情報は、制御部11によって読み出される。   The authentication signal receiving unit 14 is a communication device such as a LAN interface, for example, and receives the authentication signal transmitted from the authentication signal transmitting unit 24 of the authentication device 10 and stores it in a predetermined temporary storage area. Information included in the authentication signal stored in the temporary storage area is read by the control unit 11.

操作部15は、例えばタッチパネルディスプレイ等のユーザインタフェースであって、監視装置1の管理者が各種のパラメタなどの情報を入力するために用いられる。操作部15から管理者が入力した情報は、記憶部12に記憶され、制御部11が実行する処理に用いられる。具体例として、管理者は、認証用画像撮像部21及び監視画像撮像部13のそれぞれのカメラパラメータを操作部15から入力する。カメラパラメータには、実空間における、認証用画像撮像部21の設置位置(以下、認証用画像撮像位置C1という)及び撮像方向、監視画像撮像部13の設置位置(以下、監視画像撮像位置C2という)及び撮像方向を含む設置パラメータや、認証用画像撮像部21の画角、画素数及びレンズ歪み、監視画像撮像部13の画角、画素数及びレンズ歪みを含む撮像パラメータなどがある。また、管理者は、監視画像内におけるドアDの位置及び監視画像内における認証用画像撮像位置C1を示す情報を操作部15から入力する。   The operation unit 15 is a user interface such as a touch panel display, for example, and is used by the administrator of the monitoring device 1 to input information such as various parameters. Information input by the administrator from the operation unit 15 is stored in the storage unit 12 and used for processing executed by the control unit 11. As a specific example, the administrator inputs the camera parameters of the authentication image capturing unit 21 and the monitoring image capturing unit 13 from the operation unit 15. The camera parameters include an installation position of the authentication image capturing unit 21 (hereinafter referred to as an authentication image capturing position C1) and an imaging direction and an installation position of the monitoring image capturing unit 13 (hereinafter referred to as a monitoring image capturing position C2) in real space. ) And an imaging parameter including an imaging direction, an angle of view of the authentication image capturing unit 21, the number of pixels and lens distortion, an angle of view of the monitoring image capturing unit 13, an imaging parameter including the number of pixels and lens distortion, and the like. Further, the administrator inputs information indicating the position of the door D in the monitoring image and the authentication image capturing position C1 in the monitoring image from the operation unit 15.

出力部16は、制御部11による処理結果を外部機器等に出力するためのインタフェースである。出力部16は、例えばスピーカやブザー等の音響出力手段と接続され、制御部11からの指示により、当該音響出力手段に対して警告音の鳴動を実行させる異常信号を出力する。これにより、監視装置1は、制御部11の処理によって異常が検知された場合に、警告音を鳴らすことができる。また、出力部16は、外部のセンタ装置等に対して異常信号を送信する通信インタフェースを含んでもよい。これにより、制御部11の処理によって異常が検知された場合に、監視装置1は、異常の検知を知らせる信号を外部の監視センタなどに通知することができる。なお、この場合、出力部16は、認証信号受信部14と共通のインタフェース装置であってもよい。   The output unit 16 is an interface for outputting a processing result by the control unit 11 to an external device or the like. The output unit 16 is connected to, for example, a sound output unit such as a speaker or a buzzer, and outputs an abnormal signal that causes the sound output unit to execute a warning sound in response to an instruction from the control unit 11. Thereby, the monitoring apparatus 1 can sound a warning sound when abnormality is detected by the process of the control unit 11. The output unit 16 may include a communication interface that transmits an abnormal signal to an external center device or the like. Thereby, when abnormality is detected by the process of the control part 11, the monitoring apparatus 1 can notify the signal which notifies the detection of abnormality to an external monitoring center. In this case, the output unit 16 may be an interface device common to the authentication signal receiving unit 14.

以下、監視画像撮像部13によって撮像された監視画像を用いて監視を行う際に、監視装置1が実現する機能の具体例について、説明する。監視装置1は、機能的に、図4に示すように、人物像抽出手段31と、頭部検出手段32と、被認証者特定手段33と、追跡手段34と、異常判定手段35と、を含んで構成される。また、被認証者特定手段33は、被認証者存在範囲算出手段33aと、被認証者像選択手段33bと、を含んで構成される。これらの機能は、制御部11が記憶部12に格納されたプログラムを実行することにより、実現される。   Hereinafter, specific examples of functions realized by the monitoring device 1 when monitoring is performed using the monitoring image captured by the monitoring image capturing unit 13 will be described. As shown in FIG. 4, the monitoring device 1 functionally includes a person image extraction means 31, a head detection means 32, an authenticated person specifying means 33, a tracking means 34, and an abnormality determination means 35. Consists of including. Further, the authenticated person specifying means 33 includes an authenticated person existence range calculating means 33a and an authenticated person image selecting means 33b. These functions are realized when the control unit 11 executes a program stored in the storage unit 12.

人物像抽出手段31は、監視画像撮像部13によって所定時間おきに撮像された監視画像のそれぞれについて、当該監視画像の中から、1又は複数の人物像を抽出する。具体的に、例えば人物像抽出手段31は、予め人が誰もいない状態の監視空間を撮像して得られる監視画像を背景画像として記憶部12に記憶しておき、当該背景画像と監視画像とを比較して差分画素を抽出する。そして、互いに隣接する差分画素を含んで構成される差分画素群のうち、所定の条件を満足する形状や所定値以上の大きさを有する差分画素群を、人を表す人物像として抽出する。また、人物像抽出手段31は、上記方法のほか、エッジ検出などの各種の画像処理を組み合わせて人物像を抽出してもよい。   The person image extraction unit 31 extracts one or a plurality of person images from the monitoring images for each of the monitoring images captured every predetermined time by the monitoring image capturing unit 13. Specifically, for example, the person image extraction unit 31 stores a monitoring image obtained by imaging a monitoring space in a state where no person is present in the storage unit 12 as a background image, and the background image, the monitoring image, and the like. To extract a difference pixel. Then, among the difference pixel group configured to include the difference pixels adjacent to each other, a difference pixel group having a shape satisfying a predetermined condition and a size greater than or equal to a predetermined value is extracted as a human image representing a person. In addition to the above method, the person image extraction means 31 may extract a person image by combining various image processing such as edge detection.

人物像は、監視画像が撮像されたタイミングで監視空間内にいる人物の数に応じた数だけ、監視画像の中から抽出される。また、認証装置10による認証を受けた被認証者Paがいる場合、この被認証者Paの人物像(以下、被認証者像という)が人物像抽出手段31によって監視画像の中から抽出されることとなる。なお、人物像抽出手段31は、被認証者Paが監視空間内に存在せず、認証信号が認証装置10から送信されていない間も、撮像された監視画像の中から人物像を抽出する処理を実行する。人物像抽出手段31によって抽出された人物像に関する情報は、記憶部12に記憶され、後述する追跡手段34による人物像の追跡処理に用いられる。   The person images are extracted from the monitoring images by the number corresponding to the number of persons in the monitoring space at the timing when the monitoring images are captured. When there is a person to be authenticated Pa who has been authenticated by the authentication device 10, a person image of the person to be authenticated Pa (hereinafter referred to as an image of the person to be authenticated) is extracted from the monitoring image by the person image extraction means 31. It will be. The person image extraction unit 31 extracts a person image from the captured monitoring image even when the person to be authenticated Pa does not exist in the monitoring space and the authentication signal is not transmitted from the authentication device 10. Execute. Information about the person image extracted by the person image extraction unit 31 is stored in the storage unit 12 and used for the tracking process of the person image by the tracking unit 34 described later.

頭部検出手段32は、人物像抽出手段31によって抽出された1又は複数の人物像のそれぞれから、人の頭部を示す頭部領域を検出する。具体的に、例えば頭部検出手段32は、エッジ検出及びハフ変換やパターンマッチングなどの画像処理を実行することにより、各人物像の画像領域の中から、人体頭部の特徴を有する領域(例えば所定範囲の大きさの略円形の領域)を頭部領域として検出し、当該検出した頭部領域の位置及び大きさを示す情報を出力する。人物像抽出手段31によって抽出される人物像は、人物の影や、人物が持つ手荷物、台車等の影響によって、その中心位置が必ずしもその人物が立っている実際の位置に対応しない場合がある。そのような場合であっても、頭部検出手段32によって人物像の中からさらに頭部領域を検出することによって、監視空間内に存在する人の顔に対応する監視画像内の位置を、精度よく特定することができる。なお、本実施の形態では、頭部検出手段32を用いて精度を上げているが、人物像抽出手段31にて十分な精度が得られれば、頭部検出手段32を省略してもよい。   The head detection unit 32 detects a head region indicating a human head from each of one or more person images extracted by the person image extraction unit 31. Specifically, for example, the head detection unit 32 performs image processing such as edge detection, Hough transform, and pattern matching, so that an area having a human head characteristic (for example, an image area of each person image) (for example, A substantially circular region having a size within a predetermined range) is detected as a head region, and information indicating the position and size of the detected head region is output. The person image extracted by the person image extraction means 31 may not necessarily correspond to the actual position where the person stands due to the influence of the shadow of the person, the baggage held by the person, the carriage, or the like. Even in such a case, the position in the monitoring image corresponding to the person's face existing in the monitoring space can be accurately detected by detecting the head region further from the human image by the head detecting means 32. Can be identified well. In the present embodiment, the head detection means 32 is used to increase the accuracy, but the head detection means 32 may be omitted if the human image extraction means 31 can obtain sufficient accuracy.

被認証者特定手段33は、認証装置10が被認証者Paの認証を行ったタイミングで監視画像撮像部13によって撮像された監視画像の中から、人物像抽出手段31によって複数の人物像が抽出された場合に、この抽出された人物像の中から、被認証者像を特定する。このとき、被認証者特定手段33は、認証用画像内において顔領域が検出された位置と対応関係にある認証用画像内の位置に抽出された人物像を被認証者像に特定する。認証用画像内の位置座標と監視画像内の位置座標の間の対応関係は前述したカメラパラメータにより導出される。導出の規則は被認証者特定手段33のプログラムとして記憶部12に予め記憶されており、被認証者特定手段33は動作に先立って記憶部12に記憶されているカメラパラメータを規則に適用して対応関係を導出する。これにより、被認証者特定手段33は、監視画像内に複数の人物像が映っている場合に、単に認証用画像撮像部21の前方に位置する人物像を被認証者像として特定する場合と比較して、より精度よく被認証者像を特定できる。   The person-to-be-authenticated identification unit 33 extracts a plurality of person images by the person image extraction unit 31 from the monitoring image captured by the monitoring image capturing unit 13 at the timing when the authentication apparatus 10 authenticates the person to be authenticated Pa. If it is determined, the image of the person to be authenticated is specified from the extracted person image. At this time, the person-to-be-authenticated specifying means 33 specifies a person image extracted at a position in the authentication image that has a corresponding relationship with the position where the face area is detected in the authentication image as the person-to-be-authenticated image. The correspondence between the position coordinates in the authentication image and the position coordinates in the monitoring image is derived from the camera parameters described above. The derivation rule is stored in advance in the storage unit 12 as a program of the authenticated person specifying means 33, and the authenticated person specifying means 33 applies the camera parameters stored in the storing unit 12 to the rule prior to the operation. Deriving correspondence. As a result, the person-to-be-authenticated identification means 33 simply identifies the person image located in front of the authentication image capturing unit 21 as the person-to-be-authenticated image when a plurality of person images are shown in the monitoring image. In comparison, the person-to-be-authenticated can be identified with higher accuracy.

ここで、被認証者特定手段33が被認証者像を特定する方法の具体例について説明する。まず被認証者存在範囲算出手段33aが、認証装置10から受信した認証信号に含まれる顔領域情報に基づいて、監視画像内において被認証者Paの顔が存在すると推定される範囲(以下、被認証者存在範囲という)を算出する。ここで利用する顔領域情報は、認証装置10により被認証者Pa本人のものと確認されているので確実に被認証者像を特定できる。また、1つに絞り込まれた顔領域の情報から被認証者像を特定するので効率がよい。   Here, a specific example of the method by which the person to be authenticated specifying unit 33 specifies the image of the person to be authenticated will be described. First, the person-to-be-authenticated person existence range calculation means 33a is based on the face area information included in the authentication signal received from the authentication device 10 and is the area in which the face of the person to be authenticated Pa is estimated to exist in the monitoring image (hereinafter, the object Certifier existence range). Since the face area information used here is confirmed by the authentication apparatus 10 to be the person to be authenticated Pa, the image of the person to be authenticated can be specified with certainty. In addition, since the person-to-be-authenticated person image is specified from the information of the face area narrowed down to one, it is efficient.

例えば被認証者存在範囲算出手段33aは、認証信号に含まれる顔領域情報のうち、顔領域が検出された認証用画像内の位置を監視画像の撮像面に射影することによって、被認証者存在範囲を算出する。具体的に、被認証者存在範囲算出手段33aは、認証用画像内の顔領域の位置座標と、記憶部12に記憶されている認証用画像撮像位置C1及び認証用画像撮像部21の撮像方向に関する情報と、に基づいて、認証用画像撮像位置C1と被認証者Paの顔の位置とを結ぶ実空間上の直線を算出する。被認証者Paの顔の位置は、この直線に沿った範囲に存在すると推定される。そこで、被認証者存在範囲算出手段33aは、この算出された直線を、監視画像撮像位置C2及び監視画像撮像部13の撮像方向に関する情報を用いて、監視画像撮像部13の撮像面に射影することにより、エピポーラ線EPを算出し、このエピポーラ線EPに沿った範囲を被認証者存在範囲とする。この被認証者存在範囲により、監視画像内において被認証者Paの顔が存在する方向を限定できる。なお、被認証者存在範囲算出手段33aがエピポーラ線EPを算出する処理の具体例については、後述する。   For example, the person-to-be-authenticated person existence range calculation unit 33a projects the position in the authentication image where the face area is detected in the face area information included in the authentication signal onto the imaging surface of the monitoring image, thereby Calculate the range. Specifically, the person-to-be-authenticated person presence range calculating unit 33a includes the position coordinates of the face area in the authentication image, the authentication image capturing position C1 stored in the storage unit 12, and the imaging direction of the authentication image capturing unit 21. And a straight line in the real space connecting the authentication image capturing position C1 and the position of the face of the person Pa to be authenticated. It is estimated that the face position of the person to be authenticated Pa exists in a range along this straight line. Therefore, the authentication subject existence range calculation unit 33a projects the calculated straight line onto the imaging surface of the monitoring image imaging unit 13 using information regarding the monitoring image imaging position C2 and the imaging direction of the monitoring image imaging unit 13. Thus, the epipolar line EP is calculated, and the range along the epipolar line EP is set as the authentication subject existence range. The direction in which the face of the person to be authenticated Pa exists in the monitoring image can be limited by the presence range of the person to be authenticated. A specific example of the process in which the person-to-be-authenticated person presence range calculating unit 33a calculates the epipolar line EP will be described later.

次に、被認証者像選択手段33bが、被認証者存在範囲算出手段33aが算出した被認証者存在範囲の情報を用いて、人物像抽出手段31によって抽出された人物像の中から被認証者像を選択する。例えば被認証者像選択手段33bは、被認証者存在範囲に存在する人物像のうち、認証用画像撮像位置C1に最も近い位置に存在する人物像を、被認証者像として選択する。   Next, the person-to-be-authenticated person image selection means 33b uses the information on the person-to-be-authenticated person presence range calculated by the person-to-be-authenticated person calculation range 33a to authenticate the person to be authenticated from the person images extracted by the person image extraction means 31. Select a person. For example, the person-to-be-authenticated image selection means 33b selects, as a person-to-be-authenticated person image, a person image that is present at a position closest to the authentication image capturing position C1 among the person images that are present in the person-to-be-authenticated person existence range.

このとき、被認証者像選択手段33bは、人物像抽出手段31によって抽出された人物像のそれぞれについて、さらに頭部検出手段32が検出した頭部領域の位置に基づいて、被認証者像を特定してもよい。認証用画像撮像部21によって撮像された被認証者Paの顔の位置に対応する監視画像内の位置には、被認証者Paの頭部が現れていると考えられる。そのため、認証用画像内における顔領域の位置を監視画像の撮像面に射影した被認証者存在範囲と、監視画像から検出した各人物像の頭部領域の位置とを比較して、被認証者存在範囲に位置する頭部領域が検出された人物像を被認証者像と特定することにより、単に人物像全体の重心位置などを用いて被認証者像の特定を行う場合と比較して、より精度よく被認証者像の特定を行うことができる。   At this time, the person-to-be-authenticated image selecting means 33b further selects the person-to-be-authenticated image based on the position of the head region detected by the head detecting means 32 for each of the person images extracted by the person image extracting means 31. You may specify. It is considered that the head of the person to be authenticated Pa appears at a position in the monitoring image corresponding to the position of the face of the person to be authenticated Pa captured by the authentication image capturing unit 21. Therefore, the authentication target person's existence range obtained by projecting the position of the face area in the authentication image onto the imaging surface of the monitoring image is compared with the position of the head area of each person image detected from the monitoring image, and the authentication target person is compared. By identifying the person image from which the head region located in the existence range is detected as the person-to-be-authenticated image, as compared with the case where the person-to-be-authenticated person image is simply identified using the center of gravity position of the entire person image, The person-to-be-authenticated image can be specified with higher accuracy.

また、被認証者特定手段33は、認証用画像内における顔領域の位置だけでなく、さらに顔領域の大きさに基づいて、被認証者像を特定してもよい。認証用画像内における被認証者Paの顔の大きさは、被認証者Paが立っている位置から認証用画像撮像位置C1までの距離に応じて変化する。そこで、認証用画像内における顔領域の大きさから監視画像内において被認証者Paの顔が存在する認証用画像撮像位置C1からの距離範囲を推定し、監視画像から検出した各人物像又は各人物像の頭部領域の位置と当該距離範囲とを比較して、当該距離範囲に位置する人物像を被認証者像と特定する、又は当該距離範囲に位置する頭部領域が検出された人物像を被認証者像と特定することにより、さらに精度よく被認証者像を特定できる。   Further, the person-to-be-authenticated identification means 33 may identify the person-to-be-authenticated image based on not only the position of the face area in the authentication image but also the size of the face area. The size of the face of the person to be authenticated Pa in the authentication image changes according to the distance from the position where the person to be authenticated Pa stands to the image pickup position C1 for authentication. Therefore, the distance range from the authentication image capturing position C1 where the face of the person to be authenticated Pa is present in the monitoring image is estimated from the size of the face area in the authentication image, and each person image or each detected from the monitoring image is detected. Compare the position of the head area of the person image with the distance range and specify the person image located in the distance area as the person-to-be-authenticated image, or the person whose head area located in the distance range is detected By specifying the image as the person-to-be-authenticated image, the person-to-be-authenticated image can be specified more accurately.

具体的に、例えば標準的な大きさの顔を持つ人物を様々な距離から認証用画像撮像部21が撮像して、そのときの顔領域の大きさを記録することによって、顔領域の大きさと認証用画像撮像部21から被認証者Paの顔までの距離との間の対応関係に応じた数式や換算テーブルなどを決定し、記憶部12に予め記憶させておく。被認証者存在範囲算出手段33aは、顔領域の大きさを示すパラメタをこの数式や換算テーブルなどに適用して、認証用画像撮像位置C1から被認証者Paの顔が存在すると推定される位置までの推定距離範囲を算出する。この推定距離範囲の情報を用いて、被認証者存在範囲算出手段33aは、認証用画像内における顔領域の位置に基づいて算出した被認証者存在範囲をさらに限定して、その範囲を絞り込む。これにより、例えば認証用画像撮像位置C1から見て同一方向に複数の人物が立っており、その複数の人物のうち後方に立っている人物が被認証者Paだったとしても、監視画像から抽出された人物像の中から精度よく被認証者像を特定できる。   Specifically, for example, the authentication image capturing unit 21 captures a person having a standard-sized face from various distances, and records the size of the face area at that time, thereby determining the size of the face area. Formulas, conversion tables, and the like corresponding to the correspondence between the distance from the authentication image capturing unit 21 to the face of the person Pa to be authenticated are determined and stored in the storage unit 12 in advance. The person-to-be-authenticated person existence range calculating means 33a applies a parameter indicating the size of the face area to this mathematical formula or conversion table, and the position where the face of the person to be authenticated Pa is estimated to exist from the authentication image capturing position C1. The estimated distance range is calculated. Using this estimated distance range information, the authenticated person presence range calculation means 33a further limits the authenticated person presence range calculated based on the position of the face area in the authentication image, and narrows down the range. Thus, for example, even if a plurality of persons stand in the same direction as viewed from the authentication image capturing position C1 and the person standing behind among the plurality of persons is the person to be authenticated Pa, it is extracted from the monitoring image. The person-to-be-authenticated person image can be specified with high accuracy from the obtained person image.

追跡手段34は、監視画像撮像部13が所定時間おきに撮像した監視画像のそれぞれについて、人物像抽出手段31が人物像を抽出するごとに、以下に説明するような人物像の追跡処理を行う。すなわち、追跡手段34は、新たに撮像された監視画像から人物像抽出手段31によって抽出された人物像のそれぞれを、当該監視画像より過去時点において撮像された監視画像から人物像抽出手段31によって抽出され、記憶部12に記憶されている人物像と比較することによって、当該人物像に対応する人物の監視空間内における移動経路を追跡する。具体的に、追跡手段34は、新たな監視画像から抽出された各人物像の位置や画像特徴に関する量(例えば色ヒストグラム等)を、前回撮像された監視画像から抽出された人物像の位置や画像特徴に関する量と比較することによって、同じ人物を表す人物像同士を関連付ける。そして、同一人物を表す人物像として互いに関連付けられた人物像の、時系列に従って撮像された各監視画像内における位置を示す時系列情報を、当該人物の移動経路を示す移動経路情報として出力する。   The tracking unit 34 performs tracking processing of a person image as described below every time the person image extraction unit 31 extracts a person image for each of the monitoring images captured by the monitoring image capturing unit 13 at predetermined time intervals. . That is, the tracking unit 34 extracts each of the person images extracted by the person image extracting unit 31 from the newly captured monitoring image by using the person image extracting unit 31 from the monitoring image captured at a past time point from the monitoring image. The movement path in the monitoring space of the person corresponding to the person image is traced by comparing with the person image stored in the storage unit 12. Specifically, the tracking unit 34 uses the position of each person image extracted from the new monitoring image and the amount related to the image feature (for example, a color histogram) as the position of the person image extracted from the previously captured monitoring image. The person images representing the same person are associated with each other by comparing with the amount related to the image feature. And the time series information which shows the position in the monitoring image imaged according to the time series of the person image mutually associated as a person image showing the same person is output as movement path information which shows the movement path | route of the said person.

ここで、追跡手段34は、被認証者特定手段33によって被認証者像であると特定された人物像については、他の人物像と区別するために、当該人物の移動経路情報に対して、被認証者像であることを示す属性情報を関連付ける。具体例として、追跡手段34は、新たな監視画像から抽出された人物像のうち、前回撮像された監視画像内に同一人物を示す人物像が存在しないと判定された人物像については、新たに監視空間に入ってきた人物の人物像として、まず被認証者Paではないことを示す属性情報を関連付ける。これにより、追跡手段34により追跡対象となる監視空間内の各人物は、常に最初は被認証者Paではないものとして管理される。そして、認証装置10から認証信号を受信したタイミングにおいて、被認証者特定手段33によって被認証者像であると特定された人物像については、この属性情報を被認証者Paであることを示す値に更新する。これにより、追跡手段34による追跡対象となっている人物のうち、被認証者Paとして特定された人物については、それ以降は他の人物と区別して追跡されることとなる。   Here, in order to distinguish the person image identified as the person-to-be-authenticated image by the person-to-be-authenticated person specifying unit 33, the tracking unit 34, with respect to the movement path information of the person, Associate attribute information indicating that the image is a person to be authenticated. As a specific example, the tracking unit 34 newly adds a person image extracted from a new monitoring image for a person image determined to have no person image indicating the same person in the previously captured monitoring image. First, attribute information indicating that the person is not the person to be authenticated Pa is associated as a person image of the person who has entered the monitoring space. Thereby, each person in the monitoring space to be tracked by the tracking unit 34 is always managed as not initially the person to be authenticated Pa. Then, at the timing when the authentication signal is received from the authentication device 10, for the person image specified as the person to be authenticated by the person to be authenticated specifying unit 33, this attribute information is a value indicating that it is the person to be authenticated Pa. Update to As a result, among the persons to be tracked by the tracking unit 34, the person specified as the person to be authenticated Pa is tracked separately from other persons thereafter.

異常判定手段35は、追跡手段34が出力する監視空間内の各人物の移動経路情報に基づいて、所定の条件に合致する不正な移動がないか否かを判定する。具体例として、被認証者Paではないことを示す属性情報が関連付けられた人物が、監視画像内においてドアDに対応する領域外からドアDに対応する領域内に移動したことを示す移動経路情報が追跡手段34によって出力された場合、異常判定手段35は、ドアDの通行が許可されていない人物による不正な通行があると判定して、異常の検知を示す異常信号を出力部16に対して出力する。これにより、監視装置1は、認証を受けていない人物がドアDを通行しようとした場合に、警告音を鳴らしたりセンタに通報したりすることができる。   The abnormality determination unit 35 determines whether or not there is an unauthorized movement that matches a predetermined condition based on the movement route information of each person in the monitoring space output by the tracking unit 34. As a specific example, movement route information indicating that a person associated with attribute information indicating that the person is not an authenticated person Pa has moved from outside the area corresponding to the door D into the area corresponding to the door D in the monitoring image. Is output by the tracking unit 34, the abnormality determination unit 35 determines that there is an unauthorized passage by a person who is not permitted to pass through the door D, and outputs an abnormality signal indicating detection of abnormality to the output unit 16. Output. Thereby, the monitoring apparatus 1 can sound a warning sound or notify the center when an unauthenticated person tries to pass through the door D.

ここで、被認証者存在範囲算出手段33aがエピポーラ線EPを算出する処理の具体例について、説明する。   Here, a specific example of the process of calculating the epipolar line EP by the to-be-authenticated person presence range calculating unit 33a will be described.

図5(a)及び図5(b)は、監視空間に複数の人物が存在する場合に、監視画像撮像部13が撮像する監視画像及び認証用画像撮像部21が撮像する認証用画像の一例を示す図である。図5(a)は、監視画像の一例を示しており、人物P1,P2及びP3の3人が映っている。また、図5(b)に示す認証用画像内には、人物P1及びP2が映っており、人物P3は人物P1の陰になって認証用画像内には映っていない。ここで、認証装置10は人物P1を被認証者Paとして選択し、その顔領域Fを検出し、認証を行ったものとする。このとき、認証信号送信部24が送信する認証信号には、被認証者Paの顔領域Fの認証用画像内における位置を示す位置情報が含まれる。ここでは、認証用画像の画像中心を原点として、画素を単位とした顔領域Fの中心位置の位置座標を(u1,v1)とする。   FIGS. 5A and 5B are examples of a monitoring image captured by the monitoring image capturing unit 13 and an authentication image captured by the authentication image capturing unit 21 when there are a plurality of persons in the monitoring space. FIG. FIG. 5A shows an example of a monitoring image, in which three persons P1, P2, and P3 are shown. Further, the persons P1 and P2 are shown in the authentication image shown in FIG. 5B, and the person P3 is behind the person P1 and is not shown in the authentication image. Here, it is assumed that the authentication apparatus 10 selects the person P1 as the person to be authenticated Pa, detects the face area F, and performs authentication. At this time, the authentication signal transmitted by the authentication signal transmission unit 24 includes position information indicating the position of the face area F of the person to be authenticated Pa in the authentication image. Here, the coordinate of the center position of the face area F in units of pixels is (u1, v1) with the image center of the authentication image as the origin.

なお、以下では、認証用画像撮像部21及び監視画像撮像部13の撮像条件に関するパラメタとして、以下に説明する各パラメタが記憶部12に記憶されているものとする。すなわち、認証用画像の画像中心から画像の端部までの画素数を横w1、縦h1とし、認証用画像撮像部21の横方向の画角をα1、縦方向の画角をβ1とする。また、監視画像の画像中心から画像の端部までの画素数を横w2、縦h2とし、監視画像撮像部13の横方向の画角をα2、縦方向の画角をβ2とする。   In the following description, it is assumed that parameters described below are stored in the storage unit 12 as parameters relating to the imaging conditions of the authentication image capturing unit 21 and the monitoring image capturing unit 13. That is, the number of pixels from the image center of the authentication image to the edge of the image is defined as horizontal w1 and vertical h1, the horizontal field angle of the authentication image capturing unit 21 is α1, and the vertical field angle is β1. Further, the number of pixels from the image center of the monitoring image to the edge of the image is horizontal w2 and vertical h2, and the horizontal field angle of the monitoring image imaging unit 13 is α2, and the vertical field angle is β2.

さらに、記憶部12には、認証用画像撮像位置C1及び監視画像撮像位置C2の位置関係並びにそれぞれの撮像部の撮像方向を示す情報も記憶されている。具体例として、図6は、実空間における認証用画像撮像位置C1及び監視画像撮像位置C2の位置関係を示している。この図においては、認証用画像撮像位置C1を座標系の原点としている。また、認証用画像撮像部21の撮像方向をY軸正方向、鉛直上方をZ軸正方向とし、Y軸及びZ軸双方と直交し、認証用画像の右側に向かう方向をX軸正方向としている。さらに、監視画像撮像位置C2の位置座標を(0,C2y,C2z)とし、監視画像撮像部13の撮像方向をZ軸負方向とする。   Furthermore, the storage unit 12 also stores information indicating the positional relationship between the authentication image capturing position C1 and the monitoring image capturing position C2, and the image capturing direction of each image capturing unit. As a specific example, FIG. 6 shows a positional relationship between the authentication image capturing position C1 and the monitoring image capturing position C2 in real space. In this figure, the authentication image capturing position C1 is the origin of the coordinate system. Further, the image pickup direction of the authentication image pickup unit 21 is the Y axis positive direction, the vertically upward direction is the Z axis positive direction, the direction orthogonal to both the Y axis and the Z axis, and the direction toward the right side of the authentication image is the X axis positive direction. Yes. Furthermore, the position coordinates of the monitoring image imaging position C2 are (0, C2y, C2z), and the imaging direction of the monitoring image imaging unit 13 is the Z-axis negative direction.

これらの各情報を用いて、ピンホールカメラモデルを適用することにより、被認証者存在範囲算出手段33aは、実空間における認証用画像撮像位置C1に対する被認証者Paの顔の中心位置(以下、顔位置Fcという)の方向を算出する。具体的に、原点C1から顔位置Fcに向かうベクトルVfと、認証用画像撮像部21の撮像方向(Y軸正方向)と、のなす角のX軸方向成分θu1及びZ軸方向成分θv1は、それぞれ下記の計算式により算出できる。

Figure 0005180630
なお、被認証者存在範囲算出手段33aは、u1,v1,w1,h1の各値を、記憶部12に記憶されている認証用画像撮像部21のレンズ歪みに関するパラメタに基づいて歪み成分を除去した値に換算してから、演算を行ってもよい。 By applying a pinhole camera model using each of these pieces of information, the authenticated person presence range calculating unit 33a can detect the center position of the face of the authenticated person Pa with respect to the authentication image capturing position C1 in the real space (hereinafter, The direction of the face position Fc) is calculated. Specifically, the X-axis direction component θu1 and the Z-axis direction component θv1 of the angle formed by the vector Vf from the origin C1 toward the face position Fc and the imaging direction (Y-axis positive direction) of the authentication image capturing unit 21 are: Each can be calculated by the following formula.
Figure 0005180630
The person-to-be-authenticated person existence range calculating unit 33a removes distortion components from the values of u1, v1, w1, and h1 based on parameters relating to lens distortion of the authentication image capturing unit 21 stored in the storage unit 12. The calculation may be performed after conversion to the calculated value.

これにより、ベクトルVfは、所定の定数Tを用いて(T・tanθu1,T,T・tanθv)と表される。このベクトルVfが、実空間における認証用画像撮像位置C1から見た顔位置Fcの方向を表している。ここで、位置座標が(T・tanθu1,T,T・tanθv1)で表される仮想点Qを考えると、原点C1とこの仮想点Qとを結ぶ直線上に顔位置Fcが存在すると推定される。なお、以下では仮想点Qの位置座標を(Qx,Qy,Qz)と表記する。   Thus, the vector Vf is expressed as (T · tan θu1, T, T · tan θv) using a predetermined constant T. This vector Vf represents the direction of the face position Fc viewed from the authentication image capturing position C1 in the real space. Here, considering a virtual point Q whose position coordinates are represented by (T · tan θu1, T, T · tan θv1), it is estimated that the face position Fc exists on a straight line connecting the origin C1 and the virtual point Q. . In the following, the position coordinates of the virtual point Q are expressed as (Qx, Qy, Qz).

さらに、被認証者存在範囲算出手段33aは、この仮想点Qを監視画像撮像部13の撮像面に射影することによって、監視画像上におけるエピポーラ線EPを算出する。具体的に、監視画像撮像位置C2から仮想点Qに向かうベクトル(Qx,Qy−C2y,Qz−C2z)と、監視画像撮像部13の撮像方向(Z軸負方向)と、のなす角のX軸方向成分θu2及びY軸方向成分θv2は、それぞれ下記の計算式により算出できる。

Figure 0005180630
さらに、このθu2及びθv2を用いて、仮想点Qを監視画像上に射影した位置の位置座標は、監視画像の画像中心を原点として、画素単位で
Figure 0005180630
で表される。この位置座標と、予め記憶部12に記憶されている監視画像上における認証用画像撮像位置C1と、を結ぶ直線が、エピポーラ線EPとなる。このとき、監視画像上における仮想点Qの位置が認証用画像撮像位置C1に近いと、算出誤差による影響が大きくなる。そこで、仮想点Qが認証用画像撮像位置C1と所定距離以上離れるように、前述した定数Tを定めることとしてもよい。また、被認証者存在範囲算出手段33aは、得られた直線を監視画像撮像部13のレンズ歪みに関するパラメタに基づいて補正した直線を、エピポーラ線EPとしてもよい。 Furthermore, the to-be-authenticated person presence range calculating unit 33a calculates the epipolar line EP on the monitoring image by projecting the virtual point Q onto the imaging surface of the monitoring image imaging unit 13. Specifically, an angle X formed by a vector (Qx, Qy-C2y, Qz-C2z) from the monitoring image imaging position C2 toward the virtual point Q and the imaging direction (Z-axis negative direction) of the monitoring image imaging unit 13 is formed. The axial direction component θu2 and the Y-axis direction component θv2 can be calculated by the following formulas, respectively.
Figure 0005180630
Furthermore, using these θu2 and θv2, the position coordinates of the position where the virtual point Q is projected onto the monitoring image are in pixel units with the image center of the monitoring image as the origin.
Figure 0005180630
It is represented by A straight line connecting the position coordinates and the authentication image capturing position C1 on the monitoring image stored in the storage unit 12 in advance is an epipolar line EP. At this time, if the position of the virtual point Q on the monitoring image is close to the authentication image capturing position C1, the influence of the calculation error increases. Therefore, the above-described constant T may be determined so that the virtual point Q is separated from the authentication image capturing position C1 by a predetermined distance or more. Further, the person-to-be-authenticated person existence range calculating unit 33a may use a straight line obtained by correcting the obtained straight line based on a parameter relating to lens distortion of the monitoring image capturing unit 13 as an epipolar line EP.

以上説明した方法で算出されたエピポーラ線EPの例が、図5(a)に破線で示されている。図5(a)の例では、例えば人物像抽出手段31が人物の影も含めた領域を人物像として抽出している場合、認証用画像撮像位置C1に最も近い位置に存在する人物像は、人物P2の人物像になる。しかしながら、人物P2の頭部領域H2はエピポーラ線EP上になく、一方で人物P1の頭部領域H1はエピポーラ線EP上に存在している。そこで、エピポーラ線EPに沿った範囲を被認証者存在範囲として用いることにより、被認証者像選択手段33bは、人物P2ではなく人物P1の人物像を、被認証者像として特定する。なお、図5(a)の例では、人物P1だけでなく人物P3の頭部領域H3もエピポーラ線EP上に存在している。この場合、例えば被認証者像選択手段33bは、前述したように、監視画像内における認証用画像撮像位置C1から各人物の頭部領域までの距離の情報に基づいて、人物P1の人物像を被認証者像として特定する。   An example of the epipolar line EP calculated by the method described above is shown by a broken line in FIG. In the example of FIG. 5A, for example, when the person image extraction unit 31 extracts a region including a person's shadow as a person image, the person image present at the position closest to the authentication image capturing position C1 is It becomes a person image of the person P2. However, the head region H2 of the person P2 is not on the epipolar line EP, while the head region H1 of the person P1 exists on the epipolar line EP. Therefore, by using the range along the epipolar line EP as the authenticated person existence range, the authenticated person image selecting means 33b specifies the person image of the person P1 instead of the person P2 as the authenticated person image. In the example of FIG. 5A, not only the person P1 but also the head region H3 of the person P3 exists on the epipolar line EP. In this case, for example, as described above, the person-to-be-authenticated image selection means 33b selects the person image of the person P1 based on the information on the distance from the authentication image capturing position C1 to the head area of each person in the monitoring image. It is specified as the person to be authenticated.

以下、本実施形態に係る監視装置1の制御部11が実行する処理の流れの一例について、図7のフロー図に基づいて説明する。   Hereinafter, an example of the flow of processing executed by the control unit 11 of the monitoring device 1 according to the present embodiment will be described based on the flowchart of FIG.

まず、監視装置1の電源が投入されると、制御部11は、所定の初期化処理を実行する(S1)。このとき、監視画像撮像部13によって撮像された監視画像が背景画像として記憶部12に記憶される。さらに、制御部11は、認証用画像撮像部21及び監視画像撮像部13の撮像条件に関する情報など、後続する処理に必要な所定のパラメタが記憶部12に記憶されているか否か判定する(S2)。記憶されていなければ、制御部11は、操作部15を介して、これらパラメタの入力を促すメッセージ等を管理者に提示して、管理者からパラメタの入力を受け付ける(S3)。   First, when the power of the monitoring device 1 is turned on, the control unit 11 executes a predetermined initialization process (S1). At this time, the monitoring image captured by the monitoring image capturing unit 13 is stored in the storage unit 12 as a background image. Furthermore, the control unit 11 determines whether or not predetermined parameters necessary for subsequent processing, such as information regarding the imaging conditions of the authentication image capturing unit 21 and the monitoring image capturing unit 13, are stored in the storage unit 12 (S2). ). If not stored, the control unit 11 presents a message prompting the input of these parameters to the administrator via the operation unit 15, and accepts the input of the parameter from the administrator (S3).

その後、監視画像撮像部13が所定時間間隔で新たな監視画像を撮像するごとに、以下に説明する処理が繰り返し実行される。すなわち、まず制御部11の人物像抽出手段31は、監視画像撮像部13が撮像した新たな監視画像を取得する(S4)。そして、S4で取得した監視画像を背景画像と比較して、人物像の抽出を行う(S5)。さらに、制御部11は、S5の処理で1以上の人物像が抽出されたか否か判定する(S6)。人物像が抽出されなかった場合には、S4で取得した監視画像を新たな背景画像として記憶部12に記憶して(S7)、S4に戻って次の監視画像に対する処理を行う。ここで、人物像が抽出されなかった場合に監視画像を更新するのは、時間の経過によって背景画像に変化が生じる場合に対応するためである。   Thereafter, each time the monitoring image capturing unit 13 captures a new monitoring image at a predetermined time interval, the processing described below is repeatedly executed. That is, first, the person image extraction means 31 of the control unit 11 acquires a new monitoring image captured by the monitoring image capturing unit 13 (S4). Then, the monitoring image acquired in S4 is compared with the background image to extract a person image (S5). Further, the control unit 11 determines whether or not one or more person images have been extracted in the process of S5 (S6). If no person image is extracted, the monitoring image acquired in S4 is stored in the storage unit 12 as a new background image (S7), and the process returns to S4 to process the next monitoring image. Here, the reason why the monitoring image is updated when the person image is not extracted is to cope with the case where the background image changes with the passage of time.

一方、S6において1以上の人物像が抽出されたと判定された場合、制御部11の頭部検出手段32及び被認証者特定手段33は、抽出された人物像の中から被認証者像を特定する被認証者特定処理を行う(S8)。この被認証者特定処理の詳細については、後述する。   On the other hand, if it is determined in S6 that one or more person images have been extracted, the head detecting means 32 and the person-to-be-authenticated person specifying means 33 of the control unit 11 specify the person-to-be-authenticated image from the extracted person images. Authentication subject identification processing is performed (S8). Details of the authentication-subjected person identification process will be described later.

続いて、制御部11の追跡手段34は、S5で抽出された人物像の追跡処理を行う(S9)。この追跡処理は、具体的には、S5で抽出された人物像のそれぞれについて、前回までに抽出された人物像と同一人物を示す人物像か否かの判定を行い、判定結果に応じて、新たに抽出された人物像の位置を既に記憶部12に記録されている各人物の移動経路情報に追加する処理である。このとき、追跡手段34は、S8の処理により被認証者像として特定された人物像に対応する移動経路情報に対して、被認証者Paであることを示す属性情報を関連付ける。   Subsequently, the tracking unit 34 of the control unit 11 performs the tracking process of the person image extracted in S5 (S9). Specifically, in this tracking process, for each of the person images extracted in S5, it is determined whether or not the person image indicates the same person as the person image extracted up to the previous time, and according to the determination result, This is a process of adding the position of the newly extracted person image to the movement route information of each person already recorded in the storage unit 12. At this time, the tracking unit 34 associates attribute information indicating that the user is the authenticated person Pa with the movement path information corresponding to the person image identified as the authenticated person image by the process of S8.

さらに、制御部11の異常判定手段35は、S9の処理により得られる移動経路情報を参照して、認証装置10による認証を受けていない人物がドアDを通行しようとする不正通行がないか判定する(S10)。判定の結果、不正通行が検知された場合、異常判定手段35は出力部16に対して異常信号を出力する(S11)。S10で不正通行が検知されない場合、及び不正通行が検知されて異常信号が出力された場合のいずれの場合においても、その後、S4に戻って新たな監視画像に対する処理が繰り返される。   Further, the abnormality determination unit 35 of the control unit 11 refers to the movement route information obtained by the process of S9, and determines whether there is an unauthorized traffic that a person who has not been authenticated by the authentication device 10 tries to pass through the door D. (S10). If unauthorized traffic is detected as a result of the determination, the abnormality determination means 35 outputs an abnormality signal to the output unit 16 (S11). In any case where unauthorized traffic is not detected in S10 and when abnormal traffic is detected and an abnormal signal is output, the process returns to S4 and the process for a new monitoring image is repeated.

次に、上述した図7のフローにおけるS8の被認証者特定処理の流れの具体例について、図8のフロー図に基づいて説明する。   Next, a specific example of the flow of the person-to-be-authenticated identification process of S8 in the flow of FIG.

まず、制御部11は、認証信号受信部14が認証装置10からの認証信号を新たに受信しているか否か判定する(S21)。認証装置10は、制御部11が上述した図7のフローにおけるS4からS11までのフローを繰り返し実行している間も、独立して動作しており、認証処理を実行して被認証者Paが通行許可者であると判定した場合には、その旨を制御部11に通知する認証信号を出力する。ここで、S21で認証信号を受信していると判定された場合、処理対象となっている監視画像は、認証装置10による認証が行われたタイミングで撮像された画像であり、その中には被認証者Paが映っていると判断される。その場合、制御部11は、後述するS22以降の処理を実行する。一方、S21で認証信号を受信していないと判定された場合、監視画像内に新たに認証された被認証者Paは映っていないと判断されるため、処理を終了する。   First, the control unit 11 determines whether or not the authentication signal receiving unit 14 has newly received an authentication signal from the authentication device 10 (S21). The authentication device 10 operates independently even while the control unit 11 repeatedly executes the flow from S4 to S11 in the flow of FIG. 7 described above. If it is determined that the person is permitted to pass, an authentication signal for notifying the controller 11 of the fact is output. Here, when it is determined that the authentication signal is received in S21, the monitoring image to be processed is an image captured at the timing when the authentication by the authentication device 10 is performed. It is determined that the person to be authenticated Pa is shown. In that case, the control part 11 performs the process after S22 mentioned later. On the other hand, if it is determined in S21 that the authentication signal has not been received, since it is determined that the newly authenticated person Pa is not reflected in the monitoring image, the process ends.

次に、制御部11の頭部検出手段32が、図7のフローにおけるS5の処理で抽出された人物像のそれぞれについて、頭部領域の検出を行う(S22)。その後、制御部11の被認証者存在範囲算出手段33aが、認証信号に含まれる顔領域の位置情報に基づいて、被認証者Paの顔位置Fcと認証用画像撮像位置C1とを結ぶ直線を監視画像上に射影したエピポーラ線EPを、被認証者存在範囲として算出する(S23)。さらに、認証信号に含まれる顔領域のサイズ情報に基づいて、認証用画像撮像位置C1から被認証者Paの顔位置Fcが存在する位置までの推定距離範囲を算出する(S24)。   Next, the head detection means 32 of the control unit 11 detects the head region for each of the person images extracted in the process of S5 in the flow of FIG. 7 (S22). Thereafter, the person-to-be-authenticated person existence range calculating unit 33a of the control unit 11 creates a straight line connecting the face position Fc of the person to be authenticated Pa and the authentication image capturing position C1 based on the position information of the face area included in the authentication signal. The epipolar line EP projected on the monitoring image is calculated as the authentication subject existence range (S23). Further, based on the size information of the face area included in the authentication signal, an estimated distance range from the authentication image capturing position C1 to the position where the face position Fc of the person to be authenticated Pa exists is calculated (S24).

続いて、制御部11の被認証者像選択手段33bが、S22で検出された頭部領域のうち、S23で算出されたエピポーラ線EPと交差する頭部領域を選出する(S25)。そして、選出された頭部領域が1つだけか否かを判定する(S26)。S26によりエピポーラ線EPと交差する頭部領域が2つ以上あると判定された場合、被認証者像選択手段33bは、さらにこれらの頭部領域のうち、認証用画像撮像位置C1からの距離がS24で算出された推定距離範囲に含まれる頭部領域を選出する(S27)。そして、再び選出された頭部領域が1つだけか否かを判定する(S28)。S28においても条件に合致する頭部領域が2つ以上あると判定された場合には、被認証者像選択手段33bは、これらの頭部領域のうち、認証用画像撮像位置C1に最も近い位置に存在する頭部領域を1つ選出する(S29)。   Subsequently, the to-be-authenticated person image selection unit 33b of the control unit 11 selects a head region that intersects the epipolar line EP calculated in S23 among the head regions detected in S22 (S25). Then, it is determined whether there is only one selected head region (S26). If it is determined in S26 that there are two or more head regions that intersect with the epipolar line EP, the person-to-be-authenticated image selection means 33b further determines that the distance from the authentication image capturing position C1 among these head regions. A head region included in the estimated distance range calculated in S24 is selected (S27). Then, it is determined whether there is only one head region selected again (S28). If it is determined in S28 that there are two or more head regions that meet the conditions, the person-to-be-authenticated image selection means 33b is located in the head region closest to the authentication image capturing position C1. 1 is selected (S29).

S26又はS28の判定において条件に合致する頭部領域が1つだけと判定された場合、あるいはS29の処理によって1つの頭部領域が選出された場合、被認証者像選択手段33bは、この選出された頭部領域を含む人物像を、被認証者像として特定する(S30)。これにより、被認証者像を特定できたので、処理を終了する。   If it is determined in S26 or S28 that only one head region matches the condition, or if one head region is selected by the processing in S29, the authenticated person image selecting means 33b selects this head region. The person image including the head region thus specified is specified as the authentication subject image (S30). Thereby, since the person-to-be-authenticated person image has been specified, the process is terminated.

なお、以上のフローにおいてはエピポーラ線EPと交差する頭部領域が必ず存在することとしたが、頭部領域の検出誤差などによって、エピポーラ線EPと交差する頭部領域が1つも存在しない場合もあり得る。この場合、エピポーラ線EPまでの距離が最も短い頭部領域や、エピポーラ線EPまでの距離が所定値以下の頭部領域のうち、認証用画像撮像位置C1からの距離がS24で算出した推定距離範囲内にある頭部領域などを含んだ人物像を、被認証者像として特定することとしてもよい。また、S29の処理においても、認証用画像撮像位置C1に最も近い位置に存在する頭部領域ではなく、認証用画像撮像位置C1からの距離がS24で算出した推定距離範囲の閾値に最も近い頭部領域を選出することとしてもよい。   In the above flow, the head region intersecting with the epipolar line EP always exists. However, there may be no head region intersecting with the epipolar line EP due to a detection error of the head region. possible. In this case, of the head region having the shortest distance to the epipolar line EP and the head region having a distance to the epipolar line EP of a predetermined value or less, the estimated distance calculated from the authentication image capturing position C1 in S24 A person image including a head region within the range may be specified as an authenticated person image. Also in the processing of S29, the head closest to the threshold of the estimated distance range calculated in S24 is not the head region present at the position closest to the authentication image capturing position C1, but the distance from the authentication image capturing position C1. A partial area may be selected.

以上説明した本実施の形態によれば、監視装置1は、認証装置10が被認証者Paの認証を行った際の被認証者Paの顔の位置に関する情報を用いて監視画像内における被認証者像を特定することにより、単に監視画像内における認証用画像撮像部21と人物像との間の位置関係だけに基づいて被認証者像を特定する場合と比較して、監視画像内に複数の人物が映っている場合でも精度よく被認証者像を特定できる。   According to the present embodiment described above, the monitoring apparatus 1 uses the information related to the face position of the person to be authenticated Pa when the authentication apparatus 10 authenticates the person to be authenticated Pa to be authenticated in the monitoring image. By specifying the person image, a plurality of persons in the monitoring image are included in the monitoring image as compared to the case where the image of the person to be authenticated is specified based only on the positional relationship between the authentication image capturing unit 21 and the person image in the monitoring image. Even if the person is shown, the person-to-be-authenticated can be identified with high accuracy.

なお、本発明の実施の形態は、以上説明したものに限られない。例えば、以上の説明では、認証装置10は顔画像の特徴量を解析することによって被認証者Paの認証を行うこととしたが、これに限らず、被認証者Paの顔を含む画像を撮像して認証を行うのであれば、他の認証方法を用いても構わない。具体的に、例えば認証装置10は、少なくとも顔領域を検出する手段を備え、虹彩や網膜のパターンなど、顔の一部領域の画像に基づいて被認証者Paの認証を行ってもよい。   The embodiment of the present invention is not limited to the above-described embodiment. For example, in the above description, the authentication apparatus 10 performs authentication of the person to be authenticated Pa by analyzing the feature amount of the face image. However, the present invention is not limited to this, and an image including the face of the person to be authenticated Pa is captured. If authentication is performed, other authentication methods may be used. Specifically, for example, the authentication apparatus 10 may include at least a means for detecting a face area, and may authenticate the person to be authenticated Pa based on an image of a partial area of the face such as an iris or retina pattern.

また、以上の説明においては、認証用画像内の位置座標と監視画像内の位置座標の間の対応関係を導出する規則として、認証用画像内の位置座標から監視画像内のエピポーラ線EPを算出する規則を例示したが、これ以外の規則を用いてもよい。具体的には、例えば、カメラパラメータに基づき認証用画像内に予め設定された複数の小領域と対応関係にある監視画像内の領域を求めて、求めた対応関係のテーブルを規則として記憶部12に記憶させておくことができる。この場合、被認証者存在範囲算出手段33aは、テーブルを参照して、顔領域が検出された位置を含む認証用画像内の小領域と対応関係にある監視画像内の対応領域を被認証者存在範囲として導出する。   In the above description, the epipolar line EP in the monitoring image is calculated from the position coordinates in the authentication image as a rule for deriving the correspondence between the position coordinates in the authentication image and the position coordinates in the monitoring image. Although the rule to do was illustrated, you may use rules other than this. Specifically, for example, a region in the monitoring image that has a correspondence relationship with a plurality of preset small regions in the authentication image based on camera parameters is obtained, and the storage unit 12 uses the obtained correspondence table as a rule. Can be remembered. In this case, the person-to-be-authenticated person existence range calculating unit 33a refers to the table to obtain a corresponding area in the monitoring image that has a corresponding relationship with the small area in the authentication image including the position where the face area is detected. Derived as the existence range.

また、以上の説明においては、被認証者特定手段33は、顔領域の位置を監視画像内に射影することにより顔領域の位置に対応する監視画像内の位置を算出したが、これ以外の方法を用いてもよい。具体的には、監視画像内で抽出された各人物像を実空間に投影するとともに、認証用画像内における顔領域の位置を実空間に投影し、実空間内で顔領域の位置と交わる人物像を被認証者像と特定してもよい。また、監視画像内で抽出された各人物像を認証用画像内に射影し、顔領域の位置に射影された人物像を被認証者像と特定してもよい。   In the above description, the person-to-be-authenticated specifying unit 33 calculates the position in the monitoring image corresponding to the position of the face area by projecting the position of the face area in the monitoring image. May be used. Specifically, each person image extracted in the monitoring image is projected to the real space, and the position of the face area in the authentication image is projected to the real space, and the person who intersects the position of the face area in the real space The image may be specified as the image of the person to be authenticated. Further, each person image extracted in the monitoring image may be projected into the authentication image, and the person image projected at the position of the face area may be specified as the authentication target person image.

本発明の実施の形態に係る監視装置の概略の構成を表すブロック図である。It is a block diagram showing the schematic structure of the monitoring apparatus which concerns on embodiment of this invention. 監視空間の様子の一例を示す図である。It is a figure which shows an example of the mode of the monitoring space. 監視画像撮像部によって撮像される監視画像の一例を示す図である。It is a figure which shows an example of the monitoring image imaged by the monitoring image imaging part. 本発明の実施の形態に係る監視装置によって実現される機能例を表す機能ブロック図である。It is a functional block diagram showing the example of a function implement | achieved by the monitoring apparatus which concerns on embodiment of this invention. 監視空間に複数の人物が存在する場合の、監視画像及び認証用画像の一例を示す図である。It is a figure which shows an example of the monitoring image and the image for authentication in case a some person exists in the monitoring space. 実空間における認証用画像撮像位置及び監視画像撮像位置の位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the image pick-up position for authentication in the real space, and the monitoring image pick-up position. 本発明の実施の形態に係る監視装置が実行する処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of the process which the monitoring apparatus which concerns on embodiment of this invention performs. 被認証者特定処理の流れの一例を示すフロー図である。It is a flowchart which shows an example of the flow of a to-be-authenticated person specific process.

符号の説明Explanation of symbols

1 監視装置、10 認証装置、11 制御部、12 記憶部、13 監視画像撮像部、14 認証信号受信部、15 操作部、16 出力部、21 認証用画像撮像部、22 認証情報記憶部、23 認証処理部、24 認証信号送信部、31 人物像抽出手段、32 頭部検出手段、33 被認証者特定手段、33a 被認証者存在範囲算出手段、33b 被認証者像選択手段、34 追跡手段、35 異常判定手段。   DESCRIPTION OF SYMBOLS 1 Monitoring apparatus, 10 Authentication apparatus, 11 Control part, 12 Storage part, 13 Monitoring image imaging part, 14 Authentication signal receiving part, 15 Operation part, 16 Output part, 21 Authentication image imaging part, 22 Authentication information storage part, 23 Authentication processing unit, 24 authentication signal transmission unit, 31 person image extraction unit, 32 head detection unit, 33 person-to-be-authenticated identification unit, 33a user-existing person existence range calculation unit, 33b user-to-be-authenticated image selection unit, 34 tracking unit, 35 Abnormality determination means.

Claims (5)

被認証者の顔を含む認証用画像を撮像する認証用画像撮像部と、
前記認証用画像の中から、前記被認証者の顔を示す顔領域を検出し、当該顔領域内の画像に基づいて前記被認証者を認証する認証部と、
上方から前記被認証者を含む監視画像を撮像する監視画像撮像部と、
前記監視画像の中から、1又は複数の人物像を抽出する人物像抽出手段と、
前記認証用画像撮像部及び前記監視画像撮像部のカメラパラメータ同士の関係から、前記人物像抽出手段が抽出した前記監視画像中の人物像のうち前記認証部が検出した顔領域ごとに、前記認証用画像中の位置に対応する人物像を被認証者の人物像と特定する被認証者特定手段と、
を含むことを特徴とする監視装置。
An authentication image capturing unit that captures an authentication image including the face of the person to be authenticated;
An authentication unit that detects a face area indicating the face of the person to be authenticated from the authentication image, and authenticates the person to be authenticated based on an image in the face area;
A monitoring image capturing unit that captures a monitoring image including the person to be authenticated from above;
Person image extraction means for extracting one or more person images from the monitoring image;
From the relationship between camera parameters of the authentication image capturing unit and the monitoring image capturing unit, the authentication is performed for each face area detected by the authentication unit among the human images in the monitoring image extracted by the human image extracting unit. the figures corresponding to the position in use image and the authenticated person identifying means for identifying a person image of the person to be authenticated,
A monitoring device comprising:
前記人物像抽出手段は、人の頭部領域を人物像として検出する請求項1に記載の監視装置。   The monitoring apparatus according to claim 1, wherein the person image extraction unit detects a human head region as a person image. 請求項1又は2記載の監視装置において、
前記被認証者特定手段は、前記認証用画像内において前記被認証者の顔領域が検出された位置に基づいて、前記監視画像内において前記被認証者の顔が存在すると推定される範囲を算出し、当該算出した範囲を用いて前記被認証者の人物像を特定する
ことを特徴とする監視装置。
The monitoring device according to claim 1 or 2,
The authenticated person specifying means calculates a range in which the face of the authenticated person is estimated to exist in the monitoring image based on a position where the face area of the authenticated person is detected in the authentication image. And a person image of the person to be authenticated is specified using the calculated range.
請求項1から3のいずれか一項記載の監視装置において、
前記被認証者特定手段は、前記認証用画像内において検出された前記被認証者の顔領域の大きさにさらに基づいて、前記抽出された人物像の中から、前記被認証者の人物像を特定する
ことを特徴とする監視装置。
The monitoring device according to any one of claims 1 to 3,
The authentication-subjected person specifying means further extracts the person image of the person to be authenticated from the extracted person images based on the size of the face area of the person to be authenticated detected in the authentication image. A monitoring device characterized by specifying.
請求項1から4のいずれか一項記載の監視装置において、
前記監視画像撮像部は、前記認証部が前記被認証者を認証する際に前記被認証者が存在すると推定される位置を、略鉛直上方から撮像する位置に設置される
ことを特徴とする監視装置。
The monitoring device according to any one of claims 1 to 4,
The monitoring image capturing unit is installed at a position where the position where the authenticated person is estimated to exist when the authenticating unit authenticates the authenticated person is picked up from substantially vertically above. apparatus.
JP2008064756A 2008-03-13 2008-03-13 Monitoring device Active JP5180630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008064756A JP5180630B2 (en) 2008-03-13 2008-03-13 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008064756A JP5180630B2 (en) 2008-03-13 2008-03-13 Monitoring device

Publications (2)

Publication Number Publication Date
JP2009223429A JP2009223429A (en) 2009-10-01
JP5180630B2 true JP5180630B2 (en) 2013-04-10

Family

ID=41240171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008064756A Active JP5180630B2 (en) 2008-03-13 2008-03-13 Monitoring device

Country Status (1)

Country Link
JP (1) JP5180630B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6117089B2 (en) * 2013-12-12 2017-04-19 セコム株式会社 Human detection device
JP6369058B2 (en) * 2014-03-10 2018-08-08 サクサ株式会社 Image processing device
JP6964030B2 (en) * 2018-03-27 2021-11-10 東京瓦斯株式会社 Monitoring system and monitoring method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004211538A (en) * 2002-12-20 2004-07-29 Tokai Riken Kk Entrance-leaving control system
JP4836633B2 (en) * 2006-03-31 2011-12-14 株式会社東芝 Face authentication device, face authentication method, and entrance / exit management device

Also Published As

Publication number Publication date
JP2009223429A (en) 2009-10-01

Similar Documents

Publication Publication Date Title
JP6148065B2 (en) Face recognition system
CN109002786B (en) Face detection method, face detection equipment and computer-readable storage medium
JP5171351B2 (en) Image monitoring device
JP6148064B2 (en) Face recognition system
EP1868158A2 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
JP4357521B2 (en) Unauthorized passing person detection device and unauthorized passing person recording system using the same
JP5127531B2 (en) Image monitoring device
JP4975666B2 (en) Monitoring device
JP2009245338A (en) Face image collating apparatus
JP6163466B2 (en) Authentication device
WO2019216091A1 (en) Face authentication device, face authentication method, and face authentication system
JP5538963B2 (en) Emergency call device
JP4521086B2 (en) Face image recognition apparatus and face image recognition method
JP2012208610A (en) Face image authentication apparatus
KR101002712B1 (en) Intelligent security system
JP2013069155A (en) Face authentication database construction method, face authentication device, and face authentication program
JP5647459B2 (en) Moving object detection device
JP4617286B2 (en) Unauthorized passing person detection device and unauthorized passing person recording system using the same
JP5180630B2 (en) Monitoring device
JP6117089B2 (en) Human detection device
JP2007206898A (en) Face authentication device and access management device
JP2013210788A (en) Face image authentication device
JP2016181174A (en) Regional monitoring system
JP5955057B2 (en) Face image authentication device
KR20200010691A (en) Character recognition and traffic control system using heterogeneous camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130111

R150 Certificate of patent or registration of utility model

Ref document number: 5180630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250