JP5180630B2 - Monitoring device - Google Patents
Monitoring device Download PDFInfo
- Publication number
- JP5180630B2 JP5180630B2 JP2008064756A JP2008064756A JP5180630B2 JP 5180630 B2 JP5180630 B2 JP 5180630B2 JP 2008064756 A JP2008064756 A JP 2008064756A JP 2008064756 A JP2008064756 A JP 2008064756A JP 5180630 B2 JP5180630 B2 JP 5180630B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- authenticated
- authentication
- monitoring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 18
- 238000012544 monitoring process Methods 0.000 claims description 159
- 238000000605 extraction Methods 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 8
- 210000003128 head Anatomy 0.000 description 49
- 238000000034 method Methods 0.000 description 36
- 238000003384 imaging method Methods 0.000 description 33
- 230000005856 abnormality Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 230000008054 signal transmission Effects 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 241000287107 Passer Species 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 241000439496 Varanus dumerilii Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
Images
Description
本発明は、被認証者が認証を受ける場所の画像を撮像して監視を行う監視装置に関する。 The present invention relates to a monitoring apparatus that performs monitoring by capturing an image of a place where a person to be authenticated is authenticated.
例えば出入口を通行する人物を制限するために、認証装置によってこの人物を認証し、認証結果に応じて出入口を開閉するなどの制御が行われることがある。さらに、この場合において、認証を受けずに不正に出入口を通行しようとする人物(不正通行者)を監視するために、監視カメラ等によってこの出入口付近の画像を撮像することもある。 For example, in order to restrict a person who passes through the entrance / exit, control may be performed such as authenticating the person by an authentication device and opening / closing the entrance / exit according to the authentication result. Furthermore, in this case, in order to monitor a person who attempts to pass through the entrance / exit without being authenticated (an unauthorized passer), an image near the entrance / exit may be captured by a monitoring camera or the like.
上記事例において、監視カメラ等によって撮像された監視画像を用いて有効に不正通行者の監視を行うためには、監視画像の中に映っている人物の中から、認証を受けた被認証者と認証されていない不正通行者とを識別する必要がある。このような識別の方法の一つとして、認証装置が被認証者の認証を行った際に、認証装置の前方所定範囲に存在する人物を、被認証者として特定する技術が提案されている(特許文献1参照)。
ところで、出入口付近には複数の人物が往来する。上記従来例の技術では、複数の人物が、偶然に、あるいは不正な意図で同時に認証装置前方の所定範囲内に立った場合などにおいて、複数の人物のどちらが認証を受けた被認証者か、正しく特定できないことがあり得る。また、人物の影や、人物が持っている手荷物、台車などが監視画像に映っていると、これら外乱の影響で監視画像に映っている人物像を精度よく抽出できず、被認証者と比べて認証装置から離れた位置に立っている人物の方を被認証者と誤認識してしまう問題も発生しうる。特に、認証装置が被認証者の顔を撮像して、撮像された顔の画像を解析して被認証者が誰かを認証する場合、被認証者は認証装置に接触する必要はなく、認証装置から離れた位置で認証を受けることが可能となる。このような認証方法を用いる場合、上記問題が生じる可能性は高くなる。また、従来例の技術では、被認証者の像を特定するために、認証装置で得られている情報が十分に活用されていなかった。 By the way, a plurality of people come and go near the entrance. In the technology of the above conventional example, in the case where a plurality of persons stand within a predetermined range in front of the authentication device by chance or by unjust intention, it is correctly determined which of the plurality of persons has been authenticated. It may not be possible to specify. In addition, if the shadow of a person, baggage, or a trolley that the person has is reflected in the monitoring image, the person image reflected in the monitoring image cannot be accurately extracted due to the influence of these disturbances, and compared with the person to be authenticated. As a result, a person standing at a position away from the authentication device may be erroneously recognized as a person to be authenticated. In particular, when the authentication device captures the face of the person to be authenticated and analyzes the captured face image to authenticate the person to be authenticated, the person to be authenticated does not need to contact the authentication device. It is possible to receive authentication at a position away from the station. When such an authentication method is used, there is a high possibility that the above problem will occur. Further, in the technology of the conventional example, the information obtained by the authentication device has not been sufficiently utilized to identify the image of the person to be authenticated.
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、被認証者が認証を受ける場所の画像を撮像して監視を行う場合に、撮像された監視画像の中から精度よく被認証者を特定することのできる監視装置を提供することにある。 The present invention has been made in view of the above circumstances, and one of its purposes is that when an image of a place where the person to be authenticated is authenticated is imaged and monitored, it is selected from the captured monitoring images. An object of the present invention is to provide a monitoring device that can specify a person to be authenticated with high accuracy.
上記課題を解決するための本発明に係る監視装置は、被認証者の顔を含む認証用画像を撮像する認証用画像撮像部と、前記認証用画像の中から、前記被認証者の顔を示す顔領域を検出し、当該顔領域内の画像に基づいて前記被認証者を認証する認証部と、上方から前記被認証者を含む監視画像を撮像する監視画像撮像部と、前記監視画像の中から、1又は複数の人物像を抽出する人物像抽出手段と、前記認証用画像撮像部及び前記監視画像撮像部のカメラパラメータ同士の関係から、前記認証部が検出した被認証者の顔領域の位置に対応する人物像を被認証者の人物像とする被認証者特定手段と、を含むことを特徴とする。 The monitoring device according to the present invention for solving the above-described problem includes an authentication image capturing unit that captures an authentication image including the face of the person to be authenticated, and the face of the person to be authenticated from the authentication image. An authentication unit that detects a face area to be shown and authenticates the person to be authenticated based on an image in the face area; a monitoring image pickup unit that picks up a monitoring image including the person to be authenticated from above; and The face area of the person to be authenticated detected by the authentication unit based on the relationship between the human image extraction means for extracting one or a plurality of human images and the camera parameters of the authentication image capturing unit and the monitoring image capturing unit And a person-to-be-authenticated person specifying means that uses a person image corresponding to the position of the person to be authenticated as a person image.
また、上記監視装置において、前記人物像抽出手段は、人の頭部領域を人物像として検出することとしてもよい。 In the monitoring apparatus, the person image extraction unit may detect a human head region as a person image.
また、上記監視装置において、前記被認証者特定手段は、前記認証用画像内において前記被認証者の顔領域が検出された位置に基づいて、前記監視画像内において前記被認証者の顔が存在すると推定される範囲を算出し、当該算出した範囲を用いて前記被認証者の人物像を特定することとしてもよい。 Further, in the monitoring device, the authentication-subjected person specifying means includes the face of the authentication-subject person in the monitoring image based on a position where the face area of the authentication-subject person is detected in the authentication image. Then, an estimated range may be calculated, and the person image of the person to be authenticated may be specified using the calculated range.
さらに、上記監視装置において、前記被認証者特定手段は、前記認証用画像内において検出された前記被認証者の顔領域の大きさにさらに基づいて、前記抽出された人物像の中から、前記被認証者の人物像を特定することとしてもよい。 Further, in the monitoring device, the authentication-subjected person specifying means further includes the extracted person image based on the size of the face area of the person to be authenticated detected in the authentication image. The person image of the person to be authenticated may be specified.
また、上記監視装置において、前記監視画像撮像部は、前記認証部が前記被認証者を認証する際に前記被認証者が存在すると推定される位置を、略鉛直上方から撮像する位置に設置されることとしてもよい。 Further, in the monitoring apparatus, the monitoring image capturing unit is installed at a position where the position estimated to be the person to be authenticated when the authenticating unit authenticates the person to be authenticated is imaged from above substantially vertically. It is also good to do.
本発明によれば、被認証者の認証を行う際に撮像した認証用画像内における被認証者の顔の位置の情報を用いて、監視画像から抽出された人物像の中から、精度よく被認証者の人物像を特定することができる。 According to the present invention, using the information on the position of the face of the person to be authenticated in the authentication image captured when authenticating the person to be authenticated, the target is accurately extracted from the person image extracted from the monitoring image. The person image of the certifier can be specified.
以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本発明の一実施形態に係る監視装置1は、図1に示すように、認証装置10と、制御部11と、記憶部12と、監視画像撮像部13と、認証信号受信部14と、操作部15と、出力部16と、を含んで構成されている。本実施形態では、監視装置1は、監視対象となる出入口であるドアDを通行しようとする人物の認証を行うとともに、このドアD周辺の画像を撮像することにより、ドアDを通行しようとする人物の監視を行う。
As shown in FIG. 1, the
認証装置10は、ドアDを通行しようとする人物の認証を行う装置であって、図1に示すように、認証用画像撮像部21と、認証情報記憶部22と、認証処理部23と、認証信号送信部24と、を含んで構成されている。なお、認証装置10を構成する各部は、一つの筺体内に収容されてもよいし、認証用画像撮像部21とその他の部分とがそれぞれ別の筺体に収容され、通信線によって接続されてもよい。また、以下では、認証装置10による認証を受ける人物を、被認証者Paという。本実施形態では、認証装置10は、被認証者Paの顔を撮像して得られる画像を用いて、被認証者Paの認証を行う。
The
認証用画像撮像部21は、被認証者Paの顔を含む認証用画像を撮像するビデオカメラ等の撮像装置である。被認証者Paの顔を撮像するため、例えば認証用画像撮像部21は、ドアD近傍の壁面の、人の身長に応じた高さ(例えば約1.5m)の位置に設置される。また、認証用画像撮像部21の撮像方向は、床面に対して略水平な方向となっている。なお、認証用画像撮像部21は、継続的に認証用画像を撮像してもよいし、例えば被認証者Paが所定のボタンを押下したタイミングで認証用画像を撮像してもよい。認証用画像撮像部21によって撮像された認証用画像は、認証処理部23に対して出力される。
The authentication
認証情報記憶部22は、例えばROM等のメモリ素子を含んで構成され、予め認証の対象となる人物の認証情報を記憶している。具体的に、認証情報記憶部22は、ドアDの通行が許可される1又は複数の人物(以下、通行許可者という)それぞれの認証情報を記憶する。ここで認証情報は、例えば通行許可者の顔の特徴を表す特徴量など、通行許可者を他の人物と区別して特定するための情報である。
The authentication
認証処理部23は、例えばデジタルシグナルプロセッサ(DSP)等の演算装置により構成され、被認証者Paを認証する認証処理を実行する。具体的に、まず認証処理部23は、認証用画像撮像部21が撮像した認証用画像の中から、被認証者Paの顔を示す顔領域を検出する。ここで、認証用画像の中から被認証者Paの顔領域を検出する方法としては、例えば特開2005−92262号公報に記載された方法を用いることができる。なお、認証用画像の中から複数の顔領域が検出された場合、認証処理部23は、これら顔領域の中から、例えば最も大きな顔領域など、所定の基準を満たす顔領域を、被認証者Paの顔を示す顔領域として選択する。
The
さらに、認証処理部23は、検出した被認証者Paの顔領域内の画像に基づいて、被認証者Paを認証する。すなわち、検出した顔領域の画像を解析して得られる解析結果と、認証情報記憶部22に記憶された通行許可者の認証情報と、を照合することにより、被認証者Paが通行許可者であるか否か判定する。この顔画像の解析及び認証情報との照合の方法としては、例えば特開2007−299186号公報に記載された方法を用いることができる。
Further, the
認証処理部23は、認証処理の結果、被認証者Paが通行許可者であることを認証した場合、所定の認証信号を認証信号送信部24に対して出力する。この認証信号には、被認証者Paの認証に成功したことを示す情報のほか、認証用画像の中から検出された被認証者Paの顔領域に関する情報(以下、顔領域情報という)が含まれる。具体的に、顔領域情報は、認証用画像内において被認証者Paの顔領域が検出された位置を示す位置情報(位置座標の情報など)を少なくとも含んでいる。この位置情報は、例えば顔領域の重心位置を示す情報であってもよいし、顔領域に外接する外接矩形の中心位置を示す情報であってもよい。さらに、顔領域情報には、認証用画像内において検出された顔領域の大きさを示すサイズ情報(例えば顔領域に外接する外接矩形の幅及び高さを表す数値など)が含まれてもよい。
As a result of the authentication processing, the
認証信号送信部24は、例えばLANインタフェース等の通信装置であって、被認証者Paの認証が成功したタイミングで認証処理部23が出力する認証信号を、認証信号受信部14に対して送信する。また、認証信号送信部24は、この認証処理部23が出力する認証信号を受けて、ドアDを開錠するための制御信号を電気錠(不図示)に対して出力する。これにより、ドアDが所定時間だけ開錠され、被認証者Paはその間にドアDを通行できる。
The authentication
制御部11は、例えばCPUやDSP等の演算装置であって、記憶部12に記憶されるプログラムに従って各種の情報処理を実行する。本実施形態では、制御部11は、監視画像撮像部13によって撮像される監視画像を解析して、異常を検知した場合に当該異常の検知に応じた信号を出力部16に出力する処理を行う。なお、本実施形態において制御部11が実行する処理の具体例については、後述する。
The control unit 11 is an arithmetic device such as a CPU or a DSP, for example, and executes various types of information processing according to programs stored in the
記憶部12は、例えばROMやRAM等のメモリ素子を含んで構成され、制御部11によって実行される各種のプログラムや、制御部11が実行する処理により利用される各種のパラメタなどの情報が記憶される。
The
監視画像撮像部13は、上方から被認証者Paを含む監視画像を撮像するビデオカメラ等の撮像装置である。本実施形態では、監視画像撮像部13は、継続して所定時間おきに監視画像の撮像を続けており、各タイミングで撮像した監視画像(フレーム画像)を、制御部11に対して順次出力する。
The monitoring
図2(a)及び図2(b)は、監視装置1の監視対象となる空間(以下、監視空間という)の様子の一例を示す図である。図2(a)は、認証装置10が被認証者Paの認証を行っている時点での被認証者Paを側面から見た図を示しており、図2(b)は、同じ被認証者Paを背面から見た図を示している。これらの図に示されるように、監視画像撮像部13は、認証装置10が被認証者Paを認証する際に被認証者Paが存在すると推定される位置を撮像可能な位置に設置され、その撮像方向は水平面より下向きになっている。これにより、監視画像撮像部13は、認証用画像撮像部21の撮像方向とは異なる撮像方向で、同じ被認証者Paを含む画像を撮像する。図3は、監視画像撮像部13によって撮像される監視画像の一例を示す図である。図3の例では、監視画像内に、ドアDと、認証用画像撮像部21と、被認証者Paと、が映っている。ここで、被認証者Paが存在すると推定される位置の略鉛直上方に監視画像撮像部13が設置されることによって、監視画像撮像部13によって撮像された監視画像内において、被認証者Paの人物像が、その周囲に存在する他の人物の人物像と重なりにくくすることができる。
2A and 2B are diagrams illustrating an example of a state of a space to be monitored by the monitoring device 1 (hereinafter referred to as a monitoring space). FIG. 2A shows a view of the authenticated person Pa as viewed from the side when the
認証信号受信部14は、例えばLANインタフェース等の通信装置であって、認証装置10の認証信号送信部24が送信する認証信号を受信して、所定の一時記憶領域に記憶する。一時記憶領域に記憶された認証信号に含まれる情報は、制御部11によって読み出される。
The authentication
操作部15は、例えばタッチパネルディスプレイ等のユーザインタフェースであって、監視装置1の管理者が各種のパラメタなどの情報を入力するために用いられる。操作部15から管理者が入力した情報は、記憶部12に記憶され、制御部11が実行する処理に用いられる。具体例として、管理者は、認証用画像撮像部21及び監視画像撮像部13のそれぞれのカメラパラメータを操作部15から入力する。カメラパラメータには、実空間における、認証用画像撮像部21の設置位置(以下、認証用画像撮像位置C1という)及び撮像方向、監視画像撮像部13の設置位置(以下、監視画像撮像位置C2という)及び撮像方向を含む設置パラメータや、認証用画像撮像部21の画角、画素数及びレンズ歪み、監視画像撮像部13の画角、画素数及びレンズ歪みを含む撮像パラメータなどがある。また、管理者は、監視画像内におけるドアDの位置及び監視画像内における認証用画像撮像位置C1を示す情報を操作部15から入力する。
The
出力部16は、制御部11による処理結果を外部機器等に出力するためのインタフェースである。出力部16は、例えばスピーカやブザー等の音響出力手段と接続され、制御部11からの指示により、当該音響出力手段に対して警告音の鳴動を実行させる異常信号を出力する。これにより、監視装置1は、制御部11の処理によって異常が検知された場合に、警告音を鳴らすことができる。また、出力部16は、外部のセンタ装置等に対して異常信号を送信する通信インタフェースを含んでもよい。これにより、制御部11の処理によって異常が検知された場合に、監視装置1は、異常の検知を知らせる信号を外部の監視センタなどに通知することができる。なお、この場合、出力部16は、認証信号受信部14と共通のインタフェース装置であってもよい。
The
以下、監視画像撮像部13によって撮像された監視画像を用いて監視を行う際に、監視装置1が実現する機能の具体例について、説明する。監視装置1は、機能的に、図4に示すように、人物像抽出手段31と、頭部検出手段32と、被認証者特定手段33と、追跡手段34と、異常判定手段35と、を含んで構成される。また、被認証者特定手段33は、被認証者存在範囲算出手段33aと、被認証者像選択手段33bと、を含んで構成される。これらの機能は、制御部11が記憶部12に格納されたプログラムを実行することにより、実現される。
Hereinafter, specific examples of functions realized by the
人物像抽出手段31は、監視画像撮像部13によって所定時間おきに撮像された監視画像のそれぞれについて、当該監視画像の中から、1又は複数の人物像を抽出する。具体的に、例えば人物像抽出手段31は、予め人が誰もいない状態の監視空間を撮像して得られる監視画像を背景画像として記憶部12に記憶しておき、当該背景画像と監視画像とを比較して差分画素を抽出する。そして、互いに隣接する差分画素を含んで構成される差分画素群のうち、所定の条件を満足する形状や所定値以上の大きさを有する差分画素群を、人を表す人物像として抽出する。また、人物像抽出手段31は、上記方法のほか、エッジ検出などの各種の画像処理を組み合わせて人物像を抽出してもよい。
The person
人物像は、監視画像が撮像されたタイミングで監視空間内にいる人物の数に応じた数だけ、監視画像の中から抽出される。また、認証装置10による認証を受けた被認証者Paがいる場合、この被認証者Paの人物像(以下、被認証者像という)が人物像抽出手段31によって監視画像の中から抽出されることとなる。なお、人物像抽出手段31は、被認証者Paが監視空間内に存在せず、認証信号が認証装置10から送信されていない間も、撮像された監視画像の中から人物像を抽出する処理を実行する。人物像抽出手段31によって抽出された人物像に関する情報は、記憶部12に記憶され、後述する追跡手段34による人物像の追跡処理に用いられる。
The person images are extracted from the monitoring images by the number corresponding to the number of persons in the monitoring space at the timing when the monitoring images are captured. When there is a person to be authenticated Pa who has been authenticated by the
頭部検出手段32は、人物像抽出手段31によって抽出された1又は複数の人物像のそれぞれから、人の頭部を示す頭部領域を検出する。具体的に、例えば頭部検出手段32は、エッジ検出及びハフ変換やパターンマッチングなどの画像処理を実行することにより、各人物像の画像領域の中から、人体頭部の特徴を有する領域(例えば所定範囲の大きさの略円形の領域)を頭部領域として検出し、当該検出した頭部領域の位置及び大きさを示す情報を出力する。人物像抽出手段31によって抽出される人物像は、人物の影や、人物が持つ手荷物、台車等の影響によって、その中心位置が必ずしもその人物が立っている実際の位置に対応しない場合がある。そのような場合であっても、頭部検出手段32によって人物像の中からさらに頭部領域を検出することによって、監視空間内に存在する人の顔に対応する監視画像内の位置を、精度よく特定することができる。なお、本実施の形態では、頭部検出手段32を用いて精度を上げているが、人物像抽出手段31にて十分な精度が得られれば、頭部検出手段32を省略してもよい。
The
被認証者特定手段33は、認証装置10が被認証者Paの認証を行ったタイミングで監視画像撮像部13によって撮像された監視画像の中から、人物像抽出手段31によって複数の人物像が抽出された場合に、この抽出された人物像の中から、被認証者像を特定する。このとき、被認証者特定手段33は、認証用画像内において顔領域が検出された位置と対応関係にある認証用画像内の位置に抽出された人物像を被認証者像に特定する。認証用画像内の位置座標と監視画像内の位置座標の間の対応関係は前述したカメラパラメータにより導出される。導出の規則は被認証者特定手段33のプログラムとして記憶部12に予め記憶されており、被認証者特定手段33は動作に先立って記憶部12に記憶されているカメラパラメータを規則に適用して対応関係を導出する。これにより、被認証者特定手段33は、監視画像内に複数の人物像が映っている場合に、単に認証用画像撮像部21の前方に位置する人物像を被認証者像として特定する場合と比較して、より精度よく被認証者像を特定できる。
The person-to-
ここで、被認証者特定手段33が被認証者像を特定する方法の具体例について説明する。まず被認証者存在範囲算出手段33aが、認証装置10から受信した認証信号に含まれる顔領域情報に基づいて、監視画像内において被認証者Paの顔が存在すると推定される範囲(以下、被認証者存在範囲という)を算出する。ここで利用する顔領域情報は、認証装置10により被認証者Pa本人のものと確認されているので確実に被認証者像を特定できる。また、1つに絞り込まれた顔領域の情報から被認証者像を特定するので効率がよい。
Here, a specific example of the method by which the person to be authenticated specifying
例えば被認証者存在範囲算出手段33aは、認証信号に含まれる顔領域情報のうち、顔領域が検出された認証用画像内の位置を監視画像の撮像面に射影することによって、被認証者存在範囲を算出する。具体的に、被認証者存在範囲算出手段33aは、認証用画像内の顔領域の位置座標と、記憶部12に記憶されている認証用画像撮像位置C1及び認証用画像撮像部21の撮像方向に関する情報と、に基づいて、認証用画像撮像位置C1と被認証者Paの顔の位置とを結ぶ実空間上の直線を算出する。被認証者Paの顔の位置は、この直線に沿った範囲に存在すると推定される。そこで、被認証者存在範囲算出手段33aは、この算出された直線を、監視画像撮像位置C2及び監視画像撮像部13の撮像方向に関する情報を用いて、監視画像撮像部13の撮像面に射影することにより、エピポーラ線EPを算出し、このエピポーラ線EPに沿った範囲を被認証者存在範囲とする。この被認証者存在範囲により、監視画像内において被認証者Paの顔が存在する方向を限定できる。なお、被認証者存在範囲算出手段33aがエピポーラ線EPを算出する処理の具体例については、後述する。
For example, the person-to-be-authenticated person existence
次に、被認証者像選択手段33bが、被認証者存在範囲算出手段33aが算出した被認証者存在範囲の情報を用いて、人物像抽出手段31によって抽出された人物像の中から被認証者像を選択する。例えば被認証者像選択手段33bは、被認証者存在範囲に存在する人物像のうち、認証用画像撮像位置C1に最も近い位置に存在する人物像を、被認証者像として選択する。
Next, the person-to-be-authenticated person image selection means 33b uses the information on the person-to-be-authenticated person presence range calculated by the person-to-be-authenticated
このとき、被認証者像選択手段33bは、人物像抽出手段31によって抽出された人物像のそれぞれについて、さらに頭部検出手段32が検出した頭部領域の位置に基づいて、被認証者像を特定してもよい。認証用画像撮像部21によって撮像された被認証者Paの顔の位置に対応する監視画像内の位置には、被認証者Paの頭部が現れていると考えられる。そのため、認証用画像内における顔領域の位置を監視画像の撮像面に射影した被認証者存在範囲と、監視画像から検出した各人物像の頭部領域の位置とを比較して、被認証者存在範囲に位置する頭部領域が検出された人物像を被認証者像と特定することにより、単に人物像全体の重心位置などを用いて被認証者像の特定を行う場合と比較して、より精度よく被認証者像の特定を行うことができる。
At this time, the person-to-be-authenticated image selecting means 33b further selects the person-to-be-authenticated image based on the position of the head region detected by the head detecting means 32 for each of the person images extracted by the person
また、被認証者特定手段33は、認証用画像内における顔領域の位置だけでなく、さらに顔領域の大きさに基づいて、被認証者像を特定してもよい。認証用画像内における被認証者Paの顔の大きさは、被認証者Paが立っている位置から認証用画像撮像位置C1までの距離に応じて変化する。そこで、認証用画像内における顔領域の大きさから監視画像内において被認証者Paの顔が存在する認証用画像撮像位置C1からの距離範囲を推定し、監視画像から検出した各人物像又は各人物像の頭部領域の位置と当該距離範囲とを比較して、当該距離範囲に位置する人物像を被認証者像と特定する、又は当該距離範囲に位置する頭部領域が検出された人物像を被認証者像と特定することにより、さらに精度よく被認証者像を特定できる。 Further, the person-to-be-authenticated identification means 33 may identify the person-to-be-authenticated image based on not only the position of the face area in the authentication image but also the size of the face area. The size of the face of the person to be authenticated Pa in the authentication image changes according to the distance from the position where the person to be authenticated Pa stands to the image pickup position C1 for authentication. Therefore, the distance range from the authentication image capturing position C1 where the face of the person to be authenticated Pa is present in the monitoring image is estimated from the size of the face area in the authentication image, and each person image or each detected from the monitoring image is detected. Compare the position of the head area of the person image with the distance range and specify the person image located in the distance area as the person-to-be-authenticated image, or the person whose head area located in the distance range is detected By specifying the image as the person-to-be-authenticated image, the person-to-be-authenticated image can be specified more accurately.
具体的に、例えば標準的な大きさの顔を持つ人物を様々な距離から認証用画像撮像部21が撮像して、そのときの顔領域の大きさを記録することによって、顔領域の大きさと認証用画像撮像部21から被認証者Paの顔までの距離との間の対応関係に応じた数式や換算テーブルなどを決定し、記憶部12に予め記憶させておく。被認証者存在範囲算出手段33aは、顔領域の大きさを示すパラメタをこの数式や換算テーブルなどに適用して、認証用画像撮像位置C1から被認証者Paの顔が存在すると推定される位置までの推定距離範囲を算出する。この推定距離範囲の情報を用いて、被認証者存在範囲算出手段33aは、認証用画像内における顔領域の位置に基づいて算出した被認証者存在範囲をさらに限定して、その範囲を絞り込む。これにより、例えば認証用画像撮像位置C1から見て同一方向に複数の人物が立っており、その複数の人物のうち後方に立っている人物が被認証者Paだったとしても、監視画像から抽出された人物像の中から精度よく被認証者像を特定できる。
Specifically, for example, the authentication
追跡手段34は、監視画像撮像部13が所定時間おきに撮像した監視画像のそれぞれについて、人物像抽出手段31が人物像を抽出するごとに、以下に説明するような人物像の追跡処理を行う。すなわち、追跡手段34は、新たに撮像された監視画像から人物像抽出手段31によって抽出された人物像のそれぞれを、当該監視画像より過去時点において撮像された監視画像から人物像抽出手段31によって抽出され、記憶部12に記憶されている人物像と比較することによって、当該人物像に対応する人物の監視空間内における移動経路を追跡する。具体的に、追跡手段34は、新たな監視画像から抽出された各人物像の位置や画像特徴に関する量(例えば色ヒストグラム等)を、前回撮像された監視画像から抽出された人物像の位置や画像特徴に関する量と比較することによって、同じ人物を表す人物像同士を関連付ける。そして、同一人物を表す人物像として互いに関連付けられた人物像の、時系列に従って撮像された各監視画像内における位置を示す時系列情報を、当該人物の移動経路を示す移動経路情報として出力する。
The tracking unit 34 performs tracking processing of a person image as described below every time the person
ここで、追跡手段34は、被認証者特定手段33によって被認証者像であると特定された人物像については、他の人物像と区別するために、当該人物の移動経路情報に対して、被認証者像であることを示す属性情報を関連付ける。具体例として、追跡手段34は、新たな監視画像から抽出された人物像のうち、前回撮像された監視画像内に同一人物を示す人物像が存在しないと判定された人物像については、新たに監視空間に入ってきた人物の人物像として、まず被認証者Paではないことを示す属性情報を関連付ける。これにより、追跡手段34により追跡対象となる監視空間内の各人物は、常に最初は被認証者Paではないものとして管理される。そして、認証装置10から認証信号を受信したタイミングにおいて、被認証者特定手段33によって被認証者像であると特定された人物像については、この属性情報を被認証者Paであることを示す値に更新する。これにより、追跡手段34による追跡対象となっている人物のうち、被認証者Paとして特定された人物については、それ以降は他の人物と区別して追跡されることとなる。
Here, in order to distinguish the person image identified as the person-to-be-authenticated image by the person-to-be-authenticated
異常判定手段35は、追跡手段34が出力する監視空間内の各人物の移動経路情報に基づいて、所定の条件に合致する不正な移動がないか否かを判定する。具体例として、被認証者Paではないことを示す属性情報が関連付けられた人物が、監視画像内においてドアDに対応する領域外からドアDに対応する領域内に移動したことを示す移動経路情報が追跡手段34によって出力された場合、異常判定手段35は、ドアDの通行が許可されていない人物による不正な通行があると判定して、異常の検知を示す異常信号を出力部16に対して出力する。これにより、監視装置1は、認証を受けていない人物がドアDを通行しようとした場合に、警告音を鳴らしたりセンタに通報したりすることができる。
The
ここで、被認証者存在範囲算出手段33aがエピポーラ線EPを算出する処理の具体例について、説明する。
Here, a specific example of the process of calculating the epipolar line EP by the to-be-authenticated person presence
図5(a)及び図5(b)は、監視空間に複数の人物が存在する場合に、監視画像撮像部13が撮像する監視画像及び認証用画像撮像部21が撮像する認証用画像の一例を示す図である。図5(a)は、監視画像の一例を示しており、人物P1,P2及びP3の3人が映っている。また、図5(b)に示す認証用画像内には、人物P1及びP2が映っており、人物P3は人物P1の陰になって認証用画像内には映っていない。ここで、認証装置10は人物P1を被認証者Paとして選択し、その顔領域Fを検出し、認証を行ったものとする。このとき、認証信号送信部24が送信する認証信号には、被認証者Paの顔領域Fの認証用画像内における位置を示す位置情報が含まれる。ここでは、認証用画像の画像中心を原点として、画素を単位とした顔領域Fの中心位置の位置座標を(u1,v1)とする。
FIGS. 5A and 5B are examples of a monitoring image captured by the monitoring
なお、以下では、認証用画像撮像部21及び監視画像撮像部13の撮像条件に関するパラメタとして、以下に説明する各パラメタが記憶部12に記憶されているものとする。すなわち、認証用画像の画像中心から画像の端部までの画素数を横w1、縦h1とし、認証用画像撮像部21の横方向の画角をα1、縦方向の画角をβ1とする。また、監視画像の画像中心から画像の端部までの画素数を横w2、縦h2とし、監視画像撮像部13の横方向の画角をα2、縦方向の画角をβ2とする。
In the following description, it is assumed that parameters described below are stored in the
さらに、記憶部12には、認証用画像撮像位置C1及び監視画像撮像位置C2の位置関係並びにそれぞれの撮像部の撮像方向を示す情報も記憶されている。具体例として、図6は、実空間における認証用画像撮像位置C1及び監視画像撮像位置C2の位置関係を示している。この図においては、認証用画像撮像位置C1を座標系の原点としている。また、認証用画像撮像部21の撮像方向をY軸正方向、鉛直上方をZ軸正方向とし、Y軸及びZ軸双方と直交し、認証用画像の右側に向かう方向をX軸正方向としている。さらに、監視画像撮像位置C2の位置座標を(0,C2y,C2z)とし、監視画像撮像部13の撮像方向をZ軸負方向とする。
Furthermore, the
これらの各情報を用いて、ピンホールカメラモデルを適用することにより、被認証者存在範囲算出手段33aは、実空間における認証用画像撮像位置C1に対する被認証者Paの顔の中心位置(以下、顔位置Fcという)の方向を算出する。具体的に、原点C1から顔位置Fcに向かうベクトルVfと、認証用画像撮像部21の撮像方向(Y軸正方向)と、のなす角のX軸方向成分θu1及びZ軸方向成分θv1は、それぞれ下記の計算式により算出できる。
これにより、ベクトルVfは、所定の定数Tを用いて(T・tanθu1,T,T・tanθv)と表される。このベクトルVfが、実空間における認証用画像撮像位置C1から見た顔位置Fcの方向を表している。ここで、位置座標が(T・tanθu1,T,T・tanθv1)で表される仮想点Qを考えると、原点C1とこの仮想点Qとを結ぶ直線上に顔位置Fcが存在すると推定される。なお、以下では仮想点Qの位置座標を(Qx,Qy,Qz)と表記する。 Thus, the vector Vf is expressed as (T · tan θu1, T, T · tan θv) using a predetermined constant T. This vector Vf represents the direction of the face position Fc viewed from the authentication image capturing position C1 in the real space. Here, considering a virtual point Q whose position coordinates are represented by (T · tan θu1, T, T · tan θv1), it is estimated that the face position Fc exists on a straight line connecting the origin C1 and the virtual point Q. . In the following, the position coordinates of the virtual point Q are expressed as (Qx, Qy, Qz).
さらに、被認証者存在範囲算出手段33aは、この仮想点Qを監視画像撮像部13の撮像面に射影することによって、監視画像上におけるエピポーラ線EPを算出する。具体的に、監視画像撮像位置C2から仮想点Qに向かうベクトル(Qx,Qy−C2y,Qz−C2z)と、監視画像撮像部13の撮像方向(Z軸負方向)と、のなす角のX軸方向成分θu2及びY軸方向成分θv2は、それぞれ下記の計算式により算出できる。
以上説明した方法で算出されたエピポーラ線EPの例が、図5(a)に破線で示されている。図5(a)の例では、例えば人物像抽出手段31が人物の影も含めた領域を人物像として抽出している場合、認証用画像撮像位置C1に最も近い位置に存在する人物像は、人物P2の人物像になる。しかしながら、人物P2の頭部領域H2はエピポーラ線EP上になく、一方で人物P1の頭部領域H1はエピポーラ線EP上に存在している。そこで、エピポーラ線EPに沿った範囲を被認証者存在範囲として用いることにより、被認証者像選択手段33bは、人物P2ではなく人物P1の人物像を、被認証者像として特定する。なお、図5(a)の例では、人物P1だけでなく人物P3の頭部領域H3もエピポーラ線EP上に存在している。この場合、例えば被認証者像選択手段33bは、前述したように、監視画像内における認証用画像撮像位置C1から各人物の頭部領域までの距離の情報に基づいて、人物P1の人物像を被認証者像として特定する。
An example of the epipolar line EP calculated by the method described above is shown by a broken line in FIG. In the example of FIG. 5A, for example, when the person
以下、本実施形態に係る監視装置1の制御部11が実行する処理の流れの一例について、図7のフロー図に基づいて説明する。
Hereinafter, an example of the flow of processing executed by the control unit 11 of the
まず、監視装置1の電源が投入されると、制御部11は、所定の初期化処理を実行する(S1)。このとき、監視画像撮像部13によって撮像された監視画像が背景画像として記憶部12に記憶される。さらに、制御部11は、認証用画像撮像部21及び監視画像撮像部13の撮像条件に関する情報など、後続する処理に必要な所定のパラメタが記憶部12に記憶されているか否か判定する(S2)。記憶されていなければ、制御部11は、操作部15を介して、これらパラメタの入力を促すメッセージ等を管理者に提示して、管理者からパラメタの入力を受け付ける(S3)。
First, when the power of the
その後、監視画像撮像部13が所定時間間隔で新たな監視画像を撮像するごとに、以下に説明する処理が繰り返し実行される。すなわち、まず制御部11の人物像抽出手段31は、監視画像撮像部13が撮像した新たな監視画像を取得する(S4)。そして、S4で取得した監視画像を背景画像と比較して、人物像の抽出を行う(S5)。さらに、制御部11は、S5の処理で1以上の人物像が抽出されたか否か判定する(S6)。人物像が抽出されなかった場合には、S4で取得した監視画像を新たな背景画像として記憶部12に記憶して(S7)、S4に戻って次の監視画像に対する処理を行う。ここで、人物像が抽出されなかった場合に監視画像を更新するのは、時間の経過によって背景画像に変化が生じる場合に対応するためである。
Thereafter, each time the monitoring
一方、S6において1以上の人物像が抽出されたと判定された場合、制御部11の頭部検出手段32及び被認証者特定手段33は、抽出された人物像の中から被認証者像を特定する被認証者特定処理を行う(S8)。この被認証者特定処理の詳細については、後述する。
On the other hand, if it is determined in S6 that one or more person images have been extracted, the
続いて、制御部11の追跡手段34は、S5で抽出された人物像の追跡処理を行う(S9)。この追跡処理は、具体的には、S5で抽出された人物像のそれぞれについて、前回までに抽出された人物像と同一人物を示す人物像か否かの判定を行い、判定結果に応じて、新たに抽出された人物像の位置を既に記憶部12に記録されている各人物の移動経路情報に追加する処理である。このとき、追跡手段34は、S8の処理により被認証者像として特定された人物像に対応する移動経路情報に対して、被認証者Paであることを示す属性情報を関連付ける。
Subsequently, the tracking unit 34 of the control unit 11 performs the tracking process of the person image extracted in S5 (S9). Specifically, in this tracking process, for each of the person images extracted in S5, it is determined whether or not the person image indicates the same person as the person image extracted up to the previous time, and according to the determination result, This is a process of adding the position of the newly extracted person image to the movement route information of each person already recorded in the
さらに、制御部11の異常判定手段35は、S9の処理により得られる移動経路情報を参照して、認証装置10による認証を受けていない人物がドアDを通行しようとする不正通行がないか判定する(S10)。判定の結果、不正通行が検知された場合、異常判定手段35は出力部16に対して異常信号を出力する(S11)。S10で不正通行が検知されない場合、及び不正通行が検知されて異常信号が出力された場合のいずれの場合においても、その後、S4に戻って新たな監視画像に対する処理が繰り返される。
Further, the
次に、上述した図7のフローにおけるS8の被認証者特定処理の流れの具体例について、図8のフロー図に基づいて説明する。 Next, a specific example of the flow of the person-to-be-authenticated identification process of S8 in the flow of FIG.
まず、制御部11は、認証信号受信部14が認証装置10からの認証信号を新たに受信しているか否か判定する(S21)。認証装置10は、制御部11が上述した図7のフローにおけるS4からS11までのフローを繰り返し実行している間も、独立して動作しており、認証処理を実行して被認証者Paが通行許可者であると判定した場合には、その旨を制御部11に通知する認証信号を出力する。ここで、S21で認証信号を受信していると判定された場合、処理対象となっている監視画像は、認証装置10による認証が行われたタイミングで撮像された画像であり、その中には被認証者Paが映っていると判断される。その場合、制御部11は、後述するS22以降の処理を実行する。一方、S21で認証信号を受信していないと判定された場合、監視画像内に新たに認証された被認証者Paは映っていないと判断されるため、処理を終了する。
First, the control unit 11 determines whether or not the authentication
次に、制御部11の頭部検出手段32が、図7のフローにおけるS5の処理で抽出された人物像のそれぞれについて、頭部領域の検出を行う(S22)。その後、制御部11の被認証者存在範囲算出手段33aが、認証信号に含まれる顔領域の位置情報に基づいて、被認証者Paの顔位置Fcと認証用画像撮像位置C1とを結ぶ直線を監視画像上に射影したエピポーラ線EPを、被認証者存在範囲として算出する(S23)。さらに、認証信号に含まれる顔領域のサイズ情報に基づいて、認証用画像撮像位置C1から被認証者Paの顔位置Fcが存在する位置までの推定距離範囲を算出する(S24)。
Next, the head detection means 32 of the control unit 11 detects the head region for each of the person images extracted in the process of S5 in the flow of FIG. 7 (S22). Thereafter, the person-to-be-authenticated person existence
続いて、制御部11の被認証者像選択手段33bが、S22で検出された頭部領域のうち、S23で算出されたエピポーラ線EPと交差する頭部領域を選出する(S25)。そして、選出された頭部領域が1つだけか否かを判定する(S26)。S26によりエピポーラ線EPと交差する頭部領域が2つ以上あると判定された場合、被認証者像選択手段33bは、さらにこれらの頭部領域のうち、認証用画像撮像位置C1からの距離がS24で算出された推定距離範囲に含まれる頭部領域を選出する(S27)。そして、再び選出された頭部領域が1つだけか否かを判定する(S28)。S28においても条件に合致する頭部領域が2つ以上あると判定された場合には、被認証者像選択手段33bは、これらの頭部領域のうち、認証用画像撮像位置C1に最も近い位置に存在する頭部領域を1つ選出する(S29)。
Subsequently, the to-be-authenticated person
S26又はS28の判定において条件に合致する頭部領域が1つだけと判定された場合、あるいはS29の処理によって1つの頭部領域が選出された場合、被認証者像選択手段33bは、この選出された頭部領域を含む人物像を、被認証者像として特定する(S30)。これにより、被認証者像を特定できたので、処理を終了する。
If it is determined in S26 or S28 that only one head region matches the condition, or if one head region is selected by the processing in S29, the authenticated person
なお、以上のフローにおいてはエピポーラ線EPと交差する頭部領域が必ず存在することとしたが、頭部領域の検出誤差などによって、エピポーラ線EPと交差する頭部領域が1つも存在しない場合もあり得る。この場合、エピポーラ線EPまでの距離が最も短い頭部領域や、エピポーラ線EPまでの距離が所定値以下の頭部領域のうち、認証用画像撮像位置C1からの距離がS24で算出した推定距離範囲内にある頭部領域などを含んだ人物像を、被認証者像として特定することとしてもよい。また、S29の処理においても、認証用画像撮像位置C1に最も近い位置に存在する頭部領域ではなく、認証用画像撮像位置C1からの距離がS24で算出した推定距離範囲の閾値に最も近い頭部領域を選出することとしてもよい。 In the above flow, the head region intersecting with the epipolar line EP always exists. However, there may be no head region intersecting with the epipolar line EP due to a detection error of the head region. possible. In this case, of the head region having the shortest distance to the epipolar line EP and the head region having a distance to the epipolar line EP of a predetermined value or less, the estimated distance calculated from the authentication image capturing position C1 in S24 A person image including a head region within the range may be specified as an authenticated person image. Also in the processing of S29, the head closest to the threshold of the estimated distance range calculated in S24 is not the head region present at the position closest to the authentication image capturing position C1, but the distance from the authentication image capturing position C1. A partial area may be selected.
以上説明した本実施の形態によれば、監視装置1は、認証装置10が被認証者Paの認証を行った際の被認証者Paの顔の位置に関する情報を用いて監視画像内における被認証者像を特定することにより、単に監視画像内における認証用画像撮像部21と人物像との間の位置関係だけに基づいて被認証者像を特定する場合と比較して、監視画像内に複数の人物が映っている場合でも精度よく被認証者像を特定できる。
According to the present embodiment described above, the
なお、本発明の実施の形態は、以上説明したものに限られない。例えば、以上の説明では、認証装置10は顔画像の特徴量を解析することによって被認証者Paの認証を行うこととしたが、これに限らず、被認証者Paの顔を含む画像を撮像して認証を行うのであれば、他の認証方法を用いても構わない。具体的に、例えば認証装置10は、少なくとも顔領域を検出する手段を備え、虹彩や網膜のパターンなど、顔の一部領域の画像に基づいて被認証者Paの認証を行ってもよい。
The embodiment of the present invention is not limited to the above-described embodiment. For example, in the above description, the
また、以上の説明においては、認証用画像内の位置座標と監視画像内の位置座標の間の対応関係を導出する規則として、認証用画像内の位置座標から監視画像内のエピポーラ線EPを算出する規則を例示したが、これ以外の規則を用いてもよい。具体的には、例えば、カメラパラメータに基づき認証用画像内に予め設定された複数の小領域と対応関係にある監視画像内の領域を求めて、求めた対応関係のテーブルを規則として記憶部12に記憶させておくことができる。この場合、被認証者存在範囲算出手段33aは、テーブルを参照して、顔領域が検出された位置を含む認証用画像内の小領域と対応関係にある監視画像内の対応領域を被認証者存在範囲として導出する。
In the above description, the epipolar line EP in the monitoring image is calculated from the position coordinates in the authentication image as a rule for deriving the correspondence between the position coordinates in the authentication image and the position coordinates in the monitoring image. Although the rule to do was illustrated, you may use rules other than this. Specifically, for example, a region in the monitoring image that has a correspondence relationship with a plurality of preset small regions in the authentication image based on camera parameters is obtained, and the
また、以上の説明においては、被認証者特定手段33は、顔領域の位置を監視画像内に射影することにより顔領域の位置に対応する監視画像内の位置を算出したが、これ以外の方法を用いてもよい。具体的には、監視画像内で抽出された各人物像を実空間に投影するとともに、認証用画像内における顔領域の位置を実空間に投影し、実空間内で顔領域の位置と交わる人物像を被認証者像と特定してもよい。また、監視画像内で抽出された各人物像を認証用画像内に射影し、顔領域の位置に射影された人物像を被認証者像と特定してもよい。
In the above description, the person-to-be-authenticated specifying
1 監視装置、10 認証装置、11 制御部、12 記憶部、13 監視画像撮像部、14 認証信号受信部、15 操作部、16 出力部、21 認証用画像撮像部、22 認証情報記憶部、23 認証処理部、24 認証信号送信部、31 人物像抽出手段、32 頭部検出手段、33 被認証者特定手段、33a 被認証者存在範囲算出手段、33b 被認証者像選択手段、34 追跡手段、35 異常判定手段。
DESCRIPTION OF
Claims (5)
前記認証用画像の中から、前記被認証者の顔を示す顔領域を検出し、当該顔領域内の画像に基づいて前記被認証者を認証する認証部と、
上方から前記被認証者を含む監視画像を撮像する監視画像撮像部と、
前記監視画像の中から、1又は複数の人物像を抽出する人物像抽出手段と、
前記認証用画像撮像部及び前記監視画像撮像部のカメラパラメータ同士の関係から、前記人物像抽出手段が抽出した前記監視画像中の人物像のうち前記認証部が検出した顔領域ごとに、前記認証用画像中の位置に対応する人物像を被認証者の人物像と特定する被認証者特定手段と、
を含むことを特徴とする監視装置。 An authentication image capturing unit that captures an authentication image including the face of the person to be authenticated;
An authentication unit that detects a face area indicating the face of the person to be authenticated from the authentication image, and authenticates the person to be authenticated based on an image in the face area;
A monitoring image capturing unit that captures a monitoring image including the person to be authenticated from above;
Person image extraction means for extracting one or more person images from the monitoring image;
From the relationship between camera parameters of the authentication image capturing unit and the monitoring image capturing unit, the authentication is performed for each face area detected by the authentication unit among the human images in the monitoring image extracted by the human image extracting unit. the figures corresponding to the position in use image and the authenticated person identifying means for identifying a person image of the person to be authenticated,
A monitoring device comprising:
前記被認証者特定手段は、前記認証用画像内において前記被認証者の顔領域が検出された位置に基づいて、前記監視画像内において前記被認証者の顔が存在すると推定される範囲を算出し、当該算出した範囲を用いて前記被認証者の人物像を特定する
ことを特徴とする監視装置。 The monitoring device according to claim 1 or 2,
The authenticated person specifying means calculates a range in which the face of the authenticated person is estimated to exist in the monitoring image based on a position where the face area of the authenticated person is detected in the authentication image. And a person image of the person to be authenticated is specified using the calculated range.
前記被認証者特定手段は、前記認証用画像内において検出された前記被認証者の顔領域の大きさにさらに基づいて、前記抽出された人物像の中から、前記被認証者の人物像を特定する
ことを特徴とする監視装置。 The monitoring device according to any one of claims 1 to 3,
The authentication-subjected person specifying means further extracts the person image of the person to be authenticated from the extracted person images based on the size of the face area of the person to be authenticated detected in the authentication image. A monitoring device characterized by specifying.
前記監視画像撮像部は、前記認証部が前記被認証者を認証する際に前記被認証者が存在すると推定される位置を、略鉛直上方から撮像する位置に設置される
ことを特徴とする監視装置。 The monitoring device according to any one of claims 1 to 4,
The monitoring image capturing unit is installed at a position where the position where the authenticated person is estimated to exist when the authenticating unit authenticates the authenticated person is picked up from substantially vertically above. apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008064756A JP5180630B2 (en) | 2008-03-13 | 2008-03-13 | Monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008064756A JP5180630B2 (en) | 2008-03-13 | 2008-03-13 | Monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009223429A JP2009223429A (en) | 2009-10-01 |
JP5180630B2 true JP5180630B2 (en) | 2013-04-10 |
Family
ID=41240171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008064756A Active JP5180630B2 (en) | 2008-03-13 | 2008-03-13 | Monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5180630B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6117089B2 (en) * | 2013-12-12 | 2017-04-19 | セコム株式会社 | Human detection device |
JP6369058B2 (en) * | 2014-03-10 | 2018-08-08 | サクサ株式会社 | Image processing device |
JP6964030B2 (en) * | 2018-03-27 | 2021-11-10 | 東京瓦斯株式会社 | Monitoring system and monitoring method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004211538A (en) * | 2002-12-20 | 2004-07-29 | Tokai Riken Kk | Entrance-leaving control system |
JP4836633B2 (en) * | 2006-03-31 | 2011-12-14 | 株式会社東芝 | Face authentication device, face authentication method, and entrance / exit management device |
-
2008
- 2008-03-13 JP JP2008064756A patent/JP5180630B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009223429A (en) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6148065B2 (en) | Face recognition system | |
CN109002786B (en) | Face detection method, face detection equipment and computer-readable storage medium | |
JP5171351B2 (en) | Image monitoring device | |
JP6148064B2 (en) | Face recognition system | |
EP1868158A2 (en) | Face authentication apparatus, face authentication method, and entrance and exit management apparatus | |
JP4357521B2 (en) | Unauthorized passing person detection device and unauthorized passing person recording system using the same | |
JP5127531B2 (en) | Image monitoring device | |
JP4975666B2 (en) | Monitoring device | |
JP2009245338A (en) | Face image collating apparatus | |
JP6163466B2 (en) | Authentication device | |
WO2019216091A1 (en) | Face authentication device, face authentication method, and face authentication system | |
JP5538963B2 (en) | Emergency call device | |
JP4521086B2 (en) | Face image recognition apparatus and face image recognition method | |
JP2012208610A (en) | Face image authentication apparatus | |
KR101002712B1 (en) | Intelligent security system | |
JP2013069155A (en) | Face authentication database construction method, face authentication device, and face authentication program | |
JP5647459B2 (en) | Moving object detection device | |
JP4617286B2 (en) | Unauthorized passing person detection device and unauthorized passing person recording system using the same | |
JP5180630B2 (en) | Monitoring device | |
JP6117089B2 (en) | Human detection device | |
JP2007206898A (en) | Face authentication device and access management device | |
JP2013210788A (en) | Face image authentication device | |
JP2016181174A (en) | Regional monitoring system | |
JP5955057B2 (en) | Face image authentication device | |
KR20200010691A (en) | Character recognition and traffic control system using heterogeneous camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5180630 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |