JP5111934B2 - Monitoring device - Google Patents
Monitoring device Download PDFInfo
- Publication number
- JP5111934B2 JP5111934B2 JP2007129556A JP2007129556A JP5111934B2 JP 5111934 B2 JP5111934 B2 JP 5111934B2 JP 2007129556 A JP2007129556 A JP 2007129556A JP 2007129556 A JP2007129556 A JP 2007129556A JP 5111934 B2 JP5111934 B2 JP 5111934B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- image
- sight
- monitoring
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Description
本発明は、監視装置に関するものであり、特に、監視画像等のビデオ画像から人物等の監視対象者を検出して、監視対象者の挙動を監視する監視装置に関するものである。 The present invention relates to a monitoring apparatus, and more particularly to a monitoring apparatus that detects a monitoring target person such as a person from a video image such as a monitoring image and monitors the behavior of the monitoring target person.
従来の監視装置は、一般的に、監視画像に基づいて人物や人物の顔部を検出して、人物または顔部の画像や人物の動線軌跡をリアルタイムに画面に表示し、過去の動線軌跡の情報を再現して人物の行動を監視していた。 Conventional monitoring devices generally detect a person or a face of a person based on a monitoring image, display the image of the person or the face or a flow line of the person in real time on the screen, and The behavior of the person was monitored by reproducing the trajectory information.
また、その他の監視装置では、現在の動線軌跡と過去の動線軌跡を分割画面で同時に表示することにより、人物の行動を監視していた(例えば、特許文献1参照)。
しかしながら、従来の監視装置においては、人物の画像や人物の巡った動線軌跡が情報としてリアルタイムに表示されるが、人物が何を見ているか、つまり人物の視野に何があり、人物の注目対象が何であるかは判らないという問題があった。また、従来の監視装置を用いた場合、人物の動線軌跡の情報により人物の行動を監視するが、人物の注目対象が何であるか判らないため、人物の視野情報に基づいて人物の挙動を監視できないという問題があった。 However, in the conventional monitoring device, the image of the person and the movement trajectory around the person are displayed in real time as information, but what the person is looking at, that is, what is in the person's field of view, There was a problem of not knowing what the subject was. In addition, when a conventional monitoring device is used, the person's behavior is monitored based on the information of the person's flow line trajectory, but since the person's attention target is unknown, the person's behavior is determined based on the person's visual field information. There was a problem of being unable to monitor.
本発明は、従来の問題を解決するためになされたもので、人物等の監視対象者の視野に対応する画像を画面に表示することができ、監視対象者の視野情報に基づいた人物の挙動の監視を可能にする監視装置を提供することを目的とする。 The present invention has been made to solve the conventional problems, and can display an image corresponding to the field of view of a person to be monitored such as a person on the screen, and the behavior of the person based on the field of view information of the person to be monitored It is an object of the present invention to provide a monitoring device that enables monitoring of the above.
本発明の監視装置は、監視領域における監視対象者の画像を入力する画像入力部と、画像入力部から入力された画像から、監視対象者の空間位置を算出する空間位置算出部と、画像入力部から入力された画像から、監視対象者の視線方向を検出する視線方向検出部と、撮影位置と撮影方向を付加した画像データを記憶する視線画像記憶部と、空間位置と視線方向に基づいて、空間位置における視線方向の画像を視線画像として視線画像記憶部から抽出する視線画像抽出部と、空間位置と視線方向に基づいて、視線画像のうち、監視対象者の視野角に対応する画像を視野画像として出力する視野画像出力部と、視野画像出力部により出力された視野画像を表示する表示部とを備える。 The monitoring apparatus of the present invention includes an image input unit that inputs an image of a monitoring target person in a monitoring region, a spatial position calculation unit that calculates the spatial position of the monitoring target person from the image input from the image input unit, and an image input A line-of-sight direction detection unit that detects the line-of-sight direction of the person to be monitored from the image input from the unit, a line-of-sight image storage unit that stores image data to which a shooting position and a shooting direction are added, and a spatial position and a line-of-sight direction A line-of-sight image extraction unit that extracts a line-of-sight image at a spatial position as a line-of-sight image from the line-of-sight image storage unit, and an image corresponding to the viewing angle of the monitoring subject among the line-of-sight images based on the spatial position and the line-of-sight direction A visual field image output unit that outputs the visual field image, and a display unit that displays the visual field image output by the visual field image output unit.
この構成によれば、監視画像から検出された監視対象者の空間位置及び視線方向に基づいて、監視対象者の視野角に対応する視野画像を画面に表示することができ、監視対象者の注目対象が何であるかを判断することができる。 According to this configuration, based on the spatial position and the line-of-sight direction of the monitoring target person detected from the monitoring image, the visual field image corresponding to the viewing angle of the monitoring target person can be displayed on the screen. You can determine what the subject is.
本発明の監視装置は、監視対象者の空間位置を追跡して、監視対象者の動線軌跡を検出する動線軌跡検出部と、動線軌跡から監視対象者の進行方向を推定し、視線方向と進行方向の情報に基づいて、監視対象者が不審者であるか否かを判定する視線挙動判定部とを備える。 The monitoring apparatus according to the present invention is configured to track a spatial position of a monitoring target person, detect a flow line locus of the monitoring target person, estimate a traveling direction of the monitoring target person from the flow line locus, and And a line-of-sight behavior determination unit that determines whether or not the monitoring target person is a suspicious person based on the information on the direction and the traveling direction.
この構成によれば、監視画像から検出された監視対象者の進行方向と視線方向に基づいて、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。 According to this configuration, it is possible to determine whether or not the monitoring target person is a suspicious person based on the traveling direction and the line-of-sight direction of the monitoring target detected from the monitoring image. can do.
本発明の監視装置では、視線挙動判定部は、進行方向に対する視線方向の相対角度を算出し、相対角度が所定の閾角度を超えた回数に基づいて、監視対象者が不審者であるか否かを判定する。 In the monitoring device of the present invention, the line-of-sight behavior determination unit calculates a relative angle of the line-of-sight direction with respect to the traveling direction, and based on the number of times the relative angle exceeds a predetermined threshold angle, whether or not the monitoring target person is a suspicious person Determine whether.
この構成によれば、監視対象者の進行方向に対する視線方向の相対角度に基づいて、監視対象者の不審挙動を検出し、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。 According to this configuration, based on the relative angle of the line-of-sight direction with respect to the traveling direction of the monitoring target person, it is possible to detect the suspicious behavior of the monitoring target person and determine whether the monitoring target person is a suspicious person, A suspicious person can be found from the monitoring image.
本発明の監視装置は、空間位置及び視線方向に基づいて、所定の対象物が監視対象者の視野に含まれる時間を注目時間として計測する注目時間計測部と、注目時間が所定の閾時間を超えた場合に対象物の情報を出力する注目挙動判定部とを備える。 The monitoring device of the present invention includes an attention time measuring unit that measures, as an attention time, a time during which a predetermined object is included in the visual field of the monitoring subject based on a spatial position and a line-of-sight direction, and an attention time having a predetermined threshold time. And an attention behavior determination unit that outputs information on the target object when it exceeds.
この構成によれば、所定の対象物が監視対象者の視野に含まれている注目時間を計測することにより、監視対象者の注目対象を特定することができる。 According to this configuration, the attention target of the monitoring target person can be specified by measuring the attention time during which the predetermined target is included in the visual field of the monitoring target person.
本発明の監視装置では、注目挙動判定部は、注目時間が閾時間を超えた場合に、監視対象者が不審者であると判定する。 In the monitoring device of the present invention, the attention behavior determination unit determines that the monitoring target person is a suspicious person when the attention time exceeds a threshold time.
この構成によれば、注目時間に基づいて、監視対象者の不審挙動を検出することにより、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。
本発明の監視装置では、表示部は、監視対象者の画像と視野画像とを同時に表示する。
According to this configuration, it is possible to determine whether or not the monitoring target person is a suspicious person by detecting the suspicious behavior of the monitoring target person based on the attention time, and to detect the suspicious person from the monitoring image. be able to.
In the monitoring apparatus of the present invention, the display unit simultaneously displays the image of the monitoring subject and the visual field image.
この構成によれば、監視対象者の画像とともに視野画像を画面に表示することができ、不審者であると判断された監視対象者の画像と視野画像を同時に監視することができる。 According to this configuration, the visual field image can be displayed on the screen together with the image of the monitoring subject, and the image of the monitoring subject determined to be a suspicious person and the visual field image can be monitored simultaneously.
本発明は、人物等の監視対象者の視野に対応する画像を画面に表示することができ、監視対象者の視野情報に基づいて監視対象者の挙動の監視を可能にする監視装置を提供することができるものである。 The present invention provides a monitoring device that can display an image corresponding to the field of view of a person to be monitored, such as a person, on the screen, and can monitor the behavior of the person to be monitored based on the field of view information of the person to be monitored. It is something that can be done.
(第1の実施の形態)
以下、本発明の実施の形態にかかる監視装置について、図面を用いて説明する。
本発明の第1の実施の形態にかかる監視装置100を図1に示す。
(First embodiment)
Hereinafter, a monitoring device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a
図1において、監視装置100は、カメラ部1、画像処理部2、空間位置算出部3、視線方向検出部4、視線推定部5、視線画像抽出部6、視線画像記憶部7、視野画像出力部8、及び表示部9を備える。
In FIG. 1, a
カメラ部1は、監視領域における監視対象者(例えば、人物)のビデオ画像等の監視画像を出力する。画像処理部2は、カメラ部1により入力された監視画像をデジタル画像に変換する処理等の画像処理を行う。なお、カメラ部1と画像処理部2は、監視領域における監視対象者の画像を入力する画像入力部として機能する。
The
空間位置算出部3は、画像処理部2により画像処理された画像データを入力し、入力された監視画像から、監視対象者の空間位置を算出する。例えば、空間位置算出部3は、監視画像から監視対象者の顔部を検出して、二次元座標における顔部の位置を特定し、予め測定されたカメラキャリブレーション情報を用いて、三次元座標における顔部の位置を算出することにより、監視対象者の空間位置を算出する。
The spatial
視線方向検出部4は、画像処理部2から入力された画像データから、監視対象者の顔部を検出し、検出された顔部の画像情報に基づいて、三次元座標における監視対象者の視線方向を検出する。視線推定部5は、空間位置算出部3により算出された監視対象者の空間位置及び視線方向検出部4により検出された視線方向に基づいて、空間位置における視線方向を監視対象者の視線情報として推定する。視線情報とは、監視対象者が何処から何処の方向を見ているかを表す情報であり、視点からの視線のベクトルの情報ということもできる。ここでは、監視対象者の空間位置及び視線方向の組み合わせが、視線情報として用いられる。
The line-of-sight direction detection unit 4 detects the face part of the monitoring target person from the image data input from the
視線画像抽出部6は、視線推定部5により推定された監視対象者の視線情報に対応する視線画像を、視線画像記憶部7から抽出する。視線画像記憶部7は、監視領域の周辺画像を格納する。
The line-of-sight
視野画像出力部8は、監視対象者の視線情報、即ち、空間位置と視線方向に基づいて、視線画像抽出部6により抽出された視線画像のうち、監視対象者の視野角に対応する画像を視野画像として出力する。表示部9は、視野画像出力部8により出力された視野画像を表示する。
次に、本実施の形態にかかる監視装置100の動作について、図を用いて説明する。
The visual field
Next, operation | movement of the
カメラ部1は、監視領域の画像をリアルタイムに出力する監視カメラ等によって構成されており、リアルタイムに撮影された監視画像の画像信号を出力する。カメラ部1により出力された画像信号は、キャプチャーボード等の画像入力デバイスによって、画像処理部2へ転送される。画像処理部2は、入力された画像信号をデジタル信号に変換し、デジタル画像を生成する。例えば、図2に示すように、画像処理部2は、監視対象者21を含むデジタル画像20(例えば、RGBカラー画像)を生成する。
The
空間位置算出部3は、画像処理部2から入力された画像データから、監視対象者の顔部を検出し、二次元座標における顔部の位置を特定する。例えば、図3に示すように、空間位置検出部3は、デジタル画像20における監視対象者21の顔部22を検出し、顔部22の重心位置を顔部位置P1として特定する。この場合、顔部位置P1は、二次元座標(x1,y1)で表される。そして、空間位置検出部3は、カメラ部1のキャリブレーション情報を用いて、三次元座標における顔部位置を算出する。例えば、図4に示すように、空間位置検出部3は、カメラ部1のカメラ位置C1(X1,Y1,Z1)、カメラ部1の画角、及びカメラ部1の焦点距離等のキャリブレーション情報に基づいて、図3に示すような二次元座標(x,y)における顔部位置P1(x1,y1)から図4に示すような三次元座標(X,Y,Z)における顔部位置P2(X2,Y2,Z2)を監視対象者21の空間位置として算出する。
The spatial
視線方向検出部4は、画像処理部2から入力された画像データから、デジタル画像における顔部の正面方向を視線方向として検出し、二次元座標において検出された視線方向に基づいて、三次元座標における視線方向を検出する。例えば、図5に示すように、視線方向検出部4は、デジタル画像20における視線方向D1の角度を検出する。この場合、視線方向検出部4は、様々な角度の顔部のテンプレートとデジタル画像20における顔部22とをマッチングさせることにより、顔部22に近似するテンプレートから視線方向D1の角度を検出する。そして、視線方向検出部4は、二次元のデジタル画像20上での視線方向D1に基づいて、図6に示すように、三次元座標における視線方向D2を検出する。
The gaze direction detection unit 4 detects the front direction of the face in the digital image as the gaze direction from the image data input from the
視線推定部5は、空間位置算出部3から監視対象者の空間位置が入力され、視線方向検出部4から監視対象者の視線方向が入力される。そして、視線推定部5は、空間位置における視線方向を監視対象者の視線情報として推定する。例えば、図6に示すように、視線推定部5は、三次元座標における顔部位置P2(X2,Y2,Z2)における視線方向D2を監視対象者21の視線情報として推定する。なお、視線情報は、前述したように、空間位置と視線方向の組み合わせである。
The
視線画像記憶部7は、監視領域の周辺画像を予め格納する。ここで、視線画像記憶部7に格納される周辺画像の作成手法について説明する。視線画像記憶部7に格納される周辺画像は、監視領域内においてカメラを移動させることにより撮影された周辺画像の画像データに、カメラ位置とカメラ方向のデータを付加することにより作成される。例えば、図7に示すように、監視領域の周辺画像は、カメラ30が撮影した監視領域の周辺画像の画像データにカメラ30のカメラ位置C2(X3,Y3,Z3)とカメラ方向θの情報を付加することにより作成され、作成された周辺画像は、視線画像記憶部7に格納される。また、監視対象として重要な重要対象物が監視領域内にある場合、重要対象物及びその周辺の画像を詳細に撮影することにより、重要対象物の周辺画像が作成される。例えば、図7に示すように、カメラ位置C2,C3,C4及びカメラ方向θを細かく変えることにより、重要対象物の詳細な周辺画像が作成される。このような周辺画像の作成手法は、例えば特許3433882号公報に記載されている。
The line-of-sight
視線画像抽出部6は、視線推定部5により推定された監視対象者の視線情報が入力され、監視対象者の視線情報に対応する視線画像を、監視領域の周辺画像を格納する視線画像記憶部7から抽出する。この場合、視線画像抽出部6は、視線画像記憶部7に格納された周辺画像に付加されているカメラ位置及びカメラ方向の情報を参照して、監視対象者の空間位置及び視線方向に最も近いカメラ位置及びカメラ方向で撮影された周辺画像を、視線画像として視線画像記憶部7から抽出する。例えば、図8(a)に示すように、視線画像抽出部6は、監視対象者の空間位置P3に最も近いカメラ位置C5における視線方向D3の画像を視線画像として抽出する。この場合、視線画像抽出部6は、監視対象者の空間位置P3の後方からの画像を視線画像として抽出することにより、監視対象者の視野を含む視線画像を抽出する。
The line-of-sight
視野画像出力部8は、視線画像抽出部6により抽出された視線画像が入力され、視線画像のうち監視対象者の視野角に対応する画像を視野画像として出力する。ここでは、監視対象者の標準的な視野角の値が予め記憶されており、視野画像出力部8は、この標準的な視野角に基づいて、監視対象者の視野角の範囲の画像を視線画像から取り出す。例えば、図8(a)に示すように、視野画像出力部8は、監視対象者の空間位置P3における監視対象者の視野角に対応する画像を視野画像として出力する。この場合、図8(b)に示すように、視線画像に含まれる視野画像が、視野画像出力部8により出力される。表示部9は、視野画像出力部8により出力された視野画像を表示する。また、表示部9は、監視対象者の監視画像と視野画像とを同時に表示することができる。例えば、図9に示すように、表示部9は、監視対象者21のリアルタイムの監視画像90と視野画像91を表示画面40に同時に表示する。また、表示部9は、監視対象者21の視線方向D4を監視画像90に表示してもよい。
The visual field
以上説明したように、本実施の形態によれば、監視画像から検出された監視対象者の空間位置及び視線方向に基づいて、監視対象者の視野角に対応する視野画像を画面に表示することができ、監視対象者の注目対象が何であるかを判断することができる。 As described above, according to the present embodiment, the visual field image corresponding to the visual field angle of the monitoring target person is displayed on the screen based on the spatial position and the line-of-sight direction of the monitoring target person detected from the monitoring image. It is possible to determine what the monitoring target person is interested in.
また、本実施の形態によれば、監視対象者の画像とともに視野画像を画面に表示することができ、不審者であると判断された監視対象者の画像と視野画像を同時に監視することができる。 Moreover, according to this Embodiment, a visual field image can be displayed on a screen with a monitoring subject's image, and the monitoring subject's image and visual field image judged to be a suspicious person can be monitored simultaneously. .
(第2の実施の形態)
本発明の第2の実施の形態にかかる監視装置200を図10に示す。
図10において、監視装置200は、動線軌跡検出部10及び視線挙動判定部11を備える点で、図1に示す第1の実施の形態にかかる監視装置100と異なる。但し、第1の実施の形態の監視装置100と同様の構成については、同様の符号を付しており、同様の機能及び動作を担うため、説明を省略する。
(Second Embodiment)
FIG. 10 shows a
10 is different from the
動線軌跡検出部10は、空間位置算出部3により算出された監視対象者の空間位置を入力し、監視対象者の空間位置を追跡して、監視領域における監視対象者の動線軌跡を検出する。視線挙動判定部11は、動線軌跡検出部10により検出された動線軌跡から監視対象者の進行方向を推定し、監視対象者の視線方向と進行方向の情報に基づいて、監視対象者が不審者であるか否かを判定する。
次に、本実施の形態にかかる監視装置200の動作について、図を用いて説明する。
The flow line
Next, operation | movement of the
動線軌跡検出部10は、空間位置算出部3により算出された監視対象者の空間位置を入力し、空間位置算出部3で連続的に検出される監視対象者の空間位置の時間的変化により、監視対象者の動線軌跡を検出する。例えば、図11に示すように、動線軌跡検出部10は、時間的に変化する監視対象者の空間位置を連続的にプロットすることにより、XY平面における監視対象者の動線軌跡50を検出する。
The flow line
動線軌跡検出部10により検出された動線軌跡の情報は、視線推定部5に入力される。視線推定部5は、動線軌跡検出部10から入力された動線軌跡と視線方向検出部4から入力された視線方向に基づいて、動線軌跡上の監視対象の空間位置における視線方向を監視対象者の視線情報として推定する。例えば、図11に示すように、視線推定部5は、動線軌跡50上の監視対象の空間位置P5〜P8における視線方向D5〜D8を監視対象者の視線情報として推定する。
Information on the flow line locus detected by the flow line
動線軌跡上の監視対象者の視線情報は、視線挙動判定部11に入力される。視線挙動判定部11は、監視対象者の動線軌跡に基づいて監視対象者の進行方向を推定し、監視対象者の視線方向と進行方向の情報に基づいて監視対象者が不審者であるか否かを判定する。例えば、図12に示すように、視線挙動判定部11は、動線軌跡50の接線を監視対象者の進行方向L5〜L8と推定する。そして、視線挙動判定部11は、進行方向L5〜L8に対する視線方向D5〜D8の相対角度α5〜α8を算出し、相対角度α5〜α8が所定の閾角度を超えた回数に基づいて、監視対象者が不審者であるか否かを判定する。具体的には、視線挙動判定部11は、相対角度が所定の閾角度を超える回数が所定回数を超えた場合に、監視対象者が不審者であると判定する。監視対象者が不審者であると判定された場合、視線挙動判定部11は、表示部9へ警告信号を出力し、表示部9は、警告表示を行って不審者発見を監視員等に知らせる。
The line-of-sight information of the monitoring subject on the flow line trajectory is input to the line-of-sight
このように、視線挙動判定部11は、相対角度が閾角度を超える超過回数が所定の基準回数と比較される。この超過回数の測定時間は適切に設定されてよい。例えば、監視対象者が監視画像に登場してから退場するまでの時間における超過回数が測定される。また、単位時間当たりの超過回数が測定されてもよい。
As described above, the line-of-sight
また、視線挙動判定部11が不審者か否かを判定するための基準回数は適切に設定されてよい。一般に、不審者以外の監視対象者は、主に視線方向に進行する傾向があり、進行方向に対する視線方向の相対角度が所定の角度内に収まる傾向が強い。これに対し、不審者は、周囲を気にして、進行方向と異なる方向を頻繁に見る傾向があり、進行方向に対する視線方向の相対角度が所定の角度を超える頻度が高くなる傾向が強い。よって、監視対象者が不審者か否かを判定するための基準回数は、この頻度を考慮して、不審者を識別できるように設定される。この基準回数は、予め記憶されて、視線挙動判定部11により参照される。なお、この基準回数は、不審者による超過回数の標準値及びばらつきを考慮して、標準値からばらつきを引いた値に設定されてもよい。
Moreover, the reference | standard frequency | count for determining whether the eyes | visual_axis
以上説明したように、本実施の形態によれば、監視画像から検出された監視対象者の進行方向と視線方向に基づいて、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。 As described above, according to the present embodiment, it is possible to determine whether or not the monitoring target person is a suspicious person based on the traveling direction and the line-of-sight direction of the monitoring target person detected from the monitoring image. The suspicious person can be found from the monitoring image.
また、本実施の形態によれば、監視対象者の進行方向に対する視線方向の相対角度に基づいて、監視対象者の不審挙動を検出し、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。 Moreover, according to this Embodiment, based on the relative angle of the gaze direction with respect to the advancing direction of a monitoring subject, the suspicious behavior of a monitoring subject is detected and it is judged whether a monitoring subject is a suspicious person. And suspicious persons can be found from the monitoring image.
(第3の実施の形態)
本発明の第3の実施の形態にかかる監視装置300を図13に示す。
図13において、監視装置300は、注目時間計測部12及び注目挙動判定部13を備える点で、図1に示す第1の実施の形態にかかる監視装置100と異なる。但し、第1の実施の形態の監視装置300と同様の構成については、同様の符号を付しており、同様の機能及び動作を担うため、説明を省略する。
(Third embodiment)
A
In FIG. 13, the
注目時間計測部12は、監視対象者の空間位置及び視線方向に基づいて、所定の対象物が監視対象者の視野に含まれる時間を注目時間として計測する。注目挙動判定部13は、注目時間が所定の閾時間を超えた場合に、監視対象者の視野に含まれる対象物の情報を出力する。また、注目挙動判定部13は、注目時間計測部12により計測された注目時間が所定の閾時間を超えた場合に、監視対象者が不審者であると判定する。
次に、本実施の形態にかかる監視装置300の動作について、図を用いて説明する。
The attention
Next, operation | movement of the
注目時間計測部12は、上述したように、監視対象者の空間位置及び視線方向に基づいて、所定の対象物が監視対象者の視野に含まれる時間を注目時間として計測する。具体的な動作としては、注目時間計測部12には、視野画像出力部8から視野画像が入力される。そして、視野画像に所定の対象物が含まれる時間が、注目時間として計測される。
As described above, the attention
例えば、図14では、視野画像91に基づいて、対象物92が視野画像91に含まれる時間が計測される。この場合、視野画像91のフレーム間差分が順次算出される。そして、差分が所定の範囲内にある時間が、注目時間として計測される。注目時間計測部12により計測された注目時間は、注目挙動判定部13に入力される。
For example, in FIG. 14, the time during which the
上記の計測処理では、監視対象者の空間位置及び視線方向に基づいて得られた視野画像が用いられ、視野画像内に所定の対象物が存在する時間が計測される。このように、注目時間計測部12は、監視対象者の空間位置及び視線方向に基づいて注目時間を計測する。
In the above measurement processing, a visual field image obtained based on the spatial position and the line-of-sight direction of the monitoring subject is used, and the time during which a predetermined target exists in the visual field image is measured. In this way, the attention
注目挙動判定部13は、注目時間計測部12により計測された注目時間が所定の閾時間を超えた場合に、監視対象者の視野に含まれる対象物の情報を出力する。この判定処理は、標準的な不審者の挙動に基づいている。一般的に、不審者は、注目している特定の物体を見続ける傾向がある。よって、所定の閾時間は、このような傾向を考慮して、不審者を識別できるような注目時間に応じて設定される。この閾時間は、予め記憶されて、注目挙動判定部13により参照される。なお、この閾時間は、不審者の注目時間の標準値とばらつきを考慮して、標準値よりもばらつき分だけ閾時間を小さく設定することが好適である。
When the attention time measured by the attention
そして、注目時間が閾時間を超えると、対象物の情報が出力される。例えば、注目挙動判定部13は、注目時間が所定の閾時間を超えた場合に、図14に示す対象物92の情報を出力する。ここで、対象物92の情報とは、例えば、対象物92の画像、対象物92を含む視野画像91、対象物92の座標位置、対象物92を注目する監視対象者の画像、及び対象物92の注目時間等である。
Then, when the attention time exceeds the threshold time, information on the object is output. For example, the attention
また、注目挙動判定部13は、注目時間計測部12により計測された注目時間が上記の閾時間を超えた場合に、監視対象者が不審者であると判定する。そして、監視対象者が不審者であると判定された場合、注目挙動判定部13は、表示部9へ警告信号を出力し、表示部9は、警告表示を行って不審者発見を監視員等に知らせる。
The attention
以上説明したように、本実施の形態によれば、所定の対象物が監視対象者の視野に含まれている注目時間を計測することにより、監視対象者の注目対象を特定することができる。 As described above, according to the present embodiment, the target object of the monitoring target person can be specified by measuring the attention time during which the predetermined target object is included in the field of view of the monitoring target person.
また、本実施の形態によれば、注目時間に基づいて、監視対象者の不審挙動を検出することにより、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。 Further, according to the present embodiment, it is possible to determine whether or not the monitoring target person is a suspicious person by detecting the suspicious behavior of the monitoring target person based on the attention time. Can be found.
(その他の実施の形態)
第1乃至第3の実施の形態では、空間位置算出部3は、カメラキャリブレーション情報を用いて、三次元座標における顔部の位置を算出するが、監視対象者の空間位置を特定する様々な手法を適用してよい。
(Other embodiments)
In the first to third embodiments, the spatial
また、第1乃至第3の実施の形態では、視線方向検出部4は、顔部の正面方向を視線方向として検出したが、監視対象者の視線方向を検出する様々な手法を適用してよい。例えば、顔部の方向及び眼球の方向から視線方向を検出してもよい。また、顔部の眼部及び鼻部の相対位置から視線方向を検出してもよい。 In the first to third embodiments, the gaze direction detection unit 4 detects the front direction of the face as the gaze direction, but various methods for detecting the gaze direction of the monitoring subject may be applied. . For example, the line-of-sight direction may be detected from the face direction and the eyeball direction. Further, the line-of-sight direction may be detected from the relative positions of the eyes and nose of the face.
また、第1乃至第3の実施の形態では、視線画像記憶部7が周辺画像を予め格納し、視線画像抽出部6が視線画像記憶部7から視線画像を抽出するが、視線画像抽出部6は、複数のカメラにより撮影されたリアルタイムの画像から、監視対象者の空間位置における視線方向の画像に最も近い画像を視線画像として抽出してよい。
In the first to third embodiments, the line-of-sight
また、第2の実施の形態では、視線挙動判定部11は、動線軌跡の接線を監視対象者の進行方向と推定するが、監視対象者の両肩部の位置から監視対象者の体部の正面方向を検出し、この正面方向を進行方向として推定してもよい。
Further, in the second embodiment, the line-of-sight
また、第3の実施の形態では、注目時間計測部12は、監視対象者の空間位置及び視線方向に基づいて、監視対象者の空間位置における視線方向の視野画像信号の差分に基づいて注目時間を計測するが、監視対象者の視線が対象物周辺の所定の範囲内にある時間を注目時間として計測してよい。このように、監視対象者の空間位置及び視線方向に基づく視野画像を用いなくても、空間位置及び視線方向から直接的に監視対象者が対象物を注目しているか否かを判断でき、その注目時間を測定することができる。また、注目時間計測部12は、監視対象として重要な重要対象物の座標位置を予め入力しておき、監視対象者の視野に重要対象物の座標位置が含まれる時間を注目時間として計測してもよい。
In the third embodiment, the attention
また、第3の実施の形態では、注目挙動判定部13は、注目時間が所定の閾時間を超えたときに監視対象者が不審者であると判定するが、監視対象者が顧客等である場合は、注目時間が所定の閾時間を超えたときは、顧客等が注目する対象物を関心商品であると判定して、顧客等の嗜好分析を行ってもよい。
In the third embodiment, the attention
本発明にかかる監視装置は、人物等の監視対象者の視野に対応する画像を画面に表示することができ、監視対象者の視野情報に基づいて監視対象者の挙動の監視を可能にするという効果を有し、人物等の挙動監視を行う監視装置等として有用である。 The monitoring device according to the present invention can display an image corresponding to the field of view of a person to be monitored, such as a person, and enables monitoring of the behavior of the person to be monitored based on the field of view information of the person to be monitored. It has an effect and is useful as a monitoring device for monitoring the behavior of a person or the like.
1 カメラ部
2 画像処理部
3 空間位置算出部
4 視線方向検出部
5 視線推定部
6 視線画像抽出部
7 視線画像記憶部
8 視野画像出力部
9 表示部
10 動線軌跡検出部
11 視線挙動判定部
12 注目時間計測部
13 注目挙動判定部
100,200,300 監視装置
DESCRIPTION OF
Claims (6)
前記入力された画像から、前記監視対象者の視線方向を検出する視線方向検出部と、
撮影位置と撮影方向を付加した画像データを記憶する視線画像記憶部と、
前記視線画像記憶部に記憶されている画像データのうち、前記空間位置に近い撮影位置と前記視線方向に近い撮影方向とが付加された画像を、視線画像として前記視線画像記憶部から抽出する視線画像抽出部と、
を備えることを特徴とする監視装置。 From the input image, the spatial position calculating unit for calculating a spatial position of the monitored person,
From the entering force image, and the line-of-sight direction detecting unit for detecting a gaze direction of the person to be monitored,
A line-of-sight image storage unit for storing image data to which a shooting position and a shooting direction are added;
Wherein among the image data stored in the line-of-sight image storage unit, line of sight to extract images and the photographing position closer to the spatial position and the shooting direction closer to the viewing direction is added, from the line-of-sight image storage unit as the sight image An image extraction unit ;
Monitoring device, characterized in that it comprises a.
前記視野画像出力部により出力された前記視野画像を表示する表示部とA display unit for displaying the visual field image output by the visual field image output unit;
を備えることを特徴とする請求項1に記載の監視装置。The monitoring apparatus according to claim 1, further comprising:
前記動線軌跡から前記監視対象者の進行方向を推定し、前記視線方向と前記進行方向の情報に基づいて、前記監視対象者が不審者であるか否かを判定する視線挙動判定部と
を備えることを特徴とする請求項1または2に記載の監視装置。 A flow line trajectory detection unit that tracks the spatial position of the monitoring target person and detects a flow line trajectory of the monitoring target person;
A line-of-sight behavior determination unit that estimates a traveling direction of the monitoring target person from the flow line trajectory and determines whether the monitoring target person is a suspicious person based on information on the line-of-sight direction and the traveling direction. monitoring device according to claim 1 or 2, characterized in that it comprises.
前記注目時間が所定の閾時間を超えた場合に前記対象物の情報を出力する注目挙動判定部と
を備えることを特徴とする請求項1乃至4の何れかに記載の監視装置。 An attention time measurement unit that measures, as an attention time, a time during which a predetermined object is included in the visual field of the monitoring subject based on the spatial position and the line-of-sight direction;
Monitoring device according to any one of claims 1 to 4 wherein the target time is characterized by comprising a target behavior determination unit for outputting information of the object if it exceeds between predetermined threshold time.
前記入力された画像から、前記監視対象者の空間位置を算出する空間位置算出ステップと、A spatial position calculating step for calculating a spatial position of the monitoring subject from the input image;
前記入力された画像から、前記監視対象者の視線方向を検出する視線方向検出ステップと、A line-of-sight direction detecting step for detecting a line-of-sight direction of the monitoring subject from the input image;
撮影位置と撮影方向を付加した画像データを記憶する視線画像記憶ステップと、A line-of-sight image storage step for storing image data to which a shooting position and a shooting direction are added;
前記記憶されている画像データのうち、前記空間位置に近い撮影位置と前記視線方向に近い撮影方向とが付加された画像を、視線画像として前記視線画像記憶部から抽出する視線画像抽出ステップと、A line-of-sight image extraction step of extracting, from the line-of-sight image storage unit, an image added with a photographing position close to the spatial position and a photographing direction close to the line-of-sight direction among the stored image data;
を含むことを特徴とする監視方法。The monitoring method characterized by including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007129556A JP5111934B2 (en) | 2007-05-15 | 2007-05-15 | Monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007129556A JP5111934B2 (en) | 2007-05-15 | 2007-05-15 | Monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008288707A JP2008288707A (en) | 2008-11-27 |
JP5111934B2 true JP5111934B2 (en) | 2013-01-09 |
Family
ID=40148048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007129556A Expired - Fee Related JP5111934B2 (en) | 2007-05-15 | 2007-05-15 | Monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5111934B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5163564B2 (en) * | 2009-03-18 | 2013-03-13 | 富士通株式会社 | Display device, display method, and display program |
JP5460691B2 (en) * | 2009-06-08 | 2014-04-02 | パナソニック株式会社 | Gaze target determination device and gaze target determination method |
JP6349109B2 (en) * | 2014-03-06 | 2018-06-27 | ダイコク電機株式会社 | Game system |
JP6352874B2 (en) * | 2015-09-02 | 2018-07-04 | 株式会社東芝 | Wearable terminal, method and system |
JP6707940B2 (en) | 2016-03-25 | 2020-06-10 | 富士ゼロックス株式会社 | Information processing device and program |
JP7069725B2 (en) * | 2018-01-04 | 2022-05-18 | 富士通株式会社 | Suspicious person detection device, suspicious person detection method and computer program for suspicious person detection |
WO2020087317A1 (en) * | 2018-10-31 | 2020-05-07 | 深圳市大疆创新科技有限公司 | Monitoring device adjustment method, monitoring device, and gimbal device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3489491B2 (en) * | 1999-06-24 | 2004-01-19 | 日本電気株式会社 | PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM |
JP4954459B2 (en) * | 2004-09-24 | 2012-06-13 | パナソニック株式会社 | Suspicious person detection device |
JP4687058B2 (en) * | 2004-10-04 | 2011-05-25 | オムロン株式会社 | Suspicious person judgment device |
JP4990552B2 (en) * | 2006-04-28 | 2012-08-01 | 綜合警備保障株式会社 | Attention position identification system, attention position identification method, and attention position identification program |
-
2007
- 2007-05-15 JP JP2007129556A patent/JP5111934B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008288707A (en) | 2008-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
JP5111934B2 (en) | Monitoring device | |
JP5866564B1 (en) | MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD | |
JP6801760B2 (en) | Image processing equipment, surveillance systems, image processing methods, and programs | |
JP4876687B2 (en) | Attention level measuring device and attention level measuring system | |
JP6525453B2 (en) | Object position estimation system and program thereof | |
CN103688292B (en) | Image display device and method for displaying image | |
JP6696422B2 (en) | Abnormality detection device and abnormality detection method | |
US20200050872A1 (en) | People flow estimation device, display control device, people flow estimation method, and recording medium | |
JP6525545B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM | |
JP5853141B2 (en) | People counting device, people counting system, and people counting method | |
US20150371444A1 (en) | Image processing system and control method for the same | |
WO2019244255A1 (en) | Endoscope image processing device and endoscope image processing method | |
US8169501B2 (en) | Output apparatus, output method and program | |
JP6568374B2 (en) | Information processing apparatus, information processing method, and program | |
JP7359621B2 (en) | Area setting support device, area setting support method, and area setting support program | |
US11120838B2 (en) | Information processing apparatus, control method, and program | |
CN110222616B (en) | Pedestrian abnormal behavior detection method, image processing device and storage device | |
JP2008226109A (en) | Video image analysis system and method | |
JP2007219603A (en) | Person tracking device, person tracking method and person tracking program | |
WO2020032254A1 (en) | Attention target estimating device, and attention target estimating method | |
JP6265133B2 (en) | Visibility presentation system, method and program | |
JP7297455B2 (en) | Image processing device, image processing method, and program | |
KR20160068281A (en) | Method of object recognition | |
JP7560016B2 (en) | Information superimposing device, information superimposing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120117 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120925 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121010 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151019 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |