JP5111934B2 - Monitoring device - Google Patents

Monitoring device Download PDF

Info

Publication number
JP5111934B2
JP5111934B2 JP2007129556A JP2007129556A JP5111934B2 JP 5111934 B2 JP5111934 B2 JP 5111934B2 JP 2007129556 A JP2007129556 A JP 2007129556A JP 2007129556 A JP2007129556 A JP 2007129556A JP 5111934 B2 JP5111934 B2 JP 5111934B2
Authority
JP
Japan
Prior art keywords
line
image
sight
monitoring
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007129556A
Other languages
Japanese (ja)
Other versions
JP2008288707A (en
Inventor
好幸 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2007129556A priority Critical patent/JP5111934B2/en
Publication of JP2008288707A publication Critical patent/JP2008288707A/en
Application granted granted Critical
Publication of JP5111934B2 publication Critical patent/JP5111934B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、監視装置に関するものであり、特に、監視画像等のビデオ画像から人物等の監視対象者を検出して、監視対象者の挙動を監視する監視装置に関するものである。   The present invention relates to a monitoring apparatus, and more particularly to a monitoring apparatus that detects a monitoring target person such as a person from a video image such as a monitoring image and monitors the behavior of the monitoring target person.

従来の監視装置は、一般的に、監視画像に基づいて人物や人物の顔部を検出して、人物または顔部の画像や人物の動線軌跡をリアルタイムに画面に表示し、過去の動線軌跡の情報を再現して人物の行動を監視していた。   Conventional monitoring devices generally detect a person or a face of a person based on a monitoring image, display the image of the person or the face or a flow line of the person in real time on the screen, and The behavior of the person was monitored by reproducing the trajectory information.

また、その他の監視装置では、現在の動線軌跡と過去の動線軌跡を分割画面で同時に表示することにより、人物の行動を監視していた(例えば、特許文献1参照)。
特開2003−101999号公報
In other monitoring devices, a person's action is monitored by simultaneously displaying a current flow line locus and a past flow line locus on a divided screen (see, for example, Patent Document 1).
JP 2003-101999 A

しかしながら、従来の監視装置においては、人物の画像や人物の巡った動線軌跡が情報としてリアルタイムに表示されるが、人物が何を見ているか、つまり人物の視野に何があり、人物の注目対象が何であるかは判らないという問題があった。また、従来の監視装置を用いた場合、人物の動線軌跡の情報により人物の行動を監視するが、人物の注目対象が何であるか判らないため、人物の視野情報に基づいて人物の挙動を監視できないという問題があった。   However, in the conventional monitoring device, the image of the person and the movement trajectory around the person are displayed in real time as information, but what the person is looking at, that is, what is in the person's field of view, There was a problem of not knowing what the subject was. In addition, when a conventional monitoring device is used, the person's behavior is monitored based on the information of the person's flow line trajectory, but since the person's attention target is unknown, the person's behavior is determined based on the person's visual field information. There was a problem of being unable to monitor.

本発明は、従来の問題を解決するためになされたもので、人物等の監視対象者の視野に対応する画像を画面に表示することができ、監視対象者の視野情報に基づいた人物の挙動の監視を可能にする監視装置を提供することを目的とする。   The present invention has been made to solve the conventional problems, and can display an image corresponding to the field of view of a person to be monitored such as a person on the screen, and the behavior of the person based on the field of view information of the person to be monitored It is an object of the present invention to provide a monitoring device that enables monitoring of the above.

本発明の監視装置は、監視領域における監視対象者の画像を入力する画像入力部と、画像入力部から入力された画像から、監視対象者の空間位置を算出する空間位置算出部と、画像入力部から入力された画像から、監視対象者の視線方向を検出する視線方向検出部と、撮影位置と撮影方向を付加した画像データを記憶する視線画像記憶部と、空間位置と視線方向に基づいて、空間位置における視線方向の画像を視線画像として視線画像記憶部から抽出する視線画像抽出部と、空間位置と視線方向に基づいて、視線画像のうち、監視対象者の視野角に対応する画像を視野画像として出力する視野画像出力部と、視野画像出力部により出力された視野画像を表示する表示部とを備える。   The monitoring apparatus of the present invention includes an image input unit that inputs an image of a monitoring target person in a monitoring region, a spatial position calculation unit that calculates the spatial position of the monitoring target person from the image input from the image input unit, and an image input A line-of-sight direction detection unit that detects the line-of-sight direction of the person to be monitored from the image input from the unit, a line-of-sight image storage unit that stores image data to which a shooting position and a shooting direction are added, and a spatial position and a line-of-sight direction A line-of-sight image extraction unit that extracts a line-of-sight image at a spatial position as a line-of-sight image from the line-of-sight image storage unit, and an image corresponding to the viewing angle of the monitoring subject among the line-of-sight images based on the spatial position and the line-of-sight direction A visual field image output unit that outputs the visual field image, and a display unit that displays the visual field image output by the visual field image output unit.

この構成によれば、監視画像から検出された監視対象者の空間位置及び視線方向に基づいて、監視対象者の視野角に対応する視野画像を画面に表示することができ、監視対象者の注目対象が何であるかを判断することができる。   According to this configuration, based on the spatial position and the line-of-sight direction of the monitoring target person detected from the monitoring image, the visual field image corresponding to the viewing angle of the monitoring target person can be displayed on the screen. You can determine what the subject is.

本発明の監視装置は、監視対象者の空間位置を追跡して、監視対象者の動線軌跡を検出する動線軌跡検出部と、動線軌跡から監視対象者の進行方向を推定し、視線方向と進行方向の情報に基づいて、監視対象者が不審者であるか否かを判定する視線挙動判定部とを備える。   The monitoring apparatus according to the present invention is configured to track a spatial position of a monitoring target person, detect a flow line locus of the monitoring target person, estimate a traveling direction of the monitoring target person from the flow line locus, and And a line-of-sight behavior determination unit that determines whether or not the monitoring target person is a suspicious person based on the information on the direction and the traveling direction.

この構成によれば、監視画像から検出された監視対象者の進行方向と視線方向に基づいて、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。   According to this configuration, it is possible to determine whether or not the monitoring target person is a suspicious person based on the traveling direction and the line-of-sight direction of the monitoring target detected from the monitoring image. can do.

本発明の監視装置では、視線挙動判定部は、進行方向に対する視線方向の相対角度を算出し、相対角度が所定の閾角度を超えた回数に基づいて、監視対象者が不審者であるか否かを判定する。   In the monitoring device of the present invention, the line-of-sight behavior determination unit calculates a relative angle of the line-of-sight direction with respect to the traveling direction, and based on the number of times the relative angle exceeds a predetermined threshold angle, whether or not the monitoring target person is a suspicious person Determine whether.

この構成によれば、監視対象者の進行方向に対する視線方向の相対角度に基づいて、監視対象者の不審挙動を検出し、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。   According to this configuration, based on the relative angle of the line-of-sight direction with respect to the traveling direction of the monitoring target person, it is possible to detect the suspicious behavior of the monitoring target person and determine whether the monitoring target person is a suspicious person, A suspicious person can be found from the monitoring image.

本発明の監視装置は、空間位置及び視線方向に基づいて、所定の対象物が監視対象者の視野に含まれる時間を注目時間として計測する注目時間計測部と、注目時間が所定の閾時間を超えた場合に対象物の情報を出力する注目挙動判定部とを備える。   The monitoring device of the present invention includes an attention time measuring unit that measures, as an attention time, a time during which a predetermined object is included in the visual field of the monitoring subject based on a spatial position and a line-of-sight direction, and an attention time having a predetermined threshold time. And an attention behavior determination unit that outputs information on the target object when it exceeds.

この構成によれば、所定の対象物が監視対象者の視野に含まれている注目時間を計測することにより、監視対象者の注目対象を特定することができる。   According to this configuration, the attention target of the monitoring target person can be specified by measuring the attention time during which the predetermined target is included in the visual field of the monitoring target person.

本発明の監視装置では、注目挙動判定部は、注目時間が閾時間を超えた場合に、監視対象者が不審者であると判定する。   In the monitoring device of the present invention, the attention behavior determination unit determines that the monitoring target person is a suspicious person when the attention time exceeds a threshold time.

この構成によれば、注目時間に基づいて、監視対象者の不審挙動を検出することにより、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。
本発明の監視装置では、表示部は、監視対象者の画像と視野画像とを同時に表示する。
According to this configuration, it is possible to determine whether or not the monitoring target person is a suspicious person by detecting the suspicious behavior of the monitoring target person based on the attention time, and to detect the suspicious person from the monitoring image. be able to.
In the monitoring apparatus of the present invention, the display unit simultaneously displays the image of the monitoring subject and the visual field image.

この構成によれば、監視対象者の画像とともに視野画像を画面に表示することができ、不審者であると判断された監視対象者の画像と視野画像を同時に監視することができる。   According to this configuration, the visual field image can be displayed on the screen together with the image of the monitoring subject, and the image of the monitoring subject determined to be a suspicious person and the visual field image can be monitored simultaneously.

本発明は、人物等の監視対象者の視野に対応する画像を画面に表示することができ、監視対象者の視野情報に基づいて監視対象者の挙動の監視を可能にする監視装置を提供することができるものである。   The present invention provides a monitoring device that can display an image corresponding to the field of view of a person to be monitored, such as a person, on the screen, and can monitor the behavior of the person to be monitored based on the field of view information of the person to be monitored. It is something that can be done.

(第1の実施の形態)
以下、本発明の実施の形態にかかる監視装置について、図面を用いて説明する。
本発明の第1の実施の形態にかかる監視装置100を図1に示す。
(First embodiment)
Hereinafter, a monitoring device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows a monitoring apparatus 100 according to the first embodiment of the present invention.

図1において、監視装置100は、カメラ部1、画像処理部2、空間位置算出部3、視線方向検出部4、視線推定部5、視線画像抽出部6、視線画像記憶部7、視野画像出力部8、及び表示部9を備える。   In FIG. 1, a monitoring device 100 includes a camera unit 1, an image processing unit 2, a spatial position calculation unit 3, a gaze direction detection unit 4, a gaze direction estimation unit 5, a gaze image extraction unit 6, a gaze image storage unit 7, and a visual field image output. A unit 8 and a display unit 9 are provided.

カメラ部1は、監視領域における監視対象者(例えば、人物)のビデオ画像等の監視画像を出力する。画像処理部2は、カメラ部1により入力された監視画像をデジタル画像に変換する処理等の画像処理を行う。なお、カメラ部1と画像処理部2は、監視領域における監視対象者の画像を入力する画像入力部として機能する。   The camera unit 1 outputs a monitoring image such as a video image of a monitoring target person (for example, a person) in the monitoring area. The image processing unit 2 performs image processing such as processing for converting a monitoring image input by the camera unit 1 into a digital image. The camera unit 1 and the image processing unit 2 function as an image input unit that inputs an image of the person to be monitored in the monitoring area.

空間位置算出部3は、画像処理部2により画像処理された画像データを入力し、入力された監視画像から、監視対象者の空間位置を算出する。例えば、空間位置算出部3は、監視画像から監視対象者の顔部を検出して、二次元座標における顔部の位置を特定し、予め測定されたカメラキャリブレーション情報を用いて、三次元座標における顔部の位置を算出することにより、監視対象者の空間位置を算出する。   The spatial position calculation unit 3 receives the image data processed by the image processing unit 2 and calculates the spatial position of the monitoring target person from the input monitoring image. For example, the spatial position calculation unit 3 detects the face of the person to be monitored from the monitoring image, specifies the position of the face in the two-dimensional coordinates, and uses the camera calibration information measured in advance to obtain the three-dimensional coordinates. The spatial position of the monitoring subject is calculated by calculating the position of the face part at.

視線方向検出部4は、画像処理部2から入力された画像データから、監視対象者の顔部を検出し、検出された顔部の画像情報に基づいて、三次元座標における監視対象者の視線方向を検出する。視線推定部5は、空間位置算出部3により算出された監視対象者の空間位置及び視線方向検出部4により検出された視線方向に基づいて、空間位置における視線方向を監視対象者の視線情報として推定する。視線情報とは、監視対象者が何処から何処の方向を見ているかを表す情報であり、視点からの視線のベクトルの情報ということもできる。ここでは、監視対象者の空間位置及び視線方向の組み合わせが、視線情報として用いられる。   The line-of-sight direction detection unit 4 detects the face part of the monitoring target person from the image data input from the image processing part 2, and based on the detected image information of the face part, the line of sight of the monitoring target person in the three-dimensional coordinates Detect direction. The gaze estimation unit 5 uses the gaze direction at the spatial position as the gaze information of the monitoring subject based on the monitoring subject's spatial position calculated by the spatial position calculation unit 3 and the gaze direction detected by the gaze direction detection unit 4. presume. The line-of-sight information is information indicating where the monitoring target person is looking from which direction, and can also be information on the line-of-sight vector from the viewpoint. Here, the combination of the spatial position and the line-of-sight direction of the monitoring subject is used as the line-of-sight information.

視線画像抽出部6は、視線推定部5により推定された監視対象者の視線情報に対応する視線画像を、視線画像記憶部7から抽出する。視線画像記憶部7は、監視領域の周辺画像を格納する。   The line-of-sight image extraction unit 6 extracts a line-of-sight image corresponding to the line-of-sight information of the monitoring subject estimated by the line-of-sight estimation unit 5 from the line-of-sight image storage unit 7. The line-of-sight image storage unit 7 stores a peripheral image of the monitoring area.

視野画像出力部8は、監視対象者の視線情報、即ち、空間位置と視線方向に基づいて、視線画像抽出部6により抽出された視線画像のうち、監視対象者の視野角に対応する画像を視野画像として出力する。表示部9は、視野画像出力部8により出力された視野画像を表示する。
次に、本実施の形態にかかる監視装置100の動作について、図を用いて説明する。
The visual field image output unit 8 selects an image corresponding to the visual field angle of the monitoring target person from the visual line images extracted by the visual line image extraction unit 6 based on the visual line information of the monitoring target person, that is, the spatial position and the visual line direction. Output as field image. The display unit 9 displays the visual field image output by the visual field image output unit 8.
Next, operation | movement of the monitoring apparatus 100 concerning this Embodiment is demonstrated using figures.

カメラ部1は、監視領域の画像をリアルタイムに出力する監視カメラ等によって構成されており、リアルタイムに撮影された監視画像の画像信号を出力する。カメラ部1により出力された画像信号は、キャプチャーボード等の画像入力デバイスによって、画像処理部2へ転送される。画像処理部2は、入力された画像信号をデジタル信号に変換し、デジタル画像を生成する。例えば、図2に示すように、画像処理部2は、監視対象者21を含むデジタル画像20(例えば、RGBカラー画像)を生成する。   The camera unit 1 includes a monitoring camera that outputs an image of a monitoring area in real time, and outputs an image signal of the monitoring image captured in real time. The image signal output by the camera unit 1 is transferred to the image processing unit 2 by an image input device such as a capture board. The image processing unit 2 converts the input image signal into a digital signal and generates a digital image. For example, as illustrated in FIG. 2, the image processing unit 2 generates a digital image 20 (for example, an RGB color image) including the monitoring subject 21.

空間位置算出部3は、画像処理部2から入力された画像データから、監視対象者の顔部を検出し、二次元座標における顔部の位置を特定する。例えば、図3に示すように、空間位置検出部3は、デジタル画像20における監視対象者21の顔部22を検出し、顔部22の重心位置を顔部位置P1として特定する。この場合、顔部位置P1は、二次元座標(x1,y1)で表される。そして、空間位置検出部3は、カメラ部1のキャリブレーション情報を用いて、三次元座標における顔部位置を算出する。例えば、図4に示すように、空間位置検出部3は、カメラ部1のカメラ位置C1(X1,Y1,Z1)、カメラ部1の画角、及びカメラ部1の焦点距離等のキャリブレーション情報に基づいて、図3に示すような二次元座標(x,y)における顔部位置P1(x1,y1)から図4に示すような三次元座標(X,Y,Z)における顔部位置P2(X2,Y2,Z2)を監視対象者21の空間位置として算出する。   The spatial position calculation unit 3 detects the face portion of the person to be monitored from the image data input from the image processing unit 2 and specifies the position of the face portion in two-dimensional coordinates. For example, as illustrated in FIG. 3, the spatial position detection unit 3 detects the face 22 of the person 21 to be monitored in the digital image 20 and specifies the position of the center of gravity of the face 22 as the face position P1. In this case, the face portion position P1 is represented by two-dimensional coordinates (x1, y1). Then, the spatial position detection unit 3 calculates the face position in the three-dimensional coordinates using the calibration information of the camera unit 1. For example, as illustrated in FIG. 4, the spatial position detection unit 3 includes calibration information such as the camera position C1 (X1, Y1, Z1) of the camera unit 1, the angle of view of the camera unit 1, and the focal length of the camera unit 1. , The face position P2 in the three-dimensional coordinates (X, Y, Z) as shown in FIG. 4 from the face position P1 (x1, y1) in the two-dimensional coordinates (x, y) as shown in FIG. (X2, Y2, Z2) is calculated as the spatial position of the monitoring subject 21.

視線方向検出部4は、画像処理部2から入力された画像データから、デジタル画像における顔部の正面方向を視線方向として検出し、二次元座標において検出された視線方向に基づいて、三次元座標における視線方向を検出する。例えば、図5に示すように、視線方向検出部4は、デジタル画像20における視線方向D1の角度を検出する。この場合、視線方向検出部4は、様々な角度の顔部のテンプレートとデジタル画像20における顔部22とをマッチングさせることにより、顔部22に近似するテンプレートから視線方向D1の角度を検出する。そして、視線方向検出部4は、二次元のデジタル画像20上での視線方向D1に基づいて、図6に示すように、三次元座標における視線方向D2を検出する。   The gaze direction detection unit 4 detects the front direction of the face in the digital image as the gaze direction from the image data input from the image processing unit 2, and based on the gaze direction detected in the two-dimensional coordinates, the three-dimensional coordinates The direction of the line of sight is detected. For example, as illustrated in FIG. 5, the line-of-sight direction detection unit 4 detects the angle of the line-of-sight direction D <b> 1 in the digital image 20. In this case, the line-of-sight direction detection unit 4 detects the angle of the line-of-sight direction D <b> 1 from the template that approximates the face part 22 by matching the face part template at various angles with the face part 22 in the digital image 20. Then, the line-of-sight direction detection unit 4 detects the line-of-sight direction D2 in the three-dimensional coordinates based on the line-of-sight direction D1 on the two-dimensional digital image 20, as shown in FIG.

視線推定部5は、空間位置算出部3から監視対象者の空間位置が入力され、視線方向検出部4から監視対象者の視線方向が入力される。そして、視線推定部5は、空間位置における視線方向を監視対象者の視線情報として推定する。例えば、図6に示すように、視線推定部5は、三次元座標における顔部位置P2(X2,Y2,Z2)における視線方向D2を監視対象者21の視線情報として推定する。なお、視線情報は、前述したように、空間位置と視線方向の組み合わせである。   The gaze estimation unit 5 receives the monitoring subject's spatial position from the spatial position calculation unit 3, and receives the monitoring subject's gaze direction from the gaze direction detection unit 4. And the gaze estimation part 5 estimates the gaze direction in a spatial position as gaze information of a monitoring subject. For example, as illustrated in FIG. 6, the line-of-sight estimation unit 5 estimates the line-of-sight direction D2 at the face position P2 (X2, Y2, Z2) in the three-dimensional coordinates as the line-of-sight information of the monitoring subject 21. Note that the line-of-sight information is a combination of a spatial position and a line-of-sight direction as described above.

視線画像記憶部7は、監視領域の周辺画像を予め格納する。ここで、視線画像記憶部7に格納される周辺画像の作成手法について説明する。視線画像記憶部7に格納される周辺画像は、監視領域内においてカメラを移動させることにより撮影された周辺画像の画像データに、カメラ位置とカメラ方向のデータを付加することにより作成される。例えば、図7に示すように、監視領域の周辺画像は、カメラ30が撮影した監視領域の周辺画像の画像データにカメラ30のカメラ位置C2(X3,Y3,Z3)とカメラ方向θの情報を付加することにより作成され、作成された周辺画像は、視線画像記憶部7に格納される。また、監視対象として重要な重要対象物が監視領域内にある場合、重要対象物及びその周辺の画像を詳細に撮影することにより、重要対象物の周辺画像が作成される。例えば、図7に示すように、カメラ位置C2,C3,C4及びカメラ方向θを細かく変えることにより、重要対象物の詳細な周辺画像が作成される。このような周辺画像の作成手法は、例えば特許3433882号公報に記載されている。   The line-of-sight image storage unit 7 stores a peripheral image of the monitoring area in advance. Here, a method of creating a peripheral image stored in the line-of-sight image storage unit 7 will be described. The peripheral image stored in the line-of-sight image storage unit 7 is created by adding the camera position and camera direction data to the image data of the peripheral image captured by moving the camera within the monitoring area. For example, as shown in FIG. 7, the peripheral image of the monitoring area includes information on the camera position C2 (X3, Y3, Z3) of the camera 30 and the camera direction θ in the image data of the peripheral image of the monitoring area captured by the camera 30. The peripheral image created by adding is stored in the line-of-sight image storage unit 7. Further, when an important object important as a monitoring target is in the monitoring region, a peripheral image of the important object is created by photographing the important object and its surrounding image in detail. For example, as shown in FIG. 7, a detailed peripheral image of the important object is created by finely changing the camera positions C2, C3, C4 and the camera direction θ. Such a peripheral image creation method is described in, for example, Japanese Patent No. 3433882.

視線画像抽出部6は、視線推定部5により推定された監視対象者の視線情報が入力され、監視対象者の視線情報に対応する視線画像を、監視領域の周辺画像を格納する視線画像記憶部7から抽出する。この場合、視線画像抽出部6は、視線画像記憶部7に格納された周辺画像に付加されているカメラ位置及びカメラ方向の情報を参照して、監視対象者の空間位置及び視線方向に最も近いカメラ位置及びカメラ方向で撮影された周辺画像を、視線画像として視線画像記憶部7から抽出する。例えば、図8(a)に示すように、視線画像抽出部6は、監視対象者の空間位置P3に最も近いカメラ位置C5における視線方向D3の画像を視線画像として抽出する。この場合、視線画像抽出部6は、監視対象者の空間位置P3の後方からの画像を視線画像として抽出することにより、監視対象者の視野を含む視線画像を抽出する。   The line-of-sight image extraction unit 6 receives the line-of-sight information of the monitoring subject estimated by the line-of-sight estimation unit 5 and stores a line-of-sight image corresponding to the line-of-sight information of the monitoring subject and a peripheral image of the monitoring area. Extract from 7. In this case, the line-of-sight image extraction unit 6 refers to the camera position and camera direction information added to the peripheral image stored in the line-of-sight image storage unit 7 and is closest to the spatial position and line-of-sight direction of the monitoring subject. A peripheral image captured at the camera position and the camera direction is extracted from the line-of-sight image storage unit 7 as a line-of-sight image. For example, as shown in FIG. 8A, the line-of-sight image extraction unit 6 extracts an image in the line-of-sight direction D3 at the camera position C5 closest to the spatial position P3 of the monitoring subject as a line-of-sight image. In this case, the line-of-sight image extracting unit 6 extracts a line-of-sight image including the visual field of the monitoring target person by extracting an image from behind the spatial position P3 of the monitoring target person as the line-of-sight image.

視野画像出力部8は、視線画像抽出部6により抽出された視線画像が入力され、視線画像のうち監視対象者の視野角に対応する画像を視野画像として出力する。ここでは、監視対象者の標準的な視野角の値が予め記憶されており、視野画像出力部8は、この標準的な視野角に基づいて、監視対象者の視野角の範囲の画像を視線画像から取り出す。例えば、図8(a)に示すように、視野画像出力部8は、監視対象者の空間位置P3における監視対象者の視野角に対応する画像を視野画像として出力する。この場合、図8(b)に示すように、視線画像に含まれる視野画像が、視野画像出力部8により出力される。表示部9は、視野画像出力部8により出力された視野画像を表示する。また、表示部9は、監視対象者の監視画像と視野画像とを同時に表示することができる。例えば、図9に示すように、表示部9は、監視対象者21のリアルタイムの監視画像90と視野画像91を表示画面40に同時に表示する。また、表示部9は、監視対象者21の視線方向D4を監視画像90に表示してもよい。   The visual field image output unit 8 receives the visual line image extracted by the visual line image extraction unit 6, and outputs an image corresponding to the viewing angle of the monitoring target person as the visual field image. Here, the value of the standard viewing angle of the monitoring subject is stored in advance, and the viewing image output unit 8 looks at the image within the range of the viewing angle of the monitoring subject based on the standard viewing angle. Extract from image. For example, as shown in FIG. 8A, the visual field image output unit 8 outputs an image corresponding to the viewing angle of the monitoring subject at the spatial position P3 of the monitoring subject as a visual field image. In this case, as shown in FIG. 8B, the visual field image included in the line-of-sight image is output by the visual field image output unit 8. The display unit 9 displays the visual field image output by the visual field image output unit 8. The display unit 9 can simultaneously display the monitoring image and the field-of-view image of the monitoring subject. For example, as shown in FIG. 9, the display unit 9 displays the real-time monitoring image 90 and the field-of-view image 91 of the monitoring subject 21 on the display screen 40 at the same time. The display unit 9 may display the line-of-sight direction D4 of the monitoring subject 21 on the monitoring image 90.

以上説明したように、本実施の形態によれば、監視画像から検出された監視対象者の空間位置及び視線方向に基づいて、監視対象者の視野角に対応する視野画像を画面に表示することができ、監視対象者の注目対象が何であるかを判断することができる。   As described above, according to the present embodiment, the visual field image corresponding to the visual field angle of the monitoring target person is displayed on the screen based on the spatial position and the line-of-sight direction of the monitoring target person detected from the monitoring image. It is possible to determine what the monitoring target person is interested in.

また、本実施の形態によれば、監視対象者の画像とともに視野画像を画面に表示することができ、不審者であると判断された監視対象者の画像と視野画像を同時に監視することができる。   Moreover, according to this Embodiment, a visual field image can be displayed on a screen with a monitoring subject's image, and the monitoring subject's image and visual field image judged to be a suspicious person can be monitored simultaneously. .

(第2の実施の形態)
本発明の第2の実施の形態にかかる監視装置200を図10に示す。
図10において、監視装置200は、動線軌跡検出部10及び視線挙動判定部11を備える点で、図1に示す第1の実施の形態にかかる監視装置100と異なる。但し、第1の実施の形態の監視装置100と同様の構成については、同様の符号を付しており、同様の機能及び動作を担うため、説明を省略する。
(Second Embodiment)
FIG. 10 shows a monitoring apparatus 200 according to the second embodiment of the present invention.
10 is different from the monitoring apparatus 100 according to the first embodiment shown in FIG. 1 in that the monitoring apparatus 200 includes a flow line locus detection unit 10 and a line-of-sight behavior determination unit 11. However, the same components as those of the monitoring device 100 according to the first embodiment are denoted by the same reference numerals, and have the same functions and operations, and thus the description thereof is omitted.

動線軌跡検出部10は、空間位置算出部3により算出された監視対象者の空間位置を入力し、監視対象者の空間位置を追跡して、監視領域における監視対象者の動線軌跡を検出する。視線挙動判定部11は、動線軌跡検出部10により検出された動線軌跡から監視対象者の進行方向を推定し、監視対象者の視線方向と進行方向の情報に基づいて、監視対象者が不審者であるか否かを判定する。
次に、本実施の形態にかかる監視装置200の動作について、図を用いて説明する。
The flow line trajectory detection unit 10 inputs the monitoring subject's spatial position calculated by the spatial position calculation unit 3, tracks the monitoring subject's spatial position, and detects the monitoring subject's flow line trajectory in the monitoring region. To do. The line-of-sight behavior determination unit 11 estimates the traveling direction of the monitoring target person from the flow line trajectory detected by the flow line trajectory detection unit 10, and based on the information about the visual line direction and the traveling direction of the monitoring target person, Determine if you are a suspicious person.
Next, operation | movement of the monitoring apparatus 200 concerning this Embodiment is demonstrated using figures.

動線軌跡検出部10は、空間位置算出部3により算出された監視対象者の空間位置を入力し、空間位置算出部3で連続的に検出される監視対象者の空間位置の時間的変化により、監視対象者の動線軌跡を検出する。例えば、図11に示すように、動線軌跡検出部10は、時間的に変化する監視対象者の空間位置を連続的にプロットすることにより、XY平面における監視対象者の動線軌跡50を検出する。   The flow line trajectory detection unit 10 inputs the spatial position of the monitoring target calculated by the spatial position calculation unit 3, and the temporal change of the spatial position of the monitoring target continuously detected by the spatial position calculation unit 3 The flow line trajectory of the monitoring subject is detected. For example, as shown in FIG. 11, the flow line locus detection unit 10 detects the flow line locus 50 of the monitoring subject in the XY plane by continuously plotting the spatial position of the monitoring subject that changes with time. To do.

動線軌跡検出部10により検出された動線軌跡の情報は、視線推定部5に入力される。視線推定部5は、動線軌跡検出部10から入力された動線軌跡と視線方向検出部4から入力された視線方向に基づいて、動線軌跡上の監視対象の空間位置における視線方向を監視対象者の視線情報として推定する。例えば、図11に示すように、視線推定部5は、動線軌跡50上の監視対象の空間位置P5〜P8における視線方向D5〜D8を監視対象者の視線情報として推定する。   Information on the flow line locus detected by the flow line locus detection unit 10 is input to the line-of-sight estimation unit 5. The line-of-sight estimation unit 5 monitors the line-of-sight direction at the spatial position of the monitoring target on the flow line locus based on the flow line locus input from the flow line locus detection unit 10 and the line-of-sight direction input from the line-of-sight locus detection unit 4. Estimated as the gaze information of the subject. For example, as illustrated in FIG. 11, the line-of-sight estimation unit 5 estimates line-of-sight directions D5 to D8 at the spatial positions P5 to P8 of the monitoring target on the flow path 50 as the monitoring target person's line-of-sight information.

動線軌跡上の監視対象者の視線情報は、視線挙動判定部11に入力される。視線挙動判定部11は、監視対象者の動線軌跡に基づいて監視対象者の進行方向を推定し、監視対象者の視線方向と進行方向の情報に基づいて監視対象者が不審者であるか否かを判定する。例えば、図12に示すように、視線挙動判定部11は、動線軌跡50の接線を監視対象者の進行方向L5〜L8と推定する。そして、視線挙動判定部11は、進行方向L5〜L8に対する視線方向D5〜D8の相対角度α5〜α8を算出し、相対角度α5〜α8が所定の閾角度を超えた回数に基づいて、監視対象者が不審者であるか否かを判定する。具体的には、視線挙動判定部11は、相対角度が所定の閾角度を超える回数が所定回数を超えた場合に、監視対象者が不審者であると判定する。監視対象者が不審者であると判定された場合、視線挙動判定部11は、表示部9へ警告信号を出力し、表示部9は、警告表示を行って不審者発見を監視員等に知らせる。   The line-of-sight information of the monitoring subject on the flow line trajectory is input to the line-of-sight behavior determination unit 11. The line-of-sight behavior determination unit 11 estimates the traveling direction of the monitoring target person based on the flow line trajectory of the monitoring target person, and whether the monitoring target person is a suspicious person based on the information about the line-of-sight direction and the traveling direction of the monitoring target person. Determine whether or not. For example, as illustrated in FIG. 12, the line-of-sight behavior determination unit 11 estimates tangents of the flow line locus 50 as the traveling directions L5 to L8 of the monitoring target person. Then, the line-of-sight behavior determination unit 11 calculates the relative angles α5 to α8 of the line-of-sight directions D5 to D8 with respect to the traveling directions L5 to L8, and monitors based on the number of times the relative angles α5 to α8 exceed a predetermined threshold angle. It is determined whether the person is a suspicious person. Specifically, the line-of-sight behavior determination unit 11 determines that the monitoring target person is a suspicious person when the number of times the relative angle exceeds a predetermined threshold angle exceeds the predetermined number. When it is determined that the person to be monitored is a suspicious person, the line-of-sight behavior determination unit 11 outputs a warning signal to the display unit 9, and the display unit 9 displays a warning to notify the monitoring staff and the like of the suspicious person discovery. .

このように、視線挙動判定部11は、相対角度が閾角度を超える超過回数が所定の基準回数と比較される。この超過回数の測定時間は適切に設定されてよい。例えば、監視対象者が監視画像に登場してから退場するまでの時間における超過回数が測定される。また、単位時間当たりの超過回数が測定されてもよい。   As described above, the line-of-sight behavior determination unit 11 compares the number of times that the relative angle exceeds the threshold angle with the predetermined reference number. The measurement time of this excess number may be set appropriately. For example, the number of times of excess in the time from when the monitoring subject appears in the monitoring image to when the monitoring subject leaves is measured. Further, the number of times of excess per unit time may be measured.

また、視線挙動判定部11が不審者か否かを判定するための基準回数は適切に設定されてよい。一般に、不審者以外の監視対象者は、主に視線方向に進行する傾向があり、進行方向に対する視線方向の相対角度が所定の角度内に収まる傾向が強い。これに対し、不審者は、周囲を気にして、進行方向と異なる方向を頻繁に見る傾向があり、進行方向に対する視線方向の相対角度が所定の角度を超える頻度が高くなる傾向が強い。よって、監視対象者が不審者か否かを判定するための基準回数は、この頻度を考慮して、不審者を識別できるように設定される。この基準回数は、予め記憶されて、視線挙動判定部11により参照される。なお、この基準回数は、不審者による超過回数の標準値及びばらつきを考慮して、標準値からばらつきを引いた値に設定されてもよい。   Moreover, the reference | standard frequency | count for determining whether the eyes | visual_axis behavior determination part 11 is a suspicious person may be set appropriately. In general, the monitoring target person other than the suspicious person tends to travel mainly in the line-of-sight direction, and the relative angle of the line-of-sight direction with respect to the traveling direction tends to be within a predetermined angle. On the other hand, a suspicious person tends to look around and frequently look in a direction different from the traveling direction, and has a strong tendency that the relative angle of the line-of-sight direction with respect to the traveling direction exceeds a predetermined angle. Therefore, the reference number for determining whether or not the monitoring target person is a suspicious person is set so that the suspicious person can be identified in consideration of this frequency. This reference number is stored in advance and referred to by the line-of-sight behavior determination unit 11. The reference number may be set to a value obtained by subtracting the variation from the standard value in consideration of the standard value and variation of the excess number by the suspicious person.

以上説明したように、本実施の形態によれば、監視画像から検出された監視対象者の進行方向と視線方向に基づいて、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。   As described above, according to the present embodiment, it is possible to determine whether or not the monitoring target person is a suspicious person based on the traveling direction and the line-of-sight direction of the monitoring target person detected from the monitoring image. The suspicious person can be found from the monitoring image.

また、本実施の形態によれば、監視対象者の進行方向に対する視線方向の相対角度に基づいて、監視対象者の不審挙動を検出し、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。   Moreover, according to this Embodiment, based on the relative angle of the gaze direction with respect to the advancing direction of a monitoring subject, the suspicious behavior of a monitoring subject is detected and it is judged whether a monitoring subject is a suspicious person. And suspicious persons can be found from the monitoring image.

(第3の実施の形態)
本発明の第3の実施の形態にかかる監視装置300を図13に示す。
図13において、監視装置300は、注目時間計測部12及び注目挙動判定部13を備える点で、図1に示す第1の実施の形態にかかる監視装置100と異なる。但し、第1の実施の形態の監視装置300と同様の構成については、同様の符号を付しており、同様の機能及び動作を担うため、説明を省略する。
(Third embodiment)
A monitoring apparatus 300 according to the third embodiment of the present invention is shown in FIG.
In FIG. 13, the monitoring device 300 is different from the monitoring device 100 according to the first embodiment shown in FIG. 1 in that it includes an attention time measurement unit 12 and an attention behavior determination unit 13. However, the same components as those of the monitoring apparatus 300 according to the first embodiment are denoted by the same reference numerals, and the same functions and operations are performed.

注目時間計測部12は、監視対象者の空間位置及び視線方向に基づいて、所定の対象物が監視対象者の視野に含まれる時間を注目時間として計測する。注目挙動判定部13は、注目時間が所定の閾時間を超えた場合に、監視対象者の視野に含まれる対象物の情報を出力する。また、注目挙動判定部13は、注目時間計測部12により計測された注目時間が所定の閾時間を超えた場合に、監視対象者が不審者であると判定する。
次に、本実施の形態にかかる監視装置300の動作について、図を用いて説明する。
The attention time measurement unit 12 measures the time during which a predetermined target is included in the visual field of the monitoring subject as the attention time based on the spatial position and the line-of-sight direction of the monitoring subject. The attention behavior determination unit 13 outputs information on an object included in the field of view of the monitoring subject when the attention time exceeds a predetermined threshold time. The attention behavior determination unit 13 determines that the monitoring target person is a suspicious person when the attention time measured by the attention time measurement unit 12 exceeds a predetermined threshold time.
Next, operation | movement of the monitoring apparatus 300 concerning this Embodiment is demonstrated using figures.

注目時間計測部12は、上述したように、監視対象者の空間位置及び視線方向に基づいて、所定の対象物が監視対象者の視野に含まれる時間を注目時間として計測する。具体的な動作としては、注目時間計測部12には、視野画像出力部8から視野画像が入力される。そして、視野画像に所定の対象物が含まれる時間が、注目時間として計測される。   As described above, the attention time measuring unit 12 measures, as the attention time, a time during which a predetermined object is included in the visual field of the monitoring subject based on the spatial position and the line-of-sight direction of the monitoring subject. As a specific operation, a visual field image is input from the visual field image output unit 8 to the attention time measuring unit 12. And the time when a predetermined target object is included in a visual field image is measured as attention time.

例えば、図14では、視野画像91に基づいて、対象物92が視野画像91に含まれる時間が計測される。この場合、視野画像91のフレーム間差分が順次算出される。そして、差分が所定の範囲内にある時間が、注目時間として計測される。注目時間計測部12により計測された注目時間は、注目挙動判定部13に入力される。   For example, in FIG. 14, the time during which the object 92 is included in the visual field image 91 is measured based on the visual field image 91. In this case, the inter-frame difference of the visual field image 91 is sequentially calculated. Then, the time during which the difference is within a predetermined range is measured as the attention time. The attention time measured by the attention time measurement unit 12 is input to the attention behavior determination unit 13.

上記の計測処理では、監視対象者の空間位置及び視線方向に基づいて得られた視野画像が用いられ、視野画像内に所定の対象物が存在する時間が計測される。このように、注目時間計測部12は、監視対象者の空間位置及び視線方向に基づいて注目時間を計測する。   In the above measurement processing, a visual field image obtained based on the spatial position and the line-of-sight direction of the monitoring subject is used, and the time during which a predetermined target exists in the visual field image is measured. In this way, the attention time measuring unit 12 measures the attention time based on the spatial position and the line-of-sight direction of the monitoring subject.

注目挙動判定部13は、注目時間計測部12により計測された注目時間が所定の閾時間を超えた場合に、監視対象者の視野に含まれる対象物の情報を出力する。この判定処理は、標準的な不審者の挙動に基づいている。一般的に、不審者は、注目している特定の物体を見続ける傾向がある。よって、所定の閾時間は、このような傾向を考慮して、不審者を識別できるような注目時間に応じて設定される。この閾時間は、予め記憶されて、注目挙動判定部13により参照される。なお、この閾時間は、不審者の注目時間の標準値とばらつきを考慮して、標準値よりもばらつき分だけ閾時間を小さく設定することが好適である。   When the attention time measured by the attention time measurement unit 12 exceeds a predetermined threshold time, the attention behavior determination unit 13 outputs information on the target object included in the visual field of the monitoring target person. This determination process is based on standard suspicious person behavior. Generally, a suspicious person tends to continue to look at a specific object of interest. Therefore, the predetermined threshold time is set according to the attention time that can identify the suspicious person in consideration of such a tendency. This threshold time is stored in advance and referred to by the attention behavior determination unit 13. The threshold time is preferably set to be smaller than the standard value by taking the standard value and variation of the suspicious person's attention time into consideration.

そして、注目時間が閾時間を超えると、対象物の情報が出力される。例えば、注目挙動判定部13は、注目時間が所定の閾時間を超えた場合に、図14に示す対象物92の情報を出力する。ここで、対象物92の情報とは、例えば、対象物92の画像、対象物92を含む視野画像91、対象物92の座標位置、対象物92を注目する監視対象者の画像、及び対象物92の注目時間等である。   Then, when the attention time exceeds the threshold time, information on the object is output. For example, the attention behavior determination unit 13 outputs information on the object 92 shown in FIG. 14 when the attention time exceeds a predetermined threshold time. Here, the information on the target object 92 includes, for example, an image of the target object 92, a field-of-view image 91 including the target object 92, a coordinate position of the target object 92, an image of a monitoring subject who pays attention to the target object 92, and a target object. 92 attention times and the like.

また、注目挙動判定部13は、注目時間計測部12により計測された注目時間が上記の閾時間を超えた場合に、監視対象者が不審者であると判定する。そして、監視対象者が不審者であると判定された場合、注目挙動判定部13は、表示部9へ警告信号を出力し、表示部9は、警告表示を行って不審者発見を監視員等に知らせる。   The attention behavior determination unit 13 determines that the monitoring target person is a suspicious person when the attention time measured by the attention time measurement unit 12 exceeds the above threshold time. If it is determined that the person to be monitored is a suspicious person, the attention behavior determining unit 13 outputs a warning signal to the display unit 9, and the display unit 9 performs warning display to detect a suspicious person as a monitor. To inform.

以上説明したように、本実施の形態によれば、所定の対象物が監視対象者の視野に含まれている注目時間を計測することにより、監視対象者の注目対象を特定することができる。   As described above, according to the present embodiment, the target object of the monitoring target person can be specified by measuring the attention time during which the predetermined target object is included in the field of view of the monitoring target person.

また、本実施の形態によれば、注目時間に基づいて、監視対象者の不審挙動を検出することにより、監視対象者が不審者であるか否かを判断することができ、監視画像から不審者を発見することができる。   Further, according to the present embodiment, it is possible to determine whether or not the monitoring target person is a suspicious person by detecting the suspicious behavior of the monitoring target person based on the attention time. Can be found.

(その他の実施の形態)
第1乃至第3の実施の形態では、空間位置算出部3は、カメラキャリブレーション情報を用いて、三次元座標における顔部の位置を算出するが、監視対象者の空間位置を特定する様々な手法を適用してよい。
(Other embodiments)
In the first to third embodiments, the spatial position calculation unit 3 calculates the position of the face part in the three-dimensional coordinates using the camera calibration information. Techniques may be applied.

また、第1乃至第3の実施の形態では、視線方向検出部4は、顔部の正面方向を視線方向として検出したが、監視対象者の視線方向を検出する様々な手法を適用してよい。例えば、顔部の方向及び眼球の方向から視線方向を検出してもよい。また、顔部の眼部及び鼻部の相対位置から視線方向を検出してもよい。   In the first to third embodiments, the gaze direction detection unit 4 detects the front direction of the face as the gaze direction, but various methods for detecting the gaze direction of the monitoring subject may be applied. . For example, the line-of-sight direction may be detected from the face direction and the eyeball direction. Further, the line-of-sight direction may be detected from the relative positions of the eyes and nose of the face.

また、第1乃至第3の実施の形態では、視線画像記憶部7が周辺画像を予め格納し、視線画像抽出部6が視線画像記憶部7から視線画像を抽出するが、視線画像抽出部6は、複数のカメラにより撮影されたリアルタイムの画像から、監視対象者の空間位置における視線方向の画像に最も近い画像を視線画像として抽出してよい。   In the first to third embodiments, the line-of-sight image storage unit 7 stores the peripheral image in advance, and the line-of-sight image extraction unit 6 extracts the line-of-sight image from the line-of-sight image storage unit 7. May extract an image closest to the image in the line-of-sight direction in the spatial position of the monitoring subject as a line-of-sight image from real-time images captured by a plurality of cameras.

また、第2の実施の形態では、視線挙動判定部11は、動線軌跡の接線を監視対象者の進行方向と推定するが、監視対象者の両肩部の位置から監視対象者の体部の正面方向を検出し、この正面方向を進行方向として推定してもよい。   Further, in the second embodiment, the line-of-sight behavior determination unit 11 estimates the tangent of the flow line trajectory as the traveling direction of the monitoring target person, but the body part of the monitoring target person from the position of both shoulders of the monitoring target person May be estimated as the traveling direction.

また、第3の実施の形態では、注目時間計測部12は、監視対象者の空間位置及び視線方向に基づいて、監視対象者の空間位置における視線方向の視野画像信号の差分に基づいて注目時間を計測するが、監視対象者の視線が対象物周辺の所定の範囲内にある時間を注目時間として計測してよい。このように、監視対象者の空間位置及び視線方向に基づく視野画像を用いなくても、空間位置及び視線方向から直接的に監視対象者が対象物を注目しているか否かを判断でき、その注目時間を測定することができる。また、注目時間計測部12は、監視対象として重要な重要対象物の座標位置を予め入力しておき、監視対象者の視野に重要対象物の座標位置が含まれる時間を注目時間として計測してもよい。   In the third embodiment, the attention time measuring unit 12 is based on the difference between the visual field image signals in the line-of-sight direction in the spatial position of the monitoring target person based on the spatial position and the line-of-sight direction of the monitoring target person. However, the time during which the line of sight of the monitoring subject is within a predetermined range around the object may be measured as the attention time. In this way, it is possible to determine whether the monitoring subject is paying attention to the object directly from the spatial position and the gaze direction without using a visual field image based on the spatial position and the gaze direction of the monitoring subject, The attention time can be measured. The attention time measuring unit 12 previously inputs the coordinate position of the important object important as the monitoring target, and measures the time when the coordinate position of the important object is included in the field of view of the monitoring target as the attention time. Also good.

また、第3の実施の形態では、注目挙動判定部13は、注目時間が所定の閾時間を超えたときに監視対象者が不審者であると判定するが、監視対象者が顧客等である場合は、注目時間が所定の閾時間を超えたときは、顧客等が注目する対象物を関心商品であると判定して、顧客等の嗜好分析を行ってもよい。   In the third embodiment, the attention behavior determination unit 13 determines that the monitoring target person is a suspicious person when the attention time exceeds a predetermined threshold time, but the monitoring target person is a customer or the like. In this case, when the attention time exceeds a predetermined threshold time, the target object of the customer or the like may be determined as the product of interest, and the customer or the like may be analyzed.

本発明にかかる監視装置は、人物等の監視対象者の視野に対応する画像を画面に表示することができ、監視対象者の視野情報に基づいて監視対象者の挙動の監視を可能にするという効果を有し、人物等の挙動監視を行う監視装置等として有用である。   The monitoring device according to the present invention can display an image corresponding to the field of view of a person to be monitored, such as a person, and enables monitoring of the behavior of the person to be monitored based on the field of view information of the person to be monitored. It has an effect and is useful as a monitoring device for monitoring the behavior of a person or the like.

本発明の第1の実施の形態にかかる監視装置のブロック図The block diagram of the monitoring apparatus concerning the 1st Embodiment of this invention 監視対象者を撮影したデジタル画像の一例を示した図The figure which showed an example of the digital image which imaged the monitoring subject 二次元座標において検出された監視対象者の顔部の一例を示した図The figure which showed an example of the face part of the monitoring subject detected in the two-dimensional coordinate 三次元座標において検出された監視対象者の顔部の一例を示した図The figure which showed an example of the face part of the monitoring subject detected in three-dimensional coordinates 二次元座標において検出された監視対象者の視線方向の一例を示した図The figure which showed an example of the gaze direction of the monitoring subject detected in the two-dimensional coordinate 三次元座標において検出された監視対象者の視線方向の一例を示した図The figure which showed an example of the gaze direction of the monitoring subject detected in three-dimensional coordinates 視線画像記憶部に格納される周辺画像の作成手法の一例を説明する図The figure explaining an example of the creation method of the surrounding image stored in a gaze image storage part 視線画像の抽出と視野画像の生成の一例を説明する図The figure explaining an example of extraction of a look image and generation of a visual field image 表示部が表示する画面の一例を示した図The figure which showed an example of the screen which a display part displays 本発明の第2の実施の形態にかかる監視装置のブロック図The block diagram of the monitoring apparatus concerning the 2nd Embodiment of this invention 監視対象者の動線軌跡と視線方向の一例を示した図The figure which showed an example of the flow line locus and line-of-sight direction of the monitoring subject 監視対象者の進行方向に対する視線方向の相対角度の一例を示した図The figure which showed an example of the relative angle of the gaze direction with respect to the advancing direction of the monitoring subject 本発明の第3の実施の形態にかかる監視装置のブロック図The block diagram of the monitoring apparatus concerning the 3rd Embodiment of this invention 注目時間計測部による注目時間の計測を説明する図Diagram explaining attention time measurement by attention time measurement unit

符号の説明Explanation of symbols

1 カメラ部
2 画像処理部
3 空間位置算出部
4 視線方向検出部
5 視線推定部
6 視線画像抽出部
7 視線画像記憶部
8 視野画像出力部
9 表示部
10 動線軌跡検出部
11 視線挙動判定部
12 注目時間計測部
13 注目挙動判定部
100,200,300 監視装置
DESCRIPTION OF SYMBOLS 1 Camera part 2 Image processing part 3 Spatial position calculation part 4 Gaze direction detection part 5 Gaze estimation part 6 Gaze image extraction part 7 Gaze image memory | storage part 8 Visual field image output part 9 Display part 10 Flow line locus | trajectory detection part 11 Gaze behavior determination part 12 Attention Time Measurement Unit 13 Attention Behavior Determination Unit 100, 200, 300 Monitoring Device

Claims (6)

力された画像から、監視対象者の空間位置を算出する空間位置算出部と、
記入力された画像から、前記監視対象者の視線方向を検出する視線方向検出部と、
撮影位置と撮影方向を付加した画像データを記憶する視線画像記憶部と、
前記視線画像記憶部に記憶されている画像データのうち、前記空間位置に近い撮影位置と前記視線方向に近い撮影方向とが付加された画像を視線画像として前記視線画像記憶部から抽出する視線画像抽出部と
備えることを特徴とする監視装置。
From the input image, the spatial position calculating unit for calculating a spatial position of the monitored person,
From the entering force image, and the line-of-sight direction detecting unit for detecting a gaze direction of the person to be monitored,
A line-of-sight image storage unit for storing image data to which a shooting position and a shooting direction are added;
Wherein among the image data stored in the line-of-sight image storage unit, line of sight to extract images and the photographing position closer to the spatial position and the shooting direction closer to the viewing direction is added, from the line-of-sight image storage unit as the sight image An image extraction unit ;
Monitoring device, characterized in that it comprises a.
前記視線画像の中から、前記前記空間位置と前記視線方向に基づいて、前記視線画像のうち、前記監視対象者の視野角に対応する画像を視野画像として出力する視野画像出力部と、From among the line-of-sight images, based on the spatial position and the line-of-sight direction, a visual field image output unit that outputs, as the visual field image, an image corresponding to the viewing angle of the monitoring subject among the visual line images;
前記視野画像出力部により出力された前記視野画像を表示する表示部とA display unit for displaying the visual field image output by the visual field image output unit;
を備えることを特徴とする請求項1に記載の監視装置。The monitoring apparatus according to claim 1, further comprising:
前記監視対象者の前記空間位置を追跡して、前記監視対象者の動線軌跡を検出する動線軌跡検出部と、
前記動線軌跡から前記監視対象者の進行方向を推定し、前記視線方向と前記進行方向の情報に基づいて、前記監視対象者が不審者であるか否かを判定する視線挙動判定部と
を備えることを特徴とする請求項1または2に記載の監視装置。
A flow line trajectory detection unit that tracks the spatial position of the monitoring target person and detects a flow line trajectory of the monitoring target person;
A line-of-sight behavior determination unit that estimates a traveling direction of the monitoring target person from the flow line trajectory and determines whether the monitoring target person is a suspicious person based on information on the line-of-sight direction and the traveling direction. monitoring device according to claim 1 or 2, characterized in that it comprises.
前記視線挙動判定部は、前記進行方向に対する前記視線方向の相対角度を算出し、前記相対角度が所定の閾角度を超えた回数に基づいて、前記監視対象者が不審者であるか否かを判定することを特徴とする請求項に記載の監視装置。 The line-of-sight behavior determination unit calculates a relative angle of the line-of-sight direction with respect to the traveling direction, and determines whether the monitoring target person is a suspicious person based on the number of times the relative angle exceeds a predetermined threshold angle. The monitoring apparatus according to claim 3 , wherein the determination is performed. 前記空間位置及び前記視線方向に基づいて、所定の対象物が前記監視対象者の視野に含まれる時間を注目時間として計測する注目時間計測部と、
前記注目時間が所定の閾時間を超えた場合に前記対象物の情報を出力する注目挙動判定部と
を備えることを特徴とする請求項1乃至の何れかに記載の監視装置。
An attention time measurement unit that measures, as an attention time, a time during which a predetermined object is included in the visual field of the monitoring subject based on the spatial position and the line-of-sight direction;
Monitoring device according to any one of claims 1 to 4 wherein the target time is characterized by comprising a target behavior determination unit for outputting information of the object if it exceeds between predetermined threshold time.
監視対象者の画像を入力する画像入力ステップと、An image input step for inputting an image of the person to be monitored;
前記入力された画像から、前記監視対象者の空間位置を算出する空間位置算出ステップと、A spatial position calculating step for calculating a spatial position of the monitoring subject from the input image;
前記入力された画像から、前記監視対象者の視線方向を検出する視線方向検出ステップと、A line-of-sight direction detecting step for detecting a line-of-sight direction of the monitoring subject from the input image;
撮影位置と撮影方向を付加した画像データを記憶する視線画像記憶ステップと、A line-of-sight image storage step for storing image data to which a shooting position and a shooting direction are added;
前記記憶されている画像データのうち、前記空間位置に近い撮影位置と前記視線方向に近い撮影方向とが付加された画像を、視線画像として前記視線画像記憶部から抽出する視線画像抽出ステップと、A line-of-sight image extraction step of extracting, from the line-of-sight image storage unit, an image added with a photographing position close to the spatial position and a photographing direction close to the line-of-sight direction among the stored image data;
を含むことを特徴とする監視方法。The monitoring method characterized by including.
JP2007129556A 2007-05-15 2007-05-15 Monitoring device Expired - Fee Related JP5111934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007129556A JP5111934B2 (en) 2007-05-15 2007-05-15 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007129556A JP5111934B2 (en) 2007-05-15 2007-05-15 Monitoring device

Publications (2)

Publication Number Publication Date
JP2008288707A JP2008288707A (en) 2008-11-27
JP5111934B2 true JP5111934B2 (en) 2013-01-09

Family

ID=40148048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007129556A Expired - Fee Related JP5111934B2 (en) 2007-05-15 2007-05-15 Monitoring device

Country Status (1)

Country Link
JP (1) JP5111934B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5163564B2 (en) * 2009-03-18 2013-03-13 富士通株式会社 Display device, display method, and display program
JP5460691B2 (en) * 2009-06-08 2014-04-02 パナソニック株式会社 Gaze target determination device and gaze target determination method
JP6349109B2 (en) * 2014-03-06 2018-06-27 ダイコク電機株式会社 Game system
JP6352874B2 (en) * 2015-09-02 2018-07-04 株式会社東芝 Wearable terminal, method and system
JP6707940B2 (en) 2016-03-25 2020-06-10 富士ゼロックス株式会社 Information processing device and program
JP7069725B2 (en) * 2018-01-04 2022-05-18 富士通株式会社 Suspicious person detection device, suspicious person detection method and computer program for suspicious person detection
WO2020087317A1 (en) * 2018-10-31 2020-05-07 深圳市大疆创新科技有限公司 Monitoring device adjustment method, monitoring device, and gimbal device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3489491B2 (en) * 1999-06-24 2004-01-19 日本電気株式会社 PERSONAL ANALYSIS DEVICE AND RECORDING MEDIUM RECORDING PERSONALITY ANALYSIS PROGRAM
JP4954459B2 (en) * 2004-09-24 2012-06-13 パナソニック株式会社 Suspicious person detection device
JP4687058B2 (en) * 2004-10-04 2011-05-25 オムロン株式会社 Suspicious person judgment device
JP4990552B2 (en) * 2006-04-28 2012-08-01 綜合警備保障株式会社 Attention position identification system, attention position identification method, and attention position identification program

Also Published As

Publication number Publication date
JP2008288707A (en) 2008-11-27

Similar Documents

Publication Publication Date Title
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP5111934B2 (en) Monitoring device
JP5866564B1 (en) MONITORING DEVICE, MONITORING SYSTEM, AND MONITORING METHOD
JP6801760B2 (en) Image processing equipment, surveillance systems, image processing methods, and programs
JP4876687B2 (en) Attention level measuring device and attention level measuring system
JP6525453B2 (en) Object position estimation system and program thereof
CN103688292B (en) Image display device and method for displaying image
JP6696422B2 (en) Abnormality detection device and abnormality detection method
US20200050872A1 (en) People flow estimation device, display control device, people flow estimation method, and recording medium
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
JP5853141B2 (en) People counting device, people counting system, and people counting method
US20150371444A1 (en) Image processing system and control method for the same
WO2019244255A1 (en) Endoscope image processing device and endoscope image processing method
US8169501B2 (en) Output apparatus, output method and program
JP6568374B2 (en) Information processing apparatus, information processing method, and program
JP7359621B2 (en) Area setting support device, area setting support method, and area setting support program
US11120838B2 (en) Information processing apparatus, control method, and program
CN110222616B (en) Pedestrian abnormal behavior detection method, image processing device and storage device
JP2008226109A (en) Video image analysis system and method
JP2007219603A (en) Person tracking device, person tracking method and person tracking program
WO2020032254A1 (en) Attention target estimating device, and attention target estimating method
JP6265133B2 (en) Visibility presentation system, method and program
JP7297455B2 (en) Image processing device, image processing method, and program
KR20160068281A (en) Method of object recognition
JP7560016B2 (en) Information superimposing device, information superimposing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121010

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees