JPH0635443A - Monitor device - Google Patents

Monitor device

Info

Publication number
JPH0635443A
JPH0635443A JP4187895A JP18789592A JPH0635443A JP H0635443 A JPH0635443 A JP H0635443A JP 4187895 A JP4187895 A JP 4187895A JP 18789592 A JP18789592 A JP 18789592A JP H0635443 A JPH0635443 A JP H0635443A
Authority
JP
Japan
Prior art keywords
image
monitoring
dimensional
area
monitor area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4187895A
Other languages
Japanese (ja)
Inventor
Shuichi Nishio
秀一 西尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
NTT Data Corp
Original Assignee
N T T DATA TSUSHIN KK
NTT Data Communications Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK, NTT Data Communications Systems Corp filed Critical N T T DATA TSUSHIN KK
Priority to JP4187895A priority Critical patent/JPH0635443A/en
Publication of JPH0635443A publication Critical patent/JPH0635443A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To set the same monitor area even when an image pickup device is moved and also set a monitor area by only single operation even when plural devices are installed. CONSTITUTION:The monitor device has the image pickup device 5 which is so installed that an area to be monitored is included in the visual field, a three- dimensional model constituting means 13 which constitutes a three-dimensional scene model of a scene to be monitored and a three-dimensional body model of a body to be monitored, a three-dimensional monitor area generating means 14 which generates the three-dimensional monitor area by computer graphics from a previously set plane monitor area and the three-dimensional model of the body to be monitored, a monitor area setting means 15 which calculates how the three-dimensional monitor area is seen frame the image pickup device 5 by using previously set installation parameters of the image pickup device 5, sets that as a monitor area to an image, and segments a monitor area image from an image in the visual field picked up by the image pickup device 5, and a moving body detecting means 16 which detects a moving body from the monitor area image segmented by the means 15.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は監視装置に関し、特に画
像処理技術を用いて特定領域における監視を行う監視装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring device, and more particularly to a monitoring device for monitoring a specific area using image processing technology.

【0002】[0002]

【従来の技術】近年、安全対策上、人間の立入りを禁止
した場所への不法侵入者の監視や、駐車禁止区域への違
法駐車の監視等を行うために、コンピュータと画像処理
技術を用いて自動的に監視を行う監視装置に対する関心
が高まっている。従来のこれらの装置は、一般に、テレ
ビカメラ等の画像撮像装置から得た入力画像に対して、
監視領域設定処理,画像変換処理,特徴抽出処理等の画
像処理を施し、監視領域内に侵入する人間や物体を検出
するものであった。図4は、このような従来の監視装置
(以下、単に「装置」ともいう)の構成例を示すものであ
る。このような装置では、監視カメラから入力される画
像全体を監視するのではなく、その一部分に注目し、そ
の特定領域内を監視領域として監視を行う場合がある。
現在の技術では、注目すべき監視領域を自動的に設定す
ることは困難であるため、ディスプレイに表示された監
視カメラから観察される二次元画像上で、注目すべき監
視領域を手動で設定し、その領域内の移動物体を検出す
ることにより、不法侵入者等を監視するように構成され
ている。なお、これに関しては、例えば、黄乗元,高羽
禎雄による「ITV画像による人の流れの実時間計測」
(電子情報通信学会誌D,昭和58年8月号)の記載を参考
にすることができる。
2. Description of the Related Art In recent years, as a safety measure, a computer and image processing technology have been used to monitor illegal intruders in places where human entry is prohibited and to monitor illegal parking in prohibited parking areas. There is increasing interest in surveillance devices that provide automatic surveillance. These conventional devices are generally used for input images obtained from image capturing devices such as television cameras,
Image processing such as monitoring area setting processing, image conversion processing, and feature extraction processing is performed to detect humans and objects invading the monitoring area. FIG. 4 shows such a conventional monitoring device.
It shows an example of the configuration of (hereinafter, also simply referred to as “apparatus”). In such an apparatus, instead of monitoring the entire image input from the monitoring camera, attention may be paid to a part of the image and monitoring may be performed within the specific area as the monitoring area.
With current technology, it is difficult to automatically set the watched area of interest.Therefore, the watched area of interest can be manually set on the two-dimensional image observed from the monitor camera displayed on the display. By detecting a moving object in the area, an illegal intruder or the like is monitored. Regarding this, for example, "Real-time measurement of human flow by ITV image" by Y. Y. and T. Takaba.
(Journal of the Institute of Electronics, Information and Communication Engineers D, August 1983 issue) can be referred to.

【0003】より具体的には、コンピュータ1,表示部
(CRT)2,情報入力装置3,メモリ4,監視カメラ等
の画像撮像装置5から構成され、コンピュータ1には,
演算処理部(CPU)11,画像入力部12,監視領域設
定部15,移動物体検出部16が設けられ、これらはデ
ータバス17によって結合されている。上述の如く構成
された装置において、画像撮像装置5から入力された監
視領域の濃淡画像は、画像入力部12でディジタルフレ
ーム画像に変換される。このディジタルフレーム画像
は、監視領域設定部15に入力され、ここで、注目すべ
き特定領域(監視領域)の画像のみが切り出される。すな
わち、ディジタルフレーム画像を、図5に示す如く、表
示部2に表示し、監視装置の操作者は、その画像を見
て、ライトペン等の情報入力装置3で注目したい領域の
輪郭を指定する。指定された輪郭を基に、コンピュータ
1の監視領域設定部15では、監視領域54の切り出し
を行う。上述の如き処理によって切り出された監視対象
画像は、移動物体検出部16に入力される。移動物体検
出部16では、監視対象画像から移動物体を検出する処
理を行い、もし、移動物体を検出した場合には、表示部
2にその情報を表示するとともに、メモリ4に現在の特
刻および監視対象画像が記憶される。
More specifically, computer 1, display unit
The computer 1 comprises a (CRT) 2, an information input device 3, a memory 4, and an image pickup device 5 such as a surveillance camera.
An arithmetic processing unit (CPU) 11, an image input unit 12, a monitoring area setting unit 15, and a moving object detection unit 16 are provided, and these are connected by a data bus 17. In the device configured as described above, the grayscale image of the monitoring area input from the image pickup device 5 is converted into a digital frame image by the image input unit 12. This digital frame image is input to the monitoring area setting unit 15, where only the image of the specific area (monitoring area) of interest is cut out. That is, the digital frame image is displayed on the display unit 2 as shown in FIG. 5, and the operator of the monitoring device looks at the image and specifies the contour of the region of interest with the information input device 3 such as a light pen. . The monitoring area setting unit 15 of the computer 1 cuts out the monitoring area 54 based on the designated contour. The monitoring target image cut out by the above-described processing is input to the moving object detection unit 16. The moving object detection unit 16 performs a process of detecting a moving object from the image to be monitored. If a moving object is detected, the moving unit detection unit 16 displays the information on the display unit 2 and displays the current special mark and The monitoring target image is stored.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来技術においては、監視装置の操作者が、画像撮像装置
5から得られる二次元画像上で監視領域を設定し、監視
領域設定部15で切り出すという処理を行っているた
め、画像撮像装置5が動いてしまうと見え方が変わり、
監視領域の設定をやり直さなければならなくなる。すな
わち、画像撮像装置5は常に固定されていなければなら
ないという問題がある。また、複数の画像撮像装置を用
いて監視を行う場合には、それぞれの画像撮像装置毎に
監視領域の設定を行う必要があるという問題もある。屋
外における広範囲の監視を行おうとする場合、また、屋
内であっても1台の監視装置では監視したい領域すべて
を撮像できない場合には、監視カメラの移動(首振り,
上下動等)や、複数台の監視カメラの設置が必要になる
が、上述の問題は、これに対する大きな障害になるもの
である。本発明は上記事情に鑑みてなされたもので、そ
の目的とするところは、従来の技術における上述の如き
問題を解消し、画像撮像装置を動かしても同じ監視領域
が設定され、また、画像撮像装置を複数台設置する場合
でも、監視装置の操作者が1回の操作だけで、監視領域
を設定することが可能な監視装置を提供することにあ
る。
However, in the above-mentioned conventional technique, the operator of the monitoring device sets the monitoring region on the two-dimensional image obtained from the image pickup device 5, and the monitoring region setting section 15 cuts it out. Since the processing is performed, the appearance changes when the image pickup device 5 moves,
The monitoring area must be set again. That is, there is a problem that the image pickup device 5 must always be fixed. Further, when monitoring is performed using a plurality of image capturing devices, there is also a problem that it is necessary to set a monitoring area for each image capturing device. If you want to monitor a wide area outdoors, or if you can't image all the area you want to monitor with one monitoring device even indoors, move the surveillance camera (pivot,
Up and down movement) and installation of multiple surveillance cameras are required, but the above-mentioned problem is a major obstacle to this. The present invention has been made in view of the above circumstances, and an object of the present invention is to solve the above-mentioned problems in the related art, to set the same monitoring area even when the image capturing apparatus is moved, and to capture an image. An object of the present invention is to provide a monitoring device in which the operator of the monitoring device can set the monitoring area with a single operation even when a plurality of devices are installed.

【0005】[0005]

【課題を解決するための手段】本発明の上記目的は、画
像処理技術を用いて特定領域における監視を行う監視装
置であって、視野内に監視対象領域が含まれるように設
置された画像撮像装置と、監視対象となるシーンの三次
元シーンモデルおよび監視対象物体の三次元物体モデル
を構築する三次元モデル構築手段と、予め設定された平
面監視領域と監視対象物体の三次元モデルからコンピュ
ータグラフィックスにより三次元監視領域を生成する三
次元監視領域生成手段と、予め設定された前記画像撮像
装置の設置パラメータを用いて、前記三次元監視領域を
前記画像撮像装置から見たときの見え方を算出し、それ
を画像上での監視領域として設定し、前記画像撮像装置
で撮像した視野内の画像から監視領域画像を切り出す監
視領域設定手段と、該手段により切り出された監視領域
画像から移動物体を検出する移動物体検出手段を有する
ことを特徴とする監視装置によって達成される。
SUMMARY OF THE INVENTION The above object of the present invention is a monitoring device for monitoring a specific area by using image processing technology, and image pickup is installed so that the monitoring target area is included in the visual field. A device, a three-dimensional model construction means for constructing a three-dimensional scene model of a scene to be monitored and a three-dimensional object model of an object to be monitored, and a computer graphic from a preset plane monitoring area and a three-dimensional model of the object to be monitored. By using a three-dimensional monitoring area generating means for generating a three-dimensional monitoring area by a monitor and a preset installation parameter of the image capturing apparatus, the appearance of the three-dimensional monitoring area when viewed from the image capturing apparatus is determined. Monitoring area setting means for calculating and setting it as a monitoring area on the image, and cutting out the monitoring area image from the image in the visual field picked up by the image pickup device; It is achieved by the monitoring device, characterized in that it comprises a moving object detecting means for detecting a moving object from the extracted surveillance area image by said means.

【0006】[0006]

【作用】本発明に係る監視装置においては、監視装置の
操作者が、予め、監視対象となるシーンの三次元(以
下、「3D」ともいう)モデルを構築し、そのシーンを真
上から見たときの平面監視領域,監視対象物体の3D物
体モデルおよび画像撮像装置の設置パラメータを設定
し、あとはコンピュータが平面監視領域の輪郭から内側
に向けて螺旋を描くように監視対象物体の3D物体モデ
ルが移動する擬似監視シーンを、コンピュータ・グラフ
ィックス(CG)で生成し、その移動軌跡の三次元的な輪
郭空間を3D監視領域として算出し、3Dシーンモデル
と画像撮像装置の設置パラメータを用いて、この3D監
視領域を画像撮像装置から見たときの見え方を算出し、
それを画像上での監視領域として設定するようにしてい
る。これにより、画像撮像装置を移動させても、コンピ
ュータによって自動的に監視領域が設定されるととも
に、複数台の画像撮像装置を設置する場合でも、やはり
コンピュータが各画像撮像装置の監視領域の設定を自動
的に行うため、監視装置の操作者は、実質的に、はじめ
の1回の操作だけで、すべての画像撮像装置の監視領域
を設定することが可能になる。
In the surveillance device according to the present invention, the operator of the surveillance device constructs a three-dimensional (hereinafter also referred to as "3D") model of the scene to be monitored in advance, and sees the scene from directly above. 3D object of the monitoring target object such that the plane monitoring area, the 3D object model of the monitoring target object and the installation parameters of the image pickup device are set, and the computer draws a spiral from the contour of the planar monitoring area toward the inside. A simulated surveillance scene in which the model moves is generated by computer graphics (CG), the three-dimensional contour space of the movement trajectory is calculated as a 3D surveillance area, and the 3D scene model and the installation parameters of the image pickup device are used. Then, the appearance of the 3D monitoring area when viewed from the image pickup device is calculated,
It is set as a monitoring area on the image. As a result, even if the image pickup device is moved, the monitoring area is automatically set by the computer, and even when a plurality of image pickup devices are installed, the computer also sets the monitoring area of each image pickup device. Since this is performed automatically, the operator of the monitoring device can set the monitoring regions of all the image capturing devices substantially by only the first operation.

【0007】[0007]

【実施例】以下、本発明の実施例を図面に基づいて詳細
に説明する。図1は、本発明の一実施例に係る監視装置
の構成を示すブロック図である。本実施例に係る監視装
置は、コンピュータ1,文字や画像等の情報を表示する
表示部(CRT)2,文字等の情報を入力したり上述の表
示部のCRT2上を指し示すことによって、その位置情
報を入力する情報入力装置3,文字や画像等の情報を格
納するメモリ4、および、テレビカメラ等で構成された
画像撮像装置5を備えている。コンピュータ1には、演
算処理部11,画像入力部12,3Dモデル構築部1
3,3D監視領域生成部14,監視領域設定部15、お
よび、移動物体検出部16が設けられ、これらの各部
は、データバス17によって結合されている。また、こ
の場合、表示部2は、例えば、CRTディスプレイ装置
で構成され、メモリ4は、コンピュータ1の主記憶装置
と磁気ディスク装置,光ディスク装置等から成る補助記
憶装置とから構成されている。情報入力装置3は、例え
ば、キーボード,ライトペン,マウス等で構成される。
また、画像撮像装置5は、その視野が監視領域を臨むよ
うに配置されている。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a monitoring device according to an embodiment of the present invention. The monitoring device according to the present embodiment is provided with a computer 1, a display unit (CRT) for displaying information such as characters and images, a position of the monitor by inputting information such as characters and pointing on the CRT 2 of the display unit. An information input device 3 for inputting information, a memory 4 for storing information such as characters and images, and an image pickup device 5 constituted by a television camera or the like are provided. The computer 1 includes an arithmetic processing unit 11, an image input unit 12, and a 3D model construction unit 1.
A 3D monitoring area generation unit 14, a monitoring area setting unit 15, and a moving object detection unit 16 are provided, and these units are connected by a data bus 17. In this case, the display unit 2 is composed of, for example, a CRT display device, and the memory 4 is composed of a main storage device of the computer 1 and an auxiliary storage device such as a magnetic disk device and an optical disk device. The information input device 3 is composed of, for example, a keyboard, a light pen, a mouse and the like.
The image pickup device 5 is arranged so that its field of view faces the monitoring area.

【0008】更に、画像入力部12は、画像撮像装置5
から入力された監視領域を含む濃淡画像を、ディジタル
フレーム画像に変換するものであり、3Dモデル構築部
13は、操作者が入力した情報に基づいて、監視対象と
なるシーンの3Dシーンモデル、および、監視対象物体
の3D物体モデルを構築するものである。なお、これら
のモデルは、監視装置の操作者によって予め手操作によ
り構築されるものであり、その手法については、例え
ば、山口富士夫著「コンピュータディスプレイによる図
形処理工学」(日刊工業新聞社,昭和56年刊)に詳細に記述
されている。3D監視領域生成部14は、予め設定され
た平面監視領域と監視対象物体の3Dモデルから、コン
ピュータ・グラフィックスによって3D監視領域を生成
するものである。監視領域設定部15は、監視カメラの
設置パラメータを用いて、3D監視領域を監視カメラか
ら見たときの見え方を算出し、それを画像上での監視領
域として設定し、切り出すものである。また、移動物体
検出部16は、監視領域中の不法侵入者等の移動物体を
検出するものである。なお、ここでは、移動物体の検出
方法として、例えば、辻三郎による「動画像処理」(情報
処理学会誌,昭和55年6月号)に記載されている手法を用
いるものとする。
Further, the image input section 12 includes an image pickup device 5
The 3D model construction unit 13 converts the grayscale image including the monitoring region input from the digital frame image into a digital frame image. The 3D model construction unit 13 is based on the information input by the operator. , Constructs a 3D object model of the monitored object. It should be noted that these models are manually constructed in advance by the operator of the monitoring device, and the method is described, for example, in Fujio Yamaguchi "Graphic Processing Engineering by Computer Display" (Nikkan Kogyo Shimbun, Showa 56). It is described in detail in (Annual). The 3D monitoring area generation unit 14 generates a 3D monitoring area by computer graphics from a preset planar monitoring area and a 3D model of an object to be monitored. The monitoring area setting unit 15 calculates the appearance of the 3D monitoring area when viewed from the monitoring camera using the installation parameters of the monitoring camera, sets it as the monitoring area on the image, and cuts it out. Further, the moving object detection unit 16 detects a moving object such as an illegal intruder in the monitoring area. Here, as a method of detecting a moving object, for example, the method described in "Motion Image Processing" by Saburo Tsuji (Information Processing Society of Japan, June 1979 issue) is used.

【0009】次に、上述の如く構成された本実施例の動
作を、図2に示すフローチャートに従い、詳細に説明す
る。まず、本実施例に係る監視装置の操作者は、監視対
象となるシーンの3Dシーンモデルを構築し、情報入力
装置3から入力する。入力された3Dシーンモデルはコ
ンピュータ1のメモリに記憶される(ステップS01)。な
お、ここでは、操作者による、監視対象となるシーンの
3Dシーンモデルの構築は、前述の技術に示される如
く、CAD等の技術を用いて、平面図と3Dデータを基
にして構築するものとしているが、これには、レーザ光
線を用いた表面形状の自動獲得技術を応用することも可
能である。監視装置は、図3(a)に示す如く、上記3D
シーンモデルを真上から見たときの画像が表示部2に表
示し、操作者は、この表示を見て、監視したい領域を情
報入力装置3からライトペン等により指定する。これに
より、その領域が、平面監視領域41として3D監視領
域生成部14に入力される(ステップS02)。更に、操作
者は、図3(b)に示す如き、監視対象物体の3D物体モ
デル42の形状,大きさを情報入力装置3から入力す
る。入力された3D物体モデル42は、3D監視領域生
成部14に入力される(ステップS03)。
Next, the operation of the present embodiment configured as described above will be described in detail with reference to the flow chart shown in FIG. First, the operator of the monitoring device according to the present embodiment constructs a 3D scene model of a scene to be monitored and inputs it from the information input device 3. The input 3D scene model is stored in the memory of the computer 1 (step S01). Here, the construction of the 3D scene model of the scene to be monitored by the operator is performed by using a technique such as CAD based on the plan view and the 3D data, as shown in the above-mentioned technique. However, it is also possible to apply an automatic surface shape acquisition technique using a laser beam to this. The monitoring device, as shown in FIG.
An image when the scene model is viewed from directly above is displayed on the display unit 2, and the operator looks at this display and designates the area to be monitored from the information input device 3 with a light pen or the like. As a result, the area is input to the 3D monitoring area generation unit 14 as the plane monitoring area 41 (step S02). Further, the operator inputs the shape and size of the 3D object model 42 of the monitored object from the information input device 3 as shown in FIG. The input 3D object model 42 is input to the 3D monitoring area generation unit 14 (step S03).

【0010】3D監視領域生成部14では、入力された
平面監視領域41と3D物体モデル42から、コンピュ
ータ・グラフィックスによって、図3(b)に示す如き、
3D監視領域43を生成する。具体的には、平面監視領
域41の輪郭上のある一点を起点とし、輪郭線に沿って
内側に向かって螺旋を描くように、3D物体モデル42
が移動する擬似シーンを、コンピュータ・グラフィック
スによって生成し、その移動軌跡の三次元的な輪郭空間
を3D監視領域43として算出するものである(ステッ
プS04)。ここで算出された3D監視領域43は監視領
域設定部15に入力される。同時に、操作者は、監視カ
メラの三次元的な設置位置,視点の方向,焦点距離とい
うような設置パラメータを、情報入力装置3から入力す
る(ステップS05)。入力された設置パラメータは監視領
域設定部15に入力され、3D監視領域43を監視カメ
ラから見たときの画像上での見え方が算出される(ステ
ップS06)。このような見え方の算出方法に関しては、
前述の「コンピュータディスプレイによる図形処理工
学」に詳細に説明されている。算出された領域が、図3
(c)に示す如く、監視カメラから得られる画像上での監
視領域44として設定される。
In the 3D surveillance area generator 14, the input plane surveillance area 41 and the 3D object model 42 are processed by computer graphics as shown in FIG. 3B.
The 3D monitoring area 43 is generated. Specifically, the 3D object model 42 is designed such that a certain point on the contour of the plane monitoring area 41 is used as a starting point and a spiral is drawn inward along the contour line.
Is generated by computer graphics, and the three-dimensional contour space of the movement locus is calculated as the 3D monitoring area 43 (step S04). The 3D monitoring area 43 calculated here is input to the monitoring area setting unit 15. At the same time, the operator inputs the installation parameters such as the three-dimensional installation position of the surveillance camera, the direction of the viewpoint, and the focal length from the information input device 3 (step S05). The input installation parameters are input to the monitoring area setting unit 15, and the appearance on the image when the 3D monitoring area 43 is viewed from the monitoring camera is calculated (step S06). Regarding the calculation method of such appearance,
This is described in detail in the above-mentioned "Graphics Engineering by Computer Display". The calculated area is shown in FIG.
As shown in (c), it is set as a monitoring area 44 on the image obtained from the monitoring camera.

【0011】一方、現時刻における視野内の画像は監視
領域設定部15に入力され、画像入力部12に入力され
る。画像入力部12は、この画像をディジタルフレーム
画像に変換する。このディジタルフレーム画像は監視領
域設定部15に入力され、ここで、監視領域内の不法侵
入者等の移動物体が検出される。移動物体の検出手法に
ついては、前述の通りである。上述の画像入力処理から
移動物体検出処理が繰り返されることによって、監視領
域は所定時間間隔で監視されることになり、その監視中
に、監視領域内に移動物体が侵入したならば、不審な物
体が侵入したことを示す信号が発せられ、表示部2への
図示ないし警報等による監視員への通知が行われる。上
記実施例によれば、監視装置の操作者が、予め、監視対
象となるシーンの3Dシーンモデルを構築し、そのシー
ンを真上から見たときの平面監視領域,監視対象物体の
3Dモデル、および、監視カメラの位置の設置パラメー
タを設定し、あとは、コンピュータが、平面監視領域の
輪郭から内側に向けて螺旋を描くように監視対象物体の
の3Dモデルを移動させる擬似シーンを、コンピュータ
・グラフィックスで生成し、その移動軌跡の三次元的な
輪郭空間を3D監視領域として算出する。
On the other hand, the image in the visual field at the current time is input to the monitoring area setting unit 15 and the image input unit 12. The image input unit 12 converts this image into a digital frame image. This digital frame image is input to the surveillance area setting unit 15, where a moving object such as an illegal intruder in the surveillance area is detected. The method of detecting a moving object is as described above. By repeating the moving object detection process from the image input process described above, the monitoring area is monitored at a predetermined time interval, and if a moving object enters the monitoring area during the monitoring, a suspicious object is detected. A signal indicating that the intruder has entered is issued, and the monitor is notified to the monitor by an illustration or alarm on the display unit 2. According to the above-described embodiment, the operator of the monitoring device previously builds a 3D scene model of the scene to be monitored, and the plane monitoring area when the scene is viewed from directly above, the 3D model of the object to be monitored, And, setting the installation parameters of the position of the surveillance camera, after that, the computer, a pseudo-scene to move the 3D model of the monitored object so as to draw a spiral inward from the contour of the planar surveillance region, It is generated by graphics, and a three-dimensional contour space of the movement locus is calculated as a 3D monitoring area.

【0012】そして、3Dシーンモデルと監視カメラの
設置パラメータを用いて、上述の3D監視領域を監視カ
メラから見たときの見え方を算出し、それを画像上での
監視領域として設定しているので、監視カメラを移動さ
せても、コンピュータによって自動的に同じ監視領域が
設定されるとともに、複数台の監視カメラを設置する場
合でも、やはり、コンピュータが各監視カメラの監視領
域の設定を自動的に行うため、操作者は、はじめの1回
の操作だけで、すべての監視カメラの監視領域を設定す
ることができることになる。なお、上記実施例は本発明
の一例を示すものであり、本発明はこれに限定されるべ
きものではないことは言うまでもないことである。例え
ば、本発明は、不法侵入者の検出の他、違法駐車車両の
検出,ゲート入場者数の計数等、広い範囲で利用可能で
あり、画像処理を用いて特定領域の監視を行う監視装置
として、極めて有効である。
Then, using the 3D scene model and the installation parameters of the surveillance camera, the appearance of the above-mentioned 3D surveillance area when viewed from the surveillance camera is calculated and set as the surveillance area on the image. Therefore, even if you move the surveillance camera, the computer automatically sets the same surveillance area, and even if you install multiple surveillance cameras, the computer automatically sets the surveillance area of each surveillance camera. Therefore, the operator can set the monitoring areas of all the monitoring cameras with only one initial operation. It is needless to say that the above embodiment shows one example of the present invention, and the present invention should not be limited to this. For example, the present invention can be used in a wide range, such as detection of illegal intruders, detection of illegally parked vehicles, counting of gate visitors, and the like, as a monitoring device for monitoring a specific area by using image processing. , Very effective.

【0013】[0013]

【発明の効果】以上、詳細に説明した如く、本発明によ
れば、画像撮像装置を動かしても同じ監視領域が設定さ
れ、また、画像撮像装置を複数台設置する場合でも、監
視装置の操作者が1回の操作だけで、監視領域を設定す
ることが可能な監視装置を実現できるという顕著な効果
を奏するものである。
As described above in detail, according to the present invention, the same monitoring area is set even when the image pickup device is moved, and even when a plurality of image pickup devices are installed, the monitoring device is operated. This is a remarkable effect that a person can realize a monitoring device capable of setting a monitoring area with only one operation.

【0014】[0014]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る監視装置の構成を示す
ブロック図である。
FIG. 1 is a block diagram showing a configuration of a monitoring device according to an embodiment of the present invention.

【図2】実施例に係る監視装置の動作を示すフローチャ
ートである。
FIG. 2 is a flowchart showing the operation of the monitoring device according to the embodiment.

【図3】実施例の、3D監視領域を算出する処理の説明
図である。
FIG. 3 is an explanatory diagram of a process of calculating a 3D monitoring area according to the embodiment.

【図4】従来の監視装置の一構成例を示すブロック図で
ある。
FIG. 4 is a block diagram showing a configuration example of a conventional monitoring device.

【図5】従来の監視装置における、監視領域の設定例を
説明する図である。
FIG. 5 is a diagram illustrating an example of setting a monitoring area in a conventional monitoring device.

【符号の説明】[Explanation of symbols]

1:コンピュータ、11:演算処理部、12:画像入力
部、13:3Dモデル構築部、14:3D監視領域生成
部、15:監視領域設定部、16:移動物体検出部、1
7:データバス、2:表示部、3:情報入力装置、4:
メモリ、41:平面監視領域、42:3D物体モデル、
43:3D監視領域、44:監視領域、5:画像撮像装
置。
1: computer, 11: arithmetic processing unit, 12: image input unit, 13: 3D model construction unit, 14: 3D monitoring region generation unit, 15: monitoring region setting unit, 16: moving object detection unit, 1
7: data bus, 2: display unit, 3: information input device, 4:
Memory, 41: plane monitoring area, 42: 3D object model,
43: 3D monitoring area, 44: monitoring area, 5: image pickup device.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像処理技術を用いて特定領域における
監視を行う監視装置であって、視野内に監視対象領域が
含まれるように設置された画像撮像装置と、監視対象と
なるシーンの三次元シーンモデルおよび監視対象物体の
三次元物体モデルを構築する三次元モデル構築手段と、
予め設定された平面監視領域と監視対象物体の三次元モ
デルからコンピュータグラフィックスにより三次元監視
領域を生成する三次元監視領域生成手段と、予め設定さ
れた前記画像撮像装置の設置パラメータを用いて、前記
三次元監視領域を前記画像撮像装置から見たときの見え
方を算出し、それを画像上での監視領域として設定し、
前記画像撮像装置で撮像した視野内の画像から監視領域
画像を切り出す監視領域設定手段と、該手段により切り
出された監視領域画像から移動物体を検出する移動物体
検出手段を有することを特徴とする監視装置。
1. A monitoring device for monitoring a specific area by using image processing technology, comprising: an image pickup device installed so that the monitoring target area is included in a field of view; and a three-dimensional scene to be monitored. A three-dimensional model building means for building a three-dimensional object model of the scene model and the monitored object,
Using a preset plane monitoring region and a three-dimensional monitoring region generating means for generating a three-dimensional monitoring region by computer graphics from a three-dimensional model of a monitoring target object, using preset installation parameters of the image capturing device, Calculate the appearance of the three-dimensional monitoring area when viewed from the image capturing device, and set it as a monitoring area on the image,
Surveillance characterized by having a monitoring area setting means for cutting out a monitoring area image from an image in the visual field picked up by the image pickup device, and a moving object detecting means for detecting a moving object from the monitoring area image cut out by the means. apparatus.
JP4187895A 1992-07-15 1992-07-15 Monitor device Pending JPH0635443A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4187895A JPH0635443A (en) 1992-07-15 1992-07-15 Monitor device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4187895A JPH0635443A (en) 1992-07-15 1992-07-15 Monitor device

Publications (1)

Publication Number Publication Date
JPH0635443A true JPH0635443A (en) 1994-02-10

Family

ID=16214075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4187895A Pending JPH0635443A (en) 1992-07-15 1992-07-15 Monitor device

Country Status (1)

Country Link
JP (1) JPH0635443A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344949A (en) * 2001-05-18 2002-11-29 Toshiba Corp Moving picture monitoring system
JP2005062924A (en) * 2003-08-08 2005-03-10 Omron Corp Three-dimensional object recognition device and setting method therefor
JP2005277640A (en) * 2004-03-24 2005-10-06 Matsushita Electric Ind Co Ltd Device and method for setting image area
JP2006302284A (en) * 2005-04-19 2006-11-02 Honeywell Internatl Inc System and method for transforming 2d image domain data into 3d high density range map
JP2007013709A (en) * 2005-06-30 2007-01-18 Secom Co Ltd Setting apparatus
JP2007011776A (en) * 2005-06-30 2007-01-18 Secom Co Ltd Monitoring system and setting device
EP4080879A1 (en) * 2021-04-23 2022-10-26 Arlo Technologies, Inc. Smart security camera system with automatically adjustable activity zone and method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002344949A (en) * 2001-05-18 2002-11-29 Toshiba Corp Moving picture monitoring system
JP2005062924A (en) * 2003-08-08 2005-03-10 Omron Corp Three-dimensional object recognition device and setting method therefor
JP2005277640A (en) * 2004-03-24 2005-10-06 Matsushita Electric Ind Co Ltd Device and method for setting image area
JP2006302284A (en) * 2005-04-19 2006-11-02 Honeywell Internatl Inc System and method for transforming 2d image domain data into 3d high density range map
JP2007013709A (en) * 2005-06-30 2007-01-18 Secom Co Ltd Setting apparatus
JP2007011776A (en) * 2005-06-30 2007-01-18 Secom Co Ltd Monitoring system and setting device
EP4080879A1 (en) * 2021-04-23 2022-10-26 Arlo Technologies, Inc. Smart security camera system with automatically adjustable activity zone and method

Similar Documents

Publication Publication Date Title
JP7468493B2 (en) Intrusion detection device, intrusion detection method, and intrusion detection program
US8854469B2 (en) Method and apparatus for tracking persons and locations using multiple cameras
US8189049B2 (en) Intrusion alarm video-processing device
US6816184B1 (en) Method and apparatus for mapping a location from a video image to a map
EP1715455A1 (en) Method and system for transforming 2D image domain data into a 3D dense range map
US20050018879A1 (en) Object tracking method and object tracking apparatus
EP0878965A2 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
Chi et al. A methodology for object identification and tracking in construction based on spatial modeling and image matching techniques
TW201539385A (en) Intrusion detection with directional sensing
JP5525495B2 (en) Image monitoring apparatus, image monitoring method and program
EP2476999B1 (en) Method for measuring displacement, device for measuring displacement, and program for measuring displacement
CN110766899A (en) Method and system for enhancing electronic fence monitoring early warning in virtual environment
JPH0635443A (en) Monitor device
CN112802100A (en) Intrusion detection method, device, equipment and computer readable storage medium
JPH0793558A (en) Image monitoring device
KR20220102774A (en) monitering system with LiDAR for a body
KR102407202B1 (en) Apparatus and method for intelligently analyzing video
US20190080179A1 (en) Monitoring system and terminal device
JP7247310B2 (en) CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM
JP7303149B2 (en) Installation support device, installation support method, and installation support program
CN113452954B (en) Behavior analysis method, apparatus, device and medium
KR102152319B1 (en) Method of calculating position and size of object in 3d space and video surveillance system using the same
CN113239802A (en) Safety monitoring method, device, medium and electronic equipment
KR102602319B1 (en) Traffic information collection system and method based on multi-object tracking using artificial intelligence image deep learning model