JPH0749952A - Device for monitoring mobile object - Google Patents

Device for monitoring mobile object

Info

Publication number
JPH0749952A
JPH0749952A JP5195825A JP19582593A JPH0749952A JP H0749952 A JPH0749952 A JP H0749952A JP 5195825 A JP5195825 A JP 5195825A JP 19582593 A JP19582593 A JP 19582593A JP H0749952 A JPH0749952 A JP H0749952A
Authority
JP
Japan
Prior art keywords
monitoring
camera
action state
displayed
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5195825A
Other languages
Japanese (ja)
Other versions
JP3257165B2 (en
Inventor
政雄 ▲高▼藤
Masao Takato
Yasuo Morooka
泰男 諸岡
Mitsuo Sawairi
光雄 沢入
Kentaro Onose
健太郎 小野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP19582593A priority Critical patent/JP3257165B2/en
Publication of JPH0749952A publication Critical patent/JPH0749952A/en
Application granted granted Critical
Publication of JP3257165B2 publication Critical patent/JP3257165B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide a monitoring device by which a monitoring member can easily and visually recognize the acting states of all objects in a monitoring area. CONSTITUTION:The image processing parts 11a-11c apply various image processings to the images fetched by the image input parts 10a-10c. The output data on the parts 11a-11c are integrated, and the correspondence of objects is secured between the present time and its precedent time in a wide monitoring area. Then the acting states of objects are displayed on an entire map (plan) of the monitoring area based on the result of correspondence of objects. As a result, a monitoring member can easily confirm the acting states of all objects in a wide monitoring area such as the yard, the underground market, the important facilities, etc., of a station. Then the monitoring load of the monitoring member can be reduced.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は移動物体の行動状態や行
動の異常状態を表示する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for displaying a behavioral state of a moving object or an abnormal state of the behavior.

【0002】[0002]

【従来の技術】従来、広範囲に移動する人や自動車等を
複数のカメラで撮影して、監視領域の床面等にマークし
た白線をあらかじめライトペンでトレースして設定した
監視領域の重複部分を処理することにより移動体を追跡
する技術が知られており、移動体同定手段により得られ
た移動体の移動軌跡を表示盤等にそのまま表示すること
が例えば特開昭62−222390号公報に開示されている。
2. Description of the Related Art Conventionally, a person moving in a wide area, an automobile, etc. are photographed by a plurality of cameras, and a white line marked on the floor surface of the surveillance area is traced with a light pen in advance to detect an overlapping portion of the surveillance area. A technique for tracking a moving body by processing is known, and it is disclosed in, for example, Japanese Patent Laid-Open No. 62-222390 that the moving locus of the moving body obtained by the moving body identifying means is directly displayed on a display panel or the like. Has been done.

【0003】[0003]

【発明が解決しようとする課題】上記従来技術は移動体
の同定を容易にすることを目的としたもので、移動体の
移動軌跡をそのまま表示盤等に表示しているに過ぎず、
監視員等の移動物体の異常行動に対する視認性を考慮し
ていないという問題があった。
The above-mentioned prior art aims to facilitate the identification of the moving body, and merely displays the moving locus of the moving body as it is on the display panel or the like.
There is a problem in that the visibility of a moving object such as an observer for abnormal behavior is not taken into consideration.

【0004】本発明は上述のような点に鑑みてなされた
もので、その目的は、監視領域全体の物体の行動状態を
監視員等が容易に視認し得る監視装置を提供することに
ある。
The present invention has been made in view of the above points, and it is an object of the present invention to provide a monitoring device in which an observer or the like can easily visually recognize the action state of an object in the entire monitoring area.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め、本発明では、複数の画像入力手段により取り込まれ
た画像に対して画像処理手段で各種画像処理を行い、前
記画像処理手段の出力データを統合し、広範囲な監視領
域の前時刻と現時刻との間で物体の対応付けを行い、前
記対応付け結果に基づいて物体の行動状態を決定し、決
定された物体の行動状態に基づいて監視領域全体地図
(平面図)上に物体の行動状態を表示するようにしたも
のである。
In order to achieve the above object, in the present invention, various image processing is performed by an image processing means on an image captured by a plurality of image input means, and the output of the image processing means is performed. The data is integrated, the objects are associated with each other between the previous time and the current time in a wide range of monitoring areas, the action state of the object is determined based on the association result, and the action state of the determined object is determined. The behavior state of the object is displayed on the entire monitoring area map (plan view).

【0006】さらにまた本発明では、無線により読み取
った対象物体の識別番号と当該対象物体の位置情報から
なる無線手段の出力データを統合して物体の行動状態を
決定し、決定された物体の行動状態に基づいて監視領域
全体地図(平面図)上に物体の行動状態を表示するとと
もに、画像入力手段を用いて対象物体の行動異常を確認
するようにしたものである。
Further, according to the present invention, the action state of the object is determined by integrating the output data of the wireless means, which includes the identification number of the target object read by radio and the position information of the target object, and the action of the determined object. Based on the state, the action state of the object is displayed on the entire monitor area map (plan view), and the action abnormality of the target object is confirmed using the image input means.

【0007】さらに本発明では、前記複数の画像入力手
段により取り込まれた画像に対して画像処理手段で各種
画像処理を行い、前記画像処理手段の出力データを統合
し、広範囲な監視領域の前時刻と現時刻との間で物体の
対応付けを行い、当該対応付け結果と無線により読み取
った対象物体の識別番号と当該対象物体の位置情報から
なる無線手段の出力データを統合して物体の行動状態を
決定し、決定された物体の行動状態に基づいて監視領域
全体地図(平面図)上に物体の行動状態を表示するよう
にしたものである。
Further, in the present invention, the image processing means performs various kinds of image processing on the images captured by the plurality of image input means, integrates the output data of the image processing means, and collects the previous time in a wide range of monitoring areas. And the current time are associated with each other, and the output data of the wireless means, which includes the association result, the identification number of the target object read by wireless, and the position information of the target object, is integrated and the action state of the object is integrated. Is determined and the action state of the object is displayed on the entire monitoring area map (plan view) based on the determined action state of the object.

【0008】[0008]

【作用】本発明に係る移動物体監視装置によれば、複数
の画像入力手段により広範囲の監視領域が撮像され、画
像処理手段で処理され、その処理結果の出力データが統
合され、広範囲な監視領域の前時刻と現時刻との間で物
体の対応付けがなされ、この対応付け結果に基づいて物
体の行動状態が決定され、この決定された物体の行動状
態に基づいて監視領域全体地図(平面図)上に物体の行
動状態が表示されるので、監視領域全体の物体の行動状
態を監視員等が容易に視認できる。
According to the moving object monitoring apparatus of the present invention, a wide range of monitoring areas are imaged by a plurality of image input means, processed by the image processing means, and the output data of the processing results are integrated to provide a wide range of monitoring areas. The objects are associated with each other between the previous time and the current time, the action state of the object is determined based on the association result, and the entire monitoring area map (plan view) is determined based on the determined action state of the object. ) Since the action state of the object is displayed above, the action state of the object in the entire monitoring area can be easily visually recognized by the observer or the like.

【0009】また、本発明に係る移動物体監視装置によ
れば、複数の無線手段により広範囲の監視領域が監視さ
れ、無線により読み取られた対象物体の識別番号とその
対象物体の位置情報からなる無線手段の出力データを統
合して物体の行動状態を決定し、決定された物体の行動
状態に基づいて監視領域全体地図(平面図)上に物体の
行動状態が表示されるので、監視領域全体の物体の行動
状態を監視員等が容易に視認できる。
Further, according to the moving object monitoring apparatus of the present invention, a wide range of monitoring areas are monitored by a plurality of wireless means, and the wireless is composed of the identification number of the target object read by wireless and the position information of the target object. The output state of the means is integrated to determine the action state of the object, and the action state of the object is displayed on the monitor area entire map (plan view) based on the determined action state of the object. An observer or the like can easily visually recognize the action state of the object.

【0010】さらにまた、本発明に係る移動物体監視装
置によれば、複数の画像入力手段により取り込まれた画
像に対して画像処理手段で各種画像処理が行われ、画像
処理手段の出力データを統合し、広範囲な監視領域の前
時刻と現時刻との間で物体の対応付けがなされ、その対
応付け結果と無線により読み取った対象物体の識別番号
と対象物体の位置情報からなる無線手段の出力データを
統合して物体の行動状態を決定し、決定された物体の行
動状態に基づいて監視領域全体地図(平面図)上に物体
の行動状態が表示されるので、監視領域全体の物体の行
動状態を監視員等が容易に視認できる。
Furthermore, according to the moving object monitoring apparatus of the present invention, various image processing is performed by the image processing means on the images captured by the plurality of image input means, and the output data of the image processing means are integrated. However, the output data of the wireless means, in which the objects are associated with each other between the previous time and the current time in a wide range of monitoring areas, and the result of the association, the identification number of the target object read by radio, and the position information of the target object The behavioral state of the object is determined by integrating the above, and the behavioral state of the object is displayed on the entire monitoring area map (plan view) based on the determined behavioral state of the object. Can be easily viewed by the observer.

【0011】[0011]

【実施例】以下、本発明の一実施例を図1を用いて説明
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIG.

【0012】建物の屋内、あるいは屋外を複数のカメラ
10a−10cを用いて撮像し、ドア1や対象物体であ
る人間2等の移動物体を含む監視対象を画像処理装置1
1a−11cへ入力する。画像処理装置11a−11c
は入力した画像中の対象物体2の特徴量(例えば面積,
濃度平均値,濃度分散値,外接長方形の縦,横の長さ,
フィレ径,重心等)を求め、インタフェース部13を介
して統合プロセッサ12へ入力する。統合プロセッサ1
2はCPU14を用いて前時刻の対象物体と現時刻の対
象物体との間で対応付けを行い、メモリ15に作成済み
の監視領域の平面図(全体地図)上に対象物体2の動き
の状態をプロットし、その結果を表示装置16に表示す
る。また、対象物体2の動きから動きの特異性を検知し
た場合はその対象物体の現在位置とその位置を撮像して
いるカメラ番号を対応する画面上に点滅表示するととも
に警報器17を介して監視員にアラームを発する。監視
員は表示画面を見て異常発生個所を確認し、必要に応じ
て操作パッド18から画面上に表示されたカメラ番号に
対応するカメラを指定し、カメラの首振り,ズームアッ
プ等を行い、モニタ20を介してカメラの映像をみるこ
とができる。これは操作パッド18から統合プロセッサ
12を通してカメラ制御信号がカメラ制御装置19に与
えられ、カメラ制御装置19はカメラ制御信号に応じて
カメラの選択,首振り,ズームアップ等カメラを制御
し、カメラの映像信号をモニタ20に送り表示すること
により達成される。
The indoor or outdoor of the building is imaged by using a plurality of cameras 10a-10c, and a monitoring target including a moving object such as a door 1 and a human 2 as a target object is monitored by the image processing apparatus 1.
Input to 1a-11c. Image processing devices 11a-11c
Is a feature amount (for example, area,
Density average value, density variance value, vertical and horizontal length of circumscribed rectangle,
The fillet diameter, the center of gravity, etc.) are obtained and input to the integrated processor 12 via the interface unit 13. Integrated processor 1
The CPU 2 uses the CPU 14 to associate the target object at the previous time with the target object at the current time, and the movement state of the target object 2 on the plan view (overall map) of the monitoring area created in the memory 15. Is plotted and the result is displayed on the display device 16. When the peculiarity of the movement is detected from the movement of the target object 2, the current position of the target object and the camera number capturing the position are displayed on the corresponding screen in a blinking manner and monitored via the alarm device 17. Give an alarm to staff. The observer looks at the display screen to confirm the location of the abnormality, and if necessary, designates the camera corresponding to the camera number displayed on the screen from the operation pad 18, swings the camera, zooms in, etc. The image of the camera can be seen through the monitor 20. This is because a camera control signal is given from the operation pad 18 to the camera control device 19 through the integrated processor 12, and the camera control device 19 controls the camera such as selecting a camera, oscillating, and zooming up according to the camera control signal. This is achieved by sending the video signal to the monitor 20 for display.

【0013】別のシステム構成例を図11に示す。監視
対象となる建物の屋内、あるいは屋外を複数のカメラ1
0a−10cを用いて撮像し、ドア1や対象物体である
人間2等の移動物体をカメラ切り替え器21を介して統
合プロセッサ12′の画像処理部22へ入力する。画像
処理部22は図1に示す構成例の画像処理装置11a−
11cに対応する。画像処理部22は入力した画像中の
対象物体2の特徴量(面積,濃度平均値,濃度分散値,
外接長方形の縦,横の長さ,フィレ径,重心等)を求
め、CPU14へ入力する。CPU14は前時刻の対象
物体と現時刻の対象物体との間で対応付けを行い、メモ
リ15に作成済みの監視領域の平面図(全体地図)上に
対象物体2の動きの状態をプロットし、その結果を表示
装置16に表示する。また、対象物体2の動きから行動
の特異性を検知した場合はその対象物体の現在位置とそ
の位置を撮像しているカメラ番号を画面上に点滅表示す
るとともに警報器17を介して監視員にアラームを発す
る。監視員はその表示画面を見て異常発生個所を確認
し、必要に応じて操作パッド18から画面上に表示され
たカメラ番号に対応するカメラを指定し、カメラの首振
り,ズームアップ等を行い、モニタ20を介してカメラ
の映像をみることができる。これは操作パッド18から
統合プロセッサ12′を通してカメラ制御信号がカメラ
制御装置19に与えられ、カメラ制御装置19はカメラ
制御信号に応じてカメラの選択,首振り,ズームアップ
等カメラを制御し、カメラの映像信号をモニタ20に送
り表示することにより達成される。
FIG. 11 shows another system configuration example. Multiple cameras inside or outside the building to be monitored 1
0a-10c is used to capture an image, and a moving object such as the door 1 or a human being 2 as a target object is input to the image processing unit 22 of the integrated processor 12 'via the camera switch 21. The image processing unit 22 is the image processing apparatus 11a- of the configuration example shown in FIG.
It corresponds to 11c. The image processing unit 22 determines the feature amount of the target object 2 in the input image (area, density average value, density variance value,
The length and width of the circumscribing rectangle, the fillet diameter, the center of gravity, etc.) are calculated and input to the CPU 14. The CPU 14 associates the target object at the previous time with the target object at the current time, and plots the movement state of the target object 2 on the plan view (overall map) of the monitoring area created in the memory 15, The result is displayed on the display device 16. In addition, when the peculiarity of the action is detected from the movement of the target object 2, the current position of the target object and the camera number capturing the position are displayed blinking on the screen, and the alarm is sent to the surveillance staff. Raise an alarm. The observer confirms the location of the abnormality by looking at the display screen and, if necessary, designates the camera corresponding to the camera number displayed on the screen from the operation pad 18, swings the camera, zooms in, etc. The video of the camera can be viewed via the monitor 20. This is because a camera control signal is given to the camera control device 19 from the operation pad 18 through the integrated processor 12 ', and the camera control device 19 controls the camera such as selecting a camera, oscillating and zooming in accordance with the camera control signal. This is achieved by sending the video signal of the above to the monitor 20 and displaying it.

【0014】以下、本発明の中心部分である広範囲な監
視領域の移動物体の行動状態及び監視領域の異常状態を
ディスプレイ上に表示する処理について図2−図10を
用いて説明する。
The process of displaying the behavioral state of a moving object in a wide monitoring area and the abnormal state of the monitoring area on the display, which is the central part of the present invention, will be described below with reference to FIGS.

【0015】まず、図2において、入力画像取り込み1
10は、画像処理装置11a−11cにおいて、カメラ1
0a−10cから取り込んだ画像を画像処理装置11a
−11c内の画像メモリに格納する。差分画像抽出12
0は、あらかじめ画像メモリに記憶してある背景画像と
上記入力画像との差分画像s(t)を求める。2値化処理
130は上記差分処理s(t)を所定のしきい値で2値化
し、2値画像b(t)を作成する。その後、ラベリング1
40により各物体に番号付けをし、特徴量計算150で
各物体毎の特徴量(面積,濃度平均値,濃度分散値,外
接長方形の縦,横の長さ,フィレ径,重心等)を求め
る。特徴量転送160は、特徴量計算150で求めた各
物体毎の特徴量を統合プロセッサ12へ転送する。入力
画像取り込み110から特徴量転送160までは画像処
理装置11a−11cで処理される。ただし、図11に
示す構成例の場合はこの部分の処理も統合プロセッサ1
2′で処理される。次に、対応付け170は複数の画像
処理装置11a−11cで求められた特徴量を用いて前回
の入力画像内の物体との対応付けを行う。対応付けの方
法としては、テンプレートマッチング,相関法,特徴追
跡法等種々の方法が報告されているが、ここでは簡単に
特徴追跡法の一つとして物体間の重心間距離,面積,移
動方向が近いもの同士を対応付けている。物体の行動状
態表示180は対応付けにより各物体の移動量,移動方
向等を全体地図上にプロットし、CRT等の表示装置2
0に表示する。対応付け170,物体の行動状態の表示
180の具体例を図3−図10に示す。
First, referring to FIG. 2, input image acquisition 1
Reference numeral 10 denotes a camera 1 in the image processing apparatuses 11a-11c.
0a-10c to the image processing device 11a
Store in the image memory within -11c. Difference image extraction 12
0 determines the difference image s (t) between the background image previously stored in the image memory and the input image. The binarization process 130 binarizes the difference process s (t) with a predetermined threshold value to create a binary image b (t). After that, labeling 1
Each object is numbered by 40, and the feature quantity (area, density average value, density variance value, vertical and horizontal lengths of circumscribed rectangle, fillet diameter, center of gravity, etc.) of each object is calculated by feature quantity calculation 150. . The feature amount transfer 160 transfers the feature amount of each object obtained by the feature amount calculation 150 to the integrated processor 12. The processes from the input image capturing 110 to the feature amount transfer 160 are processed by the image processing devices 11a-11c. However, in the case of the configuration example shown in FIG.
2'is processed. Next, the association 170 associates with the object in the previous input image using the feature amounts obtained by the plurality of image processing devices 11a-11c. Various methods such as template matching, correlation method, and feature tracking method have been reported as the matching method. Here, as one of the feature tracking methods, the distance between the centers of gravity of the objects, the area, and the moving direction can be simply described. The close ones are associated with each other. The action state display 180 of the object plots the movement amount, the movement direction, etc. of each object on the entire map by associating with each other, and displays them on the display device 2 such as a CRT.
Display at 0. Specific examples of the association 170 and the display 180 of the action state of the object are shown in FIGS.

【0016】図3は屋内の物体の行動監視の例を示して
おり、複数のカメラ10が建物の天井に設置され、移動
物体2が歩き回っている状態を表している。
FIG. 3 shows an example of behavior monitoring of an indoor object, in which a plurality of cameras 10 are installed on the ceiling of a building, and a moving object 2 is walking around.

【0017】図4は図3に示す建物の平面図(全体地
図)とカメラ10a−10pそれぞれの監視領域を実線
と破線で区切って示している。
FIG. 4 shows a plan view (overall map) of the building shown in FIG. 3 and the monitoring areas of the cameras 10a-10p separated by a solid line and a broken line.

【0018】図5に図3の例に対する時刻tにおける移
動物体2の行動状態の全体地図を示す。●30は移動物
体2の現在位置を、矢印31は移動物体2の移動方向を
示す。
FIG. 5 shows an overall map of the action state of the moving object 2 at time t for the example of FIG. ● 30 indicates the current position of the moving object 2 and arrow 31 indicates the moving direction of the moving object 2.

【0019】図6において○32a,32bはそれぞれ
物体a,物体bの時刻t−1の位置を、●32a′,3
2b′はそれぞれ物体a,物体bの時刻tの位置を表し
ている。これは全体地図上で上述のように各物体の特徴
量に基づいて対応付けを行った結果、○32aが●32
a′に、○32bが●32b′に対応付けられたことを
示す。物体bの場合は同一のカメラ10kの視野内にあ
るので複数カメラの情報の統合のメリットは無いが、物
体aの場合は前時刻t−1と現時刻tでは異なるカメラ
10iと10dにまたがっているので本発明のように複
数カメラの情報を統合する必要がある。また、図に示す
ように物体a,bが存在する領域のカメラ位置及びカメ
ラ番号を表示することにより、監視員はこれを参照し
て、必要に応じてカメラを操作できる。
In FIG. 6, .largecircle.32a and 32b indicate the positions of the object a and the object b at time t-1, and 32a 'and 3 respectively.
2b 'represents the positions of the object a and the object b at time t. This is the result of associating on the whole map based on the feature amount of each object as described above.
The symbol a 32 b ′ is associated with the symbol 32 b ′ in a ′. In the case of the object b, there is no merit of unifying the information of a plurality of cameras because it is within the field of view of the same camera 10k, but in the case of the object a, the cameras 10i and 10d are different from each other at the previous time t-1 and the current time t. Therefore, it is necessary to integrate information from a plurality of cameras as in the present invention. Further, as shown in the figure, by displaying the camera position and the camera number in the area where the objects a and b are present, the surveillance staff can refer to this and operate the camera as necessary.

【0020】行動状態の表示例を図7に示す。この例で
は物体aと物体bの移動軌跡をそれぞれ点線と実線で表
しているように、物体の移動軌跡を物体毎に線種あるい
は色を変えて表示する。こうすることにより物体がすれ
ちがったり、分岐した場合にも動きが分かりやすい。円
33a,33bはそれぞれ物体a,物体bの円の表示位
置における停止時間または滞留時間をその円の大きさ
(直径の大きさ)で表している。ここで、停止時間は放
置された荷物のように完全に停止している時間で、滞留
時間は人間等の移動物体がほぼ同じ場所にいる時間であ
る。この停止時間または滞留時間を表す図形は円だけで
なく、□,△,×等でも良い。、また、図形の大きさは
同一でも、図形の色を例えば、薄い赤から濃い赤という
ように、色の明度,彩度,色相を停止時間または滞留時
間に比例させた値に変えて表すこともできる。このため
に統合プロセッサ12のメモリ15にあらかじめ、停止
時間または滞留時間と図形の大きさの変換式のパラメー
タ、あるいは停止時間または滞留時間と色の明度,彩
度,色相との対応表を用意しておく。オンラインではそ
のパラメータまたは対応表を参照して停止時間または滞
留時間に対応した大きさ,色で表示をする。ガイコツ3
4は危険区域,立ち入り禁止区域,重要区域等を表し、
監視員が視認し易いようにしている。
FIG. 7 shows a display example of the action state. In this example, as the moving loci of the object a and the object b are respectively indicated by a dotted line and a solid line, the moving locus of the object is displayed with different line types or colors for each object. This makes it easier to see the movement even if the object slips or branches. Circles 33a and 33b represent stop time or residence time at the display positions of the circles of the object a and the object b, respectively, by the size of the circle (diameter size). Here, the stop time is a time when the vehicle is completely stopped like an abandoned baggage, and the staying time is a time when a moving object such as a person is at substantially the same place. The figure representing this stop time or residence time is not limited to a circle, and may be □, Δ, × or the like. Also, even if the size of the figure is the same, change the color of the figure to a value proportional to the stop time or dwell time, for example, from light red to dark red. You can also For this purpose, the memory 15 of the integrated processor 12 is prepared in advance with a parameter of a conversion formula of the stop time or stay time and the size of the figure, or a correspondence table of the stop time or stay time and the lightness, saturation, and hue of the color. Keep it. Online, the size or color corresponding to the stop time or dwell time is displayed with reference to the parameter or correspondence table. Skeleton 3
4 indicates a dangerous area, a restricted area, an important area, etc.,
It is made easy for the observer to see.

【0021】以上述べた方法により、物体の行動状態を
表示した後、行動の特異性を判定し、異常状態の有無判
定190を行う。そして、異常状態である場合には、行
動の異常状態の表示及び報知200はその旨を監視員等
に報知するとともに、異常を検知したカメラの映像をモ
ニタ20に表示する。そして処理を一時停止する。監視
員は適当な処置が終了すると再度、処理の開始を指示す
ることにより、本装置は上記と同様の処理を繰り返す。
一方、異常状態で無い場合には最初の処理に戻り、新た
に画像を入力し、上記と同様の処理を繰り返す。行動の
異常状態の有無判定、表示及び報知の例を図8−図10
に示す。
After the action state of the object is displayed by the method described above, the peculiarity of the action is determined, and the presence / absence determination 190 of the abnormal state is performed. Then, in the case of an abnormal state, the display and notification 200 of the abnormal state of the behavior notifies the monitoring staff or the like of that fact, and the image of the camera in which the abnormality is detected is displayed on the monitor 20. Then, the process is suspended. The supervisor repeats the processing similar to the above by instructing the start of the processing again when the appropriate treatment is completed.
On the other hand, if it is not in an abnormal state, the process returns to the first process, a new image is input, and the same process as above is repeated. Examples of determination of presence / absence of abnormal behavior, display and notification are shown in FIGS.
Shown in.

【0022】図8の×印35は物体cと物体dが当該地
点で争っていることを示している。これは物体cと物体
dが当該地点で出会ったこと、物体cと物体dの外接長
方形の縦、あるいは横の大きさの単位時間あたりの変化
率が大きく、両物体の重心位置がある時間ほとんど変化
しないことをチェックすることで判断できる。本装置は
上記争いを検知すると、争いの発生地点に×印を点滅さ
せることにより監視員に警報を発するとともに、モニタ
20に物体c,dが映っているカメラ10jの映像を表
示する。監視員はカメラ番号10jを参照して操作パッ
ド18を用いてカメラを操作することにより、より詳細
に監視することができる。
The X mark 35 in FIG. 8 indicates that the object c and the object d are competing at the point. This is because the object c and the object d met at that point, the change rate of the vertical or horizontal size of the circumscribing rectangle of the object c and the object d per unit time is large, and the barycentric position of both objects is almost the same time. It can be judged by checking that it does not change. When this device detects the dispute, it flashes an X mark at the spot where the dispute occurred to give an alarm to the surveillance staff and displays the image of the camera 10j showing the objects c and d on the monitor 20. The surveillance staff can perform more detailed surveillance by operating the camera using the operation pad 18 with reference to the camera number 10j.

【0023】図9はある物体f′37′が物体e36及
びf37から離れて別の方向へ移動している場合を示し
ている。この場合、物体eが主導物体、物体f,f′が
従導物体とすると、物体f′は危険区域の方へ行こうと
する特異な動きをしていることが分かるので本装置は監
視員に対して警報を発するとともに、モニタ20に特異
行動物体f′が映っているカメラ10kの映像を表示す
る。監視員はカメラ番号10kを参照して操作パッド1
8を用いてカメラを操作することにより、より詳細に監
視することができる。ここで、従導物体f,f′は主導
物体eに関係しているという主従関連表は、あらかじめ
与えられ、見学案内等の場合は、本建物の受付で端末2
5から入力され、メモリ15に登録されている。本装置
は当該関連表を用いて、従導物体f′37′が主導物体
e36から離れていっていることをチェックできる。ま
た、危険区域等の位置情報もあらかじめメモリ15に危
険・重要区域表として登録されており、本装置は、物体
の位置情報と当該危険・重要区域表の位置情報及び前述
の主従関連表を用いて、従導物体f′37′の危険・重
要区域への接近を検知し、上述のように物体の特異な動
きをチェックできる。なお、表示の方法として、図9に
おいて三角形で表している物体f,f′は個々の物体で
なく物体群を表すとすることも可能である。また、主導
物体と従導物体あるいは特定のあらかじめ登録されてい
る物体と非特定物体を△と○というように異なった図形
で、あるいは同一図形でも色を変えて表示することによ
り監視員が監視しやすくなる。
FIG. 9 shows a case where an object f'37 'is moving away from the objects e36 and f37 in a different direction. In this case, if the object e is the main object and the objects f and f'are the follower objects, it can be seen that the object f'has a peculiar motion of going to the dangerous area. To the monitor 20 and the image of the camera 10k showing the peculiar behavior object f'is displayed on the monitor 20. The monitoring staff refers to the camera number 10k and operates the operation pad 1
By operating the camera using the 8, it is possible to monitor in more detail. Here, the master-slave relationship table that the follower objects f and f'are related to the lead object e is given in advance, and in the case of a tour guide, etc., the terminal 2 is accepted at the reception of the main building.
5 is input and registered in the memory 15. The apparatus can check that the follower object f'37 'is separated from the lead object e36 by using the relation table. Further, the position information of the dangerous area or the like is also registered in advance in the memory 15 as the dangerous / important area table, and this device uses the position information of the object, the position information of the dangerous / important area table, and the above-mentioned master-slave relation table. Thus, the approach of the guided object f′37 ′ to the dangerous / important area can be detected, and the peculiar movement of the object can be checked as described above. As a display method, the objects f and f'represented by triangles in FIG. 9 may be represented as an object group instead of as individual objects. In addition, the main body and the subsidiary body or the specific pre-registered body and the non-specific body are displayed by different figures such as △ and ○, or even the same figure is displayed in different colors for monitoring by the monitor. It will be easier.

【0024】図10は物体gと物体38が分離し、物体
38が長時間同じ場所に停止している場合を示してい
る。この停止時間があらかじめ設定した時間よりも長く
なった場合、本装置は物体38を放置物と判断して放置
物を示す図形38を点滅させることにより、監視員に対
して警報を発するとともに、モニタ20に放置物38が
映っているカメラ10jの映像を表示する。監視員はカ
メラ番号10jを参照して操作パッド18を用いてカメ
ラを操作することにより、より詳細に監視することがで
きる。
FIG. 10 shows a case where the object g and the object 38 are separated and the object 38 remains at the same place for a long time. When the stop time becomes longer than a preset time, the present apparatus judges that the object 38 is an abandoned object and blinks the graphic 38 indicating the abandoned object, thereby issuing an alarm to the monitor and monitoring the object. The image of the camera 10j in which the abandoned object 38 is reflected on 20 is displayed. The surveillance staff can perform more detailed surveillance by operating the camera using the operation pad 18 with reference to the camera number 10j.

【0025】別のシステム構成例を図12に示す。監視
対象となる建物の屋内、あるいは屋外を一台または複数
のカメラ10a−10cを用いてドア1や対象物体であ
る人間2等の移動物体を撮像するとともに、監視対象物
体である人間2等の移動物体に付けた名札やID(Iden
tification)カード等に内蔵されたトランスポンダ3か
らのID番号をドア1や壁内に設置されたアンテナ4a
−4cを介して無線装置23a−23cで受信し、イン
タフェース部24を介して統合プロセッサ12″へ入力す
る。統合プロセッサ12″はCPU14を用いて、メモ
リ15に作成済みの監視領域の平面図(全体地図)上に
対象物体2の前時刻の位置から現時刻の位置への動きの
状態をプロットし、その結果を表示装置16に表示す
る。また、対象物体2の動きから特異行動物体を検知し
た場合はその物体の現在位置及びその位置を撮像してい
るカメラ番号を画面上に点滅表示するとともに警報器1
7を介して監視員にアラームを発する。監視員は表示画
面を見て異常発生個所を確認し、必要に応じて操作パッ
ド18から画面上に表示されたカメラ番号に対応するカ
メラを指定し、カメラの首振り,ズームアップ等を行
い、モニタ20を介してそのカメラの映像をみることが
できる。これは操作パッド18から統合プロセッサ1
2″を通してカメラ制御信号がカメラ制御装置19に与
えられ、カメラ制御装置19はカメラ制御信号に応じて
カメラの選択,首振り,ズームアップ等カメラを制御
し、カメラの映像信号をモニタ20に送り表示すること
により達成される。
FIG. 12 shows another system configuration example. While indoors or outdoors of the building to be monitored, one or a plurality of cameras 10a-10c are used to image moving objects such as the door 1 and the human 2 as the target object, and the human 2 as the monitoring target A name tag or ID (Iden
tification) The ID number from the transponder 3 built in the card etc. is used as the antenna 4a installed in the door 1 or the wall.
-4c to be received by the wireless devices 23a-23c and input to the integrated processor 12 ″ via the interface unit 24. The integrated processor 12 ″ uses the CPU 14 to plan the monitoring area created in the memory 15 ( The state of movement of the target object 2 from the position at the previous time to the position at the current time is plotted on the entire map), and the result is displayed on the display device 16. When a peculiar behavior object is detected from the movement of the target object 2, the current position of the object and the camera number capturing the position are blinked on the screen and the alarm device 1 is displayed.
An alarm is issued to the observer via 7. The observer looks at the display screen to confirm the location of the abnormality, and if necessary, designates the camera corresponding to the camera number displayed on the screen from the operation pad 18, swings the camera, zooms in, etc. The image of the camera can be viewed through the monitor 20. This is from the operation pad 18 to the integrated processor 1
A camera control signal is given to the camera control device 19 through 2 ″, and the camera control device 19 controls the camera such as selecting a camera, oscillating, and zooming up according to the camera control signal, and sends the video signal of the camera to the monitor 20. It is achieved by displaying.

【0026】図13は無線装置とカメラを併用した屋内
の物体の行動監視の例を示しており、複数のアンテナ4
及びカメラ10が建物の天井に設置され、人物2が歩き
回っている状態を表している。
FIG. 13 shows an example of behavior monitoring of an indoor object using both a wireless device and a camera.
Also, the camera 10 is installed on the ceiling of the building, and the person 2 is walking around.

【0027】図14は図13に示す建物の平面図(全体
図)とカメラ10a′−10k′とアンテナ4a−4I
それぞれの監視領域を実線,破線等で区切って示してい
る。次に図12に示すシステムにおける広範囲な監視領
域の物体の行動状態及び監視領域の異常状態をディスプ
レイ上に表示する処理について図15を用いて説明す
る。
FIG. 14 is a plan view (overall view) of the building shown in FIG. 13, a camera 10a'-10k 'and an antenna 4a-4I.
Each monitoring area is shown separated by a solid line, a broken line, etc. Next, processing for displaying the behavioral state of an object in a wide range of monitoring area and the abnormal state of the monitoring area in the system shown in FIG. 12 will be described with reference to FIG.

【0028】まず、識別番号読み取り210は無線装置
23a−23cでアンテナ4a−4cを介してトランス
ポンダ3から物体の識別番号を読み取る。識別番号転送
220は物体の識別番号とその識別番号を読み取った無
線装置23a−23c自身のID番号をインタフェース
部24を介して統合プロセッサ12″へ入力する。物体
の行動状態表示230は上記物体の識別番号と無線装置
23a−23cID番号を基にメモリ15に作成済みの監
視領域の平面図(全体地図)上に対象物体2の前時刻の
位置から現時刻の位置への動きの状態をプロットし、そ
の結果を表示装置16に表示する。行動状態の表示例は
上述の図6,図7,図9と同じである。
First, the identification number reading 210 reads the identification number of the object from the transponder 3 via the antennas 4a-4c by the wireless devices 23a-23c. The identification number transfer 220 inputs the identification number of the object and the ID number of the wireless device 23a-23c itself that has read the identification number to the integrated processor 12 ″ via the interface unit 24. Based on the identification number and the wireless devices 23a-23c ID number, the state of movement of the target object 2 from the position at the previous time to the position at the current time is plotted on the plan view (overall map) of the monitoring area created in the memory 15. The result is displayed on the display device 16. The display example of the action state is the same as that in FIGS.

【0029】以上述べた方法により、物体の行動状態を
表示した後、行動の異常状態の有無判定240を行う。
そして、異常状態がある場合には、行動の異常状態の表
示及び報知250はその旨を監視員等に報知するととも
に、異常を検知したカメラの映像をモニタ20に表示す
る。そして処理を一時停止する。監視員は適当な処置が
終了すると再度、処理の開始を指示することにより、本
装置は上記と同様の処理を繰り返す。一方、異常状態が
無い場合には最初の処理に戻り、新たに識別番号を読み
取り、上記と同様の処理を繰り返す。行動の異常状態の
有無判定,表示及び報知の例は上述の図9と同じであ
る。
After the action state of the object is displayed by the method described above, the presence / absence determination 240 of the action abnormal state is performed.
Then, when there is an abnormal state, the display and notification 250 of the abnormal state of the behavior notifies the monitoring staff or the like of that fact, and displays the image of the camera in which the abnormality is detected on the monitor 20. Then, the process is suspended. The supervisor repeats the processing similar to the above by instructing the start of the processing again when the appropriate treatment is completed. On the other hand, if there is no abnormal state, the process returns to the first process, the identification number is newly read, and the same process as above is repeated. An example of the presence / absence determination, display, and notification of the abnormal behavior state is the same as that in FIG. 9 described above.

【0030】また、カメラ操作に関しては図1,図11
及び図12において、操作パッド18を削除して、表示
装置16の画面上のアイコンとマウスを用いてカメラの
選択,首振り,ズーム等を行うこともできる。
Regarding the camera operation, FIGS.
Also, in FIG. 12, the operation pad 18 can be deleted and the selection of the camera, swinging, zooming, etc. can be performed using the icon on the screen of the display device 16 and the mouse.

【0031】別のシステム構成例を図16に示す。建物
の屋内、あるいは屋外を複数のカメラ10a−10cを
用いて撮像し、ドア1や対象物体である人間2等の移動
物体を含む監視対象をカメラ・画像処理装置26a−2
6cの画像処理部27a−27cへ入力する。画像処理
部27a−27cは入力した画像中の対象物体2の特徴
量(例えば面積,濃度平均値,濃度分散値,外接長方形
の縦,横の長さ,フィレ径,重心等)を求め、インタフ
ェース部13を介して統合プロセッサ12へ入力する。
統合プロセッサ12はCPU14を用いて前時刻の対象
物体と現時刻の対象物体との間で対応付けを行い、メモ
リ15に作成済みの監視領域の平面図(全体地図)上に
対象物体2の動きの状態をプロットし、その結果を表示
装置16に表示する。また、対象物体2の動きから動き
の特異性を検知した場合はその対象物体の現在位置とそ
の位置を撮像しているカメラ番号を対応する画面上に点
滅表示するとともに警報器17を介して監視員にアラー
ムを発する。監視員は当該表示画面を見て異常発生個所
を確認し、必要に応じて操作パッド18から画面上に表
示されたカメラ番号に対応するカメラを指定し、カメラ
の首振り,ズームアップ等を行い、モニタ20を介して
カメラの映像をみることができる。これは操作パッド1
8から統合プロセッサ12,カメラ切り替え器29を通
してカメラ制御信号がカメラ制御部28a−28cに与
えられ、カメラ切り替え器29は当該カメラ制御信号に
応じて当該カメラを選択し、カメラ制御部28a−28
cは首振り,ズームアップ等カメラを制御して、当該カ
メラの映像信号をモニタ20に送り表示することにより
達成される。このような構成により、画像処理結果に基
づいたカメラの制御が簡単にできる。
FIG. 16 shows another system configuration example. The indoor / outdoor of the building is imaged by using the plurality of cameras 10a-10c, and the monitoring target including the moving object such as the door 1 and the human 2 as the target object is monitored by the camera / image processing device 26a-2.
6c to the image processing units 27a-27c. The image processing units 27a-27c obtain the feature amount (for example, area, density average value, density dispersion value, vertical and horizontal lengths of circumscribed rectangle, fillet diameter, center of gravity, etc.) of the target object 2 in the input image, and interface Input to the integrated processor 12 via the unit 13.
The integrated processor 12 uses the CPU 14 to associate the target object at the previous time with the target object at the current time, and moves the target object 2 on the plan view (overall map) of the monitoring area created in the memory 15. Is plotted and the result is displayed on the display device 16. When the peculiarity of the movement is detected from the movement of the target object 2, the current position of the target object and the camera number capturing the position are displayed on the corresponding screen in a blinking manner and monitored via the alarm device 17. Give an alarm to staff. The observer looks at the display screen to confirm the location of the abnormality, and if necessary, designates the camera corresponding to the camera number displayed on the screen from the operation pad 18, swings the camera, zooms in, etc. The video of the camera can be viewed via the monitor 20. This is the operation pad 1
A camera control signal is given from 8 to the camera control unit 28a-28c through the integrated processor 12 and the camera switching unit 29, and the camera switching unit 29 selects the camera according to the camera control signal, and the camera control unit 28a-28.
c is achieved by controlling the camera such as swinging and zooming up and sending the video signal of the camera to the monitor 20 for display. With such a configuration, it is possible to easily control the camera based on the image processing result.

【0032】以下、本発明の中心部分である広範囲な監
視領域の移動物体の行動状態及び監視領域の異常状態を
ディスプレイ上に表示する処理のたの方法を図17に示
す。本方法は図1の画像処理装置11とCPU14、図
11の画像処理部22とCPU14、図16の画像処理
部27とCPU14との間での機能分担の仕方が前述の
方法と異なる。すなわち、画像処理装置11または画像
処理部22,27で個々の画面内の物体の対応付けを行
い、物体の消失や出現の情報を統合プロセッサ12,1
2′のCPU14へ転送し、CPU14で画面間での統
合処理を行う。図1のシステム構成の場合を例に以下説
明する。
FIG. 17 shows a method of processing for displaying the behavioral state of a moving object in a wide range of monitoring area and the abnormal state of the monitoring area on the display, which is the central part of the present invention. This method is different from the above-described method in the function sharing method between the image processing apparatus 11 and the CPU 14 in FIG. 1, the image processing unit 22 and the CPU 14 in FIG. 11, and the image processing unit 27 and the CPU 14 in FIG. That is, the image processing apparatus 11 or the image processing units 22 and 27 associate the objects in the individual screens, and the information about the disappearance or appearance of the objects is integrated into the integrated processor 12, 1.
2'is transferred to the CPU 14, and the CPU 14 performs the integration processing between the screens. The case of the system configuration of FIG. 1 will be described below as an example.

【0033】図17において、まず、入力画像取り込み
310は、画像処理装置11a−11cにおいて、カメ
ラ10a−10cから取り込んだ画像を画像処理装置11
a−11c内の画像メモリに格納する。差分画像抽出3
20は、あらかじめ画像メモリに記憶してある背景画像
と上記入力画像との差分画像s(t)を求める。2値化
処理330は上記差分処理s(t)を所定のしきい値で
2値化し、2値画像b(t)を作成する。その後、ラベ
リング340により各物体に番号付けをし、特徴量計算
350で各物体毎の特徴量(面積,濃度平均値,濃度分
散値,外接長方形の縦,横の長さ,フィレ径,重心等)
を求める。対応付け360は求められた特徴量を用いて
前回の入力画像内の物体との対応付けを行う。対応付け
の方法としては、テンプレートマッチング,相関法,特
徴追跡法等種々の方法が報告されているが、ここでは簡
単に特徴追跡法の一つとして物体間の重心間距離,面
積,移動方向が近いもの同士を対応付けている。対応付
け結果転送370は、対応付け360で求めた各画面毎
の対応付け結果を統合プロセッサ12へ転送する。入力
画像取り込み310から対応付け結果転送370までは
画像処理装置11a−11cで処理される。ただし、図
11に示す構成例の場合はこの部分の処理も統合プロセ
ッサ12′で処理される。次に、対応付け結果統合38
0は各画像処理装置11a−11cから転送された対応
付け結果を監視領域全体で統合する。そして、物体の行
動状態表示390は対応付けにより求められた各物体の
移動量,移動方向等を全体地図上にプロットし、CRT
等の表示装置20に表示する。物体の行動状態を表示し
た後、行動の特異性を判定し、異常状態の有無判定40
0を行う。そして、異常状態である場合には、行動の異
常状態の表示及び報知410はその旨を監視員等に報知
するとともに、異常を検知したカメラの映像をモニタ2
0に表示する。そして処理を一時停止する。監視員は適
当な処置が終了すると再度、処理の開始を指示すること
により、本装置は上記と同様の処理を繰り返す。一方、
異常状態で無い場合には最初の処理に戻り、新たに画像
を入力し、上記と同様の処理を繰り返す。
In FIG. 17, first, in the input image capturing 310, in the image processing apparatuses 11a-11c, the images captured from the cameras 10a-10c are processed by the image processing apparatus 11.
It is stored in the image memory in a-11c. Difference image extraction 3
20 obtains a difference image s (t) between the background image and the input image stored in advance in the image memory. The binarization process 330 binarizes the difference process s (t) with a predetermined threshold value to create a binary image b (t). After that, each object is numbered by the labeling 340, and the feature quantity calculation unit 350 calculates the feature quantity (area, density average value, density variance value, vertical and horizontal lengths of circumscribed rectangle, fillet diameter, center of gravity, etc.) of each object. )
Ask for. The association 360 associates with the object in the previous input image using the obtained feature amount. Various methods such as template matching, correlation method, and feature tracking method have been reported as the matching methods. Here, as one of the feature tracking methods, the distance between the centers of gravity, the area, and the moving direction between the objects can be simply described. The close ones are associated with each other. The association result transfer 370 transfers the association result for each screen obtained in the association 360 to the integrated processor 12. The processes from the input image capturing 310 to the association result transfer 370 are processed by the image processing devices 11a-11c. However, in the case of the configuration example shown in FIG. 11, the processing of this part is also processed by the integrated processor 12 '. Next, the association result integration 38
0 integrates the association result transferred from each image processing device 11a-11c in the whole monitoring area. Then, the action state display 390 of the object plots the moving amount, the moving direction, etc. of each object obtained by the association on the entire map, and displays the CRT.
Etc. are displayed on the display device 20. After displaying the action state of the object, the peculiarity of the action is determined to determine whether or not there is an abnormal state.
Perform 0. Then, in the case of an abnormal state, the display and notification 410 of the abnormal state of the behavior notifies the monitoring staff or the like of that fact, and the image of the camera that detected the abnormality is displayed on the monitor 2.
Display at 0. Then, the process is suspended. The supervisor repeats the processing similar to the above by instructing the start of the processing again when the appropriate treatment is completed. on the other hand,
If it is not in an abnormal state, the process returns to the first process, a new image is input, and the same process as above is repeated.

【0034】さらに別のシステム構成例としては、図1
と図12を組み合わせて、画像処理部と無線装置を備
え、一般区域はカメラまたはアンテナのどちらかを設置
し、重要区域とその周辺はカメラとアンテナの両方を設
置することにより監視の信頼性を上げることができる。
As another system configuration example, FIG.
12 and FIG. 12 are combined, an image processing unit and a wireless device are provided, and either the camera or the antenna is installed in the general area, and the camera and the antenna are installed in the important area and the surrounding area to improve the reliability of monitoring. Can be raised.

【0035】[0035]

【発明の効果】本発明によれば、広範囲の監視領域全体
の物体の行動状態を一目で確認できるので、駅の構内や
地下街,重要施設等における広範囲な監視領域全体の物
体の行動状態を監視する監視員の負荷を軽減できるとい
う効果がある。
According to the present invention, since the behavioral state of an object in the entire surveillance area in a wide range can be confirmed at a glance, the behavioral state of the object in the entire surveillance area in a station, underground mall, important facility, etc. can be monitored. This has the effect of reducing the load on the monitoring staff.

【0036】また、無線装置を用いた物体の追跡により
個人のプライバシーの侵害が最小限に限定されるという
効果がある。
Further, there is an effect that the invasion of the privacy of the individual is limited to the minimum by tracking the object using the wireless device.

【図面の簡単な説明】[Brief description of drawings]

【図1】移動物体監視装置の構成を示すブロック図であ
る。
FIG. 1 is a block diagram showing a configuration of a moving object monitoring device.

【図2】本発明の一実施例である物体の行動状態及び監
視領域の異常状態表示処理の流れを示すフロー図であ
る。
FIG. 2 is a flowchart showing a flow of processing for displaying an action state of an object and an abnormal state of a monitoring area according to an embodiment of the present invention.

【図3】屋内の行動監視の一例を示す図である。FIG. 3 is a diagram showing an example of indoor behavior monitoring.

【図4】建物の平面図(全体地図)とカメラの監視領域
を示す図である。
FIG. 4 is a plan view (overall map) of a building and a diagram showing a camera monitoring area.

【図5】物体の行動状態の全体地図を示す説明図であ
る。
FIG. 5 is an explanatory diagram showing an overall map of an action state of an object.

【図6】物体の行動状態の表示例を示す説明図である。FIG. 6 is an explanatory diagram showing a display example of an action state of an object.

【図7】物体の行動状態の別の表示例を示す説明図であ
る。
FIG. 7 is an explanatory diagram showing another display example of the action state of an object.

【図8】物体の行動状態の別の表示例を示す説明図であ
る。
FIG. 8 is an explanatory diagram showing another display example of the action state of an object.

【図9】物体の行動状態の別の表示例を示す説明図であ
る。
FIG. 9 is an explanatory diagram showing another display example of the action state of an object.

【図10】物体の行動状態の別の表示例を示す説明図で
ある。
FIG. 10 is an explanatory diagram showing another display example of the action state of an object.

【図11】移動物体監視装置の別の構成を示すブロック
図である。
FIG. 11 is a block diagram showing another configuration of the moving object monitoring device.

【図12】移動物体監視装置の別の構成を示すブロック
図である。
FIG. 12 is a block diagram showing another configuration of the moving object monitoring device.

【図13】屋内の行動監視の別の一例を示す図である。FIG. 13 is a diagram showing another example of indoor behavior monitoring.

【図14】建物の平面図(全体地図)とカメラ及びアン
テナの監視領域を示す図である。
FIG. 14 is a diagram showing a plan view (overall map) of a building and monitoring areas of cameras and antennas.

【図15】本発明の別の一実施例である物体の行動状態
及び監視領域の異常状態表示処理の流れを示すフロー図
である。
FIG. 15 is a flowchart showing the flow of processing of displaying an abnormal state of an action state of an object and a monitoring area, which is another embodiment of the present invention.

【図16】移動物体監視装置の別の構成を示すブロック
図である。
FIG. 16 is a block diagram showing another configuration of the moving object monitoring device.

【図17】本発明の別の一実施例である物体の行動状態
及び監視領域の異常状態表示処理の流れを示すフロー図
である。
FIG. 17 is a flowchart showing the flow of processing for displaying the behavioral state of an object and the abnormal state of the monitoring area, which is another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10…カメラ、11…画像処理装置、12…統合プロセ
ッサ、13…インタフェース部、14…CPU、15…
メモリ、16…表示装置、17…警報器、18…操作パ
ッド、19…カメラ制御装置、20…モニタ、25…端
末。
10 ... Camera, 11 ... Image processing device, 12 ... Integrated processor, 13 ... Interface unit, 14 ... CPU, 15 ...
Memory, 16 ... Display device, 17 ... Alarm device, 18 ... Operation pad, 19 ... Camera control device, 20 ... Monitor, 25 ... Terminal.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小野瀬 健太郎 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Kentaro Onose 5-2-1, Omika-cho, Hitachi-shi, Ibaraki Hitachi Ltd. Omika factory

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】対象の画像を取り込む複数の画像入力手段
と、前記複数の画像入力手段により取り込まれた画像に
対して各種画像処理を行う画像処理手段と、各種データ
処理を行うデータ処理手段を用いて物体を追跡する装置
において、前記画像処理手段の出力データを統合し、広
範囲な監視領域の前時刻と現時刻との間で物体の対応付
けを行う手段と、前記対応付け結果に基づいて物体の行
動状態を決定する行動状態決定手段と、当該行動状態決
定手段の出力データに基づいて監視領域全体地図上に物
体の行動状態を表示する手段とを具備し、広範囲の監視
領域全体の物体の行動状態を視認できるようにしたこと
を特徴とする移動物体監視装置。
1. A plurality of image input means for capturing an image of a target, an image processing means for performing various image processing on the images captured by the plurality of image input means, and a data processing means for performing various data processing. In an apparatus for tracking an object using means for integrating output data of the image processing means, means for associating an object between a previous time and a current time of a wide range monitoring area, and based on the association result. The object of the whole monitoring area of a wide range is provided with an action state determining means for determining the action state of the object, and a means for displaying the action state of the object on the whole monitoring area map based on the output data of the action state determining means. A moving object monitoring device characterized in that the behavior state of the user can be visually recognized.
【請求項2】請求項1の移動物体監視装置において、各
物体あるいは各物体群の移動軌跡を線種または色を変え
て表示することを特徴とする移動物体監視装置。
2. The moving object monitoring apparatus according to claim 1, wherein the moving locus of each object or each object group is displayed in different line types or colors.
【請求項3】請求項1の移動物体監視装置において、物
体あるいは物体群のある場所における停止時間または滞
留時間を数値または図形の大きさまたは色の違いにより
表示することを特徴とする移動物体監視装置。
3. The moving object monitoring apparatus according to claim 1, wherein the stopping time or the staying time at a certain place of the object or group of objects is displayed by a numerical value or a size or color of a figure. apparatus.
【請求項4】請求項1の移動物体監視装置において、監
視領域全体地図上に危険区域,重要区域、または立ち入
り禁止区域を表示することを特徴とする移動物体監視装
置。
4. The moving object monitoring apparatus according to claim 1, wherein a dangerous area, an important area, or a restricted area is displayed on the entire monitoring area map.
【請求項5】請求項1の監視装置において、物体の行動
に異常状態が発生した場合、当該物体が存在するカメラ
番号を監視領域全体地図上に、あるいはカメラを表すア
イコンを監視領域全体地図上のカメラ位置に表示するこ
とを特徴とする移動物体監視装置。
5. The monitoring device according to claim 1, when an abnormal state occurs in the behavior of an object, the camera number of the object is displayed on the entire monitoring area map, or the icon representing the camera is displayed on the entire monitoring area map. A moving object monitoring device characterized by displaying at the camera position.
【請求項6】請求項1の監視装置において、主導物体と
従導物体を、少なくとも色及び番号及び図形のうちいず
れか1つで識別し、かつ関連づけて表示することを特徴
とする移動物体監視装置。
6. The moving object monitor according to claim 1, wherein the lead object and the follower object are identified by at least one of a color, a number, and a figure, and displayed in association with each other. apparatus.
【請求項7】請求項1の監視装置において、カメラの首
振りまたはズーム等の操作を表示画面上のアイコンとマ
ウスを用いて行うことを特徴とする移動物体監視装置。
7. The moving object monitoring apparatus according to claim 1, wherein operations such as swinging or zooming of the camera are performed using an icon on the display screen and a mouse.
【請求項8】請求項1の監視装置において、物体の行動
の異常状態発生時には監視領域全体地図上の異常発生位
置に対象物体あるいは異常状態を示す図形を単に表示ま
たは点滅表示することを特徴とする移動物体監視装置。
8. The monitoring device according to claim 1, wherein when an abnormal state of behavior of an object occurs, a graphic indicating an object or an abnormal state is simply displayed or blinking at an abnormal position on the entire monitoring area map. Moving object monitoring device.
【請求項9】対象の画像を取り込む画像入力手段と、無
線により対象物体の識別番号を読み取る無線手段と、対
象物体の識別番号と当該対象物体の位置情報からなる前
記無線手段の出力データを統合して物体の行動状態を決
定する行動状態決定手段と、当該行動状態決定手段の出
力データに基づいて監視領域全体地図上に物体の行動状
態を表示する手段とを具備し、広範囲の監視領域全体の
物体の行動状態を視認できるようにしたことを特徴とす
る移動物体監視装置。
9. An image input means for capturing an image of a target, a wireless means for wirelessly reading an identification number of a target object, and output data of the wireless means consisting of the identification number of the target object and position information of the target object. And an action state determining means for determining the action state of the object, and a means for displaying the action state of the object on the entire monitoring area map based on the output data of the action state determining means. Moving object monitoring device characterized in that the behavior state of the object can be visually confirmed.
【請求項10】請求項9の移動物体監視装置において、
各物体あるいは各物体群の移動軌跡を線種または色を変
えて表示することを特徴とする移動物体監視装置。
10. The moving object monitoring apparatus according to claim 9,
A moving object monitoring device, which displays a moving locus of each object or each object group in different line types or colors.
【請求項11】請求項9の移動物体監視装置において、
物体あるいは物体群のある場所における停止時間または
滞留時間を数値または図形の大きさまたは色の違いによ
り表示することを特徴とする移動物体監視装置。
11. The moving object monitoring apparatus according to claim 9,
A moving object monitoring device characterized by displaying a stop time or a staying time at a place where an object or a group of objects is indicated by a numerical value, a size of a figure, or a difference in color.
【請求項12】請求項9の移動物体監視装置において、
監視領域全体地図上に危険区域,重要区域、または立ち
入り禁止区域を表示することを特徴とする移動物体監視
装置。
12. The moving object monitoring apparatus according to claim 9,
Whole monitoring area A moving object monitoring device characterized by displaying a dangerous area, an important area, or a restricted area on a map.
【請求項13】請求項9の監視装置において、物体の行
動に異常状態が発生した場合、当該物体が存在するカメ
ラ番号を監視領域全体地図上に、あるいはカメラを表す
アイコンを監視領域全体地図上のカメラ位置に表示する
ことを特徴とする移動物体監視装置。
13. The monitoring device according to claim 9, wherein when an abnormal state occurs in the behavior of an object, the camera number where the object is present is displayed on the entire monitoring area map, or the icon representing the camera is displayed on the entire monitoring area map. A moving object monitoring device characterized by displaying at the camera position.
【請求項14】請求項9の監視装置において、主導物体
と従導物体を、少なくとも色及び番号及び図形のうちい
ずれか1つで識別し、かつ関連づけて表示することを特
徴とする移動物体監視装置。
14. The moving object monitor according to claim 9, wherein the lead object and the follower object are identified by at least one of a color, a number and a figure, and displayed in association with each other. apparatus.
【請求項15】請求項9の監視装置において、物体の行
動の異常状態発生時には監視領域全体地図上の異常発生
位置に対象物体あるいは異常状態を示す図形を単に表示
または点滅表示することを特徴とする移動物体監視装
置。
15. The monitoring device according to claim 9, wherein when an abnormal state of behavior of the object occurs, a graphic indicating the target object or the abnormal state is simply displayed or blinking at the abnormal position on the entire monitoring area map. Moving object monitoring device.
【請求項16】請求項9の監視装置において、カメラの
首振りまたはズーム等の操作を表示画面上のアイコンを
用いて行うことを特徴とする移動物体監視装置。
16. The moving object monitoring device according to claim 9, wherein operations such as swinging or zooming of the camera are performed using icons on the display screen.
【請求項17】対象の画像を取り込む複数の画像入力手
段と、前記複数の画像入力手段により取り込まれた画像
に対して各種画像処理を行う画像処理手段と、各種デー
タ処理を行うデータ処理手段を用いて物体を追跡する装
置において、前記各画像処理手段の出力データである前
時刻と現時刻との間での物体の対応付け結果を統合する
手段と、前記統合された対応付け結果に基づいて物体の
行動状態を決定する行動状態決定手段と、当該行動状態
決定手段の出力データに基づいて監視領域全体地図上に
物体の行動状態を表示する手段とを具備し、広範囲の監
視領域全体の物体の行動状態を視認できるようにしたこ
とを特徴とする移動物体監視装置。
17. A plurality of image input means for capturing an image of a target, an image processing means for performing various image processing on the images captured by the plurality of image input means, and a data processing means for performing various data processing. In an apparatus for tracking an object using means for integrating object association results between previous time and current time which are output data of each image processing means, and based on the integrated association result The object of the whole monitoring area of a wide range is provided with an action state determining means for determining the action state of the object, and a means for displaying the action state of the object on the whole monitoring area map based on the output data of the action state determining means. A moving object monitoring device characterized in that the behavior state of the user can be visually recognized.
【請求項18】対象の画像を取り込む複数の画像入力手
段と、前記複数の画像入力手段により取り込まれた画像
に対して各種画像処理を行う画像処理手段と、無線によ
り対象物体の識別番号を読み取る無線手段と、前記画像
処理手段の出力データを統合し、広範囲な監視領域の前
時刻と現時刻との間で物体の対応付けを行う手段と、前
記対応付け結果と前記無線手段の出力データに基づいて
物体の行動状態を決定する行動状態決定手段と、当該行
動状態決定手段の出力データに基づいて監視領域全体地
図上に物体の行動状態を表示する手段とを具備し、広範
囲の監視領域全体の物体の行動状態を視認できるように
したことを特徴とする移動物体監視装置。
18. A plurality of image input means for capturing an image of a target, an image processing means for performing various kinds of image processing on the images captured by the plurality of image input means, and an identification number of a target object are read out wirelessly. Wireless means and output means of the image processing means are integrated, means for associating an object between the previous time and the current time of a wide range of monitoring area, and the association result and the output data of the wireless means. An action state determining means for determining the action state of the object based on the action state determining means and a means for displaying the action state of the object on the entire monitoring area map based on the output data of the action state determining means are provided. Moving object monitoring device characterized in that the behavior state of the object can be visually confirmed.
JP19582593A 1993-08-06 1993-08-06 Moving object monitoring device Expired - Fee Related JP3257165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19582593A JP3257165B2 (en) 1993-08-06 1993-08-06 Moving object monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19582593A JP3257165B2 (en) 1993-08-06 1993-08-06 Moving object monitoring device

Publications (2)

Publication Number Publication Date
JPH0749952A true JPH0749952A (en) 1995-02-21
JP3257165B2 JP3257165B2 (en) 2002-02-18

Family

ID=16347633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19582593A Expired - Fee Related JP3257165B2 (en) 1993-08-06 1993-08-06 Moving object monitoring device

Country Status (1)

Country Link
JP (1) JP3257165B2 (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251573A (en) * 1995-03-13 1996-09-27 Matsushita Electric Ind Co Ltd Decentralized image processor
JPH09130781A (en) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd Broad area supervisory equipment
US5880847A (en) * 1996-11-11 1999-03-09 Okuma Corporation Measuring method of sphericity of ball end mill
JP2004096501A (en) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp System and method for detecting position of mobile object and program
JP2004187116A (en) * 2002-12-05 2004-07-02 Casio Comput Co Ltd Action monitoring system and program
JP2006098119A (en) * 2004-09-28 2006-04-13 Ntt Data Corp Object detector, object detection method, and object detection program
JP2006245795A (en) * 2005-03-01 2006-09-14 Toa Corp Apparatus for tracking mobile and apparatus for tracking and displaying mobile
JP2007329622A (en) * 2006-06-07 2007-12-20 Shimizu Corp Video monitor system
JP2008047089A (en) * 2006-07-21 2008-02-28 Ikegami Tsushinki Co Ltd Method and device for creating image for identifying dwell time
JP2008047090A (en) * 2006-07-21 2008-02-28 Ikegami Tsushinki Co Ltd Method and device for creating image for identifying dwell time
WO2008029724A1 (en) * 2006-09-04 2008-03-13 Panasonic Corporation Danger judging device, danger judging method, danger reporting device, and danger judging program
JP2009246688A (en) * 2008-03-31 2009-10-22 Jfe Steel Corp Apparatus and method of monitoring inside of control panel
JP2010039580A (en) * 2008-07-31 2010-02-18 Secom Co Ltd Traveling object tracking device
JP2010206405A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2010206404A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
JP2012212301A (en) * 2011-03-31 2012-11-01 Secom Co Ltd Abnormality detection apparatus
WO2014112407A1 (en) * 2013-01-16 2014-07-24 日本電気株式会社 Information processing system, information processing method, and program
WO2016147644A1 (en) * 2015-03-16 2016-09-22 Canon Kabushiki Kaisha Image processing apparatus, image processing system, method for image processing, and computer program
JP2017034511A (en) * 2015-08-03 2017-02-09 株式会社ブイ・アール・テクノセンター Moving body detection system
KR102100803B1 (en) * 2019-11-20 2020-04-14 (주)지인테크 Video surveillance system and method for easy object tracking
JP2022036143A (en) * 2014-09-26 2022-03-04 日本電気株式会社 Object tracking system, object tracking device, and object tracking method
US11328404B2 (en) 2018-07-31 2022-05-10 Nec Corporation Evaluation apparatus, evaluation method, and non-transitory storage medium
US11676388B2 (en) 2014-09-26 2023-06-13 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11381782B2 (en) 2018-03-29 2022-07-05 Nec Corporation Video monitoring apparatus, control method thereof, and computer readable medium

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251573A (en) * 1995-03-13 1996-09-27 Matsushita Electric Ind Co Ltd Decentralized image processor
JPH09130781A (en) * 1995-10-31 1997-05-16 Matsushita Electric Ind Co Ltd Broad area supervisory equipment
US5880847A (en) * 1996-11-11 1999-03-09 Okuma Corporation Measuring method of sphericity of ball end mill
JP2004096501A (en) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp System and method for detecting position of mobile object and program
JP2004187116A (en) * 2002-12-05 2004-07-02 Casio Comput Co Ltd Action monitoring system and program
JP2006098119A (en) * 2004-09-28 2006-04-13 Ntt Data Corp Object detector, object detection method, and object detection program
JP2006245795A (en) * 2005-03-01 2006-09-14 Toa Corp Apparatus for tracking mobile and apparatus for tracking and displaying mobile
JP4559874B2 (en) * 2005-03-01 2010-10-13 ティーオーエー株式会社 Motion tracking device
JP2007329622A (en) * 2006-06-07 2007-12-20 Shimizu Corp Video monitor system
JP2008047089A (en) * 2006-07-21 2008-02-28 Ikegami Tsushinki Co Ltd Method and device for creating image for identifying dwell time
JP4712741B2 (en) * 2006-07-21 2011-06-29 池上通信機株式会社 Still-time identification image generation method and apparatus
JP2008047090A (en) * 2006-07-21 2008-02-28 Ikegami Tsushinki Co Ltd Method and device for creating image for identifying dwell time
WO2008029724A1 (en) * 2006-09-04 2008-03-13 Panasonic Corporation Danger judging device, danger judging method, danger reporting device, and danger judging program
US7864058B2 (en) 2006-09-04 2011-01-04 Panasonic Corporation Danger determining device, method, danger notifying device, and program for determining danger based on identification information of a person in a watched environment and identification information of an article in the watched environment
JP2009246688A (en) * 2008-03-31 2009-10-22 Jfe Steel Corp Apparatus and method of monitoring inside of control panel
JP2010039580A (en) * 2008-07-31 2010-02-18 Secom Co Ltd Traveling object tracking device
JP2010206404A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2010206405A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
JP2012212301A (en) * 2011-03-31 2012-11-01 Secom Co Ltd Abnormality detection apparatus
WO2014112407A1 (en) * 2013-01-16 2014-07-24 日本電気株式会社 Information processing system, information processing method, and program
JP2022036143A (en) * 2014-09-26 2022-03-04 日本電気株式会社 Object tracking system, object tracking device, and object tracking method
US11676388B2 (en) 2014-09-26 2023-06-13 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
WO2016147644A1 (en) * 2015-03-16 2016-09-22 Canon Kabushiki Kaisha Image processing apparatus, image processing system, method for image processing, and computer program
JP2016174252A (en) * 2015-03-16 2016-09-29 キヤノン株式会社 Image processing apparatus, image processing system, image processing method and computer program
US10572736B2 (en) 2015-03-16 2020-02-25 Canon Kabushiki Kaisha Image processing apparatus, image processing system, method for image processing, and computer program
JP2017034511A (en) * 2015-08-03 2017-02-09 株式会社ブイ・アール・テクノセンター Moving body detection system
US11328404B2 (en) 2018-07-31 2022-05-10 Nec Corporation Evaluation apparatus, evaluation method, and non-transitory storage medium
KR102100803B1 (en) * 2019-11-20 2020-04-14 (주)지인테크 Video surveillance system and method for easy object tracking

Also Published As

Publication number Publication date
JP3257165B2 (en) 2002-02-18

Similar Documents

Publication Publication Date Title
JP3257165B2 (en) Moving object monitoring device
US8908034B2 (en) Surveillance systems and methods to monitor, recognize, track objects and unusual activities in real time within user defined boundaries in an area
JP3873554B2 (en) Monitoring device, recording medium on which monitoring program is recorded
KR100885465B1 (en) Video tracking system, and method and apparatus for selecting a target in an automated video tracking system
US8334906B2 (en) Video imagery-based sensor
KR20070029760A (en) Monitoring devices
US20080198225A1 (en) TVMS- a total view monitoring system
JP5927691B2 (en) Area monitoring system
JP2018085597A (en) Person behavior monitoring device and person behavior monitoring system
US7194109B2 (en) Method and system for delivering monitored image signal of subject to be monitored
WO2017132342A1 (en) Systems and methods for behavioral based alarms
US20220139199A1 (en) Accurate digital security system, method, and program
US11676360B2 (en) Assisted creation of video rules via scene analysis
JP4244221B2 (en) Surveillance video distribution method, surveillance video distribution apparatus, and surveillance video distribution system
JP3979902B2 (en) Surveillance video delivery system and surveillance video delivery method
GB2368482A (en) Pose-dependent viewing system
JP6045806B2 (en) Intrusion monitoring device
JPH11284988A (en) Supervisory camera system
CN112396997B (en) Intelligent interactive system for shadow sand table
JP2022526071A (en) Situational awareness monitoring
JPH0946694A (en) Automatic controller for monitor camera
JP3375199B2 (en) Security mobile monitoring system
JP2007157032A (en) Monitoring system
KR101651970B1 (en) Security Lamp CCTV Control System having a Human Care Function and Controlling Method for the Same
JP7354461B2 (en) Monitoring system and method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees