JP3257165B2 - Moving object monitoring device - Google Patents

Moving object monitoring device

Info

Publication number
JP3257165B2
JP3257165B2 JP19582593A JP19582593A JP3257165B2 JP 3257165 B2 JP3257165 B2 JP 3257165B2 JP 19582593 A JP19582593 A JP 19582593A JP 19582593 A JP19582593 A JP 19582593A JP 3257165 B2 JP3257165 B2 JP 3257165B2
Authority
JP
Japan
Prior art keywords
image
action state
image processing
monitoring area
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP19582593A
Other languages
Japanese (ja)
Other versions
JPH0749952A (en
Inventor
政雄 ▲高▼藤
泰男 諸岡
光雄 沢入
健太郎 小野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP19582593A priority Critical patent/JP3257165B2/en
Publication of JPH0749952A publication Critical patent/JPH0749952A/en
Application granted granted Critical
Publication of JP3257165B2 publication Critical patent/JP3257165B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は移動物体の行動状態や行
動の異常状態を表示する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for displaying a behavior state of a moving object or an abnormal behavior state.

【0002】[0002]

【従来の技術】従来、広範囲に移動する人や自動車等を
複数のカメラで撮影して、監視領域の床面等にマークし
た白線をあらかじめライトペンでトレースして設定した
監視領域の重複部分を処理することにより移動体を追跡
する技術が知られており、移動体同定手段により得られ
た移動体の移動軌跡を表示盤等にそのまま表示すること
が例えば特開昭62−222390号公報に開示されている。
2. Description of the Related Art Conventionally, a plurality of cameras are used to photograph a person or a car that moves over a wide area, and a white line marked on the floor of the monitoring area is traced with a light pen in advance, and an overlapping portion of the monitoring area is set. A technique of tracking a moving object by processing is known. It is disclosed in Japanese Patent Application Laid-Open No. 62-222390, for example, that the moving locus of the moving object obtained by the moving object identification means is displayed as it is on a display panel or the like. Have been.

【0003】[0003]

【発明が解決しようとする課題】上記従来技術は移動体
の同定を容易にすることを目的としたもので、移動体の
移動軌跡をそのまま表示盤等に表示しているに過ぎず、
監視員等の移動物体の異常行動に対する視認性を考慮し
ていないという問題があった。
SUMMARY OF THE INVENTION The above prior art is intended to facilitate the identification of a moving object, and merely displays the moving trajectory of the moving object on a display panel or the like.
There is a problem that the visibility of abnormal behavior of a moving object such as a monitor is not considered.

【0004】本発明は上述のような点に鑑みてなされた
もので、その目的は、監視領域全体の物体の行動状態を
監視員等が容易に視認し得る監視装置を提供することに
ある。
The present invention has been made in view of the above points, and an object of the present invention is to provide a monitoring device that enables a monitoring person or the like to easily visually recognize an action state of an object in an entire monitoring area.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め、本発明では、複数の画像入力手段により取り込まれ
た画像に対して画像処理手段で各種画像処理を行い、前
記画像処理手段の出力データを統合し、広範囲な監視領
域の前時刻と現時刻との間で物体の対応付けを行い、前
記対応付け結果に基づいて物体の行動状態を決定し、決
定された物体の行動状態に基づいて監視領域全体地図
(平面図)上に物体の行動状態を表示するようにしたも
のである。
In order to achieve the above object, according to the present invention, various kinds of image processing are performed by an image processing means on an image captured by a plurality of image input means, and an output of the image processing means is provided. Integrate the data, perform the association of the object between the previous time and the current time of the wide monitoring area, determine the action state of the object based on the result of the association, and based on the determined action state of the object. The action state of the object is displayed on the map (plan view) of the entire monitoring area.

【0006】さらにまた本発明では、無線により読み取
った対象物体の識別番号と当該対象物体の位置情報から
なる無線手段の出力データを統合して物体の行動状態を
決定し、決定された物体の行動状態に基づいて監視領域
全体地図(平面図)上に物体の行動状態を表示するとと
もに、画像入力手段を用いて対象物体の行動異常を確認
するようにしたものである。
Further, in the present invention, the action state of the object is determined by integrating the identification number of the target object read by radio and the output data of the radio means comprising the position information of the target object. The action state of the object is displayed on the map (plan view) of the entire monitoring area based on the state, and the action abnormality of the target object is confirmed using the image input means.

【0007】さらに本発明では、前記複数の画像入力手
段により取り込まれた画像に対して画像処理手段で各種
画像処理を行い、前記画像処理手段の出力データを統合
し、広範囲な監視領域の前時刻と現時刻との間で物体の
対応付けを行い、当該対応付け結果と無線により読み取
った対象物体の識別番号と当該対象物体の位置情報から
なる無線手段の出力データを統合して物体の行動状態を
決定し、決定された物体の行動状態に基づいて監視領域
全体地図(平面図)上に物体の行動状態を表示するよう
にしたものである。
Further, according to the present invention, various kinds of image processing are performed by the image processing means on the images captured by the plurality of image input means, and the output data of the image processing means are integrated, and the previous time of the wide monitoring area is obtained. The object is associated with the current time, and the result of the association is integrated with the output data of the wireless means including the identification number of the target object read wirelessly and the position information of the target object, and the action state of the object is obtained. Is determined, and the action state of the object is displayed on the entire monitoring area map (plan view) based on the determined action state of the object.

【0008】[0008]

【作用】本発明に係る移動物体監視装置によれば、複数
の画像入力手段により広範囲の監視領域が撮像され、画
像処理手段で処理され、その処理結果の出力データが統
合され、広範囲な監視領域の前時刻と現時刻との間で物
体の対応付けがなされ、この対応付け結果に基づいて物
体の行動状態が決定され、この決定された物体の行動状
態に基づいて監視領域全体地図(平面図)上に物体の行
動状態が表示されるので、監視領域全体の物体の行動状
態を監視員等が容易に視認できる。
According to the moving object monitoring apparatus of the present invention, a wide monitoring area is imaged by the plurality of image input means, processed by the image processing means, and output data of the processing result is integrated, and the wide monitoring area is obtained. The object is associated between the previous time and the current time of the object, and the action state of the object is determined based on the association result. Based on the determined action state of the object, the entire monitoring area map (plan view) Since the action state of the object is displayed on the upper part, the observer or the like can easily visually recognize the action state of the object in the entire monitoring area.

【0009】また、本発明に係る移動物体監視装置によ
れば、複数の無線手段により広範囲の監視領域が監視さ
れ、無線により読み取られた対象物体の識別番号とその
対象物体の位置情報からなる無線手段の出力データを統
合して物体の行動状態を決定し、決定された物体の行動
状態に基づいて監視領域全体地図(平面図)上に物体の
行動状態が表示されるので、監視領域全体の物体の行動
状態を監視員等が容易に視認できる。
Further, according to the moving object monitoring apparatus of the present invention, a wide range of monitoring area is monitored by a plurality of wireless means, and a wireless communication comprising an identification number of a target object read by radio and position information of the target object. The action state of the object is determined by integrating the output data of the means, and the action state of the object is displayed on the entire monitoring area map (plan view) based on the determined action state of the object. An observer or the like can easily visually recognize the behavior state of the object.

【0010】さらにまた、本発明に係る移動物体監視装
置によれば、複数の画像入力手段により取り込まれた画
像に対して画像処理手段で各種画像処理が行われ、画像
処理手段の出力データを統合し、広範囲な監視領域の前
時刻と現時刻との間で物体の対応付けがなされ、その対
応付け結果と無線により読み取った対象物体の識別番号
と対象物体の位置情報からなる無線手段の出力データを
統合して物体の行動状態を決定し、決定された物体の行
動状態に基づいて監視領域全体地図(平面図)上に物体
の行動状態が表示されるので、監視領域全体の物体の行
動状態を監視員等が容易に視認できる。
Further, according to the moving object monitoring apparatus of the present invention, various image processing is performed by the image processing means on the images captured by the plurality of image input means, and the output data of the image processing means is integrated. The object is associated between the previous time and the current time of the wide monitoring area, and the output data of the wireless means including the association result, the identification number of the object read wirelessly, and the position information of the object. Is integrated to determine the action state of the object, and based on the determined action state of the object, the action state of the object is displayed on the entire monitoring area map (plan view). Can be easily visually recognized by an observer or the like.

【0011】[0011]

【実施例】以下、本発明の一実施例を図1を用いて説明
する。
An embodiment of the present invention will be described below with reference to FIG.

【0012】建物の屋内、あるいは屋外を複数のカメラ
10a−10cを用いて撮像し、ドア1や対象物体であ
る人間2等の移動物体を含む監視対象を画像処理装置1
1a−11cへ入力する。画像処理装置11a−11c
は入力した画像中の対象物体2の特徴量(例えば面積,
濃度平均値,濃度分散値,外接長方形の縦,横の長さ,
フィレ径,重心等)を求め、インタフェース部13を介
して統合プロセッサ12へ入力する。統合プロセッサ1
2はCPU14を用いて前時刻の対象物体と現時刻の対
象物体との間で対応付けを行い、メモリ15に作成済み
の監視領域の平面図(全体地図)上に対象物体2の動き
の状態をプロットし、その結果を表示装置16に表示す
る。また、対象物体2の動きから動きの特異性を検知し
た場合はその対象物体の現在位置とその位置を撮像して
いるカメラ番号を対応する画面上に点滅表示するととも
に警報器17を介して監視員にアラームを発する。監視
員は表示画面を見て異常発生個所を確認し、必要に応じ
て操作パッド18から画面上に表示されたカメラ番号に
対応するカメラを指定し、カメラの首振り,ズームアッ
プ等を行い、モニタ20を介してカメラの映像をみるこ
とができる。これは操作パッド18から統合プロセッサ
12を通してカメラ制御信号がカメラ制御装置19に与
えられ、カメラ制御装置19はカメラ制御信号に応じて
カメラの選択,首振り,ズームアップ等カメラを制御
し、カメラの映像信号をモニタ20に送り表示すること
により達成される。
An image processing apparatus 1 captures an image of a building indoors or outdoors using a plurality of cameras 10a-10c, and monitors a monitoring object including a door 1 and a moving object such as a person 2 as a target object.
1a-11c. Image processing devices 11a-11c
Is the characteristic amount of the target object 2 in the input image (eg, area,
Density average value, density variance value, height and width of circumscribed rectangle,
A fillet diameter, a center of gravity, etc.) are obtained and input to the integrated processor 12 via the interface unit 13. Integrated processor 1
2 uses the CPU 14 to associate between the target object at the previous time and the target object at the current time, and displays the motion state of the target object 2 on a plan view (overall map) of the monitoring area created in the memory 15. Is plotted, and the result is displayed on the display device 16. When the specificity of the motion is detected from the motion of the target object 2, the current position of the target object and the number of the camera that is capturing the position are blinked on the corresponding screen and monitored via the alarm 17. Raise alarm to staff. The observer looks at the display screen to check the location where the abnormality has occurred, and if necessary, designates the camera corresponding to the camera number displayed on the screen from the operation pad 18, and performs a swing of the camera, a zoom-in, and the like. The image of the camera can be viewed via the monitor 20. In this case, a camera control signal is given to the camera control device 19 from the operation pad 18 through the integrated processor 12, and the camera control device 19 controls the camera such as selection of the camera, swinging of the camera, zooming up, etc. in accordance with the camera control signal, and This is achieved by sending a video signal to the monitor 20 for display.

【0013】別のシステム構成例を図11に示す。監視
対象となる建物の屋内、あるいは屋外を複数のカメラ1
0a−10cを用いて撮像し、ドア1や対象物体である
人間2等の移動物体をカメラ切り替え器21を介して統
合プロセッサ12′の画像処理部22へ入力する。画像
処理部22は図1に示す構成例の画像処理装置11a−
11cに対応する。画像処理部22は入力した画像中の
対象物体2の特徴量(面積,濃度平均値,濃度分散値,
外接長方形の縦,横の長さ,フィレ径,重心等)を求
め、CPU14へ入力する。CPU14は前時刻の対象
物体と現時刻の対象物体との間で対応付けを行い、メモ
リ15に作成済みの監視領域の平面図(全体地図)上に
対象物体2の動きの状態をプロットし、その結果を表示
装置16に表示する。また、対象物体2の動きから行動
の特異性を検知した場合はその対象物体の現在位置とそ
の位置を撮像しているカメラ番号を画面上に点滅表示す
るとともに警報器17を介して監視員にアラームを発す
る。監視員はその表示画面を見て異常発生個所を確認
し、必要に応じて操作パッド18から画面上に表示され
たカメラ番号に対応するカメラを指定し、カメラの首振
り,ズームアップ等を行い、モニタ20を介してカメラ
の映像をみることができる。これは操作パッド18から
統合プロセッサ12′を通してカメラ制御信号がカメラ
制御装置19に与えられ、カメラ制御装置19はカメラ
制御信号に応じてカメラの選択,首振り,ズームアップ
等カメラを制御し、カメラの映像信号をモニタ20に送
り表示することにより達成される。
FIG. 11 shows another example of the system configuration. Multiple cameras 1 inside or outside the building to be monitored
A moving object such as the door 1 or the target person 2 is input to the image processing unit 22 of the integrated processor 12 ′ via the camera switch 21. The image processing unit 22 includes an image processing device 11a-
11c. The image processing unit 22 calculates the feature amounts (area, density average value, density variance value,
The length and width of the circumscribed rectangle, the fillet diameter, the center of gravity, etc.) are determined and input to the CPU 14. The CPU 14 makes a correspondence between the target object at the previous time and the target object at the current time, and plots the motion state of the target object 2 on a plan view (overall map) of the created monitoring area in the memory 15; The result is displayed on the display device 16. When the specificity of the action is detected from the movement of the target object 2, the current position of the target object and the camera number capturing the position are blinked on the screen and displayed to the observer via the alarm 17. Raise an alarm. The observer looks at the display screen to check the location where the abnormality has occurred, and if necessary, designates the camera corresponding to the camera number displayed on the screen from the operation pad 18, and performs a swing of the camera, a zoom-in operation, and the like. , The video of the camera can be viewed via the monitor 20. In this case, a camera control signal is given from the operation pad 18 to the camera control device 19 through the integrated processor 12 ', and the camera control device 19 controls the camera such as selection of the camera, swinging of the camera, and zooming in according to the camera control signal. Is transmitted to the monitor 20 for display.

【0014】以下、本発明の中心部分である広範囲な監
視領域の移動物体の行動状態及び監視領域の異常状態を
ディスプレイ上に表示する処理について図2−図10を
用いて説明する。
A process of displaying the action state of a moving object in a wide monitoring area and the abnormal state of the monitoring area on a display, which is a central part of the present invention, will be described below with reference to FIGS.

【0015】まず、図2において、入力画像取り込み1
10は、画像処理装置11a−11cにおいて、カメラ1
0a−10cから取り込んだ画像を画像処理装置11a
−11c内の画像メモリに格納する。差分画像抽出12
0は、あらかじめ画像メモリに記憶してある背景画像と
上記入力画像との差分画像s(t)を求める。2値化処理
130は上記差分処理s(t)を所定のしきい値で2値化
し、2値画像b(t)を作成する。その後、ラベリング1
40により各物体に番号付けをし、特徴量計算150で
各物体毎の特徴量(面積,濃度平均値,濃度分散値,外
接長方形の縦,横の長さ,フィレ径,重心等)を求め
る。特徴量転送160は、特徴量計算150で求めた各
物体毎の特徴量を統合プロセッサ12へ転送する。入力
画像取り込み110から特徴量転送160までは画像処
理装置11a−11cで処理される。ただし、図11に
示す構成例の場合はこの部分の処理も統合プロセッサ1
2′で処理される。次に、対応付け170は複数の画像
処理装置11a−11cで求められた特徴量を用いて前回
の入力画像内の物体との対応付けを行う。対応付けの方
法としては、テンプレートマッチング,相関法,特徴追
跡法等種々の方法が報告されているが、ここでは簡単に
特徴追跡法の一つとして物体間の重心間距離,面積,移
動方向が近いもの同士を対応付けている。物体の行動状
態表示180は対応付けにより各物体の移動量,移動方
向等を全体地図上にプロットし、CRT等の表示装置2
0に表示する。対応付け170,物体の行動状態の表示
180の具体例を図3−図10に示す。
First, referring to FIG.
Reference numeral 10 denotes a camera 1 in the image processing apparatuses 11a to 11c.
0a-10c and the image captured by the image processing device 11a
-11c is stored in the image memory. Difference image extraction 12
0 calculates a difference image s (t) between the background image previously stored in the image memory and the input image. The binarization processing 130 binarizes the difference processing s (t) with a predetermined threshold to create a binary image b (t). After that, labeling 1
Each object is numbered by 40, and the feature amount (area, average density value, density variance value, vertical and horizontal length of the circumscribed rectangle, fillet diameter, center of gravity, etc.) of each object is obtained by the feature amount calculation 150. . The feature amount transfer 160 transfers the feature amount of each object obtained by the feature amount calculation 150 to the integrated processor 12. The processing from the input image capture 110 to the feature value transfer 160 is processed by the image processing devices 11a to 11c. However, in the case of the configuration example shown in FIG.
Processed at 2 '. Next, the association 170 associates with the object in the previous input image using the feature amounts obtained by the plurality of image processing apparatuses 11a to 11c. Various methods such as template matching, correlation method, and feature tracking method have been reported as a matching method. Here, as one of the feature tracking methods, the distance between the centers of gravity, the area, and the moving direction of the objects are simply described as one of the feature tracking methods. Near objects are associated with each other. The action state display 180 of the object plots the movement amount, the movement direction, and the like of each object on the entire map by association, and displays the display device 2 such as a CRT.
Display at 0. Specific examples of the association 170 and the display 180 of the action state of the object are shown in FIGS.

【0016】図3は屋内の物体の行動監視の例を示して
おり、複数のカメラ10が建物の天井に設置され、移動
物体2が歩き回っている状態を表している。
FIG. 3 shows an example of monitoring the behavior of an indoor object, in which a plurality of cameras 10 are installed on the ceiling of a building and the moving object 2 is walking around.

【0017】図4は図3に示す建物の平面図(全体地
図)とカメラ10a−10pそれぞれの監視領域を実線
と破線で区切って示している。
FIG. 4 shows a plan view (overall map) of the building shown in FIG. 3 and monitoring areas of the cameras 10a to 10p separated by a solid line and a broken line.

【0018】図5に図3の例に対する時刻tにおける移
動物体2の行動状態の全体地図を示す。●30は移動物
体2の現在位置を、矢印31は移動物体2の移動方向を
示す。
FIG. 5 shows an overall map of the behavior of the moving object 2 at time t for the example of FIG. The reference numeral 30 indicates the current position of the moving object 2, and the arrow 31 indicates the moving direction of the moving object 2.

【0019】図6において○32a,32bはそれぞれ
物体a,物体bの時刻t−1の位置を、●32a′,3
2b′はそれぞれ物体a,物体bの時刻tの位置を表し
ている。これは全体地図上で上述のように各物体の特徴
量に基づいて対応付けを行った結果、○32aが●32
a′に、○32bが●32b′に対応付けられたことを
示す。物体bの場合は同一のカメラ10kの視野内にあ
るので複数カメラの情報の統合のメリットは無いが、物
体aの場合は前時刻t−1と現時刻tでは異なるカメラ
10iと10dにまたがっているので本発明のように複
数カメラの情報を統合する必要がある。また、図に示す
ように物体a,bが存在する領域のカメラ位置及びカメ
ラ番号を表示することにより、監視員はこれを参照し
て、必要に応じてカメラを操作できる。
In FIG. 6, .largecircle.32a and 32b denote the positions of the object a and the object b at time t-1, respectively.
2b 'indicates the position of the object a and the object b at the time t. As a result of the association based on the feature amount of each object on the entire map as described above,
a 'indicates that ○ 32b is associated with 3232b'. In the case of the object b, there is no merit of integrating the information of a plurality of cameras because the object b is within the field of view of the same camera 10k. However, in the case of the object a, the previous time t-1 and the current time t span different cameras 10i and 10d. Therefore, it is necessary to integrate information of a plurality of cameras as in the present invention. Also, as shown in the figure, by displaying the camera position and the camera number of the area where the objects a and b are present, the observer can operate the camera as necessary by referring to this.

【0020】行動状態の表示例を図7に示す。この例で
は物体aと物体bの移動軌跡をそれぞれ点線と実線で表
しているように、物体の移動軌跡を物体毎に線種あるい
は色を変えて表示する。こうすることにより物体がすれ
ちがったり、分岐した場合にも動きが分かりやすい。円
33a,33bはそれぞれ物体a,物体bの円の表示位
置における停止時間または滞留時間をその円の大きさ
(直径の大きさ)で表している。ここで、停止時間は放
置された荷物のように完全に停止している時間で、滞留
時間は人間等の移動物体がほぼ同じ場所にいる時間であ
る。この停止時間または滞留時間を表す図形は円だけで
なく、□,△,×等でも良い。、また、図形の大きさは
同一でも、図形の色を例えば、薄い赤から濃い赤という
ように、色の明度,彩度,色相を停止時間または滞留時
間に比例させた値に変えて表すこともできる。このため
に統合プロセッサ12のメモリ15にあらかじめ、停止
時間または滞留時間と図形の大きさの変換式のパラメー
タ、あるいは停止時間または滞留時間と色の明度,彩
度,色相との対応表を用意しておく。オンラインではそ
のパラメータまたは対応表を参照して停止時間または滞
留時間に対応した大きさ,色で表示をする。ガイコツ3
4は危険区域,立ち入り禁止区域,重要区域等を表し、
監視員が視認し易いようにしている。
FIG. 7 shows a display example of the action state. In this example, the moving trajectory of the object a and the object b are displayed by changing the line type or the color for each object, as indicated by the dotted line and the solid line, respectively. This makes it easy to understand the movement even when the object passes or branches. The circles 33a and 33b represent the stop time or the dwell time of the object a and the object b at the display position of the circle by the size of the circle (the size of the diameter). Here, the stop time is the time during which the moving object such as a person is completely stopped, as in the case of abandoned luggage, and the staying time is the time during which a moving object such as a human is at the same place. The graphic representing the stop time or the residence time is not limited to a circle, but may be □, Δ, ×, or the like. In addition, even though the size of the figure is the same, the color of the figure is represented by changing the lightness, saturation, and hue of the color to values proportional to the stop time or the residence time, for example, from light red to dark red. Can also. For this purpose, the memory 15 of the integrated processor 12 prepares in advance a parameter of a conversion formula of a stop time or a dwell time and a figure size, or a correspondence table of a stop time or a dwell time and lightness, saturation, and hue of a color. Keep it. On-line, by referring to the parameter or the correspondence table, the size and color corresponding to the stop time or the dwell time are displayed. Skeleton 3
4 indicates danger area, off-limits area, important area, etc.
We make it easy for the observer to see.

【0021】以上述べた方法により、物体の行動状態を
表示した後、行動の特異性を判定し、異常状態の有無判
定190を行う。そして、異常状態である場合には、行
動の異常状態の表示及び報知200はその旨を監視員等
に報知するとともに、異常を検知したカメラの映像をモ
ニタ20に表示する。そして処理を一時停止する。監視
員は適当な処置が終了すると再度、処理の開始を指示す
ることにより、本装置は上記と同様の処理を繰り返す。
一方、異常状態で無い場合には最初の処理に戻り、新た
に画像を入力し、上記と同様の処理を繰り返す。行動の
異常状態の有無判定、表示及び報知の例を図8−図10
に示す。
After the action state of the object is displayed by the method described above, the specificity of the action is determined, and the presence / absence determination 190 of the abnormal state is performed. Then, in the case of an abnormal state, the display and notification 200 of the abnormal state of the action notifies the monitoring person or the like of that, and displays the image of the camera that has detected the abnormality on the monitor 20. Then, the processing is temporarily stopped. After the appropriate measures are completed, the observer instructs to start the processing again, and the apparatus repeats the same processing as described above.
On the other hand, if there is no abnormal state, the process returns to the first process, a new image is input, and the same process as above is repeated. FIGS. 8 to 10 show examples of determination of presence / absence of an abnormal behavioral state, display and notification.
Shown in

【0022】図8の×印35は物体cと物体dが当該地
点で争っていることを示している。これは物体cと物体
dが当該地点で出会ったこと、物体cと物体dの外接長
方形の縦、あるいは横の大きさの単位時間あたりの変化
率が大きく、両物体の重心位置がある時間ほとんど変化
しないことをチェックすることで判断できる。本装置は
上記争いを検知すると、争いの発生地点に×印を点滅さ
せることにより監視員に警報を発するとともに、モニタ
20に物体c,dが映っているカメラ10jの映像を表
示する。監視員はカメラ番号10jを参照して操作パッ
ド18を用いてカメラを操作することにより、より詳細
に監視することができる。
The mark 35 in FIG. 8 indicates that the object c and the object d are competing at the point. This is because the object c and the object d meet at the point, the vertical or horizontal size of the circumscribed rectangle of the object c and the object d has a large rate of change per unit time, and the center of gravity of both objects is almost at a certain time. It can be determined by checking that it does not change. When this device detects the above-mentioned conflict, it flashes an X mark at the place where the conflict occurs to alert the observer, and also displays an image of the camera 10j showing the objects c and d on the monitor 20. The observer operates the camera using the operation pad 18 with reference to the camera number 10j, thereby enabling more detailed monitoring.

【0023】図9はある物体f′37′が物体e36及
びf37から離れて別の方向へ移動している場合を示し
ている。この場合、物体eが主導物体、物体f,f′が
従導物体とすると、物体f′は危険区域の方へ行こうと
する特異な動きをしていることが分かるので本装置は監
視員に対して警報を発するとともに、モニタ20に特異
行動物体f′が映っているカメラ10kの映像を表示す
る。監視員はカメラ番号10kを参照して操作パッド1
8を用いてカメラを操作することにより、より詳細に監
視することができる。ここで、従導物体f,f′は主導
物体eに関係しているという主従関連表は、あらかじめ
与えられ、見学案内等の場合は、本建物の受付で端末2
5から入力され、メモリ15に登録されている。本装置
は当該関連表を用いて、従導物体f′37′が主導物体
e36から離れていっていることをチェックできる。ま
た、危険区域等の位置情報もあらかじめメモリ15に危
険・重要区域表として登録されており、本装置は、物体
の位置情報と当該危険・重要区域表の位置情報及び前述
の主従関連表を用いて、従導物体f′37′の危険・重
要区域への接近を検知し、上述のように物体の特異な動
きをチェックできる。なお、表示の方法として、図9に
おいて三角形で表している物体f,f′は個々の物体で
なく物体群を表すとすることも可能である。また、主導
物体と従導物体あるいは特定のあらかじめ登録されてい
る物体と非特定物体を△と○というように異なった図形
で、あるいは同一図形でも色を変えて表示することによ
り監視員が監視しやすくなる。
FIG. 9 shows a case where an object f'37 'is moving away from the objects e36 and f37 in another direction. In this case, if the object e is the leading object and the objects f and f 'are the guiding objects, it can be seen that the object f' makes a peculiar movement to go to the danger zone. And an image of the camera 10k showing the peculiar action object f 'is displayed on the monitor 20. The observer refers to the camera number 10k and operates the operation pad 1
By operating the camera using the camera 8, more detailed monitoring can be performed. Here, a master-slave relation table indicating that the guide objects f and f ′ are related to the guide object e is given in advance.
5 and registered in the memory 15. The apparatus can use the association table to check that the guided object f'37 'is far from the leading object e36. In addition, the position information of the danger zone or the like is also registered in advance in the memory 15 as a danger / important zone table, and the apparatus uses the position information of the object, the position information of the danger / important zone table, and the above-described master-slave relation table. Thus, the approach of the guided object f'37 'to the dangerous / important area can be detected, and the unique movement of the object can be checked as described above. As a display method, the objects f and f ′ represented by triangles in FIG. 9 may represent not a single object but a group of objects. In addition, the observer can monitor the leading object and the guiding object, or the specific pre-registered object and the non-specific object by displaying different figures such as よ う and ○ or changing the color of the same figure. It will be easier.

【0024】図10は物体gと物体38が分離し、物体
38が長時間同じ場所に停止している場合を示してい
る。この停止時間があらかじめ設定した時間よりも長く
なった場合、本装置は物体38を放置物と判断して放置
物を示す図形38を点滅させることにより、監視員に対
して警報を発するとともに、モニタ20に放置物38が
映っているカメラ10jの映像を表示する。監視員はカ
メラ番号10jを参照して操作パッド18を用いてカメ
ラを操作することにより、より詳細に監視することがで
きる。
FIG. 10 shows a case where the object g and the object 38 are separated, and the object 38 has been stopped at the same place for a long time. If the stop time is longer than a preset time, the apparatus determines that the object 38 is an abandoned object, blinks a graphic 38 indicating the abandoned object, and issues an alarm to a monitor, 20 displays an image of the camera 10j in which the object 38 is reflected. The observer operates the camera using the operation pad 18 with reference to the camera number 10j, thereby enabling more detailed monitoring.

【0025】別のシステム構成例を図12に示す。監視
対象となる建物の屋内、あるいは屋外を一台または複数
のカメラ10a−10cを用いてドア1や対象物体であ
る人間2等の移動物体を撮像するとともに、監視対象物
体である人間2等の移動物体に付けた名札やID(Iden
tification)カード等に内蔵されたトランスポンダ3か
らのID番号をドア1や壁内に設置されたアンテナ4a
−4cを介して無線装置23a−23cで受信し、イン
タフェース部24を介して統合プロセッサ12″へ入力す
る。統合プロセッサ12″はCPU14を用いて、メモ
リ15に作成済みの監視領域の平面図(全体地図)上に
対象物体2の前時刻の位置から現時刻の位置への動きの
状態をプロットし、その結果を表示装置16に表示す
る。また、対象物体2の動きから特異行動物体を検知し
た場合はその物体の現在位置及びその位置を撮像してい
るカメラ番号を画面上に点滅表示するとともに警報器1
7を介して監視員にアラームを発する。監視員は表示画
面を見て異常発生個所を確認し、必要に応じて操作パッ
ド18から画面上に表示されたカメラ番号に対応するカ
メラを指定し、カメラの首振り,ズームアップ等を行
い、モニタ20を介してそのカメラの映像をみることが
できる。これは操作パッド18から統合プロセッサ1
2″を通してカメラ制御信号がカメラ制御装置19に与
えられ、カメラ制御装置19はカメラ制御信号に応じて
カメラの選択,首振り,ズームアップ等カメラを制御
し、カメラの映像信号をモニタ20に送り表示すること
により達成される。
FIG. 12 shows another example of the system configuration. One or more cameras 10a-10c are used to image a moving object such as a door 1 or a target person 2 inside or outside a building to be monitored, and a person 2 or the like as a target object to be monitored. Name tags and IDs (Iden
tification) The ID number from the transponder 3 built in the card or the like is transmitted to the door 1 or the antenna 4a installed in the wall.
-4c and received by the wireless devices 23a to 23c and input to the integrated processor 12 ″ via the interface unit 24. The integrated processor 12 ″ uses the CPU 14 to create a plan view of the monitoring area created in the memory 15 ( The state of movement of the target object 2 from the position at the previous time to the position at the current time is plotted on the entire map), and the result is displayed on the display device 16. When a peculiar action object is detected from the movement of the target object 2, the current position of the object and the number of the camera that is capturing the position are blinked on the screen and the alarm 1
An alarm is issued to the observer via 7. The observer looks at the display screen to check the location where the abnormality has occurred, and if necessary, designates the camera corresponding to the camera number displayed on the screen from the operation pad 18, and performs a swing of the camera, a zoom-in, and the like. The video of the camera can be viewed via the monitor 20. This is from the operation pad 18 to the integrated processor 1
2 ", a camera control signal is given to the camera control device 19, and the camera control device 19 controls the camera, such as selecting a camera, swinging the camera, and zooming up, according to the camera control signal, and sends a video signal of the camera to the monitor 20. Achieved by displaying.

【0026】図13は無線装置とカメラを併用した屋内
の物体の行動監視の例を示しており、複数のアンテナ4
及びカメラ10が建物の天井に設置され、人物2が歩き
回っている状態を表している。
FIG. 13 shows an example of monitoring the behavior of an indoor object using both a wireless device and a camera.
And the camera 10 is installed on the ceiling of the building, and the person 2 is walking around.

【0027】図14は図13に示す建物の平面図(全体
図)とカメラ10a′−10k′とアンテナ4a−4I
それぞれの監視領域を実線,破線等で区切って示してい
る。次に図12に示すシステムにおける広範囲な監視領
域の物体の行動状態及び監視領域の異常状態をディスプ
レイ上に表示する処理について図15を用いて説明す
る。
FIG. 14 is a plan view (overall view) of the building shown in FIG. 13, cameras 10a'-10k 'and antennas 4a-4I.
Each monitoring area is indicated by a solid line, a broken line, and the like. Next, a process of displaying, on the display, an action state of an object in a wide monitoring area and an abnormal state of the monitoring area in the system shown in FIG. 12 will be described with reference to FIG.

【0028】まず、識別番号読み取り210は無線装置
23a−23cでアンテナ4a−4cを介してトランス
ポンダ3から物体の識別番号を読み取る。識別番号転送
220は物体の識別番号とその識別番号を読み取った無
線装置23a−23c自身のID番号をインタフェース
部24を介して統合プロセッサ12″へ入力する。物体
の行動状態表示230は上記物体の識別番号と無線装置
23a−23cID番号を基にメモリ15に作成済みの監
視領域の平面図(全体地図)上に対象物体2の前時刻の
位置から現時刻の位置への動きの状態をプロットし、そ
の結果を表示装置16に表示する。行動状態の表示例は
上述の図6,図7,図9と同じである。
First, the identification number reading 210 reads the identification number of the object from the transponder 3 via the antennas 4a-4c by the radio devices 23a-23c. The identification number transfer 220 inputs the identification number of the object and the ID number of the wireless device 23a-23c that has read the identification number to the integrated processor 12 ″ via the interface unit 24. The action state display 230 of the object is Based on the identification number and the wireless device 23a-23c ID number, the state of movement of the target object 2 from the previous time position to the current time position is plotted on the plan view (overall map) of the monitoring area created in the memory 15 in advance. The result is displayed on the display device 16. A display example of the action state is the same as that in FIGS.

【0029】以上述べた方法により、物体の行動状態を
表示した後、行動の異常状態の有無判定240を行う。
そして、異常状態がある場合には、行動の異常状態の表
示及び報知250はその旨を監視員等に報知するととも
に、異常を検知したカメラの映像をモニタ20に表示す
る。そして処理を一時停止する。監視員は適当な処置が
終了すると再度、処理の開始を指示することにより、本
装置は上記と同様の処理を繰り返す。一方、異常状態が
無い場合には最初の処理に戻り、新たに識別番号を読み
取り、上記と同様の処理を繰り返す。行動の異常状態の
有無判定,表示及び報知の例は上述の図9と同じであ
る。
After the action state of the object is displayed by the method described above, a determination 240 of the presence or absence of an abnormal action state is performed.
If there is an abnormal state, the display and notification 250 of the abnormal state of the action notifies the monitoring person or the like, and displays the image of the camera that has detected the abnormality on the monitor 20. Then, the processing is temporarily stopped. After the appropriate measures are completed, the observer instructs to start the processing again, and the apparatus repeats the same processing as described above. On the other hand, when there is no abnormal state, the process returns to the first process, a new identification number is read, and the same process as above is repeated. The example of the presence / absence determination, display, and notification of the abnormal behavior state is the same as that in FIG. 9 described above.

【0030】また、カメラ操作に関しては図1,図11
及び図12において、操作パッド18を削除して、表示
装置16の画面上のアイコンとマウスを用いてカメラの
選択,首振り,ズーム等を行うこともできる。
FIGS. 1 and 11 show camera operations.
In FIG. 12, the operation pad 18 can be deleted, and selection of a camera, swinging, zooming, and the like can be performed using an icon and a mouse on the screen of the display device 16.

【0031】別のシステム構成例を図16に示す。建物
の屋内、あるいは屋外を複数のカメラ10a−10cを
用いて撮像し、ドア1や対象物体である人間2等の移動
物体を含む監視対象をカメラ・画像処理装置26a−2
6cの画像処理部27a−27cへ入力する。画像処理
部27a−27cは入力した画像中の対象物体2の特徴
量(例えば面積,濃度平均値,濃度分散値,外接長方形
の縦,横の長さ,フィレ径,重心等)を求め、インタフ
ェース部13を介して統合プロセッサ12へ入力する。
統合プロセッサ12はCPU14を用いて前時刻の対象
物体と現時刻の対象物体との間で対応付けを行い、メモ
リ15に作成済みの監視領域の平面図(全体地図)上に
対象物体2の動きの状態をプロットし、その結果を表示
装置16に表示する。また、対象物体2の動きから動き
の特異性を検知した場合はその対象物体の現在位置とそ
の位置を撮像しているカメラ番号を対応する画面上に点
滅表示するとともに警報器17を介して監視員にアラー
ムを発する。監視員は当該表示画面を見て異常発生個所
を確認し、必要に応じて操作パッド18から画面上に表
示されたカメラ番号に対応するカメラを指定し、カメラ
の首振り,ズームアップ等を行い、モニタ20を介して
カメラの映像をみることができる。これは操作パッド1
8から統合プロセッサ12,カメラ切り替え器29を通
してカメラ制御信号がカメラ制御部28a−28cに与
えられ、カメラ切り替え器29は当該カメラ制御信号に
応じて当該カメラを選択し、カメラ制御部28a−28
cは首振り,ズームアップ等カメラを制御して、当該カ
メラの映像信号をモニタ20に送り表示することにより
達成される。このような構成により、画像処理結果に基
づいたカメラの制御が簡単にできる。
FIG. 16 shows another example of the system configuration. A plurality of cameras 10a-10c capture images of the inside or the outside of the building, and monitor objects including moving objects such as the door 1 and the target person 2 as the camera / image processing device 26a-2.
6c to the image processing units 27a-27c. The image processing units 27a to 27c calculate the feature amounts (for example, area, density average value, density variance value, vertical and horizontal length of the circumscribed rectangle, fillet diameter, center of gravity, etc.) of the target object 2 in the input image, and Input to the integrated processor 12 via the unit 13.
The integrated processor 12 uses the CPU 14 to associate the target object at the previous time with the target object at the current time, and displays the motion of the target object 2 on the plan view (overall map) of the monitoring area created in the memory 15. Is plotted, and the result is displayed on the display device 16. When the specificity of the motion is detected from the motion of the target object 2, the current position of the target object and the number of the camera that is capturing the position are blinked on the corresponding screen and monitored via the alarm 17. Raise alarm to staff. The observer looks at the display screen to check the location where the abnormality has occurred, and if necessary, designates the camera corresponding to the camera number displayed on the screen from the operation pad 18, and swings the camera, zooms in, etc. , The video of the camera can be viewed via the monitor 20. This is operation pad 1
8, a camera control signal is supplied to the camera control units 28a to 28c through the integrated processor 12 and the camera switching unit 29. The camera switching unit 29 selects the camera in accordance with the camera control signal, and the camera control units 28a to 28c.
c is achieved by controlling the camera such as swinging and zooming up and transmitting the video signal of the camera to the monitor 20 for display. With such a configuration, control of the camera based on the image processing result can be easily performed.

【0032】以下、本発明の中心部分である広範囲な監
視領域の移動物体の行動状態及び監視領域の異常状態を
ディスプレイ上に表示する処理のたの方法を図17に示
す。本方法は図1の画像処理装置11とCPU14、図
11の画像処理部22とCPU14、図16の画像処理
部27とCPU14との間での機能分担の仕方が前述の
方法と異なる。すなわち、画像処理装置11または画像
処理部22,27で個々の画面内の物体の対応付けを行
い、物体の消失や出現の情報を統合プロセッサ12,1
2′のCPU14へ転送し、CPU14で画面間での統
合処理を行う。図1のシステム構成の場合を例に以下説
明する。
FIG. 17 shows a method of displaying the action state of a moving object in a wide monitoring area and the abnormal state of the monitoring area on a display, which is a central part of the present invention. This method differs from the above-described method in the way of sharing functions between the image processing device 11 and the CPU 14 in FIG. 1, the image processing unit 22 and the CPU 14 in FIG. 11, and the image processing unit 27 and the CPU 14 in FIG. That is, the image processing apparatus 11 or the image processing units 22 and 27 associate the objects in the individual screens, and the information on the disappearance or appearance of the objects is integrated with the integrated processors 12 and 1.
2 'to the CPU 14, and the CPU 14 performs integration processing between the screens. The case of the system configuration of FIG. 1 will be described below as an example.

【0033】図17において、まず、入力画像取り込み
310は、画像処理装置11a−11cにおいて、カメ
ラ10a−10cから取り込んだ画像を画像処理装置11
a−11c内の画像メモリに格納する。差分画像抽出3
20は、あらかじめ画像メモリに記憶してある背景画像
と上記入力画像との差分画像s(t)を求める。2値化
処理330は上記差分処理s(t)を所定のしきい値で
2値化し、2値画像b(t)を作成する。その後、ラベ
リング340により各物体に番号付けをし、特徴量計算
350で各物体毎の特徴量(面積,濃度平均値,濃度分
散値,外接長方形の縦,横の長さ,フィレ径,重心等)
を求める。対応付け360は求められた特徴量を用いて
前回の入力画像内の物体との対応付けを行う。対応付け
の方法としては、テンプレートマッチング,相関法,特
徴追跡法等種々の方法が報告されているが、ここでは簡
単に特徴追跡法の一つとして物体間の重心間距離,面
積,移動方向が近いもの同士を対応付けている。対応付
け結果転送370は、対応付け360で求めた各画面毎
の対応付け結果を統合プロセッサ12へ転送する。入力
画像取り込み310から対応付け結果転送370までは
画像処理装置11a−11cで処理される。ただし、図
11に示す構成例の場合はこの部分の処理も統合プロセ
ッサ12′で処理される。次に、対応付け結果統合38
0は各画像処理装置11a−11cから転送された対応
付け結果を監視領域全体で統合する。そして、物体の行
動状態表示390は対応付けにより求められた各物体の
移動量,移動方向等を全体地図上にプロットし、CRT
等の表示装置20に表示する。物体の行動状態を表示し
た後、行動の特異性を判定し、異常状態の有無判定40
0を行う。そして、異常状態である場合には、行動の異
常状態の表示及び報知410はその旨を監視員等に報知
するとともに、異常を検知したカメラの映像をモニタ2
0に表示する。そして処理を一時停止する。監視員は適
当な処置が終了すると再度、処理の開始を指示すること
により、本装置は上記と同様の処理を繰り返す。一方、
異常状態で無い場合には最初の処理に戻り、新たに画像
を入力し、上記と同様の処理を繰り返す。
Referring to FIG. 17, first, an input image capturing unit 310 converts an image captured from a camera 10a-10c by an image processing unit 11a-11c.
a-11c is stored in the image memory. Difference image extraction 3
20 obtains a difference image s (t) between the background image previously stored in the image memory and the input image. The binarization processing 330 binarizes the difference processing s (t) with a predetermined threshold to create a binary image b (t). Thereafter, each object is numbered by labeling 340, and the feature amount (area, density average value, density variance value, vertical and horizontal lengths of the circumscribed rectangle, fillet diameter, center of gravity, etc.) )
Ask for. The association 360 associates with the object in the previous input image using the obtained feature amount. Various methods such as template matching, correlation method, and feature tracking method have been reported as a matching method. Here, as one of the feature tracking methods, the distance between the centers of gravity, the area, and the moving direction of the objects are simply described as one of the feature tracking methods. Near objects are associated with each other. The association result transfer 370 transfers the association result for each screen obtained in the association 360 to the integrated processor 12. The processing from the input image capture 310 to the association result transfer 370 is processed by the image processing apparatuses 11a to 11c. However, in the case of the configuration example shown in FIG. 11, the processing of this portion is also processed by the integrated processor 12 '. Next, the association result integration 38
0 integrates the association result transferred from each of the image processing apparatuses 11a to 11c over the entire monitoring area. The object action state display 390 plots the movement amount, movement direction, and the like of each object obtained by association on the entire map, and displays the CRT.
Etc. on the display device 20. After displaying the action state of the object, the specificity of the action is determined, and the presence or absence of an abnormal state is determined.
Perform 0. In the case of an abnormal state, the display and notification 410 of the abnormal state of the action notifies the monitoring person or the like of the abnormal state and also displays the image of the camera that has detected the abnormality on the monitor 2.
Display at 0. Then, the processing is temporarily stopped. After the appropriate measures are completed, the observer instructs to start the processing again, and the apparatus repeats the same processing as described above. on the other hand,
If there is no abnormal state, the process returns to the first process, a new image is input, and the same process as above is repeated.

【0034】さらに別のシステム構成例としては、図1
と図12を組み合わせて、画像処理部と無線装置を備
え、一般区域はカメラまたはアンテナのどちらかを設置
し、重要区域とその周辺はカメラとアンテナの両方を設
置することにより監視の信頼性を上げることができる。
As still another example of the system configuration, FIG.
Combined with Figure 12 and equipped with an image processing unit and a wireless device, the general area is equipped with either a camera or an antenna, and the important area and its surroundings are equipped with both a camera and an antenna to increase the reliability of surveillance. Can be raised.

【0035】[0035]

【発明の効果】本発明によれば、広範囲の監視領域全体
の物体の行動状態を一目で確認できるので、駅の構内や
地下街,重要施設等における広範囲な監視領域全体の物
体の行動状態を監視する監視員の負荷を軽減できるとい
う効果がある。
According to the present invention, it is possible to check at a glance the behavior of objects in the entire monitoring area over a wide range, so that the behavior of the objects over the wide monitoring area in the station premises, underground shopping malls, important facilities and the like can be monitored. This has the effect of reducing the load on the monitoring personnel who performs the monitoring.

【0036】また、無線装置を用いた物体の追跡により
個人のプライバシーの侵害が最小限に限定されるという
効果がある。
In addition, the tracking of an object using the wireless device has an effect that invasion of the privacy of an individual is minimized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】移動物体監視装置の構成を示すブロック図であ
る。
FIG. 1 is a block diagram illustrating a configuration of a moving object monitoring device.

【図2】本発明の一実施例である物体の行動状態及び監
視領域の異常状態表示処理の流れを示すフロー図であ
る。
FIG. 2 is a flowchart showing a flow of processing for displaying an action state of an object and an abnormal state of a monitoring area according to an embodiment of the present invention;

【図3】屋内の行動監視の一例を示す図である。FIG. 3 is a diagram showing an example of indoor behavior monitoring.

【図4】建物の平面図(全体地図)とカメラの監視領域
を示す図である。
FIG. 4 is a diagram showing a plan view (overall map) of a building and a monitoring area of a camera.

【図5】物体の行動状態の全体地図を示す説明図であ
る。
FIG. 5 is an explanatory diagram showing an entire map of an action state of an object.

【図6】物体の行動状態の表示例を示す説明図である。FIG. 6 is an explanatory diagram showing a display example of an action state of an object.

【図7】物体の行動状態の別の表示例を示す説明図であ
る。
FIG. 7 is an explanatory diagram showing another display example of an action state of an object.

【図8】物体の行動状態の別の表示例を示す説明図であ
る。
FIG. 8 is an explanatory diagram showing another display example of an action state of an object.

【図9】物体の行動状態の別の表示例を示す説明図であ
る。
FIG. 9 is an explanatory diagram showing another display example of an action state of an object.

【図10】物体の行動状態の別の表示例を示す説明図で
ある。
FIG. 10 is an explanatory diagram showing another display example of an action state of an object.

【図11】移動物体監視装置の別の構成を示すブロック
図である。
FIG. 11 is a block diagram showing another configuration of the moving object monitoring device.

【図12】移動物体監視装置の別の構成を示すブロック
図である。
FIG. 12 is a block diagram showing another configuration of the moving object monitoring device.

【図13】屋内の行動監視の別の一例を示す図である。FIG. 13 is a diagram showing another example of indoor behavior monitoring.

【図14】建物の平面図(全体地図)とカメラ及びアン
テナの監視領域を示す図である。
FIG. 14 is a diagram showing a plan view (overall map) of a building and a monitoring area of a camera and an antenna.

【図15】本発明の別の一実施例である物体の行動状態
及び監視領域の異常状態表示処理の流れを示すフロー図
である。
FIG. 15 is a flowchart showing a flow of processing for displaying an action state of an object and an abnormal state of a monitoring area according to another embodiment of the present invention.

【図16】移動物体監視装置の別の構成を示すブロック
図である。
FIG. 16 is a block diagram showing another configuration of the moving object monitoring device.

【図17】本発明の別の一実施例である物体の行動状態
及び監視領域の異常状態表示処理の流れを示すフロー図
である。
FIG. 17 is a flowchart showing a flow of processing for displaying an action state of an object and an abnormal state of a monitoring area according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

10…カメラ、11…画像処理装置、12…統合プロセ
ッサ、13…インタフェース部、14…CPU、15…
メモリ、16…表示装置、17…警報器、18…操作パ
ッド、19…カメラ制御装置、20…モニタ、25…端
末。
DESCRIPTION OF SYMBOLS 10 ... Camera, 11 ... Image processing apparatus, 12 ... Integrated processor, 13 ... Interface part, 14 ... CPU, 15 ...
Memory, 16 display device, 17 alarm device, 18 operation pad, 19 camera control device, 20 monitor, 25 terminal.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小野瀬 健太郎 茨城県日立市大みか町五丁目2番1号 株式会社 日立製作所 大みか工場内 (56)参考文献 特開 平5−14891(JP,A) 特開 平3−118697(JP,A) 特開 平1−121978(JP,A) 特開 平4−364598(JP,A) 特開 昭61−277234(JP,A) 特開 平4−273689(JP,A) 特開 平4−200085(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 7/18 JICSTファイル(JOIS)──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Kentaro Onose 5-2-1 Omika-cho, Hitachi City, Ibaraki Prefecture Hitachi, Ltd. Omika Plant (56) References JP-A-5-14891 (JP, A) JP-A-3-118697 (JP, A) JP-A-1-121978 (JP, A) JP-A-4-364598 (JP, A) JP-A-61-277234 (JP, A) JP-A-4-273689 ( JP, A) JP-A-4-200085 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06T 7/ 00-7/60 G06T 1/00 H04N 7/18 JICST file ( JOIS)

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】対象の画像を取り込む複数の画像入力手段
と、前記複数の画像入力手段により取り込まれた画像に
対して各種画像処理を行う画像処理手段と、各種データ
処理を行うデータ処理手段を用いて物体を追跡する装置
において、 前記画像処理手段の出力データを統合し、監視領域の前
時刻と現時刻との間で物体の対応付けを行う手段と、前
記対応付け結果に基づいて物体の行動状態を決定する行
動状態決定手段と、当該行動状態決定手段の出力データ
に基づいて監視領域図上に物体の行動状態を表示する手
段とを具備し、監視領域の物体の行動状態を視認できる
ようにしたことを特徴とする移動物体監視装置。
A plurality of image input means for inputting a target image; an image processing means for performing various image processing on the image input by the plurality of image input means; and a data processing means for performing various data processing. In an apparatus for tracking an object using: a unit that integrates output data of the image processing unit and associates an object between a previous time and a current time of a monitoring area ; and An action state determining means for determining an action state, and means for displaying an action state of an object on a monitoring area diagram based on output data of the action state determining means, the action state of the object in the monitoring area can be visually recognized. A moving object monitoring apparatus characterized in that:
【請求項2】請求項1の監視装置において、 物体の行動に異常状態が発生した場合、当該物体が存在
するカメラ番号を監視領域図上に、あるいはカメラを表
すアイコンを監視領域図上のカメラ位置に表示すること
を特徴とする移動物体監視装置。
2. A monitoring apparatus according to claim 1, when an abnormal condition occurs in the object of the action, the camera number where the object exists in the monitoring area diagram or the icon representing the camera diagram monitoring area, the camera A moving object monitoring device that displays a position.
【請求項3】対象の画像を取り込む複数の画像入力手段
と、前記複数の画像入力手段により取り込まれた画像に
対して各種画像処理を行う画像処理手段と、各種データ
処理を行うデータ処理手段を用いて物体を追跡する装置
において、 前記各画像処理手段の出力データである前時刻と現時刻
との間での物体の対応付け結果を統合する手段と、前記
統合された対応付け結果に基づいて物体の行動状態を決
定する行動状態決定手段と、当該行動状態決定手段の出
力データに基づいて監視領域図上に物体の行動状態を表
示する手段とを具備し、監視領域の物体の行動状態を視
認できるようにしたことを特徴とする移動物体監視装
置。
3. An image processing apparatus comprising: a plurality of image input means for capturing a target image; an image processing means for performing various image processing on the image captured by the plurality of image input means; and a data processing means for performing various data processing. An apparatus for tracking an object using: a unit that integrates a result of association of an object between a previous time and a current time, which is output data of each of the image processing units; and An action state determining means for determining the action state of the object, and means for displaying the action state of the object on the monitoring area diagram based on the output data of the action state determining means, wherein the action state of the object in the monitoring area is displayed. A moving object monitoring device characterized in that it can be visually recognized.
【請求項4】対象の画像を取り込む複数の画像入力手段
と、前記複数の画像入力手段により取り込まれた画像に
対して各種画像処理を行う画像処理手段と、無線により
対象物体の識別番号を読み取る無線手段と、前記画像処
理手段の出力データを統合し、監視領域の前時刻と現時
刻との間で物体の対応付けを行う手段と、前記対応付け
結果と前記無線手段の出力データに基づいて物体の行動
状態を決定する行動状態決定手段と、当該行動状態決定
手段の出力データに基づいて監視領域図上に物体の行動
状態を表示する手段とを具備し、監視領域の物体の行動
状態を視認できるようにしたことを特徴とする移動物体
監視装置。
4. A plurality of image input means for capturing an image of a target, an image processing means for performing various image processing on the image captured by the plurality of image input means, and an identification number of the target object read wirelessly. Wireless means, means for integrating the output data of the image processing means, means for associating the object between the previous time and the current time of the monitoring area, based on the association result and the output data of the wireless means and action state determining means for determining a behavioral state of the object, and means for displaying the action state of the object on the monitoring area diagram based on the output data of the motion status determining unit, the action state of the object monitoring region A moving object monitoring device characterized in that it can be visually recognized.
【請求項5】対象の画像を取り込む画像入力手段と、前
記画像入力手段により取り込まれた画像に対して各種画
像処理を行う画像処理手段と、各種データ処理を行うデ
ータ処理手段を用いて物体を追跡する装置において、 前記データ処理手段の出力に基づいて物体の行動状態を
決定する行動状態決定手段と、当該行動状態決定手段の
出力データに基づいて監視領域図上に物体の行動状態を
あらかじめ設定した図形により表示装置に表示する手段
とを具備し、前記図形の大きさを前記物体の停止時間、
又は停留時間に対応させ変化させて表示することを特徴
とする移動物体監視装置。
5. An image input means for capturing a target image,
Various images can be input to the image
Image processing means for performing image processing, and data for performing various data processing.
In an apparatus for tracking an object using data processing means, an action state of the object is determined based on an output of the data processing means.
Action state determining means to be determined;
Based on the output data, the action state of the object on the monitoring area map
Means for displaying on a display device with a figure set in advance
And the stop time of the object, the size of the figure,
Alternatively, it is displayed by changing according to the stop time
Moving object monitoring device.
【請求項6】対象の画像を取り込む画像入力手段と、前
記画像入力手段により取り込まれた画像に対して各種画
像処理を行う画像処理手段と、各種データ処理を行うデ
ータ処理手段を用いて物体を追跡する装置において、 前記データ処理手段の出力に基づいて物体の行動状態を
決定する行動状態決定手段と、当該行動状態決定手段の
出力データに基づいて監視領域図上に物体の行動状態を
あらかじめ設定した図形により表示装置に表示する手段
とを具備し、前記図形の色の明度,彩度あるいは色相を
前記物体の停止時間、又は停留時間に対応させ変化させ
て表示することを特徴とする移動物体監視装置。
6. An image input means for capturing an image of a target,
Various images can be input to the image
Image processing means for performing image processing, and data for performing various data processing.
In an apparatus for tracking an object using data processing means, an action state of the object is determined based on an output of the data processing means.
Action state determining means to be determined;
Based on the output data, the action state of the object on the monitoring area map
Means for displaying on a display device with a figure set in advance
And the lightness, saturation or hue of the color of the figure is
Stop time of the object, or change according to the stop time
A moving object monitoring apparatus characterized in that the moving object is displayed.
JP19582593A 1993-08-06 1993-08-06 Moving object monitoring device Expired - Fee Related JP3257165B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19582593A JP3257165B2 (en) 1993-08-06 1993-08-06 Moving object monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19582593A JP3257165B2 (en) 1993-08-06 1993-08-06 Moving object monitoring device

Publications (2)

Publication Number Publication Date
JPH0749952A JPH0749952A (en) 1995-02-21
JP3257165B2 true JP3257165B2 (en) 2002-02-18

Family

ID=16347633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19582593A Expired - Fee Related JP3257165B2 (en) 1993-08-06 1993-08-06 Moving object monitoring device

Country Status (1)

Country Link
JP (1) JP3257165B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11381782B2 (en) 2018-03-29 2022-07-05 Nec Corporation Video monitoring apparatus, control method thereof, and computer readable medium

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08251573A (en) * 1995-03-13 1996-09-27 Matsushita Electric Ind Co Ltd Decentralized image processor
JP3664784B2 (en) * 1995-10-31 2005-06-29 松下電器産業株式会社 Wide area monitoring device
JP3792812B2 (en) * 1996-11-11 2006-07-05 オークマ株式会社 Ball end mill sphericity measurement method
JP2004096501A (en) * 2002-08-30 2004-03-25 Ntt Advanced Technology Corp System and method for detecting position of mobile object and program
JP4120379B2 (en) * 2002-12-05 2008-07-16 カシオ計算機株式会社 Behavior monitoring system and program
JP4298621B2 (en) * 2004-09-28 2009-07-22 株式会社エヌ・ティ・ティ・データ Object detection apparatus, object detection method, and object detection program
JP4559874B2 (en) * 2005-03-01 2010-10-13 ティーオーエー株式会社 Motion tracking device
JP2007329622A (en) * 2006-06-07 2007-12-20 Shimizu Corp Video monitor system
JP4712741B2 (en) * 2006-07-21 2011-06-29 池上通信機株式会社 Still-time identification image generation method and apparatus
JP4980746B2 (en) * 2006-07-21 2012-07-18 池上通信機株式会社 Still-time identification image generation method and apparatus
WO2008029724A1 (en) * 2006-09-04 2008-03-13 Panasonic Corporation Danger judging device, danger judging method, danger reporting device, and danger judging program
JP5003558B2 (en) * 2008-03-31 2012-08-15 Jfeスチール株式会社 Monitoring device and method in control panel
JP5106302B2 (en) * 2008-07-31 2012-12-26 セコム株式会社 Moving object tracking device
JP5147761B2 (en) * 2009-03-02 2013-02-20 セコム株式会社 Image monitoring device
JP5147760B2 (en) * 2009-03-02 2013-02-20 セコム株式会社 Image monitoring device
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
JP5701657B2 (en) * 2011-03-31 2015-04-15 セコム株式会社 Anomaly detection device
WO2014112407A1 (en) * 2013-01-16 2014-07-24 日本電気株式会社 Information processing system, information processing method, and program
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP6488647B2 (en) * 2014-09-26 2019-03-27 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
JP6573361B2 (en) * 2015-03-16 2019-09-11 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and computer program
JP2017034511A (en) * 2015-08-03 2017-02-09 株式会社ブイ・アール・テクノセンター Moving body detection system
JP7235049B2 (en) 2018-07-31 2023-03-08 日本電気株式会社 Evaluation device, evaluation method, and computer program
KR102100803B1 (en) * 2019-11-20 2020-04-14 (주)지인테크 Video surveillance system and method for easy object tracking

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11381782B2 (en) 2018-03-29 2022-07-05 Nec Corporation Video monitoring apparatus, control method thereof, and computer readable medium
US11924585B2 (en) 2018-03-29 2024-03-05 Nec Corporation Video monitoring apparatus, control method thereof, and computer readable medium

Also Published As

Publication number Publication date
JPH0749952A (en) 1995-02-21

Similar Documents

Publication Publication Date Title
JP3257165B2 (en) Moving object monitoring device
US8908034B2 (en) Surveillance systems and methods to monitor, recognize, track objects and unusual activities in real time within user defined boundaries in an area
KR20180095261A (en) IOT Based Safety Management System for Construction Site Using the RTLS and Video Control Technology
US20080198225A1 (en) TVMS- a total view monitoring system
US20090122144A1 (en) Method for detecting events at a secured location
JP6529062B1 (en) DIGITAL ACCURATE SECURITY SYSTEM, METHOD, AND PROGRAM
JP2012104022A (en) Monitoring system and monitoring server
KR101936837B1 (en) Map-based intelligent video integrated surveillance system and monitoring method using the same
JP4925419B2 (en) Information collection system and mobile terminal
JP2006202062A (en) Facility monitoring system
US7194109B2 (en) Method and system for delivering monitored image signal of subject to be monitored
KR20080044812A (en) The automatic guard system to prevent the crime and accident using computer video image analysis technology
JP4244221B2 (en) Surveillance video distribution method, surveillance video distribution apparatus, and surveillance video distribution system
JP3979902B2 (en) Surveillance video delivery system and surveillance video delivery method
KR101005568B1 (en) Intelligent security system
KR101795798B1 (en) Intelligent surveillance camera system
CN104992276A (en) Tunnel checking-in safety management system based on RFID
JPH11284988A (en) Supervisory camera system
KR20160141537A (en) System for managing a location in zone
CN106385559A (en) Three-dimensional monitoring system
KR101280353B1 (en) Event notification system of condition using mobile device
JP2003523647A (en) Closed circuit television (CCTV) camera and system
JP2008148138A (en) Monitoring system
CN113643508B (en) Disaster prevention emergency channel monitoring method, system, equipment and storage medium
JP4096953B2 (en) Human body detector

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees