JPH08251573A - Decentralized image processor - Google Patents

Decentralized image processor

Info

Publication number
JPH08251573A
JPH08251573A JP7052211A JP5221195A JPH08251573A JP H08251573 A JPH08251573 A JP H08251573A JP 7052211 A JP7052211 A JP 7052211A JP 5221195 A JP5221195 A JP 5221195A JP H08251573 A JPH08251573 A JP H08251573A
Authority
JP
Japan
Prior art keywords
unit
image
information
processing unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7052211A
Other languages
Japanese (ja)
Inventor
Hiko Nakamoto
基 孫 中
Kenji Kitamura
村 健 児 北
Takehisa Tanaka
中 武 久 田
Kazufumi Mizusawa
澤 和 史 水
Toshikazu Fujioka
岡 利 和 藤
Masato Mori
真 人 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Tokyo Electric Power Company Holdings Inc
Original Assignee
Tokyo Electric Power Co Inc
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc, Matsushita Electric Industrial Co Ltd filed Critical Tokyo Electric Power Co Inc
Priority to JP7052211A priority Critical patent/JPH08251573A/en
Publication of JPH08251573A publication Critical patent/JPH08251573A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

PURPOSE: To synchronize and process the outputs of all image processing units that are passed through a network by an integrated processing. CONSTITUTION: Images photographed by cameras 1 of N image units 4 and their processing result information are synchronized by a synchronization unit 5 and sent to the network 6, and information received from the network 6 is stored in N storage units 7; and a synchronous processing unit 9 synchronizes and outputs the information in the storage units 7 to the integrated processing unit 8 on the basis of time information included in the stored information, and the integrated processing unit 8 finds the positions of respective moving bodies in the whole areas monitored by the cameras 1. When the processor is constituted so as to select only necessary information on the basis of the processing result of the integrated processing unit 8, the increase in the number of the cameras 4 can be coped with without increasing the number of the storage units 7.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、主に人や車等の動物体
の情報を検出し、その動物体を追跡する分散画像処理装
置に関するものであり、監視システム、セキュリティ機
器、住宅関連機器、インテリジェントビルデイングシス
テム(IBS)等の産業分野に利用できるものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distributed image processing apparatus which mainly detects information on a human body such as a person or a car and traces the moving body, and is concerned with a monitoring system, a security device and a housing-related device. , Intelligent Building System (IBS), etc.

【0002】[0002]

【従来の技術】従来、可視、赤外線および3次元計測の
複数の映像入力手段(以降、カメラと呼ぶ)により撮影
された動画像や映像情報を用いて、複数のカメラの監視
区域での人や車等の動物体の追跡により不審者や侵入者
の監視を行う自動監視システムが開発されている。
2. Description of the Related Art Conventionally, moving images and video information captured by a plurality of video input means (hereinafter referred to as cameras) for visible, infrared and three-dimensional measurement are used to detect people in a surveillance area of a plurality of cameras. An automatic monitoring system has been developed to monitor a suspicious person or an intruder by tracking a moving body such as a car.

【0003】複数のカメラを用いた従来の監視システム
は、カメラの映像情報を人間がモニタするものが一般的
である。このようなシステムでは、人間がモニタするた
めに少ないデイスプレイで構成されており、各カメラ映
像情報を適当な時間感覚で切り替えている。しかし、こ
のような人間に頼らないで自動的にシステムが監視を行
う機器の開発が行われており、図5はそのような複数の
カメラの映像情報を処理する自動監視システムの一例を
示している。
In the conventional monitoring system using a plurality of cameras, a person generally monitors the image information of the cameras. Such a system is configured with a small number of displays for human monitoring, and switches the video information of each camera in an appropriate time sense. However, a device is being developed in which the system automatically monitors without relying on such a person, and FIG. 5 shows an example of such an automatic monitoring system that processes image information of a plurality of cameras. There is.

【0004】図5において、51は複数のカメラであ
り、広い区域や特定の区域を精度良く監視するために、
監視区域を様々な角度から観測する。52は複数のカメ
ラ51にそれぞれ接続された複数の画像処理ユニットで
あり、53は各画像処理ユニット52の出力を統合処理
する統合処理ユニットである。カメラ51から撮影され
た映像情報54は、画像処理ユニット52に入力され
る。画像処理ユニット52では、人や車等の動物体から
抽出された動物体の位置やその特徴量を算出する。カメ
ラ51と画像処理ユニット52は、1対1の関係でそれ
ぞれN(Nは正の正数)個からなるが、構成方法によ
り、1対1の関係である必要は必ずしもない。
In FIG. 5, reference numeral 51 denotes a plurality of cameras, which are used to accurately monitor a wide area or a specific area.
Observe the surveillance area from various angles. Reference numeral 52 is a plurality of image processing units respectively connected to the plurality of cameras 51, and 53 is an integrated processing unit for integrally processing the output of each image processing unit 52. Video information 54 taken by the camera 51 is input to the image processing unit 52. The image processing unit 52 calculates the position of the moving body extracted from the moving body such as a person or a car and the feature amount thereof. The camera 51 and the image processing unit 52 are N (N is a positive positive number) each in a one-to-one relationship, but they do not necessarily have a one-to-one relationship depending on the configuration method.

【0005】次に、画像処理ユニット52からの出力情
報55は、画像処理ユニット52で処理された結果であ
る人や車等の動物体の位置やその特徴量であり、統合処
理ユニット53では、それらの情報に基づいて、全ての
カメラ51が監視している区域全体の人や車の動きを逐
次追跡し、その追跡信号を出力56として後段の処理に
伝える。出力56は、監視する人に伝える場合には、監
視区域の人や車の動きをデイスプレイに表示するための
処理が施され、デイスプレイに表示されたり、不審者や
侵入者の監視では、追跡された動物体の動きを監視する
処理ユニットに入力され、それらの動きを監視する処理
が施される。
Next, the output information 55 from the image processing unit 52 is the position of the human body such as a person or a car and its characteristic amount as a result of the processing by the image processing unit 52, and the integrated processing unit 53 Based on these pieces of information, the movements of people and vehicles in the entire area monitored by all the cameras 51 are sequentially tracked, and the tracking signal is transmitted as an output 56 to the subsequent processing. The output 56 is processed so as to display the movement of a person or a vehicle in the surveillance area on the display when it is transmitted to a person to be monitored, and is displayed on the display or is tracked when monitoring a suspicious person or an intruder. It is input to the processing unit that monitors the movement of the moving body, and the processing that monitors those movements is performed.

【0006】なお、画像処理ユニット52からの出力の
うち、動物体の位置情報としては、各画像処理ユニット
52が、そのユニットに対応するカメラ51が監視区域
全体の中で、設置された位置や角度を事前に知っている
場合は、監視区域全体での位置座標であるし、知らない
場合は、各カメラ51の撮影区域内の位置座標を出力
し、統合処理ユニット53で監視区域全体の位置座標に
変換する方法が想定される。
Of the outputs from the image processing unit 52, the position information of the moving object is the position where each image processing unit 52 has the camera 51 corresponding to the unit installed in the entire monitoring area. If the angle is known in advance, it is the position coordinates in the entire monitoring area. If not, the position coordinates in the shooting area of each camera 51 are output, and the integrated processing unit 53 outputs the position of the entire monitoring area. A method of converting to coordinates is envisioned.

【0007】ところで、図5に示す監視システムは、複
数のカメラ51を接続する場合に、画像処理ユニット5
2との接続が複雑になる。具体的には、画像処理ユニッ
ト52と統合処理ユニット53を結ぶケーブルの数が、
カメラ51の数に比例する。このため、統合処理ユニッ
ト53と画像処理ユニット52との空間的な距離がある
場合には、接続のために作業や費用が増えることにな
り、実用面で問題が発生する。
By the way, in the surveillance system shown in FIG. 5, when a plurality of cameras 51 are connected, the image processing unit 5 is connected.
Connection with 2 becomes complicated. Specifically, the number of cables connecting the image processing unit 52 and the integrated processing unit 53 is
It is proportional to the number of cameras 51. Therefore, if there is a spatial distance between the integrated processing unit 53 and the image processing unit 52, the work and cost for the connection increase, which causes a problem in practical use.

【0008】そこで、上記の問題を解決するための簡単
な手法として、情報ネットワークを介して、画像処理ユ
ニットと統合処理ユニットを結ぶことが考えられる。図
6にその構成例を示す。図6において、61は複数のカ
メラ、62は複数のカメラ61に接続された複数の画像
処理ユニット、63は各画像処理ユニット62に接続さ
れたインタフェースユニット(I/F)、64は各イン
タフェースユニット63が接続された非同期の情報ネッ
トワーク、65はネットワーク64に接続されたインタ
フェースユニット(I/F)、66はインタフェースユ
ニット65に接続された統合処理ユニットである。
Therefore, as a simple method for solving the above problem, it is conceivable to connect the image processing unit and the integrated processing unit via an information network. FIG. 6 shows an example of the configuration. In FIG. 6, 61 is a plurality of cameras, 62 is a plurality of image processing units connected to the plurality of cameras 61, 63 is an interface unit (I / F) connected to each image processing unit 62, and 64 is each interface unit. An asynchronous information network 63 is connected, 65 is an interface unit (I / F) connected to the network 64, and 66 is an integrated processing unit connected to the interface unit 65.

【0009】カメラ61から撮影された映像情報67
は、画像処理ユニット62に入力される。画像処理ユニ
ット62では、人や車等の動物体から抽出された動物体
の位置やその特徴量を算出する。画像処理ユニット62
からの出力情報68は、情報ネットワーク64に載せら
れる情報にするため、ネットワーク64の通信プロトコ
ルに基づいてインタフェースユニット63で変換され、
ネットワーク情報69となり、情報ネットワーク64を
経由して、入力情報70となる。この入力情報70は、
統合処理ユニット66に入力するため、情報変換用のイ
ンタフェースユニット65で変換されて変換情報71と
なり、統合処理ユニット66に渡される。統合処理ユニ
ット66では、それらの情報に基づいて、全てのカメラ
61が監視している区域全体の人や車の動きを逐次追跡
する。
Video information 67 taken from the camera 61
Is input to the image processing unit 62. The image processing unit 62 calculates the position of the moving body extracted from the moving body such as a person or a car and the feature amount thereof. Image processing unit 62
Output information 68 from is converted by the interface unit 63 based on the communication protocol of the network 64 to be information to be loaded on the information network 64,
It becomes the network information 69, and becomes the input information 70 via the information network 64. This input information 70 is
Since it is input to the integrated processing unit 66, it is converted by the interface unit 65 for information conversion and becomes converted information 71, which is passed to the integrated processing unit 66. The integrated processing unit 66 sequentially tracks the movements of people and vehicles in the entire area monitored by all the cameras 61 based on the information.

【0010】このシステムの場合は、統合処理ユニット
62が受け取った情報がどの画像処理ユニットからのも
のであるか分かるように、画像処理ユニット62の識別
番号等の識別子を画像処理ユニット62の出力情報68
に付加させる必要がある。
In the case of this system, an identifier such as an identification number of the image processing unit 62 is used as output information of the image processing unit 62 so that the integrated processing unit 62 can know from which image processing unit the information received is. 68
Need to be added.

【0011】[0011]

【発明が解決しようとする課題】しかし、上記従来技術
で示した図5、図6の監視システムは、実用面で以下の
問題が発生する。図5の問題としては、前述したよう
に、画像処理ユニットと統合処理ユニットを結ぶケーブ
ルの数がカメラの数に比例するため、統合処理ユニット
と画像処理ユニットとの空間的な距離がある場合には、
接続のために作業や費用が増えることになる。そこで、
接続の簡略化を図るため、図6のように非同期の情報ネ
ットワークに接続する場合は、時間的な流れの同期をと
ることが難しくなる。
However, the monitoring system shown in FIGS. 5 and 6 shown in the above prior art has the following problems in practical use. As described above, the problem of FIG. 5 is that when the number of cables connecting the image processing unit and the integrated processing unit is proportional to the number of cameras, there is a spatial distance between the integrated processing unit and the image processing unit. Is
The work and cost for connecting will increase. Therefore,
In order to simplify the connection, it becomes difficult to synchronize the temporal flow when connecting to an asynchronous information network as shown in FIG.

【0012】すなわち、図5では各カメラからの撮影さ
れた映像情報は、統合処理ユニットに直接接続されてい
るために、時間的な差異を生じることはないが、図6の
ような場合では、非同期の情報ネットワーク経由で画像
処理ユニットの出力が、統合処理ユニットに渡されるた
めに撮影時間の違いの生じ、極端な場合では、同一画像
処理ユニットの処理結果も、時間方向で逆転して統合処
理ユニットに到着することがある。
That is, in FIG. 5, the image information taken from each camera does not cause a time difference because it is directly connected to the integrated processing unit, but in the case of FIG. Since the output of the image processing unit is passed to the integrated processing unit via the asynchronous information network, there is a difference in shooting time. In an extreme case, the processing results of the same image processing unit are reversed in the time direction and integrated processing is performed. May arrive at the unit.

【0013】したがって、これらの問題は、大きく分け
て次の2点の課題となる。 (1)カメラの数が増えた場合に、全ての画像処理ユニ
ットを統合処理ユニットに接続するのは実用面で困難で
ある。 (2)情報ネットワークを介した全ての画像処理ユニッ
トを統合処理ユニットと接続すると、各画像処理ユニッ
トの撮影時間の同期をとることが難しい。
Therefore, these problems are roughly divided into the following two problems. (1) When the number of cameras increases, it is practically difficult to connect all the image processing units to the integrated processing unit. (2) When all the image processing units are connected to the integrated processing unit via the information network, it is difficult to synchronize the shooting times of the image processing units.

【0014】本発明は、上記従来の課題を解決するもの
であり、ネットワークを介した全ての画像処理ユニット
を統合処理ユニットに同期をとって接続することのでき
る分散画像処理装置を提供することを目的とする。
The present invention is to solve the above-mentioned conventional problems and to provide a distributed image processing apparatus capable of connecting all image processing units via a network to an integrated processing unit in synchronization. To aim.

【0015】[0015]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の第1の構成は、N個のカメラのような映
像入力手段から撮影される映像およびその処理結果の情
報を同期ユニットにより同期させてネットワークに送
り、ネットワークから受け取った情報をN個の記憶ユニ
ットに格納し、同期処理ユニットにより処理結果の情報
に含まれる撮影時間の時間的な同期を行い、統合処理ユ
ニットによりカメラで監視されている区域全体の各移動
物体の位置を求めるようにして、統合処理ユニットへの
入力時にはどの情報も撮影時間が同一のものが入力され
るようにしたものである。
In order to achieve the above-mentioned object, the first structure of the present invention synchronizes the information of the images taken from the image input means such as N cameras and the processing result thereof. The information is received from the network by being synchronized with the unit, stored in the N storage units, the synchronization processing unit temporally synchronizes the shooting time included in the information of the processing result, and the integrated processing unit performs the camera synchronization. The position of each moving object in the entire area monitored by is obtained in such a manner that all pieces of information having the same photographing time are input at the time of input to the integrated processing unit.

【0016】また、本発明の第2の構成は、複数の画像
処理ユニットからの情報を情報ネットワークを介して受
け取る場合に、統合処理ユニットの処理結果に基づい
て、入力情報切換ユニットで必要となる情報のみを選択
するように、同期処理ユニットが取捨選択の指示を行う
ようにしたものである。
The second configuration of the present invention is required in the input information switching unit based on the processing result of the integrated processing unit when receiving information from a plurality of image processing units via the information network. The synchronous processing unit gives an instruction of selection to select only information.

【0017】[0017]

【作用】本発明は、上記第1の構成により、複数のカメ
ラで撮影された映像情報が、画像処理ユニットに入力さ
れ、画像処理ユニットは、人や車等の移動物体の位置や
特徴量を算出し、情報ネットワークに送るためのインタ
フェースユニットに出力し、インタフェースユニット
は、情報ネットワークの通信プロトコルに従って、情報
を変換する。これらのカメラ、画像処理ユニット、イン
タフェースユニットにより構成される複数の画像ユニッ
トは、時間的な同期をとるための同期ユニットにより同
期して移動物体の情報を検出し、時間情報および画像ユ
ニットの番号を付加して出力する。この各画像ユニット
から出力された情報は、情報ネットワークを介して記憶
ユニットに格納される。記憶ユニットは、画像ユニット
の数と同数用意されており、各画像ユニットの出力は対
応する記憶ユニットに格納される。この時、使用された
情報ネットワークは、非同期のネットワークの場合に
は、記憶ユニットに到着する情報が時間の流れ方向にシ
ーケンシャルな順番とは限らないために、同期処理ユニ
ットにより各記憶ユニット内部の時間的な逆転や各記憶
ユニットからの出力情報が、同一時間に処理された情報
となるように、同期処理ユニットの指示に従って記憶ユ
ニット内部で並び換えが施され、統合処理ユニットへの
出力時には、同一時間に処理された情報が出力され、時
間的な同期が図られるようになる。
According to the present invention, with the above-described first configuration, image information captured by a plurality of cameras is input to the image processing unit, and the image processing unit determines the position and the characteristic amount of a moving object such as a person or a car. Calculated and output to an interface unit for sending to the information network, which converts the information according to the communication protocol of the information network. A plurality of image units composed of these cameras, image processing units, and interface units detect the information of the moving object in synchronization with the synchronization unit for time synchronization, and determine the time information and the image unit number. Add and output. The information output from each image unit is stored in the storage unit via the information network. The same number of storage units as the number of image units are prepared, and the output of each image unit is stored in the corresponding storage unit. At this time, when the information network used is an asynchronous network, the information arriving at the storage unit is not necessarily in a sequential order in the direction of time flow. Reversal and output information from each storage unit are rearranged inside the storage unit according to the instruction of the synchronous processing unit so that the information processed at the same time becomes the same information, and when output to the integrated processing unit, it is the same. Information processed in time is output, and time synchronization is achieved.

【0018】本発明の第2の構成では、画像ユニットの
出力までの手順については、上記第1の構成と同じであ
る。この各画像ユニットから出力された情報は、情報ネ
ットワークを介して入力情報切換ユニットに入力され
る。入力情報切換ユニットでは、入力情報に付加された
画像ユニットの番号と同期処理ユニットから指示される
必要となる画像ユニットの番号を照合させながら、必要
となる情報のみを記憶ユニットに格納する。記憶ユニッ
トは、画像ユニットの数よりも同数以下しか用意されて
ないために、同期処理ユニットの指示に従って、必要と
なる画像ユニットの出力が選択されてが記憶ユニットに
格納される。なお、同期処理ユニットは必要となる画像
ユニットの番号を統合処理ユニットからの情報に基づい
て決定している。この時、使用された情報ネットワーク
が、非同期のネットワークの場合には、記憶ユニットに
到着する情報は、時間の流れ方向にシーケンシャルな順
番とは限らないために、同期処理ユニットにより各記憶
ユニット内部の時間的な逆転や各記憶ユニットからの出
力情報が、同一時間に処理された情報となるように、同
期処理ユニットの指示に従って記憶ユニット内部で並び
換えが施され、統合処理ユニットへの出力時には同一時
間に処理された情報が出力される。このようにして、画
像ユニットの数から増えた場合でも、記憶ユニットの数
を同様に増やすことなく、必要となる情報のみを統合処
理ユニットで処理することができ、実用面において大き
な利点となる。
In the second configuration of the present invention, the procedure up to the output of the image unit is the same as in the first configuration. The information output from each image unit is input to the input information switching unit via the information network. The input information switching unit stores only the necessary information in the storage unit while collating the number of the image unit added to the input information with the number of the necessary image unit designated by the synchronization processing unit. Since the same number of storage units or less than the number of image units are prepared, the output of the required image unit is selected and stored in the storage unit according to the instruction of the synchronization processing unit. The synchronous processing unit determines the number of the required image unit based on the information from the integrated processing unit. At this time, when the information network used is an asynchronous network, the information arriving at the storage unit is not necessarily in a sequential order in the direction of time flow, so that the synchronous processing unit stores information in each storage unit. Reordering is performed inside the storage unit according to the instructions of the synchronous processing unit so that the time reversal and the output information from each storage unit become the information processed at the same time, and the same when outputting to the integrated processing unit. The information processed in time is output. In this way, even if the number of image units is increased, the integrated processing unit can process only necessary information without increasing the number of storage units, which is a great advantage in practical use.

【0019】[0019]

【実施例】【Example】

(実施例1)以下、本発明の第1の実施例について説明
する。図1は本発明の第1の実施例における構成を示す
ものである。図1において、1は映像入力手段としての
カメラであり、2はカメラ1から入力された映像を処理
し、人や車等の移動物体の位置および特徴量を出力する
画像処理ユニット、3は回線であるネットワーク6に接
続するためのインタフェースユニットであり、これらに
より複数の画像ユニット4が構成されている。5は複数
の画像ユニット4の処理を同期させるための同期ユニッ
ト、6は有線回線としてのネットワーク、7はネットワ
ーク6を通じて同期ユニット5に同期された画像ユニッ
ト4の出力を格納するための通信インタフェース手段を
有する複数の記憶ユニット、8は複数の記憶ユニット7
の出力から複数の画像ユニット4におけるカメラ1によ
り監視された区域全体の各移動物体の位置を求める統合
処理ユニット、9は記憶ユニット7内部の時間的な同期
を行う同期処理ユニットである。
(Embodiment 1) Hereinafter, a first embodiment of the present invention will be described. FIG. 1 shows the configuration of the first embodiment of the present invention. In FIG. 1, 1 is a camera as an image input means, 2 is an image processing unit for processing the image input from the camera 1 and outputting the position and the characteristic amount of a moving object such as a person or a car, 3 is a line Is an interface unit for connecting to the network 6, which constitutes a plurality of image units 4. Reference numeral 5 is a synchronization unit for synchronizing the processing of the plurality of image units 4, 6 is a network as a wired line, and 7 is a communication interface means for storing the output of the image unit 4 synchronized with the synchronization unit 5 through the network 6. A plurality of storage units, 8 is a plurality of storage units 7
Is an integrated processing unit that obtains the position of each moving object in the entire area monitored by the camera 1 in the plurality of image units 4 and 9 is a synchronization processing unit that performs time synchronization inside the storage unit 7.

【0020】次に、上記実施例の動作について説明す
る。まず、カメラ1で外部の状態を計測する。カメラ1
の種類は、一般的には可視映像を撮影するものである
が、夜間の監視等のために、赤外線映像の撮影や3次元
計測を行うための超音波や、ミリ波を用いたアクティブ
センサおよびステレオ計測手段のものもある。カメラ1
は、本実施例ではシステムの中に多数存在するので、上
記した種類のカメラの内の一つ以上がシステムの中に含
まれるものとする。
Next, the operation of the above embodiment will be described. First, the camera 1 measures the external state. Camera 1
In general, a visible image is taken, but for nighttime monitoring, etc., an ultrasonic sensor for taking an infrared image and performing three-dimensional measurement, an active sensor using a millimeter wave, and There is also a stereo measurement means. Camera 1
Since there are many in the system in this embodiment, it is assumed that one or more of the above-mentioned types of cameras are included in the system.

【0021】次に、画像処理ユニット2で、カメラ1で
撮影された映像情報10の中から人や車等の移動物体の
検出を行う。画像処理ユニット2では、移動物体の抽出
や移動物体の認識・同定処理が含まれ、各移動物体の映
像内の位置やその特徴量として形状、テクスチャ、輝
度、色情報を検出する。移動物体の位置は、各カメラ1
の観測区域がシステム全体のカメラで撮影されている全
体の区域のどの部分であるかを事前に設定されている場
合は、全体の観測区域のなかでの位置座標の算出が可能
であるが、全体の観測区域との関係が分からない場合
は、映像内の位置座標として出力され、後段での処理で
全体の観測区域の位置座標を算出する。
Next, the image processing unit 2 detects a moving object such as a person or a car from the video information 10 photographed by the camera 1. The image processing unit 2 includes moving object extraction and moving object recognition / identification processing, and detects shape, texture, brightness, and color information as the position of each moving object in the video and its feature amount. The position of the moving object is
If the observation area of is the part of the whole area taken by the camera of the whole system is preset, it is possible to calculate the position coordinates in the whole observation area. If the relationship with the entire observation area is unknown, it is output as the position coordinates in the image, and the position coordinates of the entire observation area are calculated in the subsequent processing.

【0022】画像処理ユニット2の出力11は、インタ
フェースユニット3に送られ、ネットワーク6の情報に
変換され、ネットワーク情報12となる。インタフェー
スユニット3は、ネットワーク6の通信プロトコルに合
わせて変換を行う部分であり、ネットワーク6は、非同
期型の有線ネットワークを図1では例として上げている
が、マイクロ波やミリ波を用いた無線回線で置き換える
こともできる。
The output 11 of the image processing unit 2 is sent to the interface unit 3 and converted into the information of the network 6 to become the network information 12. The interface unit 3 is a part that performs conversion according to the communication protocol of the network 6, and the network 6 uses an asynchronous wired network as an example in FIG. 1, but a wireless line using microwaves or millimeter waves. Can be replaced with

【0023】以上のカメラ1、画像処理ユニット2、イ
ンタフェースユニット3で構成される画像ユニット4
は、本実施例ではN個(Nは正の正数)あるものとす
る。各画像ユニット4内のカメラ1の撮影区域は、前述
したように、カメラの種類が違う場合、撮影角度が違う
場合および撮影区域が重なったり、離散的に設置された
りしている場合があり、一つのカメラでは補えないよう
な広域監視や監視精度の向上を目指している。
An image unit 4 including the camera 1, the image processing unit 2 and the interface unit 3 described above.
Is N in this embodiment (N is a positive positive number). As described above, the shooting areas of the cameras 1 in the image units 4 may be different types of cameras, different shooting angles, overlapping shooting areas, or discretely installed. We aim to improve wide area surveillance and surveillance accuracy that cannot be covered by one camera.

【0024】同期ユニット5は、複数ある画像ユニット
4の撮影時間の同期を行うために、同期信号13を発生
させている。同期信号としては、撮影開始からの相対時
間である場合と絶対時間として年月日時間を使用する場
合とがある。画像ユニット4の出力には、この同期信号
と画像ユニット4の番号が付加されて、後段での処理で
の撮影時間の同期や画像ユニット4の識別に用いる。
The synchronizing unit 5 generates a synchronizing signal 13 in order to synchronize the photographing times of the plurality of image units 4. The synchronization signal may be a relative time from the start of shooting or a date / time used as an absolute time. The synchronization signal and the number of the image unit 4 are added to the output of the image unit 4, and are used for synchronization of the photographing time in the processing in the subsequent stage and identification of the image unit 4.

【0025】ネットワーク6上に出力された画像ユニッ
トからの情報12は、ネットワーク6のインタフェース
を持つ記憶ユニット7に情報14として伝達される。記
憶ユニット7は、本実施例では画像ユニット4と同じN
個だけ用意されており、画像ユニット4の出力に付加さ
れた識別番号に対応して、各記憶ユニット7に格納され
る。
The information 12 output from the image unit on the network 6 is transmitted as the information 14 to the storage unit 7 having the interface of the network 6. The storage unit 7 is the same N as the image unit 4 in this embodiment.
Only the number is prepared and stored in each storage unit 7 in correspondence with the identification number added to the output of the image unit 4.

【0026】記憶ユニット7に格納された情報は、非同
期ネットワークを介して取り込まれために、時間的には
逆転して格納される場合も発生する。格納された情報に
含まれる時間情報は、記憶ユニット7から情報15とし
て同期処理ユニット9に伝達される。このように、各記
憶ユニット7に格納された情報に含まれる時間情報は、
全て同期処理ユニット9に入力される。同期処理ユニッ
ト9では、全ての記憶ユニット7からの時間情報に基づ
いて、各記憶ユニット7の並び換えの指示16として出
力される。各記憶ユニット7では、同期処理ユニット9
の指示に基づいて、内部の情報の並べ換えを実施し、出
力情報17の時点では、撮影時間が全て同じ情報が統合
処理ユニット8に入力される。出力情報17は、各画像
ユニット4から得られた動物体の位置や特徴量およびユ
ニット番号等であり、統合処理ユニット8からの呼び出
し信号18に基づいて出力される。記憶ユニット7内部
の処理例については、図3を用いて後に説明する。統合
処理ユニット8では、全ての画像ユニット4で監視され
る全体区域での人や車等の動物体の運動軌跡が求めら
れ、各動物体の運動軌跡情報として出力される。運動軌
跡情報は、後段の処理で運動軌跡の表示や不審者や侵入
者の発見等の処理が施される。
Since the information stored in the storage unit 7 is fetched via the asynchronous network, it may occur that it is reversed in time and stored. The time information included in the stored information is transmitted from the storage unit 7 to the synchronous processing unit 9 as the information 15. In this way, the time information included in the information stored in each storage unit 7 is
All are input to the synchronous processing unit 9. In the synchronous processing unit 9, based on the time information from all the storage units 7, it is output as a rearrangement instruction 16 for each storage unit 7. In each storage unit 7, the synchronization processing unit 9
Based on the instruction, the internal information is rearranged, and at the time of the output information 17, information having the same shooting time is input to the integrated processing unit 8. The output information 17 is the position of the moving object, the characteristic amount, the unit number, and the like obtained from each image unit 4, and is output based on the call signal 18 from the integrated processing unit 8. An example of processing inside the storage unit 7 will be described later with reference to FIG. The integrated processing unit 8 obtains the motion loci of moving bodies such as people and vehicles in the entire area monitored by all the image units 4, and outputs the moving locus information of each moving body. The movement trajectory information is subjected to processing such as display of the movement trajectory and detection of a suspicious person or an intruder in a subsequent process.

【0027】次に、記憶ユニット7内部の処理につい
て、図3に基づいて説明する。図3の例では、簡略化の
ために、2個の記憶ユニット(1)7A、記憶ユニット
(2)7Bの構成とする。記憶ユニットに伝達される情
報12A、12Bは、各記憶ユニット7A、7Bに格納
される。各記憶ユニット7A、7Bには、伝達された情
報を格納する情報レジスタ(短期記憶装置)31A、3
1Bが備えられている。情報レジスタ31A、31Bに
は、伝達された情報から順番に情報レジスタの最後に格
納され、先頭の情報が押し出されるFIFO型のレジス
タである。図3の例では、情報レジスタに格納された情
報に付加された時間情報が、記憶ユニット7Aでは
0 、t2 、t1 、t3 、t4 、t6 、記憶ユニット7
Bではtt-1 、t0 、t1 、t3 、t2 、t4 とする。
ここで、添字の1から6までの番号が意味することは、
若い番号ほど古い情報を示す。この例に示すように、記
憶ユニットに伝達される情報は時間方向で逆転が発生す
るし、記憶ユニット7Aと7Bの時間情報はばらついて
いる。そこで、情報レジスタ31A、31Bの時間情報
を取り出し、同期処理ユニット9にそれらの情報15
A、15Bを伝達する。同期処理ユニット9では、2つ
の記憶ユニット7A、7Bの時間情報を比較させて、2
つの情報レジスタ31A、31B内に同一の時間情報を
持つ情報から順番に並び直すように、指示信号16A、
16Bを情報レジスタ31A、31Bに出力する。この
指示信号16A、16Bに基づいて、情報レジスタ31
A、31Bの内容が、変換レジスタ32A、32Bで並
び換えられる。この場合は、最後に入った情報が、記憶
ユニット7Aではt6 、記憶ユニット7Bではt4 であ
り、t4の情報は、既に記憶ユニット7Aには到着して
いるので、t4 の情報が信号33A、33Bとして、変
換レジスタの最後尾に設定される。変換レジスタ32
A、32Bの内容は、統合処理ユニット8からの情報ア
クセス18に基づいて出力情報17A、17Bとして出
力される。出力情報17A、17Bは、同一時間に撮影
された情報となっている。変換レジスタ32A、32B
も、情報レジスタ31A、31Bと同様にFIFO型で
情報が出力されるので、情報が出力されるとレジスタの
内容は前方に詰められて、最後尾の記憶領域が空く。な
お、変換レジスタ32A、32Bの取り出しのタイミン
グは、本実施例では統合処理ユニット8からの指示に基
づいて行われているが、記憶ユニット全体を一つの同期
系で統一して行う方法もある。
Next, the processing inside the storage unit 7 will be described with reference to FIG. In the example of FIG. 3, two storage units (1) 7A and two storage units (2) 7B are used for simplification. The information 12A, 12B transmitted to the storage unit is stored in each storage unit 7A, 7B. Each of the storage units 7A, 7B has an information register (short-term storage device) 31A, 3 for storing the transmitted information.
1B is provided. The information registers 31A and 31B are FIFO type registers in which the transmitted information is sequentially stored at the end of the information register and the top information is pushed out. In the example of FIG. 3, the time information added to the information stored in the information register is t 0 , t 2 , t 1 , t 3 , t 4 , t 6 in the storage unit 7A and the storage unit 7A.
In B, t t-1 , t 0 , t 1 , t 3 , t 2 , t 4 .
Here, the subscript numbers 1 to 6 mean that
The younger the number, the older the information. As shown in this example, the information transmitted to the storage units is reversed in the time direction, and the time information of the storage units 7A and 7B varies. Therefore, the time information in the information registers 31A and 31B is taken out, and the information 15 is sent to the synchronous processing unit 9.
Transmit A and 15B. The synchronization processing unit 9 compares the time information of the two storage units 7A and 7B,
The instruction signals 16A, 31A and 31B are arranged so that the information having the same time information is rearranged in order.
16B is output to the information registers 31A and 31B. Based on the instruction signals 16A and 16B, the information register 31
The contents of A and 31B are rearranged in the conversion registers 32A and 32B. In this case, the last entered information is, t 6 in storage unit 7A, a t 4 in the storage unit 7B, information of t 4, since already arrived in the storage unit 7A, information t 4 The signals 33A and 33B are set at the end of the conversion register. Conversion register 32
The contents of A and 32B are output as output information 17A and 17B based on the information access 18 from the integrated processing unit 8. The output information 17A and 17B are information captured at the same time. Conversion registers 32A, 32B
Also, since the information is output in the FIFO type similarly to the information registers 31A and 31B, when the information is output, the contents of the register are packed forward, and the storage area at the end is vacant. The timing of taking out the conversion registers 32A and 32B is based on the instruction from the integrated processing unit 8 in the present embodiment, but there is also a method in which the entire storage unit is unified by one synchronous system.

【0028】(実施例2)以下、本発明の第2の実施例
について説明する。図2は本発明の第2の実施例におけ
る構成を示すものである。図1に示した第1の実施例と
同様な要素には同様な符号を付してある。図2におい
て、1は映像入力手段としてのカメラであり、2はカメ
ラ1から入力された映像を処理し、人や車等の移動物体
の位置および特徴量を出力する画像処理ユニット、3は
回線であるネットワーク6に接続するためのインタフェ
ースユニットであり、これらにより複数の画像ユニット
4が構成されている。5は複数の画像ユニット4の処理
を同期させるための同期ユニット、6は有線回線として
のネットワーク、21はネットワーク6を通じて同期ユ
ニット5に同期された画像ユニット4の出力を格納する
通信インタフェース手段を有する入力情報切換ユニッ
ト、22は入力情報切換ユニット21の出力を格納する
複数の記憶ユニット、23は複数の記憶ユニット22の
出力から複数の画像ユニット4におけるカメラ1により
監視された区域全体の各移動物体の位置を求める統合処
理ユニット、24は統合処理ユニット23からの指示に
より入力情報切換ユニット21に入力された情報から必
要な情報を選択して出力先を決めるとともに、記憶ユニ
ット22内部の時間的な同期を行う同期処理ユニットで
ある。
(Second Embodiment) A second embodiment of the present invention will be described below. FIG. 2 shows the configuration of the second embodiment of the present invention. The same elements as those in the first embodiment shown in FIG. 1 are designated by the same reference numerals. In FIG. 2, 1 is a camera as an image input means, 2 is an image processing unit for processing the image input from the camera 1 and outputting the position and the characteristic amount of a moving object such as a person or a car, 3 is a line Is an interface unit for connecting to the network 6, which constitutes a plurality of image units 4. Reference numeral 5 is a synchronization unit for synchronizing the processing of the plurality of image units 4, 6 is a network as a wired line, and 21 is a communication interface means for storing the output of the image unit 4 synchronized with the synchronization unit 5 through the network 6. An input information switching unit, 22 is a plurality of storage units for storing the outputs of the input information switching unit 21, and 23 is each moving object in the entire area monitored by the cameras 1 in the plurality of image units 4 from the outputs of the plurality of storage units 22. The integrated processing unit 24, which determines the position of the storage unit 22, determines the output destination by selecting necessary information from the information input to the input information switching unit 21 in accordance with an instruction from the integrated processing unit 23, and temporally in the storage unit 22. It is a synchronization processing unit that performs synchronization.

【0029】次に、上記実施例の動作について説明す
る。まず、画像ユニット4が情報12を出力するまでの
動作は上記第1の実施例と同じである。ネットワーク6
上に出力された画像ユニット4からの情報12は、ネッ
トワーク6のインタフェースを持つ入力情報切換ユニッ
ト21に情報14として伝達される。入力情報切換ユニ
ット21は、同期処理ユニット24の指示27により、
情報14を複数ある記憶ユニット22の中から選択して
情報25として出力する。記憶ユニット22は、本実施
例ではM個(Mは正の正数)あり、画像ユニット4のN
個に対し、M≦Nの関係を有する。
Next, the operation of the above embodiment will be described. First, the operation until the image unit 4 outputs the information 12 is the same as that in the first embodiment. Network 6
The information 12 output from the image unit 4 output above is transmitted as the information 14 to the input information switching unit 21 having the interface of the network 6. The input information switching unit 21 receives the instruction 27 from the synchronization processing unit 24,
The information 14 is selected from a plurality of storage units 22 and output as information 25. In this embodiment, there are M storage units 22 (M is a positive positive number), and the storage unit 22 has N storage units 22.
It has a relation of M ≦ N with respect to each piece.

【0030】記憶ユニット22の構成は、ネットワーク
6のインタフェース機能を持たない以外は、図1の構成
とほぼ同じであり、内部には情報レジスタと変換レジス
タを持ち、同期処理ユニット24が記憶ユニット22の
情報15を用いて、複数の記憶ユニット22の情報の時
間のマッチングを行わせるための指示信号16を発生さ
せる。ただし、図1の記憶ユニット7では、格納された
記憶ユニットの情報には、処理を行った画像ユニットの
識別番号が付加されていなくても良かったが、図2の記
憶ユニット22の場合は必要とすることが異なる、つま
り、統合処理ユニット23からの情報読み出し信号18
により呼び出された情報17が、どの画像ユニットの情
報であるのかを、ユニットの識別番号により監視区域全
体のどの部分の情報であるかを認識し、動物体の運動軌
跡を求める必要がある。
The configuration of the storage unit 22 is almost the same as the configuration of FIG. 1 except that it does not have the interface function of the network 6, and has an information register and a conversion register inside, and the synchronous processing unit 24 has the storage unit 22. The information 15 is used to generate the instruction signal 16 for performing the time matching of the information of the plurality of storage units 22. However, in the storage unit 7 of FIG. 1, it is not necessary that the identification number of the processed image unit is added to the stored information of the storage unit, but in the case of the storage unit 22 of FIG. That is, the information read signal 18 from the integrated processing unit 23 is different.
It is necessary to recognize which image unit is the information 17 called by the information, which part of the entire surveillance area is identified by the identification number of the unit, and to obtain the movement trajectory of the moving object.

【0031】統合処理ユニット23の機能は、図1の統
合処理ユニット8とほぼ同様の機能であるが、大きな差
異として、統合処理ユニット23は、監視区域全体の動
物体の運動軌跡を求めるなかで必要となる画像ユニット
の情報を、動物体の運動軌跡から事前に予測し、その予
測情報(必要となる情報の画像ユニット番号と不必要と
なる情報の画像ユニット番号)を信号26として同期処
理ユニット24に伝達する。同期処理ユニット24は、
信号26に基づいて、必要となる画像ユニットの情報を
記憶ユニット22に格納し、不必要な情報は破棄するよ
うに、信号27を入力情報切換ユニット21に伝える。
同期処理ユニット24では、統合処理ユニット23の信
号26の指示を受け取ってから、どのタイミングで入力
情報の切換を行うべきかの適切な判断を行う。
The function of the integrated processing unit 23 is almost the same as that of the integrated processing unit 8 in FIG. 1, but there is a big difference in that the integrated processing unit 23 obtains the motion locus of the moving object in the entire monitoring area. The information of the required image unit is predicted in advance from the movement trajectory of the moving body, and the prediction information (the image unit number of the necessary information and the image unit number of the unnecessary information) is used as a signal 26 for the synchronization processing unit. 24. The synchronization processing unit 24 is
Based on the signal 26, the signal 27 is transmitted to the input information switching unit 21 so as to store the necessary image unit information in the storage unit 22 and discard the unnecessary information.
The synchronous processing unit 24, after receiving the instruction of the signal 26 of the integrated processing unit 23, appropriately determines at what timing the input information should be switched.

【0032】なお、統合処理ユニット23での動物体の
運動軌跡から事前に予測し、その予測により必要となる
情報の画像ユニット番号と不必要となる情報の画像ユニ
ット番号の作り方を、図4に基づいて説明する。図4
は、4つのカメラ(カメラ(1)、カメラ(2)、カメ
ラ(3)およびカメラ(4))で撮影されている監視区
域を示す。円形の区域が各カメラの監視区域を示す。図
4では、一つの動物体が検出され、この動物体を追跡す
る場合を例に示す。動物体は、Aをスタートポイントと
して統合処理ユニット23で検出され、その動物体がB
方向に動き、現在の処理ではCのポイントまで検出され
ている。例えば、過去の処理ではCのポイントからDま
たはE方向のどちらかに動く例の多い場合に、Dまたは
E方向の情報が必要となる割合が高いと予測されるの
で、事前に画像ユニット4(カメラの識別番号と画像ユ
ニットの識別番号は同じとする。)の(2)と(4)の
情報が必要であり、画像ユニット(1)の情報が不必要
となっていることを同期処理ユニット24に伝達する。
この伝達された情報に基づいて、同期処理ユニット24
では、画像ユニット(2)と(4)の情報を対応する記
憶ユニットに格納し、画像ユニット(1)の情報を破棄
するように、入力情報切換ユニット21に指示する。こ
の処理により、画像ユニット(1)から(4)の4つの
情報の内、3つの情報のみで動物体の追跡が可能とな
り、記憶ユニット22の数が画像ユニット4の数よりも
少ない状態でシステムを構築できる。
FIG. 4 shows a method of predicting in advance from the motion locus of the moving body in the integrated processing unit 23, and creating the image unit number of the necessary information and the image unit number of the unnecessary information by the prediction. It will be explained based on. FIG.
Indicates a surveillance area imaged by four cameras (camera (1), camera (2), camera (3) and camera (4)). The circular area indicates the surveillance area of each camera. FIG. 4 shows an example in which one moving object is detected and the moving object is tracked. The moving body is detected by the integrated processing unit 23 with A as a starting point, and the moving body is detected as B.
In the current process, point C has been detected. For example, in the past processing, when there are many cases where the point moves from C to either the D or E direction, it is predicted that the ratio of the information in the D or E direction is high. The identification number of the camera and the identification number of the image unit are the same.) The information of (2) and (4) is required, and the information of the image unit (1) is unnecessary. 24.
Based on this transmitted information, the synchronous processing unit 24
Then, the input information switching unit 21 is instructed to store the information of the image units (2) and (4) in the corresponding storage unit and discard the information of the image unit (1). By this processing, the moving object can be tracked with only three pieces of information among the four pieces of information of the image units (1) to (4), and the system is operated in a state where the number of the storage units 22 is smaller than the number of the image units 4. Can be built.

【0033】本実施例では、動物体の動き方向と位置の
みから画像ユニット4の選択を行っているが、システム
の構築方法により、時間的に画像ユニット4の切り換え
や動物体の数の多い部分を選択することが考えられ、シ
ステムに合わせて柔軟に判断できる。
In this embodiment, the image unit 4 is selected only from the moving direction and the position of the moving object, but depending on the system construction method, the image unit 4 may be switched over time or the number of moving objects may be large. It is conceivable to select, and it is possible to make flexible decisions according to the system.

【0034】[0034]

【発明の効果】本発明は、上記第1の実施例から明らか
なように、ネットワークを介した場合、撮影時間の同期
をとるために、ネットワークから受け取った情報を、そ
の情報に含まれる時間情報を用いて同一撮影時間になる
ように、記憶ユニット内部の情報を同期処理ユニットの
指示により並び換えるので、正確な画像処理が可能とな
る効果がある。
As is apparent from the first embodiment of the present invention, the information received from the network is synchronized with the time information included in the information in order to synchronize the photographing time when the information is taken via the network. Since the information in the storage unit is rearranged by the instruction of the synchronous processing unit so that the same photographing time is obtained by using, there is an effect that accurate image processing is possible.

【0035】また、第2の実施例から明らかなように、
ネットワークから受け取った情報を入力情報切換ユニッ
ト、同期処理ユニットおよび統合処理ユニットを用い
て、動物体等の動き方向や位置から次に必要となる画像
ユニットの出力を選択することで、画像ユニットよりも
少ない数の記憶ユニットでシステムを構築できる効果が
ある。
Further, as is apparent from the second embodiment,
By using the input information switching unit, the synchronization processing unit, and the integrated processing unit to select the output of the next required image unit from the moving direction and position of the moving object, etc. There is an effect that a system can be constructed with a small number of storage units.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例における分散画像処理装
置の構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of a distributed image processing apparatus according to a first embodiment of the present invention.

【図2】本発明の第2の実施例における分散画像処理部
の構成を示すブロック図
FIG. 2 is a block diagram showing a configuration of a distributed image processing unit according to a second embodiment of the present invention.

【図3】本発明の第1と第2の同実施例における記憶ユ
ニットの構成を示すブロック図
FIG. 3 is a block diagram showing a configuration of a storage unit in the first and second embodiments of the present invention.

【図4】本発明の第2の実施例における画像ユニットの
切り換え動作例を示す模式図
FIG. 4 is a schematic diagram showing an example of switching operation of image units in the second embodiment of the present invention.

【図5】従来例における自動監視システムの構成を示す
ブロック図
FIG. 5 is a block diagram showing a configuration of an automatic monitoring system in a conventional example.

【図6】従来例における別の自動監視システムの構成を
示すブロック図
FIG. 6 is a block diagram showing the configuration of another automatic monitoring system in the conventional example.

【符号の説明】[Explanation of symbols]

1 カメラ 2 画像処理ユニット 3 インタフェースユニット 4 画像ユニット 5 同期ユニット 6 ネットワーク 7 記憶ユニット 8 統合処理ユニット 9 同期処理ユニット 21 入力情報切換ユニット 22 記憶ユニット 23 統合処理ユニット 24 同期処理ユニット 31A、31B 情報レジスタ 32A、32B 変換レジスタ 1 camera 2 image processing unit 3 interface unit 4 image unit 5 synchronization unit 6 network 7 storage unit 8 integrated processing unit 9 synchronous processing unit 21 input information switching unit 22 storage unit 23 integrated processing unit 24 synchronous processing unit 31A, 31B information register 32A , 32B conversion register

フロントページの続き (72)発明者 田 中 武 久 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 水 澤 和 史 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 藤 岡 利 和 神奈川県川崎市多摩区東三田3丁目10番1 号 松下技研株式会社内 (72)発明者 森 真 人 神奈川県横浜市鶴見区江ケ崎町4番1号 東京電力株式会社システム研究所内Front page continuation (72) Inventor Takehisa Tanaka 3-10-1 Higashisanda, Tama-ku, Kawasaki City, Kanagawa Prefecture Matsushita Giken Co., Ltd. (72) Inventor, Kazufumi Mizusawa 3 Higashisanda, Tama-ku, Kawasaki City, Kanagawa Prefecture Chome No. 10-1 Matsushita Giken Co., Ltd. (72) Inventor Toshikazu Fuji Oka 3-10-1 Higashisanda, Tama-ku, Kawasaki City, Kanagawa Prefecture Matsushita Giken Co., Ltd. (72) Inventor Masato Mori Yokohama, Kanagawa Prefecture 4-1, Egasaki-cho, Tsurumi-ku, Tokyo Electric Power Company Systems Research Laboratory

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】 映像入力手段およびこの映像入力手段か
ら入力された映像を処理し、人や車等の移動物体の位置
および特徴量を出力する画像処理ユニットおよび回線に
接続するためのインタフェース手段により構成された複
数の画像ユニットと、前記複数の画像ユニットの処理を
同期させるための同期ユニットと、回線を通じて送られ
てきた前記画像ユニットの出力を格納する通信インタフ
ェース手段を有する複数の記憶ユニットと、前記複数の
記憶ユニットの出力から前記複数の画像ユニットにおけ
る映像入力手段により監視された区域全体の各移動物体
の位置を求める統合処理ユニットと、前記記憶ユニット
内部の時間的な同期を行う同期処理ユニットとを備えた
分散画像処理装置。
1. An image input unit, an image processing unit for processing an image input from the image input unit, and outputting a position and a characteristic amount of a moving object such as a person or a car, and an interface unit for connecting to a line. A plurality of configured image units, a synchronization unit for synchronizing the processing of the plurality of image units, and a plurality of storage units having communication interface means for storing the output of the image units sent through a line, An integrated processing unit that obtains the position of each moving object in the entire area monitored by the video input means in the plurality of image units from the outputs of the plurality of storage units, and a synchronization processing unit that performs time synchronization inside the storage unit. And a distributed image processing device.
【請求項2】 複数の画像ユニットが、1つのネットワ
ーク上に接続され、前記ネットワークの通信プロトコル
に基づいて記憶ユニットとの間を通信することを特徴と
する請求項1記載の分散画像処理装置。
2. The distributed image processing apparatus according to claim 1, wherein a plurality of image units are connected on one network and communicate with a storage unit based on a communication protocol of the network.
【請求項3】 複数の画像ユニットにおいて、映像入力
手段が、可視映像の入力手段と赤外線映像の入力手段と
3次元の計測手段のうち、いずれか1つ以上を使用する
ことを特徴とする請求項1または2記載の分散画像処理
装置。
3. The plurality of image units, wherein the image input means uses at least one of a visible image input means, an infrared image input means, and a three-dimensional measuring means. Item 1. The distributed image processing device according to item 1 or 2.
【請求項4】 画像処理ユニットの出力に、移動物体の
特徴量として、形、色、テクスチャのうちの一つ以上を
有することを特徴とする請求項1から3のいずれかに記
載の分散画像処理装置。
4. The distributed image according to claim 1, wherein the output of the image processing unit has one or more of a shape, a color, and a texture as a feature amount of the moving object. Processing equipment.
【請求項5】 各々の映像入力手段の監視区域が、映像
入力手段全体によって監視された区域全体中のどの部分
であるかを事前に設定されており、画像処理ユニットの
出力として、移動物体の位置は監視区域全体を空間とし
た座標であることを特徴とする請求項1から4のいずれ
かに記載の分散画像処理装置。
5. It is preset which part of the entire area monitored by the entire image input means is the monitored area of each image input means, and as an output of the image processing unit, a moving object of the moving object is detected. The distributed image processing device according to claim 1, wherein the position is a coordinate in which the entire monitoring area is a space.
【請求項6】 移動物体の位置は、移動物体の床面と接
する領域に含まれる点の位置であることを特徴とする請
求項5に記載の分散画像処理装置。
6. The distributed image processing apparatus according to claim 5, wherein the position of the moving object is a position of a point included in a region in contact with the floor surface of the moving object.
【請求項7】 同期ユニットに年月日と時刻または運転
開始からの相対時間を用いて、画像ユニットの出力に同
期ユニットの出力が付加されることを特徴とする請求項
1から6のいずれかに記載の分散画像処理装置。
7. The output of the synchronization unit is added to the output of the image unit by using the date and time of the synchronization unit or the relative time from the start of operation. The distributed image processing device according to item 1.
【請求項8】 各記憶ユニットは、各画像ユニットから
の出力をそれぞれ複数個保持し、それぞれ出力をその中
に含まれている時間情報を基に、同期処理ユニットの指
令により映像入力手段の撮影時間に同期するように並び
換えてから統合処理ユニットに出力することを特徴とす
る請求項7に記載の分散画像処理装置。
8. Each storage unit holds a plurality of outputs from each image unit, and each output is photographed by a video input means according to a command of a synchronization processing unit based on time information contained therein. The distributed image processing apparatus according to claim 7, wherein the distributed image processing apparatus rearranges the data so as to be synchronized with time and then outputs the data to the integrated processing unit.
【請求項9】 各記憶ユニットは、内部に複数個保持さ
れた各画像ユニットの出力を、同期処理ユニットの指令
により映像入力手段の撮影時間に同期するように順番に
格納する複数の記憶領域を持つことを特徴とする請求項
8に記載の分散画像処理装置。
9. Each storage unit has a plurality of storage areas for sequentially storing outputs of a plurality of image units held therein so as to be synchronized with a shooting time of a video input unit according to a command from a synchronization processing unit. The distributed image processing device according to claim 8, which has.
【請求項10】 画像ユニットから出力されるデータに
は、前記画像ユニットの番号が付加されており、ユニッ
ト番号に基づいて対応する記憶ユニットに格納されるこ
とを特徴とする請求項1から9のいずれかに記載の分散
画像処理装置。
10. The data output from an image unit is added with the number of the image unit, and is stored in a corresponding storage unit based on the unit number. The dispersed image processing device according to any one of claims.
【請求項11】 映像入力手段およびこの映像入力手段
から入力された映像を処理し、人や車等の移動物体の位
置および特徴量を出力する画像処理ユニットおよび回線
に接続するためのインタフェース手段により構成された
複数の画像ユニットと、前記複数の画像ユニットの処理
の同期を行うための同期ユニットと、回線を通じて送ら
れてきた前記画像ユニットの出力を格納する通信インタ
フェース手段を有する入力情報切換ユニットと、前記入
力情報切換ユニットの出力を格納する複数の記憶ユニッ
トと、前記複数の記憶ユニットの出力から複数の画像ユ
ニットにおける映像入力手段により監視された区域全体
の各移動物体の位置を求める統合処理ユニットと、前記
統合処理ユニットからの指示により、前記入力情報切換
ユニットに入力された情報から必要な情報を選択して出
力先を決めるとともに、前記記憶ユニット内部の時間的
な同期を行う同期処理ユニットとを備えた分散画像処理
装置。
11. An image input unit, an image processing unit that processes an image input from the image input unit, and outputs a position and a characteristic amount of a moving object such as a person or a car, and an interface unit for connecting to a line. A plurality of configured image units, a synchronization unit for synchronizing the processing of the plurality of image units, and an input information switching unit having a communication interface means for storing the output of the image units sent through a line. A plurality of storage units for storing the outputs of the input information switching unit, and an integrated processing unit for obtaining the position of each moving object in the entire area monitored by the video input means in the plurality of image units from the outputs of the plurality of storage units And input to the input information switching unit according to an instruction from the integrated processing unit. A distributed image processing apparatus including a synchronous processing unit that selects necessary information from the stored information to determine an output destination and performs time synchronization inside the storage unit.
【請求項12】 統合処理ユニットからの必要な情報を
選択する指示が、統合処理ユニットで求められた動物体
の位置や動き方向から予測した画像ユニットの識別番号
であることを特徴とする請求項11記載の分散画像処理
装置。
12. The instruction for selecting necessary information from the integrated processing unit is an identification number of the image unit predicted from the position and the moving direction of the moving body obtained by the integrated processing unit. 11. The dispersed image processing device according to item 11.
【請求項13】 複数の画像ユニットが、1つのネット
ワーク上に接続され、前記ネットワークの通信プロトコ
ルに基づいて記憶ユニットとの間を通信することを特徴
とする請求項11または12記載の分散画像処理装置。
13. The distributed image processing according to claim 11, wherein a plurality of image units are connected on one network and communicate with a storage unit based on a communication protocol of the network. apparatus.
【請求項14】 複数の画像ユニットにおいて、映像入
力手段が、可視映像の入力手段と赤外線映像の入力手段
と3次元の計測手段のうち、いずれか1つ以上を使用す
ることを特徴とする請求項11から13のいずれかに記
載の分散画像処理装置。
14. The plurality of image units, wherein the image input means uses at least one of a visible image input means, an infrared image input means, and a three-dimensional measuring means. Item 14. The dispersed image processing device according to any one of items 11 to 13.
【請求項15】 画像処理ユニットの出力に、移動物体
の特徴量として、形、色、テクスチャのうちの一つ以上
を有することを特徴とする請求項11から14のいずれ
かに記載の分散画像処理装置。
15. The dispersed image according to claim 11, wherein the output of the image processing unit has one or more of a shape, a color, and a texture as a characteristic amount of the moving object. Processing equipment.
【請求項16】 各々の映像入力手段の監視区域が、映
像入力手段全体によって監視された区域全体の中のどの
部分であるかを事前に設定されており、画像処理ユニッ
トの出力として、移動物体の位置は監視区域全体を空間
とした座標であることを特徴とする請求項11から15
のいずれかに記載の分散画像処理装置。
16. A moving object is set as an output of the image processing unit by presetting which part of the entire area monitored by the entire image input means is in the monitored area of each image input means. 16. The position of is a coordinate in which the entire surveillance area is a space.
The dispersed image processing device according to any one of 1.
【請求項17】 移動物体の位置は、移動物体の床面と
接する領域に含まれる点の位置であることを特徴とする
請求項16に記載の分散画像処理装置。
17. The distributed image processing apparatus according to claim 16, wherein the position of the moving object is a position of a point included in a region in contact with the floor surface of the moving object.
【請求項18】 同期ユニットに年月日と時刻または運
転開始からの相対時間を用いて、画像ユニットの出力に
同期ユニットの出力が付加されることを特徴とする請求
項11から17のいずれかに記載の分散画像処理装置。
18. The output of the synchronization unit is added to the output of the image unit by using the date and time of the synchronization unit or the relative time from the start of operation. The distributed image processing device according to item 1.
【請求項19】 各記憶ユニットは、各画像ユニットか
らの出力をそれぞれ複数個保持し、それぞれ出力をその
中に含まれている時間情報を基に、同期処理ユニットの
指令により映像入力手段の撮影時間に同期するように並
び換えてから統合処理ユニットに出力することを特徴と
する請求項18に記載の分散画像処理装置。
19. Each storage unit holds a plurality of outputs from each image unit, and each output is photographed by the video input means in response to a command from the synchronization processing unit based on the time information contained therein. 19. The distributed image processing apparatus according to claim 18, wherein the distributed image processing apparatus rearranges so as to be synchronized with time and then outputs the data to the integrated processing unit.
【請求項20】 各記憶ユニットは、内部に複数個保持
された各画像ユニットの出力を、同期処理ユニットの指
令により映像入力手段の撮影時間に同期するように順番
に格納する複数の記憶領域を持つことを特徴とする請求
項19に記載の分散画像処理装置。
20. Each storage unit has a plurality of storage areas for sequentially storing the outputs of the plurality of image units held therein so as to be synchronized with the shooting time of the video input unit in response to a command from the synchronization processing unit. 20. The distributed image processing device according to claim 19, which has.
【請求項21】 画像ユニットから出力されるデータに
は、前記画像ユニットの番号が付加され、前記データ
が、記憶ユニットに格納されることを特徴とする請求項
11から20のいずれかに記載の分散画像処理装置。
21. The data output from an image unit is appended with the number of the image unit, and the data is stored in a storage unit. Distributed image processing device.
【請求項22】 統合処理ユニットでは、記憶ユニット
からのデータの画像ユニット番号に基づいて、前記デー
タのどの監視区域の処理結果であるかを判断しながら処
理を施すことを特徴とする請求項21に記載の分散画像
処理装置。
22. The integrated processing unit performs processing while determining which monitoring area of the data is the processing result based on the image unit number of the data from the storage unit. The distributed image processing device according to item 1.
【請求項23】 統合処理ユニットから同期処理ユニッ
トに必要となる画像処理ユニットのユニット番号を伝達
し、前記同期ユニットでは、伝達されたユニット番号の
情報のみを記憶ユニットに格納することを特徴とする請
求項21または22記載の分散画像処理装置。
23. The unit number of the required image processing unit is transmitted from the integrated processing unit to the synchronous processing unit, and the synchronous unit stores only the information of the transmitted unit number in the storage unit. The distributed image processing device according to claim 21 or 22.
JP7052211A 1995-03-13 1995-03-13 Decentralized image processor Pending JPH08251573A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7052211A JPH08251573A (en) 1995-03-13 1995-03-13 Decentralized image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7052211A JPH08251573A (en) 1995-03-13 1995-03-13 Decentralized image processor

Publications (1)

Publication Number Publication Date
JPH08251573A true JPH08251573A (en) 1996-09-27

Family

ID=12908436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7052211A Pending JPH08251573A (en) 1995-03-13 1995-03-13 Decentralized image processor

Country Status (1)

Country Link
JP (1) JPH08251573A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099690A (en) * 1998-09-18 2000-04-07 Toshiba Corp System for monitoring person
JP2010183131A (en) * 2009-02-03 2010-08-19 Optex Co Ltd Camera interface device and image communication system
CN101895727A (en) * 2009-05-21 2010-11-24 索尼公司 Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method
JP2012124574A (en) * 2010-12-06 2012-06-28 Toshiba Corp Network camera system and image information time synchronization method used for this
JP2013164774A (en) * 2012-02-13 2013-08-22 Utechzone Co Ltd Intelligent monitoring system and intelligent monitoring device with automatic notification function

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH066781A (en) * 1992-06-22 1994-01-14 Hitachi Ltd Multipoint moving image encoding and decoding device
JPH0662398A (en) * 1992-08-07 1994-03-04 Matsushita Electric Ind Co Ltd Picture communication terminal equipment
JPH06325180A (en) * 1993-05-14 1994-11-25 Matsushita Electric Ind Co Ltd Automatic tracking device for moving body
JPH0749952A (en) * 1993-08-06 1995-02-21 Hitachi Ltd Device for monitoring mobile object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH066781A (en) * 1992-06-22 1994-01-14 Hitachi Ltd Multipoint moving image encoding and decoding device
JPH0662398A (en) * 1992-08-07 1994-03-04 Matsushita Electric Ind Co Ltd Picture communication terminal equipment
JPH06325180A (en) * 1993-05-14 1994-11-25 Matsushita Electric Ind Co Ltd Automatic tracking device for moving body
JPH0749952A (en) * 1993-08-06 1995-02-21 Hitachi Ltd Device for monitoring mobile object

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099690A (en) * 1998-09-18 2000-04-07 Toshiba Corp System for monitoring person
JP2010183131A (en) * 2009-02-03 2010-08-19 Optex Co Ltd Camera interface device and image communication system
CN101895727A (en) * 2009-05-21 2010-11-24 索尼公司 Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method
JP2010273125A (en) * 2009-05-21 2010-12-02 Sony Corp Monitoring system, imaging apparatus, analysis apparatus and monitoring method
US8982208B2 (en) 2009-05-21 2015-03-17 Sony Corporation Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method
JP2012124574A (en) * 2010-12-06 2012-06-28 Toshiba Corp Network camera system and image information time synchronization method used for this
JP2013164774A (en) * 2012-02-13 2013-08-22 Utechzone Co Ltd Intelligent monitoring system and intelligent monitoring device with automatic notification function

Similar Documents

Publication Publication Date Title
US10887526B2 (en) Monitoring system, monitoring method, and monitoring program
KR100490972B1 (en) Method and device for real-time detection, location and determination of the speed and direction of movement of an area of relative movement in a scene
US6867799B2 (en) Method and apparatus for object surveillance with a movable camera
AU597134B2 (en) Digital image acquisition system
EP0465375A2 (en) Image processing device and method for sensing moving objects and rangefinder employing the same
US20050071046A1 (en) Surveillance system and surveillance robot
JP3700707B2 (en) Measuring system
JP3942606B2 (en) Change detection device
JPH08251573A (en) Decentralized image processor
US10602084B2 (en) Imaging apparatus which performs compressive sensing reading data for a partitioned block output from an image sensor
JPH09130783A (en) Distributed video monitoring system
JP2001045474A (en) System for recording digital image
KR102247111B1 (en) Edge computing based artificial intelligence video surveillance system and its operation method
JP2002092751A (en) Monitoring system
JP3235393B2 (en) Moving vector extraction method
JP2000333159A (en) Monitor camera system
JP3119199B2 (en) Remote video monitoring device
JPH08191487A (en) Remote control system
JPH04317288A (en) Monitoring system
JPH0636031A (en) Moving body tracking system utilizing computer
CN117706544B (en) Intelligent environment-friendly remote monitoring system
JPH099222A (en) Virtual space sharing system
KR101445362B1 (en) Device for Imagery Interpretation
JPH11250364A (en) Person monitoring device
Kon et al. Evaluation of a seamless surveillance video monitoring system used by high-speed network and high-resolution OMNI-directional cameras