JP2002092751A - Monitoring system - Google Patents

Monitoring system

Info

Publication number
JP2002092751A
JP2002092751A JP2000282399A JP2000282399A JP2002092751A JP 2002092751 A JP2002092751 A JP 2002092751A JP 2000282399 A JP2000282399 A JP 2000282399A JP 2000282399 A JP2000282399 A JP 2000282399A JP 2002092751 A JP2002092751 A JP 2002092751A
Authority
JP
Japan
Prior art keywords
intruding object
monitoring
camera
video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000282399A
Other languages
Japanese (ja)
Inventor
Taro Hizume
太郎 樋爪
Koji Wakiyama
浩二 脇山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000282399A priority Critical patent/JP2002092751A/en
Publication of JP2002092751A publication Critical patent/JP2002092751A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a monitoring system capable of taking over to another monitoring camera when an intruding object comes out of a visual field of a monitoring camera under an environment that plural monitoring cameras are located. SOLUTION: An intruding object detecting means 20 detects the intruding object by comparing an image obtained by the monitoring camera 10 and an image having no intruding object which is kept in an image storage means 17. An object position calculating means 21 calculates a position of the detected intruding object in actual environment. An environment map data 18 keeps a map of whole environment wherein the monitoring camera is located and the visual field of the monitoring camera. A visual field determination means 22 determines the monitoring camera capable of supervising the intruding object with the usage of the position of the intruding object in the actual environment and the environment map data 18. A turning device 14 receives a turning command from a turning position determination means 23 so that an image of the intruding object can be produced near the center of an optical axis of the camera. An image of the monitoring camera selected by the visual field determination means 22 is outputted to a monitor 26.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数の監視カメラ
が設置された環境において、侵入物体が監視カメラの視
野から外れる場合に、他の監視カメラに監視を引き継ぐ
ことのできる監視カメラによる監視システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a surveillance system using a surveillance camera that can take over surveillance to another surveillance camera in an environment where a plurality of surveillance cameras are installed, when an intruding object goes out of the field of view of the surveillance camera. About.

【0002】[0002]

【従来の技術】近年、監視カメラによる監視システムの
自動化に関する技術開発が進められている。この種監視
装置としては、特開平8−20513号公報記載の技術
が知られている。この公報記載の監視装置では、監視カ
メラの画面内の異常を検出すると、監視装置の操作者が
居なくとも、カメラ制御、旋回装置の制御、スイッチャ
制御等を行い、侵入物体についての映像記録をするよう
に構成されている。
2. Description of the Related Art In recent years, technical development relating to automation of a surveillance system using a surveillance camera has been advanced. As this type of monitoring apparatus, a technique described in Japanese Patent Application Laid-Open No. Hei 8-205513 is known. In the monitoring device described in this publication, when an abnormality in the screen of the monitoring camera is detected, camera control, turning device control, switcher control, and the like are performed even if there is no operator of the monitoring device, and video recording of an intruding object is performed. It is configured to be.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
監視装置では侵入物体が監視装置が監視している視野か
ら外れた場合、侵入物体の監視を継続するためには、設
置された監視カメラの数と位置と個々の監視カメラの視
野について熟知した操作者が、次に何の監視カメラを使
用すれば良いかの判断を下さなければならなかった。
However, in the conventional surveillance device, if the intruding object goes out of the field of view monitored by the surveillance device, in order to continue monitoring the intruding object, the number of surveillance cameras installed is required. The operator, who was familiar with the position and the field of view of the individual surveillance cameras, had to decide which surveillance camera to use next.

【0004】本発明は、上記課題を解決するため、被監
視物体が或る監視カメラの視野から外れる場合にも、他
の監視カメラによる監視が自動的に継続できる監視シス
テムを提供することを目的とする。
An object of the present invention is to provide a surveillance system capable of automatically continuing surveillance by another surveillance camera even when an object to be monitored is out of the field of view of a surveillance camera. And

【0005】[0005]

【課題を解決するための手段】上記目的を達成するた
め、本発明は、映像情報を取得し、同一エリアに少なく
とも2台の監視カメラと、前記監視カメラが取得した映
像情報を記憶する映像記憶手段と、前記監視カメラが取
得した映像情報に基づいて侵入物体を検出する侵入物体
検出手段と、前記侵入物体検出手段により検出された侵
入物体の位置を算出する物体位置算出手段と、監視環境
と前記監視カメラの視野についての環境地図データと、
前記環境地図データと前記侵入物体の位置とに基づい
て、何れの監視カメラの視野に入るかを算出する視野判
断手段と、前記視野判断手段の出力に基づいて前記選択
された監視カメラの映像を選択する映像信号選択制御手
段と、前記映像信号選択制御手段からの選択制御信号に
より前記選択された監視カメラからの映像をモニタに出
力する映像信号切換手段とを具備する。
In order to achieve the above object, the present invention provides a video storage device for obtaining video information, storing at least two monitoring cameras in the same area, and storing the video information obtained by the monitoring cameras. Means, an intruding object detecting means for detecting an intruding object based on the video information acquired by the monitoring camera, an object position calculating means for calculating a position of the intruding object detected by the intruding object detecting means, and a monitoring environment. Environmental map data on the field of view of the surveillance camera,
Based on the environment map data and the position of the intruding object, a visual field determining means for calculating which visual field of the surveillance camera enters, and an image of the selected surveillance camera based on an output of the visual field determining means. A video signal selection control means for selecting, and video signal switching means for outputting a video from the selected surveillance camera to a monitor according to a selection control signal from the video signal selection control means.

【0006】また、本発明は、映像情報を取得する単一
の監視カメラと、前記監視カメラが取得した映像情報を
記憶する映像記憶手段と、前記監視カメラが取得した映
像情報に基づいて侵入物体を検出する侵入物体検出手段
と、前記侵入物体検出手段により検出された侵入物体の
位置を算出する物体位置算出手段と、監視環境と前記監
視カメラの視野についての環境地図データと、該環境地
図データと前記侵入物体の位置とに基づいて、前記監視
カメラの視野に入るかを算出する視野判断手段と、前記
視野判断手段のデータの入出力を行う入出力手段と、で
構成される侵入物体監視装置を少なくとも2組の監視装
置が監視可能となるように具備し、前記侵入物体監視装
置内の各入出力手段から出力された視野判断に基づいて
前記選択された監視カメラの映像を選択する映像信号選
択制御手段と、前記映像信号選択制御手段からの選択制
御手段により選択された監視カメラからの映像をモニタ
に出力する映像切換手段と、で構成される。
Further, the present invention provides a single surveillance camera for acquiring video information, video storage means for storing the video information acquired by the surveillance camera, and an intruding object based on the video information acquired by the surveillance camera. Object position detecting means for detecting the position of the intruding object detected by the intruding object detecting means, environmental map data on the monitoring environment and the field of view of the monitoring camera, and the environmental map data. A visual field determining means for calculating whether to enter the visual field of the surveillance camera based on the position of the intruding object and an input / output means for inputting / outputting data of the visual field determining means. At least two sets of monitoring devices are provided so as to be monitored, and the selected monitoring device is determined based on a visual field judgment output from each input / output means in the intruding object monitoring device. A video signal selection control means for selecting a video camera, a video switching means for outputting an image from the selected surveillance camera by selection control means from said video signal selection control means on the monitor, in constructed.

【0007】また、本発明によると、当初に異常物体の
進入したことを検出した監視カメラからの映像は、物体
位置算出手段と視野判断手段とにおいて、情報を監視す
ることを開始する。次に進入物体が当監視カメラの監視
可能領域を外れる位置に移動しているときは、視野判断
手段が新たに監視可能となる監視カメラを選択する。そ
のカメラに対し旋回位置を決定してデータを送るから、
その監視カメラは監視可能となる。このようにして選択
された監視カメラによって監視が引き継ぎされる。
Further, according to the present invention, the video from the surveillance camera, which initially detects that an abnormal object has entered, starts monitoring the information in the object position calculating means and the visual field determining means. Next, when the approaching object is moving to a position outside the surveillance area of the surveillance camera, the visual field determination unit selects a surveillance camera that can newly be monitored. Since the turning position is determined and the data is sent to the camera,
The surveillance camera can be monitored. Surveillance is taken over by the surveillance camera selected in this way.

【0008】また、本発明によると、監視のために必要
・十分な装置を進入物体監視装置としてまとめているか
ら、処理動作を分散することができる。
Further, according to the present invention, since necessary and sufficient devices for monitoring are combined as an approaching object monitoring device, processing operations can be distributed.

【0009】[0009]

【発明の実施の形態】以下、図面に示す本発明の実施の
形態について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The embodiments of the present invention shown in the drawings will be described below.

【0010】(第1の実施形態)図1は、本発明の第1
の実施形態における監視システムの構成を示すブロック
図である。図1において、本発明の監視システムは、監
視カメラ10〜13、旋回手段14、A/D変換手段16、画像
記憶手段17、環境地図データ18、侵入物体検出手段20、
物体位置算出手段21、視野判断手段22、旋回位置決定手
段23、映像信号選択制御手段24、映像切換手段25、映像
モニタ26を備えている。
(First Embodiment) FIG. 1 shows a first embodiment of the present invention.
It is a block diagram which shows the structure of the monitoring system in embodiment. In FIG. 1, the surveillance system of the present invention includes surveillance cameras 10 to 13, turning means 14, A / D conversion means 16, image storage means 17, environmental map data 18, intruding object detection means 20,
The apparatus includes an object position calculation unit 21, a visual field determination unit 22, a turning position determination unit 23, a video signal selection control unit 24, a video switching unit 25, and a video monitor 26.

【0011】以下に各々について説明する。監視カメラ
10、11、12、13は映像情報を得るもの、A/D変換手段
16は監視カメラ10などが得た画像をA/D変換する。画
像記憶手段17は上記A/D変換された画像データを保持
する。環境地図データ18は監視環境と監視カメラ10など
の視野についての環境地図データである。侵入物体検出
手段20は監視環境と監視カメラ10などからの画像データ
に基づいて侵入物体を検出する。物体位置算出手段21は
検出された侵入物体の位置を算出する。視野判断手段22
は侵入物体の位置から、監視可能であるカメラが何れで
あるか、即ち、何のカメラの視野に入っているかを算出
する。
Each of these will be described below. Surveillance camera
10, 11, 12, 13 are for obtaining video information, A / D conversion means
Reference numeral 16 performs A / D conversion of an image obtained by the monitoring camera 10 or the like. The image storage means 17 holds the A / D converted image data. The environmental map data 18 is environmental map data on the surveillance environment and the visual field of the surveillance camera 10 and the like. The intruding object detection means 20 detects an intruding object based on the monitoring environment and image data from the monitoring camera 10 and the like. The object position calculating means 21 calculates the position of the detected intruding object. Field of view judgment means 22
Calculates, from the position of the intruding object, which camera can be monitored, that is, what camera is in view.

【0012】旋回位置決定手段23は視野判断手段22に基
づいて選択された監視カメラが監視可能になるような旋
回位置を算出する。旋回手段14は旋回位置決定手段23に
よって算出された方向へ監視カメラを旋回させる。映像
信号選択制御手段24は視野判断手段22に基づいて選択さ
れた監視カメラの映像を選択する。映像切換手段25は選
択された映像をモニタ26に出力する。
The turning position determining means 23 calculates a turning position at which the surveillance camera selected based on the visual field determining means 22 can be monitored. The turning means 14 turns the monitoring camera in the direction calculated by the turning position determining means 23. The video signal selection control means 24 selects the video of the selected monitoring camera based on the visual field determination means 22. The image switching means 25 outputs the selected image to the monitor 26.

【0013】次に上記実施の形態について、図2の上面
図を用いてその動作を説明する。図2において、図1と
同一構成要素は同一符号を付している。進入物体Cは壁
19の隙間より進入したものとする。
Next, the operation of the above embodiment will be described with reference to the top view of FIG. 2, the same components as those in FIG. 1 are denoted by the same reference numerals. Entry object C is a wall
It is assumed that the vehicle has entered through a gap of 19.

【0014】先ず、監視カメラ10を用いて映像情報を得
る。映像情報はA/D変換手段16を経てディジタル画像
データに変換される。画像記憶手段17には予め侵入物体
Cが映っていない状態の画像データを保持させておく。
侵入物体Cの映っていない画像データは、例えば、カメ
ラ設定時に、設置者が侵入物体がないことを確認して取
得し、画像記憶手段17に保持させて置く。
First, video information is obtained using the monitoring camera 10. The video information is converted to digital image data via A / D conversion means 16. The image storage means 17 stores in advance image data in a state where the intruding object C is not shown.
The image data not showing the intruding object C is acquired, for example, by the installer confirming that there is no intruding object when setting the camera, and is stored in the image storage means 17.

【0015】侵入物体検出手段20は、画像記憶手段17に
保持されている予め侵入物体Cが映っていない状態の映
像データと、現在の監視カメラ10によって得られた映像
情報をA/D変換手段16によってディジタルデータ化し
た現在の画像データとの、輝度、色データの差を算出
し、算出された輝度、色データの差が或る閾値以上であ
ることを条件として侵入物体が存在することを検出す
る。
The intruding object detecting means 20 converts the image data stored in the image storing means 17 in which the intruding object C is not reflected beforehand and the image information obtained by the current surveillance camera 10 into A / D converting means. The difference between the luminance and color data from the current image data converted into digital data by step 16 is calculated, and the presence of an intruding object is determined on condition that the difference between the calculated luminance and color data is equal to or greater than a certain threshold. To detect.

【0016】監視カメラ10の設置位置は一定であり、既
知である。カメラの向きは旋回装置14の動作によって決
定するが、旋回装置14の動作は旋回位置決定手段23によ
って決められるため、旋回装置14の動作角度などは既知
となる。監視カメラ10の位置、向きが既知であるとき、
カメラをピンホールモデルとして捉えると、撮像面上の
一点と、実環境上の平面(例えば床面)の一点とは、1
対1の対応が取れている。つまり、三角測量の原理を用
いることにより、カメラ画像上の位置を用いて実環境上
の位置を算出することができる。
The installation position of the monitoring camera 10 is fixed and known. Although the direction of the camera is determined by the operation of the turning device 14, the operation of the turning device 14 is determined by the turning position determining means 23, so that the operation angle and the like of the turning device 14 are known. When the position and orientation of the monitoring camera 10 are known,
When the camera is considered as a pinhole model, one point on the imaging surface and one point on a plane (for example, floor) in the real environment are 1
There is a one-to-one correspondence. That is, by using the principle of triangulation, the position in the real environment can be calculated using the position on the camera image.

【0017】そのため、物体位置算出手段21は画像上の
位置から三角測量の原理を用いて、侵入物体検出手段20
により検出した侵入物体の実環境上の位置を算出する。
このとき検出される侵入物体の最下方点を代表点として
選択すれば、実環境の床面における位置を算出すること
ができる。
For this reason, the object position calculating means 21 uses the principle of triangulation from the position on the image to calculate the intruding object detecting means 20.
The position of the intruding object detected in the real environment is calculated.
If the lowest point of the intruding object detected at this time is selected as a representative point, the position on the floor in the real environment can be calculated.

【0018】そのため、ある監視カメラ10について予め
距離の判った2点を定めておき、それらの点と侵入物体
とを結ぶ直線が、前記2点間を結ぶ直線とのなす角度を
画像上で測定し、演算を行えばよい。
For this reason, two points whose distances are known for a certain surveillance camera 10 are determined in advance, and an angle between a straight line connecting the points and the intruding object and a straight line connecting the two points is measured on an image. Then, the operation may be performed.

【0019】次に侵入物体をカメラの光軸中心付近で撮
像できるように旋回位置決定手段23から旋回命令が出さ
れる。侵入物体の実環境上P1の位置から、物体位置算
出手段21で演算した三角測量の逆演算を行うことによっ
て監視カメラ10の旋回位置を算出する。その旋回位置ま
で監視カメラ10が旋回したとき、監視カメラ10は侵入物
体を直視し、画像が中心付近に得られる。
Next, a turning command is issued from the turning position determining means 23 so that the intruding object can be imaged near the center of the optical axis of the camera. The turning position of the surveillance camera 10 is calculated by performing the inverse operation of the triangulation calculated by the object position calculating means 21 from the position of P1 in the real environment of the intruding object. When the surveillance camera 10 turns to the turning position, the surveillance camera 10 looks directly at the intruding object, and an image is obtained near the center.

【0020】進入物体Cが位置P1より移動してP2に
達したとき、P2の位置は監視カメラ11によっても監視
可能な位置であるとする。P2の位置を監視カメラ10が
検出し、地図データ18と対応させるとき、P2の位置は
監視カメラ11によって監視可能であると判断される。そ
して旋回位置算出手段21により、監視カメラ11の旋回量
を算出して旋回装置14により監視カメラ11を旋回させ
る。即ち、このP2の位置では、監視カメラ10と11との
両者から監視することができる。
When the entering object C moves from the position P1 and reaches P2, the position of P2 is assumed to be a position that can be monitored by the monitoring camera 11. When the monitoring camera 10 detects the position of P2 and associates it with the map data 18, it is determined that the position of P2 can be monitored by the monitoring camera 11. Then, the turning amount of the surveillance camera 11 is calculated by the turning position calculating means 21 and the turning camera 14 turns the monitoring camera 11. That is, at the position of P2, monitoring can be performed from both the monitoring cameras 10 and 11.

【0021】次に進入物体Cは、P3の位置まで移動す
るとき、監視カメラ10による監視はできなくなり、監視
カメラ11によって、監視が続けられる。即ち、カメラ10
から11へ監視が引き継がれる。
Next, when the approaching object C moves to the position P3, monitoring by the monitoring camera 10 becomes impossible, and monitoring by the monitoring camera 11 is continued. That is, camera 10
Monitoring is taken over from to 11.

【0022】このような動作を行って、複数の監視カメ
ラ10、11、12、13が設置された環境において、侵入物体
が或る監視カメラの視野から外れる場合に、他の監視カ
メラに監視を引き継ぐことができる。
By performing such an operation, in the environment where a plurality of surveillance cameras 10, 11, 12, and 13 are installed, when an intruding object goes out of the field of view of one surveillance camera, the surveillance is monitored by another surveillance camera. You can take over.

【0023】(第2の実施形態)図3は、本発明の第2
の実施形態における監視システムの構成を示すブロック
図である。図3において、監視カメラ10、A/D変換手
段16、画像記憶手段17、環境地図データ18、侵入物体検
出手段20、物体位置算出手段21、視野判断手段22、旋回
位置決定手段23、映像信号選択制御手段24、映像信号切
換手段25、モニタ26は、図1に示す要素と同一符号は同
様のものとして対応する。
(Second Embodiment) FIG. 3 shows a second embodiment of the present invention.
It is a block diagram which shows the structure of the monitoring system in embodiment. In FIG. 3, the monitoring camera 10, the A / D conversion means 16, the image storage means 17, the environment map data 18, the intruding object detection means 20, the object position calculation means 21, the visual field judgment means 22, the turning position determination means 23, the video signal The selection control means 24, the video signal switching means 25, and the monitor 26 correspond to the same elements as those shown in FIG.

【0024】図3において、入出力手段27は、旋回位置
情報と視野判断情報と映像信号の入出力を行う。侵入物
体監視装置90として、上記の監視カメラ10より視野判断
手段22までを一括して示す。そのため、侵入物体監視装
置90と同様の構成の侵入物体監視装置を91〜93と示す。
In FIG. 3, an input / output means 27 inputs and outputs turning position information, visual field determination information, and video signals. As the intruding object monitoring device 90, the components from the monitoring camera 10 to the visual field determining means 22 are collectively shown. Therefore, intruding object monitoring devices having the same configuration as the intruding object monitoring device 90 are denoted by 91 to 93.

【0025】侵入物体監視装置90〜93の各装置内におけ
る動作は、その入出力手段27を除き、図1に示す同様範
囲内の要素の動作と同様である。そして、旋回位置情報
と視野判断情報と映像信号との入出力が入出力装置27を
介して行われる。さらに、各侵入物体監視装置90〜93の
各入出力装置27から出力された視野判断情報に基づいて
選択された監視カメラの映像を、映像信号選択制御手段
24において行う。
The operation of each of the intruding object monitoring devices 90 to 93 is the same as the operation of elements in the same range as shown in FIG. Then, input / output of the turning position information, the visual field determination information, and the video signal is performed via the input / output device 27. Further, the video of the surveillance camera selected based on the visual field determination information output from each input / output device 27 of each of the intruding object monitoring devices 90 to 93 is displayed by video signal selection control means.
Perform at 24.

【0026】図3に示す構成において、各侵入物体監視
装置は映像の取得から、旋回位置の決定までの処理を個
別の装置において行うため、故障の発生したとき対処が
簡単にできる。
In the configuration shown in FIG. 3, each intruding object monitoring device performs processing from acquisition of an image to determination of a turning position in a separate device, so that when a failure occurs, it is possible to easily deal with it.

【0027】次に上記各装置における物体位置算出手段
と、視野判断手段との、具体的構成を実施例として説明
する。図4は物体位置算出手段21の例である。画像記憶
手段30は画像を記憶する。位置算出手段31は侵入物体の
位置を算出する。移動方向算出手段32は侵入物体の移動
方向を算出する。画像記憶手段30と位置算出手段31とに
より、時間的な差を持って画像データを少なくとも2枚
記憶し、それを用いて侵入物体の現在位置を、例えば三
角測量の考え方を使用して算出する。
Next, a specific configuration of the object position calculating means and the visual field judging means in each of the above devices will be described as an embodiment. FIG. 4 shows an example of the object position calculation means 21. The image storage means 30 stores an image. The position calculating means 31 calculates the position of the intruding object. The moving direction calculating means 32 calculates the moving direction of the intruding object. The image storage means 30 and the position calculation means 31 store at least two pieces of image data with a time difference, and use them to calculate the current position of the intruding object using, for example, the concept of triangulation. .

【0028】次いで移動方向算出手段32により算出した
侵入物体の位置を時系列順にみることにより物体の移動
方向を算出する。この構成例により、侵入物体の移動方
向が判るから、侵入物体が視野から出入することを管理
できる。
Next, the moving direction of the object is calculated by looking at the position of the intruding object calculated by the moving direction calculating means 32 in chronological order. According to this configuration example, since the moving direction of the intruding object is known, it is possible to manage that the intruding object enters and exits from the visual field.

【0029】図5は他の物体位置算出手段を示すブロッ
ク図である。図5において、画像記憶手段30と、位置算
出手段31は、図3と同様のものである。速度ベクトル算
出手段33は侵入物体の速度ベクトルを算出する。時間差
計測手段34は画像記憶手段30に記憶されている時系列画
像の画像間の時間を計測する。
FIG. 5 is a block diagram showing another object position calculating means. 5, an image storage unit 30 and a position calculation unit 31 are the same as those in FIG. The speed vector calculation means 33 calculates a speed vector of the intruding object. The time difference measuring means 34 measures the time between the images of the time-series images stored in the image storage means 30.

【0030】画像記憶手段30と位置算出手段31は、上記
と同様に時間的な差を持って画像データを少なくとも2
枚記憶し、それを用いて侵入物体の現在位置を、例えば
三角測量の考え方を使用して算出する。
The image storing means 30 and the position calculating means 31 store the image data at least two times with a time difference as described above.
The current position of the intruding object is calculated by using the stored information, for example, using the concept of triangulation.

【0031】速度ベクトル算出手段34では、位置算出手
段33で算出された侵入物体の位置を時系列順に見て移動
方向と移動距離と、時間差計測手段34によって時系列画
像間の時間とを用いて、侵入物体の速度ベクトルを算出
する。このような構成にすることにより、侵入物体が視
野から出た場合に、次の視野に入るまでの時間を予測す
ることができる。
The speed vector calculating means 34 looks at the position of the intruding object calculated by the position calculating means 33 in chronological order and uses the moving direction and the moving distance, and the time difference measuring means 34 uses the time between the time-series images. , Calculate the velocity vector of the intruding object. With such a configuration, when an intruding object comes out of the field of view, it is possible to predict the time required to enter the next field of view.

【0032】図6における他の実施例において、物体位
置算出手段35は、侵入物体が視野内に在る場合画像上の
位置が実環境の何処に位置するかを算出する。ルックア
ップテーブル36は画像上の位置が実環境の何処に位置す
るかを予め記憶する。
In another embodiment shown in FIG. 6, the object position calculating means 35 calculates where the position on the image is located in the real environment when the intruding object is in the visual field. The look-up table 36 stores in advance where the position on the image is located in the real environment.

【0033】物体位置算出手段35には、侵入物体の画像
上の位置が侵入物体検出手段21により検出された侵入物
体の画像上の位置が入力される。ルックアップテーブル
36には、画像上の位置と監視環境上の位置の対応が記憶
される。
The position on the image of the intruder detected by the intruder detecting unit 21 is input to the object position calculator 35. Lookup table
36 stores the correspondence between the position on the image and the position on the monitoring environment.

【0034】例えば画像上の位置が(x1、y1)のと
き監視環境上の位置が(X1、Y1)であるならば、ル
ックアップテーブル36にはアドレス(x1、y1)に
(X1、Y1)というデータを保持しておく。物体位置
算出手段35は(x1、y1)を引数として(X1、Y
1)を返すようにする。ルックアップテーブル36は、監
視カメラ設置時に作成する。
For example, if the position on the monitoring environment is (X1, Y1) when the position on the image is (x1, y1), the look-up table 36 stores (X1, Y1) at the address (x1, y1). Is held. The object position calculating means 35 uses (x1, y1) as an argument and (X1, Y1).
Return 1). The look-up table 36 is created when the surveillance camera is installed.

【0035】図7においては、パターン記憶手段37は人
間のモデルパターンを記憶しておく。パターン比較手段
38はモデルパターンと画像データとのマッチングを行
う。人間判断手段39は前記比較手段38の比較結果から侵
入物体が人間であるか否かを検出する。画像記憶手段40
は、画像データを保持する。位置算出手段41検出された
侵入物体の位置を算出する。
In FIG. 7, the pattern storage means 37 stores a human model pattern. Pattern comparison means
38 performs matching between the model pattern and the image data. The human judging means 39 detects whether or not the intruding object is a human from the comparison result of the comparing means. Image storage means 40
Holds image data. The position calculating means 41 calculates the position of the detected intruding object.

【0036】画像記憶手段40には、図1に示す侵入物体
検出手段20による画像として侵入物体検出用差画像が入
力される。この差画像は (侵入物体が映っていない画像)−(現在の侵入物体が
映っている画像) であって、この差画像が画像記憶手段40に入力される。
The image storage means 40 receives a difference image for detecting an intruding object as an image obtained by the intruding object detecting means 20 shown in FIG. This difference image is (image not showing the intruding object)-(image showing the current intruding object), and this difference image is input to the image storage means 40.

【0037】差画像では、侵入物体以外の部分では差が
殆ど無く、侵入物体部分のみが“0”以外の値を持つ。
この時、差画像中“0”以外の値を持つ部分は侵入物体
の外形を示している。パターン記憶手段37には、監視カ
メラ10に人間が映った場合、どのような外形になるか保
持させておく。一般に人間の外形は、水平方向から見れ
ば或る一定の縦横比をもった縦長の形状をもっている。
頭に当たる上部はそれ以外よりも細く、足に当たる下部
は二つに別れる可能性がある。斜め上方向から見れば、
外形の縦横比は変化する。パターン記憶手段37は、以上
のような可能性に則した人間外形を保持する。
In the difference image, there is almost no difference in portions other than the intruding object, and only the intruding object portion has a value other than "0".
At this time, a portion having a value other than “0” in the difference image indicates the outer shape of the intruding object. The pattern storage means 37 stores the external shape of the surveillance camera 10 when a person is reflected on the surveillance camera 10. In general, the external shape of a human has a vertically long shape having a certain aspect ratio when viewed from the horizontal direction.
The upper part, which hits the head, is thinner than the others, and the lower part, which hits the feet, can split in two. Looking diagonally from above,
The aspect ratio of the outer shape changes. The pattern storage means 37 holds a human outline conforming to the above possibilities.

【0038】次にパターン比較手段38において、差画像
の値を持つ部分と、パターン記憶手段37に保持させてあ
る外形との比較を行う。例えば差画像中の“0”に近い
値は×、それ以外(侵入物体)の値は○とし、人間外形
パターンも○×で構成して、差画像と人間外形パターン
の○×が最も良く合う位置における一致失敗数を計算す
る。
Next, the pattern comparing means 38 compares the portion having the value of the difference image with the external shape held in the pattern storing means 37. For example, the value close to “0” in the difference image is ×, the value of the other (invading object) is ○, and the human outline pattern is also ○. Calculate the number of failed matches at the location.

【0039】人間判断手段39において、一致失敗数が或
る閾値以下であれば侵入物体は人間であると判断する。
位置算出手段41において、前記のように侵入物体の位置
を算出する。人間判断手段39ではパターン比較手段38の
比較結果から侵入物体が人間であるかどうかを判断し、
位置情報に判断結果を付加する。人間判断手段39から
は、侵入物体の位置と侵入物体が人間であるかどうかの
情報が出力される。
If the number of matching failures is equal to or less than a certain threshold value, the intruding object is determined to be a human by the human determining means 39.
The position calculating means 41 calculates the position of the intruding object as described above. The human determination means 39 determines whether the intruding object is a human from the comparison result of the pattern comparison means 38,
The judgment result is added to the position information. The human determination means 39 outputs information on the position of the intruding object and whether the intruding object is a human.

【0040】次に図8において、視野判断として具体的
構成の例を示す。図8において、判断手段42は侵入物体
が視野から外れた場合、視野を外れた位置から次にどの
過信カメラの視野に入る可能性があるのかを判断する。
ルックアップテーブル43は、侵入物体が視野から外れた
場合、視野を外れた位置から次にどの監視カメラの視野
に入る可能性があるのかを予め記憶したテーブルであ
る。
Next, FIG. 8 shows an example of a specific configuration for determining the visual field. In FIG. 8, when the intruding object goes out of the field of view, the judging means 42 judges from the position out of the field of view that there is a possibility that the next supervised camera may enter the field of view.
The look-up table 43 is a table in which, when the intruding object goes out of the field of view, the surveillance camera which is likely to enter the field of view next from the position out of the field of view is stored in advance.

【0041】判断手段42には上記物体情報検出手段21で
算出された侵入物体の位置が入力される。ルックアップ
テーブル43には侵入物体の位置と監視可能なカメラの対
応を記憶させる。侵入物体の位置がxのとき、監視カメ
ラAが方向(a1、a2)を向くことによって監視可能
であるならば、ルックアップテーブル43はアドレスxに
(A、a1、a2)というデータを保持していれば良
い。判断手段42はxを引数として(A、a1、a2)を
返すようにする。ルックアップテーブル43は監視カメラ
設置時に作成すれば良い。
The position of the intruding object calculated by the object information detecting means 21 is input to the judging means 42. The lookup table 43 stores the correspondence between the position of the intruding object and the camera that can be monitored. When the position of the intruding object is x, if the surveillance camera A can monitor by pointing in the direction (a1, a2), the look-up table 43 holds data (A, a1, a2) at the address x. I just want to. The judging means 42 returns (A, a1, a2) using x as an argument. The lookup table 43 may be created when the surveillance camera is installed.

【0042】図1における画像記憶手段17には予め侵入
物体が映っていない状態の画像データを保持させておく
が、そのとき、侵入物体が映っていない画像データを取
得するやり方として、操作者が、前述のように侵入物体
が映っていないことを確認して画像記憶手段に保持させ
る事以外に、下記のやり方もある。
The image storage means 17 shown in FIG. 1 stores image data in which an intruding object is not reflected in advance. At this time, as a method for acquiring image data in which an intruding object is not reflected, an operator needs In addition to the method of confirming that an intruding object is not reflected and holding the image in the image storage means as described above, the following method is also available.

【0043】即ち、時間間隔をおいて複数の画像データ
を取得し、これら複数の画像データ間で輝度、色データ
の差を算出し、算出された輝度、色データの差が無いま
たは殆どない状態を以て侵入物体のない画像データとす
ることである。この場合は監視環境の経年変化や、時
刻、天候などの環境変化にも対応できる。
That is, a plurality of image data is acquired at intervals of time, the difference between the luminance and the color data is calculated between the plurality of image data, and there is no or almost no difference between the calculated luminance and the color data. To make image data without an intruding object. In this case, it is possible to cope with aging of the monitoring environment and environmental changes such as time and weather.

【0044】なお、上記実施の形態においては、旋回装
置付きの監視カメラについて述べたが、固定カメラでも
同様である。
In the above embodiment, the surveillance camera with the turning device has been described, but the same applies to a fixed camera.

【0045】[0045]

【発明の効果】このようにして本発明によると、複数の
監視カメラが設置された環境において、進入物体が監視
カメラの視野から外れる場合に、他の監視カメラに監視
を引き継ぐことができ、進入物体をより正確に捕捉する
ことができる監視システムを提供できるものである。
As described above, according to the present invention, in an environment where a plurality of surveillance cameras are installed, when an intruding object goes out of the field of view of the surveillance cameras, surveillance can be taken over by another surveillance camera, and It is possible to provide a monitoring system capable of capturing an object more accurately.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施の形態における監視システム
の構成を示すブロック図、
FIG. 1 is a block diagram showing a configuration of a monitoring system according to a first embodiment of the present invention;

【図2】図1に示す監視システムの動作を説明するため
の図、
FIG. 2 is a diagram for explaining the operation of the monitoring system shown in FIG. 1;

【図3】本発明の第2実施の形態における監視システム
の構成を示すブロック図、
FIG. 3 is a block diagram showing a configuration of a monitoring system according to a second embodiment of the present invention;

【図4】図1における物体位置算出手段の構成を示すブ
ロック図、
FIG. 4 is a block diagram showing a configuration of an object position calculating unit in FIG. 1;

【図5】図1における物体位置算出手段の構成を示すブ
ロック図、
FIG. 5 is a block diagram illustrating a configuration of an object position calculating unit in FIG. 1;

【図6】図1における物体位置算出手段の構成を示すブ
ロック図、
FIG. 6 is a block diagram showing a configuration of an object position calculating unit in FIG. 1;

【図7】図1における物体位置算出手段の構成を示すブ
ロック図、
FIG. 7 is a block diagram showing a configuration of an object position calculating unit in FIG. 1;

【図8】図1における視野判断手段の構成を示すブロッ
ク図である。
FIG. 8 is a block diagram illustrating a configuration of a visual field determination unit in FIG. 1;

【符号の説明】[Explanation of symbols]

10〜13 監視カメラ 14 旋回手段 16 A/D変換手段 17 画像記憶手段 18 環境地図データ 20 侵入物体検出手段 21 物体位置算出手段 22 視野判断手段 23 旋回位置決定手段 24 映像信号選択制御手段 25 映像信号切換手段 26 モニタ 27 入出力手段 30 画像記憶手段 31 物体位置算出手段 32 移動方向算出手段 33 速度ベクトル算出手段 34 時間差計測手段 35 物体位置算出手段 36、43 ルックアップテーブル 37 パターン記憶手段 38 パターン比較手段 39 人間判断手段 40 画像記憶手段 41 位置算出手段 42 視野判断手段 90〜93 侵入物体監視装置 10 to 13 Surveillance camera 14 Turning means 16 A / D conversion means 17 Image storage means 18 Environmental map data 20 Intruding object detection means 21 Object position calculation means 22 Field of view judgment means 23 Turning position determination means 24 Video signal selection control means 25 Video signal Switching means 26 Monitor 27 Input / output means 30 Image storage means 31 Object position calculation means 32 Moving direction calculation means 33 Speed vector calculation means 34 Time difference measurement means 35 Object position calculation means 36, 43 Look-up table 37 Pattern storage means 38 Pattern comparison means 39 Human judgment means 40 Image storage means 41 Position calculation means 42 Field of view judgment means 90-93 Intruding object monitoring device

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C022 AA01 AB62 AB65 AC27 5C054 AA02 CF05 CG06 EB05 FC01 FC12 FC13 FC15 FE22 FF01 GB01 HA19 5C084 AA01 AA06 BB01 BB31 CC16 DD11 GG18 GG42 GG51 GG54 GG65 GG78 5C087 AA02 AA03 AA04 AA09 AA19 BB74 DD03 DD13 EE05 EE06 EE08 EE20 GG03 GG19 GG52 GG55 GG65  ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C022 AA01 AB62 AB65 AC27 5C054 AA02 CF05 CG06 EB05 FC01 FC12 FC13 FC15 FE22 FF01 GB01 HA19 5C084 AA01 AA06 BB01 BB31 CC16 DD11 GG18 GG42 GG51 GG54 A04A DD03 DD13 EE05 EE06 EE08 EE20 GG03 GG19 GG52 GG55 GG65

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 映像情報を取得し、同一エリアに少なく
とも2台の監視カメラと、 前記監視カメラが取得した映像情報を記憶する映像記憶
手段と、 前記監視カメラが取得した映像情報に基づいて侵入物体
を検出する侵入物体検出手段と、 前記侵入物体検出手段により検出された侵入物体の位置
を算出する物体位置算出手段と、 監視環境と前記監視カメラの視野についての環境地図デ
ータと、 前記環境地図データと前記侵入物体の位置とに基づい
て、何れの監視カメラの視野に入るかを算出する視野判
断手段と、 前記視野判断手段の出力に基づいて前記選択された監視
カメラの映像を選択する映像選択制御手段と、 前記映像選択制御手段からの選択制御信号により前記選
択された監視カメラからの映像をモニタに出力する映像
信号切換手段とを具備することを特徴とする監視システ
ム。
1. A video information acquisition device, at least two monitoring cameras in the same area, video storage means for storing video information acquired by the monitoring camera, and intrusion based on the video information acquired by the monitoring camera. An intruding object detecting means for detecting an object; an object position calculating means for calculating a position of the intruding object detected by the intruding object detecting means; environmental map data on a monitoring environment and a field of view of the monitoring camera; Field-of-view judging means for calculating which surveillance camera enters the field of view based on data and the position of the intruding object, and an image for selecting an image of the selected surveillance camera based on an output of the field-of-view judging means Selection control means, and video signal switching means for outputting video from the selected surveillance camera to a monitor according to a selection control signal from the video selection control means Monitoring system characterized by comprising a.
【請求項2】 映像情報を取得する単一の監視カメラ
と、 前記監視カメラが取得した映像情報を記憶する映像記憶
手段と、前記監視カメラが取得した映像情報に基づいて
侵入物体を検出する侵入物体検出手段と、 前記侵入物体検出手段により検出された侵入物体の位置
を算出する物体位置算出手段と、 監視環境と前記監視カメラの視野についての環境地図デ
ータと、 前記環境地図データと前記侵入物体の位置とに基づい
て、前記監視カメラの視野に入るかを算出する視野判断
手段と、 前記視野判断手段のデータの入出力を行う入出力手段
と、 で構成される侵入物体監視装置を少なくとも2組の監視
装置が監視可能となるように具備し、 前記侵入物体監視装置内の各入出力手段から出力された
視野判断に基づいて選択された監視カメラの映像を選択
する映像選択制御手段と、 前記映像選択制御手段からの選択制御手段により前記選
択された監視カメラからの映像をモニタに出力する映像
切換手段と、 で構成されることを特徴とする監視システム。
2. A single surveillance camera for acquiring video information, a video storage unit for storing video information acquired by the surveillance camera, and an intrusion detecting an intruding object based on the video information acquired by the surveillance camera. Object detecting means; object position calculating means for calculating the position of the intruding object detected by the intruding object detecting means; environmental map data on the monitoring environment and the field of view of the monitoring camera; the environmental map data and the intruding object And an input / output means for inputting / outputting data of the visual field determining means, based on the position of the monitoring camera. A set of monitoring devices are provided so as to be capable of monitoring, and the monitoring camera selected based on the visual field judgment output from each input / output means in the intruding object monitoring device. A surveillance system comprising: video selection control means for selecting a video signal; and video switching means for outputting video from the surveillance camera selected by the selection control means from the video selection control means to a monitor. .
【請求項3】 前記物体位置算出手段は、時間差を持っ
た複数の画像データを保持する記憶手段と、複数の画像
データから侵入物体の位置情報を算出する位置算出手段
と、前記侵入物体の時間差をもった位置情報から侵入物
体の移動方向を算出する移動方向算出手段とで構成する
ことを特徴とする請求項1または請求項2記載の監視シ
ステム。
3. An object position calculating means, comprising: storage means for holding a plurality of image data having a time difference; position calculating means for calculating position information of an intruding object from the plurality of image data; The surveillance system according to claim 1, further comprising a moving direction calculating unit configured to calculate a moving direction of the intruding object from the position information having the following.
【請求項4】 前記物体位置算出手段は、時間差を持っ
た複数の画像データを保持する記憶手段と、複数の画像
データから侵入物体の位置情報を算出する位置算出手段
と、前記侵入物体の時間差をもった位置情報と時間差か
ら侵入物体の速度ベクトルを算出する速度ベクトル算出
手段とで構成することを特徴とする請求項1または請求
項2記載の監視システム。
4. An object position calculating means, comprising: storage means for storing a plurality of image data having a time difference; position calculating means for calculating position information of an intruding object from the plurality of image data; The monitoring system according to claim 1, further comprising: a speed vector calculating unit configured to calculate a speed vector of the intruding object from the positional information having the time information and the time difference.
【請求項5】 前記物体位置算出手段は、画像上の位置
が実環境の何処に位置するかを予め記憶するルックアッ
プテーブルで構成されることを特徴とする請求項1また
は請求項2記載の監視システム。
5. The apparatus according to claim 1, wherein said object position calculating means comprises a look-up table which stores in advance where in the real environment the position on the image is located. Monitoring system.
【請求項6】 前記物体位置算出手段は、検出された侵
入物体の位置を算出する位置算出手段と、画像データを
保持する画像記憶手段と、人間モデルパターンを記憶す
るパターン記憶手段と、モデルパターンと画像データと
のマッチングを行うパターン比較手段と、該パターン比
較手段の出力に基づいて前記侵入物体が人間であるか否
かを検出する人間判断手段とで構成されることを特徴と
する請求項1または請求項2記載の監視システム。
6. An object position calculating means, comprising: a position calculating means for calculating a position of a detected intruding object; an image storing means for storing image data; a pattern storing means for storing a human model pattern; A pattern comparing unit that matches the image data with the image data; and a human determining unit that detects whether the intruding object is a human based on an output of the pattern comparing unit. The monitoring system according to claim 1 or claim 2.
【請求項7】 前記視野判断手段は、侵入物体が視野か
ら外れた場合、視野を外れた位置から次に何の監視カメ
ラの視野に入る可能性があるかを予め記憶したルックア
ップテーブルで構成したことを特徴とする請求項1また
は請求項2記載の監視システム。
7. The visual field judging means comprises a look-up table in which, when an intruding object goes out of the field of view, the surveillance camera is likely to enter the next field of view from the position outside the field of view. 3. The monitoring system according to claim 1, wherein
JP2000282399A 2000-09-18 2000-09-18 Monitoring system Pending JP2002092751A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000282399A JP2002092751A (en) 2000-09-18 2000-09-18 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000282399A JP2002092751A (en) 2000-09-18 2000-09-18 Monitoring system

Publications (1)

Publication Number Publication Date
JP2002092751A true JP2002092751A (en) 2002-03-29

Family

ID=18766928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000282399A Pending JP2002092751A (en) 2000-09-18 2000-09-18 Monitoring system

Country Status (1)

Country Link
JP (1) JP2002092751A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017416A (en) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp Device and method for monitoring, and program
CN100456827C (en) * 2003-06-18 2009-01-28 松下电器产业株式会社 Video surveillance system, surveillance video composition apparatus, and video surveillance server
EP2549753A1 (en) * 2010-03-15 2013-01-23 Omron Corporation Surveillance camera terminal
CN104065934A (en) * 2014-07-02 2014-09-24 上海理工大学 Monitoring device of mobile object and monitoring method of mobile object
JP2015139113A (en) * 2014-01-23 2015-07-30 三菱電機株式会社 Monitor camera, monitoring area cooperative management device, and monitor camera system
WO2016067610A1 (en) * 2014-10-30 2016-05-06 Nec Corporation Monitoring system, monitoring method and program
WO2016132769A1 (en) * 2015-02-19 2016-08-25 シャープ株式会社 Imaging device, control method for imaging device, and control program
WO2016152316A1 (en) * 2015-03-20 2016-09-29 日本電気株式会社 Surveillance system, surveillance method, surveillance device, and surveillance device control program
WO2016157327A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Video surveillance system and video surveillance method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176153A (en) * 1992-12-09 1994-06-24 Tokyo Electric Power Co Inc:The Image processor
JPH07274157A (en) * 1994-03-30 1995-10-20 Anima Denshi Kk Maritime monitor device of vessel or the like
JPH09179984A (en) * 1995-12-27 1997-07-11 Mitsubishi Electric Corp Video monitor device
JPH10241077A (en) * 1997-02-27 1998-09-11 Mitsubishi Electric Corp Fire detection system
JPH11252535A (en) * 1998-03-03 1999-09-17 Nissin Electric Co Ltd Monitor camera system
JP2000032435A (en) * 1998-07-10 2000-01-28 Mega Chips Corp Monitoring system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176153A (en) * 1992-12-09 1994-06-24 Tokyo Electric Power Co Inc:The Image processor
JPH07274157A (en) * 1994-03-30 1995-10-20 Anima Denshi Kk Maritime monitor device of vessel or the like
JPH09179984A (en) * 1995-12-27 1997-07-11 Mitsubishi Electric Corp Video monitor device
JPH10241077A (en) * 1997-02-27 1998-09-11 Mitsubishi Electric Corp Fire detection system
JPH11252535A (en) * 1998-03-03 1999-09-17 Nissin Electric Co Ltd Monitor camera system
JP2000032435A (en) * 1998-07-10 2000-01-28 Mega Chips Corp Monitoring system

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100456827C (en) * 2003-06-18 2009-01-28 松下电器产业株式会社 Video surveillance system, surveillance video composition apparatus, and video surveillance server
US7746380B2 (en) 2003-06-18 2010-06-29 Panasonic Corporation Video surveillance system, surveillance video composition apparatus, and video surveillance server
JP2009017416A (en) * 2007-07-09 2009-01-22 Mitsubishi Electric Corp Device and method for monitoring, and program
EP2549753A1 (en) * 2010-03-15 2013-01-23 Omron Corporation Surveillance camera terminal
JPWO2011114799A1 (en) * 2010-03-15 2013-06-27 オムロン株式会社 Surveillance camera terminal
JP5325337B2 (en) * 2010-03-15 2013-10-23 オムロン株式会社 Surveillance camera terminal
EP2549753A4 (en) * 2010-03-15 2014-06-04 Omron Tateisi Electronics Co Surveillance camera terminal
US9398231B2 (en) 2010-03-15 2016-07-19 Omron Corporation Surveillance camera terminal
JP2015139113A (en) * 2014-01-23 2015-07-30 三菱電機株式会社 Monitor camera, monitoring area cooperative management device, and monitor camera system
CN104065934B (en) * 2014-07-02 2018-08-24 上海理工大学 A kind of monitoring device and its monitoring method of mobile object
CN104065934A (en) * 2014-07-02 2014-09-24 上海理工大学 Monitoring device of mobile object and monitoring method of mobile object
US10735693B2 (en) 2014-10-30 2020-08-04 Nec Corporation Sensor actuation based on sensor data and coverage information relating to imaging range of each sensor
JP2017539114A (en) * 2014-10-30 2017-12-28 日本電気株式会社 Monitoring system, monitoring method and program
US10362274B2 (en) 2014-10-30 2019-07-23 Nec Corporation Monitoring system, monitoring method and storage medium
WO2016067610A1 (en) * 2014-10-30 2016-05-06 Nec Corporation Monitoring system, monitoring method and program
JP2020127222A (en) * 2014-10-30 2020-08-20 日本電気株式会社 Monitoring system, monitoring method and program
US10893240B2 (en) 2014-10-30 2021-01-12 Nec Corporation Camera listing based on comparison of imaging range coverage information to event-related data generated based on captured image
US11800063B2 (en) 2014-10-30 2023-10-24 Nec Corporation Camera listing based on comparison of imaging range coverage information to event-related data generated based on captured image
WO2016132769A1 (en) * 2015-02-19 2016-08-25 シャープ株式会社 Imaging device, control method for imaging device, and control program
WO2016152316A1 (en) * 2015-03-20 2016-09-29 日本電気株式会社 Surveillance system, surveillance method, surveillance device, and surveillance device control program
WO2016157327A1 (en) * 2015-03-27 2016-10-06 日本電気株式会社 Video surveillance system and video surveillance method
JPWO2016157327A1 (en) * 2015-03-27 2018-02-15 日本電気株式会社 Video surveillance system and video surveillance method
US11019268B2 (en) 2015-03-27 2021-05-25 Nec Corporation Video surveillance system and video surveillance method
US11228715B2 (en) 2015-03-27 2022-01-18 Nec Corporation Video surveillance system and video surveillance method

Similar Documents

Publication Publication Date Title
US7674052B2 (en) Object detection apparatus
US6404455B1 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
US7260241B2 (en) Image surveillance apparatus, image surveillance method, and image surveillance processing program
JP3279479B2 (en) Video monitoring method and device
JP4694589B2 (en) Automatic monitoring system
JP4559874B2 (en) Motion tracking device
JP4289609B2 (en) Arc monitoring system
JP2002092751A (en) Monitoring system
US20220004748A1 (en) Video display method, device and system, and video camera
JPH1169342A (en) Image processing system for tracking intruding object
JP3182808B2 (en) Image processing system
JP4664878B2 (en) Image processing device
JP2001319279A (en) Method and system for monitoring invading object
US7738009B2 (en) Method for following at least one object in a scene
JPH0793558A (en) Image monitoring device
JPH0514891A (en) Image monitor device
JPH10126766A (en) Monitoring camera equipment
JP3580152B2 (en) Inter-vehicle distance detection device
JP5061843B2 (en) Intruder detection device
JPH1066054A (en) Video monitor
JPS62276985A (en) Picture supervisory system
JPH11288495A (en) Traffic abnormality detecting device
JP2002342748A (en) Method and device for detecting queue
JPH06301782A (en) Monitor device
KR0160196B1 (en) Automatic guard apparatus and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100622