JP2014036414A - Monitoring system - Google Patents

Monitoring system Download PDF

Info

Publication number
JP2014036414A
JP2014036414A JP2012178303A JP2012178303A JP2014036414A JP 2014036414 A JP2014036414 A JP 2014036414A JP 2012178303 A JP2012178303 A JP 2012178303A JP 2012178303 A JP2012178303 A JP 2012178303A JP 2014036414 A JP2014036414 A JP 2014036414A
Authority
JP
Japan
Prior art keywords
image
monitoring
camera
intruder
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012178303A
Other languages
Japanese (ja)
Other versions
JP6016295B2 (en
Inventor
Toyohiko Hayashi
豊彦 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2012178303A priority Critical patent/JP6016295B2/en
Publication of JP2014036414A publication Critical patent/JP2014036414A/en
Application granted granted Critical
Publication of JP6016295B2 publication Critical patent/JP6016295B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an important image to a monitoring person in real-time by predicting the action of an intruder on the basis of a detection frame area and locus information of the intruder detected by a laser sensor when the intruder is detected by an image processing device, and rank importance levels on the basis of multiple camera images.SOLUTION: A monitoring system includes: multiple cameras for capturing images of a monitoring area; an intrusion object detection sensor for performing image processing of image signals input from the multiple cameras and detecting an intrusion object that intrudes into the monitoring area; and a control unit for instructing the change of directions and field angles of the multiple cameras according to previously registered preset information on the basis of position coordinates of an intrusion object detected by the intrusion object detection sensor. The control unit predicts the movement of the intrusion object on the basis of position coordinates of the intrusion object from the intrusion object detection sensor, ranks the importance levels of images transmitted from the multiple cameras on the basis of detection frame area information of the intrusion object from the intrusion object detection sensor, and displays images on a monitor according to the rankings.

Description

本発明は、各種センサとカメラを連動させた監視システムに関わり、特に、複数の監視カメラを用いて侵入者等の侵入物体を監視する技術に関する。 The present invention relates to a monitoring system in which various sensors and cameras are linked, and particularly to a technique for monitoring an intruding object such as an intruder using a plurality of monitoring cameras.

侵入した人物の位置を検知する複数のセンサと、該センサによって検知された侵入した人物の位置に対して、制御部の制御に基づいて視野角を変更するカメラと、複数のプリセット位置を予め登録し複数のセンサから出力された位置座標に基づいて侵入した人物の移動予測を行い、かつ侵入した人物の移動方向から侵入した人物の顔の向きを算出し、前もってカメラの視野角を変更して追尾する制御部とを備えた監視システムが従来存在する(例えば、特許文献1参照)。 A plurality of sensors for detecting the position of the invading person, a camera for changing the viewing angle based on the control of the control unit with respect to the position of the intruding person detected by the sensor, and a plurality of preset positions are registered in advance. The movement of the invaded person is predicted based on the position coordinates output from multiple sensors, the direction of the invading person's face is calculated from the moving direction of the invading person, and the viewing angle of the camera is changed in advance. Conventionally, there is a monitoring system including a tracking control unit (see, for example, Patent Document 1).

特開2009−273006号公報JP 2009-273006 A

しかし、現状、同一監視エリア内に配置された複数の監視カメラ画像をシーケンシャルに切換えてモニタに表示したり、多分割画面でモニタするシステムは存在するが、監視画像の重要度を段階的に設定し、重要度に応じた画像を監視者に提供する監視システムは存在しない。 However, at present, there are systems that switch multiple surveillance camera images arranged in the same surveillance area to display them on the monitor in a sequential manner, or monitor them in a multi-segment screen, but set the importance of the surveillance images in stages. However, there is no monitoring system that provides an image corresponding to the importance level to the monitoring person.

また、カメラ画角内に障害物による死角が存在したり、監視エリアが広くエリア全体を1台のカメラで捉えることが不可能な場合、監視者は別方向から撮像された別のカメラを選択して、カメラを切換えながら監視する必要がある。
また、多数のカメラ画像をIPネットワーク網へ配信する場合、侵入者を捉えた重要な画像もその他の画像も同程度のデータ量で配信されるため、回線容量が十分でなかったり、無線環境に問題があるような場合、多数のカメラ画像がIPネットワーク網を圧迫し、パケットロスが発生するなどして重要な画像、必要な画像を送ることができなくなる可能性がある。
In addition, if there is a blind spot due to an obstacle in the camera angle of view, or the surveillance area is large and it is impossible to capture the entire area with one camera, the supervisor selects another camera imaged from a different direction Therefore, it is necessary to monitor while switching the camera.
Also, when distributing a large number of camera images to an IP network, important images that capture intruders and other images are distributed with the same amount of data. When there is a problem, there is a possibility that an important image and a necessary image cannot be transmitted because a large number of camera images press on the IP network and packet loss occurs.

本発明は、このような従来の事情に鑑みなされたものであり、画像処理装置で侵入者を検知した際の検知枠の大きさやレーザーセンサで検知された侵入者の軌跡情報等を元に侵入者の次の行動を予測し、複数のカメラ画像から重要度の順位付けを行うことで、重要な画像をリアルタイムに監視者へ提供することが可能な監視システムを提供することを目的とする。
また、状況に応じてカメラ画像毎に重要度の割り付けを行い、重要な画像を監視モニタの分割画面の中央に配置したり、複数台のモニタで監視する場合は監視者から見て中央寄せで重要映像を表示することで視認性の向上を図ることが可能な監視システムを提供することを目的とする。
また、監視画像内に障害物による死角が存在する場合、対向する別のカメラ画像から死角部分を切り出して合成表示させることで、カメラを切り換えることなく1枚の画像の中で監視することが可能な監視システムを提供することを目的とする。
The present invention has been made in view of such conventional circumstances, and intrudes based on the size of a detection frame when an intruder is detected by an image processing apparatus, the trajectory information of the intruder detected by a laser sensor, and the like. It is an object of the present invention to provide a monitoring system capable of providing an important image to a supervisor in real time by predicting the next action of the person and ranking the importance from a plurality of camera images.
Also, assign the importance level for each camera image according to the situation, and place the important image in the center of the monitor monitor's split screen, or if it is monitored by multiple monitors, it should be centered as seen from the monitor. It is an object of the present invention to provide a monitoring system capable of improving visibility by displaying an important video.
In addition, when there is a blind spot due to an obstacle in the monitoring image, it is possible to monitor in one image without switching the camera by cutting out the blind spot from another facing camera image and combining and displaying it. Is to provide a simple monitoring system.

上記目的を達成するための本発明は、監視エリア内を撮像する複数のカメラと、当該複数のカメラから入力された画像信号を画像処理し、前記監視エリア内に侵入した侵入物体を検知する侵入物体検知センサと、当該侵入物体検知センサによって検知された前記侵入物体の位置座標から、予め登録されたプリセット情報を基に前記複数のカメラの向きや画角の変更を指示する制御部とを備えた監視システムにおいて、前記制御部は、前記侵入物体検知センサから入力された前記侵入物体の前記位置座標を基に前記侵入物体の移動予測を行うとともに、前記侵入物体検知センサから入力された前記侵入物体の検知枠面積情報に基づいて前記複数のカメラから送信された画像の重要度の順位付けを行い、当該順位付けに従って監視モニタに当該画像を表示させることを特徴とする。 In order to achieve the above object, the present invention provides a plurality of cameras that image the inside of a monitoring area and an intrusion that performs image processing on image signals input from the plurality of cameras and detects an intruding object that has entered the monitoring area. An object detection sensor, and a control unit that instructs to change the orientation and angle of view of the plurality of cameras based on preset information registered in advance from the position coordinates of the intrusion object detected by the intrusion object detection sensor. In the monitoring system, the control unit performs movement prediction of the intruding object based on the position coordinates of the intruding object input from the intruding object detection sensor, and the intrusion input from the intruding object detection sensor. Based on the detection frame area information of the object, the importance of the images transmitted from the plurality of cameras is ranked, and the image is displayed on the monitor according to the ranking. Wherein the displaying the.

また、上記目的を達成するための本発明は、前記制御部は、前記順位付けされた画像を一つの監視モニタに分割表示させる場合には、重要度の高い画像を監視モニタの中央に表示させるようにし、また、複数の監視モニタにそれぞれ表示させる場合には、監視者から見て中央から脇に向かって順に表示させることを特徴とする。 Further, according to the present invention for achieving the above object, in the case where the control unit divides and displays the ranked images on one monitoring monitor, the control unit displays a highly important image in the center of the monitoring monitor. In addition, when displaying on each of a plurality of monitoring monitors, the display is made in order from the center toward the side as viewed from the supervisor.

また、上記目的を達成するための本発明は、前記制御部は、前記カメラの画角内に死角が生じる場合には、対向配置された別のカメラの画像から死角部分を切り出して前記カメラの画像に合成することによって、死角補正映像を生成することを特徴とする。 Further, according to the present invention for achieving the above object, in the case where a blind spot occurs within the angle of view of the camera, the control unit cuts out a blind spot part from an image of another camera arranged to face the camera. A blind spot correction image is generated by synthesizing with an image.

本発明によれば、画像処理装置で侵入者を検知した際の検知枠の大きさやレーザーセンサで検知された侵入者の軌跡情報等を元に侵入者の次の行動を予測し、複数のカメラ画像から重要度の順位付けを行うことで、重要な画像をリアルタイムに監視者へ提供することが可能な監視システムを提供することができる。
また、状況に応じてカメラ画像毎に重要度の割り付けを行い、重要な画像を監視モニタの分割画面の中央に配置したり、複数台のモニタで監視する場合は監視者から見て中央寄せで重要映像を表示することで視認性の向上を図ることが可能な監視システムを提供することができる。
また、監視画像内に障害物による死角が存在する場合、対向する別のカメラ画像から死角部分を切り出して合成表示させることで、カメラを切り換えることなく1枚の画像の中で監視することが可能な監視システムを提供することができる。
According to the present invention, the next action of the intruder is predicted based on the size of the detection frame when the intruder is detected by the image processing apparatus, the trajectory information of the intruder detected by the laser sensor, and the like. By ranking the importance levels from the images, it is possible to provide a monitoring system capable of providing important images to the monitor in real time.
Also, assign the importance level for each camera image according to the situation, and place the important image in the center of the monitor monitor's split screen, or if it is monitored by multiple monitors, it should be centered as seen from the monitor. A monitoring system capable of improving visibility by displaying an important video can be provided.
In addition, when there is a blind spot due to an obstacle in the monitoring image, it is possible to monitor in one image without switching the camera by cutting out the blind spot from another facing camera image and combining and displaying it. Monitoring system can be provided.

本発明の実施の形態1に係る監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像処理装置20の検知枠面積算出処理のフローチャートである。It is a flowchart of the detection frame area calculation process of the image processing apparatus 20 which concerns on Embodiment 1 of this invention. システム管理サーバ50のプリセット情報テーブル52に登録されている各種情報を模擬的に示した図である。6 is a diagram schematically showing various information registered in a preset information table 52 of the system management server 50. FIG. 本発明の実施の形態1に係るシステム管理サーバ50の動作フローチャートである。It is an operation | movement flowchart of the system management server 50 which concerns on Embodiment 1 of this invention. 侵入者の行動予測に基づく監視カメラの旋回制御と時間経過による検知枠面積の変化イメージを示す図である。It is a figure which shows the change image of the detection frame area by turning control of the surveillance camera based on an intruder's action prediction, and time passage. 監視モニタ80の最重要画像の表示場所のイメージ図である。6 is an image diagram of a display location of the most important image on the monitor 80. FIG. 障害物による死角がある場合の監視空間イメージ図である。It is a surveillance space image figure when there is a blind spot by an obstacle. 図7の監視空間における監視カメラA401の画像に監視カメラB402の切り出し画像を合成する合成画像生成イメージ図である。FIG. 8 is a composite image generation image diagram for combining a cut-out image of a monitoring camera B402 with an image of a monitoring camera A401 in the monitoring space of FIG. 図8における合成画像生成処理の系統図である。It is a systematic diagram of the composite image generation process in FIG. 監視空間に配置された監視カメラのプリセット画角設定イメージ図である。It is a preset view angle setting image figure of the surveillance camera arrange | positioned in the surveillance space. 監視空間に配置された監視カメラのプリセット画角に重なりが生じた場合のプリセット画角設定イメージ図である。It is a preset angle-of-view setting image diagram when an overlap occurs in the preset angle of view of the monitoring camera arranged in the monitoring space. 監視空間に複数の監視カメラが一定方向に配置された場合の水平視野角を示す図である。It is a figure which shows a horizontal viewing angle when several monitoring cameras are arrange | positioned in the monitoring space in the fixed direction. 本発明の実施の形態2に係る監視システムの構成を示すブロック図である。It is a block diagram which shows the structure of the monitoring system which concerns on Embodiment 2 of this invention.

<実施の形態1>
以下に、本発明の実施の形態1に係る監視システムについて、図面を参照して説明する。
図1は、本発明の実施の形態1に係る監視システムの構成を示すブロック図である。図1に示すように、監視システム1は、監視カメラ10、画像処理装置20、WEBエンコーダ30、IPネットワーク網40、システム管理サーバ50、操作端末60、WEBデコーダ70、監視モニタ80を含んで構成される。
監視カメラ10は、パン、チルト、ズームの調整機能を有する雲台を備えたカメラであり、監視カメラ10で撮像された画像信号は画像処理装置20に出力される。
画像処理装置20は、監視カメラ10から入力された画像信号を画像処理し、特開2005−57743号公報に開示のある差分法を用いた物体認識処理技術で侵入者検知を行い、侵入者を検知した場合には、侵入者を示す差分画像を囲む外接矩形の面積(検知枠面積)を算出する。
WEBエンコーダ30は、画像処理装置20から入力された画像信号をエンコードし、画像データのヘッダ部に画像処理装置20から入力された侵入者の座標位置情報と検知枠面積情報を付加してIPネットワーク網40へ配信する。
システム管理サーバ50は、本発明の監視システム1全体の制御を行なう制御部51と、監視カメラ10それぞれの設置位置やプリセットポイント情報やプリセット画像における死角エリアが予め登録されたプリセット情報テーブル52と、WEBエンコーダ30を介して送信された画像データを蓄積する画像データ蓄積メモリ53を備える。
操作端末60は、システム管理サーバ50に登録された各種設定情報の変更・更新等を行うためにユーザが使用する端末である。
WEBデコーダ70は、システム管理サーバ50から送信された画像データをデコードし、監視モニタ80に出力する。
<Embodiment 1>
Hereinafter, a monitoring system according to Embodiment 1 of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a monitoring system according to Embodiment 1 of the present invention. As shown in FIG. 1, the monitoring system 1 includes a monitoring camera 10, an image processing device 20, a WEB encoder 30, an IP network 40, a system management server 50, an operation terminal 60, a WEB decoder 70, and a monitoring monitor 80. Is done.
The surveillance camera 10 is a camera having a pan head having pan, tilt, and zoom adjustment functions, and an image signal captured by the surveillance camera 10 is output to the image processing device 20.
The image processing apparatus 20 performs image processing on the image signal input from the surveillance camera 10, performs intruder detection using an object recognition processing technique using a difference method disclosed in JP-A-2005-57743, and detects the intruder. If detected, an area of a circumscribed rectangle (detection frame area) surrounding the difference image indicating the intruder is calculated.
The WEB encoder 30 encodes the image signal input from the image processing apparatus 20, adds the intruder's coordinate position information and detection frame area information input from the image processing apparatus 20 to the header portion of the image data, and adds the IP network. Delivered to the network 40.
The system management server 50 includes a control unit 51 that controls the entire monitoring system 1 of the present invention, a preset information table 52 in which installation positions, preset point information, and blind spot areas in preset images are registered in advance. An image data storage memory 53 for storing image data transmitted via the WEB encoder 30 is provided.
The operation terminal 60 is a terminal used by a user to change / update various setting information registered in the system management server 50.
The WEB decoder 70 decodes the image data transmitted from the system management server 50 and outputs the decoded image data to the monitoring monitor 80.

上記構成によって、本発明の監視システム1では、監視カメラ10で撮像された画像信号は画像処理装置20に出力され、画像処理装置20で、監視カメラ10から入力された画像信号で侵入者が検知されると、侵入者の座標位置および検知枠面積を算出してWEBエンコーダ30へ出力する。WEBエンコーダ30は、画像処理装置20から入力された画像信号をエンコードし、画像データのヘッダ部に侵入者の座標位置と検知枠面積情報を付加してIPネットワーク網40へ配信する。
システム管理サーバ50では、制御部51が、侵入者移動方向判定手段51aと、雲台動作制御手段51bと、表示優先順位決定手段51cと、表示制御手段51dとを備えることで、侵入者の座標位置情報および検知枠面積情報から侵入者の移動方向を算出し、プリセット情報テーブル52を基に、当該移動方向に応じて監視カメラ10の雲台を制御して、侵入者を進行方向の前方から撮像できるよう監視カメラ10の向きや画角を制御する。
さらに、侵入者の検知枠面積情報を基に、監視モニタ80に表示する優先順位およびレイアウトを決定し、IPネットワーク網40を介して、WEBデコーダ70に送信する。WEBデコーダ70に送信された画像データはデコードされ監視モニタ80にて表示される。
With the above configuration, in the monitoring system 1 of the present invention, an image signal captured by the monitoring camera 10 is output to the image processing device 20, and an intruder is detected by the image processing device 20 from the image signal input from the monitoring camera 10. Then, the coordinate position and detection frame area of the intruder are calculated and output to the WEB encoder 30. The WEB encoder 30 encodes the image signal input from the image processing apparatus 20, adds the intruder's coordinate position and detection frame area information to the header portion of the image data, and distributes it to the IP network 40.
In the system management server 50, the control unit 51 includes an intruder movement direction determination unit 51a, a pan head operation control unit 51b, a display priority order determination unit 51c, and a display control unit 51d. The movement direction of the intruder is calculated from the position information and the detection frame area information, and based on the preset information table 52, the camera platform of the monitoring camera 10 is controlled according to the movement direction, so that the intruder can be moved from the front in the traveling direction. The direction and angle of view of the monitoring camera 10 are controlled so that an image can be taken.
Furthermore, the priority order and layout to be displayed on the monitor 80 are determined based on the detection frame area information of the intruder, and are transmitted to the WEB decoder 70 via the IP network 40. The image data transmitted to the WEB decoder 70 is decoded and displayed on the monitor monitor 80.

ここで、画像処理装置20で行われる検知枠面積算出処理について図2を用いて説明する。
図2は、本発明の実施の形態1に係る画像処理装置20の検知枠面積算出処理のフローチャートである。
まず、初期化処理ステップS101では、検知枠面積算出処理を実行するための画像メモリ(図示せず)、ワークメモリ(図示せず)等の初期化を行う。
次に、差分法による侵入物体の検出処理(ステップS102〜 ステップS106) を行う。
画像入力ステップS102では、監視カメラ10から、例えば、横方向320画素、高さ方向240画素の入力画像を得る。
差分処理ステップS103では、画像入力ステップS102で得た入力画像と、予め作成し図示しない画像メモリに記録しておいた侵入者の映っていない基準背景画像との間で、画素毎の輝度値の差分値を計算する。
二値化処理ステップS104では、差分処理ステップS103で得られた差分画像の画素値(差分値)を、例えば、1画素の画素値を8ビットで計算し、これを256階調で表し、所定のしきい値Th(
例えば、Th=20)未満の画素値を“0”、しきい値Th以上の画素の画素値を“255”として二値化画像を得る。なお、しきい値Thは、上記実施例では、20と設定したが、20に限定されるものではなく、侵入者の検出条件、入力画像の状態等で実験的に定められる。
Here, the detection frame area calculation processing performed in the image processing apparatus 20 will be described with reference to FIG.
FIG. 2 is a flowchart of detection frame area calculation processing of the image processing apparatus 20 according to Embodiment 1 of the present invention.
First, in an initialization process step S101, an image memory (not shown), a work memory (not shown), etc. for executing the detection frame area calculation process are initialized.
Next, an intruding object detection process (steps S102 to S106) by the difference method is performed.
In the image input step S102, an input image of 320 pixels in the horizontal direction and 240 pixels in the height direction is obtained from the monitoring camera 10, for example.
In the difference processing step S103, the luminance value for each pixel is calculated between the input image obtained in the image input step S102 and a reference background image that is created in advance and recorded in an image memory (not shown) that does not show an intruder. Calculate the difference value.
In the binarization processing step S104, the pixel value (difference value) of the difference image obtained in the difference processing step S103 is calculated by, for example, calculating the pixel value of one pixel in 8 bits, and expressing this in 256 gradations. Threshold Th (
For example, a binarized image is obtained by setting a pixel value less than Th = 20) to “0” and a pixel value of a pixel equal to or greater than the threshold Th to “255”. The threshold value Th is set to 20 in the above-described embodiment, but is not limited to 20. The threshold value Th is experimentally determined based on the intruder detection condition, the state of the input image, and the like.

ラベリング処理ステップS105では、二値化処理ステップS104で得られた二値化像中の画素値“255”となる画素のかたまりを検出し、各々に番号を付けて区別できるようにする。
侵入者存在判定ステップS106では、ラベリング処理ステップS105で番号付けされた画素値“255”となる画素のかたまりが所定の条件(例えば、大きさが横方向20画素以上、高さ方向50画素以上)を満たした場合に、監視対象領域内に侵入者が存在すると判定する。
In the labeling processing step S105, a block of pixels having the pixel value “255” in the binarized image obtained in the binarizing processing step S104 is detected, and each can be identified by being numbered.
In the intruder presence determination step S106, a group of pixels having the pixel value “255” numbered in the labeling processing step S105 is a predetermined condition (for example, the size is 20 pixels or more in the horizontal direction and 50 pixels or more in the height direction). Is satisfied, it is determined that there is an intruder in the monitoring target area.

検知枠面積算出ステップS107では、侵入者存在判定ステップS106で監視対象領域内に侵入者が存在すると判定された場合に、ラベリング処理ステップS105で番号付けされた画素値“255”となる画素のかたまりの外接矩形に基づき、矩形左上の座標(X1、Y1)と矩形右下の座標(X2、Y2)から面積((X2−X1)×(Y1−Y2))を求め、また、上記2つの座標から画像上の侵入者位置((X2+X1)/2、Y2)を求める。(図3(a)参照) In the detection frame area calculation step S107, when it is determined in the intruder presence determination step S106 that an intruder exists in the monitoring target area, the pixel block having the pixel value “255” numbered in the labeling processing step S105. The area ((X2−X1) × (Y1−Y2)) is obtained from the coordinates (X1, Y1) at the upper left corner of the rectangle and the coordinates (X2, Y2) at the lower right corner of the rectangle based on the circumscribed rectangle of the rectangle, and the above two coordinates To determine the intruder position ((X2 + X1) / 2, Y2) on the image. (See Fig. 3 (a))

なお、一般にカメラで撮影された画像座標から物体の3次元位置座標を推定する問題はコンピュータビジョンなどの分野で様々な研究が進められており、その一般式はカメラパラメータと呼ばれる行列要素を用いたアフィン変換によって得られる。 In general, various researches on the problem of estimating the three-dimensional position coordinates of an object from image coordinates photographed by a camera have been carried out in fields such as computer vision, and the general formula uses a matrix element called a camera parameter. Obtained by affine transformation.

しかし、本監視システムにおいて侵入者は地面(屋内においては床面)上を移動することを仮定すれば、侵入者の位置座標は地面(床面)である二次元平面上の一点で近似できる。たとえ、床面に凹凸があり侵入者が高さ方向に多少上下しても、本システムの監視カメラを地面(床面)から十分高い位置に設置することで侵入者の位置の近似は十分に成り立つ。   However, in this monitoring system, assuming that the intruder moves on the ground (floor surface indoors), the position coordinates of the intruder can be approximated by one point on the two-dimensional plane that is the ground (floor surface). Even if the floor surface is uneven and the intruder moves slightly in the height direction, the position of the intruder can be sufficiently approximated by installing the surveillance camera of this system at a sufficiently high position from the ground (floor surface). It holds.

よって、カメラ撮影画像座標(2次元座標)から物体の3次元位置座標(3次元座標) を推定する問題は、「撮影画像(2次元座標)と地面(2次元座標)」すなわち2次元平面どうしの対応問題に帰着する。これはいわゆる射影変換で簡単に知ることができる。   Therefore, the problem of estimating the three-dimensional position coordinates (three-dimensional coordinates) of an object from the camera-captured image coordinates (two-dimensional coordinates) is that the “photographed image (two-dimensional coordinates) and the ground (two-dimensional coordinates)”, that is, two-dimensional planes Result in a response problem. This can be easily known by so-called projective transformation.

ここで、システム管理サーバ50のプリセット情報テーブル52に登録されている各種情報について、図3を用いて説明する。
図3は、システム管理サーバ50のプリセット情報テーブル52に登録されている各種情報を模擬的に示した図である。以降、説明を簡略化するため監視空間座標を2次元座標として説明するものとする。
図3(a)は、画像処理装置20による検知画像を示す図であり、1001は検知画像、1002は侵入者、また、1003は侵入者の検知枠である。
図3(b)は、監視空間を上方から俯瞰した二次元座標イメージ図であり、101は監視カメラA、102は監視カメラB、103は監視カメラC、104は監視カメラD、1005は空間座標、1006は監視カメラAのプリセットポイントa、また、1007は監視カメラAのプリセットポイントbである。
システム管理サーバ50では、予め図3(b)のような空間座標1005(ここでは2次元平面座標)、及び空間座標1005内の各監視カメラの位置およびプリセット画角がプリセット情報テーブル52に登録されている。また、図3(a)に示す各監視カメラのプリセット画像における画面内の座標情報もプリセット情報テーブル52に登録されており、空間座標との対応テーブルを保有している。
従って、システム管理サーバ50では、画像処理装置20から定期的に送られてくる侵入者1002の検知枠1003の底辺の中心点の位置情報と検知枠面積情報から、侵入者位置に対応する監視カメラ及びその監視カメラのプリセット番号をプリセット情報テーブル52から検索でき、監視カメラで侵入者を前方から撮影することが可能となる。
Here, various information registered in the preset information table 52 of the system management server 50 will be described with reference to FIG.
FIG. 3 is a diagram schematically showing various information registered in the preset information table 52 of the system management server 50. Hereinafter, in order to simplify the description, the monitoring space coordinates are described as two-dimensional coordinates.
FIG. 3A is a diagram illustrating a detection image by the image processing apparatus 20, in which 1001 is a detection image, 1002 is an intruder, and 1003 is a detection frame for the intruder.
FIG. 3B is a two-dimensional coordinate image view of the surveillance space as viewed from above, 101 is surveillance camera A, 102 is surveillance camera B, 103 is surveillance camera C, 104 is surveillance camera D, 1005 is spatial coordinates, 1006 is a preset point a of the monitoring camera A, and 1007 is a preset point b of the monitoring camera A.
In the system management server 50, the space coordinates 1005 (two-dimensional plane coordinates here) as shown in FIG. 3B, the positions of the respective monitoring cameras within the space coordinates 1005, and the preset angle of view are registered in the preset information table 52 in advance. ing. Further, coordinate information within the screen in the preset image of each monitoring camera shown in FIG. 3A is also registered in the preset information table 52, and has a correspondence table with spatial coordinates.
Therefore, in the system management server 50, the monitoring camera corresponding to the intruder position is detected from the position information of the center point of the bottom of the detection frame 1003 of the intruder 1002 and the detection frame area information that are periodically sent from the image processing apparatus 20. And the preset number of the surveillance camera can be searched from the preset information table 52, and the intruder can be photographed from the front by the surveillance camera.

次に、システム管理サーバ50で行われる動作について図4を用いて説明する。
図4は、本発明の実施の形態1に係るシステム管理サーバ50の動作フローチャートである。
まず、画像情報入力ステップS201では、画像データ蓄積メモリ53から蓄積された画像データを取り込む。
侵入者有無確認ステップS202では、画像データのヘッダ部に付加された侵入者の座標位置情報と検知枠面積情報から侵入者の有無を確認する。
侵入者移動確認ステップS203では、画像データのヘッダ部に付加された侵入者の座標位置情報を基に、侵入者移動方向判定手段51aが侵入者の座標位置の変化量を算出して侵入者の移動の有無を確認する。
侵入者移動方向算出ステップS204では、侵入者移動確認ステップS203で侵入者の移動を確認した場合には、侵入者の移動方向を算出する。
雲台制御ステップS205では、雲台動作制御手段51bが侵入者移動方向算出ステップS204で算出された侵入者の移動方向に応じて、プリセット情報テーブル52の監視カメラ10それぞれの設置位置やプリセットポイント情報を基に、侵入者を前方から撮影することが可能な監視カメラ10を割り出し、当該監視カメラ10の雲台の向きや画角を制御する。
Next, operations performed by the system management server 50 will be described with reference to FIG.
FIG. 4 is an operation flowchart of the system management server 50 according to the first embodiment of the present invention.
First, in the image information input step S201, the image data accumulated from the image data accumulation memory 53 is fetched.
In the intruder presence / absence confirmation step S202, the presence / absence of an intruder is confirmed from the coordinate position information and detection frame area information of the intruder added to the header portion of the image data.
In the intruder movement confirmation step S203, based on the intruder's coordinate position information added to the header portion of the image data, the intruder movement direction determination means 51a calculates the amount of change of the intruder's coordinate position to determine the intruder's coordinate position information. Check for movement.
In the intruder movement direction calculation step S204, when the intruder movement confirmation step S203 confirms the movement of the intruder, the intruder movement direction is calculated.
In the pan head control step S205, the pan head operation control means 51b installs each preset monitoring camera 10 in the preset information table 52 and preset point information according to the intruder movement direction calculated in the intruder movement direction calculation step S204. Based on the above, the surveillance camera 10 capable of photographing the intruder from the front is determined, and the head direction and angle of view of the surveillance camera 10 are controlled.

モニタ優先順位決定ステップS206では、表示優先順位決定手段51cが画像データ蓄積メモリ53に蓄積された複数の監視カメラ10の画像データに付加された侵入者の検知枠面積情報を比較することにより、監視モニタ80に表示する際の優先順位を決定する。
モニタ表示制御ステップS207では、モニタ優先順位決定ステップS206で決められた優先順位に基づき、予めユーザが操作端末60から登録した画面レイアウトに従って画像データを配置し、WEBデコーダ70に送信する。
In the monitor priority determination step S206, the display priority determination means 51c compares the intruder detection frame area information added to the image data of the plurality of monitoring cameras 10 stored in the image data storage memory 53, thereby monitoring. Priorities for display on the monitor 80 are determined.
In the monitor display control step S207, the image data is arranged according to the screen layout registered in advance by the user from the operation terminal 60 based on the priority order determined in the monitor priority order determination step S206, and transmitted to the WEB decoder 70.

ここで、システム管理サーバ50の制御部51の雲台動作制御手段51bで行われる雲台制御と、表示優先順位決定手段51cで行われる優先順位決定の具体例について図5を用いて説明する。
図5は、侵入者の行動予測に基づく監視カメラの旋回制御と時間経過による検知枠面積の変化イメージを示す図である。
図5(a)は侵入者205の行動予測前の監視空間206、図5(b)は侵入者205の行動予測後の監視空間206を示している。また、201は監視カメラA、2001は監視カメラA201のプリセット画角、202は監視カメラB、2002及び2002’は監視カメラB202のプリセット画角、203は監視カメラC、2003は監視カメラC203のプリセット画角である。また、図5(c)は経過時間毎に各監視カメラが撮像した画像の侵入者検知枠面積の大きさの変化を表す。ただし、×は侵入者が検知されなかったことを示す。
Here, a specific example of the pan head control performed by the pan head operation control unit 51b of the control unit 51 of the system management server 50 and the priority order determination performed by the display priority order determination unit 51c will be described with reference to FIG.
FIG. 5 is a diagram illustrating a turning image of the surveillance camera based on the behavior prediction of the intruder and a change image of the detection frame area over time.
5A shows a monitoring space 206 before the behavior of the intruder 205 is predicted, and FIG. 5B shows a monitoring space 206 after the behavior of the intruder 205 is predicted. Also, 201 is the monitoring camera A, 2001 is the preset angle of view of the monitoring camera A 201, 202 is the monitoring camera B, 2002 and 2002 ′ are the preset angles of view of the monitoring camera B 202, 203 is the monitoring camera C, and 2003 is the preset of the monitoring camera C 203. Angle of view. FIG. 5C shows a change in the size of the intruder detection frame area of the image captured by each surveillance camera for each elapsed time. However, x indicates that no intruder was detected.

時刻t=1で、監視カメラA201に接続された画像処理装置で侵入者205が検知され、検知枠面積は時間経過と共に大きくなるため、監視カメラA201に侵入者が近づいていると判断される。時刻t=2で、システム管理サーバ50は近傍の監視カメラB202、監視カメラC203に対し侵入者205の進行方向にプリセット旋回制御を行なう。
侵入者205の移動方向が判明した時点で、現在侵入者205を大きく捉えている監視カメラ以外の監視カメラに対しても前もって侵入者205に対して旋回させることで、侵入者205が近づいてくるのを待ち受けすることができる。
また、進行方向の監視カメラを侵入者205に向けることで、侵入者205の顔を正面方向から捉えることができる。この時の監視空間206における監視カメラB202のプリセット画角は図5(B)の2006’のようになる。
時刻t=2、時刻t=3の時点では、監視カメラA201の検知枠面積が最大であるため、監視カメラA201の画像の重要度が最も高い。また、
時刻t=4では、監視カメラA201のプリセット画角2001から侵入者205が消えたことで、監視カメラB202の検知枠面積が最も大きくなり、監視カメラB202の画像の重要度が最も高くなる。
同様に、時刻t=5では、監視カメラC203の画像の重要度が最も高くなる。
At time t = 1, the intruder 205 is detected by the image processing apparatus connected to the monitoring camera A201, and the area of the detection frame increases with time, so it is determined that the intruder is approaching the monitoring camera A201. At time t = 2, the system management server 50 performs preset turning control in the traveling direction of the intruder 205 on the nearby monitoring camera B202 and monitoring camera C203.
When the moving direction of the intruder 205 is determined, the intruder 205 approaches the intruder 205 by swiveling the intruder 205 in advance with respect to the surveillance cameras other than the surveillance camera that currently captures the intruder 205. Can stand by.
In addition, by directing the surveillance camera in the traveling direction toward the intruder 205, the face of the intruder 205 can be captured from the front. The preset angle of view of the monitoring camera B202 in the monitoring space 206 at this time is as shown by 2006 ′ in FIG.
At the time t = 2 and the time t = 3, since the detection frame area of the monitoring camera A201 is the maximum, the importance of the image of the monitoring camera A201 is the highest. Also,
At time t = 4, since the intruder 205 disappears from the preset angle of view 2001 of the monitoring camera A201, the detection frame area of the monitoring camera B202 becomes the largest, and the importance of the image of the monitoring camera B202 becomes the highest.
Similarly, at time t = 5, the importance of the image of the monitoring camera C203 is the highest.

次に、システム管理サーバ50の制御部51の表示制御手段51dでのモニタ表示制御の具体例について図6を用いて説明する。
図6は、監視モニタ80の最重要画像の表示場所のイメージ図である。
図6(a)は13分割表示した監視モニタの表示例であり、監視モニタ80の分割中心に最重要画像301を表示させた例である。また、図6(b)は複数台の監視モニタ80が設置された場合の表示例であり、監視者305の前に並んだ複数の監視モニタ80の中で、中央に設置された監視モニタに最重要画像302を表示させた例である。
つまり、侵入者が検知された際の検知枠面積の大きさから得られた重要度から、システム管理サーバ50は監視モニタ80に表示する映像を選択する。図6(a)の13分割表示例の場合は、分割中心に最重要映像301を表示させ、その周りに、例えば、優先順位に従って螺旋状にその他の画像を表示させる。また、図6(b)の複数台の監視モニタ80が設置された場合は、監視者305から見て正面の監視モニタに最重要画像302を表示させ、次に重要度が高い画像をその脇から順に表示させる。重要度は時間経過と共に変化するため、表示画像も変化に応じて切り替える。監視者は常に最も見やすい位置で重要な画像をモニタすることが可能となり視認性の向上を図ることが可能になる。
Next, a specific example of monitor display control by the display control means 51d of the control unit 51 of the system management server 50 will be described with reference to FIG.
FIG. 6 is an image diagram of the display location of the most important image on the monitoring monitor 80.
FIG. 6A is a display example of a monitor monitor displayed in 13 divisions, in which the most important image 301 is displayed at the division center of the monitor monitor 80. FIG. 6B shows a display example when a plurality of monitor monitors 80 are installed. Among the monitor monitors 80 arranged in front of the monitor 305, the monitor monitor installed in the center is shown. This is an example in which the most important image 302 is displayed.
That is, the system management server 50 selects an image to be displayed on the monitoring monitor 80 based on the importance obtained from the size of the detection frame area when an intruder is detected. In the case of the 13-divided display example of FIG. 6A, the most important video 301 is displayed at the center of the division, and other images are displayed around the image in a spiral shape, for example, according to the priority order. If a plurality of monitoring monitors 80 shown in FIG. 6B are installed, the most important image 302 is displayed on the front monitoring monitor as viewed from the supervisor 305, and the next most important image is displayed next to it. Display in order. Since the importance changes with time, the display image is switched according to the change. The monitor can always monitor an important image at the position where it is most easy to see, so that the visibility can be improved.

次に、システム管理サーバ50の制御部51の表示制御手段51dで行われる障害物による侵入者の死角対策に関するモニタ表示制御の具体例について図7〜図9を用いて説明する。
図7は、障害物による死角がある場合の監視空間イメージ図である。
403は監視空間の俯瞰イメージ、401は監視カメラA、402はカメラB、407は障害物A、405は障害物A407の近くにいる侵入者a、408は障害物B、406は障害物B408の近くにいる侵入者bである。また、4001はカメラA401のプリセット画角、4002はカメラB402のプリセット画角である。
本実施例の場合、カメラA401は侵入者a405を捉えることが可能であるが、侵入者a405が障害物A407の死角になり捉えることができない。逆に、カメラB402は侵入者b406を捉えることが可能であるが、侵入者b406が障害物B408の死角になり捉えることができない。
Next, a specific example of monitor display control related to measures against blind spots of intruders by obstacles performed by the display control means 51d of the control unit 51 of the system management server 50 will be described with reference to FIGS.
FIG. 7 is an image of a monitoring space when there is a blind spot due to an obstacle.
403 is an overhead image of the surveillance space, 401 is the surveillance camera A, 402 is the camera B, 407 is the obstacle A, 405 is the intruder a near the obstacle A407, 408 is the obstacle B, 406 is the obstacle B408 The intruder b is nearby. Reference numeral 4001 denotes a preset angle of view of the camera A401, and 4002 denotes a preset angle of view of the camera B402.
In the case of the present embodiment, the camera A 401 can catch the intruder a 405, but the intruder a 405 becomes a blind spot of the obstacle A 407 and cannot be caught. Conversely, the camera B402 can catch the intruder b406, but cannot see the intruder b406 because it is a blind spot of the obstacle B408.

図8は、図7の監視空間における監視カメラA401の画像に監視カメラB402の切り出し画像を合成する合成画像生成イメージ図である。
図8(a)の4011はカメラA401の画像であり、図8(b)の4012は監視カメラB402の画像、また、4015は監視カメラB402の画像の中の監視カメラA401では死角となる箇所の切り出しエリアである。また、図8(c)の4020は監視カメラA401の画像に監視カメラB402の切り出しエリア4015を合成させた画像である。システム管理サーバ50のプリセット情報テーブル52には予め監視カメラA401の死角となるエリアに相当する監視カメラB402の画像内の切り出しエリアが設定される。
図8のように、監視モニタ80に監視カメラA401の画像を表示する際に、監視カメラB402の配信画像の中からこの死角部分を切り出して監視カメラA401の画像に合成させるようにする。
FIG. 8 is a composite image generation image diagram in which the cutout image of the monitoring camera B402 is combined with the image of the monitoring camera A401 in the monitoring space of FIG.
Reference numeral 4011 in FIG. 8A denotes an image of the camera A401, reference numeral 4012 in FIG. 8B denotes an image of the monitoring camera B402, and reference numeral 4015 denotes a portion that is a blind spot in the monitoring camera A401 in the monitoring camera B402. This is a cut-out area. Further, reference numeral 4020 in FIG. 8C is an image obtained by combining the cut-out area 4015 of the monitoring camera B402 with the image of the monitoring camera A401. In the preset information table 52 of the system management server 50, a cut-out area in the image of the monitoring camera B402 corresponding to an area that becomes a blind spot of the monitoring camera A401 is set in advance.
As shown in FIG. 8, when the image of the monitoring camera A401 is displayed on the monitoring monitor 80, the blind spot portion is cut out from the distribution image of the monitoring camera B402 and is combined with the image of the monitoring camera A401.

図9は、図8における合成画像生成処理の系統図である。
501はミキサー、502は加算器である。
図9のように、監視カメラA401の画像4011(INPUT(A))と監視カメラB402の切り出し画像4015(INPUT(B))は制御信号C、1−Cにより乗算された後、両者を加算して出力画像(OUTPUT)とする。制御信号Cの値により切り出し画像の合成度合いを実画像、半透明、透明と選択が可能とする。
例えば、切り出しエリアの画像4015はCの値により以下のようになる。
(1)C=0の場合
出力画像=監視カメラAの画像・・・透明
(2)C=0.5の場合
出力画像=0.5×監視カメラAの画像+0.5×監視カメラBの画像・・・半透明
(3)C=1の場合
出力画像=監視カメラBの画像・・・実画像
なお、操作端末60からシステム管理サーバ50の表示制御手段51dを操作することにより、合成度合いの設定が行えるようにする。
このように、監視者は監視カメラA401の画像では本来見えなかった死角の箇所を監視カメラB402の切り出し画像を合成させることによって同一画面内で視認することが可能になる。
FIG. 9 is a system diagram of the composite image generation process in FIG.
Reference numeral 501 denotes a mixer, and 502 denotes an adder.
As shown in FIG. 9, the image 4011 (INPUT (A)) of the monitoring camera A401 and the cutout image 4015 (INPUT (B)) of the monitoring camera B402 are multiplied by the control signals C and 1-C, and then both are added. Output image (OUTPUT). Depending on the value of the control signal C, the synthesis degree of the cut-out image can be selected from real image, translucent, and transparent.
For example, the cut-out area image 4015 is as follows depending on the value of C.
(1) When C = 0, output image = image of surveillance camera A ... transparent (2) When C = 0.5, output image = 0.5 × image of surveillance camera A + 0.5 × surveillance camera B Image: Translucent (3) When C = 1, output image = image of surveillance camera B ... actual image The degree of synthesis by operating the display control means 51d of the system management server 50 from the operation terminal 60 It is possible to set.
In this manner, the monitor can visually recognize the blind spot portion that was not originally seen in the image of the monitoring camera A401 by synthesizing the clipped image of the monitoring camera B402 within the same screen.

次に、システム管理サーバ50のプリセット情報テーブル52に登録する監視カメラのプリセット画角の設定方法について、図10を使って説明する。
図10は、監視空間に配置された監視カメラのプリセット画角設定イメージ図である。
図10(a)は監視カメラが1台の場合の監視空間603であり、601は監視カメラA、6011〜6016は監視カメラA601のプリセット画角である。また、図10(b)は監視カメラが2台の場合の監視空間603であり、601は監視カメラA、6011〜6013は監視カメラA601のプリセット画角、602は監視カメラA601と対向する位置に配置された監視カメラB、6021〜6023は監視カメラB602のプリセット画角である。なお、本実施例での監視カメラの水平視野角は15°とする。
図10(a)では、監視空間603にカメラが1台しか無いため、各プリセット画角が重ならないように設定するためにはカメラに対して90/15=6ポイントのプリセット設定を行う。従って、各プリセットポイントにおける監視カメラA601の水平旋回角度は、以下の6通りとなる。
(1)15/2=7.5°
(2)15+15/2=22.5°
(3)15×2+15/2=37.5°
(4)15×3+15/2=52.5°
(5)15×4+15/2=67.5°
(6)15×5+15/2=82.5°
また、図10(b)では、監視空間603に対向配置された監視カメラA601と監視カメラB602が存在するため、各プリセット画角が重ならないように設定するためにはカメラに対して45/15=3ポイントのプリセット設定を行う。各プリセットポイントにおけるカメラの水平旋回角度は、以下の3通りとなる。
(1)15/2=7.5°
(2)15+15/2=22.5°
(3)15×2+15/2=37.5°
図10(b)のように対向配置された監視カメラが2台存在する場合は、
(N−1)×水平視野角+水平画角/2<45
となる最大のNを求めると、この値がプリセット設定必要数となる。
つまり、システム管理サーバ50では、プリセット情報テーブル52に、監視カメラの設置状況に応じて、各々の監視カメラの視野範囲が重ならないように各カメラに対してプリセット角度設定を行うことで効率的な監視が可能になる。
Next, a method for setting the preset angle of view of the surveillance camera registered in the preset information table 52 of the system management server 50 will be described with reference to FIG.
FIG. 10 is a preset view angle setting image diagram of the surveillance camera arranged in the surveillance space.
FIG. 10A shows a monitoring space 603 when there is one monitoring camera, 601 is the monitoring camera A, and 6011 to 6016 are preset angles of view of the monitoring camera A601. FIG. 10B shows a monitoring space 603 when there are two monitoring cameras, 601 is the monitoring camera A, 6011 to 6013 are the preset angle of view of the monitoring camera A601, and 602 is a position facing the monitoring camera A601. The arranged surveillance cameras B and 6021 to 6023 have a preset angle of view of the surveillance camera B602. Note that the horizontal viewing angle of the surveillance camera in this embodiment is 15 °.
In FIG. 10A, since there is only one camera in the monitoring space 603, 90/15 = 6 points are preset for setting the cameras so that the preset angle of view does not overlap. Therefore, the horizontal turning angles of the monitoring camera A601 at each preset point are the following six types.
(1) 15/2 = 7.5 °
(2) 15 + 15/2 = 22.5 °
(3) 15 × 2 + 15/2 = 37.5 °
(4) 15 × 3 + 15/2 = 52.5 °
(5) 15 × 4 + 15/2 = 67.5 °
(6) 15 × 5 + 15/2 = 82.5 °
In FIG. 10B, since there are a monitoring camera A 601 and a monitoring camera B 602 arranged opposite to each other in the monitoring space 603, 45/15 with respect to the camera is set in order to set each preset angle of view so as not to overlap. = Set 3 points preset. The horizontal turning angle of the camera at each preset point is as follows.
(1) 15/2 = 7.5 °
(2) 15 + 15/2 = 22.5 °
(3) 15 × 2 + 15/2 = 37.5 °
When there are two surveillance cameras arranged opposite to each other as shown in FIG.
(N-1) × horizontal viewing angle + horizontal angle of view / 2 <45
When the maximum N is obtained, this value is the required number of preset settings.
In other words, in the system management server 50, the preset information table 52 is efficiently set by setting a preset angle for each camera so that the visual field ranges of the respective monitoring cameras do not overlap according to the installation status of the monitoring cameras. Monitoring becomes possible.

ここで、監視空間に配置された監視カメラのプリセット画角に重なりが生じた場合の対処方法について、図11を用いて説明する。
図11は、監視空間に配置された監視カメラのプリセット画角に重なりが生じた場合のプリセット画角設定イメージ図である。
図11において、703は監視空間、701は監視カメラA、7011は監視カメラA701のプリセット画角aa、7012は監視カメラA701のプリセット画角ab、また、702は監視カメラB、7015は監視カメラB702のプリセット画角ba、7016は監視カメラB702のプリセット画角bb、また、7020は監視カメラA701と監視カメラB702のプリセット画角の重なり部分である。なお、本実施例での監視カメラの水平視野角は30°とする。
(N−1)×水平視野角+水平画角/2<45の式に当てはめると、N=2となりプリセット設定必要数は2ポイントであることが分かる。
各プリセットポイントにおけるカメラの水平旋回角度は、以下の2通りとなる。
(1)30/2=15°
(2)30+30/2=45°
図11に示すように、監視カメラA701、監視カメラB702の水平旋回角度45°で設定されたプリセット画角ab7012、プリセット画角bb7016に重なりが発生する。
システム管理サーバ50は、重なりが生じたプリセット画角を同時に制御しないように制限を設けるものとする。
例えば、プリセット画角aa7011を制御する場合、監視カメラB702に対し同時に制御するプリセット画角はプリセット画角bb7016になり、プリセット画角ab7012を制御する場合、監視カメラB702に対し同時に制御するプリセット画角はプリセット画角ba7015になる。
このように、システム管理サーバ50では、重なりが生じた互いのプリセット画角を同時に制御しないように制限を持たせることで更に効率的な監視が行える。
Here, a coping method when an overlap occurs in the preset angle of view of the monitoring camera arranged in the monitoring space will be described with reference to FIG.
FIG. 11 is a preset view angle setting image diagram when the preset view angles of the monitoring cameras arranged in the monitoring space are overlapped.
In FIG. 11, reference numeral 703 denotes a monitoring space, 701 denotes a monitoring camera A, 7011 denotes a preset field angle aa of the monitoring camera A 701, 7012 denotes a preset field angle ab of the monitoring camera A 701, 702 denotes a monitoring camera B, and 7015 denotes a monitoring camera B 702. The preset view angles ba and 7016 are the preset view angles bb of the monitoring camera B702, and 7020 is the overlapping portion of the preset view angles of the monitoring camera A701 and the monitoring camera B702. Note that the horizontal viewing angle of the surveillance camera in this embodiment is 30 °.
When applied to the formula (N-1) × horizontal viewing angle + horizontal field angle / 2 <45, it can be seen that N = 2 and the required number of preset settings is 2 points.
The horizontal turning angle of the camera at each preset point is as follows.
(1) 30/2 = 15 °
(2) 30 + 30/2 = 45 °
As shown in FIG. 11, an overlap occurs between the preset field angle ab7012 and the preset field angle bb7016 set at the horizontal turning angle of 45 ° of the monitoring camera A701 and the monitoring camera B702.
It is assumed that the system management server 50 provides a restriction so as not to simultaneously control the preset angle of view where the overlap has occurred.
For example, when controlling the preset angle of view aa7011, the preset angle of view that is simultaneously controlled with respect to the monitoring camera B702 is the preset angle of view bb7016. When controlling the preset angle of view ab7012, the preset angle of view that is simultaneously controlled with respect to the monitoring camera B702. Becomes the preset angle of view ba7015.
As described above, the system management server 50 can perform more efficient monitoring by providing a restriction so that the preset angle of view where the overlap occurs is not controlled at the same time.

次に、監視空間に複数の監視カメラが一定方向に配置された場合のカメラ視野角の設定方法について、図12を使って説明する。
図12は、監視空間に複数の監視カメラが一定方向に配置された場合の水平視野角を示す図である。
図12(a)は監視空間805の断面イメージ図であり、801は監視カメラA、8001は監視カメラA801の垂直視野角、802は監視カメラB、8002は監視カメラB802の垂直視野角、803は監視カメラC、8003は監視カメラC803の垂直視野角である。また、L1は監視カメラA801の撮像範囲、L2は監視カメラB802の撮像範囲、L3は監視カメラC803の撮像範囲である。また、806は被写体、H1は被写体806の高さ、H2は被写体位置での垂直方向の撮像範囲、L4は監視カメラ800から被写体806までの距離である。
以降の計算の条件として、各カメラの垂直視野角を30[°]、被写体806の高さを1.7[m]、被写体806がモニタ画面の縦10%に表示される大きさを表示の限界と仮定する。
等倍率で撮像した場合、1.7[m]の被写体806が画面の10%になる監視カメラ800から被写体までの距離(L4)は以下の通りに求められる。
L4=(1.7/0.1)/(2×tan15°)=32[m]
電子ズーム2倍とした場合は、L4=31.72×2=64[m]
電子ズーム4倍とした場合は、L4=31.72×4=128[m]
となる。
侵入者が監視カメラA801の方向から監視カメラC803の方向にまっすぐに移動した場合、システム管理サーバ50は、以下の方法で監視カメラの電子ズーム制御とカメラ切換えを実施することで、監視者は侵入者を最適な大きさでモニタすることが可能になる。
(1) 0≦L4<32 の場合 監視カメラAの等倍率
(2) 32≦L4<64 の場合 監視カメラAの電子ズーム2倍
(3) 64≦L4<128 の場合 監視カメラAの電子ズーム4倍
(4)128≦L4<160 の場合 監視カメラBの等倍率
(5)160≦L4<192 の場合 監視カメラBの電子ズーム2倍
(6)192≦L4<256 の場合 監視カメラBの電子ズーム4倍
(7)256≦L4<288 の場合 監視カメラCの等倍率
(8)288≦L4<320 の場合 監視カメラCの電子ズーム2倍
(9)320≦L4<384 の場合 監視カメラCの電子ズーム4倍
Next, a camera viewing angle setting method when a plurality of surveillance cameras are arranged in a certain direction in the surveillance space will be described with reference to FIG.
FIG. 12 is a diagram illustrating a horizontal viewing angle when a plurality of monitoring cameras are arranged in a certain direction in the monitoring space.
12A is a cross-sectional image diagram of the monitoring space 805, in which 801 is the monitoring camera A, 8001 is the vertical viewing angle of the monitoring camera A801, 802 is the monitoring camera B, 8002 is the vertical viewing angle of the monitoring camera B802, and 803 is the monitoring Cameras C and 8003 are vertical viewing angles of the monitoring camera C803. L1 is the imaging range of the monitoring camera A801, L2 is the imaging range of the monitoring camera B802, and L3 is the imaging range of the monitoring camera C803. Reference numeral 806 denotes a subject, H1 denotes the height of the subject 806, H2 denotes a vertical imaging range at the subject position, and L4 denotes a distance from the monitoring camera 800 to the subject 806.
As the conditions for the subsequent calculations, the vertical viewing angle of each camera is 30 [°], the height of the subject 806 is 1.7 [m], and the size at which the subject 806 is displayed 10% vertically on the monitor screen is displayed. Assume the limit.
When images are taken at the same magnification, the distance (L4) from the monitoring camera 800 to the subject where the subject 806 of 1.7 [m] is 10% of the screen is obtained as follows.
L4 = (1.7 / 0.1) / (2 × tan15 °) = 32 [m]
When the electronic zoom is doubled, L4 = 31.72 × 2 = 64 [m]
When the electronic zoom is set to 4 ×, L4 = 31.72 × 4 = 128 [m]
It becomes.
When the intruder moves straight from the direction of the monitoring camera A 801 to the direction of the monitoring camera C 803, the system management server 50 performs electronic zoom control of the monitoring camera and camera switching by the following method, so that the monitoring person It is possible to monitor the person with the optimum size.
(1) When 0 ≦ L4 <32 Equal magnification of surveillance camera A (2) When 32 ≦ L4 <64 Double electronic zoom of surveillance camera A (3) When 64 ≦ L4 <128 Electronic zoom of surveillance camera A When 4 times (4) 128 ≦ L4 <160 When equal magnification of surveillance camera B (5) When 160 ≦ L4 <192 When electronic zoom of surveillance camera B is double (6) When 192 ≦ L4 <256 When the electronic zoom is 4 times (7) 256 ≦ L4 <288 When the surveillance camera C has the same magnification (8) When 288 ≦ L4 <320 When the electronic zoom is 2 times the surveillance camera C (9) When 320 ≦ L4 <384 4x electronic zoom of C

<実施の形態2>
以下に、本発明の実施の形態2に係る監視システムについて、図面を参照して説明する。
図13は、本発明の実施の形態2に係る監視システムの構成を示すブロック図である。
図13に示すように、監視システム2は、監視カメラ5台を有するシステムであって、監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941、画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942、WEBエンコーダA903,WEBエンコーダB913,WEBエンコーダC923,WEBエンコーダD933,WEBエンコーダE943、IPネットワーク網904、システム管理サーバ905、操作端末906、WEBデコーダ907、監視モニタ908を含んで構成される。
監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941は、パン、チルト、ズームの調整機能を有する雲台を備えたカメラであり、監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941で撮像された画像信号はそれぞれ画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942に出力される。
画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942は、監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941から入力された画像信号を画像処理し、特開2005−57743号公報に開示のある差分法を用いた物体認識処理技術で侵入者検知を行い、侵入者を検知した場合には、侵入者を示す差分画像を囲む外接矩形の面積(検知枠面積)を算出する。
WEBエンコーダA903,WEBエンコーダB913,WEBエンコーダC923,WEBエンコーダD933,WEBエンコーダE943は、画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942からそれぞれ入力された画像信号をエンコードし、画像データのヘッダ部に画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942から入力された侵入者の座標位置情報と検知枠面積情報を付加してIPネットワーク網904へ配信する。
システム管理サーバ905は、本発明の監視システム2全体の制御を行なう制御部935と、監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941それぞれの設置位置やプリセットポイント情報やプリセット画像における死角エリアが予め登録されたプリセット情報テーブル915と、WEBエンコーダA903,WEBエンコーダB913,WEBエンコーダC923,WEBエンコーダD933,WEBエンコーダE943を介して送信された画像データを蓄積する画像データ蓄積メモリ925を備える。
操作端末906は、システム管理サーバ905に登録された各種設定情報の変更・更新等を行うためにユーザが使用する端末である。
WEBデコーダ907は、システム管理サーバ905から送信された画像データをデコードし、監視モニタ908に出力する。
<Embodiment 2>
Hereinafter, a monitoring system according to Embodiment 2 of the present invention will be described with reference to the drawings.
FIG. 13 is a block diagram showing a configuration of a monitoring system according to Embodiment 2 of the present invention.
As shown in FIG. 13, the monitoring system 2 is a system having five monitoring cameras, and includes a monitoring camera A901, a monitoring camera B911, a monitoring camera C921, a monitoring camera D931, a monitoring camera E941, an image processing device A902, and an image processing. Apparatus B 912, image processing apparatus C 922, image processing apparatus D 932, image processing apparatus E 942, WEB encoder A 903, WEB encoder B 913, WEB encoder C 923, WEB encoder D 933, WEB encoder E 943, IP network 904, system management server 905, operation terminal 906, WEB decoder 907, and monitor monitor 908 are comprised.
Surveillance camera A901, surveillance camera B911, surveillance camera C921, surveillance camera D931, surveillance camera E941 are cameras provided with a pan head having pan, tilt, and zoom adjustment functions. Surveillance camera A901, surveillance camera B911, surveillance camera Image signals captured by C921, monitoring camera D931, and monitoring camera E941 are output to image processing apparatus A902, image processing apparatus B912, image processing apparatus C922, image processing apparatus D932, and image processing apparatus E942, respectively.
An image processing device A 902, an image processing device B 912, an image processing device C 922, an image processing device D 932, and an image processing device E 942 are images input from the monitoring camera A 901, the monitoring camera B 911, the monitoring camera C 921, the monitoring camera D 931, and the monitoring camera E 941. The signal is image-processed, and when an intruder is detected by an object recognition processing technique using a difference method disclosed in Japanese Patent Laid-Open No. 2005-57743, and an intruder is detected, a difference image indicating the intruder is enclosed. The area of the circumscribed rectangle (detection frame area) is calculated.
WEB encoder A 903, WEB encoder B 913, WEB encoder C 923, WEB encoder D 933, WEB encoder E 943 are respectively input from image processing device A 902, image processing device B 912, image processing device C 932, image processing device D 932, and image processing device E 942. The image signal is encoded, and the intruder's coordinate position information and detection frame area input from the image processing device A 902, the image processing device B 912, the image processing device C 922, the image processing device D 932, and the image processing device E 942 in the header portion of the image data. Information is added and distributed to the IP network 904.
The system management server 905 includes a control unit 935 that controls the entire monitoring system 2 of the present invention, monitoring camera A 901, monitoring camera B 911, monitoring camera C 921, monitoring camera D 931, and monitoring camera E 941. An image data storage memory for storing a preset information table 915 in which a blind spot area in a preset image is registered in advance, and image data transmitted via a WEB encoder A903, a WEB encoder B913, a WEB encoder C923, a WEB encoder D933, and a WEB encoder E943. 925.
The operation terminal 906 is a terminal used by the user to change / update various setting information registered in the system management server 905.
The WEB decoder 907 decodes the image data transmitted from the system management server 905 and outputs the decoded image data to the monitor monitor 908.

上記構成によって、本発明の監視システム2では、監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941で撮像された画像信号は画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942に出力され、画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942で、監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941から入力された画像信号で侵入者が検知されると、侵入者の座標位置および検知枠面積を算出してWEBエンコーダA903,WEBエンコーダB913,WEBエンコーダC923,WEBエンコーダD933,WEBエンコーダE943へ出力する。WEBエンコーダA903,WEBエンコーダB913,WEBエンコーダC923,WEBエンコーダD933,WEBエンコーダE943は、画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942から入力された画像信号をエンコードし、画像データのヘッダ部に侵入者の座標位置と検知枠面積情報を付加してIPネットワーク網904へ配信する。
システム管理サーバ905では、制御部935が、侵入者移動方向判定手段935aと、雲台動作制御手段935bと、表示優先順位決定手段935cと、表示制御手段935dと、回線状態判定手段935eとを備えることで、侵入者の座標位置情報および検知枠面積情報から侵入者の移動方向を算出し、プリセット情報テーブル915を基に、当該移動方向に応じて監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941の雲台を制御して、侵入者を進行方向の前方から撮像できるよう監視カメラA901,監視カメラB911,監視カメラC921,監視カメラD931,監視カメラE941の向きや画角を制御する。
また、侵入者の検知枠面積情報を基に、監視モニタ908に表示する優先順位およびレイアウトを決定し、IPネットワーク網904を介して、WEBデコーダ907に送信する。WEBデコーダ907に送信された画像データはデコードされ監視モニタ908にて表示される。
With the above configuration, in the monitoring system 2 of the present invention, the image signal captured by the monitoring camera A901, the monitoring camera B911, the monitoring camera C921, the monitoring camera D931, and the monitoring camera E941 is converted into the image processing device A902, the image processing device B912, and the image processing. Device C 922, image processing device D 932, image processing device E 942, output to image processing device A 902, image processing device B 912, image processing device C 922, image processing device D 932, image processing device E 942, surveillance camera A 901, surveillance camera B 911, When an intruder is detected from the image signals input from the monitoring camera C921, the monitoring camera D931, and the monitoring camera E941, the coordinate position and detection frame area of the intruder are calculated and the WEB encoder A903, WEB encoder B913, WEB encoder C923 are calculated. , WE And outputs it to the encoder D933, WEB encoder E943. WEB encoder A903, WEB encoder B913, WEB encoder C923, WEB encoder D933, and WEB encoder E943 are image processing apparatus A902, image processing apparatus B912, image processing apparatus C932, image processing apparatus D932, and image input from image processing apparatus E942. The signal is encoded, and the coordinate position of the intruder and the detection frame area information are added to the header portion of the image data and distributed to the IP network 904.
In the system management server 905, the control unit 935 includes an intruder movement direction determination unit 935a, a pan head operation control unit 935b, a display priority determination unit 935c, a display control unit 935d, and a line state determination unit 935e. Thus, the moving direction of the intruder is calculated from the coordinate position information and the detection frame area information of the intruder, and based on the preset information table 915, the monitoring camera A901, the monitoring camera B911, the monitoring camera C921, Surveillance camera A 931, surveillance camera B 911, surveillance camera C 921, surveillance camera D 931, surveillance camera E 941 direction and angle of view so that the camera platform of surveillance camera D 931 and surveillance camera E 941 can be controlled to capture an intruder from the front in the direction of travel. To control.
Further, the priority order and layout to be displayed on the monitor monitor 908 are determined based on the detection frame area information of the intruder, and transmitted to the WEB decoder 907 via the IP network 904. The image data transmitted to the WEB decoder 907 is decoded and displayed on the monitor monitor 908.

上記のように、システム管理サーバ905では、画像処理装置A902,画像処理装置B912,画像処理装置C922,画像処理装置D932,画像処理装置E942から送られる検知枠面積情報と、侵入者移動方向判定手段935aによる次に侵入者を捉えることが予測される監視カメラ情報に従い、表示優先順位決定手段935cで監視カメラごとに重要度を設定する。なお、操作端末906からの画像選択要求による画像へのアクセス数を重要度算定のパラメータとして加えてもよい。
さらに、システム管理サーバ905は、回線状態判定手段935eにより、WEBエンコーダA903,WEBエンコーダB913,WEBエンコーダC923,WEBエンコーダD933,WEBエンコーダE943に対して所定の周期で通信チェックを行い、WEBエンコーダA903,WEBエンコーダB913,WEBエンコーダC923,WEBエンコーダD933,WEBエンコーダE943のどこで通信異常が発生しているかを把握したり、また、IPネットワーク網904のネットワークスイッチ(図示せず)から所定の周期で回線負荷情報を取得することで現在の通信状態を把握することが可能である。
以降の説明のために、WEBエンコーダの重要度を以下ように仮定する。なお、t=0〜4は所定の経過時間を示す。
t=0 重要度は、A>B>C>D>E
t=1 重要度は、B>C>D>E>A
t=2 重要度は、C>D>E>A>B
t=3 重要度は、D>E>A>B>C
t=4 重要度は、E>A>B>C>D
ここで、t=1のときに通信負荷による回線障害が発生した場合、システム管理サーバ905は、重要度が最も低い監視カメラA901に接続されるWEBエンコーダA903に対して、ネットワークへ配信する映像フレームレートを下げるように指示する。
回線障害が復旧しない場合は、WEBエンコーダA903に対し、映像の配信を停止するように指示する。さらに、回線障害が復旧しない場合は、重要度が2番目に低い監視カメラE941に接続されるWEBエンコーダE943に対し、IPネットワーク網904へ配信する映像フレームレートを下げるように指示する。さらに、回線障害が復旧しない場合は、WEBエンコーダE943に対し、映像の配信を停止するように指示する。
以降、回線状態が回復するまで、同様に、WEBエンコーダD933、WEBエンコーダC923に対して行うことで、最重要な映像が優先的にモニタ表示可能な状況を作ることが可能になる。
As described above, in the system management server 905, the image processing device A902, the image processing device B912, the image processing device C922, the image processing device D932, and the detection frame area information sent from the image processing device E942, and the intruder movement direction determination means. The priority is set for each monitoring camera by the display priority determination means 935c according to the monitoring camera information predicted to capture the next intruder by 935a. Note that the number of accesses to an image in response to an image selection request from the operation terminal 906 may be added as an importance calculation parameter.
Further, the system management server 905 performs a communication check on the WEB encoder A 903, WEB encoder B 913, WEB encoder C 923, WEB encoder D 933, and WEB encoder E 943 by the line state determination unit 935 e at a predetermined cycle, and the WEB encoder A 903 WEB encoder B 913, WEB encoder C 923, WEB encoder D 933, and WEB encoder E 943 can be identified where a communication error has occurred, and the network load (not shown) of the IP network 904 can be loaded at a predetermined cycle. It is possible to grasp the current communication state by acquiring information.
For the following explanation, the importance of the WEB encoder is assumed as follows. Note that t = 0 to 4 indicates a predetermined elapsed time.
t = 0 Importance is A>B>C>D> E
t = 1 Importance is B>C>D>E> A
t = 2 Importance is C>D>E>A> B
t = 3 Importance is D>E>A>B> C
t = 4 Importance is E>A>B>C> D
Here, when a line failure occurs due to a communication load at t = 1, the system management server 905 sends a video frame to the network to the WEB encoder A903 connected to the monitoring camera A901 having the lowest importance. Instruct to lower the rate.
If the line failure is not recovered, the WEB encoder A 903 is instructed to stop video distribution. Further, when the line failure is not recovered, the web encoder E943 connected to the surveillance camera E941 having the second lowest importance is instructed to reduce the video frame rate to be delivered to the IP network 904. Further, if the line failure is not recovered, the web encoder E943 is instructed to stop the video distribution.
Thereafter, until the line state is restored, similarly, it is possible to create a situation in which the most important video can be preferentially displayed on the monitor by performing the processing on the WEB encoder D933 and the WEB encoder C923.

以上のように構成することで、以下のような効果を得ることができる。
本発明の実施の形態2によれば、監視カメラ毎、時間毎に重要度を設定しているため、現時点で必要な画像を優先的にIPネットワーク網に配信することで、重要な画像データを欠落することなく回線を効率的に利用することが可能になる。
With the configuration described above, the following effects can be obtained.
According to the second embodiment of the present invention, since the importance is set for each monitoring camera and for each time, important image data can be obtained by preferentially delivering the currently required image to the IP network. The line can be used efficiently without being lost.

1:監視システム、2:監視システム、10:監視カメラ、20:画像処理装置、30:WEBエンコーダ、40:IPネットワーク網、50:システム管理サーバ、51:制御部、51a:侵入者移動方向判定手段、51b:雲台動作制御手段、51c:表示優先順位決定手段、51d:表示制御手段、52:プリセット情報テーブル、53:画像データ蓄積メモリ、60:操作端末、70:WEBデコーダ、80:監視モニタ、101:監視カメラA、102:監視カメラB、103:監視カメラC、104:監視カメラD、201:監視カメラA、202:監視カメラB、203:監視カメラC、205:侵入者、206:監視空間、301:最重要画像、302:最重要画像、305:監視者、401:監視カメラA、402:監視カメラB、403:監視空間の俯瞰イメージ、405:侵入者a、406:侵入者b、407:障害物A、408:障害物B、501:ミキサー、502:加算器、601:監視カメラA、602:監視カメラB、603:監視空間、701:監視カメラA、701:監視カメラA、702:監視カメラB、703:監視空間、800:監視カメラ、801:監視カメラA、802:監視カメラB、803:監視カメラC、805:監視空間、901:監視カメラA、902:画像処理装置A、903:WEBエンコーダA、904:IPネットワーク網、905:システム管理サーバ、806:被写体、906:操作端末、907:WEBデコーダ、908:監視モニタ、911:監視カメラB、912:画像処理装置B、913:WEBエンコーダB、915:プリセット情報テーブル、921:監視カメラC、922:画像処理装置C、923:WEBエンコーダC、925:画像データ蓄積メモリ、931:監視カメラD、932:画像処理装置D、933:WEBエンコーダD、935:制御部、935a:侵入者移動方向判定手段、935b:雲台動作制御手段、935c:表示優先順位決定手段、935d:表示制御手段、935e:回線状態判定手段、941:監視カメラE、942:画像処理装置E、943:WEBエンコーダE、1001:検知画像、1002:侵入者、1003:検知枠、1005:空間座標、1006:プリセットポイントa、1007:プリセットポイントb、2001:プリセット画角、2002:プリセット画角、2002’:プリセット画角、2003:プリセット画角、4001:プリセット画角、4002:プリセット画角、4011:監視カメラA401の画像、4012:監視カメラB402の画像、4015:切り出しエリア、4020:合成させた画像、6011,6012,6013,6014,6015,6016:プリセット画角、6021,6022,6023:プリセット画角、7011:プリセット画角aa、7012:プリセット画角ab、7015:プリセット画角ba、7016:プリセット画角bb、7020:プリセット画角の重なり部分、8001:監視カメラA801の垂直視野角、8002:監視カメラB802の垂直視野角、8003:監視カメラC803の垂直視野角。

1: surveillance system, 2: surveillance system, 10: surveillance camera, 20: image processing device, 30: WEB encoder, 40: IP network, 50: system management server, 51: control unit, 51a: intruder movement direction determination Means 51b: pan head operation control means 51c: display priority determining means 51d: display control means 52: preset information table 53: image data storage memory 60: operation terminal 70: WEB decoder 80: monitoring Monitor: 101: Surveillance camera A, 102: Surveillance camera B, 103: Surveillance camera C, 104: Surveillance camera D, 201: Surveillance camera A, 202: Surveillance camera B, 203: Surveillance camera C, 205: Intruder, 206 : Surveillance space, 301: most important image, 302: most important image, 305: supervisor, 401: surveillance camera A, 402: surveillance Mera B, 403: Overhead image of surveillance space, 405: Intruder a, 406: Intruder b, 407: Obstacle A, 408: Obstacle B, 501: Mixer, 502: Adder, 601: Surveillance camera A, 602: surveillance camera B, 603: surveillance space, 701: surveillance camera A, 701: surveillance camera A, 702: surveillance camera B, 703: surveillance space, 800: surveillance camera, 801: surveillance camera A, 802: surveillance camera B 803: surveillance camera C, 805: surveillance space, 901: surveillance camera A, 902: image processing apparatus A, 903: WEB encoder A, 904: IP network, 905: system management server, 806: subject, 906: operation Terminal, 907: WEB decoder, 908: Surveillance monitor, 911: Surveillance camera B, 912: Image processing device B, 913: WEB Encoder B, 915: preset information table, 921: monitoring camera C, 922: image processing device C, 923: WEB encoder C, 925: image data storage memory, 931: monitoring camera D, 932: image processing device D, 933: WEB encoder D, 935: control unit, 935a: intruder movement direction determination means, 935b: pan head operation control means, 935c: display priority determination means, 935d: display control means, 935e: line state determination means, 941: monitoring Camera E, 942: Image processing apparatus E, 943: WEB encoder E, 1001: Detected image, 1002: Intruder, 1003: Detection frame, 1005: Spatial coordinates, 1006: Preset point a, 1007: Preset point b, 2001: Preset angle of view, 2002: Preset angle of view, 2002 ': Pre 2003: Preset angle of view, 4001: Preset angle of view, 4002: Preset angle of view, 4011: Image of monitoring camera A401, 4012: Image of monitoring camera B402, 4015: Clipping area, 4020: Combined image , 6011, 6012, 6013, 6014, 6015, 6016: preset angle of view, 6021, 6022, 6023: preset angle of view, 7011: preset angle of view aa, 7012: preset angle of view ab, 7015: preset angle of view ba, 7016: Preset angle of view bb, 7020: overlapping portion of preset angle of view, 8001: vertical viewing angle of monitoring camera A801, 8002: vertical viewing angle of monitoring camera B802, 8003: vertical viewing angle of monitoring camera C803.

Claims (3)

監視エリア内を撮像する複数のカメラと、当該複数のカメラから入力された画像信号を画像処理し、前記監視エリア内に侵入した侵入物体を検知する侵入物体検知センサと、当該侵入物体検知センサによって検知された前記侵入物体の位置座標から、予め登録されたプリセット情報を基に前記複数のカメラの向きや画角の変更を指示する制御部とを備えた監視システムにおいて、
前記制御部は、前記侵入物体検知センサから入力された前記侵入物体の前記位置座標を基に前記侵入物体の移動予測を行うとともに、前記侵入物体検知センサから入力された前記侵入物体の検知枠面積情報に基づいて前記複数のカメラから送信された画像の重要度の順位付けを行い、当該順位付けに従って監視モニタに当該画像を表示させることを特徴とする監視システム。
A plurality of cameras that capture the inside of the monitoring area, an intrusion object detection sensor that detects an intruding object that has entered the monitoring area by performing image processing on image signals input from the plurality of cameras, and the intruding object detection sensor In a monitoring system comprising a control unit that instructs to change the orientation and angle of view of the plurality of cameras based on preset information registered in advance from the detected position coordinates of the intruding object,
The control unit performs movement prediction of the intruding object based on the position coordinates of the intruding object input from the intruding object detection sensor, and also detects a detection frame area of the intruding object input from the intruding object detection sensor. A monitoring system that ranks the importance levels of images transmitted from the plurality of cameras based on information and displays the images on a monitoring monitor according to the ranking.
請求項1に記載された監視システムにおいて、前記制御部は、前記順位付けされた画像を一つの監視モニタに分割表示させる場合には、重要度の高い画像を監視モニタの中央に表示させるようにし、また、複数の監視モニタにそれぞれ表示させる場合には、監視者から見て中央から脇に向かって順に表示させることを特徴とする監視システム。 2. The monitoring system according to claim 1, wherein when the ranked images are divided and displayed on one monitoring monitor, the control unit displays an image with high importance at the center of the monitoring monitor. Moreover, when displaying each on a some monitoring monitor, the monitoring system characterized by making it display in order toward a side from a center seeing from a supervisor. 請求項1または2に記載された監視システムにおいて、前記制御部は、前記カメラの画角内に死角が生じる場合には、対向配置された別のカメラの画像から死角部分を切り出して前記カメラの画像に合成することによって、死角補正映像を生成することを特徴とする監視システム。 3. The monitoring system according to claim 1, wherein, when a blind spot is generated within an angle of view of the camera, the control unit cuts out a blind spot from an image of another camera arranged to face the camera. A monitoring system, characterized in that a blind spot corrected video is generated by combining with an image.
JP2012178303A 2012-08-10 2012-08-10 Monitoring system Active JP6016295B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012178303A JP6016295B2 (en) 2012-08-10 2012-08-10 Monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012178303A JP6016295B2 (en) 2012-08-10 2012-08-10 Monitoring system

Publications (2)

Publication Number Publication Date
JP2014036414A true JP2014036414A (en) 2014-02-24
JP6016295B2 JP6016295B2 (en) 2016-10-26

Family

ID=50285122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012178303A Active JP6016295B2 (en) 2012-08-10 2012-08-10 Monitoring system

Country Status (1)

Country Link
JP (1) JP6016295B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185896A (en) * 2014-03-20 2015-10-22 株式会社日立国際電気 image monitoring system
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
JP2016096515A (en) * 2014-11-17 2016-05-26 株式会社 日立産業制御ソリューションズ Monitoring system, monitoring server and control method for monitoring system
JP2017143379A (en) * 2016-02-09 2017-08-17 富士通株式会社 Monitoring system, monitoring method and monitoring program
WO2018149322A1 (en) * 2017-02-15 2018-08-23 腾讯科技(深圳)有限公司 Image identification method, device, apparatus, and data storage medium
JP2019062262A (en) * 2017-09-25 2019-04-18 キヤノンマーケティングジャパン株式会社 Information processing device, system, control method of them, and program
CN111009089A (en) * 2019-11-25 2020-04-14 国网安徽省电力有限公司建设分公司 Power grid infrastructure site virtual fence system based on RGB-D camera and control method thereof
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
CN111563428A (en) * 2020-04-23 2020-08-21 杭州云视通互联网科技有限公司 Airport parking space intrusion detection method and system
US11328404B2 (en) 2018-07-31 2022-05-10 Nec Corporation Evaluation apparatus, evaluation method, and non-transitory storage medium
CN115190277A (en) * 2022-09-08 2022-10-14 中达安股份有限公司 Safety monitoring method, device and equipment for construction area and storage medium
US11605215B2 (en) 2020-08-01 2023-03-14 Sensetime International Pte. Ltd. Object association method, apparatus and system, and storage medium
CN116528042A (en) * 2023-06-29 2023-08-01 深圳市巨龙创视科技有限公司 Control method and system for remote camera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025003A (en) * 1999-07-08 2001-01-26 Canon Inc Camera system and camera control method
JP2007214831A (en) * 2006-02-09 2007-08-23 Hitachi Kokusai Electric Inc Video processing system
JP2008283230A (en) * 2007-05-08 2008-11-20 Hitachi Kokusai Electric Inc Image processing system
JP2009273006A (en) * 2008-05-09 2009-11-19 Hitachi Kokusai Electric Inc Monitoring apparatus and monitor system
JP2011077981A (en) * 2009-10-01 2011-04-14 Panasonic Corp Surveillance camera system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001025003A (en) * 1999-07-08 2001-01-26 Canon Inc Camera system and camera control method
JP2007214831A (en) * 2006-02-09 2007-08-23 Hitachi Kokusai Electric Inc Video processing system
JP2008283230A (en) * 2007-05-08 2008-11-20 Hitachi Kokusai Electric Inc Image processing system
JP2009273006A (en) * 2008-05-09 2009-11-19 Hitachi Kokusai Electric Inc Monitoring apparatus and monitor system
JP2011077981A (en) * 2009-10-01 2011-04-14 Panasonic Corp Surveillance camera system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185896A (en) * 2014-03-20 2015-10-22 株式会社日立国際電気 image monitoring system
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP2016071830A (en) * 2014-09-26 2016-05-09 日本電気株式会社 Object tracking device, object tracking system, object tracking method, display control device, object detection device, program, and recording medium
US11113538B2 (en) 2014-09-26 2021-09-07 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
US11676388B2 (en) 2014-09-26 2023-06-13 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP2016096515A (en) * 2014-11-17 2016-05-26 株式会社 日立産業制御ソリューションズ Monitoring system, monitoring server and control method for monitoring system
JP2017143379A (en) * 2016-02-09 2017-08-17 富士通株式会社 Monitoring system, monitoring method and monitoring program
US10936876B2 (en) 2017-02-15 2021-03-02 Tencent Technology (Shenzhen) Company Limited Content recognition method, system and storage medium thereof
WO2018149322A1 (en) * 2017-02-15 2018-08-23 腾讯科技(深圳)有限公司 Image identification method, device, apparatus, and data storage medium
JP2019062262A (en) * 2017-09-25 2019-04-18 キヤノンマーケティングジャパン株式会社 Information processing device, system, control method of them, and program
US11328404B2 (en) 2018-07-31 2022-05-10 Nec Corporation Evaluation apparatus, evaluation method, and non-transitory storage medium
CN111009089A (en) * 2019-11-25 2020-04-14 国网安徽省电力有限公司建设分公司 Power grid infrastructure site virtual fence system based on RGB-D camera and control method thereof
CN111009089B (en) * 2019-11-25 2024-02-13 国网安徽省电力有限公司建设分公司 Electric network infrastructure site virtual fence system based on RGB-D camera and control method thereof
CN111563428A (en) * 2020-04-23 2020-08-21 杭州云视通互联网科技有限公司 Airport parking space intrusion detection method and system
CN111563428B (en) * 2020-04-23 2023-10-17 杭州云视通互联网科技有限公司 Airport stand intrusion detection method and system
US11605215B2 (en) 2020-08-01 2023-03-14 Sensetime International Pte. Ltd. Object association method, apparatus and system, and storage medium
CN115190277A (en) * 2022-09-08 2022-10-14 中达安股份有限公司 Safety monitoring method, device and equipment for construction area and storage medium
CN116528042A (en) * 2023-06-29 2023-08-01 深圳市巨龙创视科技有限公司 Control method and system for remote camera
CN116528042B (en) * 2023-06-29 2023-10-27 深圳市巨龙创视科技有限公司 Control method and system for remote camera

Also Published As

Publication number Publication date
JP6016295B2 (en) 2016-10-26

Similar Documents

Publication Publication Date Title
JP6016295B2 (en) Monitoring system
CN109104561B (en) System and method for tracking moving objects in a scene
US7385626B2 (en) Method and system for performing surveillance
EP2710801B1 (en) Surveillance system
KR100606485B1 (en) Object tracking method and object tracking apparatus
US7796154B2 (en) Automatic multiscale image acquisition from a steerable camera
JP6983837B2 (en) How to combine views from multiple cameras and camera system
JP2019004229A (en) Information processing apparatus and image generating apparatus, and control method thereof, as well as program and image processing system
JP6574645B2 (en) Control device for controlling imaging apparatus, control method for imaging apparatus, and program
KR20010085692A (en) Intruding object monitoring method and intruding object monitoring system
JP5161045B2 (en) Monitoring system and monitoring method
JP2002522980A (en) Image tracking in multiple camera systems
JP6091132B2 (en) Intruder monitoring system
KR20060098815A (en) A supervisory camera and a privacy protecting method of the supervisory camera
WO2014136499A1 (en) Monitoring device, monitoring method, and imaging unit placement method
JP2011071932A (en) Vehicle surroundings monitoring apparatus
KR102282470B1 (en) Camera apparatus and method of object tracking using the same
JP6233721B2 (en) Information processing system, information processing method, and program
US10889958B2 (en) Display system for machine
JP2013093865A (en) Vehicle periphery monitoring device
JP3852745B2 (en) Object detection method and object detection apparatus
TW201722145A (en) 3D video surveillance system capable of automatic camera dispatching function, and surveillance method for using the same
US20090051770A1 (en) Camera control method, camera control device, camera control program, and camera system
WO2014064878A1 (en) Information-processing device, information-processing method, program, and information-processng system
JP2011145730A (en) Monitoring screen display control apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R150 Certificate of patent or registration of utility model

Ref document number: 6016295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250