JP2005136774A - Camera surveillance system and program - Google Patents

Camera surveillance system and program Download PDF

Info

Publication number
JP2005136774A
JP2005136774A JP2003371787A JP2003371787A JP2005136774A JP 2005136774 A JP2005136774 A JP 2005136774A JP 2003371787 A JP2003371787 A JP 2003371787A JP 2003371787 A JP2003371787 A JP 2003371787A JP 2005136774 A JP2005136774 A JP 2005136774A
Authority
JP
Japan
Prior art keywords
camera
shooting
surveillance
point
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003371787A
Other languages
Japanese (ja)
Inventor
Junji Mori
潤二 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003371787A priority Critical patent/JP2005136774A/en
Publication of JP2005136774A publication Critical patent/JP2005136774A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform the many-sided concentrated photographing of a designated spot to be photographed by simultaneously controlling the directions of a plurality of surveillance cameras in response to the designation of the spot to be photographed even in a status that the directions of the plurality of surveillance cameras existing in a surveillance area are not same. <P>SOLUTION: In a local PC2, in a status that the set position of each camera 15 for surveillance configuring a home security system 1 is stored and managed, when a spot to be photographed (abnormality generation spot) is specified, each camera 15 which can photograph the spot is selected from among those cameras 15, and the photographing direction of each selected camera is determined based on the camera position and the spot to be photographed, and the revolving control of each camera 15 is performed so that the camera can be pointed in the photographing direction. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、複数の監視カメラを備えたカメラ監視システムおよびプログラムに関する。   The present invention relates to a camera monitoring system and a program including a plurality of monitoring cameras.

従来、カメラ監視システムとしては、例えば、旋回機能を備えた監視カメラによって撮影された監視映像を表示する際に、操作画面上で監視場所を選択指定すると、予め用意されているテーブルを参照することによってカメラの向きを制御しながら当該カメラ画像を表示するようにした監視カメラシステムが知られている(特許文献1参照)。また、侵入者検知に応答して自動撮影を行う際に、撮影方向や画角を調整するようにした監視カメラシステムが知られている(特許文献2参照)。更に、各種センサ毎に、1台のカメラを対応付けて設け、センサ検知によって対応するカメラによって撮影を行うようにした監視システムが知られている(特許文献3参照)。
特開2003−009138号公報 特開2001−258017号公報 特開2002−216278号公報
Conventionally, as a camera monitoring system, for example, when displaying a monitoring image captured by a monitoring camera having a turning function, when a monitoring place is selected and specified on an operation screen, a table prepared in advance is referred to. There is known a surveillance camera system that displays the camera image while controlling the orientation of the camera (see Patent Document 1). There is also known a surveillance camera system that adjusts the shooting direction and angle of view when performing automatic shooting in response to intruder detection (see Patent Document 2). Furthermore, a monitoring system is known in which one camera is provided in association with each sensor, and photographing is performed by the corresponding camera by sensor detection (see Patent Document 3).
JP 2003-009138 A Japanese Patent Laid-Open No. 2001-258017 JP 2002-216278 A

しかしながら、上述した特許文献1の技術にあっては、各種のテーブルを事前に用意しておく必要がある他、予め設定されている撮影方向に限られてしまうという問題があった。また、上述した特許文献2の技術にあっては、予め決められたカメラによって撮影を行うものであり、撮影方向や画角を調整したとしても、侵入者とカメラとの位置関係などによっては良好な撮影が妨げられるという問題があった。更に、上述した特許文献3の技術にあっては、センサとカメラとが固定的に対応付けられているため、上述した従来技術と同様の問題が生じる他、一方向の撮影に限られてしまう。  However, the technique disclosed in Patent Literature 1 described above has a problem in that various tables need to be prepared in advance and the shooting direction is set in advance. Further, in the technique of Patent Document 2 described above, shooting is performed with a predetermined camera, and even if the shooting direction and the angle of view are adjusted, it is good depending on the positional relationship between the intruder and the camera. There was a problem that proper shooting was hindered. Furthermore, in the technique of Patent Document 3 described above, since the sensor and the camera are fixedly associated with each other, the same problem as in the conventional technique described above occurs, and the shooting is limited to one-way shooting. .

この発明の課題は、監視エリア内に存在する複数の監視カメラの向きがバラバラな状態であっても、撮影地点の指定に応答して複数の監視カメラの向きを一斉に制御することによって当該指定地点を多角的に集中撮影できるようにすることである。   An object of the present invention is to specify a plurality of surveillance cameras in a surveillance area by controlling the orientations of the plurality of surveillance cameras all at once in response to the designation of a shooting point even when the orientations of the surveillance cameras are in a distant state. It is to be able to intensively shoot the point from various angles.

請求項1記載の発明は、複数の監視カメラを備えたカメラ監視システムにおいて、監視エリア内に存在する監視カメラ毎に、その位置を記憶管理する位置記憶手段と、撮影地点を指定する指定手段と、この指定手段によって撮影地点が指定された際に、複数の監視カメラのうち、当該指定地点を撮影可能な各監視カメラを選択する選択手段と、この選択手段によって選択された監視カメラ毎に、そのカメラ位置と前記指定地点に基づいて当該カメラの撮影方向を決定する決定手段と、この決定手段によって監視カメラ毎に決定された撮影方向に当該カメラが向くように、各監視カメラを制御する制御手段とを具備したことを特徴とする。
更に、コンピュータに対して、上述した請求項1記載の発明に示した主要機能を実現させるためのプログラムを提供する(請求項7記載の発明)。
The invention described in claim 1 is a camera monitoring system comprising a plurality of monitoring cameras, a position storing means for storing and managing the position of each monitoring camera existing in the monitoring area, and a specifying means for specifying a shooting point. When a shooting point is specified by the specifying unit, a selection unit that selects each monitoring camera capable of shooting the specified point from among a plurality of monitoring cameras, and for each monitoring camera selected by the selection unit, Determination means for determining the shooting direction of the camera based on the camera position and the designated point, and control for controlling each monitoring camera so that the camera faces the shooting direction determined for each monitoring camera by the determination means Means.
Furthermore, a program for realizing the main functions shown in the invention described in claim 1 is provided to the computer (the invention described in claim 7).

なお、請求項1記載の発明は次のようなものであってもよい。
前記指定手段は、予め設置されているセンサよって自動検知された位置を撮影地点として指定する(請求項2記載の発明)。
The invention described in claim 1 may be as follows.
The designation means designates a position automatically detected by a pre-installed sensor as an imaging point (the invention according to claim 2).

前記指定手段は、設置場所が異なる複数のセンサによって自動検知された各位置に基づいて算出された位置を撮影地点として指定する(請求項3記載の発明)。   The designation means designates a position calculated based on each position automatically detected by a plurality of sensors having different installation locations as an imaging point.

前記位置記憶手段は、実際の監視エリアに相似する図形上のカメラ位置とセンサ位置とを記憶管理し、前記決定手段は、この相似図形上のカメラ位置とセンサ位置に基づいて当該カメラの撮影方向を決定する(請求項4記載の発明)。  The position storage means stores and manages a camera position and a sensor position on a figure similar to an actual monitoring area, and the determination means determines a shooting direction of the camera based on the camera position and the sensor position on the similar figure. Is determined (invention of claim 4).

実際の監視エリアに相似する図形を表示する表示手段を設け、前記位置記憶手段は、複数の監視カメラ毎に、前記相似図形上のカメラ位置を記憶管理し、前記決定手段は、相似図形上の任意の位置が撮影地点として指定された際に、この図形上のカメラ位置と指定位置に基づいて当該カメラの撮影方向を決定する(請求項5記載の発明)。    Display means for displaying a figure similar to the actual monitoring area is provided, the position storage means stores and manages the camera position on the similar figure for each of a plurality of monitoring cameras, and the determination means is on the similar figure. When an arbitrary position is designated as a photographing point, the photographing direction of the camera is determined based on the camera position on the figure and the designated position (the invention according to claim 5).

前記位置記憶手段は、実際の監視エリアに相似する図形上のカメラ位置を記憶管理し、前記選択手段は、この図形上において撮影地点とカメラ位置との間に障害物の有無を判別した結果、障害物が有れば、当該カメラを選択対象外とし、障害物が無ければ、当該カメラを選択対象とする(請求項6記載の発明)。  The position storage means stores and manages a camera position on a figure similar to an actual monitoring area, and the selection means determines the presence or absence of an obstacle between the shooting point and the camera position on the figure, If there is an obstacle, the camera is excluded from selection, and if there is no obstacle, the camera is selected (invention of claim 6).

請求項1記載の発明によれば、監視エリア内に存在する監視カメラ毎に、その位置が記憶管理されている状態において、撮影地点(例えば、異常発生地点)が指定された際に、複数の監視カメラのうち、当該指定地点を撮影可能な各監視カメラを選択すると共に、選択された監視カメラ毎に、そのカメラ位置と前記指定地点に基づいて当該カメラの撮影方向を決定し、この撮影方向に当該カメラが向くように、各監視カメラを制御するようにしたから、各監視カメラの向きがバラバラな状態であっても、撮影地点の指定に応答して複数の監視カメラの向きを一斉に制御することによって当該指定地点を多角的に集中撮影することが可能となり、監視能力を高め、信頼性に富んだ監視システムを実現することができる。この場合、従来のように、予め撮影方向をプリセットしておく必要はなく、撮影方向も固定されず、どのような方向であっても一斉撮影が可能となり、実用性に富んだものとなる。   According to the first aspect of the present invention, when a shooting point (for example, an abnormality occurrence point) is designated in a state where the position is stored and managed for each monitoring camera existing in the monitoring area, a plurality of points are detected. Among the surveillance cameras, each surveillance camera capable of photographing the designated point is selected, and for each selected surveillance camera, the photographing direction of the camera is determined based on the camera position and the designated point, and this photographing direction Each surveillance camera is controlled so that the camera faces the camera, so even if the orientation of each surveillance camera varies, the orientation of multiple surveillance cameras can be changed simultaneously in response to the designation of the shooting location. By controlling, it becomes possible to perform multi-centered shooting of the designated point from various angles, and it is possible to improve the monitoring capability and realize a highly reliable monitoring system. In this case, it is not necessary to preset the shooting direction as in the prior art, the shooting direction is not fixed, and simultaneous shooting is possible in any direction, which is highly practical.

請求項2記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、予め設置されているセンサよって自動検知された位置を撮影地点として指定するようにしたから、撮影地点の自動指定が可能となると共に、その地点の自動撮影が可能となる。なお、異常発生を検知したセンサ位置を撮影地点として特定するようにしてもよい。   According to the invention described in claim 2, in addition to having the same effect as that of the invention described in claim 1, the position automatically detected by a pre-installed sensor is designated as the shooting point. A point can be automatically specified, and automatic shooting of the point can be performed. In addition, you may make it identify the sensor position which detected abnormality generation | occurrence | production as an imaging | photography point.

請求項3記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、設置場所が異なる複数のセンサによって自動検知された各位置に基づいて算出された位置を撮影地点として指定するようにしたから、監視エリア内に設置されているセンサ数が少なくても、撮影地点を細かく指定することができる。なお、複数のセンサによって異常発生が検知され場合に、各センサ位置の中間点を撮影地点として特定するようにしてもよい。   According to the invention described in claim 3, in addition to having the same effect as that of the invention described in claim 1, the position calculated based on the respective positions automatically detected by a plurality of sensors having different installation locations is taken as the shooting point. Therefore, even if the number of sensors installed in the monitoring area is small, it is possible to specify the shooting point in detail. In addition, when the occurrence of abnormality is detected by a plurality of sensors, an intermediate point of each sensor position may be specified as a shooting point.

請求項4記載の発明によれば、上述した請求項1および2/3記載の発明と同様の効果を有する他、実際の監視エリアに相似する図形上のカメラ位置とセンサ位置とが記憶管理されている状態において、相似図形上のカメラ位置とセンサ位置に基づいて当該カメラの撮影方向を決定するようにしたから、図形座標系上で撮影方向を容易かつ精度良く算出することができる。   According to the invention described in claim 4, in addition to having the same effect as the invention described in claims 1 and 2/3 described above, the camera position and sensor position on the figure similar to the actual monitoring area are stored and managed. In this state, since the shooting direction of the camera is determined based on the camera position and the sensor position on the similar figure, the shooting direction can be easily and accurately calculated on the graphic coordinate system.

請求項5記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、実際の監視エリアに相似する図形が表示されている状態において、この図形上の任意の位置が撮影地点として指定された際に、この図形上のカメラ位置と指定位置に基づいて当該カメラの撮影方向を決定するようにしたから、任意に指定した位置の現在状況を何時でも自由に確認することができる。   According to the invention described in claim 5, in addition to having the same effect as that of the invention described in claim 1 described above, an arbitrary position on the graphic is displayed in a state where a graphic similar to the actual monitoring area is displayed. When specified as a shooting point, the shooting direction of the camera is determined based on the camera position and the specified position on this figure, so you can freely check the current status of the arbitrarily specified position at any time. Can do.

請求項6記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、実際の監視エリアに相似する図形上のカメラ位置が記憶管理されている状態において、この図形上において撮影地点とカメラ位置との間に障害物の有無を判別した結果、障害物が有れば、当該カメラを選択対象外とし、障害物が無ければ、当該カメラを選択対象とするようにしたから、障害物によって撮影が妨げられるカメラを除き、撮影地点を良好に撮影可能なカメラだけを選択することができる。   According to the invention described in claim 6, in addition to having the same effect as that of the invention described in claim 1 described above, the camera position on the figure similar to the actual monitoring area is stored and managed. If there is an obstacle as a result of determining whether there is an obstacle between the shooting point and the camera position, the camera is excluded from the selection target, and if there is no obstacle, the camera is selected as the selection target. Therefore, it is possible to select only a camera that can shoot a shooting point satisfactorily except for a camera whose shooting is hindered by an obstacle.

(実施例1)
以下、図1〜図12を参照して本発明の第1実施例を説明する。
図1は、この実施例におけるカメラ監視システムの全体構成の概要を示したブロック図である。
このカメラ監視システムは、一般家庭用として構築された防災用の監視システムであり、各種の監視機器を制御するためのホームセキュリティシステム1と、このホームセキュリティシステム1と連動する家内のローカルPC(パーソナルコンピュータ)2と、このローカルPC2にネットワーク網(インターネット)3を介して接続されている遠隔地側のリモートPC4とを有する構成となっている。
(Example 1)
A first embodiment of the present invention will be described below with reference to FIGS.
FIG. 1 is a block diagram showing an overview of the overall configuration of the camera monitoring system in this embodiment.
This camera surveillance system is a disaster prevention surveillance system constructed for general home use, and includes a home security system 1 for controlling various types of surveillance equipment and a local PC (personal computer) linked to the home security system 1. Computer) 2 and a remote PC 4 on the remote side connected to the local PC 2 via a network (Internet) 3.

ホームセキュリティシステム1は、屋内の所定位置に固定的に配置されている各種のセンサ群として、例えば、火災発生検知センサ11、ガス漏れ発生検知センサ12、パッシブセンサ(赤外線監視センサ)13、マグネットセンサ14を備え、また、屋内の所定位置に固定的に配置されている複数台の監視カメラ群として、監視用WEBカメラ15を備えた構成となっており、これらのセンサ11〜14は、専用ケーブルあるいは無線LAN(ローカル・エリア・ネットワーク)を介してコントローラ16側に常時接続されている。   The home security system 1 includes, for example, a fire occurrence detection sensor 11, a gas leak occurrence detection sensor 12, a passive sensor (infrared monitoring sensor) 13, and a magnet sensor as various sensor groups that are fixedly arranged at predetermined indoor positions. 14 and a monitoring WEB camera 15 as a group of a plurality of monitoring cameras fixedly arranged at a predetermined position indoors. These sensors 11 to 14 are provided with dedicated cables. Alternatively, it is always connected to the controller 16 via a wireless LAN (local area network).

火災発生検知センサ11は、火災の際に発生する煙または熱の変化量を監視するセンサであり、ガス漏れ発生検知センサ12は、ガス漏れを検知して通報するセンサである。また、パッシブセンサ(赤外線監視センサ)13は、人体から発生する赤外線を感知したり、赤外線の遮断によって侵入者を感知するセンサであり、マグネットセンサ14は、扉や窓の開閉状態を監視するセンサである。なお、これらのセンサ11〜14は、必要に応じて同一種類のセンサを異なる複数の場所に設置されている。   The fire occurrence detection sensor 11 is a sensor that monitors the amount of change in smoke or heat generated in the event of a fire, and the gas leak occurrence detection sensor 12 is a sensor that detects and reports a gas leak. The passive sensor (infrared monitoring sensor) 13 senses infrared rays generated from the human body or senses intruders by blocking infrared rays, and the magnet sensor 14 is a sensor that monitors the open / closed state of doors and windows. It is. In addition, these sensors 11-14 have the same type of sensors installed at a plurality of different locations as required.

監視用WEBカメラ15は、360度旋回可能な据え置き型のデジタルスチルカメラあるいはデジタルビデオカメラであり、CCDイメージセンサ等の撮像素子等を備え、広角撮影機能、ズーム機能、ホワイトバランス調整機能等を有し、ローカルPC2からのアクセスに応答して、WEBブラウザ対応の撮影画像をアクセス元へ送信提供するようにしている。
コントローラ16は、各種のセンサ11〜14の動作状態を管理するものであり、シリアル接続などでローカルPC2に常時接続されており、センサ検知に応答してローカルPC2にアラーム信号(センサ検知信号)を発信出力する。
The monitoring WEB camera 15 is a stationary digital still camera or digital video camera that can be rotated 360 degrees, and includes an image sensor such as a CCD image sensor, and has a wide-angle shooting function, a zoom function, a white balance adjustment function, and the like. In response to an access from the local PC 2, a captured image corresponding to the WEB browser is transmitted to the access source.
The controller 16 manages the operating states of the various sensors 11 to 14 and is always connected to the local PC 2 by serial connection or the like, and an alarm signal (sensor detection signal) is sent to the local PC 2 in response to sensor detection. Outgoing output.

ローカルPC2は、インストールされた制御ソフト21に従ってホームセキュリティシステム1との間で情報やコマンドのやり取りを行うもので、コントローラ16と連動することによってセンサ検知時において屋内のどの位置を撮影すべきかの撮影対象の地点(異常発生地点)を特定する他、複数台の監視用WEBカメラ15のうち、当該撮影地点を撮影可能な各カメラを選択すると共に、選択したカメラ毎に、このカメラ位置と撮影地点に基づいて当該カメラの撮影方向を決定し、この撮影方向に各カメラが向くように制御するようにしている。言い換えれば、センサ検知に応答して撮影地点を特定し、この撮影地点を複数台の監視用WEBカメラ15によって多角的に集中撮影するように制御するようにしている。そして、ローカルPC2は、集中撮影された各撮影画像を取り込んで一覧画面上に表示出力するようにしている。  The local PC 2 exchanges information and commands with the home security system 1 in accordance with the installed control software 21. The local PC 2 works in conjunction with the controller 16 to photograph which position in the room should be photographed at the time of sensor detection. In addition to specifying the target point (abnormality occurrence point), the camera position and the shooting point are selected for each of the selected cameras from among a plurality of monitoring WEB cameras 15 that select each camera capable of shooting the shooting point. Based on this, the shooting direction of the camera is determined, and control is performed so that each camera faces the shooting direction. In other words, a shooting point is specified in response to sensor detection, and control is performed so that the shooting point is multifacetedly focused by a plurality of monitoring WEB cameras 15. Then, the local PC 2 takes in each photographed image taken in a concentrated manner and displays it on the list screen.

ローカルPC2は、ルータ22、モデム/TA(ターミナルアダプタ)23を介してネットワーク網3に接続されている。同様に、リモートPC4は、ルータ41、モデム/TA42を介してネットワーク網3に接続されている。リモートPC4は、インターネット経由でローカルPC2をアクセスすることによって監視画像を遠隔地からでも確認可能とするものである。なお、リモートPC4は、インターネット経由でローカルPC2と同様の制御も実行可能としてもよい。  The local PC 2 is connected to the network 3 via a router 22 and a modem / TA (terminal adapter) 23. Similarly, the remote PC 4 is connected to the network 3 via the router 41 and the modem / TA 42. The remote PC 4 enables the monitoring image to be confirmed from a remote location by accessing the local PC 2 via the Internet. The remote PC 4 may be able to execute the same control as the local PC 2 via the Internet.

図2は、ローカルPC2側において、実際の監視エリアに相似する図形(間取り図)を作成する際に切り換えられたモード(レイアウトモード)時の作成画面を示した図である。
ここで、間取り図を作成する際には、予め用意されている各種の図形要素を選択指定しながら各要素を組み合わせると共に、その縦横の比率を実寸法に正確に合わせながら相似図形(例えば、1/100の縮小図形)の作成を行う。この場合、部屋を仕切る壁、扉、窓などに合わせて図形要素を選択しながらそれらを組み合わせることによって縮小図形の作成を行う。なお、以下、この相似図形(間取り図)を単に“マップ”と呼ぶものとする。
FIG. 2 is a diagram showing a creation screen in the mode (layout mode) switched when creating a figure (floor plan) similar to the actual monitoring area on the local PC 2 side.
Here, when creating a floor plan, each element is combined while selecting and designating various graphic elements prepared in advance, and similar figures (for example, 1 / 100 reduction figure). In this case, a reduced graphic is created by combining graphic elements while selecting graphic elements according to walls, doors, windows, and the like that partition the room. Hereinafter, this similar figure (floor plan) is simply referred to as “map”.

また、マップの下側に設けられているメニューバーには、各種のファンクションボタンとして「操作」、「カメラ映像」、「レイアウト」、「終了」の各ボタンが配置されている。ここで、「操作」は、例えば、マップ上の位置を任意に指定する際に使用されるボタンであり、「カメラ映像」は、カメラ映像の画面に切り換える際に使用されるボタン、また、「レイアウト」は、レイアウトモードに切り換える際に使用されるボタンであり、「終了」は、各種の処理を終了させる毎に操作されるボタンである。  In addition, on the menu bar provided on the lower side of the map, buttons for “operation”, “camera video”, “layout”, and “end” are arranged as various function buttons. Here, “operation” is, for example, a button used when a position on the map is arbitrarily designated, and “camera image” is a button used when switching to a camera image screen, and “ “Layout” is a button used when switching to the layout mode, and “End” is a button operated every time various processes are ended.

図3は、実際の監視エリアに相似する図形(間取り図:マップ)上に、各種センサ11〜14および複数台の監視用WEBカメラ15を表したオブジェクトをポイント配置した状態を示した図である。
この場合、実際の監視エリア内に配置されている各種センサ11〜14および複数台の監視用WEBカメラ15に対応して、その配置位置に相当するマップ上の位置をマウス等のポインティングデバイスでポイント指定し、この指定位置に対応するオブジェクトを配置する作業をセンサ毎、カメラ毎に繰り返す。なお、図中、「白の円形」は、センサが配置されている位置を示し、また、「内部を塗り潰した三角形(二等辺三角形)」は、カメラが配置されている位置を示し、この三角形で示される矢印方向は、カメラの向きを示している。また、図中、「S1〜S6」は、各種のセンサ11〜14を識別するためのセンサIDを示し、「V1〜V3」は、監視用WEBカメラ15を識別するためのカメラIDを示している。
FIG. 3 is a diagram showing a state in which objects representing various sensors 11 to 14 and a plurality of monitoring WEB cameras 15 are pointed on a figure similar to an actual monitoring area (floor plan: map). .
In this case, corresponding to the various sensors 11 to 14 and the plurality of monitoring WEB cameras 15 arranged in the actual monitoring area, the position on the map corresponding to the arrangement position is pointed with a pointing device such as a mouse. The operation of designating and arranging the object corresponding to the designated position is repeated for each sensor and each camera. In the figure, “white circle” indicates the position where the sensor is arranged, and “triangle with filled interior (isosceles triangle)” indicates the position where the camera is arranged. This triangle The arrow direction indicated by indicates the direction of the camera. In the figure, “S1 to S6” indicate sensor IDs for identifying various sensors 11 to 14, and “V1 to V3” indicate camera IDs for identifying the monitoring WEB camera 15. Yes.

図4は、ローカルPC2側に設けられているセンサテーブル24の内容を示した図であり、図5は、カメラテーブル25の内容を示した図である。
このセンサテーブル24は、各種のセンサ11〜14に対応して、マップ上の配置位置を記憶管理するもので、センサ毎に「センサID」、「マップ座標」の項目を有している。ここで、「マップ座標」は、マップ上の位置(二次元座標系の座標値)を示している(以下、同様)。カメラテーブル25は、複数台の監視用WEBカメラ15に対応して、マップ上の配置位置を記憶管理するもので、カメラ毎に「カメラID」、「マップ座標」の項目を有している。
FIG. 4 is a diagram illustrating the contents of the sensor table 24 provided on the local PC 2 side, and FIG. 5 is a diagram illustrating the contents of the camera table 25.
The sensor table 24 stores and manages the arrangement positions on the map corresponding to the various sensors 11 to 14, and has items of “sensor ID” and “map coordinates” for each sensor. Here, the “map coordinates” indicate positions on the map (coordinate values in the two-dimensional coordinate system) (the same applies hereinafter). The camera table 25 stores and manages the arrangement position on the map corresponding to the plurality of monitoring WEB cameras 15, and has items of “camera ID” and “map coordinate” for each camera.

図6は、ローカルPC2の基本的構成要素を示したブロック図である。
CPU201は、記憶部202内のオペレーティングシステムや各種アプリケーションソフトに従ってこのローカルPC2の全体動作を制御する中央演算処理装置である。記憶装置202は、プログラム記憶領域とデータ記憶領域とを有し、磁気的/光学的メモリや半導体メモリ等の他、その駆動系を有する構成となっている。この記憶装置202内のプログラム記憶領域には、後述する図7および図8に示す動作手順に従って本実施例を実現する為のアプリケーションプログラム(制御ソフト)21が格納され、また、データ記憶領域には、上述した図4、図5に示したセンサテーブル24、カメラテーブル25が格納されている。なお、記憶装置202は、ハードディスク等の固定メモリの他、CD−ROM、DVD等の着脱自在な記憶媒体であってもよい。この記憶装置202内のプログラムやデータは、必要に応じてRAM(例えば、スタティックRAM)203にロードされたり、このRAM203内のデータが記憶装置202にセーブされる。
FIG. 6 is a block diagram showing basic components of the local PC 2.
The CPU 201 is a central processing unit that controls the overall operation of the local PC 2 according to the operating system and various application software in the storage unit 202. The storage device 202 has a program storage area and a data storage area, and has a drive system in addition to a magnetic / optical memory and a semiconductor memory. The program storage area in the storage device 202 stores an application program (control software) 21 for realizing the present embodiment in accordance with an operation procedure shown in FIGS. 7 and 8 to be described later, and the data storage area The sensor table 24 and the camera table 25 shown in FIGS. 4 and 5 are stored. The storage device 202 may be a detachable storage medium such as a CD-ROM or DVD, in addition to a fixed memory such as a hard disk. Programs and data in the storage device 202 are loaded into a RAM (for example, a static RAM) 203 as necessary, or data in the RAM 203 is saved in the storage device 202.

一方、CPU201には、その入出力周辺デバイスである通信装置204、入力装置205、表示装置206がバスラインを介して接続されており、入出力プログラムに従ってCPU201は、これらの入出力デバイスの動作制御を行う。入力装置205は、キーボードやタッチパネルあるいはマウスやタッチ入力ペン等のポインティングデバイスを構成する操作部であり、文字列データや各種コマンドの入力を行う。表示装置206は、フルカラー表示を行う液晶表示装置、CRT表示装置、プラズマ表示装置等である。   On the other hand, a communication device 204, an input device 205, and a display device 206, which are input / output peripheral devices, are connected to the CPU 201 via a bus line, and the CPU 201 controls operation of these input / output devices according to an input / output program. I do. The input device 205 is an operation unit that constitutes a pointing device such as a keyboard, a touch panel, a mouse, or a touch input pen, and inputs character string data and various commands. The display device 206 is a liquid crystal display device that performs full-color display, a CRT display device, a plasma display device, or the like.

次に、この第1実施例におけるカメラ監視システムの動作概念を図7〜図9に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施例においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施例特有の動作を実行することもできる。   Next, the operation concept of the camera monitoring system in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. In addition, the operation according to the above-described program code transmitted via the transmission medium can be sequentially executed. This also applies to other embodiments described later, and in addition to the recording medium, operations specific to this embodiment can be executed using programs / data supplied externally via a transmission medium.

図7は、ローカルPC2側で実行されるマップ作成処理を示したフローチャートである。
先ず、ローカルPC2は、レイアウトモードへの切り換え指示に応答して作成画面を表示出力させた状態において、間取り図(マップ)作成処理を行う(ステップA1)。この場合、オペレータは、上述したように、予め用意されている各種の図形要素を選択指定しながら各要素を組み合わせると共に、その縦横の比率を実寸法に正確に合わせながらマップ作成を行う。ここで、作成画面上の「終了ボタン」が操作されると、各種センサ11〜14および複数台の監視用WEBカメラ15に対応して、その配置位置に相当するマップ上の位置にオブジェクトを配置表示する処理が開始される。
FIG. 7 is a flowchart showing map creation processing executed on the local PC 2 side.
First, the local PC 2 performs a floor plan (map) creation process in a state where the creation screen is displayed and output in response to an instruction to switch to the layout mode (step A1). In this case, as described above, the operator combines the elements while selecting and designating various graphic elements prepared in advance, and creates a map while accurately adjusting the aspect ratio to the actual dimensions. Here, when the “end button” on the creation screen is operated, objects are arranged at positions on the map corresponding to the arrangement positions corresponding to the various sensors 11 to 14 and the plurality of monitoring WEB cameras 15. Processing to display is started.

すなわち、各種センサ11〜14に対応して、その配置位置に相当するマップ上の位置をポイント指定すると共に、このセンサIDを指定し、更に、センサ用のオブジェクトを選択指定すると、当該指定位置にセンサ用のオブジェクトが配置表示される(ステップA2)。そして、センサIDとマップ上のセンサ位置(マップ座標)とが対応付けられてセンサテーブル24に登録される(ステップA3)。以下、全てのセンサに対する登録処理が終了するまで(ステップA4)、センサを1つずつ指定しながら上述の動作が繰り返される(ステップA2〜A4)。  That is, corresponding to the various sensors 11 to 14, the position on the map corresponding to the arrangement position is designated as a point, the sensor ID is designated, and the sensor object is further selected and designated. Sensor objects are arranged and displayed (step A2). And sensor ID and the sensor position (map coordinate) on a map are matched and registered into the sensor table 24 (step A3). Hereinafter, the above-described operation is repeated while designating sensors one by one (steps A2 to A4) until the registration process for all sensors is completed (step A4).

同様に、複数台の監視用WEBカメラ15に対応して、その配置位置に相当するマップ上の位置をポイント指定すると共に、このカメラIDを指定し、更に、カメラ用のオブジェクトを選択指定すると、当該指定位置にカメラ用のオブジェクトが配置表示される(ステップA5)。そして、カメラIDとマップ上のカメラ位置(マップ座標)とが対応付けられてセンサテーブル24に登録される(ステップA6)。以下、全てのカメラに対する登録処理が終了するまで(ステップA7)、カメラを1つずつ指定しながら上述の動作が繰り返される(ステップA5〜A7)。  Similarly, corresponding to a plurality of monitoring WEB cameras 15, a position on the map corresponding to the arrangement position is designated as a point, this camera ID is designated, and further, an object for camera is selected and designated. An object for the camera is arranged and displayed at the designated position (step A5). And camera ID and the camera position (map coordinate) on a map are matched and registered into the sensor table 24 (step A6). Hereinafter, the above-described operation is repeated while designating the cameras one by one (steps A5 to A7) until the registration process for all the cameras is completed (step A7).

図8および図9は、ホームセキュリティシステム1と連動するローカルPC2側の動作を示したフローチャートである。
先ず、ホームセキュリティシステム1側のコントローラ16は、各種のセンサ11〜14の動作状態を管理しており、何れかのセンサ検知に応答して当該センサ対応のアラーム信号をローカルPC2へ発信する。すなわち、コントローラ16は、火災、ガス漏れ、侵入者、扉や窓の開放が検知されると、異常を検知したセンサを特定し、どの位置に配置されているセンサが作動したかを示すセンサIDを含むアラーム信号をローカルPC2へ発信する。ここで、ローカルPC2は、コントローラ16からのアラーム信号の発信有無を常時監視しており(ステップB1)、アラーム信号を受けた場合には、このアラーム信号からセンサIDを取得すると共に(ステップB2)、取得したセンサIDは、1つか否かをチェックする(ステップB3)。
FIG. 8 and FIG. 9 are flowcharts showing the operation on the local PC 2 side in conjunction with the home security system 1.
First, the controller 16 on the home security system 1 side manages the operating states of the various sensors 11 to 14 and transmits an alarm signal corresponding to the sensor to the local PC 2 in response to detection of any sensor. That is, when the controller 16 detects a fire, a gas leak, an intruder, an opening of a door or a window, the controller 16 identifies a sensor that has detected an abnormality and indicates a sensor ID at which position the sensor is activated. Is sent to the local PC 2. Here, the local PC 2 constantly monitors whether or not an alarm signal is transmitted from the controller 16 (step B1), and when receiving the alarm signal, acquires the sensor ID from the alarm signal (step B2). Then, it is checked whether or not the acquired sensor ID is one (step B3).

ここで、ローカルPC2は、取得したセンサIDが1つの場合には(ステップB3でYES)、このセンサIDに基づいてセンサテーブル24をアクセスすることで、該当する「マップ座標」を読み出して当該センサのマップ上の位置を特定する他(ステップB4)、この特定位置をマップ上の撮影地点(異常発生地点)として特定する(ステップB5)。つまり、異常を検知したセンサが1つであれば、その配置位置がそのまま撮影対象の異常発生地点として特定される。  Here, if the acquired sensor ID is one (YES in step B3), the local PC 2 accesses the sensor table 24 based on this sensor ID to read out the corresponding “map coordinates” and to detect the sensor ID. In addition to specifying the position on the map (step B4), this specified position is specified as a shooting point (abnormal point) on the map (step B5). That is, if there is one sensor that has detected an abnormality, the position of the sensor is directly specified as an abnormality occurrence point to be imaged.

一方、アラーム信号から複数のセンサIDを取得した場合には(ステップB3でNO)、センサテーブル24をアクセスし、各センサ毎に、その「マップ座標」を読み出して各センサのマップ上の位置を特定する(ステップB6)。そして、この各センサ位置からその中間点を算出し(ステップB7)、この中間点をマップ上の撮影地点(異常発生地点)として特定する(ステップB8)。これによって特定されたマップ上の撮影地点を特定色(例えば、赤色)でポイント表示すると共に点滅させてオペレータに異常発生の警告を行う(ステップB9)。この場合、アラーム音も合わせて発生するようにしてもよい。
図11(A)は、異常発生が検知される前のマップ表示例を示し、(B)は、異常発生後のマップ表示例を示している。ここで、図11(B)内の黒丸は、特定された撮影地点(異常発生地点)を示し、この部分が赤色で点滅表示される。
On the other hand, when a plurality of sensor IDs are acquired from the alarm signal (NO in step B3), the sensor table 24 is accessed, and for each sensor, the “map coordinates” are read and the position of each sensor on the map is determined. Specify (step B6). Then, an intermediate point is calculated from each sensor position (step B7), and this intermediate point is specified as a shooting point (abnormal point) on the map (step B8). The shooting location on the map specified in this way is point-displayed in a specific color (for example, red) and blinked to warn the operator that an abnormality has occurred (step B9). In this case, an alarm sound may also be generated.
FIG. 11A shows a map display example before the occurrence of abnormality is detected, and FIG. 11B shows a map display example after the occurrence of abnormality. Here, the black circles in FIG. 11B indicate the specified shooting point (abnormal point), and this portion is displayed blinking in red.

このようにして撮影地点を特定して警告表示した後は、複数台の監視用WEBカメラ15によって当該撮影地点を集中撮影するために、各カメラの向きを制御する処理に移る。すなわち、先ず、ローカルPC2は、カメラテーブル25をアクセスし、その先頭のカメラID(第1のカメラID)を指定する(ステップB10)。そして、図9のステップB11に移り、指定されたカメラIDに基づいてカメラテーブル25をアクセスして、マップ上のカメラ位置「マップ座標」を読み出した後に、このカメラ位置から撮影地点までを結ぶ仮想線(仮直線)をマップ上に描画し(ステップB12)、この仮想線(仮直線)がマップ上の障害物(部屋を区切る壁の図形)にぶつかるかをチェックする(ステップB13)。  After the shooting location is specified and the warning is displayed in this way, the process proceeds to a process of controlling the orientation of each camera in order to perform centralized shooting of the shooting location with a plurality of monitoring WEB cameras 15. That is, first, the local PC 2 accesses the camera table 25 and designates the head camera ID (first camera ID) (step B10). Then, the process proceeds to step B11 in FIG. 9, the camera table 25 is accessed based on the designated camera ID, the camera position “map coordinates” on the map is read, and the virtual position connecting this camera position to the shooting point A line (temporary straight line) is drawn on the map (step B12), and it is checked whether the virtual line (temporary straight line) hits an obstacle (a figure of a wall dividing the room) on the map (step B13).

いま、障害物が無ければ(ステップB13でNO)、撮影地点を撮影可能なカメラとして当該指定カメラを選択し、指定カメラ15を動作可能状態にセットすると共に、モニタ撮影の開始を指示する(ステップB14)。そして、マップ上の撮影地点の座標と指定カメラのマップ座標に基づいてカメラ向きを算出する処理が行われる(ステップB15)。
図10は、カメラ向きを算出する方法を説明するための図である。ここで、マップ上の撮影地点の座標値を(XS2、YS2)、指定カメラのマップ座標値を(XV3、YV3)とすると、カメラの水平方向の移動角θは、次式に従って求められる。
tanθ=|YS2−YV3|/|XS2−XV3|
If there is no obstacle (NO in step B13), the designated camera is selected as a camera capable of photographing the photographing point, the designated camera 15 is set in an operable state, and start of monitor photographing is instructed (step) B14). And the process which calculates a camera direction based on the coordinate of the imaging | photography point on a map and the map coordinate of a designated camera is performed (step B15).
FIG. 10 is a diagram for explaining a method of calculating the camera orientation. Here, assuming that the coordinate value of the shooting point on the map is (XS2, YS2) and the map coordinate value of the designated camera is (XV3, YV3), the horizontal movement angle θ of the camera can be obtained according to the following equation.
tan θ = | YS2-YV3 | / | XS2-XV3 |

これによって算出された移動角に基づいてマップ上の指定カメラの向き(オブジェクトの向き)が変更表示される(ステップB16)。すなわち、図11(B)に示すように、マップ上のカメラの向き(オブジェクトの向き)は、特定された撮影地点(異常発生地点)に向くように、その方向が変更表示される。また、ローカルPC2は、算出した移動角に応じてカメラの向きを調整すべきことを指示する回動指令を指定カメラ15に対して送信する(ステップB17)。この場合、指定カメラ15は、移動角で示される方向に旋回しながらカメラの水平方向における角度を調整する。  Based on the calculated movement angle, the orientation of the designated camera (object orientation) on the map is changed and displayed (step B16). That is, as shown in FIG. 11B, the direction of the camera on the map (the direction of the object) is changed and displayed so as to be directed to the specified shooting point (abnormal point). Further, the local PC 2 transmits a rotation command instructing that the orientation of the camera should be adjusted according to the calculated movement angle to the designated camera 15 (step B17). In this case, the designated camera 15 adjusts the angle in the horizontal direction of the camera while turning in the direction indicated by the movement angle.

なお、ローカルPC2は、監視用WEBカメラ15毎に、現在向いているカメラ角度(最初は、カメラ設置時のデフォルト値)をカメラテーブル25に記憶管理しておき、上述のように算出された移動角と現在のカメラ角度との差を求め、この差の角度分だけを旋回させるようにしてもよい。この場合、カメラ角度を変更する毎に、カメラテーブル25内の現在のカメラ角度を更新すればよい。  The local PC 2 stores and manages the camera angle (currently, the default value at the time of camera installation) that is currently facing for each monitoring WEB camera 15 in the camera table 25, and the movement calculated as described above. A difference between the angle and the current camera angle may be obtained, and only the angle corresponding to the difference may be turned. In this case, the current camera angle in the camera table 25 may be updated every time the camera angle is changed.

このようにして1台分のカメラに対する処理が終了すると、カメラテーブル25をアクセスして未処理分の他のカメラが有るかをチェックし(ステップB18)、他のカメラが有れば、次のカメラIDを指定した後(ステップB19)、指定カメラに対して、上述と同様の動作を繰り返すためにステップB11に戻る。この場合、マップ上のカメラ位置から撮影地点を結ぶ仮直線がマップ上の障害物にぶつかる場合には(ステップB13でYES)当該指定カメラを選択対象から外すためにステップB18に移る。  When the processing for one camera is completed in this way, the camera table 25 is accessed to check whether there are other unprocessed cameras (step B18). After designating the camera ID (step B19), the process returns to step B11 in order to repeat the same operation as described above for the designated camera. In this case, if a provisional line connecting the shooting position from the camera position on the map hits an obstacle on the map (YES in step B13), the process proceeds to step B18 to remove the designated camera from the selection target.

これによって全てのカメラを指定し終わった場合には(ステップB18でNO)、「カメラ映像ボタン」の操作有無をチェックし(ステップB20)、「カメラ映像ボタン」が操作されなければ、最初のステップB1に戻るが、「カメラ映像ボタン」が操作された場合には、異常発生地点における現在の画像を各カメラ15から取得し(ステップB21)、同一画面上に各撮影画像を一覧表示させる(ステップB22)。
図12(A)は、「カメラ映像ボタン」を操作した状態を示し、(B)は、カメラ映像ボタンが操作された後の表示状態を示し、マップ表示画面から撮影画像の一覧画面に切り換わる。ここで、「終了ボタン」が操作された場合には(ステップB23)、最初のステップB1に戻る。
When all the cameras have been designated (NO in step B18), it is checked whether or not the “camera video button” is operated (step B20). If the “camera video button” is not operated, the first step is performed. Returning to B1, when the “camera video button” is operated, the current image at the abnormality occurrence point is acquired from each camera 15 (step B21), and each captured image is displayed in a list on the same screen (step B21). B22).
FIG. 12A shows a state where the “camera video button” is operated, and FIG. 12B shows a display state after the camera video button is operated, and switches from the map display screen to the list screen of captured images. . Here, when the “end button” is operated (step B23), the process returns to the first step B1.

以上のように、この第1実施例においてローカルPC2は、ホームセキュリティシステム1を構成する監視用の各カメラ15毎に、その設置位置が記憶管理されている状態において、撮影地点(異常発生地点)が特定された際に、各カメラ15のうち、当該地点を撮影可能な各カメラ15を選択すると共に、選択されたカメラ15毎に、そのカメラ位置と撮影地点に基づいて当該カメラの撮影方向を決定し、この撮影方向に当該カメラが向くように、各カメラ15を旋回制御するようにしたから、各監視カメラの向きがバラバラな状態であっても、撮影地点の特定に応答して複数の監視カメラの向きを一斉に制御することによって当該地点を多角的に集中撮影することが可能となり、監視能力を高め、信頼性に富んだ監視システムを実現することができる。この場合、従来のように、予め撮影方向をプリセットしておく必要はなく、撮影方向も固定されず、どのような方向であっても一斉撮影が可能となり、実用性に富んだものとなる。   As described above, in this first embodiment, the local PC 2 has a shooting location (abnormality occurrence location) in a state where the installation position is stored and managed for each monitoring camera 15 constituting the home security system 1. When the camera 15 is identified, the camera 15 that can photograph the spot is selected from the cameras 15, and the shooting direction of the camera is determined for each selected camera 15 based on the camera position and the shooting spot. Since each camera 15 is controlled to turn so that the camera is directed in this shooting direction, a plurality of cameras can be responded to the specification of shooting points even when the directions of the monitoring cameras are different. By controlling the direction of the surveillance cameras all at once, it becomes possible to shoot in a multifaceted manner at the relevant point, improving the surveillance capability and realizing a highly reliable surveillance system. Door can be. In this case, it is not necessary to preset the shooting direction as in the prior art, the shooting direction is not fixed, and simultaneous shooting is possible in any direction, which is highly practical.

この場合、ホームセキュリティシステム1を構成する各種のセンサ11〜14のうち、異常発生を検知したセンサ位置を撮影地点として特定するようにしたから、撮影地点の自動指定が可能となると共に、その地点の自動撮影が可能となる。
また、複数のセンサによって異常発生が検知され場合には、各センサ位置の中間点を撮影地点とするようにしたから、監視エリア内に設置されているセンサ数が少なくても、異常発生地点を細かく特定することができる。
In this case, among the various sensors 11 to 14 constituting the home security system 1, since the position of the sensor that has detected an abnormality is specified as the shooting point, the shooting point can be automatically specified, and the point Automatic shooting is possible.
In addition, when the occurrence of abnormality is detected by multiple sensors, the middle point of each sensor position is set as the shooting point. Therefore, even if the number of sensors installed in the monitoring area is small, It can be specified in detail.

ローカルPC2は、各センサ11〜14、各カメラ15毎に、マップ上の位置(マップ座標)がセンサテーブル24、カメラテーブル25に記憶管理されている状態において、マップ上のカメラ位置とセンサ位置に基づいて当該カメラの撮影方向を決定するようにしたから、マップ座標系上において撮影方向を容易かつ精度良く算出することができる。
また、マップ上のカメラ位置が記憶管理されている状態において、マップ上で撮影地点とカメラ位置との間に障害物(壁)の有無を判別した結果、障害物が有れば、当該カメラを選択対象外とし、障害物が無ければ、当該カメラを選択対象とするようにしたから、障害物によって撮影が妨げられるカメラを除き、撮影地点を良好に撮影可能なカメラだけを選択することができる。
The local PC 2 sets the position (map coordinates) on the map for each sensor 11 to 14 and each camera 15 to the camera position and the sensor position on the map in a state where the sensor table 24 and the camera table 25 store and manage them. Since the shooting direction of the camera is determined based on this, the shooting direction can be easily and accurately calculated on the map coordinate system.
In the state where the camera position on the map is stored and managed, if there is an obstacle as a result of determining whether there is an obstacle (wall) between the shooting point and the camera position on the map, If the camera is excluded from the selection target and there is no obstacle, the camera is selected. Therefore, only the camera that can shoot the shooting point satisfactorily can be selected except for the camera whose shooting is hindered by the obstacle. .

なお、上述した第1実施例においては、遠隔地側のリモートPC4については、特に言及しなかったが、リモートPC4からでも異常発生時にその画像を確認することができる。この場合、ローカルPC2は、異常発生を知らせる警告メッセージをリモートPC4へ送信すると共に、異常発生時における各カメラ画像の一覧をリモートPC4へ送信すればよい。この場合、各カメラ画像の一覧は、「カメラ映像ボタン」の操作有無に拘らず、リモートPC4へ送信するか、リモートPC4からの指示に応じて送信するかは問わない。
(実施例2)
In the first embodiment described above, the remote PC 4 on the remote side is not particularly mentioned, but the image can be confirmed even from the remote PC 4 when an abnormality occurs. In this case, the local PC 2 may transmit a warning message notifying the occurrence of an abnormality to the remote PC 4 and transmitting a list of camera images at the time of the occurrence of the abnormality to the remote PC 4. In this case, it does not matter whether the list of each camera image is transmitted to the remote PC 4 or according to an instruction from the remote PC 4 regardless of whether or not the “camera video button” is operated.
(Example 2)

以下、この発明の第2実施例について図13および図14を参照して説明する。
なお、上述した第1実施例においては、ホームセキュリティシステム1を構成する各種のセンサ11〜14のうち、異常発生を検知したセンサ位置に基づいて撮影地点を特定するようにしたが、この第2実施例においては、マップ上において任意の位置がポイント指定され際に、この指定位置を撮影地点として特定することによって、指定位置での現在状況を何時でも自由に確認できるようにしたものである。
ここで、両実施例において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施例の特徴部分を中心に説明するものとする。
A second embodiment of the present invention will be described below with reference to FIGS. 13 and 14.
In the first embodiment described above, the shooting location is specified based on the sensor position where the occurrence of abnormality is detected among the various sensors 11 to 14 constituting the home security system 1. In the embodiment, when an arbitrary position on the map is designated as a point, this designated position is identified as a shooting point, so that the current situation at the designated position can be freely checked at any time.
Here, the same or the same names in both embodiments are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

図13(A)は、「操作ボタン」をクリックした状態を示し、(B)は、マップ上の任意の位置を撮影地点として指定した状態を示した図である。
ここで、「操作ボタン」をクリックした後に、マウス等のポインティングデバイスを使用し、現在の状況を確認するポイントを指定すると、この指定位置には、×印が表示される。この場合、図13(B)に示すように、マップ上のカメラの向き(オブジェクトの向き)は、任意に指定された撮影地点に向くように、その方向が変更される。
FIG. 13A shows a state in which an “operation button” is clicked, and FIG. 13B shows a state in which an arbitrary position on the map is designated as a shooting point.
Here, after the “operation button” is clicked, a pointing device such as a mouse is used to designate a point for checking the current situation, and an X mark is displayed at this designated position. In this case, as shown in FIG. 13B, the direction of the camera on the map (the direction of the object) is changed so as to face an arbitrarily designated shooting point.

図14は、ホームセキュリティシステム1と連動するローカルPC2側の動作のうち、第2実施例の特徴部分だけを示したフローチャートである。
先ず、ローカルPC2は、上述した第1実施例と同様のマップが作成されている状態において、図13(A)に示すように、各種センサやカメラ毎にそのオブジェクトを配置したマップを表示出力させる(ステップC1)。この状態において、「操作ボタン」がクリックされると共に、マップ上の任意の位置がポイント指定されると(ステップC3)、このマップ上の指定位置(マップ座標)を撮影地点として特定すると共に、特定されたマップ上の撮影地点に×印を表示させる(ステップC3)。
FIG. 14 is a flowchart showing only the characteristic part of the second embodiment among the operations on the local PC 2 side linked with the home security system 1.
First, the local PC 2 displays and outputs a map in which the object is arranged for each of various sensors and cameras as shown in FIG. 13A in a state where a map similar to that in the first embodiment is created. (Step C1). In this state, when the “operation button” is clicked and an arbitrary position on the map is designated (step C3), the designated position (map coordinates) on the map is specified as a shooting point and specified. A cross is displayed at the shooting location on the map (step C3).

このようにして撮影地点が特定された後は、複数台の監視用WEBカメラ15によって当該撮影地点を集中撮影するために、各カメラの向きを制御する処理に移る。すなわち、先ず、ローカルPC2は、カメラテーブル25をアクセスし、その先頭のカメラID(第1のカメラID)を指定する(ステップC4)。そして、図9のステップB11に移り、以下、上述した第1実施例と同様の処理が行われる。すなわち、マップ上のカメラ位置と撮影地点に基づいてカメラ毎にその撮影方向を決定しながら各カメラの向きを制御したり、「カメラ映像ボタン」の操作に応答して各カメラ15から取得した撮影画像を一覧表示させる。  After the shooting points are specified in this way, the process proceeds to a process for controlling the orientation of each camera in order to perform the central shooting of the shooting points with a plurality of monitoring WEB cameras 15. That is, first, the local PC 2 accesses the camera table 25 and designates the head camera ID (first camera ID) (step C4). Then, the process proceeds to step B11 in FIG. 9, and thereafter, the same processing as in the first embodiment described above is performed. That is, the direction of each camera is controlled while determining the shooting direction for each camera based on the camera position and shooting point on the map, or the shooting acquired from each camera 15 in response to the operation of the “camera video button”. Display a list of images.

以上のように、この第2実施例においては、実際の監視エリアに相似するマップが表示されている状態において、このマップ上の任意の位置が撮影地点として指定された際に、このマップ上のカメラ位置と撮影位置に基づいて各カメラの撮影方向を決定しながら各カメラの向きを制御するようにしたから、任意に指定した位置の現在状況を何時でも自由に確認することができる。   As described above, in the second embodiment, when a map similar to the actual monitoring area is displayed, when an arbitrary position on the map is designated as a shooting point, Since the direction of each camera is controlled while determining the shooting direction of each camera based on the camera position and the shooting position, the current status of the arbitrarily designated position can be freely checked at any time.

なお、上述した第2実施例においては、遠隔地側のリモートPC4については、特に言及しなかったが、リモートPC4からでも、任意に指定された位置の現在状況を何時でも自由に確認することができる。この場合、リモートPC4は、インターネットを介してローカルPC2からマップを取得して表示出力すると共に、このマップ上の任意の位置がポイント指定されると、この指定位置をローカルPC2へ送信する。ここで、ローカルPC2は、リモートPC4によって指定された位置を撮影地点として特定した後に、当該撮影地点を集中撮影するために各カメラの向きを制御する処理を実行した後に、各カメラ画像の一覧をリモートPC4へ送信すればよい。この場合、各カメラ画像の一覧は、「カメラ映像ボタン」の操作有無に拘らず、リモートPC4へ送信すればよい。   In the second embodiment described above, the remote PC 4 on the remote side is not particularly mentioned, but it is possible to freely check the current status of the arbitrarily designated position at any time from the remote PC 4 as well. it can. In this case, the remote PC 4 acquires a map from the local PC 2 via the Internet, displays and outputs the map, and when an arbitrary position on the map is pointed, transmits the specified position to the local PC 2. Here, after specifying the position designated by the remote PC 4 as the shooting point, the local PC 2 executes a process for controlling the direction of each camera in order to focus on the shooting point, and then displays a list of each camera image. What is necessary is just to transmit to remote PC4. In this case, the list of camera images may be transmitted to the remote PC 4 regardless of whether or not the “camera video button” is operated.

上述した第1および第2実施例においては、各種のセンサとして、火災発生検知センサ11、ガス漏れ発生検知センサ12、パッシブセンサ13、マグネットセンサ14を例示したが、ガラスの破壊を監視するセンサ、浴室などの特殊窓(ジャロジー)の破壊を監視するセンサ、フェンスからの侵入者を監視するセンサ等であってもよい。
また、非常事態時にボタン操作された場合、カメラ画像を解析することによって侵入者や非常事態の発生を認識した場合であってもよい。
In the first and second embodiments described above, the fire occurrence detection sensor 11, the gas leak occurrence detection sensor 12, the passive sensor 13, and the magnet sensor 14 are exemplified as various sensors. A sensor that monitors the destruction of a special window (jalousie) such as a bathroom, a sensor that monitors an intruder from a fence, or the like may be used.
Further, when the button is operated in an emergency, it may be a case where an intruder or occurrence of an emergency is recognized by analyzing a camera image.

また、カメラ15は、固定設置されたものに限らず、例えば、レール上を走行移動可能なカメラであったり、移動可能なカメラであってもよい。更に、上述した第1および第2実施例においては、カメラを水平方向へ旋回してその向きを変更するようにしたが、垂直方向(仰角)に旋回可能としてもよい。
その他、ローカルPC2は、インストールされた制御ソフト21に従ってマップの作成などを行うようにしたが、ホームセキュリティシステム1のコントローラ16側でマップ作成などを行うようにしてもよい。また、リモートPC4は、携帯電話等の携帯端末であってもよい。
Further, the camera 15 is not limited to a camera that is fixedly installed, and may be, for example, a camera that can travel on a rail or a movable camera. Furthermore, in the first and second embodiments described above, the direction of the camera is changed by turning the camera in the horizontal direction, but the camera may be turned in the vertical direction (elevation angle).
In addition, the local PC 2 creates a map or the like according to the installed control software 21, but the map may be created on the controller 16 side of the home security system 1. The remote PC 4 may be a mobile terminal such as a mobile phone.

一方、コンピュータに対して、上述した各手段を実行させるためのプログラムコードをそれぞれ記録した記録媒体(例えば、CD−ROM、フレキシブルディスク、RAMカード等)を提供するようにしてもよい。すなわち、コンピュータが読み取り可能なプログラムコードを有する記録媒体であって、監視エリア内に存在する監視カメラ毎に、その位置を記憶管理する機能と、撮影地点が指定された際に、複数の監視カメラのうち、当該指定地点を撮影可能な各監視カメラを選択する機能と、選択された監視カメラ毎に、そのカメラ位置と前記指定地点に基づいて当該カメラの撮影方向を決定する機能と、監視カメラ毎に決定された撮影方向に当該カメラが向くように、各監視カメラを制御する機能とを実現させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体を提供するようにしてもよい。   On the other hand, a recording medium (for example, a CD-ROM, a flexible disk, a RAM card, etc.) on which program codes for executing the above-described units are recorded may be provided to the computer. That is, a recording medium having a computer-readable program code, a function of storing and managing the position of each monitoring camera existing in the monitoring area, and a plurality of monitoring cameras when a shooting point is designated A function for selecting each surveillance camera capable of photographing the designated point, a function for determining the photographing direction of the camera based on the camera position and the designated point for each selected surveillance camera, and a surveillance camera It is also possible to provide a computer-readable recording medium that records a program for realizing the function of controlling each surveillance camera so that the camera is directed in the shooting direction determined every time.

カメラ監視システムの全体構成の概要を示したブロック図。The block diagram which showed the outline | summary of the whole structure of a camera monitoring system. ローカルPC2側において、実際の監視エリアに相似する図形(間取り図)を作成する際に切り換えられたモード(レイアウトモード)時の作成画面を示した図。The figure which showed the creation screen at the time of the mode (layout mode) switched when creating the figure (room plan) similar to an actual monitoring area on the local PC2 side. 実際の監視エリアに相似する図形(間取り図:マップ)上に、各種センサ11〜14および複数台のカメラ15を表したオブジェクトをポイント配置した状態を示した図。The figure which showed the state which has arrange | positioned the object which represents various sensors 11-14 and the several cameras 15 on the figure (floor plan: map) similar to an actual monitoring area. ローカルPC2側に設けられているセンサテーブル24の内容を示した図。The figure which showed the content of the sensor table 24 provided in the local PC2 side. ローカルPC2側に設けられているカメラテーブル25の内容を示した図。The figure which showed the content of the camera table 25 provided in the local PC2 side. ローカルPC2の基本的構成要素を示したブロック図。The block diagram which showed the basic component of local PC2. ローカルPC2側で実行されるマップ作成処理を示したフローチャート。The flowchart which showed the map creation process performed by the local PC2. ホームセキュリティシステム1と連動するローカルPC2側の動作を示したフローチャート。The flowchart which showed the operation | movement by the side of local PC2 interlock | cooperating with the home security system 1. FIG. 図8に続く、フローチャート。The flowchart following FIG. カメラ向きを算出する方法を説明するための図。The figure for demonstrating the method to calculate camera direction. (A)は、異常発生が検知される前のマップ表示例を示し、(B)は、異常発生後のマップ表示例を示した図。(A) shows the example of a map display before abnormality occurrence is detected, (B) is the figure which showed the example of a map display after abnormality occurrence. (A)は、カメラ映像ボタンをクリックした状態を示し、(B)は、カメラ映像ボタンが操作された後の表示状態を示した図。(A) shows the state where the camera video button is clicked, and (B) shows the display state after the camera video button is operated. 第2実施例において、(A)は、操作ボタンをクリックした状態を示し、(B)は、マップ上の任意の位置を撮影地点として指定した状態を示した図。In 2nd Example, (A) shows the state which clicked the operation button, (B) has shown the state which designated the arbitrary positions on a map as an imaging | photography spot. ホームセキュリティシステム1と連動するローカルPC2側の動作のうち、第2実施例の特徴部分だけを示したフローチャート。The flowchart which showed only the characteristic part of 2nd Example among the operations by the side of local PC2 interlock | cooperating with the home security system 1. FIG.

符号の説明Explanation of symbols

1 ホームセキュリティシステム
2 ローカルPC
11 火災発生検知センサ
12 ガス漏れ発生検知センサ
13 パッシブセンサ
14 マグネットセンサ
15 監視用WEBカメラ
16 コントローラ
24 センサテーブル
25 カメラテーブル25
201 CPU
202 記憶装置
204 通信装置
205 入力装置
206 表示装置
1 Home security system 2 Local PC
11 Fire occurrence detection sensor 12 Gas leak occurrence detection sensor 13 Passive sensor 14 Magnet sensor 15 Monitoring web camera 16 Controller 24 Sensor table 25 Camera table 25
201 CPU
202 Storage Device 204 Communication Device 205 Input Device 206 Display Device

Claims (7)

複数の監視カメラを備えたカメラ監視システムにおいて、
監視エリア内に存在する監視カメラ毎に、その位置を記憶管理する位置記憶手段と、
撮影地点を指定する指定手段と、
この指定手段によって撮影地点が指定された際に、複数の監視カメラのうち、当該指定地点を撮影可能な各監視カメラを選択する選択手段と、
この選択手段によって選択された監視カメラ毎に、そのカメラ位置と前記指定地点に基づいて当該カメラの撮影方向を決定する決定手段と、
この決定手段によって監視カメラ毎に決定された撮影方向に当該カメラが向くように、各監視カメラを制御する制御手段と、
を具備したことを特徴とするカメラ監視システム。
In a camera surveillance system with multiple surveillance cameras,
Position storage means for storing and managing the position of each monitoring camera existing in the monitoring area;
A designation means for designating a shooting point;
When a shooting point is specified by the specifying unit, a selection unit that selects each monitoring camera capable of shooting the specified point among the plurality of monitoring cameras;
For each surveillance camera selected by the selection means, a determination means for determining the shooting direction of the camera based on the camera position and the designated point;
Control means for controlling each surveillance camera so that the camera faces the shooting direction determined for each surveillance camera by the decision means;
A camera surveillance system comprising:
前記指定手段は、予め設置されているセンサよって自動検知された位置を撮影地点として指定する、
ようにしたことを特徴とする請求項1記載のカメラ監視システム。
The designation means designates a position automatically detected by a pre-installed sensor as a shooting point;
2. The camera monitoring system according to claim 1, wherein the camera monitoring system is configured as described above.
前記指定手段は、設置場所が異なる複数のセンサによって自動検知された各位置に基づいて算出された位置を撮影地点として指定する、
ようにしたことを特徴とする請求項1記載のカメラ監視システム。
The designation means designates a position calculated based on each position automatically detected by a plurality of sensors having different installation locations as a shooting point.
2. The camera monitoring system according to claim 1, wherein the camera monitoring system is configured as described above.
前記位置記憶手段は、実際の監視エリアに相似する図形上のカメラ位置とセンサ位置とを記憶管理し、
前記決定手段は、この相似図形上のカメラ位置とセンサ位置に基づいて当該カメラの撮影方向を決定する、
ようにしたことを特徴とする請求項2あるいは請求項3記載のカメラ監視システム。
The position storage means stores and manages a camera position and a sensor position on a figure similar to an actual monitoring area,
The determining means determines the shooting direction of the camera based on the camera position and the sensor position on the similar figure.
4. The camera monitoring system according to claim 2, wherein the camera monitoring system is configured as described above.
実際の監視エリアに相似する図形を表示する表示手段を設け、
前記位置記憶手段は、複数の監視カメラ毎に、前記相似図形上のカメラ位置を記憶管理し、
前記決定手段は、相似図形上の任意の位置が撮影地点として指定された際に、この図形上のカメラ位置と指定位置に基づいて当該カメラの撮影方向を決定する
ようにしたことを特徴とする請求項1記載のカメラ監視システム。
Provide a display means to display a figure similar to the actual monitoring area,
The position storage means stores and manages the camera position on the similar figure for each of a plurality of monitoring cameras.
The determination means determines the shooting direction of the camera based on the camera position and the specified position on the figure when an arbitrary position on the similar figure is specified as a shooting point.
2. The camera monitoring system according to claim 1, wherein the camera monitoring system is configured as described above.
前記位置記憶手段は、実際の監視エリアに相似する図形上のカメラ位置を記憶管理し、
前記選択手段は、この図形上において撮影地点とカメラ位置との間に障害物の有無を判別した結果、障害物が有れば、当該カメラを選択対象外とし、障害物が無ければ、当該カメラを選択対象とする、
ようにしたことを特徴とする請求項1記載のカメラ監視システム。
The position storage means stores and manages a camera position on a figure similar to an actual monitoring area,
The selection means determines whether or not there is an obstacle between the shooting point and the camera position on the figure, and if there is an obstacle, the camera is excluded from the selection. If there is no obstacle, the camera , Select
2. The camera monitoring system according to claim 1, wherein the camera monitoring system is configured as described above.
コンピュータに対して、
監視エリア内に存在する監視カメラ毎に、その位置を記憶管理する機能と、
撮影地点が指定された際に、複数の監視カメラのうち、当該指定地点を撮影可能な各監視カメラを選択する機能と、
選択された監視カメラ毎に、そのカメラ位置と前記指定地点に基づいて当該カメラの撮影方向を決定する機能と、
監視カメラ毎に決定された撮影方向に当該カメラが向くように、各監視カメラを制御する機能と、
を実現させるためのプログラム。
Against the computer,
A function for storing and managing the position of each surveillance camera in the surveillance area;
When a shooting location is designated, a function of selecting each surveillance camera capable of photographing the designated location from among a plurality of surveillance cameras;
For each selected surveillance camera, a function for determining the shooting direction of the camera based on the camera position and the designated point;
A function to control each surveillance camera so that the camera is directed in the shooting direction determined for each surveillance camera;
A program to realize
JP2003371787A 2003-10-31 2003-10-31 Camera surveillance system and program Pending JP2005136774A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003371787A JP2005136774A (en) 2003-10-31 2003-10-31 Camera surveillance system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003371787A JP2005136774A (en) 2003-10-31 2003-10-31 Camera surveillance system and program

Publications (1)

Publication Number Publication Date
JP2005136774A true JP2005136774A (en) 2005-05-26

Family

ID=34648343

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003371787A Pending JP2005136774A (en) 2003-10-31 2003-10-31 Camera surveillance system and program

Country Status (1)

Country Link
JP (1) JP2005136774A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336049A (en) * 2006-06-13 2007-12-27 Hitachi Ltd Monitoring video image management system and imaging apparatus
WO2009110417A1 (en) * 2008-03-03 2009-09-11 ティーオーエー株式会社 Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device
JP2011022703A (en) * 2009-07-14 2011-02-03 Oki Electric Industry Co Ltd Display control apparatus and display control method
JP2014175996A (en) * 2013-03-12 2014-09-22 Oki Electric Ind Co Ltd Parameter estimation device, parameter estimation program, equipment determination system and equipment determination program
JP2015186114A (en) * 2014-03-25 2015-10-22 株式会社日立国際電気 Video monitoring system
JP2016066312A (en) * 2014-09-25 2016-04-28 綜合警備保障株式会社 Security system and security method
JP2019153986A (en) * 2018-03-06 2019-09-12 キヤノン株式会社 Monitoring system, management apparatus, monitoring method, computer program, and storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336049A (en) * 2006-06-13 2007-12-27 Hitachi Ltd Monitoring video image management system and imaging apparatus
JP4732965B2 (en) * 2006-06-13 2011-07-27 株式会社日立製作所 Surveillance video management system and imaging apparatus
WO2009110417A1 (en) * 2008-03-03 2009-09-11 ティーオーエー株式会社 Device and method for specifying installment condition of rotatable camera and camera control system equipped with the installment condition specifying device
JP5566281B2 (en) * 2008-03-03 2014-08-06 Toa株式会社 Apparatus and method for specifying installation condition of swivel camera, and camera control system provided with the apparatus for specifying installation condition
JP2011022703A (en) * 2009-07-14 2011-02-03 Oki Electric Industry Co Ltd Display control apparatus and display control method
JP2014175996A (en) * 2013-03-12 2014-09-22 Oki Electric Ind Co Ltd Parameter estimation device, parameter estimation program, equipment determination system and equipment determination program
JP2015186114A (en) * 2014-03-25 2015-10-22 株式会社日立国際電気 Video monitoring system
JP2016066312A (en) * 2014-09-25 2016-04-28 綜合警備保障株式会社 Security system and security method
JP2019153986A (en) * 2018-03-06 2019-09-12 キヤノン株式会社 Monitoring system, management apparatus, monitoring method, computer program, and storage medium
JP7146416B2 (en) 2018-03-06 2022-10-04 キヤノン株式会社 Information processing device, information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
US9829873B2 (en) Method and data presenting device for assisting a remote user to provide instructions
EP3014367B1 (en) Method and video communication device for transmitting video to a remote user
US6768563B1 (en) Image input system
US20130021433A1 (en) Overview configuration and control method for ptz cameras
JP4722537B2 (en) Monitoring device
JP7052583B2 (en) Monitoring system
JP5627092B2 (en) Security system
US20210166537A1 (en) Systems and methods for providing an immersive experience of a facility control room using virtual reality
JP5947568B2 (en) Camera control apparatus and computer program thereof
JP4516791B2 (en) Camera interlocking system, camera device, and camera interlocking control method
JP2005136774A (en) Camera surveillance system and program
JP3767615B2 (en) Surveillance camera device and monitoring camera display method
JP6612724B2 (en) Video surveillance system and surveillance video display method
JP2009049798A (en) Camera control method, camera control device, camera control program, and camera system
KR100689287B1 (en) Camera Control System In Use Of Tile Sensing and a Method Using Thereof
JPH0946694A (en) Automatic controller for monitor camera
JP4544136B2 (en) Surveillance camera
JP2012004630A (en) Monitor system
KR20110079953A (en) Method and apparatus for processing an object surveilance by setting a surveillance area
JP6072163B2 (en) Camera control apparatus and computer program thereof
US20230206737A1 (en) Navigable 3d view of a premises alarm event
JP2006148406A (en) Monitoring system
JP2023039508A (en) Video monitoring device, display control method, and video monitor system
JP2024035632A (en) Display methods, programs, display systems, disaster prevention coordination systems, and equipment coordination systems
JP2001036810A (en) Pan-tilt monitoring camera

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060404