JP2014030090A - Camera control device, camera control method, and camera control program - Google Patents

Camera control device, camera control method, and camera control program Download PDF

Info

Publication number
JP2014030090A
JP2014030090A JP2012169373A JP2012169373A JP2014030090A JP 2014030090 A JP2014030090 A JP 2014030090A JP 2012169373 A JP2012169373 A JP 2012169373A JP 2012169373 A JP2012169373 A JP 2012169373A JP 2014030090 A JP2014030090 A JP 2014030090A
Authority
JP
Japan
Prior art keywords
camera
data
monitoring point
unit
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012169373A
Other languages
Japanese (ja)
Inventor
Tadao Noda
忠雄 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012169373A priority Critical patent/JP2014030090A/en
Publication of JP2014030090A publication Critical patent/JP2014030090A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a camera control device which can easily inform a user of absence of a camera capable of imaging a subject when an imaging instruction is given.SOLUTION: A storage section (105) stores sketch data, camera icon data, camera arrangement position data, and imageable area data. A synthesis section (106) synthesizes a camera icon. An operation section (108) allows a user to set position data. A monitoring point setting section (109) sets a monitoring point according to the position data. A camera extraction section (109) extracts a camera which can image the monitoring point. A direction calculation section (109) calculates imaging direction data. A transmission section (101) transmits the imaging direction data to the camera. A monitoring point correction section (109)

Description

本発明は、カメラの撮像方向を制御するカメラ制御装置、カメラ制御方法及びカメラ制御プログラムに関する。   The present invention relates to a camera control device, a camera control method, and a camera control program that control the imaging direction of a camera.

水平方向の回動(パン)により撮像方向を変更する雲台を備えた雲台付きカメラを制御して、広い監視場所を監視できるよう構成した監視システムが知られている。   There is known a monitoring system configured to control a camera with a pan head having a pan head that changes an imaging direction by rotating (panning) in a horizontal direction so as to monitor a wide monitoring place.

このような監視システムにおいて、監視領域を示す電子地図を画面に表示するとともに、電子地図上のある一点を指示することにより、指示位置に最も近いカメラを選択してカメラの撮像画像を表示するとともに、指示した点を撮像するようにカメラのパンを制御する監視カメラ制御装置が提案されている(たとえば、特許文献1参照)。   In such a monitoring system, an electronic map indicating a monitoring area is displayed on the screen, and a certain point on the electronic map is indicated to select a camera closest to the indicated position and display a captured image of the camera. There has been proposed a surveillance camera control device that controls the pan of a camera so as to capture an instructed point (see, for example, Patent Document 1).

特開2002−077889号公報JP 2002-077889 A

特許文献1に記載の監視カメラ制御装置を用いれば、オペレーターは、目標とする被写体の電子地図上の位置をマウス等で指示することにより、被写体に最も近いカメラを用いて、カメラに目標とする被写体を撮像させることができる。   Using the surveillance camera control device described in Patent Document 1, an operator uses a mouse or the like to indicate the position of a target subject on an electronic map, and uses the camera closest to the subject to target the camera. The subject can be imaged.

ところが、従来の監視カメラ制御装置では、指示した被写体を撮像可能なカメラがない場合の考慮がされていない。そのため、オペレーターは、被写体の撮像指示を行ってもカメラが撮像を行わない場合、操作の失敗や装置の故障により動作をしないのか、撮像可能なカメラがないので動作をしないのかが容易にはわからないという問題があった。   However, in the conventional surveillance camera control device, no consideration is given to the case where there is no camera capable of imaging the instructed subject. For this reason, if the camera does not capture an image even if it is instructed to capture an image of an object, it is not easy to know whether it will not operate due to operation failure or device failure, or will not operate because there is no imageable camera. There was a problem.

そこで本発明の課題は、被写体の撮像指示を行ったとき、被写体を撮像可能なカメラがないことをユーザーに容易に知らせることのできるカメラ制御装置、カメラ制御方法及びカメラ制御プログラムを提供することにある。   Accordingly, an object of the present invention is to provide a camera control device, a camera control method, and a camera control program capable of easily notifying a user that there is no camera capable of imaging a subject when a subject imaging instruction is given. is there.

上記の課題を解決するために、本発明は以下の装置、方法、プログラムを提供するものである。
1)受信した撮像方向データに応じて撮像方向を変更可能な複数のカメラが設置された場所を示す見取り図を示す画像に対して操作を行ってカメラを制御するカメラ制御装置において、複数のカメラが配置された場所の見取り図データ(51)と、カメラアイコンデータ(52)と、複数のカメラの位置を示す配置位置データと、複数のカメラの撮像可能領域を示す撮像可能領域データとを記憶する記憶部(105)と、見取り図を示す画像上にカメラアイコンデータと配置位置データとに基づいてカメラアイコンを合成する合成部(106)と、合成部が合成した出力画像を出力する出力部(107)と、ユーザーに見取り図を示す画像上の位置を示す位置データを設定させる操作部(108)と、操作部により設定された位置データに応じて監視ポイントを設定する監視ポイント設定部(109)と、監視ポイント設定部が設定した監視ポイントと記憶部に記憶された撮像可能領域データとに応じて、複数のカメラから監視ポイントを撮像可能なカメラを抽出するカメラ抽出部(109)と、カメラ抽出部が抽出するカメラが監視ポイントを撮像する方向を示すデータを撮像方向データとして算出する方向算出部(109)と、撮像方向データをカメラ抽出部が抽出するカメラに送信する送信部(101)と、カメラ抽出部が撮像可能なカメラを選択できない場合、監視ポイントから最も近い撮像可能領域内の点を新たな監視ポイントとする監視ポイント修正部(109)とを備えることを特徴とするカメラ制御装置。
2)受信した撮像方向データに応じて撮像方向を変更可能な複数のカメラが設置された場所を示す見取り図を示す画像に対して操作を行ってカメラを制御するカメラ制御装置において、複数のカメラが配置された場所の見取り図データと、カメラアイコンデータと、複数のカメラの位置を示す配置位置データと、複数のカメラの撮像可能領域を示す撮像可能領域データとを記憶する記憶部と、見取り図を示す画像上にカメラアイコンデータと配置位置データとに基づいてカメラアイコンを合成する合成部と、合成部が合成した出力画像を出力する出力部と、ユーザーに見取り図を示す画像上の位置を示す位置データを設定させる操作部と、操作部により設定された位置データに応じて監視ポイントを設定する監視ポイント設定部と、監視ポイント設定部が設定した監視ポイントと記憶部に記憶された撮像可能領域データとに応じて、複数のカメラから監視ポイントを撮像可能なカメラを抽出するカメラ抽出部と、カメラ抽出部が抽出するカメラが監視ポイントを撮像する方向を示すデータを撮像方向データとして算出する方向算出部と、撮像方向データをカメラ抽出部が抽出するカメラに送信する送信部と、カメラ抽出部が撮像可能なカメラを選択できない場合、操作部による設定を取り消して監視ポイントを操作の前の状態にロールバックさせる監視ポイント修正部(109)とを備えることを特徴とするカメラ制御装置。
3)受信した撮像方向データに応じて撮像方向を変更可能な複数のカメラが設置された場所を示す見取り図を示す画像に対して操作を行ってカメラを制御するカメラ制御装置における制御方法であって、複数のカメラが配置された場所の見取り図データと、カメラアイコンデータと、複数のカメラの位置を示す配置位置データと、複数のカメラの撮像可能領域を示す撮像可能領域データとを記憶する記憶ステップと、見取り図を示す画像上にカメラアイコンデータと配置位置データとに基づいてカメラアイコンを合成する合成ステップと、合成ステップで合成された出力画像を出力する出力ステップと、ユーザーに見取り図を示す画像上の位置を示す位置データを設定させる操作ステップと、操作ステップで設定された位置データに応じて監視ポイントを設定する監視ポイント設定ステップと、監視ポイント設定ステップで設定された監視ポイントと記憶ステップで記憶された撮像可能領域データとに応じて、複数のカメラから監視ポイントを撮像可能なカメラを抽出するカメラ抽出ステップと、カメラ抽出部ステップで抽出されるカメラが監視ポイントを撮像する方向を示すデータを撮像方向データとして算出する方向算出ステップと、撮像方向データをカメラ抽出部が抽出するカメラに送信する送信ステップと、カメラ抽出部が撮像可能なカメラを選択できない場合、監視ポイントから最も近い撮像可能領域内の点を新たな監視ポイントとして設定する監視ポイント修正ステップとを含むことを特徴とするカメラ制御方法。
4)受信した撮像方向データに応じて撮像方向を変更可能な複数のカメラが設置された場所を示す見取り図を示す画像を操作してカメラを制御する機能をコンピューターに実現させるカメラ制御プログラムであって、複数のカメラが配置された場所の見取り図データと、カメラアイコンデータと、複数のカメラの位置を示す配置位置データと、複数のカメラの撮像可能領域を示す撮像可能領域データとを記憶部に記憶させる記憶機能と、見取り図を示す画像上にカメラアイコンデータと配置位置データとに基づいてカメラアイコンを合成する合成機能と、合成機能により合成された出力画像を出力する出力機能と、ユーザーに見取り図を示す画像上の位置を示す位置データを設定させる操作機能と、操作機能により設定された位置データに応じて監視ポイントを設定する監視ポイント設定機能と、監視ポイント設定機能により設定された監視ポイントと記憶機能により記憶された撮像可能領域データとに応じて、複数のカメラから監視ポイントを撮像可能なカメラを抽出するカメラ抽出機能と、カメラ抽出機能により抽出されるカメラが監視ポイントを撮像する方向を示すデータを撮像方向データとして算出する方向算出機能と、撮像方向データをカメラ抽出機能により抽出されるカメラに送信する送信機能と、カメラ抽出機能により撮像可能なカメラを選択できない場合、監視ポイントから最も近い撮像可能領域内の点を新たな監視ポイントとして設定する監視ポイント修正機能とをコンピューターに実現させることを特徴とするカメラ制御プログラム。
In order to solve the above problems, the present invention provides the following apparatus, method, and program.
1) In a camera control device that controls a camera by performing an operation on an image showing a sketch showing a place where a plurality of cameras capable of changing the imaging direction according to received imaging direction data is installed, A storage for storing sketch map data (51) of the place of placement, camera icon data (52), placement position data indicating the positions of a plurality of cameras, and imageable area data indicating the imageable areas of the plurality of cameras. Unit (105), a combining unit (106) for combining camera icons on the image showing the floor plan based on the camera icon data and the arrangement position data, and an output unit (107) for outputting the output image combined by the combining unit And an operation unit (108) for allowing the user to set position data indicating the position on the image showing the sketch, and the position data set by the operation unit. The monitoring point can be imaged from a plurality of cameras according to the monitoring point setting unit (109) for setting the monitoring point, the monitoring point set by the monitoring point setting unit, and the imageable area data stored in the storage unit A camera extraction unit (109) that extracts a camera, a direction calculation unit (109) that calculates data indicating the direction in which the camera extracted by the camera extraction unit captures a monitoring point, as imaging direction data, and camera extraction of the imaging direction data A transmission point (101) that is transmitted to the camera extracted by the unit, and a monitoring point correction unit that uses a point in the imageable area closest to the monitoring point as a new monitoring point when the camera extraction unit cannot select a camera that can be imaged (109). A camera control device comprising:
2) In a camera control device that controls a camera by performing an operation on an image showing a sketch showing a place where a plurality of cameras capable of changing the imaging direction according to received imaging direction data is installed, The storage part which memorize | stores the floor plan data of the arrange | positioned place, camera icon data, the arrangement | positioning position data which shows the position of several cameras, and the image pickup possible area | region data which shows the image pickup possible area | region of several cameras is shown, A composition unit that synthesizes a camera icon on the image based on the camera icon data and the arrangement position data, an output unit that outputs an output image synthesized by the composition unit, and position data that indicates a position on the image that shows a sketch to the user An operation unit for setting a monitoring point, a monitoring point setting unit for setting a monitoring point according to position data set by the operation unit, and a monitoring point A camera extraction unit for extracting a camera capable of imaging a monitoring point from a plurality of cameras, and a camera extracted by the camera extraction unit in accordance with the monitoring point set by the camera setting unit and the imageable area data stored in the storage unit Selects a direction calculation unit that calculates data indicating the direction in which the monitoring point is imaged as imaging direction data, a transmission unit that transmits the imaging direction data to the camera that the camera extraction unit extracts, and a camera that can be imaged by the camera extraction unit A camera control device comprising: a monitoring point correction unit (109) that cancels the setting by the operation unit and rolls back the monitoring point to a state before the operation if it cannot be performed.
3) A control method in a camera control apparatus for controlling a camera by operating an image showing a sketch showing a place where a plurality of cameras capable of changing the imaging direction according to received imaging direction data is installed. A storage step of storing floor plan data of a place where a plurality of cameras are arranged, camera icon data, arrangement position data indicating the positions of the plurality of cameras, and imageable area data indicating the imageable areas of the plurality of cameras A composition step for compositing the camera icon on the image showing the floor plan based on the camera icon data and the arrangement position data, an output step for outputting the output image synthesized in the compositing step, and an image showing the floor plan for the user An operation step for setting position data indicating the position of the position and monitoring according to the position data set in the operation step. A camera capable of imaging a monitoring point is extracted from a plurality of cameras according to the monitoring point setting step for setting the point, the monitoring point set in the monitoring point setting step, and the imageable area data stored in the storage step A camera extraction step, a direction calculation step for calculating data indicating the direction in which the camera extracted at the camera extraction unit step captures the monitoring point as imaging direction data, and the imaging direction data are transmitted to the camera extracted by the camera extraction unit And a monitoring point correcting step of setting a point in the imageable area closest to the monitoring point as a new monitoring point when the camera extracting unit cannot select a camera that can be imaged. Method.
4) A camera control program for causing a computer to realize a function of controlling a camera by manipulating an image showing a sketch showing a place where a plurality of cameras capable of changing an imaging direction according to received imaging direction data is installed. The storage unit stores sketch map data of a place where a plurality of cameras are arranged, camera icon data, arrangement position data indicating the positions of the plurality of cameras, and imageable area data indicating the imageable areas of the plurality of cameras. Storage function, a composition function for compositing a camera icon based on camera icon data and arrangement position data on an image showing a floor plan, an output function for outputting an output image synthesized by the compositing function, and a floor plan for the user An operation function for setting position data indicating the position on the image to be displayed, and the position data set by the operation function. A camera that can capture a monitoring point from a plurality of cameras according to the monitoring point setting function for setting the monitoring point and the monitoring point set by the monitoring point setting function and the imageable area data stored by the storage function. A camera extraction function to extract, a direction calculation function to calculate data indicating a direction in which the camera extracted by the camera extraction function captures a monitoring point as imaging direction data, and a camera from which the imaging direction data is extracted by the camera extraction function When the transmission function to transmit and the camera that can be imaged by the camera extraction function cannot be selected, the computer is realized with a monitoring point correction function that sets a point within the imageable area closest to the monitoring point as a new monitoring point. Feature camera control program.

本発明のカメラ制御装置、カメラ制御方法及びカメラ制御プログラムによれば、被写体の撮像指示を行ったとき、被写体を撮像可能なカメラがないことをユーザーに容易に知らせることができる。   According to the camera control device, the camera control method, and the camera control program of the present invention, it is possible to easily notify the user that there is no camera that can image a subject when an instruction for imaging the subject is issued.

本発明のカメラ制御装置の一実施形態であるカメラ制御端末のブロック構成図である。It is a block block diagram of the camera control terminal which is one Embodiment of the camera control apparatus of this invention. カメラ制御端末で制御する監視カメラのブロック構成図である。It is a block block diagram of the surveillance camera controlled by a camera control terminal. カメラ制御端末を用いた監視システムのシステム構成図である。It is a system configuration figure of a surveillance system using a camera control terminal. カメラ制御端末におけるカメラ制御の手順を示すフローチャートである。It is a flowchart which shows the procedure of the camera control in a camera control terminal. カメラ制御端末の合成処理部が合成する見取り図である。It is a sketch which the synthetic | combination process part of a camera control terminal synthesize | combines. 監視カメラの撮像可能領域の例である。It is an example of the imaging possible area | region of a surveillance camera. 操作アイコンによる制御を説明する模式図である。It is a schematic diagram explaining control by an operation icon. 第2実施例における操作アイコンによる制御を説明する模式図である。It is a schematic diagram explaining the control by the operation icon in 2nd Example. 第3実施例における操作アイコンによる制御を説明する模式図である。It is a schematic diagram explaining the control by the operation icon in 3rd Example. 第3実施例におけるカメラ制御端末におけるカメラ制御の手順を示すフローチャートである。It is a flowchart which shows the procedure of the camera control in the camera control terminal in 3rd Example.

以下、本発明のカメラ制御装置の一実施形態であるカメラ制御端末について、添付図面を参照して説明する。
[カメラ制御端末の構成]
本発明の一実施形態のカメラ制御端末10について、図1に基づき説明する。図1はカメラ制御端末10のブロック構成図である。カメラ制御端末10は、たとえば汎用のパーソナルコンピューターに制御用のアプリケーションソフトウェアをインストールしたものであり、後述の複数(本実施例では5台)の監視カメラ20a、20b、20c、20d、20eの撮像画像を閲覧したり制御する端末である。なお、複数の監視カメラ20a、20b、20c、20d、20eを総称するときは監視カメラ20と呼ぶ。
Hereinafter, a camera control terminal which is an embodiment of a camera control device of the present invention will be described with reference to the accompanying drawings.
[Camera control terminal configuration]
A camera control terminal 10 according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of the camera control terminal 10. The camera control terminal 10 is obtained, for example, by installing application software for control in a general-purpose personal computer, and captured images of a plurality of surveillance cameras 20a, 20b, 20c, 20d, and 20e described later (five in this embodiment). It is a terminal that browses and controls. Note that the plurality of monitoring cameras 20a, 20b, 20c, 20d, and 20e are collectively referred to as the monitoring camera 20.

カメラ制御端末10において、通信処理部101は、監視カメラ20のうち後述の制御部109によって指示された監視カメラ、たとえば監視カメラ20aと通信を行い、監視カメラ20aから送られる撮像画像データ、ズームデータ、パンデータを受信する。通信処理部101はまた、監視カメラ20aへパン指示データ、ズーム指示データを送信する。このように通信処理部101は、本実施形態における受信部の一態様であるとともに送信部の一態様である。   In the camera control terminal 10, the communication processing unit 101 communicates with a monitoring camera instructed by the control unit 109 described later among the monitoring cameras 20, for example, the monitoring camera 20 a, and captured image data and zoom data transmitted from the monitoring camera 20 a. , Receive pan data. The communication processing unit 101 also transmits pan instruction data and zoom instruction data to the monitoring camera 20a. As described above, the communication processing unit 101 is an aspect of the reception unit and an aspect of the transmission unit in the present embodiment.

復号処理部102は、通信処理部101で受信した、JPEGやMPEG−4などの規格でディジタル画像圧縮された撮像画像データを復号し、出力部107へ送る。   The decoding processing unit 102 decodes the captured image data received by the communication processing unit 101 and compressed with a digital image in accordance with a standard such as JPEG or MPEG-4, and sends it to the output unit 107.

制御部109はさらにズームデータ処理部103とパンデータ処理部104を備えている。パンデータ処理部104は、通信処理部101を通して、監視カメラ20からパンデータを取得して、記憶部105へ送る。パンデータとは監視カメラ20のパン方向の撮像方向を示すデータであり、たとえば水平方向の角度データである。パンデータ処理部104はまた、操作部108からの入力と記憶部105のデータとから、パン方向を変更するためのパン指示データを算出し、通信処理部101へ送る。   The control unit 109 further includes a zoom data processing unit 103 and a pan data processing unit 104. The pan data processing unit 104 acquires pan data from the monitoring camera 20 through the communication processing unit 101 and sends the pan data to the storage unit 105. The pan data is data indicating the imaging direction of the surveillance camera 20 in the pan direction, for example, horizontal angle data. The pan data processing unit 104 also calculates pan instruction data for changing the pan direction from the input from the operation unit 108 and the data in the storage unit 105, and sends the pan instruction data to the communication processing unit 101.

ズームデータ処理部103は、通信処理部101を通して監視カメラ20からズームデータを取得して、記憶部105へ送る。ズームデータとは監視カメラ20のズームレンズ208の焦点距離を示すデータである。ズームデータ処理部103はまた、操作部108からの入力と記憶部105のデータとから、ズームレンズ208の焦点距離を変更するためのズーム指示データを算出し、通信処理部101へ送る。   The zoom data processing unit 103 acquires zoom data from the monitoring camera 20 through the communication processing unit 101 and sends it to the storage unit 105. The zoom data is data indicating the focal length of the zoom lens 208 of the monitoring camera 20. The zoom data processing unit 103 also calculates zoom instruction data for changing the focal length of the zoom lens 208 from the input from the operation unit 108 and the data in the storage unit 105, and sends the zoom instruction data to the communication processing unit 101.

記憶部105は半導体メモリやハードディスクドライブなどで構成されており、あらかじめ見取り図データとカメラアイコンデータと操作アイコンデータの画像データと、複数の監視カメラ20それぞれについてのカメラ位置データと撮像可能領域データと、後述する操作アイコンの位置データと方向データとを記憶している。見取り図データとは、監視カメラ20が設置され、監視を行っている店舗などの領域全体を示す見取り図のデータである。カメラ位置データとは、監視カメラ20の位置、すなわち見取り図上の座標を示すデータである。撮像可能領域データとは、見取り図上で監視カメラ20が撮像可能な領域を示すデータである。   The storage unit 105 includes a semiconductor memory, a hard disk drive, and the like, and includes sketch data, camera icon data, operation icon data, camera position data and imageable area data for each of the plurality of monitoring cameras 20, Operation icon position data and direction data, which will be described later, are stored. The floor plan data is data of a floor plan showing the entire area such as a store where the monitoring camera 20 is installed and monitoring. The camera position data is data indicating the position of the monitoring camera 20, that is, coordinates on the floor plan. The imageable area data is data indicating an area that can be imaged by the monitoring camera 20 on the floor plan.

記憶部105はさらに、パンデータ処理部104から送られたパンデータと、ズームデータ処理部103から送られたズームデータとを記憶する。記憶部105はこれらの記憶したデータを、必要に応じて提供する。   The storage unit 105 further stores the pan data sent from the pan data processing unit 104 and the zoom data sent from the zoom data processing unit 103. The storage unit 105 provides these stored data as necessary.

合成処理部106は、復号処理部102で復号処理を行った撮像画像データと、記憶部105に記憶されている見取り図データと、後述のカメラアイコンデータと、操作アイコンデータ等とを合成し、出力画像データを生成する。   The synthesis processing unit 106 synthesizes the captured image data that has been decoded by the decoding processing unit 102, the sketch data stored in the storage unit 105, camera icon data, which will be described later, operation icon data, and the like, and outputs them. Generate image data.

出力部107は、合成処理部106で合成した出力画像データを出力する。出力部107には、液晶モニターやプロジェクタなどの画像表示装置40が接続されているので、出力部107が出力した出力画像データが画像表示装置40に表示される。   The output unit 107 outputs the output image data synthesized by the synthesis processing unit 106. Since the image display device 40 such as a liquid crystal monitor or a projector is connected to the output unit 107, the output image data output from the output unit 107 is displayed on the image display device 40.

操作部108はマウスやタッチパネル、キーボードなどで構成されており、オペレーターが画像表示装置40に表示された出力画像データをみながら操作部108を操作して、種々の指示を行う。たとえば、オペレーターが操作部108を用いて画像表示装置40に表示された出力画像の中の見取り図上の一点を選択したりドラッグすることができる。
[監視カメラの構成]
図2は、カメラ制御端末10で制御する監視カメラ20のブロック構成図の例である。本実施形態における監視カメラ20はネットワークカメラであり、撮像した画像をネットワークを介して送信したり、ネットワークを介して受信した制御信号にしたがって撮像方向を変更したりする。
The operation unit 108 includes a mouse, a touch panel, a keyboard, and the like, and an operator operates the operation unit 108 while viewing output image data displayed on the image display device 40 to give various instructions. For example, the operator can select or drag one point on the floor plan in the output image displayed on the image display device 40 using the operation unit 108.
[Configuration of surveillance camera]
FIG. 2 is an example of a block configuration diagram of the monitoring camera 20 controlled by the camera control terminal 10. The monitoring camera 20 in this embodiment is a network camera, and transmits a captured image via a network or changes an imaging direction according to a control signal received via the network.

撮像部201は、周囲の被写体を撮像し、撮像した画像を圧縮部202へ送る。圧縮部202は、撮像部201で撮像した画像を、たとえばJPEG(Joint Picture Expert Group)やMPEG(Moving Picture Expert Group)−4などの規格でディジタル画像圧縮し、通信部203へ送る。   The imaging unit 201 captures a surrounding subject and sends the captured image to the compression unit 202. The compression unit 202 compresses a digital image of the image captured by the imaging unit 201 according to a standard such as JPEG (Joint Picture Expert Group) or MPEG (Moving Picture Expert Group) -4, and sends the compressed image to the communication unit 203.

パン角度センサー206は、現在の撮像部201の撮像方向の水平方向の角度データを、パンデータとして出力する。ズームセンサー209は、現在のズームレンズ208の焦点距離を示すデータを、ズームデータとして出力する。   The pan angle sensor 206 outputs angle data in the horizontal direction of the imaging direction of the current imaging unit 201 as pan data. The zoom sensor 209 outputs data indicating the current focal length of the zoom lens 208 as zoom data.

通信部203は、要求に応じて、圧縮部202で圧縮された撮像画像データと、パンデータと、ズームデータとを、カメラ制御端末10へ送信する。通信部203はまた、カメラ制御端末10から送信されるパン指示データとズーム指示データとを受信して、制御部204へ送る。   The communication unit 203 transmits the captured image data, pan data, and zoom data compressed by the compression unit 202 to the camera control terminal 10 in response to a request. The communication unit 203 also receives pan instruction data and zoom instruction data transmitted from the camera control terminal 10 and sends them to the control unit 204.

制御部204は、通信部203が受信したパン指示データとズーム指示データとに応じて、雲台駆動部205にパンをさせるための制御信号を送ったり、ズームレンズ駆動部207へズームレンズ208を駆動するための制御信号を送ったりする。   The control unit 204 sends a control signal for causing the pan head drive unit 205 to pan in accordance with the pan instruction data and zoom instruction data received by the communication unit 203, and sends the zoom lens 208 to the zoom lens drive unit 207. Send a control signal to drive.

雲台駆動部205は、制御部204から送られる制御信号にしたがって、撮像部201をパンさせて、撮像方向を変更する。   The pan / tilt head driving unit 205 pans the imaging unit 201 in accordance with a control signal sent from the control unit 204 and changes the imaging direction.

ズームレンズ駆動部207は、制御部204から送られる制御信号にしたがって、ズームレンズ208を駆動してズームレンズ208の焦点距離を変更する。   The zoom lens driving unit 207 changes the focal length of the zoom lens 208 by driving the zoom lens 208 according to the control signal sent from the control unit 204.

[監視システムの構成]
カメラ制御端末10と監視カメラ20とを用いた監視システムについて、図3に基づき説明する。図3の監視システムは店舗の内部を監視する監視システムの例である。店舗の内部を監視するための複数(本実施例では5台)の監視カメラ20a、20b、20c、20d、20eと、監視カメラ20のズームやパンを制御したり、監視カメラ20で撮像した画像を閲覧したりするためのカメラ制御端末10とがネットワーク30を通して接続されている。カメラ制御端末10には、カメラ制御端末10が出力する画像データを表示する液晶モニターやプロジェクタなどの画像表示装置40が接続されている。
[Monitoring system configuration]
A monitoring system using the camera control terminal 10 and the monitoring camera 20 will be described with reference to FIG. The monitoring system in FIG. 3 is an example of a monitoring system that monitors the inside of a store. A plurality (five in this embodiment) of monitoring cameras 20a, 20b, 20c, 20d, and 20e for monitoring the inside of the store, and zooming and panning of the monitoring camera 20, and images captured by the monitoring camera 20 Or the camera control terminal 10 for browsing the network. The camera control terminal 10 is connected to an image display device 40 such as a liquid crystal monitor or a projector that displays image data output from the camera control terminal 10.

監視カメラ20は、店舗の内部を見渡せるよう、天井や壁面の高所などに取り付けられている。カメラ制御端末10は、監視カメラ20と同じ店舗の内部に設置したり、警備員室などに設置したり、遠隔地の警備会社に設置してもよい。   The monitoring camera 20 is attached to a ceiling or a high place on the wall surface so that the inside of the store can be looked at. The camera control terminal 10 may be installed in the same store as the monitoring camera 20, installed in a security room, or installed in a remote security company.

ネットワーク30はルーターやハブなどのネットワーク機器から構成されている。カメラ制御端末10と監視カメラ20とは、LAN(Local Area Network)ケーブルを介してネットワーク30と接続されており、ネットワーク30を介してカメラ制御端末10と監視カメラ20とが相互に通信を行う。なお、カメラ制御端末10と監視カメラ20との通信手段は、LANケーブルを介した通信に限らず、無線LANや携帯電話回線など他の通信手段であってもよい。   The network 30 includes network devices such as routers and hubs. The camera control terminal 10 and the monitoring camera 20 are connected to the network 30 via a LAN (Local Area Network) cable, and the camera control terminal 10 and the monitoring camera 20 communicate with each other via the network 30. Note that the communication means between the camera control terminal 10 and the monitoring camera 20 is not limited to communication via a LAN cable, but may be other communication means such as a wireless LAN or a mobile phone line.

図5は合成処理部106が合成して生成した出力画像データの表示の例である。監視カメラ20a、20b、20c、20d、20eの設置位置に応じた見取り図51上の位置にカメラアイコン52a、52b、52c、52d、52eが合成されている。なお、カメラアイコン52a、52b、52c、52d、52eには、それぞれ対応する監視カメラ20が撮像可能な領域として、撮像可能領域61a、62b、62c、62d、62eが定められている。監視カメラ20aに対応するカメラアイコン52aとその撮像可能領域61aを図6a)に示す。同様に監視カメラ20b〜20eに対応するカメラアイコン52b〜52eとその撮像可能領域61b〜61eを図6b)〜図6e)に示す。   FIG. 5 is an example of display of output image data generated by the synthesis processing unit 106. Camera icons 52a, 52b, 52c, 52d, and 52e are combined at positions on the sketch 51 corresponding to the installation positions of the monitoring cameras 20a, 20b, 20c, 20d, and 20e. The camera icons 52a, 52b, 52c, 52d, and 52e have imageable areas 61a, 62b, 62c, 62d, and 62e as areas that can be captured by the corresponding monitoring cameras 20. A camera icon 52a corresponding to the monitoring camera 20a and its imageable area 61a are shown in FIG. 6a). Similarly, camera icons 52b to 52e corresponding to the monitoring cameras 20b to 20e and their imageable areas 61b to 61e are shown in FIGS. 6b) to 6e).

見取り図データとカメラアイコンデータと操作アイコンデータの画像データと、複数の監視カメラ20それぞれについてのカメラ位置データと撮像可能領域データと、操作アイコンの位置データと方向データとは、記憶部105に記憶されている。合成処理部106はこれらの記憶部105に記憶されているデータに基づいて図5に示す出力画像データを生成する。合成処理部106はさらに、操作アイコンを合成する。操作アイコンとは位置と方向の属性を備えたオブジェクトであり、たとえばキャラクターや矢印などを用いることが出来る。本実施例では、合成処理部106は、操作アイコンとしてキャラクター53を見取り図51の、たとえば初期画面では外側に合成する。図5b)にキャラクター53の例を示す。キャラクター53の顔が向いた方向である、キャラクター53から伸びる矢印54をキャラクター53の方向、矢印54の角度55をキャラクター53の角度とする。角度55は、図5b)に示すように水平方向を規準として左回りを正の角度とする。キャラクター53から矢印54の方向に所定の距離はなれた点を点56とする。また、キャラクター53には中央付近に設けられた移動用領域57と、その外側に設けられた回転用領域58とが設定されている。図5b)では、移動用領域57を縦線で示し、回転用領域58を横線で示している。移動用領域57を上下左右にドラッグするとこれを検知した制御部109が合成処理部106に指示することにより、キャラクターが上下左右に移動し、回転用領域58をドラッグすると、キャラクターは上下左右には移動せず回転するものとする。   The floor plan data, the camera icon data, and the operation icon data image data, the camera position data and the imageable area data for each of the plurality of monitoring cameras 20, the operation icon position data and the direction data are stored in the storage unit 105. ing. The synthesis processing unit 106 generates output image data shown in FIG. 5 based on the data stored in the storage unit 105. The composition processing unit 106 further composes operation icons. An operation icon is an object having attributes of position and direction, and for example, a character or an arrow can be used. In the present embodiment, the composition processing unit 106 looks at the character 53 as an operation icon and composes it on the outside of the drawing 51 of the initial screen, for example. An example of the character 53 is shown in FIG. The arrow 54 extending from the character 53, which is the direction in which the character 53 faces, is the character 53 direction, and the angle 55 of the arrow 54 is the character 53 angle. As shown in FIG. 5 b), the angle 55 is a positive angle in the counterclockwise direction with the horizontal direction as a reference. A point that is a predetermined distance away from the character 53 in the direction of the arrow 54 is defined as a point 56. The character 53 has a moving area 57 provided near the center and a rotating area 58 provided outside the character 53. In FIG. 5b), the movement area 57 is indicated by a vertical line, and the rotation area 58 is indicated by a horizontal line. When the movement area 57 is dragged up, down, left and right, the control unit 109 that detects this drags the composition processing section 106 to move the character up, down, left and right. When the rotation area 58 is dragged, the character moves up, down, left and right. It shall rotate without moving.

合成処理部106は監視カメラ20の撮像画像を合成することも好適である。その場合、監視カメラ20の撮像画像を通信処理部101で受信して復号処理部で復号し、合成処理部106で出力画像データに合成する。合成の態様としてはすべての監視カメラ20の撮像画像をサムネイル表示したり、選択した監視カメラ20の画像を大きく表示してもよい。なお本実施の形態では撮像画像の合成については詳細な説明を省略する。   It is also preferable that the combination processing unit 106 combines the captured images of the monitoring camera 20. In that case, the captured image of the monitoring camera 20 is received by the communication processing unit 101, decoded by the decoding processing unit, and combined with the output image data by the combining processing unit 106. As a composite mode, the captured images of all the monitoring cameras 20 may be displayed as thumbnails, or the images of the selected monitoring cameras 20 may be displayed in a large size. In the present embodiment, detailed description of the composition of the captured image is omitted.

[カメラ制御端末によるカメラの制御方法]
[第1実施例]
本発明の第1実施例について、図7の模式図を用いて以下に説明する。通信処理部101は、監視カメラ20の制御信号として、水平方向の角度の指示値を送信するものとする。初期状態で見取り図51の外側に配置されたキャラクター53をキャラクター53xと呼び、その後に移動するキャラクター53をキャラクター53y、キャラクター53zと呼ぶ。キャラクター53x、53y、53zに関連する符号にはそれぞれx、y、zを付すこととする。
[Camera control method by camera control terminal]
[First embodiment]
A first embodiment of the present invention will be described below with reference to the schematic diagram of FIG. It is assumed that the communication processing unit 101 transmits an instruction value for the angle in the horizontal direction as a control signal for the monitoring camera 20. The character 53 arranged outside the sketch 51 in the initial state is called a character 53x, and the character 53 that moves thereafter is called a character 53y and a character 53z. Suppose that x, y, z are attached | subjected to the code | symbol relevant to the characters 53x, 53y, 53z, respectively.

オペレーターはマウスや十字キー、タッチパネルなどの操作部108を用いて見取り図の外に配置されたキャラクター53xの移動用領域57xを見取り図51内にドラッグする。すると制御部109はキャラクター53xが操作されたことを検知し(ステップS401)、検知したドラッグのデータを記憶部105に記憶するとともに合成処理部106に送る。合成処理部106は、ドラッグのデータに応じてキャラクター53xを見取り図51上へと移動させてキャラクター53yとする(ステップS402)。   The operator uses the operation unit 108 such as a mouse, a cross key, or a touch panel to view and drag the moving region 57x of the character 53x arranged outside the sketch to the diagram 51. Then, the control unit 109 detects that the character 53x has been operated (step S401), stores the detected drag data in the storage unit 105, and sends it to the composition processing unit 106. The composition processing unit 106 looks at the character 53x according to the drag data and moves the character 53x onto the drawing 51 to obtain the character 53y (step S402).

またオペレーターが操作部108を用いてキャラクター53yの回転用領域58yをドラッグしたときは、制御部109はこれを検知して、検知したドラッグのデータを記憶部105に記憶するとともに合成処理部106に送る。合成処理部106は、キャラクター53yを回転させてキャラクター53zとする。   When the operator drags the rotation region 58y of the character 53y using the operation unit 108, the control unit 109 detects this, stores the detected drag data in the storage unit 105, and stores it in the composition processing unit 106. send. The composition processing unit 106 rotates the character 53y to become the character 53z.

制御部109はキャラクター53zに対する操作が終了したら、キャラクター53zから矢印54zの方向に所定の距離離れた点56zの座標を計算し、監視ポイント71とする。また、キャラクター53zの角度55zを監視角度72とする(ステップS403)。   When the operation on the character 53z is completed, the control unit 109 calculates the coordinates of the point 56z that is a predetermined distance away from the character 53z in the direction of the arrow 54z and sets it as the monitoring point 71. Further, the angle 55z of the character 53z is set as the monitoring angle 72 (step S403).

そして、監視ポイント71の座標と、記憶部105に記憶されている監視カメラ20の撮像可能領域61とを照合する(ステップS404)。監視ポイント71の座標を撮像可能領域61に含む監視カメラ20がない場合は「指定された箇所を撮像できるカメラがありません」などといった警告を表示して処理を終了する(ステップS405)。   Then, the coordinates of the monitoring point 71 and the imageable area 61 of the monitoring camera 20 stored in the storage unit 105 are collated (step S404). If there is no monitoring camera 20 that includes the coordinates of the monitoring point 71 in the imageable area 61, a warning such as “There is no camera that can image the designated location” is displayed and the process ends (step S405).

制御部109のパンデータ処理部104は、監視ポイント71の座標を撮像可能領域61に含む監視カメラ20について、記憶部105から読み出した監視カメラ20の座標と監視ポイント71の座標とから、監視カメラ20が監視ポイント71を撮像するための撮像方向の角度を算出する(ステップS406)。カメラアイコン52から監視ポイント71への方向を示したものを矢印73、このときの角度を角度74とする。監視ポイント71の座標を撮像可能領域61に含む監視カメラ20が複数ある場合は、それぞれについて角度74を算出する。   The pan data processing unit 104 of the control unit 109 monitors the monitoring camera 20 that includes the coordinates of the monitoring point 71 in the imageable area 61 from the coordinates of the monitoring camera 20 read from the storage unit 105 and the coordinates of the monitoring point 71. 20 calculates the angle of the imaging direction for imaging the monitoring point 71 (step S406). An arrow 73 indicates the direction from the camera icon 52 to the monitoring point 71, and the angle at this time is an angle 74. When there are a plurality of monitoring cameras 20 including the coordinates of the monitoring point 71 in the imageable region 61, the angle 74 is calculated for each.

制御部109は、監視ポイント71の座標を撮像可能領域61に含む監視カメラ20が複数台ある場合(ステップS407:Yes)、パンデータ処理部104で算出したそれぞれの監視カメラ20の撮像方向の角度74を監視角度72と比較し、最も角度が近い監視カメラ20を操作対象の監視カメラとして選択する(ステップS408)。   When there are a plurality of monitoring cameras 20 that include the coordinates of the monitoring point 71 in the imageable area 61 (step S407: Yes), the control unit 109 calculates the angle of the imaging direction of each monitoring camera 20 calculated by the pan data processing unit 104. 74 is compared with the monitoring angle 72, and the monitoring camera 20 with the closest angle is selected as the monitoring camera to be operated (step S408).

図7において、キャラクター71bの監視ポイント71は撮像可能領域61aと撮像可能領域61dとに含まれる。そこでカメラアイコン52aから監視ポイント71への方向を示す矢印73aの角度74aを求める。またカメラアイコン52dから監視ポイント71への方向を示す矢印73dの角度74dを求める。図7からわかるように、角度74dのほうが角度74aよりも監視角度72に近い。そこで制御部109は操作対象のカメラとして、カメラアイコン52dに対応した監視カメラ20dを選択する。   In FIG. 7, the monitoring point 71 of the character 71b is included in an imageable area 61a and an imageable area 61d. Therefore, an angle 74a of an arrow 73a indicating the direction from the camera icon 52a to the monitoring point 71 is obtained. Further, an angle 74d of an arrow 73d indicating a direction from the camera icon 52d to the monitoring point 71 is obtained. As can be seen from FIG. 7, the angle 74d is closer to the monitoring angle 72 than the angle 74a. Therefore, the control unit 109 selects the monitoring camera 20d corresponding to the camera icon 52d as the operation target camera.

操作対象の監視カメラとして監視カメラ20dを選択したら、制御部109は操作対象の監視カメラ20dに対して、先ほど算出した角度74dを通信処理部101から送信する(ステップS409)。   When the monitoring camera 20d is selected as the operation target monitoring camera, the control unit 109 transmits the previously calculated angle 74d from the communication processing unit 101 to the operation target monitoring camera 20d (step S409).

以上のように、制御部109は、位置データと方向データとに応じて監視ポイントを設定する監視ポイント設定部として機能し得る。また制御部109は、監視ポイントを撮像可能なカメラを抽出するカメラ抽出部として機能し得る。また制御部109は、カメラ抽出部が抽出したカメラが複数あった場合、撮像方向データが操作オブジェクトの方向データと最も近い一のカメラを選択するカメラ選択部として機能し得る。また制御部109は、監視ポイントを撮像する撮像方向データを算出する方向算出部として機能し得る。   As described above, the control unit 109 can function as a monitoring point setting unit that sets monitoring points according to position data and direction data. In addition, the control unit 109 can function as a camera extraction unit that extracts a camera that can capture an image of the monitoring point. Further, when there are a plurality of cameras extracted by the camera extraction unit, the control unit 109 can function as a camera selection unit that selects one camera whose imaging direction data is closest to the direction data of the operation object. Further, the control unit 109 can function as a direction calculation unit that calculates imaging direction data for imaging the monitoring point.

監視カメラ20dは、通信部203で角度74dを受信して制御部204へ送る。制御部204は受け取った角度74dを雲台駆動部205に送り、雲台を駆動する。そしてパン角度センサー206の出力が送られた角度74dと一致したら雲台駆動部205への指示をやめ、雲台を停止させる。これにより撮像部201は監視ポイント71を撮像することとなる。監視カメラ20dは撮像部201で撮像した画像を圧縮部202で圧縮し通信部203から送信するので、カメラ制御端末10はこれを通信処理部101で受信して、復号処理部102で復号して合成処理部106で合成して出力部107から出力し、画像表示装置40に表示させる。   The monitoring camera 20 d receives the angle 74 d by the communication unit 203 and sends it to the control unit 204. The control unit 204 sends the received angle 74d to the pan head driving unit 205 to drive the pan head. When the output of the pan angle sensor 206 matches the sent angle 74d, the instruction to the pan head drive unit 205 is stopped and the pan head is stopped. As a result, the imaging unit 201 images the monitoring point 71. Since the monitoring camera 20d compresses the image captured by the image capturing unit 201 by the compression unit 202 and transmits it from the communication unit 203, the camera control terminal 10 receives this by the communication processing unit 101 and decodes it by the decoding processing unit 102. The image is synthesized by the synthesis processing unit 106 and output from the output unit 107 to be displayed on the image display device 40.

このようにして、所望の地点を所望の方向に最も近い方向で撮像した画像を表示させることが出来る。   In this way, it is possible to display an image obtained by capturing a desired point in a direction closest to the desired direction.

制御部109はまた、操作対象の監視カメラ20と監視ポイント71との距離を算出し、算出した距離に応じてズームデータ処理部103でズームレンズの焦点距離を算出し、算出した焦点距離を角度74dとあわせて通信処理部101から送信してもよい。焦点距離の指示を受けた監視カメラ20は、雲台の駆動と同様に、ズームセンサー209の出力が指示された焦点距離と一致するよう、ズームレンズ駆動部207がズームレンズ208を駆動して焦点距離を変更する。これにより、たとえば監視カメラ20が監視ポイント71との距離が離れている場合は焦点距離を長くし、監視ポイント71との距離が近い場合は焦点距離を短くして、被写体を常に同じような大きさで撮像することができる。
[第2実施例]
本発明の第2実施例について、図8の模式図を用いて以下に説明する。本実施例では、第1実施例と異なる点について詳細に説明し、第1実施例と同様な点については説明を省略する。
The control unit 109 also calculates the distance between the monitoring camera 20 to be operated and the monitoring point 71, calculates the focal length of the zoom lens by the zoom data processing unit 103 according to the calculated distance, and sets the calculated focal length to the angle. It may be transmitted from the communication processing unit 101 together with 74d. The monitoring camera 20 that has received the instruction of the focal length is driven by the zoom lens driving unit 207 so that the output of the zoom sensor 209 coincides with the instructed focal length in the same manner as the pan head drive. Change the distance. Thus, for example, when the distance between the monitoring camera 20 and the monitoring point 71 is long, the focal length is increased, and when the distance from the monitoring point 71 is short, the focal length is shortened so that the subject is always made the same size. Now you can take an image.
[Second Embodiment]
A second embodiment of the present invention will be described below with reference to the schematic diagram of FIG. In the present embodiment, differences from the first embodiment will be described in detail, and descriptions of points similar to the first embodiment will be omitted.

第2実施例では、監視カメラ20を制御するために位置と方向とを指示する操作部108の別の例として、マウスや十字キー、タッチパネルなどのポインティングデバイスで、ドラッグを行う。カメラを制御したい場合は、オペレーターはまずマウスや十字キー、タッチパネルなどのポインティングデバイスで、図8に示す画面上の点81を選択する。そして選択したままの状態でポインティングデバイスを所望の方向に移動するドラッグを行って、点82で選択を解除する。タッチパネルを用いる場合は、画面の見取り図上の一点に指を接触させてそのまま点81で長押しを行い、接触したまま指を移動させて点82で指を離せばよい。   In the second embodiment, dragging is performed with a pointing device such as a mouse, a cross key, or a touch panel as another example of the operation unit 108 for instructing the position and direction in order to control the monitoring camera 20. To control the camera, the operator first selects a point 81 on the screen shown in FIG. 8 with a pointing device such as a mouse, a cross key, or a touch panel. Then, the drag is performed to move the pointing device in a desired direction while keeping the selection, and the selection is canceled at point 82. In the case of using the touch panel, a finger is brought into contact with one point on the sketch of the screen, and the long press is performed at the point 81, the finger is moved while being in contact, and the finger is released at the point 82.

制御部109は、ポインティングデバイスがドラッグを行ったことを検知すると、点81の座標と点82の座標とを記憶部105に記憶するとともに、合成処理部106へ送る。合成処理部106は、点81の座標と点82の座標とから、見取り図51上に点81から点82へと伸びる矢印83を合成し、出力部107から出力する。制御部109はさらに、点82を監視ポイント71とし、矢印83の角度84を監視角度72とする。監視ポイント71と監視角度72を定めた以降の処理は第1実施例のステップS404以降と同じであり、説明を省略する。   When the control unit 109 detects that the pointing device has dragged, the control unit 109 stores the coordinates of the point 81 and the coordinates of the point 82 in the storage unit 105 and sends them to the composition processing unit 106. The composition processing unit 106 composes an arrow 83 extending from the point 81 to the point 82 on the sketch 51 from the coordinates of the point 81 and the coordinates of the point 82, and outputs it from the output unit 107. Further, the control unit 109 sets the point 82 as the monitoring point 71 and the angle 84 of the arrow 83 as the monitoring angle 72. The processing after the monitoring point 71 and the monitoring angle 72 are determined is the same as that after step S404 in the first embodiment, and a description thereof is omitted.

第1実施例では、操作アイコンを動かしてカメラを制御するので、監視ポイントや撮像方向が直感的に把握できるという効果があるが、第2実施例では操作アイコンを移動させる必要がないので、操作が簡略になるという効果がある。いずれの例でも、被写体を所望の方向から撮像することを容易に指示することができる。
[第3実施例]
本発明の第3実施例について、図9の模式図を用いて以下に説明する。本実施例は第1実施例の制御方法のステップS405で、監視ポイント71の座標を撮像可能領域61に含む監視カメラ20がない場合の別の処理の例である。本実施例では、第1、第2実施例と異なる点について詳細に説明し、第1、第2実施例と同様な点については説明を省略する。図9において、見取り図を91、カメラアイコンを92(92a、92b)、撮像可能領域を93(93a、93b)とする。カメラアイコン92a、92bは、監視カメラ20a、20bに対応するものとする。キャラクター53は図9a)〜図9e)ではそれぞれ異なる位置に配置されたキャラクター53a〜53eであり、キャラクター53からキャラクターの方向に所定の距離離れた点56は点56a〜点56eである。
In the first embodiment, since the camera is controlled by moving the operation icon, there is an effect that the monitoring point and the imaging direction can be intuitively grasped. However, in the second embodiment, it is not necessary to move the operation icon. Is effective. In either example, it can be easily instructed to image the subject from a desired direction.
[Third embodiment]
A third embodiment of the present invention will be described below with reference to the schematic diagram of FIG. This embodiment is an example of another process in the case where there is no monitoring camera 20 including the coordinates of the monitoring point 71 in the imageable area 61 in step S405 of the control method of the first embodiment. In the present embodiment, differences from the first and second embodiments will be described in detail, and descriptions of points similar to those in the first and second embodiments will be omitted. In FIG. 9, the sketch is 91, the camera icon is 92 (92a, 92b), and the imageable area is 93 (93a, 93b). The camera icons 92a and 92b correspond to the monitoring cameras 20a and 20b. The characters 53 are characters 53a to 53e arranged at different positions in FIGS. 9a) to 9e), and points 56a to 56e that are a predetermined distance away from the character 53 in the direction of the characters.

第3実施例の初期状態を図9a)に示す。図9a)では、キャラクター53aから所定の距離離れた点56aはカメラアイコン92bの撮像可能領域93bに含まれているので、制御部109は第1実施例に従い、カメラアイコン92bに対応する監視カメラ20bを選択する。   The initial state of the third embodiment is shown in FIG. 9a). In FIG. 9a), the point 56a that is a predetermined distance away from the character 53a is included in the imageable area 93b of the camera icon 92b, so that the control unit 109 according to the first embodiment monitors the surveillance camera 20b corresponding to the camera icon 92b. Select.

次にオペレーターはマウスや十字キー、タッチパネルなどの操作部108を用いて図9a)のキャラクター53aを右方向のキャラクター53bへとドラッグさせる。制御部109はキャラクター53aが操作されたことを検知し、検知したドラッグのデータを記憶部105に記憶するとともに合成処理部106に送る。合成処理部106は、ドラッグのデータに応じてキャラクター53aをキャラクター53bへと移動させる。   Next, the operator uses the operation unit 108 such as a mouse, a cross key, or a touch panel to drag the character 53a in FIG. 9a) to the character 53b in the right direction. The control unit 109 detects that the character 53 a has been operated, stores the detected drag data in the storage unit 105, and sends the data to the composition processing unit 106. The composition processing unit 106 moves the character 53a to the character 53b according to the drag data.

このときキャラクター53bから所定の距離離れた点56bは撮像可能領域93bからはずれ、いずれの撮像可能領域にも属さなくなる。すると第3実施例の制御部109は、直前に行ったキャラクター53aからキャラクター53bへのドラッグを無効とし、キャラクター53の位置をキャラクター53aに戻す(ステップS1001)。すなわち、制御部109はキャラクター53の移動の履歴を記憶部105に記憶しておき、キャラクター53から所定の距離離れた点56が撮像可能領域からはずれた場合は、キャラクター53の位置を操作前の位置に戻し合成処理部106に指示を行ってキャラクター53の位置をロールバックさせる。   At this time, the point 56b that is a predetermined distance away from the character 53b deviates from the imageable area 93b and does not belong to any imageable area. Then, the control unit 109 of the third embodiment invalidates the drag from the character 53a to the character 53b performed immediately before, and returns the position of the character 53 to the character 53a (step S1001). That is, the control unit 109 stores the movement history of the character 53 in the storage unit 105, and when a point 56 that is a predetermined distance away from the character 53 deviates from the imageable region, the position of the character 53 is set to the position before the operation. Returning to the position, an instruction is given to the composition processing unit 106 to roll back the position of the character 53.

以上のように、第3実施例の制御部109は、カメラ抽出部が撮像可能なカメラを選択できない場合、操作部による設定を取り消して監視ポイントを操作の前の状態にロールバックさせる監視ポイント修正部として機能し得る。   As described above, when the camera extraction unit cannot select a camera that can be imaged, the control unit 109 according to the third embodiment cancels the setting by the operation unit and rolls back the monitoring point to the state before the operation. It can function as a part.

これによりオペレーターは、いったん移動したキャラクター53が元の位置に戻るので、操作部108の操作が受け付けられ、カメラ制御端末10が処理を行ったが、点56が撮像可能領域に含まれなかったということを直感的に知ることができる。   As a result, the operator moves the character 53 once and returns to the original position, so that the operation of the operation unit 108 is accepted and the camera control terminal 10 performs the process, but the point 56 is not included in the imageable region. You can know this intuitively.

この時点で処理を終了してカメラを選択しなくてもよいし、第1実施例のステップS406へ戻り、ロールバックしたキャラクター53の位置および方向に応じて、カメラを選択して角度を指示してもよい。   At this point, the process does not have to be completed and the camera need not be selected, or the process returns to step S406 of the first embodiment, and the camera is selected and the angle is designated according to the position and direction of the character 53 that has been rolled back. May be.

カメラを選択しない場合は撮像可能なカメラがないことを明確に示すことができる。カメラを選択する場合は、監視ポイントをロールバックして、指示した位置および方向に近い状態で撮像できるカメラを選択することができる。   When no camera is selected, it can be clearly shown that there is no camera that can be imaged. When selecting a camera, it is possible to roll back the monitoring point and select a camera that can capture images in a state close to the instructed position and direction.

また、制御部109はキャラクター53bを元の位置であるキャラクター53aに戻す以外にも、キャラクター53から所定の距離離れた点56から最も近く撮像可能領域93に含まれる点を算出し(ステップS1002)、その点にキャラクター53から所定の距離離れた点56が来るよう、キャラクター53を移動させてもよい(ステップS1002)。たとえば、キャラクター53bから所定の距離離れた点56bから最も近く撮像可能領域93に含まれる点は、図9c)に示すように撮像可能領域93bに含まれる点56cである。そこで制御部109はキャラクター53cの座標を計算し、キャラクター53bをキャラクター53cの位置に移動させ、点56bを点56cの位置に移動させる。同様に、キャラクター53aを大きくドラッグして図9d)に示すキャラクター53dに移動させた場合、キャラクター53dから所定の距離離れた点56dは同じくいずれの撮像可能領域93からもはずれる。このとき、点56dから最も近く撮像可能領域93に含まれる点は、図9e)に示すように、撮像可能領域93aに含まれる点56eである。そこで制御部109はキャラクター53eの座標を計算し、キャラクター53dをキャラクター53eの位置に移動させ、点56dを点56eの位置に移動させる。   In addition to returning the character 53b to the original character 53a, the control unit 109 calculates a point that is closest to the point 56 that is a predetermined distance away from the character 53 and is included in the imageable region 93 (step S1002). The character 53 may be moved so that a point 56 that is a predetermined distance away from the character 53 comes to that point (step S1002). For example, the point that is closest to the point 56b that is a predetermined distance away from the character 53b and is included in the imageable region 93 is a point 56c that is included in the imageable region 93b as shown in FIG. 9c). Therefore, the control unit 109 calculates the coordinates of the character 53c, moves the character 53b to the position of the character 53c, and moves the point 56b to the position of the point 56c. Similarly, when the character 53a is largely dragged and moved to the character 53d shown in FIG. 9d), the point 56d away from the character 53d by a predetermined distance is also out of any imageable area 93. At this time, the point closest to the point 56d and included in the imageable region 93 is a point 56e included in the imageable region 93a as shown in FIG. 9e). Therefore, the control unit 109 calculates the coordinates of the character 53e, moves the character 53d to the position of the character 53e, and moves the point 56d to the position of the point 56e.

これにより、操作部108の操作が受け付けられ、カメラ制御端末10が処理を行ったが、点56がいずれも撮像可能領域93にも含まれなかったということを直感的に知ることができる。   Thereby, the operation of the operation unit 108 is accepted, and the camera control terminal 10 performs the processing, but it can be intuitively understood that none of the points 56 are included in the imageable area 93.

ステップS1003の場合も、その時点で処理を終了してカメラを選択しなくてもよいし、第1実施例のステップS406へ戻り、移動したキャラクター53の位置および方向に応じて、カメラを選択して角度を指示してもよい。   Also in the case of step S1003, it is not necessary to end the process and select a camera at that time, or return to step S406 of the first embodiment and select a camera according to the position and direction of the character 53 that has moved. You may indicate the angle.

カメラを選択しない場合は撮像可能なカメラがないことを明確に示すことができる。カメラを選択する場合は、指示した位置および方向に最も近い状態で撮像できるカメラを選択することができる。   When no camera is selected, it can be clearly shown that there is no camera that can be imaged. When selecting a camera, it is possible to select a camera that can capture an image in the state closest to the instructed position and direction.

なお、本実施形態におけるカメラ制御端末の構成は、ハードウェア的には、任意のコンピューターのCPU、メモリ、その他のLSIで実現でき、ソフトウェア的にメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   The configuration of the camera control terminal in the present embodiment can be realized in hardware by a CPU, memory, or other LSI of an arbitrary computer, and is realized by a program loaded in the memory as software. Here, functional blocks realized by the cooperation are depicted. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

10 カメラ制御端末
20(20a、20b、20c、20d、20e) 監視カメラ
30 ネットワーク
40 画像表示装置
51 見取り図
52(52a、52b、52c、52d、52e) カメラアイコン
61(61a、61b、61c、61d、61e) 撮像可能領域
101 通信処理部
102 復号処理部
103 ズームデータ処理部
104 パンデータ処理部
105 記憶部
106 合成処理部
107 出力部
108 操作部
109 制御部
10 Camera control terminal 20 (20a, 20b, 20c, 20d, 20e) Surveillance camera 30 Network 40 Image display device 51 Outline drawing 52 (52a, 52b, 52c, 52d, 52e) Camera icon 61 (61a, 61b, 61c, 61d, 61e) Imageable area 101 Communication processing unit 102 Decoding processing unit 103 Zoom data processing unit 104 Pan data processing unit 105 Storage unit 106 Compositing processing unit 107 Output unit 108 Operation unit 109 Control unit

Claims (4)

受信した撮像方向データに応じて撮像方向を変更可能な複数のカメラが設置された場所を示す見取り図を示す画像に対して操作を行って前記カメラを制御するカメラ制御装置において、
前記複数のカメラが配置された場所の見取り図データと、カメラアイコンデータと、前記複数のカメラの位置を示す配置位置データと、前記複数のカメラの撮像可能領域を示す撮像可能領域データとを記憶する記憶部と、
前記見取り図を示す画像上に前記カメラアイコンデータと前記配置位置データとに基づいて前記カメラアイコンを合成する合成部と、
前記合成部が合成した出力画像を出力する出力部と、
ユーザーに前記見取り図を示す画像上の位置を示す位置データを設定させる操作部と、
前記操作部により設定された位置データに応じて監視ポイントを設定する監視ポイント設定部と、
前記監視ポイント設定部が設定した監視ポイントと前記記憶部に記憶された撮像可能領域データとに応じて、前記複数のカメラから前記監視ポイントを撮像可能なカメラを抽出するカメラ抽出部と、
前記カメラ抽出部が抽出するカメラが前記監視ポイントを撮像する方向を示すデータを撮像方向データとして算出する方向算出部と、
前記撮像方向データを前記カメラ抽出部が抽出するカメラに送信する送信部と、
前記カメラ抽出部が撮像可能なカメラを選択できない場合、前記監視ポイントから最も近い撮像可能領域内の点を新たな監視ポイントとする監視ポイント修正部と
を備えることを特徴とするカメラ制御装置。
In a camera control device that controls the camera by performing an operation on an image showing a sketch showing a place where a plurality of cameras capable of changing the imaging direction according to received imaging direction data is installed.
Stores floor plan data of a place where the plurality of cameras are arranged, camera icon data, arrangement position data indicating the positions of the plurality of cameras, and imageable area data indicating the imageable areas of the plurality of cameras. A storage unit;
A combining unit that combines the camera icon on the image showing the floor plan based on the camera icon data and the arrangement position data;
An output unit that outputs an output image synthesized by the synthesis unit;
An operation unit that allows a user to set position data indicating a position on an image showing the sketch;
A monitoring point setting unit for setting a monitoring point according to the position data set by the operation unit;
A camera extraction unit for extracting a camera capable of imaging the monitoring point from the plurality of cameras according to the monitoring point set by the monitoring point setting unit and the imageable area data stored in the storage unit;
A direction calculation unit that calculates data indicating a direction in which the camera extracted by the camera extraction unit images the monitoring point as imaging direction data;
A transmission unit for transmitting the imaging direction data to the camera extracted by the camera extraction unit;
When the camera extraction unit cannot select an imageable camera, the camera control device includes a monitoring point correction unit that uses a point in the imageable region closest to the monitoring point as a new monitoring point.
受信した撮像方向データに応じて撮像方向を変更可能な複数のカメラが設置された場所を示す見取り図を示す画像に対して操作を行って前記カメラを制御するカメラ制御装置において、
前記複数のカメラが配置された場所の見取り図データと、カメラアイコンデータと、前記複数のカメラの位置を示す配置位置データと、前記複数のカメラの撮像可能領域を示す撮像可能領域データとを記憶する記憶部と、
前記見取り図を示す画像上に前記カメラアイコンデータと前記配置位置データとに基づいて前記カメラアイコンを合成する合成部と、
前記合成部が合成した出力画像を出力する出力部と、
ユーザーに前記見取り図を示す画像上の位置を示す位置データを設定させる操作部と、
前記操作部により設定された位置データに応じて監視ポイントを設定する監視ポイント設定部と、
前記監視ポイント設定部が設定した監視ポイントと前記記憶部に記憶された撮像可能領域データとに応じて、前記複数のカメラから前記監視ポイントを撮像可能なカメラを抽出するカメラ抽出部と、
前記カメラ抽出部が抽出するカメラが前記監視ポイントを撮像する方向を示すデータを撮像方向データとして算出する方向算出部と、
前記撮像方向データを前記カメラ抽出部が抽出するカメラに送信する送信部と、
前記カメラ抽出部が撮像可能なカメラを選択できない場合、前記操作部による設定を取り消して監視ポイントを操作の前の状態にロールバックさせる監視ポイント修正部と
を備えることを特徴とするカメラ制御装置。
In a camera control device that controls the camera by performing an operation on an image showing a sketch showing a place where a plurality of cameras capable of changing the imaging direction according to received imaging direction data is installed.
Stores floor plan data of a place where the plurality of cameras are arranged, camera icon data, arrangement position data indicating the positions of the plurality of cameras, and imageable area data indicating the imageable areas of the plurality of cameras. A storage unit;
A combining unit that combines the camera icon on the image showing the floor plan based on the camera icon data and the arrangement position data;
An output unit that outputs an output image synthesized by the synthesis unit;
An operation unit that allows a user to set position data indicating a position on an image showing the sketch;
A monitoring point setting unit for setting a monitoring point according to the position data set by the operation unit;
A camera extraction unit for extracting a camera capable of imaging the monitoring point from the plurality of cameras according to the monitoring point set by the monitoring point setting unit and the imageable area data stored in the storage unit;
A direction calculation unit that calculates data indicating a direction in which the camera extracted by the camera extraction unit images the monitoring point as imaging direction data;
A transmission unit for transmitting the imaging direction data to the camera extracted by the camera extraction unit;
A camera control device comprising: a monitoring point correction unit that cancels the setting by the operation unit and rolls back a monitoring point to a state before the operation when the camera extraction unit cannot select a camera that can be imaged.
受信した撮像方向データに応じて撮像方向を変更可能な複数のカメラが設置された場所を示す見取り図を示す画像に対して操作を行って前記カメラを制御するカメラ制御装置における制御方法であって、
前記複数のカメラが配置された場所の見取り図データと、カメラアイコンデータと、前記複数のカメラの位置を示す配置位置データと、前記複数のカメラの撮像可能領域を示す撮像可能領域データとを記憶する記憶ステップと、
前記見取り図を示す画像上に前記カメラアイコンデータと前記配置位置データとに基づいて前記カメラアイコンを合成する合成ステップと、
前記合成ステップで合成された出力画像を出力する出力ステップと、
ユーザーに前記見取り図を示す画像上の位置を示す位置データを設定させる操作ステップと、
前記操作ステップで設定された位置データに応じて監視ポイントを設定する監視ポイント設定ステップと、
前記監視ポイント設定ステップで設定された監視ポイントと前記記憶ステップで記憶された撮像可能領域データとに応じて、前記複数のカメラから前記監視ポイントを撮像可能なカメラを抽出するカメラ抽出ステップと、
前記カメラ抽出部ステップで抽出されるカメラが前記監視ポイントを撮像する方向を示すデータを撮像方向データとして算出する方向算出ステップと、
前記撮像方向データを前記カメラ抽出部が抽出するカメラに送信する送信ステップと、
前記カメラ抽出部が撮像可能なカメラを選択できない場合、前記監視ポイントから最も近い撮像可能領域内の点を新たな監視ポイントとして設定する監視ポイント修正ステップと
を含むことを特徴とするカメラ制御方法。
It is a control method in a camera control device that controls the camera by performing an operation on an image showing a floor plan showing a place where a plurality of cameras capable of changing the imaging direction according to received imaging direction data is provided,
Stores floor plan data of a place where the plurality of cameras are arranged, camera icon data, arrangement position data indicating the positions of the plurality of cameras, and imageable area data indicating the imageable areas of the plurality of cameras. A memory step;
A synthesis step of synthesizing the camera icon on the image showing the floor plan based on the camera icon data and the arrangement position data;
An output step of outputting the output image synthesized in the synthesis step;
An operation step for allowing a user to set position data indicating a position on the image indicating the sketch;
A monitoring point setting step for setting a monitoring point according to the position data set in the operation step;
A camera extraction step of extracting a camera capable of imaging the monitoring point from the plurality of cameras according to the monitoring point set in the monitoring point setting step and the imageable area data stored in the storage step;
A direction calculation step of calculating data indicating a direction in which the camera extracted in the camera extraction unit image captures the monitoring point as imaging direction data;
A transmission step of transmitting the imaging direction data to the camera extracted by the camera extraction unit;
And a monitoring point correcting step of setting, as a new monitoring point, a point in the imageable area closest to the monitoring point when the camera extracting unit cannot select a camera capable of imaging.
受信した撮像方向データに応じて撮像方向を変更可能な複数のカメラが設置された場所を示す見取り図を示す画像を操作して前記カメラを制御する機能をコンピューターに実現させるカメラ制御プログラムであって、
前記複数のカメラが配置された場所の見取り図データと、カメラアイコンデータと、前記複数のカメラの位置を示す配置位置データと、前記複数のカメラの撮像可能領域を示す撮像可能領域データとを記憶部に記憶させる記憶機能と、
前記見取り図を示す画像上に前記カメラアイコンデータと前記配置位置データとに基づいて前記カメラアイコンを合成する合成機能と、
前記合成機能により合成された出力画像を出力する出力機能と、
ユーザーに前記見取り図を示す画像上の位置を示す位置データを設定させる操作機能と、
前記操作機能により設定された位置データに応じて監視ポイントを設定する監視ポイント設定機能と、
前記監視ポイント設定機能により設定された監視ポイントと前記記憶機能により記憶された撮像可能領域データとに応じて、前記複数のカメラから前記監視ポイントを撮像可能なカメラを抽出するカメラ抽出機能と、
前記カメラ抽出機能により抽出されるカメラが前記監視ポイントを撮像する方向を示すデータを撮像方向データとして算出する方向算出機能と、
前記撮像方向データを前記カメラ抽出機能により抽出されるカメラに送信する送信機能と、
前記カメラ抽出機能により撮像可能なカメラを選択できない場合、前記監視ポイントから最も近い撮像可能領域内の点を新たな監視ポイントとして設定する監視ポイント修正機能と
をコンピューターに実現させることを特徴とするカメラ制御プログラム。
A camera control program for causing a computer to realize a function of controlling the camera by manipulating an image showing a sketch showing a place where a plurality of cameras capable of changing the imaging direction according to received imaging direction data is installed,
Storage unit for sketch map data of a place where the plurality of cameras are arranged, camera icon data, arrangement position data indicating positions of the plurality of cameras, and imageable area data indicating imageable areas of the plurality of cameras Memory function to be stored in,
A combining function for combining the camera icon on the image showing the floor plan based on the camera icon data and the arrangement position data;
An output function for outputting an output image synthesized by the synthesis function;
An operation function that allows the user to set position data indicating a position on the image showing the sketch;
A monitoring point setting function for setting a monitoring point according to the position data set by the operation function;
A camera extraction function for extracting a camera capable of imaging the monitoring point from the plurality of cameras according to the monitoring point set by the monitoring point setting function and the imageable area data stored by the storage function;
A direction calculation function for calculating, as imaging direction data, data indicating a direction in which the camera extracted by the camera extraction function images the monitoring point;
A transmission function for transmitting the imaging direction data to the camera extracted by the camera extraction function;
When a camera capable of imaging cannot be selected by the camera extraction function, the camera realizes a monitoring point correction function for setting a point in the imageable area closest to the monitoring point as a new monitoring point. Control program.
JP2012169373A 2012-07-31 2012-07-31 Camera control device, camera control method, and camera control program Pending JP2014030090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012169373A JP2014030090A (en) 2012-07-31 2012-07-31 Camera control device, camera control method, and camera control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012169373A JP2014030090A (en) 2012-07-31 2012-07-31 Camera control device, camera control method, and camera control program

Publications (1)

Publication Number Publication Date
JP2014030090A true JP2014030090A (en) 2014-02-13

Family

ID=50202406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012169373A Pending JP2014030090A (en) 2012-07-31 2012-07-31 Camera control device, camera control method, and camera control program

Country Status (1)

Country Link
JP (1) JP2014030090A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082260A (en) * 2014-10-10 2016-05-16 東京瓦斯株式会社 Gas supply area monitoring camera system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016082260A (en) * 2014-10-10 2016-05-16 東京瓦斯株式会社 Gas supply area monitoring camera system

Similar Documents

Publication Publication Date Title
JP5791256B2 (en) Display control apparatus and display control method
JP3809309B2 (en) Camera control system, camera control method, and storage medium
JP6618644B2 (en) Control device, control method, and program
JP6312046B2 (en) Image processing system, image processing method, and program
JP2020005146A (en) Output control device, display terminal, information processing apparatus, movable body, remote control system, output control method, program, and photographing control device
JP2004128997A (en) Device, method and program for video remote control, and recording medium with the program recorded thereon
JP5677055B2 (en) Surveillance video display device
US11310430B2 (en) Method and apparatus for providing video in portable terminal
JP2017017503A (en) Information processing device, and information processing method
KR101317428B1 (en) Spatial information system controlling cctv and operating method thereof
JP5861684B2 (en) Information processing apparatus and program
JP2014030090A (en) Camera control device, camera control method, and camera control program
US10877648B2 (en) Client device, monitoring system, method for displaying images on a screen and computer program
JP2016096482A (en) Image processing apparatus, image processing method, and program
JP5963571B2 (en) Image display device and surveillance camera system
JP2014030089A (en) Camera control device, camera control method, and camera control program
JP6118587B2 (en) Display device, monitoring system having display device, and display control program
JP2015177467A (en) Imaging apparatus and control method thereof
JP2003259340A (en) Video communication system, video communication method, video communication program, image information generating method, and image information generating program
JP2013030924A (en) Camera control device, camera control method, and camera control program
JP2017147572A (en) Video monitoring device and video monitoring system having the same
KR102506581B1 (en) Method and apparatus for processing wide angle image
JP5765279B2 (en) Camera control device, camera control method, and camera control program
JP6362090B2 (en) How to display the preset position of the network camera
JP5865052B2 (en) Image display device, control method for image display device, and program