JP2019124858A - Control device and control method for imaging apparatus - Google Patents

Control device and control method for imaging apparatus Download PDF

Info

Publication number
JP2019124858A
JP2019124858A JP2018006292A JP2018006292A JP2019124858A JP 2019124858 A JP2019124858 A JP 2019124858A JP 2018006292 A JP2018006292 A JP 2018006292A JP 2018006292 A JP2018006292 A JP 2018006292A JP 2019124858 A JP2019124858 A JP 2019124858A
Authority
JP
Japan
Prior art keywords
imaging
position information
positioning accuracy
unit
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018006292A
Other languages
Japanese (ja)
Inventor
風斗 本庄
Futo Honjo
風斗 本庄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018006292A priority Critical patent/JP2019124858A/en
Publication of JP2019124858A publication Critical patent/JP2019124858A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Accessories Of Cameras (AREA)

Abstract

To provide a control device for an imaging apparatus capable of capturing an imaging target, even when the positional information of the imaging target or the like has an error.SOLUTION: The control device for the imaging apparatus includes first acquisition means for acquiring the positional information of the imaging target, second acquisition means for acquiring positioning accuracy with respect to the positional information of the imaging target, first decision means for deciding an imaging field angle on the basis of the positional information of the imaging target and the positioning accuracy with respect to the positional information of the imaging target, and second decision means for deciding an imaging direction on the basis of the positional information of the imaging apparatus and the positional information of the imaging target.SELECTED DRAWING: Figure 4

Description

本発明は撮像装置の制御装置および制御方法に関する。   The present invention relates to a control device and control method of an imaging device.

カメラが外部から受信した撮像対象の位置情報と、カメラの位置情報とに基づいて、撮像方向を計算し、カメラのパン、チルト、ズーム(PTZ)を制御する技術が提案されている。また、カメラ等の機器が持つ位置情報取得技術を用いて、当該機器の現在位置情報を算出する技術を統一化する規格としてGeolocation API(Application Programming Interface)が公開されている。このように、位置情報を取り扱う技術は一般的となっており、監視カメラにおいても位置情報の利用が検討され始めている。   A technique has been proposed in which the imaging direction is calculated based on the position information of the imaging target received from the outside of the camera and the position information of the camera, and pan, tilt, and zoom (PTZ) of the camera are controlled. In addition, Geolocation API (Application Programming Interface) has been disclosed as a standard for unifying technology for calculating current position information of a device such as a camera by using position information acquisition technology of the device. As described above, techniques for handling position information have become commonplace, and use of position information is also being studied in surveillance cameras.

しかしながら、撮像対象やカメラの位置情報だけでは撮像対象を撮像する最適な画角を決定することは出来ない。画角や撮像範囲をユーザが指定するとしても、カメラの位置情報や取得した撮像対象の位置情報に誤差があると、本来撮像したい範囲や撮像画角を正確に取得することが出来ない可能性がある。
特許文献1ではGPS情報に基づいて取得した位置情報に誤差がある場合でも正確に撮像対象を撮像するために、撮像対象の予測軌道と、撮像映像内での撮像対象の位置も用いて撮像対象の位置情報を予測・取得している。そして、取得した複数の位置情報から最も確からしい位置情報を選択している。
However, it is not possible to determine the optimum angle of view for imaging the imaging target only by the imaging target and the positional information of the camera. Even if the user specifies the angle of view or the imaging range, if there is an error in the position information of the camera or the acquired position information of the imaging target, there is a possibility that it is not possible to accurately acquire the range or imaging angle of view that you want to There is.
In Patent Document 1, even if there is an error in the position information acquired based on the GPS information, in order to accurately capture the imaging target, the imaging target is also used using the predicted trajectory of the imaging target and the position of the imaging target in the captured video. Predict and acquire location information of Then, the most probable position information is selected from the plurality of acquired position information.

特開2014−107791号公報JP, 2014-107791, A

特許文献1では、撮像対象の軌道を予測できることが前提であり(撮像対象が定期航路を飛ぶ航空機であることが前提であり)、さらに、撮像画角内に必ず撮像対象が存在することも前提となっている。そのため、撮像対象が不規則に移動する場合、特許文献1の技術を使用することは出来ない。また、特許文献1では、移動体にカメラが搭載・携帯されている場合に発生し得る、カメラ側における位置情報の誤差については考慮されていない。
そこで、本発明の目的は、撮像対象などの位置情報に誤差がある場合でも撮像対象を撮像することができる撮像装置の制御装置を提供することである。
In Patent Document 1, it is premised that the trajectory of the imaging target can be predicted (it is premised that the imaging target is an aircraft flying on a regular route), and furthermore, it is also premised that the imaging target always exists within the imaging angle of view. It has become. Therefore, when the imaging target moves irregularly, the technology of Patent Document 1 can not be used. Moreover, in patent document 1, it does not consider about the difference | error of the positional information in the camera side which may generate | occur | produce when a camera is mounted and carried in the mobile body.
Therefore, an object of the present invention is to provide a control device of an imaging apparatus capable of imaging an imaging target even when there is an error in position information of the imaging target and the like.

前記目的を達成するために、本発明の1つの態様による撮像装置の制御装置は、撮像対象の位置情報を取得する第1の取得手段と、前記撮像対象の位置情報に対する測位精度を取得する第2の取得手段と、前記撮像装置の位置情報と、前記撮像対象の位置情報と、前記撮像対象の位置情報に対する測位精度とに基づき、撮像画角を決定する第1の決定手段と、前記撮像装置の位置情報と前記撮像対象の位置情報とに基づき、撮像方向を決定する第2の決定手段と、を備える。   In order to achieve the above object, a control device of an imaging device according to one aspect of the present invention acquires a first acquisition unit that acquires position information of an imaging target, and acquires positioning accuracy with respect to position information of the imaging target. A first determination unit that determines an imaging angle of view based on the acquisition unit of 2, the position information of the imaging device, the position information of the imaging target, and the positioning accuracy with respect to the position information of the imaging target; And second determining means for determining an imaging direction based on position information of the apparatus and position information of the imaging target.

本発明によれば、撮像対象などの位置情報に誤差がある場合でも撮像対象を撮像することができる。   According to the present invention, even when there is an error in position information such as an imaging target, the imaging target can be imaged.

本発明の実施形態1に係る監視カメラを含むネットワーク構成図。BRIEF DESCRIPTION OF THE DRAWINGS The network block diagram containing the surveillance camera which concerns on Embodiment 1 of this invention. 実施形態1に係る監視カメラの内部構成を示したブロック図。FIG. 2 is a block diagram showing an internal configuration of a surveillance camera according to Embodiment 1. 実施形態1に係る監視カメラのハードウェア構成図。FIG. 2 is a hardware configuration diagram of the surveillance camera according to the first embodiment. 実施形態1に係る撮像範囲の決定方法を説明するための図。FIG. 6 is a diagram for explaining a method of determining an imaging range according to the first embodiment. 実施形態1に係る撮像部のPTZ制御の処理を示したフローチャート。6 is a flowchart showing a process of PTZ control of the imaging unit according to the first embodiment. 本発明の実施形態2に係る監視カメラの内部構成を示したブロック図。The block diagram which showed the internal structure of the surveillance camera which concerns on Embodiment 2 of this invention. 実施形態2に係る特徴領域を説明するための図。FIG. 8 is a diagram for explaining a feature area according to the second embodiment. 実施形態2に係る撮像部のPTZ制御の処理を示したフローチャート。10 is a flowchart showing processing of PTZ control of an imaging unit according to a second embodiment. ユーザからの指定範囲に基づいた撮像画角の決定方法を示した図。The figure which showed the determination method of the imaging angle of view based on the designated range from a user. 特徴領域に基づいた撮像画角の決定方法を示した図。The figure which showed the determination method of the imaging angle of view based on the characteristic area | region. 本発明の実施形態3に係る監視カメラの内部構成を示したブロック図。The block diagram which showed the internal structure of the surveillance camera which concerns on Embodiment 3 of this invention. 実施形態3に係る外部機器の内部構成を示したブロック図。FIG. 8 is a block diagram showing an internal configuration of an external device according to a third embodiment. 実施形態3に係る撮像部のPTZ制御の処理を示したフローチャート。10 is a flowchart showing a process of PTZ control of an imaging unit according to a third embodiment.

以下、添付図面を参照して、本発明を実施するための実施形態を詳細に説明する。以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置やシステムの構成及び各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the attached drawings. The embodiment described below is an example as a realization means of the present invention, and it should be appropriately corrected or changed according to the configuration and various conditions of an apparatus or system to which the present invention is applied. It is not limited to the embodiment. Moreover, not all combinations of the features described in the present embodiment are essential to the solution means of the present invention.

実施形態1
以下、図1〜図4を参照して、本発明の実施形態1による制御装置を備える撮像装置について説明する。実施形態1では、撮像装置の一例として、監視カメラを説明する。監視カメラの監視対象は人物であるとする。人物は、以下の記載において、撮像対象と称されることもある。
図1は、監視カメラ100を含むネットワーク構成図である。監視カメラ100とクライアント装置200は、ネットワーク300を介して相互に通信可能な状態に接続されている。クライアント装置200は外部機器と称されることもある。クライアント装置200は、例えば、パーソナルコンピュータ、ラップトップコンピュータ、タブレット端末等である。
クライアント装置200は、監視カメラ100に対して、PTZ制御等の制御コマンドを送信することができる。監視カメラ100は、制御コマンドを受信した場合、当該制御コマンドに対するレスポンスをクライアント装置200に送信する。
Embodiment 1
Hereinafter, with reference to FIGS. 1 to 4, an imaging device provided with a control device according to Embodiment 1 of the present invention will be described. In the first embodiment, a surveillance camera will be described as an example of an imaging device. It is assumed that the surveillance target of the surveillance camera is a person. In the following description, a person may be referred to as an imaging target.
FIG. 1 is a network configuration diagram including a monitoring camera 100. As shown in FIG. The monitoring camera 100 and the client device 200 are connected in a mutually communicable state via the network 300. The client device 200 may be referred to as an external device. The client device 200 is, for example, a personal computer, a laptop computer, a tablet terminal or the like.
The client device 200 can transmit control commands such as PTZ control to the monitoring camera 100. When the monitoring camera 100 receives a control command, the monitoring camera 100 transmits a response to the control command to the client device 200.

(監視カメラの構成)
図2Aは監視カメラ100の構成を示した機能ブロック図である。監視カメラ100は、制御部101と、記憶部102と、撮像制御部103と、撮像部104と、撮像光学系105と、撮像制御計算部106と、位置情報取得部107と、測位精度取得部108と、通信部109とを有する。監視カメラ100の制御装置110は、撮像制御部103、撮像制御計算部106、位置情報取得部107、及び測位精度取得部108からなる。
制御部101は、監視カメラ100の全体の制御を行う。制御部101は、一つ又は複数のプロセッサ(CPU等)によって構成され、記憶部102に格納されている制御プログラムを実行することで監視カメラ100全体の動作を制御する。
(Configuration of surveillance camera)
FIG. 2A is a functional block diagram showing the configuration of the monitoring camera 100. As shown in FIG. The monitoring camera 100 includes a control unit 101, a storage unit 102, an imaging control unit 103, an imaging unit 104, an imaging optical system 105, an imaging control calculation unit 106, a position information acquisition unit 107, and a positioning accuracy acquisition unit And a communication unit 109. The control device 110 of the monitoring camera 100 includes an imaging control unit 103, an imaging control calculation unit 106, a position information acquisition unit 107, and a positioning accuracy acquisition unit 108.
The control unit 101 controls the entire surveillance camera 100. The control unit 101 is configured of one or more processors (such as a CPU), and controls the entire operation of the monitoring camera 100 by executing a control program stored in the storage unit 102.

記憶部102は、様々なデータや情報を格納する。具体的には、記憶部102は、制御部101が実行するプログラム、設定値(指定値)、撮像部104が生成する画像データ、監視カメラ100の設置情報、位置情報取得部107で取得する位置情報等を格納する。また、記憶部102は、プログラム実行中のワーク領域としても使用される。記憶部102は、例えば、ROM、RAM、HDD、フラッシュメモリまたは着脱可能なSDカードなどの記憶媒体により構成される。
撮像制御部103は、制御部101の制御の下、撮像制御計算部106から送信されたパン、チルト、ズームの値に従って、撮像部104の撮像範囲を制御する。
The storage unit 102 stores various data and information. Specifically, the storage unit 102 is a program executed by the control unit 101, a setting value (specified value), image data generated by the imaging unit 104, installation information of the monitoring camera 100, and a position acquired by the position information acquisition unit 107. Stores information etc. The storage unit 102 is also used as a work area during program execution. The storage unit 102 is configured of, for example, a storage medium such as a ROM, a RAM, an HDD, a flash memory, or a removable SD card.
The imaging control unit 103 controls the imaging range of the imaging unit 104 according to the pan, tilt, and zoom values transmitted from the imaging control calculation unit 106 under the control of the control unit 101.

撮像部104は、監視カメラ100の撮像光学系105により取得した撮像画像を記憶部102に出力する。具体的には、撮像部104は、監視カメラ100の撮像光学系105により結像された、撮像対象の像を撮像して取得したアナログ信号をデジタルデータに変換し、撮像画像として記憶部102に出力する。撮像部104は、例えば、CCDセンサやCMOSセンサなどを含む。また、撮像部104は、サンプリングを行う回路やA/Dコンバータなども含む。CCDはCharge Coupled Deviceの略である。CMOSはComplementary Metal Oxide Semiconductorの略である。   The imaging unit 104 outputs a captured image acquired by the imaging optical system 105 of the monitoring camera 100 to the storage unit 102. Specifically, the imaging unit 104 converts an analog signal acquired by capturing an image of an imaging target, which is imaged by the imaging optical system 105 of the monitoring camera 100, into digital data, and stores the digital signal as a captured image in the storage unit 102. Output. The imaging unit 104 includes, for example, a CCD sensor or a CMOS sensor. The imaging unit 104 also includes a circuit that performs sampling, an A / D converter, and the like. CCD is an abbreviation of Charge Coupled Device. CMOS is an abbreviation of Complementary Metal Oxide Semiconductor.

撮像光学系105は、複数のレンズ(例えば、ズームレンズ、フォーカスレンズ)や絞り(遮光機構)を含む。
撮像制御計算部106は、位置情報取得部107及び測位精度取得部108から取得した、監視カメラの位置情報及び測位精度(位置情報の誤差)と撮像対象の位置情報及び測位精度とから、撮像方向及び撮像画角を計算する。あるいは、撮像制御計算部106は、外部機器200から通信部109を介して取得した、監視カメラの位置情報及び測位精度(位置情報の誤差)と撮像対象の位置情報及び測位精度とから、撮像方向及び撮像画角を計算する。撮像制御計算部106は、外部機器200からPTZ制御コマンド等を受信することができる。撮像制御計算部106は、位置情報の取得、測位精度の取得、外部機器200からのPTZ制御コマンド等の受信等を契機に撮像方向及び撮像画角の計算を行い、計算結果を撮像制御部103に送信する。撮像画角を計算する際に、撮像制御計算部106は、例えば、まず測位精度に応じた撮像範囲を決定し、当該撮像範囲に基づいて撮像画角を計算する。
The imaging optical system 105 includes a plurality of lenses (for example, a zoom lens and a focus lens) and an aperture stop (a light blocking mechanism).
The imaging control calculation unit 106 acquires the imaging direction from the position information and positioning accuracy of the monitoring camera (error of the position information) acquired from the position information acquisition unit 107 and the positioning accuracy acquisition unit 108 and the position information and positioning accuracy of the imaging target. And calculate the imaging angle of view. Alternatively, the imaging control calculation unit 106 may obtain the imaging direction from the position information and positioning accuracy of the monitoring camera (error of the position information) acquired from the external device 200 via the communication unit 109 and the position information and positioning accuracy of the imaging target. And calculate the imaging angle of view. The imaging control calculation unit 106 can receive a PTZ control command or the like from the external device 200. The imaging control calculation unit 106 calculates an imaging direction and an imaging angle of view triggered by acquisition of position information, acquisition of positioning accuracy, reception of a PTZ control command from the external device 200, etc. Send to When calculating the imaging angle of view, for example, the imaging control calculation unit 106 first determines an imaging range according to the positioning accuracy, and calculates an imaging angle of view based on the imaging range.

(撮像範囲の決定方法)
ここで、図3を用いて、撮像制御計算部106における撮像範囲の決定方法について説明する。
図3は監視カメラ100及び撮像範囲120を示している。監視カメラ100は、位置情報を持つ撮像対象(人物)121を撮像できるように撮像範囲120を決定する。監視カメラ100(より詳しくは、撮像制御計算部106)は撮像対象121から位置情報を取得するが、その際に撮像対象121の真の位置と異なる地点を示す位置情報122を取得する場合がある。本実施形態では、監視カメラ100(撮像制御計算部106)は、取得した撮像対象121の位置情報122に対して、更に測位精度(位置情報の誤差)Rを取得する。本実施形態では、測位精度Rは例えば、200cmであり、位置情報122を中心として測位精度Rを半径とした範囲123を測位精度の範囲と称する。測位精度Rは、測位精度の範囲123内に撮像対象121が存在するような値(補償値、補正値)である。その後、監視カメラ100(撮像制御計算部106)は、測位精度の範囲123全体を撮像出来るように撮像範囲120を決定する。撮像制御計算部106は、決定した撮像範囲120に基づいて撮像画角124の計算を行う。つまり、撮像制御計算部106は、位置情報取得部107により取得した位置情報121が表す位置を中心として、測位精度Rに応じた範囲全体を撮像できる画角を、前記撮像画角として算出する。
(How to determine the imaging range)
Here, a method of determining the imaging range in the imaging control calculation unit 106 will be described with reference to FIG.
FIG. 3 shows the monitoring camera 100 and the imaging range 120. The monitoring camera 100 determines an imaging range 120 so that an imaging target (person) 121 having position information can be imaged. The monitoring camera 100 (more specifically, the imaging control calculation unit 106) acquires position information from the imaging target 121, but may acquire position information 122 indicating a point different from the true position of the imaging target 121 at that time. . In the present embodiment, the monitoring camera 100 (imaging control calculation unit 106) further acquires a positioning accuracy (error of positional information) R with respect to the acquired positional information 122 of the imaging target 121. In the present embodiment, the positioning accuracy R is, for example, 200 cm, and a range 123 having the positioning accuracy R as a radius centering on the position information 122 is referred to as a positioning accuracy range. The positioning accuracy R is a value (compensation value, correction value) such that the imaging target 121 exists in the range 123 of the positioning accuracy. Thereafter, the monitoring camera 100 (the imaging control calculation unit 106) determines the imaging range 120 so that the entire range 123 of the positioning accuracy can be imaged. The imaging control calculation unit 106 calculates the imaging angle of view 124 based on the determined imaging range 120. That is, the imaging control calculation unit 106 calculates, as the imaging angle of view, an angle of view in which the entire range according to the positioning accuracy R can be imaged with the position represented by the position information 121 acquired by the position information acquiring unit 107 as a center.

図2Aに戻る。位置情報取得部107は、監視カメラ100の位置情報を受信したり、撮像対象121の位置情報を受信することにより、位置情報(位置を表す情報)を取得する。取得する位置情報は、例えば、緯度、経度、高度等である。位置情報取得部107は、例えば、全地球測位システム(GPS)や無線LAN装置やBluetooth(登録商標)装置等を用いて位置情報を取得する。GPS等は、電波到達時間及び電波強度から位置情報を生成する。GPSはGlobal Positioning Systemの略である。GPS、無線LAN装置、Bluetooth装置等は、以下の記載において、位置情報提供装置と称する。位置情報提供装置は、例えば、位置情報提供装置に設けられた一つ以上の発信器が発する電波を受信して位置情報を生成(算出)する。GPS、無線LAN、Bluetooth等を用いた測位技術(位置情報取得技術)は公知の技術であるため、詳細な説明は省略する。例えば、位置情報を持つ撮像対象121が所定のエリア内に入ると、位置情報取得部107は自動的に撮像対象121の位置情報を取得してもよい。   Return to FIG. 2A. The positional information acquisition unit 107 acquires positional information (information representing a position) by receiving positional information of the monitoring camera 100 or receiving positional information of the imaging target 121. The position information to be acquired is, for example, latitude, longitude, altitude and the like. The position information acquisition unit 107 acquires position information using, for example, a global positioning system (GPS), a wireless LAN device, a Bluetooth (registered trademark) device, or the like. The GPS or the like generates position information from radio wave arrival time and radio wave intensity. GPS is an abbreviation of Global Positioning System. The GPS, the wireless LAN device, the Bluetooth device, and the like will be referred to as a position information providing device in the following description. The position information providing apparatus generates (calculates) position information by receiving radio waves emitted by one or more transmitters provided in the position information providing apparatus, for example. Since positioning technology (position information acquisition technology) using GPS, wireless LAN, Bluetooth, etc. is a known technology, detailed description will be omitted. For example, when the imaging target 121 having position information falls within a predetermined area, the position information acquisition unit 107 may automatically acquire position information of the imaging target 121.

撮像対象121が位置情報を持つ場合(例えば、人間がスマートフォンを所持している場合)、撮像対象121は監視カメラ100(位置情報取得部107)に、撮像対象121の位置情報を直接送信してもよい。つまり、位置情報取得部107は、撮像対象の位置情報を撮像対象から取得してもよい。あるいは、位置情報取得部107は、外部機器200が取得した撮像対象121の位置情報を、通信部109を介して受信することにより、撮像対象121の位置情報を取得してもよい。
測位精度取得部108は、監視カメラ100の測位精度と、撮像対象121の測位精度を取得する。位置情報を算出(提供)するGPS、無線LAN、Bluetoothの算出精度(測位精度)は、誤差要因(電波受信側周辺の環境や天候による電波強度の変化、電波を受信した発信器の数等)によって変化する。測位精度は、電波を受信できた発信器の数、電波到達時刻、電波強度等を用いて推測(算出)することができる。例えば、位置情報を持つ撮像対象が所定のエリア内に入ると、測位精度取得部108は自動的に撮像対象121の測位精度を取得してもよい。
When the imaging target 121 has position information (for example, when a human carries a smartphone), the imaging target 121 directly transmits the position information of the imaging target 121 to the monitoring camera 100 (position information acquisition unit 107). It is also good. That is, the position information acquisition unit 107 may acquire the position information of the imaging target from the imaging target. Alternatively, the position information acquisition unit 107 may acquire the position information of the imaging target 121 by receiving the position information of the imaging target 121 acquired by the external device 200 via the communication unit 109.
The positioning accuracy acquisition unit 108 acquires the positioning accuracy of the monitoring camera 100 and the positioning accuracy of the imaging target 121. The calculation accuracy (positioning accuracy) of GPS, wireless LAN, and Bluetooth that calculate (provide) position information is an error factor (changes in radio wave intensity due to the environment and weather around radio wave reception side, number of transmitters that received radio waves, etc.) It changes with The positioning accuracy can be estimated (calculated) using the number of transmitters that can receive the radio wave, the radio wave arrival time, the radio wave intensity, and the like. For example, when an imaging target having position information falls within a predetermined area, the positioning accuracy acquisition unit 108 may automatically acquire the positioning accuracy of the imaging target 121.

撮像対象121が撮像対象の測位精度を持つ場合、撮像対象121は監視カメラ100(測位精度取得部108)に、撮像対象121の測位精度を直接送信してもよい。つまり、測位精度取得部108は、撮像対象の位置情報に対する測位精度を、撮像対象から取得してもよい。あるいは、測位精度取得部108は、外部機器200から通信部109を介して測位精度を受信することにより、撮像対象121の測位精度を取得してもよい。
通信部109は、撮像対象の位置情報や各制御コマンドを外部機器200から受信する。また、通信部109は、各制御コマンドに対するレスポンスや記憶部102に格納された画像データ等のデータを外部機器200へ送信する。通信部109が外部機器200から制御コマンドを受信(取得)すると、通信部109は、制御コマンド受信イベントを制御部101に送信する。
以上、図2Aを用いて監視カメラ100の構成について説明したが、図2Aに示す構成は一例であり、監視カメラ100の構成はこの限りではない。例えば、監視カメラ100は、映像解析部、音声入力部、音声出力部などを備えてもよい。
When the imaging target 121 has the positioning accuracy of the imaging target, the imaging target 121 may directly transmit the positioning accuracy of the imaging target 121 to the monitoring camera 100 (positioning accuracy acquisition unit 108). That is, the positioning accuracy acquisition unit 108 may acquire the positioning accuracy for the position information of the imaging target from the imaging target. Alternatively, the positioning accuracy acquisition unit 108 may acquire the positioning accuracy of the imaging target 121 by receiving the positioning accuracy from the external device 200 via the communication unit 109.
The communication unit 109 receives position information of an imaging target and control commands from the external device 200. In addition, the communication unit 109 transmits, to the external device 200, data such as a response to each control command and image data stored in the storage unit 102. When the communication unit 109 receives (acquires) a control command from the external device 200, the communication unit 109 transmits a control command reception event to the control unit 101.
As mentioned above, although the structure of the monitoring camera 100 was demonstrated using FIG. 2A, the structure shown to FIG. 2A is an example, and the structure of the monitoring camera 100 is not this limitation. For example, the monitoring camera 100 may include a video analysis unit, an audio input unit, an audio output unit, and the like.

(監視カメラのハードウェア構成)
図2Bは、監視カメラ100のハードウェア構成を示している。監視カメラ100は、CPU151と、ROM152と、RAM153と、ネットワークインタフェース154と、撮像デバイス155と、入力部156と、外部メモリ157とを有する。監視カメラ100の各部(151〜157)はバス158により相互に接続されている。
CPU151は、監視カメラ100を統括制御する制御装置である。CPU151は、各構成部(152〜157)を制御する。
ROM152は、CPU151が処理を実行するために必要なプログラム等を記憶する。CPU151が、ROM152に記憶されたプログラムに基づき処理を実行することにより、監視カメラ100の上述した機能構成や後述する処理ステップ(図4)等が実現される。なお、当該プログラム等は、外部メモリ157や着脱可能な記憶媒体(図示せず)に記憶されてもよい。
RAM153は、CPU151がROM152から読み出したプログラムを展開し、処理を実行するためのメモリである。また、RAM153は、一時記憶メモリとして各種処理の対象となるデータを一時記憶するための記憶領域としても使用される。
(Hardware configuration of surveillance camera)
FIG. 2B shows the hardware configuration of the monitoring camera 100. The monitoring camera 100 includes a CPU 151, a ROM 152, a RAM 153, a network interface 154, an imaging device 155, an input unit 156, and an external memory 157. The parts (151 to 157) of the surveillance camera 100 are mutually connected by a bus 158.
The CPU 151 is a control device that centrally controls the monitoring camera 100. The CPU 151 controls each component (152 to 157).
The ROM 152 stores programs and the like necessary for the CPU 151 to execute processing. The CPU 151 executes the processing based on the program stored in the ROM 152, whereby the above-described functional configuration of the monitoring camera 100 and processing steps (FIG. 4) to be described later are realized. The program and the like may be stored in the external memory 157 or a removable storage medium (not shown).
The RAM 153 is a memory for developing a program read from the ROM 152 by the CPU 151 and executing processing. The RAM 153 is also used as a temporary storage memory for temporarily storing data to be processed.

ネットワークインタフェース154は、ネットワークを介して外部機器200と通信を行う回路である。例えば、ネットワークインタフェース154は、外部へ撮影画像や情報を送信する際に使用される。ネットワークインタフェース154は、例えば、無線LANインタフェースである。
撮像デバイス155は、被写体を動画及び静止画として撮影する画像センサを有するデバイスである。撮像デバイス155は、画角や撮影方向等の撮影条件を調整することができる。また、撮像デバイス155は、パン、チルト及びズーム機構を有し、CPU151の制御によって、パン、チルト及びズーム(望遠制御/広角制御)動作を実行する。撮像デバイス155は、レンズ等の光学系の部材や、CMOSイメージセンサやCCDイメージセンサを有しており、被写体を撮影して、映像を取得する。撮像デバイス155は、例えば、1秒間に30フレーム分の画像を取得して、30fps(frame per second)の動画像を取得することができる。本実施形態では、撮像デバイス155(撮像部104)は、撮像デバイス155から取得したビデオ画像をH.264等のネットワーク配信可能なデジタル画像データに変換する(符号化する)機能も備えている。
The network interface 154 is a circuit that communicates with the external device 200 via a network. For example, the network interface 154 is used when transmitting a captured image or information to the outside. The network interface 154 is, for example, a wireless LAN interface.
The imaging device 155 is a device having an image sensor that captures an object as a moving image and a still image. The imaging device 155 can adjust shooting conditions such as an angle of view and a shooting direction. The imaging device 155 also has a pan, tilt, and zoom mechanism, and executes pan, tilt, and zoom (telephoto control / wide-angle control) operations under the control of the CPU 151. The imaging device 155 includes a member of an optical system such as a lens, a CMOS image sensor, and a CCD image sensor, and captures an image of a subject. For example, the imaging device 155 can acquire an image of 30 frames per second and acquire a 30 fps (frame per second) moving image. In the present embodiment, the imaging device 155 (imaging unit 104) transmits the video image acquired from the imaging device 155 to the H.264 system. It also has a function of converting (encoding) it into digital image data that can be distributed over the network such as H.264.

入力部156は、電源ボタンやテンキーなどから構成される。監視カメラ100のユーザは、入力部156を介して監視カメラ100に指示を与えることができる。入力部156は、ユーザインタフェースと称されることもある。例えば、監視カメラ100のユーザは、入力部156を介して監視カメラ100の位置情報をROM152または外部メモリ157(図2Aの記憶部102)に入力することができる。
外部メモリ157は、例えば、CPU151がプログラムを用いた処理を実行する際に必要な各種データや情報などを記憶する。また、外部メモリ157には、CPU151がプログラムを用いた処理を実行することにより得られた各種データや情報などが記憶される。
The input unit 156 includes a power button, a ten key, and the like. The user of the surveillance camera 100 can give an instruction to the surveillance camera 100 via the input unit 156. The input unit 156 may be referred to as a user interface. For example, the user of the monitoring camera 100 can input the position information of the monitoring camera 100 to the ROM 152 or the external memory 157 (the storage unit 102 of FIG. 2A) via the input unit 156.
The external memory 157 stores, for example, various data, information, and the like necessary when the CPU 151 executes a process using a program. The external memory 157 also stores various data and information obtained by the CPU 151 executing processing using a program.

(撮像部のPTZ制御)
次に図4のフローチャートを参照して、本実施形態の制御装置100が実行する撮像部104のPTZ制御の処理について詳細に説明する。以下の記載において、SはStepの略である。
図4のフローチャートは図2に示す制御装置101の機能モジュールによって実現される。機能モジュールがソフトウェアである場合、制御部101を構成するCPUが、そのプログラムを実行することによりソフトウェアの処理が実現される。監視カメラ100の位置情報と測位精度は、記憶部102に格納されているとする。
S401において、監視カメラ100(位置情報取得部107)は、位置情報提供装置から撮像対象121の位置情報を受信する。位置情報取得部107は、受信した撮像対象121の位置情報を記憶部102に格納する。記憶部102に格納された位置情報は、撮像制御計算部106により使用される。
(PTZ control of imaging unit)
Next, processing of PTZ control of the imaging unit 104 performed by the control device 100 according to the present embodiment will be described in detail with reference to the flowchart in FIG. 4. In the following description, S is an abbreviation of Step.
The flowchart of FIG. 4 is realized by the functional modules of the control device 101 shown in FIG. When the functional module is software, the CPU configuring the control unit 101 executes the program to realize the processing of the software. It is assumed that the position information of the monitoring camera 100 and the positioning accuracy are stored in the storage unit 102.
In S401, the monitoring camera 100 (position information acquisition unit 107) receives the position information of the imaging target 121 from the position information providing device. The position information acquisition unit 107 stores the received position information of the imaging target 121 in the storage unit 102. The position information stored in the storage unit 102 is used by the imaging control calculation unit 106.

S402において、測位精度取得部108は、撮像対象121の位置情報についての測位精度Rを取得する。監視カメラ100がS401で撮像対象121の位置情報を受信する際に、測位精度取得部108は、位置情報提供装置から測位精度も受信する。そして、測位精度取得部108は、当該受信により測位精度Rを取得する。測位精度取得部108は、取得した測位精度Rを記憶部102に格納する。格納された測位精度は、撮像制御計算部106により使用される。
なお、測位精度取得部108は、記憶部102に予め格納されている測位精度Rを、記憶部102から取得してもよい。例えば、測位精度Rの変化が微小であることが予測され、監視カメラ100(記憶部102)が予め測位精度Rを保持しているならば、測位精度取得部108は、記憶部102から測位精度Rを取得することができる。また、測位精度Rの変化が微小であることが予測され、外部機器200が予め測位精度Rを保持しているならば、測位精度取得部108は外部機器200から測位精度Rを取得することができる。このような場合、監視カメラ100は、測位精度Rを位置情報提供装置から受信しなくてよい。
In S402, the positioning accuracy acquisition unit 108 acquires the positioning accuracy R for the position information of the imaging target 121. When the monitoring camera 100 receives the position information of the imaging target 121 in S401, the positioning accuracy acquisition unit 108 also receives the positioning accuracy from the position information providing device. Then, the positioning accuracy acquisition unit 108 acquires the positioning accuracy R by the reception. The positioning accuracy acquisition unit 108 stores the acquired positioning accuracy R in the storage unit 102. The stored positioning accuracy is used by the imaging control calculation unit 106.
The positioning accuracy acquisition unit 108 may acquire the positioning accuracy R stored in advance in the storage unit 102 from the storage unit 102. For example, if the change in the positioning accuracy R is predicted to be minute, and the monitoring camera 100 (storage unit 102) holds the positioning accuracy R in advance, the positioning accuracy acquisition unit 108 acquires the positioning accuracy from the storage unit 102. You can get R. If the change in the positioning accuracy R is predicted to be minute and the external device 200 holds the positioning accuracy R in advance, the positioning accuracy obtaining unit 108 may obtain the positioning accuracy R from the external device 200. it can. In such a case, the monitoring camera 100 may not receive the positioning accuracy R from the position information providing device.

また、監視カメラ100が予め複数の測位精度Rを記憶部102に格納しているならば、測位精度取得部108は、撮像対象121の位置情報提供装置の種類(GPS、無線LAN、Bluetooth等)に応じて、1つの測位精度Rを選択することもできる。
測位精度取得部108が、S402で測位精度を取得し、且つ、S402以前に記憶部102に測位精度が保持(格納)されている場合、測位精度取得部108は、記憶部102の格納内容をS402で算出した測位精度に更新する。
In addition, if the monitoring camera 100 stores a plurality of positioning accuracies R in advance in the storage unit 102, the positioning accuracy acquisition unit 108 determines the type of position information providing device of the imaging target 121 (GPS, wireless LAN, Bluetooth, etc.) One positioning accuracy R can also be selected according to.
When the positioning accuracy acquisition unit 108 acquires the positioning accuracy in S402 and the positioning accuracy is held (stored) in the storage unit 102 before S402, the positioning accuracy acquisition unit 108 stores the storage content of the storage unit 102. The positioning accuracy calculated in S402 is updated.

S403において、位置情報取得部107は、監視カメラ100の位置情報を更新する必要があるか判定する。位置情報取得部107は、記憶部102に格納してあるカメラの設置情報に基づいて当該判定を行う。カメラの設置情報には、監視カメラ100の当初の設置位置の情報と、監視カメラ100が固定されているか移動可能かについての情報が含まれている。監視カメラ100の位置が変わり得る場合(例えば、監視カメラ100が固定位置に設置されていない場合、人に保持されている場合、車等の移動体に取り付けている場合)は、監視カメラ100の位置情報を更新する必要があると判定される。S403の判定結果がYesの場合、S404に進む。監視カメラ100の位置が変わらない場合(例えば、固定位置に設置されている場合)は、監視カメラ100の位置情報は変わらないので、S406に進む。
S404において、位置情報取得部107は、監視カメラ100の位置情報を更新する。監視カメラ100の最新の位置情報は、GPSによる測位や無線LAN、Buletooth等を用いた測位によって得ることができる。位置情報取得部107は、取得した最新の位置情報を記憶部102に格納することにより、予め記憶部102に格納されていた位置情報を更新する。格納された最新の位置情報は、撮像制御計算部106により使用される。
In S403, the position information acquisition unit 107 determines whether the position information of the monitoring camera 100 needs to be updated. The position information acquisition unit 107 makes this determination based on the camera installation information stored in the storage unit 102. The camera installation information includes information on the initial installation position of the surveillance camera 100 and information on whether the surveillance camera 100 is fixed or movable. When the position of the monitoring camera 100 can be changed (for example, when the monitoring camera 100 is not installed at a fixed position, when it is held by a person, or when it is attached to a mobile object such as a car) It is determined that the position information needs to be updated. When the determination result of S403 is Yes, it progresses to S404. If the position of the monitoring camera 100 does not change (for example, if it is installed at a fixed position), the position information of the monitoring camera 100 does not change, so the processing proceeds to S406.
In S404, the position information acquisition unit 107 updates the position information of the monitoring camera 100. The latest position information of the monitoring camera 100 can be obtained by positioning using GPS, positioning using a wireless LAN, Buletooth or the like. The position information acquisition unit 107 updates the position information stored in advance in the storage unit 102 by storing the acquired latest position information in the storage unit 102. The latest position information stored is used by the imaging control calculation unit 106.

S405において、測位精度取得部108は、監視カメラ100の位置情報に対する測位精度を取得・更新する。監視カメラ100がS404で監視カメラ100の最新の位置情報をGPS等の位置情報提供装置から受信する際に、測位精度取得部108は、最新の測位精度も受信することにより、最新の測位精度を取得する。そして、測位精度取得部108は、記憶部102に格納されていた測位精度を最新の測位精度に更新する。
なお、測位精度取得部108は、測位精度を更新する必要がない場合には、記憶部102に予め格納されている測位精度を、記憶部102から取得してもよい。例えば、測位精度の変化が微小であることが予測されているならば、測位精度取得部108は、記憶部102から測位精度を取得してもよい。また、測位精度の変化が微小であることが予測され、外部機器200が予め測位精度を保持しているならば、測位精度取得部108は外部機器200から測位精度を取得することができる。
In S405, the positioning accuracy acquisition unit 108 acquires / updates the positioning accuracy for the position information of the monitoring camera 100. When the monitoring camera 100 receives the latest position information of the monitoring camera 100 from the position information providing apparatus such as GPS in S404, the positioning accuracy acquisition unit 108 also receives the latest positioning accuracy, thereby obtaining the latest positioning accuracy. get. Then, the positioning accuracy acquisition unit 108 updates the positioning accuracy stored in the storage unit 102 to the latest positioning accuracy.
If it is not necessary to update the positioning accuracy, the positioning accuracy acquisition unit 108 may acquire the positioning accuracy stored in advance in the storage unit 102 from the storage unit 102. For example, if the change in the positioning accuracy is predicted to be minute, the positioning accuracy acquisition unit 108 may acquire the positioning accuracy from the storage unit 102. Further, if it is predicted that the change in positioning accuracy is minute and the external device 200 holds the positioning accuracy in advance, the positioning accuracy acquisition unit 108 can acquire the positioning accuracy from the external device 200.

S406において、撮像制御計算部106は、監視カメラ100の位置情報及び測位精度、並びに、撮像対象121の位置情報及び測位精度に基づいて、撮像画角を計算する。まず、撮像制御計算部106は、監視カメラ100の位置情報及び撮像対象の位置情報に基づいて、監視カメラ100と撮像対象との距離を算出する。そして、撮像制御計算部106は、算出した距離と監視カメラ100の測位精度と撮像対象121の測位精度Rに基づいて、三角関数を用いて撮像画角を算出する。撮像制御計算部106は、算出した撮像画角を撮像制御部103に送信する。
S407において、撮像制御計算部106は、監視カメラ100の位置情報及び撮像対象121の位置情報に基づいて、撮像方向を計算する。より詳しくは、撮像制御計算部106は、監視カメラ100の位置情報が表す点(緯度、経度、高度)と、撮像対象121の位置情報が表す点(緯度、経度、高度)とに基づいて、世界座標系における撮像方向を算出する。その後、撮像制御計算部106は、算出した撮像方向に基づいて撮像部104のパン及びチルトの値を算出し、撮像制御部103に送信する。
In S406, the imaging control calculation unit 106 calculates an imaging angle of view based on the position information and the positioning accuracy of the monitoring camera 100, and the position information and the positioning accuracy of the imaging target 121. First, the imaging control calculation unit 106 calculates the distance between the monitoring camera 100 and the imaging target based on the position information of the monitoring camera 100 and the position information of the imaging target. Then, based on the calculated distance, the positioning accuracy of the monitoring camera 100, and the positioning accuracy R of the imaging target 121, the imaging control calculation unit 106 calculates an imaging angle of view using a trigonometric function. The imaging control calculation unit 106 transmits the calculated imaging angle of view to the imaging control unit 103.
In S <b> 407, the imaging control calculation unit 106 calculates the imaging direction based on the position information of the monitoring camera 100 and the position information of the imaging target 121. More specifically, based on the points (latitude, longitude, altitude) represented by the position information of the monitoring camera 100 and the points (latitude, longitude, altitude) represented by the position information of the imaging target 121, the imaging control calculation unit 106 Calculate the imaging direction in the world coordinate system. Thereafter, the imaging control calculation unit 106 calculates pan and tilt values of the imaging unit 104 based on the calculated imaging direction, and transmits the pan and tilt values to the imaging control unit 103.

S408において、撮像制御部103は、S406で算出した撮像画角とS407で算出したパン及びチルトの値とを用いて、撮像部104の撮像範囲(PTZ)を制御する。なお、取得した撮像画角、パン及びチルトの値が制御可能な範囲を超えていた場合、撮像制御部103は、制御可能な範囲に撮像画角、パン及びチルトの値を丸めこみ、撮像範囲の制御を実行してもよい。あるいは、撮像制御部103は、撮像範囲全体が撮像できるように連続的に監視カメラ100のパン及びチルトを動かしてもよい。あるいは、撮像制御部103は、撮像範囲の制御を実行せずその旨のメッセージを通信部109から外部機器200に通知してもよい。
以上、図4を参照し撮像部104のPTZ制御の処理について説明したが、図4に示すフローチャートは、好適な一例を説明したものであり、本実施形態の撮像部104のPTZ制御はこれに限定されない。
In S408, the imaging control unit 103 controls the imaging range (PTZ) of the imaging unit 104 using the imaging angle of view calculated in S406 and the pan and tilt values calculated in S407. If the acquired imaging angle of view, pan and tilt values exceed the controllable range, the imaging control unit 103 rounds the imaging angle of view, pan and tilt values into the controllable range, and the imaging range Control may be performed. Alternatively, the imaging control unit 103 may move the pan and tilt of the monitoring camera 100 continuously so that the entire imaging range can be imaged. Alternatively, the imaging control unit 103 may notify the external device 200 of a message to that effect from the communication unit 109 without executing control of the imaging range.
The process of the PTZ control of the imaging unit 104 has been described above with reference to FIG. 4, but the flowchart shown in FIG. 4 is a description of a preferable example, and the PTZ control of the imaging unit 104 of this embodiment It is not limited.

(実施形態1の効果)
実施形態1では、監視カメラ100が受信した監視カメラ100及び撮像対象121の位置情報を用いるだけでなく、監視カメラ100及び撮像対象121の測位精度も用いて、撮像方向(パン及びチルトの値)と撮像画角を算出する。そして、算出された撮像方向と撮像画角に基づいて、監視カメラ100の撮像部104のPTZ制御を行う。これにより、位置情報122が撮像対象121の位置を正確に示していない場合でも、撮像対象121を撮像できる撮像範囲120を設定することができる。よって、監視カメラ100は、位置情報122に誤差がある場合にも撮像対象121を撮像することが出来る。また、監視カメラ100の位置情報が監視カメラ100の位置を正確に示していない場合でも、撮像対象121を撮像できる撮像範囲120を設定することができる。よって、監視カメラ100は、監視カメラ100の位置情報に誤差がある場合にも撮像対象121を撮像することが出来る。つまり、撮像対象が不規則に移動したり監視カメラが移動した結果、撮像対象や監視カメラの位置情報の誤差がある場合でも正確に撮像対象を撮像することができる。
また、監視カメラ100が移動する場合であっても、図4のS404で監視カメラの位置情報を適宜更新するので、常に最新の監視カメラの位置情報を使うことができる。
(Effect of Embodiment 1)
In the first embodiment, not only using positional information of the monitoring camera 100 and the imaging target 121 received by the monitoring camera 100 but also using positioning accuracy of the monitoring camera 100 and the imaging target 121, imaging directions (pan and tilt values) The imaging angle of view is calculated. Then, PTZ control of the imaging unit 104 of the monitoring camera 100 is performed based on the calculated imaging direction and imaging angle of view. Accordingly, even when the position information 122 does not accurately indicate the position of the imaging target 121, the imaging range 120 in which the imaging target 121 can be imaged can be set. Therefore, the monitoring camera 100 can capture an image of the imaging target 121 even when there is an error in the position information 122. In addition, even when the position information of the monitoring camera 100 does not accurately indicate the position of the monitoring camera 100, the imaging range 120 in which the imaging target 121 can be imaged can be set. Therefore, the monitoring camera 100 can capture an image of the imaging target 121 even when there is an error in the position information of the monitoring camera 100. That is, as a result of the imaging target moving irregularly or the monitoring camera moving, the imaging target can be accurately imaged even when there is an error in the position information of the imaging target or the monitoring camera.
Further, even when the monitoring camera 100 moves, the position information of the monitoring camera is appropriately updated in S404 of FIG. 4, so that the latest position information of the monitoring camera can be always used.

(変形例)
なお、図2では制御装置110は監視カメラ100の中に設けられているが、制御装置110を監視カメラ100の外に設けてもよい。
制御装置110は、撮像制御部103、撮像制御計算部106、位置情報取得部107、及び測位精度取得部108からなるとしたが、撮像制御部103は制御装置110の構成要素としなくてもよい。撮像部104のPTZ制御に必要な値は、撮像制御計算部106、位置情報取得部107、及び測位精度取得部108により計算・取得されているからである。
図4のフローチャートでは、S401の後にS402が記載されているが、S402はS401と同時に実行してもよい。
(Modification)
Although the control device 110 is provided in the monitoring camera 100 in FIG. 2, the control device 110 may be provided outside the monitoring camera 100.
Although the control device 110 includes the imaging control unit 103, the imaging control calculation unit 106, the position information acquisition unit 107, and the positioning accuracy acquisition unit 108, the imaging control unit 103 may not be a component of the control device 110. This is because the values necessary for PTZ control of the imaging unit 104 are calculated and acquired by the imaging control calculation unit 106, the position information acquisition unit 107, and the positioning accuracy acquisition unit 108.
Although S402 is described after S401 in the flowchart of FIG. 4, S402 may be executed simultaneously with S401.

本実施形態では撮像装置の一例として監視カメラを説明したが、本実施形態は監視カメラ以外の撮像装置にも適用することができる。
外部装置200はネットワーク300を介して監視カメラ100に接続されたが、ネットワーク300を介さずに監視カメラ100に接続されてもよい。
S406において、撮像制御計算部106は、監視カメラ100の位置情報及び測位精度、並びに、撮像対象121の位置情報及び測位精度に基づいて、撮像画角を計算するとしたが、撮像画角の計算はこのような計算に限定されない。例えば、監視カメラ100の位置情報の正確度(信頼度)が高い場合、撮像制御計算部106は、監視カメラ100の位置情報の測位精度を用いずに、監視カメラの位置情報と、撮像対象121の位置情報及び測位精度とに基づいて、撮像画角を計算してもよい。
また、S403の判定結果がNoの場合、S406に進むのではなく、S405に進んでもよい。
Although the monitoring camera has been described as an example of the imaging apparatus in the present embodiment, the present embodiment can be applied to an imaging apparatus other than the monitoring camera.
Although the external device 200 is connected to the monitoring camera 100 via the network 300, the external device 200 may be connected to the monitoring camera 100 without via the network 300.
In S406, the imaging control calculation unit 106 calculates the imaging angle of view based on the position information and the positioning accuracy of the monitoring camera 100, and the position information and the positioning accuracy of the imaging target 121, but the calculation of the imaging angle of view It is not limited to such calculations. For example, when the accuracy (reliability) of the position information of the monitoring camera 100 is high, the imaging control calculation unit 106 does not use the positioning accuracy of the position information of the monitoring camera 100, and the position information of the monitoring camera The imaging angle of view may be calculated based on the position information and the positioning accuracy.
If the determination result in S403 is No, the process may proceed to S405 instead of S406.

実施形態2
以下、図1及び図5〜図9を参照して、本発明の実施形態2による制御装置110Aを備える監視カメラ100Aについて説明する。実施形態1と同じ構成については、同じ参照符号を付け、詳細な説明は省略する。実施形態1の記憶部102は実施形態2では記憶部102Aとなり、実施形態1の撮像制御計算部106は実施形態2では撮像制御計算部106Aとなっている。また、実施形態2の監視カメラ100Aは映像解析部111を備えている。実施形態1では、位置情報と測位精度に基づいてPTZ制御を行ったが、実施形態2では、位置情報と測位精度に基づくPTZ制御を行った後、映像解析により特徴領域(最も注目すべき領域)を検出し、当該特徴領域に基づいて再度PTZ処理を行う。本実施形態では、人物を撮像対象(監視対象)121としているので、監視カメラ100Aが最も注目すべき領域である特徴領域は、撮像画像中の人物121の領域であるとする。
Embodiment 2
Hereinafter, with reference to FIG. 1 and FIGS. 5-9, surveillance camera 100A provided with control device 110A by Embodiment 2 of the present invention is explained. About the same structure as Embodiment 1, the same referential mark is attached and detailed explanation is omitted. The storage unit 102 of the first embodiment is the storage unit 102A in the second embodiment, and the imaging control calculation unit 106 of the first embodiment is the imaging control calculation unit 106A in the second embodiment. The surveillance camera 100 </ b> A of the second embodiment is provided with the video analysis unit 111. In the first embodiment, PTZ control is performed based on the position information and the positioning accuracy. However, in the second embodiment, after performing the PTZ control based on the position information and the positioning accuracy, the feature area (the area to be noticed most ) Is detected, and PTZ processing is performed again based on the feature area. In the present embodiment, since the person is the imaging target (monitoring target) 121, it is assumed that the feature region, which is the region to which the monitoring camera 100A should focus most, is the region of the person 121 in the captured image.

(監視カメラの構成)
図5は実施形態2の監視カメラ100Aの構成を示した機能ブロック図である。監視カメラ100Aは、制御部101、記憶部102A、撮像制御部103、撮像部104、撮像光学系105、撮像制御計算部106A、位置情報取得部107、測位精度取得部108、通信部109及び映像解析部111を備える。制御部101、撮像制御部103、撮像部104、撮像光学系105、位置情報取得部107、測位精度取得部108、及び通信部109は実施形態1(図2)と同じである。監視カメラ100Aの制御装置110Aは、撮像制御部103、撮像制御計算部106A、位置情報取得部107、測位精度取得部108及び映像解析部111からなる。
記憶部102Aは、主に制御部101が実行するプログラム、設定値(指定値)、撮像部104が生成する画像データ(撮像画像)、位置情報取得部107で取得する位置情報、映像解析部111で取得した映像解析結果等の様々なデータを格納する。また、記憶部102Aは、プログラム実行中のワーク領域としても使用される。
(Configuration of surveillance camera)
FIG. 5 is a functional block diagram showing the configuration of the surveillance camera 100A of the second embodiment. The monitoring camera 100A includes a control unit 101, a storage unit 102A, an imaging control unit 103, an imaging unit 104, an imaging optical system 105, an imaging control calculation unit 106A, a position information acquisition unit 107, a positioning accuracy acquisition unit 108, a communication unit 109, and an image. The analysis unit 111 is provided. The control unit 101, the imaging control unit 103, the imaging unit 104, the imaging optical system 105, the position information acquisition unit 107, the positioning accuracy acquisition unit 108, and the communication unit 109 are the same as in the first embodiment (FIG. 2). The control device 110A of the monitoring camera 100A includes an imaging control unit 103, an imaging control calculation unit 106A, a position information acquisition unit 107, a positioning accuracy acquisition unit 108, and a video analysis unit 111.
The storage unit 102A mainly includes a program executed by the control unit 101, a setting value (specified value), image data (captured image) generated by the imaging unit 104, position information acquired by the position information acquisition unit 107, and a video analysis unit 111. Stores various data such as the video analysis result acquired in The storage unit 102A is also used as a work area during program execution.

撮像制御計算部106Aは、位置情報取得部107及び測位精度取得部108から取得した、監視カメラ100Aの位置情報及び測位精度と撮像対象121の位置情報及び測位精度とから、撮像方向及び撮像範囲を計算する。あるいは、撮像制御計算部106Aは、外部機器200から通信部109を介して取得した、監視カメラ100Aの位置情報及び測位精度と撮像対象121の位置情報及び測位精度とから、撮像方向及び撮像範囲を計算する。そして、撮像制御計算部106Aは、映像解析部111で取得した映像解析結果に基づいて、撮像方向及び撮像範囲を計算する。撮像制御計算部106Aは、外部機器200からPTZ制御コマンド等を受信することができる。撮像制御計算部106Aは、位置情報の取得、測位精度の取得、映像解析結果の取得、外部機器200からのPTZ制御コマンド等の受信等を契機に撮像方向及び撮像範囲を計算し、計算結果を撮像制御部103に送信する。   The imaging control calculation unit 106A acquires the imaging direction and the imaging range from the position information and the positioning accuracy of the monitoring camera 100A and the position information and the positioning accuracy of the imaging target 121 acquired from the position information acquisition unit 107 and the positioning accuracy acquisition unit 108. calculate. Alternatively, the imaging control calculation unit 106A acquires the imaging direction and the imaging range from the position information and the positioning accuracy of the monitoring camera 100A and the position information and the positioning accuracy of the imaging target 121 acquired from the external device 200 via the communication unit 109. calculate. Then, the imaging control calculation unit 106A calculates the imaging direction and the imaging range based on the video analysis result acquired by the video analysis unit 111. The imaging control calculation unit 106A can receive a PTZ control command or the like from the external device 200. The imaging control calculation unit 106A calculates an imaging direction and an imaging range triggered by acquisition of position information, acquisition of positioning accuracy, acquisition of video analysis results, reception of PTZ control commands from the external device 200, etc. It is transmitted to the imaging control unit 103.

映像解析部111は、記憶部102Aに格納された撮像画像(映像)の解析を行い、撮像画像中から特徴領域(人物)を検出する。図6(a)に示すように人物121を検出すると、人物121を囲む外接矩形Qが決まる。特徴領域を検出する場合、映像解析部111は、背景差分方式やフレーム間差分方式などを用いた動体検出や、顕著性の計算に基づく注目領域(特徴領域)の検出等を利用する。動体検出及び顕著性の計算に基づく特徴領域の検出は、公知の技術であるため、詳細な説明は省略する。映像解析部111は、検出した特徴領域の情報(取得した映像解析結果)を記憶部102A及び撮像制御計算部106Aに送信する。また、映像解析部111は、検出した特徴領域の情報(取得した映像解析結果)を通信部109を介して外部機器200に送信してもよい。
以上、図5を用いて監視カメラ100Aの構成について説明したが、図5に示す構成は一例であり、監視カメラ100Aの構成はこの限りではない。例えば、監視カメラ100Aは、音声入力部や音声出力部を備えてもよい。
The video analysis unit 111 analyzes the captured image (video) stored in the storage unit 102A, and detects a feature area (person) from the captured image. As shown in FIG. 6A, when a person 121 is detected, a circumscribed rectangle Q surrounding the person 121 is determined. When detecting the feature area, the video analysis unit 111 uses moving object detection using a background difference method, an inter-frame difference method, or the like, detection of an attention area (feature area) based on calculation of saliency, and the like. The detection of feature regions based on motion detection and saliency calculation is a known technique, and thus detailed description will be omitted. The video analysis unit 111 transmits the information of the detected feature area (the acquired video analysis result) to the storage unit 102A and the imaging control calculation unit 106A. Also, the video analysis unit 111 may transmit information of the detected feature area (the acquired video analysis result) to the external device 200 via the communication unit 109.
The configuration of the monitoring camera 100A has been described above using FIG. 5, but the configuration shown in FIG. 5 is an example, and the configuration of the monitoring camera 100A is not limited to this. For example, the monitoring camera 100A may include an audio input unit and an audio output unit.

(撮像部のPTZ制御)
次に図7のフローチャートを参照して、本実施形態の制御装置110Aが実行する撮像部104のPTZ制御の処理について詳細に説明する。図7のフローチャートは図5に示す制御装置110Aの機能モジュールによって実現される。機能モジュールがソフトウェアである場合、制御部101を構成するCPUが、そのプログラムを実行することによりフローチャートの処理が実現される。
S701は、位置情報及び測位精度に基づいて撮像範囲(PTZ)を制御する処理である。S701の処理は実施形態1(図4のS401〜S408)と同じであるため説明を省略する。
S702において、映像解析部111は、映像解析によって特徴領域を検出する。映像解析は、S701の処理によって制御された撮像範囲で取得した撮像画像(図6(a))に対して行う。特徴領域の検出は、上記したように、動体検出や顕著性計算による注目領域検出等を利用する。図6(a)に示すように、映像解析部111は、映像解析により最も注目すべき領域(特徴領域121)を決定し、決定した特徴領域における外接矩形Qの座標を算出(取得)する。そして、映像解析部111は、外接矩形Qの座標を記憶部102A及び撮像制御計算部106Aに送信する。
(PTZ control of imaging unit)
Next, processing of PTZ control of the imaging unit 104 performed by the control device 110A of the present embodiment will be described in detail with reference to the flowchart of FIG. The flowchart of FIG. 7 is realized by the functional modules of the control device 110A shown in FIG. When the functional module is software, the CPU constituting the control unit 101 executes the program to realize the processing of the flowchart.
S701 is a process of controlling the imaging range (PTZ) based on the position information and the positioning accuracy. Since the process of S701 is the same as that of Embodiment 1 (S401 to S408 in FIG. 4), the description will be omitted.
In S702, the video analysis unit 111 detects a feature area by video analysis. The video analysis is performed on the captured image (FIG. 6A) acquired in the imaging range controlled by the process of S701. As described above, the detection of the feature area utilizes moving object detection, attention area detection by saliency calculation, or the like. As shown in FIG. 6A, the video analysis unit 111 determines a region (feature region 121) to be most noticed by video analysis, and calculates (acquires) the coordinates of the circumscribed rectangle Q in the determined feature region. Then, the video analysis unit 111 transmits the coordinates of the circumscribed rectangle Q to the storage unit 102A and the imaging control calculation unit 106A.

S703において、撮像制御計算部106Aは、撮像画角もしくは撮像範囲の幅及び高さについて指定された値(指定値)があるかどうかを判定する。撮像画角もしくは撮像範囲の幅及び高さの指定値(設定値)は、例えば、外部機器200のユーザが指定する。この場合、外部機器200がPTZ制御コマンドを監視カメラ100Aに送信する際に、外部機器200は、ユーザから入力された指定値を監視カメラ100Aに送信する。また、予め監視カメラ100Aの記憶部102Aに格納しておいた設定値を、撮像画角もしくは撮像範囲の幅及び高さの指定値として使用することもできる。指定値がある場合は、当該指定値に基づき撮像画角を決定するためS704に進む。指定値がない場合は、特徴領域に基づき撮像画角を決定するためS705に進む。   In S703, the imaging control calculation unit 106A determines whether there is a value (designated value) designated for the imaging angle of view or the width and height of the imaging range. For example, the user of the external device 200 designates a designated value (setting value) of the width and height of the imaging angle of view or the imaging range. In this case, when the external device 200 transmits a PTZ control command to the monitoring camera 100A, the external device 200 transmits the designated value input by the user to the monitoring camera 100A. The setting value stored in advance in the storage unit 102A of the monitoring camera 100A can also be used as a designated value of the imaging angle of view or the width and height of the imaging range. If there is a designated value, the process advances to step S704 to determine the imaging angle of view based on the designated value. If there is no designated value, the process advances to step S705 to determine the imaging angle of view based on the feature area.

S704において、撮像制御計算部106Aは、撮像画角もしくは撮像範囲の幅及び高さの指定値に基づき撮像画角を決定する。撮像画角の値が指定されている場合(指定値がある場合)は、S704で計算を行う必要はない。つまり、撮像制御計算部106Aは、当該指定値を撮像画角とするという決定をし、当該指定値を撮像制御部103に送信する。撮像範囲の幅及び高さが指定されている場合(指定値がある場合)は、撮像制御計算部106Aは、当該指定値に基づき、受信した撮像対象の位置における撮像画角を算出する。撮像制御計算部106Aは、算出した撮像画角をS704の撮像画角とするという決定をし、当該撮像画角を撮像制御部103に送信する。撮像画角の指定値は、例えば、人物だけを撮像できる画角より所定値だけ大きい値である。また、撮像範囲の幅及び高さの指定値も、例えば、人物だけを撮像できる幅と高さの値より所定値だけ大きい値である。   In S704, the imaging control calculation unit 106A determines the imaging angle of view based on the imaging angle of view or the designated values of the width and height of the imaging range. When the value of the imaging angle of view is designated (when there is a designated value), it is not necessary to calculate in S704. That is, the imaging control calculation unit 106A determines to set the designated value as the imaging angle of view, and transmits the designated value to the imaging control unit 103. If the width and height of the imaging range are designated (if there is a designated value), the imaging control calculation unit 106A calculates the imaging angle of view at the position of the received imaging target based on the designated value. The imaging control calculation unit 106A determines that the calculated imaging angle of view is to be the imaging angle of view in S704, and transmits the imaging angle of view to the imaging control unit 103. The designated value of the imaging angle of view is, for example, a value larger by a predetermined value than the angle of view in which only a person can be imaged. The specified values of the width and height of the imaging range are also, for example, values larger than the values of the width and height at which only a person can be imaged by a predetermined value.

(撮像画角の決定方法)
ここで、図8を用いて指定された撮像範囲の幅に基づき撮像画角131を決定する具体例を説明する。符号122は撮像対象121の位置情報として監視カメラ100Aが位置情報提供装置から受信した位置情報である。符号132は指定された撮像範囲の幅である。撮像範囲の幅132は、位置情報122を中心として、監視カメラ100Aに平行な幅である。
まず、監視カメラ100Aの位置情報と撮像対象121の位置情報122に基づき、監視カメラ100Aから位置情報122までの距離133を計算する。その後、距離133と幅132を用いて、三角関数で撮像画角131を計算する。以上の方法で、指定された幅132に基づき撮像画角131を計算することが出来る。
図7に戻る。S705において、撮像制御計算部106Aは、特徴領域の外接矩形Qの座標に基づき撮像画角を決定(調整)する。撮像制御計算部106Aは、例えば、制御後(S705における撮像範囲の制御後)の撮像範囲において特徴領域(外接矩形)の占める割合を予め設定しておき、この割合とS702で取得した特徴領域の外接矩形Qの座標に基づき、撮像画角を算出する。なお、撮像制御計算部106Aは、他の方法で撮像画角を算出してもよい。撮像制御計算部106Aは、算出した撮像画角を撮像制御部103に送信する。
(How to determine the imaging angle of view)
Here, a specific example of determining the imaging angle of view 131 based on the width of the imaging range specified using FIG. 8 will be described. Reference numeral 122 denotes position information received by the monitoring camera 100A from the position information providing apparatus as position information of the imaging target 121. Reference numeral 132 is the width of the designated imaging range. The width 132 of the imaging range is a width parallel to the monitoring camera 100A with the position information 122 at the center.
First, based on the position information of the monitoring camera 100A and the position information 122 of the imaging target 121, the distance 133 from the monitoring camera 100A to the position information 122 is calculated. Thereafter, using the distance 133 and the width 132, the imaging angle of view 131 is calculated by a trigonometric function. The imaging angle of view 131 can be calculated based on the designated width 132 by the above method.
Return to FIG. In S705, the imaging control calculation unit 106A determines (adjusts) the imaging angle of view based on the coordinates of the circumscribed rectangle Q of the feature area. For example, the imaging control calculation unit 106A sets in advance the ratio of the feature area (the circumscribed rectangle) in the imaging range after control (after the control of the imaging range in S705), and this ratio and the characteristic area acquired in S702. Based on the coordinates of the circumscribed rectangle Q, the imaging angle of view is calculated. The imaging control calculation unit 106A may calculate the imaging angle of view by another method. The imaging control calculation unit 106A transmits the calculated imaging angle of view to the imaging control unit 103.

(特徴領域に基づく撮像画角の決定)
ここで図9を用いて、特徴領域に基づき撮像画角を決定(調整)する方法の具体例を説明する。図9(a)の破線枠(撮像範囲)141AはS701の処理を行って得た撮像範囲であり、破線枠141Aは位置情報と測位精度に基づいて決定した撮像範囲である。実線枠142Aは撮像範囲141Aにおける特徴領域の外接矩形である。図9(b)の破線枠(撮像範囲)141Bは制御後(S705の処理後)の撮像範囲を示している。
まず、撮像制御計算部106Aは、撮像範囲制御後(S705の処理後)の撮像範囲において特徴領域の外接矩形の占める割合(例えば、特徴領域の外接矩形の縦画素数144Bが、撮像範囲の縦画素数143Bに対して90%)を予め設定しておく。そして、撮像制御計算部106Aは、図9(a)の破線枠(現在の撮像範囲)141Aの縦画素数に対する実線枠(特徴領域の外接矩形)142Aの縦画素数の割合を算出する。その後、撮像制御計算部106Aは、撮像範囲における特徴領域の外接矩形の割合が上記の設定された割合(90%)となるよう、撮像範囲141Bを決定する。例えば、図9(a)において撮像範囲141Aの縦画素数143Aが540画素であり、特徴領域の外接矩形142Aの縦画素数144Aが270画素であるとすると、その割合は50%となる。この割合を撮像範囲制御後(S705の処理後:図9(b))において90%とするために、図9(b)の撮像範囲141Bの縦画素数143Bの540画素に対して、特徴領域の縦画素数144Bが486画素となるよう撮像範囲141Bを決定する。そして、撮像制御計算部106Aは、決定した撮像範囲141Bに基づき撮像画角を計算する。特徴領域の縦画素数が270画素から486画素になるのは、特徴領域の画像が拡大されて撮像(ズームアップ)されるからである。
(Determination of imaging angle of view based on feature area)
Here, a specific example of a method of determining (adjusting) the imaging angle of view based on the feature area will be described with reference to FIG. A dashed line frame (imaging range) 141A in FIG. 9A is an imaging range obtained by performing the process of S701, and a dashed line frame 141A is an imaging range determined based on the position information and the positioning accuracy. The solid line frame 142A is a circumscribed rectangle of the feature area in the imaging range 141A. The broken line frame (imaging range) 141B in FIG. 9B indicates the imaging range after control (after the process of S705).
First, the imaging control calculation unit 106A calculates the ratio of the circumscribed rectangle of the feature area in the imaging range after the imaging range control (after the processing of S705) (for example, the vertical pixel count 144B of the circumscribed rectangle of the characteristic region is the length of the imaging range 90% of the pixel count 143B is set in advance. Then, the imaging control calculation unit 106A calculates the ratio of the number of vertical pixels of the solid line frame (the circumscribed rectangle of the feature area) 142A to the number of vertical pixels of the dashed line frame (current imaging range) 141A in FIG. Thereafter, the imaging control calculation unit 106A determines the imaging range 141B such that the ratio of the circumscribed rectangle of the feature area in the imaging range becomes the above-described set ratio (90%). For example, in FIG. 9A, if the vertical pixel count 143A of the imaging range 141A is 540 pixels and the vertical pixel count 144A of the circumscribed rectangle 142A of the feature area is 270 pixels, the ratio is 50%. In order to set this ratio to 90% after imaging range control (after processing of S 705: FIG. 9B), the characteristic region with respect to 540 pixels of the vertical pixel number 143B of the imaging range 141B of FIG. The imaging range 141B is determined such that the number of vertical pixels 144B of the pixel is 486 pixels. Then, the imaging control calculation unit 106A calculates an imaging angle of view based on the determined imaging range 141B. The number of vertical pixels in the feature area is changed from 270 pixels to 486 pixels because the image of the feature area is enlarged and imaged (zoomed up).

図7に戻る。S706において、撮像制御計算部106Aは、特徴領域に基づき撮像方向を決定する。撮像制御計算部106Aは、S702で取得した特徴領域の外接矩形Qの座標から特徴領域の外接矩形の中心座標を算出し、特徴領域の外接矩形の中心座標が撮像範囲制御後の撮像範囲の中心となるよう撮像方向を決定し、パン及びチルトの値を算出する。その後、撮像制御計算部106Aは、算出したパン及びチルトの値を撮像制御部103に送信する。
S707において、撮像制御部103は、S704もしくはS705で算出・決定した撮像画角と、S706で算出したパン及びチルトの値を用いて、撮像部104の撮像範囲(PTZ)を制御する。
もし取得した撮像画角、パン及びチルトの値がが監視カメラ100Aにおいて撮像可能な範囲を超えていた場合、撮像制御部103は、例えば、制御可能な範囲に撮像画角、パン及びチルトの値を丸めこみ、撮像範囲の制御を実行してもよい。あるいは、撮像制御部103は、撮像範囲全体が撮像できるように連続的に監視カメラ100Aのパン及びチルトを動かしてもよい。なお、取得した撮像画角、パン及びチルトの値が制御可能な範囲を超えていた場合、撮像制御部103は、撮像範囲の制御を実行せずその旨のメッセージを通信部109から外部機器200に通知してもよい。
Return to FIG. In S706, the imaging control calculation unit 106A determines the imaging direction based on the feature area. The imaging control calculation unit 106A calculates the center coordinates of the circumscribed rectangle of the feature area from the coordinates of the circumscribed rectangle Q of the feature area acquired in S702, and the center coordinates of the circumscribed rectangle of the feature area is the center of the imaging range after imaging range control. The imaging direction is determined so that the pan and tilt values are calculated. Thereafter, the imaging control calculation unit 106A transmits the calculated pan and tilt values to the imaging control unit 103.
In S707, the imaging control unit 103 controls the imaging range (PTZ) of the imaging unit 104 using the imaging angle of view calculated and determined in S704 or S705 and the pan and tilt values calculated in S706.
If the acquired imaging angle of view, pan and tilt values exceed the range that can be imaged by the monitoring camera 100A, the imaging control unit 103 may, for example, control the imaging angle of view, pan and tilt values to a controllable range. , And control of the imaging range may be performed. Alternatively, the imaging control unit 103 may move the pan and tilt of the monitoring camera 100A continuously so that the entire imaging range can be imaged. When the acquired imaging angle of view, pan and tilt values exceed the controllable range, the imaging control unit 103 does not execute control of the imaging range, and sends a message to that effect from the communication unit 109 to the external device 200. You may notify

図6(b)は、S707のPTZ制御を実行した後の監視カメラ100Aと撮像対象121と撮像範囲120Aを示している。図6(a)の撮像範囲120に比べ、図6(b)の撮像範囲120Aは狭い画角で撮像対象121を撮像することができる。
図8に示すようにS704の処理が終わった時点では、撮像対象121が撮像範囲134に入っていない場合があるが、S706の処理により撮像範囲134は図6(b)の撮像範囲120Aに修正される。よって、監視カメラ100Aは撮像対象121を、より狭い画角で撮像することができる。
以上、図7を参照し撮像部104のPTZ制御の処理について説明したが、図7に示すフローチャートは、好適な一例を説明したものであり、本実施形態の撮像部104のPTZ制御はこれに限定されない。
FIG. 6B illustrates the monitoring camera 100A, the imaging target 121, and the imaging range 120A after the PTZ control of S707 is performed. As compared with the imaging range 120 of FIG. 6A, the imaging range 120A of FIG. 6B can capture the imaging target 121 at a narrow angle of view.
As shown in FIG. 8, when the process of S704 is completed, the imaging target 121 may not be in the imaging range 134, but the imaging range 134 is corrected to the imaging range 120A of FIG. Be done. Thus, the monitoring camera 100A can capture an image of the imaging target 121 at a narrower angle of view.
The process of the PTZ control of the imaging unit 104 has been described above with reference to FIG. 7, but the flowchart illustrated in FIG. 7 is a description of a preferable example, and the PTZ control of the imaging unit 104 of this embodiment It is not limited.

(実施形態2の効果)
実施形態2では、まず、監視カメラ100Aが受信した監視カメラの位置情報と撮像対象の位置情報及びそれぞれの測位精度に基づいて、撮像方向と撮像画角を取得し、取得した撮像方向と撮像画角に基づき監視カメラ100Aの撮像部104のPTZ制御を行う。このPTZ制御は実施形態1と同じであるが、実施形態2では、その後(S701の後)、取得した撮像画像を解析し、特徴領域を検出(抽出)する。そして、特徴領域に基づき、再度、撮像部104のPTZ制御を行う。つまり、実施形態2では、一度決定した撮像画角と撮像方向を、特徴領域に基づいて調整している。当該調整により、撮像対象である人物をより大きな画像として撮像することができ、撮像対象の可視性を向上している。
(Effect of Embodiment 2)
In the second embodiment, first, the imaging direction and the imaging angle of view are acquired based on the position information of the monitoring camera received by the monitoring camera 100A, the position information of the imaging target, and the positioning accuracy of each, and the acquired imaging direction and imaging image PTZ control of the imaging unit 104 of the surveillance camera 100A is performed based on the corner. Although this PTZ control is the same as that of the first embodiment, in the second embodiment (after S701), the acquired captured image is analyzed to detect (extract) a characteristic region. Then, PTZ control of the imaging unit 104 is performed again based on the characteristic region. That is, in the second embodiment, the imaging angle of view and the imaging direction determined once are adjusted based on the feature region. By the adjustment, the person who is the imaging target can be imaged as a larger image, and the visibility of the imaging target is improved.

(変形例)
なお、実施形態2では、特徴領域は撮像画像中の人物121の領域であるとしたが、本実施形態の特徴領域はこれに限定されない。特徴領域は、撮像画像中において所定の特徴を有する領域であればよい。例えば、特徴領域は、動体検出技術で検出できる任意の動体の領域でよい。また、特徴領域は、撮像画像中において顕著性を有する任意の領域でもよい。
また、制御装置110Aは、撮像制御部103、撮像制御計算部106A、位置情報取得部107、測位精度取得部108及び映像解析部111からなるとしたが、撮像制御部103は制御装置110の構成要素としなくてもよい。
(Modification)
In the second embodiment, the feature area is the area of the person 121 in the captured image, but the feature area of the present embodiment is not limited to this. The feature area may be an area having a predetermined feature in the captured image. For example, the feature area may be an area of any moving object that can be detected by a moving object detection technique. In addition, the feature region may be any region having saliency in the captured image.
Although the control device 110A includes the imaging control unit 103, the imaging control calculation unit 106A, the position information acquisition unit 107, the positioning accuracy acquisition unit 108, and the video analysis unit 111, the imaging control unit 103 is a component of the control device 110. You do not have to

実施形態3
以下、図1及び図10〜図12を参照して、本発明の実施形態3による監視カメラ100Bの制御装置110Bについて説明する。実施形態1と同じ構成については、同じ参照符号を付け、詳細な説明は省略する。実施形態1の記憶部102は実施形態3では記憶部102Bとなり、実施形態1の撮像制御部103は実施形態3では撮像制御部103Bとなり、実施形態1の通信部109は実施形態3では通信部109Bとなっている。また、実施形態1の撮像制御計算部106、位置情報取得部107、及び測位精度取得部108は、実施形態3の監視カメラ100Bに設けられていない。実施形態1の制御装置110は監視カメラ内に設けられたが、実施形態3の制御装置110Bは外部装置200内に設けられている。つまり、実施形態3では、位置情報と測位精度に基づく設定値計算を外部機器200が行う構成になっている。
Embodiment 3
The control device 110B of the surveillance camera 100B according to the third embodiment of the present invention will be described below with reference to FIGS. 1 and 10 to 12. About the same structure as Embodiment 1, the same referential mark is attached and detailed explanation is omitted. The storage unit 102 in the first embodiment is the storage unit 102B in the third embodiment, the imaging control unit 103 in the first embodiment is the imaging control unit 103B in the third embodiment, and the communication unit 109 in the first embodiment is the communication unit in the third embodiment. It is 109B. Further, the imaging control calculation unit 106, the position information acquisition unit 107, and the positioning accuracy acquisition unit 108 of the first embodiment are not provided in the monitoring camera 100B of the third embodiment. The control device 110 of the first embodiment is provided in the monitoring camera, but the control device 110B of the third embodiment is provided in the external device 200. That is, in the third embodiment, the external device 200 is configured to perform setting value calculation based on the position information and the positioning accuracy.

(監視カメラの構成)
図10は実施形態3の監視カメラ100Bの構成を示した機能ブロック図である。監視カメラ100Bは、制御部101、記憶部102B、撮像制御部103B、撮像部104、撮像光学系105及び通信部109Bを備える。制御部101、撮像部104、及び撮像光学系105は実施形態1(図2)と同じである。
記憶部102Bは、様々なデータや情報を格納する。具体的には、記憶部102Bは、制御部101が実行するプログラム、通信部109Bが外部機器200から受信した設定値(指定値)、撮像部104が生成する画像データ等を格納する。また、記憶部102Bは、プログラム実行中のワーク領域としても使用される。
撮像制御部103Bは、制御部101の制御の下、外部機器200から通信部109Bを介して送信されたパン、チルト、ズームの値に従って、撮像部104の撮像範囲を制御する。
(Configuration of surveillance camera)
FIG. 10 is a functional block diagram showing the configuration of the surveillance camera 100B of the third embodiment. The monitoring camera 100B includes a control unit 101, a storage unit 102B, an imaging control unit 103B, an imaging unit 104, an imaging optical system 105, and a communication unit 109B. The control unit 101, the imaging unit 104, and the imaging optical system 105 are the same as in the first embodiment (FIG. 2).
The storage unit 102B stores various data and information. Specifically, the storage unit 102B stores a program executed by the control unit 101, a setting value (specified value) received by the communication unit 109B from the external device 200, image data generated by the imaging unit 104, and the like. The storage unit 102B is also used as a work area during program execution.
The imaging control unit 103B controls the imaging range of the imaging unit 104 according to the pan, tilt, and zoom values transmitted from the external device 200 via the communication unit 109B under the control of the control unit 101.

通信部109Bは、PTZ等の設定値や各制御コマンドを外部機器200から受信する。また、通信部109Bは、各制御コマンドに対するレスポンスや記憶部102Bに格納された画像データ等の様々なデータを外部機器200へ送信する。通信部109Bが外部機器200から制御コマンドを受信(取得)すると、通信部109Bは制御部101へ制御コマンド受信イベントを送信する。通信部109Bが外部機器200から設定値を受信すると、通信部109Bは記憶部102Bに設定値を送信し、設定値を記憶部102Bに格納させる。
以上、図10を用いて監視カメラ100Bの構成について説明したが、図10に示す構成は一例であり、監視カメラ100Bの構成はこの限りではない。例えば、監視カメラ100Bは、位置情報取得部、映像解析部、音声入力部、音声出力部などを備えてもよい。
The communication unit 109B receives, from the external device 200, set values such as PTZ and control commands. Also, the communication unit 109B transmits various data such as a response to each control command and image data stored in the storage unit 102B to the external device 200. When the communication unit 109B receives (acquires) a control command from the external device 200, the communication unit 109B transmits a control command reception event to the control unit 101. When the communication unit 109B receives the setting value from the external device 200, the communication unit 109B transmits the setting value to the storage unit 102B, and stores the setting value in the storage unit 102B.
The configuration of the monitoring camera 100B has been described above using FIG. 10, but the configuration shown in FIG. 10 is an example, and the configuration of the monitoring camera 100B is not limited to this. For example, the monitoring camera 100B may include a position information acquisition unit, a video analysis unit, an audio input unit, an audio output unit, and the like.

(外部機器の構成)
次に図11の機能ブロック図を参照して、本実施形態に係る外部機器200の構成について説明する。外部機器200は、制御部201、記憶部202、表示部203、入力部204、設定値計算部205、位置情報取得部206、測位精度取得部207、及び通信部208を備える。実施形態3の監視カメラ100Bの制御装置110Bは、外部機器200に備えられている。制御装置110Bは、設定値計算部205、位置情報取得部206、測位精度取得部207、及び通信部208かならる。
制御部201は、外部機器200の全体の制御を行う。制御部201は、一つ又は複数のプロセッサ(CPU等)によって構成され、記憶部202に格納されている制御プログラムを実行することで外部機器200全体の動作を制御する。
(Configuration of external device)
Next, the configuration of the external device 200 according to the present embodiment will be described with reference to the functional block diagram of FIG. The external device 200 includes a control unit 201, a storage unit 202, a display unit 203, an input unit 204, a setting value calculation unit 205, a position information acquisition unit 206, a positioning accuracy acquisition unit 207, and a communication unit 208. The control device 110B of the monitoring camera 100B of the third embodiment is provided in the external device 200. The control device 110 </ b> B includes the setting value calculation unit 205, the position information acquisition unit 206, the positioning accuracy acquisition unit 207, and the communication unit 208.
The control unit 201 controls the entire external device 200. The control unit 201 is configured by one or more processors (CPU and the like), and controls the entire operation of the external device 200 by executing a control program stored in the storage unit 202.

記憶部202は、様々なデータや情報を格納する。具体的には、記憶部202は、制御部201が実行するプログラム、位置情報取得部206で取得した撮像対象及び監視カメラの位置情報、並びに、測位精度取得部207で取得した測位精度等を格納する。また、記憶部202は、プログラム実行中のワーク領域としても使用される。記憶部202は、例えば、ROM、RAM、HDD、フラッシュメモリまたは着脱可能なSDカードなどの記憶媒体により構成される。記憶部202には、予め監視カメラ100Bの位置情報及び測位精度を格納しておく。
表示部203は、様々な設定画面や、データ取得・表示画面、監視カメラ100Bから受信する映像のビューワ、各種メッセージ等を表示する。表示部203は、例えばLCD、有機ELディスプレイ等で構成される。外部機器200のユーザは表示部203に表示された設定画面等を見ることができる。
The storage unit 202 stores various data and information. Specifically, the storage unit 202 stores the program executed by the control unit 201, the position information of the imaging target and the monitoring camera acquired by the position information acquisition unit 206, and the positioning accuracy and the like acquired by the positioning accuracy acquisition unit 207. Do. The storage unit 202 is also used as a work area during program execution. The storage unit 202 is configured of, for example, a storage medium such as a ROM, a RAM, an HDD, a flash memory, or a removable SD card. The storage unit 202 stores in advance positional information and positioning accuracy of the monitoring camera 100B.
The display unit 203 displays various setting screens, data acquisition / display screens, viewers of images received from the monitoring camera 100B, various messages, and the like. The display unit 203 is configured of, for example, an LCD, an organic EL display, or the like. The user of the external device 200 can view the setting screen or the like displayed on the display unit 203.

入力部204は、例えばボタン、十字キー、タッチパネル、マウス等で構成される。入力部204は、外部機器200のユーザによるボタン等の操作(画面操作を含む)の内容を制御部201に通知する。入力部204は、ユーザにより操作されるので、操作部と称することもできるし、ユーザインタフェースと称することもできる。ユーザは入力部204を操作することにより、種々の指示(例えば、撮像範囲制御要求)、数値、データ、情報(例えば、監視カメラ100Bの位置情報)等を外部機器200に入力することができる。
設定値計算部205は、位置情報取得部206で取得した撮像対象の位置情報及びその測位精度、並びに、監視カメラ100Bの位置情報及びその測位精度に基づき、撮像画角及び撮像方向を計算する。また、設定値計算部205は、撮像画角や撮像方向から、撮像範囲の幅と高さ等の設定値も計算する。設定値計算部205は、位置情報の取得や、ユーザからの撮像範囲制御要求の入力等を契機に当該計算を行う。設定値計算部205は、計算結果(撮像画角及び撮像方向、撮像範囲の幅及び高さ等の設定値)を記憶部202に格納させる。当該計算結果は、通信部208を介して外部機器200から監視カメラ100Bに送信される。
The input unit 204 includes, for example, a button, an arrow key, a touch panel, and a mouse. The input unit 204 notifies the control unit 201 of the content of an operation (including screen operation) such as a button by the user of the external device 200. Since the input unit 204 is operated by the user, it can also be called an operation unit or a user interface. By operating the input unit 204, the user can input various instructions (for example, imaging range control request), numerical values, data, information (for example, position information of the monitoring camera 100B), and the like to the external device 200.
The setting value calculation unit 205 calculates an imaging angle of view and an imaging direction based on the position information of the imaging target acquired by the position information acquisition unit 206 and the positioning accuracy thereof, and the position information of the monitoring camera 100B and the positioning accuracy. The setting value calculation unit 205 also calculates setting values such as the width and height of the imaging range from the imaging angle of view and the imaging direction. The setting value calculation unit 205 performs the calculation in response to acquisition of position information, an input of an imaging range control request from a user, or the like. The setting value calculation unit 205 causes the storage unit 202 to store calculation results (setting values such as an imaging angle of view and an imaging direction, and a width and height of an imaging range). The calculation result is transmitted from the external device 200 to the monitoring camera 100B via the communication unit 208.

位置情報取得部206は、撮像対象の位置情報及び監視カメラ100Bの位置情報を位置情報提供装置から受信することにより、撮像対象の位置情報及びカメラ100Bの位置情報を取得する。取得する位置情報は、例えば、緯度、経度、高度等である。位置情報提供装置は、電波到達時間及び電波強度から位置情報を生成する。
測位精度取得部207は、撮像対象の位置情報についての測位精度と、監視カメラ100Bの位置情報についての測位精度を取得する。位置情報取得部206が撮像対象及び監視カメラの位置情報を受信する際に、測位精度取得部207は、位置情報提供装置から測位精度も受信する。当該受信により、装置精度取得部207は測位精度を取得する。位置情報を算出(提供)するGPS等の位置情報提供装置の算出精度(測位精度)は、誤差要因(電波受信側周辺の環境や天候による電波強度の変化、電波を受信した発信器の数等)によって変化する。測位精度は、電波を受信できた発信器の数、電波到達時刻、電波強度等を用いて算出することができる。
The positional information acquisition unit 206 acquires positional information of the imaging target and positional information of the camera 100B by receiving positional information of the imaging target and positional information of the monitoring camera 100B from the positional information providing apparatus. The position information to be acquired is, for example, latitude, longitude, altitude and the like. The position information providing device generates position information from the radio wave arrival time and the radio wave intensity.
The positioning accuracy acquisition unit 207 acquires the positioning accuracy for the position information of the imaging target and the positioning accuracy for the position information of the monitoring camera 100B. When the position information acquisition unit 206 receives the position information of the imaging target and the monitoring camera, the positioning accuracy acquisition unit 207 also receives the positioning accuracy from the position information providing device. By the reception, the device accuracy acquisition unit 207 acquires the positioning accuracy. The calculation accuracy (positioning accuracy) of the position information providing device such as GPS that calculates (provides) position information is an error factor (changes in radio wave intensity due to the environment and weather around the radio wave reception side, the number of transmitters that received radio waves, etc. It changes by). The positioning accuracy can be calculated using the number of transmitters that can receive the radio wave, the radio wave arrival time, the radio wave intensity, and the like.

通信部208は、PTZ制御コマンドを含む各制御コマンド、位置情報取得部206で取得した位置情報、測位精度取得部207で取得した測位精度、設定値計算部205で計算(取得)した撮像範囲の幅と高さ等の設定値を監視カメラ100Bに送信する。また、通信部208は、各制御コマンドに対するレスポンスや、映像ストリームを監視カメラ100Bから受信する。なお、位置情報及び測位精度を、通信部208を介して外部から取得することも可能である。
以上、図11を参照して外部機器200の構成について説明したが、図11に示す構成は一例であり、外部機器200の構成はこの限りではない。例えば、外部機器200は、画像解析処理部や音声出力部を備えてもよい。
The communication unit 208 includes control commands including a PTZ control command, position information acquired by the position information acquisition unit 206, positioning accuracy acquired by the positioning accuracy acquisition unit 207, and an imaging range calculated (acquired) by the setting value calculation unit 205. The setting values such as the width and height are transmitted to the monitoring camera 100B. The communication unit 208 also receives a response to each control command and a video stream from the monitoring camera 100B. Note that the position information and the positioning accuracy can also be acquired from the outside via the communication unit 208.
As mentioned above, although the structure of the external apparatus 200 was demonstrated with reference to FIG. 11, the structure shown in FIG. 11 is an example, and the structure of the external apparatus 200 is not this limitation. For example, the external device 200 may include an image analysis processing unit and an audio output unit.

(撮像部のPTZ制御)
次に図12のフローチャートを参照して、本実施形態の制御装置110Bが実行する監視カメラ100Bの撮像部104のPTZ制御の処理について詳細に説明する。図12のフローチャートは図11に示す制御装置110Bの機能モジュールによって実現される。機能モジュールがソフトウェアである場合、制御部201を構成するCPUが、そのプログラムを実行することによりフローチャートの処理が実現される。
S1201において、外部機器200(位置情報取得部206)は、撮像対象の位置情報を位置情報提供装置から受信する。位置情報取得部206は、受信した撮像対象の位置情報を記憶部202に格納する。記憶部202に格納された位置情報は、設定値計算部205により使用される。なお、外部機器200は、監視カメラの位置情報を位置情報提供装置から受信してもよい。
(PTZ control of imaging unit)
Next, the process of PTZ control of the imaging unit 104 of the monitoring camera 100B performed by the control device 110B of the present embodiment will be described in detail with reference to the flowchart of FIG. The flowchart of FIG. 12 is realized by the functional modules of the control device 110B shown in FIG. When the functional module is software, the CPU constituting the control unit 201 executes the program to realize the processing of the flowchart.
In S1201, the external device 200 (position information acquisition unit 206) receives the position information of the imaging target from the position information providing apparatus. The position information acquisition unit 206 stores the received position information of the imaging target in the storage unit 202. The position information stored in the storage unit 202 is used by the setting value calculation unit 205. The external device 200 may receive the position information of the monitoring camera from the position information providing device.

S1202において、測位精度取得部207は、撮像対象の位置情報についての測位精度を取得する。外部機器200がS1201で撮像対象の位置情報を受信する際に、測位精度取得部207は、測位精度を受信・取得する。測位精度取得部207は、取得した測位精度を記憶部202に格納する。格納された測位精度は、設定値計算部205により使用される。なお、測位精度取得部207は、監視カメラの位置情報についての測位精度を位置情報提供装置から受信してもよい。
なお、測位精度取得部207は、記憶部202に予め格納されている測位精度を、記憶部202から取得してもよい。例えば、測位精度の変化が微小であることが予測され、外部機器200(記憶部202)が予め測位精度を保持しているならば、測位精度取得部207は、記憶部202から測位精度を取得することができる。このような場合、外部機器200は、位置情報提供装置等から測位精度を受信・取得しなくてもよい。また、外部機器200が予め複数の測位精度を記憶部202に保持しているならば、測位精度取得部207は、位置情報提供装置の種類(GPS、無線LAN、Bluetooth等)に応じて、1つの測位精度を選択することも可能である。
In S1202, the positioning accuracy acquisition unit 207 acquires the positioning accuracy for the position information of the imaging target. When the external device 200 receives the position information of the imaging target in S1201, the positioning accuracy acquisition unit 207 receives and acquires the positioning accuracy. The positioning accuracy acquisition unit 207 stores the acquired positioning accuracy in the storage unit 202. The stored positioning accuracy is used by the setting value calculation unit 205. The positioning accuracy acquisition unit 207 may receive, from the position information providing device, the positioning accuracy of the position information of the monitoring camera.
The positioning accuracy acquisition unit 207 may acquire the positioning accuracy stored in advance in the storage unit 202 from the storage unit 202. For example, if the change in positioning accuracy is predicted to be minute and the external device 200 (storage unit 202) holds the positioning accuracy in advance, the positioning accuracy acquisition unit 207 acquires the positioning accuracy from the storage unit 202. can do. In such a case, the external device 200 may not receive / acquire the positioning accuracy from the position information providing apparatus or the like. In addition, if the external device 200 holds a plurality of positioning accuracies in advance in the storage unit 202, the positioning accuracy acquisition unit 207 determines 1 depending on the type (GPS, wireless LAN, Bluetooth, etc.) of the position information providing device. It is also possible to select one positioning accuracy.

測位精度取得部207が、S1202で測位精度を取得し、且つ、S1202以前に記憶部202に測位精度が格納されている場合、測位精度取得部207は、記憶部202の格納内容をS1202で取得した測位精度に更新する。
S1203において、設定値計算部205は、監視カメラ100Bの位置情報及び測位精度、並びに、撮像対象の位置情報及び測位精度に基づき、撮像画角を計算する。
まず、設定値計算部205は、監視カメラ100Bの位置情報及び撮像対象の位置情報に基づいて、監視カメラ100Bと撮像対象との距離を算出する。そして、設定値計算部205は、算出した距離と監視カメラ100Bの測位精度と撮像対象の測位精度に基づいて、三角関数を用いて撮像画角を算出する。設定値計算部205は、算出した撮像画角を記憶部202に格納する。
When the positioning accuracy acquisition unit 207 acquires the positioning accuracy in S1202 and the positioning accuracy is stored in the storage unit 202 before S1202, the positioning accuracy acquisition unit 207 acquires the storage content of the storage unit 202 in S1202 Update to the same positioning accuracy.
In S1203, the setting value calculation unit 205 calculates an imaging angle of view based on the position information and the positioning accuracy of the monitoring camera 100B, and the position information and the positioning accuracy of the imaging target.
First, the setting value calculation unit 205 calculates the distance between the monitoring camera 100B and the imaging target based on the position information of the monitoring camera 100B and the position information of the imaging target. Then, the setting value calculation unit 205 calculates an imaging angle of view using a trigonometric function based on the calculated distance, the positioning accuracy of the monitoring camera 100B, and the positioning accuracy of the imaging target. The setting value calculation unit 205 stores the calculated imaging angle of view in the storage unit 202.

S1204において、設定値計算部205は、記憶部202に格納されている監視カメラ100Bの位置情報と位置情報取得部206で受信した撮像対象の位置情報に基づいて、撮像方向を計算する。より詳しくは、設定値計算部205は、監視カメラ100Bの緯度、経度、高度で特定される点と、撮像対象の緯度、経度、高度で特定される点とに基づいて、世界座標系における撮像の方向を算出する。その後、設定値計算部205は、算出した撮像方向に基づいて、撮像部104のパン及びチルトの値を算出し、算出結果を記憶部202に格納する。
S1205において、外部機器200(通信部208)は、S1203で計算した撮像画角とS1204で算出したパン及びチルトの値とを、監視カメラ100Bに送信する。送信された撮像画角とパン及びチルトの値は、監視カメラ100Bの通信部109Bを介して記憶部102Bに格納される。
In S1204, the setting value calculation unit 205 calculates the imaging direction based on the position information of the monitoring camera 100B stored in the storage unit 202 and the position information of the imaging target received by the position information acquisition unit 206. More specifically, the setting value calculation unit 205 performs imaging in the world coordinate system based on a point specified by the latitude, longitude, and altitude of the monitoring camera 100B and a point specified by the latitude, longitude, and altitude of the imaging target. Calculate the direction of Thereafter, the setting value calculation unit 205 calculates pan and tilt values of the imaging unit 104 based on the calculated imaging direction, and stores the calculation result in the storage unit 202.
In S1205, the external device 200 (communication unit 208) transmits the imaging angle of view calculated in S1203 and the pan and tilt values calculated in S1204 to the monitoring camera 100B. The transmitted imaging angle of view, and the pan and tilt values are stored in the storage unit 102B via the communication unit 109B of the monitoring camera 100B.

S1206において、監視カメラ100Bの撮像制御部103Bは、外部機器200より取得した撮像画角(ズーム)とパン及びチルトの値を用いて撮像部104の撮像範囲(PTZ)を制御する。なお、取得した撮像画角、パン及びチルトの値が制御可能な範囲を超えていた場合、撮像制御部103Bは、制御可能な範囲に撮像画角、パン及びチルトの値を丸めこみ、撮像範囲の制御を実行してもよい。あるいは、撮像制御部103Bは、撮像範囲全体が撮像できるように連続的に監視カメラ100Bのパン及びチルトを動かしてもよい。あるいは、撮像範囲の制御を実行せずその旨のメッセージを通信部109Bから外部機器200に通知してもよい。
以上、図12を参照し撮像部104のPTZ制御の処理について説明したが、図12に示すフローチャートは、好適な一例を説明したものであり、本実施形態の撮像部104のPTZ制御はこれに限定されない。例えば、本実施形態の制御装置110Bは、外部機器200が所持する監視カメラ100Bの位置情報や測位精度を更新する更新部を備えてもよい。
In S1206, the imaging control unit 103B of the monitoring camera 100B controls the imaging range (PTZ) of the imaging unit 104 using the imaging angle of view (zoom) and the pan and tilt values acquired from the external device 200. If the acquired imaging angle of view, pan and tilt values exceed the controllable range, the imaging control unit 103B rounds the imaging angle of view, pan and tilt values into the controllable range, and the imaging range Control may be performed. Alternatively, the imaging control unit 103B may move the pan and tilt of the monitoring camera 100B continuously so that the entire imaging range can be imaged. Alternatively, the communication unit 109B may notify the external device 200 of a message to that effect without executing control of the imaging range.
The process of the PTZ control of the imaging unit 104 has been described above with reference to FIG. 12, but the flowchart illustrated in FIG. 12 is a description of a preferable example, and the PTZ control of the imaging unit 104 according to the present embodiment is described here. It is not limited. For example, the control device 110 </ b> B of the present embodiment may include an update unit that updates the position information and the positioning accuracy of the monitoring camera 100 </ b> B possessed by the external device 200.

(実施形態3の効果)
実施形態3では、監視カメラ100Bの制御装置110Bが外部機器200に設けられ、監視カメラ100Bの撮像部104のPTZ制御は、監視カメラ100の外部に設けられた制御装置110Bにより実行される。制御装置110Bは、外部機器200が所持する監視カメラ100Bの位置情報及び測位精度と、外部機器200が受信した撮像対象の位置情報及び測位精度に基づき、撮像画角と撮像方向(パン及びチルトの値)を計算する。そして、制御装置110Bは、計算した撮像画角と撮像方向(パン及びチルトの値)を設定値として監視カメラ100Bに送信する。監視カメラ100Bは受信した撮像画角と撮像方向(パン及びチルトの値)の設定値に基づき監視カメラ100Bの撮像部104のPTZ制御を行う。
なお、実施形態3の制御装置110Bは、設定値計算部205、位置情報取得部206、測位精度取得部207、及び通信部208かならるとしたが、通信部208は制御装置110Bの構成要素としなくてもよい。また、監視カメラの位置情報の正確度(信頼度)が高い場合には、制御装置100Bは、監視カメラの位置情報についての測位精度を用いずに撮像部104のPTZ制御を行ってもよい。
(Effect of Embodiment 3)
In the third embodiment, the control device 110B of the monitoring camera 100B is provided in the external device 200, and the PTZ control of the imaging unit 104 of the monitoring camera 100B is executed by the control device 110B provided outside the monitoring camera 100. Control device 110B detects the imaging angle of view and the imaging direction (pan and tilt) based on the position information and positioning accuracy of monitoring camera 100B possessed by external device 200, and the position information and positioning accuracy of the imaging target received by external device 200. Calculate the value). Then, the control device 110B transmits the calculated imaging angle of view and the imaging direction (pan and tilt values) as setting values to the monitoring camera 100B. The surveillance camera 100B performs PTZ control of the imaging unit 104 of the surveillance camera 100B based on the received set values of the imaging angle of view and the imaging direction (pan and tilt values).
Although the control device 110B of the third embodiment includes the setting value calculation unit 205, the position information acquisition unit 206, the positioning accuracy acquisition unit 207, and the communication unit 208, the communication unit 208 is a component of the control device 110B. You do not have to Further, when the accuracy (reliability) of the position information of the monitoring camera is high, the control device 100B may perform PTZ control of the imaging unit 104 without using the positioning accuracy for the position information of the monitoring camera.

(その他の実施形態)
尚、図2、図5、図10及び図11に示す各機能モジュールはソフトウェア又はハードウェアによって実現され得る。ソフトウェアによって実現される場合、前述した各機能モジュールの機能を提供するためのプログラムがROM等のメモリに記憶される。記憶されたプログラムは適宜RAMに読み出され、制御部101、201を構成するCPUが実行することにより、それら機能モジュールの機能が実現される。一方、ハードウェアにより実現される場合、例えば、所定のコンパイラを用いることで、各機能モジュールの機能を実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。なお、図2、図5、図10及び図11に示した機能モジュールの構成は一例であり、複数の機能モジュールが1つの機能モジュールを構成するようにしてもよいし、いずれかの機能モジュールが複数の機能を行うモジュールに分かれてもよい。
(Other embodiments)
The functional modules shown in FIGS. 2, 5, 10 and 11 can be realized by software or hardware. When implemented by software, a program for providing the function of each functional module described above is stored in a memory such as a ROM. The stored program is appropriately read to the RAM and executed by the CPU constituting the control units 101 and 201 to realize the functions of the functional modules. On the other hand, in the case of hardware implementation, for example, by using a predetermined compiler, a dedicated circuit may be automatically generated on the FPGA from a program for realizing the function of each functional module. FPGA is an abbreviation for Field Programmable Gate Array. Further, a Gate Array circuit may be formed in the same manner as an FPGA and realized as hardware. Also, it may be realized by an application specific integrated circuit (ASIC). The configuration of the functional modules shown in FIG. 2, FIG. 5, FIG. 10 and FIG. 11 is an example, and a plurality of functional modules may constitute one functional module, and any functional module may be It may be divided into modules that perform multiple functions.

上記した実施形態では、監視カメラ100、100A、100B及び外部機器200を説明したが、本発明はその他の形態でも具現化(実現)することができる。例えば、本発明は、上述した実施形態の1以上の機能を実現するプログラム(コンピュータプログラム)を、ネットワークまたは記録媒体(記憶媒体)を介して、システムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行することによっても実現可能である。この場合、記録媒体から読み出されたプログラム(プログラムコード)自体が実施形態の機能を実現することになる。また、当該プログラムを記録した記録媒体は本発明を構成することができる。
また、コンピュータが読み出したプログラムを実行することにより、実施形態の機能が実現されるだけでなく、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
Although the monitoring camera 100, 100A, 100B and the external device 200 have been described in the above embodiment, the present invention can be embodied (implemented) in other forms. For example, the present invention supplies a program (computer program) for realizing one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium (storage medium), and a computer of the system or apparatus It is also possible to realize by one or more processors in the program reading and executing a program. In this case, the program (program code) itself read from the recording medium implements the functions of the embodiment. Moreover, the recording medium which recorded the said program can comprise this invention.
Further, by executing the program read by the computer, not only the functions of the embodiment are realized, but also an operating system (OS) or the like operating on the computer based on an instruction of the program. The functions of the above-described embodiments may be realized by performing part or all of the processing.

100…監視カメラ、103…撮像制御部、104…撮像部、106…撮像制御計算部、107…位置情報取得部、108…測位精度取得部、120…撮像範囲、121…撮像対象、122…位置情報、200…外部機器   100: Surveillance camera, 103: Imaging control unit, 104: Imaging unit, 106: Imaging control calculation unit, 107: Position information acquisition unit, 108: Positioning accuracy acquisition unit, 120: Imaging range, 121: Imaging target, 122: Position Information, 200 ... external equipment

Claims (14)

撮像装置の制御装置であって、
撮像対象の位置情報を取得する第1の取得手段と、
前記撮像対象の位置情報に対する測位精度を取得する第2の取得手段と、
前記撮像装置の位置情報と、前記撮像対象の位置情報と、前記撮像対象の位置情報に対する測位精度とに基づき、撮像画角を決定する第1の決定手段と、
前記撮像装置の位置情報と前記撮像対象の位置情報とに基づき、撮像方向を決定する第2の決定手段と、
を備えることを特徴とする制御装置。
A control device of the imaging device,
A first acquisition unit for acquiring position information of an imaging target;
A second acquisition unit that acquires positioning accuracy for position information of the imaging target;
A first determination unit that determines an imaging angle of view based on position information of the imaging device, position information of the imaging target, and positioning accuracy with respect to position information of the imaging target;
A second determination unit configured to determine an imaging direction based on positional information of the imaging device and positional information of the imaging target;
A control device comprising:
前記第1の決定手段により決定された撮像画角と、前記第2の決定手段により決定された撮像方向で決まる撮像範囲の中で、所定の特徴を有する領域を検出する検出手段と、
検出された前記領域に基づき前記撮像画角と前記撮像方向を調整する調整手段と、
を更に備えることを特徴とする請求項1に記載の制御装置。
Detection means for detecting an area having a predetermined feature within an imaging range determined by the imaging angle of view determined by the first determination means and the imaging direction determined by the second determination means;
An adjustment unit configured to adjust the imaging angle of view and the imaging direction based on the detected area;
The control device according to claim 1, further comprising:
前記第1の取得手段は、前記撮像対象の位置情報を前記撮像対象から取得することを特徴とする請求項1または2に記載の制御装置。   The control device according to claim 1, wherein the first acquisition unit acquires position information of the imaging target from the imaging target. 前記第2の取得手段は、前記撮像対象の位置情報に対する測位精度を、前記撮像対象から取得することを特徴とする請求項1〜3のいずれか1項に記載の制御装置。   The control device according to any one of claims 1 to 3, wherein the second acquisition unit acquires positioning accuracy with respect to position information of the imaging target from the imaging target. 前記第2の取得手段は、前記撮像対象の位置情報に対する測位精度を、前記撮像装置もしくは前記撮像装置と接続する外部機器から取得することを特徴とする請求項1〜3のいずれか1項に記載の制御装置。   4. The image pickup apparatus according to claim 1, wherein the second acquisition unit acquires positioning accuracy with respect to position information of the imaging target from the imaging apparatus or an external device connected to the imaging apparatus. Control device as described. 上記撮像方向と撮像画角に基づき、撮像装置の撮像範囲を制御する制御手段をさらに備えることを特徴とする請求項1〜5のいずれか1項に記載の制御装置。   The control device according to any one of claims 1 to 5, further comprising control means for controlling an imaging range of the imaging device based on the imaging direction and the imaging angle of view. 前記制御装置は、前記撮像装置の位置情報を取得する第3の取得手段をさらに備え、
前記第3の取得手段は、前記撮像装置の位置情報を前記撮像装置から取得するか、所定のインタフェースを介して取得するか、前記撮像装置と接続する外部機器から取得することを特徴とする請求項1〜6のいずれか1項に記載の制御装置。
The control device further includes third acquisition means for acquiring position information of the imaging device,
The third acquisition means is characterized in that position information of the imaging device is acquired from the imaging device, acquired through a predetermined interface, or acquired from an external device connected to the imaging device. The control apparatus of any one of claim | item 1 -6.
前記第1の決定手段は、前記第1の取得手段により取得した位置情報が表す位置を中心として、前記測位精度に応じた範囲全体を撮像できる画角を、前記撮像画角とすることを特徴とする請求項1〜7のいずれか1項に記載の制御装置。   The first determination unit is characterized in that an angle of view capable of imaging the entire range according to the positioning accuracy is set as the imaging angle of view, with the position represented by the position information acquired by the first acquisition unit as a center. The control device according to any one of claims 1 to 7, wherein 前記第2の決定手段は、前記第3の取得手段で取得した前記撮像装置の位置情報と前記第1の取得手段で取得した前記撮像対象の位置情報とに基づいて、前記撮像方向を計算することを特徴とする請求項7に記載の制御装置。   The second determination unit calculates the imaging direction based on the position information of the imaging device acquired by the third acquisition unit and the position information of the imaging target acquired by the first acquisition unit. The control device according to claim 7, characterized in that: 前記第3の取得手段は、前記撮像装置の最新の位置情報を取得し、
前記第2の決定手段は、前記最新の前記撮像装置の位置情報と、前記第1の手段が取得した撮像対象の位置情報とに基づいて、前記撮像方向を計算することを特徴とする請求項7に記載の制御装置。
The third acquisition unit acquires the latest position information of the imaging device,
The second direction determination means calculates the imaging direction on the basis of the latest position information of the imaging device and the position information of the imaging target acquired by the first means. The control device according to 7.
前記制御装置は、前記撮像装置の位置情報に対する測位精度を取得する第4の取得手段をさらに備え、
前記第1の決定手段は、前記撮像装置の位置情報と、前記撮像装置の位置情報に対する測位精度と、前記撮像対象の位置情報と、前記撮像対象の位置情報に対する測位精度とに基づき、前記撮像画角を決定することを特徴とする請求項1〜10のいずれか1項に記載の制御装置。
The control device further includes fourth acquisition means for acquiring positioning accuracy with respect to position information of the imaging device,
The first determination unit is configured to capture the image based on position information of the imaging device, positioning accuracy for the position information of the imaging device, position information of the imaging target, and positioning accuracy for the position information of the imaging target. The control device according to any one of claims 1 to 10, wherein the angle of view is determined.
請求項1〜11のいずれか1項に記載の制御装置と、
前記制御装置が決定した撮像画角と撮像方向に基づいて、撮像範囲を制御する制御手段と、
前記制御手段により制御される撮像手段と、
を備えることを特徴とする撮像装置。
The control device according to any one of claims 1 to 11.
A control unit configured to control an imaging range based on an imaging angle of view and an imaging direction determined by the control device;
Imaging means controlled by the control means;
An imaging apparatus comprising:
撮像装置の制御方法であって、
撮像対象の位置情報を取得するステップと、
前記撮像対象の位置情報に対する測位精度を取得するステップと、
前記撮像装置の位置情報と、前記撮像対象の位置情報と、前記撮像対象の位置情報に対する測位精度とに基づき、撮像画角を決定するステップと、
前記撮像装置の位置情報と前記撮像対象の位置情報とに基づき、撮像方向を決定するステップと、
を有することを特徴とする制御方法。
It is a control method of an imaging device, and
Acquiring position information of an imaging target;
Acquiring positioning accuracy with respect to position information of the imaging target;
Determining an imaging angle of view based on position information of the imaging device, position information of the imaging target, and positioning accuracy with respect to position information of the imaging target;
Determining an imaging direction based on position information of the imaging device and position information of the imaging target;
A control method characterized by comprising:
コンピュータが読み取り実行することで、前記コンピュータを、請求項1〜12のいずれか1項に記載の制御装置の各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each means of the control device according to any one of claims 1 to 12 by being read and executed.
JP2018006292A 2018-01-18 2018-01-18 Control device and control method for imaging apparatus Pending JP2019124858A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018006292A JP2019124858A (en) 2018-01-18 2018-01-18 Control device and control method for imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018006292A JP2019124858A (en) 2018-01-18 2018-01-18 Control device and control method for imaging apparatus

Publications (1)

Publication Number Publication Date
JP2019124858A true JP2019124858A (en) 2019-07-25

Family

ID=67398684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018006292A Pending JP2019124858A (en) 2018-01-18 2018-01-18 Control device and control method for imaging apparatus

Country Status (1)

Country Link
JP (1) JP2019124858A (en)

Similar Documents

Publication Publication Date Title
JP6626954B2 (en) Imaging device and focus control method
JP6696615B2 (en) Monitoring system, monitoring method, and recording medium storing monitoring program
CN107409175B (en) Tracking control device, tracking control method, automatic tracking photography system, and tangible medium
US10356301B2 (en) Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program
JP2004318823A (en) Information display system, information processing apparatus, pointing device and pointer mark displaying method in information display system
US11039072B2 (en) Display control apparatus, display control method, and computer program
JP2008227877A (en) Video information processor
US10812705B2 (en) Imaging apparatus, imaging method, and imaging program
EP3352453A1 (en) Photographing method for intelligent flight device and intelligent flight device
JP2019129410A (en) Monitoring camera, control method thereof, and program
JP5750696B2 (en) Display device and display program
US20150350524A1 (en) Image processing device, image processing method, and program
US20170328976A1 (en) Operation device, tracking system, operation method, and program
JP5543870B2 (en) Camera, camera control method, and program
JP5514062B2 (en) Electronic device, imaging screen display method with information, and program
US10944899B2 (en) Image processing device and image processing method
JP2017158169A (en) Image display system, display device, and program
JP2019124858A (en) Control device and control method for imaging apparatus
JP2020022052A (en) Information processing apparatus and control method of the same
US11805314B2 (en) Control device, control method, and information processing system
JP2014236334A (en) Imaging device
US9619714B2 (en) Device and method for video generation
WO2018079043A1 (en) Information processing device, image pickup device, information processing system, information processing method, and program
JP2005130230A (en) Moving object tracking system, camera controller, and computer software
JP2021047073A (en) Subject position calculation device, imaging apparatus, subject position calculation method, and program