JP6634994B2 - Information processing apparatus, control method thereof, and program - Google Patents

Information processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP6634994B2
JP6634994B2 JP2016194366A JP2016194366A JP6634994B2 JP 6634994 B2 JP6634994 B2 JP 6634994B2 JP 2016194366 A JP2016194366 A JP 2016194366A JP 2016194366 A JP2016194366 A JP 2016194366A JP 6634994 B2 JP6634994 B2 JP 6634994B2
Authority
JP
Japan
Prior art keywords
subject
network camera
flying object
target position
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016194366A
Other languages
Japanese (ja)
Other versions
JP2018056952A (en
Inventor
浩 長井
浩 長井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2016194366A priority Critical patent/JP6634994B2/en
Publication of JP2018056952A publication Critical patent/JP2018056952A/en
Application granted granted Critical
Publication of JP6634994B2 publication Critical patent/JP6634994B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、及びその制御方法、プログラムに関し、特に、カメラで撮影される被写体を、飛行体の照明で照らすことを可能にし、カメラで被写体を鮮明に撮影する技術に関する。   The present invention relates to an information processing apparatus, a control method thereof, and a program, and more particularly to a technology that enables a subject to be photographed by a camera to be illuminated by illumination of a flying object, and that allows a camera to clearly photograph a subject.

従来、例えば、据え置き型のお天気カメラ等のネットワークカメラで、空港や街などを撮影してテレビで放映している。   2. Description of the Related Art Conventionally, for example, a network camera such as a stationary weather camera is used to shoot an airport, a city, and the like and broadcast it on a television.

しかしながら、このような据え置き型のネットワークカメラで、被写体が暗いと、被写体が映りづらくなってしまう。   However, in such a stationary network camera, if the subject is dark, the subject becomes difficult to be imaged.

特許文献1には、監視カメラで撮影した人と同じ人をドローンが撮影したら、その人をドローンが追従することが開示されている。   Patent Document 1 discloses that when a drone takes an image of the same person as that taken by a surveillance camera, the drone follows that person.

特開2014−149620JP 2014-149620

本発明は、カメラで撮影される被写体を、飛行体の照明で照らすことを可能にし、カメラで被写体を鮮明に撮影する仕組みを提供することである。   An object of the present invention is to provide a mechanism that enables a subject to be photographed by a camera to be illuminated by the lighting of a flying object, and allows the camera to clearly photograph the subject.

本発明は、被写体を撮影するネットワークカメラと、照明器具を備えた飛行体と通信可能な情報処理装置であって、前記ネットワークカメラから、前記ネットワークカメラによる被写体の撮像に係る撮影情報を取得する取得手段と、前記取得手段で取得した撮影情報に従って、当該被写体の位置を特定する被写体特定手段と、前記被写体特定手段により特定された位置に従って、前記飛行体が飛行する飛行目標位置を特定する目標位置特定手段と、前記目標位置特定手段により特定された飛行目標位置に、前記飛行体を飛行させる指示を、前記飛行体に行う指示手段と、を備えることを特徴とする。   The present invention is an information processing apparatus capable of communicating with a network camera for photographing a subject and a flying object provided with a lighting device, and acquiring, from the network camera, photographing information relating to imaging of the subject by the network camera. Means, a subject specifying means for specifying the position of the subject according to the photographing information obtained by the obtaining means, and a target position for specifying a flight target position at which the flying object flies according to the position specified by the subject specifying means. An identification unit, and an instruction unit for instructing the flying object to fly the flying object to the flight target position identified by the target position identification unit.

また、本発明は、被写体を撮影するネットワークカメラと、照明器具を備えた飛行体と通信可能な情報処理装置における制御方法であって、取得手段が、前記ネットワークカメラから、前記ネットワークカメラによる被写体の撮像に係る撮影情報を取得する取得工程と、被写体特定手段が、前記取得工程で取得した撮影情報に従って、当該被写体の位置を特定する被写体特定工程と、目標位置特定手段が、前記被写体特定工程により特定された位置に従って、前記飛行体が飛行する飛行目標位置を特定する目標位置特定工程と、指示手段が、前記目標位置特定工程により特定された飛行目標位置に、前記飛行体を飛行させる指示を、前記飛行体に行う指示工程と、を備えることを特徴とする。   Further, the present invention is a network camera for photographing a subject, and a control method in an information processing device capable of communicating with a flying object equipped with a lighting device, wherein the acquisition unit is configured to acquire the subject by the network camera from the network camera. An acquisition step of acquiring shooting information related to imaging, a subject identification unit, a subject identification step of identifying the position of the subject according to the imaging information acquired in the acquisition step, and a target position identification unit, A target position specifying step of specifying a flight target position where the flying object flies according to the specified position; andinstruction means for instructing the flying object to fly to the flight target position specified by the target position specifying step. And an instruction step to be performed on the flying object.

また、本発明は、被写体を撮影するネットワークカメラと、照明器具を備えた飛行体と通信可能な情報処理装置で読み取り実行可能なプログラムであって、前記情報処理装置を、前記ネットワークカメラから、前記ネットワークカメラによる被写体の撮像に係る撮影情報を取得する取得手段と、前記取得手段で取得した撮影情報に従って、当該被写体の位置を特定する被写体特定手段と、前記被写体特定手段により特定された位置に従って、前記飛行体が飛行する飛行目標位置を特定する目標位置特定手段と、前記目標位置特定手段により特定された飛行目標位置に、前記飛行体を飛行させる指示を、前記飛行体に行う指示手段として機能させることを特徴とする。   Further, the present invention is a network camera for photographing a subject, and a program that can be read and executed by an information processing device capable of communicating with a flying object provided with a lighting device, wherein the information processing device is Acquisition means for acquiring shooting information relating to imaging of a subject by a network camera, according to the shooting information acquired by the acquisition means, subject identification means for identifying the position of the subject, and according to the position identified by the subject identification means, Target position specifying means for specifying a flight target position at which the flying object flies, and functioning as instruction means for instructing the flying object to fly the flying object to the flight target position specified by the target position specifying means. It is characterized by making it.

本発明によれば、カメラで撮影される被写体を、飛行体の照明で照らすことを可能にし、カメラで被写体を鮮明に撮影することができる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to illuminate the object image | photographed by a camera with the illumination of a flying object, and a camera can image an object clearly.

本発明の実施の形態に係るシステムの一例を示す図である。FIG. 1 is a diagram illustrating an example of a system according to an embodiment of the present invention. 図1に示す情報処理装置101のハードウエアブロック図の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware block diagram of the information processing apparatus 101 illustrated in FIG. 1. ネットワークカメラ1021が撮影している被写体303に、ドローン102が飛行して、ドローン102が備える照明器具304で明かりを照らしている様子を示している図である。FIG. 2 is a diagram illustrating a state in which a drone 102 flies over a subject 303 captured by a network camera 1021 and illuminates a light with a lighting device 304 included in the drone 102. 情報処理装置101が記憶している各種データテーブルの一例を示す図である。FIG. 3 is a diagram illustrating an example of various data tables stored in the information processing apparatus 101. 初期位置のネットワークカメラ1021の上面図の一例を示す図である。FIG. 9 is a diagram illustrating an example of a top view of the network camera 1021 at an initial position. ネットワークカメラ1021の側面図601、ネットワークカメラ1021の側面図602、ネットワークカメラ1021の側面図602の一例示す図である。FIG. 6 shows an example of a side view 601 of the network camera 1021, a side view 602 of the network camera 1021, and an example of a side view 602 of the network camera 1021. ネットワークカメラの側面図701である。FIG. 701 is a side view 701 of the network camera. ネットワークカメラの上面図である。It is a top view of a network camera. ネットワークカメラと、飛行目標位置に位置するドローンとの側面図である。It is a side view of a network camera and a drone located in a flight target position. ネットワークカメラの上面図である。It is a top view of a network camera. 情報処理装置101のCPU(制御手段)が実行する制御処理手順を示すフローチャートの一例を示す図である。FIG. 3 is a diagram illustrating an example of a flowchart illustrating a control processing procedure executed by a CPU (control unit) of the information processing apparatus 101.

以下、添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
図1は、本発明の実施の形態に係るシステムの一例を示す図である。
Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
FIG. 1 is a diagram illustrating an example of a system according to an embodiment of the present invention.

図1に示すように、本発明の実施の形態に係るシステムは、ネットワークカメラ1021と、情報処理装置101と、ドローン102などの飛行体とを含むシステムである。   As shown in FIG. 1, the system according to the embodiment of the present invention is a system including a network camera 1021, an information processing device 101, and a flying object such as a drone 102.

ネットワークカメラ1021と、情報処理装置101と、ドローン102などの飛行体とは、それぞれネットワークを介して通信可能に接続されている。   The network camera 1021, the information processing apparatus 101, and the flying object such as the drone 102 are communicably connected via a network.

ネットワークカメラ1021と、情報処理装置101とは、有線又は無線のネットワーク104を介して通信可能に接続されている。   The network camera 1021 and the information processing apparatus 101 are communicably connected via a wired or wireless network 104.

また、情報処理装置101と、ドローン102などの飛行体とは、有線又は無線のネットワーク105を介して通信可能に接続されている。
また、情報処理装置101は、操作卓103と通信可能に接続されている。
The information processing apparatus 101 and a flying object such as the drone 102 are communicably connected via a wired or wireless network 105.
Further, the information processing apparatus 101 is communicably connected to the console 103.

操作卓103は、ネットワークカメラ1021の操作卓であり、ユーザが操作卓を操作することで、ネットワークカメラ1021を、パン、チルト、ズームなどの各種動作を行わせることが可能である。   The operation console 103 is an operation console of the network camera 1021, and the user can operate the operation console to cause the network camera 1021 to perform various operations such as pan, tilt, and zoom.

ここで、ネットワークカメラ1021は、お天気カメラや、防犯カメラなどとしても機能することができるカメラである。   Here, the network camera 1021 is a camera that can also function as a weather camera, a security camera, or the like.

図2は、図1に示す情報処理装置101のハードウエアブロック図の一例を示す図である。   FIG. 2 is a diagram illustrating an example of a hardware block diagram of the information processing apparatus 101 illustrated in FIG.

図2において、201はCPUで、システムバス204に接続される各デバイスやコントローラを統括的に制御する。また、ROM202あるいは外部メモリ211には、CPU201の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)や、各サーバ或いは各PCの実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。   In FIG. 2, reference numeral 201 denotes a CPU, which comprehensively controls each device and controller connected to the system bus 204. The ROM 202 or the external memory 211 includes a basic input / output system (BIOS) or an operating system program (hereinafter, referred to as an OS), which is a control program of the CPU 201, and a function to be executed by each server or each PC. Various programs described later are stored.

203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは外部メモリ211からRAM203にロードして、該ロードしたプログラムを実行することで各種動作を実現するものである。   A RAM 203 functions as a main memory, a work area, and the like for the CPU 201. The CPU 201 loads various programs and the like necessary for executing the processing from the ROM 202 or the external memory 211 to the RAM 203 and executes the loaded programs to realize various operations.

また、205は入力コントローラで、キーボード(KB209)や不図示のマウス等のポインティングデバイス等の入力装置からの入力を制御する。206はビデオコントローラで、液晶ディスプレイ等のディスプレイ210への表示を制御する。なお、210のディスプレイは、タッチパネルになっており、ディスプレイ上の画面を押下されることにより操作することが可能な入力装置としても機能する。   An input controller 205 controls input from an input device such as a keyboard (KB 209) or a pointing device such as a mouse (not shown). A video controller 206 controls display on a display 210 such as a liquid crystal display. The display 210 is a touch panel, and also functions as an input device that can be operated by pressing a screen on the display.

207はメモリコントローラで、ブートプログラム,各種のアプリケーション,フォントデータ,ユーザファイル,編集ファイル,各種データ等を記憶する外部記憶装置(ハードディスク(HD))や、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等の外部メモリ211へのアクセスを制御する。   A memory controller 207 is connected to an external storage device (hard disk (HD)) for storing a boot program, various applications, font data, user files, editing files, various data, and the like, a flexible disk (FD), or a PCMCIA card slot. It controls access to an external memory 211 such as a CompactFlash (registered trademark) memory connected via an adapter.

208は通信I/Fコントローラで、ネットワークを介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信等が可能である。   A communication I / F controller 208 connects and communicates with an external device via a network, and executes communication control processing on the network. For example, communication using TCP / IP is possible.

なお、CPU201は、例えばRAM203内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ210上での表示を可能としている。また、CPU201は、ディスプレイ210上の不図示のマウスカーソル等でのユーザ指示を可能とする。   Note that the CPU 201 enables display on the display 210 by executing, for example, an outline font development (rasterization) process on a display information area in the RAM 203. Further, the CPU 201 enables a user instruction with a mouse cursor (not shown) on the display 210.

本発明を実現するための後述する各種プログラムは、外部メモリ211に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、上記プログラムの実行時に用いられる定義ファイル及び各種情報テーブル等も、外部メモリ211に格納されており、これらについての詳細な説明も後述する。   Various programs described below for realizing the present invention are recorded in the external memory 211 and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. Furthermore, a definition file and various information tables used when executing the above program are also stored in the external memory 211, and a detailed description thereof will be described later.

次に、図3を用いて、ネットワークカメラ1021と、ドローン102などの飛行体とを含む本システムについて説明する。   Next, the system including the network camera 1021 and a flying object such as the drone 102 will be described with reference to FIG.

図3は、ネットワークカメラ1021が撮影している被写体303に、ドローン102が飛行して、ドローン102が備える照明器具304で明かりを照らしている様子を示している図である。   FIG. 3 is a diagram illustrating a state in which the drone 102 flies over a subject 303 captured by the network camera 1021 and illuminates a light with a lighting fixture 304 included in the drone 102.

図3に示すように、ネットワークカメラ1021は、カメラ本体301とレンズ302とを含んでいる。   As shown in FIG. 3, the network camera 1021 includes a camera body 301 and a lens 302.

図3に示すように、ネットワークカメラ1021で撮影される撮影範囲、及び、ドローン102が照らす照明範囲を、それぞれ点線で示している。   As shown in FIG. 3, the shooting range shot by the network camera 1021 and the lighting range illuminated by the drone 102 are indicated by dotted lines.

次に、図4を用いて、情報処理装置101が記憶している各種データテーブルについて説明する。
図4は、情報処理装置101が記憶している各種データテーブルの一例を示す図である。
Next, various data tables stored in the information processing apparatus 101 will be described with reference to FIG.
FIG. 4 is a diagram illustrating an example of various data tables stored in the information processing apparatus 101.

図4に示すネットワークカメラ1021の位置データは、ネットワークカメラ1021が設置されている位置(緯度、経度、高度)を示す情報である。   The position data of the network camera 1021 shown in FIG. 4 is information indicating the position (latitude, longitude, altitude) where the network camera 1021 is installed.

図4に示すパン(角度)データは、ネットワークカメラ1021が設置された初期位置(基準位置)を0°とし、その位置において、ネットワークカメラの撮影方向(北方向)を示したテーブルである。   The pan (angle) data shown in FIG. 4 is a table in which the initial position (reference position) where the network camera 1021 is installed is 0 °, and the photographing direction (north direction) of the network camera is shown at that position.

図4に示すチルト(角度)データは、ネットワークカメラ1021のチルトの角度データを示した図である。0°が水平であることを示している。   Tilt (angle) data shown in FIG. 4 is a diagram showing tilt angle data of the network camera 1021. 0 ° indicates horizontal.

図4に示すズーム(焦点)データは、ネットワークカメラ1021がどれくらいズームしているか示すデータ(f値)である。   The zoom (focus) data shown in FIG. 4 is data (f value) indicating how much the network camera 1021 is zoomed.

図4に示すフォーカス(距離)データは、ネットワークカメラ1021が、フォーカスがあった被写体までの距離を示すデータである。   The focus (distance) data shown in FIG. 4 is data indicating the distance to the focused object by the network camera 1021.

図4に示すアイリス(F値)データは、ネットワークカメラ1021が、撮像している撮像範囲の明るさ(被写体の明るさ)を示すデータ(F値)である。
図5は、上記初期位置のネットワークカメラ1021の上面図の一例を示す図である。
The iris (F value) data illustrated in FIG. 4 is data (F value) indicating the brightness (brightness of the subject) of the imaging range in which the network camera 1021 is imaging.
FIG. 5 is a diagram illustrating an example of a top view of the network camera 1021 at the initial position.

図5に示すように、設置された初期位置のネットワークカメラ1021は、北方向を向いていることを示している。   As shown in FIG. 5, the installed network camera 1021 at the initial position is facing north.

図6は、ネットワークカメラ1021の側面図601、ネットワークカメラ1021の側面図602、ネットワークカメラ1021の側面図602の一例示す図である。   FIG. 6 is a diagram illustrating an example of a side view 601 of the network camera 1021, a side view 602 of the network camera 1021, and a side view 602 of the network camera 1021.

ネットワークカメラ1021の側面図601は、ネットワークカメラ1021の撮影方向が水平であることを示しており、ネットワークカメラ1021の地面からの高度が例えば12.34mであることを示している。   A side view 601 of the network camera 1021 indicates that the shooting direction of the network camera 1021 is horizontal, and indicates that the altitude of the network camera 1021 from the ground is, for example, 12.34 m.

ネットワークカメラ1021の側面図602は、ネットワークカメラ1021が、θの角度だけ下側にチルトして(傾いて)いる様子を示している。   A side view 602 of the network camera 1021 shows that the network camera 1021 is tilted (tilted) downward by an angle of θ.

ネットワークカメラ1021の側面図602は、ネットワークカメラ1021が、被写体303(侵入者とも言う)を撮影している様子を示している。   A side view 602 of the network camera 1021 shows that the network camera 1021 is capturing an image of a subject 303 (also referred to as an intruder).

次に、図11を用いて、情報処理装置101のCPU(制御手段)が実行する制御処理手順をを説明する。   Next, a control processing procedure executed by the CPU (control means) of the information processing apparatus 101 will be described with reference to FIG.

図11は、情報処理装置101のCPU(制御手段)が実行する制御処理手順を示すフローチャートの一例を示す図である。   FIG. 11 is a diagram illustrating an example of a flowchart illustrating a control processing procedure executed by the CPU (control unit) of the information processing apparatus 101.

まず、ユーザは、操作卓を操作して、ネットワークカメラ1021を操作して、パン、チルト、ズームなどを行い、被写体の撮影の指示を情報処理装置101に入力する。   First, the user operates the console and operates the network camera 1021 to perform panning, tilting, zooming, and the like, and inputs an instruction to shoot a subject to the information processing apparatus 101.

そして、情報処理装置101は、入力された指示をネットワークカメラ1021に送信して、ネットワークカメラ1021を操作制御する。そして、ネットワークカメラ1021は、ネットワークカメラ1021の撮影範囲(被写体)を撮影する(S1101)。   Then, the information processing apparatus 101 transmits the input instruction to the network camera 1021, and controls the operation of the network camera 1021. Then, the network camera 1021 captures an image of the capturing range (subject) of the network camera 1021 (S1101).

そして、情報処理装置101は、ネットワークカメラ1021が撮影している状態の撮影情報(パン(角度)データ、チルト(角度)データ、ズーム(照合距離)データ、フォーカス(焦点)データ、アイリス(F値)データ)をネットワークカメラ1021から取得する(S1102)。   Then, the information processing apparatus 101 captures shooting information (pan (angle) data, tilt (angle) data, zoom (collation distance) data, focus (focus) data, iris (F value) in a state where the network camera 1021 is shooting. ) Data is acquired from the network camera 1021 (S1102).

S1102は、ネットワークカメラから、ネットワークカメラによる被写体の撮像に係る撮影情報を取得する取得手段の適用例である。
情報処理装置101は、ドローンを飛ばすか否かを判定する(S1103)。
S1102 is an application example of an acquisition unit that acquires, from a network camera, shooting information related to imaging of a subject by the network camera.
The information processing apparatus 101 determines whether to fly a drone (S1103).

具体的には、ユーザによりドローンを飛ばす指示を受け付けたか否かを判定することで、ドローンを飛ばすか否かを判定することができる。または、情報処理装置101は、S1102で取得したアイリス(F値)データの値が、所定の値を超えているか否かを判定することで、ネットワークカメラ1021が撮影している撮影範囲(被写体)が暗い否かを判定することで、撮影範囲(被写体)が暗いと判定された場合には、ドローンを飛ばすと判定し、撮影範囲(被写体)が暗くないと判定された場合には、ドローンを飛ばさないと判定する。   Specifically, it is possible to determine whether or not to fly the drone by determining whether or not an instruction to fly the drone has been received by the user. Alternatively, the information processing apparatus 101 determines whether or not the value of the iris (F value) data acquired in step S1102 exceeds a predetermined value, thereby determining an imaging range (subject) in which the network camera 1021 is imaging. By determining whether or not is dark, if it is determined that the shooting range (subject) is dark, it is determined that the drone is to fly, and if it is determined that the shooting range (subject) is not dark, the drone is Judge not to skip.

情報処理装置101は、ドローンを飛ばすと判定された場合には(S1103:YES)、処理をステップS1104に移行して、飛ばさないと判定された場合には(S1103:NO)、処理をS1107に移行する。   When it is determined that the drone is to be skipped (S1103: YES), the information processing apparatus 101 proceeds to step S1104, and when it is determined that the drone is not to be skipped (S1103: NO), the information processing apparatus 101 proceeds to step S1107. Transition.

情報処理装置101は、ステップS1104において、S1102で取得した撮影情報に従って、被写体の位置を特定する(S1104)。具体的な算出方法(特定方法)については、後で説明する。   In step S1104, the information processing apparatus 101 specifies the position of the subject according to the shooting information acquired in step S1102 (S1104). A specific calculation method (specification method) will be described later.

S1104は、取得手段で取得した撮影情報に従って、当該被写体の位置を特定する被写体特定手段の適用例である。   S1104 is an application example of the subject specifying unit that specifies the position of the subject according to the photographing information acquired by the acquiring unit.

そして、情報処理装置101は、当該特定された被写体の位置に従って、ドローン102を飛行させる飛行目標位置を特定し(S1105)、ドローン102に対して、当該特定された飛行目標位置に飛ぶ指示を当該飛行目標位置と共に送信する(S1106)。そして、ドローン102は、当該飛行目標位置に飛び出し、被写体を照明器具304で照らす。ここで、飛行目標位置の具体的な算出方法(特定方法)については、後で説明する。   Then, the information processing apparatus 101 specifies a flight target position at which the drone 102 is to fly according to the specified position of the subject (S1105), and instructs the drone 102 to fly to the specified flight target position. This is transmitted together with the flight target position (S1106). Then, the drone 102 jumps out to the flight target position and illuminates the subject with the lighting fixture 304. Here, a specific calculation method (specific method) of the flight target position will be described later.

S1105は、被写体特定手段により特定された位置に従って、飛行体が飛行する飛行目標位置を特定する目標位置特定手段の適用例である。また、目標位置特定手段は、被写体特定手段により特定された被写体の位置と、ネットワークカメラの位置とに従って、飛行体が飛行する飛行目標位置を特定する。また、目標位置特定手段は、被写体特定手段により特定された被写体の位置と、ネットワークカメラの位置とに従って、ネットワークカメラの撮像範囲に飛行体が入らない飛行目標位置を特定する。   S1105 is an application example of the target position specifying unit that specifies the flight target position where the flying object flies according to the position specified by the subject specifying unit. The target position specifying means specifies a flight target position at which the flying object flies according to the position of the subject specified by the subject specifying means and the position of the network camera. Further, the target position specifying means specifies a flight target position where the flying object does not enter the imaging range of the network camera according to the position of the subject specified by the subject specifying means and the position of the network camera.

S1106は、目標位置特定手段により特定された飛行目標位置に、飛行体を飛行させる指示を、飛行体に行う指示手段の適用例である。また、この指示手段は、被写体特定手段により特定された位置の被写体を照明器具で照らすべく、当該特定された被写体の位置を、飛行体に送信する。   S1106 is an application example of the instructing means for instructing the flying object to fly the flying object to the flight target position specified by the target position specifying means. Further, the instructing means transmits the position of the specified subject to the flying object so that the subject at the position specified by the subject specifying means is illuminated by the lighting equipment.

そして、情報処理装置101は、ユーザによりネットワークカメラによる撮影を停止する指示を受け付けたか否かを判定し(S1107)、当該停止する指示を受け付けた場合には、ネットワークカメラに対して撮影を止める指示を行うと共に、ドローン102に対して、飛行を止める指示を送信し、処理を終了する。ドローンは、飛行を止める指示を受け付けると、所定の位置に飛んで戻るように動作する。また、ネットワークカメラは、撮影を止める指示を受け付けると、撮影を止める。   The information processing apparatus 101 determines whether the user has received an instruction to stop shooting by the network camera (S1107). If the instruction to stop the shooting has been received, the information processing apparatus 101 instructs the network camera to stop shooting. Is performed, and an instruction to stop the flight is transmitted to the drone 102, and the process ends. Upon receiving an instruction to stop flying, the drone operates to fly back to a predetermined position. When the network camera receives an instruction to stop shooting, the network camera stops shooting.

情報処理装置101は、ユーザによりネットワークカメラによる撮影を停止する指示を受け付けていない判定した場合には(S1107:NO)、S1101に処理を戻す。
次に、S1104、S1105の特定方法の例について、説明する。
まず、S1102で取得した撮影情報に従って、被写体の位置を特定する計算を行う。
そのために、まず、被写体の高度を計算する。
If the information processing apparatus 101 determines that the user has not received an instruction to stop shooting by the network camera (S1107: NO), the information processing apparatus 101 returns the process to S1101.
Next, an example of the specifying method in S1104 and S1105 will be described.
First, a calculation for specifying the position of the subject is performed according to the shooting information acquired in S1102.
First, the height of the subject is calculated.

例えば、図7に示すように、S1102で取得した撮影情報のチルト角度が5度で、S1102で取得した撮影情報の撮影距離(フォーカス(焦点)データ)が30mである場合、ネットワークカメラの高さと被写体の高さとの差であるZの値は、sin(−5度)×30mを計算することで2.61mと算出される。   For example, as shown in FIG. 7, when the tilt angle of the imaging information acquired in S1102 is 5 degrees and the imaging distance (focus (focus) data) of the imaging information acquired in S1102 is 30 m, the height of the network camera The value of Z, which is the difference from the height of the subject, is calculated as 2.61 m by calculating sin (−5 degrees) × 30 m.

そのため、ネットワークカメラの高さは、図4のテーブルに示すように、12.34mであるため、この12.34mから、2.61mをひくことで、被写体の高さ(高度)が9.73mであると算出される。
次に、被写体の緯度の計算方法について説明する。
Therefore, the height of the network camera is 12.34 m as shown in the table of FIG. 4, and by subtracting 2.61 m from this 12.34 m, the height (altitude) of the subject is 9.73 m. Is calculated.
Next, a method of calculating the latitude of the subject will be described.

図7に示すように、S1102で取得した撮影情報のチルト角度が5度で、撮影距離が30mであるため、cos(5度)×30mを計算することで、ネットワークカメラから被写体までの上から見た距離(29.89m)が算出される。   As shown in FIG. 7, the tilt angle of the shooting information acquired in S1102 is 5 degrees, and the shooting distance is 30 m. Therefore, by calculating cos (5 degrees) × 30 m, the distance from the network camera to the subject from above is calculated. The seen distance (29.89 m) is calculated.

そして、図8に示すように、S1102で取得した撮影情報のパンの角度が15度であるため、cos(15度)×29.89mを算出することで、ネットワークカメラから被写体までの緯度上の直線距離(28.88m)が算出される。   Then, as shown in FIG. 8, since the pan angle of the shooting information acquired in S1102 is 15 degrees, by calculating cos (15 degrees) × 29.89 m, the latitude from the network camera to the subject is calculated. A straight distance (28.88 m) is calculated.

緯度は、1秒あたり、30.86mであるため、この28.88mを30.86mで割ることで、ネットワークカメラからの緯度の差が0.94秒であることを算出することができる。   Since the latitude is 30.86 m per second, by dividing 28.88 m by 30.86 m, it can be calculated that the difference in latitude from the network camera is 0.94 seconds.

そして、ネットワークカメラの緯度が図4の通り、35度37分32.14秒であることから、35度37分32.14秒から0.94秒をひくことで、被写体の緯度(35度37分33.06秒)を算出することができる。
次に、被写体の経度の計算方法について説明する。
Since the latitude of the network camera is 35 degrees 37 minutes 32.14 seconds as shown in FIG. 4, subtracting 0.94 seconds from 35 degrees 37 minutes 32.14 seconds, the latitude (35 degrees 37 Minute 33.06 seconds).
Next, a method of calculating the longitude of the subject will be described.

図8に示すように、S1102で取得した撮影情報のパン角度が15度で、ネットワークカメラから被写体までの上から見た距離が29.89mであるため、29.89mをsin(15度)で割ることで、ネットワークカメラと被写体までの経度上の距離(7.74m)が算出される。   As shown in FIG. 8, since the pan angle of the shooting information acquired in S1102 is 15 degrees and the distance from the network camera to the subject as viewed from above is 29.89 m, 29.89 m is represented by sin (15 degrees). By dividing, the distance (7.74 m) in longitude between the network camera and the subject is calculated.

そして、経度は、1秒あたり、25.37mであるため、7.74mを25.37mで割ることで、ネットワークカメラと被写体までの経度の差の値(0.31秒)が算出される。   Since the longitude is 25.37 m per second, the value of the difference between the longitude of the network camera and the object (0.31 second) is calculated by dividing 7.74 m by 25.37 m.

ネットワークカメラの経度が図4の通り、139度44分25.45秒であることから、139度44分25.45秒から0.31秒をひくことで、被写体の緯度(139度44分25.14秒)を算出することができる。
以上の計算により、被写体の高度、緯度、経度を求めることができた。
次に、ドローンの飛行目標距離の算出方法について、説明する。
Since the longitude of the network camera is 139 degrees 44 minutes 25.45 seconds as shown in FIG. 4, by subtracting 0.31 seconds from 139 degrees 44 minutes 25.45 seconds, the latitude of the subject (139 degrees 44 minutes 25 minutes) is obtained. .14 seconds).
With the above calculations, the altitude, latitude, and longitude of the subject could be obtained.
Next, a method for calculating the flight target distance of the drone will be described.

ドローンは、ネットワークカメラの撮影範囲にできるだけ入らないようにするために、例えば、図9に示すように、被写体の位置から、ネットワークカメラ方向に5m(所定値)手前の位置、被写体の高度から5m(所定値)の位置を飛ぶようにする。   For example, as shown in FIG. 9, the drone is positioned 5 m (predetermined value) in front of the subject in the direction of the network camera and 5 m from the altitude of the subject in order to keep the drone out of the shooting range of the network camera. (Predetermined value).

すなわち、ここでは、被写体の位置から、ネットワークカメラ方向に5m(所定値)手前の位置、被写体の高度から5m(所定値)の位置を算出する。
まず、ドローンの飛行目標距離の高度の算出について説明する。
That is, here, a position 5 m (predetermined value) in front of the subject in the network camera direction and a position 5 m (predetermined value) from the altitude of the subject are calculated.
First, calculation of the altitude of the flight target distance of the drone will be described.

被写体の高度は、上述の通り、9.73mであるため、その値に5mを足した値(14.73m)がドローンの飛行目標距離の高度として算出される。
次に、ドローンの飛行目標距離の経度の算出方法について説明する。
Since the height of the subject is 9.73 m as described above, a value obtained by adding 5 m to the value (14.73 m) is calculated as the altitude of the flight target distance of the drone.
Next, a method of calculating the longitude of the flight target distance of the drone will be described.

図10に示すように、ネットワークカメラと被写体との間の水平距離(29.89m)から、5mをひいた値が、ネットワークカメラからドローンの飛行目標距離までの水平距離(24.89m)となる。   As shown in FIG. 10, a value obtained by subtracting 5 m from the horizontal distance (29.89 m) between the network camera and the subject is the horizontal distance (24.89 m) from the network camera to the flight target distance of the drone. .

そのため、パン角度が15度であるため、sin(15度)×24.89mを計算すると、ネットワークカメラとドローンの飛行目標距離との経度上の距離(24.04m)が算出される。   Therefore, since the pan angle is 15 degrees, when sin (15 degrees) × 24.89 m is calculated, the longitudinal distance (24.04 m) between the network camera and the flight target distance of the drone is calculated.

経度は、1秒当たり、25.34mであるため、ネットワークカメラ1021の緯度(35度37分32.14秒)−(24.04m/(30.86m/1秒))を計算することで、ドローン102の飛行目標の緯度(35度37分31.36秒)が算出される。
次に、ドローンの飛行目標距離の緯度の算出方法について説明する。
Since the longitude is 25.34 m per second, calculating the latitude of the network camera 1021 (35 degrees 37 minutes 32.14 seconds)-(24.04 m / (30.86 m / 1 second)) The latitude (35 degrees 37 minutes 31.36 seconds) of the flight target of the drone 102 is calculated.
Next, a method of calculating the latitude of the flight target distance of the drone will be described.

図10に示すように、パン角度が15度であるため、cos(15度)/ネットワークカメラと被写体との間の水平距離(29.89m)を算出することで、ネットワークカメラとドローンの飛行目標距離との緯度上の距離(6.44m)が算出される。   As shown in FIG. 10, since the pan angle is 15 degrees, the flight target between the network camera and the drone is calculated by calculating cos (15 degrees) / the horizontal distance (29.89 m) between the network camera and the subject. The distance (6.44 m) on the latitude with respect to the distance is calculated.

経度は、1秒当たり、30.86mであるため、ネットワークカメラ1021の緯度(35度37分32.14秒)−(24.04m/(30.86m/1秒))を計算し、ドローン102の飛行目標の緯度(35度37分31.36秒)を算出することができる。   Since the longitude is 30.86 m per second, the latitude (35 degrees 37 minutes 32.14 seconds)-(24.04 m / (30.86 m / 1 second)) of the network camera 1021 is calculated, and the drone 102 Of the flight target (35 degrees 37 minutes 31.36 seconds) can be calculated.

本発明は、上述した実施形態に限定されることはなく、その要旨を逸脱しない範囲内において適宜変更することができる。   The present invention is not limited to the above-described embodiment, and can be appropriately modified without departing from the gist thereof.

以上、本発明によれば、カメラで撮影される被写体を、飛行体の照明で照らすことを可能にし、カメラで被写体を鮮明に撮影することができる。   As described above, according to the present invention, it is possible to illuminate the subject photographed by the camera with the lighting of the flying object, and to photograph the subject clearly with the camera.

以上、本発明の一実施形態を詳述したが、本発明は、例えば、システム、装置、方法、装置で実行可能なプログラムもしくは記憶媒体等としての実施態様をとることが可能である。   As mentioned above, although one Embodiment of this invention was described in full detail, this invention can take embodiment as a system, an apparatus, a method, a program executable by an apparatus, or a storage medium.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。すなわち、本発明は、撮像装置としてだけはなく、パーソナルコンピュータなどの情報処理装置として適用することも可能である。   Further, an object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and a computer (or CPU or MPU) of the system or the apparatus to store the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in the program. That is, the present invention can be applied not only to an imaging device but also to an information processing device such as a personal computer.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, and the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also the OS (basic system or operating system) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

101 情報処理装置
102 飛行体
1021 ネットワークカメラ
101 information processing device 102 flying object 1021 network camera

Claims (6)

被写体を撮影するネットワークカメラと、照明器具を備えた飛行体と通信可能な情報処理装置であって、
前記ネットワークカメラから、前記ネットワークカメラによる被写体の撮像に係る撮影情報を取得する取得手段と、
前記取得手段で取得した撮影情報に従って、当該被写体の位置を特定する被写体特定手段と、
前記被写体特定手段により特定された位置に従って、前記飛行体が飛行する飛行目標位置を特定する目標位置特定手段と、
前記目標位置特定手段により特定された飛行目標位置に、前記飛行体を飛行させる指示を、前記飛行体に行う指示手段と、
を備えることを特徴とする情報処理装置。
A network camera for photographing a subject, and an information processing device capable of communicating with a flying object equipped with lighting equipment,
Acquisition means for acquiring, from the network camera, imaging information relating to imaging of a subject by the network camera,
Subject specifying means for specifying the position of the subject according to the photographing information acquired by the acquiring means,
Target position specifying means for specifying a flight target position where the flying object flies according to the position specified by the subject specifying means,
Instruction means for instructing the flying object to fly the flying object to the flight target position specified by the target position specifying means,
An information processing apparatus comprising:
前記指示手段は、前記被写体特定手段により特定された位置の被写体を前記照明器具で照らすべく、当該特定された被写体の位置を、前記飛行体に送信することを特徴とする請求項1に記載の情報処理装置。   The said instruction | indication means transmits the position of the said specified subject to the said flying object in order to illuminate the object of the position specified by the said subject specification means with the said lighting fixture, The said flying object. Information processing device. 前記目標位置特定手段は、前記被写体特定手段により特定された被写体の位置と、前記ネットワークカメラの位置とに従って、前記飛行体が飛行する飛行目標位置を特定することを特徴とする請求項1又は2に記載の情報処理装置。   The said target position specification means specifies the flight target position at which the said flying object flies according to the position of the object specified by the said object specification means, and the position of the said network camera. An information processing apparatus according to claim 1. 前記目標位置特定手段は、前記被写体特定手段により特定された被写体の位置と、前記ネットワークカメラの位置とに従って、前記ネットワークカメラの撮像範囲に前記飛行体が入らない飛行目標位置を特定することを特徴とする請求項3に記載の情報処理装置。   The target position specifying means specifies a flight target position at which the flying object does not enter the imaging range of the network camera according to the position of the subject specified by the subject specifying means and the position of the network camera. The information processing apparatus according to claim 3, wherein 被写体を撮影するネットワークカメラと、照明器具を備えた飛行体と通信可能な情報処理装置における制御方法であって、
取得手段が、前記ネットワークカメラから、前記ネットワークカメラによる被写体の撮像に係る撮影情報を取得する取得工程と、
被写体特定手段が、前記取得工程で取得した撮影情報に従って、当該被写体の位置を特定する被写体特定工程と、
目標位置特定手段が、前記被写体特定工程により特定された位置に従って、前記飛行体が飛行する飛行目標位置を特定する目標位置特定工程と、
指示手段が、前記目標位置特定工程により特定された飛行目標位置に、前記飛行体を飛行させる指示を、前記飛行体に行う指示工程と、
を備えることを特徴とする制御方法。
A network camera for photographing a subject, and a control method in an information processing device capable of communicating with a flying object including a lighting device,
Obtaining means for obtaining, from the network camera, shooting information related to imaging of a subject by the network camera;
Subject identifying means for identifying a position of the subject according to the photographing information acquired in the acquiring step;
Target position specifying means for specifying a flight target position at which the flying object flies according to the position specified by the subject specifying step;
Instruction means for instructing the flying object to instruct the flying object to fly to the flight target position specified by the target position specifying step;
A control method comprising:
被写体を撮影するネットワークカメラと、照明器具を備えた飛行体と通信可能な情報処理装置で読み取り実行可能なプログラムであって、
前記情報処理装置を、
前記ネットワークカメラから、前記ネットワークカメラによる被写体の撮像に係る撮影情報を取得する取得手段と、
前記取得手段で取得した撮影情報に従って、当該被写体の位置を特定する被写体特定手段と、
前記被写体特定手段により特定された位置に従って、前記飛行体が飛行する飛行目標位置を特定する目標位置特定手段と、
前記目標位置特定手段により特定された飛行目標位置に、前記飛行体を飛行させる指示を、前記飛行体に行う指示手段として機能させることを特徴とするプログラム。


A network camera that captures an object, and a program that can be read and executed by an information processing device that can communicate with a flying object including a lighting device,
The information processing device,
Acquisition means for acquiring, from the network camera, imaging information relating to imaging of a subject by the network camera,
Subject specifying means for specifying the position of the subject according to the photographing information acquired by the acquiring means,
Target position specifying means for specifying a flight target position where the flying object flies according to the position specified by the subject specifying means,
A program for causing an instruction to fly the flying object to a flight target position specified by the target position specifying means to function as instruction means for instructing the flying object.


JP2016194366A 2016-09-30 2016-09-30 Information processing apparatus, control method thereof, and program Active JP6634994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016194366A JP6634994B2 (en) 2016-09-30 2016-09-30 Information processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016194366A JP6634994B2 (en) 2016-09-30 2016-09-30 Information processing apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2018056952A JP2018056952A (en) 2018-04-05
JP6634994B2 true JP6634994B2 (en) 2020-01-22

Family

ID=61837101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016194366A Active JP6634994B2 (en) 2016-09-30 2016-09-30 Information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP6634994B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5246672B2 (en) * 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 Robot system
JP2017112433A (en) * 2015-12-14 2017-06-22 株式会社東芝 Image capturing device, image capturing method, and image capturing program

Also Published As

Publication number Publication date
JP2018056952A (en) 2018-04-05

Similar Documents

Publication Publication Date Title
JP4928275B2 (en) Camera control apparatus and control method thereof
US11004167B2 (en) Image capturing apparatus having capability of recognizing a relationship among a plurality of images
EP2757771B1 (en) Image pickup apparatus, remote control apparatus, and methods of controlling image pickup apparatus and remote control apparatus
KR102655625B1 (en) Method and photographing device for controlling the photographing device according to proximity of a user
US20120223969A1 (en) Device for capturing and displaying images of objects, in particular digital binoculars, digital camera or digital video camera
US20170324893A1 (en) Network system and control method for network system
US9939263B2 (en) Geodetic surveying system
CN108063909B (en) Video conference system, image tracking and collecting method and device
KR102335167B1 (en) Image photographing apparatus and method for photographing thereof
JP2017168882A (en) Image processing apparatus, image processing method, and program
US20140184586A1 (en) Depth of field visualization
US20200162665A1 (en) Object-tracking based slow-motion video capture
JP2005189087A (en) Distance measurement equipment and program
JP2005354166A (en) Image processing apparatus, image processing system, image processing method, and storage medium
WO2021168804A1 (en) Image processing method, image processing apparatus and image processing system
JP5847591B2 (en) Information processing apparatus, information processing method and program for information processing apparatus
JP2012119971A (en) Monitoring video display unit
JP6634994B2 (en) Information processing apparatus, control method thereof, and program
CN108055456B (en) Texture acquisition method and device
JP6226731B2 (en) Imaging apparatus, control method, and program
KR101963449B1 (en) System and method for generating 360 degree video
JP2014120815A (en) Information processing apparatus, imaging device, information processing method, program, and storage medium
JP2018142907A (en) Information processing apparatus, control method and program of information processing apparatus
JP2018103823A (en) Information processing device, system, and control method therefor, and program thereof
US20150199551A1 (en) Use of invisible ink to create metadata of image object

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161101

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R151 Written notification of patent or utility model registration

Ref document number: 6634994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250