JP2018129577A - Imaging system, control method thereof, and program - Google Patents

Imaging system, control method thereof, and program Download PDF

Info

Publication number
JP2018129577A
JP2018129577A JP2017019450A JP2017019450A JP2018129577A JP 2018129577 A JP2018129577 A JP 2018129577A JP 2017019450 A JP2017019450 A JP 2017019450A JP 2017019450 A JP2017019450 A JP 2017019450A JP 2018129577 A JP2018129577 A JP 2018129577A
Authority
JP
Japan
Prior art keywords
image data
imaging device
control
imaging
unmanned aircraft
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017019450A
Other languages
Japanese (ja)
Inventor
浩 長井
Hiroshi Nagai
浩 長井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2017019450A priority Critical patent/JP2018129577A/en
Publication of JP2018129577A publication Critical patent/JP2018129577A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an appropriate image even when vibration occurs in an unmanned aerial vehicle equipped with an imaging device .SOLUTION: An imaging system having an unmanned aerial vehicle including a first imaging device and a second imaging device different from the first imaging device obtains data of images captured by the first imaging device and the second imaging device. Next, the imaging system receives data on vibration of the unmanned aerial vehicle and performs control for transmitting the data of images captured by the first imaging device and the second imaging device. The control for transmitting the image data is performed such that one of the image data captured by the first imaging device and the second imaging device is transmitted according to the received data on vibration.SELECTED DRAWING: Figure 6

Description

本発明は、無人航空機で撮影された画像データを処理する撮影システム、その制御方法、及びプログラムに関する。   The present invention relates to an imaging system that processes image data captured by an unmanned aerial vehicle, a control method thereof, and a program.

従来から、撮影装置で撮影された画像をリアルタイムに送信するシステムが知られている。当該画像は、例えば、テレビ放送の映像や地図データの作成のために用いられる。また、近年、撮影装置を備えた無人航空機で撮影することにより、従来のシステムよりも自由度の高い映像を提供可能な中継システムが検討されている。   2. Description of the Related Art Conventionally, a system that transmits an image captured by an imaging device in real time is known. The image is used, for example, for creating a television broadcast video or map data. In recent years, a relay system capable of providing an image with a higher degree of freedom than conventional systems by photographing with an unmanned aerial vehicle equipped with a photographing device has been studied.

例えば、特許文献1には、無人航空機により上空から撮影された画像をテレビニュース等の報道に使用する中継システムが開示されている。   For example, Patent Document 1 discloses a relay system that uses an image taken from the sky by an unmanned aircraft for news reports such as television news.

特開2016−225983号公報JP, 2006-225983, A

ところで、無人航空機は、上空を飛行しながら撮影を行うため、風や気圧の変化等の外的影響を受けやすい。しかしながら、特許文献1には、当該外的影響の対策に関しては何ら検討されていない。そのため、無人航空機は、振動の影響を受けることにより、撮影した画像の画質が低下するおそれがあった。特に、テレビ中継等のリアルタイムで画像を提供する場合には、視聴者に適切な映像を提供できないおそれがあった。   By the way, since the unmanned aerial vehicle performs shooting while flying over the sky, it is susceptible to external influences such as changes in wind and atmospheric pressure. However, Patent Document 1 does not discuss any measures against the external influence. For this reason, the unmanned aerial vehicle may be affected by vibrations, so that the quality of the captured image may be deteriorated. In particular, when an image is provided in real time such as on a television broadcast, there is a possibility that an appropriate video cannot be provided to the viewer.

そこで、本発明は、撮影装置を備えた無人航空機に振動が発生した場合であっても、適切な画像を提供することを目的とする。   Therefore, an object of the present invention is to provide an appropriate image even when vibration occurs in an unmanned aerial vehicle equipped with an imaging device.

本発明は、第一の撮影装置を備える無人航空機と、該第一の撮影装置とは異なる第二の撮影装置と、を有する撮影システムであって、前記第一の撮影装置および前記第二の撮影装置で撮影した画像データを取得する取得手段と、前記無人航空機の振動に関するデータを受信する受信手段と、前記第一の撮影装置および前記第二の撮影装置で撮影された画像データを送信するための制御を行う制御手段と、を備え、前記制御手段は、前記受信手段で受信した振動に関するデータに応じて、前記第一の撮影装置および前記第二の撮影装置で撮影された画像データのうち、いずれか一方の画像データを送信するように制御することを特徴とする。   The present invention is an imaging system including an unmanned aircraft including a first imaging device and a second imaging device different from the first imaging device, wherein the first imaging device and the second imaging device An acquisition unit that acquires image data captured by the imaging device, a reception unit that receives data relating to vibrations of the unmanned aircraft, and image data captured by the first imaging device and the second imaging device are transmitted. Control means for performing control for the image data captured by the first photographing apparatus and the second photographing apparatus according to data relating to vibration received by the receiving means. Of these, control is performed to transmit any one of the image data.

本発明によれば、無人航空機を用いた画像の撮影中に揺れが生じた場合であっても、適切な画像を提供可能な効果を奏する。   According to the present invention, there is an effect that it is possible to provide an appropriate image even when shaking occurs during shooting of an image using an unmanned aerial vehicle.

本発明の実施形態における、撮影システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of an imaging | photography system in embodiment of this invention. 無人航空機101のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an unmanned aircraft 101. FIG. ネットワークカメラ103のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a network camera 103. FIG. 制御用コンピュータ105のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of a control computer 105. FIG. 撮影システムの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of an imaging | photography system. 第1の実施形態における、無人航空機の制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the control process of an unmanned aerial vehicle in 1st Embodiment. 角速度センサから出力された各種データの一例を示す図である。It is a figure which shows an example of the various data output from the angular velocity sensor. 第2の実施形態における、無人航空機の制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the control process of an unmanned aerial vehicle in 2nd Embodiment.

以下、図面を参照して、本発明の実施形態を詳細に説明する。まず、第1の実施形態について説明する。図1は本実施形態における撮影システムのシステム構成の一例を示す図である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. First, the first embodiment will be described. FIG. 1 is a diagram illustrating an example of a system configuration of an imaging system in the present embodiment.

本実施形態の撮影システムは、無人航空機101、操作端末102、ネットワークカメラ103、中継装置104、制御用コンピュータ105、および操作卓106を備える。そして、それらがネットワーク110や無線LAN(移動体通信網を含む)120を介して通信接続可能に接続されている。尚、図1のシステム構成は一例であり、用途や目的に応じて様々な構成例がある。   The imaging system of this embodiment includes an unmanned aircraft 101, an operation terminal 102, a network camera 103, a relay device 104, a control computer 105, and an operation console 106. And they are connected via a network 110 and a wireless LAN (including a mobile communication network) 120 so as to be communicable. Note that the system configuration in FIG. 1 is an example, and there are various configuration examples depending on the application and purpose.

無人航空機101は、操作端末102により遠隔操縦が可能な無人の航空機である。無人航空機101は、操作端末102からの指示に応じて、複数の回転翼を動作させて飛行する。無人航空機101は、この回転翼の回転数を増減させることで無人航空機101の前進・後退・旋回・ホバリング等を行う。無人航空機101は、例えば、ドローンである。   Unmanned aerial vehicle 101 is an unmanned aircraft that can be remotely controlled by operation terminal 102. The unmanned aerial vehicle 101 flies by operating a plurality of rotor blades in response to an instruction from the operation terminal 102. The unmanned aerial vehicle 101 moves the unmanned aircraft 101 forward, backward, turns, hovers, and the like by increasing or decreasing the rotational speed of the rotor blades. The unmanned aerial vehicle 101 is, for example, a drone.

また、無人航空機101は、操作端末102や制御用コンピュータ105等と無線および有線で通信することが可能である。尚、本実施形態では、無人航空機101は、操作端末102や制御用コンピュータ105等と有線および無線のどちらの方式で通信してもよい。   The unmanned aerial vehicle 101 can communicate with the operation terminal 102, the control computer 105, and the like in a wireless and wired manner. In this embodiment, the unmanned aerial vehicle 101 may communicate with the operation terminal 102, the control computer 105, and the like by either wired or wireless methods.

操作端末102は、無人航空機101を操縦するための送信機(遠隔操作端末)である。本実施形態では、無人航空機101を操縦可能な操作端末として、プロポと呼ばれるプロポーショナル・システム(比例制御システム)を例に説明を行うが、操作端末102は、いわゆるスマートフォンやタブレット端末といった携帯端末であってもよい。当該プロポは、操作を受け付けることによりプロポが有する操作部の移動量に比例して、無人航空機101の回転翼の回転数を制御することができる。尚、無人航空機101の制御方法として、操作端末102による手動の制御でなくとも、あらかじめ飛行経路等を設定することで無人航空機101の自動制御を行い飛行してもよい。   The operation terminal 102 is a transmitter (remote operation terminal) for operating the unmanned aircraft 101. In the present embodiment, a proportional system (proportional control system) called “propo” will be described as an example of an operation terminal capable of maneuvering the unmanned aircraft 101. However, the operation terminal 102 is a portable terminal such as a so-called smartphone or tablet terminal. May be. The propo can control the rotation speed of the rotor blades of the unmanned aerial vehicle 101 in proportion to the amount of movement of the operation unit of the propo by accepting the operation. As a method for controlling the unmanned aerial vehicle 101, instead of manual control by the operation terminal 102, the unmanned aircraft 101 may be controlled automatically by setting a flight route or the like in advance.

ネットワークカメラ103は、無線LANや電話回線を介して制御用コンピュータ105と通信可能に接続されたカメラであり、所定の場所に設置された固定カメラを示す。ここで言うネットワークカメラ103は、例えばビルの屋上などに設置されるカメラであり、お天気カメラとして利用されるカメラを含む。また、ネットワークカメラ103は、建物の出入り口や街中に設置され監視カメラを含む。ネットワークカメラ103は、カメラの向きを移動させ、撮影方向を変更させることが可能である。カメラの向きを移動させる動作とは、カメラのレンズの向きを左右に動かすパン、カメラのレンズの向きを上下に動かすチルト、そして、カメラのレンズを望遠にしたり広角にしたりするズームの機能を有している。これらのカメラの制御は遠隔地から操作(PTZ制御)できるようになっている。尚、本実施形態のネットワークカメラ103は、一例として固定されたカメラを例に説明を行うが、これに限定されず、無人航空機101とは異なる他の無人航空機に搭載されたカメラであってもよい。   The network camera 103 is a camera that is communicably connected to the control computer 105 via a wireless LAN or a telephone line, and indicates a fixed camera installed at a predetermined location. The network camera 103 here is a camera installed on the roof of a building, for example, and includes a camera used as a weather camera. The network camera 103 includes a surveillance camera installed at the entrance of a building or in the city. The network camera 103 can change the shooting direction by moving the direction of the camera. The movement of the camera direction includes panning to move the camera lens to the left and right, tilt to move the camera lens up and down, and zoom to make the camera lens telephoto and wide-angle. doing. These cameras can be controlled from a remote location (PTZ control). The network camera 103 of the present embodiment will be described by taking a fixed camera as an example. However, the network camera 103 is not limited to this, and may be a camera mounted on another unmanned aircraft different from the unmanned aircraft 101. Good.

中継装置104は、ネットワークカメラ103や無人航空機101に対して電源を供給したり、操作卓106からの制御信号を伝えたりする機能を有する。   The relay device 104 has a function of supplying power to the network camera 103 and the unmanned aircraft 101 and transmitting a control signal from the console 106.

制御用コンピュータ105(情報処理装置)や操作卓106は、ネットワークカメラ103が設置された場所と物理的に距離が離れた遠隔地に設置されていてもよい。例えば、制御用コンピュータ105(情報処理装置)や操作卓106は、同一の敷地内等の物理的な距離はそれほど離れていない近距離に設置されていてもよい。また、複数の無人航空機101やネットワークカメラ103をまとめて管理する集中管理センターに設定することも可能である。   The control computer 105 (information processing apparatus) and the console 106 may be installed in a remote place physically separated from the place where the network camera 103 is installed. For example, the control computer 105 (information processing apparatus) and the console 106 may be installed at a short distance that is not so far away from each other, such as within the same site. It is also possible to set a centralized management center that collectively manages a plurality of unmanned aircraft 101 and network cameras 103.

制御用コンピュータ105は、複数の無人航空機101やネットワークカメラ103を制御するための操作卓106の制御回線を接続する機器である。   The control computer 105 is a device that connects a control line of the console 106 for controlling the plurality of unmanned aircraft 101 and the network camera 103.

操作卓106は、無人航空機101やネットワークカメラ103を制御するための指示を受け付ける機器である。   The console 106 is a device that receives an instruction for controlling the unmanned aircraft 101 and the network camera 103.

ネットワーク110および無線LAN120は、本撮影システムの各機器を接続するネットワークである。本撮影システムの各機器は、ネットワークで接続されていても無線LANで接続されていても、移動体通信網で接続されていても実施可能なものである。   The network 110 and the wireless LAN 120 are networks that connect each device of the photographing system. Each device of the photographing system can be implemented regardless of whether it is connected via a network, connected via a wireless LAN, or connected via a mobile communication network.

図2は、無人航空機101のハードウェア構成を示す図である。尚、図2に示す無人航空機101のハードウェア構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 2 is a diagram illustrating a hardware configuration of the unmanned aerial vehicle 101. Note that the hardware configuration of the unmanned aerial vehicle 101 shown in FIG. 2 is an example, and there are various configuration examples depending on the application and purpose.

フライトコントローラ200は無人航空機101の飛行制御を行うためのマイクロコントローラであり、CPU201、ROM202、RAM203、周辺バスインタフェース204(以下、周辺バスI/F204という。)を備えている。   The flight controller 200 is a microcontroller for performing flight control of the unmanned aerial vehicle 101, and includes a CPU 201, a ROM 202, a RAM 203, and a peripheral bus interface 204 (hereinafter referred to as a peripheral bus I / F 204).

CPU201は、システムバスに接続される各デバイスを統括的に制御する。また、ROM202あるいは周辺バスI/F304に接続される外部メモリ280には、CPU201の制御プログラムであるBIOS(Basic Input/Output System)やオペレーティングシステムプログラムが記憶されている。   The CPU 201 comprehensively controls each device connected to the system bus. The external memory 280 connected to the ROM 202 or the peripheral bus I / F 304 stores a basic input / output system (BIOS) that is a control program of the CPU 201 and an operating system program.

また外部メモリ280(記憶手段)には、無人航空機101の実行する機能を実現するために必要な各種プログラム等が記憶されている。RAM203(記憶手段)は、CPU201の主メモリ、ワークエリア等として機能する。   The external memory 280 (storage means) stores various programs and the like necessary for realizing the functions executed by the unmanned aircraft 101. A RAM 203 (storage means) functions as a main memory, work area, and the like for the CPU 201.

CPU201は、処理の実行に際して必要なプログラム等をRAM203にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 201 implements various operations by loading a program necessary for execution of processing into the RAM 203 and executing the program.

周辺バスI/F204は、各種周辺デバイスと接続するためのインタフェースである。周辺バスI/F204には、PMU210、SIMアダプタ220、無線LAN用BBユニット230、移動体通信用BBユニット240、GPSユニット250、センサ260、GCU270、外部メモリ280が接続されている。   The peripheral bus I / F 204 is an interface for connecting to various peripheral devices. Connected to the peripheral bus I / F 204 are a PMU 210, a SIM adapter 220, a wireless LAN BB unit 230, a mobile communication BB unit 240, a GPS unit 250, a sensor 260, a GCU 270, and an external memory 280.

PMU210はパワーマネジメントユニットであり、無人航空機101が備えるバッテリからESC211への電源供給を制御することができる。ESC211は、エレクトロニックスピードコントローラであり、ESC211に接続されるモータ212の回転数を制御することができる。ESC211によってモータ212を回転させることで、モータ212に接続されるプロペラ213(回転翼)を回転させる。   The PMU 210 is a power management unit and can control power supply from the battery included in the unmanned aircraft 101 to the ESC 211. The ESC 211 is an electronic speed controller and can control the rotation speed of the motor 212 connected to the ESC 211. By rotating the motor 212 using the ESC 211, the propeller 213 (rotary blade) connected to the motor 212 is rotated.

尚、ESC211、モータ212、プロペラ213のセットは、プロペラ213の数に応じて複数備えられている。例えば、クアッドコプターであれば、プロペラ213の数は4枚であるので、このセットが4つ必要となる。   Note that a plurality of sets of ESCs 211, motors 212, and propellers 213 are provided according to the number of propellers 213. For example, in the case of a quadcopter, the number of propellers 213 is four, so four sets are required.

SIMアダプタ220は、SIMカード221を挿入するためのカードアダプタである。SIMカード221の種類は特に問わない。移動体通信網を提供する通信事業者に応じたSIMカード221であればよい。   The SIM adapter 220 is a card adapter for inserting the SIM card 221. The type of the SIM card 221 is not particularly limited. Any SIM card 221 may be used depending on the carrier that provides the mobile communication network.

無線LAN用BBユニット230は、無線LANを介して通信を行うためのベースバンドユニットである。無線LAN用BBユニット230は、送信したいデータや信号からベースバンド信号を生成して変復調回路へ送出することができる。更に、受信したベースバンド信号から元のデータや信号を得ることができる。   The wireless LAN BB unit 230 is a baseband unit for performing communication via a wireless LAN. The wireless LAN BB unit 230 can generate a baseband signal from data or signals to be transmitted and send it to the modem circuit. Furthermore, original data and signals can be obtained from the received baseband signal.

また、無線LAN用RFユニット231は、無線LANを介して通信を行うためのRF(Radio Frequency)ユニットである。無線LAN用RFユニット231は、無線LAN用BBユニット230から送出されたベースバンド信号を無線LANの周波数帯に変調してアンテナから送信することができる。更に、無線LANの周波数帯の信号を受信すると、これをベースバンド信号に復調することができる。   The wireless LAN RF unit 231 is an RF (Radio Frequency) unit for performing communication via a wireless LAN. The wireless LAN RF unit 231 can modulate the baseband signal transmitted from the wireless LAN BB unit 230 into the frequency band of the wireless LAN and transmit it from the antenna. Furthermore, when a signal in the wireless LAN frequency band is received, it can be demodulated into a baseband signal.

移動体通信用BBユニット240は、移動体通信網を介して通信を行うためのベースバンドユニットである。移動体通信用BBユニット240は、送信したいデータや信号からベースバンド信号を生成して変復調回路へ送出することができる。更に、受信したベースバンド信号から元のデータや信号を得ることができる。   The mobile communication BB unit 240 is a baseband unit for performing communication via a mobile communication network. The mobile communication BB unit 240 can generate a baseband signal from data or signals to be transmitted and send it to the modem circuit. Furthermore, original data and signals can be obtained from the received baseband signal.

また、移動体通信用RFユニット241は、移動体通信網を介して通信を行うためのRF(Radio Frequency)ユニットである。移動体通信用RFユニット241は、移動体通信用BBユニット240から送出されたベースバンド信号を移動体通信網の周波数帯に変調してアンテナから送信することができる。更に、移動体通信網の周波数帯の信号を受信すると、これをベースバンド信号に復調することができる。   The mobile communication RF unit 241 is an RF (Radio Frequency) unit for performing communication via a mobile communication network. The mobile communication RF unit 241 can modulate the baseband signal transmitted from the mobile communication BB unit 240 into the frequency band of the mobile communication network and transmit it from the antenna. Further, when a signal in the frequency band of the mobile communication network is received, it can be demodulated into a baseband signal.

GPSユニット250は、グローバルポジショニングシステムにより、無人航空機101の現在位置を取得することの可能な受信機である。GPSユニット250は、GPS衛星からの信号を受信し、現在位置を推定することができる。   The GPS unit 250 is a receiver that can acquire the current position of the unmanned aerial vehicle 101 using a global positioning system. The GPS unit 250 can receive a signal from a GPS satellite and estimate the current position.

センサ260は、無人航空機101の傾き、向き、速度や周りの環境を計測するためのセンサである。無人航空機101はセンサ260として、ジャイロセンサ、加速度センサ、気圧センサ、磁気センサ、超音波センサ等を備えている。これらのセンサから取得したデータに基づいて、CPU201が無人航空機101の姿勢や移動を制御する。   The sensor 260 is a sensor for measuring the tilt, direction, speed, and surrounding environment of the unmanned aircraft 101. The unmanned aircraft 101 includes a gyro sensor, an acceleration sensor, an atmospheric pressure sensor, a magnetic sensor, an ultrasonic sensor, and the like as the sensor 260. Based on the data acquired from these sensors, the CPU 201 controls the attitude and movement of the unmanned aerial vehicle 101.

GCU270はジンバルコントロールユニットであり、カメラ271とジンバル272の動作を制御するためのユニットである。無人航空機101が飛行することにより機体に振動が発生したり、機体が不安定になったりするため、カメラ271で撮影した際にブレが発生しないよう、ジンバル272によって無人航空機101の振動を吸収し水平を維持する。また、ジンバル272によってカメラ271の遠隔操作を行うことも可能である。   The GCU 270 is a gimbal control unit and is a unit for controlling the operations of the camera 271 and the gimbal 272. The unmanned aerial vehicle 101 will vibrate or become unstable due to the flight of the unmanned aerial vehicle 101. Therefore, the gimbal 272 absorbs the vibration of the unmanned aerial vehicle 101 so that no blurring occurs when the camera 271 takes a picture. Maintain level. Further, the camera 271 can be remotely operated by the gimbal 272.

本発明の無人航空機101が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ280に記録されており、必要に応じてRAM203にロードされることによりCPU201によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ280に格納されている。   Various programs and the like used by the unmanned aerial vehicle 101 of the present invention to execute various processes, which will be described later, are recorded in the external memory 280 and are executed by the CPU 201 by being loaded into the RAM 203 as necessary. . Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 280.

図3は、ネットワークカメラ103のハードウェアの構成を示す構成図である。   FIG. 3 is a configuration diagram illustrating a hardware configuration of the network camera 103.

CPU301は、システムバス304に接続される各デバイスやコントローラを統括的に制御する。   The CPU 301 comprehensively controls each device and controller connected to the system bus 304.

また、ROM302あるいは外部メモリ305には、CPU301の制御プログラムであるBIOS(Basic Input / Output System)やオペレーティングシステムプログラム(以下、OS)が記憶されている。また、画像処理サーバ108の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM303は、CPU301の主メモリ、ワークエリア等として機能する。CPU301は、処理の実行に際して必要なプログラム等をRAM303にロードして、プログラムを実行することで各種動作を実現するものである。   Further, the ROM 302 or the external memory 305 stores a basic input / output system (BIOS) that is a control program of the CPU 301 and an operating system program (hereinafter referred to as OS). In addition, various programs described below necessary for realizing the functions executed by the image processing server 108 are stored. A RAM 303 functions as a main memory, work area, and the like for the CPU 301. The CPU 301 implements various operations by loading a program or the like necessary for execution of processing into the RAM 303 and executing the program.

メモリコントローラ(MC)306は、ブートプログラム、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ、画像データ等を記憶するハードディスク(HD)へのアクセスを制御する。また、PCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)やスマートメディア(登録商標)等の外部メモリ305へのアクセスを制御する。   A memory controller (MC) 306 controls access to a hard disk (HD) that stores a boot program, various applications, font data, user files, editing files, various data, image data, and the like. Further, access to an external memory 305 such as a compact flash (registered trademark) or smart media (registered trademark) connected to the PCMCIA card slot via an adapter is controlled.

カメラ部307は、画像処理部308と接続されており、監視対象に対して向けられたレンズを透過して得られた光をCCDやCMOS等の受光セルによって光電変換を行った後、RGB信号や補色信号を画像処理部308に対して出力する。   The camera unit 307 is connected to the image processing unit 308 and performs photoelectric conversion on the light obtained through the lens directed toward the monitoring target by a light receiving cell such as a CCD or CMOS, and then outputs an RGB signal. Or a complementary color signal is output to the image processing unit 308.

画像処理部308は、RGB信号や捕色信号に基づいて、ホワイトバランス調整、ガンマ処理、シャープネス処理を行う。更に、YC信号処理を施して輝度信号Yとクロマ信号(以下、YC信号)を生成する。そしてYC信号を所定の圧縮形式(例えばJPEGフォーマット、あるいはMotionJPEGフォーマット等)で圧縮し、この圧縮されたデータは、画像データとして外部メモリ305へ一時保管される。   The image processing unit 308 performs white balance adjustment, gamma processing, and sharpness processing based on the RGB signal and the color collection signal. Further, YC signal processing is performed to generate a luminance signal Y and a chroma signal (hereinafter referred to as YC signal). The YC signal is then compressed in a predetermined compression format (for example, JPEG format or Motion JPEG format), and the compressed data is temporarily stored in the external memory 305 as image data.

通信I/Fコントローラ(通信I/FC)309は、ネットワークを介して、外部機器と接続・通信するものである。通信I/Fコントローラ(通信I/FC)309は、ネットワークでの通信制御処理を実行しており、外部メモリ305に記憶された画像データは、通信I/Fコントローラ309によって外部機器へ送信される。   A communication I / F controller (communication I / FC) 309 connects and communicates with an external device via a network. A communication I / F controller (communication I / FC) 309 executes communication control processing in the network, and image data stored in the external memory 305 is transmitted to an external device by the communication I / F controller 309. .

図4は、制御用コンピュータ105(以下、情報処理装置105)のハードウェア構成の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a hardware configuration of the control computer 105 (hereinafter, information processing apparatus 105).

CPU401は、システムバス404に接続される各デバイスやコントローラを統括的に制御する。   The CPU 401 comprehensively controls each device and controller connected to the system bus 404.

また、ROM402あるいは外部メモリ411(記憶手段)には、CPU401の制御プログラムであるBIOS(Basic Input / OutputSystem)やオペレーティングシステムプログラム(以下、OS)が記憶される。また、情報処理装置105の実行する機能を実現するために必要な後述する各種プログラム等が記憶されている。RAM403は、CPU401の主メモリ、ワークエリア等として機能する。   The ROM 402 or the external memory 411 (storage means) stores a BIOS (Basic Input / Output System) and an operating system program (hereinafter referred to as OS) which are control programs for the CPU 401. In addition, various programs to be described later necessary for realizing the functions executed by the information processing apparatus 105 are stored. The RAM 403 functions as a main memory, work area, and the like for the CPU 401.

CPU401は、処理の実行に際して必要なプログラム等をRAM403にロードして、プログラムを実行することで各種動作を実現するものである。   The CPU 401 implements various operations by loading a program or the like necessary for execution of processing into the RAM 403 and executing the program.

また、入力コントローラ(入力C)405は、キーボード等の文字入力手段、不図示の
マウス等のポインティングデバイス、マイク等の音声取得手段、カメラ等の映像取得手段
等の入力デバイス409からの入力を制御する。
An input controller (input C) 405 controls input from an input device 409 such as a character input means such as a keyboard, a pointing device such as a mouse (not shown), a sound acquisition means such as a microphone, and a video acquisition means such as a camera. To do.

ビデオコントローラ(VC)406は、ディスプレイ410等の表示器への表示を制御
する。表示器の種類はCRTや、液晶ディスプレイを想定するが、これに限らない。
A video controller (VC) 406 controls display on a display device such as the display 410. The type of the display device is assumed to be a CRT or a liquid crystal display, but is not limited thereto.

メモリコントローラ(MC)407は、ブートプログラム、ブラウザソフトウエア、各種のアプリケーション、フォントデータ、ユーザファイル、編集ファイル、各種データ等を記憶するハードディスク(HD)へのアクセスを制御する。また、フレキシブルディスク(FD)或いはPCMCIAカードスロットにアダプタを介して接続されるカード型メモリ等の外部メモリ411へのアクセスを制御する。   A memory controller (MC) 407 controls access to a hard disk (HD) that stores a boot program, browser software, various applications, font data, user files, editing files, various data, and the like. Further, access to an external memory 411 such as a card-type memory connected to a flexible disk (FD) or PCMCIA card slot via an adapter is controlled.

通信I/Fコントローラ(通信I/FC)408は、ネットワークを介して、外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いたインターネット通信等が可能である。   A communication I / F controller (communication I / FC) 408 connects and communicates with an external device via a network, and executes communication control processing in the network. For example, Internet communication using TCP / IP is possible.

尚、CPU401は、例えばRAM403内の表示情報用領域へアウトラインフォントの展開(ラスタライズ)処理を実行することにより、ディスプレイ410上での表示を可能としている。   Note that the CPU 401 enables display on the display 410 by executing outline font rasterization processing on a display information area in the RAM 403, for example.

また、CPU401は、ディスプレイ410上の不図示のマウスカーソル等でのユーザ指示を可能とする。   In addition, the CPU 401 allows a user instruction with a mouse cursor (not shown) on the display 410.

本発明の情報処理装置105が後述する各種処理を実行するために用いられる各種プログラム等は外部メモリ411に記録されており、必要に応じてRAM403にロードされることによりCPU401によって実行されるものである。さらに、本発明に係わるプログラムが用いる定義ファイルや各種情報テーブルは外部メモリ411に格納されている。   Various programs used for the information processing apparatus 105 of the present invention to execute various processes described later are recorded in the external memory 411 and are executed by the CPU 401 by being loaded into the RAM 403 as necessary. is there. Furthermore, definition files and various information tables used by the program according to the present invention are stored in the external memory 411.

図5は、撮影システムの機能構成の一例を示す図である。尚、図5に示す無人航空機101及びネットワークカメラ103の機能構成は一例であり、用途や目的に応じて様々な構成例がある。   FIG. 5 is a diagram illustrating an example of a functional configuration of the imaging system. Note that the functional configurations of the unmanned aerial vehicle 101 and the network camera 103 shown in FIG. 5 are merely examples, and there are various configuration examples depending on applications and purposes.

無人航空機101は、機能部として、飛行制御部511、無線LAN通信制御部512、移動体通信制御部513、GPS制御部514、センサ制御部515、撮影制御部516、画像データ送信部517を備える。   The unmanned aircraft 101 includes a flight control unit 511, a wireless LAN communication control unit 512, a mobile communication control unit 513, a GPS control unit 514, a sensor control unit 515, an imaging control unit 516, and an image data transmission unit 517 as functional units. .

飛行制御部511は、無人航空機101の飛行を制御するための機能部である。飛行制御部511は、無人航空機101が備える複数の回転翼を、操作端末102や中継装置104や情報処理装置105(制御用コンピュータ105)からの指示に応じて回転させ、前進・後退・旋回・ホバリング等の駆動制御を行う。   The flight control unit 511 is a functional unit for controlling the flight of the unmanned aircraft 101. The flight control unit 511 rotates a plurality of rotary wings included in the unmanned aircraft 101 according to instructions from the operation terminal 102, the relay device 104, and the information processing device 105 (control computer 105), and moves forward, backward, turn, Drive control such as hovering is performed.

無線LAN通信制御部512は、操作端末102との間で無線LANを介した通信を行うための機能部である。   The wireless LAN communication control unit 512 is a functional unit for performing communication with the operation terminal 102 via the wireless LAN.

移動体通信制御部513は、操作端末102との間で移動体通信網を介した通信を行うための機能部である。移動体通信制御部513は、移動体通信用BBユニット240及び移動体通信用RFユニット241を制御し、移動体通信網の周波数帯に変調して信号を送信、また移動体通信網の周波数帯の信号を受信するとこれを復調する。   The mobile communication control unit 513 is a functional unit for performing communication with the operation terminal 102 via the mobile communication network. The mobile communication control unit 513 controls the BB unit 240 for mobile communication and the RF unit 241 for mobile communication, modulates the signal to a frequency band of the mobile communication network, transmits a signal, and also uses the frequency band of the mobile communication network. When the signal is received, it is demodulated.

GPS制御部514は、無人航空機101の現在位置を取得するための機能部である。GPS制御部514は、GPSユニット250を制御してGPS衛星からの信号を受信し、無人航空機101の現在位置を推定する。   The GPS control unit 514 is a functional unit for acquiring the current position of the unmanned aerial vehicle 101. The GPS control unit 514 controls the GPS unit 250 to receive a signal from a GPS satellite, and estimates the current position of the unmanned aircraft 101.

センサ制御部515は、センサ260で検出した情報を取得するための機能部である。無人航空機101が備える、ジャイロセンサ、加速度センサ、気圧センサ、磁気センサ、超音波センサ等の各種センサが検出した情報を常時取得し、飛行制御部511の飛行制御に用いる。また、放送用電波で送信する画像を撮影するカメラの切り替え判断に、ジャイロセンサから取得した無人航空機101の揺れを示す情報を用いる。   The sensor control unit 515 is a functional unit for acquiring information detected by the sensor 260. Information detected by various sensors such as a gyro sensor, an acceleration sensor, an atmospheric pressure sensor, a magnetic sensor, and an ultrasonic sensor included in the unmanned aircraft 101 is always acquired and used for flight control of the flight control unit 511. In addition, information indicating the swing of the unmanned aerial vehicle 101 acquired from the gyro sensor is used for switching determination of a camera that captures an image transmitted by broadcasting radio waves.

撮影制御部516は、GCU270を介してカメラ271に撮影動作を行わせ、画像データを得るための機能部である。操作端末102からの指示に応じてカメラ271で撮影を行い、生成された画像データを外部メモリ280等の記憶媒体に記憶する。または、生成された画像データを操作端末102や中継装置104や情報処理装置105に送信してもよい。   The shooting control unit 516 is a functional unit for obtaining image data by causing the camera 271 to perform a shooting operation via the GCU 270. The camera 271 takes a picture in response to an instruction from the operation terminal 102, and the generated image data is stored in a storage medium such as the external memory 280. Alternatively, the generated image data may be transmitted to the operation terminal 102, the relay device 104, or the information processing device 105.

また、撮影制御部516は、操作端末102などからの指示に応じて、GCU270を介してジンバル272の動作制御を行い、カメラ271の撮影方向を制御することも可能である。   In addition, the shooting control unit 516 can control the shooting direction of the camera 271 by controlling the operation of the gimbal 272 via the GCU 270 in response to an instruction from the operation terminal 102 or the like.

またネットワークカメラ103は機能部として、撮影制御部521、通信制御部522、画像データ送信部523を備える。   The network camera 103 includes a shooting control unit 521, a communication control unit 522, and an image data transmission unit 523 as functional units.

撮影制御部521は、CPU301によりカメラ部307に撮影動作を行わせ、画像データを得るための機能部である。指示に応じてカメラ部307で撮影を行い、生成された画像データを外部メモリ305等に記憶する。また、受け付けたズームイン動作、及びズームアウト動作の指示に応じてレンズのズーム動作を行い、受け付けたパン動作の指示に応じてネットワークカメラ103を右回転、又は左回転させるパン動作を行う。   The shooting control unit 521 is a functional unit for obtaining image data by causing the camera unit 307 to perform a shooting operation using the CPU 301. In response to the instruction, the camera unit 307 performs shooting, and the generated image data is stored in the external memory 305 or the like. Further, the zoom operation of the lens is performed according to the received zoom-in operation and zoom-out operation instructions, and the network camera 103 is rotated to the right or left according to the received pan operation instruction.

通信制御部522は、ネットワークに通信可能に接続されている各装置(情報処理装置105)と通信を行う機能部である。または、撮影制御部521の機能により生成された画像データを操作端末102や中継装置104や情報処理装置105に送信してもよい。   The communication control unit 522 is a functional unit that communicates with each device (the information processing device 105) that is connected to the network in a communicable manner. Alternatively, the image data generated by the function of the imaging control unit 521 may be transmitted to the operation terminal 102, the relay device 104, or the information processing device 105.

画像データ送信部523は、テレビ局等が用いる放送用電波を用いて画像データを送信する機能部である。   The image data transmission unit 523 is a functional unit that transmits image data using broadcast radio waves used by a television station or the like.

情報処理装置105は、データ送信指示部531、無人航空機検知部532、ネットワークカメラ制御部533、無人航空機制御部534、無人航空機情報受信部535を備える。   The information processing apparatus 105 includes a data transmission instruction unit 531, an unmanned aircraft detection unit 532, a network camera control unit 533, an unmanned aircraft control unit 534, and an unmanned aircraft information reception unit 535.

データ送信指示部531は、放送用電波を用いて画像データを送信するための指示を、各撮影装置を備える機器に送信するための機能部である。この指示が送信されることにより、無人航空機101が備えるカメラ271で得られた画像データを放送で用いるのか、ネットワークカメラ103が備えるカメラ部307で得られた画像データを放送で用いるのかを切り替えることが可能となる。   The data transmission instruction unit 531 is a functional unit for transmitting an instruction for transmitting image data using broadcast radio waves to a device including each photographing apparatus. By transmitting this instruction, switching between using image data obtained by the camera 271 provided in the unmanned aircraft 101 for broadcasting or using image data obtained by the camera unit 307 provided for the network camera 103 for broadcasting is performed. Is possible.

無人航空機検知部532は、無人航空機から位置を取得することにより、無人航空機が飛行している(または存在している)位置情報を取得する機能を有する。   The unmanned aerial vehicle detection unit 532 has a function of acquiring position information where the unmanned aircraft is flying (or present) by acquiring a position from the unmanned aircraft.

ネットワークカメラ制御部533は、ユーザから受け付けた命令に従ってネットワークカメラを制御する機能部である。   The network camera control unit 533 is a functional unit that controls the network camera in accordance with a command received from the user.

無人航空機制御部534は、ユーザから受け付けた命令に従うか、もしくはあらかじめの設定により無人航空機101を制御する機能部である。   The unmanned aerial vehicle control unit 534 is a functional unit that controls the unmanned aerial vehicle 101 according to a command received from a user or according to a preset setting.

無人航空機情報受信部535は、無人航空機101が備えるセンサ制御部515の機能により取得、または出力される情報を受信する機能部である。   Unmanned aerial vehicle information reception unit 535 is a functional unit that receives information acquired or output by the function of sensor control unit 515 included in unmanned aerial vehicle 101.

次に、図6を用いて第1の実施形態についての説明を行う。本発明の第1の実施形態は、画像を撮影し放送用電波で送信中の無人航空機101の揺れを情報処理装置105が取得した場合に、放送用電波で送信する画像をネットワークカメラ103等の揺れの発生しにくい固定カメラの画像に切り替える発明である。   Next, the first embodiment will be described with reference to FIG. In the first embodiment of the present invention, when the information processing apparatus 105 acquires a shake of the unmanned aerial vehicle 101 that is capturing an image and transmitting the broadcast radio wave, the image transmitted by the broadcast radio wave is transmitted to the network camera 103 or the like. This is an invention for switching to an image of a fixed camera in which shaking does not easily occur.

ステップS601では、情報処理装置105のCPU401は、ユーザからの画像の撮影開始操作を受け付ける。   In step S601, the CPU 401 of the information processing apparatus 105 accepts an image capturing start operation from the user.

ステップS602では、ネットワークカメラ103のCPU301は、ユーザから、もしくは情報処理装置105からの画像の撮影開始指示を受け付ける。   In step S <b> 602, the CPU 301 of the network camera 103 accepts an image capturing start instruction from the user or from the information processing apparatus 105.

ステップS603では、ネットワークカメラ103のCPU301は、画像の撮影を開始する。   In step S603, the CPU 301 of the network camera 103 starts capturing an image.

ステップS604では、無人航空機101のCPU201は、ユーザもしくは情報処理装置105の機能により、飛行開始指示を受け付けたか否かを判定する。飛行開始指示を受け付けたと判定した場合はステップS605に処理を進める。そうでない場合は飛行開始指示を受け付けるまでステップS604の処理を繰り返す。   In step S <b> 604, the CPU 201 of the unmanned aircraft 101 determines whether a flight start instruction has been received by the user or the function of the information processing apparatus 105. If it is determined that a flight start instruction has been received, the process proceeds to step S605. Otherwise, the process of step S604 is repeated until a flight start instruction is accepted.

ステップS605では、無人航空機101のCPU201は、ステップS604で飛行開始指示を受け付け、飛行制御部511の機能により無人航空機101の飛行を開始する。飛行を開始すると無人航空機101の位置情報を情報処理装置105に送信する。位置情報は1秒単位など所定の時間ごとに送信するとよい。   In step S605, the CPU 201 of the unmanned aerial vehicle 101 receives a flight start instruction in step S604, and starts the flight of the unmanned aircraft 101 by the function of the flight control unit 511. When the flight is started, the position information of the unmanned aircraft 101 is transmitted to the information processing apparatus 105. The position information may be transmitted at predetermined time intervals such as 1 second.

ステップS606では、情報処理装置105のCPU401は、無人航空機検知部532の機能により、無人航空機101の位置情報を受信する。   In step S <b> 606, the CPU 401 of the information processing apparatus 105 receives position information of the unmanned aircraft 101 by the function of the unmanned aircraft detection unit 532.

ステップS607では、情報処理装置105のCPU401は、無人航空機101が飛行中か否かを判定する。飛行中か否かは、ステップS606で受信した位置情報の変動や高度情報の取得により判定するとよい。無人航空機101が飛行中であると判定した場合はステップS610に処理を進める。そうでない場合は飛行中であると判定するまでステップS607の処理を繰り返す。   In step S607, the CPU 401 of the information processing apparatus 105 determines whether the unmanned aircraft 101 is in flight. Whether or not the aircraft is in flight may be determined by the change in position information received in step S606 or the acquisition of altitude information. If it is determined that the unmanned aircraft 101 is in flight, the process proceeds to step S610. Otherwise, the process of step S607 is repeated until it is determined that the flight is in progress.

ステップS608では、無人航空機101のCPU201は、操作端末102からの指示、または情報処理装置105の指示により撮影開始指示を受け付ける。尚、撮影開始指示はステップS605で飛行を開始する前に受け付けてもよい。   In step S <b> 608, the CPU 201 of the unmanned aircraft 101 accepts an imaging start instruction according to an instruction from the operation terminal 102 or an instruction from the information processing apparatus 105. Note that the imaging start instruction may be received before the flight is started in step S605.

ステップS609では、無人航空機101のCPU201は、撮影制御部516の機能によりカメラ271で撮影を開始する。   In step S <b> 609, the CPU 201 of the unmanned aircraft 101 starts shooting with the camera 271 by the function of the shooting control unit 516.

ステップS610では、情報処理装置105のCPU401は、ステップS606で受信した無人航空機101の位置情報をネットワークカメラ103に送信する。   In step S610, the CPU 401 of the information processing apparatus 105 transmits the position information of the unmanned aerial vehicle 101 received in step S606 to the network camera 103.

ステップS611では、ネットワークカメラ103のCPU301は、通信制御部522の機能により情報処理装置105から無人航空機101の位置情報を受信する。   In step S <b> 611, the CPU 301 of the network camera 103 receives position information of the unmanned aircraft 101 from the information processing apparatus 105 using the function of the communication control unit 522.

ステップS612では、ネットワークカメラ103のCPU301は、ステップS611で受信した位置情報をもとに無人航空機の位置に向かってパン・チルト・ズーム動作を行い(PTZ制御)、撮影方向を決定する。   In step S612, the CPU 301 of the network camera 103 performs pan / tilt / zoom operations toward the position of the unmanned aircraft based on the position information received in step S611 (PTZ control), and determines the shooting direction.

ステップS613では、情報処理装置105のCPU401は、データ送信指示部531の機能により、画像データの送信指示を無人航空機101に送信する。   In step S <b> 613, the CPU 401 of the information processing apparatus 105 transmits an image data transmission instruction to the unmanned aircraft 101 by the function of the data transmission instruction unit 531.

ステップS614では、無人航空機101のCPU201は、情報処理装置105からデータ送信指示を受信する。   In step S <b> 614, the CPU 201 of the unmanned aircraft 101 receives a data transmission instruction from the information processing apparatus 105.

ステップS615では、無人航空機101のCPU201は、撮影制御部516の機能により撮影した画像データを、画像データ送信部517の機能により放送用の電波で送信する。放送用の電波で送信された画像データは各家庭のテレビにリアルタイムで映し出される。   In step S615, the CPU 201 of the unmanned aerial vehicle 101 transmits the image data captured by the function of the imaging control unit 516 using broadcast radio waves by the function of the image data transmission unit 517. Image data transmitted by broadcasting radio waves is displayed in real time on each home television.

ステップS616では、無人航空機101のCPU201は、センサ制御部515の機能により、ジャイロセンサを用いて角速度情報を取得し、取得した角速度情報を情報処理装置105に送信する。   In step S <b> 616, the CPU 201 of the unmanned aircraft 101 acquires angular velocity information using the gyro sensor by the function of the sensor control unit 515, and transmits the acquired angular velocity information to the information processing apparatus 105.

ステップS617では、情報処理装置105のCPU401は、無人航空機情報受信部535の機能により、角速度情報を受信する。   In step S617, the CPU 401 of the information processing apparatus 105 receives angular velocity information by the function of the unmanned aircraft information receiving unit 535.

図7は、ジャイロセンサで出力した出力電圧(角速度情報)の一例を示す図である。図7における角速度情報(a)と角速度情報(b)はともに、ジャイロセンサで検知した出力電圧を縦軸で表し、横軸は出力電圧を受信した時間の経過を表している。角速度情報(a)と角速度情報(b)の図は、無人航空機101の機体の揺れを示す出力電圧が所定の範囲で変動している様子を示す。本実施形態では、基準電圧は2.0ボルトとして、所定の範囲はプラスマイナス0.5ボルトの範囲(以下、V1)としているが、この値は一例であり、任意に設定可能である。角速度情報(a)は、基準電圧に対する電圧の変動量が比較的小さく、出力電圧がV1の範囲にある状態を示す。出力電圧がV1の範囲にある場合には、無人航空機101の揺れにより、撮影された画像データの画質が実質的に影響を受けない範囲である。図7における角速度情報(b)は、基準電圧に対する電圧の変動量が比較的大きく、出力電圧がV1の範囲外にある状態を示す。つまり、無人航空機101の揺れにより、撮影された画像データの画質が影響を受ける場合である。角速度情報(b)におけるT1とT2の範囲は、出力電圧が下がりV1の範囲を下回った(1.5ボルト以下)時間を示す。T1の場合は、無人航空機101で撮影された画像データの送信を中止させ、ネットワークカメラ103で撮影された画像データを送信することで適切な画像データを送信し続けることが可能となる。T1以降の時間、つまり出力電圧がV1の範囲に戻った場合は、送信する画像データをネットワークカメラ103で撮影した画像データから無人航空機101で撮影した画像データに戻してもよい。また、短時間に何度も画像データが切り替わると逆に受信者が画像データを見づらいといった問題が生じるため、出力電圧がV1の範囲を下回った時間が短いT2のような場合には、無人航空機101で撮影した画像データの送信をあえて継続させてもよい。電圧の変動は正確に検知するために、なるべく短い周期で角速度情報を取得することが好ましい。尚、本実施形態において、角速度情報を用いて無人航空機101の揺れを検知しているが、無人航空機101の揺れが検知可能な情報であれば、他の情報を用いてもよい。他の情報の一例として、無人航空機101は、ジャイロセンサ以外の、加速度センサ、気圧センサ、磁気センサ、超音波センサ等の各種センサにより検出した揺れを示す情報を用いてもよい。   FIG. 7 is a diagram illustrating an example of output voltage (angular velocity information) output by the gyro sensor. Both the angular velocity information (a) and the angular velocity information (b) in FIG. 7 represent the output voltage detected by the gyro sensor on the vertical axis, and the horizontal axis represents the passage of time when the output voltage was received. The diagrams of the angular velocity information (a) and the angular velocity information (b) show how the output voltage indicating the fluctuation of the unmanned aircraft 101 fluctuates within a predetermined range. In this embodiment, the reference voltage is 2.0 volts, and the predetermined range is a range of plus or minus 0.5 volts (hereinafter referred to as V1), but this value is an example and can be arbitrarily set. The angular velocity information (a) indicates a state in which the amount of voltage fluctuation with respect to the reference voltage is relatively small and the output voltage is in the range of V1. When the output voltage is in the range of V1, the image quality of the captured image data is not substantially affected by the shaking of the unmanned aircraft 101. The angular velocity information (b) in FIG. 7 shows a state in which the amount of voltage fluctuation with respect to the reference voltage is relatively large and the output voltage is outside the range of V1. That is, the image quality of the captured image data is affected by the shake of the unmanned aerial vehicle 101. The range of T1 and T2 in the angular velocity information (b) indicates the time when the output voltage drops and falls below the range of V1 (1.5 volts or less). In the case of T1, transmission of image data captured by the unmanned aerial vehicle 101 is stopped, and transmission of image data captured by the network camera 103 enables transmission of appropriate image data. In the time after T1, that is, when the output voltage returns to the range of V1, the image data to be transmitted may be returned from the image data captured by the network camera 103 to the image data captured by the unmanned aircraft 101. In addition, if the image data is switched many times in a short time, the receiver may have difficulty in viewing the image data. Therefore, in the case of T2 where the output voltage falls below the range of V1 and the time T2 is short, the unmanned aircraft The transmission of the image data captured in 101 may be intentionally continued. In order to accurately detect voltage fluctuations, it is preferable to obtain angular velocity information in a cycle as short as possible. In the present embodiment, the angular velocity information is used to detect the shaking of the unmanned aircraft 101, but other information may be used as long as the information can detect the shaking of the unmanned aircraft 101. As an example of other information, the unmanned aerial vehicle 101 may use information indicating shaking detected by various sensors such as an acceleration sensor, an atmospheric pressure sensor, a magnetic sensor, and an ultrasonic sensor other than the gyro sensor.

ステップS618では、情報処理装置105のCPU401は、ステップS617で受信した角速度情報をもとに、無人航空機101の機体が所定値と同一、または所定値以上揺れているか否かを判定する。所定値と同一、または所定値以上揺れていると判定した場合はステップS619に処理を進める。そうでない場合は所定値と同一、または所定値以上の揺れを検知するまでステップS618の処理を繰り返す。このステップS618で無人航空機101の揺れを検知することにより、無人航空機101で適切な画像データが取得できるか否かを判定する。所定値と同一、または所定値以上の揺れを検知した場合は適切な画像データが取得できないため画像データを取得する撮影装置を切り替えるべく次のステップS619以下の処理を進める。   In step S618, the CPU 401 of the information processing apparatus 105 determines whether or not the body of the unmanned aircraft 101 is shaken by a predetermined value or more, based on the angular velocity information received in step S617. If it is determined that the predetermined value is equal to or greater than the predetermined value, the process proceeds to step S619. Otherwise, the process of step S618 is repeated until a shake equal to or greater than the predetermined value is detected. In step S618, it is determined whether or not appropriate image data can be acquired by the unmanned aircraft 101 by detecting the swing of the unmanned aircraft 101. When a shake equal to or greater than a predetermined value is detected, appropriate image data cannot be acquired, and the processing in the next step S619 and subsequent steps is advanced to switch the imaging device that acquires the image data.

ステップS619では、無人航空機101のCPU201は、放送用電波で画像データを送信する処理を中止する指示を無人航空機101に送信する。   In step S619, the CPU 201 of the unmanned aerial vehicle 101 transmits to the unmanned aircraft 101 an instruction to stop the process of transmitting image data using broadcast radio waves.

ステップS620では、無人航空機101のCPU201は、情報処理装置105から画像データの送信中止指示を受信する。   In step S <b> 620, the CPU 201 of the unmanned aircraft 101 receives an image data transmission stop instruction from the information processing apparatus 105.

ステップS621では、無人航空機101のCPU201は、画像データの送信を中止する。   In step S621, the CPU 201 of the unmanned aerial vehicle 101 stops the transmission of image data.

ステップS622では、情報処理装置105のCPU401は、データ送信指示部531の機能により、画像データの送信指示をネットワークカメラ103に送信する。   In step S <b> 622, the CPU 401 of the information processing apparatus 105 transmits an image data transmission instruction to the network camera 103 by the function of the data transmission instruction unit 531.

ステップS623では、ネットワークカメラ103のCPU301は、情報処理装置105からデータ送信指示を受信する。   In step S <b> 623, the CPU 301 of the network camera 103 receives a data transmission instruction from the information processing apparatus 105.

ステップS624では、ネットワークカメラ103のCPU301は、カメラ部307で取得した画像データを画像データ送信部523の機能により放送用の電波で送信する。   In step S624, the CPU 301 of the network camera 103 transmits the image data acquired by the camera unit 307 using broadcast radio waves by the function of the image data transmission unit 523.

上述した本実施形態によれば、無人航空機101が備えるカメラ271と、ネットワークカメラ103とでそれぞれ画像データを取得し、情報処理装置105は無人航空機101から振動に関するデータを受信する。そして無人航空機101から受信した振動に関するデータに応じて、情報処理装置105は無人航空機101が備えるカメラ271で取得した画像データとネットワークカメラ103で取得した画像データのいずれか一方を送信するように制御する。これにより、揺れのない適切な映像を提供可能とする。以上で、第1の実施形態の説明を終了する。   According to the present embodiment described above, the image data is acquired by the camera 271 provided in the unmanned aircraft 101 and the network camera 103, respectively, and the information processing apparatus 105 receives data related to vibration from the unmanned aircraft 101. The information processing apparatus 105 controls to transmit either image data acquired by the camera 271 included in the unmanned aircraft 101 or image data acquired by the network camera 103 in accordance with data relating to vibration received from the unmanned aircraft 101. To do. This makes it possible to provide an appropriate image without shaking. Above, description of 1st Embodiment is complete | finished.

次に、第2の実施形態について説明する。第1の実施形態では、無人航空機101の振動のデータに応じて、画像データを送信する撮影装置を無人航空機101とは異なる撮影装置に切り替える処理について説明した。第2の実施形態では、撮影装置を切り替える指示を受け付けた際に、それぞれの撮影装置が同じ領域、または同じ範囲を撮影していないと画像データを送信する撮影装置を切り替えない処理について説明を行う。   Next, a second embodiment will be described. In the first embodiment, the process of switching the imaging device that transmits image data to an imaging device different from the unmanned aircraft 101 according to the vibration data of the unmanned aircraft 101 has been described. In the second embodiment, a description will be given of a process of not switching an imaging device that transmits image data when each imaging device has not captured the same region or the same range when an instruction to switch the imaging device is received. .

ステップS801では、無人航空機101のCPU201は、撮影制御部516の機能により撮影を開始する。   In step S <b> 801, the CPU 201 of the unmanned aircraft 101 starts shooting with the function of the shooting control unit 516.

ステップS802では、ネットワークカメラ103のCPU301は、撮影制御部521の機能により撮影を開始する。   In step S <b> 802, the CPU 301 of the network camera 103 starts shooting using the function of the shooting control unit 521.

ステップS803では、無人航空機101のCPU201は、操作端末102を介したユーザからの指示、またはあらかじめの設定により飛行の目的地を設定する。   In step S803, the CPU 201 of the unmanned aerial vehicle 101 sets a flight destination according to an instruction from the user via the operation terminal 102 or in advance.

ステップS804では、無人航空機101のCPU201は、ステップS803で設定した目的地に向かって飛行制御部511の機能により飛行する。   In step S804, the CPU 201 of the unmanned aerial vehicle 101 flies to the destination set in step S803 by the function of the flight control unit 511.

ステップS805では、無人航空機101のCPU201は、ステップS803で設定した目的地情報及び位置情報を情報処理装置105に送信する。   In step S805, the CPU 201 of the unmanned aircraft 101 transmits the destination information and position information set in step S803 to the information processing apparatus 105.

ステップS806では、情報処理装置105のCPU401は、無人航空機検知部532、及び無人航空機情報受信部535の機能により、目的地情報及び位置情報を受信する。   In step S806, the CPU 401 of the information processing apparatus 105 receives the destination information and the position information by using the functions of the unmanned aircraft detection unit 532 and the unmanned aircraft information reception unit 535.

ステップS807では、情報処理装置105のCPU401は、ステップS806で受信した目的地情報及び位置情報をネットワークカメラ103に送信する。   In step S807, the CPU 401 of the information processing apparatus 105 transmits the destination information and position information received in step S806 to the network camera 103.

ステップS808では、ネットワークカメラ103のCPU301は、通信制御部522の機能により目的地情報及び位置情報を受信する。   In step S <b> 808, the CPU 301 of the network camera 103 receives destination information and position information by the function of the communication control unit 522.

ステップS809では、ネットワークカメラ103のCPU301は、撮影制御部521の機能により、パン・チルト・ズーム(PTZ制御)、及びレンズのフォーカスの動作を行う。   In step S809, the CPU 301 of the network camera 103 performs pan / tilt / zoom (PTZ control) and lens focusing operations using the functions of the imaging control unit 521.

ステップS810では、情報処理装置105のCPU401は、データ送信指示部531の機能により、画像データの送信指示を無人航空機101に送信する。   In step S <b> 810, the CPU 401 of the information processing apparatus 105 transmits an image data transmission instruction to the unmanned aircraft 101 by the function of the data transmission instruction unit 531.

ステップS811では、無人航空機101のCPU201は、データ送信指示を受信する。   In step S811, the CPU 201 of the unmanned aerial vehicle 101 receives a data transmission instruction.

ステップS812では、情報処理装置105のCPU401は、カメラの切り替え指示を受け付けたか否かを判定する。ここでいうカメラの切り替え指示とは、放送用電波を用いて画像データを送信する撮影装置の切り替え指示を示す。カメラの切り替え指示を受け付けたと判定した場合はステップS814に処理を進める。そうでない場合は切り替え指示を受け付けるまでステップS812の処理を繰り返す。   In step S812, the CPU 401 of the information processing apparatus 105 determines whether a camera switching instruction has been accepted. The camera switching instruction here indicates a switching instruction of a photographing apparatus that transmits image data using broadcast radio waves. If it is determined that a camera switching instruction has been received, the process proceeds to step S814. Otherwise, the process of step S812 is repeated until a switching instruction is accepted.

ステップS813では、ネットワークカメラ103のCPU301は、通信制御部522の機能によりステップS809で行ったパン・チルト・ズーム、及びレンズのフォーカスの動作についての動作情報を情報処理装置105に送信する。   In step S813, the CPU 301 of the network camera 103 transmits, to the information processing apparatus 105, operation information regarding the pan / tilt / zoom and lens focus operations performed in step S809 by the function of the communication control unit 522.

ステップS814では、情報処理装置105のCPU401は、ネットワークカメラ103からパン・チルト・ズーム、及びレンズのフォーカスの動作についての制御情報を受信する。   In step S814, the CPU 401 of the information processing apparatus 105 receives control information about pan / tilt / zoom and lens focus operations from the network camera 103.

ステップS815では、無人航空機101のCPU201は、ステップS811で受信したデータ送信指示により撮影した画像データを放送用の電波で送信する。   In step S815, the CPU 201 of the unmanned aerial vehicle 101 transmits the image data captured by the data transmission instruction received in step S811 using broadcast radio waves.

ステップS816では、無人航空機101のCPU201は、撮影制御部516で撮影している撮影情報を情報処理装置105に送信する。撮影情報は、無人航空機101がどこを撮影しているかがわかる情報であればどの情報であってもよく、位置情報等でもよい。   In step S <b> 816, the CPU 201 of the unmanned aircraft 101 transmits the shooting information captured by the shooting control unit 516 to the information processing apparatus 105. The shooting information may be any information as long as it is information that shows where the unmanned aircraft 101 is shooting, and may be position information or the like.

ステップS817では、情報処理装置105のCPU401は、無人航空機101から撮影情報を受信する。   In step S817, the CPU 401 of the information processing apparatus 105 receives shooting information from the unmanned aircraft 101.

ステップS818では、情報処理装置105のCPU401は、ステップS814で受信したパン・チルト・ズーム、及びレンズのフォーカスの動作についての制御情報と、ステップS817で受信した撮影情報を用いる。そしてそれぞれの撮影装置がどこを撮影しているのかを判定する。そして、情報を受信した撮影装置が同一の領域や範囲、もしくは位置、もしくは被写体を映しているか否かを判定する。同一の領域や範囲、もしくは位置、もしくは被写体を撮影していると判定した場合はステップS819に処理を進める。そうでない場合は同一の領域、もしくは位置、もしくは被写体を撮影していると判定するまでステップS818の処理を繰り返す。   In step S818, the CPU 401 of the information processing apparatus 105 uses the control information about pan / tilt / zoom and lens focus operations received in step S814 and the shooting information received in step S817. Then, it is determined where each photographing apparatus is photographing. Then, it is determined whether or not the imaging device that has received the information shows the same region, range, position, or subject. If it is determined that the same region, range, position, or subject is being photographed, the process proceeds to step S819. Otherwise, the process of step S818 is repeated until it is determined that the same region, position, or subject is being photographed.

ステップS819では、情報処理装置105のCPU401は、データ送信指示部531の機能によりネットワークカメラ103に画像データの送信指示を送信する。   In step S <b> 819, the CPU 401 of the information processing apparatus 105 transmits an image data transmission instruction to the network camera 103 by the function of the data transmission instruction unit 531.

ステップS820では、ネットワークカメラ103のCPU301は、画像データの送信指示を受信する。   In step S820, the CPU 301 of the network camera 103 receives an image data transmission instruction.

ステップS821では、ネットワークカメラ103のCPU301は、画像データ送信部523の機能により画像データを放送用電波で送信する。   In step S <b> 821, the CPU 301 of the network camera 103 transmits image data using broadcast radio waves by the function of the image data transmission unit 523.

ステップS822では、情報処理装置105のCPU401は、画像データの送信を中止する指示を無人航空機101に送信する。   In step S822, the CPU 401 of the information processing apparatus 105 transmits an instruction to stop transmitting image data to the unmanned aircraft 101.

ステップS823では、無人航空機101のCPU201は、画像データの送信中止指示を受信する。   In step S823, the CPU 201 of the unmanned aerial vehicle 101 receives an image data transmission stop instruction.

ステップS824では、無人航空機101のCPU201は、画像データの送信を中止する。   In step S824, CPU 201 of unmanned aerial vehicle 101 stops the transmission of image data.

第2の実施形態によれば、情報処理装置105は、無人航空機101の位置情報とネットワークカメラ103の撮影方向に関する情報を取得する。そして取得したそれぞれのカメラの位置関係から、無人航空機のカメラ271とネットワークカメラ103とが撮影する画像データが同一の領域や範囲、位置、及び被写体を撮影しているものか否かを判定する。そしてそれぞれの撮影装置で取得される画像データが同一の領域や範囲、位置、及び被写体を撮影しているものである場合に画像データを送信する撮影装置を切り替える。これにより送信する画像データが突然異なる場所や被写体を撮影した画像データに変更されるという問題が低減され、より適切な画像データを送信することが可能となる。以上により、第2の実施形態の説明を終了する。   According to the second embodiment, the information processing apparatus 105 acquires position information of the unmanned aircraft 101 and information regarding the shooting direction of the network camera 103. Then, based on the acquired positional relationship between the cameras, it is determined whether or not the image data captured by the unmanned aircraft camera 271 and the network camera 103 are capturing the same region, range, position, and subject. Then, when the image data acquired by each imaging device is the same area, range, position, and subject, the imaging device that transmits the image data is switched. As a result, the problem that the image data to be transmitted is suddenly changed to image data obtained by photographing a different place or subject is reduced, and more appropriate image data can be transmitted. This is the end of the description of the second embodiment.

このように、本発明によれば、無人航空機を用いた画像の撮影中に揺れが生じた場合であっても、適切な画像を提供する効果を奏する。   Thus, according to the present invention, there is an effect of providing an appropriate image even when shaking occurs during image capturing using an unmanned aerial vehicle.

本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、1つの機器からなる装置に適用してもよい。   The present invention can be implemented as a system, apparatus, method, program, storage medium, or the like, and can be applied to a system including a plurality of devices. You may apply to the apparatus which consists of one apparatus.

尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムを、システム或いは装置に直接、或いは遠隔から供給するものを含む。そして、そのシステム或いは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。   The present invention includes a software program that realizes the functions of the above-described embodiments directly or remotely to a system or apparatus. The present invention also includes a case where the system or the computer of the apparatus is achieved by reading and executing the supplied program code.

したがって、本発明の機能処理をコンピュータで実現(実行可能と)するために、前記ンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Therefore, the program code itself installed in the computer in order to realize (executable) the functional processing of the present invention by a computer also realizes the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。   Examples of the recording medium for supplying the program include a flexible disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。   As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.

また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページか_ら暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   Also, key information for encrypting the program of the present invention from a homepage via the Internet to the user who has encrypted the program, stored it in a storage medium such as a CD-ROM, distributed to the user, and cleared predetermined conditions. Download. It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。   Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。   Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.

尚、前述した実施形態は、本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

101 無人航空機
102 操作端末
103 ネットワークカメラ
104 中継装置
105 情報処理装置



101 Unmanned Aircraft 102 Operation Terminal 103 Network Camera 104 Relay Device 105 Information Processing Device



Claims (7)

第一の撮影装置を備える無人航空機と、該第一の撮影装置とは異なる第二の撮影装置と、を有する撮影システムであって、
前記第一の撮影装置および前記第二の撮影装置で撮影した画像データを取得する取得手段と、
前記無人航空機の振動に関するデータを受信する受信手段と、
前記第一の撮影装置および前記第二の撮影装置で撮影された画像データを送信するための制御を行う制御手段と、を備え、
前記制御手段は、前記受信手段で受信した振動に関するデータに応じて、前記第一の撮影装置および前記第二の撮影装置で撮影された画像データのうち、いずれか一方の画像データを送信するように制御することを特徴とする撮影システム。
An imaging system having an unmanned aerial vehicle including a first imaging device and a second imaging device different from the first imaging device,
Obtaining means for obtaining image data photographed by the first photographing device and the second photographing device;
Receiving means for receiving data relating to vibrations of the unmanned aircraft;
Control means for performing control for transmitting image data photographed by the first photographing device and the second photographing device;
The control means transmits one of the image data taken by the first photographing device and the second photographing device in accordance with the vibration-related data received by the receiving means. An imaging system characterized by being controlled.
前記制御手段は、前記受信手段で受信した前記無人航空機の振動に関するデータが、所定の値と同じ、または所定の値より大きい場合に、前記第二の撮影装置で撮影された画像データを送信するよう制御する請求項1に記載の撮影システム。   The control means transmits image data captured by the second imaging device when the data related to the vibration of the unmanned aircraft received by the receiving means is equal to or greater than a predetermined value. The imaging system according to claim 1, wherein the imaging system is controlled as follows. 前記取得手段は、前記無人航空機が飛行する位置情報をさらに取得し、
前記撮影システムは、前記無人航空機の位置情報に応じて前記第二の撮影装置の撮影方向を決定する決定手段
をさらに備えることを特徴とする請求項1または2に記載の撮影システム。
The acquisition means further acquires position information on which the unmanned aircraft flies,
The imaging system according to claim 1, wherein the imaging system further includes a determining unit that determines an imaging direction of the second imaging device in accordance with position information of the unmanned aircraft.
前記取得手段は、前記無人航空機が飛行する位置情報と、前記決定手段で決定した撮影方向の制御情報をさらに取得し、
前記制御手段は、前記取得手段で取得した前記位置情報と前記制御情報とを用いて、前記第一の撮影装置で撮影する範囲と前記第二の制御装置で撮影する範囲が異なる場合には、前記画像データを送信する撮影装置を変更しないよう制御することを特徴とする請求項3に記載の撮影システム。
The acquisition means further acquires position information on which the unmanned aircraft flies and control information on the shooting direction determined by the determination means,
The control unit uses the position information acquired by the acquisition unit and the control information, and when the range captured by the first imaging device is different from the range captured by the second control device, The imaging system according to claim 3, wherein control is performed so as not to change an imaging apparatus that transmits the image data.
前記第二の撮影装置は、前記無人航空機とは異なる他の無人航空機に設置されていることを特徴とする請求項1から4のいずれか1項に記載の撮影システム。   5. The imaging system according to claim 1, wherein the second imaging device is installed in another unmanned aerial vehicle different from the unmanned aerial vehicle. 第一の撮影装置を備える無人航空機と、該第一の撮影装置とは異なる第二の撮影装置と、を有する撮影システムの制御方法であって、
前記第一の撮影装置および前記第二の撮影装置で撮影した画像データを取得する取得ステップと、
前記無人航空機の振動に関するデータを受信する受信ステップと、
前記第一の撮影装置および前記第二の撮影装置で撮影された画像データを送信するための制御を行う制御ステップと、
を備え、
前記制御ステップは、前記受信ステップで受信した振動に関するデータに応じて、前記第一の撮影装置および前記第二の撮影装置で撮影された画像データのうち、いずれか一方の画像データを送信するように制御することを特徴とする撮影システムの制御方法。
A method for controlling an imaging system, comprising: an unmanned aerial vehicle including a first imaging device; and a second imaging device different from the first imaging device,
An acquisition step of acquiring image data captured by the first imaging device and the second imaging device;
Receiving for receiving data relating to vibrations of the unmanned aerial vehicle;
A control step for performing control for transmitting image data photographed by the first photographing device and the second photographing device;
With
The control step transmits one of the image data captured by the first imaging device and the second imaging device according to the vibration-related data received in the reception step. A control method for an imaging system, characterized in that the control is performed.
第一の撮影装置を備える無人航空機と、該第一の撮影装置とは異なる第二の撮影装置と、を有する撮影システムとして機能させるプログラムであって、
前記撮影システムを、
前記第一の撮影装置および前記第二の撮影装置で撮影した画像データを取得する取得手段と、
前記無人航空機の振動に関するデータを受信する受信手段と、
前記第一の撮影装置および前記第二の撮影装置で撮影された画像データを送信するための制御を行う制御手段、
として機能させ、
前記制御手段は、前記受信手段で受信した振動に関するデータに応じて、前記第一の撮影装置および前記第二の撮影装置で撮影された画像データのうち、いずれか一方の画像データを送信するように制御するプログラム。





A program for causing an unmanned aircraft including a first imaging device to function as an imaging system having a second imaging device different from the first imaging device,
The imaging system;
Obtaining means for obtaining image data photographed by the first photographing device and the second photographing device;
Receiving means for receiving data relating to vibrations of the unmanned aircraft;
Control means for performing control for transmitting image data photographed by the first photographing device and the second photographing device;
Function as
The control means transmits one of the image data taken by the first photographing device and the second photographing device in accordance with the vibration-related data received by the receiving means. Program to control.





JP2017019450A 2017-02-06 2017-02-06 Imaging system, control method thereof, and program Pending JP2018129577A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017019450A JP2018129577A (en) 2017-02-06 2017-02-06 Imaging system, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017019450A JP2018129577A (en) 2017-02-06 2017-02-06 Imaging system, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2018129577A true JP2018129577A (en) 2018-08-16

Family

ID=63174591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017019450A Pending JP2018129577A (en) 2017-02-06 2017-02-06 Imaging system, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2018129577A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7154366B1 (en) 2021-11-09 2022-10-17 Kddi株式会社 Information processing device, information processing method, and information processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7154366B1 (en) 2021-11-09 2022-10-17 Kddi株式会社 Information processing device, information processing method, and information processing system
JP2023070365A (en) * 2021-11-09 2023-05-19 Kddi株式会社 Information processing device, information processing method and information processing system

Similar Documents

Publication Publication Date Title
JP6575476B2 (en) Unmanned aircraft control system, control method thereof, and program
WO2019119434A1 (en) Information processing method, unmanned aerial vehicle, remote control apparatus, and non-volatile storage medium
JP2018103936A (en) Unmanned aircraft control system, control method thereof, and program
JP2018070010A (en) Unmanned aircraft controlling system, controlling method and program thereof
EP4040783A1 (en) Imaging device, camera-equipped drone, and mode control method, and program
JP2018092237A (en) Unmanned aircraft control system, and control method and program of the same
JP2019137398A (en) Information processing apparatus, control method of information processing apparatus, unmanned aerial vehicle, control method of unmanned aerial vehicle, and program
JP2019026121A (en) Unmanned aircraft control system, control method therefor, and program
JP2018070011A (en) Unmanned aircraft controlling system, controlling method and program thereof
CN110771137A (en) Time-delay shooting control method and device
JP2018173960A (en) Information processing system, control method thereof and program
CN110383810B (en) Information processing apparatus, information processing method, and information processing program
JP2015106840A (en) Imaging system and imaging method of imaging system
WO2019241970A1 (en) Unmanned aerial vehicle speaker control method and device
JP2017147718A (en) Unmanned aircraft control system, control method of the same, and program
KR101884125B1 (en) System for Self-Camera and Method using the same
JP2018129577A (en) Imaging system, control method thereof, and program
JP2018142907A (en) Information processing apparatus, control method and program of information processing apparatus
CN110383814B (en) Control method, unmanned aerial vehicle, remote control device and nonvolatile storage medium
JP2018174441A (en) Unmanned aerial vehicle control system, information processing apparatus, unmanned aerial vehicle, their control methods, and program
JP2018070013A (en) Unmanned aircraft controlling system, controlling method and program thereof
JP6726649B2 (en) Flight device, management device, shooting control method, and shooting control program
JP6947962B2 (en) Unmanned aerial vehicle control system, its control method, and program
JP2018142246A (en) System, and control method and program thereof
JP2019064349A (en) System, and control method, program of the same

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180703

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109