JP2014212479A - Control device, control method, and computer program - Google Patents

Control device, control method, and computer program Download PDF

Info

Publication number
JP2014212479A
JP2014212479A JP2013088456A JP2013088456A JP2014212479A JP 2014212479 A JP2014212479 A JP 2014212479A JP 2013088456 A JP2013088456 A JP 2013088456A JP 2013088456 A JP2013088456 A JP 2013088456A JP 2014212479 A JP2014212479 A JP 2014212479A
Authority
JP
Japan
Prior art keywords
image
display unit
flying
flying device
flight instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013088456A
Other languages
Japanese (ja)
Inventor
佐部 浩太郎
Kotaro Sabe
浩太郎 佐部
川浪 康範
Yasunori Kawanami
康範 川浪
河本 献太
Kenta Kawamoto
献太 河本
務 澤田
Tsutomu Sawada
務 澤田
清水 悟
Satoru Shimizu
悟 清水
ペーター ドゥール
Duerr Peter
ペーター ドゥール
山本 祐輝
Yuki Yamamoto
祐輝 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013088456A priority Critical patent/JP2014212479A/en
Priority to US14/227,182 priority patent/US9749540B2/en
Priority to CN202210243989.3A priority patent/CN114727013A/en
Priority to CN202210243951.6A priority patent/CN114727012A/en
Priority to CN202210244008.7A priority patent/CN114615432B/en
Priority to CN202210244024.6A priority patent/CN114615433A/en
Priority to CN201410145463.7A priority patent/CN104111659B/en
Priority to CN201811103606.2A priority patent/CN109032188A/en
Publication of JP2014212479A publication Critical patent/JP2014212479A/en
Priority to US15/656,870 priority patent/US10104297B2/en
Priority to US16/118,173 priority patent/US10469757B2/en
Priority to US16/596,058 priority patent/US10602068B2/en
Priority to US16/595,978 priority patent/US10863096B2/en
Priority to US16/953,386 priority patent/US11422560B2/en
Priority to US17/865,398 priority patent/US11953904B2/en
Priority to US17/865,435 priority patent/US20220350332A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H27/00Toy aircraft; Other flying toys
    • A63H27/12Helicopters ; Flying tops
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • G05D1/223
    • G05D1/224
    • G05D1/689
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Toys (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Accessories Of Cameras (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device making it possible to maneuver a flying body mounted with a camera through an intuitive operation.SOLUTION: A control device comprises: an image display unit 210 that acquires, from a flying body, an image captured by an imaging device 101 provided in the flying body, and displays the image; and a flight instruction generation unit 232 that generates a flight instruction for the flying body on the basis of content of an operation to the image captured by the imaging device and displayed by the image display unit.

Description

本開示は、制御装置、制御方法及びコンピュータプログラムに関する。   The present disclosure relates to a control device, a control method, and a computer program.

無線で操縦できる飛行体にカメラを取り付けて、そのカメラで撮像するという写真の撮像方法に関する技術が開示されている(例えば特許文献1等参照)。飛行体にカメラを取り付けることで、上空からや、三脚が立てられない場所からの写真を撮像することが可能になる。また飛行体にカメラを取り付けて撮像することで、本物の飛行機やヘリコプターを使用した場合よりもコストを抑えることが出来る、安全に撮像が出来る、低空や狭い場所でも撮像が出来る、目標に接近して撮像が出来る等の様々な利点がもたらされる。   A technique relating to a method of taking a photograph in which a camera is attached to a flying object that can be operated wirelessly and taken by the camera is disclosed (for example, see Patent Document 1). By attaching a camera to the flying object, it is possible to take a picture from the sky or from a place where the tripod cannot be stood. In addition, by attaching a camera to the aircraft and taking images, the cost can be reduced compared to using a real airplane or helicopter, imaging can be performed safely, imaging can be performed even in low altitudes and narrow places, and the target is approached. Thus, various advantages such as being able to take an image are brought about.

特開2006−27448号公報JP 2006-27448 A

上述の撮像方法を実行するには、プロポーショナルシステム(プロポ)等を用いて飛行体を操作した上で、さらにカメラの操作を行う必要がある。従って、上述の撮像方法の実行のために、飛行体そのものを自在に操作するための相当の訓練が必要な上に、さらに飛行体に取り付けられたカメラの操作のための訓練が欠かせなかった。   In order to execute the above-described imaging method, it is necessary to further operate the camera after operating the flying object using a proportional system (propo) or the like. Therefore, in order to execute the above-described imaging method, considerable training for operating the flying object freely is necessary, and further training for operating the camera attached to the flying object is indispensable. .

そこで本開示は、直感的な操作でカメラが取り付けられた飛行体の操縦が可能な、新規かつ改良された制御装置、制御方法及びコンピュータプログラムを提供する。   Therefore, the present disclosure provides a new and improved control device, control method, and computer program capable of maneuvering a flying object equipped with a camera by an intuitive operation.

本開示によれば、飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示する画像表示部と、前記撮像装置が撮像し、前記画像表示部が表示している画像に対する操作の内容に基づき前記飛行体の飛行指示を生成する飛行指示生成部と、を備える、制御装置が提供される。   According to the present disclosure, an image display unit that acquires and displays an image captured by an imaging device provided in a flying object from the flying object, the image capturing device captures an image, and the image display unit displays the image. There is provided a control device including a flight instruction generation unit that generates a flight instruction of the flying object based on the content of an operation on an image.

また本開示によれば、飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示するステップと、前記撮像装置が撮像し、前記表示するステップで表示されている画像に対して行われた操作の内容を前記飛行体の飛行指示とするステップと、を備える、制御方法が提供される。   Further, according to the present disclosure, the image captured by the imaging device provided in the flying object is acquired and displayed from the flying object, and the image displayed by the imaging device is captured and displayed. And a step of setting the content of the operation performed on the aircraft as a flight instruction of the flying object.

また本開示によれば、コンピュータに、飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示するステップと、前記撮像装置が撮像し、前記表示するステップで表示されている画像に対して行われた操作の内容を前記飛行体の飛行指示とするステップと、を実行させる、コンピュータプログラムが提供される。   Further, according to the present disclosure, the computer displays the image captured by the imaging device included in the flying object, acquired from the flying object, and the imaging device captures and displays the image. And a step of setting the content of the operation performed on the current image as a flight instruction of the flying object is provided.

以上説明したように本開示によれば、直感的な操作でカメラが取り付けられた飛行体の操縦が可能な、新規かつ改良された制御装置、制御方法及びコンピュータプログラムを提供することが出来る。   As described above, according to the present disclosure, it is possible to provide a new and improved control device, control method, and computer program capable of maneuvering a flying object equipped with a camera by an intuitive operation.

本開示の一実施形態に係る撮像システムの外観例を示す説明図である。1 is an explanatory diagram illustrating an external appearance example of an imaging system according to an embodiment of the present disclosure. FIG. 本開示の一実施形態に係る撮像システムの外観例を示す説明図である。1 is an explanatory diagram illustrating an external appearance example of an imaging system according to an embodiment of the present disclosure. FIG. 本開示の一実施形態に係る撮像システムの外観例を示す説明図である。1 is an explanatory diagram illustrating an external appearance example of an imaging system according to an embodiment of the present disclosure. FIG. 本開示の一実施形態に係る撮像システム10を構成する飛行装置100の外観例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an appearance example of a flying device 100 included in an imaging system 10 according to an embodiment of the present disclosure. 本開示の一実施形態に係る撮像システム10を構成する飛行装置100の外観例を示す説明図である。FIG. 3 is an explanatory diagram illustrating an appearance example of a flying device 100 included in an imaging system 10 according to an embodiment of the present disclosure. 本開示の一実施形態の飛行装置の変形例を示す説明図である。It is explanatory drawing which shows the modification of the flight apparatus of one Embodiment of this indication. 本開示の一実施形態の飛行装置の変形例を示す説明図である。It is explanatory drawing which shows the modification of the flight apparatus of one Embodiment of this indication. ロータカバー102a〜102dを支える支柱111の構造例を示す説明図である。It is explanatory drawing which shows the structural example of the support | pillar 111 which supports the rotor covers 102a-102d. ロータカバー102aが支柱111のスリット部112に沿って回動する様子を示す説明図である。It is explanatory drawing which shows a mode that the rotor cover 102a rotates along the slit part 112 of the support | pillar 111. FIG. ロータカバー102aが支柱111のスリット部112に沿って回動する様子を示す説明図である。It is explanatory drawing which shows a mode that the rotor cover 102a rotates along the slit part 112 of the support | pillar 111. FIG. ユーザがコントローラ200を用いて飛行装置100の動作を制御する様子の例を示す説明図である。4 is an explanatory diagram showing an example of a state in which a user controls the operation of the flying device 100 using a controller 200. FIG. 本開示の一実施形態にかかる飛行装置100及びコントローラ200の機能構成例を示す説明図である。3 is an explanatory diagram illustrating a functional configuration example of a flying device 100 and a controller 200 according to an embodiment of the present disclosure. FIG. 本開示の一実施形態に係る撮像システム10の動作例を示す流れ図である。5 is a flowchart illustrating an operation example of the imaging system 10 according to an embodiment of the present disclosure. 本開示の一実施形態に係るコントローラ200の表示部210に表示される情報の例を示す説明図である。4 is an explanatory diagram illustrating an example of information displayed on a display unit 210 of a controller 200 according to an embodiment of the present disclosure. FIG. 本開示の一実施形態に係るコントローラ200の表示部210に表示される情報の例を示す説明図である。4 is an explanatory diagram illustrating an example of information displayed on a display unit 210 of a controller 200 according to an embodiment of the present disclosure. FIG. 本開示の一実施形態に係るコントローラ200の表示部210に表示される情報の例を示す説明図である。4 is an explanatory diagram illustrating an example of information displayed on a display unit 210 of a controller 200 according to an embodiment of the present disclosure. FIG. ユーザがタップで指定した位置を画像の中央に据えたい場合の、表示部210への情報の表示例である。It is an example of a display of information on the display unit 210 when the user wants to set the position specified by the tap at the center of the image. ユーザがタップで指定した位置を画像の中央に据えたい場合の、表示部210への情報の表示例である。It is an example of a display of information on the display unit 210 when the user wants to set the position specified by the tap at the center of the image. ユーザが表示部210の上でドラッグする操作を実行した状態を示す説明図である。It is explanatory drawing which shows the state which performed operation which the user dragged on the display part. ユーザが表示部210の上でドラッグ操作を実行した後の状態を示す説明図である。FIG. 10 is an explanatory diagram showing a state after the user performs a drag operation on the display unit 210. ユーザが表示部210の上でピンチ操作を実行した状態を示す説明図である。It is explanatory drawing which shows the state which the user performed pinch operation on the display part. 画像フィードバックによる飛行装置100の飛行の制御について示す説明図である。It is explanatory drawing shown about control of the flight of the flying device 100 by image feedback. 撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100; 撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100; 撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100; 撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100; コントローラ200の表示部210に表示される情報の例を示す説明図である。4 is an explanatory diagram illustrating an example of information displayed on a display unit 210 of a controller 200. FIG. 撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100; 撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。FIG. 11 is an explanatory diagram illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100; 飛行装置100が、初期位置20を中心とする所定の飛行範囲21の内側に位置している状態を示す説明図である。It is explanatory drawing which shows the state which the flight apparatus 100 is located inside the predetermined flight range 21 centering on the initial position 20. FIG. 飛行装置100が、初期位置20を中心とする所定の飛行範囲21を超えて飛行しようとしている状態を示す説明図である。It is explanatory drawing which shows the state which the flight apparatus 100 is going to fly beyond the predetermined flight range 21 centering on the initial position 20. FIG. 飛行装置100が自動的に着陸しようとしている状態を示す説明図である。It is explanatory drawing which shows the state which the flying apparatus 100 is going to land automatically. 飛行装置100の動作の概要を示す説明図である。4 is an explanatory diagram showing an outline of the operation of the flying device 100. FIG. 本開示の一実施形態に係る撮像システム10の動作例を示す流れ図である。5 is a flowchart illustrating an operation example of the imaging system 10 according to an embodiment of the present disclosure. 画像認識による飛行装置100の位置及び姿勢の制御例を示す説明図である。It is explanatory drawing which shows the example of control of the position and attitude | position of the flying apparatus 100 by image recognition. 画像認識による飛行装置100の位置及び姿勢の制御例を示す説明図である。It is explanatory drawing which shows the example of control of the position and attitude | position of the flying apparatus 100 by image recognition. 画像認識による飛行装置100の位置及び姿勢の制御例を示す説明図である。It is explanatory drawing which shows the example of control of the position and attitude | position of the flying apparatus 100 by image recognition. 画像認識による飛行装置100の位置及び姿勢の制御例を示す説明図である。It is explanatory drawing which shows the example of control of the position and attitude | position of the flying apparatus 100 by image recognition.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は以下の順序で行うものとする。
<1.本開示の一実施形態>
[撮像システムの外観例]
[撮像システムの機能構成例]
[飛行装置及びコントローラの動作例]
<2.まとめ>
The description will be made in the following order.
<1. One Embodiment of the Present Disclosure>
[External appearance of imaging system]
[Example of functional configuration of imaging system]
[Operation example of flight device and controller]
<2. Summary>

<1.本開示の一実施形態>
[撮像システムの外観例]
まず、図面を参照しながら本開示の一実施形態に係る撮像システムの外観例について説明する。図1〜図3は、本開示の一実施形態に係る撮像システムの外観例を示す説明図である。以下、図1〜図3を用いて、本開示の一実施形態に係る撮像システムの外観例について説明する。
<1. One Embodiment of the Present Disclosure>
[External appearance of imaging system]
First, an appearance example of an imaging system according to an embodiment of the present disclosure will be described with reference to the drawings. 1 to 3 are explanatory diagrams illustrating an appearance example of an imaging system according to an embodiment of the present disclosure. Hereinafter, an appearance example of an imaging system according to an embodiment of the present disclosure will be described with reference to FIGS.

図1に示したのは、本開示の一実施形態に係る撮像システム10の外観例を斜視図で示す説明図であり、図2に示したのは、本開示の一実施形態に係る撮像システム10の外観例を、図1に示した斜視図の反対側から斜視図で示す説明図である。また図3に示したのは、本開示の一実施形態に係る撮像システム10の外観例を、底面側から斜視図で示す説明図である。   FIG. 1 is an explanatory diagram illustrating an external appearance example of an imaging system 10 according to an embodiment of the present disclosure in a perspective view, and FIG. 2 illustrates an imaging system according to an embodiment of the present disclosure. 10 is an explanatory view showing an external appearance example of FIG. 10 in a perspective view from the opposite side of the perspective view shown in FIG. 1. Also, FIG. 3 is an explanatory diagram showing an external appearance example of the imaging system 10 according to an embodiment of the present disclosure in a perspective view from the bottom surface side.

本開示の一実施形態に係る撮像システム10は、飛行装置100と、飛行装置100を制御するコントローラ200と、を含んで構成される。飛行装置100は、コントローラ200からの制御によりロータを回転させることで飛行が可能である。しかし、飛行装置100を飛行させない場合は、図1〜図3に示すように、コントローラ200にロータを収容させることが可能な構成を有している。   An imaging system 10 according to an embodiment of the present disclosure includes a flying device 100 and a controller 200 that controls the flying device 100. The flying device 100 can fly by rotating the rotor under the control of the controller 200. However, when the flying device 100 is not caused to fly, the controller 200 has a configuration that allows the rotor to be accommodated as shown in FIGS.

図1〜図3で図示した飛行装置100は、4つのロータにより飛行することが可能である。図1〜図3には、各ロータを保護するロータカバー102a〜102dが図示されている。本開示の一実施形態に係る撮像システム10は、飛行装置100を飛行させない場合は、図1〜図3に示したようにロータカバー102a〜102dをコントローラ200の内側に収容させ得る。   The flying device 100 illustrated in FIGS. 1 to 3 can fly by four rotors. 1 to 3 show rotor covers 102a to 102d that protect the rotors. The imaging system 10 according to an embodiment of the present disclosure can accommodate the rotor covers 102a to 102d inside the controller 200 as shown in FIGS.

本開示の一実施形態に係る撮像システム10は、図1のAの方向にコントローラ200がスライド可能な構成を有している。本開示の一実施形態に係る撮像システム10は、図1のAの方向にコントローラ200がスライドされると、コントローラ200が飛行装置100から取り外される構成を有する。   The imaging system 10 according to an embodiment of the present disclosure has a configuration in which the controller 200 can slide in the direction of A in FIG. The imaging system 10 according to an embodiment of the present disclosure has a configuration in which the controller 200 is removed from the flying device 100 when the controller 200 is slid in the direction of A in FIG.

飛行装置100には、静止画像または動画像を撮像する撮像装置101が備えられている。撮像装置101は、レンズやCCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子等で構成されている。飛行装置100に備えられる撮像装置101は、コントローラ200からの制御により静止画像または動画像の撮像を実行し、撮像した画像をコントローラ200に提供する。   The flying device 100 includes an imaging device 101 that captures a still image or a moving image. The imaging device 101 includes an imaging element such as a lens, a charge coupled device (CCD) image sensor, and a complementary metal oxide semiconductor (CMOS) image sensor. The imaging device 101 provided in the flying device 100 performs imaging of a still image or a moving image under the control of the controller 200, and provides the captured image to the controller 200.

コントローラ200は、飛行装置100の飛行状態及び飛行装置100に備えられた撮像装置101での画像の撮像を制御する。コントローラ200は、係る飛行状態及び撮像の制御を無線通信により行う。図1に示したように、コントローラ200は表示部210を備える。飛行装置100の飛行状態及び飛行装置100に備えられた撮像装置101での画像の撮像を制御するための、コントローラ200の機能構成については後に詳述する。   The controller 200 controls the flight state of the flying device 100 and the imaging of an image by the imaging device 101 provided in the flying device 100. The controller 200 controls such a flight state and imaging by wireless communication. As shown in FIG. 1, the controller 200 includes a display unit 210. The functional configuration of the controller 200 for controlling the flight state of the flying device 100 and the imaging of an image by the imaging device 101 provided in the flying device 100 will be described in detail later.

表示部210は、例えば液晶表示装置、有機EL表示装置等の平板表示装置からなり、撮像装置101が撮像している画像や、飛行装置100の動作を制御するための情報を表示し得る。表示部210にはタッチパネルが備えられ、ユーザは表示部210を指等で触ることで表示部210に表示される情報に対して直接操作することができる。   The display unit 210 includes a flat panel display device such as a liquid crystal display device or an organic EL display device, and can display an image captured by the imaging device 101 and information for controlling the operation of the flying device 100. The display unit 210 is provided with a touch panel, and the user can directly operate the information displayed on the display unit 210 by touching the display unit 210 with a finger or the like.

ここまで、図1〜図3を用いて、本開示の一実施形態に係る撮像システム10の外観例について説明した。続いて、飛行装置100の外観例についてより詳細に説明する。   So far, the appearance example of the imaging system 10 according to an embodiment of the present disclosure has been described with reference to FIGS. Next, an example of the appearance of the flying device 100 will be described in more detail.

図4は、本開示の一実施形態に係る撮像システム10を構成する飛行装置100の外観例を示す説明図である。以下、図4を用いて飛行装置100の外観例について説明する。   FIG. 4 is an explanatory diagram illustrating an appearance example of the flying device 100 included in the imaging system 10 according to an embodiment of the present disclosure. Hereinafter, an appearance example of the flying device 100 will be described with reference to FIG.

図4に示したのは、図1に示した本開示の一実施形態に係る撮像システム10から、コントローラ200が取り除かれた状態を示したものである。図4には、図1〜図3で示した撮像装置101及びロータカバー102a〜102dに加え、バネ部103a〜103dが示されている。バネ部103a〜103dは、それぞれ飛行装置100の四隅の支柱に巻きつけられており、支柱を軸としてロータカバー102a〜102dを回動させる。   FIG. 4 illustrates a state where the controller 200 is removed from the imaging system 10 according to the embodiment of the present disclosure illustrated in FIG. 1. FIG. 4 shows spring portions 103a to 103d in addition to the imaging device 101 and the rotor covers 102a to 102d shown in FIGS. The spring portions 103a to 103d are respectively wound around the pillars at the four corners of the flying device 100, and rotate the rotor covers 102a to 102d around the pillars.

図4には、ユーザによってロータカバー102a〜102dが飛行装置100の内部に収容された状態が図示されている。飛行装置100の形態が図4に示した状態で、コントローラ200が飛行装置100に被せられることで、本開示の一実施形態に係る撮像システム10は図1〜図3に示したような形態となる。コントローラ200が飛行装置100に被せられると、コントローラ200によってロータカバー102a〜102dの回動が抑止される。   FIG. 4 illustrates a state in which the rotor covers 102 a to 102 d are accommodated inside the flying device 100 by the user. With the configuration of the flying device 100 shown in FIG. 4, the controller 200 is put on the flying device 100, so that the imaging system 10 according to an embodiment of the present disclosure has the configuration shown in FIGS. 1 to 3. Become. When the controller 200 is put on the flying device 100, the rotation of the rotor covers 102 a to 102 d is suppressed by the controller 200.

図4には、飛行装置100の中央部に設けられる支柱105と、支柱105に設けられるロータ106と、複数の通気孔部107と、が図示されている。ロータ106は、コントローラ200からの制御により、支柱105を軸として回転運動を行う。また通気孔部107は、ロータ106の回転運動の範囲に対応して設けられ得る。飛行装置100は、ロータ106を有していることで、ロータカバー102a〜102dで保護されている各ロータの回転運動だけでは十分な揚力が得られない場合であっても、ロータ106の回転運動により揚力を増加させることができる。   In FIG. 4, a support column 105 provided in the center of the flying device 100, a rotor 106 provided in the support column 105, and a plurality of vent holes 107 are illustrated. The rotor 106 performs a rotational motion with the support column 105 as an axis under the control of the controller 200. The vent hole 107 can be provided corresponding to the range of rotational movement of the rotor 106. Since the flying device 100 includes the rotor 106, the rotational motion of the rotor 106 can be achieved even when sufficient lift cannot be obtained only by the rotational motion of each rotor protected by the rotor covers 102a to 102d. The lift can be increased.

図5は、本開示の一実施形態に係る撮像システム10を構成する飛行装置100の外観例を示す説明図である。図5に示したのは、図1に示した状態からコントローラ200を図1のAの方向にスライドさせて、コントローラ200を取り除いた状態を示したものである。図1に示した状態からコントローラ200を図1のAの方向にスライドさせて、コントローラ200を取り除くと、コントローラ200により回動が抑止されていたロータカバー102a〜102dが、バネ部103a〜103dの作用により図5に示したように回動する。   FIG. 5 is an explanatory diagram illustrating an appearance example of the flying device 100 included in the imaging system 10 according to an embodiment of the present disclosure. FIG. 5 shows a state in which the controller 200 is removed from the state shown in FIG. 1 by sliding the controller 200 in the direction of A in FIG. When the controller 200 is slid in the direction of A in FIG. 1 from the state shown in FIG. 1 and the controller 200 is removed, the rotor covers 102a to 102d whose rotation has been suppressed by the controller 200 are removed from the spring portions 103a to 103d. By the action, it rotates as shown in FIG.

図5には、ロータカバー102a〜102dによって保護されているロータ104a〜104dが示されている。ロータ104a〜104dは、それぞれ独立してコントローラ200からの制御により回転運動を行って、飛行装置100を浮揚させる。   FIG. 5 shows the rotors 104a to 104d protected by the rotor covers 102a to 102d. Each of the rotors 104a to 104d independently performs a rotational motion under the control of the controller 200, and causes the flying device 100 to float.

飛行装置100には、図4及び図5に示したように、ロータカバー102a〜102dにより保護されるロータ104a〜104dが所定の段差を持って設けられている。このようにロータ104a〜104dが所定の段差を持って設けられていることで、飛行装置100は、ロータ104a〜104dを内部に収容させる際にコンパクトに収容させることが可能となる。   As shown in FIGS. 4 and 5, the flying device 100 is provided with rotors 104 a to 104 d protected by the rotor covers 102 a to 102 d with predetermined steps. Since the rotors 104a to 104d are thus provided with a predetermined step, the flying device 100 can be accommodated in a compact manner when accommodating the rotors 104a to 104d inside.

既存の飛行装置は、推力を出力するユニットが固定されているために携帯性が損なわれていた。本開示の一実施形態に係る撮像システム10を構成する飛行装置100は、図4及び図5に示したように、ロータ104a〜104dを内側に収容させ得る構造を有することで、携帯性を大幅に高めることが可能となっている。   The existing flying device has lost its portability because the unit for outputting thrust is fixed. As shown in FIGS. 4 and 5, the flying device 100 configuring the imaging system 10 according to an embodiment of the present disclosure has a structure that can accommodate the rotors 104 a to 104 d on the inside, thereby greatly increasing portability. It is possible to increase it.

また飛行装置100は、コントローラ200が取り外された状態において、ロータカバー102a〜102dが飛行装置100の外側に飛び出すように回動することで、ロータカバー102a〜102dが収容された状態に比べて重心とロータ104a〜104dの中心との距離を伸ばすことができ、飛行装置100の飛行時の姿勢を安定させることが出来る。   Further, the flying device 100 rotates so that the rotor covers 102a to 102d jump out of the flying device 100 in a state where the controller 200 is removed, so that the center of gravity is compared to the state in which the rotor covers 102a to 102d are accommodated. And the center of the rotors 104a to 104d can be extended, and the attitude of the flying device 100 during flight can be stabilized.

ここで、飛行装置100の飛行原理について説明する。飛行装置100は、回転速度が独自に制御可能なロータ104a〜104dにより浮上、移動、静止、着陸等の動作が可能である。ロータ104a、104cの回転方向と、ロータ104b、104dの回転方向とは正反対であり、ロータ104a、104cの回転方向と、ロータ104b、104dの回転方向とは正反対であることにより、全てのロータを等速度で回転させると、飛行装置100は浮上または下降する。   Here, the flight principle of the flying device 100 will be described. The flying device 100 can perform operations such as levitation, movement, stationary, and landing by the rotors 104a to 104d whose rotation speed can be independently controlled. The rotation direction of the rotors 104a and 104c and the rotation direction of the rotors 104b and 104d are opposite to each other. The rotation direction of the rotors 104a and 104c and the rotation direction of the rotors 104b and 104d are opposite to each other. When rotated at a constant speed, the flying device 100 floats or descends.

また例えば、飛行装置100が浮上している状態で、ロータ104a、104bの回転速度を、ロータ104c、104dの回転速度に比べて遅くすると、飛行装置100は、浮上した状態でロータ104a、104bの方向に向かって移動することが可能である。また例えば、飛行装置100が浮上している状態で、ロータ104a、104cの回転速度を、ロータ104b、104dの回転速度に比べて遅くすると、飛行装置100は、浮上した状態で時計回り、または反時計回りに水平に回転することが可能である。   Further, for example, when the rotational speed of the rotors 104a and 104b is made slower than the rotational speed of the rotors 104c and 104d in a state where the flying device 100 is levitated, the flying device 100 is in a state where the rotor 104a and 104b are levitated. It is possible to move in the direction. Further, for example, when the rotational speed of the rotors 104a and 104c is made slower than the rotational speed of the rotors 104b and 104d while the flying device 100 is flying, the flying device 100 is rotated clockwise or counterclockwise while flying. It is possible to rotate horizontally clockwise.

このように、飛行装置100は、ロータ104a〜104dの回転速度を適切に変化させることで、浮上、水平移動、回転移動、静止、着陸等の動作を可能とする。そして本実施形態では、このようなロータ104a〜104dの回転速度の変化による飛行装置100の動作の制御が、飛行装置100そのものに対する操作ではなく、撮像装置101が撮像している画像に対する操作によって行われる。   Thus, the flying device 100 enables operations such as flying, horizontal movement, rotational movement, stationary, and landing by appropriately changing the rotational speeds of the rotors 104a to 104d. In the present embodiment, the control of the operation of the flying device 100 based on the change in the rotational speed of the rotors 104a to 104d is not performed by the operation on the flying device 100 itself, but by the operation on the image captured by the imaging device 101. Is called.

このように、ロータ104a〜104dの回転速度を制御することで飛行装置100の位置や姿勢を自由に変えることができるが、撮像装置101を用いて撮像するためには、ロータ104a〜104dの回転速度の制御に加えて、環境における自己位置や撮像対象に対する相対位置を知ることが望ましい。   As described above, the position and posture of the flying device 100 can be freely changed by controlling the rotational speed of the rotors 104a to 104d. However, in order to capture an image using the imaging device 101, the rotation of the rotors 104a to 104d In addition to controlling the speed, it is desirable to know the self position in the environment and the relative position with respect to the imaging target.

環境における自己位置や撮像対象に対する相対位置を知る方法には、例えば加速度センサやジャイロセンサその他の慣性センサを用いる方法や、画像センサなどで環境中の特徴点や物体を認識して複数の対象点の移動量から自分の位置を推定する方法等がある。   The method of knowing the self position in the environment and the relative position with respect to the imaging target includes, for example, a method using an acceleration sensor, a gyro sensor, or other inertial sensors, or a plurality of target points by recognizing feature points or objects in the environment with an image sensor or the like. There is a method for estimating one's position from the amount of movement.

例えば、加速度センサやジャイロセンサなどの慣性センサで自機の加速度、角速度を計測することで、位置や姿勢の変化量から現在位置・姿勢を求めることができる。さらに、気圧センサなどで方角や高度などの絶対量を計測することで、上記変化量の積分に伴う誤差を修正しながら、自機の位置・姿勢を求めることができる。   For example, the current position / orientation can be obtained from the amount of change in position and orientation by measuring the acceleration and angular velocity of the own device with an inertial sensor such as an acceleration sensor or a gyro sensor. Furthermore, by measuring an absolute amount such as a direction or altitude with a barometric pressure sensor or the like, it is possible to obtain the position / orientation of the aircraft while correcting an error associated with the integration of the change amount.

また例えば、画像センサなどで環境中の特徴点や物体を認識して複数の対象点の移動量から自分の位置を推定することができる。この手法はSLAM(Simultaneous Localization And Mapping)と呼ばれている。このSLAMを用いた場合について、上述の慣性センサからの移動量と合わせて使うことで位置の認識精度を上げることができる。   In addition, for example, an image sensor or the like can recognize a feature point or an object in the environment and can estimate its own position from the movement amounts of a plurality of target points. This technique is called SLAM (Simultaneous Localization And Mapping). When this SLAM is used, the position recognition accuracy can be improved by using it together with the movement amount from the inertial sensor.

係る制御により、飛行装置100は、撮像しようとする環境下において自機の位置を適切に知ることができ、フィードバック制御によって、適切な位置へ自動で移動や静止を行うことができる。   With such control, the flying device 100 can appropriately know the position of the aircraft in an environment where imaging is to be performed, and can automatically move or stop to an appropriate position by feedback control.

なお、上述した例では飛行装置100の中央に設けられるロータ106を除いて、ロータが4つ設けられている場合を示したが、ロータの数は係る例に限定されるものではない。例えば、飛行装置はロータを8つ備えていても良い。   In the above example, four rotors are provided except for the rotor 106 provided in the center of the flying device 100, but the number of rotors is not limited to this example. For example, the flying device may include eight rotors.

図6及び図7は、本開示の一実施形態の飛行装置の変形例を示す説明図である。図6及び図7は、ロータを8つ備えている飛行装置100’の外観例を示す説明図である。図6及び図7には、ロータカバー102a’〜102h’を備える飛行装置100’が示されている。図6及び図7に示したように、本開示の一実施形態の変形例として、ロータを8つ備える飛行装置100’も提供可能である。   6 and 7 are explanatory diagrams illustrating modifications of the flying device according to the embodiment of the present disclosure. 6 and 7 are explanatory views showing an external appearance example of a flying device 100 ′ having eight rotors. FIGS. 6 and 7 show a flying device 100 ′ including rotor covers 102 a ′ to 102 h ′. As shown in FIGS. 6 and 7, a flying device 100 ′ having eight rotors can be provided as a modification of the embodiment of the present disclosure.

上述の例では、バネ部103a〜103dの作用によりロータカバー102a〜102dを回動させていたが、本開示は係る例に限定されない。例えば、ロータカバー102a〜102dが設けられている各支柱にスリットを設け、そのスリットに沿ってロータカバー102a〜102dを回動させるようにしてもよい。   In the above-described example, the rotor covers 102a to 102d are rotated by the action of the spring portions 103a to 103d, but the present disclosure is not limited to such examples. For example, a slit may be provided in each support column on which the rotor covers 102a to 102d are provided, and the rotor covers 102a to 102d may be rotated along the slits.

図8は、ロータカバー102a〜102dを支える支柱111の構造例を示す説明図である。図8に示した支柱111は、ロータカバー102a〜102dを支柱111の周りに回動させるスリット部112が設けられている。ロータカバー102a〜102dをスリット部112に沿って回動させることで、ロータカバー102a〜102dが飛行装置100の外側に開いた際に、全てのロータカバー102a〜102dを同じ高さに位置させることが可能になる。   FIG. 8 is an explanatory diagram showing an example of the structure of the support column 111 that supports the rotor covers 102a to 102d. The column 111 shown in FIG. 8 is provided with a slit portion 112 that rotates the rotor covers 102 a to 102 d around the column 111. By rotating the rotor covers 102a to 102d along the slits 112, when the rotor covers 102a to 102d are opened to the outside of the flying device 100, all the rotor covers 102a to 102d are positioned at the same height. Is possible.

図9及び図10は、ロータカバー102aが支柱111のスリット部112に沿って回動する様子を示す説明図である。   FIG. 9 and FIG. 10 are explanatory diagrams showing a state in which the rotor cover 102a rotates along the slit portion 112 of the support column 111. FIG.

以上、図4、5を用いて飛行装置100の外観例について説明した。次に、飛行装置100の動作を制御するコントローラ200について説明する。   The appearance example of the flying device 100 has been described above with reference to FIGS. Next, the controller 200 that controls the operation of the flying device 100 will be described.

図11は、ユーザがコントローラ200を用いて飛行装置100の動作を制御する様子の例を示す説明図である。コントローラ200は、飛行装置100から取り外されると、図11に示すように飛行装置100の遠隔操作が可能な装置として機能する。ユーザは、コントローラ200を使用することで、飛行装置100の離陸、飛行、着陸を制御することができる。   FIG. 11 is an explanatory diagram showing an example of how the user controls the operation of the flying device 100 using the controller 200. When the controller 200 is detached from the flying device 100, it functions as a device capable of remotely operating the flying device 100 as shown in FIG. The user can control take-off, flight, and landing of the flying device 100 by using the controller 200.

そして本開示の一実施形態に係る撮像システム10は、飛行装置100に設けられた撮像装置101が撮像している画像をリアルタイムでコントローラ200に送信し、コントローラ200の表示部210が表示する、撮像装置101が撮像している画像に対する操作を受け付けることで、飛行装置100の動作を制御することを可能とする。すなわち、ユーザは飛行装置100そのものに対する操作ではなく、撮像装置101が撮像している画像に対する操作によって、飛行装置100の動作を制御することが出来る。   And the imaging system 10 which concerns on one Embodiment of this indication transmits the image which the imaging device 101 provided in the flying device 100 imaged to the controller 200 in real time, and the imaging part which the display part 210 of the controller 200 displays is displayed. The operation of the flying device 100 can be controlled by accepting an operation on an image captured by the device 101. That is, the user can control the operation of the flying device 100 not by operating the flying device 100 itself but by operating the image captured by the imaging device 101.

以上、本開示の一実施形態に係る撮像システムの外観例について説明した。次に、本開示の一実施形態に係る撮像システムの機能構成例について説明する。   Heretofore, the appearance example of the imaging system according to an embodiment of the present disclosure has been described. Next, a functional configuration example of the imaging system according to an embodiment of the present disclosure will be described.

[撮像システムの機能構成例]
図12は、本開示の一実施形態にかかる飛行装置100及びコントローラ200の機能構成例を示す説明図である。以下、図12を用いて本開示の一実施形態にかかる飛行装置100及びコントローラ200の機能構成例について説明する。
[Example of functional configuration of imaging system]
FIG. 12 is an explanatory diagram illustrating a functional configuration example of the flying device 100 and the controller 200 according to an embodiment of the present disclosure. Hereinafter, functional configuration examples of the flying device 100 and the controller 200 according to an embodiment of the present disclosure will be described with reference to FIG.

図12に示したように、本開示の一実施形態に係る飛行装置100は、撮像装置101と、ロータ104a〜104dと、モータ108a〜108dと、制御部110と、通信部120と、センサ部130と、位置情報取得部132と、アラート発生部140と、バッテリ150と、を含んで構成される。   As illustrated in FIG. 12, the flying device 100 according to an embodiment of the present disclosure includes an imaging device 101, rotors 104a to 104d, motors 108a to 108d, a control unit 110, a communication unit 120, and a sensor unit. 130, a position information acquisition unit 132, an alert generation unit 140, and a battery 150.

また図12に示したように、本開示の一実施形態に係るコントローラ200は、表示部210と、通信部220と、制御部230と、位置情報取得部240と、バッテリ242と、電力供給部244と、を含んで構成される。また制御部230は、飛行指示生成部232と、表示制御部234と、を含んで構成される。   12, the controller 200 according to an embodiment of the present disclosure includes a display unit 210, a communication unit 220, a control unit 230, a position information acquisition unit 240, a battery 242, and a power supply unit. 244. The control unit 230 includes a flight instruction generation unit 232 and a display control unit 234.

制御部110は、飛行装置100の動作を制御する。例えば制御部110は、モータ108a〜108dの回転速度の調整によるロータ104a〜104dの回転速度の調整、撮像装置101による撮像処理、通信部120を介した他の装置(例えばコントローラ200)との間の情報の送受信処理、アラート発生部140に対するアラート発生処理等を制御し得る。   The control unit 110 controls the operation of the flying device 100. For example, the control unit 110 adjusts the rotational speeds of the rotors 104a to 104d by adjusting the rotational speeds of the motors 108a to 108d, the imaging processing by the imaging device 101, and other devices (for example, the controller 200) via the communication unit 120. Information transmission / reception processing, alert generation processing for the alert generation unit 140, and the like can be controlled.

撮像装置101は、上述したように、レンズやCCDイメージセンサ、CMOSイメージセンサ等の撮像素子等で構成されている。飛行装置100に備えられる撮像装置101は、コントローラ200からの制御により静止画像または動画像の撮像を実行する。撮像装置101が撮像する画像は、通信部120からコントローラ200へ送信される。   As described above, the imaging apparatus 101 includes a lens, an imaging element such as a CCD image sensor, a CMOS image sensor, and the like. The imaging device 101 provided in the flying device 100 executes still image or moving image imaging under the control of the controller 200. An image captured by the imaging apparatus 101 is transmitted from the communication unit 120 to the controller 200.

ロータ104a〜104dは、回転により揚力を生じさせることで飛行装置100を飛行させる。ロータ104a〜104dの回転はモータ108a〜108dの回転によりなされる。モータ108a〜108dは、ロータ104a〜104dを回転させる。モータ108a〜108dの回転は制御部110によって制御され得る。   The rotors 104a to 104d cause the flying device 100 to fly by generating lift by rotation. The rotors 104a to 104d are rotated by the rotation of the motors 108a to 108d. The motors 108a to 108d rotate the rotors 104a to 104d. The rotation of the motors 108 a to 108 d can be controlled by the control unit 110.

通信部120は、コントローラ200との間で無線通信による情報の送受信処理を行う。飛行装置100は、撮像装置101で撮像されている画像を通信部120からコントローラ200へ送信する。また飛行装置100は、飛行に関する指示をコントローラ200から通信部120で受信する。   The communication unit 120 performs transmission / reception processing of information by wireless communication with the controller 200. The flying device 100 transmits an image captured by the imaging device 101 from the communication unit 120 to the controller 200. In addition, the flying device 100 receives an instruction regarding flight from the controller 200 by the communication unit 120.

センサ部130は、飛行装置100の状態を取得する装置群であり、例えば加速度センサ、ジャイロセンサ、超音波センサ、気圧センサ等で構成され得る。センサ部130は、取得した飛行装置100の状態を所定の信号に変換して、必要に応じて制御部110に提供し得る。位置情報取得部132は、例えばGPS(Global Positioning System)等を用いて飛行装置100の現在位置の情報を取得する。位置情報取得部132は、取得した飛行装置100の現在位置の情報を、必要に応じて制御部110に提供し得る。   The sensor unit 130 is a device group that acquires the state of the flying device 100, and may be configured of, for example, an acceleration sensor, a gyro sensor, an ultrasonic sensor, an atmospheric pressure sensor, or the like. The sensor unit 130 may convert the acquired state of the flying device 100 into a predetermined signal and provide it to the control unit 110 as necessary. The position information acquisition unit 132 acquires information on the current position of the flying device 100 using, for example, GPS (Global Positioning System). The position information acquisition unit 132 can provide the acquired information on the current position of the flying device 100 to the control unit 110 as necessary.

アラート発生部140は、予め設定された飛行範囲を超えて飛行装置100が飛行しようとする際に、制御部110の制御により、音や光等のアラートを発生させる。   The alert generation unit 140 generates an alert such as sound or light under the control of the control unit 110 when the flying device 100 tries to fly beyond a preset flight range.

バッテリ150は、飛行装置100を動作させるための電力を蓄える。バッテリ150は、放電のみが可能な一次電池であってもよく、充電も可能な二次電池であってもよい。バッテリ150が二次電池である場合は、バッテリ150は、例えば図1等で示したように飛行装置100とコントローラ200とが結合された場合に、コントローラ200から電力の供給を受け得る。   The battery 150 stores electric power for operating the flying device 100. The battery 150 may be a primary battery that can only be discharged, or a secondary battery that can be charged. When the battery 150 is a secondary battery, the battery 150 can be supplied with electric power from the controller 200 when the flying device 100 and the controller 200 are combined as shown in FIG.

表示部210は、上述したように、例えば液晶表示装置、有機EL表示装置等の平板表示装置からなる。表示部210は、例えば、撮像装置101が撮像している画像や、飛行装置100の動作を制御するための情報を表示し得る。表示部210にはタッチパネルが備えられ、ユーザは表示部210を指等で触ることで表示部210に表示される情報に対して直接操作することができる。   As described above, the display unit 210 includes a flat panel display device such as a liquid crystal display device or an organic EL display device. The display unit 210 can display, for example, an image captured by the imaging device 101 and information for controlling the operation of the flying device 100. The display unit 210 is provided with a touch panel, and the user can directly operate the information displayed on the display unit 210 by touching the display unit 210 with a finger or the like.

通信部220は、飛行装置100との間で無線通信による情報の送受信を行う。コントローラ200は、撮像装置101で撮像されている画像を、飛行装置100から通信部220で受信する。またコントローラ200は、飛行装置100の飛行に関する指示を通信部220から飛行装置100へ送信する。飛行装置100の飛行に関する命令は、制御部230で生成され得る。   The communication unit 220 transmits and receives information to and from the flying device 100 by wireless communication. The controller 200 receives an image captured by the imaging device 101 from the flying device 100 by the communication unit 220. Further, the controller 200 transmits an instruction regarding the flight of the flying device 100 from the communication unit 220 to the flying device 100. A command regarding the flight of the flying device 100 may be generated by the control unit 230.

制御部230は、コントローラ200の動作を制御する。例えば制御部230は、表示部210への文字、図形、画像その他の情報の表示処理、通信部220を介した他の装置(例えば飛行装置100)との間の情報の送受信処理、電力供給部244に対する飛行装置100への電力供給処理等を制御し得る。   The control unit 230 controls the operation of the controller 200. For example, the control unit 230 displays characters, graphics, images, and other information on the display unit 210, information transmission / reception processing with other devices (for example, the flying device 100) via the communication unit 220, and a power supply unit The power supply processing to the flying device 100 for 244 can be controlled.

飛行指示生成部232は、飛行装置100の飛行に関する指示を生成する。本実施形態では、飛行指示生成部232は、撮像装置101が撮像している画像に対する操作に基づき、飛行装置100の飛行に関する指示を生成する。飛行指示生成部232が、撮像装置101が撮像している画像に対する操作に基づき、飛行装置100の飛行に関する指示を生成することで、コントローラ200は、飛行装置100の操縦に慣れていないユーザに対して、飛行装置100を容易に操縦させることが可能となる。また飛行指示生成部232が、撮像装置101が撮像している画像に対する操作に基づき、飛行装置100の飛行に関する指示を生成することで、ユーザが所望する構図となるように飛行装置100を飛行させるための飛行指示を生成することができる。なお、飛行指示生成部232による飛行装置100の飛行に関する指示の生成処理の具体例については後に詳述する。   The flight instruction generation unit 232 generates an instruction regarding the flight of the flying device 100. In the present embodiment, the flight instruction generation unit 232 generates an instruction related to the flight of the flying device 100 based on an operation on an image captured by the imaging device 101. The flight instruction generation unit 232 generates an instruction related to the flight of the flying device 100 based on an operation on the image captured by the imaging device 101, so that the controller 200 can deal with a user who is not familiar with the operation of the flying device 100. Thus, the flying device 100 can be easily operated. In addition, the flight instruction generation unit 232 generates an instruction related to the flight of the flying device 100 based on an operation on the image captured by the imaging device 101, thereby causing the flying device 100 to fly in a composition desired by the user. Flight instructions can be generated. A specific example of the instruction generation processing related to the flight of the flying device 100 by the flight instruction generation unit 232 will be described in detail later.

表示制御部234は、表示部210への文字、図形、画像その他の情報の表示を制御する。後述の説明で参照する図面において表示部210に表示される文字、図形、記号、画像その他の情報は、表示制御部234によって表示が制御されるものである。   The display control unit 234 controls display of characters, graphics, images, and other information on the display unit 210. The display control unit 234 controls the display of characters, figures, symbols, images, and other information displayed on the display unit 210 in the drawings referred to in the following description.

位置情報取得部240は、例えばGPS(Global Positioning System)等を用いてコントローラ200の現在位置の情報を取得する。位置情報取得部240は、取得したコントローラ200の現在位置の情報を、必要に応じて制御部232に提供し得る。   The position information acquisition unit 240 acquires information on the current position of the controller 200 using, for example, GPS (Global Positioning System). The position information acquisition unit 240 can provide the acquired information on the current position of the controller 200 to the control unit 232 as necessary.

バッテリ242は、コントローラ200を動作させるための電力を蓄える。バッテリ242は、放電のみが可能な一次電池であってもよく、充電も可能な二次電池であってもよい。バッテリ242は、例えば図1等で示したように飛行装置100とコントローラ200とが結合された場合に、電力供給部244を介した飛行装置100への電力の供給を実行し得る。電力供給部244は、例えば図A1等で示したように飛行装置100とコントローラ200とが結合された場合に、制御部230の制御により、バッテリ242に蓄えられた電力を飛行装置100へ供給する。   The battery 242 stores electric power for operating the controller 200. The battery 242 may be a primary battery that can only be discharged or a secondary battery that can be charged. The battery 242 can execute power supply to the flying device 100 via the power supply unit 244 when the flying device 100 and the controller 200 are combined as shown in FIG. The power supply unit 244 supplies the power stored in the battery 242 to the flying device 100 under the control of the control unit 230 when the flying device 100 and the controller 200 are combined as shown in FIG. .

本開示の一実施形態に係る撮像システム10を構成する飛行装置100及びコントローラ200は、図12に示したような構成を有することで、コントローラ200の表示部210が表示する、撮像装置101が撮像している画像に対する操作に基づいた、飛行装置100の操縦を可能とする。すなわち、ユーザは飛行装置100そのものに対する操作ではなく、撮像装置101が撮像している画像に対する操作によって、飛行装置100の動作を制御することが出来る。   The flying device 100 and the controller 200 that configure the imaging system 10 according to an embodiment of the present disclosure have the configuration illustrated in FIG. 12, so that the imaging device 101 displays an image displayed on the display unit 210 of the controller 200. The flying device 100 can be maneuvered based on the operation on the image being performed. That is, the user can control the operation of the flying device 100 not by operating the flying device 100 itself but by operating the image captured by the imaging device 101.

飛行装置100とコントローラ200との間では、例えばIEEE 802.11規格やIEEE 802.15.1規格その他の規格による、2.4GHz帯や5GHz帯その他の周波数帯域を使用した無線通信により、情報が送受信され得る。   For example, information is transmitted between the flying device 100 and the controller 200 by wireless communication using the 2.4 GHz band, the 5 GHz band, or other frequency bands according to the IEEE 802.11 standard, the IEEE 802.15.1 standard, or other standards. It can be sent and received.

以上、図12を用いて本開示の一実施形態にかかる飛行装置100及びコントローラ200の機能構成例について説明した。次に、本開示の一実施形態に係る撮像システム10の動作例について説明する。   The functional configuration examples of the flying device 100 and the controller 200 according to the embodiment of the present disclosure have been described above with reference to FIG. Next, an operation example of the imaging system 10 according to an embodiment of the present disclosure will be described.

[撮像システムの動作例]
図13は、本開示の一実施形態に係る撮像システム10の動作例を示す流れ図であり、特に、撮像システム10を構成しているコントローラ200の動作例を示す流れ図である。図13に示したのは、ユーザが、飛行装置100からコントローラ200を取り外し、コントローラ200を用いて飛行装置100を操縦する際の動作例である。以下、図13を用いて本開示の一実施形態に係る撮像システム10の動作例について説明する。
[Operation example of imaging system]
FIG. 13 is a flowchart illustrating an operation example of the imaging system 10 according to an embodiment of the present disclosure, and in particular, a flowchart illustrating an operation example of the controller 200 configuring the imaging system 10. FIG. 13 shows an operation example when the user removes the controller 200 from the flying device 100 and steers the flying device 100 using the controller 200. Hereinafter, an operation example of the imaging system 10 according to an embodiment of the present disclosure will be described with reference to FIG.

まずコントローラ200は、床やユーザの手の平の上等に静止した状態で置かれている飛行装置100に対して、ユーザ操作に基づいて離陸指示を送信する(ステップS101)。コントローラ200は、タッチパネルを備えた表示部210に対して、離陸指示に対応する所定の操作がなされたことを飛行指示生成部232で検出すると、飛行指示生成部232で飛行装置100の離陸指示を生成し、生成した離陸指示を飛行装置100へ無線通信により送信する。   First, the controller 200 transmits a take-off instruction to the flying device 100 placed in a stationary state on the floor or the palm of the user's hand based on a user operation (step S101). When the flight instruction generation unit 232 detects that the predetermined operation corresponding to the take-off instruction has been performed on the display unit 210 having the touch panel, the controller 200 issues a take-off instruction to the flying device 100 by the flight instruction generation unit 232. The generated takeoff instruction is transmitted to the flying device 100 by wireless communication.

飛行装置100は、コントローラ200から離陸指示を受信すると、制御部110からモータ108a〜108dを回転させる。そして飛行装置100は、モータ108a〜108dの回転による、ロータ104a〜104dの回転に伴って発生する揚力により、自ら浮上する。   When the flying device 100 receives the take-off instruction from the controller 200, the flying device 100 rotates the motors 108 a to 108 d from the control unit 110. Then, the flying device 100 is levitated by the lift generated by the rotation of the rotors 104a to 104d due to the rotation of the motors 108a to 108d.

続いてコントローラ200は、飛行装置100に設けられている撮像装置101が撮像している画像を無線通信により受信し、表示部210へ表示する(ステップS102)。撮像装置101が撮像している画像を表示部210へ表示している間、コントローラ200は、その表示部210に表示している画像に対する操作が行われるまで待機する(ステップS103)。   Subsequently, the controller 200 receives an image captured by the imaging device 101 provided in the flying device 100 by wireless communication and displays the image on the display unit 210 (step S102). While the image captured by the imaging apparatus 101 is displayed on the display unit 210, the controller 200 stands by until an operation is performed on the image displayed on the display unit 210 (step S103).

例えば、ユーザが表示部210を触る等して表示部210に表示している画像に対する操作が行われると、続いてコントローラ200は、表示部210に表示している画像に対して操作された内容を飛行指示生成部232で検出する(ステップS104)。表示部210に表示している画像に対して操作された内容を検出すると、続いてコントローラ200は、飛行指示生成部232で、その操作された内容を飛行装置100の飛行指示に変換する(ステップS105)。   For example, when the user performs an operation on an image displayed on the display unit 210 by touching the display unit 210, the controller 200 subsequently operates on the image displayed on the display unit 210. Is detected by the flight instruction generator 232 (step S104). When the operation content is detected with respect to the image displayed on the display unit 210, the controller 200 subsequently converts the operated content into a flight instruction of the flying device 100 by the flight instruction generation unit 232 (step S100). S105).

具体例については後に詳述するが、例えば、ステップS104で検出された操作の内容が、撮像装置101が撮像する画像の中央にユーザが指定した被写体を位置させるような操作であった場合は、飛行指示生成部232は、そのユーザが実行した操作を飛行装置100の飛行指示に変換する。   Although a specific example will be described in detail later, for example, when the content of the operation detected in step S104 is an operation for positioning the subject specified by the user in the center of the image captured by the imaging device 101, The flight instruction generation unit 232 converts an operation performed by the user into a flight instruction of the flying device 100.

上記ステップS105で、操作された内容を飛行装置100の飛行指示に変換すると、続いてコントローラ200は、上記ステップS105で得られた飛行指示を、飛行装置100へ無線通信により送信する(ステップS106)。飛行装置100は、コントローラ200から送信された飛行指示に基づいて、制御部110でモータ108a〜108dの回転を制御する。   When the operated content is converted into the flight instruction of the flying device 100 in step S105, the controller 200 subsequently transmits the flight instruction obtained in step S105 to the flying device 100 by wireless communication (step S106). . In the flying device 100, the control unit 110 controls the rotation of the motors 108 a to 108 d based on the flight instruction transmitted from the controller 200.

本開示の一実施形態に係る撮像システム10は、上述したようにコントローラ200が動作することで、コントローラ200の表示部210が表示する、撮像装置101が撮像している画像に対する操作に基づいた、飛行装置100の操縦を可能とする。すなわち、ユーザは飛行装置100そのものに対する操作ではなく、撮像装置101が撮像している画像に対する操作によって、飛行装置100の動作を制御することが出来る。   The imaging system 10 according to an embodiment of the present disclosure is based on an operation on an image captured by the imaging apparatus 101 displayed on the display unit 210 of the controller 200 by the operation of the controller 200 as described above. The flying device 100 can be operated. That is, the user can control the operation of the flying device 100 not by operating the flying device 100 itself but by operating the image captured by the imaging device 101.

ユーザは、表示部210に表示される、撮像装置101が撮像している画像を見て、所望の構図が得られていれば、コントローラ200を用いて撮像装置101に対して撮像指示を送出する。飛行装置100は、コントローラ200から送信された撮像指示に基づき、制御部110から撮像装置101へ撮像指示を送る。撮像装置101は、制御部110から送られた撮像指示に基づいて撮像処理を実行する。そして飛行装置100は、撮像装置101での撮像処理により得られた画像をコントローラ200へ送信する。   The user views an image captured by the imaging device 101 displayed on the display unit 210 and, if a desired composition is obtained, sends an imaging instruction to the imaging device 101 using the controller 200. . The flying device 100 sends an imaging instruction from the control unit 110 to the imaging device 101 based on the imaging instruction transmitted from the controller 200. The imaging apparatus 101 executes an imaging process based on the imaging instruction sent from the control unit 110. Then, the flying device 100 transmits an image obtained by the imaging process in the imaging device 101 to the controller 200.

以上、本開示の一実施形態に係る撮像システム10の動作例について説明した。次に、本開示の一実施形態に係る撮像システム10を構成するコントローラ200の表示部210に表示される情報の例を説明する。   The operation example of the imaging system 10 according to an embodiment of the present disclosure has been described above. Next, an example of information displayed on the display unit 210 of the controller 200 configuring the imaging system 10 according to an embodiment of the present disclosure will be described.

図14は、本開示の一実施形態に係るコントローラ200の表示部210に表示される情報の例を示す説明図である。以下、図14を用いてコントローラ200の表示部210に表示される情報の例について説明する。   FIG. 14 is an explanatory diagram illustrating an example of information displayed on the display unit 210 of the controller 200 according to an embodiment of the present disclosure. Hereinafter, an example of information displayed on the display unit 210 of the controller 200 will be described with reference to FIG.

図14には、撮像装置101が撮像している画像に重畳して、離着陸ボタンv11及び撮像ボタンv12が表示されている状態が示されている。離着陸ボタンv11は、飛行装置100を離陸または着陸させるためのボタンである。ユーザは離着陸ボタンv11に触ることで、飛行装置100を離陸または着陸させることができる。ロータ104a〜104dが回転していなければ、離着陸ボタンv11は飛行装置100を離陸させるためのボタンとして機能し、ロータ104a〜104dの少なくともいずれか一つが回転していれば、離着陸ボタンv11は飛行装置100を着陸させるためのボタンとして機能する。   FIG. 14 shows a state in which the takeoff / landing button v11 and the imaging button v12 are displayed so as to be superimposed on the image captured by the imaging device 101. The takeoff / landing button v11 is a button for taking off or landing the flying device 100. The user can take off or land the flying device 100 by touching the takeoff / landing button v11. If the rotors 104a to 104d are not rotating, the takeoff / landing button v11 functions as a button for taking off the flying device 100. If at least one of the rotors 104a to 104d is rotating, the takeoff / landing button v11 is the flying device. Functions as a button for landing 100.

撮像ボタンv12は、撮像装置101に撮像処理を実行させるためのボタンである。ユーザは撮像ボタンv12に触ることで撮像装置101に撮像処理を実行させて、撮像装置101に静止画像または動画像を撮像させることができる。   The imaging button v12 is a button for causing the imaging apparatus 101 to execute an imaging process. The user can cause the imaging device 101 to execute an imaging process by touching the imaging button v12 and cause the imaging device 101 to capture a still image or a moving image.

また図14には、撮像装置101が撮像している画像に重畳して、対象枠v13、目標位置v14及び移動矢印v15が表示されている状態が示されている。対象枠v13は、ユーザの操作により指定された領域を示す機能を有する。目標位置v14は、対象枠v13が示す領域の撮像画像中での目標位置を示す機能を有する。移動矢印v15は、対象枠v13が目標位置v14に達するまでの直線経路を示す機能を有する。   FIG. 14 shows a state in which the target frame v13, the target position v14, and the movement arrow v15 are displayed so as to be superimposed on the image captured by the imaging device 101. The target frame v13 has a function indicating an area designated by a user operation. The target position v14 has a function of indicating the target position in the captured image of the area indicated by the target frame v13. The movement arrow v15 has a function of indicating a straight path until the target frame v13 reaches the target position v14.

撮像装置101が撮像している画像に対して、対象枠v13で囲まれている領域が目標位置v14に達するような操作をユーザが行うと、飛行装置100は、対象枠v13で囲まれている領域が目標位置v14に達するように位置及び姿勢を制御する。また対象枠v13で囲まれている領域が目標位置v14に達するまでの間、コントローラ200は、移動矢印v15を表示部210に表示させることで、飛行装置100が位置及び姿勢を変更している最中であることをユーザに伝える。   When the user performs an operation on the image captured by the imaging device 101 such that the region surrounded by the target frame v13 reaches the target position v14, the flying device 100 is surrounded by the target frame v13. The position and orientation are controlled so that the region reaches the target position v14. In addition, until the area surrounded by the target frame v13 reaches the target position v14, the controller 200 displays the movement arrow v15 on the display unit 210, so that the flying device 100 changes the position and posture. Tell the user that it is inside.

表示部210への具体的な情報の表示例についてより詳細に説明する。まず、ユーザが指定した位置を画像の中央に据えたい場合の、表示部210への情報の表示例について説明する。   A display example of specific information on the display unit 210 will be described in more detail. First, an example of displaying information on the display unit 210 when the user-specified position is to be set at the center of the image will be described.

図15、16は、本開示の一実施形態に係るコントローラ200の表示部210に表示される情報の例を示す説明図である。図15、16に示したのは、ユーザが指定した位置を画像の中央に据えたい場合の、表示部210への情報の表示例である。以下、図15、16を用いてコントローラ200の表示部210に表示される情報の例について説明する。   15 and 16 are explanatory diagrams illustrating examples of information displayed on the display unit 210 of the controller 200 according to an embodiment of the present disclosure. FIGS. 15 and 16 show examples of displaying information on the display unit 210 when it is desired to place the position designated by the user in the center of the image. Hereinafter, an example of information displayed on the display unit 210 of the controller 200 will be described with reference to FIGS.

ユーザが指定した位置を画像の中央に据えたい場合は、コントローラ200は、例えば指定した位置を一度タップする操作をユーザに行わせる。図15は、ユーザが表示部210のある場所を一度タップする操作を実行した状態を図示している。ユーザが表示部210のある場所を一度タップすると、コントローラ200は、表示部210に対象枠v13及び目標位置v14を表示させる。この表示部210への表示処理は表示制御部234が実行する。   When it is desired to place the position designated by the user at the center of the image, the controller 200 causes the user to perform an operation of tapping the designated position once, for example. FIG. 15 illustrates a state in which the user has once performed an operation of tapping a place where the display unit 210 is present. When the user taps a place on the display unit 210 once, the controller 200 causes the display unit 210 to display the target frame v13 and the target position v14. The display control unit 234 executes display processing on the display unit 210.

ユーザが表示部210のある場所を一度タップし、飛行指示生成部232がそのタップを検出すると、飛行指示生成部232は、対象枠v13に囲まれた領域が目標位置v14に位置するように飛行装置100を飛行させる飛行指示を生成する。またユーザが表示部210のある場所を一度タップし、飛行指示生成部232がそのタップを検出すると、表示制御部234は、対象枠v13と目標位置v14とを繋ぐ移動矢印v15を表示部210に表示させる表示制御を実行する。   When the user taps once on a place on the display unit 210 and the flight instruction generation unit 232 detects the tap, the flight instruction generation unit 232 flies so that the region surrounded by the target frame v13 is located at the target position v14. A flight instruction for flying the device 100 is generated. When the user once taps a place on the display unit 210 and the flight instruction generation unit 232 detects the tap, the display control unit 234 displays a movement arrow v15 connecting the target frame v13 and the target position v14 on the display unit 210. Execute display control to display.

図16は、ユーザが表示部210のある場所を一度タップする操作を実行した後の状態を図示している。図16に示したように、ユーザが表示部210のある場所を一度タップする操作を実行すると、表示制御部234によって、対象枠v13と目標位置v14とを繋ぐ移動矢印v15が表示部210に表示される。この移動矢印v15は、対象枠v13が目標位置v14に到達するまで表示部210に表示される。   FIG. 16 illustrates a state after the user has performed an operation of tapping a place where the display unit 210 is once. As shown in FIG. 16, when the user performs an operation of tapping once on a place on the display unit 210, the display control unit 234 displays a movement arrow v <b> 15 connecting the target frame v <b> 13 and the target position v <b> 14 on the display unit 210. Is done. This movement arrow v15 is displayed on the display unit 210 until the target frame v13 reaches the target position v14.

図17及び図18は、ユーザがタップで指定した位置を画像の中央に据えたい場合の、表示部210への情報の表示例である。図17に示したように、ユーザが表示部210のある場所を一度タップすると、表示部210に対象枠v13、目標位置v14及び移動矢印v15が表示される。そして飛行装置100が所望の位置に達すると、図18に示したように、ユーザがタップで指定した位置が画像の中央に据えられるセンタリング処理が実行される。   FIGS. 17 and 18 are display examples of information on the display unit 210 when it is desired to place the position designated by the user with the tap in the center of the image. As shown in FIG. 17, once the user taps a certain place on the display unit 210, the target frame v <b> 13, the target position v <b> 14, and the movement arrow v <b> 15 are displayed on the display unit 210. Then, when the flying device 100 reaches a desired position, as shown in FIG. 18, a centering process is performed in which the position designated by the tap by the user is placed at the center of the image.

ユーザが指定した位置を画像の所望の位置に据えたい場合は、コントローラ200は、例えば指定した位置を表示部210の上でドラッグする操作をユーザに行わせる。図19は、ユーザが表示部210の上でドラッグする操作を実行した状態を示す説明図である。ユーザが表示部210のある場所に接触し、その場所を触ったまま表示部210の上を移動させるドラッグ操作を実行すると、コントローラ200は、表示部210に対象枠v13及び目標位置v14を表示させる。この表示部210への表示処理は表示制御部234が実行する。   When the position designated by the user is to be set at a desired position in the image, the controller 200 causes the user to perform an operation of dragging the designated position on the display unit 210, for example. FIG. 19 is an explanatory diagram illustrating a state where the user has performed an operation of dragging on the display unit 210. When the user touches a place on the display unit 210 and performs a drag operation to move the display unit 210 while touching the place, the controller 200 causes the display unit 210 to display the target frame v13 and the target position v14. . The display control unit 234 executes display processing on the display unit 210.

ユーザのドラッグ操作を飛行指示生成部232が検出すると、飛行指示生成部232は、対象枠v13に囲まれた領域が目標位置v14に位置するように、飛行装置100を飛行させる飛行指示を生成する。またユーザのドラッグ操作を飛行指示生成部232が検出すると、表示制御部234は、対象枠v13と目標位置v14とを繋ぐ移動矢印v15を表示部210に表示させる表示制御を実行する。   When the flight instruction generation unit 232 detects the user's drag operation, the flight instruction generation unit 232 generates a flight instruction for causing the flying device 100 to fly so that the region surrounded by the target frame v13 is located at the target position v14. . When the flight instruction generation unit 232 detects the user's drag operation, the display control unit 234 executes display control for causing the display unit 210 to display a movement arrow v15 that connects the target frame v13 and the target position v14.

図20は、ユーザが表示部210の上でドラッグ操作を実行した後の状態を示す説明図である。図20に示したように、ユーザが表示部210の上でドラッグ操作を実行すると、表示制御部234によって、対象枠v13と目標位置v14とを繋ぐ移動矢印v15が表示部210に表示される。この移動矢印v15は、対象枠v13が目標位置v14に到達するまで表示部210に表示される。   FIG. 20 is an explanatory diagram illustrating a state after the user performs a drag operation on the display unit 210. As illustrated in FIG. 20, when the user performs a drag operation on the display unit 210, the display control unit 234 displays a movement arrow v <b> 15 that connects the target frame v <b> 13 and the target position v <b> 14 on the display unit 210. This movement arrow v15 is displayed on the display unit 210 until the target frame v13 reaches the target position v14.

ユーザが画像の倍率を変更したい場合は、コントローラ200は、例えば表示部200に対して2本指で開いたりすぼめたりさせる動作、いわゆるピンチ操作をユーザに行わせる。図21は、ユーザが表示部210の上でピンチ操作を実行した状態を示す説明図である。ユーザが表示部210のある場所に2本の指で接触し、その場所を触ったまま表示部210の上で指を開いたりすぼめたりさせる動作、いわゆるピンチ操作を実行すると、コントローラ200は、表示部210に対象枠v13及び目標位置v14を表示させる。この表示部210への表示処理は表示制御部234が実行する。   When the user wants to change the magnification of the image, the controller 200 causes the user to perform, for example, a so-called pinch operation that opens or squeezes the display unit 200 with two fingers. FIG. 21 is an explanatory diagram showing a state where the user has performed a pinch operation on the display unit 210. When the user touches a place with the display unit 210 with two fingers and performs an operation to open or squeeze the finger on the display unit 210 while touching the place, a so-called pinch operation is performed, the controller 200 The target frame v13 and the target position v14 are displayed on the unit 210. The display control unit 234 executes display processing on the display unit 210.

ユーザが表示部210の上でピンチ操作を実行した場合は、表示制御部234は、2本の指の中点を中心とする対象枠v13を決定して表示部210に表示させる。そしてユーザが表示部210の上でピンチ操作を実行した場合は、表示制御部234は、ユーザの指が接触した位置から離れた位置までの移動量から目標位置v14を決定して表示部210に表示させる。   When the user performs a pinch operation on the display unit 210, the display control unit 234 determines the target frame v13 centered on the middle point of two fingers and causes the display unit 210 to display the frame. When the user performs a pinch operation on the display unit 210, the display control unit 234 determines the target position v14 from the amount of movement to a position away from the position where the user's finger contacts, and displays the target position v14 on the display unit 210. Display.

このように、撮像画像101が撮像しており、表示部210に表示されている画像に対するユーザの操作を検出したコントローラ200は、そのユーザの操作に対応する飛行指示を生成して飛行装置100に送信する。ここで、コントローラ200による飛行指示の生成についてより詳細に説明する。   As described above, the controller 200 that has detected the user operation on the image captured by the captured image 101 and displayed on the display unit 210 generates a flight instruction corresponding to the user operation and sends it to the flying device 100. Send. Here, generation of a flight instruction by the controller 200 will be described in more detail.

飛行装置100の飛行は、撮像装置101が撮像している画像がユーザの所望の状態になるように画像フィードバックを行うことで、コントローラ200から制御する。図22は、画像フィードバックによる飛行装置100の飛行の制御について示す説明図である。   The flight of the flying device 100 is controlled from the controller 200 by performing image feedback so that the image captured by the imaging device 101 is in a state desired by the user. FIG. 22 is an explanatory diagram showing control of the flight of the flying device 100 by image feedback.

飛行指示生成部232は、図22の左側のように、タッチパネルが備わった表示部210へユーザが指を付くと、その瞬間を検出し、そのユーザが指をついた位置を中心とする所定のサイズの領域を参照画像251として登録する。上述の、画面のタップ操作に伴うセンタリング処理時には、目標位置が画像中央になるので、飛行指示生成部232は、ユーザが指をついた位置から目標位置までの画像移動量を算出する。そして飛行指示生成部232は、算出した画像移動量に基づいて、飛行制御コマンドを算出し、飛行装置100に送信する。   As shown on the left side of FIG. 22, the flight instruction generation unit 232 detects a moment when the user puts a finger on the display unit 210 equipped with a touch panel, and a predetermined centering on the position where the user puts the finger. The size area is registered as the reference image 251. In the above-described centering process associated with the screen tap operation, the target position is the center of the image, so the flight instruction generation unit 232 calculates the amount of image movement from the position where the user places the finger to the target position. Then, the flight instruction generation unit 232 calculates a flight control command based on the calculated image movement amount and transmits it to the flying device 100.

次のフレームでは、飛行装置100の姿勢の変化により撮像装置101が撮像している画像も変化する。従って飛行指示生成部232は、図22の右上のように、前フレームでの参照画像251の位置の近傍を、テンプレートマッチング等によって画像探索し、参照画像251の領域に最も類似している領域の位置を求める。そして飛行指示生成部232は、この求めた領域の位置から目標位置までの移動量を算出して、再度飛行制御コマンドを算出し、飛行装置100に送信する。この処理は、参照画像251の領域(または参照画像251の領域に最も類似している領域)が目標位置に十分近付くまで繰り返される。   In the next frame, the image captured by the imaging device 101 also changes due to a change in the attitude of the flying device 100. Therefore, the flight instruction generation unit 232 searches for an image by template matching or the like in the vicinity of the position of the reference image 251 in the previous frame as shown in the upper right of FIG. Find the position. Then, the flight instruction generation unit 232 calculates the amount of movement from the obtained position of the region to the target position, calculates the flight control command again, and transmits it to the flying device 100. This process is repeated until the region of the reference image 251 (or the region most similar to the region of the reference image 251) is sufficiently close to the target position.

表示部210へのドラッグ操作時は、飛行指示生成部232は、ユーザが表示部2190に指をタッチした瞬間を検出し、ユーザが指をついた位置を中心とする所定のサイズの領域を参照画像251として登録する。そして飛行指示生成部232は、ユーザが表示部210から指を離すまで、最新の画像上でのユーザの指の位置を目標位置として更新し続ける。そしてユーザが表示部210から指を離すと、飛行指示生成部232は、ユーザが最後に指をついていた位置をそのまま目標位置として設定する。   During a drag operation on the display unit 210, the flight instruction generation unit 232 detects the moment when the user touches the display unit 2190 with a finger, and refers to an area of a predetermined size centered on the position where the user places the finger. Register as an image 251. The flight instruction generation unit 232 continues to update the position of the user's finger on the latest image as the target position until the user releases the finger from the display unit 210. When the user lifts his / her finger from the display unit 210, the flight instruction generating unit 232 sets the position where the user last put his finger as the target position as it is.

飛行指示生成部232は、参照画像251に最も類似した画像の探索を、探索範囲(スケール)を変えて実行し得る。飛行指示生成部232は、スケールを変えて画像の探索を実行することで、参照画像251の領域の大きさが変わっても、位置の制御同様に現在サイズから目標サイズに向かっての移動量を算出し、飛行制御コマンドに変換することができる。   The flight instruction generation unit 232 can search for an image most similar to the reference image 251 while changing the search range (scale). The flight instruction generation unit 232 executes an image search by changing the scale so that the amount of movement from the current size to the target size is controlled as in the position control even if the size of the area of the reference image 251 changes. Can be calculated and converted into flight control commands.

コントローラ200は、ユーザが表示部210へのタッチで指定した情報を基に飛行制御コマンドを生成し、飛行装置100の飛行状態を制御することが出来る。コントローラ200は、ユーザの操作に基づいて飛行装置100の飛行状態を制御している間に、ユーザが新たに表示部210の違う場所をタッチした場合には、即座に制御目標を入れ替えて飛行装置100の飛行状態を制御し得る。   The controller 200 can generate a flight control command based on information specified by the user by touching the display unit 210, and can control the flight state of the flying device 100. When the user newly touches a different place on the display unit 210 while the flight state of the flying device 100 is being controlled based on the user's operation, the controller 200 immediately changes the control target to change the flying device. 100 flight states can be controlled.

撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係について説明する。図23〜26は、撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。   A correspondence relationship between the user's operation on the image captured by the imaging device 101 and the movement of the flying device 100 will be described. 23 to 26 are explanatory diagrams illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100.

図23は、撮像装置101が撮像している画像に対し、ユーザが画像を左方向に移動させる操作を実行した場合の、ユーザの操作と飛行装置100の移動との対応関係を図示している。図23に示したように、撮像装置101が撮像している画像に対し、ユーザが画像を左方向に移動させる操作を実行すると、コントローラ200は、飛行装置100を右回りに水平に回転させるような飛行制御コマンドを生成し、飛行装置100に送信する。   FIG. 23 illustrates a correspondence relationship between the user's operation and the movement of the flying device 100 when the user performs an operation of moving the image leftward with respect to the image captured by the imaging device 101. . As shown in FIG. 23, when the user performs an operation of moving the image leftward on the image captured by the imaging device 101, the controller 200 causes the flying device 100 to rotate horizontally clockwise. A flight control command is generated and transmitted to the flying device 100.

飛行装置100は、右回りに水平に回転させるような飛行制御コマンドをコントローラ200から受信すると、ロータ104a〜104dの回転を制御して、図23に示すように右回りに水平に回転するように飛行する。このように右回りに水平に回転するよう飛行することで、飛行装置100は、ユーザが所望する構図で画像を撮像できる位置に位置及び姿勢を変化させることができる。   When the flight device 100 receives a flight control command that rotates horizontally in the clockwise direction from the controller 200, the flying device 100 controls the rotation of the rotors 104a to 104d so as to rotate horizontally in the clockwise direction as shown in FIG. To fly. Thus, by flying so as to rotate horizontally in the clockwise direction, the flying device 100 can change the position and posture to a position where an image can be taken with a composition desired by the user.

図24は、撮像装置101が撮像している画像に対し、ユーザが画像を下方向に移動させる操作を実行した場合の、ユーザの操作と飛行装置100の移動との対応関係を図示している。図24に示したように、撮像装置101が撮像している画像に対し、ユーザが画像を下方向に移動させる操作を実行すると、コントローラ200は、飛行装置100を上昇させるような飛行制御コマンドを生成し、飛行装置100に送信する。   FIG. 24 illustrates a correspondence relationship between the user's operation and the movement of the flying device 100 when the user performs an operation of moving the image downward on the image captured by the imaging device 101. . As illustrated in FIG. 24, when the user performs an operation of moving the image downward on the image captured by the imaging device 101, the controller 200 issues a flight control command that raises the flying device 100. Generate and transmit to the flying device 100.

飛行装置100は、上昇させるような飛行制御コマンドをコントローラ200から受信すると、ロータ104a〜104dの回転を制御して、図24に示すように、上昇するように飛行する。このように上昇するよう飛行することで、飛行装置100は、ユーザが所望する構図で画像を撮像できる位置に位置及び姿勢を変化させることができる。   When the flight device 100 receives a flight control command for raising the aircraft from the controller 200, the flying device 100 controls the rotation of the rotors 104a to 104d to fly as shown in FIG. By flying in such a manner, the flying device 100 can change the position and posture to a position where an image can be captured with a composition desired by the user.

図25は、撮像装置101が撮像している画像に対し、ユーザが画像を縮小させるピンチ操作を実行した場合の、ユーザの操作と飛行装置100の移動との対応関係を図示している。図25に示したように、撮像装置101が撮像している画像に対し、ユーザが画像を縮小させるピンチ操作を実行すると、コントローラ200は、飛行装置100を後退させるような飛行制御コマンドを生成し、飛行装置100に送信する。なおここでは、撮像装置101が備えられている側を飛行装置100の前方として説明している。   FIG. 25 illustrates a correspondence relationship between the user's operation and the movement of the flying device 100 when the user performs a pinch operation for reducing the image on the image captured by the imaging device 101. As illustrated in FIG. 25, when the user performs a pinch operation for reducing the image on the image captured by the imaging device 101, the controller 200 generates a flight control command that causes the flying device 100 to move backward. To the flying device 100. Here, the side on which the imaging device 101 is provided is described as the front of the flying device 100.

飛行装置100は、後退させるような飛行制御コマンドをコントローラ200から受信すると、ロータ104a〜104dの回転を制御して、図25に示すように、後退するように飛行する。このように後退するよう飛行することで、飛行装置100は、ユーザがピンチ操作によって所望する大きさで画像を撮像できる位置に位置及び姿勢を変化させることができる。   When the flight device 100 receives a flight control command for retreating from the controller 200, the flying device 100 controls the rotation of the rotors 104a to 104d to fly back as shown in FIG. By flying in such a backward direction, the flying device 100 can change the position and posture to a position where the user can capture an image with a desired size by a pinch operation.

図26は、撮像装置101が撮像している画像に対し、ユーザが画像を拡大させるピンチ操作を実行した場合の、ユーザの操作と飛行装置100の移動との対応関係を図示している。図26に示したように、撮像装置101が撮像している画像に対し、ユーザが画像を拡大させるピンチ操作を実行すると、コントローラ200は、飛行装置100を後退させるような飛行制御コマンドを生成し、飛行装置100に送信する。なおここでは、撮像装置101が備えられている側を飛行装置100の前方として説明している。   FIG. 26 illustrates a correspondence relationship between the user's operation and the movement of the flying device 100 when the user performs a pinch operation for enlarging the image captured by the imaging device 101. As illustrated in FIG. 26, when the user performs a pinch operation for enlarging an image captured by the imaging apparatus 101, the controller 200 generates a flight control command that causes the flying apparatus 100 to move backward. To the flying device 100. Here, the side on which the imaging device 101 is provided is described as the front of the flying device 100.

飛行装置100は、前進させるような飛行制御コマンドをコントローラ200から受信すると、ロータ104a〜104dの回転を制御して、図26に示すように、前進するように飛行する。このように前進するよう飛行することで、飛行装置100は、ユーザがピンチ操作によって所望する大きさで画像を撮像できる位置に位置及び姿勢を変化させることができる。   When the flight device 100 receives a flight control command for moving forward from the controller 200, the flying device 100 controls the rotation of the rotors 104a to 104d to fly forward as shown in FIG. By flying in this way, the flying device 100 can change the position and posture to a position where the user can capture an image with a desired size by a pinch operation.

このように、コントローラ200は、撮像装置101が撮像している画像に対するユーザの操作から、飛行装置100の飛行制御コマンドに変換して、飛行装置100に飛行制御コマンドを送信することができる。そして飛行装置100は、撮像装置101が撮像している画像に対するユーザの操作に応じて位置及び姿勢を変化させることが出来る。   As described above, the controller 200 can convert a user operation on an image captured by the imaging device 101 into a flight control command of the flying device 100 and transmit the flight control command to the flying device 100. The flying device 100 can change the position and orientation according to the user's operation on the image captured by the imaging device 101.

図12に示したように、飛行装置100は、センサ部130を備える。飛行装置100は、センサ部130を備えていることで、周囲の障害物を検出することが出来る。例えばセンサ部130として超音波センサが飛行装置100に備えられることで、飛行装置100は、飛行中に床や天井までの距離を推定できる。また例えばセンサ部130として画像センサが飛行装置100に備えられることで、飛行装置100は、撮像装置101を使った環境認識による周囲の壁までの距離等の推定が可能となる。   As shown in FIG. 12, the flying device 100 includes a sensor unit 130. The flying device 100 includes the sensor unit 130, so that it can detect surrounding obstacles. For example, by providing the flying device 100 with an ultrasonic sensor as the sensor unit 130, the flying device 100 can estimate the distance to the floor or ceiling during the flight. Further, for example, when the flying device 100 is provided with the image sensor as the sensor unit 130, the flying device 100 can estimate the distance to the surrounding wall and the like by environment recognition using the imaging device 101.

そして、撮像装置101が撮像している画像に対するユーザの操作により指定された構図となるように移動すると、飛行装置100の周囲の障害物に接触するような場合が考えられ得る。そのような場合には、コントローラ200は、飛行装置100からの情報提供により、移動限界を表示部210に表示してもよい。   And if it moves so that it may become the composition designated by the user's operation with respect to the image which the imaging device 101 imaged, the case where it touches the obstacle around the flying device 100 can be considered. In such a case, the controller 200 may display the movement limit on the display unit 210 by providing information from the flying device 100.

図27は、本開示の一実施形態に係る撮像システム10を構成する、コントローラ200の表示部210に表示される情報の例を示す説明図である。図27は、スライド操作の限界を示す限界範囲v17が表示部210に表示されている状態が示されている。この限界範囲v17は、この限界範囲v17の内側を指定してスライドさせると、飛行装置100が天井等の障害物に衝突してしまうことをユーザに知らせるためのものである。コントローラ200は、限界範囲v17を点滅表示させる等して、飛行装置100が天井等の障害物に衝突してしまうおそれがあることをユーザに知らせることができる。   FIG. 27 is an explanatory diagram illustrating an example of information displayed on the display unit 210 of the controller 200 included in the imaging system 10 according to an embodiment of the present disclosure. FIG. 27 shows a state where a limit range v <b> 17 indicating the limit of the slide operation is displayed on the display unit 210. This limit range v17 is for notifying the user that the flying device 100 will collide with an obstacle such as a ceiling if the inside of the limit range v17 is designated and slid. The controller 200 can notify the user that the flying device 100 may collide with an obstacle such as a ceiling by blinking the limit range v17.

またコントローラ200は、図27に示すように、移動矢印v15を通常とは違う色(例えば赤色)で点滅させるなどして、所望の構図変更が不可能であることをユーザに知らせるように表示部210の表示を制御しても良い。   Further, as shown in FIG. 27, the controller 200 causes the display unit to notify the user that the desired composition change is impossible, for example, by blinking the moving arrow v15 in a different color (for example, red). The display of 210 may be controlled.

飛行装置100に備えられる撮像装置101は、ズームレンズの移動を用いた光学ズーム、画像変換による電子ズーム、実際に被写体に接近したり離れたりすることによるズームを実行し得る。そのようなズーム機能を撮像装置101が備えている場合において、例えば図21に示すようにユーザのピンチ操作によって構図が指定されたときに、飛行装置100はどのズーム機能によるズームを行えばいいかの判断が困難になる。   The imaging device 101 provided in the flying device 100 can execute optical zoom using movement of a zoom lens, electronic zoom by image conversion, and zoom by actually approaching or moving away from a subject. When the imaging apparatus 101 includes such a zoom function, for example, as shown in FIG. 21, when a composition is designated by a user's pinch operation, which zoom function should the flying apparatus 100 perform zooming on? It becomes difficult to judge.

そこで飛行装置100は、通常は移動による衝突のリスク等を回避するために光学ズームを優先的に動作させ得る。しかし、光学ズームの場合はズーム範囲に限界が必ずあるので、飛行装置100は、まず撮像装置101のズームレンズを稼働させて、光学ズームだけではユーザが指定した構図にならない場合には、被写体に近付く、または被写体から遠ざかるように飛行し得る。   Therefore, the flying device 100 can normally operate the optical zoom with priority in order to avoid a risk of collision due to movement. However, since there is always a limit in the zoom range in the case of optical zoom, the flying device 100 first operates the zoom lens of the imaging device 101, and if the composition specified by the user cannot be achieved by optical zoom alone, You can fly closer or away from the subject.

また、図22に示したような飛行装置100の飛行制御時に、風などの影響で目標サイズからずれてしまう場合が考えられる。目標サイズからずれてしまった場合には、飛行装置100は、移動によって目標サイズの大きさのずれを補正するように飛行制御を行う。目標サイズの大きさのずれを補正するように飛行制御を行うことで、風などの要因で撮像装置101が撮像する位置がずれた場合に、ズームでの補正で元の位置からどんどんずれてしまうことを防ぐ。つまり、飛行装置100は、図21に示すように明示的に大きさの変更が指定されたときに光学ズームを用いてサイズの変更を行い、それ以外の制御時は移動によって位置の調整を行ってもよい。   In addition, there may be a case where the flight apparatus 100 deviates from the target size due to the influence of wind or the like during flight control of the flying device 100 as shown in FIG. In the case of deviation from the target size, the flying device 100 performs flight control so as to correct the deviation of the target size by movement. By performing flight control so as to correct the deviation of the target size, if the image pickup position of the image pickup apparatus 101 is shifted due to factors such as wind, the zoom correction makes a gradual shift from the original position. To prevent that. That is, as shown in FIG. 21, the flying device 100 changes the size using the optical zoom when the size change is explicitly specified, and adjusts the position by movement during other control. May be.

飛行装置100の飛行制御をより容易にするために、1つの方向でのみ飛行装置100を移動させるような飛行制御コマンドをコントローラ200で生成してもよい。例えば、上述の例では、ユーザに表示部210を一度タップさせると、コントローラ200は、そのタップした位置が撮像画像の中央に位置するように、画像フィードバックによって飛行装置100を飛行制御していた。   In order to make flight control of the flying device 100 easier, a flight control command that moves the flying device 100 in only one direction may be generated by the controller 200. For example, in the above-described example, when the user taps the display unit 210 once, the controller 200 controls the flight of the flying device 100 by image feedback so that the tapped position is located at the center of the captured image.

しかし、飛行装置100の飛行制御をより容易にするために以下の様な操作をユーザに提供しても良い。例えば、ユーザに表示部210を一度タップさせた後に、そのタップさせた位置からドラッグ操作をさせると、コントローラ200はヨー軸回転を飛行装置100にさせるような飛行制御を実行し得る。   However, in order to make the flight control of the flying device 100 easier, the following operation may be provided to the user. For example, when the user taps the display unit 210 once and then performs a drag operation from the tapped position, the controller 200 can execute flight control that causes the flying device 100 to rotate the yaw axis.

図28は、撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。図28は、ユーザに表示部210を一度タップさせた後に、そのタップさせた位置からドラッグ操作をさせた場合の例を示している。   FIG. 28 is an explanatory diagram illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100. FIG. 28 shows an example where the user taps the display unit 210 once and then performs a drag operation from the tapped position.

図28に示したように、撮像装置101およびタップした対象物のそれぞれの三次元位置をもとに、対象物中心を原点とし、撮像装置の光軸の向きをX軸、X軸に直交する2軸をY軸およびZ軸とする座標系が求まる。ユーザに表示部210を一度タップさせた後に、そのタップさせた位置からドラッグ操作をさせると、コントローラ200は、この座標系におけるZ軸を中心としたヨー軸回転を飛行装置100にさせるような飛行制御を実行し得る。これにより飛行装置100の操作がより容易になるとともに、このように飛行装置100を、対象物を中心に回りながら飛行させて、撮像装置101で画像を撮像することで、飛行装置100は、パノラマ撮像のような効果が得られる画像を撮像することが出来る。   As shown in FIG. 28, based on the three-dimensional positions of the imaging device 101 and the tapped target, the center of the target is the origin, and the direction of the optical axis of the imaging device is orthogonal to the X and X axes. A coordinate system having two axes as the Y axis and the Z axis is obtained. When the user taps the display unit 210 once and then performs a drag operation from the tapped position, the controller 200 causes the flying device 100 to rotate the yaw axis about the Z axis in this coordinate system. Control can be performed. As a result, the operation of the flying device 100 becomes easier, and the flying device 100 is caused to fly while rotating around the object in this manner, and the imaging device 101 captures an image. It is possible to capture an image that provides an effect similar to imaging.

また例えば、ユーザに表示部210を一度タップさせた後に、そのタップさせた位置からピンチ操作をさせると、コントローラ200は、被写体に対する前方向または後ろ方向への飛行を飛行装置100にさせるような飛行制御を実行し得る。   For example, when the user taps the display unit 210 once and then performs a pinch operation from the tapped position, the controller 200 causes the flying device 100 to fly forward or backward with respect to the subject. Control can be performed.

図29は、撮像装置101が撮像している画像に対するユーザの操作と、飛行装置100の移動との対応関係の例を示す説明図である。図29は、ユーザに表示部210を一度タップさせた後に、そのタップさせた位置からピンチ操作をさせた場合の例を示している。   FIG. 29 is an explanatory diagram illustrating an example of a correspondence relationship between a user operation on an image captured by the imaging device 101 and movement of the flying device 100. FIG. 29 shows an example in which the user taps the display unit 210 once and then performs a pinch operation from the tapped position.

図29に示したように、ユーザに表示部210を一度タップさせた後に、そのタップさせた位置からピンチ操作をさせると、コントローラ200は、X軸に沿った前方向または後ろ方向への飛行を飛行装置100にさせるような飛行制御を実行し得る。この時の座標系は図28と同様に、撮像装置101およびタップした対象物のそれぞれの三次元位置を基に決定される。このように飛行装置100を飛行させながら撮像装置101で画像を撮像することで、飛行装置100は、ユーザが所望する被写体の大きさで画像を撮像することが出来る。   As shown in FIG. 29, when the user taps the display unit 210 once and then performs a pinch operation from the tapped position, the controller 200 causes the flight in the forward or backward direction along the X axis. Flight control that causes the flying device 100 to perform may be executed. The coordinate system at this time is determined based on the three-dimensional positions of the imaging device 101 and the tapped target object, as in FIG. By capturing an image with the imaging device 101 while flying the flying device 100 in this manner, the flying device 100 can capture an image with the size of the subject desired by the user.

このように、本開示の一実施形態に係る撮像システム10は、ユーザに、飛行装置100そのものの操作ではなく、飛行装置100に備えられた撮像装置101が撮像する画像に対する操作を、コントローラ200で行わせる。コントローラ200は、撮像装置101が撮像する画像に対して行われた操作に基づいて、飛行装置100の飛行制御コマンドを生成し、生成した飛行制御コマンドで飛行装置100の飛行を制御する。   As described above, the imaging system 10 according to an embodiment of the present disclosure allows the user to operate the controller 200 with respect to an image captured by the imaging device 101 included in the flying device 100, instead of operating the flying device 100 itself. Let it be done. The controller 200 generates a flight control command for the flying device 100 based on an operation performed on an image captured by the imaging device 101, and controls the flight of the flying device 100 with the generated flight control command.

このように、飛行装置100に備えられた撮像装置101が撮像する画像に対する操作を、コントローラ200で行わせることで、ユーザは、飛行装置100の操縦に慣れていない場合であっても飛行装置100の操縦を楽しむことができる。そして、飛行装置100に備えられた撮像装置101によって画像を撮像することで、ユーザは手軽に空撮のような画像を撮像することができる。   As described above, by causing the controller 200 to perform an operation on an image captured by the imaging device 101 provided in the flying device 100, even when the user is not used to maneuvering the flying device 100, the flying device 100. You can enjoy the maneuvering. Then, by taking an image with the imaging device 101 provided in the flying device 100, the user can easily take an image like aerial photography.

本開示の一実施形態に係る撮像システム10は、ユーザに飛行装置100を飛躍的に容易に操縦させることができる。その一方で、飛行装置100を用いて撮像する場合は、ユーザがカメラを保持しているわけではないので、急に突風が吹くなどの思わぬ外乱により、飛行装置100をユーザの思い通りに制御できない状況が考えられる。飛行装置100がユーザの思い通りに制御出来ない状態になると、人や壁、天井等の環境に衝突するなどの危険性が生じる。   The imaging system 10 according to an embodiment of the present disclosure can allow a user to steer the flying device 100 remarkably easily. On the other hand, when taking an image using the flying device 100, the user does not hold the camera, so the flying device 100 cannot be controlled as the user desires due to an unexpected disturbance such as a sudden gust of wind. The situation is possible. When the flying device 100 is in a state that cannot be controlled as the user desires, there is a risk that the flying device 100 may collide with an environment such as a person, a wall, or a ceiling.

そのような状況の発生を考慮し、本開示の一実施形態に係る撮像システム10を構成する飛行装置100は、図12に示したように、アラート発生部140を備える。アラート発生部140は、予め設定された飛行範囲を超えて飛行装置100が飛行しようとする際に、制御部110の制御により、音や光等のアラートを発生させる。予め設定された飛行範囲を超えて飛行装置100が飛行しようとすると、アラート発生部140でアラートを発生させることで、飛行装置100は、自動的にユーザや周囲の人に注意を促すことができる。   Considering the occurrence of such a situation, the flying device 100 configuring the imaging system 10 according to an embodiment of the present disclosure includes an alert generation unit 140 as illustrated in FIG. 12. The alert generation unit 140 generates an alert such as sound or light under the control of the control unit 110 when the flying device 100 tries to fly beyond a preset flight range. When the flying device 100 tries to fly beyond the preset flight range, the flying device 100 can automatically alert the user and the surrounding people by generating an alert by the alert generator 140. .

図30は、飛行装置100が、初期位置20を中心とする所定の飛行範囲21の内側に位置している状態を示す説明図である。この状態から、急に突風が吹くなどの思わぬ外乱が発生すると、飛行装置100は飛行範囲21を超えて飛行する恐れがある。図31は、飛行装置100が、初期位置20を中心とする所定の飛行範囲21を超えて飛行しようとしている状態を示す説明図である。   FIG. 30 is an explanatory diagram showing a state in which the flying device 100 is located inside a predetermined flight range 21 with the initial position 20 as the center. From this state, if an unexpected disturbance such as a sudden gust of wind occurs, the flying device 100 may fly beyond the flight range 21. FIG. 31 is an explanatory diagram showing a state in which the flying device 100 is about to fly beyond a predetermined flight range 21 centered on the initial position 20.

ここで、予め設定された飛行範囲を超えたかどうかの判断は、例えば飛行装置100に備えられた位置情報取得部132が取得した位置情報と、コントローラ200に備えられた位置情報取得部240が取得した位置情報とを、制御部110が比較することで行われても良い。位置情報の比較により判断する場合は、飛行装置100とコントローラ200との間で定期的に位置情報の送受信が行われ得る。   Here, for example, whether or not the preset flight range is exceeded is determined by the position information acquired by the position information acquisition unit 132 included in the flying device 100 and the position information acquisition unit 240 included in the controller 200, for example. It may be performed by the control unit 110 comparing the positional information thus obtained. When determining by comparing the position information, the position information can be periodically transmitted and received between the flying device 100 and the controller 200.

アラート発生部140がアラートを発生させても、さらに所定の期間、ユーザが操作するコントローラ200から指示が送信されなければ、飛行装置100は、モータ108a〜108dの回転を制御することで、ロータ104a〜104dの回転を緩やかにしたり、回転を止めたりする等して、自動的に着陸し得る。アラート発生部140がアラートを発生させてからコントローラ200からの指示が送信されたかどうかの判断は、制御部110が実行し得る。図32は、アラート発生部140がアラートを発生させてもなおコントローラ200から指示が送信されなかった場合に、飛行装置100が自動的に着陸しようとしている状態を示す説明図である。   Even if the alert generation unit 140 generates an alert, if the instruction is not transmitted from the controller 200 operated by the user for a predetermined period, the flying device 100 controls the rotation of the motors 108a to 108d, thereby the rotor 104a. It is possible to land automatically by slowing the rotation of ~ 104d or stopping the rotation. The control unit 110 can determine whether an instruction from the controller 200 has been transmitted after the alert generation unit 140 generates an alert. FIG. 32 is an explanatory diagram showing a state in which the flying device 100 is about to land automatically when an instruction is not transmitted from the controller 200 even when the alert generation unit 140 generates an alert.

このように、ユーザの操縦ミスや、急に突風が吹くなどの思わぬ外乱により、飛行装置100をユーザの思い通りに制御できない状況が発生した場合であっても、飛行装置100は、予め設定された飛行範囲を超えそうな場合にアラートを発して周囲に注意を促すことができる。そして飛行装置100は、アラートを発してもなおコントローラ200からの指示が無ければ、人や環境への衝突を避けるために、自動的に着陸することが出来る。飛行装置100は、このように動作することで、人や環境への衝突の可能性を大きく軽減させることができる。   Thus, even when a situation in which the flying device 100 cannot be controlled as the user desires due to an unexpected disturbance such as a user's misoperation or a sudden gust of wind blows, the flying device 100 is set in advance. Alerts can be issued to alert the surroundings when the flight range is likely to be exceeded. The flying device 100 can automatically land to avoid a collision with a person or the environment if there is no instruction from the controller 200 even if an alert is issued. By operating in this way, the flying device 100 can greatly reduce the possibility of a collision with a person or the environment.

本開示の一実施形態に係る撮像システム10は、飛行装置100に撮像装置101が備えられていることで、ユーザの手から飛行装置100を飛び立たせ、撮像装置101でユーザを撮像してから、またユーザの元に自動的に飛行装置100が戻るという動作が実現可能である。以下において、そのような飛行装置100の動作について説明する。   In the imaging system 10 according to an embodiment of the present disclosure, the flying device 100 includes the imaging device 101, so that the flying device 100 is taken off from the user's hand and the user is imaged by the imaging device 101. Further, an operation in which the flying device 100 automatically returns to the user can be realized. Hereinafter, the operation of such a flying device 100 will be described.

図33は、本開示の一実施形態に係る撮像システム10における、飛行装置100が自動的にユーザの元からの離陸、撮像、ユーザの元への帰還を行う動作の概要を示す説明図である。図33に示したように、最初にユーザの手元にある飛行装置100は、例えばコントローラ200からの離陸指示に基づいて離陸を始めると、予め設定された構図でユーザの姿を撮像できる位置まで自動的に飛行する。そして飛行装置100は、設定された構図でユーザを撮像すると、ユーザの元まで自動的に帰還する。   FIG. 33 is an explanatory diagram illustrating an outline of an operation in which the flying device 100 automatically performs take-off from the user, imaging, and return to the user in the imaging system 10 according to an embodiment of the present disclosure. . As shown in FIG. 33, when the flying device 100 initially in the user's hand starts taking off based on a take-off instruction from the controller 200, for example, the flying device 100 automatically reaches a position where the user's figure can be imaged with a preset composition. To fly. When the flying device 100 captures an image of the user with the set composition, the flying device 100 automatically returns to the user.

本開示の一実施形態に係る撮像システム10は、このように飛行装置100を飛行させることで、例えば三脚が立てられないような場所であっても、三脚を立てて撮像した場合と同じような画像を飛行装置100で撮像することが出来る。   In the imaging system 10 according to an embodiment of the present disclosure, by flying the flying device 100 in this way, for example, even in a place where the tripod cannot be stood, the same image as when the tripod is stood up is used. An image can be captured by the flying device 100.

このような自動での飛行、撮像及び帰還を実現するための技術には様々なものがあるが、以下の説明では、画像認識により自動での飛行、撮像及び帰還を実現する技術について開示する。   There are various techniques for realizing such automatic flight, imaging, and feedback. In the following description, a technique for realizing automatic flight, imaging, and feedback by image recognition will be disclosed.

図34は、本開示の一実施形態に係る撮像システム10の動作例を示す流れ図である。図34に示したのは、画像認識により自動で飛行装置100の飛行、撮像及び帰還を実行する際の撮像システム10の動作例である。以下、図34を用いて本開示の一実施形態に係る撮像システム10の動作例について説明する。   FIG. 34 is a flowchart illustrating an operation example of the imaging system 10 according to an embodiment of the present disclosure. FIG. 34 shows an operation example of the imaging system 10 when the flying device 100 automatically performs flight, imaging, and feedback by image recognition. Hereinafter, an operation example of the imaging system 10 according to an embodiment of the present disclosure will be described with reference to FIG.

まず、ユーザは撮像システム10に、所望する構図を設定する(ステップS201)。撮像システム10は、ステップS201で設定された構図を記憶する(ステップS202)。構図の設定については様々な方法を用いることが可能であるが、一例を挙げれば以下の通りである。例えば撮像システム10は、表示部210をユーザにタッチさせて所望する顔の位置及び顔の大きさを指定させることで、ユーザに構図を設定させても良い。   First, the user sets a desired composition in the imaging system 10 (step S201). The imaging system 10 stores the composition set in step S201 (step S202). Various methods can be used to set the composition, but one example is as follows. For example, the imaging system 10 may cause the user to set the composition by causing the user to touch the display unit 210 to designate a desired face position and face size.

また撮像システム10は、ステップS201で設定された構図を、飛行装置100とコントローラ200のどちらで記憶させても良い。また、撮像システム10は、ステップS201で設定された構図を、飛行装置100とコントローラ200のどちらでもない別の装置、例えばインターネットに接続された外部のサーバ装置に記憶させても良い。   Further, the imaging system 10 may store the composition set in step S201 by either the flying device 100 or the controller 200. The imaging system 10 may store the composition set in step S201 in another device that is neither the flying device 100 nor the controller 200, for example, an external server device connected to the Internet.

ユーザは、所望の構図を撮像システム10に設定すると、続いて撮像対象の顔を、撮像装置101で撮像させることで撮像システム10に覚えさせる(ステップS203)。撮像システム10は、撮像装置101で撮像した顔の画像を用いて、顔を識別するための顔識別辞書を作成する(ステップS204)。   When the user sets a desired composition in the imaging system 10, the imaging system 10 is caused to memorize the imaging target face by causing the imaging device 101 to capture an image (step S203). The imaging system 10 creates a face identification dictionary for identifying a face using the face image captured by the imaging apparatus 101 (step S204).

撮像システム10は、顔識別辞書を飛行装置100とコントローラ200のどちらで作成させても良い。また、撮像システム10は、作成させた顔識別辞書を、飛行装置100とコントローラ200のどちらでもない別の装置、例えばインターネットに接続された外部のサーバ装置に保存させても良い。   The imaging system 10 may create the face identification dictionary by either the flying device 100 or the controller 200. Further, the imaging system 10 may store the created face identification dictionary in another device that is neither the flying device 100 nor the controller 200, for example, an external server device connected to the Internet.

ユーザは、撮像対象の顔を撮像システム10に覚えさせると、続いてコントローラ200を操作して飛行装置100を離陸させる(ステップS205)。離陸した飛行装置100は、撮像装置101で画像を撮像しながら飛行する。そして飛行装置100は、撮像装置101で撮像している画像における記憶した顔の位置及び大きさが、ユーザによって設定された構図になるように位置制御しながら飛行する(ステップS206)。   When the user causes the imaging system 10 to remember the face to be imaged, the user subsequently operates the controller 200 to take off the flying device 100 (step S205). The flying device 100 that has taken off flies while taking an image with the imaging device 101. Then, the flying device 100 flies while controlling the position so that the position and size of the stored face in the image captured by the imaging device 101 become the composition set by the user (step S206).

この上記ステップS206での位置制御は、例えば撮像装置101が撮像する画像に記憶した顔が含まれているかどうか、記憶した顔が含まれていれば、その顔の位置及び大きさとユーザに指定された位置及び大きさとの関係に応じて行われ得る。   The position control in step S206 is specified by, for example, whether or not the stored face is included in the image captured by the imaging apparatus 101, and if the stored face is included, the position and size of the face are specified by the user. Depending on the relationship between position and size.

飛行装置100は、撮像装置101で撮像している画像における記憶した顔の位置及び大きさが、ユーザによって設定された構図の通りになったと判断すると、撮像装置101で画像を撮像する(ステップS207)。   When the flying device 100 determines that the position and size of the stored face in the image captured by the image capturing device 101 are in the composition set by the user, the image capturing device 101 captures an image (step S207). ).

飛行装置100は、上記ステップS207で画像を撮像すると、ユーザの元に帰還するために、撮像装置101で撮像している画像における記憶した顔が近距離かつ正面になるように位置制御しながら飛行する(ステップS208)。このステップS208での位置制御は、ステップS206での位置制御と同じように行われ得る。   When the flying device 100 captures an image in step S207, the flying device 100 returns to the user and performs flight while controlling the position so that the stored face in the image captured by the imaging device 101 is close to the front. (Step S208). The position control in step S208 can be performed in the same manner as the position control in step S206.

飛行装置100がユーザの元に十分近づくと、ユーザは飛行装置100の下に手の平を差し出す(ステップS209)。飛行装置100は、センサ部130によってユーザの手の平が差し出されたことを検出すると、ロータ104a〜104dの回転を緩めていき、差し出されたユーザの手の平に着陸する(ステップS210)。   When the flying device 100 is sufficiently close to the user, the user presents a palm under the flying device 100 (step S209). When the flying device 100 detects that the palm of the user has been pushed out by the sensor unit 130, the flying device 100 relaxes the rotation of the rotors 104a to 104d and land on the palm of the pushed user (step S210).

本開示の一実施形態に係る撮像システム10は、このように飛行装置100及びコントローラ200が動作することで、自動での飛行装置100の飛行、撮像及び帰還を実現することが出来る。本開示の一実施形態に係る撮像システム10は、このように飛行装置100を飛行させることで、例えば三脚が立てられないような場所であっても、三脚を立てて撮像した場合と同じような画像を飛行装置100で撮像することが出来る効果を奏する。   The imaging system 10 according to an embodiment of the present disclosure can realize the flight, imaging, and return of the flying device 100 automatically by operating the flying device 100 and the controller 200 as described above. In the imaging system 10 according to an embodiment of the present disclosure, by flying the flying device 100 in this way, for example, even in a place where the tripod cannot be stood, the same image as when the tripod is stood up is used. There is an effect that an image can be captured by the flying device 100.

図35〜38は、画像認識による飛行装置100の位置及び姿勢の制御例を示す説明図である。図35は、撮像装置101で撮像している画像における記憶した顔の位置v21と、ユーザによって設定された顔の位置v22とがX軸に沿って離れている場合を示したものである。顔の位置v21の座標をXf、顔の位置v22の座標をXtとすると、飛行装置100の単位時間当たりの移動量Vθは、
Vθ=Kθ×(Xf−Xt)
で求められる。なおKθは係数である。
35 to 38 are explanatory diagrams illustrating an example of control of the position and orientation of the flying device 100 based on image recognition. FIG. 35 shows a case where the stored face position v21 in the image captured by the imaging apparatus 101 and the face position v22 set by the user are separated along the X axis. If the coordinate of the face position v21 is Xf and the coordinate of the face position v22 is Xt, the movement amount Vθ per unit time of the flying device 100 is
Vθ = Kθ × (Xf−Xt)
Is required. Kθ is a coefficient.

図36は、撮像装置101で撮像している画像における記憶した顔の位置v21と、ユーザによって設定された顔の位置v22とがY軸に沿って離れている場合を示したものである。顔の位置v21の座標をYf、顔の位置v22の座標をYtとすると、飛行装置100の単位時間当たりの移動量Vθは、
Vy=Ky×(Yf−Yt)
で求められる。なおKyは係数である。
FIG. 36 shows a case where the stored face position v21 in the image captured by the imaging apparatus 101 and the face position v22 set by the user are separated along the Y axis. When the coordinate of the face position v21 is Yf and the coordinate of the face position v22 is Yt, the movement amount Vθ per unit time of the flying device 100 is
Vy = Ky × (Yf−Yt)
Is required. Ky is a coefficient.

図37は、撮像装置101で撮像している画像における記憶した顔の位置v21での顔の向きが、ユーザによって設定された顔の向きと異なっている場合を示したものである。顔の位置v21での顔の向きをθf、ユーザによって設定された顔の向きをθtとすると、飛行装置100の単位時間当たりの移動量Vxは、
Vx=Kx×(θf−θt)
で求められる。なおKxは係数である。
FIG. 37 shows a case where the face orientation at the stored face position v21 in the image captured by the imaging apparatus 101 is different from the face orientation set by the user. Assuming that the face orientation at the face position v21 is θf and the face orientation set by the user is θt, the movement amount Vx of the flying device 100 per unit time is
Vx = Kx × (θf−θt)
Is required. Kx is a coefficient.

図38は、撮像装置101で撮像している画像における記憶した顔の位置v21での顔の大きさが、ユーザによって設定された顔の位置v22での顔の大きさと異なっている場合を示したものである。顔の位置v21での顔の向きをSyf、ユーザによって設定された顔の向きをSytとすると、飛行装置100の単位時間当たりの移動量Vzは、
Vz=Kz×(Syf−Syt)
で求められる。なおKzは係数である。
FIG. 38 shows a case where the face size at the stored face position v21 in the image captured by the image pickup apparatus 101 is different from the face size at the face position v22 set by the user. Is. If the face orientation at the face position v21 is Syf and the face orientation set by the user is Syt, the movement amount Vz per unit time of the flying device 100 is
Vz = Kz × (Syf-Syt)
Is required. Kz is a coefficient.

本開示の一実施形態に係る撮像システム10は、このように撮像装置101で撮像している画像を認識することで、飛行装置100の位置及び姿勢を制御することができる。   The imaging system 10 according to an embodiment of the present disclosure can control the position and orientation of the flying device 100 by recognizing the image captured by the imaging device 101 in this way.

上述の例では、画像認識によって自動での飛行装置100の帰還を実現していたが、本開示は係る例に限定されるものではない。例えば、飛行装置100の位置情報取得部132が取得した位置情報と、コントローラ200の位置情報取得部240が取得した位置情報とを比較して、コントローラ200の位置に近付くように飛行装置100が飛行制御を実行しても良い。位置情報の比較により判断して飛行装置100の帰還を実現する場合は、飛行装置100とコントローラ200との間で定期的に位置情報の送受信が行われ得る。   In the above-described example, the return of the flying device 100 is automatically performed by image recognition, but the present disclosure is not limited to such an example. For example, the position information acquired by the position information acquisition unit 132 of the flying device 100 and the position information acquired by the position information acquisition unit 240 of the controller 200 are compared, and the flying device 100 flies so as to approach the position of the controller 200. Control may be executed. When the return of the flying device 100 is realized based on the comparison of the position information, the position information can be periodically transmitted and received between the flying device 100 and the controller 200.

<2.まとめ>
以上説明したように本開示の一実施形態によれば、複数のロータを備えて飛行する飛行装置100を、簡便な操作で操縦することが可能なコントローラ200が提供される。コントローラ200は、飛行装置100に設けられる撮像装置101が撮像する画像を表示し、その画像に対するユーザからの操作を、飛行装置100の操縦のための命令に変換する。
<2. Summary>
As described above, according to an embodiment of the present disclosure, the controller 200 capable of maneuvering the flying device 100 that includes a plurality of rotors by a simple operation is provided. The controller 200 displays an image captured by the imaging device 101 provided in the flying device 100, and converts an operation on the image from a user into a command for operating the flying device 100.

本開示の一実施形態に係るコントローラ200は、撮像装置101が撮像する画像に対するユーザからの操作を、飛行装置100の操縦のための命令に変換して、飛行装置100に送信する。これにより、本開示の一実施形態に係るコントローラ200は、ユーザに対し、直感的な操作で飛行装置100を操縦させることを可能とする。   The controller 200 according to an embodiment of the present disclosure converts an operation from a user on an image captured by the imaging device 101 into a command for operating the flying device 100 and transmits the command to the flying device 100. Thereby, the controller 200 which concerns on one Embodiment of this indication enables a user to steer the flight apparatus 100 by intuitive operation.

上述の実施形態では、コントローラ200と飛行装置100とが一体化可能な撮像システム10を挙げて説明したが、本開示は係る例に限定されないことは言うまでもない。例えば、コントローラ200と飛行装置100とを一体化することができない場合であっても、例えばスマートフォンやタブレット型携帯端末等にコントローラ200の機能を担わせるようにしても良い。   In the above-described embodiment, the imaging system 10 in which the controller 200 and the flying device 100 can be integrated has been described, but it goes without saying that the present disclosure is not limited to such an example. For example, even if the controller 200 and the flying device 100 cannot be integrated, for example, the function of the controller 200 may be assigned to a smartphone, a tablet-type portable terminal, or the like.

本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   Each step in the processing executed by each device in the present specification does not necessarily have to be processed in time series in the order described as a sequence diagram or flowchart. For example, each step in the processing executed by each device may be processed in an order different from the order described as the flowchart, or may be processed in parallel.

また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアで構成することで、一連の処理をハードウェアで実現することもできる。   In addition, it is possible to create a computer program for causing hardware such as a CPU, ROM, and RAM incorporated in each device to exhibit functions equivalent to the configuration of each device described above. A storage medium storing the computer program can also be provided. Moreover, a series of processes can also be realized by hardware by configuring each functional block shown in the functional block diagram with hardware.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present disclosure belongs can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present disclosure.

例えば、上述した実施形態では、飛行装置100に設けられる撮像装置101が撮像する画像を表示し、その画像に対するユーザからの操作を、飛行装置100の操縦のための命令に変換していたが、本開示は係る例に限定されない。例えば、撮像装置101にパン機能やチルト機能が備わっている場合は、コントローラ200は、撮像装置101が撮像する画像に対するユーザからの操作を、撮像装置101のパン動作やチルト動作のための命令に変換して飛行装置100に送信しても良い。   For example, in the above-described embodiment, the image captured by the imaging device 101 provided in the flying device 100 is displayed, and the user's operation on the image is converted into a command for operating the flying device 100. The present disclosure is not limited to such examples. For example, when the imaging apparatus 101 has a pan function or a tilt function, the controller 200 uses a user's operation on an image captured by the imaging apparatus 101 as a command for a pan operation or a tilt operation of the imaging apparatus 101. It may be converted and transmitted to the flying device 100.

そしてコントローラ200は、撮像装置101が撮像する画像に対するユーザからの操作から生成する、飛行装置100の操縦のための命令及び撮像装置101のパン動作やチルト動作のための命令を組み合わせることで、ユーザが所望する画像が撮像できるように飛行装置100を制御しても良い。   Then, the controller 200 combines a command for maneuvering the flying device 100 and a command for panning or tilting the imaging device 101, which are generated from an operation by the user with respect to an image captured by the imaging device 101, so that the user The flying device 100 may be controlled so that a desired image can be captured.

なお、本技術は以下のような構成も取ることができる。
(1)
飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示する画像表示部と、
前記撮像装置が撮像し、前記画像表示部が表示している画像に対する操作の内容に基づき前記飛行体の飛行指示を生成する飛行指示生成部と、
を備える、制御装置。
(2)
前記飛行指示生成部は、前記撮像装置が撮像している画像を表示している前記画像表示部に対する操作の内容に基づき前記飛行体の飛行指示を生成する、前記(1)に記載の制御装置。
(3)
前記飛行指示生成部は、前記画像表示部に対する操作に応じた構図で前記撮像装置に撮像させるための前記飛行体の飛行指示を生成する、前記(2)に記載の制御装置。
(4)
前記飛行指示生成部は、前記画像表示部に対する操作により指定された所定の範囲が、前記撮像装置が撮像する画像の中央に位置するような前記飛行体の飛行指示を生成する、前記(3)に記載の制御装置。
(5)
前記飛行指示生成部は、前記画像表示部に対する操作により指定された所定の範囲が、前記撮像装置が撮像する画像におけるユーザの所望の位置に位置するような前記飛行体の飛行指示を生成する、前記(3)に記載の制御装置。
(6)
前記飛行指示生成部は、前記画像表示部に対する操作により指定された所定の範囲が、前記撮像装置が撮像する画像におけるユーザの所望の大きさとなるような前記飛行体の飛行指示を生成する、前記(3)に記載の制御装置。
(7)
前記画像表示部への表示を制御する表示制御部を更に備え、
前記表示制御部は、前記飛行体の位置が前記画像表示部に対する操作に応じた構図で前記撮像装置が撮像できるようになるまで移動中の経路を前記画像表示部に表示させる、前記(3)〜(6)のいずれかに記載の制御装置。
(8)
前記飛行指示生成部は、前記画像表示部に対する操作が前記画像を拡大させる操作であれば、前記飛行体を前進させる飛行指示を生成する、前記(3)に記載の制御装置。
(9)
前記画像を拡大させる操作は、前記画像表示部に対するピンチ操作である、前記(8)に記載の制御装置。
(10)
前記飛行指示生成部は、前記画像表示部に対する操作が前記画像を縮小させる操作であれば、前記飛行体を後退させる飛行指示を生成する、前記(3)に記載の制御装置。
(11)
前記画像を縮小させる操作は、前記画像表示部に対するピンチ操作である、前記(10)に記載の制御装置。
(12)
前記飛行指示生成部は、前記画像表示部に対する操作が前記画像をスライドさせる操作であれば、前記飛行体を水平方向に移動させる飛行指示を生成する、前記(3)に記載の制御装置。
(13)
前記飛行指示生成部は、前記画像表示部に対する操作が、指定された位置を画像の中心に据える操作であれば、前記撮像装置が撮像している画像の中心が該指定された位置となるよう前記飛行体を移動させる飛行指示を生成する、前記(3)に記載の制御装置。
(14)
前記指定された位置を画像の中心に据える操作は、前記画像表示部に対するタップ操作である、前記(13)に記載の制御装置。
(15)
前記画像表示部は、前記飛行指示生成部が生成した飛行指示に基づいて前記飛行体が移動している間、目標の位置に達するまで前記飛行体の経路を表示する、前記(1)に記載の制御装置。
(16)
前記画像表示部は、前記画像表示部に対する操作により前記飛行体が移動出来る限界範囲を前記画像に重畳して表示する、前記(1)に記載の制御装置。
(17)
飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示するステップと、
前記撮像装置が撮像し、前記表示するステップで表示されている画像に対して行われた操作の内容を前記飛行体の飛行指示とするステップと、
を備える、制御方法。
(18)
コンピュータに、
飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示するステップと、
前記撮像装置が撮像し、前記表示するステップで表示されている画像に対して行われた操作の内容を前記飛行体の飛行指示とするステップと、
を実行させる、コンピュータプログラム。
In addition, this technique can also take the following structures.
(1)
An image display unit that acquires and displays an image captured by the imaging device provided in the flying object from the flying object;
A flight instruction generation unit that generates a flight instruction of the flying object based on a content of an operation performed on an image captured by the imaging device and displayed by the image display unit;
A control device comprising:
(2)
The said flight instruction production | generation part produces | generates the flight instruction | indication of the said flying body based on the content of operation with respect to the said image display part which is displaying the image which the said imaging device is imaging, The control apparatus as described in said (1) .
(3)
The control device according to (2), wherein the flight instruction generation unit generates a flight instruction of the flying object for causing the imaging device to capture an image with a composition corresponding to an operation on the image display unit.
(4)
The flight instruction generation unit generates the flight instruction of the flying body such that a predetermined range designated by an operation on the image display unit is located at a center of an image captured by the imaging device (3) The control device described in 1.
(5)
The flight instruction generation unit generates a flight instruction of the flying body such that a predetermined range specified by an operation on the image display unit is located at a user's desired position in an image captured by the imaging device. The control device according to (3).
(6)
The flight instruction generation unit generates a flight instruction of the flying object such that a predetermined range specified by an operation on the image display unit is a user's desired size in an image captured by the imaging device, The control device according to (3).
(7)
A display control unit for controlling display on the image display unit;
The display control unit causes the image display unit to display a moving path until the position of the flying object can be captured by the imaging apparatus with a composition corresponding to an operation on the image display unit. The control apparatus in any one of-(6).
(8)
The said flight instruction production | generation part is a control apparatus as described in said (3) which produces | generates the flight instruction | command which advances the said flight body, if operation with respect to the said image display part is operation which expands the said image.
(9)
The control device according to (8), wherein the operation for enlarging the image is a pinch operation with respect to the image display unit.
(10)
The said flight instruction production | generation part is a control apparatus as described in said (3) which produces | generates the flight instruction | indication which reverses the said flight body, if operation with respect to the said image display part is operation which reduces the said image.
(11)
The control device according to (10), wherein the operation of reducing the image is a pinch operation with respect to the image display unit.
(12)
The said flight instruction production | generation part is a control apparatus as described in said (3) which produces | generates the flight instruction | indication which moves the said flight body to a horizontal direction, if operation with respect to the said image display part is operation which slides the said image.
(13)
If the operation on the image display unit is an operation for setting the designated position at the center of the image, the flight instruction generation unit causes the center of the image captured by the imaging device to be the designated position. The control device according to (3), wherein a flight instruction for moving the flying object is generated.
(14)
The control device according to (13), wherein the operation of setting the designated position at the center of the image is a tap operation on the image display unit.
(15)
The said image display part displays the path | route of the said flying body until it reaches a target position, while the said flying body is moving based on the flight instruction | indication which the said flight instruction | indication production | generation part produced | generated, Said (1). Control device.
(16)
The control device according to (1), wherein the image display unit superimposes and displays a limit range in which the flying object can move by an operation on the image display unit.
(17)
Acquiring and displaying an image captured by an imaging device included in the flying object from the flying object; and
The step of setting the contents of the operation performed on the image captured by the imaging device and displayed in the displaying step as a flight instruction of the flying object;
A control method comprising:
(18)
On the computer,
Acquiring and displaying an image captured by an imaging device included in the flying object from the flying object; and
The step of setting the contents of the operation performed on the image captured by the imaging device and displayed in the displaying step as a flight instruction of the flying object;
A computer program that executes

10 撮像システム
100 飛行装置
101 撮像装置
102a〜102d ロータカバー
103a〜103d バネ部
104a〜104d、106 ロータ
105 支柱
107 通気孔部
200 コントローラ
DESCRIPTION OF SYMBOLS 10 Imaging system 100 Flight apparatus 101 Imaging apparatus 102a-102d Rotor cover 103a-103d Spring part 104a-104d, 106 Rotor 105 Support | pillar 107 Vent part 200 Controller

Claims (18)

飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示する画像表示部と、
前記撮像装置が撮像し、前記画像表示部が表示している画像に対する操作の内容に基づき前記飛行体の飛行指示を生成する飛行指示生成部と、
を備える、制御装置。
An image display unit that acquires and displays an image captured by the imaging device provided in the flying object from the flying object;
A flight instruction generation unit that generates a flight instruction of the flying object based on a content of an operation performed on an image captured by the imaging device and displayed by the image display unit;
A control device comprising:
前記飛行指示生成部は、前記撮像装置が撮像している画像を表示している前記画像表示部に対する操作の内容に基づき前記飛行体の飛行指示を生成する、請求項1に記載の制御装置。   The control device according to claim 1, wherein the flight instruction generation unit generates a flight instruction of the flying object based on a content of an operation performed on the image display unit displaying an image captured by the imaging device. 前記飛行指示生成部は、前記画像表示部に対する操作に応じた構図で前記撮像装置に撮像させるための前記飛行体の飛行指示を生成する、請求項2に記載の制御装置。   The control device according to claim 2, wherein the flight instruction generation unit generates a flight instruction of the flying body for causing the imaging device to capture an image with a composition corresponding to an operation on the image display unit. 前記飛行指示生成部は、前記画像表示部に対する操作により指定された所定の範囲が、前記撮像装置が撮像する画像の中央に位置するような前記飛行体の飛行指示を生成する、請求項3に記載の制御装置。   The flight instruction generation unit generates a flight instruction of the flying object such that a predetermined range designated by an operation on the image display unit is located at a center of an image captured by the imaging device. The control device described. 前記飛行指示生成部は、前記画像表示部に対する操作により指定された所定の範囲が、前記撮像装置が撮像する画像におけるユーザの所望の位置に位置するような前記飛行体の飛行指示を生成する、請求項3に記載の制御装置。   The flight instruction generation unit generates a flight instruction of the flying body such that a predetermined range specified by an operation on the image display unit is located at a user's desired position in an image captured by the imaging device. The control device according to claim 3. 前記飛行指示生成部は、前記画像表示部に対する操作により指定された所定の範囲が、前記撮像装置が撮像する画像におけるユーザの所望の大きさとなるような前記飛行体の飛行指示を生成する、請求項3に記載の制御装置。   The flight instruction generation unit generates a flight instruction of the flying body such that a predetermined range specified by an operation on the image display unit is a user's desired size in an image captured by the imaging device. Item 4. The control device according to Item 3. 前記画像表示部への表示を制御する表示制御部を更に備え、
前記表示制御部は、前記飛行体の位置が前記画像表示部に対する操作に応じた構図で前記撮像装置が撮像できるようになるまで移動中の経路を前記画像表示部に表示させる、請求項3に記載の制御装置。
A display control unit for controlling display on the image display unit;
The display control unit causes the image display unit to display a moving path until the position of the flying object can be captured by the imaging apparatus with a composition corresponding to an operation on the image display unit. The control device described.
前記飛行指示生成部は、前記画像表示部に対する操作が前記画像を拡大させる操作であれば、前記飛行体を前進させる飛行指示を生成する、請求項3に記載の制御装置。   The control device according to claim 3, wherein the flight instruction generation unit generates a flight instruction for moving the flying object forward if the operation on the image display unit is an operation of enlarging the image. 前記画像を拡大させる操作は、前記画像表示部に対するピンチ操作である、請求項8に記載の制御装置。   The control device according to claim 8, wherein the operation for enlarging the image is a pinch operation with respect to the image display unit. 前記飛行指示生成部は、前記画像表示部に対する操作が前記画像を縮小させる操作であれば、前記飛行体を後退させる飛行指示を生成する、請求項3に記載の制御装置。   The control device according to claim 3, wherein the flight instruction generation unit generates a flight instruction for moving the flying object backward when the operation on the image display unit is an operation for reducing the image. 前記画像を縮小させる操作は、前記画像表示部に対するピンチ操作である、請求項10に記載の制御装置。   The control device according to claim 10, wherein the operation of reducing the image is a pinch operation with respect to the image display unit. 前記飛行指示生成部は、前記画像表示部に対する操作が前記画像をスライドさせる操作であれば、前記飛行体を水平方向に移動させる飛行指示を生成する、請求項3に記載の制御装置。   The control device according to claim 3, wherein the flight instruction generation unit generates a flight instruction for moving the flying object in a horizontal direction when the operation on the image display unit is an operation of sliding the image. 前記飛行指示生成部は、前記画像表示部に対する操作が、指定された位置を画像の中心に据える操作であれば、前記撮像装置が撮像している画像の中心が該指定された位置となるよう前記飛行体を移動させる飛行指示を生成する、請求項3に記載の制御装置。   If the operation on the image display unit is an operation for setting the designated position at the center of the image, the flight instruction generation unit causes the center of the image captured by the imaging device to be the designated position. The control device according to claim 3, wherein a flight instruction for moving the flying object is generated. 前記指定された位置を画像の中心に据える操作は、前記画像表示部に対するタップ操作である、請求項13に記載の制御装置。   The control device according to claim 13, wherein the operation of setting the designated position at the center of the image is a tap operation on the image display unit. 前記画像表示部は、前記飛行指示生成部が生成した飛行指示に基づいて前記飛行体が移動している間、目標の位置までの軌跡を表示する、請求項1に記載の制御装置。   The control device according to claim 1, wherein the image display unit displays a trajectory to a target position while the flying object is moving based on the flight instruction generated by the flight instruction generation unit. 前記画像表示部は、前記画像表示部に対する操作により前記飛行体が移動出来る限界範囲を前記画像に重畳して表示する、請求項1に記載の制御装置。   The control device according to claim 1, wherein the image display unit superimposes and displays a limit range in which the flying object can move by an operation on the image display unit. 飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示するステップと、
前記撮像装置が撮像し、前記表示するステップで表示されている画像に対して行われた操作の内容を前記飛行体の飛行指示とするステップと、
を備える、制御方法。
Acquiring and displaying an image captured by an imaging device included in the flying object from the flying object; and
The step of setting the contents of the operation performed on the image captured by the imaging device and displayed in the displaying step as a flight instruction of the flying object;
A control method comprising:
コンピュータに、
飛行体に備えられる撮像装置が撮像している画像を前記飛行体から取得して表示するステップと、
前記撮像装置が撮像し、前記表示するステップで表示されている画像に対して行われた操作の内容を前記飛行体の飛行指示とするステップと、
を実行させる、コンピュータプログラム。
On the computer,
Acquiring and displaying an image captured by an imaging device included in the flying object from the flying object; and
The step of setting the contents of the operation performed on the image captured by the imaging device and displayed in the displaying step as a flight instruction of the flying object;
A computer program that executes
JP2013088456A 2013-04-19 2013-04-19 Control device, control method, and computer program Pending JP2014212479A (en)

Priority Applications (15)

Application Number Priority Date Filing Date Title
JP2013088456A JP2014212479A (en) 2013-04-19 2013-04-19 Control device, control method, and computer program
US14/227,182 US9749540B2 (en) 2013-04-19 2014-03-27 Control device, control method, and computer program
CN201410145463.7A CN104111659B (en) 2013-04-19 2014-04-11 Control device, control method, and program
CN201811103606.2A CN109032188A (en) 2013-04-19 2014-04-11 Flight instruments and system
CN202210243951.6A CN114727012A (en) 2013-04-19 2014-04-11 Flight camera and method performed by flight camera
CN202210244008.7A CN114615432B (en) 2013-04-19 2014-04-11 Flying camera and system
CN202210244024.6A CN114615433A (en) 2013-04-19 2014-04-11 Flight camera and method performed by flight camera
CN202210243989.3A CN114727013A (en) 2013-04-19 2014-04-11 Flight camera and method performed by flight camera
US15/656,870 US10104297B2 (en) 2013-04-19 2017-07-21 Flying camera and a system
US16/118,173 US10469757B2 (en) 2013-04-19 2018-08-30 Flying camera and a system
US16/595,978 US10863096B2 (en) 2013-04-19 2019-10-08 Flying camera and a system
US16/596,058 US10602068B2 (en) 2013-04-19 2019-10-08 Flying camera and a system
US16/953,386 US11422560B2 (en) 2013-04-19 2020-11-20 Flying camera and a system
US17/865,398 US11953904B2 (en) 2013-04-19 2022-07-15 Flying camera and a system
US17/865,435 US20220350332A1 (en) 2013-04-19 2022-07-15 Flying camera and a system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013088456A JP2014212479A (en) 2013-04-19 2013-04-19 Control device, control method, and computer program

Publications (1)

Publication Number Publication Date
JP2014212479A true JP2014212479A (en) 2014-11-13

Family

ID=51708487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013088456A Pending JP2014212479A (en) 2013-04-19 2013-04-19 Control device, control method, and computer program

Country Status (3)

Country Link
US (8) US9749540B2 (en)
JP (1) JP2014212479A (en)
CN (6) CN114615432B (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101548726B1 (en) * 2015-03-11 2015-09-03 서현덕 Flight recording system
JP2016220005A (en) * 2015-05-19 2016-12-22 オリンパス株式会社 Imaging apparatus
JP2016225874A (en) * 2015-06-01 2016-12-28 日本電信電話株式会社 Display image zooming terminal, display image zooming method and display image zooming program
JP6114865B1 (en) * 2016-08-17 2017-04-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd MOBILE BODY, MOBILE BODY CONTROL METHOD, AND PROGRAM
JP2017112439A (en) * 2015-12-15 2017-06-22 キヤノン株式会社 Mobile imaging device and control method for mobile imaging device
JP2017112438A (en) * 2015-12-15 2017-06-22 キヤノン株式会社 Imaging system and control method therefor, communication device, mobile imaging device, program
JP2017139582A (en) * 2016-02-02 2017-08-10 キヤノン株式会社 Movement control system
JP2017149418A (en) * 2017-03-01 2017-08-31 カシオ計算機株式会社 Information collection device, and information collection method
JP6212663B1 (en) * 2016-05-31 2017-10-11 株式会社オプティム Unmanned aircraft flight control application and unmanned aircraft flight control method
WO2017183551A1 (en) * 2016-04-19 2017-10-26 株式会社プロドローン Unmanned aerial vehicle
WO2018020671A1 (en) * 2016-07-29 2018-02-01 株式会社ソニー・インタラクティブエンタテインメント Unmanned flying body and flight control method for unmanned flying body
US9918002B2 (en) 2015-06-02 2018-03-13 Lg Electronics Inc. Mobile terminal and controlling method thereof
JP2018098624A (en) * 2016-12-13 2018-06-21 キヤノンマーケティングジャパン株式会社 Unmanned aerial vehicle control system, control method of unmanned aerial vehicle control system, and program
JP2018107648A (en) * 2016-12-27 2018-07-05 キヤノンマーケティングジャパン株式会社 Information processing device, and control method and program thereof
JP2018125699A (en) * 2017-01-31 2018-08-09 キヤノンマーケティングジャパン株式会社 Information processing unit and control method and program of information processing unit
JP2018535487A (en) * 2015-09-15 2018-11-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd System and method for planning and controlling UAV paths
JP2019501074A (en) * 2015-12-25 2019-01-17 北京臻迪机器人有限公司 Aircraft outer shell and body and aircraft
JP2019115012A (en) * 2017-12-26 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing device, flight control instruction method, program, and recording medium
JP2019114036A (en) * 2017-12-22 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing apparatus, flight control instruction method, program, and recording medium
JP2020501969A (en) * 2016-12-26 2020-01-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Deformable device
JP2020506443A (en) * 2016-09-26 2020-02-27 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Drone control method, head mounted display glasses and system
JP2020120388A (en) * 2020-04-01 2020-08-06 キヤノン株式会社 Operating device, mobile device, and control system thereof
US10860040B2 (en) 2015-10-30 2020-12-08 SZ DJI Technology Co., Ltd. Systems and methods for UAV path planning and control
US11275389B2 (en) 2016-08-17 2022-03-15 SZ DJI Technology Co., Ltd. Systems and methods for operating unmanned aerial vehicles
JP7414316B2 (en) 2019-12-19 2024-01-16 みこらった株式会社 Aircraft and airborne vehicle programs

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
CN105807783A (en) * 2014-12-30 2016-07-27 览意科技(上海)有限公司 Flight camera
CN204998752U (en) * 2015-01-04 2016-01-27 北京零零无限科技有限公司 Folding unmanned aerial vehicle
US20160241767A1 (en) * 2015-02-13 2016-08-18 Lg Electronics Inc. Mobile terminal and method for controlling the same
NO339419B1 (en) * 2015-03-25 2016-12-12 FLIR Unmanned Aerial Systems AS Path-Based Flight Maneuvering System
KR102353231B1 (en) 2015-04-24 2022-01-20 삼성디스플레이 주식회사 Flying Display
CN104917966B (en) * 2015-05-28 2018-10-26 小米科技有限责任公司 Flight image pickup method and device
KR101589263B1 (en) * 2015-06-09 2016-01-28 한국항공우주연구원 Propeller unfolding type unmaned air vehicle
KR102364730B1 (en) * 2015-07-29 2022-02-18 엘지전자 주식회사 Mobile terminal and method of controlling the same
CN106468917B (en) * 2015-09-14 2019-06-14 北京理工大学 A kind of long-range presentation exchange method and system of tangible live real-time video image
US20170214856A1 (en) * 2016-01-22 2017-07-27 Mediatek Inc. Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device
WO2017147784A1 (en) 2016-03-01 2017-09-08 深圳市大疆创新科技有限公司 Flight control method and device, control terminal, flight system, and processor
CN106331508B (en) * 2016-10-19 2020-04-03 深圳市道通智能航空技术有限公司 Method and device for shooting composition
US10800521B1 (en) * 2016-11-28 2020-10-13 Amazon Technologies, Inc. Configurable aerial vehicles
CN113050669A (en) * 2017-04-07 2021-06-29 深圳市大疆创新科技有限公司 Control method, processing device, processor, aircraft and somatosensory system
FR3065544A1 (en) * 2017-04-19 2018-10-26 Parrot Drones METHOD FOR CONTROLLING A ROTARY SAILING DRONE, COMPUTER PROGRAM, ELECTRONIC APPARATUS AND DRONE THEREFOR
US20210371114A1 (en) * 2018-03-20 2021-12-02 Nippon Kayaku Kabushiki Kaisha Flying object operation device, malfunction prevention method for flying object operation device, flying object thrust generation device, parachute or paraglider deploying device, and airbag device
CN111343330A (en) * 2019-03-29 2020-06-26 阿里巴巴集团控股有限公司 Smart phone
CN110531789B (en) * 2019-09-25 2022-01-25 成都飞机工业(集团)有限责任公司 Fixed wing unmanned aerial vehicle ground guide control handheld device
CN111163252B (en) * 2020-01-07 2022-08-09 影石创新科技股份有限公司 Panoramic shooting device, panoramic shooting system, shooting method and aircraft
WO2022133906A1 (en) * 2020-12-24 2022-06-30 深圳市大疆创新科技有限公司 Control method, device, and system for movable platform, and readable storage medium

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP2001186513A (en) * 1999-12-24 2001-07-06 Mitsubishi Electric Corp Image pickup device
AU2002950271A0 (en) * 2002-07-19 2002-09-12 The Commonwealth Of Australia Optical stabilization system
WO2004032086A1 (en) * 2002-10-04 2004-04-15 Fujitsu Limited Robot system and autonomously traveling robot
SE0300910D0 (en) * 2003-03-31 2003-03-31 Kockums Ab Submarine system
JP4348468B2 (en) * 2004-01-21 2009-10-21 株式会社キャンパスクリエイト Image generation method
JP2006027448A (en) 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The Aerial photographing method and device using unmanned flying body
JP2006051864A (en) * 2004-08-10 2006-02-23 Seiko Epson Corp Automatic flight controlling system, and automatic flight controlling method
JP4974330B2 (en) * 2006-02-28 2012-07-11 株式会社日立製作所 Control device
US9070101B2 (en) * 2007-01-12 2015-06-30 Fatdoor, Inc. Peer-to-peer neighborhood delivery multi-copter and method
CN1953547A (en) * 2006-09-21 2007-04-25 上海大学 A low-altitude follow-up system and method aiming at the mobile ground object by unmanned aircraft
US8130087B2 (en) * 2006-09-28 2012-03-06 Sharp Kabushiki Kaisha Display control device, information display system for moving object, module for driver's seat and moving object
CN101072332A (en) * 2007-06-04 2007-11-14 深圳市融合视讯科技有限公司 Automatic mobile target tracking and shooting method
JP5088018B2 (en) * 2007-06-28 2012-12-05 富士ゼロックス株式会社 Image processing apparatus and control program
JP4935569B2 (en) * 2007-08-06 2012-05-23 株式会社ニコン Process execution program and process execution apparatus
IL185124A0 (en) * 2007-08-08 2008-11-03 Wave Group Ltd A generic omni directional imaging system & method for vision, orientation and maneuver of robots
JP5171434B2 (en) * 2007-09-13 2013-03-27 パナソニック株式会社 Imaging apparatus, imaging method, program, and integrated circuit
CN101201248B (en) * 2007-12-07 2010-07-21 中国科学院武汉岩土力学研究所 Aviation close range photography displacement measurement system based on unmanned aerial vehicle as well as measurement method thereof
US20090195401A1 (en) * 2008-01-31 2009-08-06 Andrew Maroney Apparatus and method for surveillance system using sensor arrays
JP5084542B2 (en) * 2008-02-08 2012-11-28 三菱電機株式会社 Automatic tracking imaging device, automatic tracking imaging method, and automatic tracking imaging program
JP4530067B2 (en) * 2008-03-27 2010-08-25 ソニー株式会社 Imaging apparatus, imaging method, and program
US8521339B2 (en) * 2008-09-09 2013-08-27 Aeryon Labs Inc. Method and system for directing unmanned vehicles
FR2938774A1 (en) * 2008-11-27 2010-05-28 Parrot DEVICE FOR CONTROLLING A DRONE
US20110298923A1 (en) * 2009-02-26 2011-12-08 Hisayuki Mukae Moving object image capture system, moving object, ground station apparatus, and moving object image capture method
CN101493699B (en) * 2009-03-04 2011-07-20 北京航空航天大学 Aerial unmanned plane ultra-viewing distance remote control method
CN101712379B (en) * 2009-07-14 2012-02-01 北京航空航天大学 Folding small-sized unmanned aerial vehicle
JP5384273B2 (en) * 2009-09-30 2014-01-08 富士フイルム株式会社 Camera and camera recording method
CN201625423U (en) * 2010-02-24 2010-11-10 广东飞轮科技实业有限公司 Toy helicopter with camera
FR2957266B1 (en) * 2010-03-11 2012-04-20 Parrot METHOD AND APPARATUS FOR REMOTE CONTROL OF A DRONE, IN PARTICULAR A ROTATING SAIL DRONE.
JP5057184B2 (en) * 2010-03-31 2012-10-24 アイシン・エィ・ダブリュ株式会社 Image processing system and vehicle control system
CN101807081A (en) * 2010-04-07 2010-08-18 南京航空航天大学 Autonomous navigation guidance method used for pilotless plane
US8660713B2 (en) * 2010-05-17 2014-02-25 Honeywell International Inc. Methods and systems for an improved in-trail procedures display
GB2494081B (en) * 2010-05-20 2015-11-11 Irobot Corp Mobile human interface robot
KR101083128B1 (en) * 2010-05-28 2011-11-11 한국항공우주산업 주식회사 Image based uav flight test system and method
US20120043411A1 (en) * 2010-06-01 2012-02-23 L2 Aerospace Unmanned aerial vehicle system
US8774982B2 (en) * 2010-08-26 2014-07-08 Leptron Industrial Robotic Helicopters, Inc. Helicopter with multi-rotors and wireless capability
JP5690539B2 (en) * 2010-09-28 2015-03-25 株式会社トプコン Automatic take-off and landing system
TW201215442A (en) * 2010-10-06 2012-04-16 Hon Hai Prec Ind Co Ltd Unmanned Aerial Vehicle control system and method
TWI442963B (en) * 2010-11-01 2014-07-01 Nintendo Co Ltd Controller device and information processing device
US20120143482A1 (en) * 2010-12-02 2012-06-07 Honeywell International Inc. Electronically file and fly unmanned aerial vehicle
US9987506B2 (en) * 2010-12-15 2018-06-05 Robert Marcus UAV—or personal flying device—delivered deployable descent device
CN102043964A (en) * 2010-12-30 2011-05-04 复旦大学 Tracking algorithm and tracking system for taking-off and landing of aircraft based on tripod head and camera head
US8918230B2 (en) * 2011-01-21 2014-12-23 Mitre Corporation Teleoperation of unmanned ground vehicle
TW201249713A (en) * 2011-06-02 2012-12-16 Hon Hai Prec Ind Co Ltd Unmanned aerial vehicle control system and method
CN102809969A (en) * 2011-06-03 2012-12-05 鸿富锦精密工业(深圳)有限公司 Unmanned aerial vehicle control system and method
GB2494414A (en) * 2011-09-06 2013-03-13 Land Rover Uk Ltd Terrain visualisation for vehicle using combined colour camera and time of flight (ToF) camera images for augmented display
CN102355574B (en) * 2011-10-17 2013-12-25 上海大学 Image stabilizing method of airborne tripod head moving target autonomous tracking system
KR101252080B1 (en) * 2011-11-16 2013-04-12 김영진 The apparatus and method of inspecting with flying robot of quad roter
KR101204720B1 (en) * 2012-06-14 2012-11-26 (주)아모스텍 The apparatus and method of wireless flapping flight with auto control flight and auto navigation flight
US20140008496A1 (en) * 2012-07-05 2014-01-09 Zhou Ye Using handheld device to control flying object
CN202758243U (en) * 2012-09-06 2013-02-27 北京工业大学 Unmanned aerial vehicle flight control system
RU2497063C2 (en) * 2012-10-15 2013-10-27 Дмитрий Геннадьевич Митрофанов Method to counteract drone activities
CN102955478B (en) * 2012-10-24 2016-01-20 深圳一电科技有限公司 UAV flight control method and system

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101548726B1 (en) * 2015-03-11 2015-09-03 서현덕 Flight recording system
JP2016220005A (en) * 2015-05-19 2016-12-22 オリンパス株式会社 Imaging apparatus
JP2016225874A (en) * 2015-06-01 2016-12-28 日本電信電話株式会社 Display image zooming terminal, display image zooming method and display image zooming program
US9918002B2 (en) 2015-06-02 2018-03-13 Lg Electronics Inc. Mobile terminal and controlling method thereof
US10284766B2 (en) 2015-06-02 2019-05-07 Lg Electronics Inc. Mobile terminal and controlling method thereof
JP2018535487A (en) * 2015-09-15 2018-11-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd System and method for planning and controlling UAV paths
US11635775B2 (en) 2015-09-15 2023-04-25 SZ DJI Technology Co., Ltd. Systems and methods for UAV interactive instructions and control
US10976753B2 (en) 2015-09-15 2021-04-13 SZ DJI Technology Co., Ltd. System and method for supporting smooth target following
US10928838B2 (en) 2015-09-15 2021-02-23 SZ DJI Technology Co., Ltd. Method and device of determining position of target, tracking device and tracking system
US10860040B2 (en) 2015-10-30 2020-12-08 SZ DJI Technology Co., Ltd. Systems and methods for UAV path planning and control
JP2017112438A (en) * 2015-12-15 2017-06-22 キヤノン株式会社 Imaging system and control method therefor, communication device, mobile imaging device, program
JP2017112439A (en) * 2015-12-15 2017-06-22 キヤノン株式会社 Mobile imaging device and control method for mobile imaging device
JP2019501074A (en) * 2015-12-25 2019-01-17 北京臻迪机器人有限公司 Aircraft outer shell and body and aircraft
JP2017139582A (en) * 2016-02-02 2017-08-10 キヤノン株式会社 Movement control system
US10647404B2 (en) 2016-04-19 2020-05-12 Prodrone Co., Ltd. Unmanned aerial vehicle
JPWO2017183551A1 (en) * 2016-04-19 2018-07-26 株式会社プロドローン Unmanned aerial vehicle
WO2017183551A1 (en) * 2016-04-19 2017-10-26 株式会社プロドローン Unmanned aerial vehicle
US10773785B2 (en) 2016-04-19 2020-09-15 Prodrone Co., Ltd. Unmanned aerial vehicle
US10510261B2 (en) 2016-05-31 2019-12-17 Optim Corporation Application and method for controlling flight of uninhabited airborne vehicle
JP6212663B1 (en) * 2016-05-31 2017-10-11 株式会社オプティム Unmanned aircraft flight control application and unmanned aircraft flight control method
WO2017208355A1 (en) * 2016-05-31 2017-12-07 株式会社オプティム Unmanned aircraft flight control application and unmanned aircraft flight control method
JPWO2018020671A1 (en) * 2016-07-29 2018-07-26 株式会社ソニー・インタラクティブエンタテインメント Unmanned air vehicle and flight control method for unmanned air vehicle
US11383834B2 (en) 2016-07-29 2022-07-12 Sony Interactive Entertainment Inc. Unmanned flying object and method of controlling unmanned flying object
WO2018020671A1 (en) * 2016-07-29 2018-02-01 株式会社ソニー・インタラクティブエンタテインメント Unmanned flying body and flight control method for unmanned flying body
JP2018027742A (en) * 2016-08-17 2018-02-22 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Movable body, control method of movable body, and program
US11275389B2 (en) 2016-08-17 2022-03-15 SZ DJI Technology Co., Ltd. Systems and methods for operating unmanned aerial vehicles
JP6114865B1 (en) * 2016-08-17 2017-04-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd MOBILE BODY, MOBILE BODY CONTROL METHOD, AND PROGRAM
JP2020506443A (en) * 2016-09-26 2020-02-27 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Drone control method, head mounted display glasses and system
JP2018098624A (en) * 2016-12-13 2018-06-21 キヤノンマーケティングジャパン株式会社 Unmanned aerial vehicle control system, control method of unmanned aerial vehicle control system, and program
JP2020501969A (en) * 2016-12-26 2020-01-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Deformable device
JP2018107648A (en) * 2016-12-27 2018-07-05 キヤノンマーケティングジャパン株式会社 Information processing device, and control method and program thereof
JP2018125699A (en) * 2017-01-31 2018-08-09 キヤノンマーケティングジャパン株式会社 Information processing unit and control method and program of information processing unit
JP2017149418A (en) * 2017-03-01 2017-08-31 カシオ計算機株式会社 Information collection device, and information collection method
JP2019114036A (en) * 2017-12-22 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing apparatus, flight control instruction method, program, and recording medium
JP2019115012A (en) * 2017-12-26 2019-07-11 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing device, flight control instruction method, program, and recording medium
JP7414316B2 (en) 2019-12-19 2024-01-16 みこらった株式会社 Aircraft and airborne vehicle programs
JP2020120388A (en) * 2020-04-01 2020-08-06 キヤノン株式会社 Operating device, mobile device, and control system thereof

Also Published As

Publication number Publication date
US10863096B2 (en) 2020-12-08
US20220350331A1 (en) 2022-11-03
CN114615433A (en) 2022-06-10
US11953904B2 (en) 2024-04-09
CN114727012A (en) 2022-07-08
US9749540B2 (en) 2017-08-29
CN109032188A (en) 2018-12-18
CN104111659A (en) 2014-10-22
US11422560B2 (en) 2022-08-23
CN104111659B (en) 2022-04-12
US10469757B2 (en) 2019-11-05
US10104297B2 (en) 2018-10-16
CN114615432B (en) 2024-04-26
US20140313332A1 (en) 2014-10-23
US20200045233A1 (en) 2020-02-06
US20210072752A1 (en) 2021-03-11
US20220350332A1 (en) 2022-11-03
US10602068B2 (en) 2020-03-24
US20190037141A1 (en) 2019-01-31
CN114727013A (en) 2022-07-08
CN114615432A (en) 2022-06-10
US20200036901A1 (en) 2020-01-30
US20170324907A1 (en) 2017-11-09

Similar Documents

Publication Publication Date Title
US11953904B2 (en) Flying camera and a system
US11914370B2 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
US11340606B2 (en) System and method for controller-free user drone interaction
CN108780325B (en) System and method for adjusting unmanned aerial vehicle trajectory
US20200346753A1 (en) Uav control method, device and uav
TWI634047B (en) Remote control method and terminal
US20140008496A1 (en) Using handheld device to control flying object
WO2021168819A1 (en) Return control method and device for unmanned aerial vehicle
CN108450032B (en) Flight control method and device
JP6560479B1 (en) Unmanned aircraft control system, unmanned aircraft control method, and program
WO2020042186A1 (en) Control method for movable platform, movable platform, terminal device and system
CN117651920A (en) Control method and device for movable platform, movable platform and storage medium