JP2018201119A - Mobile platform, flying object, support apparatus, portable terminal, method for assisting in photography, program, and recording medium - Google Patents

Mobile platform, flying object, support apparatus, portable terminal, method for assisting in photography, program, and recording medium Download PDF

Info

Publication number
JP2018201119A
JP2018201119A JP2017104737A JP2017104737A JP2018201119A JP 2018201119 A JP2018201119 A JP 2018201119A JP 2017104737 A JP2017104737 A JP 2017104737A JP 2017104737 A JP2017104737 A JP 2017104737A JP 2018201119 A JP2018201119 A JP 2018201119A
Authority
JP
Japan
Prior art keywords
information
image
composition
imaging
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017104737A
Other languages
Japanese (ja)
Other versions
JP6875196B2 (en
Inventor
杰旻 周
Jiemin Zhou
杰旻 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017104737A priority Critical patent/JP6875196B2/en
Priority to PCT/CN2017/108413 priority patent/WO2018214401A1/en
Priority to CN201780064135.6A priority patent/CN109863745A/en
Publication of JP2018201119A publication Critical patent/JP2018201119A/en
Application granted granted Critical
Publication of JP6875196B2 publication Critical patent/JP6875196B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Accessories Of Cameras (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To attractively photograph a desired image even where a user of a camera to photograph a photographic object is not familiar with photography.SOLUTION: A mobile platform for assisting in photography of a second image by means of a photographic apparatus includes: an acquisition section for acquiring a first image; an information acquisition section for acquiring information about a first photographic object of one or more photographic objects included in the first image, and acquiring information about a first composition of one or more compositions used for specifying positions of the one or more photographic objects, which include the first photographic object, in a second image; and a generation section for generating, according to the first composition, action information related to an action of the photographic apparatus used for photographing the second image.SELECTED DRAWING: Figure 3

Description

本開示は、画像の撮像を支援するモバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体に関する。   The present disclosure relates to a mobile platform, a flying object, a support device, a portable terminal, an imaging assistance method, a program, and a recording medium that support imaging of images.

従来、実証済みの撮像技術を用いてカメラショットを計算して、コンピュータ生成のストーリーを可視化し、イベントを再生し、カメラビューを動的に更新する仮想カメラシステムが知られている。この仮想カメラシステムは、所望の角度や距離で、最小限の閉塞によって、被写体を表示するためのカメラ配置位置を分析する。   Conventionally, virtual camera systems are known that calculate camera shots using proven imaging techniques to visualize computer-generated stories, play events, and dynamically update camera views. This virtual camera system analyzes a camera arrangement position for displaying a subject at a desired angle and distance and with minimum occlusion.

この仮想カメラシステムは、主に、3Dゲームカメラシステムに用いられ、任意の仮想3次元空間を表現する3次元画像データが予め用意されている。この仮想カメラシステムは、任意の構図となるように、仮想3次元空間における、特定の視点から見た領域を表現可能である。この仮想カメラシステムは、例えば、予め用意された仮想3次元画像データから、制約のある構図、1つの被写体を加味した3分割法を利用した構図、全体の要素を加味した3分割法を利用した構図、均等化された構図、に従って、3次元画像データの一部をディスプレイに表示できる(非特許文献1参照)。   This virtual camera system is mainly used for a 3D game camera system, and three-dimensional image data representing an arbitrary virtual three-dimensional space is prepared in advance. This virtual camera system can represent an area viewed from a specific viewpoint in a virtual three-dimensional space so as to have an arbitrary composition. This virtual camera system uses, for example, a limited composition, a composition using a three-division method that takes into account one subject, and a three-division method that takes into account the whole elements from virtual three-dimensional image data prepared in advance. A part of the three-dimensional image data can be displayed on the display according to the composition and the equalized composition (see Non-Patent Document 1).

William Bares, ”A Photographic Composition Assistant for Intelligent Virtual 3D Camera Systems ”, Millsaps College, Department of Computer Science, Jackson MS 39210, USA, インターネット<URL:http://link.springer.com/chapter/10.1007/11795018_16>William Bares, “A Photographic Composition Assistant for Intelligent Virtual 3D Camera Systems”, Millsaps College, Department of Computer Science, Jackson MS 39210, USA, Internet <URL: http://link.springer.com/chapter/10.1007/11795018_16>

非特許文献1に記載された仮想カメラシステムを、実空間で撮像された画像を扱うカメラシステムに適用すると、カメラシステムは、予め撮像された3次元画像データを基に、任意の構図となるように加工することになる。そのため、カメラシステムは、未だ撮像されていない画像の構図を決定することはできない。よって、例えば被写体を撮像するカメラのユーザが撮像に不慣れな場合、所望の画像を魅力的に撮像することが困難である。   When the virtual camera system described in Non-Patent Document 1 is applied to a camera system that handles images captured in real space, the camera system has an arbitrary composition based on pre-captured three-dimensional image data. Will be processed. For this reason, the camera system cannot determine the composition of an image that has not yet been captured. Therefore, for example, when a user of a camera that captures a subject is unaccustomed to imaging, it is difficult to attractively capture a desired image.

一態様において、モバイルプラットフォームは、撮像装置による第2の画像の撮像を補助するモバイルプラットフォームであって、第1の画像を取得する画像取得部と、第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得し、第2の画像における第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得する情報取得部と、第1の構図に従って第2の画像を撮像するための撮像装置の動作に関する動作情報を生成する生成部と、を備える。   In one aspect, the mobile platform is a mobile platform that assists imaging of the second image by the imaging device, and includes an image acquisition unit that acquires the first image, and one or more subjects included in the first image. Information of the first subject is acquired, and information of the first composition is acquired from one or more compositions that define the positions of one or more subjects including the first subject in the second image. And an information acquisition unit that generates operation information related to the operation of the imaging apparatus for capturing the second image according to the first composition.

情報取得部は、第1の画像に含まれる複数の被写体から第1の被写体を選択して取得してよい。   The information acquisition unit may select and acquire a first subject from a plurality of subjects included in the first image.

情報取得部は、第1の画像に含まれる被写体の色成分に基づいて、第1の被写体の情報を取得してよい。   The information acquisition unit may acquire information on the first subject based on the color component of the subject included in the first image.

情報取得部は、第1の画像に含まれる被写体の空間周波数に基づいて、第1の被写体の情報を取得してよい。   The information acquisition unit may acquire information on the first subject based on the spatial frequency of the subject included in the first image.

情報取得部は、撮像装置の位置情報を取得し、撮像装置の位置情報に基づいて、第1の被写体の情報を取得してよい。   The information acquisition unit may acquire position information of the imaging device and acquire information of the first subject based on the position information of the imaging device.

情報取得部は、撮像装置による第2の画像の撮像時の撮像モードに基づいて、第1の被写体の情報を取得してよい。   The information acquisition unit may acquire information on the first subject based on an imaging mode when the second image is captured by the imaging device.

情報取得部は、複数の構図から第1の構図を選択して取得してよい。   The information acquisition unit may select and acquire the first composition from a plurality of compositions.

モバイルプラットフォームは、第1の被写体の形状を認識する認識部、を更に備えてよい。情報取得部は、第1の被写体の形状に基づいて、第1の構図の情報を取得してよい。   The mobile platform may further include a recognition unit that recognizes the shape of the first subject. The information acquisition unit may acquire information of the first composition based on the shape of the first subject.

モバイルプラットフォームは、第2の画像が撮像される際のシーンを認識する認識部、を更に備えてよい。情報取得部は、シーンに基づいて、第1の構図の情報を取得してよい。   The mobile platform may further include a recognition unit that recognizes a scene when the second image is captured. The information acquisition unit may acquire information of the first composition based on the scene.

生成部は、動作情報として、撮像装置を回転可能に支持する支持部材の回転に関する回転情報を生成してよい。   The generation unit may generate rotation information regarding rotation of a support member that rotatably supports the imaging device as operation information.

生成部は、第1の画像における第1の被写体の位置と第1の構図における第1の被写体の位置とに基づいて、支持部材の回転量及び回転方向を決定してよい。   The generation unit may determine the rotation amount and the rotation direction of the support member based on the position of the first subject in the first image and the position of the first subject in the first composition.

生成部は、動作情報として、撮像装置の移動に関する移動情報を生成してよい。   The generation unit may generate movement information regarding movement of the imaging device as the operation information.

生成部は、第1の画像における第1の被写体のサイズと第1の構図における第1の被写体のサイズとに基づいて、重力方向に沿った撮像装置の移動量を決定してよい。   The generation unit may determine the amount of movement of the imaging device along the direction of gravity based on the size of the first subject in the first image and the size of the first subject in the first composition.

生成部は、第1の画像における第1の被写体の位置と、第1の構図における第1の被写体の位置と、第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、撮像装置の移動量及び移動方向を決定してよい。   The generation unit is based on a correspondence relationship between the position of the first subject in the first image, the position of the first subject in the first composition, and the movement distance in the first image and the movement distance in the real space. The moving amount and moving direction of the imaging device may be determined.

動作情報を提示する提示部、を更に備えてよい。   You may further provide the presentation part which shows operation | movement information.

第1の画像は、撮像装置により撮像された画像でよい。   The first image may be an image captured by the imaging device.

モバイルプラットフォームは、撮像装置及び撮像装置を回転可能に支持する支持部材を備える飛行体であり、動作情報に基づいて、飛行体の飛行又は支持部材の回転を制御する制御部、を更に備えてよい。   The mobile platform is a flying object including an imaging device and a support member that rotatably supports the imaging device, and may further include a control unit that controls flight of the flying object or rotation of the support member based on operation information. .

モバイルプラットフォームは、使用時にユーザに把持され、撮像装置を回転可能に支持する支持部材を備える支持装置であり、動作情報に基づいて、支持部材の回転を制御する制御部、を更に備えてよい。   The mobile platform is a support device that includes a support member that is gripped by a user during use and supports the imaging device in a rotatable manner, and may further include a control unit that controls rotation of the support member based on operation information.

モバイルプラットフォームは、携帯端末であり、動作情報を、飛行体又は支持装置へ送信する通信部、を更に備えてよい。   The mobile platform is a mobile terminal, and may further include a communication unit that transmits operation information to the flying object or the support device.

一態様において、飛行体は、撮像装置と、撮像装置を回転可能に支持する支持部材と、モバイルプラットフォームにより生成された動作情報を取得する動作情報取得部と、動作情報に基づいて、飛行体の飛行又は支持部材の回転を制御する制御部と、を備える。   In one aspect, the flying body includes an imaging device, a support member that rotatably supports the imaging device, a motion information acquisition unit that acquires motion information generated by the mobile platform, and a flying object based on the motion information. A control unit that controls the flight or rotation of the support member.

一態様において、支持装置は、撮像装置を回転可能に支持する支持部材と、モバイルプラットフォームにより生成された動作情報を取得する動作情報取得部と、動作情報に基づいて、支持部材の回転を制御する制御部と、を備える。   In one aspect, the support device controls the rotation of the support member based on the support member that rotatably supports the imaging device, the operation information acquisition unit that acquires the operation information generated by the mobile platform, and the operation information. A control unit.

一態様において、撮像補助方法は、撮像装置による第2の画像の撮像を補助するモバイルプラットフォームにおける撮像補助方法であって、第1の画像を取得するステップと、
第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、第2の画像における第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、第1の構図に従って第2の画像を撮像するための撮像装置の動作に関する動作情報を生成するステップと、を有する。
In one aspect, the imaging assistance method is an imaging assistance method in a mobile platform that assists imaging of the second image by the imaging device, and the step of acquiring the first image;
Of the one or more subjects included in the first image, the step of obtaining information on the first subject, and one that defines the position of the one or more subjects including the first subject in the second image Of the above compositions, the method has a step of acquiring information of the first composition and a step of generating operation information related to the operation of the imaging apparatus for capturing the second image in accordance with the first composition.

第1の被写体の情報を取得するステップは、第1の画像に含まれる複数の被写体から第1の被写体を選択して取得するステップを含んでよい。   The step of acquiring information about the first subject may include a step of selecting and acquiring the first subject from a plurality of subjects included in the first image.

第1の被写体の情報を取得するステップは、第1の画像に含まれる被写体の色成分に基づいて、第1の被写体の情報を取得するステップを含んでよい。   The step of acquiring information about the first subject may include a step of acquiring information about the first subject based on the color component of the subject included in the first image.

第1の被写体の情報を取得するステップは、第1の画像に含まれる被写体の空間周波数に基づいて、第1の被写体の情報を取得するステップを含んでよい。   The step of acquiring information about the first subject may include the step of acquiring information about the first subject based on the spatial frequency of the subject included in the first image.

撮像補助方法は、撮像装置の位置情報を取得するステップ、を更に含んでよい。第1の被写体の情報を取得するステップは、撮像装置の位置情報に基づいて、第1の被写体の情報を取得するステップを含んでよい。   The imaging assistance method may further include a step of acquiring position information of the imaging device. The step of acquiring information on the first subject may include a step of acquiring information on the first subject based on the position information of the imaging device.

第1の被写体の情報を取得するステップは、撮像装置による第2の画像の撮像時の撮像モードに基づいて、第1の被写体の情報を取得するステップを含んでよい。   The step of acquiring information about the first subject may include a step of acquiring information about the first subject based on an imaging mode when the second image is captured by the imaging device.

第1の構図の情報を取得するステップは、複数の構図から第1の構図を選択して取得するステップを含んでよい。   The step of acquiring information on the first composition may include a step of selecting and acquiring the first composition from a plurality of compositions.

撮像補助方法は、第1の被写体の形状を認識するステップ、を更に含んでよい。第1の構図の情報を取得するステップは、第1の被写体の形状に基づいて、第1の構図の情報を取得するステップを含んでよい。   The imaging assistance method may further include a step of recognizing the shape of the first subject. The step of acquiring information on the first composition may include the step of acquiring information on the first composition based on the shape of the first subject.

撮像補助方法は、第2の画像が撮像される際のシーンを認識するステップ、を更に含んでよい。第1の構図の情報を取得するステップは、シーンに基づいて、第1の構図の情報を取得するステップを含んでよい。   The imaging assistance method may further include a step of recognizing a scene when the second image is captured. The step of acquiring information on the first composition may include the step of acquiring information on the first composition based on the scene.

動作情報を生成するステップは、動作情報として、撮像装置を回転可能に支持する支持部材の回転に関する回転情報を生成するステップを含んでよい。   The step of generating the motion information may include a step of generating, as the motion information, rotation information related to rotation of a support member that rotatably supports the imaging device.

動作情報を生成するステップは、第1の画像における第1の被写体の位置と第1の構図における第1の被写体の位置とに基づいて、支持部材の回転量及び回転方向を決定するステップを含んでよい。   The step of generating the motion information includes a step of determining a rotation amount and a rotation direction of the support member based on the position of the first subject in the first image and the position of the first subject in the first composition. It's okay.

動作情報を生成するステップは、動作情報として、撮像装置の移動に関する移動情報を生成するステップを含んでよい。   The step of generating the operation information may include a step of generating movement information regarding movement of the imaging device as the operation information.

動作情報を生成するステップは、第1の画像における第1の被写体のサイズと第1の構図における第1の被写体のサイズとに基づいて、重力方向に沿った撮像装置の移動量を決定するステップを含んでよい。   The step of generating the motion information is a step of determining an amount of movement of the imaging device along the direction of gravity based on the size of the first subject in the first image and the size of the first subject in the first composition. May be included.

動作情報を生成するステップは、第1の画像における第1の被写体の位置と、第1の構図における第1の被写体の位置と、第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、撮像装置の移動量及び移動方向を決定するステップを含んでよい。   The step of generating the motion information includes the correspondence between the position of the first subject in the first image, the position of the first subject in the first composition, the movement distance in the first image, and the movement distance in real space. A step of determining a moving amount and a moving direction of the imaging device based on the relationship may be included.

撮像補助方法は、動作情報を提示部に提示するステップ、を更に含んでよい。   The imaging assistance method may further include a step of presenting operation information to the presentation unit.

第1の画像は、撮像装置により撮像された画像でよい。   The first image may be an image captured by the imaging device.

モバイルプラットフォームは、撮像装置及び撮像装置を回転可能に支持する支持部材を備える飛行体でよい。撮像補助方法は、動作情報に基づいて、飛行体の飛行又は支持部材の回転を制御するステップ、を更に含んでよい。   The mobile platform may be an aircraft including an imaging device and a support member that rotatably supports the imaging device. The imaging assistance method may further include the step of controlling the flight of the flying object or the rotation of the support member based on the operation information.

モバイルプラットフォームは、使用時にユーザに把持され、撮像装置を回転可能に支持する支持部材を備える支持装置でよい。撮像補助方法は、動作情報に基づいて、支持部材の回転を制御するステップ、を更に含んでよい。   The mobile platform may be a support device that includes a support member that is gripped by a user during use and supports the imaging device rotatably. The imaging assistance method may further include a step of controlling the rotation of the support member based on the operation information.

モバイルプラットフォームは、携帯端末でよい。撮像補助方法は、動作情報を、飛行体又は支持装置へ送信するステップ、を更に含んでよい。   The mobile platform may be a mobile terminal. The imaging assistance method may further include a step of transmitting the operation information to the flying object or the support device.

一態様において、プログラムは、撮像装置による第2の画像の撮像を補助するモバイルプラットフォームに、第1の画像を取得するステップと、第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、第2の画像における第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、第1の構図に従って第2の画像を撮像するための撮像装置の動作に関する動作情報を生成するステップと、を実行させるためのプログラムである。   In one aspect, the program acquires a first image to a mobile platform that assists in capturing the second image by the imaging device, and the first of the one or more subjects included in the first image. Obtaining information on the subject, and obtaining information on the first composition out of one or more compositions defining the position of the one or more subjects including the first subject in the second image; And a step of generating operation information relating to the operation of the imaging apparatus for capturing the second image in accordance with the first composition.

一態様において、記録媒体は、撮像装置による第2の画像の撮像を補助するモバイルプラットフォームに、第1の画像を取得するステップと、第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、第2の画像における第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、第1の構図に従って第2の画像を撮像するための撮像装置の動作に関する動作情報を生成するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。   In one aspect, the recording medium has a step of acquiring the first image in a mobile platform that assists the imaging of the second image by the imaging device, and the first of the one or more subjects included in the first image. A step of acquiring information on one subject, and a step of acquiring information on the first composition among one or more compositions defining the positions of one or more subjects including the first subject in the second image. And a step of generating operation information relating to the operation of the imaging apparatus for capturing the second image according to the first composition, and a computer-readable recording medium storing a program for executing the program.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   Note that the summary of the invention described above does not enumerate all the features of the present disclosure. In addition, a sub-combination of these feature groups can also be an invention.

第1の実施形態における撮像補助システムの構成例を示す模式図FIG. 2 is a schematic diagram illustrating a configuration example of an imaging assistance system in the first embodiment. 第1の実施形態における無人航空機のハードウェア構成の一例を示すブロック図The block diagram which shows an example of the hardware constitutions of the unmanned aircraft in 1st Embodiment 第1の実施形態におけるUAV制御部の機能構成の一例を示すブロック図The block diagram which shows an example of a function structure of the UAV control part in 1st Embodiment 第1の実施形態における携帯端末のハードウェア構成の一例を示すブロック図The block diagram which shows an example of the hardware constitutions of the portable terminal in 1st Embodiment 撮像補助システムの動作概要を説明するための図Diagram for explaining the operation outline of the imaging assist system ライブビュー画像の一例を示す図Diagram showing an example of a live view image 色によりライブビュー画像が区分された色区分画像の一例を示す図The figure which shows an example of the color division image in which the live view image was divided by the color 主被写体の選択例を示す図The figure which shows the example of selection of the main subject 構図の選択例を示す図A diagram showing an example of composition selection 決定された構図で空撮するための撮像範囲の回転例を示す図The figure which shows the example of rotation of the imaging range for aerial photography with the determined composition 決定された構図で空撮するための無人航空機の移動例を示す図Diagram showing an example of moving an unmanned aerial vehicle for aerial photography with a determined composition 水平方向から見た無人航空機の移動を説明するための図Illustration for explaining the movement of an unmanned aerial vehicle viewed from the horizontal direction 第1の実施形態における撮像補助システムの動作例を示すシーケンス図The sequence diagram which shows the operation example of the imaging assistance system in 1st Embodiment 第2の実施形態における撮像補助システムの構成例を示す模式図Schematic diagram showing a configuration example of an imaging assistance system in the second embodiment 第2の実施形態における無人航空機のハードウェア構成の一例を示すブロック図The block diagram which shows an example of the hardware constitutions of the unmanned aircraft in 2nd Embodiment 第2の実施形態におけるUAV制御部の機能構成の一例を示すブロック図The block diagram which shows an example of a function structure of the UAV control part in 2nd Embodiment 第2の実施形態における携帯端末のハードウェア構成の一例を示すブロック図The block diagram which shows an example of the hardware constitutions of the portable terminal in 2nd Embodiment 第2の実施形態における端末制御部の機能構成の一例を示すブロック図The block diagram which shows an example of a function structure of the terminal control part in 2nd Embodiment. 第2の実施形態における撮像補助システムの動作例を示すシーケンス図The sequence diagram which shows the operation example of the imaging assistance system in 2nd Embodiment 第3の実施形態におけるジンバル装置及び携帯端末を含む撮像補助システムの構成例を示す斜視図The perspective view which shows the structural example of the imaging assistance system containing the gimbal apparatus and portable terminal in 3rd Embodiment. 第4の実施形態におけるジンバル装置の構成例を示す正面斜視図Front perspective view showing a configuration example of a gimbal device in a fourth embodiment 第4の実施形態におけるジンバル装置及び携帯端末を含む撮像補助システムの構成例を示す背面斜視図The rear perspective view which shows the structural example of the imaging assistance system containing the gimbal apparatus and portable terminal in 4th Embodiment.

以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。   Hereinafter, although this indication is explained through an embodiment of the invention, the following embodiment does not limit the invention concerning a claim. Not all combinations of features described in the embodiments are essential for the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。   The claims, the description, the drawings, and the abstract include matters subject to copyright protection. The copyright owner will not object to any number of copies of these documents as they appear in the JPO file or record. However, in other cases, all copyrights are reserved.

以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を例示する。飛行体は、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」と表記する。また、モバイルプラットフォームとして、飛行体、携帯端末、ジンバル装置、ジンバルカメラ装置を例示する。なお、モバイルプラットフォームは、これら以外の装置でもよく、例えば送信機、PC(Personal Computer)、又はその他のモバイルプラットフォームでもよい。撮像補助方法は、モバイルプラットフォームにおける動作が規定されたものである。記録媒体は、プログラム(例えばモバイルプラットフォームに各種の処理を実行させるプログラム)が記録されたものである。   In the following embodiment, an unmanned aerial vehicle (UAV: Unmanned Aerial Vehicle) is illustrated as a flying object. The flying object includes an aircraft moving in the air. In the drawings attached to this specification, the unmanned aerial vehicle is represented as “UAV”. Examples of the mobile platform include a flying object, a portable terminal, a gimbal device, and a gimbal camera device. The mobile platform may be a device other than these, for example, a transmitter, a PC (Personal Computer), or another mobile platform. The imaging assisting method is a method in which operation on a mobile platform is defined. The recording medium stores a program (for example, a program that causes a mobile platform to execute various processes).

(第1の実施形態)
図1は、第1の実施形態における撮像補助システム10の構成例を示す模式図である。撮像補助システム10は、無人航空機100、送信機50及び携帯端末80を備える。無人航空機100、送信機50及び携帯端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。
(First embodiment)
FIG. 1 is a schematic diagram illustrating a configuration example of an imaging assistance system 10 according to the first embodiment. The imaging assistance system 10 includes an unmanned aircraft 100, a transmitter 50, and a portable terminal 80. The unmanned aircraft 100, the transmitter 50, and the portable terminal 80 can communicate with each other by wired communication or wireless communication (for example, a wireless local area network (LAN)).

無人航空機100は、送信機50による遠隔操作に従って飛行し、又は事前に設定された飛行経路に従って飛行してよい。無人航空機100は、空撮するための構図を決定し、決定された構図となるように無人航空機100の動作情報を生成する。無人航空機100は、動作情報に従って無人航空機100の動作を制御する。送信機50は、遠隔操作によって無人航空機100の飛行の制御を指示してよい。つまり、送信機50は、リモートコントローラとして動作してよい。携帯端末80は、送信機50とともに、無人航空機100を用いた空撮を予定しているユーザに所持され得る。携帯端末80は、無人航空機100による構図の決定を補助し、撮像を補助する。   The unmanned aerial vehicle 100 may fly according to a remote operation by the transmitter 50, or may fly according to a preset flight path. The unmanned aerial vehicle 100 determines a composition for aerial photography and generates operation information of the unmanned aerial vehicle 100 so that the determined composition is obtained. Unmanned aerial vehicle 100 controls the operation of unmanned aerial vehicle 100 according to the operation information. The transmitter 50 may instruct control of the flight of the unmanned aircraft 100 by remote control. That is, the transmitter 50 may operate as a remote controller. The portable terminal 80 can be carried by a user who plans to take an aerial photograph using the unmanned aircraft 100 together with the transmitter 50. The portable terminal 80 assists the determination of the composition by the unmanned aircraft 100 and assists in imaging.

図2は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。ジンバル200は、支持部材の一例である。撮像部220、撮像部230は、撮像装置の一例である。   FIG. 2 is a block diagram illustrating an example of a hardware configuration of the unmanned aerial vehicle 100. The unmanned aerial vehicle 100 includes a UAV control unit 110, a communication interface 150, a memory 160, a storage 170, a gimbal 200, a rotary wing mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, The configuration includes an inertial measurement unit (IMU) 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser measuring device 290. The gimbal 200 is an example of a support member. The imaging unit 220 and the imaging unit 230 are an example of an imaging device.

UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The UAV control unit 110 is configured using, for example, a central processing unit (CPU), a micro processing unit (MPU), or a digital signal processor (DSP). The UAV control unit 110 performs signal processing for overall control of operations of each unit of the unmanned aircraft 100, data input / output processing with respect to other units, data calculation processing, and data storage processing.

UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。例えば、UAV制御部110は、携帯端末80と連携して決定された構図を実現するよう、無人航空機100の飛行を制御してよい。UAV制御部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人航空機100の飛行を制御する。メモリ160は無人航空機100から取り外し可能であってもよい。   The UAV control unit 110 controls the flight of the unmanned aircraft 100 according to a program stored in the memory 160. For example, the UAV control unit 110 may control the flight of the unmanned aircraft 100 so as to realize the composition determined in cooperation with the mobile terminal 80. UAV control unit 110 controls the flight of unmanned aerial vehicle 100 in accordance with instructions received from remote transmitter 50 via communication interface 150. Memory 160 may be removable from unmanned aerial vehicle 100.

UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。   The UAV control unit 110 acquires position information indicating the position of the unmanned aircraft 100. The UAV control unit 110 may acquire position information indicating the latitude, longitude, and altitude at which the unmanned aircraft 100 exists from the GPS receiver 240. The UAV control unit 110 acquires, from the GPS receiver 240, latitude / longitude information indicating the latitude and longitude where the unmanned aircraft 100 exists, and altitude information indicating the altitude where the unmanned aircraft 100 exists from the barometric altimeter 270, as position information. Good.

UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得する。向き情報には、例えば無人航空機100の機首の向きに対応する方位が示される。   The UAV control unit 110 acquires orientation information indicating the orientation of the unmanned aircraft 100 from the magnetic compass 260. In the direction information, for example, a direction corresponding to the nose direction of the unmanned aircraft 100 is indicated.

UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得する。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得する。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得する。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得する。UAV制御部110は、無人航空機100の向きを示す情報を取得する。撮像部220の姿勢の状態を示す情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示す。UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得する。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。   The UAV control unit 110 acquires imaging range information indicating the imaging ranges of the imaging unit 220 and the imaging unit 230. The UAV control unit 110 acquires angle-of-view information indicating the angle of view of the imaging unit 220 and the imaging unit 230 from the imaging unit 220 and the imaging unit 230 as parameters for specifying the imaging range. The UAV control unit 110 acquires information indicating the imaging directions of the imaging unit 220 and the imaging unit 230 as a parameter for specifying the imaging range. The UAV control unit 110 acquires posture information indicating the posture state of the imaging unit 220 from the gimbal 200 as information indicating the imaging direction of the imaging unit 220, for example. The UAV control unit 110 acquires information indicating the direction of the unmanned aircraft 100. The information indicating the posture state of the imaging unit 220 indicates a rotation angle from the reference rotation angle of the pitch axis and yaw axis of the gimbal 200. The UAV control unit 110 acquires position information indicating a position where the unmanned aircraft 100 exists as a parameter for specifying the imaging range. The UAV control unit 110 defines an imaging range indicating a geographical range captured by the imaging unit 220 based on the angle of view and the imaging direction of the imaging unit 220 and the imaging unit 230, and the position where the unmanned aircraft 100 exists. Imaging range information may be acquired by generating imaging range information.

UAV制御部110は、ジンバル200、回転翼機構210、撮像部220、及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御する。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御する。   The UAV control unit 110 controls the gimbal 200, the rotary blade mechanism 210, the imaging unit 220, and the imaging unit 230. The UAV control unit 110 controls the imaging range of the imaging unit 220 by changing the imaging direction or angle of view of the imaging unit 220. The UAV control unit 110 controls the imaging range of the imaging unit 220 supported by the gimbal 200 by controlling the rotation mechanism of the gimbal 200.

撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定される。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義される。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向である。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向である。   The imaging range refers to a geographical range captured by the imaging unit 220 or the imaging unit 230. The imaging range is defined by latitude, longitude, and altitude. The imaging range may be a range in three-dimensional spatial data defined by latitude, longitude, and altitude. The imaging range is specified based on the angle of view and imaging direction of the imaging unit 220 or the imaging unit 230 and the position where the unmanned aircraft 100 is present. The imaging direction of the imaging unit 220 and the imaging unit 230 is defined from the azimuth and the depression angle in which the front surface where the imaging lenses of the imaging unit 220 and the imaging unit 230 are provided is directed. The imaging direction of the imaging unit 220 is a direction specified from the heading direction of the unmanned aerial vehicle 100 and the attitude state of the imaging unit 220 with respect to the gimbal 200. The imaging direction of the imaging unit 230 is a direction specified from the nose direction of the unmanned aircraft 100 and the position where the imaging unit 230 is provided.

UAV制御部110は、撮像部220又は撮像部230により撮像された撮像画像(空撮画像)に対して、この空撮画像に関する情報を付加情報(メタデータの一例)として付加してよい。付加情報は、空撮時の無人航空機100の飛行に関する情報(飛行情報)と空撮時の撮像部220又は撮像部230による撮像に関する情報(撮像情報)とを含む。飛行情報は、空撮位置情報、空撮経路情報、及び空撮時刻情報のうち少なくとも1つを含んでよい。撮像情報は、空撮画角情報、空撮方向情報、空撮姿勢情報、撮像範囲情報、及び被写体距離情報のうち少なくとも1つを含んでよい。   The UAV control unit 110 may add information about the aerial image as additional information (an example of metadata) to the captured image (aerial image) captured by the imaging unit 220 or the imaging unit 230. The additional information includes information (flight information) related to the flight of the unmanned aircraft 100 at the time of aerial photography and information (imaging information) related to imaging by the imaging unit 220 or the imaging unit 230 at the time of aerial photography. The flight information may include at least one of aerial shooting position information, aerial shooting route information, and aerial shooting time information. The imaging information may include at least one of aerial view angle information, aerial shooting direction information, aerial shooting posture information, imaging range information, and subject distance information.

空撮位置情報は、空撮画像が空撮された位置(空撮位置)を示す。空撮位置情報は、GPS受信機240により取得された位置情報に基づいてよい。空撮経路情報は、空撮画像が空撮された経路(空撮経路)を示す。空撮経路情報は、空撮位置が連続的に連なる空撮位置の集合により構成されてよい。空撮時刻情報は、空撮画像が空撮された時刻(空撮時刻)を示す。空撮時刻情報は、UAV制御部110が参照するタイマの時刻情報に基づいてよい。   The aerial shooting position information indicates a position (aerial shooting position) where the aerial image is taken aerial. The aerial shooting position information may be based on the position information acquired by the GPS receiver 240. The aerial shooting route information indicates a route (aerial shooting route) where the aerial image is taken aerial. The aerial shooting route information may be configured by a set of aerial shooting positions in which the aerial shooting positions are continuously connected. The aerial shooting time information indicates the time (aerial shooting time) when the aerial image was taken aerial. The aerial shooting time information may be based on timer time information referred to by the UAV control unit 110.

空撮画角情報は、空撮画像が空撮された際の撮像部220又は撮像部230の画角情報を示す。空撮方向情報は、空撮画像が空撮された際の撮像部220又は撮像部230の撮像方向(空撮方向)を示す。空撮姿勢情報は、空撮画像が空撮された際の撮像部220又は撮像部230の姿勢情報を示す。撮像範囲情報は、空撮画像が空撮された際の撮像部220又は撮像部230の撮像範囲を示す。被写体距離情報は、撮像部220又は撮像部230から被写体までの距離の情報を示す。被写体距離情報は、超音波センサ280又はレーザー測定器290による検出情報に基づいてよい。被写体距離情報は、同じ被写体を含む画像が複数枚撮像され、これらの画像がステレオ画像として利用され、被写体までの距離が算出されてもよい。また、撮像情報は、空撮時の無人航空機100の向きの情報を含んでもよい。   The aerial view angle information indicates the view angle information of the imaging unit 220 or the imaging unit 230 when the aerial image is taken aerial. The aerial shooting direction information indicates the imaging direction (aerial shooting direction) of the imaging unit 220 or the imaging unit 230 when the aerial image is aerial. The aerial shooting posture information indicates posture information of the imaging unit 220 or the imaging unit 230 when the aerial image is taken aerial. The imaging range information indicates the imaging range of the imaging unit 220 or the imaging unit 230 when the aerial image is aerial. The subject distance information indicates information on the distance from the imaging unit 220 or the imaging unit 230 to the subject. The subject distance information may be based on information detected by the ultrasonic sensor 280 or the laser measuring device 290. As the subject distance information, a plurality of images including the same subject may be captured, and these images may be used as a stereo image to calculate the distance to the subject. Further, the imaging information may include information on the orientation of the unmanned aircraft 100 during aerial photography.

通信インタフェース150は、送信機50及び携帯端末80と通信する。通信インタフェース150は、空撮画像を携帯端末80へ送信してよい。通信インタフェース150は、空撮画像とともに、その付加情報の少なくとも一部を携帯端末80へ送信してよい。   The communication interface 150 communicates with the transmitter 50 and the portable terminal 80. The communication interface 150 may transmit the aerial image to the portable terminal 80. The communication interface 150 may transmit at least a part of the additional information to the portable terminal 80 together with the aerial image.

通信インタフェース150は、撮像部220又は撮像部230により撮像予定の空撮画像の構図を決定するための情報を受信してよい。撮像予定の空撮画像の構図を決定するための情報は、例えば、空撮画像(ライブビュー画像)における主被写体を選択するための選択情報、構図を選択するための選択情報、を含んでよい。通信インタフェース150は、撮像部220又は撮像部230により撮像された空撮画像(例えばライブビュー画像などの空撮動画、空撮静止画)を、携帯端末80へ送信してよい。通信インタフェース150は、携帯端末80との間で直接通信してもよいし、送信機50を介して携帯端末80との間で通信してもよい。   The communication interface 150 may receive information for determining the composition of the aerial image scheduled to be captured by the imaging unit 220 or the imaging unit 230. The information for determining the composition of the aerial image to be captured may include, for example, selection information for selecting the main subject in the aerial image (live view image) and selection information for selecting the composition. . The communication interface 150 may transmit an aerial image (for example, an aerial moving image such as a live view image or an aerial still image) captured by the imaging unit 220 or the imaging unit 230 to the mobile terminal 80. The communication interface 150 may communicate directly with the portable terminal 80 or may communicate with the portable terminal 80 via the transmitter 50.

メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。   The memory 160 includes a gimbal 200, a rotating blade mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, an inertial measurement device 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser. A program and the like necessary for controlling the measuring device 290 are stored. The memory 160 may be a computer-readable recording medium, such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one flash memory such as a USB (Universal Serial Bus) memory.

メモリ160は、通信インタフェース150を介して取得された各種情報、各種データを保持する。メモリ160は、画像を撮像するための様々な構図のサンプル情報を格納してよい。構図のサンプル情報は、テーブル形式で格納されてよい。メモリ160は、UAV制御部110により決定された構図の情報を保持してよい。メモリ160は、決定された構図での撮像を実現するための無人航空機100の動作に関する動作情報を保持してよい。無人航空機100の動作情報は、空撮時にメモリ160から読み出されてよく、無人航空機100は、この動作情報に沿って動作してよい。   The memory 160 holds various information and various data acquired via the communication interface 150. The memory 160 may store sample information of various compositions for capturing an image. Composition sample information may be stored in a table format. The memory 160 may hold information on the composition determined by the UAV control unit 110. The memory 160 may hold operation information relating to the operation of the unmanned aerial vehicle 100 for realizing imaging with the determined composition. The operation information of the unmanned aircraft 100 may be read from the memory 160 at the time of aerial photography, and the unmanned aircraft 100 may operate according to this operation information.

ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。   The gimbal 200 may support the imaging unit 220 rotatably about the yaw axis, pitch axis, and roll axis. The gimbal 200 may change the imaging direction of the imaging unit 220 by rotating the imaging unit 220 around at least one of the yaw axis, the pitch axis, and the roll axis.

ヨー軸、ピッチ軸、及びロール軸は、以下のように定められてよい。例えば、水平方向(地面と平行な方向)にロール軸が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸が定められ、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が定められる。   The yaw axis, pitch axis, and roll axis may be determined as follows. For example, assume that the roll axis is defined in the horizontal direction (direction parallel to the ground). In this case, a pitch axis is defined in a direction parallel to the ground and perpendicular to the roll axis, and a yaw axis (see z-axis) is defined in a direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis.

撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データは、撮像部220が有するメモリ、又はメモリ160に格納される。   The imaging unit 220 captures a subject in a desired imaging range and generates captured image data. Image data obtained by imaging by the imaging unit 220 is stored in the memory included in the imaging unit 220 or the memory 160.

撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、メモリ160に格納される。   The imaging unit 230 captures the surroundings of the unmanned aircraft 100 and generates captured image data. Image data of the imaging unit 230 is stored in the memory 160.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。   The GPS receiver 240 receives a plurality of signals indicating times and positions (coordinates) of each GPS satellite transmitted from a plurality of navigation satellites (that is, GPS satellites). The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aircraft 100) based on the plurality of received signals. The GPS receiver 240 outputs the position information of the unmanned aircraft 100 to the UAV control unit 110. The calculation of the position information of the GPS receiver 240 may be performed by the UAV control unit 110 instead of the GPS receiver 240. In this case, the UAV control unit 110 receives information indicating the time and the position of each GPS satellite included in a plurality of signals received by the GPS receiver 240.

慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置IMU250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。   Inertial measurement device 250 detects the attitude of unmanned aerial vehicle 100 and outputs the detection result to UAV control unit 110. The inertial measurement device IMU 250 detects the acceleration of the unmanned aircraft 100 in the three axial directions of the front, rear, left and right, and the angular velocity in the three axial directions of the pitch axis, the roll axis, and the yaw axis. .

磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。   The magnetic compass 260 detects the heading of the unmanned aircraft 100 and outputs the detection result to the UAV control unit 110.

気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。なお、気圧高度計270以外のセンサにより、無人航空機100が飛行する高度が検出されてもよい。   Barometric altimeter 270 detects the altitude at which unmanned aircraft 100 flies, and outputs the detection result to UAV control unit 110. The altitude at which the unmanned aircraft 100 flies may be detected by a sensor other than the barometric altimeter 270.

超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。   The ultrasonic sensor 280 emits an ultrasonic wave, detects an ultrasonic wave reflected by the ground or an object, and outputs a detection result to the UAV control unit 110. The detection result may indicate a distance from the unmanned aircraft 100 to the ground, that is, an altitude. The detection result may indicate a distance from the unmanned aircraft 100 to an object (subject).

レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。   Laser measuring device 290 irradiates the object with laser light, receives the reflected light reflected by the object, and measures the distance between unmanned aircraft 100 and the object (subject) using the reflected light. As an example, the distance measurement method using laser light may be a time-of-flight method.

図3は、UAV制御部110の機能構成の一例を示すブロック図である。UAV制御部110は、画像取得部111、主被写体決定部112、構図決定部113、動作情報生成部114及び動作制御部115を備える。主被写体決定部112及び構図決定部113は、情報取得部の一例である。構図決定部113は、認識部の一例である。動作情報生成部114は、生成部の一例である。動作制御部115は、制御部の一例である。   FIG. 3 is a block diagram illustrating an example of a functional configuration of the UAV control unit 110. The UAV control unit 110 includes an image acquisition unit 111, a main subject determination unit 112, a composition determination unit 113, a motion information generation unit 114, and a motion control unit 115. The main subject determination unit 112 and the composition determination unit 113 are examples of an information acquisition unit. The composition determination unit 113 is an example of a recognition unit. The motion information generation unit 114 is an example of a generation unit. The operation control unit 115 is an example of a control unit.

画像取得部111は、メモリ160に保持された画像(例えば撮像部220又は撮像部230により空撮された空撮画像)を取得してよい。画像取得部111は、撮像部220又は撮像部230により空撮中の空撮画像を取得してよい。空撮画像は、動画でも静止画でもよい。空撮中の空撮動画は、ライブビュー画像(第1の画像の一例)とも称される。画像取得部111により取得される空撮画像として、主にライブビュー画像を例示する。   The image acquisition unit 111 may acquire an image stored in the memory 160 (for example, an aerial image captured by the imaging unit 220 or the imaging unit 230). The image acquisition unit 111 may acquire an aerial image being aerial captured by the imaging unit 220 or the imaging unit 230. The aerial image may be a moving image or a still image. The aerial video during aerial photography is also referred to as a live view image (an example of a first image). As an aerial image acquired by the image acquisition unit 111, a live view image is mainly exemplified.

主被写体決定部112は、画像取得部111により取得されたライブビュー画像に含まれる1つ以上の被写体のうち、主被写体(第1の被写体の一例)を決定(特定)する。主被写体の決定は、主被写体の情報の取得の一例である。主被写体の決定は、例えば携帯端末80のユーザによる手動で行われてもよいし、無人航空機100により自動で行われてもよい。主被写体は、ライブビュー画像外の被写体(例えば、ユーザ所望の空撮範囲に対応する地図情報に含まれる任意の被写体)とされてもよい。この場合、無人航空機100による撮像範囲を超えて、所望の被写体に適した構図が決定され得る。   The main subject determination unit 112 determines (specifies) a main subject (an example of a first subject) among one or more subjects included in the live view image acquired by the image acquisition unit 111. The determination of the main subject is an example of acquisition of information on the main subject. The determination of the main subject may be performed manually by the user of the mobile terminal 80, for example, or may be performed automatically by the unmanned aircraft 100. The main subject may be a subject outside the live view image (for example, an arbitrary subject included in the map information corresponding to the aerial shooting range desired by the user). In this case, the composition suitable for the desired subject can be determined beyond the imaging range of the unmanned aircraft 100.

構図決定部113は、決定された主被写体を撮像するための構図を決定する。主被写体を撮像するための構図の決定は、主被写体を撮像するための構図の情報の取得の一例である。この構図は、未だ撮像されていない撮像予定の構図であるので、予定構図(第1の構図の一例)とも称する。構図は、画像における、1つ以上の被写体の位置関係を規定する情報でよい。構図決定部113は、メモリ160に保持された構図のサンプル情報を参照し、主被写体の情報に応じて、予定構図を決定してよい。予定構図の決定は、例えば携帯端末80のユーザによる手動で行われてもよいし、無人航空機100により自動で行われてもよい。   The composition determination unit 113 determines a composition for imaging the determined main subject. The determination of the composition for imaging the main subject is an example of acquisition of composition information for imaging the main subject. Since this composition is a composition to be imaged yet to be imaged, it is also referred to as a scheduled composition (an example of the first composition). The composition may be information defining the positional relationship of one or more subjects in the image. The composition determination unit 113 may determine the planned composition according to the main subject information with reference to the sample information of the composition held in the memory 160. The determination of the scheduled composition may be performed manually by the user of the portable terminal 80 or automatically by the unmanned aircraft 100, for example.

構図のサンプル情報は、例えば、三分割構図(Rule of Thirds)、二分割構図、三角構図、対角構図、アルファベット構図、中央一点構図、額縁構図、サンドイッチ構図、トンネル構図、のうち少なくとも1つの構図の情報をサンプル情報として含んでよい。また、構図のサンプル情報は、主被写体を各構図の所定の交点や分割点(例えば黄金分割点)に配置される情報を含んでもよい。   Sample composition information includes, for example, at least one of a Rule of Thirds composition, a Two-part composition, a Triangular composition, a Diagonal composition, an Alphabet composition, a Central one-point composition, a Frame composition, a Sandwich composition, and a Tunnel composition. May be included as sample information. The sample information of the composition may include information in which the main subject is arranged at a predetermined intersection or division point (for example, golden division point) of each composition.

動作情報生成部114は、決定された予定構図に従った空撮を実現するための無人航空機100の動作情報を生成する。無人航空機100の動作情報は、例えば、無人航空機100の移動に関する移動情報(例えば、無人航空機100の移動量、移動方向)、無人航空機100の回転に関する回転情報(例えば、無人航空機100の回転量、回転方向)、ジンバル200の回転に関する回転情報(例えば、ジンバル200の回転量、回転方向)、その他の無人航空機100の動作情報、の少なくとも一部を含んでよい。   The motion information generation unit 114 generates motion information of the unmanned aerial vehicle 100 for realizing aerial photography according to the determined planned composition. The operation information of the unmanned aircraft 100 includes, for example, movement information related to movement of the unmanned aircraft 100 (for example, movement amount and movement direction of the unmanned aircraft 100), rotation information related to rotation of the unmanned aircraft 100 (for example, rotation amount of the unmanned aircraft 100, (Rotation direction), rotation information related to rotation of the gimbal 200 (for example, rotation amount of the gimbal 200, rotation direction), and other operation information of the unmanned aerial vehicle 100 may be included.

動作制御部115は、生成された動作情報(例えば無人航空機100の移動量、移動方向)に従って、無人航空機100の飛行を制御してよい。動作制御部115は、生成された動作情報(例えば無人航空機100の回転量、回転方向)に従って、無人航空機100の向きを制御してよい。このように、動作制御部115は、無人航空機100を移動させることで、撮像部220の撮像範囲を変更可能とする。   The operation control unit 115 may control the flight of the unmanned aircraft 100 according to the generated operation information (for example, the movement amount and movement direction of the unmanned aircraft 100). The motion control unit 115 may control the direction of the unmanned aircraft 100 according to the generated motion information (for example, the rotation amount and the rotation direction of the unmanned aircraft 100). As described above, the operation control unit 115 can change the imaging range of the imaging unit 220 by moving the unmanned aircraft 100.

動作制御部115は、生成された動作情報(例えばジンバル200の回転量、回転方向)に従って、ジンバル200の回転を制御してよい。動作制御部115は、動作情報に従って、無人航空機100の姿勢を制御するとともに、ジンバル200の回転によりジンバル200の姿勢を制御してもよい。このように、動作制御部115は、ジンバル200を回転させることで、撮像部220の撮像範囲を変更可能とする。   The operation control unit 115 may control the rotation of the gimbal 200 according to the generated operation information (for example, the rotation amount and rotation direction of the gimbal 200). The operation control unit 115 may control the attitude of the unmanned aircraft 100 according to the operation information, and may control the attitude of the gimbal 200 by rotating the gimbal 200. As described above, the operation control unit 115 can change the imaging range of the imaging unit 220 by rotating the gimbal 200.

図4は、携帯端末80のハードウェア構成の一例を示すブロック図である。携帯端末80は、端末制御部81、インタフェース部82、操作部83、無線通信部85、メモリ87、及び表示部88を備えてよい。操作部83は、情報取得部の一例である。無線通信部85は、通信部の一例である。   FIG. 4 is a block diagram illustrating an example of a hardware configuration of the mobile terminal 80. The portable terminal 80 may include a terminal control unit 81, an interface unit 82, an operation unit 83, a wireless communication unit 85, a memory 87, and a display unit 88. The operation unit 83 is an example of an information acquisition unit. The wireless communication unit 85 is an example of a communication unit.

端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、携帯端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。   The terminal control unit 81 is configured using, for example, a CPU, MPU, or DSP. The terminal control unit 81 performs signal processing for overall control of operations of each unit of the mobile terminal 80, data input / output processing with other units, data calculation processing, and data storage processing.

端末制御部81は、無線通信部85を介して、無人航空機100からのデータや情報を取得してよい。端末制御部81は、インタフェース部82を介して、送信機50からのデータや情報を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報を取得してよい。端末制御部81は、メモリ87に保持されたデータや情報を取得してよい。端末制御部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてよい。   The terminal control unit 81 may acquire data and information from the unmanned aircraft 100 via the wireless communication unit 85. The terminal control unit 81 may acquire data and information from the transmitter 50 via the interface unit 82. The terminal control unit 81 may acquire data and information input via the operation unit 83. The terminal control unit 81 may acquire data and information held in the memory 87. The terminal control unit 81 may send data and information to the display unit 88 and cause the display unit 88 to display display information based on the data and information.

端末制御部81は、撮像補助アプリケーションを実行してよい。撮像補助アプリケーションは、無人航空機100により所望の構図で空撮するための補助を行うアプリケーションでよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してよい。   The terminal control unit 81 may execute an imaging assistance application. The imaging assistance application may be an application that assists the aerial photography with the desired composition by the unmanned aircraft 100. The terminal control unit 81 may generate various data used in the application.

インタフェース部82は、送信機50と携帯端末80との間の情報やデータの入出力を行う。インタフェース部82は、例えばUSBケーブルを介して入出力してよい。インタフェース部65は、USB以外のインタフェースでもよい。   The interface unit 82 inputs and outputs information and data between the transmitter 50 and the portable terminal 80. The interface unit 82 may input / output via a USB cable, for example. The interface unit 65 may be an interface other than USB.

操作部83は、携帯端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、主被写体を選択するための選択操作を受け付けることで、主被写体の選択情報を取得してよい。操作部83は、構図を選択するための選択操作を受け付けることで、構図の選択情報を取得してよい。   The operation unit 83 receives and acquires data and information input by the user of the mobile terminal 80. The operation unit 83 may include buttons, keys, a touch panel, a microphone, and the like. Here, it is exemplified that the operation unit 83 and the display unit 88 are mainly configured by a touch panel. In this case, the operation unit 83 can accept a touch operation, a tap operation, a drag operation, and the like. The operation unit 83 may acquire selection information of the main subject by receiving a selection operation for selecting the main subject. The operation unit 83 may acquire composition selection information by receiving a selection operation for selecting a composition.

無線通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。無線通信部55は、主被写体の選択情報や構図の選択情報を無人航空機100へ送信してよい。   The wireless communication unit 85 performs wireless communication with the unmanned aircraft 100 by various wireless communication methods. This wireless communication method of wireless communication may include, for example, communication via a wireless LAN, Bluetooth (registered trademark), or a public wireless line. The wireless communication unit 55 may transmit main subject selection information and composition selection information to the unmanned aerial vehicle 100.

メモリ87は、例えば携帯端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、携帯端末80の内部に設けられてよい。メモリ87は、携帯端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。   The memory 87 includes, for example, a ROM that stores a program that defines the operation of the mobile terminal 80 and set value data, and a RAM that temporarily stores various information and data used during processing by the terminal control unit 81. You can do it. The memory 87 may include memories other than ROM and RAM. The memory 87 may be provided inside the mobile terminal 80. The memory 87 may be provided so as to be removable from the portable terminal 80. The program may include an application program.

表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータを表示する。表示部88は、撮像補助アプリケーションの実行に係る各種データや情報を表示してよい。表示部88は、主被写体を選択するための選択画面や構図を選択するための選択画面を表示してよい。   The display unit 88 is configured using, for example, an LCD (Liquid Crystal Display), and displays various information and data output from the terminal control unit 81. The display unit 88 may display various data and information related to the execution of the imaging assistance application. The display unit 88 may display a selection screen for selecting a main subject and a selection screen for selecting a composition.

なお、携帯端末80は、ホルダを介して送信機50に装着されてよい。携帯端末80と送信機50とは、有線ケーブル(例えばUSBケーブル)を介して接続されてよい。携帯端末80が送信機50に装着されず、携帯端末80と送信機50がそれぞれ独立して設けられてもよい。撮像補助システム10は、送信機50を備えなくてもよい。   Note that the portable terminal 80 may be attached to the transmitter 50 via a holder. The portable terminal 80 and the transmitter 50 may be connected via a wired cable (for example, a USB cable). The portable terminal 80 may not be attached to the transmitter 50, and the portable terminal 80 and the transmitter 50 may be provided independently. The imaging assistance system 10 may not include the transmitter 50.

次に、撮像補助システム10の動作概要について説明する。
図5は、撮像補助システム10の動作概要を説明するための図である。
Next, an outline of the operation of the imaging assistance system 10 will be described.
FIG. 5 is a diagram for explaining an operation outline of the imaging assistance system 10.

図5では、山M1の中に道路R1があり、道路R1上に人物H1が所在する。無人航空機100は、空撮しながら山M1の上空を飛行している。無人航空機100は、山M1のライブビュー画像を撮像し、携帯端末80へ送信する。携帯端末80は、無人航空機100からのライブビュー画像G1を受信し、表示部88にライブビュー画像G1を表示する。これにより、携帯端末80のユーザは、ライブビュー画像G1を確認可能である。   In FIG. 5, there is a road R1 in the mountain M1, and a person H1 is located on the road R1. The unmanned aerial vehicle 100 is flying over the mountain M1 while taking an aerial photograph. Unmanned aerial vehicle 100 captures a live view image of mountain M <b> 1 and transmits it to portable terminal 80. The portable terminal 80 receives the live view image G1 from the unmanned aircraft 100 and displays the live view image G1 on the display unit 88. Thereby, the user of the portable terminal 80 can confirm the live view image G1.

ユーザは、ライブビュー画像G1の映り込んだ被写体をより魅力的に撮像するために構図調整を希望するとする。この場合、携帯端末80は、操作部83を介して構図調整を指示する操作を受け付け、構図調整コマンドを無人航空機100へ送信する。無人航空機100は、構図調整コマンドを受信すると、ライブビュー画像G1内の主被写体(例えば人物H1)を決定し、予定構図を決定し、無人航空機100の動作情報を生成する。   It is assumed that the user desires composition adjustment in order to capture the subject in which the live view image G1 is reflected more attractively. In this case, the mobile terminal 80 receives an operation for instructing composition adjustment via the operation unit 83 and transmits a composition adjustment command to the unmanned aircraft 100. When the unmanned aircraft 100 receives the composition adjustment command, the unmanned aircraft 100 determines a main subject (for example, a person H1) in the live view image G1, determines a planned composition, and generates operation information of the unmanned aircraft 100.

無人航空機100は、動作情報に従って移動等を行い、所望の位置に移動した旨(移動完了)を携帯端末80へ通知する。携帯端末80は、移動完了通知を受信すると、例えば操作部83を介したユーザ指示を基に、撮像コマンドを無人航空機100へ送信する。なお、携帯端末80は、移動完了通知を受信した際、移動後の無人航空機100の位置でのライブビュー画像を、無線通信部85を介して取得してよい。この場合、ユーザは、移動後のライブビュー画像を表示により確認でき、この位置で空撮すべきか否かを判断できる。無人航空機100は、撮像コマンドを受信すると、撮像コマンドに従って、撮像部220又は230により空撮し、空撮画像(第2の画像の一例)を得る。   The unmanned aerial vehicle 100 moves according to the operation information and notifies the mobile terminal 80 that it has moved to a desired position (movement completed). When the portable terminal 80 receives the movement completion notification, the portable terminal 80 transmits an imaging command to the unmanned aircraft 100 based on a user instruction via the operation unit 83, for example. Note that the portable terminal 80 may acquire a live view image at the position of the unmanned aircraft 100 after movement via the wireless communication unit 85 when receiving the movement completion notification. In this case, the user can confirm the live view image after movement by displaying, and can determine whether or not to take an aerial image at this position. When the unmanned aircraft 100 receives the imaging command, the imaging unit 220 or 230 performs aerial shooting according to the imaging command to obtain an aerial image (an example of a second image).

これにより、無人航空機100は、所望の予定構図の空撮画像を取得できる。図5では、ライブビュー画像において主被写体としての人物H1が任意の位置に配置されていたが、構図調整されて空撮された空撮画像では、主被写体としての人物H1が3分割構図における3分割線の交点上に位置する。このように、無人航空機100は、所望の構図を実現するために動作(ここでは移動)して、空撮できる。   Thereby, the unmanned aerial vehicle 100 can acquire an aerial image of a desired planned composition. In FIG. 5, the person H1 as the main subject is arranged at an arbitrary position in the live view image. However, in the aerial photographed image obtained by adjusting the composition, the person H1 as the main subject is 3 in the three-part composition. Located on the intersection of the dividing lines. Thus, the unmanned aerial vehicle 100 operates (moves here) to achieve a desired composition, and can take an aerial photograph.

なお、撮像コマンドは、携帯端末80ではなく送信機50が送信してもよい。この場合、送信機50が、通信等を用いて携帯端末80と連携し、送信機50が有する撮像ボタン(不図示)に対する押下の情報を、無人航空機100へ送信してよい。   Note that the imaging command may be transmitted by the transmitter 50 instead of the portable terminal 80. In this case, the transmitter 50 may transmit information about pressing of an imaging button (not shown) included in the transmitter 50 to the unmanned aircraft 100 in cooperation with the portable terminal 80 using communication or the like.

次に、主被写体の決定例について説明する。   Next, an example of determining the main subject will be described.

図6Aは、無人航空機100により撮像されたライブビュー画像G1の一例を示す図である。図6Bは、色によりライブビュー画像G1が区分された色区分画像G2の一例を示す図である。図6Cは、色区分画像G2を用いた主被写体の選択例を示す図である。   FIG. 6A is a diagram illustrating an example of a live view image G <b> 1 captured by the unmanned aircraft 100. FIG. 6B is a diagram illustrating an example of a color segmented image G2 in which the live view image G1 is segmented by color. FIG. 6C is a diagram illustrating an example of selecting a main subject using the color segmented image G2.

ライブビュー画像G1には、複数の色成分(例えば青色、水色)を有する海と、緑色成分を有する森が存在する島と、が含まれる。無人航空機100では、通信インタフェース150が、ライブビュー画像G1を携帯端末80へ送信する。携帯端末80では、無線通信部85が、ライブビュー画像G1を無人航空機100から受信し、表示部88がライブビュー画像G1を表示してよい。   The live view image G1 includes an ocean having a plurality of color components (for example, blue and light blue) and an island in which a forest having a green component exists. In unmanned aerial vehicle 100, communication interface 150 transmits live view image G1 to portable terminal 80. In the portable terminal 80, the wireless communication unit 85 may receive the live view image G1 from the unmanned aircraft 100, and the display unit 88 may display the live view image G1.

主被写体決定部112は、ライブビュー画像G1を、複数の画像ブロック(例えば16×16のブロック)に分割してよい。主被写体決定部112は、ライブビュー画像G1を、各画像ブロックの色成分により1つ以上の領域に区分し、色区分画像G2を生成してよい。図6Bでは、海の青色部分が領域Aとして区分され、海の水色部分が領域Bとして区分され、島の緑色部分が領域Cとして区分されてよい。携帯端末80では、無線通信部85が、色区分画像G2を無人航空機100から受信し、表示部88が色区分画像G2を表示してよい。   The main subject determining unit 112 may divide the live view image G1 into a plurality of image blocks (for example, 16 × 16 blocks). The main subject determination unit 112 may divide the live view image G1 into one or more regions based on the color components of each image block, and generate a color-segmented image G2. In FIG. 6B, the blue portion of the sea may be partitioned as region A, the light blue portion of the ocean may be partitioned as region B, and the green portion of the island may be partitioned as region C. In the portable terminal 80, the wireless communication unit 85 may receive the color segment image G2 from the unmanned aircraft 100, and the display unit 88 may display the color segment image G2.

主被写体決定部112は、色区分画像G2におけるいずれかの色成分の領域を、主被写体として決定してよい。図6Cに示すように、表示部88は、撮像補助アプリケーションに従って、色区分画像G2を表示するとともに、どの領域(ここでは領域Aを示すZA,領域Bを示すZB,領域Cを示すZC)を主被写体として選択するかを決定するためのガイド表示を行ってよい。図6Cでは、操作部83を介して領域Cが主被写体として選択されることが例示されている。この場合、携帯端末80では、無線通信部85は、操作部83を介して得られた主被写体の選択情報を無人航空機100へ送信する。無人航空機100では、通信インタフェース150が、主被写体の選択情報を受信する。主被写体決定部112は、主被写体の選択情報に基づいて、主被写体を決定する。この場合、主被写体は、撮像画像においてユーザが意図した撮像対象に対応する画素の集合となる。   The main subject determining unit 112 may determine any color component region in the color-segmented image G2 as the main subject. As shown in FIG. 6C, the display unit 88 displays the color segmented image G2 according to the imaging assistance application, and which region (here, ZA indicating the region A, ZB indicating the region B, ZC indicating the region C) is displayed. A guide display for determining whether to select the main subject may be performed. FIG. 6C illustrates that the area C is selected as the main subject via the operation unit 83. In this case, in the portable terminal 80, the wireless communication unit 85 transmits main subject selection information obtained via the operation unit 83 to the unmanned aircraft 100. In the unmanned aircraft 100, the communication interface 150 receives main subject selection information. The main subject determination unit 112 determines the main subject based on the main subject selection information. In this case, the main subject is a set of pixels corresponding to the imaging target intended by the user in the captured image.

主被写体決定部112は、ライブビュー画像G1の端部において被写体の一部の情報が欠落している場合、言い換えるとライブビュー画像G1の画像内と画像外とで被写体が分断されている場合、この被写体の画素情報を補間してもよい。例えば、主被写体決定部112は、ライブビュー画像G1の画像内の被写体周囲の画素情報(例えば画素値)を基に、被写体の画素情報を補間してよい。主被写体決定部112は、ライブビュー画像G1の画像内の被写体周囲の画素情報(例えば画素値)をそのまま、被写体の画素情報として補間してよい。主被写体決定部112は、被写体周囲の複数の画素情報を収集して、複数の画素情報を基に重み付けしたり平均化したりして新たな色を生成し、被写体の画素情報として補間してよい。主被写体決定部112は、補間技術として、最近傍補間法(Nearest neighbor)、双一次補間法(Bilinear)、双三次補間法(Bicubic)、等を用いてよい。   When the main subject determination unit 112 lacks information on part of the subject at the end of the live view image G1, in other words, when the subject is divided between the inside and outside of the live view image G1, The pixel information of the subject may be interpolated. For example, the main subject determining unit 112 may interpolate the pixel information of the subject based on pixel information (for example, pixel value) around the subject in the live view image G1. The main subject determination unit 112 may interpolate pixel information (for example, pixel values) around the subject in the live view image G1 as it is as pixel information of the subject. The main subject determination unit 112 may collect a plurality of pieces of pixel information around the subject, generate a new color by weighting or averaging based on the plurality of pieces of pixel information, and may interpolate the pixel information of the subject. . The main subject determination unit 112 may use nearest neighbor interpolation (Nearest neighbor), bilinear interpolation (Bilinear), bicubic interpolation (Bicubic), or the like as an interpolation technique.

このように、主被写体決定部112は、通信インタフェース150を介して主被写体の選択情報を取得し、この選択情報に基づいて主被写体を決定してよい。これにより、無人航空機100は、ライブビュー画像G1に基づく色区分画像G2に含まれる被写体の中から、ユーザが希望する主被写体を決定できる。よって、無人航空機100は、ユーザが希望する主被写体を基準とした構図の調整が可能となる。   As described above, the main subject determination unit 112 may acquire main subject selection information via the communication interface 150 and may determine the main subject based on the selection information. Thereby, the unmanned aerial vehicle 100 can determine the main subject desired by the user from the subjects included in the color segmented image G2 based on the live view image G1. Thus, the unmanned aerial vehicle 100 can adjust the composition based on the main subject desired by the user.

主被写体決定部112は、被写体の選択情報を用いずに、主被写体を決定してよい。また、主被写体が複数決定されてもよい。   The main subject determining unit 112 may determine the main subject without using the subject selection information. A plurality of main subjects may be determined.

例えば、主被写体決定部112は、色区分画像G2における色成分の領域のうち、所定の領域を主被写体として決定してよい。つまり、主被写体決定部112は、色でライブビュー画像G1をグループ化し、所定の色グループを主被写体として認識してよい。この場合、主被写体決定部112は、例えば、各色成分に包囲された中心に位置する領域(例えば、図6Bにおける島の領域である領域C)を、主被写体として決定してよい。これにより、無人航空機100は、周囲の領域に包囲されることにより目立つ被写体を主被写体とすることができる。   For example, the main subject determining unit 112 may determine a predetermined region as the main subject among the color component regions in the color-segmented image G2. That is, the main subject determination unit 112 may group the live view images G1 by color and recognize a predetermined color group as the main subject. In this case, the main subject determination unit 112 may determine, for example, a region (for example, a region C that is an island region in FIG. 6B) located at the center surrounded by each color component as the main subject. Thereby, the unmanned aerial vehicle 100 can make a subject that stands out by being surrounded by a surrounding region as a main subject.

また、主被写体決定部112は、色成分により区分された領域のうち、所定サイズ以下(例えば最小)の領域を主被写体として決定してよい。これにより、無人航空機100は、ライブビュー画像G1において他の領域よりも判別が困難な小さなサイズの領域を基準として、構図を調整可能となる。例えば、山中に迷い込んだ人物を主被写体として決定できる。   In addition, the main subject determining unit 112 may determine a region having a predetermined size or less (for example, the minimum) as a main subject among regions divided by color components. Thereby, the unmanned aerial vehicle 100 can adjust the composition with reference to an area of a small size that is more difficult to discriminate than other areas in the live view image G1. For example, a person who gets lost in the mountains can be determined as the main subject.

また、主被写体決定部112は、操作部83やメモリ87から得られた所定の色の領域を、主被写体として決定してよい。これにより、無人航空機100は、ユーザが希望する色の被写体や予め主要な撮像対象として定められていた色の被写体を主被写体として決定できる。   In addition, the main subject determination unit 112 may determine a predetermined color area obtained from the operation unit 83 or the memory 87 as the main subject. Thereby, the unmanned aerial vehicle 100 can determine the subject of the color desired by the user or the subject of the color previously determined as the main imaging target as the main subject.

このように、無人航空機100は、被写体を、山、海、人物の服装、等の色毎におおまかに判別できる。よって、無人航空機100は、例えば特定の色成分を注目すべき被写体として登録しておき、色によって自動的に主被写体を判別できる。   In this way, the unmanned aerial vehicle 100 can roughly determine the subject for each color such as a mountain, the sea, or a person's clothes. Therefore, the unmanned aerial vehicle 100 can register a specific color component as a subject to be noticed, for example, and can automatically determine the main subject based on the color.

主被写体決定部112は、空間周波数に基づいて、ライブビュー画像G1を1つ以上の領域に区分し、所定の領域を主被写体として決定してよい。つまり、主被写体決定部112は、空間周波数でライブビュー画像G1をグループ化し、所定の空間周波数の範囲のグループを主被写体として認識してよい。   The main subject determining unit 112 may divide the live view image G1 into one or more regions based on the spatial frequency and determine a predetermined region as the main subject. That is, the main subject determining unit 112 may group the live view images G1 with the spatial frequency and recognize a group within a predetermined spatial frequency range as the main subject.

空間周波数が高くなる程、画像にエッジが多くなり、鮮明な画像となる。一方、空間周波数が低い程、画像にエッジが少なくなり、ぼやけた画像となる。したがって、主被写体決定部112は、空間周波数により区分された領域のうち、空間周波数が所定周波数以上の(例えば最も高い)領域を、主被写体として決定してよい。これにより、無人航空機100は、比較的鮮明な領域を基準として、構図を調整可能となる。   The higher the spatial frequency, the more edges in the image and the clearer the image. On the other hand, the lower the spatial frequency, the fewer the edges in the image and the blurred image. Therefore, the main subject determining unit 112 may determine, as a main subject, a region having a spatial frequency equal to or higher than a predetermined frequency (for example, the highest) among regions divided by the spatial frequency. Thereby, the unmanned aerial vehicle 100 can adjust the composition with reference to a relatively clear area.

また、主被写体決定部112は、操作部83やメモリ87から得られた所定の空間周波数を有する領域を、主被写体として決定してよい。これにより、無人航空機100は、ユーザが希望する空間周波数の被写体や予め主要な撮像対象として定められていた空間周波数の被写体を主被写体として決定できる。   The main subject determining unit 112 may determine a region having a predetermined spatial frequency obtained from the operation unit 83 or the memory 87 as the main subject. Thereby, the unmanned aerial vehicle 100 can determine, as a main subject, a subject having a spatial frequency desired by the user or a subject having a spatial frequency that has been previously determined as a main imaging target.

主被写体決定部112は、ライブビュー画像G1が空撮された空撮位置の情報に基づいて、ライブビュー画像G1に含まれる1つ以上の被写体のうち、所定の被写体を主被写体として決定してよい。この場合、主被写体決定部112は、通信インタフェース150を介して外部サーバ等が蓄積する地図DBの地図情報を取得してよい。地図情報には、被写体の種別(例えば山、川、海、建物)の情報が含まれてよい。主被写体決定部112は、被写体の種別や被写体のサイズに基づいて、主被写体を決定してよい。   The main subject determination unit 112 determines a predetermined subject as a main subject among one or more subjects included in the live view image G1 based on information on the aerial shooting position where the live view image G1 was taken aerial. Good. In this case, the main subject determination unit 112 may acquire map information of the map DB accumulated by an external server or the like via the communication interface 150. The map information may include information on the type of subject (eg, mountain, river, sea, building). The main subject determination unit 112 may determine the main subject based on the type of subject and the size of the subject.

これにより、無人航空機100は、無人航空機100の地理的な情報や地形情報に基づいて、構図を調整可能である。   Thereby, the unmanned aerial vehicle 100 can adjust the composition based on the geographical information and the terrain information of the unmanned aerial vehicle 100.

また、主被写体決定部112は、通信インタフェース150を介して、外部サーバ等から、ライブビュー画像G1に含まれる被写体の空撮画像に関する評価情報を取得してよい。主被写体決定部112は、この評価情報が所定基準以上の(例えば最高評価の)被写体を、主被写体として決定してよい。   In addition, the main subject determination unit 112 may acquire evaluation information related to the aerial image of the subject included in the live view image G1 from an external server or the like via the communication interface 150. The main subject determination unit 112 may determine a subject whose evaluation information is greater than or equal to a predetermined reference (for example, the highest evaluation) as the main subject.

これにより、無人航空機100は、他者が高く評価した被写体を基準として、構図を調整可能である。なお、空撮位置の情報は、GPS受信機240が取得する情報により得られてよい。   Thereby, the unmanned aerial vehicle 100 can adjust the composition with reference to the subject highly evaluated by the other person. The information on the aerial shooting position may be obtained from information acquired by the GPS receiver 240.

また、主被写体決定部112は、決定される主被写体が空撮される際に設定される撮像モードに基づいて、主被写体を決定してよい。また、夕焼けモードが設定される場合には、太陽や太陽が沈む水平線付近や地平線付近が主被写体として決定されてよい。   In addition, the main subject determination unit 112 may determine the main subject based on an imaging mode that is set when the determined main subject is aerial. Further, when the sunset mode is set, the sun, the vicinity of the horizon where the sun sets, or the vicinity of the horizon may be determined as the main subject.

これにより、無人航空機100は、被写体が考慮される撮像モードを加味して、主被写体を決定できる。よって、無人航空機100は、撮像モードに応じて設定される撮像情報(カメラパラメータ)に適した主被写体を決定でき、鮮明な空撮画像が得られることを期待できる。   Thereby, the unmanned aerial vehicle 100 can determine the main subject in consideration of the imaging mode in which the subject is considered. Therefore, the unmanned aerial vehicle 100 can determine the main subject suitable for the imaging information (camera parameters) set according to the imaging mode, and can expect to obtain a clear aerial image.

主被写体決定部112は、例えば上述のいずれかの方法に基づく主被写体の決定情報を、ライブビュー画像G1等の撮像範囲の情報とともに、メモリ160に蓄積してよい。主被写体決定部112は、メモリ160に蓄積された主被写体の決定情報(つまり過去に実績のある主被写体の決定情報)に基づいて、ライブビュー画像G1に含まれる被写体のうち主被写体を決定してよい。例えば、主被写体決定部112は、同様(例えば同一)の撮像範囲において、過去に所定回数以上(例えば最も多く)主被写体とされた被写体や、過去に所定頻度以上(例えば最も高頻度で)主被写体とされた被写体を、主被写体として決定してよい。   The main subject determination unit 112 may accumulate main subject determination information based on any of the above-described methods, for example, in the memory 160 together with information on the imaging range such as the live view image G1. The main subject determining unit 112 determines a main subject among subjects included in the live view image G1 based on main subject determination information stored in the memory 160 (that is, main subject determination information that has been proven in the past). It's okay. For example, the main subject determining unit 112 may select a subject that has been a main subject more than a predetermined number of times (for example, the most) in the past (for example, the same) or a main frequency more than a predetermined frequency (for example, most frequently) in the past. The subject set as the subject may be determined as the main subject.

これにより、無人航空機100は、過去の実績に応じて、言い換えるとユーザの選択傾向や無人航空機100の決定傾向に応じて、機械学習的に主被写体を決定できる。無人航空機100は、機械学習的に決定された主被写体を基準として、構図を調整可能である。   Thereby, the unmanned aerial vehicle 100 can determine the main subject by machine learning according to the past performance, in other words, according to the selection tendency of the user and the determination tendency of the unmanned aircraft 100. The unmanned aerial vehicle 100 can adjust the composition with reference to the main subject determined by machine learning.

次に、構図の決定例について説明する。
図7は、構図の選択例を示す図である。
Next, an example of composition determination will be described.
FIG. 7 is a diagram illustrating an example of composition selection.

構図決定部113は、主被写体が決定されると、主被写体に基づいて、メモリ160から空撮予定の構図候補の情報を取得する。例えば、構図決定部113は、ライブビュー画像の構図とメモリ160に保持された構図のサンプル情報とを比較し、ライブビュー画像の構図と所定基準以上の一致度を有する構図のサンプル情報を、1つ以上の構図候補として決定してよい。構図決定部113は、ライブビュー画像の構図と構図のサンプル情報との一致度は、両構図内での主被写体の形状や位置やサイズ、両構図内での複数の被写体の形状や位置やサイズや位置関係、等の少なくとも1つによって判定してよい。   When the main subject is determined, the composition determination unit 113 acquires information on composition candidates scheduled for aerial photography from the memory 160 based on the main subject. For example, the composition determination unit 113 compares the composition of the live view image with the sample information of the composition held in the memory 160, and sets the sample information of the composition having a degree of coincidence equal to or higher than a predetermined reference to the composition of the live view image. Two or more composition candidates may be determined. The composition determination unit 113 determines the degree of coincidence between the composition of the live view image and the sample information of the composition based on the shape, position, and size of the main subject in both compositions, and the shape, position, and size of a plurality of subjects in both compositions. The determination may be made based on at least one of a positional relationship, etc.

一例として、図7に示すように、主被写体決定部112により、細長い形状を有する川が主被写体として選択されたとする。この場合、構図決定部113は、メモリ160が保持する構図のサンプル情報を参照し、例えば、細長い形状の領域を空撮するために適した対角構図、3分割構図、又はその他の構図を、構図候補として取得してよい。対角構図では、主被写体としての川が構図内の対角線に沿って配置されてよい。3分割構図では、主被写体として川が3分割するための分割線上に沿って又は分割線と重複して配置されてよい。構図決定部113は、取得された構図候補を、通信インタフェース150を介して携帯端末80へ送信してよい。携帯端末80では、無線通信部85が、構図候補の情報を取得してよい。図7に示すように、表示部88が、構図候補の情報を表示してよい。   As an example, as shown in FIG. 7, it is assumed that the main subject determining unit 112 selects a river having an elongated shape as the main subject. In this case, the composition determination unit 113 refers to the sample information of the composition held in the memory 160 and, for example, obtains a diagonal composition, a three-part composition, or other composition suitable for aerial shooting of an elongated shape region. You may acquire as a composition candidate. In the diagonal composition, the river as the main subject may be arranged along the diagonal line in the composition. In the three-divided composition, the river may be arranged along the dividing line for dividing the river into three as the main subject or overlapping the dividing line. The composition determination unit 113 may transmit the acquired composition candidate to the mobile terminal 80 via the communication interface 150. In the portable terminal 80, the wireless communication unit 85 may acquire composition candidate information. As shown in FIG. 7, the display unit 88 may display composition candidate information.

表示部88は、撮像補助アプリケーションに従って、構図候補を表示するとともに、どの構図候補(ここでは対角構図、3分割構図)を予定構図として選択するかを決定するためのガイド表示を行ってよい。図7では、操作部83を介して対角構図が予定構図として選択されることが例示されている。この場合、携帯端末80では、無線通信部85は、操作部83を介して得られた構図の選択情報を無人航空機100へ送信する。無人航空機100では、通信インタフェース150が、構図の選択情報を受信する。構図決定部113は、構図の選択情報に基づいて、予定構図を決定する。   The display unit 88 may display the composition candidates according to the imaging assistance application, and may perform guide display for determining which composition candidate (here, the diagonal composition, the three-part composition) is selected as the scheduled composition. In FIG. 7, it is illustrated that the diagonal composition is selected as the scheduled composition via the operation unit 83. In this case, in the mobile terminal 80, the wireless communication unit 85 transmits composition selection information obtained via the operation unit 83 to the unmanned aircraft 100. In the unmanned aerial vehicle 100, the communication interface 150 receives composition selection information. The composition determination unit 113 determines a planned composition based on composition selection information.

表示部88に表示される構図候補の画像は、メモリ160に保持されて携帯端末80へ送られた画像(例えば構図のサンプル情報としての構図の画像)でよい。表示部88に表示される構図候補の画像は、構図決定部113により生成されて携帯端末80へ送られた画像でもよい。この場合、構図決定部113は、主被写体の形状に応じた構図の情報と、ライブビュー画像G1と、基づいて、表示される構図候補の画像を生成してよい。例えば、構図決定部113は、ライブビュー画像G1において主被写体として川があり、その両側に被写体として山が存在する場合、これらの被写体の形状を例えば簡略化して、構図候補の位置関係に従って各被写体が配置された画像を生成してよい。また、構図決定部113の代わりに、携帯端末80の端末制御部81が、無人航空機100から取得された主被写体の形状に応じた構図の情報とライブビュー画像G1と基づいて、構図候補の画像を生成してもよい。   The composition candidate image displayed on the display unit 88 may be an image held in the memory 160 and sent to the portable terminal 80 (for example, a composition image as sample information of the composition). The composition candidate image displayed on the display unit 88 may be an image generated by the composition determination unit 113 and sent to the portable terminal 80. In this case, the composition determination unit 113 may generate a composition candidate image to be displayed based on the composition information corresponding to the shape of the main subject and the live view image G1. For example, when there are rivers as main subjects in the live view image G1 and mountains exist as subjects on both sides of the live view image G1, the composition determination unit 113 simplifies the shapes of these subjects, for example, and sets each subject according to the positional relationship of the composition candidates. May be generated. Further, instead of the composition determination unit 113, the terminal control unit 81 of the mobile terminal 80 uses the composition information corresponding to the shape of the main subject acquired from the unmanned aircraft 100 and the live view image G1 to display the composition candidate image. May be generated.

このように、構図決定部113は、例えば主被写体の形状を加味して、構図候補を決定できる。携帯端末80の表示部88は、決定された構図候補を表示でき、ユーザの選択を促すことができる。表示部88は、構図候補を静止画像で表示してもよいし、動画のプレビューで表示してもよい。構図決定部113は、通信インタフェース150を介して構図の選択情報を取得し、この選択情報に基づいて予定構図を決定してよい。   In this way, the composition determination unit 113 can determine composition candidates in consideration of the shape of the main subject, for example. The display unit 88 of the portable terminal 80 can display the determined composition candidate and can prompt the user to select. The display unit 88 may display the composition candidate as a still image or a moving image preview. The composition determination unit 113 may acquire composition selection information via the communication interface 150 and determine a planned composition based on the selection information.

これにより、無人航空機100は、主被写体が空撮予定の空撮画像において所望の位置に配置された構図を決定でき、主被写体を魅力的に空撮可能となる。また、構図決定部113は、構図候補を自動的に決定でき、様々な構図のサンプル情報の中から、構図候補を限定して提示できる。構図決定部113は、選択情報に基づいて予定構図を決定するので、予定構図の選択にユーザの意思を反映できる。   Thereby, the unmanned aerial vehicle 100 can determine a composition in which the main subject is arranged at a desired position in the aerial image planned to be aerial, and can attractively take the main subject. Further, the composition determination unit 113 can automatically determine composition candidates, and can present composition candidates in a limited manner from sample information of various compositions. Since the composition determination unit 113 determines the planned composition based on the selection information, the intention of the user can be reflected in the selection of the planned composition.

なお、構図決定部113は、構図候補の提示を行うことなく、主被写体の形状に応じて構図を決定してもよい。これにより、無人航空機100は、主被写体の形状を加味してバランスの優れた予定構図を用いて空撮でき、主被写体を魅力的に空撮可能となる。   The composition determination unit 113 may determine the composition according to the shape of the main subject without presenting composition candidates. Thereby, the unmanned aerial vehicle 100 can take an aerial photograph using a planned composition with an excellent balance in consideration of the shape of the main subject, and the main subject can be aerial photographed attractively.

構図決定部113は、構図の選択情報を用いずに、構図を決定してよい。   The composition determination unit 113 may determine the composition without using the composition selection information.

例えば、構図決定部113は、シーン認識アルゴリズムにより、ライブビュー画像G1のシーンを認識してよい。構図決定部113は、シーンの認識結果に応じて、そのシーンに適した構図を決定したり、構図候補を提示させたりしてよい。例えば、ライブビュー画像G1が日の出(Sun Rise)のシーンであると認識された場合、構図決定部113は、このシーンの撮像に適した中央一点構図や2分割構図などの構図を決定したり、これらの構図候補を提示させたりしてよい。シーン認識には、例えば、ディープラーニングが用いられてよく、畳み込みニューラルネットワークが用いられてよい。   For example, the composition determination unit 113 may recognize the scene of the live view image G1 using a scene recognition algorithm. The composition determination unit 113 may determine a composition suitable for the scene or present a composition candidate in accordance with the scene recognition result. For example, when the live view image G1 is recognized as a sunrise (Sun Rise) scene, the composition determination unit 113 determines a composition such as a central one-point composition or a two-part composition suitable for imaging the scene, These composition candidates may be presented. For scene recognition, for example, deep learning may be used, and a convolutional neural network may be used.

これにより、無人航空機100は、ライブビュー画像G1が空撮されたシーンに合わせて、このシーンを魅力的に空撮可能な構図を決定できる。   Thereby, the unmanned aerial vehicle 100 can determine a composition capable of attractively photographing the scene in accordance with the scene in which the live view image G1 is aerial.

構図決定部113は、例えば上述のいずれかの方法に基づく構図の決定情報を、ライブビュー画像G1等の撮像範囲の情報とともに、メモリ160に蓄積してよい。構図決定部113は、メモリ160に蓄積された構図の決定情報(つまり過去に実績のある構図の決定情報)に基づいて、主被写体を考慮した構図を決定してよい。例えば、構図決定部113は、同様(例えば同一)の撮像範囲において、過去に所定回数以上(例えば最も多く)使用された構図や、過去に所定頻度以上(例えば最も高頻度で)使用された構図を、空撮予定の構図として決定してよい。   The composition determination unit 113 may store, for example, composition determination information based on any of the above-described methods in the memory 160 together with information on the imaging range such as the live view image G1. The composition determination unit 113 may determine the composition in consideration of the main subject based on the composition determination information accumulated in the memory 160 (that is, the composition determination information that has been proven in the past). For example, the composition determination unit 113 may use a composition that has been used more than a predetermined number of times (for example, most frequently) in the same (for example, the same) imaging range, or a composition that has been used more than a predetermined frequency (for example, most frequently) in the past. May be determined as the composition of the aerial photography schedule.

これにより、無人航空機100は、過去の実績に応じて、言い換えるとユーザの選択傾向や無人航空機100の決定傾向に応じて、機械学習的に構図を決定できる。無人航空機100は、機械学習的に決定された構図により、主被写体を魅力的に空撮可能となる。   Thereby, the unmanned aerial vehicle 100 can determine the composition by machine learning according to the past results, in other words, according to the selection tendency of the user and the determination tendency of the unmanned aircraft 100. The unmanned aerial vehicle 100 can attractively take aerial photographs of the main subject with a composition determined by machine learning.

また、構図決定部113は、通信インタフェース150を介して、外部サーバ等から、構図を用いた空撮画像に関する評価情報を取得してよい。主被写体決定部112は、この評価情報が所定基準以上の(例えば最高評価の)構図を、予定構図として決定してよい。   In addition, the composition determination unit 113 may acquire evaluation information regarding an aerial image using the composition from an external server or the like via the communication interface 150. The main subject determination unit 112 may determine a composition whose evaluation information is greater than or equal to a predetermined reference (for example, the highest evaluation) as a planned composition.

これにより、無人航空機100は、他者が高く評価した構図を予定構図として決定できる。よって、無人航空機100は、客観的に好ましい構図で被写体が配置された空撮画像を取得できる。   Thereby, the unmanned aerial vehicle 100 can determine the composition highly evaluated by others as the planned composition. Therefore, the unmanned aerial vehicle 100 can acquire an aerial image in which a subject is arranged with an objectively preferable composition.

次に、動作情報の生成例について説明する。   Next, an example of generating operation information will be described.

動作情報生成部114は、決定された構図に従って空撮するために、撮像範囲を決定する。撮像範囲は、無人航空機100の位置、無人航空機100の向き、撮像部220の向き、撮像部220又は撮像部230の画角、等によって特定され得る。よって、動作情報生成部114は、ライブビュー画像G1が空撮された無人航空機100の動作状態から、決定された構図を実現するための無人航空機100の動作状態へ変更するための情報を、動作情報として生成してよい。   The motion information generation unit 114 determines an imaging range in order to perform aerial photography according to the determined composition. The imaging range can be specified by the position of the unmanned aircraft 100, the orientation of the unmanned aircraft 100, the orientation of the imaging unit 220, the angle of view of the imaging unit 220 or the imaging unit 230, and the like. Therefore, the operation information generation unit 114 changes the information for changing from the operation state of the unmanned aircraft 100 in which the live view image G1 is aerial to the operation state of the unmanned aircraft 100 for realizing the determined composition to the operation information. It may be generated as information.

例えば、動作情報生成部114は、動作情報として、移動前(ライブビュー画像G1が空撮された際)の無人航空機100の位置から移動後の(決定された構図を実現するための)無人航空機100の位置へ移動するための無人航空機100の移動情報を含んでよい。   For example, the motion information generation unit 114 uses the unmanned aerial vehicle after moving from the position of the unmanned aircraft 100 before moving (when the live view image G1 is aerial) as the motion information (for realizing the determined composition). The movement information of the unmanned aerial vehicle 100 for moving to the 100 position may be included.

動作情報生成部114は、動作情報として、変更前(ライブビュー画像G1が空撮された際)の無人航空機100の向きから変更後の(決定された構図を実現するための)無人航空機100の向きへ変更するための無人航空機100の回転情報を含んでよい。   The motion information generation unit 114 operates as the motion information of the unmanned aircraft 100 after the change (for realizing the determined composition) from the direction of the unmanned aircraft 100 before the change (when the live view image G1 is aerial). The rotation information of the unmanned aerial vehicle 100 for changing to the direction may be included.

動作情報生成部114は、動作情報として、変更前のジンバル200の回転状態(例えば回転角度)(撮像部220の向きに相当)から変更後のジンバル200の回転状態へ変更するためのジンバル200の回転情報を含んでよい。   The motion information generation unit 114 changes the rotation state (for example, the rotation angle) of the gimbal 200 before the change (corresponding to the orientation of the imaging unit 220) as the operation information. Rotation information may be included.

動作情報生成部114は、動作情報として、変更前の撮像部220又は撮像部230の画角から変更後の撮像部220又は撮像部230の向きへ変更するための撮像部220又は撮像部230の画角変更情報を含んでよい。撮像部220又は撮像部230の画角は、撮像部220又は撮像部230のズーム倍率に対応してよい。つまり、動作情報生成部114は、動作情報として、変更前の撮像部220又は撮像部230のズーム倍率から変更後の撮像部220又は撮像部230のズーム倍率へ変更するためのズーム倍率変更情報を含んでよい。   The motion information generation unit 114 has, as the motion information, the image capturing unit 220 or the image capturing unit 230 for changing the angle of view of the image capturing unit 220 or the image capturing unit 230 before the change to the orientation of the image capturing unit 220 or the image capturing unit 230 after the change. The angle of view change information may be included. The angle of view of the imaging unit 220 or the imaging unit 230 may correspond to the zoom magnification of the imaging unit 220 or the imaging unit 230. That is, the motion information generation unit 114 uses, as motion information, zoom magnification change information for changing from the zoom magnification of the imaging unit 220 or the imaging unit 230 before the change to the zoom magnification of the imaging unit 220 or the imaging unit 230 after the change. May include.

図8Aは、決定された構図で空撮するための撮像範囲の回転例を示す図である。図8Bは、決定された構図で空撮するための無人航空機100の移動例を示す図である。図8Cは、水平方向から見た無人航空機100の移動を説明するための図である。   FIG. 8A is a diagram illustrating an example of rotation of the imaging range for performing aerial photography with the determined composition. FIG. 8B is a diagram illustrating an example of movement of the unmanned aerial vehicle 100 for performing aerial photography with the determined composition. FIG. 8C is a diagram for explaining the movement of the unmanned aerial vehicle 100 as viewed from the horizontal direction.

図8Aでは、ライブビュー画像が簡略化されて表現された構図としての現構図C1と、予定構図C2と、を示している。図8Aでは、図7と同様に、川RV11の両側に山M11,M12が存在する。予定構図C2が対角構図とされている。   FIG. 8A shows a current composition C1 as a composition in which a live view image is simplified and a planned composition C2. In FIG. 8A, as in FIG. 7, mountains M11 and M12 exist on both sides of the river RV11. The planned composition C2 is a diagonal composition.

動作情報生成部114は、現構図C1における被写体のサイズと予定構図C2における被写体のサイズとを比較する。動作情報生成部114は、現構図C1における被写体のサイズと予定構図C2における被写体のサイズとに基づいて、無人航空機100の高度の変化量(つまり重力方向の移動量)を算出してよい。例えば、現構図C1における被写体のサイズに対して予定構図C2における被写体のサイズが2倍である場合、動作情報生成部114は、無人航空機100の高度が1/2となるように移動方向及び移動量を算出してよい。例えば、現構図C1における被写体のサイズに対して予定構図C2における被写体のサイズが1/2である場合、動作情報生成部114は、無人航空機100の高度が2倍となるように移動方向及び移動量を算出してよい。なお、現構図C1における無人航空機100の高度の情報は、ライブビュー画像G1が空撮された際の空撮高度でよく、気圧高度計270等により取得されてよい。   The motion information generation unit 114 compares the size of the subject in the current composition C1 with the size of the subject in the planned composition C2. The motion information generation unit 114 may calculate the amount of change in altitude of the unmanned aerial vehicle 100 (that is, the amount of movement in the direction of gravity) based on the size of the subject in the current composition C1 and the size of the subject in the planned composition C2. For example, when the size of the subject in the planned composition C2 is twice the size of the subject in the current composition C1, the motion information generation unit 114 moves and moves so that the altitude of the unmanned aircraft 100 is halved. The amount may be calculated. For example, when the subject size in the planned composition C2 is 1/2 with respect to the subject size in the current composition C1, the motion information generation unit 114 moves and moves so that the altitude of the unmanned aircraft 100 is doubled. The amount may be calculated. The altitude information of the unmanned aerial vehicle 100 in the current composition C1 may be an aerial shooting altitude when the live view image G1 is taken aerial, and may be acquired by the barometric altimeter 270 or the like.

図8Aでは、現構図C1と予定構図C2とでは、川RV11のサイズや山M11,M12のサイズが同じである。つまり、被写体としての川RV11や山M11,M12までの距離(被写体距離)が変更されていないことを示している。この場合、動作情報生成部114は、無人航空機100の高度は変化されておらず、重力方向の移動量は値0であると判別してよい。   In FIG. 8A, the size of the river RV11 and the sizes of the mountains M11 and M12 are the same in the current composition C1 and the planned composition C2. That is, the distance (subject distance) to the river RV11 or the mountains M11 and M12 as the subject is not changed. In this case, the motion information generation unit 114 may determine that the altitude of the unmanned aerial vehicle 100 has not been changed and the amount of movement in the direction of gravity is 0.

これにより、無人航空機100は、現構図C1と予定構図C2との比較により、容易に高度の変化量(つまり重力方向の移動量)を算出できる。したがって、無人航空機100は、2次元空間(水平方向)の移動に限らず、3次元空間での移動を可能にできる。   Thereby, the unmanned aerial vehicle 100 can easily calculate the amount of change in altitude (that is, the amount of movement in the direction of gravity) by comparing the current composition C1 and the planned composition C2. Accordingly, the unmanned aerial vehicle 100 can be moved not only in a two-dimensional space (horizontal direction) but also in a three-dimensional space.

なお、無人航空機100の高度を変更する代わりに、撮像部220又は撮像部230のズーム倍率が変更されてもよい。   Instead of changing the altitude of the unmanned aircraft 100, the zoom magnification of the imaging unit 220 or the imaging unit 230 may be changed.

動作情報生成部114は、現構図C1における各被写体の位置関係と予定構図C2における各被写体の位置関係とを比較してよい。動作情報生成部114は、現構図C1における各被写体の位置関係と予定構図C2における各被写体の位置関係に基づいて、構図の回転量及び回転方向、つまり無人航空機100の回転量及び回転方向、若しくは、撮像部220又は撮像部230の回転量及び回転方向を算出してよい。ここでの回転方向は、例えば水平方向に沿った方向でよい。なお、各被写体の位置関係の情報は、数学的な座標変換によるマッピングにより算出されて取得されてよい。   The motion information generation unit 114 may compare the positional relationship of each subject in the current composition C1 with the positional relationship of each subject in the planned composition C2. Based on the positional relationship of each subject in the current composition C1 and the positional relationship of each subject in the planned composition C2, the motion information generating unit 114 may rotate the rotational amount and rotational direction of the composition, that is, the rotational amount and rotational direction of the unmanned aircraft 100, or The rotation amount and the rotation direction of the imaging unit 220 or the imaging unit 230 may be calculated. The direction of rotation here may be, for example, a direction along the horizontal direction. Note that the positional relationship information of each subject may be calculated and acquired by mapping through mathematical coordinate transformation.

図8Aでは、現構図C1の各被写体に対して予定構図C2の各被写体が反時計周りに30度回転した位置関係となっている。この場合、動作情報生成部114は、反時計回りの回転方向であり、撮像部220又は撮像部230の光軸を中心とした30度の回転量であることを算出する。   In FIG. 8A, each subject in the planned composition C2 is rotated 30 degrees counterclockwise with respect to each subject in the current composition C1. In this case, the motion information generation unit 114 calculates that the rotation direction is counterclockwise and that the rotation amount is 30 degrees around the optical axis of the imaging unit 220 or the imaging unit 230.

これにより、無人航空機100は、現構図C1と予定構図C2との比較により、容易に構図の回転量を算出できる。   Thereby, the unmanned aerial vehicle 100 can easily calculate the rotation amount of the composition by comparing the current composition C1 and the planned composition C2.

動作情報生成部114は、ジンバル200の回転情報を生成してよい。例えば、動作情報生成部114は、撮像部220の画角情報と、ライブビュー画像G1における携帯端末80の表示部88での被写体の画面位置と、予定構図における表示部88での同じ被写体の画面位置と、に基づいて、ジンバル200の回転情報を算出してよい。画面上での同じ被写体の移動距離とジンバル200の回転角度の変化量(回転量)とは比例する。   The motion information generation unit 114 may generate rotation information of the gimbal 200. For example, the motion information generation unit 114 displays the angle of view information of the imaging unit 220, the screen position of the subject on the display unit 88 of the mobile terminal 80 in the live view image G1, and the screen of the same subject on the display unit 88 in the planned composition. Based on the position, rotation information of the gimbal 200 may be calculated. The moving distance of the same subject on the screen is proportional to the change amount (rotation amount) of the rotation angle of the gimbal 200.

図8Bでは、現構図C1と予定構図C2とでは、同じ被写体M21の画面位置の距離w1(画面上での移動距離に相当)が、表示部88の画面の一辺wの1/6の長さであるとする。また、撮像部220の画角情報が示す撮像画角が90度であるとする。この場合、予定構図C2を実現するためのジンバル200の回転角度(角度θ2)は、15度となる。また、動作情報生成部114は、実空間での移動方向と表示部88の画面上での移動方向との対応関係を基に、ジンバル200の回転方向を導出(例えば算出)してよい。なお、実空間での移動方向と表示部88の画面上での移動方向とは、逆方向となってよい。例えば、図6Aを空撮中にジンバル200を重力方向(下方向)に回転すると、空撮画像における島の位置は図6Aにおける上方向に移動する。   In FIG. 8B, in the current composition C1 and the planned composition C2, the distance w1 (corresponding to the movement distance on the screen) of the same subject M21 is 1/6 of the side w of the screen of the display unit 88. Suppose that Further, it is assumed that the imaging field angle indicated by the field angle information of the imaging unit 220 is 90 degrees. In this case, the rotation angle (angle θ2) of the gimbal 200 for realizing the planned composition C2 is 15 degrees. Further, the motion information generation unit 114 may derive (for example, calculate) the rotation direction of the gimbal 200 based on the correspondence relationship between the movement direction in the real space and the movement direction on the screen of the display unit 88. Note that the moving direction in the real space and the moving direction on the screen of the display unit 88 may be opposite to each other. For example, when the gimbal 200 is rotated in the gravitational direction (downward) while taking an aerial image of FIG. 6A, the position of the island in the aerial image moves upward in FIG. 6A.

動作情報生成部114は、無人航空機100の移動情報を生成してよい。例えば、動作情報生成部114は、無人航空機100が所定距離(例えば所定の短距離)飛行するよう、動作制御部115へ指示する。無人航空機100は、動作制御部115の制御に従って、所定距離飛行する。動作情報生成部114は、携帯端末80の端末制御部81と連携して、実空間での飛行による移動距離と表示部88の画面上での移動距離との対応関係を判定してよい。   The operation information generation unit 114 may generate movement information of the unmanned aircraft 100. For example, the motion information generation unit 114 instructs the motion control unit 115 to fly the unmanned aircraft 100 for a predetermined distance (for example, a predetermined short distance). The unmanned aerial vehicle 100 flies for a predetermined distance according to the control of the operation control unit 115. The motion information generation unit 114 may determine the correspondence between the movement distance due to the flight in real space and the movement distance on the screen of the display unit 88 in cooperation with the terminal control unit 81 of the portable terminal 80.

具体的には、動作情報生成部114は、この飛行に係る所定距離の情報を、通信インタフェース150を介して、携帯端末80へ通知してよい。携帯端末80の端末制御部81は、この飛行中の空撮画像において、無人航空機100の所定距離の移動に伴って、表示部88の画面上で同じ被写体が移動した移動距離の情報を検出してよい。端末制御部81は、無線通信部85を介して、移動距離の情報を無人航空機100へ送信してよい。動作情報生成部114は、通信インタフェース150を介して移動距離の情報を受信してよい。このようにして、動作情報生成部114は、実空間での飛行による移動距離と画面上での移動距離との対応関係を判定し、この対応関係の情報をメモリ87等に保持しておいてよい。例えば、メモリ160は、実空間での移動距離が画面上での移動距離のα倍であるという情報を保持しておいてよい。   Specifically, the motion information generation unit 114 may notify the mobile terminal 80 of information on a predetermined distance related to the flight via the communication interface 150. The terminal control unit 81 of the portable terminal 80 detects information on the movement distance that the same subject has moved on the screen of the display unit 88 in accordance with the movement of the unmanned aircraft 100 by a predetermined distance in the aerial image during the flight. It's okay. The terminal control unit 81 may transmit information on the travel distance to the unmanned aircraft 100 via the wireless communication unit 85. The motion information generation unit 114 may receive information on the travel distance via the communication interface 150. In this way, the motion information generation unit 114 determines the correspondence between the movement distance due to the flight in the real space and the movement distance on the screen, and holds this correspondence information in the memory 87 or the like. Good. For example, the memory 160 may hold information that the moving distance in the real space is α times the moving distance on the screen.

また、端末制御部81は、実空間での移動方向と画面上での移動方向との対応関係の情報も、メモリ160に保持させてよい。なお、実空間での移動前後の位置は、例えばGPS受信機240により取得されてよい。   In addition, the terminal control unit 81 may also store information on the correspondence relationship between the moving direction in the real space and the moving direction on the screen in the memory 160. In addition, the position before and behind the movement in real space may be acquired by the GPS receiver 240, for example.

図8Bでは、撮像部220により撮像された同じ被写体M21が、位置p1から位置p2へ移動している。位置p1と位置p2との距離d1(移動距離に相当)とメモリ120dに保持された対応関係の情報(例えばα倍)に基づいて、予定構図を実現するための無人航空機100の移動距離を算出してよい。   In FIG. 8B, the same subject M21 imaged by the imaging unit 220 has moved from the position p1 to the position p2. Based on the distance d1 (corresponding to the movement distance) between the position p1 and the position p2 and the correspondence information (for example, α times) held in the memory 120d, the movement distance of the unmanned aircraft 100 for realizing the planned composition is calculated. You can do it.

これにより、無人航空機100は、多数のセンサを備えない場合でも、予定構図C2を実現するために位置すべき無人航空機100の位置を判定可能であり、予定構図C2を実現するための移動量及び移動方向の情報を取得できる。   As a result, the unmanned aircraft 100 can determine the position of the unmanned aircraft 100 that should be positioned to realize the planned composition C2 even when the unmanned aircraft 100 does not include a large number of sensors. Information on the moving direction can be acquired.

また、動作情報生成部114は、他の方法より移動情報を生成してよい。図8Cは、移動前後における撮像部220の画角の変化と水平方向の移動距離との関係の一例を示す図である。図8Cの各位置を示す点は、側方から見た様子を示している。   Further, the motion information generation unit 114 may generate movement information by other methods. FIG. 8C is a diagram illustrating an example of the relationship between the change in the angle of view of the imaging unit 220 before and after movement and the horizontal movement distance. The point which shows each position of FIG. 8C has shown the mode seen from the side.

例えば、動作情報生成部114は、ライブビュー画像G1の空撮時におけるジンバル200の重力方向に対する角度θ1を取得してよい。角度θ1は、ライブビュー画像G1の空撮時における無人航空機100の重力方向に対する傾きと、ジンバル200の無人航空機100に対するが傾きと、に基づいて算出されてよい。動作情報生成部114は、無人航空機100の高度と、ジンバル200の角度θ1と、に基づいて、無人航空機100の水平方向の位置p11と無人航空機100の撮像範囲の中央部が位置する水平方向の位置p12との距離d11を算出してよい。   For example, the motion information generation unit 114 may acquire the angle θ1 with respect to the gravity direction of the gimbal 200 when the live view image G1 is aerial. The angle θ1 may be calculated based on the inclination of the unmanned aerial vehicle 100 with respect to the direction of gravity during the aerial shooting of the live view image G1 and the inclination of the gimbal 200 with respect to the unmanned aircraft 100. Based on the altitude of the unmanned aerial vehicle 100 and the angle θ1 of the gimbal 200, the motion information generating unit 114 is arranged in the horizontal direction where the horizontal position p11 of the unmanned aircraft 100 and the central portion of the imaging range of the unmanned aircraft 100 are located. A distance d11 from the position p12 may be calculated.

そして、動作情報生成部114は、撮像部220の画角情報と、現構図C1における被写体の画面位置と、予定構図C2における表示部88での同じ被写体の画面位置と、に基づいて、ジンバル200の回転情報(例えば角度θ2に相当する回転角度)を算出してよい。この際、動作情報生成部114は、メモリ160に保持された、実空間での飛行による移動距離と画面上での移動距離との対応関係の情報を参照してよい。動作情報生成部114は、無人航空機100の高度hと、重力方向に対するジンバル200の回転後の角度(θ1+θ2)と、に基づいて、無人航空機100の水平方向の位置p11と回転後(予定構図C2実現時)の無人航空機100の撮像範囲の中央部が位置する水平方向の位置p13との距離d1+d2を算出してよい。よって、動作情報生成部114は、回転前(ライブビュー画像G1の空撮時)の無人航空機100の撮像範囲の中央部が位置する水平方向の位置p12と、回転後(予定構図C2実現時)の無人航空機100の撮像範囲の中央部が位置する水平方向の位置p13と、の差分、つまり角度θ2に対応する移動距離d12を算出可能である。   Then, the motion information generation unit 114 is based on the angle of view information of the imaging unit 220, the screen position of the subject in the current composition C1, and the screen position of the same subject on the display unit 88 in the planned composition C2. Rotation information (for example, a rotation angle corresponding to the angle θ2) may be calculated. At this time, the motion information generation unit 114 may refer to the information on the correspondence relationship between the movement distance due to the flight in the real space and the movement distance on the screen, which is stored in the memory 160. Based on the altitude h of the unmanned aircraft 100 and the angle (θ1 + θ2) after rotation of the gimbal 200 with respect to the direction of gravity, the motion information generation unit 114 and the position p11 in the horizontal direction of the unmanned aircraft 100 and after rotation (planned composition C2). The distance d1 + d2 from the horizontal position p13 where the center of the imaging range of the unmanned aerial vehicle 100 (when realized) is located may be calculated. Therefore, the motion information generation unit 114 includes the horizontal position p12 where the center of the imaging range of the unmanned aerial vehicle 100 before rotation (at the time of aerial shooting of the live view image G1), and after rotation (when the planned composition C2 is realized). The difference between the horizontal position p13 where the center of the imaging range of the unmanned aircraft 100 is located, that is, the movement distance d12 corresponding to the angle θ2 can be calculated.

これにより、無人航空機100は、予め実空間での移動距離と画面上での移動距離との対応関係の情報が得られておらず、この対応関係が不明である場合でも、予定構図を実現するための移動量及び移動方向を算出できる。   Thereby, the unmanned aerial vehicle 100 realizes the planned composition even if the information on the correspondence between the movement distance in the real space and the movement distance on the screen is not obtained in advance, and this correspondence relation is unknown. The movement amount and the movement direction can be calculated.

動作情報生成部114は、上述の方法により、水平方向における1つの軸の方向(例えば図8Cに示すx方向)の移動距離d12を算出する。同様に、動作情報生成部114は、水平方向における1つの軸に直交する他の1つの方向(例えばy方向)の移動距離d22(不図示)を算出してよい。動作情報生成部114は、移動距離d12と移動距離d22とを合成することで、水平方向(xy方向)における移動距離を算出してよい。また、動作情報生成部114は、x方向成分とy方向成分の移動距離を合成することで、移動方向を算出してよい。   The motion information generation unit 114 calculates the movement distance d12 in the direction of one axis in the horizontal direction (for example, the x direction shown in FIG. 8C) by the above-described method. Similarly, the motion information generation unit 114 may calculate a movement distance d22 (not shown) in another direction (for example, the y direction) orthogonal to one axis in the horizontal direction. The motion information generation unit 114 may calculate the movement distance in the horizontal direction (xy direction) by combining the movement distance d12 and the movement distance d22. Further, the motion information generation unit 114 may calculate the movement direction by combining the movement distances of the x-direction component and the y-direction component.

このように、無人航空機100は、動作情報を生成することで、現構図C1から予定構図C2とするために必要な無人航空機100の動作を把握できる。また、無人航空機100は、動作情報としてジンバル200の回転情報を生成することで、ジンバル200の調整により撮像範囲を変更し、所望の予定構図C2とするための動作情報を提供できる。この場合、無人航空機100は、ジンバル200の回転により撮像範囲を変更可能であるので、無人航空機100の移動を必要とせず、無人航空機100が飛行するための消費電力を節約でき、低コストを実現できる。   In this manner, the unmanned aerial vehicle 100 can grasp the operation of the unmanned aerial vehicle 100 necessary for generating the operation information from the current composition C1 to the planned composition C2. In addition, the unmanned aircraft 100 can generate the rotation information of the gimbal 200 as the operation information, thereby changing the imaging range by adjusting the gimbal 200 and providing the operation information for obtaining the desired planned composition C2. In this case, since the unmanned aircraft 100 can change the imaging range by the rotation of the gimbal 200, the unmanned aircraft 100 does not need to be moved, power consumption for the unmanned aircraft 100 can be saved, and low cost can be realized. it can.

また、無人航空機100は、現構図C1と予定構図C2とにおける被写体の位置を基に、比較的簡単な演算により、ジンバル200の回転角度を算出できる。よって、無人航空機100は、演算処理負荷を低く抑制できる。   The unmanned aerial vehicle 100 can calculate the rotation angle of the gimbal 200 by a relatively simple calculation based on the position of the subject in the current composition C1 and the planned composition C2. Therefore, the unmanned aerial vehicle 100 can suppress the calculation processing load low.

また、無人航空機100は、動作情報として無人航空機100の移動情報を生成することで、無人航空機100の地理的な位置調整により撮像範囲を変更し、所望の予定構図C2とするための動作情報を提供できる。つまり、無人航空機100が空間的に移動することで撮像範囲を変更し、適切な予定構図C2を実現できる。   Further, the unmanned aerial vehicle 100 generates movement information of the unmanned aircraft 100 as operation information, thereby changing the imaging range by adjusting the geographical position of the unmanned aircraft 100 to obtain operation information for obtaining a desired planned composition C2. Can be provided. That is, the unmanned aerial vehicle 100 moves spatially, thereby changing the imaging range and realizing an appropriate scheduled composition C2.

次に、撮像補助システム10の動作例について説明する。
図9は、撮像補助システム10の動作例を示すシーケンス図である。
Next, an operation example of the imaging assistance system 10 will be described.
FIG. 9 is a sequence diagram illustrating an operation example of the imaging assistance system 10.

まず、無人航空機100では、撮像部220は、空撮画像を撮像する。(S101)。通信インタフェース150は、撮像された空撮画像(例えばライブビュー画像)を携帯端末80へ送信する(S102)。ここでは、一例として、S101の空撮画像をライブビュー画像として説明する。   First, in the unmanned aircraft 100, the imaging unit 220 captures an aerial image. (S101). The communication interface 150 transmits the captured aerial image (for example, live view image) to the portable terminal 80 (S102). Here, as an example, the aerial image in S101 will be described as a live view image.

携帯端末80では、無線通信部85は、ライブビュー画像を受信する(S151)。表示部88は、例えばライブビュー画像を表示してよい。ユーザは、ライブビュー画像の表示を確認し、構図の調整を希望する場合には、操作部83を介して構図を調整するための操作を行ってよい。端末制御部81は、操作部83により構図の調整操作を受け付けると、撮像補助アプリケーションを起動し、無線通信部85を介して構図調整コマンドを無人航空機100へ送信する(S152)。   In the portable terminal 80, the wireless communication unit 85 receives a live view image (S151). The display unit 88 may display a live view image, for example. The user may confirm the display of the live view image, and may perform an operation for adjusting the composition via the operation unit 83 when desiring to adjust the composition. When the terminal control unit 81 receives a composition adjustment operation through the operation unit 83, the terminal control unit 81 activates the imaging assist application and transmits a composition adjustment command to the unmanned aircraft 100 via the wireless communication unit 85 (S152).

無人航空機100では、UAV制御部110は、通信インタフェース150を介して構図調整コマンドを取得すると(S103)、撮像補助アプリケーションを起動する。主被写体決定部112は、ライブビュー画像における主被写体を決定する(S104)。S104では、主被写体決定部112は、通信インタフェース150を介して、携帯端末80へ主被写体を選択するための画面情報を提供してよい。携帯端末80では、無線通信部85は、無人航空機100から主被写体を選択するための画面情報を受信し、操作部83は、主被写体の選択操作を受け付け、無線通信部85は、主被写体の選択操作に基づく選択情報を無人航空機100へ送信してよい(S153)。主被写体決定部112は、通信インタフェース150を介して主被写体の選択情報を取得し、主被写体の選択情報に基づいて主被写体を決定してよい。   In the unmanned aircraft 100, when the UAV control unit 110 acquires the composition adjustment command via the communication interface 150 (S103), the UAV control unit 110 activates the imaging assistance application. The main subject determining unit 112 determines the main subject in the live view image (S104). In S <b> 104, the main subject determination unit 112 may provide screen information for selecting the main subject to the mobile terminal 80 via the communication interface 150. In the portable terminal 80, the wireless communication unit 85 receives screen information for selecting the main subject from the unmanned aircraft 100, the operation unit 83 accepts a main subject selection operation, and the wireless communication unit 85 receives the main subject. The selection information based on the selection operation may be transmitted to the unmanned aircraft 100 (S153). The main subject determination unit 112 may acquire main subject selection information via the communication interface 150 and may determine the main subject based on the main subject selection information.

構図決定部113は、決定された主被写体に基づいて、構図を決定する(S105)。S105では、構図決定部113は、通信インタフェース150を介して、携帯端末80へ主構図を選択するための画面情報を提供してよい。携帯端末80では、無線通信部85は、無人航空機100から構図を選択するための画面情報を受信し、操作部83は、構図の選択操作を受け付け、無線通信部85は、構図の選択操作に基づく選択情報を無人航空機100へ送信してよい(S154)。構図決定部113は、通信インタフェース150を介して構図の選択情報を取得し、構図の選択情報に基づいて構図を決定してよい。   The composition determination unit 113 determines the composition based on the determined main subject (S105). In S <b> 105, the composition determination unit 113 may provide screen information for selecting the main composition to the mobile terminal 80 via the communication interface 150. In the portable terminal 80, the wireless communication unit 85 receives screen information for selecting a composition from the unmanned aircraft 100, the operation unit 83 receives a composition selection operation, and the wireless communication unit 85 performs a composition selection operation. The selection information based may be transmitted to the unmanned aircraft 100 (S154). The composition determination unit 113 may acquire composition selection information via the communication interface 150 and may determine the composition based on the composition selection information.

動作情報生成部114は、決定された構図に基づいて、無人航空機100の動作情報(例えば、無人航空機100の移動方向、移動量の情報)を生成(例えば算出)する(S106)。ここでの無人航空機100の移動方向及び移動量は、例えば、S101のライブビュー画像が空撮位置から予定構図を実現するための空撮位置への移動方向及び移動量であってよい。   Based on the determined composition, the motion information generation unit 114 generates (for example, calculates) motion information of the unmanned aircraft 100 (for example, information on the moving direction and amount of movement of the unmanned aircraft 100) (S106). The moving direction and moving amount of the unmanned aerial vehicle 100 here may be, for example, the moving direction and moving amount from the aerial shooting position to the aerial shooting position for realizing the planned composition of the live view image in S101.

動作制御部115は、算出された移動方向及び移動量に基づく目的地へ向かって飛行制御し、移動する(S107)。この目的地は、移動前のライブビュー画像の位置から移動方向及び移動量の分だけ移動した位置である。動作制御部115は、目的地への移動が完了したか否かを判定する(S108)。目的地への移動が完了していない場合には、S107に進む。   The operation control unit 115 performs flight control toward the destination based on the calculated moving direction and moving amount, and moves (S107). This destination is a position moved by the moving direction and moving amount from the position of the live view image before moving. The operation control unit 115 determines whether or not the movement to the destination is completed (S108). If the movement to the destination is not completed, the process proceeds to S107.

目的地への移動が完了した場合、通信インタフェース150は、移動完了通知を携帯端末80へ送信する(S109)。携帯端末80では、無線通信部85は、無人航空機100からの移動完了通知を受信する(S155)。操作部83は、移動後の無人航空機100が備える撮像部220又は撮像部230により撮像するための操作を受け付けてよい。端末制御部81は、操作部83により撮像操作を受け付けると、無線通信部85を介して撮像コマンドを無人航空機100へ送信する(S156)。   When the movement to the destination is completed, the communication interface 150 transmits a movement completion notification to the portable terminal 80 (S109). In the portable terminal 80, the wireless communication unit 85 receives the movement completion notification from the unmanned aircraft 100 (S155). The operation unit 83 may accept an operation for imaging by the imaging unit 220 or the imaging unit 230 included in the unmanned aircraft 100 after movement. When the terminal control unit 81 receives an imaging operation through the operation unit 83, the terminal control unit 81 transmits an imaging command to the unmanned aircraft 100 via the wireless communication unit 85 (S156).

無人航空機100では、通信インタフェース150は、携帯端末80からの撮像コマンドを受信する(S110)。撮像部220又は撮像部230は、撮像コマンドに応じて、空撮画像を撮像する(S111)。この空撮画像は、予定構図を実現するために無人航空機100が移動した位置で空撮された画像となり、予定構図に従った画像となる。   In the unmanned aircraft 100, the communication interface 150 receives an imaging command from the portable terminal 80 (S110). The imaging unit 220 or the imaging unit 230 captures an aerial image according to the imaging command (S111). This aerial image is an image taken aerially at the position where the unmanned aircraft 100 has moved in order to realize the planned composition, and is an image according to the planned composition.

なお、撮像コマンドの送信及び受信が省略されてもよい。この場合、無人航空機100は、動作情報に基づく移動を完了した際又は完了した後、移動後の位置で空撮してよい。   Note that transmission and reception of imaging commands may be omitted. In this case, the unmanned aircraft 100 may take an aerial photograph at the position after the movement when or after the movement based on the operation information is completed.

なお、S101〜S106の処理は、無人航空機100の非移動中に(移動せずに所定位置に所在する際に)実施されてもよいし、無人航空機100の移動中に実施されてもよい。   Note that the processing of S101 to S106 may be performed while the unmanned aircraft 100 is not moving (when it is located at a predetermined position without moving), or may be performed while the unmanned aircraft 100 is moving.

なお、動作情報が、無人航空機100の移動情報ではなく、ジンバル200の回転情報でもよい。この場合、S106では、動作情報生成部114は、決定された構図に基づいて、無人航空機100の動作情報(例えば、ジンバル200の回転方向、回転量の情報)を生成(例えば算出)する。ここでのジンバル200の回転方向及び回転量は、例えば、S101のライブビュー画像が空撮位置から予定構図を実現するためのジンバル200の回転方向及び回転量であってよい。S107では、動作制御部115は、算出された回転方向及び回転量に基づく目標回転位置に向かって回転制御し、ジンバル200を回転させる。この目的回転位置は、移動前のライブビュー画像の撮像時のジンバル200の角度から回転方向及び回転量の分だけ回転した位置である。S108では、動作制御部115は、目標回転位置への回転が完了したか否かを判定する。目標回転位置への回転が完了していない場合には、S107に進み、動作制御部115は、回転動作を継続させる。   Note that the operation information may be rotation information of the gimbal 200 instead of movement information of the unmanned aircraft 100. In this case, in S106, the motion information generation unit 114 generates (for example, calculates) the motion information of the unmanned aerial vehicle 100 (for example, information on the rotation direction and amount of rotation of the gimbal 200) based on the determined composition. Here, the rotation direction and the rotation amount of the gimbal 200 may be, for example, the rotation direction and the rotation amount of the gimbal 200 for realizing the planned composition of the live view image of S101 from the aerial shooting position. In S <b> 107, the operation control unit 115 controls the rotation toward the target rotation position based on the calculated rotation direction and rotation amount, and rotates the gimbal 200. The target rotation position is a position rotated by the rotation direction and the rotation amount from the angle of the gimbal 200 at the time of capturing the live view image before the movement. In S108, the operation control unit 115 determines whether or not the rotation to the target rotation position is completed. If the rotation to the target rotation position is not completed, the process proceeds to S107, and the operation control unit 115 continues the rotation operation.

なお、動作制御部115は、ジンバル200の回転制御と無人航空機100の飛行制御とのいずれか一方を行ってもよいし、双方を行ってもよい。なお、ジンバル200の回転による撮像範囲の変更は、無人航空機100の移動を伴わないため、撮像範囲の変更具合が小さい。一方、無人航空機100の移動による撮像範囲の変更は、無人航空機100の移動を伴うため、撮像範囲の変更具合が大きい。よって、ジンバル200の回転制御後に無人航空機100の飛行制御を行うと、ジンバル200の回転では所望の構図に至らない場合でも、無人航空機100の飛行制御により所望の構図の実現のための補助が可能である。つまり、無人航空機100は、ジンバル20の回転制御により省エネルギーを図りつつ、無人航空機100の飛行制御により所望の構図を確実に実現できる。   Note that the operation control unit 115 may perform either one of the rotation control of the gimbal 200 or the flight control of the unmanned aircraft 100, or both. In addition, since the change of the imaging range by rotation of the gimbal 200 is not accompanied by the movement of the unmanned aircraft 100, the degree of change of the imaging range is small. On the other hand, since the change of the imaging range due to the movement of the unmanned aircraft 100 is accompanied by the movement of the unmanned aircraft 100, the imaging range is greatly changed. Therefore, if the flight control of the unmanned aircraft 100 is performed after the rotation control of the gimbal 200, the flight control of the unmanned aircraft 100 can assist in realizing the desired composition even if the rotation of the gimbal 200 does not reach the desired composition. It is. That is, the unmanned aerial vehicle 100 can achieve a desired composition by the flight control of the unmanned aerial vehicle 100 while saving energy by the rotation control of the gimbal 20.

このように、無人航空機100及び撮像補助システム10によれば、所望の被写体を魅力的に空撮するための構図を、この所望の被写体を加味して決定できる。つまり、無人航空機100及び撮像補助システム10は、単に所望の被写体を撮像画像内に収めるだけでなく、撮像画像の構図を向上させることを考慮して、画像の撮像を補助できる。よって、ユーザが写真撮像に関して十分なノウハウを有しない場合でも、無人航空機100により構図の決定を補助でき、所望の被写体の空撮を補助できる。また、無人航空機100は、構図に合わせた動作(例えば無人航空機100の移動、ジンバル200の回転角度の調整)が可能であるので、将来的な空撮において予定構図を利用可能である。   Thus, according to the unmanned aerial vehicle 100 and the imaging assisting system 10, it is possible to determine a composition for attractively shooting a desired subject in consideration of the desired subject. In other words, the unmanned aerial vehicle 100 and the imaging assist system 10 can assist in capturing an image in consideration of improving the composition of the captured image as well as simply placing a desired subject in the captured image. Therefore, even when the user does not have sufficient know-how regarding the photography, the determination of the composition can be assisted by the unmanned aerial vehicle 100, and aerial photography of a desired subject can be assisted. Further, since the unmanned aerial vehicle 100 can operate in accordance with the composition (for example, movement of the unmanned aircraft 100 and adjustment of the rotation angle of the gimbal 200), the planned composition can be used in future aerial photography.

また、無人航空機100は、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、この動作情報に基づく無人航空機100の動作を迅速に実施できる。また、無人航空機100は、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、携帯端末80の処理負荷を低減でき、携帯端末80との間の通信負荷の低減も実現できる。したがって、携帯端末80は、携帯端末80自身の処理負荷を低減しながら、無人航空機100と連携して撮像補助に係る処理に貢献できる。   The unmanned aerial vehicle 100 can quickly perform the operation of the unmanned aerial vehicle 100 based on the motion information by determining the main subject, determining the composition, and generating the motion information related to the imaging assistance. The unmanned aerial vehicle 100 can reduce the processing load of the portable terminal 80 by determining the main subject, determining the composition, and generating the operation information related to the imaging assistance, and reduces the communication load with the portable terminal 80. Reduction can also be realized. Therefore, the mobile terminal 80 can contribute to processing related to imaging assistance in cooperation with the unmanned aircraft 100 while reducing the processing load of the mobile terminal 80 itself.

また、無人航空機100は、S101,S102のライブビュー画像を基に主被写体の決定、構図の決定、等を行うことで、ライブビュー画像に含まれる所望の被写体を基準とした予定構図を生成できる。よって、無人航空機100は、一連の撮像を行う流れの中で、所望の被写体を所望の構図により空撮できる。また、無人航空機100は、本撮像前の仮撮像時に映り込んだ被写体に含まれる主被写体に適した構図で、本撮像できる。   The unmanned aerial vehicle 100 can generate a scheduled composition based on a desired subject included in the live view image by determining a main subject, determining a composition, and the like based on the live view images of S101 and S102. . Therefore, the unmanned aerial vehicle 100 can aerially photograph a desired subject with a desired composition in a flow of performing a series of imaging. The unmanned aerial vehicle 100 can perform the main imaging with a composition suitable for the main subject included in the subject reflected during the temporary imaging before the main imaging.

なお、表示部88は、動作情報を表示してもよい。動作情報に係る表示情報は、「東方向へ10m移動してください」、「ジンバル200を重力方向に20度回転してください」、等でよい。表示部88による動作情報の表示の代わりに、他の提示部により動作情報が提示されてもよい。例えば、音声出力部(不図示)が動作情報に係る音声情報を出力してもよいし、振動部(不図示)が動作情報を示す振動を行ってもよい。   The display unit 88 may display operation information. The display information related to the operation information may be “move 10 m eastward”, “rotate the gimbal 200 20 degrees in the direction of gravity”, and the like. Instead of displaying the operation information on the display unit 88, the operation information may be presented by another presentation unit. For example, an audio output unit (not shown) may output audio information related to the operation information, or a vibration unit (not shown) may perform vibration indicating the operation information.

無人航空機100が動作情報を提示することで、ユーザは、動作情報の内容を確認できる。そのため、動作情報を確認したユーザが、送信機50を操作することで、送信機50から無人航空機100へ動作指示が送られてよい。無人航空機100は、通信インタフェース150を介して、動作指示を取得し、予定構図を実現するための空撮位置に無人航空機100を移動させてもよい。この場合、無人航空機100は、動作制御部115の機能を有していなくても、予定構図を実現するための無人航空機100の動作を実施できる。   The unmanned aircraft 100 presents the operation information, so that the user can confirm the content of the operation information. Therefore, an operation instruction may be sent from the transmitter 50 to the unmanned aircraft 100 by a user who has confirmed the operation information operating the transmitter 50. The unmanned aerial vehicle 100 may acquire an operation instruction via the communication interface 150 and move the unmanned aircraft 100 to an aerial shooting position for realizing a planned composition. In this case, even if the unmanned aircraft 100 does not have the function of the operation control unit 115, the operation of the unmanned aircraft 100 for realizing the planned composition can be performed.

(第2の実施形態)
第1の実施形態では、無人航空機が、主被写体の決定、構図の決定、及び動作情報の生成を行うことを例示した。第2の実施形態では、携帯端末が、主被写体の決定、構図の決定、及び動作情報の生成を行うことを例示する。なお、第2の実施形態において、第1の実施形態と同様の構成や動作については、説明を省略又は簡略化する。
(Second Embodiment)
In the first embodiment, it is exemplified that the unmanned aerial vehicle determines the main subject, determines the composition, and generates the operation information. The second embodiment exemplifies that the mobile terminal determines the main subject, determines the composition, and generates the operation information. Note that in the second embodiment, the description of the same configuration and operation as in the first embodiment will be omitted or simplified.

図10は、第2の実施形態における撮像補助システム10Aの構成例を示す模式図である。撮像補助システム10Aは、無人航空機100A、送信機50及び携帯端末80Aを備える。無人航空機100A、送信機50及び携帯端末80Aは、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。   FIG. 10 is a schematic diagram illustrating a configuration example of an imaging assistance system 10A according to the second embodiment. The imaging assistance system 10A includes an unmanned aircraft 100A, a transmitter 50, and a portable terminal 80A. Unmanned aerial vehicle 100A, transmitter 50, and portable terminal 80A can communicate with each other by wired communication or wireless communication (for example, wireless LAN (Local Area Network)).

携帯端末80Aは、無人航空機100Aにより空撮するための構図を決定し、決定された構図となるように無人航空機100Aの動作情報を生成する。無人航空機100Aは、動作情報に従って無人航空機100Aの動作を制御する。携帯端末80Aは、送信機50とともに、無人航空機100Aを用いた空撮を予定しているユーザに所持され得る。携帯端末80Aは、無人航空機100Aによる空撮を補助する。   The portable terminal 80A determines a composition for aerial photography with the unmanned aircraft 100A, and generates operation information of the unmanned aircraft 100A so as to obtain the determined composition. Unmanned aerial vehicle 100A controls the operation of unmanned aerial vehicle 100A in accordance with the operation information. The portable terminal 80 </ b> A can be carried by a user who plans to take an aerial photograph using the unmanned aircraft 100 </ b> A together with the transmitter 50. The portable terminal 80A assists aerial photography with the unmanned aircraft 100A.

図11は、無人航空機100Aのハードウェア構成の一例を示すブロック図である。無人航空機100Aは、第1の実施形態における無人航空機100と比較すると、UAV制御部110の代わりにUAV制御部110Aを備える。なお、図11の無人航空機100Aにおいて、図2に示した無人航空機100の構成と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。なお、メモリ160は、撮像補助に係る情報(例えば構図のサンプル情報、実空間での距離と画面上での距離との対応関係の情報)を保持しなくてもよい。   FIG. 11 is a block diagram illustrating an example of a hardware configuration of the unmanned aircraft 100A. The unmanned aerial vehicle 100 </ b> A includes a UAV control unit 110 </ b> A instead of the UAV control unit 110 as compared with the unmanned aircraft 100 in the first embodiment. In the unmanned aerial vehicle 100A of FIG. 11, the same components as those of the unmanned aircraft 100 shown in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted or simplified. Note that the memory 160 may not hold information related to imaging assistance (for example, sample information of the composition, information on the correspondence between the distance in the real space and the distance on the screen).

図12は、UAV制御部110Aの機能構成の一例を示すブロック図である。UAV制御部110Aは、動作制御部115及び動作情報取得部116を備える。なお、図12のUAV制御部110Aにおいて、図3に示したUAV制御部110の構成と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。   FIG. 12 is a block diagram illustrating an example of a functional configuration of the UAV control unit 110A. The UAV control unit 110A includes an operation control unit 115 and an operation information acquisition unit 116. In the UAV control unit 110A of FIG. 12, the same components as those of the UAV control unit 110 shown in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted or simplified.

動作情報取得部116は、例えば通信インタフェース150を介して、携帯端末80Aから無人航空機100Aの動作情報を取得する。動作制御部115は、取得された動作情報に従って、無人航空機100Aの動作を制御する。無人航空機100Aの動作制御の内容は、第1の実施形態と同様でよい。   The operation information acquisition unit 116 acquires operation information of the unmanned aircraft 100A from the portable terminal 80A, for example, via the communication interface 150. The operation control unit 115 controls the operation of the unmanned aircraft 100A according to the acquired operation information. The content of the operation control of the unmanned aircraft 100A may be the same as that of the first embodiment.

図13は、携帯端末80Aのハードウェア構成の一例を示すブロック図である。携帯端末80Aは、第1の実施形態における携帯端末80と比較すると、端末制御部81の代わりに端末制御部81Aを備える。なお、図13の携帯端末80Aにおいて、図4に示した携帯端末80の構成と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。なお、メモリ87は、第1の実施形態における無人航空機100が備えるメモリ160と同様に、撮像補助に係る情報(例えば構図のサンプル情報、実空間での距離と画面上での距離との対応関係の情報、機械学習に係る情報)を保持してよい。   FIG. 13 is a block diagram illustrating an example of a hardware configuration of the mobile terminal 80A. The mobile terminal 80 </ b> A includes a terminal control unit 81 </ b> A instead of the terminal control unit 81 as compared with the mobile terminal 80 in the first embodiment. In the mobile terminal 80A of FIG. 13, the same reference numerals are given to the same components as those of the mobile terminal 80 shown in FIG. 4, and the description thereof is omitted or simplified. Note that the memory 87 is similar to the memory 160 included in the unmanned aircraft 100 in the first embodiment, such as information related to imaging assistance (for example, sample information of composition, correspondence between distance in real space and distance on the screen) And information related to machine learning).

図14は、端末制御部81Aの機能構成の一例を示すブロック図である。端末制御部81Aは、画像取得部811は、主被写体決定部812、構図決定部813及び動作情報生成部814を備える。主被写体決定部812及び構図決定部813は、情報取得部の一例である。動作情報生成部114は、生成部の一例である。   FIG. 14 is a block diagram illustrating an example of a functional configuration of the terminal control unit 81A. The terminal control unit 81A includes an image acquisition unit 811 that includes a main subject determination unit 812, a composition determination unit 813, and an operation information generation unit 814. The main subject determination unit 812 and the composition determination unit 813 are examples of an information acquisition unit. The motion information generation unit 114 is an example of a generation unit.

画像取得部811は、メモリ87に保持された画像(例えば無人航空機100Aの撮像部220又は撮像部230により空撮された空撮画像)を取得してよい。画像取得部811は、例えば通信インタフェース150を介して、撮像部220又は撮像部230により空撮中の空撮画像を取得してよい。空撮画像は、動画でも静止画でもよい。空撮中の空撮動画は、ライブビュー画像とも称される。画像取得部811により取得される空撮画像として、主にライブビュー画像を例示する。   The image acquisition unit 811 may acquire an image held in the memory 87 (for example, an aerial image captured by the imaging unit 220 or the imaging unit 230 of the unmanned aircraft 100A). For example, the image acquisition unit 811 may acquire an aerial image during the aerial imaging by the imaging unit 220 or the imaging unit 230 via the communication interface 150. The aerial image may be a moving image or a still image. Aerial video during aerial photography is also referred to as a live view image. A live view image is mainly exemplified as an aerial image acquired by the image acquisition unit 811.

主被写体決定部812は、画像取得部811により取得されたライブビュー画像に含まれる1つ以上の被写体のうち、主被写体を決定(特定)する。主被写体の決定は、主被写体の情報の取得の一例である。主被写体決定部812による主被写体の決定方法は、第1の実施形態における無人航空機100が備える主被写体決定部112による主被写体の決定方法と同様でよい。   The main subject determination unit 812 determines (specifies) the main subject among one or more subjects included in the live view image acquired by the image acquisition unit 811. The determination of the main subject is an example of acquisition of information on the main subject. The main subject determination method by the main subject determination unit 812 may be the same as the main subject determination method by the main subject determination unit 112 included in the unmanned aircraft 100 according to the first embodiment.

構図決定部813は、決定された主被写体を撮像するための構図を決定する。主被写体を撮像するための構図の決定は、主被写体を撮像するための構図の情報の取得の一例である。構図決定部813による構図の決定方法は、第1の実施形態における無人航空機100が備える構図決定部113による構図の決定方法と同様でよい。   The composition determination unit 813 determines a composition for imaging the determined main subject. The determination of the composition for imaging the main subject is an example of acquisition of composition information for imaging the main subject. The composition determination method by the composition determination unit 813 may be the same as the composition determination method by the composition determination unit 113 included in the unmanned aircraft 100 according to the first embodiment.

動作情報生成部814は、決定された構図に従った空撮を実現するための無人航空機100Aの動作情報を生成する。動作情報生成部814による動作情報の生成方法は、第1の実施形態における無人航空機100が備える動作情報生成部114による動作情報の生成方法と同様でよい。生成された動作情報は、例えば無線通信部85により、無人航空機100Aへ送信されてよい。   The operation information generation unit 814 generates operation information of the unmanned aircraft 100A for realizing aerial photography according to the determined composition. The operation information generation method by the operation information generation unit 814 may be the same as the operation information generation method by the operation information generation unit 114 included in the unmanned aircraft 100 according to the first embodiment. The generated operation information may be transmitted to the unmanned aircraft 100A by the wireless communication unit 85, for example.

次に、撮像補助システム10Aの動作例について説明する。
図15は、撮像補助システム10Aの動作例を示すシーケンス図である。
Next, an operation example of the imaging assistance system 10A will be described.
FIG. 15 is a sequence diagram illustrating an operation example of the imaging assistance system 10A.

まず、無人航空機100Aは、S101,S102の処理を実施する。携帯端末80Aは、S151の処理を実施する。   First, the unmanned aerial vehicle 100A performs the processes of S101 and S102. The portable terminal 80A performs the process of S151.

携帯端末80Aでは、表示部88は、例えばライブビュー画像を表示してよい。ユーザは、ライブビュー画像の表示を確認し、構図の調整を希望する場合には、操作部83を介して構図を調整するための操作を行ってよい。この操作は、構図調整開始指示の一例である。端末制御部81は、操作部83により構図の調整操作を受け付けると、撮像補助アプリケーションを起動する(S161)。   In the portable terminal 80A, the display unit 88 may display a live view image, for example. The user may confirm the display of the live view image, and may perform an operation for adjusting the composition via the operation unit 83 when desiring to adjust the composition. This operation is an example of a composition adjustment start instruction. When the terminal control unit 81 receives a composition adjustment operation through the operation unit 83, the terminal control unit 81 activates the imaging assistance application (S161).

主被写体決定部812は、ライブビュー画像における主被写体を決定する(S162)。S162では、主被写体決定部812は、主被写体を選択するための選択画面を表示部88に表示させてよい。操作部83は、主被写体の選択操作を受け付けることで、主被写体の選択情報を取得してよい。主被写体決定部812は、この主被写体の選択情報に基づいて主被写体を決定してよい。   The main subject determining unit 812 determines the main subject in the live view image (S162). In S162, the main subject determining unit 812 may display a selection screen for selecting the main subject on the display unit 88. The operation unit 83 may acquire main subject selection information by receiving a main subject selection operation. The main subject determination unit 812 may determine the main subject based on the main subject selection information.

構図決定部813は、決定された主被写体に基づいて、構図を決定する(S163)。S163では、構図決定部813は、予定構図を選択するための選択画面を表示部88に表示させてよい。操作部83は、構図の選択操作を受け付けることで、予定構図の選択情報を取得してよい。構図決定部813は、この構図の選択情報に基づいて構図を決定してよい。   The composition determination unit 813 determines the composition based on the determined main subject (S163). In S163, the composition determination unit 813 may cause the display unit 88 to display a selection screen for selecting a planned composition. The operation unit 83 may acquire planned composition selection information by receiving a composition selection operation. The composition determination unit 813 may determine the composition based on the composition selection information.

動作情報生成部814は、決定された構図に基づいて、無人航空機100Aの動作情報を生成する(S164)。例えば無線通信部85は、生成された無人航空機100Aの動作情報を、無人航空機100Aへ送信する(S165)。   The motion information generation unit 814 generates motion information of the unmanned aircraft 100A based on the determined composition (S164). For example, the wireless communication unit 85 transmits the generated operation information of the unmanned aircraft 100A to the unmanned aircraft 100A (S165).

無人航空機100Aでは、通信インタフェース150は、携帯端末80Aからの無人航空機100Aの動作情報を受信する(S121)。   In the unmanned aircraft 100A, the communication interface 150 receives the operation information of the unmanned aircraft 100A from the portable terminal 80A (S121).

続いて、無人航空機100Aは、S107〜S111の処理を実施し、携帯端末80Aは、S155,S156の処理を実施する。   Subsequently, the unmanned aircraft 100A performs the processes of S107 to S111, and the portable terminal 80A performs the processes of S155 and S156.

このように、携帯端末80A及び撮像補助システム10Aによれば、所望の被写体を魅力的に空撮するための構図を、この所望の被写体を加味して決定できる。つまり、携帯端末80A及び撮像補助システム10Aは、単に所望の被写体を撮像画像内に収めるだけでなく、撮像画像の構図を向上させることを考慮して、画像の撮像を補助できる。よって、ユーザが写真撮像に関して十分なノウハウを有しない場合でも、携帯端末80Aにより構図の決定を補助でき、所望の被写体の空撮を補助できる。また、無人航空機100Aは、構図に合わせた動作(例えば無人航空機100Aの移動、ジンバル200の回転角度の調整)が可能であるので、将来的な空撮において予定構図を利用可能である。   As described above, according to the mobile terminal 80A and the imaging assistance system 10A, it is possible to determine a composition for attractively shooting a desired subject in consideration of the desired subject. That is, the mobile terminal 80A and the imaging assistance system 10A can assist in capturing an image in consideration of improving the composition of the captured image as well as simply placing a desired subject in the captured image. Therefore, even when the user does not have sufficient know-how regarding the photography, composition determination can be assisted by the portable terminal 80A, and aerial photography of a desired subject can be assisted. In addition, since the unmanned aircraft 100A can operate in accordance with the composition (for example, movement of the unmanned aircraft 100A and adjustment of the rotation angle of the gimbal 200), the planned composition can be used in future aerial photography.

また、携帯端末80Aは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、無人航空機100Aの処理負荷を低減でき、空撮画像の処理や飛行制御等の処理に無人航空機100Aを集中させることができる。また、無人航空機100Aは、他装置である携帯端末80等により生成された動作情報に従って動作できるので、無人航空機100の処理負荷を低減しても、所望の構図を実現するための所望の動作を実施できる。   In addition, the mobile terminal 80A can reduce the processing load of the unmanned aircraft 100A by determining the main subject related to imaging assistance, determining the composition, and generating the operation information. The unmanned aircraft 100A can be concentrated in the processing. Further, since the unmanned aircraft 100A can operate according to the operation information generated by the portable terminal 80 or the like which is another device, even if the processing load on the unmanned aircraft 100 is reduced, a desired operation for realizing a desired composition can be performed. Can be implemented.

なお、携帯端末80A以外の情報処理装置(例えば送信機50、PC、その他の情報処理装置)が、携帯端末80Aが有する撮像補助機能(例えば主被写体決定機能、構図決定機能、動作情報生成機能)を有してもよい。   It should be noted that an information processing device other than the mobile terminal 80A (eg, transmitter 50, PC, other information processing device) has an imaging assistance function (eg, main subject determination function, composition determination function, operation information generation function) that the mobile terminal 80A has. You may have.

(第3の実施形態)
第1,第2の実施形態では、無人航空機による空撮を補助することを例示した。第3の実施形態では、ジンバル装置に取り付けられた撮像装置による撮像を補助することを例示する。なお、第3の実施形態において、第1,第2の実施形態と同様の構成や動作については、説明を省略又は簡略化する。
(Third embodiment)
In the first and second embodiments, assisting aerial photography with an unmanned aerial vehicle is exemplified. In 3rd Embodiment, assisting the imaging by the imaging device attached to the gimbal apparatus is illustrated. Note that in the third embodiment, the description of the same configuration and operation as those in the first and second embodiments is omitted or simplified.

図16は、第3の実施形態における撮像補助システム10Bの構成例を示す斜視図である。撮像補助システム10Bは、ジンバル装置300及び携帯端末80Bを備える。ジンバル装置300及び携帯端末80Bは、相互に有線通信(例えばUSB通信)又は無線通信(例えば無線LAN、Bluetooth(登録商標)、近距離通信、公衆無線回線)により通信可能である。ジンバル装置300は、支持装置の一例である。   FIG. 16 is a perspective view illustrating a configuration example of an imaging assistance system 10B according to the third embodiment. The imaging assistance system 10B includes a gimbal device 300 and a portable terminal 80B. The gimbal device 300 and the portable terminal 80B can communicate with each other by wired communication (for example, USB communication) or wireless communication (for example, wireless LAN, Bluetooth (registered trademark), near field communication, public wireless line). The gimbal device 300 is an example of a support device.

携帯端末80Bは、ジンバル装置300に取り付けられた携帯端末80Bが備える撮像部820により撮像するための構図を決定し、決定された構図となるようにジンバル装置300の動作情報を生成してよい。又は、ジンバル装置300は、ジンバル装置300に取り付けられた携帯端末80Bが備える撮像部820により撮像するための構図を決定し、決定された構図となるようにジンバル装置300の動作情報を生成してよい。ジンバル装置300は、動作情報に従ってジンバル装置300の動作を制御する。ジンバル装置300は、携帯端末80Bを用いた撮像を予定しているユーザに所持され得る。携帯端末80B又はジンバル装置300は、ジンバル装置300に取り付けられた携帯端末80Bによる撮像を補助する。なお、撮像部820は、撮像装置の一例である。   The mobile terminal 80B may determine a composition for imaging by the imaging unit 820 included in the mobile terminal 80B attached to the gimbal apparatus 300, and generate operation information of the gimbal apparatus 300 so that the determined composition is obtained. Alternatively, the gimbal device 300 determines a composition for imaging by the imaging unit 820 included in the mobile terminal 80B attached to the gimbal device 300, and generates operation information of the gimbal device 300 so that the determined composition is obtained. Good. The gimbal device 300 controls the operation of the gimbal device 300 according to the operation information. The gimbal device 300 can be possessed by a user who plans to take an image using the portable terminal 80B. The portable terminal 80B or the gimbal device 300 assists imaging by the portable terminal 80B attached to the gimbal device 300. The imaging unit 820 is an example of an imaging device.

図16に示すように、ジンバル装置300は、ジンバル310、取付部315、及び把持部330を備える。取付部315は、ジンバル装置300に携帯端末80Bを取り付け、ジンバル装置300に対する携帯端末80Bの位置や向きを固定する。   As shown in FIG. 16, the gimbal device 300 includes a gimbal 310, an attachment part 315, and a grip part 330. The attachment unit 315 attaches the portable terminal 80B to the gimbal device 300 and fixes the position and orientation of the portable terminal 80B with respect to the gimbal device 300.

ジンバル310は、ヨー軸、ピッチ軸、及びロール軸を中心に、携帯端末80Bを回転可能に支持してよい。ジンバル310は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に携帯端末80Bを回転させることで、携帯端末80Bが備える撮像部820の撮像方向を変更してよい。携帯端末80Bにおける撮像部820の位置は固定されているので、携帯端末80Bの回転は撮像部820の回転に対応すると言える。   The gimbal 310 may support the portable terminal 80B so as to be rotatable around the yaw axis, the pitch axis, and the roll axis. The gimbal 310 may change the imaging direction of the imaging unit 820 included in the mobile terminal 80B by rotating the mobile terminal 80B around at least one of the yaw axis, the pitch axis, and the roll axis. Since the position of the imaging unit 820 in the portable terminal 80B is fixed, it can be said that the rotation of the portable terminal 80B corresponds to the rotation of the imaging unit 820.

把持部330は、使用時(撮像時)にユーザに把持されてよい。図16に示す把持部330は一例であり、図16とは異なる把持部330の形状、ジンバル装置300に対する把持部330の位置、ジンバル装置300に対する把持部330のサイズ、でもよい。なお、図16においてジンバル310を示す点線が携帯端末80B付近で分断されているが、これはジンバル310が携帯端末80Bよりも奥側に位置することを示している。   The gripper 330 may be gripped by the user when in use (when imaging). The gripper 330 shown in FIG. 16 is an example, and the shape of the gripper 330 different from that in FIG. 16, the position of the gripper 330 with respect to the gimbal device 300, and the size of the gripper 330 with respect to the gimbal device 300 may be used. In FIG. 16, the dotted line indicating the gimbal 310 is divided in the vicinity of the mobile terminal 80B, which indicates that the gimbal 310 is located on the back side of the mobile terminal 80B.

次に、ジンバル装置300及び携帯端末80Bの構成例について説明する。   Next, configuration examples of the gimbal device 300 and the portable terminal 80B will be described.

不図示であるが、ジンバル装置300は、無人航空機100又は無人航空機100Aのハードウェア構成の少なくとも一部を有する。不図示であるが、ジンバル装置300は、無人航空機100又は無人航空機100Aの機能構成の少なくとも一部を有する。   Although not shown, the gimbal device 300 includes at least a part of the hardware configuration of the unmanned aircraft 100 or the unmanned aircraft 100A. Although not shown, the gimbal device 300 has at least a part of the functional configuration of the unmanned aircraft 100 or the unmanned aircraft 100A.

不図示であるが、携帯端末80Bは、携帯端末80又は携帯端末80Aのハードウェア構成と同様でよい。不図示であるが、携帯端末80Bは、携帯端末80又は携帯端末80の機能構成と同様でよい。   Although not shown, the mobile terminal 80B may have the same hardware configuration as the mobile terminal 80 or the mobile terminal 80A. Although not shown, the portable terminal 80B may have the same functional configuration as the portable terminal 80 or the portable terminal 80.

撮像補助システム10Bにおいて、携帯端末80Bが第1の実施形態の携帯端末80の機能を有する場合、ジンバル装置300は、第1の実施形態の無人航空機100の機能を有してよい。つまり、ジンバル装置300が、撮像部820により撮像された画像(例えばライブビュー画像)における主被写体の決定機能、構図の決定機能、及びジンバル装置300の動作情報の生成機能を有してよい。また、ジンバル装置300が、動作情報に基づくジンバル装置300の動作の制御機能を有してよい。   In the imaging assistance system 10B, when the portable terminal 80B has the function of the portable terminal 80 of the first embodiment, the gimbal device 300 may have the function of the unmanned aircraft 100 of the first embodiment. That is, the gimbal device 300 may have a main subject determination function, a composition determination function, and a gimbal device 300 operation information generation function in an image captured by the imaging unit 820 (for example, a live view image). Further, the gimbal device 300 may have an operation control function of the gimbal device 300 based on the operation information.

撮像補助システム10Bにおいて、携帯端末80Bが第2の実施形態の携帯端末80Aの機能を有する場合、ジンバル装置300は、第2の実施形態の無人航空機100Aの機能を有してよい。つまり、携帯端末80Bが、撮像部820により撮像された画像(例えばライブビュー画像)における主被写体の決定機能、構図の決定機能、及びジンバル装置300の動作情報の生成機能を有してよい。ジンバル装置300が、ジンバル装置300の動作情報の取得機能を有してよい。また、ジンバル装置300が、動作情報に基づくジンバル装置300の動作の制御機能を有してよい。   In the imaging assistance system 10B, when the mobile terminal 80B has the function of the mobile terminal 80A of the second embodiment, the gimbal device 300 may have the function of the unmanned aircraft 100A of the second embodiment. That is, the mobile terminal 80B may have a main subject determination function, a composition determination function, and a gimbal device 300 operation information generation function in an image (for example, a live view image) captured by the imaging unit 820. The gimbal device 300 may have an operation information acquisition function of the gimbal device 300. Further, the gimbal device 300 may have an operation control function of the gimbal device 300 based on the operation information.

なお、ジンバル装置300は、無人航空機100,100Aとは異なり、飛行することが考慮されない。そのため、動作情報は、ジンバル310の回転情報でよい。よって、ジンバル装置300は、動作情報に基づいて、ジンバル310の回転を制御してよい。   Note that, unlike the unmanned aerial vehicles 100 and 100A, the gimbal device 300 is not considered to fly. Therefore, the operation information may be rotation information of the gimbal 310. Therefore, the gimbal device 300 may control the rotation of the gimbal 310 based on the operation information.

このように、ジンバル装置300、携帯端末80B及び撮像補助システム10Bによれば、所望の被写体を魅力的に空撮するための構図を、この所望の被写体を加味して決定できる。つまり、ジンバル装置300、携帯端末80B及び撮像補助システム10Bは、単に所望の被写体を撮像画像内に収めるだけでなく、撮像画像の構図を向上させることを考慮して、画像の撮像を補助できる。よって、ユーザが写真撮像に関して十分なノウハウを有しない場合でも、ジンバル装置300又は携帯端末80Bにより構図の決定を補助でき、所望の被写体の撮像を補助できる。また、ジンバル装置300は、構図に合わせた動作(例えばジンバル310の回転角度の調整)が可能であるので、将来的な撮像において予定構図を利用可能である。   Thus, according to the gimbal device 300, the portable terminal 80B, and the imaging assisting system 10B, a composition for attractively shooting a desired subject can be determined in consideration of the desired subject. In other words, the gimbal device 300, the portable terminal 80B, and the imaging assistance system 10B can assist in capturing an image in consideration of improving the composition of the captured image as well as simply placing a desired subject in the captured image. Therefore, even when the user does not have sufficient know-how regarding the photography, the determination of the composition can be assisted by the gimbal device 300 or the portable terminal 80B, and the imaging of a desired subject can be assisted. Further, since the gimbal device 300 can perform an operation in accordance with the composition (for example, adjustment of the rotation angle of the gimbal 310), the planned composition can be used for future imaging.

また、ジンバル装置300は、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、この動作情報に基づくジンバル装置300の動作を迅速に実施できる。また、ジンバル装置300は、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、携帯端末80Bの処理負荷を低減でき、携帯端末80Bとの間の通信負荷の低減も実現できる。したがって、携帯端末80Bは、携帯端末80B自身の処理負荷を低減しながら、ジンバル装置300と連携して撮像補助に係る処理に貢献できる。また、ジンバル装置300は、ジンバル310の回転制御に、撮像補助により生成された動作情報を用いることができる。つまり、第1,第2の実施形態のような無人航空機100による空撮のためだけでなく、ジンバル装置300を用いた撮像のために、撮像補助による撮像支援が実施され得る。   In addition, the gimbal device 300 can quickly perform the operation of the gimbal device 300 based on the motion information by determining the main subject, determining the composition, and generating the motion information related to the imaging assistance. In addition, the gimbal device 300 can reduce the processing load of the mobile terminal 80B by determining the main subject related to imaging assistance, determining the composition, and generating the operation information, and can reduce the communication load with the mobile terminal 80B. Reduction can also be realized. Therefore, the mobile terminal 80B can contribute to processing related to imaging assistance in cooperation with the gimbal device 300 while reducing the processing load of the mobile terminal 80B itself. Also, the gimbal device 300 can use the operation information generated by the imaging assistance for the rotation control of the gimbal 310. That is, imaging assistance with imaging assistance can be implemented not only for aerial photography with the unmanned aircraft 100 as in the first and second embodiments, but also for imaging using the gimbal device 300.

また、携帯端末80Bは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、ジンバル装置300の処理負荷を低減でき、撮像画像の処理等にジンバル装置300を集中させることができる。また、ジンバル装置300は、他装置である携帯端末80B等により生成された動作情報に従って動作できるので、ジンバル装置300の処理負荷を低減しても、所望の構図を実現するための所望の動作を実施できる。   Further, the portable terminal 80B can reduce the processing load of the gimbal device 300 by determining the main subject, determining the composition, and generating the operation information related to the imaging assistance, and can reduce the processing load of the gimbal device 300 for processing the captured image. Can concentrate. In addition, since the gimbal device 300 can operate according to the operation information generated by the mobile terminal 80B, which is another device, even if the processing load on the gimbal device 300 is reduced, a desired operation for realizing a desired composition can be performed. Can be implemented.

(第4の実施形態)
第3の実施形態では、ジンバル装置に取り付けられた撮像装置による撮像を補助することを例示した。第4の実施形態では、ジンバル装置が備える撮像部による撮像を補助することを例示する。なお、第4の実施形態において、第1〜第3の実施形態と同様の構成や動作については、説明を省略又は簡略化する。
(Fourth embodiment)
In 3rd Embodiment, assisting imaging with the imaging device attached to the gimbal apparatus was illustrated. In 4th Embodiment, assisting the imaging by the imaging part with which a gimbal apparatus is provided is illustrated. Note that in the fourth embodiment, the description of the same configuration and operation as those of the first to third embodiments is omitted or simplified.

図17Aは、第4の実施形態におけるジンバル装置300Cの構成例を示す正面斜視図である。図17Bは、第4の実施形態における撮像補助システム10Cの構成例を示す背面斜視図である。撮像補助システム10Cは、ジンバル装置300C及び携帯端末80Cを備える。ジンバル装置300C及び携帯端末80Cは、相互に有線通信(例えばUSB通信)又は無線通信(例えば無線LAN、Bluetooth(登録商標)、近距離通信、公衆無線回線)により通信可能である。ジンバル装置300Cは、支持装置の一例である。   FIG. 17A is a front perspective view showing a configuration example of a gimbal apparatus 300C in the fourth embodiment. FIG. 17B is a rear perspective view illustrating a configuration example of an imaging assistance system 10C in the fourth embodiment. The imaging assistance system 10C includes a gimbal device 300C and a portable terminal 80C. The gimbal device 300C and the portable terminal 80C can communicate with each other by wired communication (for example, USB communication) or wireless communication (for example, wireless LAN, Bluetooth (registered trademark), near field communication, public wireless line). The gimbal device 300C is an example of a support device.

携帯端末80Cは、ジンバル装置300Cに内蔵された撮像部320により撮像するための構図を決定し、決定された構図となるようにジンバル装置300Cの動作情報を生成してよい。又は、ジンバル装置300Cは、撮像部320により撮像するための構図を決定し、決定された構図となるようにジンバル装置300Cの動作情報を生成してよい。ジンバル装置300Cは、動作情報に従ってジンバル装置300Cの動作を制御する。ジンバル装置300Cは、ジンバル装置300Cを用いた撮像を予定しているユーザに所持され得る。携帯端末80C又はジンバル装置300Cは、ジンバル装置300Cによる撮像を補助する。   The portable terminal 80C may determine a composition for imaging by the imaging unit 320 built in the gimbal apparatus 300C, and generate operation information of the gimbal apparatus 300C so that the determined composition is obtained. Alternatively, the gimbal device 300C may determine a composition for imaging by the imaging unit 320, and generate operation information of the gimbal device 300C so that the determined composition is obtained. The gimbal device 300C controls the operation of the gimbal device 300C according to the operation information. The gimbal device 300C can be possessed by a user who plans to take an image using the gimbal device 300C. The portable terminal 80C or the gimbal device 300C assists the imaging by the gimbal device 300C.

図17A及び図17Bに示すように、ジンバル装置300Cは、ジンバル310C、撮像部320、及び把持部330を備える。撮像部320は、撮像装置の一例である。図17A及び図17Bのジンバル装置300C及び撮像補助システム10Cにおいて、図16に示したジンバル装置300及び撮像補助システム10Bと同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。   As shown in FIGS. 17A and 17B, the gimbal device 300C includes a gimbal 310C, an imaging unit 320, and a gripping unit 330. The imaging unit 320 is an example of an imaging device. In the gimbal device 300C and the imaging assistance system 10C in FIGS. 17A and 17B, the same components as those in the gimbal device 300 and the imaging assistance system 10B shown in FIG. 16 are denoted by the same reference numerals, and the description thereof is omitted or simplified. To do.

ジンバル310Cは、ヨー軸、ピッチ軸、及びロール軸を中心に、撮像部320を回転可能に支持してよい。ジンバル310Cは、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部320を回転させることで、撮像部320の撮像方向を変更してよい。撮像部320は、例えば、紙面において奥方向を撮像してよい。撮像部320は、撮像方向を変更可能でよい。把持部330は、例えばユーザの手HD1により把持されてよい。   The gimbal 310C may support the imaging unit 320 rotatably around the yaw axis, the pitch axis, and the roll axis. The gimbal 310C may change the imaging direction of the imaging unit 320 by rotating the imaging unit 320 around at least one of the yaw axis, the pitch axis, and the roll axis. For example, the imaging unit 320 may capture the back direction on the paper. The imaging unit 320 may be able to change the imaging direction. The gripping part 330 may be gripped by the user's hand HD1, for example.

次に、ジンバル装置300及び携帯端末80Bの構成例について説明する。   Next, configuration examples of the gimbal device 300 and the portable terminal 80B will be described.

不図示であるが、ジンバル装置300Cは、無人航空機100又は無人航空機100Aのハードウェア構成の少なくとも一部を有する。不図示であるが、ジンバル装置300Cは、無人航空機100又は無人航空機100Aの機能構成の少なくとも一部を有する。   Although not shown, the gimbal device 300C includes at least a part of the hardware configuration of the unmanned aircraft 100 or the unmanned aircraft 100A. Although not shown, the gimbal device 300C has at least a part of the functional configuration of the unmanned aircraft 100 or the unmanned aircraft 100A.

不図示であるが、携帯端末80Cは、携帯端末80又は携帯端末80Aのハードウェア構成と同様でよい。不図示であるが、携帯端末80Cは、携帯端末80又は携帯端末80の機能構成と同様でよい。   Although not shown, the mobile terminal 80C may have the same hardware configuration as the mobile terminal 80 or the mobile terminal 80A. Although not shown, the mobile terminal 80 </ b> C may have the same functional configuration as the mobile terminal 80 or the mobile terminal 80.

撮像補助システム10Cにおいて、携帯端末80Cが第1の実施形態の携帯端末80の機能を有する場合、ジンバル装置300Cは、第1の実施形態の無人航空機100の機能を有してよい。つまり、ジンバル装置300Cが、撮像部320により撮像された画像(例えばライブビュー画像)における主被写体の決定機能、構図の決定機能、及びジンバル装置300Cの動作情報の生成機能を有してよい。また、ジンバル装置300Cが、動作情報に基づくジンバル装置300Cの動作の制御機能を有してよい。   In the imaging assistance system 10C, when the mobile terminal 80C has the function of the mobile terminal 80 of the first embodiment, the gimbal device 300C may have the function of the unmanned aircraft 100 of the first embodiment. That is, the gimbal device 300C may have a main subject determination function, a composition determination function, and a gimbal device 300C operation information generation function in an image captured by the imaging unit 320 (for example, a live view image). Also, the gimbal device 300C may have a function for controlling the operation of the gimbal device 300C based on the operation information.

撮像補助システム10Cにおいて、携帯端末80Cが第2の実施形態の携帯端末80Aの機能を有する場合、ジンバル装置300Cは、第2の実施形態の無人航空機100Aの機能を有してよい。つまり、携帯端末80Cが、撮像部320により撮像された画像(例えばライブビュー画像)における主被写体の決定機能、構図の決定機能、及びジンバル装置300Cの動作情報の生成機能を有してよい。ジンバル装置300Cが、ジンバル装置300Cの動作情報の取得機能を有してよい。また、ジンバル装置300Cが、動作情報に基づくジンバル装置300Cの動作の制御機能、を有してよい。   In the imaging assistance system 10C, when the mobile terminal 80C has the function of the mobile terminal 80A of the second embodiment, the gimbal device 300C may have the function of the unmanned aircraft 100A of the second embodiment. That is, the mobile terminal 80C may have a main subject determination function, a composition determination function, and a gimbal device 300C operation information generation function in an image (for example, a live view image) captured by the imaging unit 320. The gimbal device 300C may have an operation information acquisition function of the gimbal device 300C. Also, the gimbal device 300C may have an operation control function of the gimbal device 300C based on the operation information.

なお、ジンバル装置300Cは、無人航空機100,100Aとは異なり、飛行することが考慮されない。そのため、動作情報は、ジンバル310Cの回転情報でよい。よって、ジンバル装置300Cは、動作情報に基づいて、ジンバル310Cの回転を制御してよい。   Unlike the unmanned aircraft 100, 100A, the gimbal device 300C is not considered to fly. Therefore, the operation information may be rotation information of the gimbal 310C. Therefore, the gimbal device 300C may control the rotation of the gimbal 310C based on the operation information.

このように、ジンバル装置300C、携帯端末80C及び撮像補助システム10Cによれば、所望の被写体を魅力的に空撮するための構図を、この所望の被写体を加味して決定できる。つまり、ジンバル装置300C、携帯端末80C及び撮像補助システム10Cは、単に所望の被写体を撮像画像内に収めるだけでなく、撮像画像の構図を向上させることを考慮して、画像の撮像を補助できる。よって、ユーザが写真撮像に関して十分なノウハウを有しない場合でも、ジンバル装置300C又は携帯端末80Cにより構図の決定を補助でき、所望の被写体の撮像を補助できる。また、ジンバル装置300Cは、構図に合わせた動作(例えばジンバル310Cの回転角度の調整)が可能であるので、将来的な撮像において予定構図を利用可能である。   As described above, according to the gimbal device 300C, the portable terminal 80C, and the imaging assistance system 10C, a composition for attractively shooting a desired subject can be determined in consideration of the desired subject. In other words, the gimbal device 300C, the portable terminal 80C, and the imaging assistance system 10C can assist in capturing an image in consideration of improving the composition of the captured image as well as simply placing a desired subject in the captured image. Therefore, even when the user does not have sufficient know-how regarding the photography, the determination of the composition can be assisted by the gimbal device 300C or the portable terminal 80C, and the imaging of a desired subject can be assisted. Further, since the gimbal device 300C can perform an operation in accordance with the composition (for example, adjustment of the rotation angle of the gimbal 310C), the planned composition can be used for future imaging.

また、ジンバル装置300Cは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、この動作情報に基づくジンバル装置300Cの動作を迅速に実施できる。また、ジンバル装置300Cは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、携帯端末80Cの処理負荷を低減でき、携帯端末80Cとの間の通信負荷の低減も実現できる。したがって、携帯端末80Cは、携帯端末80C自身の処理負荷を低減しながら、ジンバル装置300Cと連携して撮像補助に係る処理に貢献できる。また、ジンバル装置300Cは、ジンバル310Cの回転制御に、撮像補助により生成された動作情報を用いることができる。つまり、第1,第2の実施形態のような無人航空機100による空撮のためだけでなく、ジンバル装置300Cを用いた撮像のために、撮像補助による撮像支援が実施され得る。   In addition, the gimbal device 300C can quickly perform the operation of the gimbal device 300C based on the motion information by determining the main subject, determining the composition, and generating the motion information related to the imaging assistance. In addition, the gimbal device 300C can reduce the processing load of the mobile terminal 80C by determining the main subject, determining the composition, and generating the operation information related to the imaging assistance, and reduces the communication load with the mobile terminal 80C. Reduction can also be realized. Therefore, the mobile terminal 80C can contribute to processing related to imaging assistance in cooperation with the gimbal device 300C while reducing the processing load of the mobile terminal 80C itself. Also, the gimbal device 300C can use the operation information generated by the imaging assistance for the rotation control of the gimbal 310C. That is, imaging assistance with imaging assistance can be implemented not only for aerial photography with the unmanned aircraft 100 as in the first and second embodiments, but also for imaging using the gimbal device 300C.

また、携帯端末80Cは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、ジンバル装置300Cの処理負荷を低減でき、撮像画像の処理等にジンバル装置300Cを集中させることができる。また、ジンバル装置300Cは、他装置である携帯端末80C等により生成された動作情報に従って動作できるので、ジンバル装置300Cの処理負荷を低減しても、所望の構図を実現するための所望の動作を実施できる。   Further, the portable terminal 80C can reduce the processing load of the gimbal device 300C by determining the main subject, determining the composition, and generating the operation information related to the imaging assistance, and can reduce the processing load of the gimbal device 300C for processing the captured image. Can concentrate. In addition, since the gimbal device 300C can operate according to the operation information generated by the mobile terminal 80C, which is another device, even if the processing load of the gimbal device 300C is reduced, a desired operation for realizing a desired composition can be performed. Can be implemented.

以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。   As mentioned above, although this indication was explained using an embodiment, the technical scope of this indication is not limited to the range as described in an embodiment mentioned above. It will be apparent to those skilled in the art that various modifications and improvements can be made to the embodiment described above. It is also apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present disclosure.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. ”And the like, and can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. is not.

10,10A 撮像補助システム
50 送信機
80,80A,80B,80C 携帯端末
81,81A 端末制御部
82 インタフェース部
83 操作部
85 無線通信部
87 メモリ
88 表示部
100,100A 無人航空機
110,110A UAV制御部
111 画像取得部
112 主被写体決定部
113 構図決定部
114 動作情報生成部
115 動作制御部
116 動作情報取得部
150 通信インタフェース
160 メモリ
200 ジンバル
210 回転翼機構
220,230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
300,300C ジンバル装置
310,310C ジンバル
315 取付部
320 撮像部
330 把持部
811 画像取得部
812 主被写体決定部
813 構図決定部
814 動作情報生成部
820 撮像部
10, 10A Imaging auxiliary system 50 Transmitter 80, 80A, 80B, 80C Portable terminal 81, 81A Terminal control unit 82 Interface unit 83 Operation unit 85 Wireless communication unit 87 Memory 88 Display unit 100, 100A Unmanned aerial vehicle 110, 110A UAV control unit 111 Image acquisition unit 112 Main subject determination unit 113 Composition determination unit 114 Motion information generation unit 115 Motion control unit 116 Motion information acquisition unit 150 Communication interface 160 Memory 200 Gimbal 210 Rotor blade mechanism 220, 230 Imaging unit 240 GPS receiver 250 Inertial measurement Device 260 Magnetic compass 270 Barometric altimeter 280 Ultrasonic sensor 290 Laser measuring device 300, 300C Gimbal device 310, 310C Gimbal 315 Mounting unit 320 Imaging unit 330 Grip unit 811 Image acquisition unit 812 Main subject determination unit 8 3 composition determining unit 814 operates the information generating unit 820 imaging unit

Claims (42)

撮像装置による第2の画像の撮像を補助するモバイルプラットフォームであって、
第1の画像を取得する画像取得部と、
前記第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得し、前記第2の画像における前記第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得する情報取得部と、
前記第1の構図に従って前記第2の画像を撮像するための前記撮像装置の動作に関する動作情報を生成する生成部と、
を備えるモバイルプラットフォーム。
A mobile platform that assists in capturing a second image by an imaging device,
An image acquisition unit for acquiring a first image;
Of the one or more subjects included in the first image, information on the first subject is acquired, and the positions of the one or more subjects including the first subject in the second image are defined 1 An information acquisition unit that acquires information of the first composition among the two or more compositions;
A generating unit that generates operation information related to an operation of the imaging apparatus for capturing the second image according to the first composition;
Mobile platform with
前記情報取得部は、前記第1の画像に含まれる複数の被写体から前記第1の被写体を選択して取得する、
請求項1に記載のモバイルプラットフォーム。
The information acquisition unit selects and acquires the first subject from a plurality of subjects included in the first image;
The mobile platform according to claim 1.
前記情報取得部は、前記第1の画像に含まれる被写体の色成分に基づいて、前記第1の被写体の情報を取得する、
請求項1または2に記載のモバイルプラットフォーム。
The information acquisition unit acquires information on the first subject based on a color component of the subject included in the first image;
The mobile platform according to claim 1 or 2.
前記情報取得部は、前記第1の画像に含まれる被写体の空間周波数に基づいて、前記第1の被写体の情報を取得する、
請求項1または2に記載のモバイルプラットフォーム。
The information acquisition unit acquires information on the first subject based on a spatial frequency of the subject included in the first image;
The mobile platform according to claim 1 or 2.
前記情報取得部は、前記撮像装置の位置情報を取得し、前記撮像装置の位置情報に基づいて、前記第1の被写体の情報を取得する、
請求項1に記載のモバイルプラットフォーム。
The information acquisition unit acquires position information of the imaging device, and acquires information of the first subject based on the position information of the imaging device;
The mobile platform according to claim 1.
前記情報取得部は、前記撮像装置による前記第2の画像の撮像時の撮像モードに基づいて、前記第1の被写体の情報を取得する、
請求項1に記載のモバイルプラットフォーム。
The information acquisition unit acquires information on the first subject based on an imaging mode at the time of imaging the second image by the imaging device.
The mobile platform according to claim 1.
前記情報取得部は、複数の前記構図から前記第1の構図を選択して取得する、
請求項1〜6のいずれか1項に記載のモバイルプラットフォーム。
The information acquisition unit selects and acquires the first composition from a plurality of the compositions.
The mobile platform according to claim 1.
前記第1の被写体の形状を認識する認識部、を更に備え、
前記情報取得部は、前記第1の被写体の形状に基づいて、前記第1の構図の情報を取得する、
請求項1〜7のいずれか1項に記載のモバイルプラットフォーム。
A recognition unit for recognizing the shape of the first subject,
The information acquisition unit acquires information of the first composition based on a shape of the first subject;
The mobile platform according to any one of claims 1 to 7.
前記第2の画像が撮像される際のシーンを認識する認識部、を更に備え、
前記情報取得部は、前記シーンに基づいて、前記第1の構図の情報を取得する、
請求項1〜7のいずれか1項に記載のモバイルプラットフォーム。
A recognition unit for recognizing a scene when the second image is captured;
The information acquisition unit acquires the information of the first composition based on the scene;
The mobile platform according to any one of claims 1 to 7.
前記生成部は、前記動作情報として、前記撮像装置を回転可能に支持する支持部材の回転に関する回転情報を生成する、
請求項1〜9のいずれか1項に記載のモバイルプラットフォーム。
The generation unit generates rotation information related to rotation of a support member that rotatably supports the imaging device as the operation information.
The mobile platform according to any one of claims 1 to 9.
前記生成部は、前記第1の画像における前記第1の被写体の位置と前記第1の構図における前記第1の被写体の位置とに基づいて、前記支持部材の回転量及び回転方向を決定する、
請求項10に記載のモバイルプラットフォーム。
The generation unit determines a rotation amount and a rotation direction of the support member based on the position of the first subject in the first image and the position of the first subject in the first composition.
The mobile platform according to claim 10.
前記生成部は、前記動作情報として、前記撮像装置の移動に関する移動情報を生成する、
請求項1〜11のいずれか1項に記載のモバイルプラットフォーム。
The generation unit generates movement information regarding movement of the imaging device as the operation information.
The mobile platform according to any one of claims 1 to 11.
前記生成部は、前記第1の画像における前記第1の被写体のサイズと前記第1の構図における前記第1の被写体のサイズとに基づいて、重力方向に沿った前記撮像装置の移動量を決定する、
請求項12に記載のモバイルプラットフォーム。
The generation unit determines a movement amount of the imaging device along the direction of gravity based on the size of the first subject in the first image and the size of the first subject in the first composition. To
The mobile platform according to claim 12.
前記生成部は、前記第1の画像における前記第1の被写体の位置と、前記第1の構図における前記第1の被写体の位置と、前記第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、前記撮像装置の移動量及び移動方向を決定する、
請求項12に記載のモバイルプラットフォーム。
The generating unit includes a position of the first subject in the first image, a position of the first subject in the first composition, a moving distance in the first image, and a moving distance in real space. Determining the moving amount and moving direction of the imaging device based on the correspondence relationship of
The mobile platform according to claim 12.
前記動作情報を提示する提示部、を更に備える、
請求項1〜14のいずれか1項に記載のモバイルプラットフォーム。
A presentation unit for presenting the operation information;
The mobile platform according to any one of claims 1 to 14.
前記第1の画像は、前記撮像装置により撮像された画像である、
請求項1〜15のいずれか1項に記載のモバイルプラットフォーム。
The first image is an image captured by the imaging device.
The mobile platform according to any one of claims 1 to 15.
前記モバイルプラットフォームは、
前記撮像装置及び前記撮像装置を回転可能に支持する支持部材を備える飛行体であり、
前記動作情報に基づいて、前記飛行体の飛行又は前記支持部材の回転を制御する制御部、を更に備える、
請求項1、3〜6、8〜16のいずれか1項に記載のモバイルプラットフォーム。
The mobile platform is
A flying object including a support member that rotatably supports the imaging device and the imaging device;
A control unit that controls the flight of the flying object or the rotation of the support member based on the operation information;
The mobile platform according to claim 1, 3 to 6, or 8 to 16.
前記モバイルプラットフォームは、
使用時にユーザに把持され、前記撮像装置を回転可能に支持する支持部材を備える支持装置であり、
前記動作情報に基づいて、前記支持部材の回転を制御する制御部、を更に備える、
請求項1、3〜6、8〜16のいずれか1項に記載のモバイルプラットフォーム。
The mobile platform is
A support device comprising a support member that is gripped by a user during use and rotatably supports the imaging device;
A control unit for controlling rotation of the support member based on the operation information;
The mobile platform according to claim 1, 3 to 6, or 8 to 16.
前記モバイルプラットフォームは、
携帯端末であり、
前記動作情報を、飛行体又は支持装置へ送信する通信部、を更に備える、
請求項1〜4、7〜16のいずれか1項に記載のモバイルプラットフォーム。
The mobile platform is
Mobile device,
A communication unit that transmits the operation information to a flying object or a support device;
The mobile platform according to any one of claims 1 to 4 and 7 to 16.
飛行体であって、
撮像装置と、
前記撮像装置を回転可能に支持する支持部材と、
請求項1〜4、7〜16のいずれか1項に記載のモバイルプラットフォームにより生成された前記動作情報を取得する動作情報取得部と、
前記動作情報に基づいて、前記飛行体の飛行又は前記支持部材の回転を制御する制御部と、
を備える飛行体。
A flying object,
An imaging device;
A support member that rotatably supports the imaging device;
An operation information acquisition unit that acquires the operation information generated by the mobile platform according to any one of claims 1 to 4 and 7 to 16.
Based on the operation information, a control unit that controls the flight of the flying object or the rotation of the support member;
Aircraft equipped with.
支持装置であって、
撮像装置を回転可能に支持する支持部材と、
請求項1〜4、7〜16のいずれか1項に記載のモバイルプラットフォームにより生成された前記動作情報を取得する動作情報取得部と、
前記動作情報に基づいて、前記支持部材の回転を制御する制御部と、
を備える支持装置。
A support device,
A support member that rotatably supports the imaging device;
An operation information acquisition unit that acquires the operation information generated by the mobile platform according to any one of claims 1 to 4 and 7 to 16.
A control unit for controlling rotation of the support member based on the operation information;
A support device comprising:
撮像装置による第2の画像の撮像を補助するモバイルプラットフォームにおける撮像補助方法であって、
第1の画像を取得するステップと、
前記第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、
前記第2の画像における前記第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、
前記第1の構図に従って前記第2の画像を撮像するための前記撮像装置の動作に関する動作情報を生成するステップと、
を有する撮像補助方法。
An imaging assistance method in a mobile platform for assisting imaging of a second image by an imaging device,
Obtaining a first image;
Obtaining information of a first subject among one or more subjects included in the first image;
Obtaining information of a first composition among one or more compositions defining the positions of one or more subjects including the first subject in the second image;
Generating operation information relating to an operation of the imaging device for capturing the second image according to the first composition;
An imaging assistance method comprising:
前記第1の被写体の情報を取得するステップは、前記第1の画像に含まれる複数の被写体から前記第1の被写体を選択して取得するステップを含む、
ステップを含む、
請求項22に記載の撮像補助方法。
The step of acquiring information on the first subject includes the step of selecting and acquiring the first subject from a plurality of subjects included in the first image.
Including steps,
The imaging assistance method according to claim 22.
前記第1の被写体の情報を取得するステップは、前記第1の画像に含まれる被写体の色成分に基づいて、前記第1の被写体の情報を取得するステップを含む、
請求項22または23に記載の撮像補助方法。
The step of acquiring information about the first subject includes the step of acquiring information about the first subject based on a color component of the subject included in the first image.
The imaging assistance method according to claim 22 or 23.
前記第1の被写体の情報を取得するステップは、前記第1の画像に含まれる被写体の空間周波数に基づいて、前記第1の被写体の情報を取得するステップを含む、
請求項22または23に記載の撮像補助方法。
The step of acquiring information on the first subject includes the step of acquiring information on the first subject based on a spatial frequency of the subject included in the first image.
The imaging assistance method according to claim 22 or 23.
前記撮像装置の位置情報を取得するステップ、を更に含み、
前記第1の被写体の情報を取得するステップは、前記撮像装置の位置情報に基づいて、前記第1の被写体の情報を取得するステップを含む、
請求項22に記載の撮像補助方法。
Further including the step of obtaining positional information of the imaging device,
The step of acquiring information on the first subject includes the step of acquiring information on the first subject based on position information of the imaging device.
The imaging assistance method according to claim 22.
前記第1の被写体の情報を取得するステップは、前記撮像装置による前記第2の画像の撮像時の撮像モードに基づいて、前記第1の被写体の情報を取得するステップを含む、
請求項22に記載の撮像補助方法。
The step of acquiring information on the first subject includes the step of acquiring information on the first subject based on an imaging mode at the time of imaging the second image by the imaging device.
The imaging assistance method according to claim 22.
前記第1の構図の情報を取得するステップは、複数の前記構図から前記第1の構図を選択して取得するステップを含む、
請求項22〜27のいずれか1項に記載の撮像補助方法。
The step of acquiring information on the first composition includes the step of selecting and acquiring the first composition from a plurality of the compositions.
The imaging assistance method according to any one of claims 22 to 27.
前記第1の被写体の形状を認識するステップ、を更に含み、
前記第1の構図の情報を取得するステップは、前記第1の被写体の形状に基づいて、前記第1の構図の情報を取得するステップを含む、
請求項28に記載の撮像補助方法。
Recognizing the shape of the first subject,
The step of acquiring information on the first composition includes the step of acquiring information on the first composition based on the shape of the first subject.
The imaging assistance method according to claim 28.
前記第2の画像が撮像される際のシーンを認識するステップ、を更に含み、
前記第1の構図の情報を取得するステップは、前記シーンに基づいて、前記第1の構図の情報を取得するステップを含む、
請求項28に記載の撮像補助方法。
Recognizing a scene when the second image is captured,
The step of acquiring information on the first composition includes the step of acquiring information on the first composition based on the scene.
The imaging assistance method according to claim 28.
前記動作情報を生成するステップは、前記動作情報として、前記撮像装置を回転可能に支持する支持部材の回転に関する回転情報を生成するステップを含む、
請求項22〜30のいずれか1項に記載の撮像補助方法。
The step of generating the operation information includes a step of generating rotation information relating to rotation of a support member that rotatably supports the imaging device as the operation information.
The imaging assistance method according to any one of claims 22 to 30.
前記動作情報を生成するステップは、前記第1の画像における前記第1の被写体の位置と前記第1の構図における前記第1の被写体の位置とに基づいて、前記支持部材の回転量及び回転方向を決定するステップを含む、
請求項31に記載の撮像補助方法。
The step of generating the movement information includes the rotation amount and the rotation direction of the support member based on the position of the first subject in the first image and the position of the first subject in the first composition. Including the step of determining
The imaging assistance method according to claim 31.
前記動作情報を生成するステップは、前記動作情報として、前記撮像装置の移動に関する移動情報を生成するステップを含む、
請求項22〜32のいずれか1項に記載の撮像補助方法。
The step of generating the operation information includes a step of generating movement information relating to movement of the imaging device as the operation information.
The imaging assistance method according to any one of claims 22 to 32.
前記動作情報を生成するステップは、前記第1の画像における前記第1の被写体のサイズと前記第1の構図における前記第1の被写体のサイズとに基づいて、重力方向に沿った前記撮像装置の移動量を決定するステップを含む、
請求項33に記載の撮像補助方法。
The step of generating the motion information is based on the size of the first subject in the first image and the size of the first subject in the first composition. Including determining the amount of movement,
The imaging assistance method according to claim 33.
前記動作情報を生成するステップは、前記第1の画像における前記第1の被写体の位置と、前記第1の構図における前記第1の被写体の位置と、前記第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、前記撮像装置の移動量及び移動方向を決定するステップを含む、
請求項33に記載の撮像補助方法。
The step of generating the motion information includes the position of the first subject in the first image, the position of the first subject in the first composition, the moving distance in the first image, and real space. Determining the amount and direction of movement of the imaging device based on the correspondence with the movement distance in
The imaging assistance method according to claim 33.
前記動作情報を提示部に提示するステップ、を更に含む、
請求項22〜35のいずれか1項に記載の撮像補助方法。
Further comprising the step of presenting the operation information to a presentation unit,
The imaging assistance method according to any one of claims 22 to 35.
前記第1の画像は、前記撮像装置により撮像された画像である、
請求項22〜36のいずれか1項に記載の撮像補助方法。
The first image is an image captured by the imaging device.
The imaging assistance method according to any one of claims 22 to 36.
前記モバイルプラットフォームは、前記撮像装置及び前記撮像装置を回転可能に支持する支持部材を備える飛行体であり、
前記動作情報に基づいて、前記飛行体の飛行又は前記支持部材の回転を制御するステップ、を更に含む、
請求項22、24〜27、29〜37のいずれか1項に記載の撮像補助方法。
The mobile platform is a flying object including a support member that rotatably supports the imaging device and the imaging device,
Controlling the flight of the aircraft or the rotation of the support member based on the operation information;
The imaging assistance method according to any one of claims 22, 24 to 27, and 29 to 37.
前記モバイルプラットフォームは、使用時にユーザに把持され、前記撮像装置を回転可能に支持する支持部材を備える支持装置であり、
前記動作情報に基づいて、前記支持部材の回転を制御するステップ、を更に含む、
請求項22、24〜27、29〜37のいずれか1項に記載の撮像補助方法。
The mobile platform is a support device that includes a support member that is gripped by a user during use and supports the imaging device rotatably.
Further comprising controlling rotation of the support member based on the operation information.
The imaging assistance method according to any one of claims 22, 24 to 27, and 29 to 37.
前記モバイルプラットフォームは、携帯端末であり、
前記動作情報を、飛行体又は支持装置へ送信するステップ、を更に含む、
請求項22〜37のいずれか1項に記載の撮像補助方法。
The mobile platform is a mobile terminal;
Further comprising transmitting the motion information to the vehicle or support device.
The imaging assistance method according to any one of claims 22 to 37.
撮像装置による第2の画像の撮像を補助するモバイルプラットフォームに、
第1の画像を取得するステップと、
前記第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、
前記第2の画像における前記第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、
前記第1の構図に従って前記第2の画像を撮像するための前記撮像装置の動作に関する動作情報を生成するステップと、
を実行させるためのプログラム。
In a mobile platform that assists in capturing the second image by the imaging device,
Obtaining a first image;
Obtaining information of a first subject among one or more subjects included in the first image;
Obtaining information of a first composition among one or more compositions defining the positions of one or more subjects including the first subject in the second image;
Generating operation information relating to an operation of the imaging device for capturing the second image according to the first composition;
A program for running
撮像装置による第2の画像の撮像を補助するモバイルプラットフォームに、
第1の画像を取得するステップと、
前記第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、
前記第2の画像における前記第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、
前記第1の構図に従って前記第2の画像を撮像するための前記撮像装置の動作に関する動作情報を生成するステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
In a mobile platform that assists in capturing the second image by the imaging device,
Obtaining a first image;
Obtaining information of a first subject among one or more subjects included in the first image;
Obtaining information of a first composition among one or more compositions defining the positions of one or more subjects including the first subject in the second image;
Generating operation information relating to an operation of the imaging device for capturing the second image according to the first composition;
The computer-readable recording medium which recorded the program for performing this.
JP2017104737A 2017-05-26 2017-05-26 Mobile platforms, flying objects, support devices, mobile terminals, imaging assist methods, programs, and recording media Active JP6875196B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017104737A JP6875196B2 (en) 2017-05-26 2017-05-26 Mobile platforms, flying objects, support devices, mobile terminals, imaging assist methods, programs, and recording media
PCT/CN2017/108413 WO2018214401A1 (en) 2017-05-26 2017-10-30 Mobile platform, flying object, support apparatus, portable terminal, method for assisting in photography, program and recording medium
CN201780064135.6A CN109863745A (en) 2017-05-26 2017-10-30 Mobile platform, flying body support device, portable terminal, camera shooting householder method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017104737A JP6875196B2 (en) 2017-05-26 2017-05-26 Mobile platforms, flying objects, support devices, mobile terminals, imaging assist methods, programs, and recording media

Publications (2)

Publication Number Publication Date
JP2018201119A true JP2018201119A (en) 2018-12-20
JP6875196B2 JP6875196B2 (en) 2021-05-19

Family

ID=64396168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017104737A Active JP6875196B2 (en) 2017-05-26 2017-05-26 Mobile platforms, flying objects, support devices, mobile terminals, imaging assist methods, programs, and recording media

Country Status (3)

Country Link
JP (1) JP6875196B2 (en)
CN (1) CN109863745A (en)
WO (1) WO2018214401A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020209167A1 (en) * 2019-04-08 2020-10-15 ソニー株式会社 Information processing device, information processing method, and program
WO2021014752A1 (en) * 2019-07-19 2021-01-28 ソニー株式会社 Information processing device, information processing method, and information processing program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116762354A (en) * 2021-03-12 2023-09-15 深圳市大疆创新科技有限公司 Image shooting method, control device, movable platform and computer storage medium
CN115835013B (en) * 2021-09-16 2024-05-17 腾讯科技(深圳)有限公司 Multimedia interaction method, system, device, equipment, medium and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098456A (en) * 1998-09-28 2000-04-07 Minolta Co Ltd Camera provided with automatic composing function
JP2008061209A (en) * 2006-09-04 2008-03-13 Canon Inc Image processing method
JP2010199681A (en) * 2009-02-23 2010-09-09 Nikon Corp Image processing apparatus and program
JP2014236334A (en) * 2013-05-31 2014-12-15 株式会社ニコン Imaging device
CN106331508A (en) * 2016-10-19 2017-01-11 深圳市道通智能航空技术有限公司 Composition shooting method and device

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3833486B2 (en) * 2000-04-19 2006-10-11 富士写真フイルム株式会社 Imaging device
JP2006027448A (en) * 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The Aerial photographing method and device using unmanned flying body
US7773116B1 (en) * 2006-02-08 2010-08-10 Lockheed Martin Corporation Digital imaging stabilization
JP4894712B2 (en) * 2007-10-17 2012-03-14 ソニー株式会社 Composition determination apparatus, composition determination method, and program
JP5200780B2 (en) * 2008-09-08 2013-06-05 ソニー株式会社 Imaging apparatus and method, and program
JP5287465B2 (en) * 2009-04-21 2013-09-11 ソニー株式会社 Imaging apparatus, shooting setting method and program thereof
JP5858754B2 (en) * 2011-11-29 2016-02-10 キヤノン株式会社 Imaging apparatus, display method, and program
JP2013207357A (en) * 2012-03-27 2013-10-07 Sony Corp Server, client terminal, system, and program
JP5880263B2 (en) * 2012-05-02 2016-03-08 ソニー株式会社 Display control device, display control method, program, and recording medium
JP6000780B2 (en) * 2012-09-21 2016-10-05 オリンパス株式会社 Imaging device
CN103870138B (en) * 2012-12-11 2017-04-19 联想(北京)有限公司 Information processing method and electronic equipment
KR102045957B1 (en) * 2013-01-18 2019-11-18 삼성전자 주식회사 Method and apparatus for photographing of a portable terminal
CN103426282A (en) * 2013-07-31 2013-12-04 深圳市大疆创新科技有限公司 Remote control method and terminal
CN103533245B (en) * 2013-10-21 2018-01-09 努比亚技术有限公司 Filming apparatus and auxiliary shooting method
US9667860B2 (en) * 2014-02-13 2017-05-30 Google Inc. Photo composition and position guidance in a camera or augmented reality system
US10235587B2 (en) * 2014-03-04 2019-03-19 Samsung Electronics Co., Ltd. Method and system for optimizing an image capturing boundary in a proposed image
CN107577247B (en) * 2014-07-30 2021-06-25 深圳市大疆创新科技有限公司 Target tracking system and method
US20160054737A1 (en) * 2014-08-22 2016-02-25 Cape Productions Inc. Methods and Apparatus for Unmanned Aerial Vehicle Autonomous Aviation
CN104301613B (en) * 2014-10-16 2016-03-02 深圳市中兴移动通信有限公司 Mobile terminal and image pickup method thereof
US9407815B2 (en) * 2014-11-17 2016-08-02 International Business Machines Corporation Location aware photograph recommendation notification
CN104935810A (en) * 2015-05-29 2015-09-23 努比亚技术有限公司 Photographing guiding method and device
EP3101889A3 (en) * 2015-06-02 2017-03-08 LG Electronics Inc. Mobile terminal and controlling method thereof
US9876951B2 (en) * 2015-09-25 2018-01-23 International Business Machines Corporation Image subject and composition demand
CN105578043A (en) * 2015-12-18 2016-05-11 Tcl集团股份有限公司 Picture composition method and device for photographing of camera
CN105611164A (en) * 2015-12-29 2016-05-25 太仓美宅姬娱乐传媒有限公司 Auxiliary photographing method of camera
CN106131411B (en) * 2016-07-14 2019-04-02 纳恩博(北京)科技有限公司 A kind of method and apparatus shooting image
CN106586011A (en) * 2016-12-12 2017-04-26 高域(北京)智能科技研究院有限公司 Aligning method of aerial shooting unmanned aerial vehicle and aerial shooting unmanned aerial vehicle thereof
CN106708089A (en) * 2016-12-20 2017-05-24 北京小米移动软件有限公司 Following type flight control method and device, and unmanned plane

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098456A (en) * 1998-09-28 2000-04-07 Minolta Co Ltd Camera provided with automatic composing function
JP2008061209A (en) * 2006-09-04 2008-03-13 Canon Inc Image processing method
JP2010199681A (en) * 2009-02-23 2010-09-09 Nikon Corp Image processing apparatus and program
JP2014236334A (en) * 2013-05-31 2014-12-15 株式会社ニコン Imaging device
CN106331508A (en) * 2016-10-19 2017-01-11 深圳市道通智能航空技术有限公司 Composition shooting method and device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020209167A1 (en) * 2019-04-08 2020-10-15 ソニー株式会社 Information processing device, information processing method, and program
JP7435599B2 (en) 2019-04-08 2024-02-21 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2021014752A1 (en) * 2019-07-19 2021-01-28 ソニー株式会社 Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
CN109863745A (en) 2019-06-07
JP6875196B2 (en) 2021-05-19
WO2018214401A1 (en) 2018-11-29

Similar Documents

Publication Publication Date Title
US11649052B2 (en) System and method for providing autonomous photography and videography
JP6803919B2 (en) Flight path generation methods, flight path generation systems, flying objects, programs, and recording media
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
US11057604B2 (en) Image processing method and device
JP6875196B2 (en) Mobile platforms, flying objects, support devices, mobile terminals, imaging assist methods, programs, and recording media
JP6675537B1 (en) Flight path generation device, flight path generation method and program, and structure inspection method
WO2018120350A1 (en) Method and device for positioning unmanned aerial vehicle
JP6962775B2 (en) Information processing equipment, aerial photography route generation method, program, and recording medium
US20230032219A1 (en) Display control method, display control apparatus, program, and recording medium
JP6688901B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program, and recording medium
US20210208608A1 (en) Control method, control apparatus, control terminal for unmanned aerial vehicle
CN111344650B (en) Information processing device, flight path generation method, program, and recording medium
JP5235127B2 (en) Remote control system and remote control device
JP2019028560A (en) Mobile platform, image composition method, program and recording medium
US20210185235A1 (en) Information processing device, imaging control method, program and recording medium
CN109891188B (en) Mobile platform, imaging path generation method, program, and recording medium
JP6875269B2 (en) Information processing equipment, flight control instruction method, program, and recording medium
WO2021014752A1 (en) Information processing device, information processing method, and information processing program
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
US20210092306A1 (en) Movable body, image generation method, program, and recording medium
WO2020119572A1 (en) Shape inferring device, shape inferring method, program, and recording medium
WO2020001629A1 (en) Information processing device, flight path generating method, program, and recording medium
JP2020088821A (en) Image generation device, image generation method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210422

R150 Certificate of patent or registration of utility model

Ref document number: 6875196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150