JP6875196B2 - モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体 - Google Patents

モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体 Download PDF

Info

Publication number
JP6875196B2
JP6875196B2 JP2017104737A JP2017104737A JP6875196B2 JP 6875196 B2 JP6875196 B2 JP 6875196B2 JP 2017104737 A JP2017104737 A JP 2017104737A JP 2017104737 A JP2017104737 A JP 2017104737A JP 6875196 B2 JP6875196 B2 JP 6875196B2
Authority
JP
Japan
Prior art keywords
information
image
composition
subject
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017104737A
Other languages
English (en)
Other versions
JP2018201119A (ja
Inventor
杰旻 周
杰旻 周
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2017104737A priority Critical patent/JP6875196B2/ja
Priority to CN201780064135.6A priority patent/CN109863745A/zh
Priority to PCT/CN2017/108413 priority patent/WO2018214401A1/zh
Publication of JP2018201119A publication Critical patent/JP2018201119A/ja
Application granted granted Critical
Publication of JP6875196B2 publication Critical patent/JP6875196B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals

Description

本開示は、画像の撮像を支援するモバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体に関する。
従来、実証済みの撮像技術を用いてカメラショットを計算して、コンピュータ生成のストーリーを可視化し、イベントを再生し、カメラビューを動的に更新する仮想カメラシステムが知られている。この仮想カメラシステムは、所望の角度や距離で、最小限の閉塞によって、被写体を表示するためのカメラ配置位置を分析する。
この仮想カメラシステムは、主に、3Dゲームカメラシステムに用いられ、任意の仮想3次元空間を表現する3次元画像データが予め用意されている。この仮想カメラシステムは、任意の構図となるように、仮想3次元空間における、特定の視点から見た領域を表現可能である。この仮想カメラシステムは、例えば、予め用意された仮想3次元画像データから、制約のある構図、1つの被写体を加味した3分割法を利用した構図、全体の要素を加味した3分割法を利用した構図、均等化された構図、に従って、3次元画像データの一部をディスプレイに表示できる(非特許文献1参照)。
William Bares, "A Photographic Composition Assistant for Intelligent Virtual 3D Camera Systems ", Millsaps College, Department of Computer Science, Jackson MS 39210, USA, インターネット<URL:http://link.springer.com/chapter/10.1007/11795018_16>
非特許文献1に記載された仮想カメラシステムを、実空間で撮像された画像を扱うカメラシステムに適用すると、カメラシステムは、予め撮像された3次元画像データを基に、任意の構図となるように加工することになる。そのため、カメラシステムは、未だ撮像されていない画像の構図を決定することはできない。よって、例えば被写体を撮像するカメラのユーザが撮像に不慣れな場合、所望の画像を魅力的に撮像することが困難である。
一態様において、モバイルプラットフォームは、撮像装置による第2の画像の撮像を補助するモバイルプラットフォームであって、第1の画像を取得する画像取得部と、第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得し、第2の画像における第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得する情報取得部と、第1の構図に従って第2の画像を撮像するための撮像装置の動作に関する動作情報を生成する生成部と、を備える。
情報取得部は、第1の画像に含まれる複数の被写体から第1の被写体を選択して取得してよい。
情報取得部は、第1の画像に含まれる被写体の色成分に基づいて、第1の被写体の情報を取得してよい。
情報取得部は、第1の画像に含まれる被写体の空間周波数に基づいて、第1の被写体の情報を取得してよい。
情報取得部は、撮像装置の位置情報を取得し、撮像装置の位置情報に基づいて、第1の被写体の情報を取得してよい。
情報取得部は、撮像装置による第2の画像の撮像時の撮像モードに基づいて、第1の被写体の情報を取得してよい。
情報取得部は、複数の構図から第1の構図を選択して取得してよい。
モバイルプラットフォームは、第1の被写体の形状を認識する認識部、を更に備えてよい。情報取得部は、第1の被写体の形状に基づいて、第1の構図の情報を取得してよい。
モバイルプラットフォームは、第2の画像が撮像される際のシーンを認識する認識部、を更に備えてよい。情報取得部は、シーンに基づいて、第1の構図の情報を取得してよい。
生成部は、動作情報として、撮像装置を回転可能に支持する支持部材の回転に関する回転情報を生成してよい。
生成部は、第1の画像における第1の被写体の位置と第1の構図における第1の被写体の位置とに基づいて、支持部材の回転量及び回転方向を決定してよい。
生成部は、動作情報として、撮像装置の移動に関する移動情報を生成してよい。
生成部は、第1の画像における第1の被写体のサイズと第1の構図における第1の被写体のサイズとに基づいて、重力方向に沿った撮像装置の移動量を決定してよい。
生成部は、第1の画像における第1の被写体の位置と、第1の構図における第1の被写体の位置と、第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、撮像装置の移動量及び移動方向を決定してよい。
動作情報を提示する提示部、を更に備えてよい。
第1の画像は、撮像装置により撮像された画像でよい。
モバイルプラットフォームは、撮像装置及び撮像装置を回転可能に支持する支持部材を備える飛行体であり、動作情報に基づいて、飛行体の飛行又は支持部材の回転を制御する制御部、を更に備えてよい。
モバイルプラットフォームは、使用時にユーザに把持され、撮像装置を回転可能に支持する支持部材を備える支持装置であり、動作情報に基づいて、支持部材の回転を制御する制御部、を更に備えてよい。
モバイルプラットフォームは、携帯端末であり、動作情報を、飛行体又は支持装置へ送信する通信部、を更に備えてよい。
一態様において、飛行体は、撮像装置と、撮像装置を回転可能に支持する支持部材と、モバイルプラットフォームにより生成された動作情報を取得する動作情報取得部と、動作情報に基づいて、飛行体の飛行又は支持部材の回転を制御する制御部と、を備える。
一態様において、支持装置は、撮像装置を回転可能に支持する支持部材と、モバイルプラットフォームにより生成された動作情報を取得する動作情報取得部と、動作情報に基づいて、支持部材の回転を制御する制御部と、を備える。
一態様において、撮像補助方法は、撮像装置による第2の画像の撮像を補助するモバイルプラットフォームにおける撮像補助方法であって、第1の画像を取得するステップと、
第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、第2の画像における第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、第1の構図に従って第2の画像を撮像するための撮像装置の動作に関する動作情報を生成するステップと、を有する。
第1の被写体の情報を取得するステップは、第1の画像に含まれる複数の被写体から第1の被写体を選択して取得するステップを含んでよい。
第1の被写体の情報を取得するステップは、第1の画像に含まれる被写体の色成分に基づいて、第1の被写体の情報を取得するステップを含んでよい。
第1の被写体の情報を取得するステップは、第1の画像に含まれる被写体の空間周波数に基づいて、第1の被写体の情報を取得するステップを含んでよい。
撮像補助方法は、撮像装置の位置情報を取得するステップ、を更に含んでよい。第1の被写体の情報を取得するステップは、撮像装置の位置情報に基づいて、第1の被写体の情報を取得するステップを含んでよい。
第1の被写体の情報を取得するステップは、撮像装置による第2の画像の撮像時の撮像モードに基づいて、第1の被写体の情報を取得するステップを含んでよい。
第1の構図の情報を取得するステップは、複数の構図から第1の構図を選択して取得するステップを含んでよい。
撮像補助方法は、第1の被写体の形状を認識するステップ、を更に含んでよい。第1の構図の情報を取得するステップは、第1の被写体の形状に基づいて、第1の構図の情報を取得するステップを含んでよい。
撮像補助方法は、第2の画像が撮像される際のシーンを認識するステップ、を更に含んでよい。第1の構図の情報を取得するステップは、シーンに基づいて、第1の構図の情報を取得するステップを含んでよい。
動作情報を生成するステップは、動作情報として、撮像装置を回転可能に支持する支持部材の回転に関する回転情報を生成するステップを含んでよい。
動作情報を生成するステップは、第1の画像における第1の被写体の位置と第1の構図における第1の被写体の位置とに基づいて、支持部材の回転量及び回転方向を決定するステップを含んでよい。
動作情報を生成するステップは、動作情報として、撮像装置の移動に関する移動情報を生成するステップを含んでよい。
動作情報を生成するステップは、第1の画像における第1の被写体のサイズと第1の構図における第1の被写体のサイズとに基づいて、重力方向に沿った撮像装置の移動量を決定するステップを含んでよい。
動作情報を生成するステップは、第1の画像における第1の被写体の位置と、第1の構図における第1の被写体の位置と、第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、撮像装置の移動量及び移動方向を決定するステップを含んでよい。
撮像補助方法は、動作情報を提示部に提示するステップ、を更に含んでよい。
第1の画像は、撮像装置により撮像された画像でよい。
モバイルプラットフォームは、撮像装置及び撮像装置を回転可能に支持する支持部材を備える飛行体でよい。撮像補助方法は、動作情報に基づいて、飛行体の飛行又は支持部材の回転を制御するステップ、を更に含んでよい。
モバイルプラットフォームは、使用時にユーザに把持され、撮像装置を回転可能に支持する支持部材を備える支持装置でよい。撮像補助方法は、動作情報に基づいて、支持部材の回転を制御するステップ、を更に含んでよい。
モバイルプラットフォームは、携帯端末でよい。撮像補助方法は、動作情報を、飛行体又は支持装置へ送信するステップ、を更に含んでよい。
一態様において、プログラムは、撮像装置による第2の画像の撮像を補助するモバイルプラットフォームに、第1の画像を取得するステップと、第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、第2の画像における第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、第1の構図に従って第2の画像を撮像するための撮像装置の動作に関する動作情報を生成するステップと、を実行させるためのプログラムである。
一態様において、記録媒体は、撮像装置による第2の画像の撮像を補助するモバイルプラットフォームに、第1の画像を取得するステップと、第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、第2の画像における第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、第1の構図に従って第2の画像を撮像するための撮像装置の動作に関する動作情報を生成するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。
なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
第1の実施形態における撮像補助システムの構成例を示す模式図 第1の実施形態における無人航空機のハードウェア構成の一例を示すブロック図 第1の実施形態におけるUAV制御部の機能構成の一例を示すブロック図 第1の実施形態における携帯端末のハードウェア構成の一例を示すブロック図 撮像補助システムの動作概要を説明するための図 ライブビュー画像の一例を示す図 色によりライブビュー画像が区分された色区分画像の一例を示す図 主被写体の選択例を示す図 構図の選択例を示す図 決定された構図で空撮するための撮像範囲の回転例を示す図 決定された構図で空撮するための無人航空機の移動例を示す図 水平方向から見た無人航空機の移動を説明するための図 第1の実施形態における撮像補助システムの動作例を示すシーケンス図 第2の実施形態における撮像補助システムの構成例を示す模式図 第2の実施形態における無人航空機のハードウェア構成の一例を示すブロック図 第2の実施形態におけるUAV制御部の機能構成の一例を示すブロック図 第2の実施形態における携帯端末のハードウェア構成の一例を示すブロック図 第2の実施形態における端末制御部の機能構成の一例を示すブロック図 第2の実施形態における撮像補助システムの動作例を示すシーケンス図 第3の実施形態におけるジンバル装置及び携帯端末を含む撮像補助システムの構成例を示す斜視図 第4の実施形態におけるジンバル装置の構成例を示す正面斜視図 第4の実施形態におけるジンバル装置及び携帯端末を含む撮像補助システムの構成例を示す背面斜視図
以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。
特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する。
以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を例示する。飛行体は、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」と表記する。また、モバイルプラットフォームとして、飛行体、携帯端末、ジンバル装置、ジンバルカメラ装置を例示する。なお、モバイルプラットフォームは、これら以外の装置でもよく、例えば送信機、PC(Personal Computer)、又はその他のモバイルプラットフォームでもよい。撮像補助方法は、モバイルプラットフォームにおける動作が規定されたものである。記録媒体は、プログラム(例えばモバイルプラットフォームに各種の処理を実行させるプログラム)が記録されたものである。
(第1の実施形態)
図1は、第1の実施形態における撮像補助システム10の構成例を示す模式図である。撮像補助システム10は、無人航空機100、送信機50及び携帯端末80を備える。無人航空機100、送信機50及び携帯端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。
無人航空機100は、送信機50による遠隔操作に従って飛行し、又は事前に設定された飛行経路に従って飛行してよい。無人航空機100は、空撮するための構図を決定し、決定された構図となるように無人航空機100の動作情報を生成する。無人航空機100は、動作情報に従って無人航空機100の動作を制御する。送信機50は、遠隔操作によって無人航空機100の飛行の制御を指示してよい。つまり、送信機50は、リモートコントローラとして動作してよい。携帯端末80は、送信機50とともに、無人航空機100を用いた空撮を予定しているユーザに所持され得る。携帯端末80は、無人航空機100による構図の決定を補助し、撮像を補助する。
図2は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。ジンバル200は、支持部材の一例である。撮像部220、撮像部230は、撮像装置の一例である。
UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。例えば、UAV制御部110は、携帯端末80と連携して決定された構図を実現するよう、無人航空機100の飛行を制御してよい。UAV制御部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人航空機100の飛行を制御する。メモリ160は無人航空機100から取り外し可能であってもよい。
UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。
UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得する。向き情報には、例えば無人航空機100の機首の向きに対応する方位が示される。
UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得する。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得する。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得する。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得する。UAV制御部110は、無人航空機100の向きを示す情報を取得する。撮像部220の姿勢の状態を示す情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示す。UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得する。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。
UAV制御部110は、ジンバル200、回転翼機構210、撮像部220、及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御する。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御する。
撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定される。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義される。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向である。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向である。
UAV制御部110は、撮像部220又は撮像部230により撮像された撮像画像(空撮画像)に対して、この空撮画像に関する情報を付加情報(メタデータの一例)として付加してよい。付加情報は、空撮時の無人航空機100の飛行に関する情報(飛行情報)と空撮時の撮像部220又は撮像部230による撮像に関する情報(撮像情報)とを含む。飛行情報は、空撮位置情報、空撮経路情報、及び空撮時刻情報のうち少なくとも1つを含んでよい。撮像情報は、空撮画角情報、空撮方向情報、空撮姿勢情報、撮像範囲情報、及び被写体距離情報のうち少なくとも1つを含んでよい。
空撮位置情報は、空撮画像が空撮された位置(空撮位置)を示す。空撮位置情報は、GPS受信機240により取得された位置情報に基づいてよい。空撮経路情報は、空撮画像が空撮された経路(空撮経路)を示す。空撮経路情報は、空撮位置が連続的に連なる空撮位置の集合により構成されてよい。空撮時刻情報は、空撮画像が空撮された時刻(空撮時刻)を示す。空撮時刻情報は、UAV制御部110が参照するタイマの時刻情報に基づいてよい。
空撮画角情報は、空撮画像が空撮された際の撮像部220又は撮像部230の画角情報を示す。空撮方向情報は、空撮画像が空撮された際の撮像部220又は撮像部230の撮像方向(空撮方向)を示す。空撮姿勢情報は、空撮画像が空撮された際の撮像部220又は撮像部230の姿勢情報を示す。撮像範囲情報は、空撮画像が空撮された際の撮像部220又は撮像部230の撮像範囲を示す。被写体距離情報は、撮像部220又は撮像部230から被写体までの距離の情報を示す。被写体距離情報は、超音波センサ280又はレーザー測定器290による検出情報に基づいてよい。被写体距離情報は、同じ被写体を含む画像が複数枚撮像され、これらの画像がステレオ画像として利用され、被写体までの距離が算出されてもよい。また、撮像情報は、空撮時の無人航空機100の向きの情報を含んでもよい。
通信インタフェース150は、送信機50及び携帯端末80と通信する。通信インタフェース150は、空撮画像を携帯端末80へ送信してよい。通信インタフェース150は、空撮画像とともに、その付加情報の少なくとも一部を携帯端末80へ送信してよい。
通信インタフェース150は、撮像部220又は撮像部230により撮像予定の空撮画像の構図を決定するための情報を受信してよい。撮像予定の空撮画像の構図を決定するための情報は、例えば、空撮画像(ライブビュー画像)における主被写体を選択するための選択情報、構図を選択するための選択情報、を含んでよい。通信インタフェース150は、撮像部220又は撮像部230により撮像された空撮画像(例えばライブビュー画像などの空撮動画、空撮静止画)を、携帯端末80へ送信してよい。通信インタフェース150は、携帯端末80との間で直接通信してもよいし、送信機50を介して携帯端末80との間で通信してもよい。
メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。
メモリ160は、通信インタフェース150を介して取得された各種情報、各種データを保持する。メモリ160は、画像を撮像するための様々な構図のサンプル情報を格納してよい。構図のサンプル情報は、テーブル形式で格納されてよい。メモリ160は、UAV制御部110により決定された構図の情報を保持してよい。メモリ160は、決定された構図での撮像を実現するための無人航空機100の動作に関する動作情報を保持してよい。無人航空機100の動作情報は、空撮時にメモリ160から読み出されてよく、無人航空機100は、この動作情報に沿って動作してよい。
ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。
ヨー軸、ピッチ軸、及びロール軸は、以下のように定められてよい。例えば、水平方向(地面と平行な方向)にロール軸が定義されたとする。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸が定められ、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が定められる。
撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データは、撮像部220が有するメモリ、又はメモリ160に格納される。
撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、メモリ160に格納される。
GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。
慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置IMU250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出する。
磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。
気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。なお、気圧高度計270以外のセンサにより、無人航空機100が飛行する高度が検出されてもよい。
超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。
レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。
図3は、UAV制御部110の機能構成の一例を示すブロック図である。UAV制御部110は、画像取得部111、主被写体決定部112、構図決定部113、動作情報生成部114及び動作制御部115を備える。主被写体決定部112及び構図決定部113は、情報取得部の一例である。構図決定部113は、認識部の一例である。動作情報生成部114は、生成部の一例である。動作制御部115は、制御部の一例である。
画像取得部111は、メモリ160に保持された画像(例えば撮像部220又は撮像部230により空撮された空撮画像)を取得してよい。画像取得部111は、撮像部220又は撮像部230により空撮中の空撮画像を取得してよい。空撮画像は、動画でも静止画でもよい。空撮中の空撮動画は、ライブビュー画像(第1の画像の一例)とも称される。画像取得部111により取得される空撮画像として、主にライブビュー画像を例示する。
主被写体決定部112は、画像取得部111により取得されたライブビュー画像に含まれる1つ以上の被写体のうち、主被写体(第1の被写体の一例)を決定(特定)する。主被写体の決定は、主被写体の情報の取得の一例である。主被写体の決定は、例えば携帯端末80のユーザによる手動で行われてもよいし、無人航空機100により自動で行われてもよい。主被写体は、ライブビュー画像外の被写体(例えば、ユーザ所望の空撮範囲に対応する地図情報に含まれる任意の被写体)とされてもよい。この場合、無人航空機100による撮像範囲を超えて、所望の被写体に適した構図が決定され得る。
構図決定部113は、決定された主被写体を撮像するための構図を決定する。主被写体を撮像するための構図の決定は、主被写体を撮像するための構図の情報の取得の一例である。この構図は、未だ撮像されていない撮像予定の構図であるので、予定構図(第1の構図の一例)とも称する。構図は、画像における、1つ以上の被写体の位置関係を規定する情報でよい。構図決定部113は、メモリ160に保持された構図のサンプル情報を参照し、主被写体の情報に応じて、予定構図を決定してよい。予定構図の決定は、例えば携帯端末80のユーザによる手動で行われてもよいし、無人航空機100により自動で行われてもよい。
構図のサンプル情報は、例えば、三分割構図(Rule of Thirds)、二分割構図、三角構図、対角構図、アルファベット構図、中央一点構図、額縁構図、サンドイッチ構図、トンネル構図、のうち少なくとも1つの構図の情報をサンプル情報として含んでよい。また、構図のサンプル情報は、主被写体を各構図の所定の交点や分割点(例えば黄金分割点)に配置される情報を含んでもよい。
動作情報生成部114は、決定された予定構図に従った空撮を実現するための無人航空機100の動作情報を生成する。無人航空機100の動作情報は、例えば、無人航空機100の移動に関する移動情報(例えば、無人航空機100の移動量、移動方向)、無人航空機100の回転に関する回転情報(例えば、無人航空機100の回転量、回転方向)、ジンバル200の回転に関する回転情報(例えば、ジンバル200の回転量、回転方向)、その他の無人航空機100の動作情報、の少なくとも一部を含んでよい。
動作制御部115は、生成された動作情報(例えば無人航空機100の移動量、移動方向)に従って、無人航空機100の飛行を制御してよい。動作制御部115は、生成された動作情報(例えば無人航空機100の回転量、回転方向)に従って、無人航空機100の向きを制御してよい。このように、動作制御部115は、無人航空機100を移動させることで、撮像部220の撮像範囲を変更可能とする。
動作制御部115は、生成された動作情報(例えばジンバル200の回転量、回転方向)に従って、ジンバル200の回転を制御してよい。動作制御部115は、動作情報に従って、無人航空機100の姿勢を制御するとともに、ジンバル200の回転によりジンバル200の姿勢を制御してもよい。このように、動作制御部115は、ジンバル200を回転させることで、撮像部220の撮像範囲を変更可能とする。
図4は、携帯端末80のハードウェア構成の一例を示すブロック図である。携帯端末80は、端末制御部81、インタフェース部82、操作部83、無線通信部85、メモリ87、及び表示部88を備えてよい。操作部83は、情報取得部の一例である。無線通信部85は、通信部の一例である。
端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、携帯端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。
端末制御部81は、無線通信部85を介して、無人航空機100からのデータや情報を取得してよい。端末制御部81は、インタフェース部82を介して、送信機50からのデータや情報を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報を取得してよい。端末制御部81は、メモリ87に保持されたデータや情報を取得してよい。端末制御部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてよい。
端末制御部81は、撮像補助アプリケーションを実行してよい。撮像補助アプリケーションは、無人航空機100により所望の構図で空撮するための補助を行うアプリケーションでよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してよい。
インタフェース部82は、送信機50と携帯端末80との間の情報やデータの入出力を行う。インタフェース部82は、例えばUSBケーブルを介して入出力してよい。インタフェース部65は、USB以外のインタフェースでもよい。
操作部83は、携帯端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチパネル、マイクロホン、等を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、主被写体を選択するための選択操作を受け付けることで、主被写体の選択情報を取得してよい。操作部83は、構図を選択するための選択操作を受け付けることで、構図の選択情報を取得してよい。
無線通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。無線通信部55は、主被写体の選択情報や構図の選択情報を無人航空機100へ送信してよい。
メモリ87は、例えば携帯端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、携帯端末80の内部に設けられてよい。メモリ87は、携帯端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。
表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータを表示する。表示部88は、撮像補助アプリケーションの実行に係る各種データや情報を表示してよい。表示部88は、主被写体を選択するための選択画面や構図を選択するための選択画面を表示してよい。
なお、携帯端末80は、ホルダを介して送信機50に装着されてよい。携帯端末80と送信機50とは、有線ケーブル(例えばUSBケーブル)を介して接続されてよい。携帯端末80が送信機50に装着されず、携帯端末80と送信機50がそれぞれ独立して設けられてもよい。撮像補助システム10は、送信機50を備えなくてもよい。
次に、撮像補助システム10の動作概要について説明する。
図5は、撮像補助システム10の動作概要を説明するための図である。
図5では、山M1の中に道路R1があり、道路R1上に人物H1が所在する。無人航空機100は、空撮しながら山M1の上空を飛行している。無人航空機100は、山M1のライブビュー画像を撮像し、携帯端末80へ送信する。携帯端末80は、無人航空機100からのライブビュー画像G1を受信し、表示部88にライブビュー画像G1を表示する。これにより、携帯端末80のユーザは、ライブビュー画像G1を確認可能である。
ユーザは、ライブビュー画像G1の映り込んだ被写体をより魅力的に撮像するために構図調整を希望するとする。この場合、携帯端末80は、操作部83を介して構図調整を指示する操作を受け付け、構図調整コマンドを無人航空機100へ送信する。無人航空機100は、構図調整コマンドを受信すると、ライブビュー画像G1内の主被写体(例えば人物H1)を決定し、予定構図を決定し、無人航空機100の動作情報を生成する。
無人航空機100は、動作情報に従って移動等を行い、所望の位置に移動した旨(移動完了)を携帯端末80へ通知する。携帯端末80は、移動完了通知を受信すると、例えば操作部83を介したユーザ指示を基に、撮像コマンドを無人航空機100へ送信する。なお、携帯端末80は、移動完了通知を受信した際、移動後の無人航空機100の位置でのライブビュー画像を、無線通信部85を介して取得してよい。この場合、ユーザは、移動後のライブビュー画像を表示により確認でき、この位置で空撮すべきか否かを判断できる。無人航空機100は、撮像コマンドを受信すると、撮像コマンドに従って、撮像部220又は230により空撮し、空撮画像(第2の画像の一例)を得る。
これにより、無人航空機100は、所望の予定構図の空撮画像を取得できる。図5では、ライブビュー画像において主被写体としての人物H1が任意の位置に配置されていたが、構図調整されて空撮された空撮画像では、主被写体としての人物H1が3分割構図における3分割線の交点上に位置する。このように、無人航空機100は、所望の構図を実現するために動作(ここでは移動)して、空撮できる。
なお、撮像コマンドは、携帯端末80ではなく送信機50が送信してもよい。この場合、送信機50が、通信等を用いて携帯端末80と連携し、送信機50が有する撮像ボタン(不図示)に対する押下の情報を、無人航空機100へ送信してよい。
次に、主被写体の決定例について説明する。
図6Aは、無人航空機100により撮像されたライブビュー画像G1の一例を示す図である。図6Bは、色によりライブビュー画像G1が区分された色区分画像G2の一例を示す図である。図6Cは、色区分画像G2を用いた主被写体の選択例を示す図である。
ライブビュー画像G1には、複数の色成分(例えば青色、水色)を有する海と、緑色成分を有する森が存在する島と、が含まれる。無人航空機100では、通信インタフェース150が、ライブビュー画像G1を携帯端末80へ送信する。携帯端末80では、無線通信部85が、ライブビュー画像G1を無人航空機100から受信し、表示部88がライブビュー画像G1を表示してよい。
主被写体決定部112は、ライブビュー画像G1を、複数の画像ブロック(例えば16×16のブロック)に分割してよい。主被写体決定部112は、ライブビュー画像G1を、各画像ブロックの色成分により1つ以上の領域に区分し、色区分画像G2を生成してよい。図6Bでは、海の青色部分が領域Aとして区分され、海の水色部分が領域Bとして区分され、島の緑色部分が領域Cとして区分されてよい。携帯端末80では、無線通信部85が、色区分画像G2を無人航空機100から受信し、表示部88が色区分画像G2を表示してよい。
主被写体決定部112は、色区分画像G2におけるいずれかの色成分の領域を、主被写体として決定してよい。図6Cに示すように、表示部88は、撮像補助アプリケーションに従って、色区分画像G2を表示するとともに、どの領域(ここでは領域Aを示すZA,領域Bを示すZB,領域Cを示すZC)を主被写体として選択するかを決定するためのガイド表示を行ってよい。図6Cでは、操作部83を介して領域Cが主被写体として選択されることが例示されている。この場合、携帯端末80では、無線通信部85は、操作部83を介して得られた主被写体の選択情報を無人航空機100へ送信する。無人航空機100では、通信インタフェース150が、主被写体の選択情報を受信する。主被写体決定部112は、主被写体の選択情報に基づいて、主被写体を決定する。この場合、主被写体は、撮像画像においてユーザが意図した撮像対象に対応する画素の集合となる。
主被写体決定部112は、ライブビュー画像G1の端部において被写体の一部の情報が欠落している場合、言い換えるとライブビュー画像G1の画像内と画像外とで被写体が分断されている場合、この被写体の画素情報を補間してもよい。例えば、主被写体決定部112は、ライブビュー画像G1の画像内の被写体周囲の画素情報(例えば画素値)を基に、被写体の画素情報を補間してよい。主被写体決定部112は、ライブビュー画像G1の画像内の被写体周囲の画素情報(例えば画素値)をそのまま、被写体の画素情報として補間してよい。主被写体決定部112は、被写体周囲の複数の画素情報を収集して、複数の画素情報を基に重み付けしたり平均化したりして新たな色を生成し、被写体の画素情報として補間してよい。主被写体決定部112は、補間技術として、最近傍補間法(Nearest neighbor)、双一次補間法(Bilinear)、双三次補間法(Bicubic)、等を用いてよい。
このように、主被写体決定部112は、通信インタフェース150を介して主被写体の選択情報を取得し、この選択情報に基づいて主被写体を決定してよい。これにより、無人航空機100は、ライブビュー画像G1に基づく色区分画像G2に含まれる被写体の中から、ユーザが希望する主被写体を決定できる。よって、無人航空機100は、ユーザが希望する主被写体を基準とした構図の調整が可能となる。
主被写体決定部112は、被写体の選択情報を用いずに、主被写体を決定してよい。また、主被写体が複数決定されてもよい。
例えば、主被写体決定部112は、色区分画像G2における色成分の領域のうち、所定の領域を主被写体として決定してよい。つまり、主被写体決定部112は、色でライブビュー画像G1をグループ化し、所定の色グループを主被写体として認識してよい。この場合、主被写体決定部112は、例えば、各色成分に包囲された中心に位置する領域(例えば、図6Bにおける島の領域である領域C)を、主被写体として決定してよい。これにより、無人航空機100は、周囲の領域に包囲されることにより目立つ被写体を主被写体とすることができる。
また、主被写体決定部112は、色成分により区分された領域のうち、所定サイズ以下(例えば最小)の領域を主被写体として決定してよい。これにより、無人航空機100は、ライブビュー画像G1において他の領域よりも判別が困難な小さなサイズの領域を基準として、構図を調整可能となる。例えば、山中に迷い込んだ人物を主被写体として決定できる。
また、主被写体決定部112は、操作部83やメモリ87から得られた所定の色の領域を、主被写体として決定してよい。これにより、無人航空機100は、ユーザが希望する色の被写体や予め主要な撮像対象として定められていた色の被写体を主被写体として決定できる。
このように、無人航空機100は、被写体を、山、海、人物の服装、等の色毎におおまかに判別できる。よって、無人航空機100は、例えば特定の色成分を注目すべき被写体として登録しておき、色によって自動的に主被写体を判別できる。
主被写体決定部112は、空間周波数に基づいて、ライブビュー画像G1を1つ以上の領域に区分し、所定の領域を主被写体として決定してよい。つまり、主被写体決定部112は、空間周波数でライブビュー画像G1をグループ化し、所定の空間周波数の範囲のグループを主被写体として認識してよい。
空間周波数が高くなる程、画像にエッジが多くなり、鮮明な画像となる。一方、空間周波数が低い程、画像にエッジが少なくなり、ぼやけた画像となる。したがって、主被写体決定部112は、空間周波数により区分された領域のうち、空間周波数が所定周波数以上の(例えば最も高い)領域を、主被写体として決定してよい。これにより、無人航空機100は、比較的鮮明な領域を基準として、構図を調整可能となる。
また、主被写体決定部112は、操作部83やメモリ87から得られた所定の空間周波数を有する領域を、主被写体として決定してよい。これにより、無人航空機100は、ユーザが希望する空間周波数の被写体や予め主要な撮像対象として定められていた空間周波数の被写体を主被写体として決定できる。
主被写体決定部112は、ライブビュー画像G1が空撮された空撮位置の情報に基づいて、ライブビュー画像G1に含まれる1つ以上の被写体のうち、所定の被写体を主被写体として決定してよい。この場合、主被写体決定部112は、通信インタフェース150を介して外部サーバ等が蓄積する地図DBの地図情報を取得してよい。地図情報には、被写体の種別(例えば山、川、海、建物)の情報が含まれてよい。主被写体決定部112は、被写体の種別や被写体のサイズに基づいて、主被写体を決定してよい。
これにより、無人航空機100は、無人航空機100の地理的な情報や地形情報に基づいて、構図を調整可能である。
また、主被写体決定部112は、通信インタフェース150を介して、外部サーバ等から、ライブビュー画像G1に含まれる被写体の空撮画像に関する評価情報を取得してよい。主被写体決定部112は、この評価情報が所定基準以上の(例えば最高評価の)被写体を、主被写体として決定してよい。
これにより、無人航空機100は、他者が高く評価した被写体を基準として、構図を調整可能である。なお、空撮位置の情報は、GPS受信機240が取得する情報により得られてよい。
また、主被写体決定部112は、決定される主被写体が空撮される際に設定される撮像モードに基づいて、主被写体を決定してよい。また、夕焼けモードが設定される場合には、太陽や太陽が沈む水平線付近や地平線付近が主被写体として決定されてよい。
これにより、無人航空機100は、被写体が考慮される撮像モードを加味して、主被写体を決定できる。よって、無人航空機100は、撮像モードに応じて設定される撮像情報(カメラパラメータ)に適した主被写体を決定でき、鮮明な空撮画像が得られることを期待できる。
主被写体決定部112は、例えば上述のいずれかの方法に基づく主被写体の決定情報を、ライブビュー画像G1等の撮像範囲の情報とともに、メモリ160に蓄積してよい。主被写体決定部112は、メモリ160に蓄積された主被写体の決定情報(つまり過去に実績のある主被写体の決定情報)に基づいて、ライブビュー画像G1に含まれる被写体のうち主被写体を決定してよい。例えば、主被写体決定部112は、同様(例えば同一)の撮像範囲において、過去に所定回数以上(例えば最も多く)主被写体とされた被写体や、過去に所定頻度以上(例えば最も高頻度で)主被写体とされた被写体を、主被写体として決定してよい。
これにより、無人航空機100は、過去の実績に応じて、言い換えるとユーザの選択傾向や無人航空機100の決定傾向に応じて、機械学習的に主被写体を決定できる。無人航空機100は、機械学習的に決定された主被写体を基準として、構図を調整可能である。
次に、構図の決定例について説明する。
図7は、構図の選択例を示す図である。
構図決定部113は、主被写体が決定されると、主被写体に基づいて、メモリ160から空撮予定の構図候補の情報を取得する。例えば、構図決定部113は、ライブビュー画像の構図とメモリ160に保持された構図のサンプル情報とを比較し、ライブビュー画像の構図と所定基準以上の一致度を有する構図のサンプル情報を、1つ以上の構図候補として決定してよい。構図決定部113は、ライブビュー画像の構図と構図のサンプル情報との一致度は、両構図内での主被写体の形状や位置やサイズ、両構図内での複数の被写体の形状や位置やサイズや位置関係、等の少なくとも1つによって判定してよい。
一例として、図7に示すように、主被写体決定部112により、細長い形状を有する川が主被写体として選択されたとする。この場合、構図決定部113は、メモリ160が保持する構図のサンプル情報を参照し、例えば、細長い形状の領域を空撮するために適した対角構図、3分割構図、又はその他の構図を、構図候補として取得してよい。対角構図では、主被写体としての川が構図内の対角線に沿って配置されてよい。3分割構図では、主被写体として川が3分割するための分割線上に沿って又は分割線と重複して配置されてよい。構図決定部113は、取得された構図候補を、通信インタフェース150を介して携帯端末80へ送信してよい。携帯端末80では、無線通信部85が、構図候補の情報を取得してよい。図7に示すように、表示部88が、構図候補の情報を表示してよい。
表示部88は、撮像補助アプリケーションに従って、構図候補を表示するとともに、どの構図候補(ここでは対角構図、3分割構図)を予定構図として選択するかを決定するためのガイド表示を行ってよい。図7では、操作部83を介して対角構図が予定構図として選択されることが例示されている。この場合、携帯端末80では、無線通信部85は、操作部83を介して得られた構図の選択情報を無人航空機100へ送信する。無人航空機100では、通信インタフェース150が、構図の選択情報を受信する。構図決定部113は、構図の選択情報に基づいて、予定構図を決定する。
表示部88に表示される構図候補の画像は、メモリ160に保持されて携帯端末80へ送られた画像(例えば構図のサンプル情報としての構図の画像)でよい。表示部88に表示される構図候補の画像は、構図決定部113により生成されて携帯端末80へ送られた画像でもよい。この場合、構図決定部113は、主被写体の形状に応じた構図の情報と、ライブビュー画像G1と、基づいて、表示される構図候補の画像を生成してよい。例えば、構図決定部113は、ライブビュー画像G1において主被写体として川があり、その両側に被写体として山が存在する場合、これらの被写体の形状を例えば簡略化して、構図候補の位置関係に従って各被写体が配置された画像を生成してよい。また、構図決定部113の代わりに、携帯端末80の端末制御部81が、無人航空機100から取得された主被写体の形状に応じた構図の情報とライブビュー画像G1と基づいて、構図候補の画像を生成してもよい。
このように、構図決定部113は、例えば主被写体の形状を加味して、構図候補を決定できる。携帯端末80の表示部88は、決定された構図候補を表示でき、ユーザの選択を促すことができる。表示部88は、構図候補を静止画像で表示してもよいし、動画のプレビューで表示してもよい。構図決定部113は、通信インタフェース150を介して構図の選択情報を取得し、この選択情報に基づいて予定構図を決定してよい。
これにより、無人航空機100は、主被写体が空撮予定の空撮画像において所望の位置に配置された構図を決定でき、主被写体を魅力的に空撮可能となる。また、構図決定部113は、構図候補を自動的に決定でき、様々な構図のサンプル情報の中から、構図候補を限定して提示できる。構図決定部113は、選択情報に基づいて予定構図を決定するので、予定構図の選択にユーザの意思を反映できる。
なお、構図決定部113は、構図候補の提示を行うことなく、主被写体の形状に応じて構図を決定してもよい。これにより、無人航空機100は、主被写体の形状を加味してバランスの優れた予定構図を用いて空撮でき、主被写体を魅力的に空撮可能となる。
構図決定部113は、構図の選択情報を用いずに、構図を決定してよい。
例えば、構図決定部113は、シーン認識アルゴリズムにより、ライブビュー画像G1のシーンを認識してよい。構図決定部113は、シーンの認識結果に応じて、そのシーンに適した構図を決定したり、構図候補を提示させたりしてよい。例えば、ライブビュー画像G1が日の出(Sun Rise)のシーンであると認識された場合、構図決定部113は、このシーンの撮像に適した中央一点構図や2分割構図などの構図を決定したり、これらの構図候補を提示させたりしてよい。シーン認識には、例えば、ディープラーニングが用いられてよく、畳み込みニューラルネットワークが用いられてよい。
これにより、無人航空機100は、ライブビュー画像G1が空撮されたシーンに合わせて、このシーンを魅力的に空撮可能な構図を決定できる。
構図決定部113は、例えば上述のいずれかの方法に基づく構図の決定情報を、ライブビュー画像G1等の撮像範囲の情報とともに、メモリ160に蓄積してよい。構図決定部113は、メモリ160に蓄積された構図の決定情報(つまり過去に実績のある構図の決定情報)に基づいて、主被写体を考慮した構図を決定してよい。例えば、構図決定部113は、同様(例えば同一)の撮像範囲において、過去に所定回数以上(例えば最も多く)使用された構図や、過去に所定頻度以上(例えば最も高頻度で)使用された構図を、空撮予定の構図として決定してよい。
これにより、無人航空機100は、過去の実績に応じて、言い換えるとユーザの選択傾向や無人航空機100の決定傾向に応じて、機械学習的に構図を決定できる。無人航空機100は、機械学習的に決定された構図により、主被写体を魅力的に空撮可能となる。
また、構図決定部113は、通信インタフェース150を介して、外部サーバ等から、構図を用いた空撮画像に関する評価情報を取得してよい。主被写体決定部112は、この評価情報が所定基準以上の(例えば最高評価の)構図を、予定構図として決定してよい。
これにより、無人航空機100は、他者が高く評価した構図を予定構図として決定できる。よって、無人航空機100は、客観的に好ましい構図で被写体が配置された空撮画像を取得できる。
次に、動作情報の生成例について説明する。
動作情報生成部114は、決定された構図に従って空撮するために、撮像範囲を決定する。撮像範囲は、無人航空機100の位置、無人航空機100の向き、撮像部220の向き、撮像部220又は撮像部230の画角、等によって特定され得る。よって、動作情報生成部114は、ライブビュー画像G1が空撮された無人航空機100の動作状態から、決定された構図を実現するための無人航空機100の動作状態へ変更するための情報を、動作情報として生成してよい。
例えば、動作情報生成部114は、動作情報として、移動前(ライブビュー画像G1が空撮された際)の無人航空機100の位置から移動後の(決定された構図を実現するための)無人航空機100の位置へ移動するための無人航空機100の移動情報を含んでよい。
動作情報生成部114は、動作情報として、変更前(ライブビュー画像G1が空撮された際)の無人航空機100の向きから変更後の(決定された構図を実現するための)無人航空機100の向きへ変更するための無人航空機100の回転情報を含んでよい。
動作情報生成部114は、動作情報として、変更前のジンバル200の回転状態(例えば回転角度)(撮像部220の向きに相当)から変更後のジンバル200の回転状態へ変更するためのジンバル200の回転情報を含んでよい。
動作情報生成部114は、動作情報として、変更前の撮像部220又は撮像部230の画角から変更後の撮像部220又は撮像部230の向きへ変更するための撮像部220又は撮像部230の画角変更情報を含んでよい。撮像部220又は撮像部230の画角は、撮像部220又は撮像部230のズーム倍率に対応してよい。つまり、動作情報生成部114は、動作情報として、変更前の撮像部220又は撮像部230のズーム倍率から変更後の撮像部220又は撮像部230のズーム倍率へ変更するためのズーム倍率変更情報を含んでよい。
図8Aは、決定された構図で空撮するための撮像範囲の回転例を示す図である。図8Bは、決定された構図で空撮するための無人航空機100の移動例を示す図である。図8Cは、水平方向から見た無人航空機100の移動を説明するための図である。
図8Aでは、ライブビュー画像が簡略化されて表現された構図としての現構図C1と、予定構図C2と、を示している。図8Aでは、図7と同様に、川RV11の両側に山M11,M12が存在する。予定構図C2が対角構図とされている。
動作情報生成部114は、現構図C1における被写体のサイズと予定構図C2における被写体のサイズとを比較する。動作情報生成部114は、現構図C1における被写体のサイズと予定構図C2における被写体のサイズとに基づいて、無人航空機100の高度の変化量(つまり重力方向の移動量)を算出してよい。例えば、現構図C1における被写体のサイズに対して予定構図C2における被写体のサイズが2倍である場合、動作情報生成部114は、無人航空機100の高度が1/2となるように移動方向及び移動量を算出してよい。例えば、現構図C1における被写体のサイズに対して予定構図C2における被写体のサイズが1/2である場合、動作情報生成部114は、無人航空機100の高度が2倍となるように移動方向及び移動量を算出してよい。なお、現構図C1における無人航空機100の高度の情報は、ライブビュー画像G1が空撮された際の空撮高度でよく、気圧高度計270等により取得されてよい。
図8Aでは、現構図C1と予定構図C2とでは、川RV11のサイズや山M11,M12のサイズが同じである。つまり、被写体としての川RV11や山M11,M12までの距離(被写体距離)が変更されていないことを示している。この場合、動作情報生成部114は、無人航空機100の高度は変化されておらず、重力方向の移動量は値0であると判別してよい。
これにより、無人航空機100は、現構図C1と予定構図C2との比較により、容易に高度の変化量(つまり重力方向の移動量)を算出できる。したがって、無人航空機100は、2次元空間(水平方向)の移動に限らず、3次元空間での移動を可能にできる。
なお、無人航空機100の高度を変更する代わりに、撮像部220又は撮像部230のズーム倍率が変更されてもよい。
動作情報生成部114は、現構図C1における各被写体の位置関係と予定構図C2における各被写体の位置関係とを比較してよい。動作情報生成部114は、現構図C1における各被写体の位置関係と予定構図C2における各被写体の位置関係に基づいて、構図の回転量及び回転方向、つまり無人航空機100の回転量及び回転方向、若しくは、撮像部220又は撮像部230の回転量及び回転方向を算出してよい。ここでの回転方向は、例えば水平方向に沿った方向でよい。なお、各被写体の位置関係の情報は、数学的な座標変換によるマッピングにより算出されて取得されてよい。
図8Aでは、現構図C1の各被写体に対して予定構図C2の各被写体が反時計周りに30度回転した位置関係となっている。この場合、動作情報生成部114は、反時計回りの回転方向であり、撮像部220又は撮像部230の光軸を中心とした30度の回転量であることを算出する。
これにより、無人航空機100は、現構図C1と予定構図C2との比較により、容易に構図の回転量を算出できる。
動作情報生成部114は、ジンバル200の回転情報を生成してよい。例えば、動作情報生成部114は、撮像部220の画角情報と、ライブビュー画像G1における携帯端末80の表示部88での被写体の画面位置と、予定構図における表示部88での同じ被写体の画面位置と、に基づいて、ジンバル200の回転情報を算出してよい。画面上での同じ被写体の移動距離とジンバル200の回転角度の変化量(回転量)とは比例する。
図8Bでは、現構図C1と予定構図C2とでは、同じ被写体M21の画面位置の距離w1(画面上での移動距離に相当)が、表示部88の画面の一辺wの1/6の長さであるとする。また、撮像部220の画角情報が示す撮像画角が90度であるとする。この場合、予定構図C2を実現するためのジンバル200の回転角度(角度θ2)は、15度となる。また、動作情報生成部114は、実空間での移動方向と表示部88の画面上での移動方向との対応関係を基に、ジンバル200の回転方向を導出(例えば算出)してよい。なお、実空間での移動方向と表示部88の画面上での移動方向とは、逆方向となってよい。例えば、図6Aを空撮中にジンバル200を重力方向(下方向)に回転すると、空撮画像における島の位置は図6Aにおける上方向に移動する。
動作情報生成部114は、無人航空機100の移動情報を生成してよい。例えば、動作情報生成部114は、無人航空機100が所定距離(例えば所定の短距離)飛行するよう、動作制御部115へ指示する。無人航空機100は、動作制御部115の制御に従って、所定距離飛行する。動作情報生成部114は、携帯端末80の端末制御部81と連携して、実空間での飛行による移動距離と表示部88の画面上での移動距離との対応関係を判定してよい。
具体的には、動作情報生成部114は、この飛行に係る所定距離の情報を、通信インタフェース150を介して、携帯端末80へ通知してよい。携帯端末80の端末制御部81は、この飛行中の空撮画像において、無人航空機100の所定距離の移動に伴って、表示部88の画面上で同じ被写体が移動した移動距離の情報を検出してよい。端末制御部81は、無線通信部85を介して、移動距離の情報を無人航空機100へ送信してよい。動作情報生成部114は、通信インタフェース150を介して移動距離の情報を受信してよい。このようにして、動作情報生成部114は、実空間での飛行による移動距離と画面上での移動距離との対応関係を判定し、この対応関係の情報をメモリ87等に保持しておいてよい。例えば、メモリ160は、実空間での移動距離が画面上での移動距離のα倍であるという情報を保持しておいてよい。
また、端末制御部81は、実空間での移動方向と画面上での移動方向との対応関係の情報も、メモリ160に保持させてよい。なお、実空間での移動前後の位置は、例えばGPS受信機240により取得されてよい。
図8Bでは、撮像部220により撮像された同じ被写体M21が、位置p1から位置p2へ移動している。位置p1と位置p2との距離d1(移動距離に相当)とメモリ120dに保持された対応関係の情報(例えばα倍)に基づいて、予定構図を実現するための無人航空機100の移動距離を算出してよい。
これにより、無人航空機100は、多数のセンサを備えない場合でも、予定構図C2を実現するために位置すべき無人航空機100の位置を判定可能であり、予定構図C2を実現するための移動量及び移動方向の情報を取得できる。
また、動作情報生成部114は、他の方法より移動情報を生成してよい。図8Cは、移動前後における撮像部220の画角の変化と水平方向の移動距離との関係の一例を示す図である。図8Cの各位置を示す点は、側方から見た様子を示している。
例えば、動作情報生成部114は、ライブビュー画像G1の空撮時におけるジンバル200の重力方向に対する角度θ1を取得してよい。角度θ1は、ライブビュー画像G1の空撮時における無人航空機100の重力方向に対する傾きと、ジンバル200の無人航空機100に対するが傾きと、に基づいて算出されてよい。動作情報生成部114は、無人航空機100の高度と、ジンバル200の角度θ1と、に基づいて、無人航空機100の水平方向の位置p11と無人航空機100の撮像範囲の中央部が位置する水平方向の位置p12との距離d11を算出してよい。
そして、動作情報生成部114は、撮像部220の画角情報と、現構図C1における被写体の画面位置と、予定構図C2における表示部88での同じ被写体の画面位置と、に基づいて、ジンバル200の回転情報(例えば角度θ2に相当する回転角度)を算出してよい。この際、動作情報生成部114は、メモリ160に保持された、実空間での飛行による移動距離と画面上での移動距離との対応関係の情報を参照してよい。動作情報生成部114は、無人航空機100の高度hと、重力方向に対するジンバル200の回転後の角度(θ1+θ2)と、に基づいて、無人航空機100の水平方向の位置p11と回転後(予定構図C2実現時)の無人航空機100の撮像範囲の中央部が位置する水平方向の位置p13との距離d1+d2を算出してよい。よって、動作情報生成部114は、回転前(ライブビュー画像G1の空撮時)の無人航空機100の撮像範囲の中央部が位置する水平方向の位置p12と、回転後(予定構図C2実現時)の無人航空機100の撮像範囲の中央部が位置する水平方向の位置p13と、の差分、つまり角度θ2に対応する移動距離d12を算出可能である。
これにより、無人航空機100は、予め実空間での移動距離と画面上での移動距離との対応関係の情報が得られておらず、この対応関係が不明である場合でも、予定構図を実現するための移動量及び移動方向を算出できる。
動作情報生成部114は、上述の方法により、水平方向における1つの軸の方向(例えば図8Cに示すx方向)の移動距離d12を算出する。同様に、動作情報生成部114は、水平方向における1つの軸に直交する他の1つの方向(例えばy方向)の移動距離d22(不図示)を算出してよい。動作情報生成部114は、移動距離d12と移動距離d22とを合成することで、水平方向(xy方向)における移動距離を算出してよい。また、動作情報生成部114は、x方向成分とy方向成分の移動距離を合成することで、移動方向を算出してよい。
このように、無人航空機100は、動作情報を生成することで、現構図C1から予定構図C2とするために必要な無人航空機100の動作を把握できる。また、無人航空機100は、動作情報としてジンバル200の回転情報を生成することで、ジンバル200の調整により撮像範囲を変更し、所望の予定構図C2とするための動作情報を提供できる。この場合、無人航空機100は、ジンバル200の回転により撮像範囲を変更可能であるので、無人航空機100の移動を必要とせず、無人航空機100が飛行するための消費電力を節約でき、低コストを実現できる。
また、無人航空機100は、現構図C1と予定構図C2とにおける被写体の位置を基に、比較的簡単な演算により、ジンバル200の回転角度を算出できる。よって、無人航空機100は、演算処理負荷を低く抑制できる。
また、無人航空機100は、動作情報として無人航空機100の移動情報を生成することで、無人航空機100の地理的な位置調整により撮像範囲を変更し、所望の予定構図C2とするための動作情報を提供できる。つまり、無人航空機100が空間的に移動することで撮像範囲を変更し、適切な予定構図C2を実現できる。
次に、撮像補助システム10の動作例について説明する。
図9は、撮像補助システム10の動作例を示すシーケンス図である。
まず、無人航空機100では、撮像部220は、空撮画像を撮像する。(S101)。通信インタフェース150は、撮像された空撮画像(例えばライブビュー画像)を携帯端末80へ送信する(S102)。ここでは、一例として、S101の空撮画像をライブビュー画像として説明する。
携帯端末80では、無線通信部85は、ライブビュー画像を受信する(S151)。表示部88は、例えばライブビュー画像を表示してよい。ユーザは、ライブビュー画像の表示を確認し、構図の調整を希望する場合には、操作部83を介して構図を調整するための操作を行ってよい。端末制御部81は、操作部83により構図の調整操作を受け付けると、撮像補助アプリケーションを起動し、無線通信部85を介して構図調整コマンドを無人航空機100へ送信する(S152)。
無人航空機100では、UAV制御部110は、通信インタフェース150を介して構図調整コマンドを取得すると(S103)、撮像補助アプリケーションを起動する。主被写体決定部112は、ライブビュー画像における主被写体を決定する(S104)。S104では、主被写体決定部112は、通信インタフェース150を介して、携帯端末80へ主被写体を選択するための画面情報を提供してよい。携帯端末80では、無線通信部85は、無人航空機100から主被写体を選択するための画面情報を受信し、操作部83は、主被写体の選択操作を受け付け、無線通信部85は、主被写体の選択操作に基づく選択情報を無人航空機100へ送信してよい(S153)。主被写体決定部112は、通信インタフェース150を介して主被写体の選択情報を取得し、主被写体の選択情報に基づいて主被写体を決定してよい。
構図決定部113は、決定された主被写体に基づいて、構図を決定する(S105)。S105では、構図決定部113は、通信インタフェース150を介して、携帯端末80へ主構図を選択するための画面情報を提供してよい。携帯端末80では、無線通信部85は、無人航空機100から構図を選択するための画面情報を受信し、操作部83は、構図の選択操作を受け付け、無線通信部85は、構図の選択操作に基づく選択情報を無人航空機100へ送信してよい(S154)。構図決定部113は、通信インタフェース150を介して構図の選択情報を取得し、構図の選択情報に基づいて構図を決定してよい。
動作情報生成部114は、決定された構図に基づいて、無人航空機100の動作情報(例えば、無人航空機100の移動方向、移動量の情報)を生成(例えば算出)する(S106)。ここでの無人航空機100の移動方向及び移動量は、例えば、S101のライブビュー画像が空撮位置から予定構図を実現するための空撮位置への移動方向及び移動量であってよい。
動作制御部115は、算出された移動方向及び移動量に基づく目的地へ向かって飛行制御し、移動する(S107)。この目的地は、移動前のライブビュー画像の位置から移動方向及び移動量の分だけ移動した位置である。動作制御部115は、目的地への移動が完了したか否かを判定する(S108)。目的地への移動が完了していない場合には、S107に進む。
目的地への移動が完了した場合、通信インタフェース150は、移動完了通知を携帯端末80へ送信する(S109)。携帯端末80では、無線通信部85は、無人航空機100からの移動完了通知を受信する(S155)。操作部83は、移動後の無人航空機100が備える撮像部220又は撮像部230により撮像するための操作を受け付けてよい。端末制御部81は、操作部83により撮像操作を受け付けると、無線通信部85を介して撮像コマンドを無人航空機100へ送信する(S156)。
無人航空機100では、通信インタフェース150は、携帯端末80からの撮像コマンドを受信する(S110)。撮像部220又は撮像部230は、撮像コマンドに応じて、空撮画像を撮像する(S111)。この空撮画像は、予定構図を実現するために無人航空機100が移動した位置で空撮された画像となり、予定構図に従った画像となる。
なお、撮像コマンドの送信及び受信が省略されてもよい。この場合、無人航空機100は、動作情報に基づく移動を完了した際又は完了した後、移動後の位置で空撮してよい。
なお、S101〜S106の処理は、無人航空機100の非移動中に(移動せずに所定位置に所在する際に)実施されてもよいし、無人航空機100の移動中に実施されてもよい。
なお、動作情報が、無人航空機100の移動情報ではなく、ジンバル200の回転情報でもよい。この場合、S106では、動作情報生成部114は、決定された構図に基づいて、無人航空機100の動作情報(例えば、ジンバル200の回転方向、回転量の情報)を生成(例えば算出)する。ここでのジンバル200の回転方向及び回転量は、例えば、S101のライブビュー画像が空撮位置から予定構図を実現するためのジンバル200の回転方向及び回転量であってよい。S107では、動作制御部115は、算出された回転方向及び回転量に基づく目標回転位置に向かって回転制御し、ジンバル200を回転させる。この目的回転位置は、移動前のライブビュー画像の撮像時のジンバル200の角度から回転方向及び回転量の分だけ回転した位置である。S108では、動作制御部115は、目標回転位置への回転が完了したか否かを判定する。目標回転位置への回転が完了していない場合には、S107に進み、動作制御部115は、回転動作を継続させる。
なお、動作制御部115は、ジンバル200の回転制御と無人航空機100の飛行制御とのいずれか一方を行ってもよいし、双方を行ってもよい。なお、ジンバル200の回転による撮像範囲の変更は、無人航空機100の移動を伴わないため、撮像範囲の変更具合が小さい。一方、無人航空機100の移動による撮像範囲の変更は、無人航空機100の移動を伴うため、撮像範囲の変更具合が大きい。よって、ジンバル200の回転制御後に無人航空機100の飛行制御を行うと、ジンバル200の回転では所望の構図に至らない場合でも、無人航空機100の飛行制御により所望の構図の実現のための補助が可能である。つまり、無人航空機100は、ジンバル20の回転制御により省エネルギーを図りつつ、無人航空機100の飛行制御により所望の構図を確実に実現できる。
このように、無人航空機100及び撮像補助システム10によれば、所望の被写体を魅力的に空撮するための構図を、この所望の被写体を加味して決定できる。つまり、無人航空機100及び撮像補助システム10は、単に所望の被写体を撮像画像内に収めるだけでなく、撮像画像の構図を向上させることを考慮して、画像の撮像を補助できる。よって、ユーザが写真撮像に関して十分なノウハウを有しない場合でも、無人航空機100により構図の決定を補助でき、所望の被写体の空撮を補助できる。また、無人航空機100は、構図に合わせた動作(例えば無人航空機100の移動、ジンバル200の回転角度の調整)が可能であるので、将来的な空撮において予定構図を利用可能である。
また、無人航空機100は、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、この動作情報に基づく無人航空機100の動作を迅速に実施できる。また、無人航空機100は、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、携帯端末80の処理負荷を低減でき、携帯端末80との間の通信負荷の低減も実現できる。したがって、携帯端末80は、携帯端末80自身の処理負荷を低減しながら、無人航空機100と連携して撮像補助に係る処理に貢献できる。
また、無人航空機100は、S101,S102のライブビュー画像を基に主被写体の決定、構図の決定、等を行うことで、ライブビュー画像に含まれる所望の被写体を基準とした予定構図を生成できる。よって、無人航空機100は、一連の撮像を行う流れの中で、所望の被写体を所望の構図により空撮できる。また、無人航空機100は、本撮像前の仮撮像時に映り込んだ被写体に含まれる主被写体に適した構図で、本撮像できる。
なお、表示部88は、動作情報を表示してもよい。動作情報に係る表示情報は、「東方向へ10m移動してください」、「ジンバル200を重力方向に20度回転してください」、等でよい。表示部88による動作情報の表示の代わりに、他の提示部により動作情報が提示されてもよい。例えば、音声出力部(不図示)が動作情報に係る音声情報を出力してもよいし、振動部(不図示)が動作情報を示す振動を行ってもよい。
無人航空機100が動作情報を提示することで、ユーザは、動作情報の内容を確認できる。そのため、動作情報を確認したユーザが、送信機50を操作することで、送信機50から無人航空機100へ動作指示が送られてよい。無人航空機100は、通信インタフェース150を介して、動作指示を取得し、予定構図を実現するための空撮位置に無人航空機100を移動させてもよい。この場合、無人航空機100は、動作制御部115の機能を有していなくても、予定構図を実現するための無人航空機100の動作を実施できる。
(第2の実施形態)
第1の実施形態では、無人航空機が、主被写体の決定、構図の決定、及び動作情報の生成を行うことを例示した。第2の実施形態では、携帯端末が、主被写体の決定、構図の決定、及び動作情報の生成を行うことを例示する。なお、第2の実施形態において、第1の実施形態と同様の構成や動作については、説明を省略又は簡略化する。
図10は、第2の実施形態における撮像補助システム10Aの構成例を示す模式図である。撮像補助システム10Aは、無人航空機100A、送信機50及び携帯端末80Aを備える。無人航空機100A、送信機50及び携帯端末80Aは、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。
携帯端末80Aは、無人航空機100Aにより空撮するための構図を決定し、決定された構図となるように無人航空機100Aの動作情報を生成する。無人航空機100Aは、動作情報に従って無人航空機100Aの動作を制御する。携帯端末80Aは、送信機50とともに、無人航空機100Aを用いた空撮を予定しているユーザに所持され得る。携帯端末80Aは、無人航空機100Aによる空撮を補助する。
図11は、無人航空機100Aのハードウェア構成の一例を示すブロック図である。無人航空機100Aは、第1の実施形態における無人航空機100と比較すると、UAV制御部110の代わりにUAV制御部110Aを備える。なお、図11の無人航空機100Aにおいて、図2に示した無人航空機100の構成と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。なお、メモリ160は、撮像補助に係る情報(例えば構図のサンプル情報、実空間での距離と画面上での距離との対応関係の情報)を保持しなくてもよい。
図12は、UAV制御部110Aの機能構成の一例を示すブロック図である。UAV制御部110Aは、動作制御部115及び動作情報取得部116を備える。なお、図12のUAV制御部110Aにおいて、図3に示したUAV制御部110の構成と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。
動作情報取得部116は、例えば通信インタフェース150を介して、携帯端末80Aから無人航空機100Aの動作情報を取得する。動作制御部115は、取得された動作情報に従って、無人航空機100Aの動作を制御する。無人航空機100Aの動作制御の内容は、第1の実施形態と同様でよい。
図13は、携帯端末80Aのハードウェア構成の一例を示すブロック図である。携帯端末80Aは、第1の実施形態における携帯端末80と比較すると、端末制御部81の代わりに端末制御部81Aを備える。なお、図13の携帯端末80Aにおいて、図4に示した携帯端末80の構成と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。なお、メモリ87は、第1の実施形態における無人航空機100が備えるメモリ160と同様に、撮像補助に係る情報(例えば構図のサンプル情報、実空間での距離と画面上での距離との対応関係の情報、機械学習に係る情報)を保持してよい。
図14は、端末制御部81Aの機能構成の一例を示すブロック図である。端末制御部81Aは、画像取得部811は、主被写体決定部812、構図決定部813及び動作情報生成部814を備える。主被写体決定部812及び構図決定部813は、情報取得部の一例である。動作情報生成部114は、生成部の一例である。
画像取得部811は、メモリ87に保持された画像(例えば無人航空機100Aの撮像部220又は撮像部230により空撮された空撮画像)を取得してよい。画像取得部811は、例えば通信インタフェース150を介して、撮像部220又は撮像部230により空撮中の空撮画像を取得してよい。空撮画像は、動画でも静止画でもよい。空撮中の空撮動画は、ライブビュー画像とも称される。画像取得部811により取得される空撮画像として、主にライブビュー画像を例示する。
主被写体決定部812は、画像取得部811により取得されたライブビュー画像に含まれる1つ以上の被写体のうち、主被写体を決定(特定)する。主被写体の決定は、主被写体の情報の取得の一例である。主被写体決定部812による主被写体の決定方法は、第1の実施形態における無人航空機100が備える主被写体決定部112による主被写体の決定方法と同様でよい。
構図決定部813は、決定された主被写体を撮像するための構図を決定する。主被写体を撮像するための構図の決定は、主被写体を撮像するための構図の情報の取得の一例である。構図決定部813による構図の決定方法は、第1の実施形態における無人航空機100が備える構図決定部113による構図の決定方法と同様でよい。
動作情報生成部814は、決定された構図に従った空撮を実現するための無人航空機100Aの動作情報を生成する。動作情報生成部814による動作情報の生成方法は、第1の実施形態における無人航空機100が備える動作情報生成部114による動作情報の生成方法と同様でよい。生成された動作情報は、例えば無線通信部85により、無人航空機100Aへ送信されてよい。
次に、撮像補助システム10Aの動作例について説明する。
図15は、撮像補助システム10Aの動作例を示すシーケンス図である。
まず、無人航空機100Aは、S101,S102の処理を実施する。携帯端末80Aは、S151の処理を実施する。
携帯端末80Aでは、表示部88は、例えばライブビュー画像を表示してよい。ユーザは、ライブビュー画像の表示を確認し、構図の調整を希望する場合には、操作部83を介して構図を調整するための操作を行ってよい。この操作は、構図調整開始指示の一例である。端末制御部81は、操作部83により構図の調整操作を受け付けると、撮像補助アプリケーションを起動する(S161)。
主被写体決定部812は、ライブビュー画像における主被写体を決定する(S162)。S162では、主被写体決定部812は、主被写体を選択するための選択画面を表示部88に表示させてよい。操作部83は、主被写体の選択操作を受け付けることで、主被写体の選択情報を取得してよい。主被写体決定部812は、この主被写体の選択情報に基づいて主被写体を決定してよい。
構図決定部813は、決定された主被写体に基づいて、構図を決定する(S163)。S163では、構図決定部813は、予定構図を選択するための選択画面を表示部88に表示させてよい。操作部83は、構図の選択操作を受け付けることで、予定構図の選択情報を取得してよい。構図決定部813は、この構図の選択情報に基づいて構図を決定してよい。
動作情報生成部814は、決定された構図に基づいて、無人航空機100Aの動作情報を生成する(S164)。例えば無線通信部85は、生成された無人航空機100Aの動作情報を、無人航空機100Aへ送信する(S165)。
無人航空機100Aでは、通信インタフェース150は、携帯端末80Aからの無人航空機100Aの動作情報を受信する(S121)。
続いて、無人航空機100Aは、S107〜S111の処理を実施し、携帯端末80Aは、S155,S156の処理を実施する。
このように、携帯端末80A及び撮像補助システム10Aによれば、所望の被写体を魅力的に空撮するための構図を、この所望の被写体を加味して決定できる。つまり、携帯端末80A及び撮像補助システム10Aは、単に所望の被写体を撮像画像内に収めるだけでなく、撮像画像の構図を向上させることを考慮して、画像の撮像を補助できる。よって、ユーザが写真撮像に関して十分なノウハウを有しない場合でも、携帯端末80Aにより構図の決定を補助でき、所望の被写体の空撮を補助できる。また、無人航空機100Aは、構図に合わせた動作(例えば無人航空機100Aの移動、ジンバル200の回転角度の調整)が可能であるので、将来的な空撮において予定構図を利用可能である。
また、携帯端末80Aは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、無人航空機100Aの処理負荷を低減でき、空撮画像の処理や飛行制御等の処理に無人航空機100Aを集中させることができる。また、無人航空機100Aは、他装置である携帯端末80等により生成された動作情報に従って動作できるので、無人航空機100の処理負荷を低減しても、所望の構図を実現するための所望の動作を実施できる。
なお、携帯端末80A以外の情報処理装置(例えば送信機50、PC、その他の情報処理装置)が、携帯端末80Aが有する撮像補助機能(例えば主被写体決定機能、構図決定機能、動作情報生成機能)を有してもよい。
(第3の実施形態)
第1,第2の実施形態では、無人航空機による空撮を補助することを例示した。第3の実施形態では、ジンバル装置に取り付けられた撮像装置による撮像を補助することを例示する。なお、第3の実施形態において、第1,第2の実施形態と同様の構成や動作については、説明を省略又は簡略化する。
図16は、第3の実施形態における撮像補助システム10Bの構成例を示す斜視図である。撮像補助システム10Bは、ジンバル装置300及び携帯端末80Bを備える。ジンバル装置300及び携帯端末80Bは、相互に有線通信(例えばUSB通信)又は無線通信(例えば無線LAN、Bluetooth(登録商標)、近距離通信、公衆無線回線)により通信可能である。ジンバル装置300は、支持装置の一例である。
携帯端末80Bは、ジンバル装置300に取り付けられた携帯端末80Bが備える撮像部820により撮像するための構図を決定し、決定された構図となるようにジンバル装置300の動作情報を生成してよい。又は、ジンバル装置300は、ジンバル装置300に取り付けられた携帯端末80Bが備える撮像部820により撮像するための構図を決定し、決定された構図となるようにジンバル装置300の動作情報を生成してよい。ジンバル装置300は、動作情報に従ってジンバル装置300の動作を制御する。ジンバル装置300は、携帯端末80Bを用いた撮像を予定しているユーザに所持され得る。携帯端末80B又はジンバル装置300は、ジンバル装置300に取り付けられた携帯端末80Bによる撮像を補助する。なお、撮像部820は、撮像装置の一例である。
図16に示すように、ジンバル装置300は、ジンバル310、取付部315、及び把持部330を備える。取付部315は、ジンバル装置300に携帯端末80Bを取り付け、ジンバル装置300に対する携帯端末80Bの位置や向きを固定する。
ジンバル310は、ヨー軸、ピッチ軸、及びロール軸を中心に、携帯端末80Bを回転可能に支持してよい。ジンバル310は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に携帯端末80Bを回転させることで、携帯端末80Bが備える撮像部820の撮像方向を変更してよい。携帯端末80Bにおける撮像部820の位置は固定されているので、携帯端末80Bの回転は撮像部820の回転に対応すると言える。
把持部330は、使用時(撮像時)にユーザに把持されてよい。図16に示す把持部330は一例であり、図16とは異なる把持部330の形状、ジンバル装置300に対する把持部330の位置、ジンバル装置300に対する把持部330のサイズ、でもよい。なお、図16においてジンバル310を示す点線が携帯端末80B付近で分断されているが、これはジンバル310が携帯端末80Bよりも奥側に位置することを示している。
次に、ジンバル装置300及び携帯端末80Bの構成例について説明する。
不図示であるが、ジンバル装置300は、無人航空機100又は無人航空機100Aのハードウェア構成の少なくとも一部を有する。不図示であるが、ジンバル装置300は、無人航空機100又は無人航空機100Aの機能構成の少なくとも一部を有する。
不図示であるが、携帯端末80Bは、携帯端末80又は携帯端末80Aのハードウェア構成と同様でよい。不図示であるが、携帯端末80Bは、携帯端末80又は携帯端末80の機能構成と同様でよい。
撮像補助システム10Bにおいて、携帯端末80Bが第1の実施形態の携帯端末80の機能を有する場合、ジンバル装置300は、第1の実施形態の無人航空機100の機能を有してよい。つまり、ジンバル装置300が、撮像部820により撮像された画像(例えばライブビュー画像)における主被写体の決定機能、構図の決定機能、及びジンバル装置300の動作情報の生成機能を有してよい。また、ジンバル装置300が、動作情報に基づくジンバル装置300の動作の制御機能を有してよい。
撮像補助システム10Bにおいて、携帯端末80Bが第2の実施形態の携帯端末80Aの機能を有する場合、ジンバル装置300は、第2の実施形態の無人航空機100Aの機能を有してよい。つまり、携帯端末80Bが、撮像部820により撮像された画像(例えばライブビュー画像)における主被写体の決定機能、構図の決定機能、及びジンバル装置300の動作情報の生成機能を有してよい。ジンバル装置300が、ジンバル装置300の動作情報の取得機能を有してよい。また、ジンバル装置300が、動作情報に基づくジンバル装置300の動作の制御機能を有してよい。
なお、ジンバル装置300は、無人航空機100,100Aとは異なり、飛行することが考慮されない。そのため、動作情報は、ジンバル310の回転情報でよい。よって、ジンバル装置300は、動作情報に基づいて、ジンバル310の回転を制御してよい。
このように、ジンバル装置300、携帯端末80B及び撮像補助システム10Bによれば、所望の被写体を魅力的に空撮するための構図を、この所望の被写体を加味して決定できる。つまり、ジンバル装置300、携帯端末80B及び撮像補助システム10Bは、単に所望の被写体を撮像画像内に収めるだけでなく、撮像画像の構図を向上させることを考慮して、画像の撮像を補助できる。よって、ユーザが写真撮像に関して十分なノウハウを有しない場合でも、ジンバル装置300又は携帯端末80Bにより構図の決定を補助でき、所望の被写体の撮像を補助できる。また、ジンバル装置300は、構図に合わせた動作(例えばジンバル310の回転角度の調整)が可能であるので、将来的な撮像において予定構図を利用可能である。
また、ジンバル装置300は、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、この動作情報に基づくジンバル装置300の動作を迅速に実施できる。また、ジンバル装置300は、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、携帯端末80Bの処理負荷を低減でき、携帯端末80Bとの間の通信負荷の低減も実現できる。したがって、携帯端末80Bは、携帯端末80B自身の処理負荷を低減しながら、ジンバル装置300と連携して撮像補助に係る処理に貢献できる。また、ジンバル装置300は、ジンバル310の回転制御に、撮像補助により生成された動作情報を用いることができる。つまり、第1,第2の実施形態のような無人航空機100による空撮のためだけでなく、ジンバル装置300を用いた撮像のために、撮像補助による撮像支援が実施され得る。
また、携帯端末80Bは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、ジンバル装置300の処理負荷を低減でき、撮像画像の処理等にジンバル装置300を集中させることができる。また、ジンバル装置300は、他装置である携帯端末80B等により生成された動作情報に従って動作できるので、ジンバル装置300の処理負荷を低減しても、所望の構図を実現するための所望の動作を実施できる。
(第4の実施形態)
第3の実施形態では、ジンバル装置に取り付けられた撮像装置による撮像を補助することを例示した。第4の実施形態では、ジンバル装置が備える撮像部による撮像を補助することを例示する。なお、第4の実施形態において、第1〜第3の実施形態と同様の構成や動作については、説明を省略又は簡略化する。
図17Aは、第4の実施形態におけるジンバル装置300Cの構成例を示す正面斜視図である。図17Bは、第4の実施形態における撮像補助システム10Cの構成例を示す背面斜視図である。撮像補助システム10Cは、ジンバル装置300C及び携帯端末80Cを備える。ジンバル装置300C及び携帯端末80Cは、相互に有線通信(例えばUSB通信)又は無線通信(例えば無線LAN、Bluetooth(登録商標)、近距離通信、公衆無線回線)により通信可能である。ジンバル装置300Cは、支持装置の一例である。
携帯端末80Cは、ジンバル装置300Cに内蔵された撮像部320により撮像するための構図を決定し、決定された構図となるようにジンバル装置300Cの動作情報を生成してよい。又は、ジンバル装置300Cは、撮像部320により撮像するための構図を決定し、決定された構図となるようにジンバル装置300Cの動作情報を生成してよい。ジンバル装置300Cは、動作情報に従ってジンバル装置300Cの動作を制御する。ジンバル装置300Cは、ジンバル装置300Cを用いた撮像を予定しているユーザに所持され得る。携帯端末80C又はジンバル装置300Cは、ジンバル装置300Cによる撮像を補助する。
図17A及び図17Bに示すように、ジンバル装置300Cは、ジンバル310C、撮像部320、及び把持部330を備える。撮像部320は、撮像装置の一例である。図17A及び図17Bのジンバル装置300C及び撮像補助システム10Cにおいて、図16に示したジンバル装置300及び撮像補助システム10Bと同様の構成については、同一の符号を付し、その説明を省略又は簡略化する。
ジンバル310Cは、ヨー軸、ピッチ軸、及びロール軸を中心に、撮像部320を回転可能に支持してよい。ジンバル310Cは、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部320を回転させることで、撮像部320の撮像方向を変更してよい。撮像部320は、例えば、紙面において奥方向を撮像してよい。撮像部320は、撮像方向を変更可能でよい。把持部330は、例えばユーザの手HD1により把持されてよい。
次に、ジンバル装置300及び携帯端末80Bの構成例について説明する。
不図示であるが、ジンバル装置300Cは、無人航空機100又は無人航空機100Aのハードウェア構成の少なくとも一部を有する。不図示であるが、ジンバル装置300Cは、無人航空機100又は無人航空機100Aの機能構成の少なくとも一部を有する。
不図示であるが、携帯端末80Cは、携帯端末80又は携帯端末80Aのハードウェア構成と同様でよい。不図示であるが、携帯端末80Cは、携帯端末80又は携帯端末80の機能構成と同様でよい。
撮像補助システム10Cにおいて、携帯端末80Cが第1の実施形態の携帯端末80の機能を有する場合、ジンバル装置300Cは、第1の実施形態の無人航空機100の機能を有してよい。つまり、ジンバル装置300Cが、撮像部320により撮像された画像(例えばライブビュー画像)における主被写体の決定機能、構図の決定機能、及びジンバル装置300Cの動作情報の生成機能を有してよい。また、ジンバル装置300Cが、動作情報に基づくジンバル装置300Cの動作の制御機能を有してよい。
撮像補助システム10Cにおいて、携帯端末80Cが第2の実施形態の携帯端末80Aの機能を有する場合、ジンバル装置300Cは、第2の実施形態の無人航空機100Aの機能を有してよい。つまり、携帯端末80Cが、撮像部320により撮像された画像(例えばライブビュー画像)における主被写体の決定機能、構図の決定機能、及びジンバル装置300Cの動作情報の生成機能を有してよい。ジンバル装置300Cが、ジンバル装置300Cの動作情報の取得機能を有してよい。また、ジンバル装置300Cが、動作情報に基づくジンバル装置300Cの動作の制御機能、を有してよい。
なお、ジンバル装置300Cは、無人航空機100,100Aとは異なり、飛行することが考慮されない。そのため、動作情報は、ジンバル310Cの回転情報でよい。よって、ジンバル装置300Cは、動作情報に基づいて、ジンバル310Cの回転を制御してよい。
このように、ジンバル装置300C、携帯端末80C及び撮像補助システム10Cによれば、所望の被写体を魅力的に空撮するための構図を、この所望の被写体を加味して決定できる。つまり、ジンバル装置300C、携帯端末80C及び撮像補助システム10Cは、単に所望の被写体を撮像画像内に収めるだけでなく、撮像画像の構図を向上させることを考慮して、画像の撮像を補助できる。よって、ユーザが写真撮像に関して十分なノウハウを有しない場合でも、ジンバル装置300C又は携帯端末80Cにより構図の決定を補助でき、所望の被写体の撮像を補助できる。また、ジンバル装置300Cは、構図に合わせた動作(例えばジンバル310Cの回転角度の調整)が可能であるので、将来的な撮像において予定構図を利用可能である。
また、ジンバル装置300Cは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、この動作情報に基づくジンバル装置300Cの動作を迅速に実施できる。また、ジンバル装置300Cは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、携帯端末80Cの処理負荷を低減でき、携帯端末80Cとの間の通信負荷の低減も実現できる。したがって、携帯端末80Cは、携帯端末80C自身の処理負荷を低減しながら、ジンバル装置300Cと連携して撮像補助に係る処理に貢献できる。また、ジンバル装置300Cは、ジンバル310Cの回転制御に、撮像補助により生成された動作情報を用いることができる。つまり、第1,第2の実施形態のような無人航空機100による空撮のためだけでなく、ジンバル装置300Cを用いた撮像のために、撮像補助による撮像支援が実施され得る。
また、携帯端末80Cは、撮像補助に係る主被写体の決定、構図の決定、及び動作情報の生成を行うことで、ジンバル装置300Cの処理負荷を低減でき、撮像画像の処理等にジンバル装置300Cを集中させることができる。また、ジンバル装置300Cは、他装置である携帯端末80C等により生成された動作情報に従って動作できるので、ジンバル装置300Cの処理負荷を低減しても、所望の構図を実現するための所望の動作を実施できる。
以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10,10A 撮像補助システム
50 送信機
80,80A,80B,80C 携帯端末
81,81A 端末制御部
82 インタフェース部
83 操作部
85 無線通信部
87 メモリ
88 表示部
100,100A 無人航空機
110,110A UAV制御部
111 画像取得部
112 主被写体決定部
113 構図決定部
114 動作情報生成部
115 動作制御部
116 動作情報取得部
150 通信インタフェース
160 メモリ
200 ジンバル
210 回転翼機構
220,230 撮像部
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
300,300C ジンバル装置
310,310C ジンバル
315 取付部
320 撮像部
330 把持部
811 画像取得部
812 主被写体決定部
813 構図決定部
814 動作情報生成部
820 撮像部

Claims (38)

  1. 撮像装置による第2の画像の撮像を補助するモバイルプラットフォームであって、
    第1の画像を取得する画像取得部と、
    前記第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得し、前記第2の画像における前記第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得する情報取得部と、
    前記第1の構図に従って前記第2の画像を撮像するための前記撮像装置の動作に関する動作情報を生成する生成部と、
    を備え
    前記生成部は、前記動作情報として、前記撮像装置の移動に関する移動情報を生成し、
    前記生成部は、前記第1の画像における前記第1の被写体の位置と、前記第1の構図における前記第1の被写体の位置と、前記第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、前記撮像装置の移動量及び移動方向を決定する、
    モバイルプラットフォーム。
  2. 前記情報取得部は、前記第1の画像に含まれる複数の被写体から前記第1の被写体を選択して取得する、
    請求項1に記載のモバイルプラットフォーム。
  3. 前記情報取得部は、前記第1の画像に含まれる被写体の色成分に基づいて、前記第1の被写体の情報を取得する、
    請求項1または2に記載のモバイルプラットフォーム。
  4. 前記情報取得部は、前記第1の画像に含まれる被写体の空間周波数に基づいて、前記第1の被写体の情報を取得する、
    請求項1または2に記載のモバイルプラットフォーム。
  5. 前記情報取得部は、前記撮像装置の位置情報を取得し、前記撮像装置の位置情報に基づいて、前記第1の被写体の情報を取得する、
    請求項1に記載のモバイルプラットフォーム。
  6. 前記情報取得部は、前記撮像装置による前記第2の画像の撮像時の撮像モードに基づいて、前記第1の被写体の情報を取得する、
    請求項1に記載のモバイルプラットフォーム。
  7. 前記情報取得部は、複数の前記構図から前記第1の構図を選択して取得する、
    請求項1〜6のいずれか1項に記載のモバイルプラットフォーム。
  8. 前記第1の被写体の形状を認識する認識部、を更に備え、
    前記情報取得部は、前記第1の被写体の形状に基づいて、前記第1の構図の情報を取得する、
    請求項1〜7のいずれか1項に記載のモバイルプラットフォーム。
  9. 前記第2の画像が撮像される際のシーンを認識する認識部、を更に備え、
    前記情報取得部は、前記シーンに基づいて、前記第1の構図の情報を取得する、
    請求項1〜7のいずれか1項に記載のモバイルプラットフォーム。
  10. 前記生成部は、前記動作情報として、前記撮像装置を回転可能に支持する支持部材の回転に関する回転情報を生成する、
    請求項1〜9のいずれか1項に記載のモバイルプラットフォーム。
  11. 前記生成部は、前記第1の画像における前記第1の被写体の位置と前記第1の構図における前記第1の被写体の位置とに基づいて、前記支持部材の回転量及び回転方向を決定する、
    請求項10に記載のモバイルプラットフォーム。
  12. 前記生成部は、前記第1の画像における前記第1の被写体のサイズと前記第1の構図における前記第1の被写体のサイズとに基づいて、重力方向に沿った前記撮像装置の移動量を決定する、
    請求項1〜11のいずれか1項に記載のモバイルプラットフォーム。
  13. 前記動作情報を提示する提示部、を更に備える、
    請求項1〜12のいずれか1項に記載のモバイルプラットフォーム。
  14. 前記第1の画像は、前記撮像装置により撮像された画像である、
    請求項1〜13のいずれか1項に記載のモバイルプラットフォーム。
  15. 前記モバイルプラットフォームは、
    前記撮像装置及び前記撮像装置を回転可能に支持する支持部材を備える飛行体であり、
    前記動作情報に基づいて、前記飛行体の飛行又は前記支持部材の回転を制御する制御部、を更に備える、
    請求項1、3〜6、8〜14のいずれか1項に記載のモバイルプラットフォーム。
  16. 前記モバイルプラットフォームは、
    使用時にユーザに把持され、前記撮像装置を回転可能に支持する支持部材を備える支持装置であり、
    前記動作情報に基づいて、前記支持部材の回転を制御する制御部、を更に備える、
    請求項1、3〜6、8〜14のいずれか1項に記載のモバイルプラットフォーム。
  17. 前記モバイルプラットフォームは、
    携帯端末であり、
    前記動作情報を、飛行体又は支持装置へ送信する通信部、を更に備える、
    請求項1〜4、7〜14のいずれか1項に記載のモバイルプラットフォーム。
  18. 飛行体であって、
    撮像装置と、
    前記撮像装置を回転可能に支持する支持部材と、
    請求項1〜4、7〜14のいずれか1項に記載のモバイルプラットフォームにより生成された前記動作情報を取得する動作情報取得部と、
    前記動作情報に基づいて、前記飛行体の飛行又は前記支持部材の回転を制御する制御部と、
    を備える飛行体。
  19. 支持装置であって、
    撮像装置を回転可能に支持する支持部材と、
    請求項1〜4、7〜14のいずれか1項に記載のモバイルプラットフォームにより生成された前記動作情報を取得する動作情報取得部と、
    前記動作情報に基づいて、前記支持部材の回転を制御する制御部と、
    を備える支持装置。
  20. 撮像装置による第2の画像の撮像を補助するモバイルプラットフォームにおける撮像補助方法であって、
    第1の画像を取得するステップと、
    前記第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、
    前記第2の画像における前記第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、
    前記第1の構図に従って前記第2の画像を撮像するための前記撮像装置の動作に関する動作情報を生成するステップと、
    を有し、
    前記動作情報を生成するステップは、前記動作情報として、前記撮像装置の移動に関する移動情報を生成するステップを含み、
    前記動作情報を生成するステップは、前記第1の画像における前記第1の被写体の位置と、前記第1の構図における前記第1の被写体の位置と、前記第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、前記撮像装置の移動量及び移動方向を決定するステップを含む、
    撮像補助方法。
  21. 前記第1の被写体の情報を取得するステップは、前記第1の画像に含まれる複数の被写体から前記第1の被写体を選択して取得するステップを含む、
    請求項20に記載の撮像補助方法。
  22. 前記第1の被写体の情報を取得するステップは、前記第1の画像に含まれる被写体の色成分に基づいて、前記第1の被写体の情報を取得するステップを含む、
    請求項20または21に記載の撮像補助方法。
  23. 前記第1の被写体の情報を取得するステップは、前記第1の画像に含まれる被写体の空間周波数に基づいて、前記第1の被写体の情報を取得するステップを含む、
    請求項20または21に記載の撮像補助方法。
  24. 前記撮像装置の位置情報を取得するステップ、を更に含み、
    前記第1の被写体の情報を取得するステップは、前記撮像装置の位置情報に基づいて、前記第1の被写体の情報を取得するステップを含む、
    請求項20に記載の撮像補助方法。
  25. 前記第1の被写体の情報を取得するステップは、前記撮像装置による前記第2の画像の撮像時の撮像モードに基づいて、前記第1の被写体の情報を取得するステップを含む、
    請求項20に記載の撮像補助方法。
  26. 前記第1の構図の情報を取得するステップは、複数の前記構図から前記第1の構図を選択して取得するステップを含む、
    請求項2025のいずれか1項に記載の撮像補助方法。
  27. 前記第1の被写体の形状を認識するステップ、を更に含み、
    前記第1の構図の情報を取得するステップは、前記第1の被写体の形状に基づいて、前記第1の構図の情報を取得するステップを含む、
    請求項26に記載の撮像補助方法。
  28. 前記第2の画像が撮像される際のシーンを認識するステップ、を更に含み、
    前記第1の構図の情報を取得するステップは、前記シーンに基づいて、前記第1の構図の情報を取得するステップを含む、
    請求項26に記載の撮像補助方法。
  29. 前記動作情報を生成するステップは、前記動作情報として、前記撮像装置を回転可能に支持する支持部材の回転に関する回転情報を生成するステップを含む、
    請求項2028のいずれか1項に記載の撮像補助方法。
  30. 前記動作情報を生成するステップは、前記第1の画像における前記第1の被写体の位置と前記第1の構図における前記第1の被写体の位置とに基づいて、前記支持部材の回転量及び回転方向を決定するステップを含む、
    請求項29に記載の撮像補助方法。
  31. 前記動作情報を生成するステップは、前記第1の画像における前記第1の被写体のサイズと前記第1の構図における前記第1の被写体のサイズとに基づいて、重力方向に沿った前記撮像装置の移動量を決定するステップを含む、
    請求項20〜30のいずれか1項に記載の撮像補助方法。
  32. 前記動作情報を提示部に提示するステップ、を更に含む、
    請求項2031のいずれか1項に記載の撮像補助方法。
  33. 前記第1の画像は、前記撮像装置により撮像された画像である、
    請求項2032のいずれか1項に記載の撮像補助方法。
  34. 前記モバイルプラットフォームは、前記撮像装置及び前記撮像装置を回転可能に支持する支持部材を備える飛行体であり、
    前記動作情報に基づいて、前記飛行体の飛行又は前記支持部材の回転を制御するステップ、を更に含む、
    請求項2022252733のいずれか1項に記載の撮像補助方法。
  35. 前記モバイルプラットフォームは、使用時にユーザに把持され、前記撮像装置を回転可能に支持する支持部材を備える支持装置であり、
    前記動作情報に基づいて、前記支持部材の回転を制御するステップ、を更に含む、
    請求項2022252733のいずれか1項に記載の撮像補助方法。
  36. 前記モバイルプラットフォームは、携帯端末であり、
    前記動作情報を、飛行体又は支持装置へ送信するステップ、を更に含む、
    請求項20〜23、26〜33のいずれか1項に記載の撮像補助方法。
  37. 撮像装置による第2の画像の撮像を補助するモバイルプラットフォームに、撮像補助方法の各ステップを実行させるプログラムであって、
    前記撮像補助方法は、
    第1の画像を取得するステップと、
    前記第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、
    前記第2の画像における前記第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、
    前記第1の構図に従って前記第2の画像を撮像するための前記撮像装置の動作に関する動作情報を生成するステップと、
    を有し、
    前記動作情報を生成するステップは、前記動作情報として、前記撮像装置の移動に関する移動情報を生成するステップを含み、
    前記動作情報を生成するステップは、前記第1の画像における前記第1の被写体の位置と、前記第1の構図における前記第1の被写体の位置と、前記第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、前記撮像装置の移動量及び移動方向を決定するステップを含む、
    プログラム。
  38. 撮像装置による第2の画像の撮像を補助するモバイルプラットフォームに、撮像補助方法の各ステップを実行させるプログラムを記録したコンピュータ読取り可能な記録媒体であって、
    前記撮像補助方法は、
    第1の画像を取得するステップと、
    前記第1の画像に含まれる1つ以上の被写体のうち、第1の被写体の情報を取得するステップと、
    前記第2の画像における前記第1の被写体を含む1つ以上の被写体の位置を規定する1つ以上の構図のうち、第1の構図の情報を取得するステップと、
    前記第1の構図に従って前記第2の画像を撮像するための前記撮像装置の動作に関する動作情報を生成するステップと、
    を有し、
    前記動作情報を生成するステップは、前記動作情報として、前記撮像装置の移動に関する移動情報を生成するステップを含み、
    前記動作情報を生成するステップは、前記第1の画像における前記第1の被写体の位置と、前記第1の構図における前記第1の被写体の位置と、前記第1の画像における移動距離と実空間における移動距離との対応関係に基づいて、前記撮像装置の移動量及び移動方向を決定するステップを含む、
    記録媒体。
JP2017104737A 2017-05-26 2017-05-26 モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体 Active JP6875196B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017104737A JP6875196B2 (ja) 2017-05-26 2017-05-26 モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体
CN201780064135.6A CN109863745A (zh) 2017-05-26 2017-10-30 移动平台、飞行体、支持装置、便携式终端、摄像辅助方法、程序以及记录介质
PCT/CN2017/108413 WO2018214401A1 (zh) 2017-05-26 2017-10-30 移动平台、飞行体、支持装置、便携式终端、摄像辅助方法、程序以及记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017104737A JP6875196B2 (ja) 2017-05-26 2017-05-26 モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体

Publications (2)

Publication Number Publication Date
JP2018201119A JP2018201119A (ja) 2018-12-20
JP6875196B2 true JP6875196B2 (ja) 2021-05-19

Family

ID=64396168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017104737A Active JP6875196B2 (ja) 2017-05-26 2017-05-26 モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体

Country Status (3)

Country Link
JP (1) JP6875196B2 (ja)
CN (1) CN109863745A (ja)
WO (1) WO2018214401A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020209167A1 (ja) * 2019-04-08 2020-10-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20220283584A1 (en) * 2019-07-19 2022-09-08 Sony Group Corporation Information processing device, information processing method, and information processing program
WO2022188151A1 (zh) * 2021-03-12 2022-09-15 深圳市大疆创新科技有限公司 影像拍摄方法、控制装置、可移动平台和计算机存储介质

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098456A (ja) * 1998-09-28 2000-04-07 Minolta Co Ltd オート構図機能を有するカメラ
JP3833486B2 (ja) * 2000-04-19 2006-10-11 富士写真フイルム株式会社 撮像装置
JP2006027448A (ja) * 2004-07-16 2006-02-02 Chugoku Electric Power Co Inc:The 無人飛行体を利用した空撮方法及びその装置
US7773116B1 (en) * 2006-02-08 2010-08-10 Lockheed Martin Corporation Digital imaging stabilization
JP2008061209A (ja) * 2006-09-04 2008-03-13 Canon Inc 画像処理方法
JP4894712B2 (ja) * 2007-10-17 2012-03-14 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP5200780B2 (ja) * 2008-09-08 2013-06-05 ソニー株式会社 撮影装置および方法、並びにプログラム
JP5310076B2 (ja) * 2009-02-23 2013-10-09 株式会社ニコン 画像処理装置、および画像処理プログラム
JP5287465B2 (ja) * 2009-04-21 2013-09-11 ソニー株式会社 撮像装置、撮影設定方法及びそのプログラム
JP5858754B2 (ja) * 2011-11-29 2016-02-10 キヤノン株式会社 撮影装置、表示方法及びプログラム
JP2013207357A (ja) * 2012-03-27 2013-10-07 Sony Corp サーバ、クライアント端末、システムおよびプログラム
JP5880263B2 (ja) * 2012-05-02 2016-03-08 ソニー株式会社 表示制御装置、表示制御方法、プログラムおよび記録媒体
JP6000780B2 (ja) * 2012-09-21 2016-10-05 オリンパス株式会社 撮像装置
CN103870138B (zh) * 2012-12-11 2017-04-19 联想(北京)有限公司 一种信息处理方法及电子设备
KR102045957B1 (ko) * 2013-01-18 2019-11-18 삼성전자 주식회사 휴대단말의 촬영 방법 및 장치
JP2014236334A (ja) * 2013-05-31 2014-12-15 株式会社ニコン 撮像装置
CN103426282A (zh) * 2013-07-31 2013-12-04 深圳市大疆创新科技有限公司 遥控方法及终端
CN103533245B (zh) * 2013-10-21 2018-01-09 努比亚技术有限公司 拍摄装置及辅助拍摄方法
US9667860B2 (en) * 2014-02-13 2017-05-30 Google Inc. Photo composition and position guidance in a camera or augmented reality system
US10235587B2 (en) * 2014-03-04 2019-03-19 Samsung Electronics Co., Ltd. Method and system for optimizing an image capturing boundary in a proposed image
CN107577247B (zh) * 2014-07-30 2021-06-25 深圳市大疆创新科技有限公司 目标追踪系统及方法
US20160055883A1 (en) * 2014-08-22 2016-02-25 Cape Productions Inc. Methods and Apparatus for Automatic Editing of Video Recorded by an Unmanned Aerial Vehicle
CN104301613B (zh) * 2014-10-16 2016-03-02 深圳市中兴移动通信有限公司 移动终端及其拍摄方法
US9407815B2 (en) * 2014-11-17 2016-08-02 International Business Machines Corporation Location aware photograph recommendation notification
CN104935810A (zh) * 2015-05-29 2015-09-23 努比亚技术有限公司 引导拍摄方法及装置
EP3101889A3 (en) * 2015-06-02 2017-03-08 LG Electronics Inc. Mobile terminal and controlling method thereof
US9876951B2 (en) * 2015-09-25 2018-01-23 International Business Machines Corporation Image subject and composition demand
CN105578043A (zh) * 2015-12-18 2016-05-11 Tcl集团股份有限公司 一种相机拍照的构图方法和装置
CN105611164A (zh) * 2015-12-29 2016-05-25 太仓美宅姬娱乐传媒有限公司 一种摄像机的辅助拍摄方法
CN106131411B (zh) * 2016-07-14 2019-04-02 纳恩博(北京)科技有限公司 一种拍摄图像的方法和装置
CN106331508B (zh) * 2016-10-19 2020-04-03 深圳市道通智能航空技术有限公司 拍摄构图的方法及装置
CN106586011A (zh) * 2016-12-12 2017-04-26 高域(北京)智能科技研究院有限公司 航拍无人飞行器的对准方法及其航拍无人飞行器
CN106708089A (zh) * 2016-12-20 2017-05-24 北京小米移动软件有限公司 跟随式的飞行控制方法及装置、无人机

Also Published As

Publication number Publication date
JP2018201119A (ja) 2018-12-20
WO2018214401A1 (zh) 2018-11-29
CN109863745A (zh) 2019-06-07

Similar Documents

Publication Publication Date Title
JP6803919B2 (ja) 飛行経路生成方法、飛行経路生成システム、飛行体、プログラム、及び記録媒体
JP6765512B2 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
JP6878567B2 (ja) 3次元形状推定方法、飛行体、モバイルプラットフォーム、プログラム及び記録媒体
JP6962812B2 (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
JP6962775B2 (ja) 情報処理装置、空撮経路生成方法、プログラム、及び記録媒体
JP6862477B2 (ja) 位置処理装置、飛行体、位置処理システム、飛行システム、位置処理方法、飛行制御方法、プログラム、及び記録媒体
JP6675537B1 (ja) 飛行経路生成装置、飛行経路生成方法とそのプログラム、構造物点検方法
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
JP6875196B2 (ja) モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体
US20210185235A1 (en) Information processing device, imaging control method, program and recording medium
WO2019230604A1 (ja) 検査システム
JP2021168005A (ja) 表示制御方法、表示制御装置、プログラム、及び記録媒体
JP2019028560A (ja) モバイルプラットフォーム、画像合成方法、プログラム、及び記録媒体
JPWO2018150492A1 (ja) 画像表示方法、画像表示システム、飛行体、プログラム、及び記録媒体
JP5235127B2 (ja) 遠隔操作システムおよび遠隔操作装置
US20200217665A1 (en) Mobile platform, image capture path generation method, program, and recording medium
CN111344650B (zh) 信息处理装置、飞行路径生成方法、程序以及记录介质
JP6875269B2 (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
JP7067897B2 (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
JP2020016663A (ja) 検査システム
JP6997164B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP6329219B2 (ja) 操作端末、及び移動体
JP7452533B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2021014752A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム
JP2020095519A (ja) 形状推定装置、形状推定方法、プログラム、及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210422

R150 Certificate of patent or registration of utility model

Ref document number: 6875196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150