WO2020203126A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2020203126A1
WO2020203126A1 PCT/JP2020/010558 JP2020010558W WO2020203126A1 WO 2020203126 A1 WO2020203126 A1 WO 2020203126A1 JP 2020010558 W JP2020010558 W JP 2020010558W WO 2020203126 A1 WO2020203126 A1 WO 2020203126A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
moving body
movement
imaging
image
Prior art date
Application number
PCT/JP2020/010558
Other languages
English (en)
French (fr)
Inventor
辰吾 鶴見
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/593,611 priority Critical patent/US20220166917A1/en
Priority to JP2021511341A priority patent/JP7452533B2/ja
Priority to EP20784293.1A priority patent/EP3950492A4/en
Priority to CN202080024110.5A priority patent/CN113631477A/zh
Publication of WO2020203126A1 publication Critical patent/WO2020203126A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0034Assembly of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0039Modification of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

実空間に存在する物体に基づく仮想オブジェクトの表示画面における表示を制御する表示制御部と、移動体の移動を制御するための移動情報を生成する移動情報生成部と、を備える、情報処理装置を提供する。これにより、移動体の移動するための情報を直感的に生成することが可能となる。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 近年、操縦装置などを用いて操縦されるドローン等の移動体が利用されている。例えば、カメラが搭載されたドローンに上空から風景を撮像させ、撮像された画像が活用される。
 例えば、特許文献1には、予め規定されたモード切り替え条件が発生した場合に、画像撮像モードから、画像転送モードへモード切り替えを行うことで、効率的な画像転送を行う技術が記載されている。
特開2019-16869号公報
 ドローンのような移動体の移動を制御する方法として、操縦装置を用いてユーザが移動体の移動を制御する方法以外には、予め移動体が移動する経路を予め設定し、設定された経路を移動体に移動させる方法が考えられる。この場合、例えば、地図上に移動体の移動経路を設定することが考えられる。
 しかしながら、2次元の地図上に移動体の経路を設定する方法では、移動体は3次元的に移動する場合には、直感的に移動体の移動を設定することが困難であった。特許文献1に記載の技術は、ドローンのような移動体の移動を制御するための移動情報を直感的に生成することを意図した技術ではない。
 そこで、本開示では、移動体の移動するための情報を直感的に生成することが可能な、新規かつ改良された情報処理装置、情報処理方法及びプログラムを提案する。
 本開示によれば、実空間に存在する物体に基づく仮想オブジェクトの表示画面における表示を制御する表示制御部と、移動体の移動を制御するための移動情報を生成する移動情報生成部と、を備える、情報処理装置が提供される。
 また、本開示によれば、プロセッサが、表示画面における実空間に存在する物体に基づく仮想オブジェクトの表示を制御することと、移動体の移動を制御するための移動情報を生成することと、を含む、情報処理方法が提供される。
 また、本開示によれば、コンピュータに、表示画面における実空間に存在する物体に基づく仮想オブジェクトの表示を制御する機能と、移動体の移動を制御するための移動情報を生成する機能と、を実現させるためのプログラムが提供される。
本開示の一実施形態に係る情報処理システムの構成を示す図である。 本開示の一実施形態に係るユーザ端末の構成を示す機能ブロック図である。 処理部の構成を示す機能ブロック図である。 ユーザが、移動体を操縦して塔及び林を撮像する様子を示す図である。 撮像された塔に基づき生成された仮想オブジェクトを示す図である。 撮像された林に基づき生成された仮想オブジェクトを示す図である。 移動体が移動した経路を示す図である。 ユーザ端末により、実空間に存在する机の上の平面が検出されている様子を示す図である。 ユーザの操作に基づき、Waypointが選択されている様子を示す図である。 ユーザの操作に基づき、Waypointが選択されている様子を示す図である。 ユーザの操作に基づき、Waypointの位置が調整されている様子を示す図である。 ユーザの操作に基づき、Waypointの位置が調整されている様子を示す図である。 ユーザの操作に基づき、移動体の経路が新たに設定されている様子を示す図である。 ユーザの操作に基づき、移動体の経路が新たに設定されている様子を示す図である。 ユーザ端末が備える撮像部の位置が、Waypointとして設定される様子を示す図である。 ユーザ端末が備える撮像部の位置がWaypointとして設定される場合における、表示画面を示す図である。 ユーザ端末から所定の距離だけ離れた位置がWaypointとして設定される様子を示す図である。 ユーザ端末から所定の距離だけ離れた位置がWaypointとして設定される場合における、表示画面を示す図である。 指定棒を用いてWaypointが設定される様子を示す図である。 指定棒によりWaypointが設定されている際における、表示画面を示す図である。 ユーザ端末の向きを動かすことにより、移動体の撮像装置の向きが設定される様子を示す図である。 ユーザ端末の表示画面にピンチ操作を行うことにより、移動体の撮像装置の画角が設定される様子を示す図である。 移動体の移動のシミュレーション結果を表示する表示画面を示す図である。 移動体が備える撮像装置が撮像する画像のシミュレーション結果を表示する表示画面を示す図である。 手動操作による撮像方法を示すフローチャート図である。 移動体に自動飛行させて、撮像装置に映像を撮像させる方法を示すフローチャート図である。 仮想オブジェクトが生成されるまでの手順を示すフローチャート図である。 生成された移動情報及び撮像情報に基づき、映像が撮像されるまでの手順を示すフローチャート図である。 情報処理装置による表示処理を示す図である。 本開示の一実施形態に係る情報処理システムを構成するユーザ端末のハードウェア構成の一構成例を示す機能ブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば、実質的に同一の機能構成を有する複数の構成を、必要に応じてユーザ端末10aおよびユーザ端末10bのように区別する。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。例えば、ユーザ端末10aおよびユーザ端末10bを特に区別する必要が無い場合には、単にユーザ端末10と称する。
 なお、説明は以下の順序で行うものとする。
 1.構成
  1.1.情報処理システムの構成
  1.2.ユーザ端末の構成
 2.仮想オブジェクトの生成
 3.操作例
  3.1.移動情報の生成
  3.2.撮像情報の生成
  3.3.移動体の動作のシミュレーション
 4.撮像方法
  4.1.手動操作による撮像方法
  4.2.自動飛行による撮像方法
  4.3.端末の表示画面に表示された地図を用いる撮像方法
  4.4.本開示に係る撮像方法
 5.効果
 6.ハードウェア構成
 7.補足
 <1.構成>
 <<1.1.情報処理システムの構成>>
 まず、図1を参照して、本開示の一実施形態に係る情報処理システム1の構成について説明する。図1は、本開示の一実施形態に係る情報処理システム1の構成を示す図である。情報処理システム1は、ユーザ端末10と移動体20とを備える。ユーザ端末10と移動体20とは互いに通信可能に接続される。
 ユーザ端末10は、例えば、スマートフォン又はタブレット端末等であってもよい。ユーザ端末10は、ユーザの操作に応じて、移動体20の移動を制御するための移動情報を生成し、当該移動情報を移動体20に送信する。また、ユーザ端末10は、ユーザの操作に応じて、後述する仮想オブジェクトなどを表示することもできる。
 移動体20は、ユーザ端末10により生成された移動情報に基づいて移動する装置である。ここで、移動体20は、移動可能な各種の装置であり得るが、以下では、移動体20がドローンであるものとして説明する。また、移動体20は、風景を撮像するための撮像装置を搭載していてもよい。
 <<1.2.ユーザ端末の構成>>
 図2を参照して、本開示の一実施形態に係るユーザ端末10の構成について説明する。図2は、本開示の一実施形態に係るユーザ端末10の構成を示す機能ブロック図である。
 ユーザ端末10は、画像情報、センサ情報又はユーザからの操作に基づく情報等を取得し、取得した情報に各種の処理を施した結果を出力する機能を有する。ユーザ端末10が有する機能は、ユーザ端末10が備える情報処理装置100、撮像部(第1の撮像装置)110、センサ部120、入力部130及び表示部175が協働することにより実現される。
 撮像部110は、画像を撮像する各種の公知の撮像装置であってもよい。撮像部110は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)センサ等の公知の各種の撮像素子を有する。撮像部110は、これらの撮像素子に加えて、被写体像を撮像素子に結像させるレンズ、及び被写体に照明光を照射するための光源等といった各種の部材を有してもよい。撮像部110は、撮像して得られた画像情報を情報処理装置100に伝達する。
 センサ部120は、例えば、測距センサ又はIMU(Inertial Measurement Unit)などの各種の公知のセンサの少なくとも1つを含む。測距センサは、例えばステレオカメラ又はToF(Time of Flight)センサなどであってもよい。測距センサは、例えばユーザ端末10とその周りに存在する物体までの距離等に関する距離情報を検出し、検出した距離情報を情報処理装置100に伝達する。また、IMUは、例えば加速度センサ、ジャイロセンサ又は磁気センサの少なくともいずれかを含む。IMUは、検出した情報をIMU情報として、情報処理装置100に伝達する。
 入力部130は、ユーザによる操作に基づき、入力情報を生成する機能を有する。入力部130は、例えばタッチパネルなどであり得る。入力部130は、例えば、ユーザによるタッチ操作、ドラッグ操作、ピンチアウト操作又はピンチイン等の各種の操作に基づき、入力情報を生成する。入力部130は、生成した入力情報を取得部140に伝達する。
 情報処理装置100は、取得した情報に基づき各種の処理を実施し、当該処理の結果に基づき、表示部175の表示を制御する機能を有する。情報処理装置100が有する機能は、取得部140、処理部150、表示制御部170、記憶部180及び通信制御部190が協働することにより実現される。
 取得部140は、撮像部110、センサ部120又は入力部130の少なくともいずれかより入力された情報を取得する。取得部140は、取得した情報を処理部150に伝達する。
 処理部150は、取得部140から伝達された情報に基づき、各種の処理を実施する機能を有する。例えば、処理部150は、取得部140から伝達された情報に基づき、移動体20を制御するための情報を生成する機能を有する。また、処理部150は、表示部175の表示画面に表示される内容に関する情報を生成する。処理部150の詳細な構成及び機能については、図3を参照して後述する。処理部150は、生成した情報を表示制御部170、記憶部180又は通信制御部190に伝達する。
 表示制御部170は、表示部175の表示画面における表示を制御する機能を有する。表示制御部170は、例えば、処理部150から伝達された情報に基づき、表示部175の表示画面における実空間に存在する物体に基づく仮想オブジェクトの表示を制御する。
 表示部175は、各種の公知の画像を表示する機能を有する表示装置である。本実施形態では、表示部175と前述の入力部130とは、一体となっており、タッチパネルとして構成されている。後述するように、ユーザは、表示部175の表示画面を参照しながら、所定の操作を行うことにより、ユーザ端末10に移動体20の移動を制御するための移動情報を情報処理装置100に生成させることができる。
 記憶部180は、情報処理装置100が生成した情報又は取得した情報などの各種の情報を記憶する機能を有する。例えば、記憶部180は、予め生成された仮想オブジェクトに関する情報を記憶していてもよい。なお、仮想オブジェクトを生成する方法については後述する。また、記憶部180は、移動体20の移動を制御するための移動情報を記憶していてもよい。より具体的には、記憶部180は、移動体20の経路に含まれる特定の地点(「Waypoint」とも称する。)に関する情報(Waypoint情報)を記憶していてもよい。移動体20の経路は、複数のWaypointが接続されることで形成されていてもよい。また、記憶部180は、処理部150が生成した移動情報又は撮像情報などを記憶してもよい。記憶部180が記憶している情報は、必要に応じて、処理部150、表示制御部170又は通信制御部190により参照される。
 通信制御部190は、処理部150が生成した各種の情報の送信を制御する機能を有する。通信制御部190は、処理部150が生成した移動情報又は撮像情報の送信を制御する。当該移動情報又は撮像情報は、移動体20に送信される。移動体20は、送信された情報に基づき、移動又は撮像を行うことができる。
 次いで、図3を参照して、情報処理装置100が備える処理部150についてより詳細に説明する。図3は、処理部150の構成を示す機能ブロック図である。処理部150は、図3に示すように、検出部151、自己位置算出部154、仮想オブジェクト算出部155、生成部156及び予測部160を備える。
 検出部151は、取得部140から伝達された情報に基づき、各種の検出を行う機能を有する。検出部151が有する機能は、平面検出部152及び物体検出部153により実現される。平面検出部152は、画像情報及び距離情報等に基づき、画像に含まれる平面を検出する機能を有する。物体検出部153は、画像情報及び距離情報等に基づき、画像に含まれる所定の物体を検出する機能を有する。検出部151は、検出した結果を自己位置算出部154に伝達する。
 自己位置算出部154は、ユーザ端末10の自己位置を算出する機能を有する。ここで、ユーザ端末10の自己位置とは、ユーザ端末10が存在している位置のみならず、ユーザ端末10の姿勢も含む。具体的には、自己位置算出部154は、画像情報、距離情報及びIMU情報を入力として、SLAM(Simultaneous Localization And Mapping)技術により、ユーザ端末10の周りの環境又は物体に対する、ユーザ端末10の位置又は姿勢を算出する。このとき、自己位置算出部154は、物体情報又は平面情報等に基づき、SLAMにおける原点又はスケールを決定してもよい。自己位置算出部154は、算出した結果を仮想オブジェクト算出部155及び生成部156に伝達する。
 仮想オブジェクト算出部155は、表示画面に配置される仮想オブジェクトに関する情報を生成する。より具体的には、仮想オブジェクト算出部155は、自己位置算出部154が算出したユーザ端末10の自己位置、検出部151が検出した結果、入力部130に入力された入力情報及び記憶部180に記憶された仮想オブジェクトに関する情報等に基づき、表示部175の表示画面に配置する仮想オブジェクトの配置情報(位置又は方向などに関する情報)又はスケール情報等を算出する。ここで、仮想オブジェクト算出部155は、実空間のスケールを基準とした仮想オブジェクトのスケールを算出する。より具体的には、仮想オブジェクト算出部155は、表示画面に表示される仮想オブジェクトのスケールを、当該仮想オブジェクトの基となった実物のスケールから適宜拡縮して決定し、スケール情報を生成する。仮想オブジェクト算出部155は、算出した結果を後述する移動情報生成部157に伝達する。
 生成部156は、移動体20を制御するための各種の情報を生成する機能を有する。より具体的には、生成部156は、移動体20の移動、当該移動体20が備える撮像装置(第2の撮像装置)の動作、表示部175の表示を制御するための情報等を生成する。生成部156が有する機能は、生成部156が備える移動情報生成部157、撮像情報生成部158及び表示情報生成部159により実現される。
 移動情報生成部157は、移動体20の移動を制御するための、仮想オブジェクトと関連した移動情報を生成する。具体的には、移動情報生成部157は、ユーザ端末10の自己位置、入力部130への入力情報、仮想オブジェクトの配置情報、スケール情報及びWaypoint情報に基づき、Waypointの位置及び方向を移動情報として生成する。例えば、移動情報生成部157は、移動体20の経路を移動情報として生成してもよい。このとき、移動情報生成部157は、仮想オブジェクトのスケール情報に応じたスケールの移動情報を生成してもよいし、当該移動情報を実空間のスケールに合わせることで移動情報を生成してもよい。また、移動情報生成部157は、ユーザからの入力部130への操作などに基づき、移動情報を修正し、新たな移動情報を生成することもできる。具体的なユーザによる操作については、後述する。移動情報生成部157は、生成した移動情報を表示情報生成部159、予測部160及び記憶部180に伝達する。
 撮像情報生成部158は、ユーザの操作に基づき、移動体20が備える撮像装置が撮像する範囲を制御するための撮像情報を生成する機能を有する。より具体的には、撮像情報生成部158は、入力部130が生成した入力情報等に基づき、当該撮像装置が向く方向又は画角等に関する撮像情報を生成する。撮像情報生成部158は、生成した撮像情報を予測部160及び記憶部180に伝達する。
 表示情報生成部159は、表示部175に表示される内容に関する表示情報を生成する機能を有する。より具体的には、表示情報生成部159は、撮像部110の位置、仮想オブジェクトの配置情報、スケール情報、Waypoint情報及び後述する予測部160による予測結果等に基づき、表示部175に表示するためのCG(Computer Graphics)を表示情報として生成する。表示情報生成部159は、移動体20の移動を示す映像を表示情報として生成できる。また、表示情報生成部159は、移動体20が備える撮像装置が撮像するシミュレーション映像を表示するための表示情報を生成することもできる。表示情報生成部159は、生成した表示情報を表示制御部170に伝達する。
 予測部160は、移動体20の動作を予測する機能を有する。より具体的には、予測部160は、移動体20の移動及び移動体20が備える撮像装置の動作を予測できる。予測部160が有する機能は、移動予測部161及び撮像予測部162により実現される。予測部160は、予測した結果を表示情報生成部159に伝達する。
 移動予測部161は、移動情報に基づき、移動体20の移動を予測する機能を有する。例えば、移動予測部161は、移動体20の経路を予測することができる。また、撮像予測部162は、移動情報及び撮像情報に基づき、移動体20が備える撮像装置が撮像する撮像画像を予測する。より具体的には、撮像予測部162は、当該撮像装置が通過する経路及び当該撮像装置の姿勢等に基づき、当該撮像装置が撮像する画像を予測する。
 <2.仮想オブジェクトの生成>
 本実施形態では、表示部175には、仮想オブジェクトが表示され、ユーザは、当該表示を見ながら所定の操作を行うことにより、情報処理装置100に移動情報又は撮像情報などを生成させることができる。ここでは、当該仮想オブジェクトを生成する方法の一例を説明する。なお、仮想オブジェクトを生成する方法は、以下で説明する方法に限定されず、いかなる方法で仮想オブジェクトが生成されてもよい。
 仮想オブジェクトの生成方法について、図4~図7を参照して説明する。図4は、ユーザU1が、移動体20を操縦して塔420及び林430を撮像する様子を示す図である。また、図5は、撮像された塔420に基づき生成された仮想オブジェクト422を示す図である。また、図6は、撮像された林430に基づき生成された仮想オブジェクト432を示す図である。さらに、図7は、移動体20が移動した経路402を示す図である。
 まず、本実施形態に係る仮想オブジェクトの生成方法について簡単に説明する。ここでは、ユーザU1は、塔420を含む映像を撮像装置206に撮像させたいものとする。本実施形態では、まず、ユーザU1が、操縦装置401を用いて、移動体20を操縦し、実空間に存在する塔420及び当該塔420の周辺に存在する林430を撮像装置206に予め撮像させる。次いで、撮像された画像に基づき、各種のCG技術に基づき、3次元の仮想オブジェクトが生成される。本実施形態では、さらに、移動体20が通過した経路にWaypointが設定され、移動情報が生成される。以下、図4~図7を参照して、より詳細に仮想オブジェクトの生成方法について説明する。
 まず、図4に示すように、ユーザU1は、操縦装置401を用いて、移動体(ドローン)20に飛行させる。移動体20は、機体202、プロペラ204及び撮像装置206を備えている。プロペラ204が駆動することにより、移動体20は飛行することができる。また、ユーザU1がプロペラ204等を操縦することにより、機体202の向き、姿勢及び速度などが制御される。さらに、移動体20が備える撮像装置206により、移動体20の周りの風景が撮像される。ここでは、図4に示す塔420とその周りの林430を含む画像が、撮像装置206により撮像される。
 撮像された画像に基づき、各種の公知のCG技術を用いて、塔420及び林430の仮想オブジェクトが生成される。より具体的には、図5に示す実空間に存在する塔420の仮想オブジェクト422及び図6に示す実空間に示す林430の仮想オブジェクト432が生成される。このようにして生成された仮想オブジェクトに関する情報は、情報処理装置100が備える記憶部180に記憶される。
 さらに、ユーザU1は、実際に所望する画像が撮像される際の飛行を移動体20に実現させてもよい。より具体的には、ユーザU1は、図4に示される塔420の周りを旋回する経路402を移動体20が通過するように、移動体20を操縦する。移動体20は、移動体20が備えるセンサにより移動した経路402を算出し、算出した結果を移動体20が備える記録媒体などに記録する。ここで、経路402には、所定の規則に従って、Waypointが設定されてもよい。例えば、所定の距離毎にWaypointが設定されてもよい。また、経路402の曲率に応じてWaypointの密度が調整されてもよい。
 図7には、Waypoint406が設定された経路402の一例が示されている。なお、図7には、13個のWaypoint406a~406mが示されているが、これに限らず、経路402には2個以上12個以下のWaypointが設定されてもよいし、14個以上のWaypointが設定されてもよい。なお、以下の説明に用いられる図おいても、Waypointが示される場合があるが、Waypointの数はそれらの図に示される数に限定されるものではない。
 このようにしてWaypointが設定された経路402に関する情報は、移動情報として、情報処理装置100が備える記憶部180に記憶されてもよい。
 <3.操作例>
 ここでは、上記のようにして生成された仮想オブジェクトに基づき、ユーザが移動情報又は撮像情報などを情報処理装置100に生成させるための操作の具体例について説明する。
 <<3.1.移動情報の生成>>
 ユーザの操作に基づき移動情報が生成される場合について説明する。まず、図8~図12を参照して、予め移動情報が情報処理装置100に記録されている場合に、当該移動情報を修正し、新たな移動情報が生成される場合について説明する。図8は、ユーザ端末10aにより、実空間に存在する机500の上の平面が検出されている様子を示す図である。また、図9及び図10は、ユーザU2の操作に基づき、Waypoint408aが選択されている様子を示す図である。さらに、図11及び図12は、ユーザU2の操作に基づき、Waypoint408aの位置が調整されている様子を示す図である。
 図8に示すように、ユーザU2の目の前の実空間には、机500が存在しているものとする。ユーザU2はユーザ端末10aを所持しており、ユーザ端末10aの表示画面610には、仮想オブジェクトの表示及びWaypointの設定を開始するための開始ボタン602が表示されている。ここで、表示画面610は、ユーザU2からのタッチ操作又はピンチ操作などを受け付ける入力部130としての機能も有している。ユーザU2が開始ボタン602をタッチすると、ユーザ端末10aは、机500の上の平面506を検出する。
 すると、図9に示すように、ユーザ端末10aの表示画面610aには、予め生成された塔の仮想オブジェクト422aの画像612a及び移動体20の仮想経路404aの画像614aが表示される。ここで、仮想経路とは、仮想オブジェクトが配置される仮想空間における経路である。当該仮想経路のスケールが適宜拡縮されることにより、移動体20が実際に移動する実経路が形成される。以下、仮想経路及び実経路を特に区別しないときは、これらを単に「経路」とも称する。このとき、仮想オブジェクト422aは、机500の上に配置されているように、表示画面610aに表示される。なお、図9には仮想オブジェクト422aが机500の上に示されているが、ここでは説明のために仮想オブジェクト422aが示されており、実際に仮想オブジェクト422aが机500の上に配置されているわけではない。
 ここで、仮想オブジェクト422aの画像614aのサイズは、例えば、図9に示すように机500の上に乗るサイズであってもよい。また、仮想経路404aの画像614aには、仮想経路404aを調整するためのWaypoint408aの画像616aが表示されている。本実施形態では、ユーザU2は、表示画面610aにピンチ操作などを行うことにより、表示画面610aに表示された仮想オブジェクトの画像612aのサイズ(すなわち、ユーザ端末10aから仮想オブジェクト422aまでの距離)を調整することも可能である。このとき、ユーザ端末10aは、仮想オブジェクト422aの基となった実空間に存在する塔のサイズと、当該仮想オブジェクト422aのサイズとの比率を記憶してもよい。
 本実施形態では、仮想オブジェクト422aの画像612aが平面(机500の上)に表示されるため、ユーザU2は、仮想オブジェクト422aが地面の上に配置されているように感じることができる。このため、ユーザU2は、より直感的にユーザ端末10aを操作することができるようになる。
 ここでは、予め移動体20が手動操縦等により飛行しており、仮想経路404aは当該飛行に基づき生成されているものとする。また、仮想経路404aには、予めWaypointが設定されているものとする。具体的には、図9に示すように、仮想経路404aには、丸印で示された13個のWaypointが設定されている。さらに、13個のWaypointうちの1つのWaypoint408aが、表示画面610aに表示されているWaypointの画像616aに対応している。
 ユーザU2は、表示画面610aに表示されたWaypointの画像616aをタッチすることにより、調整の対象となるWaypointを選択することができる。ここでは、ユーザU2は、仮想経路404aにおけるWaypoint408aを選択しているものとする。また、Waypoint408aが選択された状態では、ユーザU2は、表示画面610aにピンチ操作又はドラッグ操作などを行うことにより、Waypoint408aの位置を調整することができる。また、本実施形態では、ユーザU2は、表示画面610aを操作することにより、移動体20が備える撮像装置の向きを調整することもできる。例えば、Waypoint408aが選択された状態で、ユーザU2が表示画面610aにピンチ操作又はドラッグ操作などを行うことにより、当該Waypoint408aに対応する位置を移動体20が通過するときにおける、移動体20の撮像装置の向きなどを指定することができる。
 次いで、ユーザU2は、Waypoint408aが選択された状態で、ユーザ端末10aの位置を動かす。例えば、ユーザU2は、図11及び図12に示すように、ユーザ端末10aをユーザU2側に引く。これにより、選択されたWaypoint408aの位置は、ユーザ端末10bの移動に応じて動く。また、仮想経路404aは、移動後のWaypoint408bの位置に応じた仮想経路404bに変化する。当該仮想経路404の変化により、実際に移動体20が移動する経路が調整される。このように、本実施形態では、移動体20の経路が、ユーザU2によるユーザ端末10aを動かす操作に基づき調整される。このようにして、移動体20の経路が調整され、調整された経路を表す移動情報が新たに生成される。当該移動情報に基づき、移動体20は、塔420の周りを飛行することが可能になる。
 ここでは、仮想経路404aにWaypointが予め設定されている場合について説明した。仮想経路404aにWaypointが予め設定されていない場合には、ユーザU2は、表示画面610に表示された仮想経路404の画像614の一部をタッチ等することにより、Waypointを設定することも可能である。このようにして設定されたWaypointについても、上述した方法により調整することが可能である。
 このように、本実施形態によれば、ユーザU2は、Waypointが設定された状態で、表示画面610への操作及びユーザ端末10aを動かす操作を行うことで、Waypointを微調整することが可能である。このため、より直感的に移動体20の移動するための情報を生成することが可能になる。
 以上、移動体20の仮想経路404aが予め設定されている場合に、当該仮想経路404aを調整することで、新たな移動情報を生成する方法について説明した。次に、移動体20の経路が予め設定されていない場合に、移動体20の経路を設定する2つの方法ついて、図13及び図14を参照して説明する。図13及び図14は、ユーザU2の操作に基づき、移動体20の経路が新たに設定されている様子を示す図である。
 なお、いずれの方法も、ユーザU2がユーザ端末10を操作することにより、移動体20の経路及びWaypointを設定する方法である。図13及び図14を参照して説明する方法により設定されたWaypointも、図8~図12を参照して上述した方法により調整されてもよい。
 移動体20の経路を設定する1つ目の方法について、図13を参照して説明する。まず、ユーザU2は、ユーザ端末10cの表示画面610cの一部(例えば、表示画面610cに示された指定箇所616c)をタッチする。ユーザU2は、指定箇所616cをタッチしながら、ユーザ端末10cを例えば破線で示す下方向に動かす。ユーザ端末10cは、ユーザ端末10cが移動した軌跡を移動体20の経路として記憶する。このとき、ユーザ端末10cは、経路にWaypointを設定し、当該経路と共に記憶してもよい。
 次いで、移動体20の経路を設定する2つ目の方法について、図14を参照して説明する。2つ目の方法では、ユーザU2は、図14の上側に示すように、ユーザ端末10dの表示画面610dをタッチしてWaypoint408dを設定する。設定されたWaypoint408dの画像616dが、表示画面610dに表示される。
 次いで、図14の下側に示すように、ユーザU2は、ユーザ端末10dの位置を動かして、新たな位置におけるユーザ端末10eの表示画面610eをタッチしてWaypoint408eを設定する。以後、ユーザ端末10の移動とWaypoint408の設定が繰り返され、設定された複数のWaypoint408が結ばれることにより、移動体20の経路が生成される。生成された経路及びWaypoint408は、ユーザ端末10に記憶される。
 このようにして、本実施形態によれば、移動体20の経路が予め設定されていない場合であっても、ユーザU2は、表示画面610への操作とユーザ端末10を動かす操作により、移動体20の経路を設定することができる。
 ここで、ユーザ端末10の操作により設定されるWaypointの位置について、図15~図18を参照して、より詳細に説明する。図15は、ユーザ端末10fが備える撮像部110aの位置が、Waypoint410として設定される様子を示す図である。また、図16は、ユーザ端末10fが備える撮像部110aの位置がWaypoint410として設定される場合における、表示画面610fを示す図である。また、図17は、ユーザ端末10gから所定の距離だけ離れた位置がWaypoint412として設定される様子を示す図である。さらに、図18は、ユーザ端末10gから所定の距離だけ離れた位置がWaypoint412として設定される場合における、表示画面610を示す図である。
 まず、図15及び図16を参照して、設定されるWaypointの位置について説明する。図15に示すように、机500の上には、塔の仮想オブジェクト422aが配置されている。ユーザ端末10fが備える撮像部110aは、撮像部110aの前方を撮像している。つまり、撮像部110aは、仮想オブジェクト422aが含まれる範囲を撮像している。ここでは、撮像部110aの位置がWaypointとして指定される。
 このとき、図16に示すように、ユーザ端末10fの表示画面610fには、机500の上に配置された塔の仮想オブジェクトの画像612fが表示されている。ユーザは、表示画面610fを見ながら、表示画面610fをタッチ等することにより、Waypointを設定することができる。また、ユーザは、ユーザ端末10fを動かし、新たな位置でWaypoint410を設定することができる。
 このとき、表示画面610に表示される画像は、実際に移動体20の撮像装置がWaypointにおいて撮像する画像に対応していてもよい。この場合、ユーザは、移動体20が備える撮像装置が撮像する画像を事前に確認することができる。
 次いで、図17及び図18を参照して、ユーザ端末10gが撮像部110aから所定の距離だけ離れた位置をWaypointとして設定する方法について説明する。具体的には、撮像部110aから前方に距離dだけ離れ、撮像部110aの光軸414から下方向に少しだけずれた位置が、Waypoint412として設定される。
 このとき、図18に示すように、ユーザ端末10gの表示画面610gには、塔の仮想オブジェクトの画像612gと、Waypointの画像616とが表示されている。さらに、表示画面610gには、ユーザ端末10gとWaypointの画像616とを結ぶガイド面617が表示されている。ユーザは、ガイド面617の上に配置されたWaypointの画像616を見ながら、表示画面610gへのタッチ操作等により、Waypoint412を設定することができる。
 このとき、Waypoint412は、撮像部110aの光軸414よりも下側に位置するため、ユーザは、表示画面610gを参照して、Waypoint412の位置をより容易に認識することができると考えられる。
 以上、表示画面610を操作することにより、Waypointを設定する方法について説明した。次いで、Waypointを設定する方法のバリエーションについて、図19及び図20を参照して説明する。具体的には、移動体20の経路を指定する指定対象物を用いて、Waypointを設定する方法について説明する。
 図19は、指定棒620を用いてWaypointが設定される様子を示す図である。また、図20は、指定棒620によりWaypointが設定されている際における、表示画面610hを示す図である。
 本実施形態では、指定棒620の先端には、球状の指定対象物622が設けられている。ここで、指定棒620は、ユーザ端末10にタッチして各種の操作を行うことができるタッチペンなどであってもよい。また、ユーザ端末10hは、当該指定棒620が備える指定対象物622の3次元の位置を検出できるセンサを備えているものとする。具体的には、ユーザ端末10hは、例えばToFセンサ又はステレオカメラ等の測距センサを備えている。ユーザ端末10は、当該測距センサのセンサ情報に基づき、指定対象物622の位置情報を取得する。指定対象物622の位置情報は、(x、y、z)の3次元で表現される。ここで、zは重力の方向(上下方向)である。x及びy方向は、z方向に垂直な方向であり、互いに直交する方向である。
 ここでは、当該位置情報に基づき、Waypointが設定される。具体的には、例えばユーザが表示画面610hにタッチ操作などを行うと、ユーザ端末10は指定対象物622の位置をWaypointとして設定する。
 このとき、ユーザ端末10hの表示画面610hには、指定棒の画像618及び指定対象物の画像616が表示されている。このため、ユーザは、指定対象物622の位置を表示画面610hで確認しながら、Waypointを設定することができる。
 <<3.2.撮像情報の生成>>
 以上、移動体20の移動を制御するための移動情報(より詳細には、Waypointを含む情報)を生成するための操作について説明した。次いで、移動体20が備える撮像装置が撮像する範囲を制御するための撮像情報を生成する2つの方法について、図21及び図22を参照して説明する。図21は、ユーザ端末10iの向きを動かすことにより、移動体20の撮像装置の向きが設定される様子を示す図である。また、図22は、ユーザ端末10jの表示画面にピンチ操作を行うことにより、移動体20の撮像装置の画角が設定される様子を示す図である。
 まず、図21を参照して、移動体20の撮像装置が撮像する方向を設定する方法について説明する。ユーザは、例えば、移動体20の経路に含まれるWaypointの1つを選択しておく。この状態において、図21に示すように、ユーザがユーザ端末10iの向きを動かすことにより、ユーザ端末10iが備える撮像部110aが撮像する方向(すなわち、撮像する範囲134a、134b)を調整することができる。調整された撮像部110aが撮像する方向に関する方向情報は、撮像情報として生成される。つまり、ユーザ端末10iは、ユーザ端末10iの姿勢情報に基づき、方向情報を生成することができる。移動体20の撮像装置は、当該方向情報に基づき、設定されたWaypointにおいて、調整された撮像部110aと同じ方向を撮像することができるようになる。
 また、本実施形態に係るユーザ端末10は、ユーザによる表示画面におけるピンチアウト操作又はピンチイン操作に基づき、移動体20の撮像装置の画角を制御するための画角情報を生成することができる。
 次いで、図22を参照して、移動体20の撮像装置の画角を設定する方法について説明する。ユーザは、例えば、移動体20の経路に含まれるWaypointの1つを選択しておく。この状態でユーザがユーザ端末10jの表示画面にピンチアウト操作又はピンチイン操作を行うことにより、撮像部110aの撮像範囲134を調整することで、選択されたWaypointを移動体20が通過する際における撮像装置の画角を設定することができる。つまり、ユーザ端末10jは、ユーザによる表示画面におけるピンチアウト操作又はピンチイン操作に基づき、移動体20の撮像装置の画角を制御するための画角情報を生成することができる。
 以上、ユーザの操作に基づき、ユーザ端末10による方向情報及び画角情報の生成について説明した。移動体20の撮像装置は、当該方向情報及び画角情報に基づき撮像を行うことができる。なお、上記の方向情報及び画角情報は、Waypointの位置が設定される際に生成されてもよいし、Waypointの位置が設定された後に生成されてもよい。
 <<3.3.移動体の動作のシミュレーション>>
 次いで、図23及び図24を参照して、移動情報及び撮像情報に基づく、ユーザ端末10による移動体20の動作のシミュレーションについて説明する。具体的には、ユーザ端末10により、移動体20の移動及び移動体20が備える撮像装置が撮像する画像がシミュレーションされる。図23は、移動体20の移動のシミュレーション結果を表示する表示画面611を示す図である。また、図24は、移動体20が備える撮像装置が撮像する画像のシミュレーション結果を表示する表示画面610kを示す図である。
 図23に示すように、ユーザ端末10の表示画面611には、机の上に配置された塔の仮想オブジェクトの画像612iと、三角形で模試的に示された移動体の画像630が表示されている。移動体の画像630の移動のシミュレーションが開始されると、移動体の画像630は、Waypointの画像616a~mで結ばれた仮想経路615を移動する。ユーザは、移動体の画像630の移動を確認することにより、実際に移動体20がどのように移動するのかを予測することができる。
 また、本実施形態に係るユーザ端末10kによれば、移動体20が備える撮像装置が撮像する画像をシミュレーションすることもできる。具体的には、ユーザ端末10kは、上述のようにして設定されたWaypointを移動体20が飛行した場合に、移動体20の撮像装置が撮像すると予測される画像を表示することができる。図24に示すように、ユーザ端末10kの表示画面610kに、撮像されることが予測される画像が表示されている。ユーザは、表示画面610kを見ることにより、移動体20が備える撮像装置が撮像する画像を予測することができる。なお、ユーザは、表示画面610kの中心に示されている停止ボタン619をタッチ等することにより、表示画面610kに表示される動画を停止することもできる。
 <4.撮像方法>
 以下、移動体20を利用して、風景を撮像する方法について説明する。まず、上述した本開示の技術を用いないで、風景を撮像する3つの方法について説明する。その後、本開示の技術を用いて、移動体20を利用した風景を撮像する方法について説明する。
 なお、以下の説明では、移動体20(例えば、ドローン)に塔のような建造物の周囲を飛行させて、例えばコマーシャル用の印象的な映像を撮像させることが想定されている。このような場合、移動体20に3次元空間を飛行させる必要がある。このため、移動体20の飛行位置、速度、及びカメラの向き等の各種の条件を適切にコントロールすることで、初めて印象的な映像が撮像される。このため、印象的な映像を撮像させるためには、移動体20を操縦する高度なテクニックが必要となる。
 また、ユーザが、手動操作により、何度も移動体20に同じ軌跡を飛行させることは困難である。また、屋外で撮像される場合又は広い範囲が撮像される場合には、日照条件又は人の出入りなどを考慮する必要があり、撮像のタイミングが重要となる。このため、繰り返し撮像することにより、条件の良い映像が撮像される。
 <<4.1.手動操作による撮像方法>>
 まず、図25を参照して、ユーザが、操縦装置を用いた手動操作により移動体20を操縦し、移動体20の撮像装置に風景を撮像させる方法について説明する。ここでは、操縦装置により、移動体20の移動及び移動体20が備える撮像装置の向きなどが操作されるものとする。図25は、手動操作による撮像方法を示すフローチャート図である。以下、図25に示すフローチャート図に沿って、手動操作による撮像方法を説明する。
 まず、ユーザは、撮像条件に応じた画像の違いを確認する(ステップS101)。より具体的には、ユーザは、実際に手動操作により移動体20に建造物の周囲を飛行させ、移動体20の撮像装置の向き又は移動体20と建造物との距離等の撮像条件に応じた、画像の見え方の違いを確認する。なお、ユーザは、移動体20の操縦に慣れた者であることが好ましい。
 次いで、ユーザは、移動体20を利用して映像を撮像する(ステップS103)。より具体的には、ユーザは、印象的な映像が撮像されるように、移動体20の飛行及び撮像装置の向きを手動操作により制御し、移動体20の撮像装置に映像を撮像させる。
 このとき、ユーザは、タブレット端末等の各種の公知の携帯端末に、移動体20が備える撮像装置が撮像している映像と共に2次元の地図画面を表示させ、移動体20が飛行している経路を表示させてもよい。さらに、ユーザは、所定の規則に基づいて、当該経路にWaypointが設定してもよい。これにより、ユーザは、撮像されている映像を確認しながら、Waypointを設定することができる。
 次いで、ユーザは、ステップS103において撮像された映像を確認する(ステップS105)。移動体20の飛行及び撮像装置の向きが意図通りに制御された場合(ステップS107:YES)には、ステップS109に進む。一方、移動体20の飛行及び撮像装置の向きが意図通りに制御されなかった場合には(ステップS107:NO)、ステップS103に戻る。
 移動体20の飛行及び撮像装置の向きが意図通りに制御された場合(ステップS107:YES)であっても、例えば日が陰るタイミングがあったり、意図しない人が撮像装置の前を横切ったりした等により、意図通りの印象的な映像が撮像されなかった場合(ステップS109:NO)には、ステップS103に戻る。一方、意図通りの印象的な映像が撮像された場合(ステップS109:YES)には、図25に示す撮像方法は終了する。
 以上、手動操作により映像を撮像する方法について説明した。かかる方法によれば、意図する映像を得るためには、何度も手動操作により、同様の移動体20の飛行及び撮像装置の向きを再現する必要がある。このため、所望する映像を得るためには、手間や時間がかかる上、映像の撮像の度に人手がかかる。
 <<4.2.自動飛行による撮像方法>>
 次いで、図26を参照して、移動体20に自動飛行させながら、撮像装置に映像を撮像させる方法について説明する。図26は、移動体20に自動飛行させて、撮像装置に映像を撮像させる方法を示すフローチャート図である。以下、図26に示すフローチャート図に沿って説明する。
 まず、ステップS201~S207の処理が実施されるが、ステップS201~S207の処理はステップS101~S107の処理と実質的に同一であるため、ここでは説明を省略する。
 移動体20の飛行及び撮像装置の向きが意図通りに制御された場合(ステップS207:YES)には、撮像条件のデータが保存される(ステップS209)。より具体的には、移動体20の飛行及び撮像装置の向きが意図通りに制御された際における、移動体20が飛行時の位置、速度及び撮像装置の向き等の各種の撮像条件が記録される。撮像条件は、移動体20等が備える各種の公知の記録媒体に記録される。なお、移動体20の位置又は速度等に関する情報は、移動体20が備えるGPS又はIMU等により取得される。
 次いで、撮像動作が再現される(ステップS211)。より具体的には、ステップS209において記録された撮像条件に基づき、移動体20の飛行及び撮像装置の向きが自動で再現される。このときに撮像された映像は、ユーザにより確認される。
 意図通りの映像が撮像されなかった場合(ステップS213:NO)、ステップS211に戻り、再度撮像動作が再現される。一方、例えば日照条件等が整い、意図通りの映像が撮像された場合(ステップS213:YES)、図26に示す撮像は終了する。
 以上、自動飛行による撮像方法について説明した。かかる方法によれば、ユーザは、同じ移動体20を手動操作する必要がなくなるため、ユーザの負担が減少する。
 なお、ステップS209において記録されたデータに基づき、例えばタブレット端末等の表示画面に地図を表示して当該地図に移動体20の仮想経路を描写し、当該仮想経路を微調整することも可能である。しかし、当該仮想経路が2次元の地図画面に表示される場合には、例えば仮想経路の高度を直感的に調整することが困難である。
 また、移動体20の自己位置は、GPS(Global Positioning System)又はIMUなどを用いて算出されるため、建造物等との相対位置にはGPSに依存する50cm~1m程度の誤差が生じる。
 <<4.3.端末の表示画面に表示された地図を用いる撮像方法>>
 上記の方法では、ユーザが、実際に移動体20が飛行する現場に行き、移動体20の操縦及びWaypointの設定をする必要がある。そこで、タブレット端末等の表示画面に表示された地図などを用いて、予め移動体20が飛行する経路を指定しておき、当該指定された経路を移動体20に飛行させる方法が考えられる。
 より具体的には、ユーザは、例えばタブレット端末の表示画面に地図を表示させ、当該表示画面をタッチ等することにより、Waypointが設定する。なお、Waypointの位置は、経度及び緯度で設定されてもよい。このとき、ユーザは、指定されたWaypointにおける移動体20の速度及び高度を設定してもよい。さらに、ユーザは、指定されたWaypointにおける移動体20の向きを設定することもできる。例えば、移動体20の向きを進行方向に向かせるように、設定することもできる。
 同様にして、複数のWaypointが設定され、これらのWaypointが結ばれることにより、移動体20の経路が設定される。ユーザは、設定された経路を表す情報を移動体20に記録又は送信することにより、移動体20に設定された経路を飛行させるとともに、撮像装置に映像を撮像させることができる。
 かかる方法によれば、ユーザは、移動体20が飛行する現場に行く前に、移動体20が飛行する経路を設定することができる。従って、ユーザは、会社又は自宅等に居ながら、移動体20が飛行する経路を設定することができる。しかしながら、移動体20の撮像装置によりどのような映像が撮像されるのかは、実際に移動体20を飛行させて撮像装置に映像を撮像させるまでは分からない。さらに、Waypointの位置を修正した場合に撮像装置により撮像される映像がどのように変化するのかは、実際に移動体20に飛行させ、撮像装置に映像を撮像させてみないとわからない。
 また、表示画面に表示された地図をタッチする方法でWaypointを設置する方法は、移動体20に広い範囲を大まかに飛行させる場合には便利である。しかしながら、移動体20の撮像装置に建造物の周囲を躍動的に撮像させるような場合には、移動体20の経路などを細かく設定しにくいと考えられる。さらに、表示画面には、2次元の地図が表示されるため、移動体20の高度を数値で設定する必要があり、直感的にWaypointを設定することができない。
 <<4.4.本開示に係る撮像方法>>
 次いで、本開示に係る撮像方法について、図27~図29を参照して説明する。図27は、仮想オブジェクトが生成されるまでの手順を示すフローチャート図である。また、図28は、生成された移動情報及び撮像情報に基づき、映像が撮像されるまでの手順を示すフローチャート図である。さらに、図29は、情報処理装置100による表示処理を示す図である。以下、図27~図29を参照して、本開示に係る撮像方法について説明する。以下の説明では、上述した図2~図24を適宜参照しながら説明する。
 図27に示すステップS301におけるユーザの操作は、ステップS101におけるユーザの操作と実質的に同一である。しかし、本開示に係る撮像方法では、移動体20を操縦するユーザは、移動体20の操縦に不慣れなものであってもよい。
 次いで、ユーザは、移動体20の撮像装置に映像を撮像させる(ステップS303)。ユーザは、仮想オブジェクトの基となる被写体を移動体20の撮像装置に撮像させる。このとき、ユーザは、印象的な映像が撮像されるように、移動体20の飛行及び撮像装置の向きを手動操作により制御し、移動体20の撮像装置に映像を撮像させてもよい。例えば、ユーザは、図4に示したような塔420の周りを移動体20に旋回させて、撮像装置206に映像を撮像させてもよい。このとき、撮像装置206は、塔420及び林430を含む映像を撮像するものとする。
 次いで、ユーザは、撮像された映像を確認する(ステップS305)。より具体的には、ユーザは、撮像装置206により撮像された映像が意図した映像であることを確認する。
 次いで、仮想オブジェクトが生成される(ステップS307)。より具体的には、ステップS303において撮像された画像、当該画像を撮像したときの移動体20の位置、姿勢及び撮像装置206の向き等の情報に基づき、各種の公知のCG技術を用いて、3次元の仮想オブジェクトに関する情報が生成される。例えば、図5に示した塔の仮想オブジェクト422及び図6に示した林の仮想オブジェクト432に関する情報が生成される。
 なお、移動体20の位置及び姿勢は、GPS及びIMUを用いるだけでなく、Bundle Adjustmentにより、撮像された画像に基づき3次元の仮想オブジェクトを生成する処理において、より正確な値が算出されてもよい。これにより、移動体20の建造物などの環境に対する相対的な位置又は姿勢がより正確に算出される。ここで、Bundle Adjustmentとは、画像から高い精度で各種のパラメータを推定する方法である。このとき生成された仮想オブジェクトに関する情報は、ユーザ端末10が備える記憶部180に記録される。このとき、図7に示したような移動体20が移動した経路402及びWaypoint406に関する情報が記憶部180に記録されてもよい。
 以上、図27を参照して、仮想オブジェクトが生成されるまでの処理について説明した。次いで、図28及び図29を参照して、所望する映像が撮像されるまでの手順について説明する。なお、図28及び図29に示すステップS401~S405における処理は、主に本開示の一実施形態に係る情報処理装置100による処理である。
 情報処理装置100は、仮想オブジェクトの表示処理をする(ステップS401)。仮想オブジェクトの表示処理については、図29を参照して説明する。図29は、仮想オブジェクトの表示処理を示すフローチャート図である。以下、図29に示すフローチャート図に沿って、仮想オブジェクトの表示処理について説明する。図29に示す処理は、例えば、図8を参照して説明したように、ユーザ端末10aの表示画面610に表示された開始ボタン602がタッチされたときに実行される。
 まず、取得部140は、画像情報及びセンサ情報を取得する(ステップS501)。より具体的には、取得部140は、撮像部110が撮像した机500を含む画像情報を取得する。また、取得部140は、センサ部120が検出したIMU情報又はユーザ端末10aから机500までの距離情報などを取得する。取得部140は、取得した画像情報及び距離情報を、処理部150が備える検出部151に伝達する。また、取得部140は、取得した画像情報、距離情報及びIMU情報を、処理部150が備える自己位置算出部154に伝達する。
 次いで、平面検出部152は、取得部140から伝達された画像情報及び距離情報に基づき、平面を検出する(ステップS503)。ここでは、平面検出部152は、机500の上の平らな平面506を検出する。平面検出部152は、検出した結果を仮想オブジェクト算出部155に伝達する。
 次いで、自己位置算出部154は、画像情報、距離情報及びIMU情報に基づき、ユーザ端末10の自己位置を算出する(ステップS505)。より具体的には、自己位置算出部154は、机500又はその周りの環境に対するユーザ端末10の位置及び姿勢を算出する。自己位置算出部154は、算出した結果を仮想オブジェクト算出部155に伝達する。
 次いで、仮想オブジェクト算出部155は、自己位置算出部154の算出結果及び記憶部180に記録された仮想オブジェクトに関する情報に基づき、配置される仮想オブジェクトの位置、方向及びスケールなどを算出する(ステップS507)。仮想オブジェクト算出部155は、算出した結果を移動情報生成部157に伝達する。
 次いで、移動情報生成部157は、仮想オブジェクト算出部155の算出結果及び記憶部180に記録されたWaypoint情報に基づき、移動体20の経路を設定する(ステップS509)。例えば、移動情報生成部157は、机500の上に配置された仮想オブジェクトの周りを旋回する仮想経路を設定する。移動情報生成部157は、設定した仮想経路に関する情報を表示情報生成部159に伝達する。
 次いで、表示情報生成部159は、表示情報を生成する(ステップS511)。より具体的には、表示情報生成部159は、机500の上に配置された仮想オブジェクトの周りに移動体20の仮想経路を表示する表示情報を生成し、生成した表示情報を表示制御部170に伝達する。
 次いで、表示制御部170は、机500の上に配置された仮想オブジェクトの周りに、仮想経路の画像が表示されるように、表示部175の表示を制御する(ステップS513)。これにより、表示部175の表示画面には、ユーザの目の前に存在する机500の上に塔の仮想オブジェクト422の画像612と、その周りを旋回する仮想経路の画像614とが表示される。
 以上、図29を参照して、仮想オブジェクトの表示処理について説明した。次いで、図28に戻って、本開示に係る撮像方法について説明する。
 情報処理装置100は、移動情報と撮像情報とを生成する(ステップS403)。例えば、図9~図22を参照して説明したように、ユーザによるユーザ端末10を動かす操作などに基づき、Waypoint等の移動情報及び撮像装置の向き及びズーム率等の撮像情報が生成され、予測部160に伝達される。ここで、図9~図22を参照して説明した操作における、情報処理装置100の処理について説明する。
 (予め設定されたWaypointを調整する処理)
 ここで、図9~図12を参照して説明したWaypointが調整される処理における、情報処理装置100の処理について説明する。図9に示したように、ユーザU2が、表示画面610aに表示されたWaypointの画像616aをタッチすると、入力部130は、当該Waypointの画像616aに対応するWaypoint408aが選択されたことを表す入力情報を移動情報生成部157に伝達する。
 次いで、図11及び図12に示したように、ユーザU2がユーザ端末10をユーザU2側に引くと、センサ部120が当該ユーザ端末10の動きを検出し、検出したセンサ情報を自己位置算出部154に伝達する。自己位置算出部154は、センサ情報に基づき、ユーザ端末10の位置及び姿勢を算出する。自己位置算出部154は、算出した結果を移動情報生成部157に伝達する。
 次いで、移動情報生成部157は、選択されたWaypoint408aの位置が、ユーザ端末10が動いた距離だけ変位するように、移動体20の仮想経路を修正する。これにより、新たな仮想経路に関する情報が、移動情報として生成され、予測部160に伝達される。
 (Waypointを新たに設定する処理)
 次いで、図13又は図14を参照して説明した操作において、情報処理装置100が実施する処理について説明する。取得部140は、ユーザによる表示画面610への操作に基づく入力情報を入力部130から取得する。また、取得部140は、撮像部110から画像情報、センサ部120から距離情報及びIMU情報を取得する。取得部140は、取得した情報を処理部150に伝達する。
 自己位置算出部154は、伝達されたセンサ情報又は距離情報等に基づき、ユーザ端末10の自己位置を算出し、算出した結果を生成部156に伝達する。移動情報生成部157は、当該算出された結果及び入力情報等に基づき、Waypointの位置を特定する。移動情報生成部157は、特定した複数のWaypointを結ぶことで移動体20の仮想経路を設定し、当該仮想経路を移動情報として予測部160に伝達する。
 (指定棒を用いてWaypointを設定する処理)
 次いで、図19及び図20を参照して説明した、指定棒620を用いてWaypointを設定する際における、情報処理装置100の処理について説明する。まず、取得部140は、センサ部120よりIMU情報及びセンサ情報を取得する。さらに、取得部140は、撮像部110から画像情報を取得し、当該画像情報を物体検出部153に伝達する。
 物体検出部153は、画像情報に基づき、画像に含まれる指定対象物622を検出する。さらに、物体検出部153は、センサ情報に基づき、例えば撮像部110から指定対象物622までの距離及び方向を検出し、検出した結果を生成部156に伝達する。
 移動情報生成部157は、物体検出部153が検出した結果に基づき、指定対象物622の位置を特定し、当該位置をWaypointとして設定する。移動情報生成部157は、設定した複数のWaypointを結ぶことで仮想経路を設定し、当該仮想経路を移動情報として、予測部160に伝達する。
 (撮像装置の方向を設定する処理)
 次いで、図21を参照して説明した、撮像装置の方向を設定する際における、情報処理装置100の処理について説明する。自己位置算出部154は、センサ情報に基づき、ユーザ端末10の姿勢を算出し、算出した結果を生成部156に伝達する。撮像情報生成部158は、算出された姿勢に基づき、撮像装置の方向を設定する。撮像情報生成部158は、設定した撮像装置の方向を方向情報として予測部160に伝達する。
 (撮像装置の画角を設定する処理)
 次いで、図22を参照して説明した、撮像装置の画角を設定する際における、情報処理装置100の処理について説明する。
 撮像情報生成部158は、入力部130からユーザによるピンチイン操作又はピンチアウト操作が行われたことを表す入力情報を取得する。撮像情報生成部158は、入力情報に基づき、撮像装置の画角を表す画角情報を生成し、予測部160に伝達する。
 次いで、情報処理装置100は、移動体20の移動と撮像装置により撮像される映像のシミュレーションを実施する(ステップS405)。例えば、予測部160は、表示画面611に移動体20の移動をシミュレーションする。具体的には、移動予測部161は、移動情報に基づき、移動体20の移動を予測し、予測結果を表示情報生成部159に伝達する。
 また、予測部160は、撮像される映像をシミュレーションする。より具体的には、撮像予測部162は、移動情報及び撮像情報に基づき、移動体20が撮像する映像を予測し、予測結果を表示情報生成部159に伝達する。
 次いで、表示部175は、予測結果を表示する(ステップS407)。より具体的には、表示情報生成部159は、予測結果に基づき、予測結果を表示するための表示情報を生成し、表示制御部170に伝達する。表示制御部170は、表示情報に基づき、表示部175が予測結果を表示するように、表示部175の表示を制御する。これにより、表示部175には、予測結果が表示される。より具体的には、図23に示した移動体20の移動の予測結果又は図24に示した移動体20の撮像装置が撮像する映像の予測結果が表示される。
 次いで、意図通りのシミュレーションがされた場合(ステップS409:YES)、ステップS411に進む。このとき、記憶部180は、シミュレーションに用いられた移動情報及び撮像情報を記憶してもよい。一方、意図通りのシミュレーションがされなかった場合(ステップS409:NO)、ステップS403に戻る。
 次いで、移動体20の移動と撮像装置による撮像が実施される(ステップS411)。例えば、ステップS403において形成された移動体20の仮想経路は、移動情報生成部157により、実空間の座標系に変換することで、移動体20が実際に移動する実経路に変換される。当該実経路に関する情報は、通信制御部190により、移動体20に送信される。移動体20が当該生成された実経路を飛行しつつ、撮像装置が撮像情報に基づき、風景を撮像する。
 意図通りの印象的な映像が撮像された場合(ステップS413:YES)、図28に示す撮像処理は終了する。一方、意図通りの印象的な映像が撮像されなかった場合(ステップS413:NO)、ステップS411に戻る。
 <5.効果>
 以上、本開示に係る撮像方法について説明した。本開示に係る情報処理装置100は、表示画面における実空間に存在する物体に基づく仮想オブジェクトの表示を制御し、移動体の移動を制御するための移動情報を生成する。このため、ユーザは、当該仮想オブジェクトの基となる実空間に存在する物体の周りを、ドローン等の移動体20に飛行させたい場合には、当該仮想オブジェクトを見ながら、当該移動体20の経路を指定することができる。従って、本実施形態に係る情報処理装置100によれば、より直感的に移動体20の移動を制御するための移動情報を生成することが可能になる。
 また、本実施形態に係る情報処理装置100によれば、移動情報生成部157は、表示画面610を見るユーザU2による操作に基づき、移動情報を生成する。ユーザU2は、表示画面610に表示された仮想オブジェクトを見ながら、移動体20の経路などの移動情報を指定することができる。このため、より直感的に移動体20の移動を制御するための移動情報を生成することが可能になる。
 また、本実施形態では、図9及び図11等に示したように、表示画面610の表示には、移動体20の仮想経路の画像614が含まれる。このため、ユーザU2は、移動体20の経路をよりイメージし易くなる。
 また、本実施形態では、表示画面610に表示された仮想経路の画像614の少なくとも一部には、移動体20の経路を調整するための1以上のWaypoint(調整部分)の画像616が表示される。移動情報生成部157は、当該Waypointの画像616を動かす操作に基づき、移動情報を生成する。このため、ユーザU2は、経路の目印となるWaypointの画像616を動かすだけで、移動体20の経路を指定することができるため、さらに直感的に移動体20の移動を制御するための移動情報を生成することが可能になる。
 また、本実施形態では、図13を参照して説明したように、移動情報生成部157は、表示画面610の位置を動かす操作に基づき、Waypoint408の位置を動かす。このため、ユーザは、より直感的に移動体20の経路を指定することができる。
 また、本実施形態では、仮想オブジェクトの画像612は、ユーザ端末10が備える撮像部110により撮像された画像に重畳して表示される。このため、ユーザU2は、仮想オブジェクト422aが、あたかも実空間に存在するかのように認識することができる。このため、ユーザU2は、移動体20の経路をより直感的に指定することが可能になる。また、撮像部110の視点とWaypointとを一致させることにより、Waypointから撮像した画像を表示画面に表示させることもできる。このため、Waypointの位置が変化した場合に、撮像される画像がどのように変化するのかを予め予測することも可能である。
 また、本実施形態では、図15~図18を参照して説明したように、移動情報生成部157は、ユーザU2が、撮像部110の視点を動かす操作に基づき、移動情報を生成する。より具体的には、移動情報生成部157は、当該視点を基準とした所定の位置の動きに基づき、移動情報を生成する。表示画面610には、撮像部110が撮像した画像が含まれる。このため、ユーザU2は、移動体20が実際に移動する際に、当該移動体20が備える撮像装置が撮像する風景をイメージし易くなるため、移動体20が備える撮像装置に、より所望される映像を撮像させることが可能になる。
 なお、移動体20の経路は、図15及び図16を参照して説明したように、撮像部110の視点であってもよい。また、移動体20の経路は、撮像部110の視点から所定の距離だけ離れた位置であってもよく、例えば、図17を参照して説明したように、撮像部110の視点から前方に距離dだけ離れ、撮像部110の光軸から画角に収まる程度に下がった位置が移動体20の経路として指定されてもよい。この場合、図18に示したように表示画面610gにWaypoint等が表示されることにより、ユーザU2は、より直感的に移動体20の経路を指定することが可能になる。
 また、本実施形態では、図19及び図20を参照して説明したように、移動情報生成部157は、移動体20の経路を指定する指定対象物を動かす操作に基づき、移動情報を生成する。より具体的には、本実施形態では、指定棒620の先端に設けられた指定対象物622が動いた経路に基づき、移動体20の経路が指定される。これにより、ユーザは、当該指定対象物622を動かすという簡便な操作により、移動体20の経路を指定することができる。また、図20に示したように、表示画面610hには、指定対象物622の画像616が表示される。このため、ユーザU2は、指定対象物622の位置を、表示画面610hを介して認識することができる。このため、ユーザU2は、より移動体20の経路をイメージすることができるようになる。
 また、本実施形態では、移動体20は、撮像装置を備えている。当該撮像装置により、移動体20の周りの風景が撮像される。また、本実施形態に係る情報処理装置100は、ユーザの操作に基づき、移動体20が備える撮像装置が撮像する範囲を制御するための撮像情報を生成する撮像情報生成部158を備えている。このため、ユーザは、各種の操作に基づき、移動体20が備える撮像装置が撮像する範囲を指定することができるため、より適切な映像を移動体20の撮像装置に撮像させることができる。
 また、本実施形態では、撮像情報生成部158は、移動体20が備える撮像装置が撮像する方向に関する方向情報を撮像情報として生成する。このため、ユーザは、移動体20の撮像装置に、より適切な映像を撮像させることができる。
 また、本実施形態では、表示画面には、撮像部110により撮像される画像が表示される。また、図21を参照して説明したように、撮像情報生成部158は、当該撮像部110の向きを動かす操作に基づき、方向情報を生成する。このため、ユーザは、移動体20の撮像装置が撮像する映像を推測しながら、方向情報をすることができるため、より適切な映像を撮像装置に撮像させることができる。
 また、本実施形態では、撮像情報生成部158は、ユーザU2による表示画面におけるピンチアウト操作又はピンチイン操作に基づき、移動体20の撮像装置の画角を制御するための画角情報を撮像情報として生成することができる。このため、ユーザは、移動体20の撮像装置が撮像する範囲を簡便に指定することができる。
 また、本実施形態では、情報処理装置100は、移動情報に基づき、移動体20の移動を予測する移動予測部161を、更に備えている。より具体的には、移動予測部161は、移動体20の移動をシミュレーションすることができる。このため、ユーザは、移動体20の移動のシミュレーションに基づき、予め移動体20の経路を確認することができる。本実施形態では、図23を参照して説明したように、移動体20の移動のシミュレーション結果(すなわち、予測結果)が、表示画面611に表示される。このため、ユーザは、表示画面611を見ることにより、より容易に移動体20の経路を確認することができる。
 また、本実施形態では、情報処理装置100は、移動情報及び撮像情報に基づき、移動体20の撮像装置が撮像する画像を予測する撮像予測部162を更に備える。本実施形態では、撮像予測部162は、当該撮像装置により撮像される画像をシミュレーションすることができる。ユーザは、当該シミュレーションの結果に基づき、撮像される画像を確認することができる。また、本実施形態では、図24を参照して説明したように、撮像予測部162によるシミュレーションの結果は、表示画面610kに表示される。このため、ユーザは、簡便に撮像予測部162による予測結果を確認することができる。
 また、本実施形態では、移動体20は、3次元的に移動可能である。従って、ユーザは、移動体20の経路を3次元的に指定することができる。このため、ユーザは、より直感的に移動体20の移動を制御するための移動情報を生成することができる。
 また、本実施形態によれば、移動体20の経路が一度設定されると、人手をかけずに何度も同じ経路を移動体20に飛行させたり、同じような映像を何度も撮像装置に撮像させたりすることが可能である。
 <6.ハードウェア構成>
 続いて、図30を参照しながら、前述したユーザ端末10のように、本開示の一実施形態に係る情報処理システム1を構成するユーザ端末10のハードウェア構成の一例について、詳細に説明する。図30は、本開示の一実施形態に係る情報処理システム1を構成するユーザ端末10のハードウェア構成の一構成例を示す機能ブロック図である。
 本実施形態に係る情報処理システム1を構成するユーザ端末10は、主に、CPU901と、ROM902と、RAM903と、を備える。また、ユーザ端末10は、更に、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置910と、ドライブ912と、接続ポート914と、通信装置916とを備える。
 CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、ストレージ装置910又はリムーバブル記録媒体913に記録された各種プログラムに従って、ユーザ端末10内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス904により相互に接続されている。例えば、図2に示す取得部140、処理部150(図3に示す各機能部)、表示制御部170及び通信制御部190は、CPU901により構成され得る。
 ホストバス904は、ブリッジ905を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス906に接続されている。また、外部バス906には、インタフェース907を介して、入力装置908、出力装置909、ストレージ装置910、ドライブ912、接続ポート914及び通信装置916が接続される。
 入力装置908は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置908は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、ユーザ端末10の操作に対応した携帯電話やPDA等の外部接続機器915であってもよい。さらに、入力装置908は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。ユーザ端末10のユーザは、この入力装置908を操作することにより、ユーザ端末10に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置909は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置909は、例えば、ユーザ端末10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、ユーザ端末10が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
 ストレージ装置910は、ユーザ端末10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置910は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置910は、CPU901が実行するプログラムや各種データ等を格納する。例えば、図2に示す記憶部180は、ストレージ装置910により構成され得る。
 ドライブ912は、記録媒体用リーダライタであり、ユーザ端末10に内蔵、あるいは外付けされる。ドライブ912は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体913に記録されている情報を読み出して、RAM903に出力する。また、ドライブ912は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体913に記録を書き込むことも可能である。リムーバブル記録媒体913は、例えば、DVDメディア、HD-DVDメディア又はBlu-ray(登録商標)メディア等である。また、リムーバブル記録媒体913は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体913は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
 接続ポート914は、ユーザ端末10に直接接続するためのポートである。接続ポート914の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート914の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート914に外部接続機器915を接続することで、ユーザ端末10は、外部接続機器915から直接各種のデータを取得したり、外部接続機器915に各種のデータを提供したりする。
 通信装置916は、例えば、通信網(ネットワーク)917に接続するための通信デバイス等で構成された通信インタフェースである。通信装置916は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置916は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置916は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置916に接続される通信網917は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
 以上、本開示の一実施形態に係る情報処理システム1を構成するユーザ端末10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図30では図示しないが、情報処理システム1を構成するユーザ端末10に対応する各種の構成を当然備える。
 なお、上述のような本実施形態に係る情報処理システム1を構成するユーザ端末10の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。
 <7.補足>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、ユーザU1が予め移動体20を飛行させて、移動体20に搭載された撮像装置206に仮想オブジェクトを生成するための画像を撮像させるが、本技術はかかる例に限定されない。例えば、過去にユーザU1と異なるユーザが移動体20を利用して撮像された画像に基づき仮想オブジェクトが生成されている場合など、何等かの方法により仮想オブジェクトが生成されている場合には、既に生成された仮想オブジェクトを用いてもよい。
 また、上記実施形態では、移動体20がドローンであるものとして説明したが、移動体20は移動可能な任意の装置であって良い。例えば、本開示の技術は、ドローンのように飛行可能な各種の飛行体にも適用され得る。さらに、本開示の技術は、ロボットの手又は腕などに相当するマニピュレータにも適用され得る。この場合、情報処理装置は、例えば、当該マニピュレータが取り扱う対象の仮想オブジェクトを表示画面に表示することを制御してもよい。さらに、情報処理装置は、マニピュレータの例えば指先を移動体として、当該移動体の移動を制御するための移動情報を生成することができる。これにより、マニピュレータの指先等の移動を制御するための移動情報を、より直感的に生成することが可能になる。
 また、上記実施形態では、仮想オブジェクト及びWaypoint等に関する情報は、情報処理装置100に記録されている。これに限らず、仮想オブジェクト及びWaypoint等に関する情報は、ネットワークに接続された各種のサーバに記録されていてもよい。この場合、情報処理装置100は、ネットワークを介して、適宜サーバに記録された情報を受信し、移動情報及び撮像情報などを生成することができる。
 また、上記実施形態では、ユーザ端末10が、主にスマーフォン又はタブレット端末等であることを想定して説明した。これに限らず、ユーザ端末10は、汎用PC(Personal Computer)、ゲーム機、ロボット、又は、例えばHMD(Head Mounted Display)又はスマートウォッチなどのウェアラブルデバイスであってもよい。
 また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的にまたは個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 実空間に存在する物体に基づく仮想オブジェクトの表示画面における表示を制御する表示制御部と、
 移動体の移動を制御するための移動情報を生成する移動情報生成部と、を備える、
 情報処理装置。
(2)
 前記移動情報生成部は、前記表示画面を見るユーザによる操作に基づき、前記移動情報を生成する、
 前記(1)に記載の情報処理装置。
(3)
 前記表示は、前記移動体の経路を含む、
 前記(2)に記載の情報処理装置。
(4)
 前記経路の少なくとも一部には、前記経路を調整するための1以上の調整部分が表示され、
 前記操作は、前記表示画面に表示された前記調整部分の位置を動かす操作である、
 前記(3)に記載の情報処理装置。
(5)
 前記仮想オブジェクトは、第1の撮像装置により撮像された画像に重畳して表示される、
 前記(2)~(4)のいずれか1項に記載の情報処理装置。
(6)
 前記操作は、前記第1の撮像装置の視点を動かす操作を含み、
 前記移動情報生成部は、前記視点を基準とした所定の位置の動きに基づき、前記移動情報を生成する、
 前記(5)に記載の情報処理装置。
(7)
 前記移動情報生成部は、前記移動体の経路を指定する指定対象物を動かす操作に基づき、前記移動情報を生成する、
 前記(2)~(6)のいずれか1項に記載の情報処理装置。
(8)
 前記移動体は、風景を撮像する第2の撮像装置を備え、
 ユーザの操作に基づき、前記第2の撮像装置が撮像する範囲を制御するための撮像情報を生成する撮像情報生成部を、更に備える、
 前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)
 前記撮像情報生成部は、前記第2の撮像装置が撮像する方向に関する方向情報を撮像情報として生成する、
 前記(8)に記載の情報処理装置。
(10)
 前記表示画面には、第1の撮像装置により撮像される画像が表示され、
 前記撮像情報生成部は、前記第1の撮像装置の向きを動かす操作に基づき、前記方向情報を生成する、
 前記(9)に記載の情報処理装置。
(11)
 前記撮像情報生成部は、ユーザによる前記表示画面におけるピンチアウト操作又はピンチイン操作に基づき、前記第2の撮像装置の画角を制御するための画角情報を前記撮像情報として生成する、
 前記(8)~(10)のいずれか1項に記載の情報処理装置。
(12)
 前記移動情報及び前記撮像情報に基づき、前記第2の撮像装置が撮像する画像を予測する撮像予測部を、更に備える、
 前記(8)~(11)のいずれか1項に記載の情報処理装置。
(13)
 前記移動情報に基づき、前記移動体の移動を予測する移動予測部を、更に備える、
 前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)
 前記移動体は、3次元的に移動可能である、
 前記(1)~(13)のいずれか1項に記載の情報処理装置。
(15)
 前記移動体は、飛行体である、
 前記(14)に記載の情報処理装置。
(16)
 プロセッサが、
 表示画面における実空間に存在する物体に基づく仮想オブジェクトの表示を制御することと、
 移動体の移動を制御するための移動情報を生成することと、を含む、
 情報処理方法。
(17)
 コンピュータに、
 表示画面における実空間に存在する物体に基づく仮想オブジェクトの表示を制御する機能と、
 移動体の移動を制御するための移動情報を生成する機能と、
 を実現させるためのプログラム。
 10                 ユーザ端末
  100               情報処理装置
  110               撮像部
  120               センサ部
  130               入力部
  140               取得部
  150               処理部
   151              検出部
   157              移動情報生成部
   158              撮像情報生成部
   159              表示情報生成部
   161              移動予測部
   162              撮像予測部
  170               表示制御部
  175               表示部
 20                 移動体
  202               機体
  204               プロペラ
  206               撮像装置
 402                経路
 404                仮想経路
 406、408、410、412    Waypoint
 422、432            仮想オブジェクト
 610                表示画面
 612                仮想オブジェクトの画像
 614                仮想経路の画像
 616                Waypointの画像
 622                指定対象物

Claims (17)

  1.  実空間に存在する物体に基づく仮想オブジェクトの表示画面における表示を制御する表示制御部と、
     移動体の移動を制御するための移動情報を生成する移動情報生成部と、を備える、
     情報処理装置。
  2.  前記移動情報生成部は、前記表示画面を見るユーザによる操作に基づき、前記移動情報を生成する、
     請求項1に記載の情報処理装置。
  3.  前記表示は、前記移動体の経路を含む、
     請求項2に記載の情報処理装置。
  4.  前記経路の少なくとも一部には、前記経路を調整するための1以上の調整部分が表示され、
     前記操作は、前記表示画面に表示された前記調整部分の位置を動かす操作である、
     請求項3に記載の情報処理装置。
  5.  前記仮想オブジェクトは、第1の撮像装置により撮像された画像に重畳して表示される、
     請求項2に記載の情報処理装置。
  6.  前記操作は、前記第1の撮像装置の視点を動かす操作を含み、
     前記移動情報生成部は、前記視点を基準とした所定の位置の動きに基づき、前記移動情報を生成する、
     請求項5に記載の情報処理装置。
  7.  前記移動情報生成部は、前記移動体の経路を指定する指定対象物を動かす操作に基づき、前記移動情報を生成する、
     請求項2に記載の情報処理装置。
  8.  前記移動体は、風景を撮像する第2の撮像装置を備え、
     ユーザの操作に基づき、前記第2の撮像装置が撮像する範囲を制御するための撮像情報を生成する撮像情報生成部を、更に備える、
     請求項1に記載の情報処理装置。
  9.  前記撮像情報生成部は、前記第2の撮像装置が撮像する方向に関する方向情報を撮像情報として生成する、
     請求項8に記載の情報処理装置。
  10.  前記表示画面には、第1の撮像装置により撮像される画像が表示され、
     前記撮像情報生成部は、前記第1の撮像装置の向きを動かす操作に基づき、前記方向情報を生成する、
     請求項9に記載の情報処理装置。
  11.  前記撮像情報生成部は、ユーザによる前記表示画面におけるピンチアウト操作又はピンチイン操作に基づき、前記第2の撮像装置の画角を制御するための画角情報を前記撮像情報として生成する、
     請求項8に記載の情報処理装置。
  12.  前記移動情報及び前記撮像情報に基づき、前記第2の撮像装置が撮像する画像を予測する撮像予測部を、更に備える、
     請求項8に記載の情報処理装置。
  13.  前記移動情報に基づき、前記移動体の移動を予測する移動予測部を、更に備える、
     請求項1に記載の情報処理装置。
  14.  前記移動体は、3次元的に移動可能である、
     請求項1に記載の情報処理装置。
  15.  前記移動体は、飛行体である、
     請求項14に記載の情報処理装置。
  16.  プロセッサが、
     表示画面における実空間に存在する物体に基づく仮想オブジェクトの表示を制御することと、
     移動体の移動を制御するための移動情報を生成することと、を含む、
     情報処理方法。
  17.  コンピュータに、
     表示画面における実空間に存在する物体に基づく仮想オブジェクトの表示を制御する機能と、
     移動体の移動を制御するための移動情報を生成する機能と、
     を実現させるためのプログラム。
PCT/JP2020/010558 2019-04-02 2020-03-11 情報処理装置、情報処理方法及びプログラム WO2020203126A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/593,611 US20220166917A1 (en) 2019-04-02 2020-03-11 Information processing apparatus, information processing method, and program
JP2021511341A JP7452533B2 (ja) 2019-04-02 2020-03-11 情報処理装置、情報処理方法及びプログラム
EP20784293.1A EP3950492A4 (en) 2019-04-02 2020-03-11 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
CN202080024110.5A CN113631477A (zh) 2019-04-02 2020-03-11 信息处理装置、信息处理方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-070464 2019-04-02
JP2019070464 2019-04-02

Publications (1)

Publication Number Publication Date
WO2020203126A1 true WO2020203126A1 (ja) 2020-10-08

Family

ID=72668645

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/010558 WO2020203126A1 (ja) 2019-04-02 2020-03-11 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20220166917A1 (ja)
EP (1) EP3950492A4 (ja)
JP (1) JP7452533B2 (ja)
CN (1) CN113631477A (ja)
WO (1) WO2020203126A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023078640A (ja) * 2021-11-26 2023-06-07 トヨタ自動車株式会社 車両撮影システムおよび車両撮影方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070018052A1 (en) * 2004-07-03 2007-01-25 Saab Ab A system and method for in-flight control of an aerial vehicle
JP2012202879A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 携帯電子機器および移動経路記録方法
WO2018020659A1 (ja) * 2016-07-29 2018-02-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 移動体、移動体制御方法、移動体制御システム、及び移動体制御プログラム
JP2018110352A (ja) * 2017-01-05 2018-07-12 Kddi株式会社 操縦装置、情報処理方法、プログラム、及び飛行システム
JP2018160228A (ja) * 2017-03-21 2018-10-11 株式会社東芝 経路生成装置、経路制御システム、及び経路生成方法
JP2018174002A (ja) * 2018-08-16 2018-11-08 ソニー株式会社 移動体
JP2018173992A (ja) * 2014-04-25 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、コンピュータ読み取り可能な媒体および撮像システム
JP2019016869A (ja) 2017-07-05 2019-01-31 ソニー株式会社 撮像装置、カメラ装着ドローン、およびモード制御方法、並びにプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5766479B2 (ja) * 2011-03-25 2015-08-19 京セラ株式会社 電子機器、制御方法および制御プログラム
CN102201115B (zh) * 2011-04-07 2013-12-11 湖南天幕智能科技有限公司 无人机航拍视频实时全景图拼接方法
DE102011085001A1 (de) * 2011-10-21 2013-04-25 Siemens Aktiengesellschaft Verfahren zur Vermessung einer Fertigungsstätte
JP6056178B2 (ja) * 2012-04-11 2017-01-11 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US9678506B2 (en) * 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
WO2017003538A2 (en) * 2015-04-14 2017-01-05 Tobin Fisher System for authoring, executing, and distributing unmanned aerial vehicle flight-behavior profiles
US9947230B2 (en) * 2015-08-03 2018-04-17 Amber Garage, Inc. Planning a flight path by identifying key frames
US10157501B2 (en) * 2016-01-08 2018-12-18 Skyyfish, LLC Camera angle visualization for aerial vehicle flight plan
CN108292141B (zh) * 2016-03-01 2022-07-01 深圳市大疆创新科技有限公司 用于目标跟踪的方法和系统
US20170294135A1 (en) * 2016-04-11 2017-10-12 The Boeing Company Real-time, in-flight simulation of a target
CN107220959A (zh) * 2017-05-17 2017-09-29 东莞市华睿电子科技有限公司 一种基于无人机的图像处理方法
CN114397903A (zh) * 2017-05-24 2022-04-26 深圳市大疆创新科技有限公司 一种导航处理方法及控制设备
CN108476288B (zh) * 2017-05-24 2021-05-07 深圳市大疆创新科技有限公司 拍摄控制方法及装置
CN108646770A (zh) * 2018-03-28 2018-10-12 深圳臻迪信息技术有限公司 一种无人机飞行控制方法、装置及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070018052A1 (en) * 2004-07-03 2007-01-25 Saab Ab A system and method for in-flight control of an aerial vehicle
JP2012202879A (ja) * 2011-03-25 2012-10-22 Kyocera Corp 携帯電子機器および移動経路記録方法
JP2018173992A (ja) * 2014-04-25 2018-11-08 ソニー株式会社 情報処理装置、情報処理方法、コンピュータ読み取り可能な媒体および撮像システム
WO2018020659A1 (ja) * 2016-07-29 2018-02-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 移動体、移動体制御方法、移動体制御システム、及び移動体制御プログラム
JP2018110352A (ja) * 2017-01-05 2018-07-12 Kddi株式会社 操縦装置、情報処理方法、プログラム、及び飛行システム
JP2018160228A (ja) * 2017-03-21 2018-10-11 株式会社東芝 経路生成装置、経路制御システム、及び経路生成方法
JP2019016869A (ja) 2017-07-05 2019-01-31 ソニー株式会社 撮像装置、カメラ装着ドローン、およびモード制御方法、並びにプログラム
JP2018174002A (ja) * 2018-08-16 2018-11-08 ソニー株式会社 移動体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3950492A4

Also Published As

Publication number Publication date
JPWO2020203126A1 (ja) 2020-10-08
CN113631477A (zh) 2021-11-09
JP7452533B2 (ja) 2024-03-19
EP3950492A1 (en) 2022-02-09
US20220166917A1 (en) 2022-05-26
EP3950492A4 (en) 2022-06-01

Similar Documents

Publication Publication Date Title
US11644832B2 (en) User interaction paradigms for a flying digital assistant
JP7020522B2 (ja) 情報処理装置、情報処理方法、コンピュータ読み取り可能な媒体、撮像システム、および飛行体
US11632497B2 (en) Systems and methods for controlling an image captured by an imaging device
WO2017186137A1 (zh) 无人飞行器控制方法及装置
WO2017023411A1 (en) Planning a flight path by identifying key frames
WO2017023410A1 (en) Interface for planning flight path
JP6939801B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7059934B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN113448343B (zh) 用于设定飞行器的目标飞行路径的方法、系统和可读介质
WO2020203126A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN113677412B (zh) 信息处理装置、信息处理方法和程序
JP6875196B2 (ja) モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体
JP6875269B2 (ja) 情報処理装置、飛行制御指示方法、プログラム、及び記録媒体
EP3518063A1 (en) Combined video display and gimbal control
WO2022070851A1 (ja) 方法、システムおよびプログラム
WO2022209398A1 (ja) 情報処理方法、情報処理装置、コンピュータ読み取り可能な媒体および撮像システム
JPWO2018074054A1 (ja) 表示制御装置、表示制御方法及びプログラム
WO2022113482A1 (ja) 情報処理装置、方法およびプログラム
JP2023083072A (ja) 方法、システムおよびプログラム
KR20230130629A (ko) 정보 처리 방법, 정보 처리 장치 및 불휘발성 기억 매체
CN116472486A (zh) 基于图像的手指跟踪和控制器跟踪
JP2019070949A (ja) 飛行体制御装置、飛行体制御方法、及び飛行体制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20784293

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511341

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020784293

Country of ref document: EP

Effective date: 20211102