WO2018070067A1 - プロジェクションシステム、プロジェクション方法、飛行体システム及び飛行体 - Google Patents

プロジェクションシステム、プロジェクション方法、飛行体システム及び飛行体 Download PDF

Info

Publication number
WO2018070067A1
WO2018070067A1 PCT/JP2017/014334 JP2017014334W WO2018070067A1 WO 2018070067 A1 WO2018070067 A1 WO 2018070067A1 JP 2017014334 W JP2017014334 W JP 2017014334W WO 2018070067 A1 WO2018070067 A1 WO 2018070067A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
image
flying object
projection
flying
Prior art date
Application number
PCT/JP2017/014334
Other languages
English (en)
French (fr)
Inventor
史雄 村松
征永 関
外山 昌之
寿郎 笹井
弓木 直人
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP17859906.4A priority Critical patent/EP3506625B1/en
Priority to JP2018544678A priority patent/JP6741919B2/ja
Publication of WO2018070067A1 publication Critical patent/WO2018070067A1/ja
Priority to US16/371,170 priority patent/US10780990B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/02Arrangements or adaptations of signal or lighting devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64BLIGHTER-THAN AIR AIRCRAFT
    • B64B1/00Lighter-than-air aircraft
    • B64B1/06Rigid airships; Semi-rigid airships
    • B64B1/24Arrangement of propulsion plant
    • B64B1/26Arrangement of propulsion plant housed in ducts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/30Lighter-than-air aircraft, e.g. aerostatic aircraft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F21/00Mobile visual advertising
    • G09F21/06Mobile visual advertising by aeroplanes, airships, balloons, or kites
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F21/00Mobile visual advertising
    • G09F21/06Mobile visual advertising by aeroplanes, airships, balloons, or kites
    • G09F21/08Mobile visual advertising by aeroplanes, airships, balloons, or kites the advertising matter being arranged on the aircraft
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Definitions

  • a flying body system of the present disclosure includes an imaging device, an exterior body on which an imaging-dependent image depending on an image captured by the imaging device is projected, and a flying device that causes the exterior body to fly; A control unit that outputs a signal for projecting the imaging-dependent image onto the exterior body.
  • the projection method of the present disclosure is a projection method in which an image is projected onto the exterior body of the flight body having an exterior body, a flying device that causes the exterior body to fly, and an imaging device.
  • an imaging-dependent image that depends on an image captured by the imaging device is projected onto the exterior body using a projection device.
  • the projection system 100 includes a flying object 1 that can fly by itself, a projection device 10 that projects an image on the flying object 1, a second control communication unit (second communication unit) 22 that communicates with the flying object 1, and a terminal device.
  • 40 includes a first control communication unit (fourth communication unit) 21 that communicates with 40 and a control unit 30.
  • the projection system 100 may further include a terminal device 40.
  • the terminal device 40 may be a terminal device 40 dedicated to the projection system 100.
  • the terminal device 40 may be replaced with a general-purpose terminal device.
  • the balloon 2 as a buffer body has a hollow structure, for example, a bag-like body having an elliptical spherical shape that is flattened up and down during inflation.
  • the balloon 2 is made of, for example, a white sheet-like material, and when inflated, the outer surface functions as a screen capable of projecting an image.
  • the shock absorber of the flying object 1 may be made of a solid material such as sponge or rubber.
  • the shock absorber is preferably made of a material that can absorb an impact when it collides with an object, and the outer surface of the shock absorber is configured so that an image projected on the outer surface can be confirmed by a surrounding person. It is desirable to be.
  • the balloon 2 is filled with gas for generating buoyancy such as helium gas.
  • gas for generating buoyancy such as helium gas.
  • another gas having a density lower than that of air may be used.
  • the flying object 1 can lighten the load of the flying device 3 at the time of flight, or can rise even if the flying device 3 is not operating.
  • the operation of the flying device 3 can be mainly targeted for the horizontal movement and the downward movement of the flying object 1, and energy saving can be achieved.
  • Each rotor unit 3a includes a frame 3b having a cylindrical outer shape, a propeller 3c disposed in the frame 3b, and a motor 3d that rotationally drives the propeller 3c.
  • the rotation shaft of the propeller 3c is rotatably supported by the frame 3b at the axial center position of the frame 3b.
  • the motor 3d is connected to the rotating shaft of the propeller 3c and is fixed to the frame 3b.
  • Each rotor unit 3a is arranged such that the rotation shaft of the propeller 3c is oriented along the axial direction of each vent hole 2a.
  • the control unit 30 selects the projectors 10a to 10d that project the imaging-dependent image obtained by processing the captured image. Specifically, the control unit 30 determines the terminal device 40 and four projectors (projectors) based on the positional information of the terminal device 40 received in step S14 and the positional information of the projectors 10a to 10d stored in the memory. The relative positional relationship with 10a to 10d) is obtained (step S16). In addition, the control part 30 may update the positional information on the terminal device 40, when the positional information on the terminal device 40 is newly received after the positional information on the said terminal device 40 is received.
  • the control unit 30 selects a plurality of projectors (two or more of the projectors 10a to 10d) as projectors that project the processed imaging-dependent images. Also good. For example, when the processing content Ma scrolls around the balloon 2 over the divided images ia to id as shown in FIGS. 9 and 10, the control unit 30 selects all the projectors 10a to 10d, The order in which the processing details are displayed among the projectors 10a to 10d may be determined.
  • the divided image ia to the divided image id are projected onto the flying object 1 on the projector 10a to the projector 10d located in the direction corresponding to the shooting direction of the divided image ia to the divided image id.
  • the divided images ia to id showing the people around the flying object 1 are shown on the outer surface of the balloon 2 at a position facing the people around the flying object 1. Therefore, people around the flying object 1 can enjoy watching their own images on the balloon 2.
  • the projection method includes a projector at a position close to the terminal device 40 based on the positional relationship between the plurality of projectors (projectors 10a to 10d) and the terminal device 40. For example, any one of the projectors 10a to 10d) is caused to project a processed image reflecting the input information.
  • the control unit 30, the first control communication unit 21, and the second control communication unit 22 are mounted on the projectors 10a to 10d, respectively.
  • the control unit 30 may perform the projection control of the projection device 10 or may not perform the projection control of the projection device 10.
  • the second control communication unit 22 wirelessly communicates with the aircraft communication unit 5 of the aircraft 1.
  • the first control communication unit 21 communicates with the terminal device 40.
  • the operations of the control unit 30 and the second control communication unit 22 are the same as those of the projection system 100 according to the embodiment.
  • the relay unit 50 is not necessary, so that the configuration of the projection system can be simplified.
  • the input unit 51 of the relay unit 50 may be disposed in each of the projectors 10a to 10d, and may constitute a part of the input devices of the projectors 10a to 10d.
  • the processing information is reflected on the imaging-dependent image by the control unit 30 of the relay unit 50.
  • the present invention is not limited to this.
  • the projection apparatus 10 may implement it.
  • the control unit 30 calculates the azimuth of the flying object 1, the positional relationship between the flying object 1 and the projection device 10, and the positional relationship between the flying object 1 and the terminal device 40. Although implemented, it is not limited to this.
  • the calculation of the direction and position related to the flying object 1 may be performed by the flying object control unit 6 of the flying object 1.
  • projectors 10a to 10d are arranged for one flying body 1, but the number of projectors is not limited to this, and one or more projectors are used. I just need it.
  • the position information of the flying object 1 can be detected by the position detection unit 8 since the position information of the flying object 1 can be detected by the position detection unit 8, the focus of the imaging-dependent image to be projected according to the distance between the projection device 10 and the flying object 1 You may change the size. Thereby, the production effect can be further enhanced.
  • the four rotor units 3a are arranged in one balloon 2, but the present invention is not limited to this.
  • One balloon 2 may be provided with one or more rotor units 3a.
  • the four rotor units 3a that is, the flying devices 3 are covered with the balloon 2, but the invention is not limited to this.
  • the shock absorber such as a balloon may not cover the flying device 3, and may be attached or arranged directly or indirectly to the flying device 3, for example.
  • the configuration in which the shock absorber covers the flying device 3 may include a configuration in which the shock absorber covers the entire flight device 3 as in the embodiment, and a configuration in which the shock absorber covers a part of the flight device 3.
  • the present disclosure is useful for producing an image on a flying object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Remote Sensing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本開示のプロジェクションシステム(100)は、飛行体(1)と、投影装置(10)と、制御部(30)と、を備える。前記飛行体(1)は、外装体と、前記外装体を飛行させる飛行装置(3)と、画像を撮像する撮像装置(4)と、を有する。前記投影装置(10)は、前記画像に依存する撮像依存画像を前記外装体に投影する。前記制御部(30)は、前記撮像依存画像を前記投影装置(10)に投影させる。

Description

プロジェクションシステム、プロジェクション方法、飛行体システム及び飛行体
 本開示は、飛行体に画像を投影するプロジェクションシステム、プロジェクション方法及び飛行体システム、並びに画像が投影される飛行体に関する。
 特許文献1には、飛行船のバルーンに画像等を映出する技術が記載されている。この技術では、プロジェクタによって、飛行船の内部又は外部から、バルーンに設けられた透過型スクリーンに画像が投影される。
特開平8-314401号公報
 本開示のプロジェクションシステムは、外装体と、前記外装体を飛行させる飛行装置と、画像を撮像する撮像装置と、を有する飛行体と、前記画像に依存する撮像依存画像を前記外装体に投影する投影装置と、前記撮像依存画像を前記投影装置に投影させる制御部と、を備える。
 本開示の飛行体は、撮像装置と、前記撮像装置が撮像する画像に依存する撮像依存画像が投影される外装体と、前記外装体を飛行させる飛行装置と、を備える。
 本開示の飛行体システムは、撮像装置と、前記撮像装置が撮像する画像に依存する撮像依存画像が投影される外装体と、前記外装体を飛行させる飛行装置と、を有する飛行体と、前記撮像依存画像を前記外装体へ投影させるための信号を出力する制御部と、を備える。
 本開示のプロジェクション方法は、外装体と、前記外装体を飛行させる飛行装置と、撮像装置と、を有する飛行体の前記外装体に画像を投影するプロジェクション方法である。このプロジェクション方法は、前記撮像装置が撮像する画像に依存する撮像依存画像を、投影装置を用いて前記外装体へ投影させる。
 本開示におけるプロジェクションシステム等によれば、飛行体の演出効果の向上が可能になる。
図1は、実施の形態に係るプロジェクションシステムの概略的な構成を示すブロック図である。 図2は、図1の飛行体を斜め下方から見た斜視図である。 図3は、図2の飛行体を上方から見た平面図である。 図4は、図3の飛行体のIV-IV線に沿った断面側面図である。 図5は、図3の飛行体のV-V線に沿った断面側面図である。 図6は、実施の形態に係るプロジェクションシステムの一例の概略的な構成を示すブロック図である。 図7は、実施の形態に係るプロジェクションシステムにおける飛行体と投影装置との位置関係の一例を上方から見て示す平面図である。 図8は、実施の形態に係るプロジェクションシステムの動作の流れの一例を示すフローチャートである。 図9は、図7の飛行体の撮像装置の撮像画像の分割処理の一例を示す模式的な図である。 図10は、図9の分割画像が飛行体に投影される状態の一例を示す斜視図である。 図11は、実施の形態に係るプロジェクションシステムの画像加工内容の投影動作の流れの一例を示すフローチャートである。 図12は、実施の形態の変形例に係るプロジェクションシステムの概略的な構成を示すブロック図である。 図13は、実施の形態の別の変形例に係るプロジェクションシステムの概略的な構成を示すブロック図である。
 以下、適宜図面を参照しつつ、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。また、以下の実施の形態の説明において、略平行、略直交のような「略」を伴った表現が、用いられる場合がある。例えば、略平行とは、完全に平行であることを意味するだけでなく、実質的に平行である、すなわち、例えば数%程度の差異を含むことも意味する。他の「略」を伴った表現についても同様である。なお、発明者らは、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 [実施の形態]
 [1.プロジェクションシステムの構成]
 [1-1.プロジェクションシステムの概略構成]
 まず、図1~図3を参照して、実施の形態に係るプロジェクションシステム100の概略構成を説明する。図1は、実施の形態に係るプロジェクションシステム100の概略的な構成を示すブロック図である。図2は、図1の飛行体1を斜め下方から見た斜視図である。図3は、図2の飛行体1を上方から見た平面図である。
 プロジェクションシステム100は、自身で飛行可能な飛行体1と、飛行体1に画像を投影する投影装置10と、飛行体1と通信する第二制御通信部(第二通信部)22と、端末装置40と通信する第一制御通信部(第四通信部)21と、制御部30とを備える。プロジェクションシステム100は、さらに端末装置40を備えていてもよい。端末装置40は、プロジェクションシステム100専用の端末装置40でもよい。また端末装置40は、汎用的な端末装置で代用されてもよい。
 飛行体1は、投影装置10によって画像が投影される緩衝体(外装体)2と、緩衝体2に覆われて緩衝体2を飛行させる飛行装置3と、緩衝体2の周囲を撮像する撮像装置4と、第二制御通信部22と通信する飛行体通信部(第一通信部)5とを備える。本実施の形態では、緩衝体2は、膨張収縮可能な袋状体であり、以下、バルーンとも呼ぶ。撮像装置4は、バルーン2の下部に取り付けられている。飛行装置3は、プロペラ駆動であり、バルーン2内に配置されている。飛行体通信部5は、バルーン2内に配置されている。投影装置10は、バルーン2に、撮像装置4の撮像画像に依存する画像である撮像依存画像を投影する。撮像依存画像は、撮像装置4の撮像画像そのもの、又は、撮像画像にデコレーション、アニメーション加工、文字などの付加及び変形等の加工が加えられた加工画像であり得る。よって、撮像依存画像は、撮像画像自体、及び撮像画像に加工が加えられた加工画像のいずれをも意味する。
 端末装置40は、飛行体1及び制御部30から離れて配置される。端末装置40は、制御部30等と通信可能な装置である。端末装置40は、コンピュータ等のような情報処理装置でもよい。より具体的には、端末装置40は、携帯電話でもよく、スマートフォン、スマートウォッチ、タブレット、小型パーソナルコンピュータ等の携帯端末でもよい。本実施の形態では、端末装置40は、飛行体1の周囲の人が所持する汎用的な端末装置であるが、飛行体1の操縦者の端末装置であってもよく、プロジェクションシステム100の運用者の端末装置であってもよい。端末装置40は、第一制御通信部21と通信する端末通信部41と、外部からの入力を受け付ける入力部42と、画像等を表示する表示部43と、端末装置40の位置を検出する端末位置検出部44とを備える。表示部43は、液晶パネル、有機EL(Electro Luminescence)又は無機EL等の表示パネルによって構成される。入力部42は、キーパッド等の入力装置によって構成されてもよく、タッチスクリーン等の、表示部43に直接入力可能な装置によって構成されてもよい。端末位置検出部44は、例えば、GPS(Global Positioning System)用通信器等により構成されてよい。プロジェクションシステム100に、複数の端末装置40が配置されてもよい。
 第二制御通信部22は、飛行体通信部5と無線通信し、飛行体通信部5から撮像装置4の撮像画像等の種々の情報を受け取る。第一制御通信部21は、端末通信部41と無線通信し、入力部42を介して入力された情報、端末装置40に保存されている情報等の種々の情報を、端末通信部41を介して受け取る。第一制御通信部21及び第二制御通信部22は、受け取った情報を制御部30に送る。また、第一制御通信部21は、飛行体通信部5から制御部30が受け取った撮像装置4の撮像画像に依存する撮像依存画像等の種々の情報を、端末通信部41を介して端末装置40に送る。
 制御部30は、プロジェクションシステム100の制御を実施する。制御部30は、第二制御通信部22から撮像装置4の撮像画像等の種々の情報を受け取る。また、制御部30は、第一制御通信部21を介して、端末装置40からの情報を受け取る。そして制御部30は、受け取った情報に基づいて撮像画像を加工し、撮像画像に依存する撮像依存画像を生成する。たとえば制御部30は、端末装置40から受け取った情報を、撮像画像に重畳し、撮像依存画像を生成する。そして、制御部30は、投影装置10に対して、加工した撮像依存画像を、バルーン2へ投影させるよう信号を出力する。
 [1-2.飛行体の構成]
 図1~図5を参照して、飛行体1の構成を説明する。図4は、図3の飛行体1のIV-IV線に沿った断面側面図である。図5は、図3の飛行体1のV-V線に沿った断面側面図である。本実施の形態に係る飛行体1は、1つのバルーン2と、飛行装置3としての4つのロータユニット3aとを備えている。さらに、飛行体1は、撮像装置4、飛行体通信部5、飛行体制御部6、方位検出部7、位置検出部8及びバッテリ9等を備えている。本実施の形態では、図2に示すように、飛行体1は、飛行体1から離れて位置する操縦器1aと無線通信し、操縦器1aから送信される指令信号に従って動作するが、これに限定されない。なお、飛行体通信部5が、操縦器1aと無線通信を行ってもよく、操縦器1aと無線通信を行うための別の通信部が設けられてもよい。また、操縦器1aは、端末装置40の機能を有してもよく、端末装置40が、操縦器の1aの機能を有してもよい。
 本実施の形態では、緩衝体としてのバルーン2は、中空構造を有しており、例えば膨張時に上下に扁平な楕円球状の形状を有する袋状体である。バルーン2は、例えば、白色のシート状の材料によって構成され、膨張時に、その外表面が、画像を投影可能なスクリーンとして機能する。なお、飛行体1の緩衝体は、スポンジ、ゴム等の中実の材料から構成されてもよい。緩衝体は、物体に衝突したときに衝撃を吸収できる材料で構成されることが望ましく、さらに、緩衝体の外表面は、外表面に投影された画像が周囲の人から確認できるような構成であることが望ましい。バルーン2の内部には、ヘリウムガス等の浮力を生じさせるためのガスが充填されている。バルーン2の内部に充填されるガスとしては、空気よりも密度の小さいその他のガスが用いられてもよい。これにより飛行体1は、飛行時の飛行装置3の負荷を軽くすることができる、又は、飛行装置3が稼働していなくても上昇することができる。その結果、例えば、飛行装置3の稼働を、飛行体1の水平方向の移動及び下降移動を主に対象とすることができ、省エネルギー化が可能になる。
 バルーン2には、ロータユニット3aと同数(本実施の形態では4つ)の円筒状の通気孔2aが形成されている。各通気孔2aは、バルーン2をその短軸方向である上下方向に貫通している。各通気孔2aは、バルーン2の短軸でもあるバルーン2の中心軸から径方向に離れて配置されている。本実施の形態では、4つの通気孔2aは、バルーン2の中心軸から放射状に均等に、具体的には、中心軸を中心として90°間隔に配置されている。4つの通気孔2aは、互いに十分な間隔をあけて配置されている。
 各通気孔2a内には、1つのロータユニット3aが配置されている。本実施の形態では、各ロータユニット3aは、バルーン2の外表面から突出も露出もしないように、各通気孔2aの内部に配置されている。これにより、ロータユニット3aが、通気孔2aの外部のものと直接接触することが抑えられる。各ロータユニット3aは、各通気孔2aの軸方向の推力を発生させる。
 各ロータユニット3aは、円筒状の外形を有するフレーム3bと、フレーム3b内に配置されるプロペラ3cと、プロペラ3cを回転駆動するモータ3dとを備えている。プロペラ3cの回転軸は、フレーム3bの軸心位置でフレーム3bによって回転自在に支持されている。モータ3dは、プロペラ3cの回転軸と接続されており、フレーム3bに固定されている。各ロータユニット3aは、プロペラ3cの回転軸を各通気孔2aの軸方向に沿う向きにして、配置されている。
 バルーン2の中央には、その中心軸に沿って延びる1つの円筒状の空洞2bが形成されている。空洞2bは、バルーン2の上下の表面のうちの少なくとも下方の表面で開口している。これにより、バルーン2内では、4つの通気孔2a及び1つの空洞2bの周囲を囲むように延在する1つのガス空間2cが形成される。このガス空間2cは、バルーン2を膨張させる閉じられた空間であり、ガス空間2cには、ヘリウムガス等のガスが充填される。
 空洞2b内には、飛行体通信部5、飛行体制御部6、方位検出部7、位置検出部8及びバッテリ9が配置されている。空洞2bの下部の開口には、撮像装置4が配置されている。方位検出部7は、ジャイロセンサ(角速度センサとも呼ぶ)、磁気センサ、角加速度センサ等により構成されてよく、バルーン2の中心軸を中心とする飛行体1の回転角である飛行体1の方位に関する情報、つまり方位情報を検出する。方位検出部7は、検出した方位情報をリアルタイムに飛行体制御部6に送る。飛行体制御部6は、飛行体通信部5を介して、検出された方位情報をリアルタイムに第二制御通信部22に送る。
 位置検出部8は、飛行体1の平面位置及び高度を含む位置に関する情報、つまり位置情報を検出する。なお、平面位置は、地球の海面に沿った位置である。位置検出部8は、ジャイロセンサ、直線加速度センサ、GPS用通信器等により構成されてよい。位置検出部8は、その検出した位置情報をリアルタイムに飛行体制御部6に送る。飛行体制御部6は、飛行体通信部5を介して、検出された位置情報をリアルタイムに第二制御通信部22に送る。
 バッテリ9は、蓄積した電力の放電が可能な一次電池であってもよく、電力の蓄電及び放電が可能な二次電池であってもよい。バッテリ9は、ロータユニット3a、撮像装置4、飛行体通信部5、飛行体制御部6、方位検出部7及び位置検出部8等へ電力を供給する。
 飛行体制御部6は、マイクロコンピュータを中心とする回路、マイクロコンピュータを有しない回路等によって構成されることができる。飛行体制御部6は、飛行体1全体の制御を実施し、操縦器1a及び制御部30から発信された指令信号を受信し、受信した指令信号に基づいて、ロータユニット3a、撮像装置4、飛行体通信部5、方位検出部7及び位置検出部8等の制御を行う。
 飛行体通信部5は、第二制御通信部22と無線通信するように構成される。飛行体通信部5は、通信回路であってもよい。飛行体通信部5は、第二制御通信部22と直接的に無線通信を実施してもよく、間接的に無線通信を実施してもよい。飛行体通信部5と第二制御通信部22との間接的な無線通信とは、例えばインターネット等の通信網を介した通信である。この場合、無線通信には、例えば、Wi-Fi(登録商標)(Wireless Fidelity)などの無線LAN(Local Area Network)が適用されてもよい。又は、飛行体通信部5と第二制御通信部22との間接的な無線通信では、第3世代移動通信システム(3G)、第4世代移動通信システム(4G)又はLTE(登録商標)(Long Term Evolution)等のような移動通信システムで利用されるモバイル通信規格が適用されてもよい。
 撮像装置4は、撮像画像をデジタルデータとして記録するデジタルカメラ及びデジタルビデオカメラ等が用いられ得る。撮像装置4は、本実施の形態では、動画撮影が可能な装置であるが、静止画のみ、又は、静止画及び動画の撮影が可能な装置であってもよい。本実施の形態では、撮像装置4は、広角な視野角を有しており、具体的には、360°の視野角を有する360°カメラである。撮像装置4は、バルーン2の下方から側方にわたる領域を一度に表示する撮像画像を生成することができる。撮像装置4は、生成した撮像画像をリアルタイムに飛行体制御部6に送り、飛行体制御部6は、飛行体通信部5を介して、撮像画像を第二制御通信部22に送る。よって、撮像装置4の撮像画像は、撮像装置4の撮像動作に合わせてリアルタイムに第二制御通信部22に送られる。
 また、飛行体1は、例えばバルーン2に、照明灯、LED(Light Emitting Diode)素子などを含む発光体、スピーカ、マイク、各種計測機器等の種々の機器を搭載していてもよい。照明灯は、飛行体1の周囲を照明するために使用され得る。発光体は、夜間、暗所等で飛行体1の位置を周囲に示すために使用され得る。スピーカは、飛行体1の周囲に音、音声等を発する。マイクは、飛行体1の周囲から集音し得る。
 [1-3.プロジェクションシステムの詳細構成]
 図6及び図7を参照して、本実施の形態に係るプロジェクションシステム100の詳細な構成を説明する。図6は、実施の形態に係るプロジェクションシステム100の一例の概略的な構成を示すブロック図である。図7は、実施の形態に係るプロジェクションシステム100における飛行体1と投影装置10との位置関係の一例を上方から見て示す平面図である。本実施の形態では、飛行体1がイベント会場等の建物内の比較的狭い空間内での演出ために用いられるものとして説明するが、飛行体1の用途はこれに限定されない。飛行体1は、建物内の空間で、限られた領域内を移動することができる。図7に示されるように、このような飛行体1の周囲の異なる位置に、4つのプロジェクタ(プロジェクタ10a~プロジェクタ10d)が配置される。以下、これらのプロジェクタ10a~プロジェクタ10dを総称する場合に、投影装置10と言う。プロジェクタ10a~プロジェクタ10dは飛行体1の外部に配置される。プロジェクタ10a~プロジェクタ10dのそれぞれの投影方向は、4つのプロジェクタ10a~プロジェクタ10dの中心へ指向されている。プロジェクタ10a~プロジェクタ10dは、下方から上方に向かって画像を飛行体1のバルーン2の異なる箇所に投影する。
 図6に示されるように、第一制御通信部21、第二制御通信部22及び制御部30は、1つのユニットを構成し、具体的には、飛行体1と投影装置10との間でこれらを制御する中継ユニット50を構成する。中継ユニット50は、撮像装置4の撮像画像に依存する撮像依存画像に、デコレーション、アニメーション加工、文字などの付加、変形及び分割等の加工を加えるための入力を受け付ける入力部51を備える。中継ユニット50の入力部51は、後述する端末装置40の入力部42と同様の機能を有してもよい。つまり端末装置40の入力部42が中継ユニット50の入力部51として機能してもよく、中継ユニット50の入力部51が端末装置40の入力部42として機能してもよい。本実施の形態では、中継ユニット50は、飛行体1、操縦器1a(図2参照)、投影装置10及び端末装置40とは別個の装置であり、且つこれらから離れて設けられた装置である。例えば、中継ユニット50は、飛行体1、操縦器1a、投影装置10及び端末装置40とは別個のコンピュータ等の装置に組み込まれてもよい。飛行体1及び中継ユニット50は、飛行体システム101を構成する。これにより、飛行体システム101と汎用の投影装置10及び汎用の端末装置40とを用いて、プロジェクションシステム100を構築することができる。或いは、中継ユニット50と、汎用の飛行体1と、汎用の投影装置10と、汎用の端末装置40とを用いて、プロジェクションシステム100を構築することができる。
 中継ユニット50は、投影装置10と有線で接続されてもよく、無線で接続されてもよい。本実施の形態では、中継ユニット50は、投影装置10と有線で接続される。なお、中継ユニット50と投影装置10とが無線で接続される場合、中継ユニット50と投影装置10との通信には、飛行体通信部5と第二制御通信部22との通信と同様の無線通信が適用されてもよく、Bluetooth(登録商標)等の近距離無線通信が適用されてもよい。このような場合、中継ユニット50は、第一制御通信部21及び第二制御通信部22とは別の通信部を備え得る。そして中継ユニット50は、前述の別の通信部で投影装置10と通信し得る。
 第一制御通信部21及び第二制御通信部22は、通信回路であってもよい。第二制御通信部22と飛行体通信部5とは、上述したような通信を実施し、第二制御通信部22は、飛行体通信部5を介して、撮像装置4の撮像画像、並びに飛行体1の方位情報及び位置情報等を受け取り、制御部30に送る。
 第一制御通信部21と端末通信部41とは、無線通信するように構成される。第一制御通信部21は、端末通信部41と直接的に無線通信を実施してもよく、間接的に無線通信を実施してもよい。第一制御通信部21と端末通信部41との間接的な無線通信では、インターネット等の通信網を介した通信が適用されてもよい。この場合、無線通信には、例えば、Wi-Fi(登録商標)などの無線LANが適用されてもよい。又は、第一制御通信部21と端末通信部41との間接的な無線通信では、第3世代移動通信システム(3G)、第4世代移動通信システム(4G)又はLTE(登録商標)等のような移動通信システムで利用されるモバイル通信規格が適用されてもよい。本実施の形態では、第一制御通信部21と端末通信部41とは、無線通信するが、有線通信するように構成されてもよい。第一制御通信部21は、端末通信部41を介して、端末装置40から種々の情報を受け取り、制御部30に送る。また、第一制御通信部21は、制御部30の指令に従い、飛行体1から受け取った撮像画像に依存する撮像依存画像等の種々の情報を端末装置40に送る。
 ここで、端末装置40の構成を説明する。端末装置40は、中継ユニット50及び端末通信部41を介して、撮像装置4の撮像画像に依存する撮像依存画像を受け取り、受け取った撮像依存画像を表示部43に表示するように構成されている。端末装置40は、入力部42に入力される情報に従って、表示部43上の撮像依存画像を加工することができるようにも構成されている。端末装置40が受け取る撮像依存画像は、撮像画像自体であってもよく、中継ユニット50において加工が加えられた加工画像であってもよく、他の端末装置40によって加工が加えられた加工画像であってもよい。
 例えば、表示部43上の撮像依存画像への加工は、撮像依存画像への文字、記号、図などを含む図柄の重畳表示、撮像依存画像の変形及び修正、撮像依存画像の色彩及び色調の変更、撮像依存画像のデコレーション、撮像依存画像の拡大及び縮小、撮像依存画像の分割、画像の切り取り、撮像依存画像のイラスト変換、撮像依存画像のアニメーション化等のいかなる加工であってもよい。さらに、撮像依存画像に加えられた加工部分が、撮像依存画像上で、スクロール、移動、回転、動作等の撮像依存画像に対する相対的な動きを伴うように構成されてもよい。
 そして端末装置40の利用者は、表示部43上で撮像依存画像を確認しつつ、撮像依存画像を加工することができる。端末装置40は、入力部42を介して受け取った撮像依存画像の加工に関する情報を、端末通信部41を介して中継ユニット50の第一制御通信部21に送る。さらに、第一制御通信部21は、撮像依存画像の加工に関する情報を、中継ユニット50の制御部30に送る。また、端末装置40は、撮像依存画像の加工に関する情報と共に、端末装置40の位置情報、撮像依存画像内において加工内容を表示する位置の情報等を、制御部30に送ってもよい。加工内容を表示する位置は、利用者によって入力部42を介して指定されてもよい。なお、端末装置40は、表示部43に撮像依存画像を表示しないように構成されてもよい。この場合、端末装置40は、入力部42からの入力情報を表示部43に表示してもよい。
 制御部30は、制御機能を備えるものであればよく、どのように実現されてもよい。制御部30は、マイクロコンピュータを中心とする回路、マイクロコンピュータを有しない回路等のハードウェアによって構成されることができる。また例えば、制御部30は、各要素に適したソフトウェアプログラムを実行することによって実現されてもよい。この場合、制御部30は、例えば、演算処理部と、制御プログラムを記憶する記憶部とを備えてもよい。演算処理部としては、MPU(Micro Processing Unit)、CPU(Central Processing Unit)などが例示される。記憶部としては、メモリなどが例示される。なお、制御部30は、集中制御を行う単独の制御部で構成されていてもよく、互いに協働して分散制御を行う複数の制御部で構成されていてもよい。
 制御部30は、飛行体1から第二制御通信部22を介して受け取った飛行体1の方位情報及び位置情報に基づき、例えば、方位北(例えば、図7では鉛直上方向である方位N)に対する飛行体1の方位と、飛行体1の平面位置とを求める。なお、飛行体1の方位とは、図7に示されるように、飛行体1の中心軸を通り且つ中心軸の径方向に延びる飛行体1の鉛直な基準面Pの方位Paであり、例えば、方位北に対する方位角つまり回転角を用いて示される。よって、制御部30は、飛行体1の方位と撮像依存画像とを撮像時刻に基づき対応付け、さらに、撮像画像を撮像した際の飛行体1の方位を、撮像依存画像の撮影方位とする。なお、飛行体1の方位は撮像装置4の撮影方位でもある。さらに制御部30のメモリには、4つのプロジェクタ10a~プロジェクタ10dの位置情報が予め記憶されている。制御部30は、飛行体1と4つのプロジェクタ10a~プロジェクタ10dとの相対的な位置関係を時刻と関連付けて求める。制御部30は、ある撮像依存画像の撮影方位と、飛行体1及びプロジェクタ10a~プロジェクタ10dの相対的な位置関係とに基づき、飛行体1に対して撮影方位にあるプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dのうちいずれか一つ)を特定する。飛行体1に対して撮影方位にあるプロジェクタとは、飛行体1に対して撮影方位に最も近い方位に位置するプロジェクタのことである。制御部30は、飛行体1に対して撮影方位にあるプロジェクタに、対応する撮像依存画像を投影させる。なお、制御部30は、撮像依存画像の撮影方位に関係なくプロジェクタ10a~プロジェクタ10dを選択し、対応する撮像依存画像を投影させてもよい。
 また、制御部30は、端末装置40から第一制御通信部21を介して受け取った撮像依存画像の加工に関する情報を、飛行体1から受け取った撮像画像に加える、つまり撮像依存画像を加工する。そして、制御部30は、加工した撮像依存画像を投影装置10に送り投影させる。このような制御部30は、撮像依存画像を一時的に保存するメモリを備えてもよく、制御部30とは別に、中継ユニット50にメモリが配置されてもよい。
 制御部30は、撮像依存画像の加工内容が一定の位置にとどまるように、撮像依存画像を加工してもよく、撮像依存画像の加工内容がスクロール等の移動を行うように、撮像依存画像を加工してもよい。制御部30は、撮像依存画像の加工内容を移動させる場合、複数のプロジェクタ(プロジェクタ10a~プロジェクタ10d)に送るべき複数の撮像依存画像を加工し、加工済みの各撮像依存画像を、各撮像依存画像に対応するプロジェクタ10a~プロジェクタ10dに送る。
 また、制御部30は、端末装置40の位置情報に基づき、撮像依存画像の加工内容を投影するプロジェクタ10a~プロジェクタ10dを選択してもよい。例えば、制御部30は、プロジェクタ10a~プロジェクタ10dと端末装置40との位置関係に基づき、端末装置40に近い位置、例えば最も近い位置にあるプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dの何れか一つ)に、撮像依存画像の加工内容を投影させる。端末装置40の利用者は、上述のようなプロジェクタ10a~プロジェクタ10dから飛行体1のバルーン2に投影された撮像依存画像の加工内容を、目視により直接確認することができる。なお、制御部30が選択するプロジェクタは、端末装置40に近い位置のプロジェクタに限定されない。例えば、制御部30は、複数のプロジェクタ10a~プロジェクタ10dのうち、任意のプロジェクタに撮像依存画像の加工内容を投影させてもよく、2つ以上のプロジェクタに撮像依存画像の加工内容を投影させてもよい。
 なお、制御部30は、上述したような端末装置40を介して加工が加えられた加工画像、入力部51を介して加工が加えられた加工画像、端末装置40及び入力部51を介して加工が加えられた加工画像、並びに、端末装置40及び入力部51による加工が加えられていない撮像画像自体のうちのいずれの画像を、投影装置10に投影させてもよい。
 [2.プロジェクションシステムの動作]
 [2-1.プロジェクションシステムの画像投影動作]
 図6~図9を参照して、本実施の形態に係るプロジェクションシステム100の画像投影動作を説明する。なお、図8は、実施の形態に係るプロジェクションシステム100の画像投影動作の流れの一例を示すフローチャートである。図9は、図7の飛行体1の撮像装置4の撮像画像の分割処理の一例を示す模式的な図である。4つのプロジェクタ(プロジェクタ10a~プロジェクタ10d)の内側に位置する飛行体1の撮像装置4は、飛行体1の周囲360°にわたる画像を連続的に撮像する。飛行体1の方位検出部7及び位置検出部8は、飛行体1の方位情報及び位置情報を連続的に検出する(ステップS1)。撮像装置4の撮像画像、並びに、飛行体1の方位情報及び位置情報は、リアルタイムに中継ユニット50の制御部30に送られる(ステップS2)。
 中継ユニット50の制御部30は、飛行体1の方位情報及び位置情報から飛行体1の方位及び位置を算出する。そして制御部30は、方位情報及び位置情報の検出時刻及び撮像画像の撮影時刻に基づき、飛行体1の方位及び位置を撮像画像つまり撮像依存画像と対応付ける(ステップS3)。さらに、制御部30は、飛行体1の方位に基づき、撮像依存画像の撮影時の撮影方位を算出する(ステップS4)。次いで、制御部30は、飛行体1の位置情報と予め記憶しているプロジェクタ10a~プロジェクタ10dとの位置情報とから、飛行体1とプロジェクタ10a~プロジェクタ10dとの相対的な位置関係を算出する(ステップS5)。制御部30は、撮像依存画像の撮影方位と、飛行体1及びプロジェクタ10a~プロジェクタ10dの相対的な位置関係とに基づき、撮像依存画像の撮影方位に対応する位置にあるプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dのいずれか一つ)を特定する(ステップS6)。例えばステップS6で、プロジェクタ10aが特定されたと仮定する。撮像依存画像の撮影方位に対応する位置にあるプロジェクタ10aとは、飛行体1に対して撮影方位に最も近い方位に位置するプロジェクタ10aのことである。
 制御部30は、上述で特定したプロジェクタ10aの方位を算出し、算出した方位に基づき、撮像依存画像を分割し、分割した画像(分割画像)をプロジェクタ10aと対応付ける(ステップS7)。具体的には、図9に示されるように、制御部30は、プロジェクタ10a~プロジェクタ10dの方位を基準とし、円形状の撮像依存画像iを、その中心Ciの周りで周方向に沿って、プロジェクタ10a~プロジェクタ10dと同数の分割画像、具体的には4つの分割画像ia、ib、ic及びidに分割する。例えば制御部30は、ステップS6で特定されたプロジェクタ10aに対し、プロジェクタ10aの方位Dを基準とし、中心Ciを中心とする所定の回転角の周となる分割画像iaを対応付ける。つまり制御部30は、分割画像iaの周方向の中央の位置に、方位Dが位置するように、撮像依存画像iを分割して分割画像iaを生成する。なお、図9では、前述の所定の回転角を90°とする例を示す。分割画像ia、ib、ic及びidは、撮像依存画像iを撮像装置4の視野角に応じて分割して形成された画像でもある。分割画像ia、ib、ic及びidはそれぞれ、飛行体1の下方から周囲の一部にわたる領域を映し出す。分割画像ia、ib、ic及びidそれぞれの撮影方位が、飛行体1に対するプロジェクタ10a、10b、10c及び10dの方位に対応する。なお、分割画像ia~分割画像idの撮影方位は、撮像依存画像iの中心Ciからそれぞれの周方向の中央位置に延びる方向の方位である。
 本例では、方位Dが、飛行体1の方位Paに対して角度θをなす方位、つまり方位Paから飛行体1の中心軸を中心に角度θだけ回転した方位である。このため、方位Dである分割画像iaの撮影方位は、方位Paである撮像依存画像iの方位から角度θだけずれる。この角度が90°の半分である45°未満であれば、飛行体1の方位Paとプロジェクタ10aの方位とが対応するものとする。よって、分割画像ia、ib、ic及びidそれぞれの撮影方位は、それぞれプロジェクタ10a、10b、10c及び10dの飛行体1に対する方位と対応する。本実施の形態では、飛行体1がプロジェクタ10a~プロジェクタ10dの中心に位置するため、分割画像ia~分割画像idは、撮像依存画像iを周方向に均等に分割した画像である。飛行体1とプロジェクタ10a~プロジェクタ10dとの相対的な位置関係に応じて、分割画像ia~分割画像idの形状は変わり得る。
 制御部30は、プロジェクタ10a~プロジェクタ10dそれぞれに、対応する分割画像ia~分割画像idのそれぞれを投影するよう信号を送り、投影させる(ステップS8)。このとき、扇形状の分割画像ia~分割画像idのそれぞれは、矩形状に展開されて飛行体1のバルーン2に投影される。例えば、図10に、プロジェクタ10b及びプロジェクタ10cにより分割画像ib及び分割画像icがバルーン2に投影される状態が示されている。なお、図10は、図9の分割画像ib及び分割画像icが飛行体1に投影される状態の一例を示す斜視図である。この際、制御部30は、分割画像ia~分割画像idをそのまま、プロジェクタ10a~プロジェクタ10dそれぞれに投影させてもよく、分割画像ia~分割画像idにデコレーション、アニメーション加工、文字などの付加及び変形等の加工を加えた加工画像をプロジェクタ10a~プロジェクタ10dそれぞれに投影させてもよい。このような加工は、中継ユニット50の入力部51を介して行われたものでもよく、後述するように端末装置40を介して行われたものでもよい。そして、制御部30は、上述のような分割画像ia~分割画像idによって構成される撮像依存画像を、プロジェクタ10a~プロジェクタ10dに投影させる。分割画像ia~分割画像idによって構成される撮像依存画像は、バルーン2に、個別に投影されてもよく、互いに結合されるような処理を受けて投影されてもよい。
 ステップS2~ステップS8の処理は、ステップS1の処理に対してリアルタイムに実施され、それにより、バルーン2には、撮像装置4の撮像画像、あるいは撮像依存画像がリアルタイムに映し出される。さらに、バルーン2の外表面には、その外周の全体にわたって、分割画像ia~分割画像idによって、飛行体1の周囲の領域の画像が映し出される。このようなバルーン2に映し出される画像は、バルーン2の中心軸から離れる方向でバルーン2と対向する領域の画像である。よって、図7及び図10に示されるように、飛行体1の周囲に人M1及び人M2がいる場合、これらの人M1及び人M2がバルーン2を見ると、バルーン2にはそれらの人M1及び人M2自身が映し出される。例えば、プロジェクタ10bの近傍でバルーン2上の分割画像ibの前に位置する人M1は、分割画像ib内に映し出される自身の姿M1aを見ることができる。プロジェクタ10cの近傍でバルーン2上の分割画像icの前に位置する人M2は、分割画像ic内に映し出される自身の姿M2aを見ることができる。従って、バルーン2の外表面に、飛行体1の周囲の人々をこれら人々が見ることができるように表示されるため、飛行体1のインタラクティブな操作を含め、エンターテインメントとしての飛行体1の演出効果を実現することが可能になる。
 [2-2.プロジェクションシステムの画像加工内容の投影動作]
 図11を参照して、本実施の形態に係るプロジェクションシステム100の画像加工内容の投影動作を説明する。具体的には、本動作では、飛行体1の撮像装置4の撮像画像に加工が加えられた加工画像が、撮像依存画像として、投影装置10によって飛行体1のバルーン2に投影される。図11は、実施の形態に係るプロジェクションシステム100の画像加工内容の投影動作の流れの一例を示すフローチャートである。
 まず、撮像装置4によって撮像される撮像画像が、リアルタイムに中継ユニット50の制御部30に送られる(ステップS1及びS2)。中継ユニット50の制御部30は、受け取った撮像画像を、端末装置40にリアルタイムに送る(ステップS11)。例えば、制御部30は、メモリに撮像画像を一時的に記憶させつつ、つまり、バッファに撮像画像を一時的に溜めつつ、撮像画像を端末装置40に送ってよい。そして、撮像画像の送信は、例えば、ストリーミングによる送信であってもよい。
 次いで端末装置40は、受け取った撮像画像をリアルタイムに表示部43に表示する(ステップS12)。端末装置40の利用者は、入力部42を用いて、表示部43に表示される撮像画像に加工を加える(ステップS13)。このとき利用者は、表示部43上で、撮像画像に対する加工の効果を確認しつつ加工を行うことができる。そして利用者は、端末装置40を操作して、撮像画像に加えた加工内容を中継ユニット50に送らせる。同時に端末装置40は、端末位置検出部44によって検出される自身の位置情報を中継ユニット50に送る。これにより、撮像画像に加えられ加工に関する情報である加工情報と端末装置40の位置情報とが、中継ユニット50の制御部30に送られる(ステップS14)。中継ユニット50への加工情報の送信は、上述のように利用者による入力操作によって実行されてもよく、端末装置40によって自動的に実行されてもよい。
 加工情報を受け取った制御部30は、バッファに溜められている撮像画像に、当該加工情報に基づいた加工処理を実施する(ステップS15)。本実施の形態では、制御部30は、バッファに溜められている撮像画像のうちで、当該加工情報に対応する撮像画像を、当該加工情報に基づき加工処理をする。なお、加工情報に対応する撮像画像とは、端末装置40で当該加工情報の加工が加えられた撮像画像と同一の撮像画像である。上記の同一とみなされる撮像画像には、他の加工が加えられていてもよい。なお、加工情報と撮像画像とが対応していなくてもよい。例えば、制御部30は、加工情報を受け取った後に撮像装置4から受け取る撮像画像に対して、当該加工情報に基づき加工処理をしてもよい。
 次いで制御部30は、撮影画像を加工した撮像依存画像を投影させるプロジェクタ10a~プロジェクタ10dを選定する。具体的には、制御部30は、ステップS14で受け取った端末装置40の位置情報と、メモリに記憶されているプロジェクタ10a~プロジェクタ10dの位置情報とに基づき、端末装置40と4つのプロジェクタ(プロジェクタ10a~プロジェクタ10d)との相対的な位置関係を求める(ステップS16)。なお、制御部30は、当該端末装置40の位置情報の受信後に、新たに端末装置40の位置情報を受信した場合、端末装置40の位置情報を更新してもよい。
 制御部30は、端末装置40の位置から近い位置にあるプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dの何れか一つ)を、加工処理済みの撮像依存画像を投影させるプロジェクタとして選定する(ステップS17)。このとき制御部30は、例えば、端末装置40から最も近い位置のプロジェクタ、つまり、端末装置40からの水平距離が最も小さいプロジェクタを選定してもよい。又は制御部30は、飛行体1と端末装置40との位置関係に基づき、飛行体1に対する端末装置40の方位を求めてもよい。そして制御部30は、飛行体1に対するプロジェクタ10a~プロジェクタ10dの方位のうちから飛行体1に対する端末装置40の方位に最も近い方位を選択し、選択した方位のプロジェクタを選定してもよい。つまり、端末装置40の位置から最も近い位置とは、水平距離に基づき選定された位置であっても、方位に基づき選定された位置であってもよい。例えば、端末装置40が図7に示すように、プロジェクタ10bに近い位置にある場合、制御部30は、プロジェクタ10bを選定する。
 なお、加工情報が加工内容の移動を含む場合、制御部30は、複数のプロジェクタ(プロジェクタ10a~プロジェクタ10dのうち二つ以上)を、加工処理済みの撮像依存画像を投影させるプロジェクタとして選定してもよい。例えば、加工内容Maが、図9及び図10に示されるような分割画像ia~分割画像idにわたってバルーン2の周囲をスクロールする場合、制御部30は全てのプロジェクタ10a~プロジェクタ10dを選択し、プロジェクタ10a~プロジェクタ10dのうちで加工内容を表示させる順番を決定してもよい。
 制御部30は選定したプロジェクタ10a~プロジェクタ10dに加工処理済みの撮像依存画像のデータを送り、飛行体1のバルーン2に投影させる(ステップS18)。これにより端末装置40の利用者は、バルーン2を見たとき、その視線の方向に加工処理済みの撮像依存画像を視認することができる。従って端末装置40の利用者が撮像画像に加えた変更を、当該利用者がバルーン2の外表面上で視認することができるため、エンターテインメントとしての飛行体1の演出効果を実現することが可能になる。
 なお、上述では、プロジェクションシステム100に1つの端末装置40が配置される例を説明した。しかしながら、複数の端末装置40が配置されてもよい。この場合制御部30は、複数の端末装置40それぞれから加工情報を受け取り、複数の端末装置40の加工情報に基づき撮像依存画像を加工してもよい。さらに制御部30は、複数の加工情報の全てを1つの撮像依存画像に反映してもよい。又は制御部30は、複数の加工情報を分割し、分割後の加工情報をそれぞれ、例えば、分割画像のような複数の撮像依存画像に反映してもよい。後者の場合、制御部30は、複数の端末装置40からそれぞれの位置情報を受け取り、各端末装置40に近い位置のプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dのいずれか一つ)に、当該端末装置40の加工情報を反映した撮像依存画像を投影させてもよい。
 また、プロジェクションシステム100による画像加工内容の投影動作の順序は、上述に限定されず、各処理の順序が変更されてもよい。例えば制御部30は、ステップS16及びS17の処理によって、加工情報を含む撮像依存画像を投影させるプロジェクタ10a~プロジェクタ10dを選定した後、ステップS15の処理を行い、選定したプロジェクタ10a~プロジェクタ10dが投影すべき撮像画像に加工処理を行ってもよい。これにより、複数のプロジェクタ10a~プロジェクタ10dが、分割画像ia~分割画像idのような互いに異なる画像を投影する場合、制御部30による効率的な処理が可能になる。
 [3.効果等]
 本開示の一態様において、プロジェクションシステム100は端末装置40と通信可能でなくてもよい。実施の形態に係るプロジェクションシステム100は、飛行体1と、投影装置10と、制御部30と、を備える。飛行体1は、バルーン2と、バルーン2を飛行させる飛行装置3と、撮像装置4とを有する。投影装置10は、撮像装置4が撮像する撮像画像に依存する撮像依存画像をバルーン2に投影する。制御部30は、撮像依存画像を投影装置10に投影させる。撮像依存画像は、撮像装置4の撮像画像自体及び撮像画像に加工を加えた画像の少なくとも一方であってもよい。撮像画像に加えられる加工は、いかなる加工であってもよい。
 上述の構成において、飛行体1の周囲の人は、飛行体1に搭載された撮像装置4の撮像依存画像を、飛行体1のバルーン2上で見て楽しむことができる。さらに飛行体の周囲の人は、飛行体の周囲の状態を飛行体からの目線で見ることができる、つまり自身の目線と異なる目線の画像を見て楽しむことができる。さらに撮像装置4が飛行体1の周囲の人を撮像する場合、飛行体1の周囲の人は、バルーン2上に映し出される自身の画像を見て楽しむことができる。よって飛行体1による特徴的な演出効果が実現される。なお、上述の構成において、投影装置10は飛行体1の外部に配置されてもよく、飛行体1に配置されてもよい。
 また、本開示の他の一態様において、実施の形態に係るプロジェクションシステム100は端末装置40と通信可能である。つまりプロジェクションシステム100は、端末装置40と通信する第一制御通信部21を備える。また第一制御通信部21は、端末装置40の端末通信部41を介して、端末装置40に入力された情報を受け取る。制御部30は、第一制御通信部21が受け取った情報に基づいて、撮像装置4の撮像画像を加工画像に加工し、加工画像を投影装置10に投影させる。上述の構成において、飛行体1の周囲の人は、端末装置40に情報を入力することによって、入力情報が反映された加工画像を、バルーン2上で見て楽しむことができる。例えば複数の端末装置40が複数の人によって取り扱われる場合、これらの人の間で、バルーン2に投影される加工画像を介したコミュニケーションが可能である。よって、飛行体1による様々な特徴的な演出効果が実現される。なお、本開示の他の一態様において、端末装置40の入力部42を介して撮像画像は加工されるが、本開示の一態様及び本開示の他の一態様において、投影装置10や飛行体1、中継ユニット50、操縦器1a等、端末装置40以外の装置で撮像画像が加工されてもよい。
 本開示の一態様及び他の一態様において、プロジェクションシステム100は、飛行体1に配置されて飛行体1の方位を検出する方位検出部7をさらに備える。また投影装置10は、複数のプロジェクタ(プロジェクタ10a~プロジェクタ10d)を有する。制御部30は、方位検出部7によって検出された飛行体1の方位情報から撮像依存画像が撮影された撮影方位を決定する。また制御部30は、飛行体1及びプロジェクタ10a~プロジェクタ10dの位置関係に基づき、飛行体1に対して撮影方位に対応する方位に位置するプロジェクタ10a~プロジェクタ10dのそれぞれに、撮像依存画像を投影させる。
 上記態様によれば、バルーン2には、各撮影方位に対応するプロジェクタ10a~プロジェクタ10dのそれぞれから、当該撮影方位の撮像依存画像が映し出される。これにより、飛行体1の周囲に人がいる場合、飛行体1の周囲の人と対向する位置のバルーン2の外表面に、飛行体1の周囲の人が映し出される。よって、飛行体1の周囲の人は、自身の画像を緩衝体上で見ることができる。よって、飛行体による演出効果が高まる。
 本開示の一態様及び他の一態様において、撮像装置4は、例えば360°の視野角等の広角な視野角を有する。制御部30は、撮像依存画像iを分割して分割画像ia~分割画像idを形成する。制御部30は、飛行体1の方位情報から分割画像ia~分割画像idのそれぞれの撮影方位を決定する。制御部30は、分割画像ia~分割画像idとプロジェクタ10a~プロジェクタ10dとを、分割画像ia~分割画像idの撮影方位とプロジェクタ10a~プロジェクタ10dの位置とに基づいてそれぞれ対応づけ、プロジェクタ10a~プロジェクタ10dのそれぞれに、対応する分割画像ia~分割画像idのそれぞれを投影させる。このとき、制御部30は、撮像装置4の視野角に沿って撮像依存画像iを分割してもよい。
 ここで、360°の視野角の撮像依存画像のように、広角な視野角の撮像依存画像を、視野角に沿って展開すると、かなりの横長な撮像依存画像が形成される。このような撮像依存画像を投影するには、スクリーンとなるバルーン2も広い幅を有することが必要になる。上述の構成では、撮像依存画像が視野角に沿って分割されるため、バルーン2が充分に横長でない場合でも、バルーン2の外表面の広い領域にわたって撮像依存画像が映し出されることが可能である。つまり撮像依存画像がバルーン2の形状及び寸法によって受ける影響を低減できる。さらに、広い視野角の1つの画像ではなくその分割画像を用いて投影することによって、曲面を含むバルーン2に映し出された画像の変形及び欠落が抑えられる。よって、広い視野角の撮像画像及びその加工画像の全体が明瞭にバルーン2に映し出されることが可能である。
 また上記態様において、飛行体1に対して、分割画像ia~分割画像idの撮影方位に対応する方位に位置するプロジェクタ10a~プロジェクタ10dに、分割画像ia~分割画像idを投影させる。これにより飛行体1の周囲の人を映した分割画像ia~分割画像idは、飛行体1の周囲の人と対向する位置のバルーン2の外表面に映し出される。したがって飛行体1の周囲の人は、自身の画像をバルーン2上で見て楽しむことができる。
 また、本開示の一態様及び他の一態様において、第二制御通信部22、制御部30及び投影装置10は、飛行体1から離れた位置に配置される。第二制御通信部22は、飛行体1の飛行体通信部5から撮像依存画像を受け取り制御部30に送る。上述の構成において、いかなる構成のバルーン2に対しても、投影装置10は、撮像装置4の撮像画像及びその加工画像を、バルーン2の外表面に外側から投影して映し出すことができる。例えばバルーン2が光を透過させる構成を有するか否かに関わらず、投影装置10は、バルーン2への撮像依存画像の投影が可能である。また、飛行体1に搭載されない投影装置10は、飛行体及びその飛行に影響を与えないため、様々な投影装置の適用を可能にし、飛行体1の軽量化も可能にする。
 本開示の一態様及び他の一態様において、飛行装置3は、複数のロータユニット3aを有し、バルーン2は、複数のロータユニット3aを覆う袋状体である。上述の構成において、バルーン2は袋状体であるため、ガスを充填できる。またガスとして空気よりも比重が小さいガスを用いることで、飛行装置3は浮力を有することができるため、飛行装置3の消費エネルギーの低減が可能である。また、ロータユニット3aによって構成される飛行装置3は、飛行体1の空中停止、微小な移動等の動作が容易になる。また複数のロータユニット3aが設けられることにより、安定した姿勢での飛行体1の移動、空中停止等の種々の動作が可能になる。
 本開示の他の一態様において、制御部30は、端末装置40の位置情報と、複数のプロジェクタ10a~プロジェクタ10dの位置情報とに基づき、端末装置40に近い位置のプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dの何れか一つ)に、加工画像を投影させる。上述の構成において、端末装置40に近い位置のプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dの何れか一つ)によって投影される加工画像は、端末装置40の利用者から容易に見ることができる。よって、端末装置40の利用者は、バルーン2上の加工画像を確認しつつ、端末装置40を用いて当該画像を加工することができる。
 本開示の他の一態様において、制御部30は、飛行体1に対する端末装置40の方位である端末装置方位と、飛行体に対する複数のプロジェクタ10a~プロジェクタ10dの方位である投影装置方位とに基づき、端末装置方位に近い投影装置方位のプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dの何れか一つ)に、加工画像を投影させる。上述の構成において、飛行体1に対して端末装置40に近い方位のプロジェクタは、端末装置40の利用者がバルーン2を見る方向と同様の方向に、加工画像を投影する。よって端末装置40の利用者は、バルーン2上の加工画像を自身の正面付近で常に確認することができる。
 本開示の他の一態様において、制御部30は、撮像装置4の撮像画像を端末装置40に送る。上述の構成において、端末装置40は、表示部43を備えていれば、表示部43に受け取った撮像画像を表示することができる。よって、端末装置40の利用者は、表示部43に表示される画像を見つつ、端末装置40に加工情報等の情報を入力することができる。入力情報は、リアルタイムに自動的に制御部30に送られてもよく、端末装置40の利用者の指令に従い制御部30に送られてもよい。後者の場合、例えば端末装置40の利用者は、表示部43上で加工画像への入力情報の効果を確認した後に、情報を制御部30に送ることができる。
 また、本開示の一態様及び他の一態様による飛行体1はそれぞれ、上述の一態様及び他の一態様によるプロジェクションシステム100に備えられる飛行体である。つまり飛行体1は、撮像装置4と、バルーン2と、バルーン2を飛行させる飛行装置3と、を備える。バルーン2には、撮像装置4が撮像する撮像画像に依存する撮像依存画像が投影される。上述の構成において、飛行体1を、飛行体1が備える撮像装置4による撮像画像及びその加工画像を映し出すためのスクリーンとして使用することが可能である。
 また、本開示の一態様及び他の一態様による飛行体システム101はそれぞれ、上述の一態様及び他の一態様によるプロジェクションシステム100に備えられる飛行体1及び制御部30を備える。つまり飛行体システム101は、飛行体1と制御部30とを備える。飛行体1は、撮像装置4と、撮像装置4が撮像する撮像画像に依存する撮像依存画像が投影されるバルーン2と、バルーン2を飛行させる飛行装置3と、を有する。制御部30は、撮像依存画像をバルーン2へ投影させるための信号を投影装置10に出力する。上述の構成において、飛行体システム101と、汎用的な投影装置とを用意し、飛行体システム101の撮像画像及びその加工画像を汎用的な投影装置に投影させるように構成することによって、プロジェクションシステム100と同様の構成及び機能が実現可能である。よって、飛行体システム101は、飛行体システム101専用の投影装置10を必要とせず、汎用性を有する。
 また、本開示の一態様及び他の一態様において、プロジェクション方法は、撮像装置4を有する飛行体1のバルーン2へ、撮像装置4の撮像依存画像を投影装置10に投影させる。
 さらに、本開示の一態様及び他の一態様において、プロジェクション方法は、撮像装置4の撮像依存画像を、無線通信を介して飛行体1から投影装置10に送る。
 また、本開示の一態様及び他の一態様において、プロジェクション方法は、複数のプロジェクタ10a~プロジェクタ10dと飛行体1との位置関係に基づき、複数のプロジェクタ10a~プロジェクタ10dのうちから、飛行体1に対して撮像装置4の撮像画像の撮影方位に対応する方位に位置するプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dの何れか一つ)を決定し、決定したプロジェクタに、撮影方位の撮像画像及びその加工画像を投影させる。
 また、本開示の他の一態様及び他の一態様において、プロジェクション方法は、端末装置40から受け取る情報により、飛行体1の撮像装置4の撮像画像を加工画像に加工し、投影装置10に、当該加工画像を飛行体1のバルーン2へ投影させる。
 さらに、本開示の他の一態様及び他の一態様において、プロジェクション方法は、撮像装置4の撮像画像及びその加工画像の少なくとも一方を、無線通信を介して飛行体1から投影装置10に送り、端末装置40からの情報を、無線通信を介して取得する。なお、加工画像を、無線通信を介して飛行体1から投影装置10に送る構成は、以下のプロジェクションシステムの変形例の説明で、述べる。
 また、本開示の他の一態様及び他の一態様において、プロジェクション方法は、複数のプロジェクタ(プロジェクタ10a~プロジェクタ10d)と端末装置40との位置関係に基づき、端末装置40に近い位置のプロジェクタ(例えばプロジェクタ10a~プロジェクタ10dの何れか一つ)に、入力情報を反映した加工画像を投影させる。
 本開示の一態様及び他の一態様における上記方法によって、本開示の一態様又は他の一態様によるプロジェクションシステム100の上記効果と同様の効果が得られる。なお、上記の本開示の一態様及び他の一態様における方法は、MPU(Micro Processing Unit)、CPU(Central Processing Unit)、プロセッサ、LSI(Large Scale Integration)などの回路、IC(Integrated Circuit)カード又は単体のモジュール等によって、実現されてもよい。
 [他の実施の形態]
 以上のように、本開示における技術の例示として、上記の実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態及び下記の他の実施形態で説明する各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
 実施の形態に係るプロジェクションシステム100では、制御部30は、飛行体1及び投影装置10と別に設けられた中継ユニット50に配置されていたが、これに限定されない。制御部30は、投影装置10に配置されてもよく、飛行体1に配置されてもよい。図12には、制御部30が投影装置10に配置される一例が示され、図13には、制御部30が飛行体1に配置される一例が示されている。なお、図12は、実施の形態の変形例に係るプロジェクションシステムの概略的な構成を示すブロック図である。図13は、実施の形態の別の変形例に係るプロジェクションシステムの概略的な構成を示すブロック図である。
 図12の例では、制御部30、第一制御通信部21及び第二制御通信部22が、プロジェクタ10a~プロジェクタ10dにそれぞれ搭載される。制御部30は、投影装置10の投影制御を行ってもよく、投影装置10の投影制御を行わなくてもよい。第二制御通信部22は、飛行体1の飛行体通信部5と無線通信する。第一制御通信部21は、端末装置40と通信する。制御部30及び第二制御通信部22の動作は、実施の形態に係るプロジェクションシステム100の場合と同様である。上述の構成により、中継ユニット50が不要になるため、プロジェクションシステムの構成の簡素化が可能になる。中継ユニット50の入力部51は、プロジェクタ10a~プロジェクタ10dにそれぞれ配置されてよく、プロジェクタ10a~プロジェクタ10dの入力装置の一部を構成してもよい。
 図13の例では、制御部30、第一制御通信部21及び第二制御通信部(第三通信部)22が、飛行体1に搭載される。制御部30は、飛行体1の飛行体制御部6が行う飛行制御を行ってもよく、飛行体制御部6が行う飛行制御を行わなくてもよい。投影装置通信部11はプロジェクタ10a~プロジェクタ10dにそれぞれ配置される。投影装置通信部11は、飛行体1の第二制御通信部22と無線通信し、第二制御通信部22から撮像装置4の撮像画像及びその加工画像を含む撮像依存画像等を受け取り、投影装置10に導入する。これにより飛行体1の制御部30は、第二制御通信部22及び投影装置通信部11を介して、プロジェクタ10a~プロジェクタ10dのそれぞれと無線通信する。第一制御通信部21は端末装置40と通信する。第二制御通信部22及び投影装置通信部11間の無線通信には、実施の形態に係るプロジェクションシステム100の飛行体通信部5及び第二制御通信部22間の無線通信と同様の無線通信が適用可能である。上述の構成により中継ユニット50が不要になるため、プロジェクションシステムの構成の簡素化が可能になる。また制御部30を、投影装置10に配置する必要がない。さらに制御部30を、飛行体1以外の装置で、かつ投影装置10と別個の装置にも配置する必要がない。このため、プロジェクションシステムにおける飛行体1以外の構成要素の簡素化が可能になる。また投影装置10として、汎用的な投影装置を適用できる。中継ユニット50の入力部51は、飛行体1の操縦器1aに配置されてもよく、飛行体1に配置されてもよい。操縦器1aの入力部51に入力された情報は、飛行体通信部5を介して飛行体1に送られる。なお、第一制御通信部21及び第二制御通信部22は、飛行体通信部5の一部を構成してもよく、飛行体通信部5と別個に設けられてもよい。
 実施の形態に係るプロジェクションシステム100では、撮像依存画像に対する加工情報の反映は、中継ユニット50の制御部30が実施していたが、これに限定されるものでなく、飛行体1が実施してもよく、投影装置10が実施してもよい。
 実施の形態に係るプロジェクションシステム100では、飛行体1の方位、及び飛行体1と投影装置10との位置関係、並びに、飛行体1と端末装置40との位置関係の算出は、制御部30が実施していたが、これに限定されるものでない。飛行体1に関連する方向及び位置等の算出は、飛行体1の飛行体制御部6が実施してもよい。
 実施の形態に係るプロジェクションシステム100では、1つの飛行体1に対して、4つのプロジェクタ(プロジェクタ10a~プロジェクタ10d)が配置されていたが、プロジェクタの数量はこれに限定されず、1つ以上であればよい。
 実施の形態に係るプロジェクションシステム100では、1つの飛行体1のバルーン2に、当該飛行体1の1つの撮像装置4の撮像画像の撮像依存画像が投影されていたが、これに限定されない。1つの飛行体1のバルーン2に、当該飛行体1に搭載された複数の撮像装置の撮像画像の撮像依存画像が投影されてもよい。又は、2つ以上の飛行体1のバルーン2に、当該飛行体1の少なくとも1つに搭載された撮像装置の撮像画像の撮像依存画像が投影されてもよい。複数の撮像装置による複数の撮像依存画像が投影される場合、複数の撮像依存画像が個別に投影されてもよく、複数の撮像依存画像が結合されて投影されてもよい。
 また実施の形態にかかるプロジェクションシステム100では、位置検出部8により飛行体1の位置情報を検出可能であるため、投影装置10と飛行体1との距離に応じて投影する撮像依存画像のフォーカスや大きさを変えてもよい。これにより演出効果をさらに高める事ができる。
 実施の形態に係るプロジェクションシステム100の飛行体1では、4つのロータユニット3aが1つのバルーン2に配置されていたが、これに限定されない。1つのバルーン2に、1つ以上のロータユニット3aが配置されてよい。
 実施の形態に係るプロジェクションシステム100の飛行体1では、4つのロータユニット3a、つまり飛行装置3がバルーン2に覆われていたが、これに限定されない。バルーン等の緩衝体は、飛行装置3を覆わなくてもよく、例えば、飛行装置3に直接的又は間接的に取り付けられる又は配置されてもよい。また、緩衝体が飛行装置3を覆う構成は、実施の形態のように緩衝体が飛行装置3の全体を覆う構成、及び、緩衝体が飛行装置3の一部を覆う構成を含み得る。
 また実施の形態では外装体として緩衝体(バルーン2)を用いることにより、飛行体1が落下した場合に、人への衝撃を低減できる。しかし、外装体は緩衝体に限定されるものではなく、硬い膜によって形成されていてもよい。このような外装体であっても、実施の形態と同様に高い演出効果を実現できる。
 また実施の形態では、プロジェクションシステム100が端末装置40と通信可能であるため、飛行体1の周囲の人は、端末装置40を介して撮像依存画像を加工することができ、より演出効果を高める事ができる。しかしプロジェクションシステム100が端末装置40と通信可能で無い場合でも、つまり端末装置40を介して撮像依存画像を加工することが出来ない場合でも、飛行体1から撮影した画像をバルーン2に投影することで、演出効果を得る事が出来る。また端末装置40以外の装置(例えば中継装置50や操縦器1a、飛行体1)を介して撮像依存画像を加工することも出来る。
 以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面及び詳細な説明を提供した。したがって、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲又はその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 以上説明したように、本開示は、飛行体へ画像を投影する演出に有用である。
1 飛行体
1a 操縦器
2 バルーン(緩衝体、外装体)
3 飛行装置
3a ロータユニット
3c プロペラ
3d モータ
4 撮像装置
5 飛行体通信部(第一通信部)
6 飛行体制御部
7 方位検出部
8 位置検出部
10 投影装置
10a,10b,10c,10d プロジェクタ
11 投影装置通信部
21 第一制御通信部(第四通信部)
22 第二制御通信部(第二通信部、第三通信部)
30 制御部
40 端末装置
41 端末通信部
100 プロジェクションシステム
101 飛行体システム

Claims (16)

  1.  外装体と、前記外装体を飛行させる飛行装置と、画像を撮像する撮像装置と、を有する飛行体と、
     前記画像に依存する撮像依存画像を前記外装体に投影する投影装置と、
     前記撮像依存画像を前記投影装置に投影させる制御部と、を備える
     プロジェクションシステム。
  2.  前記飛行体に配置される第一通信部と、
     前記第一通信部と通信し、前記第一通信部から前記画像のデータを受け取り、前記制御部に送る第二通信部とをさらに備え、
     前記第二通信部、前記制御部及び前記投影装置は、前記飛行体から離れた位置に配置される
     請求項1に記載のプロジェクションシステム。
  3.  前記飛行体に配置される第一通信部と、
     前記第一通信部と通信し、前記第一通信部から前記画像のデータを受け取り、前記投影装置に送る第三通信部とをさらに備え、
     前記第三通信部及び前記投影装置は、前記飛行体から離れた位置に配置され、
     前記制御部は、前記飛行体に配置され、前記第一通信部及び前記第三通信部を介して前記投影装置と通信する
     請求項1に記載のプロジェクションシステム。
  4.  前記飛行体は、前記飛行体の方位を検出する方位検出部をさらに有し、
     前記投影装置は、異なる位置に配置された複数のプロジェクタを含み、
     前記制御部は、
     前記方位検出部によって検出された前記飛行体の方位情報から前記撮像依存画像が撮影された撮影方位を決定し、
     前記飛行体及び前記複数のプロジェクタの位置関係に基づき、前記飛行体に対して前記撮影方位に対応する方位に位置する前記複数のプロジェクタのそれぞれに、前記撮像依存画像を投影させる
     請求項1~3のいずれか一項に記載のプロジェクションシステム。
  5.  前記撮像装置は、広角な視野角を有し、
     前記制御部は、
      前記撮像依存画像を分割して複数の分割画像を形成し、
      前記飛行体の前記方位情報から前記複数の分割画像の撮影方位をそれぞれ決定し、
      前記複数の分割画像の前記撮影方位と前記複数のプロジェクタの前記飛行体に対する位置とに基づいて、前記複数の分割画像と前記複数のプロジェクタとをそれぞれ対応づけ、前記複数のプロジェクタのそれぞれに、対応する複数の分割画像のそれぞれを投影させる、
     請求項4に記載のプロジェクションシステム。
  6.  前記撮像装置は、360°の視野角を有し、
     前記制御部は、前記撮像装置の前記視野角に応じて前記撮像依存画像を分割して前記複数の分割画像を形成する
     請求項5に記載のプロジェクションシステム。
  7.  前記撮像依存画像は、前記撮像装置が撮像する前記画像自体及び前記画像に変更を加えた加工画像の少なくとも一方である
     請求項1~6のいずれか一項に記載のプロジェクションシステム。
  8.  前記飛行装置は、プロペラと前記プロペラを駆動するモータとをそれぞれ有する複数のロータユニットを有し、
     前記外装体は、前記複数のロータユニットを覆う袋状体である
     請求項1~7のいずれか一項に記載のプロジェクションシステム。
  9.  情報の入力を受け付ける端末装置と通信する第四通信部をさらに備え、
     前記制御部は、前記第四通信部を介して前記端末装置から前記情報を受け取り、前記情報に基づき生成された前記撮像依存画像を前記投影装置に投影させる、
     請求項1~8のいずれか一項に記載のプロジェクションシステム。
  10.  前記投影装置は、異なる位置に配置された複数のプロジェクタを含み、
     前記制御部は、
     前記端末装置から、前記端末装置の位置情報を受け取り、
     前記端末装置及び前記複数の投影装置の位置関係に基づき、前記端末装置に近い位置の前記投影装置に、前記加工画像を投影させる
     請求項9に記載のプロジェクションシステム。
  11.  撮像装置と、
     前記撮像装置が撮像する画像に依存する撮像依存画像が投影される外装体と、
     前記外装体を飛行させる飛行装置と、を備える
     飛行体。
  12.  撮像装置と、前記撮像装置が撮像する画像に依存する撮像依存画像が投影される外装体と、前記外装体を飛行させる飛行装置と、を有する飛行体と、
     前記撮像依存画像を前記外装体へ投影させるための信号を出力する制御部と、を備える
     飛行体システム。
  13.  外装体と、前記外装体を飛行させる飛行装置と、撮像装置と、を有する飛行体の前記外装体に、画像を投影するプロジェクション方法であって、
     前記撮像装置が撮像する画像に依存する撮像依存画像を、投影装置を用いて前記外装体へ投影させる
     プロジェクション方法。
  14.  前記画像のデータは、無線通信を介して前記飛行体から前記投影装置に送信される
     請求項13に記載のプロジェクション方法。
  15.  前記飛行体の方位情報を検出し、
     前記方位情報から前記撮像依存画像が撮影された撮影方位を決定し、
     前記投影装置に含まれる異なる位置に配置された複数のプロジェクタと前記飛行体との位置関係に基づき、前記複数のプロジェクタから、前記飛行体に対して前記撮影方位に対応する方位に位置するプロジェクタを決定し、
     決定された前記プロジェクタに、前記撮影方位の前記撮像依存画像を投影させる
     請求項13または14に記載のプロジェクション方法。
  16.  前記投影装置は、異なる位置に配置された複数のプロジェクタを含み、
     端末装置から受け取る情報により前記撮像装置が撮像する前記画像を前記撮像依存画像に加工し、
     前記端末装置から、前記端末装置の位置情報を受け取り、
     前記端末装置及び前記複数のプロジェクタの位置関係に基づき、前記端末装置に近い位置の前記プロジェクタに、前記撮像依存画像を投影させる
     請求項15に記載のプロジェクション方法。
PCT/JP2017/014334 2016-10-14 2017-04-06 プロジェクションシステム、プロジェクション方法、飛行体システム及び飛行体 WO2018070067A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17859906.4A EP3506625B1 (en) 2016-10-14 2017-04-06 Projection system, projection method, flying object system, and flying object
JP2018544678A JP6741919B2 (ja) 2016-10-14 2017-04-06 プロジェクションシステム、プロジェクション方法、飛行体システム及び飛行体
US16/371,170 US10780990B2 (en) 2016-10-14 2019-04-01 Projection system, projection method, flying object system, and flying object

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-202790 2016-10-14
JP2016202790 2016-10-14
JP2016-231896 2016-11-29
JP2016231896 2016-11-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/371,170 Continuation US10780990B2 (en) 2016-10-14 2019-04-01 Projection system, projection method, flying object system, and flying object

Publications (1)

Publication Number Publication Date
WO2018070067A1 true WO2018070067A1 (ja) 2018-04-19

Family

ID=61905309

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/014334 WO2018070067A1 (ja) 2016-10-14 2017-04-06 プロジェクションシステム、プロジェクション方法、飛行体システム及び飛行体

Country Status (4)

Country Link
US (1) US10780990B2 (ja)
EP (1) EP3506625B1 (ja)
JP (1) JP6741919B2 (ja)
WO (1) WO2018070067A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161701A1 (en) * 2019-02-10 2020-08-13 Eitan Lavie A teleconferencing device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11511842B2 (en) * 2018-02-20 2022-11-29 Georgia Tech Research Corporation Miniature autonomous robotic blimp

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418613A (ja) * 1990-02-19 1992-01-22 Dentsu Purotsukusu:Kk 自動追尾投影装置
JP2005122384A (ja) * 2003-10-15 2005-05-12 Seiko Epson Corp スクリーンシステム
JP2005525585A (ja) * 2002-01-11 2005-08-25 リック,ジューゲン 航空機へ光放射を再現するための装置および方法
JP2011245925A (ja) * 2010-05-25 2011-12-08 Sony Corp 気球、および気球制御方法
JP2015130274A (ja) * 2014-01-07 2015-07-16 株式会社ライトボーイ バルーン型照明装置、バルーン型投光機
WO2016059835A1 (ja) * 2014-10-17 2016-04-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05294288A (ja) 1992-04-18 1993-11-09 Kaoru Yoshimura 屋外広告方式
JPH08314401A (ja) 1995-05-16 1996-11-29 Sony Corp ディスプレイ装置
JP2002006784A (ja) 2000-06-20 2002-01-11 Mitsubishi Electric Corp 浮遊型ロボット
GB2403088A (en) * 2003-06-19 2004-12-22 Equipe Electronics Ltd Dynamic image projector
JP2006180022A (ja) 2004-12-21 2006-07-06 Konica Minolta Holdings Inc 画像処理システム
JP4148252B2 (ja) 2005-10-07 2008-09-10 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP5178543B2 (ja) 2009-01-14 2013-04-10 キヤノン株式会社 Tv会議システム及びその制御方法
US20100319226A1 (en) * 2009-06-17 2010-12-23 Demir Oral Tethered Airborne Advertising system
JP5473536B2 (ja) 2009-10-28 2014-04-16 京セラ株式会社 プロジェクタ機能付携帯撮像装置
JP2013545448A (ja) 2010-10-20 2013-12-26 ジェノセア バイオサイエンシーズ, インコーポレイテッド クラミジア抗原及びその使用
JP2015022017A (ja) 2013-07-16 2015-02-02 株式会社リコー 情報処理装置、情報処理方法
US9428056B2 (en) * 2014-03-11 2016-08-30 Textron Innovations, Inc. Adjustable synthetic vision

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0418613A (ja) * 1990-02-19 1992-01-22 Dentsu Purotsukusu:Kk 自動追尾投影装置
JP2005525585A (ja) * 2002-01-11 2005-08-25 リック,ジューゲン 航空機へ光放射を再現するための装置および方法
JP2005122384A (ja) * 2003-10-15 2005-05-12 Seiko Epson Corp スクリーンシステム
JP2011245925A (ja) * 2010-05-25 2011-12-08 Sony Corp 気球、および気球制御方法
JP2015130274A (ja) * 2014-01-07 2015-07-16 株式会社ライトボーイ バルーン型照明装置、バルーン型投光機
WO2016059835A1 (ja) * 2014-10-17 2016-04-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161701A1 (en) * 2019-02-10 2020-08-13 Eitan Lavie A teleconferencing device
CN113424520A (zh) * 2019-02-10 2021-09-21 麦哲普有限公司 电信会议装置
US11792363B2 (en) 2019-02-10 2023-10-17 Myzeppi Ltd. Teleconferencing device

Also Published As

Publication number Publication date
JP6741919B2 (ja) 2020-08-19
EP3506625A1 (en) 2019-07-03
JPWO2018070067A1 (ja) 2019-08-29
EP3506625B1 (en) 2021-06-09
US10780990B2 (en) 2020-09-22
EP3506625A4 (en) 2019-08-28
US20190225350A1 (en) 2019-07-25

Similar Documents

Publication Publication Date Title
US9886033B2 (en) System for piloting a drone in immersion
US10534183B2 (en) Head-mounted display
CN108292141B (zh) 用于目标跟踪的方法和系统
US10796662B2 (en) User interface display composition with device sensor/state based graphical effects
US10109224B1 (en) Methods and devices for using aerial vehicles to create graphic displays and reconfigurable 3D structures
JP6835871B2 (ja) 飛行制御方法、無人航空機、飛行システム、プログラム、及び記録媒体
KR101860999B1 (ko) 정보 표출용 드론 및 이를 이용한 시스템.
JP6523233B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
US11176747B2 (en) Information processing apparatus and information processing method
EP3832605B1 (en) Method and device for determining potentially visible set, apparatus, and storage medium
US20220270277A1 (en) Computing a point cloud from stitched images
WO2016059835A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20230360343A1 (en) Method for observing virtual environment, device, and storage medium
CN111480194A (zh) 信息处理装置、信息处理方法、程序、显示系统和移动物体
WO2018070067A1 (ja) プロジェクションシステム、プロジェクション方法、飛行体システム及び飛行体
JP2016206443A (ja) 飛翔体を用いた発光点図形パターン表示システム,発光点図形パターン表示方法ならびに該システムおよび方法に用いる飛翔体
US10912916B2 (en) Electronic display adjustments to mitigate motion sickness
JP2017143409A (ja) 移動端末装置およびプログラム
EP3352041A1 (en) System for providing a visual aerial presentation
JP7391053B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN111052726A (zh) 用于自动检测和校正图像中的亮度变化的系统和方法
WO2018230539A1 (ja) 案内システム
JP2019114194A (ja) 仮想空間を提供するためにコンピュータで実行されるプログラム、方法、およびプログラムを実行するための情報処理装置
US20230252691A1 (en) Passthrough window object locator in an artificial reality system
US20200054960A1 (en) Event Staging System And Event Staging Program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17859906

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018544678

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2017859906

Country of ref document: EP

Effective date: 20190328

NENP Non-entry into the national phase

Ref country code: DE