JP2017111254A - Information providing system, information providing method, and information providing program - Google Patents

Information providing system, information providing method, and information providing program Download PDF

Info

Publication number
JP2017111254A
JP2017111254A JP2015244573A JP2015244573A JP2017111254A JP 2017111254 A JP2017111254 A JP 2017111254A JP 2015244573 A JP2015244573 A JP 2015244573A JP 2015244573 A JP2015244573 A JP 2015244573A JP 2017111254 A JP2017111254 A JP 2017111254A
Authority
JP
Japan
Prior art keywords
projection
content
information providing
information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015244573A
Other languages
Japanese (ja)
Inventor
淳一 高田
Junichi Takada
淳一 高田
健士 森田
Takeshi Morita
健士 森田
将人 久根崎
Masahito Kunezaki
将人 久根崎
一海 新
Kazumi Arata
一海 新
愛弓 仙波
Ayumi Semba
愛弓 仙波
貴之 小磯
Takayuki Koiso
貴之 小磯
健司 志賀
Kenji Shiga
健司 志賀
千咲 岡田
Chisaki Okada
千咲 岡田
浩之 平古場
Hiroyuki Hirakoba
浩之 平古場
龍史 小具
Tatsushi Ogu
龍史 小具
与志雄 能瀬
Yoshio Nose
与志雄 能瀬
志津馬 中
Shizuma Naka
志津馬 中
健創 藤本
Kenso Fujimoto
健創 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Airlines Co Ltd
Mizuho Information and Research Institute Inc
Original Assignee
Japan Airlines Co Ltd
Mizuho Information and Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Airlines Co Ltd, Mizuho Information and Research Institute Inc filed Critical Japan Airlines Co Ltd
Priority to JP2015244573A priority Critical patent/JP2017111254A/en
Publication of JP2017111254A publication Critical patent/JP2017111254A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information providing system, information providing method, and information providing program for providing information by specifying and projecting a content according to the situation of a movable body.SOLUTION: There is used a projection support server 20 comprising a control part 21 that controls a content to be projected onto an airframe AF by using a projector 10. The control part 21 specifies the attribute of the airframe AF, specifies a content to be projected according to the attribute, and outputs instructions for projecting the content onto the airframe AF by using the projector 10.SELECTED DRAWING: Figure 1

Description

本発明は、移動体を用いて情報提供を行なうための情報提供システム、情報提供方法及び情報提供プログラムに関する。   The present invention relates to an information providing system, an information providing method, and an information providing program for providing information using a mobile object.

プロジェクタ等の投影装置を用いて、建物や物体、あるいは空間などに対して映像を映し出すオブジェクトマッピング技術が検討されている。この場合、単に、プロジェクション(投影)だけではなく、投影する対象に映像を張り合わせるマッピングを行なうことにより、投影対象に映像を重ね合わせる(例えば、特許文献1を参照。)。この文献に記載の技術においては、任意形状の被照射物体を高い精度で照射光によってコーティングを行なう。具体的には、照明制御装置は、被照射物体の形状に合わせてコーティング光の輪郭をカットするように照射光信号を補正する。そして、被照射物体の原点位置と照射光投影部との位置関係に応じて、コーティング光の輪郭を補正する。   An object mapping technique for projecting an image on a building, an object, a space, or the like using a projection device such as a projector has been studied. In this case, not only the projection (projection) but also the mapping is performed such that the video is superimposed on the object to be projected, thereby superimposing the video on the projection target (see, for example, Patent Document 1). In the technique described in this document, an object to be irradiated having an arbitrary shape is coated with irradiation light with high accuracy. Specifically, the illumination control device corrects the irradiation light signal so as to cut the contour of the coating light in accordance with the shape of the irradiated object. Then, the contour of the coating light is corrected according to the positional relationship between the origin position of the irradiated object and the irradiation light projection unit.

また、被投影物が形状変化や移動等をしても、被投影物の表面にテクスチャをマッピングする技術も検討されている(例えば、特許文献2を参照。)。この文献に記載の技術においては、プロジェクションマッピング装置の画像処理装置は、電子カメラによって撮像された被投影物の像を含む画像を入力する。この場合、入力された画像を電子カメラの座標系から表示画面の座標系に座標変換し、変換された画像のうち被投影物の像の閉領域を抽出する。そして、抽出された閉領域にオブジェクトをマッピングし、オブジェクトを含む画面の映像信号を生成する。   Further, a technique for mapping a texture on the surface of the projection object even when the projection object undergoes a shape change, movement, or the like has been studied (see, for example, Patent Document 2). In the technique described in this document, an image processing apparatus of a projection mapping apparatus inputs an image including an image of a projection object captured by an electronic camera. In this case, the input image is subjected to coordinate conversion from the coordinate system of the electronic camera to the coordinate system of the display screen, and a closed region of the image of the projection object is extracted from the converted image. Then, an object is mapped to the extracted closed region, and a video signal of a screen including the object is generated.

また、イベント等において、プロジェクションマッピング技術により、航空機の機体にコンテンツを投影する場合もある(例えば、非特許文献1を参照。)。この文献に記載の技術においては、日本航空機製造の国産双発ターボプロップ旅客機「YS−11」に様々なデザインが投影されている。   Also, in an event or the like, content may be projected onto the aircraft body by a projection mapping technique (see, for example, Non-Patent Document 1). In the technology described in this document, various designs are projected on a domestic twin-engine turboprop passenger aircraft “YS-11” manufactured by Japanese aircraft.

特開2009−49007号公報JP 2009-49007 A 特開2013−192189号公報JP 2013-192189 A

Flight Liner(フライトライナー)、「1日限りYS−11の特別塗装機出現」、[online]、株式会社Madison Jet 6Quetz、[平成27年10月26日検索]、インターネット<http://flightliner.jp/news/28693.html>Flight Liner, "Appearance of YS-11 special paint machine for one day only", [online], Madison Jet 6Quetz, Inc., [October 26, 2015 search], Internet <http: // flightliner. jp / news / 28693.html>

プロジェクションマッピングにおいては、予定された投影対象(建物やイベント会場に設置された航空機等)に対して、予定された映像の投影が行なわれる。従って、状況に応じて、投影対象やコンテンツを変更することはない。特に、投影対象が移動体である場合、移動体の状況に応じたコンテンツを提供することは想定されていなかった。   In projection mapping, a projected image is projected onto a scheduled projection target (such as an aircraft installed in a building or an event venue). Therefore, the projection target and content are not changed according to the situation. In particular, when the projection target is a moving body, it has not been assumed to provide content according to the state of the moving body.

本発明は、上述の課題に鑑みてなされたものであり、この目的は、移動体の状況に応じて、コンテンツを特定して投影することにより、情報提供を行なうための情報提供システム、情報提供方法及び情報提供プログラムを提供することにある。   The present invention has been made in view of the above-described problems. An object of the present invention is to provide an information providing system and an information providing system for providing information by specifying and projecting content according to the situation of a moving object. It is to provide a method and an information providing program.

(1)上記課題を解決するための情報提供システムにおいては、投影装置を用いて、移動体に投影するコンテンツを制御する制御部を備える。そして、前記制御部が、移動体の属性を特定し、前記属性に応じて、投影するコンテンツを特定し、前記コンテンツを、投影装置を用いて前記移動体に対して投影するための指示を出力する。これにより、移動体の属性を考慮して、情報提供を行なうことができる。   (1) An information providing system for solving the above problems includes a control unit that controls content to be projected onto a moving body using a projection device. And the said control part specifies the attribute of a mobile body, specifies the content to project according to the said attribute, and outputs the instruction | indication for projecting the said content with respect to the said mobile body using a projection apparatus To do. Thereby, information can be provided in consideration of the attribute of the moving object.

(2)上記情報提供システムにおいて、前記移動体の属性として、前記移動体の閲覧者を特定し、前記閲覧者に基づいてコンテンツを特定することが好ましい。これにより、移動体の閲覧者を考慮して、情報提供を行なうことができる。   (2) In the information providing system, it is preferable that a viewer of the mobile object is specified as an attribute of the mobile object, and content is specified based on the viewer. Thereby, information can be provided in consideration of the viewer of the mobile object.

(3)上記情報提供システムにおいて、前記移動体の属性として、前記移動体の停止位置を特定し、前記停止位置に基づいてコンテンツを特定することが好ましい。これにより、移動体の停止位置に近い閲覧者を考慮して、情報提供を行なうことができる。   (3) In the information providing system, it is preferable that the stop position of the mobile object is specified as the attribute of the mobile object, and the content is specified based on the stop position. Thereby, information can be provided in consideration of a viewer close to the stop position of the moving body.

(4)上記情報提供システムにおいて、前記移動体の属性として、前記移動体の種類を特定し、前記種類に基づいてコンテンツを特定することが好ましい。これにより、移動体の種類を考慮して、情報提供を行なうことができる。   (4) In the information providing system, it is preferable that the type of the moving object is specified as the attribute of the moving object, and the content is specified based on the type. Accordingly, it is possible to provide information in consideration of the type of moving object.

(5)上記情報提供システムにおいて、移動体の種類に応じて投影パターンを記録した投影情報記憶部を更に備え、前記移動体の種類に応じた投影パターンに基づいて、投影条件を決定することが好ましい。これにより、移動体の種類に応じて、的確な投影を行なうことができる。   (5) The information providing system may further include a projection information storage unit that records a projection pattern according to the type of the moving body, and determining a projection condition based on the projection pattern according to the type of the moving body. preferable. Thereby, accurate projection can be performed according to the kind of moving body.

(6)上記情報提供システムにおいて、前記移動体の表面状態を特定し、前記表面状態に基づいて、投影条件を調整することが好ましい。これにより、移動体の表面状態に応じて、的確な投影を行なうことができる。   (6) In the information providing system, it is preferable that a surface state of the moving body is specified and a projection condition is adjusted based on the surface state. Thus, accurate projection can be performed according to the surface state of the moving body.

(7)上記情報提供システムにおいて、前記移動体が設置された環境情報を取得し、前記環境情報に基づいて、投影条件を調整することが好ましい。これにより、移動体が設置された環境に応じて、的確な投影を行なうことができる。   (7) In the information providing system, it is preferable that environmental information in which the moving body is installed is acquired, and a projection condition is adjusted based on the environmental information. Thus, accurate projection can be performed according to the environment in which the moving body is installed.

(8)上記情報提供システムにおいて、前記移動体と投影装置との位置関係を特定し、前記位置関係に基づいて投影条件を調整することが好ましい。これにより、移動体と投影装置との位置関係に応じて、的確な投影を行なうことができる。   (8) In the information providing system, it is preferable that a positional relationship between the moving body and the projection device is specified and a projection condition is adjusted based on the positional relationship. Thus, accurate projection can be performed according to the positional relationship between the moving body and the projection device.

(9)上記情報提供システムにおいて、前記移動体の動き状況を特定し、前記動き状況に基づいて投影条件を調整することが好ましい。これにより、停止状態や走行状態等、移動体の動き状況に応じて、的確な投影を行なうことができる。   (9) In the information providing system, it is preferable that a movement state of the moving body is specified and a projection condition is adjusted based on the movement state. Thus, accurate projection can be performed according to the movement state of the moving body such as the stop state and the running state.

本発明によれば、移動体の状況に応じて、コンテンツを特定して投影することにより、情報提供を行なうことができる。   According to the present invention, it is possible to provide information by specifying and projecting content according to the state of a moving object.

本実施形態のシステム概略図。The system schematic of this embodiment. 本実施形態の記憶部に記録されたデータの説明図であって、(a)はプロジェクタ情報記憶部、(b)は投影情報記憶部、(c)はコンテンツ情報記憶部、(d)はイベント情報記憶部、(e)はフライト情報記憶部、(f)は機体情報記憶部の説明図。It is explanatory drawing of the data recorded on the memory | storage part of this embodiment, Comprising: (a) is a projector information storage part, (b) is a projection information storage part, (c) is a content information storage part, (d) is an event. An information storage part, (e) is a flight information storage part, (f) is explanatory drawing of a body information storage part. 本実施形態の投影制御処理の説明図。Explanatory drawing of the projection control process of this embodiment. 本実施形態の投影条件設定処理の説明図。Explanatory drawing of the projection condition setting process of this embodiment. 本実施形態のコンテンツ特定処理の説明図。Explanatory drawing of the content specific process of this embodiment. 本実施形態の投影調整処理の説明図。Explanatory drawing of the projection adjustment process of this embodiment. 他の実施形態の情報配信処理の説明図。Explanatory drawing of the information delivery process of other embodiment.

以下、本発明を具体化した一実施形態を、図1〜図6に従って説明する。本実施形態では、移動体である航空機の機体に対して、プロジェクションマッピングを行なうイベントを実施する場合を想定する。このイベントにより、閲覧者に対して情報を提供する場合を想定する。   Hereinafter, an embodiment embodying the present invention will be described with reference to FIGS. In the present embodiment, it is assumed that an event for performing projection mapping is performed on an aircraft body that is a moving body. Assume that information is provided to the viewer by this event.

図1に示すように、航空機の機体AFにおいてコンテンツ(画像や映像)を投影する情報提供システムは、投影支援サーバ20、運航管理サーバ30を用いる。この投影支援サーバ20は、プロジェクタ10、カメラ15、環境情報取得部17に接続されている。   As shown in FIG. 1, the information providing system for projecting content (images and videos) in the aircraft AF of an aircraft uses a projection support server 20 and an operation management server 30. The projection support server 20 is connected to the projector 10, the camera 15, and the environment information acquisition unit 17.

プロジェクタ10は、旅客乗降用スポット(停止位置としての駐機場)において、機体AFに対するプロジェクションマッピングを行なうことにより、画像や映像等のコンテンツを投影する投影装置である。本実施形態では、旅客ターミナルビルやスポット周囲に設置された固定型のプロジェクタ10や、車両に搭載された移動型のプロジェクタ10等を用いる。   The projector 10 is a projection device that projects content such as images and videos by performing projection mapping on the aircraft AF at a passenger boarding / alighting spot (parking place as a stop position). In the present embodiment, a fixed projector 10 installed around a passenger terminal building or a spot, a mobile projector 10 mounted on a vehicle, or the like is used.

カメラ15は、航空機の機体AF等を撮影するための撮影装置である。
環境情報取得部17は、空港の天候(降雨の有無)や日差し、照度等の環境情報を取得するセンサ装置である。なお、インターネットを介して、天候情報提供サイトから、空港がある地域の天候情報を取得するようにしてもよい。
The camera 15 is a photographing device for photographing an aircraft AF or the like of an aircraft.
The environmental information acquisition unit 17 is a sensor device that acquires environmental information such as airport weather (presence of rainfall), sunlight, and illuminance. In addition, you may make it acquire the weather information of the area with an airport from a weather information provision site via the internet.

投影支援サーバ20は、プロジェクションマッピングにより、コンテンツの投影を支援するコンピュータシステムである。この投影支援サーバ20は、制御部21、プロジェクタ情報記憶部22、投影情報記憶部23、コンテンツ情報記憶部24、イベント情報記憶部25を備えている。また、投影支援サーバ20には、管理者端末27が接続されている。   The projection support server 20 is a computer system that supports content projection by projection mapping. The projection support server 20 includes a control unit 21, a projector information storage unit 22, a projection information storage unit 23, a content information storage unit 24, and an event information storage unit 25. In addition, an administrator terminal 27 is connected to the projection support server 20.

制御部21は、CPU、RAM、ROM等から構成された制御手段として機能し、後述する処理(情報取得段階、投影条件設定段階、コンテンツ特定段階、投影管理段階等を含む処理)を行なう。このための情報提供プログラムを実行することにより、制御部21は、情報取得部211、投影条件設定部212、コンテンツ特定部213、投影管理部214等として機能する。   The control unit 21 functions as a control unit including a CPU, a RAM, a ROM, and the like, and performs processing (processing including an information acquisition stage, a projection condition setting stage, a content specifying stage, a projection management stage, etc.) described later. By executing the information providing program for this purpose, the control unit 21 functions as an information acquisition unit 211, a projection condition setting unit 212, a content specifying unit 213, a projection management unit 214, and the like.

情報取得部211は、カメラ15、環境情報取得部17や運航管理サーバ30等から各種情報を取得する処理を実行する。この情報取得部211は、航空機の機種を特定するために、機体形状等のパターン認識を行なう。更に、情報取得部211は、各種航空機の機体AFに付された機体番号の文字認識を行なう。   The information acquisition unit 211 executes a process of acquiring various types of information from the camera 15, the environment information acquisition unit 17, the operation management server 30, and the like. The information acquisition unit 211 recognizes a pattern such as the body shape in order to specify the aircraft model. Furthermore, the information acquisition unit 211 performs character recognition of the aircraft number assigned to the aircraft AF of various aircraft.

投影条件設定部212は、取得した各種情報に基づいて、機体AFにおけるプロジェクションマッピングの投影条件を設定する処理を実行する。
コンテンツ特定部213は、取得した各種情報に基づいて、プロジェクションマッピングにおいて投影するコンテンツを特定する処理を実行する。
投影管理部214は、投影条件、コンテンツに基づいて、プロジェクションマッピングにおける投影を管理する処理を実行する。
The projection condition setting unit 212 executes a process for setting the projection conditions for projection mapping in the body AF based on the acquired various types of information.
The content specifying unit 213 executes processing for specifying the content to be projected in the projection mapping based on the acquired various types of information.
The projection management unit 214 executes processing for managing projections in projection mapping based on the projection conditions and contents.

図2(a)に示すように、プロジェクタ情報記憶部22には、プロジェクションマッピングに用いるプロジェクタを管理するためのプロジェクタ管理レコード220が記録される。このプロジェクタ管理レコード220は、プロジェクションマッピングに用いるプロジェクタ10が準備された場合に記録される。プロジェクタ管理レコード220は、プロジェクタID、プロジェクタ種別、設置場所に関するデータを含んで構成される。   As shown in FIG. 2A, the projector information storage unit 22 stores a projector management record 220 for managing the projector used for projection mapping. This projector management record 220 is recorded when the projector 10 used for projection mapping is prepared. The projector management record 220 includes data relating to a projector ID, a projector type, and an installation location.

プロジェクタIDデータ領域には、各プロジェクタ10を特定するための識別子に関するデータが記録される。
プロジェクタ種別データ領域には、このプロジェクタ10の種類に関するデータが記録される。本実施形態では、プロジェクタ10の種類として、移動可能な車両に搭載された「移動型」と、建物等に固定された「固定型」とを用いる。
Data relating to an identifier for specifying each projector 10 is recorded in the projector ID data area.
Data relating to the type of the projector 10 is recorded in the projector type data area. In the present embodiment, a “moving type” mounted on a movable vehicle and a “fixed type” fixed to a building or the like are used as types of the projector 10.

設置場所データ領域には、プロジェクタ種別「固定型」のプロジェクタ10が設置された場所を特定するための識別子に関するデータが記録される。例えば、プロジェクタ10が設置された駐機場に対応する出発ゲートを特定するための識別子(ゲート番号)等が記録される。   In the installation location data area, data relating to an identifier for specifying the location where the projector type “fixed type” projector 10 is installed is recorded. For example, an identifier (gate number) for specifying a departure gate corresponding to a parking lot where the projector 10 is installed is recorded.

図2(b)に示すように、投影情報記憶部23には、プロジェクションマッピングにおいて投影する映像や画像を調整するための投影管理レコード230が記録される。この投影管理レコード230は、投影パターンが登録された場合に記録される。投影管理レコード230は、機種、プロジェクタ配置、投影パターンに関するデータを含んで構成される。   As shown in FIG. 2B, the projection information storage unit 23 records a projection management record 230 for adjusting a video and an image to be projected in the projection mapping. This projection management record 230 is recorded when a projection pattern is registered. The projection management record 230 includes data relating to the model, projector arrangement, and projection pattern.

機種データ領域には、コンテンツを投影する航空機の機体の種別を特定するための識別子に関するデータが記録される。
プロジェクタ配置データ領域には、プロジェクタ10の配置を特定するためのデータが記録される。例えば、「移動型」の場合には、機体AFの位置に対して、プロジェクタ10を載置した車両の配置位置に関する情報が記録される。また、「固定型」の場合には、建物等に固定されたプロジェクタ10の設置位置に関する情報が記録される。
投影パターンデータ領域には、投影対象の機種や、機体AFの位置とプロジェクタ10との位置関係に応じて、プロジェクションマッピングを行なう画像や映像の投影形状を調整するためのデータが記録される。
In the model data area, data relating to an identifier for identifying the type of aircraft body that projects content is recorded.
Data for specifying the arrangement of the projector 10 is recorded in the projector arrangement data area. For example, in the case of “moving type”, information on the arrangement position of the vehicle on which the projector 10 is placed is recorded with respect to the position of the body AF. In the case of the “fixed type”, information related to the installation position of the projector 10 fixed to a building or the like is recorded.
In the projection pattern data area, data for adjusting the projection shape of an image or video to be subjected to projection mapping is recorded in accordance with the model to be projected and the positional relationship between the position of the machine AF and the projector 10.

図2(c)に示すように、コンテンツ情報記憶部24には、プロジェクションマッピングに用いるコンテンツについてのコンテンツ管理レコード240が記録される。このコンテンツ管理レコード240は、プロジェクションマッピングに用いられるコンテンツが登録された場合に記録される。コンテンツ管理レコード240は、コンテンツID、出力条件、コンテンツに関するデータを含んで構成される。   As shown in FIG. 2C, the content information storage unit 24 records a content management record 240 for content used for projection mapping. The content management record 240 is recorded when content used for projection mapping is registered. The content management record 240 includes a content ID, an output condition, and data related to the content.

コンテンツIDデータ領域には、各コンテンツを特定するための識別子に関するデータが記録される。
出力条件データ領域には、このコンテンツを投影する場合の条件に関するデータが記録される。航空機の動き状況に関する出力条件としては、「駐機」、「スポットアウト(滑走路に向かうため、航空機が駐機場を離れ、自走の前の状態)」を用いる。また、航空機の機体AFにおける投影可能範囲の出力条件としては、投影する場所(例えば、胴体前部、胴体中央部、胴体後部、主翼、尾翼等)を用いる。更に、コンテンツを選定するための出力条件(コンテンツ選定条件)としては、閲覧者の属性を特定する情報を用いる。本実施形態では、閲覧者の属性として、搭乗者の人物属性(性別、年齢層、所属、職業、趣味等)を用いる。例えば、搭乗者の所属としては、所定のスポーツイベントの参加チームを用いることができる。
コンテンツデータ領域には、この出力条件に応じたコンテンツの内容(画像や映像)に関するデータが記録される。例えば、コンテンツ選定条件としての「スポーツイベントの参加チーム」の場合には、このスポーツイベントに関連した画像や映像を記録しておく。
Data related to an identifier for specifying each content is recorded in the content ID data area.
In the output condition data area, data relating to conditions for projecting the content is recorded. As the output conditions related to the movement status of the aircraft, “parking” and “spot out (the state before the aircraft leaves the parking lot and heads for self-propelled because it heads to the runway)” are used. Further, as an output condition of the projectable range in the aircraft AF of the aircraft, a place to be projected (for example, a fuselage front part, a fuselage center part, a fuselage rear part, a main wing, a tail wing, etc.) is used. Further, as output conditions (content selection conditions) for selecting content, information for specifying the attributes of the viewer is used. In this embodiment, the passenger's personal attributes (gender, age group, affiliation, occupation, hobby, etc.) are used as the viewer attributes. For example, as the affiliation of the passenger, a team participating in a predetermined sport event can be used.
In the content data area, data relating to the contents (images and videos) corresponding to the output conditions is recorded. For example, in the case of “participating team for a sports event” as the content selection condition, an image or video related to this sports event is recorded.

図2(d)に示すように、イベント情報記憶部25には、プロジェクションマッピングを行なうイベントについてのイベント管理レコード250が記録される。このイベント管理レコード250は、イベントが登録された場合に記録される。イベント管理レコード250は、イベント日、便名、場所、プロジェクタID、コンテンツIDに関するデータを含んで構成される。   As shown in FIG. 2D, the event information storage unit 25 records an event management record 250 for an event for which projection mapping is performed. This event management record 250 is recorded when an event is registered. The event management record 250 includes data related to an event date, flight number, place, projector ID, and content ID.

イベント日データ領域には、イベント(プロジェクションマッピング)を行なう年月日に関するデータが記録される。
便名データ領域には、プロジェクションマッピングの投影対象となる航空機のフライトを特定するための識別子に関するデータが記録される。
In the event date data area, data related to the date on which the event (projection mapping) is performed is recorded.
In the flight name data area, data relating to an identifier for identifying a flight of an aircraft to be projected by projection mapping is recorded.

場所データ領域には、イベントを行なう場所(空港、出発ゲート等)を特定するための識別子に関するデータが記録される。
プロジェクタIDデータ領域には、プロジェクションマッピングに用いるプロジェクタを特定するための識別子に関するデータが記録される。
In the place data area, data relating to an identifier for specifying a place (airport, departure gate, etc.) where an event is performed is recorded.
In the projector ID data area, data relating to an identifier for specifying a projector used for projection mapping is recorded.

コンテンツIDデータ領域には、プロジェクションマッピングに用いられるコンテンツを特定するための識別子に関するデータが記録される。このコンテンツは、動き状況「駐機」、「スポットアウト」に関連付けて記憶される。   In the content ID data area, data relating to an identifier for specifying content used for projection mapping is recorded. This content is stored in association with the motion status “parking” and “spot out”.

管理者端末27は、プロジェクションマッピングの管理者が用いるコンピュータ端末である。管理者端末27は、キーボードやポインティングデバイス等、各種指示を入力するための入力部や、情報処理結果を出力するための出力部を備えている。   The manager terminal 27 is a computer terminal used by a projection mapping manager. The administrator terminal 27 includes an input unit for inputting various instructions such as a keyboard and a pointing device, and an output unit for outputting information processing results.

運航管理サーバ30は、フライトを管理するコンピュータシステムである。この運航管理サーバ30は、フライト情報記憶部32、機体情報記憶部33を備えている。更に、運航管理サーバ30は、搭乗者情報(搭乗者の人物属性)を記録した搭乗者情報記憶部(図示せず)を備える。
図2(e)に示すように、フライト情報記憶部32には、航空機の飛行(フライト)についてのフライト管理レコード320が記録される。このフライト管理レコード320は、フライトスケジュールが登録された場合や、運航状況に応じて更新された場合に記録される。フライト管理レコード320は、便名、機体番号、機種、出発地、出発時刻、出発ゲート、到着地、到着時刻、到着ゲート、ステータスに関するデータを含んで構成される。
The operation management server 30 is a computer system that manages flights. The operation management server 30 includes a flight information storage unit 32 and a body information storage unit 33. Further, the operation management server 30 includes a passenger information storage unit (not shown) that records passenger information (person attributes of passengers).
As shown in FIG. 2 (e), the flight information storage unit 32 records a flight management record 320 regarding flight (flight) of an aircraft. The flight management record 320 is recorded when a flight schedule is registered or updated according to the flight status. The flight management record 320 includes data relating to the flight name, aircraft number, model, departure location, departure time, departure gate, arrival location, arrival time, arrival gate, and status.

便名データ領域には、各フライトを特定するための識別子に関するデータが記録される。
機体番号データ領域には、このフライトにおいて用いられる航空機に付けられる個別の認識記号(国籍記号及び登録記号)に関するデータが記録される。
In the flight name data area, data relating to an identifier for identifying each flight is recorded.
In the airframe number data area, data relating to individual identification symbols (nationality symbol and registration symbol) attached to the aircraft used in this flight is recorded.

機種データ領域には、このフライトにおいて用いられる航空機の種類を特定するための識別子(製造メーカ、機種コード等)に関するデータが記録される。
出発地データ領域には、このフライトの出発空港を特定するための識別子に関するデータが記録される。
In the model data area, data relating to an identifier (manufacturer, model code, etc.) for specifying the type of aircraft used in this flight is recorded.
In the departure place data area, data relating to an identifier for specifying the departure airport of this flight is recorded.

出発時刻データ領域には、このフライトが出発する年月日及び時刻に関するデータが記録される。なお、上述した便名、出発時刻等を用いることにより、搭乗者情報記憶部から、搭乗者情報(搭乗者の人物属性)を取得することができる。
出発ゲートデータ領域には、出発空港における出発ゲート(搭乗ゲート)を特定するための識別子に関するデータが記録される。
In the departure time data area, data relating to the date and time when this flight departs is recorded. In addition, passenger information (passenger's personal attribute) can be acquired from a passenger information storage part by using the flight name, departure time, etc. which were mentioned above.
In the departure gate data area, data relating to an identifier for specifying the departure gate (boarding gate) at the departure airport is recorded.

到着地データ領域には、このフライトの到着空港を特定するための識別子に関するデータが記録される。
到着時刻データ領域には、このフライトが到着する年月日及び時刻に関するデータが記録される。
In the arrival place data area, data relating to an identifier for specifying the arrival airport of this flight is recorded.
In the arrival time data area, data related to the date and time when this flight arrives is recorded.

到着ゲートデータ領域には、到着空港における到着ゲートを特定するための識別子に関するデータが記録される。
ステータスデータ領域には、このフライトの運航状況を特定するためのフラグが記録される。例えば、ステータスとして、「搭乗準備」、「搭乗中」、「出発」、「離陸」、「飛行中」、「着陸」、「到着」、「降機中」等を用いる。
In the arrival gate data area, data relating to an identifier for specifying the arrival gate at the arrival airport is recorded.
In the status data area, a flag for specifying the operation status of this flight is recorded. For example, “preparation for boarding”, “during boarding”, “departure”, “takeoff”, “in flight”, “landing”, “arrival”, “disembarking”, etc. are used as statuses.

図2(f)に示すように、機体情報記憶部33には、フライトに用いる機体についての機体管理レコード330が記録される。この機体管理レコード330は、機体に関する情報が登録された場合に記録される。機体管理レコード330は、機体番号、機種、機体状況に関するデータを含んで構成される。   As shown in FIG. 2 (f), an aircraft management record 330 for the aircraft used for the flight is recorded in the aircraft information storage unit 33. This machine management record 330 is recorded when information related to the machine is registered. The machine management record 330 includes data relating to the machine number, model, and machine status.

機体番号データ領域には、各航空機に付けられる個別の認識記号に関するデータが記録される。
機種データ領域には、この航空機の種類を特定するための識別子に関するデータが記録される。
機体状況データ領域には、この航空機の機体形状や機体AFに施されたペインティング(模様の配置や色彩等の表面状態)に関するデータが記録される。
In the airframe number data area, data relating to individual recognition symbols attached to each aircraft is recorded.
In the model data area, data relating to an identifier for specifying the type of aircraft is recorded.
In the aircraft status data area, data relating to the aircraft shape and the painting (surface state such as pattern arrangement and color) applied to the aircraft AF is recorded.

次に、図3〜図6を用いて、上記のように構成された投影支援サーバ20において実行される情報提供方法の処理手順について説明する。   Next, a processing procedure of an information providing method executed in the projection support server 20 configured as described above will be described with reference to FIGS.

(投影制御処理)
まず、図3を用いて、投影制御処理を説明する。
ここでは、投影支援サーバ20の制御部21は、投影対象の指定処理を実行する(ステップS1−1)。具体的には、プロジェクションマッピングを行なう場合、管理者は、管理者端末27を用いて、プロジェクションマッピングを行なうイベント日、投影対象、場所を特定する。例えば、フライト情報記憶部32に記録されているフライトを特定する。この場合、制御部21の情報取得部211は、管理者端末27から、投影対象に関するフライト情報を取得する。この場合、情報取得部211は、イベント日、便名、場所を含めたイベント管理レコード250を生成し、イベント情報記憶部25に記録する。
(Projection control processing)
First, the projection control process will be described with reference to FIG.
Here, the control unit 21 of the projection support server 20 executes a projection target designation process (step S1-1). Specifically, when performing projection mapping, the administrator uses the administrator terminal 27 to specify an event date, a projection target, and a location for which projection mapping is performed. For example, the flight recorded in the flight information storage unit 32 is specified. In this case, the information acquisition unit 211 of the control unit 21 acquires flight information related to the projection target from the administrator terminal 27. In this case, the information acquisition unit 211 generates an event management record 250 including the event date, flight name, and location, and records the event management record 250 in the event information storage unit 25.

次に、投影支援サーバ20の制御部21は、投影管理処理を実行する(ステップS1−2)。具体的には、制御部21は、投影条件設定処理(ステップS1−2a)、コンテンツ特定処理(ステップS1−2b)を実行する。これらの処理の詳細については、後述する。   Next, the control unit 21 of the projection support server 20 executes a projection management process (step S1-2). Specifically, the control unit 21 executes a projection condition setting process (step S1-2a) and a content specifying process (step S1-2b). Details of these processes will be described later.

次に、投影支援サーバ20の制御部21は、投影対象の状態の取得処理を実行する(ステップS1−3)。具体的には、制御部21の情報取得部211は、カメラ15を用いて、航空機を撮影する。そして、情報取得部211は、撮影動画に基づいて、投影対象の航空機の動き状況を特定する。   Next, the control unit 21 of the projection support server 20 executes a process for acquiring the state of the projection target (step S1-3). Specifically, the information acquisition unit 211 of the control unit 21 uses the camera 15 to photograph the aircraft. And the information acquisition part 211 specifies the movement condition of the aircraft of projection object based on a picked-up moving image.

次に、投影支援サーバ20の制御部21は、投影可能かどうかについての判定処理を実行する(ステップS1−4)。具体的には、制御部21の投影管理部214は、航空機が駐機場で停止している駐機状態の場合には、投影可能と判定する。   Next, the control part 21 of the projection assistance server 20 performs the determination process about whether it can project (step S1-4). Specifically, the projection management unit 214 of the control unit 21 determines that projection is possible when the aircraft is parked in a parking lot.

航空機が移動しており、投影可能でないと判定した場合(ステップS1−4において「NO」の場合)、投影支援サーバ20の制御部21は、投影対象の状態の取得処理(ステップS1−3)を継続する。   When it is determined that the aircraft is moving and cannot be projected (in the case of “NO” in step S1-4), the control unit 21 of the projection support server 20 acquires the projection target state (step S1-3). Continue.

一方、航空機が駐機場で停止し、投影可能と判定した場合(ステップS1−4において「YES」の場合)、投影支援サーバ20の制御部21は、投影調整処理を実行する(ステップS1−5)。ここでは、プロジェクタ10と機体AFとの位置関係に基づいて、プロジェクションマッピングを行なう画像や映像の投影形状を調整する。この処理の詳細は後述する。   On the other hand, when the aircraft stops at the parking lot and determines that projection is possible (in the case of “YES” in step S1-4), the control unit 21 of the projection support server 20 executes the projection adjustment process (step S1-5). ). Here, based on the positional relationship between the projector 10 and the body AF, the projection shape of an image or video for which projection mapping is performed is adjusted. Details of this processing will be described later.

次に、投影支援サーバ20の制御部21は、ステップS1−3と同様に、投影対象の状態の取得処理を実行する(ステップS1−6)。
次に、投影支援サーバ20の制御部21は、駐機時コンテンツの投影処理を実行する(ステップS1−7)。具体的には、制御部21の投影管理部214は、機体AFに対して、プロジェクタ10を用いて、イベント情報記憶部25に記録された駐機時コンテンツの投影を開始する。
Next, the control part 21 of the projection assistance server 20 performs the acquisition process of the state of a projection object similarly to step S1-3 (step S1-6).
Next, the control part 21 of the projection assistance server 20 performs the projection process of the content at the time of parking (step S1-7). Specifically, the projection management unit 214 of the control unit 21 starts projecting the parking content recorded in the event information storage unit 25 using the projector 10 to the aircraft AF.

次に、投影支援サーバ20の制御部21は、次の投影は可能かどうかについての判定処理を実行する(ステップS1−8)。具体的には、制御部21の投影管理部214は、撮影動画に基づいて、航空機の移動により、スポットアウトを検知した場合、次の投影は可能と判定する。   Next, the control unit 21 of the projection support server 20 executes a determination process as to whether or not the next projection is possible (step S1-8). Specifically, the projection management unit 214 of the control unit 21 determines that the next projection is possible when a spot-out is detected by moving the aircraft based on the captured moving image.

航空機の移動がなく、スポットアウトしておらず、次の投影は可能でないと判定した場合(ステップS1−8において「NO」の場合)、投影支援サーバ20の制御部21は、投影対象の状態の取得処理(ステップS1−6)に戻る。   When it is determined that there is no movement of the aircraft, no spot-out, and the next projection is not possible (in the case of “NO” in step S1-8), the control unit 21 of the projection support server 20 determines the state of the projection target. The process returns to the acquisition process (step S1-6).

一方、航空機の移動により、スポットアウトを検知し、次の投影は可能と判定した場合(ステップS1−8において「YES」の場合)、投影支援サーバ20の制御部21は、ステップS1−3と同様に、投影対象の状態の取得処理を実行する(ステップS1−9)。
次に、投影支援サーバ20の制御部21は、投影調整処理を実行する(ステップS1−10)。具体的には、制御部21の投影管理部214は、航空機の移動に追従して、投影調整処理を行なう。ここでも、ステップS1−5と同様に、プロジェクタ10と機体AFとの位置関係に基づいて、プロジェクションマッピングを行なう画像や映像の投影形状を調整する。この処理の詳細は後述する。
On the other hand, when the spot is detected by the movement of the aircraft and it is determined that the next projection is possible (in the case of “YES” in step S1-8), the control unit 21 of the projection support server 20 performs step S1-3. Similarly, a process for acquiring the state of the projection target is executed (step S1-9).
Next, the control part 21 of the projection assistance server 20 performs a projection adjustment process (step S1-10). Specifically, the projection management unit 214 of the control unit 21 performs projection adjustment processing following the movement of the aircraft. In this case as well, as in step S1-5, the projection shape of the image or video to be subjected to projection mapping is adjusted based on the positional relationship between the projector 10 and the body AF. Details of this processing will be described later.

次に、投影支援サーバ20の制御部21は、スポットアウト時コンテンツの投影処理を実行する(ステップS1−11)。具体的には、制御部21の投影管理部214は、機体AFに対して、プロジェクタ10を用いて、イベント情報記憶部25に記録されたスポットアウト時コンテンツの投影を開始する。この場合、投影調整処理(ステップS1−10)において調整した画像や映像により、航空機の動きに追従して、プロジェクションマッピングを行なう。   Next, the control unit 21 of the projection support server 20 executes the projection process of the spot-out content (step S1-11). Specifically, the projection management unit 214 of the control unit 21 starts projection of the spot-out content recorded in the event information storage unit 25 using the projector 10 with respect to the body AF. In this case, projection mapping is performed by following the movement of the aircraft using the image and video adjusted in the projection adjustment process (step S1-10).

次に、投影支援サーバ20の制御部21は、投影終了かどうかについての判定処理を実行する(ステップS1−12)。具体的には、制御部21の投影管理部214は、撮影動画に基づいて、航空機が駐機場から外に出て、自走開始を検知した場合には、投影終了と判定する。   Next, the control unit 21 of the projection support server 20 executes a determination process as to whether or not the projection is finished (step S1-12). Specifically, the projection management unit 214 of the control unit 21 determines that the projection is ended when the aircraft goes out of the parking lot and detects the start of self-run based on the captured moving image.

航空機が駐機場内にあり、自走しておらず、投影終了でないと判定した場合(ステップS1−12において「NO」の場合)、投影支援サーバ20の制御部21は、投影対象の状態の取得処理(ステップS1−9)に戻る。   When it is determined that the aircraft is in the parking lot, is not self-propelled, and is not the end of projection (in the case of “NO” in step S1-12), the control unit 21 of the projection support server 20 determines the state of the projection target. The process returns to the acquisition process (step S1-9).

一方、航空機が駐機場から出て、自走開始を検知し、投影終了と判定した場合(ステップS1−12において「YES」の場合)、投影支援サーバ20の制御部21は、投影制御処理を終了する。   On the other hand, when the aircraft leaves the parking lot, detects the start of self-running, and determines that the projection has ended (in the case of “YES” in step S1-12), the control unit 21 of the projection support server 20 performs the projection control process. finish.

(投影条件設定処理)
次に、図4を用いて、投影条件設定処理(ステップS1−2a)を説明する。
まず、投影支援サーバ20の制御部21は、撮影画像の取得処理を実行する(ステップS2−1)。具体的には、制御部21の情報取得部211は、カメラ15を用いて、航空機の機体AFを撮影する。そして、情報取得部211は、撮影画像に含まれる航空機の機体形状を特定する。更に、情報取得部211は、機体AFに付された機体番号の文字認識を試みる。
(Projection condition setting process)
Next, the projection condition setting process (step S1-2a) will be described with reference to FIG.
First, the control unit 21 of the projection support server 20 executes a captured image acquisition process (step S2-1). Specifically, the information acquisition unit 211 of the control unit 21 uses the camera 15 to photograph the aircraft AF of the aircraft. And the information acquisition part 211 specifies the body shape of the aircraft contained in a picked-up image. Furthermore, the information acquisition unit 211 tries to recognize the character of the machine number assigned to the machine AF.

次に、投影支援サーバ20の制御部21は、機種の特定処理を実行する(ステップS2−2)。具体的には、制御部21の投影条件設定部212は、撮影画像において機体番号の文字認識ができた場合には、運航管理サーバ30の機体情報記憶部33に記録された機体番号を用いて機種を特定する。一方、撮影画像において機体番号を特定できなかった場合、投影条件設定部212は、機体情報記憶部33に記録された機体状況を用いて、撮影画像に含まれる機体形状のパターン認識により、形状や模様が一致する機種を特定する。   Next, the control unit 21 of the projection support server 20 executes a model specifying process (step S2-2). Specifically, the projection condition setting unit 212 of the control unit 21 uses the machine number recorded in the machine information storage unit 33 of the flight management server 30 when the character of the machine number can be recognized in the captured image. Specify the model. On the other hand, when the machine number cannot be specified in the captured image, the projection condition setting unit 212 uses the machine status recorded in the machine information storage unit 33 to recognize the shape and pattern by recognizing the machine shape included in the captured image. Identify models that match the pattern.

次に、投影支援サーバ20の制御部21は、便名の特定処理を実行する(ステップS2−3)。具体的には、制御部21の投影条件設定部212は、撮影画像において機体番号の文字認識ができた場合、この機体番号が記録されたフライト管理レコード320により便名を特定する。一方、撮影画像において機体番号を特定できなかった場合、投影条件設定部212は、運航管理サーバ30のフライト情報記憶部32を用いて、撮影時刻、撮影場所、機種に基づいて便名を特定する。例えば、フライト情報記憶部32に記録されているステータスが「到着」で、撮影場所が到着ゲートに一致し、機種が一致するフライト管理レコード320を抽出する。そして、このフライト管理レコード320に記録されている機体番号を用いて、この空港から次に出発するフライトが記録されたフライト管理レコード320の便名を特定する。   Next, the control unit 21 of the projection support server 20 executes a flight name identification process (step S2-3). Specifically, the projection condition setting unit 212 of the control unit 21 specifies the flight name by the flight management record 320 in which the machine number is recorded when the character number of the machine number can be recognized in the captured image. On the other hand, when the aircraft number cannot be specified in the captured image, the projection condition setting unit 212 uses the flight information storage unit 32 of the flight management server 30 to specify the flight name based on the shooting time, the shooting location, and the model. . For example, the flight management record 320 in which the status recorded in the flight information storage unit 32 is “arrival”, the shooting location matches the arrival gate, and the model matches is extracted. Then, using the machine number recorded in the flight management record 320, the flight name of the flight management record 320 in which the next flight departing from the airport is recorded is specified.

次に、投影支援サーバ20の制御部21は、便名に基づいてゲートの特定処理を実行する(ステップS2−4)。具体的には、制御部21の投影条件設定部212は、フライト管理レコード320に記録されている出発ゲートを特定する。   Next, the control unit 21 of the projection support server 20 executes a gate specifying process based on the flight number (step S2-4). Specifically, the projection condition setting unit 212 of the control unit 21 specifies the departure gate recorded in the flight management record 320.

次に、投影支援サーバ20の制御部21は、投影対象の特性把握処理を実行する(ステップS2−5)。具体的には、制御部21の投影条件設定部212は、運航管理サーバ30の機体情報記憶部33から、機体状況に関する情報を取得する。更に、投影条件設定部212が、カメラ15を用いて撮影した撮影画像に基づいて、機体情報記憶部33から取得した機体状況との一致を確認する。   Next, the control unit 21 of the projection support server 20 executes a projection target characteristic grasping process (step S2-5). Specifically, the projection condition setting unit 212 of the control unit 21 acquires information related to the aircraft status from the aircraft information storage unit 33 of the operation management server 30. Furthermore, the projection condition setting unit 212 confirms the coincidence with the aircraft status acquired from the aircraft information storage unit 33 based on the captured image captured using the camera 15.

次に、投影支援サーバ20の制御部21は、環境情報の取得処理を実行する(ステップS2−6)。具体的には、制御部21の情報取得部211は、環境情報取得部17から、天候情報を取得する。   Next, the control unit 21 of the projection support server 20 executes an environment information acquisition process (step S2-6). Specifically, the information acquisition unit 211 of the control unit 21 acquires weather information from the environment information acquisition unit 17.

次に、投影支援サーバ20の制御部21は、利用可能なプロジェクタの決定処理を実行する(ステップS2−7)。具体的には、制御部21の投影条件設定部212は、フライト情報記憶部32に記録されたフライト管理レコード320において、出発ゲートを特定する。そして、投影条件設定部212は、プロジェクタ情報記憶部22を用いて、この出発ゲートの駐機場において利用可能なプロジェクタ10を特定する。例えば、プロジェクタ10が設置された駐機場の場合には、投影条件設定部212は、「固定型」のプロジェクタ10を選択する。一方、プロジェクタ10が設置されていない駐機場の場合には、投影条件設定部212は、「移動型」のプロジェクタ10を選択する。そして、投影管理部214は、投影情報記憶部23に記録されたプロジェクタ配置を、プロジェクタ10を載置した車両の作業者に対する指示として出力する。更に、投影管理部214は、天候情報に応じて、利用可能なプロジェクタ10を決定する。投影条件設定部212は、決定したプロジェクタ10のプロジェクタIDを、イベント情報記憶部25のイベント管理レコード250に記録する。   Next, the control unit 21 of the projection support server 20 executes a process for determining an available projector (step S2-7). Specifically, the projection condition setting unit 212 of the control unit 21 specifies the departure gate in the flight management record 320 recorded in the flight information storage unit 32. Then, the projection condition setting unit 212 uses the projector information storage unit 22 to identify the projector 10 that can be used in the parking lot at the departure gate. For example, in a parking lot where the projector 10 is installed, the projection condition setting unit 212 selects the “fixed type” projector 10. On the other hand, in a parking area where the projector 10 is not installed, the projection condition setting unit 212 selects the “mobile” projector 10. Then, the projection management unit 214 outputs the projector arrangement recorded in the projection information storage unit 23 as an instruction for the operator of the vehicle on which the projector 10 is placed. Furthermore, the projection management unit 214 determines an available projector 10 according to the weather information. The projection condition setting unit 212 records the determined projector ID of the projector 10 in the event management record 250 of the event information storage unit 25.

次に、投影支援サーバ20の制御部21は、投影可能範囲の特定処理を実行する(ステップS2−8)。具体的には、制御部21の投影条件設定部212は、機体状態に基づいて、機体AFの表面で投影可能な範囲を特定する。   Next, the control unit 21 of the projection support server 20 executes a process for specifying a projectable range (step S2-8). Specifically, the projection condition setting unit 212 of the control unit 21 specifies a range that can be projected on the surface of the aircraft AF based on the aircraft state.

(コンテンツ特定処理)
次に、図5を用いて、コンテンツ特定処理(ステップS1−2b)を説明する。
まず、投影支援サーバ20の制御部21は、コンテンツ選定条件の特定処理を実行する(ステップS3−1)。具体的には、制御部21のコンテンツ特定部213は、コンテンツ選定条件として、運航管理サーバ30の搭乗者情報記憶部から取得した搭乗者情報の属性(性別、年齢層、所属等)の統計値を算出する。
(Content identification process)
Next, the content specifying process (step S1-2b) will be described with reference to FIG.
First, the control unit 21 of the projection support server 20 executes a content selection condition specifying process (step S3-1). Specifically, the content specifying unit 213 of the control unit 21 uses the statistical value of the attributes (gender, age group, affiliation, etc.) of the passenger information acquired from the passenger information storage unit of the flight management server 30 as the content selection condition. Is calculated.

次に、投影支援サーバ20の制御部21は、駐機時コンテンツの特定処理を実行する(ステップS3−2)。具体的には、制御部21のコンテンツ特定部213は、コンテンツ情報記憶部24から、機体状態に基づいて、投影可能範囲を特定し、この投影可能範囲に関連付けられているコンテンツ管理レコード240を特定する。更に、コンテンツ特定部213は、特定したコンテンツ管理レコード240において、コンテンツ選定条件に対応したレコードを抽出する。次に、コンテンツ特定部213は、抽出したコンテンツ管理レコード240において、動き状況として「駐機」に関連付けられているレコードを特定する。そして、コンテンツ特定部213は、特定したコンテンツ管理レコード240のコンテンツIDを、「駐機」に関連付けて、イベント管理レコード250に記録する。   Next, the control part 21 of the projection assistance server 20 performs the specific process of the content at the time of parking (step S3-2). Specifically, the content specifying unit 213 of the control unit 21 specifies the projectable range from the content information storage unit 24 based on the machine state, and specifies the content management record 240 associated with the projectable range. To do. Further, the content specifying unit 213 extracts a record corresponding to the content selection condition from the specified content management record 240. Next, the content specifying unit 213 specifies a record associated with “parking” as the movement status in the extracted content management record 240. Then, the content identification unit 213 records the content ID of the identified content management record 240 in the event management record 250 in association with “parking”.

次に、投影支援サーバ20の制御部21は、スポットアウト時コンテンツの特定処理を実行する(ステップS3−3)。具体的には、制御部21のコンテンツ特定部213は、投影可能範囲、コンテンツ選定条件に対応したコンテンツ管理レコード240の中で、動き状況として「スポットアウト」に関連付けられているコンテンツ管理レコード240を特定する。そして、コンテンツ特定部213は、特定したコンテンツ管理レコード240のコンテンツIDを、「スポットアウト」に関連付けて、イベント管理レコード250に記録する。   Next, the control unit 21 of the projection support server 20 executes content identification processing at the time of spot-out (step S3-3). Specifically, the content specifying unit 213 of the control unit 21 selects the content management record 240 associated with “spot out” as the movement status from the content management records 240 corresponding to the projectable range and the content selection condition. Identify. Then, the content identification unit 213 records the content ID of the identified content management record 240 in the event management record 250 in association with “spot out”.

(投影調整処理)
次に、図6を用いて、投影調整処理を説明する。ここでは、投影条件、コンテンツに基づいて、プロジェクタを調整する。
(Projection adjustment processing)
Next, the projection adjustment process will be described with reference to FIG. Here, the projector is adjusted based on the projection conditions and contents.

まず、投影支援サーバ20の制御部21は、使用プロジェクタの特定処理を実行する(ステップS4−1)。具体的には、制御部21の投影管理部214は、イベント情報記憶部25のイベント管理レコード250に記録されたプロジェクタIDを特定する。   First, the control unit 21 of the projection support server 20 executes a process for identifying a projector in use (step S4-1). Specifically, the projection management unit 214 of the control unit 21 specifies the projector ID recorded in the event management record 250 of the event information storage unit 25.

そして、使用プロジェクタ毎に、以下の処理を繰り返す。
ここでは、投影支援サーバ20の制御部21は、位置関係の特定処理を実行する(ステップS4−2)。具体的には、制御部21の投影管理部214は、カメラ15による撮影画像を用いて、投影に利用するプロジェクタ10と機体AFとの位置関係を特定する。そして、投影管理部214は、位置関係に応じた投影情報記憶部23に記録されたプロジェクタ配置、投影パターンに基づいて、プロジェクションマッピングを行なう画像や映像の投影形状を調整する。例えば、模様が付されている機体において、この模様をプロジェクションマッピングにおいて利用する場合には、模様の位置に応じて投影形状を調整する。また、この模様をプロジェクションマッピングにおいて利用しない場合には、この模様と重ならないように投影形状を調整する。
Then, the following processing is repeated for each projector used.
Here, the control unit 21 of the projection support server 20 executes a positional relationship specifying process (step S4-2). Specifically, the projection management unit 214 of the control unit 21 specifies the positional relationship between the projector 10 used for the projection and the body AF using the image captured by the camera 15. Then, the projection management unit 214 adjusts the projection shape of an image or video for which projection mapping is performed based on the projector arrangement and the projection pattern recorded in the projection information storage unit 23 according to the positional relationship. For example, in the case of a machine with a pattern, when this pattern is used in projection mapping, the projection shape is adjusted according to the position of the pattern. When this pattern is not used in projection mapping, the projection shape is adjusted so as not to overlap this pattern.

次に、投影支援サーバ20の制御部21は、プロジェクタの調整処理を実行する(ステップS4−3)。具体的には、制御部21の投影管理部214は、特定したプロジェクタ10において、投影範囲にプロジェクションマッピングを行なうための向きを調整する。例えば、固定型のプロジェクタ10の場合、投影方向や焦点距離などを調整する。また、車両に搭載されたプロジェクタ10の場合には、GPSや電子コンパスにより、プロジェクタの配置を指定する。そして、投影管理部214は、サンプル画像やコンテンツを投影して、この画像をカメラ15で撮影し、投影方向や焦点距離を再調整するようにしてもよい。   Next, the control unit 21 of the projection support server 20 executes projector adjustment processing (step S4-3). Specifically, the projection management unit 214 of the control unit 21 adjusts the orientation for performing projection mapping on the projection range in the specified projector 10. For example, in the case of the fixed projector 10, the projection direction, focal length, etc. are adjusted. In the case of the projector 10 mounted on the vehicle, the arrangement of the projector is designated by GPS or an electronic compass. Then, the projection management unit 214 may project a sample image or content, take this image with the camera 15, and readjust the projection direction or focal length.

本実施形態の情報提供システムによれば、以下のような効果を得ることができる。
(1)本実施形態では、投影支援サーバ20の制御部21は、投影対象の状態の取得処理を実行する(ステップS1−3)。投影可能と判定した場合(ステップS1−4において「YES」の場合)、投影支援サーバ20の制御部21は、投影調整処理(ステップS1−5)〜駐機時コンテンツの投影処理(ステップS1−7)を実行する。これにより、駐機状態の航空機に対して、プロジェクションマッピングにより、情報を提供することができる。更に、航空機の状況に応じた投影を行なうことができる。
According to the information providing system of the present embodiment, the following effects can be obtained.
(1) In the present embodiment, the control unit 21 of the projection support server 20 executes a process for acquiring the state of the projection target (step S1-3). When it is determined that projection is possible (when “YES” in step S1-4), the control unit 21 of the projection support server 20 performs projection adjustment processing (step S1-5) to parking content projection processing (step S1- 7) is executed. Thereby, information can be provided to the aircraft in a parked state by projection mapping. Furthermore, projection according to the situation of the aircraft can be performed.

(2)本実施形態では、航空機の移動によりスポットアウトを検知し、次の投影は可能と判定した場合(ステップS1−8において「YES」の場合)、投影支援サーバ20の制御部21は、投影対象の状態の取得処理(ステップS1−9)〜スポットアウト時コンテンツの投影処理(ステップS1−11)を実行する。これにより、移動中の航空機に対してプロジェクションマッピングを行なうことができる。そして、航空機が駐機場から出て、自走開始を検知し、投影終了と判定した場合(ステップS1−12において「YES」の場合)、投影支援サーバ20の制御部21は、投影制御処理を終了する。これにより、離陸準備に入った場合には、プロジェクションマッピングを終了させることができる。   (2) In this embodiment, when spot-out is detected by the movement of the aircraft and it is determined that the next projection is possible (in the case of “YES” in step S1-8), the control unit 21 of the projection support server 20 The projection target state acquisition process (step S1-9) to the spot-out content projection process (step S1-11) are executed. Thereby, projection mapping can be performed on the moving aircraft. When the aircraft leaves the parking lot, detects the start of self-running, and determines that the projection is finished (“YES” in step S1-12), the control unit 21 of the projection support server 20 performs the projection control process. finish. As a result, the projection mapping can be ended when the take-off preparation is started.

(3)本実施形態では、投影支援サーバ20の制御部21は、撮影画像の取得処理を実行する(ステップS2−1)。そして、投影支援サーバ20の制御部21は、機種の特定処理を実行する(ステップS2−2)。航空機は機種によって形状が異なるが、形状に合わせたプロジェクションマッピングを行なうことができる。   (3) In the present embodiment, the control unit 21 of the projection support server 20 executes a captured image acquisition process (step S2-1). And the control part 21 of the projection assistance server 20 performs the specific process of a model (step S2-2). Although the shape of an aircraft varies depending on the model, projection mapping can be performed according to the shape.

(4)本実施形態では、投影支援サーバ20の制御部21は、便名の特定処理を実行する(ステップS2−3)。これにより、フライトに応じたプロジェクションマッピングを行なうことができる。   (4) In the present embodiment, the control unit 21 of the projection support server 20 executes a flight number specifying process (step S2-3). Thereby, the projection mapping according to the flight can be performed.

(5)本実施形態では、投影支援サーバ20の制御部21は、投影対象の特性把握処理を実行する(ステップS2−5)。航空機によっては、機体に模様が付されている場合もあるが、この模様を考慮したプロジェクションマッピングを行なうことができる。   (5) In the present embodiment, the control unit 21 of the projection support server 20 executes a projection target characteristic grasping process (step S2-5). Depending on the aircraft, there may be a pattern on the aircraft, but projection mapping can be performed in consideration of this pattern.

(6)本実施形態では、投影支援サーバ20の制御部21は、環境情報の取得処理を実行する(ステップS2−6)。これにより、環境状況に応じたプロジェクションマッピングを行なうことができる。   (6) In the present embodiment, the control unit 21 of the projection support server 20 executes an environment information acquisition process (step S2-6). Thereby, projection mapping according to an environmental condition can be performed.

(7)本実施形態では、投影支援サーバ20の制御部21は、利用可能なプロジェクタの決定処理を実行する(ステップS2−7)。空港には、複数の駐機場が設けられているが、駐機場に応じて、プロジェクションマッピングに用いるプロジェクタ10を選択することができる。そして、固定式のプロジェクタ10が設置されていない駐機場の場合には、プロジェクタ10を搭載した車両を用いて、プロジェクションマッピングを行なうことができる。   (7) In the present embodiment, the control unit 21 of the projection support server 20 executes an available projector determination process (step S2-7). A plurality of parking lots are provided at the airport, and the projector 10 used for projection mapping can be selected according to the parking lot. In the case of a parking lot where no fixed projector 10 is installed, projection mapping can be performed using a vehicle equipped with the projector 10.

(8)本実施形態では、投影支援サーバ20の制御部21は、投影可能範囲の特定処理を実行する(ステップS2−8)。これにより、機体状況やプロジェクタ10に応じて、適切な投影範囲を特定することができる。   (8) In this embodiment, the control part 21 of the projection assistance server 20 performs the projection possible range specific process (step S2-8). Thereby, an appropriate projection range can be specified according to the airframe situation and the projector 10.

(9)本実施形態では、投影支援サーバ20の制御部21は、コンテンツ選定条件の特定処理を実行する(ステップS3−1)。そして、投影支援サーバ20の制御部21は、選定条件に基づいて、駐機時コンテンツの特定処理(ステップS3−2)、スポットアウト時コンテンツの特定処理(ステップS3−3)を実行する。これにより、搭乗待ちをしている搭乗予定者(閲覧者)や、搭乗予定者の見送り者を考慮して、プロジェクションマッピングに用いるコンテンツを特定することができる。   (9) In the present embodiment, the control unit 21 of the projection support server 20 executes content selection condition specifying processing (step S3-1). And the control part 21 of the projection assistance server 20 performs the identification process (step S3-2) of the content at the time of parking, and the identification process (step S3-3) of the content at the time of spot-out based on selection conditions. Thereby, the content used for projection mapping can be specified in consideration of the boarding person (reader) who is waiting for boarding, and the person who sees off the boarding person.

(10)本実施形態では、投影支援サーバ20の制御部21は、使用プロジェクタの特定処理(ステップS4−1)、位置関係の特定処理(ステップS4−2)、プロジェクタの調整処理(ステップS4−3)を実行する。これにより、実際に利用されている航空機の機体AFの停止位置とプロジェクタ10との位置関係を考慮して、的確な投映を行なうことができる。   (10) In the present embodiment, the control unit 21 of the projection support server 20 identifies the projector used (step S4-1), the positional relationship identification (step S4-2), and the projector adjustment (step S4-). 3) is executed. Accordingly, it is possible to perform accurate projection in consideration of the positional relationship between the stop position of the aircraft AF actually used and the projector 10.

また、上記実施形態は、以下のように変更してもよい。
・上記実施形態では、移動体である航空機の機体に対して、プロジェクションマッピングを行なう。プロジェクションマッピングを行なう投影対象は、航空機に限定されるものではない。例えば、バスを含む自動車や鉄道列車等の移動体の車体に、プロジェクションマッピングを行なってもよい。
・上記実施形態では、投影支援サーバ20、運航管理サーバ30を用いる。この投影支援サーバ20は、プロジェクタ10、カメラ15、環境情報取得部17に接続されている。ハードウェア構成は、これに限定されるものではない。例えば、投影支援サーバ20と運航管理サーバ30とを一つのサーバ装置により構築することも可能である。また、プロジェクタ10とカメラ15とを一体化したハードウェア構成や、一つのプロジェクタ10に対して複数のカメラ15を設けた構成等としてもよい。
Moreover, you may change the said embodiment as follows.
In the above embodiment, projection mapping is performed on the aircraft body that is a moving body. The projection target for performing projection mapping is not limited to an aircraft. For example, projection mapping may be performed on the body of a moving body such as an automobile including a bus or a railway train.
In the above embodiment, the projection support server 20 and the operation management server 30 are used. The projection support server 20 is connected to the projector 10, the camera 15, and the environment information acquisition unit 17. The hardware configuration is not limited to this. For example, the projection support server 20 and the operation management server 30 can be constructed by a single server device. Further, a hardware configuration in which the projector 10 and the camera 15 are integrated, a configuration in which a plurality of cameras 15 are provided for one projector 10, or the like may be used.

・上記実施形態では、投影支援サーバ20の制御部21は、投影対象の指定処理を実行する(ステップS1−1)。この場合、管理者端末27を用いて、イベントに用いる便名を特定する。ここで、投影支援サーバ20の制御部21が投映対象を指定するようにしてもよい。この場合には、制御部21に、プロジェクションマッピングによるイベントの開始条件を登録しておく。そして、制御部21が、フライト情報記憶部32を用いて、開始条件を満足する便名を特定する。また、制御部21が、カメラ15を用いて撮影した航空機の撮影画像に基づいて、任意の投影対象を指定するようにしてもよい。   In the above embodiment, the control unit 21 of the projection support server 20 executes a projection target designation process (step S1-1). In this case, the flight number used for the event is specified using the administrator terminal 27. Here, the control unit 21 of the projection support server 20 may designate a projection target. In this case, an event start condition by projection mapping is registered in the control unit 21 in advance. And the control part 21 specifies the flight number which satisfies start conditions using the flight information storage part 32. FIG. Further, the control unit 21 may designate an arbitrary projection target based on an image captured by an aircraft captured using the camera 15.

・上記実施形態では、投影支援サーバ20の制御部21は、コンテンツ選定条件の特定処理を実行する(ステップS3−1)。具体的には、運航管理サーバ30から取得した搭乗者情報をコンテンツ選定条件として用いる。ここで、コンテンツ選定条件は、搭乗者情報に限定されるものではない。コンテンツを決定できるまで、複数のコンテンツ選定条件を組み合わせてもよい。また、閲覧者の属性を考慮してコンテンツを決定してもよい。   In the above embodiment, the control unit 21 of the projection support server 20 executes content selection condition specifying processing (step S3-1). Specifically, the passenger information acquired from the operation management server 30 is used as the content selection condition. Here, the content selection condition is not limited to the passenger information. A plurality of content selection conditions may be combined until the content can be determined. Further, the content may be determined in consideration of the attributes of the viewer.

例えば、プロジェクションマッピングを行なう駐機場に隣接する出発ゲートからの搭乗予定者をコンテンツ選定条件として用いてもよい。この場合には、フライト情報記憶部32を用いて、プロジェクションマッピングを行なう投映対象(航空機)の周囲で、所定時間後に離陸予定のフライトを特定する。そして、搭乗者情報記憶部において、このフライトの搭乗者を閲覧者として特定する。   For example, a boarding person from a departure gate adjacent to a parking lot where projection mapping is performed may be used as the content selection condition. In this case, the flight information storage unit 32 is used to identify a flight scheduled to take off after a predetermined time around a projection target (aircraft) to be projected mapped. Then, in the passenger information storage unit, the passenger of this flight is specified as a viewer.

また、プロジェクションマッピングを行なう駐機場が見える場所(ロビー通路やラウンジ等)の近くにカメラを設置し、このカメラを用いて、閲覧者の性別や年齢層を特定するようにしてもよい。これにより、閲覧状況に応じて、適切なコンテンツによるプロジェクションマッピングを行なうことができる。   Further, a camera may be installed near a place (lobby passage, lounge, etc.) where a parking lot where projection mapping is performed can be seen, and the gender and age group of the viewer may be specified using this camera. Thereby, the projection mapping by an appropriate content can be performed according to the browsing situation.

更に、フライト情報記憶部32に記録されたフライト情報を用いて、コンテンツを決定するようにしてもよい。この場合には、フライトの出発地や到着地に関する情報(例えば、観光案内や土産情報、関連企業情報等)や、フライトの運航状況をコンテンツとして投影する。   Further, the content may be determined using the flight information recorded in the flight information storage unit 32. In this case, information about the departure place and arrival place of the flight (for example, tourist information, souvenir information, related company information, etc.) and the flight operation status are projected as contents.

更に、環境情報取得部17から取得した天候情報(天気、気温、湿度、風向きや風力等)や、時間(季節、日付、曜日、時間等)に基づいて、コンテンツを変更するようにしてもよい。
また、プロジェクションマッピングを行なっている機体AFを撮影した映像を、ネットワークを介して放映し、ネットワークを介して収集したコメントを投影するようにしてもよい。
Furthermore, the content may be changed based on weather information (weather, temperature, humidity, wind direction, wind power, etc.) acquired from the environment information acquisition unit 17 and time (season, date, day of the week, time, etc.). .
Further, an image obtained by shooting the body AF performing projection mapping may be broadcast via a network, and comments collected via the network may be projected.

・上記実施形態では、投影支援サーバ20の制御部21は、駐機時コンテンツの特定処理(ステップS3−2)、スポットアウト時コンテンツの特定処理(ステップS3−3)を実行する。ここでは、コンテンツ選定条件に対応したコンテンツ管理レコード240を特定する。例えば、コンテンツ選定条件としての「スポーツイベントの参加チーム」の場合には、このスポーツイベントに関連した画像や映像を特定する。ここで、コンテンツは、多様な情報を用いることができる。例えば、投影支援サーバ20の制御部21は、ネットワークを介して、投影対象のフライトの搭乗者からメッセージを収集し、このメッセージをプロジェクションマッピングにより投影するようにしてもよい。また、投影対象のフライトの見送り者からメッセージを収集し、このメッセージをプロジェクションマッピングにより投影するようにしてもよい。   In the embodiment described above, the control unit 21 of the projection support server 20 executes the content specification process at the time of parking (step S3-2) and the content specification process at the time of spot-out (step S3-3). Here, the content management record 240 corresponding to the content selection condition is specified. For example, in the case of “participating team for a sports event” as the content selection condition, an image or video related to the sports event is specified. Here, various information can be used for the content. For example, the control unit 21 of the projection support server 20 may collect a message from a passenger of a flight to be projected via a network and project the message by projection mapping. Further, a message may be collected from a sender of a flight to be projected, and this message may be projected by projection mapping.

・上記実施形態では、投影支援サーバ20の制御部21は、コンテンツ選定条件の特定処理を実行する(ステップS3−1)。具体的には、運航管理サーバ30から取得した搭乗者情報をコンテンツ選定条件として用いる。これに加えて、機種に応じて、コンテンツを決定するようにしてもよい。
また、機体周辺の状況に応じて、コンテンツを決定するようにしてもよい。この場合には、運航管理サーバ30等から、周辺車両の状況、旅客/貨物ドアの状況、周辺作業者の状況、乗務員の状況、搭乗旅客の状況を特定して、この状況に応じてコンテンツを決定する。
In the above embodiment, the control unit 21 of the projection support server 20 executes content selection condition specifying processing (step S3-1). Specifically, the passenger information acquired from the operation management server 30 is used as the content selection condition. In addition, the content may be determined according to the model.
Further, the content may be determined according to the situation around the aircraft. In this case, the operation management server 30 and the like specify the situation of surrounding vehicles, the situation of passengers / cargo doors, the situation of surrounding workers, the situation of crew members, the situation of boarding passengers, and content according to this situation. decide.

・上記実施形態では、航空機の動き状況に関する出力条件としては、「駐機」、「スポットアウト」を用いたが、これらに限定されるものではない。例えば、格納庫等への移動等の「その他の空港内移動」において、プロジェクションマッピングを行なうことも可能である。   In the above embodiment, “parking” and “spot out” are used as the output conditions related to the movement status of the aircraft, but are not limited to these. For example, projection mapping can be performed in “other airport movement” such as movement to a hangar or the like.

・上記実施形態では、投影支援サーバ20の制御部21は、投影可能かどうかについての判定処理(ステップS1−4)、次の投影は可能かどうかについての判定処理(ステップS1−8)、投影終了かどうかについての判定処理(ステップS1−12)を実行する。ここでは、撮影動画に基づく、航空機の動きにより各状況の判定を行なう。各状況の判定方法は、航空機の動きに基づく場合に限定されるものではない。例えば、機体状況に基づいて判定することも可能である。この場合、ドアの開閉状況に基づいて、「ドア開〜ドア閉」を駐機状態と判定する。また、フライト情報記憶部32からのステータス(運航状況)を取得して、機体状況を判定するようにしてもよい。   In the above embodiment, the control unit 21 of the projection support server 20 determines whether or not projection is possible (step S1-4), determines whether or not the next projection is possible (step S1-8), projection A determination process (step S1-12) as to whether or not to end is executed. Here, each situation is determined based on the movement of the aircraft based on the captured moving image. The determination method of each situation is not limited to the case based on the movement of the aircraft. For example, it is possible to make a determination based on the aircraft status. In this case, based on the opening / closing state of the door, “door open to door close” is determined as the parking state. Further, the status (operation status) from the flight information storage unit 32 may be acquired to determine the aircraft status.

・上記実施形態では、航空機の機体AFにプロジェクションマッピングを行なう。プロジェクションマッピングを行なう場合、このイベントを閲覧対象者に通知するようにしてもよい。この場合には、プロジェクションマッピングを行なう場所に応じて、閲覧可能な範囲のユーザに対して、イベントの通知を行なう。具体的には、投影支援サーバ20に、駐機場に関連付けて、視認可能な範囲に関する情報を記録させておく。そして、制御部21に情報配信処理を実行する情報配信部を設ける。   In the above embodiment, projection mapping is performed on the aircraft AF of the aircraft. When projection mapping is performed, this event may be notified to the browsing target person. In this case, according to the location where the projection mapping is performed, an event is notified to the users in a viewable range. Specifically, the projection support server 20 records information relating to the visible range in association with the parking lot. And the information delivery part which performs an information delivery process in the control part 21 is provided.

図7を用いて、情報配信処理を説明する。
(情報配信処理)
ここでは、まず、投影支援サーバ20の制御部21は、投影予定の取得処理を実行する(ステップS5−1)。具体的には、制御部21の情報配信部は、イベント情報記憶部25において、所定時間前のイベント管理レコード250を抽出する。
Information distribution processing will be described with reference to FIG.
(Information distribution process)
Here, first, the control unit 21 of the projection support server 20 executes a projection schedule acquisition process (step S5-1). Specifically, the information distribution unit of the control unit 21 extracts the event management record 250 for a predetermined time in the event information storage unit 25.

次に、投影支援サーバ20の制御部21は、実施場所に応じて閲覧可能範囲の特定処理を実行する(ステップS5−2)。具体的には、制御部21の情報配信部は、運航管理サーバ30のフライト情報記憶部32において、イベント管理レコード250の便名が記録されたフライト管理レコード320を抽出する。そして、情報配信部は、このフライト管理レコード320を用いて、出発ゲート(駐機場)を特定する。この場合、情報配信部は、この駐機場を閲覧可能なエリアの所定範囲を配信エリアとして特定する。   Next, the control unit 21 of the projection support server 20 executes browsing range specifying processing according to the place of implementation (step S5-2). Specifically, the information distribution unit of the control unit 21 extracts the flight management record 320 in which the flight name of the event management record 250 is recorded in the flight information storage unit 32 of the flight management server 30. And an information distribution part specifies a departure gate (parking lot) using this flight management record 320. FIG. In this case, the information distribution unit specifies a predetermined range of an area where the parking area can be browsed as a distribution area.

次に、投影支援サーバ20の制御部21は、プッシュ通知の配信指示処理を実行する(ステップS5−3)。具体的には、制御部21の情報配信部は、特定した配信エリアの基地局に対して、イベントに関するプッシュ通知の配信を指示する。このプッシュ通知には、イベントが行なわれる時刻、駐機場に関する情報が含まれる。このプッシュ通知は、配信エリアに所在するユーザ端末に送信される。
これにより、プッシュ通知を受け取ったユーザは、イベントを閲覧することができる。
Next, the control unit 21 of the projection support server 20 executes push notification distribution instruction processing (step S5-3). Specifically, the information distribution unit of the control unit 21 instructs the base station in the specified distribution area to distribute the push notification related to the event. This push notification includes information regarding the time at which the event takes place and the parking area. This push notification is transmitted to the user terminal located in the distribution area.
Thereby, the user who received the push notification can view the event.

・上記実施形態では、航空機の機体AFにプロジェクションマッピングを行なう。ここで、映像に対して、サウンド(音)と連動をさせるようにしてもよい。この場合には、コンテンツ情報記憶部24に、プロジェクションマッピングに用いるコンテンツに関連付けて、サウンドコンテンツを記憶させておく。そして、投影支援サーバ20の制御部21は、ステップS5−1,S5−2と同様に、投影予定の取得処理、実施場所に応じて閲覧可能範囲の特定処理を実行する。そして、投影支援サーバ20の制御部21は、閲覧可能範囲でサウンドの配信を行なう。この場合、閲覧可能範囲のエリアに設置されたスピーカからサウンドを出力する。また、閲覧可能範囲内のユーザ端末に対してサウンドを配信するようにしてもよい。   In the above embodiment, projection mapping is performed on the aircraft AF of the aircraft. Here, the video may be linked with sound. In this case, the sound information is stored in the content information storage unit 24 in association with the content used for projection mapping. Then, similarly to steps S5-1 and S5-2, the control unit 21 of the projection support server 20 executes a projection schedule acquisition process and a browsing range specifying process according to the execution location. And the control part 21 of the projection assistance server 20 delivers a sound within the browsing possible range. In this case, sound is output from a speaker installed in the area of the viewable range. In addition, sound may be distributed to user terminals within the viewable range.

・上記実施形態では、航空機の機体AFにプロジェクションマッピングを行なう。この場合、プロジェクションマッピングに連動して、機体AF以外の領域で関連コンテンツを出力するようにしてもよい。例えば、機内の壁等や、空港内の窓や壁等に、コンテンツを投影する。この場合には、コンテンツ情報記憶部24に、プロジェクションマッピングに用いるコンテンツに関連付けて、関連コンテンツを記憶させておく。これにより、機体AFだけでなく、機内や空港等を含めて、情報提供を行なうことができる。   In the above embodiment, projection mapping is performed on the aircraft AF of the aircraft. In this case, the related content may be output in an area other than the machine AF in conjunction with the projection mapping. For example, the content is projected onto a wall or the like in an aircraft or a window or wall in an airport. In this case, the content information storage unit 24 stores related content in association with content used for projection mapping. As a result, it is possible to provide information including not only the aircraft AF but also the cabin and airport.

・上記実施形態では、投影支援サーバ20の制御部21は、投影調整処理(ステップS1−5)、駐機時コンテンツの投影処理(ステップS1−7)を実行する。ここで、駐機中においても、投影調整処理(ステップS1−5)を継続的して実行するようにしてもよい。これにより、例えば、駐機中に機体AFが動いた場合にも、的確に投影することができる。   In the above embodiment, the control unit 21 of the projection support server 20 executes the projection adjustment process (step S1-5) and the parking content projection process (step S1-7). Here, even during parking, the projection adjustment process (step S1-5) may be executed continuously. Thereby, for example, even when the airframe AF moves during parking, it can be accurately projected.

・上記実施形態では、駐機状態、スポットアウト〜自走までの期間にプロジェクションマッピングを行なう。プロジェクションマッピングを行なう期間は、これらに限定されるものではない。例えば、駐機状態になる前に、プロジェクションマッピングを行なうようにしてもよい。この場合も、ステップS1−9、S1−10と同様に、投影対象の状態の取得処理、投影調整処理を実行して、到着時のコンテンツを投影する。   In the above embodiment, the projection mapping is performed in the parking state, the period from spot-out to self-running. The period for performing projection mapping is not limited to these. For example, projection mapping may be performed before entering the parking state. Also in this case, similarly to steps S1-9 and S1-10, the process of acquiring the projection target state and the projection adjustment process are executed to project the content upon arrival.

10…プロジェクタ、15…カメラ、17…環境情報取得部、20…投影支援サーバ、21…制御部、211…情報取得部、212…投影条件設定部、213…コンテンツ特定部、214…投影管理部、22…プロジェクタ情報記憶部、23…投影情報記憶部、24…コンテンツ情報記憶部、25…イベント情報記憶部、27…管理者端末、30…運航管理サーバ、32…フライト情報記憶部、33…機体情報記憶部。 DESCRIPTION OF SYMBOLS 10 ... Projector, 15 ... Camera, 17 ... Environmental information acquisition part, 20 ... Projection support server, 21 ... Control part, 211 ... Information acquisition part, 212 ... Projection condition setting part, 213 ... Content specification part, 214 ... Projection management part , 22 ... Projector information storage unit, 23 ... Projection information storage unit, 24 ... Content information storage unit, 25 ... Event information storage unit, 27 ... Administrator terminal, 30 ... Flight management server, 32 ... Flight information storage unit, 33 ... Aircraft information storage unit.

(1)上記課題を解決するための情報提供システムにおいては、投影装置を用いて、旅客を搭乗させる移動体に投影するコンテンツを制御する制御部を備える。そして、前記制御部が、移動体の属性として、前記移動体の搭乗者の人物属性に対応した閲覧者属性を特定し、前記閲覧者属性に基づいて、投影するコンテンツを特定し、前記コンテンツを、投影装置を用いて前記移動体に対して投影するための指示を出力する。これにより、移動体の属性を考慮して、情報提供を行なうことができる。 (1) An information providing system for solving the above problems includes a control unit that controls content to be projected onto a moving body on which a passenger is boarded , using a projection device. Then, the control unit specifies a viewer attribute corresponding to a person attribute of a passenger of the mobile object as an attribute of the mobile object , specifies content to be projected based on the viewer attribute, Then, an instruction for projecting to the moving body is output using a projection device. Thereby, information can be provided in consideration of the attribute of the moving object.

(2)上記情報提供システムにおいて、前記移動体の属性として、前記移動体の閲覧者を特定し、前記閲覧者に基づいてコンテンツを特定する。これにより、移動体の閲覧者を考慮して、情報提供を行なうことができる。 (2) In the information providing system, the viewer of the mobile object is specified as the attribute of the mobile object, and the content is specified based on the viewer . This ensures, in view of the viewer of the moving body, it is possible to perform the advertisement.

(3)上記情報提供システムにおいて、前記移動体の属性として、更に、前記移動体の停止位置を特定し、前記停止位置に基づいてコンテンツを特定することが好ましい。これにより、移動体の停止位置に近い閲覧者を考慮して、情報提供を行なうことができる。 (3) In the information providing system, it is preferable that a stop position of the mobile object is further specified as an attribute of the mobile object, and a content is specified based on the stop position. Thereby, information can be provided in consideration of a viewer close to the stop position of the moving body.

(4)上記情報提供システムにおいて、前記移動体の属性として、更に、前記移動体の種類を特定し、前記種類に基づいてコンテンツを特定することが好ましい。これにより、移動体の種類を考慮して、情報提供を行なうことができる。 (4) In the information providing system, it is preferable that the type of the moving object is further specified as the attribute of the moving object, and the content is specified based on the type. Accordingly, it is possible to provide information in consideration of the type of moving object.

Claims (11)

投影装置を用いて、移動体に投影するコンテンツを制御する制御部を備えた情報提供システムであって、
前記制御部が、
移動体の属性を特定し、
前記属性に応じて、投影するコンテンツを特定し、
前記コンテンツを、前記投影装置を用いて前記移動体に対して投影するための指示を出力することを特徴とする情報提供システム。
An information providing system including a control unit that controls content to be projected onto a moving body using a projection device,
The control unit is
Identify mobile attributes,
According to the attribute, specify the content to be projected,
An information providing system for outputting an instruction for projecting the content onto the moving body using the projection device.
前記移動体の属性として、前記移動体の閲覧者を特定し、前記閲覧者に基づいてコンテンツを特定することを特徴とする請求項1に記載の情報提供システム。   The information providing system according to claim 1, wherein a viewer of the mobile body is specified as an attribute of the mobile body, and content is specified based on the viewer. 前記移動体の属性として、前記移動体の停止位置を特定し、前記停止位置に基づいてコンテンツを特定することを特徴とする請求項1又は2に記載の情報提供システム。   The information providing system according to claim 1 or 2, wherein a stop position of the mobile object is specified as the attribute of the mobile object, and content is specified based on the stop position. 前記移動体の属性として、前記移動体の種類を特定し、前記種類に基づいてコンテンツを特定することを特徴とする請求項1〜3の何れか一項に記載の情報提供システム。   The information providing system according to any one of claims 1 to 3, wherein a type of the moving body is specified as an attribute of the moving body, and content is specified based on the type. 移動体の種類に応じて投影パターンを記録した投影情報記憶部を更に備え、
前記移動体の種類に応じた投影パターンに基づいて、投影条件を決定することを特徴とする請求項1〜4の何れか一項に記載の情報提供システム。
A projection information storage unit that records a projection pattern according to the type of the moving body;
The information providing system according to claim 1, wherein a projection condition is determined based on a projection pattern corresponding to a type of the moving body.
前記移動体の表面状態を特定し、前記表面状態に基づいて、投影条件を調整することを特徴とする請求項1〜5の何れか一項に記載の情報提供システム。   6. The information providing system according to claim 1, wherein a surface condition of the moving body is specified, and a projection condition is adjusted based on the surface condition. 前記移動体が設置された環境情報を取得し、前記環境情報に基づいて、投影条件を調整することを特徴とする請求項1〜6の何れか一項に記載の情報提供システム。   The information providing system according to any one of claims 1 to 6, wherein environment information in which the moving body is installed is acquired, and projection conditions are adjusted based on the environment information. 前記移動体と投影装置との位置関係を特定し、前記位置関係に基づいて投影条件を調整することを特徴とする請求項1〜7の何れか一項に記載の情報提供システム。   The information providing system according to claim 1, wherein a positional relationship between the moving body and the projection device is specified, and a projection condition is adjusted based on the positional relationship. 前記移動体の動き状況を特定し、前記動き状況に基づいて投影条件を調整することを特徴とする請求項1〜8の何れか一項に記載の情報提供システム。   The information providing system according to claim 1, wherein a movement situation of the moving body is specified and a projection condition is adjusted based on the movement situation. 投影装置を用いて、移動体に投影するコンテンツを制御する制御部を備えた情報提供システムを用いて情報提供を行なう方法であって、
前記制御部が、
移動体の属性を特定し、
前記属性に応じて、投影するコンテンツを特定し、
前記コンテンツを、前記投影装置を用いて前記移動体に対して投影するための指示を出力することを特徴とする情報提供方法。
A method of providing information using an information providing system including a control unit that controls content projected onto a moving body using a projection device,
The control unit is
Identify mobile attributes,
According to the attribute, specify the content to be projected,
An information providing method for outputting an instruction for projecting the content onto the moving body using the projection device.
投影装置を用いて、移動体に投影するコンテンツを制御する制御部を備えた情報提供システムを用いて情報提供を行なうプログラムであって、
前記制御部を、
移動体の属性を特定し、
前記属性に応じて、投影するコンテンツを特定し、
前記コンテンツを、前記投影装置を用いて前記移動体に対して投影するための指示を出力する手段として機能させることを特徴とする情報提供プログラム。
A program for providing information using an information providing system provided with a control unit for controlling content to be projected onto a moving body using a projection device,
The control unit
Identify mobile attributes,
According to the attribute, specify the content to be projected,
An information providing program for causing the content to function as means for outputting an instruction for projecting the content onto the moving body using the projection device.
JP2015244573A 2015-12-15 2015-12-15 Information providing system, information providing method, and information providing program Pending JP2017111254A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015244573A JP2017111254A (en) 2015-12-15 2015-12-15 Information providing system, information providing method, and information providing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015244573A JP2017111254A (en) 2015-12-15 2015-12-15 Information providing system, information providing method, and information providing program

Publications (1)

Publication Number Publication Date
JP2017111254A true JP2017111254A (en) 2017-06-22

Family

ID=59081550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015244573A Pending JP2017111254A (en) 2015-12-15 2015-12-15 Information providing system, information providing method, and information providing program

Country Status (1)

Country Link
JP (1) JP2017111254A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017023A1 (en) * 2017-07-19 2019-01-24 ソニー株式会社 Information processing device, information processing method, and program
JP2019113705A (en) * 2017-12-22 2019-07-11 株式会社Subaru Image projection device
JP2019114929A (en) * 2017-12-22 2019-07-11 株式会社Subaru Image projection apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007529830A (en) * 2004-03-17 2007-10-25 スリーエム イノベイティブ プロパティズ カンパニー Operation of commercial transport using dynamic rebranding
JP2009271878A (en) * 2008-05-12 2009-11-19 Mitsubishi Electric Information Systems Corp Information provision system, clue transportation equipment, passenger transportation equipment, clue storage device, distributed information provision system and computer program
JP2010506320A (en) * 2006-10-12 2010-02-25 エアバス フランス Projection apparatus and projection method for projecting a two-dimensional motif onto a complex surface of a three-dimensional object
WO2015008756A1 (en) * 2013-07-19 2015-01-22 株式会社ニコン Projection device, control device, control program, and projection control method
JP2015528157A (en) * 2012-06-29 2015-09-24 インテル コーポレイション Method and apparatus for selecting advertisements for display on a digital sign
WO2015151766A1 (en) * 2014-03-31 2015-10-08 コニカミノルタ株式会社 Projection photographing system, karaoke device, and simulation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007529830A (en) * 2004-03-17 2007-10-25 スリーエム イノベイティブ プロパティズ カンパニー Operation of commercial transport using dynamic rebranding
JP2010506320A (en) * 2006-10-12 2010-02-25 エアバス フランス Projection apparatus and projection method for projecting a two-dimensional motif onto a complex surface of a three-dimensional object
JP2009271878A (en) * 2008-05-12 2009-11-19 Mitsubishi Electric Information Systems Corp Information provision system, clue transportation equipment, passenger transportation equipment, clue storage device, distributed information provision system and computer program
JP2015528157A (en) * 2012-06-29 2015-09-24 インテル コーポレイション Method and apparatus for selecting advertisements for display on a digital sign
WO2015008756A1 (en) * 2013-07-19 2015-01-22 株式会社ニコン Projection device, control device, control program, and projection control method
WO2015151766A1 (en) * 2014-03-31 2015-10-08 コニカミノルタ株式会社 Projection photographing system, karaoke device, and simulation device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019017023A1 (en) * 2017-07-19 2019-01-24 ソニー株式会社 Information processing device, information processing method, and program
JP2019113705A (en) * 2017-12-22 2019-07-11 株式会社Subaru Image projection device
JP2019114929A (en) * 2017-12-22 2019-07-11 株式会社Subaru Image projection apparatus
US10812763B2 (en) 2017-12-22 2020-10-20 Subaru Corporation Image projection apparatus
US10921701B2 (en) 2017-12-22 2021-02-16 Subaru Corporation Image projection apparatus

Similar Documents

Publication Publication Date Title
RU2678789C1 (en) Autonomous driving system
CN109564723A (en) Mobile member control apparatus, movable body control method and moving body
CN205809702U (en) Unmanned plane logistics system
US20180143029A1 (en) Intelligent system and method for route planning
CA2982184C (en) System for displaying the status of use of aircraft overhead luggage storage bins
JP2018535472A (en) Information presentation method for public places and mobile service terminal
US20170053555A1 (en) System and method for evaluating driver behavior
JP2017111254A (en) Information providing system, information providing method, and information providing program
WO2014172320A1 (en) Vehicle location-based home automation triggers
EP3164775A1 (en) Open platform for flight restricted region
US20200126418A1 (en) Method and system for vehicle location
CN105527710A (en) Intelligent head-up display system
CN109774729A (en) Realize the quick stopping method and apparatus of automatic driving vehicle
CN107077141A (en) For calculating the system of aeroplane performance and method for performing the calculating
KR20180000767A (en) Unmanned Aerial Vehicle anti-collision method by sharing routes and flight scheduling via Ground Control Station software
JP6949974B2 (en) Imaging control method, device and control device, imaging device
CN110349406A (en) A kind of congestion source origin cause of formation detection method and system
CN112468653A (en) Schedule reminding method and wearable electronic equipment
CN112714919A (en) System and method for providing supporting actions for road sharing
JP7238229B2 (en) Information output device
JP7210394B2 (en) INFORMATION PROVIDING DEVICE, INFORMATION PROVIDING METHOD AND PROGRAM
JP7259178B2 (en) Driving support device
JP7238230B2 (en) Boarding support device
US11379547B2 (en) Information processing system, server, non-transitory computer-readable storage medium, and method for processing information
US11049406B2 (en) Thermal image based precision drone landing systems and methods

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180109