JP2020042334A - 空間提供システム - Google Patents

空間提供システム Download PDF

Info

Publication number
JP2020042334A
JP2020042334A JP2018166845A JP2018166845A JP2020042334A JP 2020042334 A JP2020042334 A JP 2020042334A JP 2018166845 A JP2018166845 A JP 2018166845A JP 2018166845 A JP2018166845 A JP 2018166845A JP 2020042334 A JP2020042334 A JP 2020042334A
Authority
JP
Japan
Prior art keywords
character
space
sheet
user
providing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018166845A
Other languages
English (en)
Inventor
伸樹 林
Nobuki Hayashi
伸樹 林
徳行 西川
Noriyuki Nishikawa
徳行 西川
山田 武史
Takeshi Yamada
武史 山田
克仁 山内
Katsuto Yamauchi
克仁 山内
清栄 日比野
Kiyoe Hibino
清栄 日比野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Boshoku Corp
Original Assignee
Toyota Boshoku Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Boshoku Corp filed Critical Toyota Boshoku Corp
Priority to JP2018166845A priority Critical patent/JP2020042334A/ja
Publication of JP2020042334A publication Critical patent/JP2020042334A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Seats For Vehicles (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】拡張現実空間を介してシートと連動したサービスを提供できる空間提供システムを提供する。【解決手段】本開示の一態様は、実空間に基づいた拡張現実空間と拡張現実空間に配置されるキャラクタとを含む画像を形成する機能制御部と、機能制御部が形成した画像を表示する表示部と、設置された床面上でその全体が移動可能な少なくとも1つのシートと、を備える空間提供システムである。機能制御部は、少なくとも1つのシートの移動と、キャラクタの行動とを連動させる。【選択図】図1

Description

本開示は、空間提供システムに関する。
人が着座するシートにおいて、着席者の姿勢に対応して座面の高さを調整可能なシートが知られている(特許文献1参照)。
特開2018−095062号公報
上記公報のシートは、着席者の利便性を高める物理的機能を有しているが、着席者の状況に合わせて、コンテンツ等の付加価値をサービスとして着席者に提供する機能は備えていない。
本開示の一局面は、拡張現実空間を介してシートと連動したサービスを提供できる空間提供システムを提供することを目的としている。
本開示の一態様は、実空間に基づいた拡張現実空間と拡張現実空間に配置されるキャラクタとを含む画像を形成する機能制御部(3)と、機能制御部(3)が形成した画像を表示する表示部(4)と、設置された床面上でその全体が移動可能な少なくとも1つのシート(5A,5B)と、を備える空間提供システム(1)である。機能制御部(3)は、少なくとも1つのシート(5A,5B)の移動と、キャラクタの行動とを連動させる。
このような構成によれば、シート(5A,5B)の移動とキャラクタの行動とが連動することで、拡張現実空間に存在するキャラクタの実在感を高めることができる。その結果、キャラクタとの高質なコミュニケーションをユーザにサービスとして提供することができる。
本開示の一態様では、機能制御部(3)は、少なくとも1つのシート(5A,5B)のユーザによる移動に合わせて、キャラクタの姿勢又は情報を変化させてもよい。このような構成によれば、ユーザによるシート(5A,5B)の移動に伴って、キャラクタを移動させたり、キャラクタのステータスを変化させたりすることができる。その結果、キャラクタとのコミュニケーションの質を高めることができる。
本開示の一態様では、機能制御部(3)は、キャラクタの動きに合わせて、少なくとも1つのシート(5A,5B)を移動させてもよい。このような構成によれば、キャラクタによって実空間のシート(5A,5B)が動かされるような疑似体験がユーザに供されるので、キャラクタの実在感を高めることができる。
なお、上記各括弧内の符号は、後述する実施形態に記載の具体的構成等との対応関係を示す一例であり、本開示は上記括弧内の符号に示された具体的構成等に限定されるものではない。
図1は、実施形態における空間提供システムを示す模式図である。 図2は、図1の空間提供システムの模式的な構成図である。 図3は、図1の処理部が実行する処理を概略的に示すフロー図である。 図4は、図1の処理部が実行する処理における動作の関係の一例を示すブロック図である。
以下、本開示が適用された実施形態について、図面を用いて説明する。
[1.第1実施形態]
[1−1.構成]
図1に示す空間提供システム1は、移動体2と、機能制御部3と、表示部4と、第1シート5A及び第2シート5Bとを備える。
<移動体>
移動体2は、第1シート5A及び第2シート5Bが配置された内部空間2Aを有すると共に、電力等の動力を用いて地上を自走可能な装置である。
移動体2の内部空間2Aは、空間提供システム1を利用するユーザUが滞在する客室を構成する。移動体2の内部空間2Aは、1つの地点に固定されない移動可能な空間(つまりモビリティ空間)である。
移動体2は、自動運転機能を有し、予め定められたルートに沿った自動走行が可能である。移動体2は、内部空間2Aと移動体2の外部とを仕切る少なくとも1つの窓を備えており、移動体2の内部空間2Aに搭乗したユーザUは、窓を介して移動体2の外側の景観を視認できる。
移動体2の内部空間2Aには、第1シート5A及び第2シート5B以外に、図示されていない、机、照明、空調設備、ディスプレイ、運転制御機器(例えば、タッチパネル等の入力デバイス)等の設備が配置される。
<機能制御部>
機能制御部3は、表示部4に表示する画像(以下、「提供画像」ともいう。)を形成する画像形成機能と、移動体2の位置情報を取得する位置情報取得機能と、第1シート5A及び第2シート5Bを移動させるシートレイアウト制御機能と、ユーザUの状態を推定するユーザ状態推定機能とを有する。
本実施形態では、図2に示すように、機能制御部3は、処理部31と、データベース32と、情報取得部33と、撮像部34とを有する。なお、機能制御部3は、上述した構成に含まれないハードウェアを有してもよい。
空間提供システム1は、機能制御部3によるユーザUへのコンテンツの提供と、移動体2の移動とを同時に行うことができる。つまり、空間提供システム1は、ユーザUを運送しながら、サービス空間を提供することができる。
(処理部)
処理部31は、データベース32、情報取得部33、撮像部34、及びシート5A,5Bからの入力に基づき、提供画像の形成と、シート5A,5Bの移動と、ユーザUの状態の推定とを行う。
処理部31は、例えば、CPU(Central Processing Unit)等のプロセッサと、メモリ等の記憶部と、入出力部とを有するコンピュータによって構成される。
(データベース)
データベース32は、提供画像を構成する拡張現実(AR:Augmented Reality)空間に配置される仮想人物であるキャラクタVの情報を含むデータと、キャラクタVを動かすプログラムとを記憶している。
ここで、「キャラクタの情報」とは、キャラクタの容姿、音声等の身体的特徴に加え、キャラクタの性格、各ユーザに対する親密度等のステータスと、キャラクタの行動パターンとを含む概念である。
キャラクタVの行動パターン(例えば、発言内容、しぐさ等)は、キャラクタVのステータスとリンクされる。つまり、キャラクタVの性格やユーザUに対する新密度によって、キャラクタVの行動パターンは変化する。
なお、データベース32は、移動体2の外部の固定設備に設置された外部ストレージであってもよい。データベース32が外部ストレージの場合は、データベース32のデータは、例えば無線通信によって処理部31に送信される。
(情報取得部)
情報取得部33は、移動体2の現在位置を示す位置情報を取得し、処理部31に送信する。情報取得部33は、例えばGPS(Global Positioning System)を利用して、位置情報を取得する。
また、情報取得部33は、移動体2の現在位置における気候(例えば、天気、温度、湿度等)の情報を取得してもよい。気候情報は、例えば、移動体2に設けられたセンサ等によって取得されてもよいし、空間提供システム1の外部の気候情報提供サービスへのアクセスによって取得されてもよい。情報取得部33は、データベース32と同様、移動体2の外部の固定設備に設置されてもよい。
(撮像部)
撮像部34は、処理部31において、実空間に基づいた拡張現実空間を形成するために、移動体2の内部空間2Aを撮影した画像を取得する。また、撮像部34の撮像によって、ユーザUの位置及び姿勢情報が取得できる。
撮像部34は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を用いた少なくとも1つのカメラを有する。
撮像部34を構成する少なくとも1つのカメラは、移動体2の内部空間2A全体の画像が取得できるように配置されている。
<表示部>
表示部4は、機能制御部3が形成した提供画像を表示する装置である。本実施形態では、表示部4は、ユーザUが装着するウェアラブルデバイスによって構成されている。
表示部4を構成するウェアラブルデバイスとしては、例えば、ユーザUの頭部に装着されるヘッドマウントディスプレイが使用できる。ヘッドマウントディスプレイは、ユーザUの眼を覆うディスプレイと、ジャイロセンサ、加速度センサ等のヘッドトラッキング用のセンサとを有する。
表示部4としてヘッドマウントディスプレイを用いることで、ユーザUの位置及び姿勢を計測できるほか、拡張現実空間への没入感を高めることができる。なお、表示部4として用いられるウェアラブルデバイスは、ヘッドマウントディスプレイに限定されない。
<シート>
第1シート5A及び第2シート5Bは、それぞれ、移動体2の内部空間2Aの床面に設置されている。
第1シート5A及び第2シート5Bは、それぞれ、内部空間2Aの床面上でその全体が移動可能及び回転可能に構成されている。ここで、「シート全体の移動」とは、シートの重心位置が変化するようにシート全体(つまり、シートクッション及びシートバック)がスライド等によって変位することを意味し、シート全体の公転も含む。また、「シート全体の回転」とは、シートの重心位置を変化させずにシートが変位すること(つまり自転)を意味する。
第1シート5A及び第2シート5Bは、それぞれ、ユーザU又はキャラクタVが着座するシート本体と、内部空間2Aの床面に対しシート本体を相対移動させる移動機構とを有する。
移動機構としては、例えば、シート本体から延伸する少なくとも1つの脚部と、少なくとも1つの脚部の先端に設けられた車輪と、シート本体の底部に配置されたスライド装置と、スライド装置を駆動させるアクチュエータとを備えるものが使用できる。スライド装置は、内部空間2Aの床面に配置されたレールに沿ってシート本体をスライドさせる。
第1シート5A及び第2シート5Bは、移動機構によって、内部空間2A内の任意の位置に移動できると共に、任意の向きに回転することができる。本実施形態では、第1シート5AにユーザUが着座し、第2シート5Bには、拡張現実空間においてキャラクタVが着座する。
各シート5A,5Bには、ユーザUの姿勢を検知するためのセンサと、このセンサの検知結果を処理部31に送信する送信装置とが設けられていてもよい。また、各シート5A,5Bには、ユーザUに振動等の物理的な刺激を与える装置が設けられていてもよい。
<処理部による処理>
処理部31は、実空間に基づいた拡張現実空間とこの拡張現実空間に配置されるキャラクタVとを含む提供画像を形成する。
具体的には、処理部31は、撮像部34からリアルタイムに送信される画像を用いて、内部空間2Aと移動体2の外部の景観とを含む拡張現実空間を作成し、さらに、この拡張現実空間にデータベース32のキャラクタ情報に基づいてキャラクタVを配置することで、リアルタイムに提供画像を形成する。提供画像は、リアルタイムに表示部4に送信される。
例えば、各シート5A,5Bの移動、移動体2から見える景観の変化、内部空間2Aの照明の変化等は、即時提供画像に反映される。その結果、ユーザUは、表示部4を介して、これらの変化を拡張現実空間においてリアルタイムで認識することができる。
処理部31は、2つのシート5A,5Bの移動と、キャラクタVの行動とを連動させる。処理部31は、例えば、撮像部34が取得した内部空間2Aの画像の解析、又は各シート5A,5Bから送信される現在位置データに基づいて、各シート5A,5Bの移動を把握する。
具体的には、処理部31は、ユーザUによる第1シート5A及び/又は第2シート5Bの移動に合わせて、キャラクタVの姿勢又は情報を変化させる。例えば、キャラクタVが着座している第2シート5Bを、ユーザUに近づくようにユーザUが移動させた場合、処理部31は、第2シート5Bの移動に合わせてキャラクタVの姿勢(つまり位置及び体の向き)を変化させると共に、ユーザUに対するキャラクタVの親密度のパラメータを変化させる。つまり、ユーザUによるシート5A,5Bの移動を入力として、キャラクタVについてのシナリオが分岐する。なお、処理部31によって変更されたキャラクタ情報は、データベース32に記憶される。
また、処理部31は、キャラクタVの動きに合わせて、第1シート5A及び/又は第2シート5Bを移動させる。例えば、ユーザUが着座している第1シート5Aを、キャラクタVに近づくようにキャラクタVが移動させる動きをする時、処理部31は、第1シート5AをキャラクタVの動きに合わせてキャラクタVに近づける。
なお、処理部31は、第1シート5A及び/又は第2シート5Bの移動を伴わない動作をユーザUが行った場合にも、ユーザUの動作に合わせて、キャラクタVを動かす。例えば、ユーザUが第1シート5Aから立ち上がった場合に、処理部31は、キャラクタVの顔の向きを変えたり、キャラクタVに何らかの発言をさせたりすることができる。
さらに、処理部31は、情報取得部33から送信された位置情報に基づいて、第1シート5A及び/又は第2シート5Bを移動させる。例えば、移動体2の現在位置に合わせて、第1シート5A及び第2シート5Bの位置及び/又は向きを変えて、シンボル、ランドマーク等の景観をユーザUがキャラクタVと共に鑑賞できるようにする。
また、処理部31は、位置情報に基づいたコンテンツを作成し、このコンテンツを拡張現実空間に合成することで提供画像を形成する。上記コンテンツは、例えば、移動体2の現在位置における外部環境に合わせて発言内容、しぐさ等のステータスが変化するキャラクタVを含む。
また、上記コンテンツは、キャラクタV以外の構成要素を含んでもよい。例えば、上記コンテンツは、キャラクタVに加えて、移動体2の現在位置又は現在位置から見える景観に関する情報や、ユーザUを盛り上げるための視覚的な演出等を含んでもよい。これらの情報又は演出は、例えば、文字、図形、又はこれらの組み合わせによって構成される。
以下、図3のフロー図を参照しつつ、処理部31が実行する処理について説明する。
本処理では、処理部31は、ユーザUの行動、移動体2の周囲環境の変化、及びキャラクタVの行動のうち少なくとも1つを検知する(ステップS10)。
ユーザUの行動は、例えば、撮像部34から取得した画像の解析、表示部4を構成するウェアラブルデバイスのセンサ、第1シート5Aに設けられたセンサ等によって検知される。
移動体2の周囲環境の変化の有無は、例えば、情報取得部33によって取得された位置情報、天候情報等を用いて判断される。
キャラクタVの行動の変化は、キャラクタVを動かすプログラムの内容に基づいて検知される。
処理部31は、ステップS10における検知結果に基づいて、拡張現実空間におけるシーンの変更を行う(ステップS20)。例えば、移動体2の現在位置(つまり、各シート5A,5Bから見える景観)、天候等の変化に基づいて、処理部31は、拡張現実空間における演出を変更する。この演出としては、空間の明暗や色調、キャラクタV以外のコンテンツの内容変更等が挙げられる。
また、処理部31は、ステップS10における検知結果に基づいて、各シート5A,5Bのレイアウトの変更を行う(ステップS30)。例えば、移動体2の現在位置又はキャラクタVの行動に基づいて、処理部31は、第1シート5A及び/又は第2シート5Bを移動させる。
さらに、処理部31は、ステップS10における検知結果に基づいて、キャラクタVの情報の一部であるステータスの変更を行う(ステップS40)。例えば、移動体2の現在位置又はユーザUの行動に基づいて、処理部31は、キャラクタVのユーザUに対する親密度を変化させる。
次に、図4を用いて処理部31がユーザUに提供するコンテンツの具体例を説明する。
図4のブロック図は、ユーザUがキャラクタVと移動体2を用いてデートを行うコンテンツにおける動作の関係を想定したものである。
このコンテンツでは、デート場所情報(つまり、移動体2の現在位置)、ユーザUの行動、及びキャラクタVの行動によって、シートレイアウトが変更される。シートレイアウトの変更によって、ユーザU又はキャラクタVの行動が変化すると、さらにデートシーンが変更される。
デートシーンは、地図情報に基づく景観の変化があった場合、又は天気情報に基づく天気の変化があった場合にも変更される。デートシーンの変更によって、ユーザUの感情が盛り上がったと判断されれば、キャラクタVの親密度が高められ、しゃべり方が変更される。さらに、盛り上げを助長するために、第1シート5Aへの振動付与等の空間制御が行われる。
一方、デートシーンの変更によって、ユーザUの感情が盛り上がらなかった場合は、デートシーンの変更が繰り返される。これにより、訴求性の高い演出を提供できる。なお、ユーザUの盛り上がり度合いは、例えば、ユーザUの姿勢、心拍、呼吸等を測定し、これらの測定値の推移に基づいて推測することができる。
[1−3.効果]
以上詳述した実施形態によれば、以下の効果が得られる。
(1a)シート5A,5Bの移動とキャラクタVの行動とが連動することで、拡張現実空間に存在するキャラクタVの実在感を高めることができる。その結果、キャラクタVとの高質なコミュニケーションをユーザUにサービスとして提供することができる。
(1b)ユーザUによるシート5A,5Bの移動に伴って、キャラクタVを移動させたり、キャラクタVのステータスを変化させたりすることができる。その結果、キャラクタVとのコミュニケーションの質を高めることができる。
(1c)キャラクタVによって実空間のシート5A,5Bが動かされるような疑似体験がユーザUに供されるので、キャラクタVの実在感を高めることができる。
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
(2a)上記実施形態の空間提供システム1において、機能制御部3は、シート5A,5Bの移動に合わせたキャラクタVの姿勢又は情報の変化処理、及びキャラクタVの動きに合わせたシート5A,5Bの移動処理のうち、どちらか一方の処理のみを行ってもよい。また、機能制御部3は、シート5A,5Bの移動とキャラクタVとの行動とを連動させた処理として、上記変化処理及び上記移動処理以外の処理を行ってもよい。
(2b)上記実施形態の空間提供システム1において、表示部4は、ウェアラブルデバイスに限定されない。例えば、内部空間2Aに配置された平面ディスプレイを表示部4として用いてもよい。また、内部空間2Aを構成する窓にディスプレイ機能を持たせて表示部4として使用してもよい。
(2c)上記実施形態の空間提供システム1において、内部空間2Aを有する移動体2は地上を走行するものに限定されない。移動体2は、例えば、船舶、航空機、宇宙船等であってもよい。
(2d)上記実施形態の空間提供システム1において、機能制御部3は、必ずしも位置情報に基づいたコンテンツの作成を行わなくてもよい。さらに、機能制御部3は、位置情報に基づいたシート5A,5Bの移動処理を行わなくてもよい。つまり、移動体2は、キャラクタVを含むコンテンツの提供時に必ずしも移動しなくてもよい。さらに、シート5A,5Bは、移動しない構造物(つまり、建物)に設けられた内部空間に配置されてもよい。
(2e)上記実施形態の空間提供システム1において、機能制御部3が制御するシートの数は2つに限定されない。シートの数は1つであってもよいし、3つ以上であってもよい。また、2人以上のユーザUが1つの空間提供システム1を同時に使用してもよいし、2人以上のキャラクタVが1つの拡張現実空間に配置されてもよい。
(2f)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。なお、特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
1…空間提供システム、2…移動体、2A…内部空間、3…機能制御部、4…表示部、
5A…第1シート、5B…第2シート、31…処理部、32…データベース、
33…情報取得部、34…撮像部。

Claims (3)

  1. 実空間に基づいた拡張現実空間と前記拡張現実空間に配置されるキャラクタとを含む画像を形成する機能制御部と、
    前記機能制御部が形成した画像を表示する表示部と、
    設置された床面上でその全体が移動可能な少なくとも1つのシートと、
    を備え、
    前記機能制御部は、前記少なくとも1つのシートの移動と、前記キャラクタの行動とを連動させる、空間提供システム。
  2. 請求項1に記載の空間提供システムであって、
    前記機能制御部は、前記少なくとも1つのシートのユーザによる移動に合わせて、前記キャラクタの姿勢又は情報を変化させる、空間提供システム。
  3. 請求項1又は請求項2に記載の空間提供システムであって、
    前記機能制御部は、前記キャラクタの動きに合わせて、前記少なくとも1つのシートを移動させる、空間提供システム。
JP2018166845A 2018-09-06 2018-09-06 空間提供システム Pending JP2020042334A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018166845A JP2020042334A (ja) 2018-09-06 2018-09-06 空間提供システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018166845A JP2020042334A (ja) 2018-09-06 2018-09-06 空間提供システム

Publications (1)

Publication Number Publication Date
JP2020042334A true JP2020042334A (ja) 2020-03-19

Family

ID=69798284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166845A Pending JP2020042334A (ja) 2018-09-06 2018-09-06 空間提供システム

Country Status (1)

Country Link
JP (1) JP2020042334A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021166627A (ja) * 2020-04-10 2021-10-21 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021166627A (ja) * 2020-04-10 2021-10-21 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム
JP7219404B2 (ja) 2020-04-10 2023-02-08 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム

Similar Documents

Publication Publication Date Title
ES2965043T3 (es) Sistema y método de paseo aumentado
US11321923B2 (en) Immersive display of motion-synchronized virtual content
AU2017204739B2 (en) Massive simultaneous remote digital presence world
KR102466349B1 (ko) 몰입형 가상 디스플레이
US9558715B2 (en) Interactive passenger cabin unit and method for controlling presentations thereon
JP2024028376A (ja) 拡張現実および仮想現実のためのシステムおよび方法
US9779550B2 (en) Augmented reality system
KR20210011416A (ko) 차량 탑승자 및 원격 사용자를 위한 공유 환경
CN111480194B (zh) 信息处理装置、信息处理方法、程序、显示系统和移动物体
US9996149B1 (en) Method for one-touch translational navigation of immersive, virtual reality environments
US10984242B1 (en) Virtual proximity compass for navigating artificial reality environments
US20230135138A1 (en) Vr training system for aircraft, vr training method for aircraft, and vr training program for aircraft
KR20190046302A (ko) 영상 속 비행체 동작과 연동된 감가속/방향전환 체감이 가능한 vr기반 12인승 비행체험 시뮬레이터
JP2020042334A (ja) 空間提供システム
CN105814604B (zh) 用于提供位置信息或移动信息以用于控制车辆的至少一种功能的方法和系统
US20200097069A1 (en) Virtual Reality Input Device
CN110651304B (zh) 信息处理装置、信息处理方法以及程序
JP2020040425A (ja) 空間提供システム
JP7326740B2 (ja) 空間提供システム
JP7095593B2 (ja) 興味推定システム
JP7247784B2 (ja) 興味推定システム
Ahn et al. SPRinT: A mixed approach to a hand-held robot interface for telepresence
KR102046918B1 (ko) 서브모터를 이용한 모션 입력 장치 및 모션 입력 방법
WO2018206605A1 (en) Transport simulation in a location-based mixed-reality game system
JP2019020829A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム