JP2017021560A - 疑似体験システム、疑似体験方法、ポータブルデバイスおよびその疑似体験プログラム - Google Patents

疑似体験システム、疑似体験方法、ポータブルデバイスおよびその疑似体験プログラム Download PDF

Info

Publication number
JP2017021560A
JP2017021560A JP2015138497A JP2015138497A JP2017021560A JP 2017021560 A JP2017021560 A JP 2017021560A JP 2015138497 A JP2015138497 A JP 2015138497A JP 2015138497 A JP2015138497 A JP 2015138497A JP 2017021560 A JP2017021560 A JP 2017021560A
Authority
JP
Japan
Prior art keywords
portable device
virtual
user
display
height
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015138497A
Other languages
English (en)
Other versions
JP6043408B1 (ja
Inventor
朋基 板宮
Tomoki Itamiya
朋基 板宮
憲一 板宮
Kenichi Itamiya
憲一 板宮
光恵 板宮
Mitsue Itamiya
光恵 板宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ISM Corp
Original Assignee
ISM Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ISM Corp filed Critical ISM Corp
Priority to JP2015138497A priority Critical patent/JP6043408B1/ja
Application granted granted Critical
Publication of JP6043408B1 publication Critical patent/JP6043408B1/ja
Publication of JP2017021560A publication Critical patent/JP2017021560A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】災害時の状況を臨場感を持って疑似体験すること。【解決手段】ユーザが携帯可能なポータブルデバイスのディスプレイがユーザの目の前に位置するように、前記ポータブルデバイスを保持するゴーグルを備えた疑似体験システムにおける前記ポータブルデバイスであって、ユーザの目に対応する仮想カメラと、ユーザの視線に対応する仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成部と、少なくとも仮想カメラと仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成部と、映像を仮想スクリーンに投影する投影部と、ユーザの視点から前記仮想スクリーンを見たときの、形成された面および投影された映像を仮想カメラにより撮像して、ディスプレイに表示するよう制御する表示制御部と、を備えた。【選択図】 図1B

Description

本発明は、疑似体験システム、疑似体験方法、ポータブルデバイスおよびその疑似体験プログラムに関する。
上記技術分野において、特許文献1には、携帯型電子機器を取り付けることのできるヘッドマウント装置が開示されている。そして、ヘッドマウント装置を装着したユーザの目の前に携帯型電子機器のディスプレイが位置するようにし、ユーザがディスプレイに映し出された映画やテレビ番組などの映像を見ることができる技術が開示されている。特許文献2には、携帯型電子機器を取り付けることのできるヘッドセットが開示されている。そして、携帯型電子機器のカメラによって撮影した映像を携帯型電子機器のディスプレイに表示することにより、ヘッドセットを装着したユーザがディスプレイに表示された映像を見ながら遊べるようにした技術が開示されている。
US2010/0079356号公報 US8970960号公報
しかしながら、上記文献に記載の技術では、携帯型電子機器に表示される映像は娯楽に関するものであり、災害の擬似体験に目を向けたものではなかった。
本発明の目的は、上述の課題を解決する技術を提供することにある。
上記目的を達成するため、本発明に係るポータブルデバイスは、
ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように、前記ポータブルデバイスを保持するゴーグルを備えた疑似体験システムにおける前記ポータブルデバイスであって、
前記ユーザの目に対応する仮想カメラと、前記ユーザの視線に対応する前記仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成手段と、
少なくとも前記仮想カメラと前記仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成手段と、
映像を前記仮想スクリーンに投影する投影手段と、
前記ユーザの視点から前記仮想スクリーンを見たときの、前記形成された面および前記投影された映像を前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御手段と、
を備えた。
上記目的を達成するため、本発明に係る擬似体験プログラムは、
ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように、前記ポータブルデバイスを保持するゴーグルを備えた疑似体験システムにおける前記ポータブルデバイスの擬似体験プログラムであって、
前記ユーザの目に対応する仮想カメラと、前記ユーザの視線に対応する前記仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成ステップと、
少なくとも前記仮想カメラと前記仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成ステップと、
映像を前記仮想スクリーンに投影する投影ステップと、
前記ユーザの視点から前記仮想スクリーンを見たときの、前記形成された面および前記投影された映像を前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御ステップと、
をコンピュータに実行させる。
上記目的を達成するため、本発明に係る擬似体験システムは、
ユーザが携帯可能なポータブルデバイスと、ゴーグルとを含む疑似体験システムであって、
前記ポータブルデバイスは、
前記ユーザの目に対応する仮想カメラと、前記ユーザの視線に対応する前記仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成手段と、
少なくとも前記仮想カメラと前記仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成手段と、
映像を前記仮想スクリーンに投影する投影手段と、
前記ユーザの視点から前記仮想スクリーンを見たときの、前記形成された面および前記投影された映像を前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御手段と、
を備え、
前記ゴーグルは、前記ユーザの目の前に前記ディスプレイが位置するように前記ポータブルデバイスを保持する保持手段を備えた。
上記目的を達成するため、本発明に係る擬似体験方法は、
ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように、前記ポータブルデバイスを保持するゴーグルを備えた疑似体験システムにおける擬似体験方法であって、
前記ゴーグルに保持された前記ポータブルデバイスにロードされた擬似体験プログラムを起動させる起動ステップと、
前記ユーザの目に対応する仮想カメラと、前記ユーザの視線に対応する前記仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成ステップと、
少なくとも前記仮想カメラと前記仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成ステップと、
映像を前記仮想スクリーンに投影する投影ステップと、
前記ユーザの視点から前記仮想スクリーンを見たときの、前記形成された面および前記投影された映像を前記仮想カメラにより撮像して、前記ディスプレイに表示する表示ステップと、
を含む。
本発明によれば、災害時の状況に対し臨場感のある疑似体験することができる。
本発明の第1実施形態に係る疑似体験システムの構成を説明するための図である。 本発明の第1実施形態に係るポータブルデバイスの構成を示すブロック図である。 本発明の第2実施形態に係る疑似体験システムの構成を説明するための図である。 本発明の第2実施形態に係る疑似体験システムの構成を説明するための図である。 本発明の第2実施形態に係るポータブルデバイスの機能構成を説明するためのブロック図である。 本発明の第2実施形態に係るポータブルデバイスのハードウェア構成を説明するためのブロック図である。 本発明の第2実施形態に係るポータブルデバイスの動作を説明するためのフローチャートである。 本発明の第2実施形態に係る仮想空間生成処理の動作を説明するためのフローチャートである。 本発明の第2実施形態に係る表示情報生成処理の動作を説明するためのフローチャートである。 本発明の第2実施形態に係るポータブルデバイスのディスプレイに表示する映像の生成方法を説明するための図である。 本発明の第2実施形態に係るポータブルデバイスのディスプレイに表示する映像の生成方法を説明するための図である。 本発明の第2実施形態に係るポータブルデバイスの身長入力画面を説明するための図である。 本発明の第2実施形態に係るポータブルデバイスの仮想水害情報選択画面を説明するための図である。 本発明の第2実施形態に係るポータブルデバイスのディスプレイに映し出された映像を説明するための図である。 本発明の第2実施形態に係るポータブルデバイスのディスプレイをユーザがVRゴーグルをとおして見た状態を説明するための図である。 本発明の第3実施形態に係るポータブルデバイスの機能構成を説明するためのブロック図である。 本発明の第3実施形態に係るポータブルデバイスのハードウェア構成を説明するための図である。 本発明の第3実施形態に係るポータブルデバイスの動作を説明するためのフローチャートである。 本発明の第3実施形態に係るポータブルデバイスの身長および階数の入力画面を説明するための図である。 本発明の第3実施形態においてレンズが向いている方向が危険であることをディスプレイに表示した一例を説明する図である。 本発明の第4実施形態に係るポータブルデバイスの機能構成を説明するためのブロック図である。 本発明の第4実施形態に係るポータブルデバイスのハードウェア構成を説明するためのブロック図である。 本発明の第4実施形態に係るポータブルデバイスの動作を説明するためのフローチャートである。 本発明の第4実施形態に係るポータブルデバイスの位置情報入力画面を説明するための図である。 本発明の第5実施形態に係るポータブルデバイスの機能構成を説明するためのブロック図である。 本発明の第5実施形態に係るポータブルデバイスの仮想空間を説明するための図である。 本発明の第5実施形態に係るポータブルデバイスのハードウェア構成を説明するためのブロック図である。 本発明の第5実施形態に係るポータブルデバイスの動作を説明するためのフローチャートである。 本発明の第5実施形態に係る仮想空間生成処理の動作を説明するためのフローチャートである。 本発明の第6実施形態に係るポータブルデバイスの機能構成を説明するためのブロック図である。 本発明の第6実施形態に係るポータブルデバイスのハードウェア構成を説明するための図である。 本発明の第6実施形態に係るポータブルデバイスの動作を説明するためのフローチャートである。 本発明の第7実施形態に係るポータブルデバイスの機能構成を説明するためのブロック図である。 本発明の第7実施形態に係るポータブルデバイスのハードウェア構成を説明するためのブロック図である。 本発明の第7実施形態に係るポータブルデバイスの動作を説明するためのフローチャートである。 本発明の第7実施形態に係るポータブルデバイスの映像選択画面を説明するための図である。 本発明の第8実施形態に係るポータブルデバイスの機能構成を説明するためのブロック図である。 本発明の第8実施形態に係るポータブルデバイスのハードウェア構成を説明するためのブロック図である。 本発明の第8実施形態に係るポータブルデバイスの動作を説明するためのフローチャートである。 本発明の第8実施形態に係る仮想空間生成処理の動作を説明するためのフローチャートである。 本発明の第8実施形態に係るポータブルデバイスのディスプレイに表示する映像の生成方法を説明するための図である。 本発明の第8実施形態に係るポータブルデバイスの仮想火災情報選択画面を説明するための図である。 本発明の第8実施形態に係るポータブルデバイスのディスプレイに映し出された映像を説明するための図である。 本発明の第8実施形態に係るポータブルデバイスのディスプレイに映し出された映像を説明するための図である。
以下に、本発明の例示的な実施形態について、図面を参照して、以下に詳しく説明記載する。ただし、以下の実施の形態に記載されている、構成、数値、処理の流れ、機能要素などはあくまで一例であり、本発明の技術範囲をそれらの記載のみに限定する趣旨のものではない。
[第1実施形態]
本発明の第1実施形態に係る疑似体験システム100について、図1Aおよび図1Bを用いて説明する。図1Aに示すように、疑似体験システム100は、ポータブルデバイス101とゴーグル102とを備えている。ポータブルデバイス101はディスプレイ111がユーザの目の前に位置するように、ゴーグル102の保持部121に保持される。
図1Bに示すように、ポータブルデバイス101は、ユーザが携帯するデバイスであって、ディスプレイ111と、仮想空間生成部112と、形成部113と、投影部114と、表示制御部115と、を含む。
仮想空間生成部112は、ユーザの目に対応する仮想カメラ121と、ユーザの視線に対応する仮想カメラ121の撮像方向に垂直な仮想スクリーン122とを有する仮想空間を生成する。
形成部113は、少なくとも仮想カメラ121と仮想スクリーン122との間に、災害時に生じる現象を表わす面123を形成する。投影部114は、映像124を仮想スクリーン122に投影する。
表示制御部114は、形成された面123と投影された映像124とを仮想カメラ121により撮像して、ディスプレイ111に表示するよう制御する。
使用に際して、ユーザはゴーグル102をとおしてディスプレイ111に表示された映像を見る。
本実施形態によれば、ユーザが携帯所持するポータブルデバイスのディスプレイに、災害時に生じる現象を表わす面と映像とが表示されるので、ユーザは災害時の状況に対し臨場感のある疑似体験することができる。さらに、ポータブルデバイスはユーザが携帯所持できるので、あらゆる場所において容易に使用して擬似体験することができる。
[第2実施形態]
次に本発明の第2実施形態に係る疑似体験システムについて、図2乃至図11を用いて説明する。図2および図3は、本実施形態に係る疑似体験システムを説明するための概観図である。
《疑似体験システム》
図2において、疑似体験システム200は、ポータブルデバイス201とバーチャルリアリティ(VR:virtual reality)ゴーグル(以下、VRゴーグルと称する)202とを備えている。
ポータブルデバイス201は、長方形の板状形状を有し、その表面にはカメラのレンズ211を備えている。
VRゴーグル202は、正面221の側にポータブルデバイス201の挿入部222を備えている。挿入部222はその上部に開口部223を有し、この開口部223からポータブルデバイス201を挿入して保持することができる。また、VRゴーグル202の正面221にはポータブルデバイス201のカメラのレンズ211の位置に開口部224が形成されている。
また、図3に示すように、ポータブルデバイス201は、裏面にディスプレイ312を備えている。
VRゴーグル202の内側面325には、ユーザの目の位置に合わせて2つのレンズ326、327が取り付けられている。これにより、レンズ326、327を介して、挿入部222に挿入されたポータブルデバイス201のディスプレイ312を見ることができる。ディスプレイ312には、右目用映像313と左目用映像314とが表示されて、ユーザが3次元映像を見ることができるため、臨場感のある災害の擬似体験が可能である。
《ポータブルデバイスの機能構成》
図4は本実施形態に係るポータブルデバイス201の機能構成を説明するためのブロック図である。図4に示すように、ポータブルデバイス201は、レンズ211を有するカメラ411、仮想空間生成部412、水面形成部413、映像投影部414、表示制御部415、ディスプレイ312、および、3軸ジャイロセンサ416を備えている。さらに、ポータブルデバイス201は、仮想水害情報記憶部417、仮想水害情報選択部418、および身長入力部419を備えている。
カメラ411は、レンズ211を介して周囲の映像を撮影してデジタルデータとして出力する。仮想空間生成部412は、ポータブルデバイス201のメモリ空間内に3次元の仮想空間を生成する。本実施形態においては、可能空間内に、右目用と左目用の仮想カメラ421と、仮想カメラ421の撮像方向に垂直に配置された映像投影用の仮想スクリーンと、水害時の擬似水面423と、が配置される。仮想カメラ421の高さはユーザの視点位置であるカメラ411の高さに対応し、擬似水面423の位置は、水害時の水位に対応する。なお、仮想空間内では、仮想カメラ421の高さと擬似水面423の位置とは相対的に配置されればよい。
水面形成部413は、仮想水害情報選択部418を用いてユーザが選択した仮想水害情報の水位に基づいて、仮想空間内に水面を形成する。映像投影部414は、カメラ411から出力された映像を取得し、この映像を仮想空間内に生成された仮想スクリーンに投影する。身長入力部419は、ユーザの操作に基づいて、ユーザの身長を入力し、身長からユーザの目線の高さを算出する。そして、目線の高さに仮想カメラ412を設定する。
表示制御部415は、仮想空間内の、ユーザの目線の高さにある仮想カメラ421から見た仮想スクリーン422に投影された映像および形成された水面を仮想的に撮像した映像データを生成し、その映像をディスプレイ312に表示する。
3軸ジャイロセンサ415は、ポータブルデバイス201の傾きと回動を検出してポータブルデバイス201の傾きを表わす情報と、カメラ411のレンズ211の回動方向を表わす情報とを仮想空間生成部412に出力して、仮想カメラ421および仮想スクリーン422の位置を設定する。
仮想水害情報記憶部417は、仮想水害情報を記憶している。仮想水害情報としては、津波、高潮、あるいは洪水による水位情報などである。また、仮想水害情報記憶部417は、2つ以上の仮想水害情報を記憶している。なお、仮想水害情報記憶部417に記憶された仮想水害情報は、水害の擬似体験をする現在位置に関連する水害情報であることが望ましい。
仮想水害情報選択部418は、ユーザの操作に基づいて、仮想水害情報記憶部417に記憶されている仮想水害情報のうちのいずれかを選択して、選択した仮想水害情報を形成部416に出力する。
《ポータブルデバイスのハードウェア構成》
図5は、本実施形態に係るポータブルデバイス201のハードウェア構成を説明するためのブロック図である。図5に示すように、ポータブルデバイス201は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、およびストレージ504を備えている。さらに、ポータブルデバイス201は、入力部505と出力部506とを備えている。
CPU501は中央処理部であって、様々なプログラムを実行することによりポータブルデバイス201全体を制御する。ROM502は、リードオンリメモリであり、CPU501が最初に実行すべきブートプログラムの他、各種パラメータ等を記憶している。
また、RAM503は、ランダムアクセスメモリであり、映像データ531、身長情報532、水面データ533、および表示映像データ534を記憶する。
また、ストレージ504は、格納データとして、仮想水害情報データベース541を有している。また、ストレージ504は、CPU501が実行するプログラムとして、仮想空間生成モジュール542、水害情報選択モジュール543、身長入力モジュール544、水面形成モジュール545、映像投影モジュール546、および、表示制御モジュール547を有している。
入力部505は、タッチパネル551、カメラ411、3軸ジャイロセンサ415、およびこれらからの入力をCPU501に渡す入力インタフェース552を含む。ここでは、タッチパネル551は、ポータブルデバイス201のディスプレイ312上に備わる。
出力部506は、出力インタフェース561とディスプレイ312とを含む。
《ポータブルデバイスの動作説明》
図6Aは、ポータブルデバイス201の動作を説明するためのフローチャートである。
図6Aに示すように、ポータブルデバイス201は、動作を開始すると、ステップS601において、身長の入力画面を表示し、ステップS603において、ユーザによって身長が入力されたか否かを判定する。ステップS603の判定の結果、身長が入力されてないときは、ポータブルデバイス201は、ステップS601の処理に戻る。身長が入力されたときは、ポータブルデバイス201は、ステップS605において、仮想水害情報の選択画面を表示する。次いで、ステップS607において、ユーザによっていずれかの仮想水害情報が選択されたか否かを判定する。ステップS607の判定の結果、仮想水害情報が選択されないときはステップS605の処理に戻る。また、仮想水害情報が選択されたときは、ポータブルデバイス201は、ステップS608において、仮想空間生成処理を実行する。次に、ポータブルデバイス201は、ステップS609において、仮想空間内の仮想スクリーン422に投影された映像と、形成された水面423とを、仮想カメラ421で仮想的に撮像して、ディスプレイ312への表示情報を生成する。そして、ポータブルデバイス201は、ステップS610において、カメラ411によって撮影されている映像と、水面形成部416によって形成された水面とを、ユーザが3次元で見ることができるようにディスプレイ312に表示する。
次に、ポータブルデバイス201は、ステップS611において、動作終了か否かを判定し、動作終了でない場合は、ステップS613において、レンズ211の方向が変わったか否か(あるいは、カメラ411の位置や向きが変わったか否か)を判定する。レンズ211の方向の変化は3軸ジャイロセンサ416によって常に検出している。ステップS613の判定の結果、レンズ211の方向が変わらないときはステップS610の処理に移行する。ステップS613の判定の結果、レンズ211の方向が変わったときは、ステップS615において、視線に対応する仮想カメラ421の方向をレンズ211の方向に合わせて更新し、ステップS608の処理に移行する。また、ステップS611の判定の結果、動作終了の場合は、動作を終了する。
図6Bは、本実施形態に係る仮想空間生成処理(S608)の動作を説明するためのフローチャートである。
ポータブルデバイス201は、ステップS621において、身長入力部419が取得したユーザの身長から視点の高さを算出する。次に、ポータブルデバイス201は、ステップS623において、ユーザの視点の高さとユーザが選択した水位との差を算出する。この差は、仮想空間内の仮想カメラ421の高さと仮想水面423との差に相当する。ポータブルデバイス201は、ステップS625において、仮想空間内に仮想カメラ421と仮想水面423とを配置する。
ポータブルデバイス201は、ステップS627において、3軸ジャイロセンサ416からカメラ411(レンズ211)の方向を取得する。次に、ポータブルデバイス201は、ステップS629において、仮想空間内に配置された仮想カメラ421の向きを、ユーザの視線方向に対応するカメラ411(レンズ211)の方向に向ける。また、ポータブルデバイス201は、ステップS631において、仮想スクリーン422を、仮想空間内の仮想カメラ421の撮像方向と垂直に配置する。そして、ポータブルデバイス201は、ステップS633において、仮想スクリーン422にカメラ411で撮像した映像を投射する。この処理で、表示情報を生成する設定が完了する。
図6Cは、本実施形態に係る表示情報生成処理(S609)の動作を説明するためのフローチャートである。
ポータブルデバイス201は、ステップS641において、左右の仮想カメラ421により仮想スクリーン422の映像および水面を撮像する。次に、ポータブルデバイス201は、ステップS643において、右目用の仮想カメラの撮像データから右目用表示データを生成する。また、ポータブルデバイス201は、ステップS645において、左目用の仮想カメラの撮像データから左目用表示データを生成する。
《表示映像の生成方法》
図7Aおよび図7Bはディスプレイ312に表示する映像の生成方法を説明するための図である。
図7Aに示すように、まず、ユーザの身長に基づく視点位置に仮想カメラを配置する。映像投影部414はカメラ411が撮影した映像を、ユーザの向き(カメラ411の向き)に対応する仮想カメラ731〜733のそれぞれの向きに対して垂直方向に配置された仮想スクリーン711〜713に投影する。さらに、水面形成部413は、水位に対応して仮想カメラの配置位置と関連付けて仮想水面720を形成する。そして、表示制御部413は、視点に配置された仮想カメラ731〜733から仮想スクリーン711〜713および仮想素面720を見たときの映像を、ディスプレイ312に表示する。なお、図7Aでは、仮想カメラ731〜733に対応する仮想スクリーン711〜713を設けて説明したが、3軸ジャイロセンサ416による視線の上下方向の移動を反映させれば、1つの仮想カメラと対応する仮想スクリーンとがあれば十分である。
図7Bは、ユーザの身長、ユーザの視点、水位の関係をさらに詳細に示した図である。図7Bの参照番号は、図7Aの参照番号に対応している。図7Bにおいて、視点に配置された仮想カメラ734と対応する仮想スクリーン714とは、身長の異なるユーザのためのものである。なお、図7Bにおいては、地面(床)740を基準として図示しているが、仮想カメラ734と仮想水面720との上下差が分かれば、相対的な配置が可能であり、地面(床)740を基準にする必要はない。
《操作画面例》
図8は身長入力画面を説明するための図である。図8に示すように、ポータブルデバイス201のディスプレイ312に、身長入力画面が表示される。身長を入力する場合は該当する数字をタッチして身長を入力した後にOKボタンをタッチすることにより身長のデータが入力される。
図9は仮想水害情報選択画面を説明するための図である。図9に示すように、ポータブルデバイス201のディスプレイ312に、例えば5種類の浸水量が表示される。仮想水害情報を選択する場合は、選択を希望する浸水量をタッチした後にOKボタンをタッチすることにより仮想水害情報が選択される。
《表示映像例》
図10は、ポータブルデバイス201のディスプレイ312に映し出された映像を説明するための図である。図10に示すように、ディスプレイ312を横長にした状態で、表示領域は中央で2等分され、右目用の表示領域1001にはカメラ411を用いて撮影された映像が表示されるとともに、水面が右目用の3次元映像として表示される。また、左目用の表示領域1002にはカメラ411を用いて撮影された映像が表示されるとともに、水面が左目用の3次元映像として表示される。この場合、表示制御部413によって、水面には映像における周囲の風景が映っているように表示制御される。また、水面がユーザの目線よりも高い場合は、表示制御部413は水面を通して映像が透けて見えるように表示制御する。
図11は、ユーザがVRゴーグル202をとおしてポータブルデバイス201のディスプレイ312に表示される映像を見た状態を説明する図である。図11に示すようにレンズ326、327をとおして仮想水害の水面を立体的に見ることができる。
本実施形態によれば、VRゴーグルを着けた状態でユーザは仮想水害の水面を立体的に見ることができるとともに、見る方向を変えると、カメラが撮影する映像が変わることに伴い水面の位置も変わる。したがって、ユーザは仮想水害に没入でき、実体験と同様に仮想水害を疑似体験することができる。さらに、ユーザがポータブルデバイスとVRゴーグルとを携帯所持することができるので、所望の場所で仮想水害を現実のように容易に疑似体験することができる。
[第3実施形態]
次に本発明の第3実施形態に係る疑似体験システムについて、図12乃至図16を用いて説明する。図12は、本実施形態に係るポータブルデバイス1201の機能構成を説明するためのブロック図である。
本実施形態に係るポータブルデバイス1201は、第2実施形態と比べると、方位センサ1211、GPS(Global Positioning System)受信機1212、水面形成部1213、通信制御部1214、標高情報取得部1215、水害情報受信部1216、ハザードマップ情報保持部1217、指示情報生成部1218、および、身長階数入力部1219を有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
方位センサ1211は、ポータブルデバイス1201を中心として、カメラ411のレンズ211が向いている東西南北の方位を検出して、検出した方位情報を仮想空間生成部412の仮想カメラ421および仮想スクリーン422と、指示情報生成部1218とに出力する。
GPS受信機1212は、衛星からの電波を受信して、ポータブルデバイス1201の存在する緯度および経度を検出して、検出した緯度および経度の情報を、指示情報生成部1215に出力すると共に、緯度および経度に対応する標高情報や水害情報を取得するため通信制御部1214を介してサーバ(図示なし)に送信する。水面形成部1213は、仮想水害の浸水量が選択された時点において緯度および経度に対応する現在位置で津波が発生したものとして、標高情報やハザードマップ情報に基づいて、水面を形成する。通信制御部1214は、ポータブルデバイス1201とサーバを含む外部装置との通信を制御する。
標高情報取得部1215は、無線通信を用いて外部の地図情報サーバにアクセスし、GPS受信機1212が取得した緯度および経度に相当する位置の標高に関する情報を取得し、取得した標高情報を指示情報生成部1218および水面形成部1213に出力する。
水害情報受信部1216は、GPS受信機1212が取得した緯度および経度に相当する位置を含む所定地域の水害情報を受信する。ハザードマップ情報保持部1214は、所定地域の、ハザードマップ情報、例えば津波による水害のハザードマップ情報を水害情報から取得して保持している。
指示情報生成部1218は、方位センサ1211から方位情報を入力し、GPS受信機1212から緯度および経度の情報を入力し、標高情報取得部1215から標高情報を入力する。さらに、指示情報生成部1218は、入力した各情報とハザードマップ情報保持部1217から入力したハザードマップ情報とに基づいて避難に適さない方向を検出する。そして、指示情報生成部1218は、検出した避難に適さない方向に関する情報を表示制御部415に出力する。
表示制御部415は、身長階数入力部1219から入力された目線の高さの仮想カメラ421から見た仮想スクリーン422に投影された映像と仮想水面423との映像を、ディスプレイ312に表示する。さらに、表示制御部415は、指示情報生成部1218から入力した情報に基づいて、避難に適さない方向に関する情報を、撮像映像および仮想水面を仮想カメラ421で撮像した映像とに重ねて、ディスプレイ312に表示する。
身長階数入力部1219は、ユーザの操作に基づいて、ユーザの身長およびユーザが建物の何階に存在するかを入力し、入力された階数に基づいて、地面からユーザが存在する床面までの高さを算出する。さらに、身長階数入力部1219は、床面までの高さと身長の情報とからユーザの目線の高さを算出し、算出した目線の高さを、仮想カメラ421の配置のため仮想空間生成部412に出力する。
《ハードウェア構成の説明》
図13は、本実施形態に係るポータブルデバイス1201のハードウェア構成を説明するためのブロック図である。図13において、第2実施形態と比べると、方位センサ1211とGPS受信機1212とを入力部1305に備えている点、さらに、通信制御部1214を備えている点で異なる。また、ストレージ1304に、格納データとして、ハザードマップ情報1350を含む水害情報保持部1341を有する点で異なる。また、ストレージ1304に、プログラムとして、水害情報取得モジュール1343と、身長階数入力モジュール1344と、標高情報取得モジュール1348と、指示情報生成モジュール1349とを有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
《ポータブルデバイスの動作説明》
図14は本実施形態に係るポータブルデバイス1201の動作を説明するためのフローチャートである。図14において、図6Aに示したフローチャートと異なるところは、ステップS1401〜S1413およびステップS1419以降である。以下の説明において、ステップS608からステップS610の説明を省略する。
ポータブルデバイス1201は、動作を開始すると、ステップS1401において、身長および階数の入力画面を表示する。ポータブルデバイス1201は、ステップS1403において、身長および階数の入力がなければ、ステップS1401に戻る。また、本実施形態では、ステップS1407において、水深量が選択された時点で、ハザードマップ情報に含まれる震源地において地震が発生し、これに伴い津波が発生したものとして水面を形成する。
身長および階数の入力があれば、ステップS1409において、ポータブルデバイス1201は、GPS受信機1212を用いて現在位置の緯度および経度の情報を取得する。ポータブルデバイス1201は、取得した現在位置の緯度および経度の情報をサーバに送信して、ステップS1410において、現在位置に関連する水害情報を取得する。かかる水害情報には水位情報も含まれている。また、ポータブルデバイス1201は、ステップS1411において、方位センサ1211を用いてレンズ211の向いている方位の情報を取得する。さらに、ポータブルデバイス1201は、ステップS1413において、標高情報を取得する。そして、ステップS608からステップS610の処理によって、撮像映像とハザードマップ情報に基づく仮想水面とをディスプレイ312に表示する。
ポータブルデバイス1201は、ステップS1419において、レンズ211が向いている方向が危険な方向であるか否かを判定する。レンズ211が向いている方向が危険な方向である場合は、ポータブルデバイス1201は、ステップS1421において、危険であることを示す映像をディスプレイ312に重畳して表示する。次に、ステップS1417において、ポータブルデバイス1201は、緯度および経度の情報に基づいて現在位置が変わったか否かおよび方位情報に基づいてレンズ211の向きが変わったか否かを判定する。ステップS1417の判定の結果、現在位置あるいはレンズ211の向きが変わらない場合は、ステップS1410の処理に移行する。ステップS1417の判定の結果、現在位置あるいはレンズ211の向きが変わった場合は、ポータブルデバイス1201は、ステップS1423において、視線を更新する。さらに、ステップS1425において、ポータブルデバイス1201は、動作終了か否かを判定し、動作終了でない場合は、ステップS1409の処理に移行し、変化した現在位置における処理を行なう。動作終了の場合は動作を終了する。なお、危険な方向を向いている場合の情報指示の処理(S1419、S1421)は、フローチャートの他の位置で行なってもよい。
図15は身長および階数の入力画面を説明するための図である。図15に示すように、ポータブルデバイス1201のディスプレイ312に、身長および階数の入力画面が表示される。身長および階数を入力する場合は該当する数字をタッチして身長および階数を入力した後にOKボタンをタッチすることにより身長および階数のデータが入力される。
図16はレンズ211が向いている方向が危険であることをディスプレイ312に表示した一例を説明する図である。図16においては、VRゴーグル202のレンズ326、327をとおして表示を見た例を示している。このように、ハザードマップ情報に基づいて危険な方向を表示するので、避難訓練を行なう場合に安全な避難経路を自分自身で体験して覚えることができる。
本実施形態によれば、第2実施形態と同様の効果を得ることができる。さらに、ハザードマップ情報に基づいて、実際に津波が発生したのと同様の体験映像を見ることができるとともに、適切でない避難経路の方向には危険である旨を知らせる表示がなされるので、実体験と同様の感覚で避難訓練を行なうことができる。
なお、地震発生時刻を指定できるようにすれば、多人数で同じ状況を疑似体験することができる。
[第4実施形態]
次に本発明の第4実施形態に係る疑似体験システムについて、図17乃至図20を用いて説明する。図17は、本実施形態に係るポータブルデバイス1701の機能構成を説明するためのブロック図である。
本実施形態に係るポータブルデバイス1701は、第3実施形態と比べると、現在位置情報入力部1712を有する点で異なる。その他の構成および動作は、第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
現在位置情報入力部1711は、ユーザが現在いる場所の住所を位置情報として入力し、入力された住所の情報を、入力された住所における水害情報を取得するため、通信制御部1214を介してサーバに送信する。
《ハードウェア構成の説明》
図18は本実施形態に係るポータブルデバイス1701のハードウェア構成を説明するためのブロック図である。図18において、第3実施形態と比べると、ストレージ1804に位置情報入力モジュール1851を備えている点で異なる。
《ポータブルデバイスの動作説明》
図19は本実施形態に係るポータブルデバイス1701の動作を説明するためのフローチャートである。図19において、図14に示したフローチャートと異なるところはステップS1403とステップS605との間にステップS1901からステップS1905を含めたことである。その他の処理は図14に示した第3実施形態と同じであるため説明を省略する。なお、図19においては、危険な方向を向いている場合の情報指示の処理(S1419、S1421)が、ステップS1417とS1423との間に配置されている。
ポータブルデバイス1701は、ステップS1901において、位置情報入力画面を表示し、ステップS1903において、ユーザによって住所が入力されたか否かを判定する。ステップS1903の判定の結果、住所が入力されてないときは、ポータブルデバイス1701は、ステップS1901の処理に移行する。一方、住所が入力されたときは、ポータブルデバイス1701は、ステップS1905において、入力された住所に対応する水害情報とハザードマップ情報とを取得する。
図20は位置情報入力画面を説明するための図である。図20に示すように、ポータブルデバイス1701のディスプレイ312に、位置情報入力画面が表示される。住所を入力する場合は文字入力を行なった後にOKボタンをタッチすることにより住所のデータが入力される。また、緯度および経度を入力する場合は緯度および経度を数字で入力する。
本実施形態によれば、第3実施形態と同様の効果を得ることができる。さらに、ユーザがいる場所の住所を、位置情報入力部を用いて入力すると、入力した住所に対応した水害情報とハザードマップ情報とに基づいて、ディスプレイに表示される映像が生成される。これにより、VRゴーグルを着けた状態でユーザは入力した住所における仮想水害の水面を立体的に見ることができる。したがって、ユーザは入力した住所における仮想水害に没入でき、実体験と同様に仮想水害を疑似体験することができる。
[第5実施形態]
次に本発明の第5実施形態に係る疑似体験システムについて、図21A乃至図23Bを用いて説明する。図21Aは、本実施形態に係るポータブルデバイス2101の機能構成を説明するためのブロック図である。本実施形態に係るポータブルデバイス2101は、第2実施形態乃至第4実施形態と比べると、カメラ411に代えて映像記憶部2120を有するとともに、仮想空間生成部2112と映像投影部2114とを有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
映像記憶部2120は、所定地における周囲360度の映像を記憶している。仮想空間生成部2112は、立体の仮想スクリーン2122とその中心に配置された仮想カメラ2121と仮想水面2123とを、仮想空間内に配置する。なお、図21Aにおいては、立体の仮想スクリーン2122を球体としているが限定されない。映像投影部2114は、周囲360度の映像を立体の仮想スクリーン2122に投影する。
仮想カメラ2121は、3軸ジャイロセンサ415からポータブルデバイス2101の傾きと回動とを表わす情報を入力し、ポータブルデバイス2101の傾きと回動に連動させて立体の仮想スクリーン2122に投影された周囲360度の映像を撮像する。例えば、仮想カメラ2121により撮像した映像は、投影映像2111、2112、あるいは、2113などに対応する。なお、投影映像2113は、仮想カメラ2131で撮像した拡大映像となる。
図21Bは、本実施形態に係るポータブルデバイス2101の仮想空間を説明するための図である。
図21Bにおいて、球体の仮想スクリーン2122には、映像投影部2114が投影した映像を、球体面を覆うように貼り付ける。また、水位の高さに応じた仮想水面2123が配置される。そして、内部の仮想カメラ2121からの仮想スクリーン2122を覆った映像を、ディスプレイ312を示す表示平面への投影映像2111、2112、あるいは、2113が、ポータブルデバイス2101のディスプレイ312に表示される。仮想カメラ2121の撮像方向(視線方向)が球体の仮想スクリーン2122の軸を中心に回転すれば、ディスプレイ312の映像も視線方向の回転につれて回転する。また、仮想カメラ2121が上下に移動すれば、撮像映像の範囲も仮想カメラ2121の上下に応じて上下する。また、仮想カメラ2121の視線方向が上向き/下向きになると、見上げた画面/見下ろした画面となる。また、仮想カメラ2121が球体の中心から離れると、球体の仮想スクリーン2122に近づいた方向ではズームインとなり、球体の仮想スクリーン2122から離れた方向ではズームアウトとなる。このように、視点位置と視線方向とを変化させることで、所定場所の全周の水害状況を身体の向きを回転することで見渡すことができる。なお、左右の仮想カメラを配置することで、3次元映像の奥行きとして表現することができる。
《ハードウェア構成の説明》
図22は、本実施形態に係るポータブルデバイス2101のハードウェア構成を説明するためのブロック図である。図22において、第2実施形態と比べると、ストレージ2204に映像情報データベース2248を備えている点で異なる。
《ポータブルデバイスの動作説明》
図23Aは本実施形態に係るポータブルデバイス2101の動作を説明するためのフローチャートである。図23Aにおいて、図6Aに示したフローチャートと異なるところは、ステップS2305とS2307との投影映像の選択と、ステップS2308の仮想空間生成処理と、ステップS2313の処理とである。
ポータブルデバイス2101は、ステップS2305において、映像記憶部2120の記憶された映像から映像投影部2114が球体の仮想スクリーン2122に投影する映像の選択画面を表示する。球体の仮想スクリーン2122に投影する映像が選択されなければ、ポータブルデバイス2101は、ステップS2305に戻る。球体の仮想スクリーン2122に投影する映像が選択されれば、ポータブルデバイス2101は、ステップS2308において、本実施形態の仮想カメラ2121と球体の仮想スクリーン2122と仮想水面2123とを含む仮想空間の生成処理を実行する。
ステップS2313において、ポータブルデバイス2101は、ディスプレイ312の方向が変わったか否かを判定する。ディスプレイ312の方向の変化は3軸ジャイロセンサ415によって常に検出している。ステップS2313の判定の結果、ディスプレイ312の方向が変わらないときはステップS610の処理に移行する。ステップS2313の判定の結果、ディスプレイ312の方向が変わったときは、ステップS615において、ディスプレイ312に表示する映像をディスプレイ312の向きの動き、すなわちユーザの視線方向の動きに合わせて更新する。この後、ステップS2308の処理に移行する。
図23Bは、本実施形態に係る仮想空間生成処理(S2308)の動作を説明するためのフローチャートである。図23Bにおいて、図6Bに示したフローチャートと異なるところは、ステップS2320の立体の仮想スクリーン生成と、ステップS2321との選択映像の立体の仮想スクリーンへの投影と、ステップS2325の立体の仮想スクリーン内への仮想カメラと仮想水面との配置とである。
ポータブルデバイス2101は、ステップS2320において、ポータブルデバイス2101の仮想空間内に3次元立体、本例では球体の仮想スクリーンを生成する。ポータブルデバイス2101は、ステップS2321において、仮想記憶部2120から選択された映像を球体の仮想スクリーンに投影する。ポータブルデバイス2101は、ステップS2325において、球体の仮想スクリーン内のユーザの視点の高さに応じた位置に仮想カメラを配置し、水位の高さに応じた位置に仮想水面を配置する。
本実施形態によれば、VRゴーグルを着けた状態でユーザはあらかじめ映像記憶部に記憶されている所定地にユーザがいるような状態を感じることができるとともに、所定地において、仮想水害の水面を立体的に見ることができる。さらに、ユーザが見る方向を変えると、その動きに応じて映像が変わるに伴い水面の位置も変わる。したがって、ユーザは仮想水害に没入でき、実体験と同様に仮想水害を疑似体験することができる。さらに、ユーザがポータブルデバイスとVRゴーグルとを携帯所持することができるので、所望の場所で仮想水害を現実のように容易に疑似体験することができる。
[第6実施形態]
次に本発明の第6実施形態に係る疑似体験システムについて、図24乃至図26を用いて説明する。図24は、本実施形態に係るポータブルデバイス2401の機能構成を説明するためのブロック図である。本実施形態に係るポータブルデバイス2401は、第5実施形態と比べると、所望位置情報入力部2411、映像受信部2412、水害情報受信部2413、および、映像投影部2414を有する点で異なる。その他の構成および動作は、第5実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
所望位置情報入力部2411は、サーバから所望位置の映像と水害情報とを取得するため、ユーザによって入力された所定地の住所を、通信制御部1214を介してサーバに送信する。ここで、ユーザによって位置情報入力部2411に入力される住所は、ユーザが水害の仮想体験をしたいと思う所定地の住所である。
映像受信部2412は、位置情報入力部2411から入力した住所における周囲の映像を、無線通信を用いて外部のサーバから受信する。
水害情報受信部2413は、位置情報入力部2411から入力した住所における仮想水害情報を、無線通信を用いて外部のサーバから受信し、ハザードマップ保持部1217に記憶する。
映像投影部2414は、映像受信部2412が受信した映像を、球体の仮想スクリーン2122に投影する。
《ハードウェア構成の説明》
図25は、本実施形態に係るポータブルデバイス2401のハードウェア構成を説明するためのブロック図である。図25において、第5実施形態と比べると、ストレージ2504が、格納データとして、水害情報保持部2541と映像情報保持部2542とを有する点で異なる。また、ストレージ2504が、プログラムとして、映像取得モジュール2552と水害情報取得モジュール2553とを有する点で異なる。
《ポータブルデバイスの動作説明》
図26はポータブルデバイス2401の動作を説明するためのフローチャートである。図26において、図6Aや図23Aに示したフローチャートと異なるところは、ステップS603とステップS2305との間にステップS2601からステップS2605の処理を行なうことである。
ステップS2601において、ポータブルデバイス2401は位置情報入力画面を表示し、ステップS2603において、ポータブルデバイス2401はユーザによって位置情報が入力されたか否かを判定する。ステップS2603の判定の結果、位置情報が入力されない場合はステップS2601の処理に移行する。一方、位置情報が入力された場合は、ステップS2605において、入力された位置情報に該当する所定地における周囲の映像と仮想水害情報を取得して記憶する。
本実施形態によれば、第5実施形態と同様の効果を得ることができる。さらに、ユーザが仮想水害の体験を所望する所定地にいるような状態を感じることができるとともに、所定地における仮想水害の水面を立体的に見ることができる。したがって、ユーザは所望の所定地における仮想水害に没入でき、実体験と同様に仮想水害を現実のように疑似体験することができる。
[第7実施形態]
次に本発明の第7実施形態に係る疑似体験システムについて、図27乃至図30を用いて説明する。図27は、本実施形態に係るポータブルデバイス2701の機能構成を説明するためのブロック図である。本実施形態に係るポータブルデバイス2701は、上記実施形態と比べると、映像切替部2721映像投影部2714とを有する点で異なる。その他の構成および動作は、上記実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
映像切替部2721は、カメラ411から出力される映像データおよび映像記憶部2120に記憶されている映像データの中からユーザによって選択された映像のデータを、映像投影部2714に出力する。映像投影部2714は、カメラ411から出力される映像データおよび映像記憶部2120に記憶されている映像データを、球体の仮想スクリーン2122に投影する。
《ハードウェア構成の説明》
図28は本実施形態に係るポータブルデバイス2701のハードウェア構成を説明するためのブロック図である。図28において、上記実施形態と比べると、ストレージ2804が映像切替モジュール2754を有する点で異なる。
《ポータブルデバイスの動作説明》
図29は本実施形態に係るポータブルデバイス2701の動作を説明するためのフローチャートである。図29において、図6Aや図23Aに示したフローチャートと異なるところは、ステップS607とステップS2308との間に、ステップS2901とステップS2903との処理を行なうようにしたことである。
ステップS2901において、ポータブルデバイス2701は、映像の選択画面を表示する。そして、ポータブルデバイス2701は、ステップS2903において、ユーザによって映像が選択されたか否かを判定する。ステップS2903の判定の結果、映像が選択されないときは、ポータブルデバイス2701は、ステップS2901の処理に移行する。一方、映像が選択されたときは、ステップS2308の処理に移行する。
図30は映像選択画面を説明するための図である。図30に示すように、ポータブルデバイス2701のディスプレイ312に、映像選択画面が表示される。映像を選択する場合は所望の映像をタッチした後にOKボタンをタッチすることにより映像が選択される。
本実施形態によれば、第2実施形態と同様の効果を得ることができる。さらに、カメラからの撮像映像、または、映像記憶部に記憶されている2つ以上の所定地の中からユーザが所望する場所を選択して、仮想水害の水面を立体的に見ることができる。
[第8実施形態]
次に本発明の第8実施形態に係る疑似体験システムについて、図31乃至図37を用いて説明する。図31は、本実施形態に係るポータブルデバイス3101の機能構成を説明するブロック図である。本実施形態に係るポータブルデバイス3101は、第2実施形態と比べると、煙面形成部3113と仮想火災情報記憶部3117と仮想火災情報選択部3118とを有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
煙面形成部3113は、仮想火災情報選択部3118を用いてユーザが選択した仮想火災情報に基づいて、仮想空間内に煙面3123を形成する。
仮想火災情報記憶部3117は、仮想火災情報を記憶している。仮想火災情報としては、火災による煙の最下面の高さ情報などである。また、仮想火災情報記憶部3117は、2つ以上の仮想火災情報を記憶している。
仮想火災情報選択部3118は、ユーザの操作に基づいて、仮想火災情報記憶部3117に記憶されている仮想火災情報のうちのいずれかを選択して、選択した仮想火災情報を形成部416に出力する。
《ハードウェア構成の説明》
図32は、本実施形態に係るポータブルデバイス3101のハードウェア構成を説明するためのブロック図である。本実施形態に係るポータブルデバイス3101は、第2実施形態と比べると、RAM3203に煙面データ3233を有する点で異なる。さらに、ストレージ3204に仮想火災情報データベース3241と火災情報選択モジュール3243と煙面形成モジュール3245とを有する点で異なる。
《ポータブルデバイスの動作説明》
図33Aは本実施形態に係るポータブルデバイス3101の動作を説明するためのフローチャートである。図33Aにおいて、図6Aに示したフローチャートと異なるところは、ステップS605に代えてステップS3305の処理を行なうとともに、ステップS608に代えてステップS3308の処理を行ない、S613に代えてステップS3313を行なう点である。
ステップS3305において、ポータブルデバイス3101は、仮想火災情報の選択画面を表示する。また、ステップS3308において、ポータブルデバイス3101は、カメラ411によって撮影されている映像を仮想スクリーン422に投影し、煙面形成部3113によって煙面を仮想空間内に形成する。ステップS3313において、ポータブルデバイス3101は、視線のみでなく視点が変わったか否かを判定する。
図33Bは、本実施形態に係る仮想空間生成処理(S3308)の動作を説明するためのフローチャートである。図33Bにおいて、図6Bに示したフローチャートと異なるところは、ステップS623に代えてステップS3323の処理を行なうとともに、ステップS625に代えてステップS3325の処理を行なう点である。
ポータブルデバイス3101は、ステップS3323において、ユーザの視点の高さと煙の最下面との差を算出する。ポータブルデバイス3101は、ステップS3325において、仮想空間内のユーザの視点の高さに応じた仮想カメラ421と、煙の最下面に応じた煙面3123とが配置される。
図34はディスプレイ312に映像を表示する方法を説明するための図である。図34に示すように、映像投影部414はカメラ411が撮影した映像を仮想スクリーン3111や3114に投影する。さらに、煙面形成部3113は煙の最下面に応じた仮想煙面3123を形成する。そして、仮想カメラ3131または3134がそれぞれ仮想スクリーン3111または3114と、仮想煙面3123を見たときの映像を仮想的に撮像する。そして、撮像映像をディスプレイ312に表示する。
図35は仮想火災情報選択画面を説明するための図である。図35に示すように、ポータブルデバイス3101のディスプレイ312に、例えば5種類の煙面の床面からの高さが表示される。仮想火災情報を選択する場合は、選択を希望する煙面の高さをタッチした後にOKボタンをタッチすることにより仮想火災情報が選択される。
図36はVRゴーグル202を装着したユーザが目線の高さから水平方向を見たときの映像を表わす図である。このように、目線の高さで水平方向を見ると煙に遮られて視界が悪くなる。
また、図37はユーザが床面を見たときの映像を表わす図である。このように、床の近くにはまだ煙が存在しないことがわかるので、床面に腹ばいになれば煙を吸わなくて済むことが容易に疑似体験できる。
本実施形態によれば、VRゴーグルを着けた状態でユーザは仮想火災の煙面を立体的に見ることができるとともに、見る方向を変えると、カメラが撮影する映像が変わるに伴い煙面の位置も変わる。したがって、ユーザは仮想火災に没入でき、実体験と同様に仮想火災を疑似体験することができる。さらに、ユーザがポータブルデバイスとVRゴーグルとを携帯所持することができるので、所望の場所で仮想火災を現実のように容易に疑似体験することができる。
なお、仮想火災の擬似体験の第8実施形態については、仮想水害の第2実施形態に対応する構成のみを示したが、第3乃至第7実施形態の技術を仮想火災の擬似体験にも適用できる。
[他の実施形態]
上記実施形態では、災害として津波を含む仮想水害と、仮想火災を例に臨場感のある擬似体験について示したが、その外にも、大雨時の降雨状態などについての臨場感のある擬似体験に本発明の技術思想を適用すると、同様の効果を奏することができる。
また、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。
上記目的を達成するため、本発明に係るポータブルデバイスは、
ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように用いる、疑似体験システムにおける前記ポータブルデバイスであって、
前記ユーザの目に対応する仮想カメラと、前記仮想カメラの撮像方向に対して垂直に交わる仮想スクリーンとを有する仮想空間を生成する仮想空間生成手段と、
前記ポータブルデバイスが有するカメラが撮像した映像を前記仮想スクリーンに表示する仮想表示手段と、
少なくとも前記仮想カメラと前記仮想スクリーンとの間に、火災時に生じる煙の下面を形成する仮想形成手段と、
記形成された煙の下面および前記仮想スクリーンを前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御手段と、
を備えた。
上記目的を達成するため、本発明に係る擬似体験プログラムは、
ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように用いる、疑似体験システムにおける前記ポータブルデバイスの擬似体験プログラムであって、
前記ユーザの目に対応する仮想カメラと、前記仮想カメラの撮像方向に対して垂直に交わる仮想スクリーンとを有する仮想空間を生成する仮想空間生成ステップと、
前記ポータブルデバイスが有するカメラが撮像した映像を前記仮想スクリーンに表示する仮想表示ステップと、
少なくとも前記仮想カメラと前記仮想スクリーンとの間に、火災時に生じる煙の下面を形成する仮想形成ステップと、
記形成された煙の下面および前記仮想スクリーンを前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御ステップと、
をコンピュータに実行させる。
上記目的を達成するため、本発明に係る擬似体験システムは、
ディスプレイがユーザの目の前に位置するように用いる、ユーザが携帯可能なポータブルデバイスを含む疑似体験システムであって、
前記ポータブルデバイスは、
前記ユーザの目に対応する仮想カメラと、前記仮想カメラの撮像方向に対して垂直に交わる仮想スクリーンとを有する仮想空間を生成する仮想空間生成手段と、
前記ポータブルデバイスが有するカメラが撮像した映像を前記仮想スクリーンに表示する仮想表示手段と、
少なくとも前記仮想カメラと前記仮想スクリーンとの間に、火災時に生じる煙の下面を形成する仮想形成手段と、
記形成された煙の下面および前記仮想スクリーンを前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御手段と、
を備えた
上記目的を達成するため、本発明に係る擬似体験方法は、
ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように用いる、疑似体験システムにおける擬似体験方法であって、
記ポータブルデバイスにロードされた擬似体験プログラムを起動させる起動ステップと、
前記ユーザの目に対応する仮想カメラと、前記仮想カメラの撮像方向に対して垂直に交わる仮想スクリーンとを有する仮想空間を生成する仮想空間生成ステップと、
前記ポータブルデバイスが有するカメラが撮像した映像を前記仮想スクリーンに表示する仮想表示ステップと、
少なくとも前記仮想カメラと前記仮想スクリーンとの間に、火災時に生じる煙の下面を形成する仮想形成ステップと、
記形成された煙の下面および前記仮想スクリーンを前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御ステップと、
を含む擬似体験方法。

Claims (22)

  1. ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように、前記ポータブルデバイスを保持するゴーグルを備えた疑似体験システムにおける前記ポータブルデバイスであって、
    前記ユーザの目に対応する仮想カメラと、前記ユーザの視線に対応する前記仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成手段と、
    少なくとも前記仮想カメラと前記仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成手段と、
    映像を前記仮想スクリーンに投影する投影手段と、
    前記ユーザの視点から前記仮想スクリーンを見たときの、前記形成された面および前記投影された映像を前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御手段と、
    を備えたポータブルデバイス。
  2. 前記仮想カメラは、所定距離離れた右目用仮想カメラと左目用仮想カメラとを有し、
    前記表示制御手段は、前記右目用仮想カメラにより撮像した映像を前記ディスプレイの右側に表示し、前記左目用仮想カメラにより撮像した映像を前記ディスプレイの左側に表示するよう制御する、請求項1に記載のポータブルデバイス。
  3. 前記映像を記憶する映像記憶手段をさらに備え、
    前記形成手段は、前記映像記憶手段に記憶されている前記映像を前記仮想スクリーンに投影する、請求項1または2に記載のポータブルデバイス。
  4. カメラをさらに備え、
    前記投影手段は、前記カメラによって撮影された前記映像を前記仮想スクリーンに投影する、請求項1または2に記載のポータブルデバイス。
  5. 3軸ジャイロセンサをさらに備え、
    前記仮想カメラは、前記3軸ジャイロセンサの検出結果に基づく前記ディスプレイの向きに応じて、前記撮像方向を変更し、
    前記仮想スクリーンは、前記仮想カメラの前記撮像方向に垂直となるように配置される、請求項4に記載のポータブルデバイス。
  6. 任意の場所の位置情報を入力する位置情報入力手段と、
    前記位置情報に基づく前記任意の場所における周囲の映像を外部から取得する映像取得手段と、
    をさらに備え、
    前記仮想スクリーンは、前記仮想カメラを内部に有する球体状のスクリーンであって、
    前記投影手段は、前記映像取得手段によって取得した前映像を前記球体状のスクリーンに投影する、請求項1または2に記載のポータブルデバイス。
  7. 3軸ジャイロセンサをさらに備え、
    前記仮想カメラは、前記3軸ジャイロセンサの検出結果に基づく前記ディスプレイの向きに応じて、前記撮像方向を変更する、請求項6に記載のポータブルデバイス。
  8. 前記面を記憶する面記憶手段をさらに備え、
    前記形成手段は、前記面記憶手段に記憶されている前記面を前記仮想カメラと前記仮想スクリーンとの間に形成する、請求項1乃至7のいずれか1項に記載のポータブルデバイス。
  9. 前記災害の種類を選択する選択手段と、
    前記災害の種類に対応する前記面を前記面記憶手段から取得する面取得手段と、
    をさらに備え、
    前記形成手段は、前記面取得手段により取得された前記面を前記仮想カメラと前記仮想スクリーンとの間に形成する、請求項8に記載のポータブルデバイス。
  10. 前記ユーザの目の高さを取得する高さ取得手段と、
    前記面を形成する高さを設定する高さ設定手段と、
    前記目の高さと前記面の高さとの差に対応して、前記仮想カメラと前記面との高低を相対的に調整する調整手段と、
    をさらに備える請求項1乃至9のいずれか1項に記載のポータブルデバイス。
  11. 前記災害が水害であって、
    前記面は水害によって生じる水面を表わす、請求項1乃至10のいずれか1項に記載のポータブルデバイス。
  12. 前記災害が水害であって、前記面は水害によって生じる水面を表わし
    前記高さ取得手段は、
    前記ユーザの身長を入力する身長入力手段と、
    前記ユーザの身長から前記ユーザの目の高さを導出する導出手段と、
    を有し、
    前記高さ設定手段は、前記面の高さとして水位を設定する、請求項10に記載のポータブルデバイス。
  13. 前記高さ取得手段は、
    任意の場所に存在する建物における前記ユーザがいる前記建物の階数を入力する階数入力手段と、
    前記階数に基づいて、地面から前記ユーザがいる階の床面までの高さを算出する高さ算出手段と、
    をさらに備え、
    前記床面までの高さに前記目の高さを加算して、新たな目の高さを取得する、請求項12に記載のポータブルデバイス。
  14. 現在位置の緯度および経度の情報を取得するGPS受信機と、
    前記緯度および経度の情報に基づいて、水害におけるハザードマップ情報から得られた、前記緯度および経度における水位を外部から受信する第1水位受信手段と、
    をさらに備え、
    前記高さ設定手段は、前記受信した水位を設定する、請求項12または13に記載のポータブルデバイス。
  15. 前記緯度および経度の情報に基づいて、水害におけるハザードマップ情報から得られた、前記緯度および経度における危険な避難方向に関する指示情報を外部から受信する指示情報受信手段をさらに備え、
    前記表示制御手段は、前記指示情報を前記ディスプレイに表示するよう制御する、請求項14に記載のポータブルデバイス。
  16. 任意の場所の位置情報を入力する位置情報入力手段と、
    前記位置情報に基づいて、水害におけるハザードマップ情報から得られた、前記位置情報の示す位置における水位を受信する第2水位受信手段と、
    をさらに備え、
    前記高さ設定手段は、前記受信した水位を設定する、請求項12または13に記載のポータブルデバイス。
  17. 前記位置情報に基づいて、水害におけるハザードマップ情報から得られた、前記位置情報の示す位置における危険な避難方向に関する指示情報を外部から受信する指示情報受信手段をさらに備え、
    前記表示制御手段は、前記指示情報を前記ディスプレイに表示するよう制御する、請求項16に記載のポータブルデバイス。
  18. 前記災害が火災であって、
    前記面は火災によって生じる煙の下面を表わす、請求項1乃至10のいずれか1項に記載のポータブルデバイス。
  19. 前記災害が火災であって、前記面は火災によって生じる煙の下面を表わし、
    前記高さ取得手段は、前記ポータブルデバイスの高さを前記ユーザの目の高さとして検出する高さ検出手段を有する、請求項10に記載のポータブルデバイス。
  20. ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように、前記ポータブルデバイスを保持するゴーグルを備えた疑似体験システムにおける前記ポータブルデバイスの擬似体験プログラムであって、
    前記ユーザの目に対応する仮想カメラと、前記ユーザの視線に対応する前記仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成ステップと、
    少なくとも前記仮想カメラと前記仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成ステップと、
    映像を前記仮想スクリーンに投影する投影ステップと、
    前記ユーザの視点から前記仮想スクリーンを見たときの、前記形成された面および前記投影された映像を前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御ステップと、
    をコンピュータに実行させるポータブルデバイスの擬似体験プログラム。
  21. ユーザが携帯可能なポータブルデバイスと、ゴーグルとを含む疑似体験システムであって、
    前記ポータブルデバイスは、
    前記ユーザの目に対応する仮想カメラと、前記ユーザの視線に対応する前記仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成手段と、
    少なくとも前記仮想カメラと前記仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成手段と、
    映像を前記仮想スクリーンに投影する投影手段と、
    前記ユーザの視点から前記仮想スクリーンを見たときの、前記形成された面および前記投影された映像を前記仮想カメラにより撮像して、前記ディスプレイに表示するよう制御する表示制御手段と、
    を備え、
    前記ゴーグルは、前記ユーザの目の前に前記ディスプレイが位置するように前記ポータブルデバイスを保持する保持手段を備えた、疑似体験システム。
  22. ユーザが携帯可能なポータブルデバイスのディスプレイが前記ユーザの目の前に位置するように、前記ポータブルデバイスを保持するゴーグルを備えた疑似体験システムにおける擬似体験方法であって、
    前記ゴーグルに保持された前記ポータブルデバイスにロードされた擬似体験プログラムを起動させる起動ステップと、
    前記ユーザの目に対応する仮想カメラと、前記ユーザの視線に対応する前記仮想カメラの撮像方向に垂直な仮想スクリーンとを有する仮想空間を生成する仮想空間生成ステップと、
    少なくとも前記仮想カメラと前記仮想スクリーンとの間に、災害時に生じる現象を表わす面を形成する形成ステップと、
    映像を前記仮想スクリーンに投影する投影ステップと、
    前記ユーザの視点から前記仮想スクリーンを見たときの、前記形成された面および前記投影された映像を前記仮想カメラにより撮像して、前記ディスプレイに表示する表示ステップと、
    を含む擬似体験方法。
JP2015138497A 2015-07-10 2015-07-10 疑似体験システム、疑似体験方法、ポータブルデバイスおよびその疑似体験プログラム Active JP6043408B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015138497A JP6043408B1 (ja) 2015-07-10 2015-07-10 疑似体験システム、疑似体験方法、ポータブルデバイスおよびその疑似体験プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015138497A JP6043408B1 (ja) 2015-07-10 2015-07-10 疑似体験システム、疑似体験方法、ポータブルデバイスおよびその疑似体験プログラム

Publications (2)

Publication Number Publication Date
JP6043408B1 JP6043408B1 (ja) 2016-12-14
JP2017021560A true JP2017021560A (ja) 2017-01-26

Family

ID=57543909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015138497A Active JP6043408B1 (ja) 2015-07-10 2015-07-10 疑似体験システム、疑似体験方法、ポータブルデバイスおよびその疑似体験プログラム

Country Status (1)

Country Link
JP (1) JP6043408B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6344585B1 (ja) * 2017-12-18 2018-06-20 有限会社静岡アカデミックリサーチ 津波体験キット
DE112018000728T5 (de) 2017-02-08 2019-10-24 Canon Kabushiki Kaisha Radiographiesystem, tragbares Informationsendgerät, Radiographieverfahren und Programm
JP2020127133A (ja) * 2019-02-05 2020-08-20 株式会社ピクセラ 拡大表示システム及び表示装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10783853B2 (en) * 2016-11-02 2020-09-22 Rakuten, Inc. Image provision device, method and program that adjusts eye settings based on user orientation
JP7301567B2 (ja) * 2019-03-20 2023-07-03 任天堂株式会社 画像表示システム、画像表示プログラム、画像表示装置、および画像表示方法
JP7349808B2 (ja) 2019-03-20 2023-09-25 任天堂株式会社 画像表示システム、画像表示プログラム、画像表示装置、および画像表示方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272647A (ja) * 1998-03-23 1999-10-08 Kawasaki Heavy Ind Ltd 災害体験模擬装置
JP2002108196A (ja) * 2000-10-03 2002-04-10 Matsushita Electric Works Ltd 避難仮想体験システム
JP2009232133A (ja) * 2008-03-24 2009-10-08 Nikon Corp 携帯端末器
JP2011186681A (ja) * 2010-03-05 2011-09-22 Toshiba Corp 防災情報提供システム及び防災情報配信サーバ
JP2012068977A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd ゲーム処理をするためのプログラム、装置、システムおよび方法
JP2013069177A (ja) * 2011-09-23 2013-04-18 Kokusai Kogyo Co Ltd 合成画像表示装置及び合成画像表示プログラム
JP2015121756A (ja) * 2013-12-25 2015-07-02 株式会社日立国際電気 救助訓練システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272647A (ja) * 1998-03-23 1999-10-08 Kawasaki Heavy Ind Ltd 災害体験模擬装置
JP2002108196A (ja) * 2000-10-03 2002-04-10 Matsushita Electric Works Ltd 避難仮想体験システム
JP2009232133A (ja) * 2008-03-24 2009-10-08 Nikon Corp 携帯端末器
JP2011186681A (ja) * 2010-03-05 2011-09-22 Toshiba Corp 防災情報提供システム及び防災情報配信サーバ
JP2012068977A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd ゲーム処理をするためのプログラム、装置、システムおよび方法
JP2013069177A (ja) * 2011-09-23 2013-04-18 Kokusai Kogyo Co Ltd 合成画像表示装置及び合成画像表示プログラム
JP2015121756A (ja) * 2013-12-25 2015-07-02 株式会社日立国際電気 救助訓練システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
細川 直史: "消防防災分野における拡張現実の活用", 画像ラボ 2013.11, vol. 第24巻 第11号, JPN6016031488, 10 November 2013 (2013-11-10), JP, pages 68 - 74, ISSN: 0003381453 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018000728T5 (de) 2017-02-08 2019-10-24 Canon Kabushiki Kaisha Radiographiesystem, tragbares Informationsendgerät, Radiographieverfahren und Programm
JP6344585B1 (ja) * 2017-12-18 2018-06-20 有限会社静岡アカデミックリサーチ 津波体験キット
JP2019109450A (ja) * 2017-12-18 2019-07-04 有限会社静岡アカデミックリサーチ 津波体験キット
JP2020127133A (ja) * 2019-02-05 2020-08-20 株式会社ピクセラ 拡大表示システム及び表示装置
JP7276811B2 (ja) 2019-02-05 2023-05-18 株式会社ピクセラ 拡大表示システム及び表示装置

Also Published As

Publication number Publication date
JP6043408B1 (ja) 2016-12-14

Similar Documents

Publication Publication Date Title
JP6043408B1 (ja) 疑似体験システム、疑似体験方法、ポータブルデバイスおよびその疑似体験プログラム
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
US11256384B2 (en) Method, apparatus and device for view switching of virtual environment, and storage medium
US20180321798A1 (en) Information processing apparatus and operation reception method
US20160086306A1 (en) Image generating device, image generating method, and program
US20190356936A9 (en) System for georeferenced, geo-oriented realtime video streams
US9041743B2 (en) System and method for presenting virtual and augmented reality scenes to a user
CN110716646A (zh) 一种增强现实数据呈现方法、装置、设备及存储介质
US20190088030A1 (en) Rendering virtual objects based on location data and image data
WO2018193574A1 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
US20200045239A1 (en) Control device of movable type imaging device, control method of movable type imaging device, and program
WO2021190649A1 (en) Method and device for collecting images of a scene for generating virtual reality data
EP2685707A1 (en) System for spherical video shooting
US9467620B2 (en) Synthetic camera lenses
WO2020114176A1 (zh) 对虚拟环境进行观察的方法、设备及存储介质
JP2018094086A (ja) 情報処理装置および画像生成方法
EP3430591A1 (en) System for georeferenced, geo-oriented real time video streams
JP5189673B1 (ja) 表示装置、表示方法、ならびに、プログラム
JP6709426B2 (ja) 画像表示制御装置及びプログラム
US20210287399A1 (en) Method and device for collecting images of a scene for generating virtual reality data
US20190089899A1 (en) Image processing device
JP6826215B2 (ja) 携帯機器
EP4325842A1 (en) Video display system, information processing device, information processing method, and program
WO2020054585A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN116342838A (zh) 一种头戴设备及头戴设备中的建图初始化方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161111

R150 Certificate of patent or registration of utility model

Ref document number: 6043408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350