JP2023059553A - 体験装置、体験システム、及び、表示方法 - Google Patents

体験装置、体験システム、及び、表示方法 Download PDF

Info

Publication number
JP2023059553A
JP2023059553A JP2021169632A JP2021169632A JP2023059553A JP 2023059553 A JP2023059553 A JP 2023059553A JP 2021169632 A JP2021169632 A JP 2021169632A JP 2021169632 A JP2021169632 A JP 2021169632A JP 2023059553 A JP2023059553 A JP 2023059553A
Authority
JP
Japan
Prior art keywords
time
information
point
server
experience device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021169632A
Other languages
English (en)
Other versions
JP7011364B1 (ja
Inventor
保次 瀬古
Yasuji Seko
正吾 沼倉
Shogo Numakura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Symmetry Dimensions Inc
Original Assignee
Symmetry Dimensions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symmetry Dimensions Inc filed Critical Symmetry Dimensions Inc
Priority to JP2021169632A priority Critical patent/JP7011364B1/ja
Application granted granted Critical
Publication of JP7011364B1 publication Critical patent/JP7011364B1/ja
Publication of JP2023059553A publication Critical patent/JP2023059553A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】現実空間における事象をユーザがより簡単に把握又は体験できる。【解決手段】体験装置は、プロセッサ及びメモリを備え、プロセッサは、メモリと協働して、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、第1の時刻の前記時空間モデルを取得し、第1の時刻の時空間モデルに基づいて、現実空間の所定の第1の地点の第1の時刻における視覚的な状況を再現した画像である再現画像を出力する。【選択図】図1

Description

本開示は、体験装置、体験システム、及び、表示方法に関する。
現実空間にて発生する事象をユーザが把握又は体験するための技術が検討されている。特許文献1には、バス及びタクシーといった移動体とセンターとによって構成されるフレキシブルネットワークシステムが開示されている。各移動体は、GPS等の位置情報収集機能を有する通信機器と共にICタグの検出器を搭載する。センターは、各移動体の通信機器と無線通信する通信機と、各移動体から受信した情報(検出信号及び位置情報等)を記録する記憶手段とを有する。各移動体の検出器は、それを包囲する一定エリア内のICタグと通信して検出する機能を有する。これらの複数の移動体のエリアを併せることにより、エリア内のICタグを捜査又は探索して検出することができる。例えば、学童にICタグを持たせることにより、このエリア内にいる学童を、フレキシブルネットワークを利用して監視可能にする。
特開2008-217300号公報
しかしながら、現実空間における事象をユーザがより簡単に把握又は体験するためには、従来の技術では不十分である。
本開示の目的は、現実空間における事象をユーザがより簡単に把握又は体験できる技術を提供することである。
本開示に係る体験装置は、プロセッサ及びメモリを備え、前記プロセッサは、前記メモリと協働して、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、第1の時刻の前記時空間モデルを取得し、前記第1の時刻の前記時空間モデルに基づいて、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を出力する。
本開示に係る体験システムは、サーバ及び体験装置を備え、前記サーバは、前記体験装置から第1の時刻を示す情報を受信し、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、前記第1の時刻の前記時空間モデルに基づいて、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を生成し、前記再現画像を前記体験装置へ送信し、前記体験装置は、前記サーバから受信した前記再現画像を表示する。
本開示に係る体験装置による表示方法は、第1の時刻を示す情報をサーバへ送信し、前記サーバから、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、前記第1の時刻の前記時空間モデルに基づいて生成された、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を受信し、前記サーバから受信した前記再現画像を表示する。
なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示によれば、現実空間における事象をユーザがより簡単に把握又は体験することができる。
実施の形態1に係る体験システムの構成例を示す模式図である。 実施の形態1に係る時空間モデルの一例を示す模式図である。 実施の形態1に係る体験装置に表示される画像の一例を示す模式図である。 実施の形態1に係るサーバのハードウェア構成例を示すブロック図である。 実施の形態1に係る体験装置のハードウェア構成例を示すブロック図である。 実施の形態1に係る時空間モデル及び環境情報の生成方法の一例を示すフローチャートである。 実施の形態1に係る移動経路情報の生成方法の一例を示すフローチャートである。 実施の形態1に係るVR装置を用いて対象人物の過去の状況を追体験する方法の第1例を示すフローチャートである。 実施の形態1に係るVR装置を用いて対象人物の過去の状況を追体験する方法の第2例を示すフローチャートである。 実施の形態1に係るAR眼鏡を用いて現在位置の過去の状況を把握する方法を示すフローチャートである。 実施の形態1に係るAR眼鏡を用いて対象人物の過去の状況を追体験する方法の例を示すフローチャートである。 実施の形態2に係る体験システムの構成例を示す模式図である。 実施の形態2に係るAR眼鏡に表示される画像の一例を示す模式図である。 実施の形態2に係るAR眼鏡を用いて災害が発生したときの避難誘導を体験する方法の一例を示すフローチャートである。
以下、図面を参照して、本開示の実施の形態について詳細に説明する。ただし、公知の事項又は重複する事項については説明を省略する場合がある。また、図面及び以下の記載は一例に過ぎず、特許請求の範囲の記載の主題を限定することは意図されていない。
(実施の形態1)
<システムの概要>
図1は、実施の形態1に係る体験システム1の構成例を示す模式図である。図2は、実施の形態1に係る時空間モデル310の一例を示す模式図である。図3は、実施の形態1に係る体験装置200に表示される画像の一例を示す模式図である。
体験システム1は、現実空間にて発生した事象をユーザ2に把握又は体験させるためのシステムである。体験システム1は、複数のセンサ10、サーバ100、及び、体験装置200を含んで構成される。また、複数のセンサ10、サーバ100、及び、体験装置200は、所定の通信ネットワーク4を通じて、データ又は情報を互いに送受信できてよい。
複数のセンサ10は、現実空間に配置され、現実空間に関する様々な情報を計測する。センサ10は、歩行者が持つスマートフォン、及び、道路を走行する車両など、様々な移動体に搭載されてよい。車両は、自家用車又は商用車のいずれであってもよい。商用車の例として、バス、トラック、タクシー等が挙げられる。加えて、センサ10は、建物、電柱、及び、信号機など、様々な静止体に設置されてよい。
移動体に搭載されるセンサ10の例として、測位センサ、姿勢センサ、カメラ、マイク、LiDAR(Light Detection And Ranging)が挙げられる。
測位センサは、GNSS(Global Navigation Satellite System)信号等を受信して、移動体の現在位置を測定する。測位センサが測定した時刻及び現在位置を含む情報をセンサ位置情報と称する。なお、本開示における「時刻」は、年月日の情報も含んでよい。
姿勢センサは、方位センサ及びジャイロセンサなどを含み、移動体の方位角及び仰俯角を測定する。姿勢センサが測定した時刻と方位角及び仰俯角とを含む情報をセンサ姿勢情報と称する。
カメラは、例えばレンズ及び撮像素子などを含み、現実空間を撮像する。カメラが撮像した時刻及び画像を含む情報をセンサ撮像情報と称する。センサ撮像情報は静止画及び動画の何れであってもよい。
マイクは、現実空間の音を集音する。マイクが集音した時刻及び音を含む情報をセンサ集音情報と称する。
LiDARは、移動体の周囲の物体の位置及び形状を3D(dimensions)点群として測定する。LiDARが測定した時刻及び3D点群を含む情報をセンサ点群情報と称する。
移動体は、様々な地点にて、カメラが撮像したセンサ撮像情報、マイクが集音したセンサ集音情報、及び、LiDARが測定したセンサ点群情報を、測位センサが測定したセンサ位置情報及び姿勢センサが測定したセンサ姿勢情報と共に、サーバ100へ送信する。移動体は、これらの情報を、セルラ網(例えばLTE(Long Term Evolution),4G,5G)又はインターネットなどによって構成される通信ネットワーク4を通じてサーバ100へ送信してよい。
なお、移動体が車両である場合、ドライブレコーダのカメラ及びマイクがセンサ10として利用されてよい。
静止体に設置されるセンサ10の例として、監視カメラ、温度及び湿度センサ、風速及び風向センサが挙げられる。
監視カメラは、設置された地点から現実空間を撮像する。監視カメラは、撮像した時刻及び画像を含む情報をサーバ100へ送信する。
温度及び湿度センサは、設置された地点の温度(気温)及び湿度を測定する。温度及び湿度センサは、測定した時刻、温度及び湿度を示す情報をサーバ100へ送信する。
風速及び風向センサは、設置された地点の風速及び風向を測定する。風速及び風向センサは、測定した時刻、風速及び風向を示す情報をサーバ100へ送信する。
例えば、静止体に設置されたセンサ10は、これらの情報を、セルラ網(例えばLTE,4G,5G)、無線LAN(例えばWi-Fi(登録商標))、又は、有線LAN(例えばEthernet(登録商標))、並びに、インターネットなどによって構成される通信ネットワーク4を通じてサーバ100へ送信してよい。
このように、サーバ100は、現実空間に配置された各センサ10から情報を収集する。以下、サーバ100が各センサ10から収集した情報を、センサ情報と称する。サーバ100は、各センサ10から収集したセンサ情報を用いて、現実空間の物体の時間経過に伴う変化を3Dモデル化したデータである時空間モデル310を生成する。なお、時空間モデル310は、現実空間を模したデジタルツインデータと読み替えられてもよい。
図2は、ある時刻の現実空間を3Dモデル化した時空間モデル310の一例を示す。時空間モデル310には、現実空間における静止体及び移動体が含まれてよい。本実施の形態では、建物、道路、電柱、信号機、塀、溝など、比較的短時間ではあまり変化しない物体を静止体と称する。ただし、建設中又は解体中の建物、あるいは、工事中の道路など、静止体であっても時間経過に伴い変化する場合もある。また、本実施の形態では、車両、歩行者、自転車など、比較的短時間で位置を移動する物体を移動体と称する。ただし、駐車中の車両など、移動体であっても長時間同じ位置に静止している場合もある。
さらに、サーバ100は、インターネット空間にて公開されている様々な情報を収集する。以下、サーバ100がインターネット空間から収集した情報を、公開情報303と称する。公開情報303の例として、天気に関する情報、太陽、月、星に関する情報、公共交通機関の運行情報、SNS(Social Networking Service)の情報などが挙げられる。
サーバ100は、センサ情報及び公開情報303の少なくとも1つを用いて、現実空間における環境の時間経過に伴う変化を示す環境情報311を生成する。環境情報311には、例えば、音、天気、気温、湿度、風速、風向、明るさ、太陽又は月の位置など、時間経過に伴う環境の変化を示す情報が含まれる。
サーバ100は、時空間モデル310及び環境情報311を用いて、対象エリアにおいて対象人物3が過去にいた地点及び移動した経路を推測する。対象人物3は、例えば警察が捜索中の人物である。捜索中の人物の例として、ある事件(例えば誘拐事件又は傷害事件)の容疑者、又は、捜索願が出された行方不明者などが挙げられる。サーバ100は、その推測した対象人物3の移動経路を示す移動経路情報312を生成する。移動経路情報312は、対象人物3がどの時刻にどの地点にいたかを示す情報であってよい。
ユーザ2は、体験装置200を装着し、対象エリアの任意の地点の任意の過去の時刻における状況を体験することができる。体験装置200の例として、VR(Virtual Reality)装置200A及びAR(Augmented Reality)眼鏡200Bが挙げられる。なお、AR眼鏡200Bは、MR(Mixed Reality)眼鏡と読み替えられてもよい。
例えば、ユーザ2が体験装置200を装着し、任意の地点及び任意の時刻を入力すると、体験装置200は、その入力された地点及び時刻における視覚的な状況を再現した情報(以下、視覚再現情報313と称する)をサーバ100から受信して表示する。これにより、ユーザ2は、体験装置200を通じて、その入力した地点及び時刻における状況を視覚的に体験することができる。
また、体験装置200は、その入力された地点及び時刻における環境を再現した情報(以下、環境再現情報314)をサーバ100から受信し、その環境再現情報314に基づく出力を行ってもよい。例えば、体験装置200は、環境再現情報314として、音、天気、気温、湿度、風速、風向、明るさ、太陽又は月の位置などの情報を出力する。これにより、ユーザ2は、体験装置200を通じて、その入力した地点及び時刻における環境を把握することができる。
また、ユーザ2は、体験装置200を装着し、対象人物3の過去の行動を追体験することができる。
例えば、ユーザ2がVR装置200Aを装着すると、VR装置200Aは、その対象人物3がいた地点及び時刻における視覚的な状況を再現した再現画像320を含む視覚再現情報313をサーバ100から受信して表示する。また、VR装置200Aは、対象人物3の移動経路情報312をサーバ100から受信し、その移動経路情報312に基づいて、対象人物3が過去に移動した経路に係る視覚再現情報313を動画として表示してもよい。これにより、ユーザ2は、VR装置200Aを通じて、対象人物3がいた地点及び時刻における状況を追体験することができる。
例えば、ユーザ2が現実空間にてAR眼鏡200Bを装着すると、AR眼鏡200Bは、当該ユーザ2の現在位置に対象人物3がいた時刻における視覚的な状況を再現した再現画像320を含む視覚再現情報313をサーバ100から受信して表示する。このとき、AR眼鏡200Bは、ユーザ2がAR眼鏡200B越しに見ている現実空間の景色に、その対象人物3がいた時刻の状況を再現するための再現画像320を重畳して表示する。例えば、AR眼鏡200Bは、その対象人物3がいた時刻に存在していた車両323及び歩行者324などの画像を重畳して表示する。また、AR眼鏡200Bは、対象人物3の移動経路情報312をサーバ100から受信し、その移動経路情報312に基づいて、ユーザ2が現実空間を移動するのに合わせて、対象人物3が過去に移動した経路に係る視覚再現情報313を連続的に表示してもよい。これにより、ユーザ2は、AR眼鏡200Bを通じて、対象人物3が移動した経路を辿りながら、対象人物3が過去の移動したときの状況を追体験することができる。
また、体験装置200(VR装置200A又はAR眼鏡200B)は、対象人物3がいた地点及び時刻における環境再現情報314をサーバ100から受信し、その環境再現情報314に基づく出力を行ってもよい。例えば、体験装置200は、環境再現情報314から、対象人物3がいた地点及び時刻における、音、天気、気温、湿度、風速、風向、明るさ、太陽又は月の位置などの情報(例えば環境画像321)を生成して出力する。これにより、ユーザ2は、体験装置200を通じて、対象人物3がいた地点及び時刻における環境を把握することができる。
例えば、対象人物3が容疑者である場合、警察官(ユーザ2)は、装着した体験装置200に表示される視覚再現情報313及び環境再現情報314によって、その容疑者が過去にいた地点及び移動した経路にて体験した状況(例えば容疑者から見えていた景色及び聞こえていた音)を追体験することができる。これにより、警察官は、例えば、容疑者の心理を推測して、容疑者の行先を推測又は犯行の動機を推測するなど、様々な調査を行うことができる。
例えば、対象人物3が行方不明者である場合、警察官(ユーザ2)は、装着した体験装置200に表示される視覚再現情報313及び環境再現情報314によって、その行方不明者が過去にいた地点及び移動した経路にて体験した状況(例えば行方不明者から見えていた景色及び聞こえていた音)を追体験することができる。これにより、警察官は、例えば、行方不明者の心理を推測して、行方不明者の行先を推測又は目撃者を探すなど、様々な調査を行うことができる。
また、体験装置200は、視覚再現情報313又は環境再現情報314として出力する時刻を巻き戻し又は早送りするための機能を有してよい。ユーザ2は、体験装置200を操作して、視覚再現情報313又は環境再現情報314の時刻を巻き戻し又は早送りし、対象人物3がいた地点における状況の時間経過に伴う変化(例えば歩行者又は車両の流れなど)を把握することができる。
このように、本実施の形態に係る体験システム1によれば、ユーザ2は、体験装置200を通じて、任意の地点の過去の任意の時刻における状況を容易に把握又は体験することができる。例えば、ユーザ2は、上述したように、体験装置200を通じて、対象人物3の捜査などを行うことができる。以下、本実施の形態に係る体験システム1について詳細に説明する。
<サーバの構成>
図4は、実施の形態1に係るサーバ100のハードウェア構成例を示すブロック図である。次に、図4を参照して、サーバ100のハードウェアの構成の一例を説明する。
サーバ100は、入力部101、表示部102、メモリ103、ストレージ104、通信部105、及び、プロセッサ106を備える。
入力部101は、例えば、キーボード、マウス、及び、マイク等によって構成される。入力部101は、例えばサーバ100の管理者からの入力操作を受け付ける。
表示部102は、例えば、ディスプレイ装置によって構成される。表示部102は、例えば管理者向けに各種情報を表示する。
メモリ103は、揮発性記憶媒体及び/又は不揮発性記憶媒体を含んで構成される。メモリ103は、ROM(Read Only Memory)及びRAM(Random Access Memory)を含んで構成されてよい。メモリ103は、サーバ100が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。
ストレージ104は、不揮発性記憶媒体を含んで構成される。ストレージ104は、例えば、フラッシュメモリ、SSD(Solid State Drive)及びHDD(Hard Disk Drive)の少なくとも1つによって構成されてよい。ストレージ104は、サーバ100が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。
通信部105は、通信ネットワーク4を介するデータの送受信を制御する。通信部105は、通信インタフェース、通信回路、又は、通信モジュールといった他の用語に読み替えられてもよい。
プロセッサ106は、各構成要素101~105と協働して、サーバ100が有する機能を実現する。例えば、プロセッサ106は、メモリ103又はストレージ104からコンピュータプログラムを読み出して実行することにより、サーバ100が有する機能を実現する。本実施の形態において、サーバ100を主体として説明される処理は、サーバ100のプロセッサ106を主体とする処理に読み替えられてよい。なお、プロセッサ106は、CPU(Central Processing Unit)、LSI(Large Scale Integrated Circuit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、コントローラ、制御回路とった他の用語に読み替えられてもよい。
<体験装置の構成>
図5は、実施の形態1に係る体験装置200のハードウェア構成例を示すブロック図である。次に、図5を参照して、体験装置200のハードウェアの構成の一例を説明する。
体験装置200は、位置計測部201、姿勢計測部202、撮像部203、入力部204、表示部205、スピーカ206、メモリ207、ストレージ208、通信部209、及び、プロセッサ210を備える。
位置計測部201は、GNSS信号などを受信し、現実空間における体験装置200の現在位置を計測し、現在位置情報301を生成する。現在位置情報301は、計測された時刻と、計測された現在位置を示す経度及び緯度とが含まれてよい。なお、体験装置200がVR装置200Aである場合、位置計測部201は備えられてなくてもよい。
姿勢計測部202は、電子コンパス、ジャイロセンサ、及び、加速センサなどの少なくとも1つによって、現実空間における体験装置200の姿勢を計測し、姿勢情報302を生成する。姿勢情報302は、計測された時刻と、計測された姿勢を示す方位角及び仰俯角とが含まれてよい。さらに、姿勢情報302は、体験装置200を装着したユーザ2の目線の高さを示す目線情報が含まれてもよい。これにより、体験装置200は、ユーザ2の目線に合った視覚再現情報313を表示することができる。
撮像部203は、レンズ及び撮像素子を含んで構成される。撮像部203は、カメラと読み替えられてもよい。撮像部203は、現実空間における体験装置200の姿勢の方向を撮像する。なお、体験装置200がVR装置200Aである場合、撮像部203は備えられなくてもよい。
入力部204は、例えば、ジェスチャセンサ、タッチパネル、ボタン、及び/又は、マイク等によって構成される。入力部204は、ユーザ2からの入力操作を受け付ける。
表示部205は、例えば、ディスプレイ装置によって構成される。体験装置200がAR眼鏡200Bの場合、表示部205は、AR眼鏡200Bを装着したユーザ2が現実空間を視認できる透明ディスプレイであってよい、表示部205は、例えば、再現画像320及び環境画像321などを表示する。
スピーカ206は、音を出力する。スピーカ206は、例えば、体験装置200を装着したユーザ2に、環境再現情報314に基づく音を聞かせる。スピーカ206は、ヘッドフォンであってもよい。
メモリ207は、揮発性記憶媒体及び/又は不揮発性記憶媒体を含んで構成される。メモリ207は、ROM及びRAMを含んで構成されてよい。メモリ207は、体験装置200が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。
ストレージ208は、不揮発性記憶媒体を含んで構成される。ストレージ208は、例えば、フラッシュメモリ、SSD及びHDDの少なくとも1つによって構成されてよい。ストレージ208は、体験装置200が有する機能を実現するコンピュータプログラム及びデータが格納されてよい。
通信部209は、通信ネットワーク4を介するデータの送受信を制御する。
プロセッサ210は、各構成要素201~209と協働して、体験装置200が有する機能を実現する。例えば、プロセッサ210は、メモリ207又はストレージ208からコンピュータプログラムを読み出して実行することにより、体験装置200が有する機能を実現する。本実施の形態において、体験装置200を主体として説明される処理は、体験装置200のプロセッサ210を主体とする処理に読み替えられてよい。
<時空間モデル及び環境情報の生成方法>
図6は、実施の形態1に係る時空間モデル310及び環境情報311の生成方法の一例を示すフローチャートである。次に、図6を参照して、サーバ100が時空間モデル310及び環境情報311を生成する方法及び処理について説明する。
サーバ100は、対象エリア及び対象期間を設定する(S101)。当該設定は、ユーザ2によって手動で行われてもよいし、所定の条件に基づいて自動的に行われてもよい。例えば、サーバ100は、対象人物3の捜索範囲に基づいて対象エリアを設定し、対象人物3が最後に目撃された時刻に基づいて対象期間を設定してもよい。
サーバ100は、対象エリアに存在する各センサ10から、当該センサ10が対象期間に計測したセンサ情報を収集する(S102)。
サーバ100は、インターネット空間から、対象エリア及び対象期間に関する公開情報303を収集する(S103)。
サーバ100は、収集したセンサ情報及び/又は公開情報303に基づいて、対象エリアにおける対象期間の時空間モデル310及び環境情報311を生成する(S103)。例えば、サーバ100は、センサ情報に含まれるセンサ位置情報、センサ姿勢情報、センサ撮像情報、及び、センサ点群情報に基づいて、対象エリアにおける対象期間の道路、建物、車両、歩行者などを3Dモデル化し、時空間モデル310を生成する。例えば、サーバ100は、センサ情報に含まれるセンサ集音情報に基づいて、対象エリアにおいて対象期間中に聞こえていた音を含む環境情報311を生成する。例えば、サーバ100は、公開情報303に含まれる天気などの情報に基づいて、対象エリアの対象期間における天気などの情報を含む環境情報311を生成する。
図6に示す処理により、サーバ100には、対象エリアにおける対象期間の時空間モデル310及び環境情報311が格納される。
<移動経路情報の生成方法>
図7は、実施の形態1に係る移動経路情報312の生成方法の一例を示すフローチャートである。次に、図7を参照して、サーバ100が移動経路情報312を生成する方法及び処理について説明する。
サーバ100は、時空間モデル310及び環境情報311に基づいて、対象エリア及び対象期間において、対象人物3が移動した経路を推測する(S201)。例えば、サーバ100は、第1の時刻の時空間モデル310において第1の地点にいた対象人物3が、第1の時刻よりも後である第2の時刻の時空間モデル310において第2の地点にいたことを検出した場合、時空間モデル310における道路の繋がり及び建物の位置関係、第1の時刻から第2の時刻までの期間、その期間における環境情報311、並びに、対象人物3の特徴(例えば推定される年齢、性別、身長、体重、職業)などに基づいて、対象人物3が第1の地点から第2の地点にどのように移動した可能性が高いかをシミュレーションする。そして、サーバ100は、そのシミュレーション結果に基づいて、対象人物3の第1の地点から第2の地点までの移動経路を推測する。サーバ100は、これを繰り返すことにより、対象期間における対象人物3の移動経路を推測する。なお、サーバ100は、AI(Artificial Intelligence)を用いてこのシミュレーションを行ってもよい。例えば、サーバ100は、様々な人物が過去に対象エリアにおいてどのように移動したかを示す情報を教師データとして学習させた学習済みモデルを生成しておき、その学習済みモデルを用いて、対象人物3の第1の地点から第2の地点までの移動経路を推測してもよい。なお、学習済みモデルは、機械学習、又は、ディープラーニングなど、公知の技術によって生成されてよい。
サーバ100は、ステップS201の推測結果に基づいて、対象人物3の移動経路を示す移動経路情報312を生成する(S202)。
図7に示す処理により、サーバ100には、対象エリアにおける対象期間において対象人物3がどのように移動したかを推測した情報である移動経路情報312が格納される。
<VR装置を用いて対象人物の過去の状況を追体験する方法の第1例>
図8は、実施の形態1に係るVR装置200Aを用いて対象人物3の過去の状況を追体験する方法の第1例を示すフローチャートである。次に、図8を参照して、体験装置200の一例であるVR装置200Aを装着したユーザ2が対象人物3の過去の状況を追体験する方法の第1例について説明する。
ユーザ2は、VR装置200Aを装着する(S301)。
ユーザ2は、VR装置200Aの入力部204を通じて、対象人物3の対象期間のうち、所望の時刻を選択(又は入力)する(S302)。例えば、ユーザ2は、図3に示すVR装置200Aに表示されたシークバー322(図3参照)を操作して、所望の時刻を選択する。図8の説明において、この選択された時刻を第1の時刻と称する。
VR装置200Aは、姿勢計測部202の計測結果に基づいて、VR装置200Aの姿勢(つまりVR装置200Aを装着しているユーザ2の頭の姿勢)を示す姿勢情報302を生成する(S303)。姿勢情報302には、ユーザ2の視線の方向を示す方位角及び仰俯角が含まれる。
VR装置200Aは、第1の時刻及び姿勢情報302をサーバ100へ送信する(S304)。
サーバ100は、第1の時刻及び姿勢情報302をVR装置200Aから受信する(S305)。
サーバ100は、移動経路情報312に基づき、対象人物3が第1の時刻のときにいた地点を特定する(S306)。図8の説明において、この特定された地点を第1の地点と称する。
サーバ100は、第1の時刻の時空間モデル310に基づいて、第1の時刻において第1の地点から見えていた景色の再現画像320を含む視覚再現情報313を生成する(S307)。このとき、サーバ100は、姿勢情報302に応じた再現画像320を生成する。例えば、第1の地点が図2に示す地点Pを示し、姿勢情報302が図2に示す方向Fを示す場合、サーバ100は、図2に示す時空間モデル310を用いて地点Pから方向Fを見た場合の再現画像320(図3参照)を生成する。
サーバ100は、第1の時刻の環境情報311に基づいて、第1の地点の第1の時刻における環境再現情報314を生成する(S308)。
サーバ100は、視覚再現情報313及び環境再現情報314をVR装置200Aに送信する(S309)。
VR装置200Aは、視覚再現情報313及び環境再現情報314をサーバ100から受信する(S310)。
VR装置200Aは、視覚再現情報313に含まれる再現画像320を表示すると共に、環境再現情報314に含まれる内容(例えば環境画像321)を出力する(S311)。そして、VR装置200Aは、処理をステップS302に戻す。ユーザ2は、戻されたステップS302にて、別の第1の時刻を選択してよい。
次に、VR装置200AがステップS311にて環境再現情報314に含まれる内容を出力する例について説明する。
例えば、VR装置200Aは、環境再現情報314に基づいて、音声情報を出力する。例えば、VR装置200Aは、環境再現情報314の内容に基づいて、音、天気、気温、湿度、風速、風向、明るさ、太陽又は月の位置などを示す情報を出力してもよい。この際、VR装置200Aは、環境再現情報314の内容を、図3の環境画像321に示すように、アイコン、文字又は数値で表現してもよい。あるいは、VR装置200Aは、環境再現情報314の内容を、環境画像321として表現してもよい。例えば、VR装置200Aは、環境再現情報314の内容が晴れで気温が高いことを示す場合、陽炎が生じているように見える環境画像321を再現画像320に重畳して表示する。また、例えば、VR装置200Aは、環境再現情報314の内容が雨であること示す場合、雨が降っているように見える環境画像321を再現画像320に重畳して表示する。このとき、VR装置200Aは、雨音をスピーカ206から出力してもよい。また、例えば、VR装置200Aは、環境再現情報314の内容がある方向に強い風が吹いていることを示す場合、その方向に木の葉が飛んでいるように見える環境画像321を再現画像320に重畳して表示する。また、例えば、VR装置200Aは、環境再現情報314の内容がある方角に太陽(又は月)が位置していることを示す場合、その位置に太陽(又は月)が位置しているように見える環境画像321を再現画像320に重畳して表示する。
図8に示す方法によれば、ユーザ2は、ステップS302にて任意の第1の時刻を入力することで、第1の時刻のときに対象人物3がいたと推測される第1の地点の状況を簡単に把握することができる。加えて、ユーザ2は、VR装置200Aが出力する視覚再現情報313及び環境再現情報314の内容から、対象人物3が第1の地点にいたときの第1の時刻における状況を簡単に追体験することができる。
<VR装置を用いて対象人物の過去の状況を追体験する方法の第2例>
図9は、実施の形態1に係るVR装置200Aを用いて対象人物3の過去の状況を追体験する方法の第2例を示すフローチャートである。次に、図9を参照して、体験装置200の一例であるVR装置200Aを装着したユーザ2が、対象人物3の過去の状況を追体験する方法の第2例について説明する。
ユーザ2は、VR装置200Aを装着する(S401)。
VR装置200Aは、対象人物3の移動経路情報312に基づき、対象人物3の移動経路を表示する(S402)。なお、VR装置200Aは、移動経路情報312を、適宜サーバ100から取得してもよいし、予めストレージ208に格納してもよい。
ユーザ2は、VR装置200Aの入力部204を通じて、表示された移動経路上の所望の地点を選択する(S403)。図9の説明において、この選択された地点を第1の地点と称する。
VR装置200Aは、姿勢計測部202の計測結果に基づいて、VR装置200Aの姿勢(つまりVR装置200Aを装着しているユーザ2の頭の姿勢)を示す姿勢情報302を生成する(S404)。
VR装置200Aは、第1の地点及び姿勢情報302をサーバ100へ送信する(S405)。
サーバ100は、第1の地点及び姿勢情報302をVR装置200Aから受信する(S406)。
サーバ100は、移動経路情報312に基づき、対象人物3が第1の地点にいたときの時刻を特定する(S407)。図9の説明において、この特定された時刻を第1の時刻と称する。
サーバ100は、第1の時刻の時空間モデル310に基づき、第1の地点から第1の時刻のときに見えていた景色の再現画像320を含む視覚再現情報313を生成する(S408)。このとき、サーバ100は、姿勢情報302に応じた再現画像320を生成する。
サーバ100は、第1の時刻の環境情報311に基づいて、第1の地点の第1の時刻における環境再現情報314を生成する(S409)。
サーバ100は、視覚再現情報313及び環境再現情報314をVR装置200Aに送信する(S410)。
VR装置200Aは、視覚再現情報313及び環境再現情報314をサーバ100から受信する(S411)。
VR装置200Aは、視覚再現情報313に含まれる再現画像320を表示すると共に、環境再現情報314に含まれる内容(例えば環境画像321)を出力する(S412)。そして、VR装置200Aは、処理をステップS403に戻す。ユーザ2は、戻されたステップS403にて、別の第1の地点を選択してよい。
図9に示す方法によれば、ユーザ2は、ステップS403にて対象人物3の移動経路上の第1の地点を選択することで、対象人物3が第1の地点にいたときの時刻(つまり第1の時刻)を直ちに確認できる。加えて、ユーザ2は、VR装置200Aが出力する視覚再現情報313及び環境再現情報314の内容から、対象人物3が第1の地点にいたときの第1の時刻における状況を簡単に追体験できる。
なお、VR装置200Aは、ステップS403にて第1の地点が選択された後、対象人物3がその第1の地点から移動した経路上で見えていた景色を、動画の視覚再現情報313としてステップS412にて自動的に再生してもよい。このとき、VR装置200Aは、対象人物3がその第1の地点から移動した経路上で聞こえていた音声を、音声ストリームの環境再現情報314としてステップS412にて自動的に再生してもよい。これにより、ユーザ2は、VR装置200Aが出力する視覚再現情報313及び環境再現情報314の内容から、対象人物3が第1の地点から移動した経路上における状況を自動的に追体験できる。
また、VR装置200Aは、対象人物3の目線の高さが設定されている場合、その目線の高さから見える視覚再現情報313の再現画像320を表示してよい。これにより、ユーザ2は、対象人物3が経路を移動中に見ていた景色を、対象人物3の目線で追体験できる。
<AR眼鏡を用いて現在位置の過去の状況を把握する方法の例>
図10は、実施の形態1に係るAR眼鏡200Bを用いて現在位置の過去の状況を把握する方法を示すフローチャートである。次に、図10を参照して、体験装置200の一例であるAR眼鏡200Bを装着したユーザ2が現在位置の過去の状況を把握する方法の例について説明する。
ユーザ2は、現実空間の対象エリアにてAR眼鏡200Bを装着する(S501)。
ユーザ2は、AR眼鏡200Bの入力部204を通じて、対象人物3の対象期間のうち、所望の時刻を選択(又は入力)する(S502)。例えば、ユーザ2は、図3に示すAR眼鏡200Bに表示されたシークバー322(図3参照)を操作して、所望の時刻を選択する。図10の説明において、この選択された時刻を、第1の時刻と称する。
AR眼鏡200Bは、位置計測部201の計測結果に基づいてユーザ2の現在位置を示す現在位置情報301を生成し、姿勢計測部202の計測結果に基づいてAR眼鏡200Bの姿勢(つまりユーザ2の頭の姿勢)を示す姿勢情報302を生成する(S503)。現在位置情報301は、ユーザ2の現在位置を示す緯度及び経度が含まれる。
AR眼鏡200Bは、第1の時刻、現在位置情報301及び姿勢情報302をサーバ100へ送信する(S504)。
サーバ100は、第1の時刻、現在位置情報301及び姿勢情報302をAR眼鏡200Bから受信する(S505)。なお、図10の説明において、この現在位置情報301が示す地点を、第1の地点と称する。
サーバ100は、第1の時刻の時空間モデル310に基づいて、第1の地点から第1の時刻のときに見えていた景色の再現画像320を含む視覚再現情報313を生成する(S506)。このとき、サーバ100は、姿勢情報302に応じた視覚再現情報313を生成する。
サーバ100は、第1の時刻の環境情報311に基づいて、第1の地点の第1の時刻における環境再現情報314を生成する(S507)。
サーバ100は、視覚再現情報313及び環境再現情報314をAR眼鏡200Bに送信する(S508)。
AR眼鏡200Bは、視覚再現情報313及び環境再現情報314をサーバ100から受信する(S509)。
AR眼鏡200Bは、視覚再現情報313に含まれる再現画像320を表示すると共に、環境再現情報314に含まれる内容(例えば環境画像321)を出力する(S510)。そして、AR眼鏡200Bは、処理をステップS502に戻す。ユーザ2は、戻されたステップS502にて、別の第1の時刻を選択してよい。
AR眼鏡200Bは、ステップS510において、透明ディスプレイ越しに見えている現実空間の景色が第1の時刻のときの状況に見えるように、視覚再現情報313に含まれる再現画像320の少なくとも一部を現実空間の景色に重畳させて表示する。例えば、AR眼鏡200Bは、視覚再現情報313に含まれる車両323又は歩行者324(図3参照)などが現実空間の景色に存在しない場合、その視覚再現情報313に含まれる車両323又は歩行者324があたかも現実空間の景色に存在するように、その車両323又は歩行者324の画像を現実空間の景色に重畳させて表示する。例えば、AR眼鏡200Bは、現実空間の景色に存在する車両323又は歩行者324などが視覚再現情報313に含まれない場合、ユーザ2から見て、その現実空間の景色に存在する車両323又は歩行者324などがあたかも現実空間に存在しないように、透明ディスプレイの表示を制御する。なお、AR眼鏡200Bは、VR装置200Aの場合と同様に、環境再現情報314に含まれる内容(例えば環境画像321)も出力してよい。
図10に示す方法によれば、ユーザ2は、現実空間の対象エリアにおいて任意の第1の時刻を入力することで、AR眼鏡200Bが出力する視覚再現情報313及び環境再現情報314の内容から、現在位置(第1の地点)における第1の時刻のときの状況を簡単に把握することができる。
<AR眼鏡を用いて対象人物の過去の状況を追体験する方法の例>
図11は、AR眼鏡200Bを用いて対象人物3の過去の状況を追体験する方法の例を示すフローチャートである。次に、図11を参照して、体験装置200の一例であるAR眼鏡200Bを装着したユーザ2が対象人物3の過去の状況を追体験する方法の例について説明する。
ユーザ2は、現実空間の対象エリアにて、AR眼鏡200Bを装着する(S601)。
AR眼鏡200Bは、位置計測部201の計測結果に基づいてユーザ2の現在位置を示す現在位置情報301を生成し、姿勢計測部202の計測結果に基づいてAR眼鏡200Bの姿勢(つまりユーザ2の頭の姿勢)を示す姿勢情報302を生成する(S602)。
AR眼鏡200Bは、対象人物3の移動経路情報312に基づき、現在位置が対象人物3の移動経路上であるか否かを判定する(S603)。なお、AR眼鏡200Bは、移動経路情報312を、適宜サーバ100から取得してもよいし、予めストレージ208に格納してもよい。
AR眼鏡200Bは、現在位置が対象人物3の移動経路上でないと判定した場合(S603:NO)、現在位置が対象人物3の移動経路から外れてることを示す情報を出力する(S604)。例えば、AR眼鏡200Bは、現在位置が対象人物3の移動経路から外れていることを示す画像及び/又は音声を出力する。加えて、AR眼鏡200Bは、現在位置から見て対象人物3の移動経路が存在する方向を示す画像(例えば矢印画像)を表示してもよい。そして、AR眼鏡200Bは、処理をS602に戻す。
AR眼鏡200Bは、現在位置が対象人物3の移動経路上であると判定した場合(S603:YES)、現在位置情報301及び姿勢情報302をサーバ100へ送信する(S605)。
サーバ100は、現在位置情報301及び姿勢情報302をAR眼鏡200Bから受信する(S606)。なお、図11の説明において、この現在位置情報301が示す地点を第1の地点と称する。
サーバ100は、移動経路情報312に基づき、対象人物3が、第1の地点にいたときの時刻を特定する(S607)。なお、図11の説明において、この特定された時刻を第1の時刻と称する。
サーバ100は、第1の時刻の時空間モデル310に基づいて、第1の地点から第1の時刻のときに見えていた景色の再現画像320を含む視覚再現情報313を生成する(S608)。このとき、サーバ100は、姿勢情報302に応じた視覚再現情報313を生成する。
サーバ100は、第1の時刻の環境情報311に基づいて、第1の地点の第1の時刻における環境再現情報314を生成する(S609)。
サーバ100は、視覚再現情報313及び環境再現情報314をAR眼鏡200Bに送信する(S610)。
AR眼鏡200Bは、視覚再現情報313及び環境再現情報314をサーバ100から受信する(S611)。
AR眼鏡200Bは、視覚再現情報313に含まれる再現画像320を表示すると共に、環境再現情報314に含まれる内容(例えば環境画像321)を出力する(S612)。そして、AR眼鏡200Bは、処理をステップS602に戻す。ユーザ2は、戻されたステップS602にて、対象人物3の移動経路に沿って現在位置を移動してよい。
図11に示す方法によれば、ユーザ2は、AR眼鏡200Bが出力する視覚再現情報313及び環境再現情報314の内容から、対象人物3が現在位置にいた第1の時刻のときの状況を簡単に把握することができる。また、ユーザ2は、対象人物3の移動経路に沿って現実空間を移動することで、AR眼鏡200Bが出力する視覚再現情報313及び環境再現情報314の内容から、対象人物3が過去にその移動経路に沿って移動したときの状況を簡単に追体験することができる。
<変形例>
サーバ100は、各センサ10から収集したセンサ撮像情報及び/又はセンサ点群情報を解析して、通常と異なる状況(つまり要注意な状況)が発生した時刻及び地点を検出する処理を行ってもよい。サーバ100は、その検出した時刻及び地点を示す情報を時空間モデル310に含めてもよい。また、サーバ100は、各センサ10から収集したセンサ集音情報を解析して、通常と異なる音(つまり要注意な音)が発生した時刻及び地点を検出する処理を行ってもよい。サーバ100は、その検出した時刻及び地点を示す情報を環境情報311に含めてもよい。また、体験装置200は、このような要注意な状況及び音が発生した時刻及び地点の視覚再現情報313及び環境再現情報314を出力する際、例えば、要注意な状況を示す部分の画像を強調表示したり、要注意な音をより大きく出力したりしてよい。
上述では、サーバ100が視覚再現情報313及び環境再現情報314を生成し、体験装置200が通信ネットワーク4を通じてサーバ100から視覚再現情報313及び環境再現情報314を受信する例を説明した。しかし、体験装置200が視覚再現情報313及び環境再現情報314の少なくとも1つを生成してもよい。例えば、体験装置200は、サーバ100から時空間モデル310の少なくとも一部を受信し、その時空間モデル310に基づいて視覚再現情報313を生成してもよい。例えば、体験装置200は、サーバ100から環境情報311の少なくとも一部を受信し、その環境情報311に基づいて環境再現情報314を生成してよい。これにより、ユーザ2の位置又は姿勢の変化に対する再現画像320及び環境画像321の表示の追従性(つまり応答速度)が向上する。
(実施の形態2)
<システムの概要>
図12は、実施の形態2に係る体験システム1の構成例を示す模式図である。図13は、実施の形態2に係るAR眼鏡200Bに表示される災害(津波)の再現画像の一例を示す模式図である。なお、実施の形態2では、実施の形態1にて説明済みの構成要素については同一の参照符号を付し、説明を省略する場合がある。
体験システム1は、災害の状況をユーザ2に仮想的に体験させるためのシステムである。体験システム1は、図1と同様、複数のセンサ10、サーバ100、及び、体験装置200を含んで構成される。複数のセンサ10については、図1と同様のため、説明を省略する。
サーバ100は、実施の形態1と同様に、時空間モデル310を生成する。サーバ100は、時空間モデル310を用いて、災害時のシミュレーションを行い、災害の時空間モデル400を生成する。例えば、災害として津波が設定された場合、サーバ100は、津波が発生してから所定期間における時空間モデル310の時間経過に伴う変化をシミュレーションし、津波の時空間モデル310を生成する。例えば、災害として洪水が設定された場合、サーバ100は、洪水が発生してから所定期間における時空間モデル310の時間経過に伴う変化をシミュレーションし、洪水の時空間モデル310を生成する。これにより、サーバ100は、災害が発生してから所定期間の間に時々刻々と災害の状況が変化する様を表現した時空間モデル310を生成できる。災害が発生してからの所定期間は、対象期間と読み替えられてもよい。
サーバ100は、災害の時空間モデル400に基づいて、より安全に避難できる経路をシミュレーションし、避難経路情報401を生成する。例えば、サーバ100は、災害の時空間モデル400のある地点に所定の速度で移動する対象人物3を配置し、災害の時空間モデル400の時間を進めながら、対象人物3が避難地点まで移動できるかどうかを様々なルートにてシミュレーションを行う。これにより、サーバ100は、より安全な避難経路情報401を生成することができる。
<AR眼鏡を用いて避難誘導を体験する方法の例>
図14は、実施の形態2に係るAR眼鏡200Bを用いて災害が発生したときの避難誘導を体験する方法の一例を示すフローチャートである。次に、図14を参照して、体験装置200の一例であるAR眼鏡200Bを装着したユーザ2が、災害が発生したときの避難誘導を体験する方法について説明する。
ユーザ2は、現実空間の対象エリアにて、AR眼鏡200Bを装着する(S901)。
ユーザ2は、AR眼鏡200Bの入力部204を通じて、災害の対象期間のうち、所望の時刻を選択(又は入力)する(S902)。例えば、ユーザ2は、図13に示すAR眼鏡200Bに表示された災害(津波)の再現画像410内のシークバー322を操作して、所望の時刻を選択する。図13の説明において、この選択された時刻を、第1の時刻と称する。
AR眼鏡200Bは、位置計測部201の計測結果に基づいてユーザ2の現在位置を示す現在位置情報301を生成し、AR眼鏡200Bは、姿勢計測部202の計測結果に基づいてAR眼鏡200Bの姿勢(つまりユーザ2の頭の姿勢)を示す姿勢情報302を生成する(S903)。現在位置情報301は、ユーザ2の現在位置を示す緯度及び経度が含まれる。姿勢情報302は、ユーザ2の目線の方向を示す方位角及び仰俯角と、ユーザ2の目線の高さを示す目線情報が含まれる。
AR眼鏡200Bは、第1の時刻、現在位置情報301及び姿勢情報302をサーバ100へ送信する(S904)。
サーバ100は、第1の時刻、現在位置情報301及び姿勢情報302をAR眼鏡200Bから受信する(S905)。なお、図14の説明において、この現在位置情報301が示す地点を第1の地点と称する。
サーバ100は、第1の時刻の災害の時空間モデル400に基づき、第1の地点から第1の時刻のときに見えると想定される災害の再現画像410を含む視覚再現情報313を生成する(S906)。このとき、サーバ100は、姿勢情報302に応じた視覚再現情報313を生成する。
サーバ100は、視覚再現情報313をAR眼鏡200Bに送信する(S907)。
AR眼鏡200Bは、視覚再現情報313をサーバ100から受信する(S908)。
AR眼鏡200Bは、避難経路情報401に基づいて、現在位置から避難すべき方向を特定し、その方向を示す画像(以下、避難誘導画像412と称する)を生成する(S909)。
AR眼鏡200Bは、視覚再現情報313に含まれる災害の再現画像410を表示すると共に、避難誘導画像412を表示する(S910)。
AR眼鏡200Bは、第1の時刻を進めて(S911)、処理をS903に戻す。これを繰り返すことにより、AR眼鏡200Bは、時間的に変化する災害の状況を再現した災害の再現画像410をユーザ2に見せることができる。
図14に示す方法によれば、ユーザ2は、AR眼鏡200Bの透明ディスプレイ越しに、対象エリアにおいて災害が発生した場合の状況を体験できる。加えて、ユーザ2は、AR眼鏡200Bに表示された避難誘導画像412に基づいて、災害が発生した際に現在位置からどのように避難すればよいかを体験又は訓練することができる。
(本開示のまとめ)
本開示は以下のように表現できる。
<表現1>
体験装置200は、プロセッサ210及びメモリ207を備え、プロセッサ210は、メモリ207と協働して、現実空間の物体の時間経過に伴う変化を3Dモデル化したデータである時空間モデル310のうち、第1の時刻の時空間モデル310を取得し、第1の時刻の時空間モデル310に基づいて、現実空間の所定の第1の地点の第1の時刻における視覚的な状況を再現した画像である再現画像320を出力する。
これにより、体験装置200は、再現画像320を表示して、現実空間の第1の地点の第1の時刻における状況をユーザ2に体験させることができる。
<表現2>
表現1において、第1の地点は、所定の対象人物3が第1の時刻のときにいた地点であってよい。
これにより、体験装置200は、再現画像320を表示して、対象人物3が第1の地点にいたとき(つまり第1の時刻のとき)の状況をユーザ2に体験させることができる。
<表現3>
表現2において、プロセッサ210は、現実空間において対象人物3が第1の時刻を含む所定の対象期間に移動したと推測される経路を示す移動経路情報312を取得し、対象期間における時空間モデル310に基づいて、移動経路情報312が示す経路を対象人物が移動した際の対象期間における再現画像320を出力してよい。
これにより、体験装置200は、再現画像320を表示して、対象人物3が過去に移動した経路上の状況をユーザ2に体験させることができる。
<表現4>
表現3において、プロセッサ210は、ユーザ2が第1の時刻を選択した場合、移動経路情報312に基づいて、対象人物3が第1の時刻のときにいた地点を第1の地点として特定し、第1の地点の第1の地点における再現画像320を出力してよい。
これにより、体験装置200は、ユーザ2が第1の時刻を選択した場合、対象人物3が第1の時刻のときにいた地点(第1の地点)をユーザ2に提示できると共に、再現画像320を表示して、対象人物3が第1の地点にいたとき(つまり第1の時刻のとき)の状況をユーザ2に体験させることができる。
<表現5>
表現2から4のいずれか1つにおいて、プロセッサ210は、対象人物3の目線の高さから見た再現画像320を出力してよい。
これにより、体験装置200は、対象人物3の目線の高さから見た再現画像320を表示して、対象人物3が体験した状況をよりリアルにユーザ2に体験させることができる。
<表現6>
表現3において、プロセッサ210は、ユーザ2が現実空間の第1の地点にいる場合、移動経路情報312に基づいて、対象人物3が第1の地点にいた時刻を第1の時刻として特定し、第1の地点の第1の時刻における再現画像320を出力してよい。
これにより、体験装置200は、ユーザ2がいる現在位置(第1の地点)に対象人物3がいたときの時刻(第1の時刻)をユーザ2に提示できると共に、再現画像320を表示して、ユーザ2がいる現在地点(第1の地点)に対象人物3がいたとき(つまり第1の時刻のとき)の状況をユーザ2に体験させることができる。
<表現7>
表現6において、プロセッサ210は、ユーザ2の目線の高さから見た再現画像320を出力してよい。
これにより、体験装置200は、ユーザ2の目線の高さに合ったより精度の高い再現画像320を表示することができる。
<表現8>
表現1から6のいずれか1つにおいて、プロセッサ210は、現実空間の第1の地点の第1の時刻における環境を再現する情報である環境再現情報314を取得し、環境再現情報314に基づいて、第1の地点の第1の時刻における環境に関する情報を出力してよい。
これにより、体験装置200は、環境に関する情報(例えば環境画像321)を出力して、現実空間の第1の地点の第1の時刻における環境に関する情報をユーザ2に認識させることができる。
<表現9>
表現8において、環境再現情報は、音、天気、気温、湿度、風速、風向、明るさ、並びに、太陽又は月の位置のうち少なくとも1つの情報を含んでよい。
これにより、体験装置200は、現実空間の第1の地点の第1の時刻における、音、天気、気温、湿度、風速、風向、明るさ、並びに、太陽又は月の位置のうち少なくとも1つの情報をユーザ2に認識させることができる。
<表現10>
表現1において、時空間モデル310は、災害時における現実空間の時間経過に伴う変化を3次元モデル化した災害の時空間モデル400であり、再現画像320は、第1の時刻の第1の地点における災害時の視覚的な状況を再現した災害の再現画像410であってよい。
これにより、体験装置200は、災害の再現画像410を表示して、現実空間の第1の地点の第1の時刻における災害の状況をユーザ2に体験させることができる。
<表現11>
表現10において、プロセッサ210は、ユーザ2が現実空間の第1の地点にいる場合、第1の地点からの避難方向を示す情報を出力してよい。
これにより、体験装置200は、ユーザ2がいる現在位置(第1の地点)から避難すべき方向を、ユーザ2に認識させることができる。
<表現12>
体験システム1は、サーバ100及び体験装置200を備え、サーバ100は、体験装置200から第1の時刻を示す情報を受信し、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデル310のうち、第1の時刻の時空間モデル310に基づいて、現実空間の所定の第1の地点の第1の時刻における視覚的な状況を再現した画像である再現画像320を生成し、再現画像320を体験装置200へ送信し、体験装置200は、サーバ100から受信した再現画像320を出力する。
これにより、体験装置200は、再現画像320を表示して、現実空間の第1の地点の第1の時刻における状況をユーザ2に体験させることができる。
<表現13>
体験装置200は表示方法として、第1の時刻を示す情報をサーバ100へ送信し、サーバ100から、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデル310のうち、第1の時刻の時空間モデル310に基づいて生成された、現実空間の所定の第1の地点の第1の時刻における視覚的な状況を再現した画像である再現画像320を受信し、サーバ100から受信した再現画像320を表示する。
これにより、体験装置200は、再現画像320を表示して、現実空間の第1の地点の第1の時刻における状況をユーザ2に体験させることができる。
上述した実施の形態の各構成要素は、発明の趣旨を逸脱しない範囲において、変更、修正、置換、付加、削除、均等等が可能である。加えて、上述した実施の形態の各構成要素は、発明の趣旨を逸脱しない範囲において、任意に組み合わせが可能である。
本開示の技術は、現実空間における過去の事象又は災害に関する事象などをユーザに体験させる装置又はシステムに有用である。
1 体験システム
2 ユーザ
3 対象人物
4 通信ネットワーク
10 センサ
100 サーバ
101 入力部
102 表示部
103 メモリ
104 ストレージ
105 通信部
106 プロセッサ
200 体験装置
200A VR装置
200B AR眼鏡
201 位置計測部
202 姿勢計測部
203 撮像部
204 入力部
205 表示部
206 スピーカ
207 メモリ
208 ストレージ
209 通信部
210 プロセッサ
301 現在位置情報
302 姿勢情報
303 公開情報
310 時空間モデル
311 環境情報
312 移動経路情報
313 視覚再現情報
314 環境再現情報
320 再現画像
321 環境画像
322 シークバー
323 車両
324 歩行者
400 災害の時空間モデル
401 避難経路情報
410 災害の再現画像
412 避難誘導画像

Claims (13)

  1. 体験装置であって、プロセッサ及びメモリを備え、
    前記プロセッサは、前記メモリと協働して、
    現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、第1の時刻の前記時空間モデルを取得し、
    前記第1の時刻の前記時空間モデルに基づいて、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を出力する、
    体験装置。
  2. 前記第1の地点は、所定の対象人物が前記第1の時刻のときにいた地点である、
    請求項1に記載の体験装置。
  3. 前記プロセッサは、
    前記現実空間において前記対象人物が前記第1の時刻を含む所定の対象期間に移動したと推測される経路を示す移動経路情報を取得し、
    前記対象期間における前記時空間モデルに基づいて、前記移動経路情報が示す経路を前記対象人物が移動した際の前記対象期間における前記再現画像を出力する、
    請求項2に記載の体験装置。
  4. 前記プロセッサは、ユーザが前記第1の時刻を選択した場合、
    前記移動経路情報に基づいて、前記対象人物が前記第1の時刻のときにいた地点を前記第1の地点として特定し、
    前記第1の地点の前記第1の地点における前記再現画像を出力する、
    請求項3に記載の体験装置。
  5. 前記プロセッサは、前記対象人物の目線の高さから見た前記再現画像を出力する、
    請求項2から4のいずれか1項に記載の体験装置。
  6. 前記プロセッサは、ユーザが前記現実空間の前記第1の地点にいる場合、
    前記移動経路情報に基づいて、前記対象人物が前記第1の地点にいた時刻を前記第1の時刻として特定し、
    前記第1の地点の前記第1の時刻における前記再現画像を出力する、
    請求項3に記載の体験装置。
  7. 前記プロセッサは、前記ユーザの目線の高さから見た前記再現画像を出力する、
    請求項6に記載の体験装置。
  8. 前記プロセッサは、
    前記現実空間の前記第1の地点の前記第1の時刻における環境を再現する情報である環境再現情報を取得し、
    前記環境再現情報に基づいて、前記第1の地点の前記第1の時刻における環境に関する情報を出力する、
    請求項1から6のいずれか1項に記載の体験装置。
  9. 前記環境再現情報は、音、天気、気温、湿度、風速、風向、明るさ、並びに、太陽又は月の位置のうち少なくとも1つの情報を含む、
    請求項8に記載の体験装置。
  10. 前記時空間モデルは、災害時における前記現実空間の時間経過に伴う変化を3次元モデル化した災害の時空間モデルであり、
    前記再現画像は、前記第1の時刻の第1の地点における災害時の視覚的な状況を再現した災害の再現画像である、
    請求項1に記載の体験装置。
  11. 前記プロセッサは、
    ユーザが前記現実空間の前記第1の地点にいる場合、前記第1の地点からの避難方向を示す情報を出力する、
    請求項10に記載の体験装置。
  12. 体験システムであって、サーバ及び体験装置を備え、
    前記サーバは、
    前記体験装置から第1の時刻を示す情報を受信し、
    現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、前記第1の時刻の前記時空間モデルに基づいて、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を生成し、
    前記再現画像を前記体験装置へ送信し、
    前記体験装置は、
    前記サーバから受信した前記再現画像を表示する、
    体験システム。
  13. 体験装置による表示方法であって、
    第1の時刻を示す情報をサーバへ送信し、
    前記サーバから、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、前記第1の時刻の前記時空間モデルに基づいて生成された、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を受信し、
    前記サーバから受信した前記再現画像を表示する、
    表示方法。
JP2021169632A 2021-10-15 2021-10-15 体験装置、体験システム、及び、表示方法 Active JP7011364B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021169632A JP7011364B1 (ja) 2021-10-15 2021-10-15 体験装置、体験システム、及び、表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021169632A JP7011364B1 (ja) 2021-10-15 2021-10-15 体験装置、体験システム、及び、表示方法

Publications (2)

Publication Number Publication Date
JP7011364B1 JP7011364B1 (ja) 2022-01-26
JP2023059553A true JP2023059553A (ja) 2023-04-27

Family

ID=80678904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021169632A Active JP7011364B1 (ja) 2021-10-15 2021-10-15 体験装置、体験システム、及び、表示方法

Country Status (1)

Country Link
JP (1) JP7011364B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7129579B1 (ja) 2022-03-31 2022-09-01 Kddi株式会社 情報処理装置及び情報処理方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
WO2018092486A1 (ja) * 2016-11-16 2018-05-24 ソニー株式会社 情報処理装置、方法及びプログラム
WO2019012817A1 (ja) * 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム
WO2019159617A1 (ja) * 2018-02-16 2019-08-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2020202458A (ja) * 2019-06-07 2020-12-17 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及び、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
WO2018092486A1 (ja) * 2016-11-16 2018-05-24 ソニー株式会社 情報処理装置、方法及びプログラム
WO2019012817A1 (ja) * 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム
WO2019159617A1 (ja) * 2018-02-16 2019-08-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2020202458A (ja) * 2019-06-07 2020-12-17 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及び、プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JAF CHANNEL: "360度動画でVR体験!水没車両からの脱出[疑似体験版]", YOUTUBE[VIDEO][ONLINE], JPN7021004780, 30 May 2017 (2017-05-30), ISSN: 0004636611 *
一般社団法人中部地域づくり協会: "浸水疑似体験映像", YOUTUBE[VIDEO][ONLINE], JPN7021004781, 7 May 2020 (2020-05-07), ISSN: 0004636612 *

Also Published As

Publication number Publication date
JP7011364B1 (ja) 2022-01-26

Similar Documents

Publication Publication Date Title
US10957110B2 (en) Systems, devices, and methods for tracing paths in augmented reality
US11415986B2 (en) Geocoding data for an automated vehicle
CN107667521B (zh) 个人感测无人机
CN105074493B (zh) 驾驶支持技术
CN106662458B (zh) 用于改进地图和导航数据的可穿戴传感器数据
CN109891195A (zh) 用于在初始导航中使用视觉地标的系统和方法
US10908609B2 (en) Apparatus and method for autonomous driving
CN113302621A (zh) 将运载工具中捕获的乘客关注数据用于定位和基于地点的服务
US20090315775A1 (en) Mobile computing services based on devices with dynamic direction information
US11593593B2 (en) Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device
JP2011238242A (ja) ナビゲーション及びインスペクションシステム
JP2015076077A (ja) 交通量推定システム、端末装置、交通量推定方法および交通量推定プログラム
US11947354B2 (en) Geocoding data for an automated vehicle
KR20230043561A (ko) 도시 디지털 트윈 플랫폼 시스템 및 이를 위한 이동객체 정보 분석 및 관리 방법
JP7011364B1 (ja) 体験装置、体験システム、及び、表示方法
US11423660B2 (en) Methods and systems for determining emergency data for a vehicle
JP2010039256A (ja) 表示システム、表示方法,及び移動体
JP2019087969A (ja) 走行現調支援装置
JP5865708B2 (ja) 施設、自然、歴史、ルートに関する画像及び音声の再生及びデータの制作方法
JP2022099774A (ja) 情報表示装置、情報表示方法及びプログラム
Hillen et al. Information fusion infrastructure for remote-sensing and in-situ sensor data to model people dynamics
US11538218B2 (en) System and method for three-dimensional reproduction of an off-road vehicle
US11825394B1 (en) Data presentation system and method
Thompson et al. All-in-One Urban Mobility Mapping Application with Optional Routing Capabilities
KR20090063959A (ko) 자동차 주행 상태 정보 제공 시스템 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220106

R150 Certificate of patent or registration of utility model

Ref document number: 7011364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350