JP2023059553A - 体験装置、体験システム、及び、表示方法 - Google Patents
体験装置、体験システム、及び、表示方法 Download PDFInfo
- Publication number
- JP2023059553A JP2023059553A JP2021169632A JP2021169632A JP2023059553A JP 2023059553 A JP2023059553 A JP 2023059553A JP 2021169632 A JP2021169632 A JP 2021169632A JP 2021169632 A JP2021169632 A JP 2021169632A JP 2023059553 A JP2023059553 A JP 2023059553A
- Authority
- JP
- Japan
- Prior art keywords
- time
- information
- point
- server
- experience device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 48
- 230000000007 visual effect Effects 0.000 claims abstract description 66
- 230000033001 locomotion Effects 0.000 claims description 19
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 claims description 10
- 239000011521 glass Substances 0.000 description 79
- 238000005259 measurement Methods 0.000 description 23
- 238000004891 communication Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000004088 simulation Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 230000029305 taxis Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
<システムの概要>
図1は、実施の形態1に係る体験システム1の構成例を示す模式図である。図2は、実施の形態1に係る時空間モデル310の一例を示す模式図である。図3は、実施の形態1に係る体験装置200に表示される画像の一例を示す模式図である。
図4は、実施の形態1に係るサーバ100のハードウェア構成例を示すブロック図である。次に、図4を参照して、サーバ100のハードウェアの構成の一例を説明する。
図5は、実施の形態1に係る体験装置200のハードウェア構成例を示すブロック図である。次に、図5を参照して、体験装置200のハードウェアの構成の一例を説明する。
図6は、実施の形態1に係る時空間モデル310及び環境情報311の生成方法の一例を示すフローチャートである。次に、図6を参照して、サーバ100が時空間モデル310及び環境情報311を生成する方法及び処理について説明する。
図7は、実施の形態1に係る移動経路情報312の生成方法の一例を示すフローチャートである。次に、図7を参照して、サーバ100が移動経路情報312を生成する方法及び処理について説明する。
図8は、実施の形態1に係るVR装置200Aを用いて対象人物3の過去の状況を追体験する方法の第1例を示すフローチャートである。次に、図8を参照して、体験装置200の一例であるVR装置200Aを装着したユーザ2が対象人物3の過去の状況を追体験する方法の第1例について説明する。
図9は、実施の形態1に係るVR装置200Aを用いて対象人物3の過去の状況を追体験する方法の第2例を示すフローチャートである。次に、図9を参照して、体験装置200の一例であるVR装置200Aを装着したユーザ2が、対象人物3の過去の状況を追体験する方法の第2例について説明する。
図10は、実施の形態1に係るAR眼鏡200Bを用いて現在位置の過去の状況を把握する方法を示すフローチャートである。次に、図10を参照して、体験装置200の一例であるAR眼鏡200Bを装着したユーザ2が現在位置の過去の状況を把握する方法の例について説明する。
図11は、AR眼鏡200Bを用いて対象人物3の過去の状況を追体験する方法の例を示すフローチャートである。次に、図11を参照して、体験装置200の一例であるAR眼鏡200Bを装着したユーザ2が対象人物3の過去の状況を追体験する方法の例について説明する。
サーバ100は、各センサ10から収集したセンサ撮像情報及び/又はセンサ点群情報を解析して、通常と異なる状況(つまり要注意な状況)が発生した時刻及び地点を検出する処理を行ってもよい。サーバ100は、その検出した時刻及び地点を示す情報を時空間モデル310に含めてもよい。また、サーバ100は、各センサ10から収集したセンサ集音情報を解析して、通常と異なる音(つまり要注意な音)が発生した時刻及び地点を検出する処理を行ってもよい。サーバ100は、その検出した時刻及び地点を示す情報を環境情報311に含めてもよい。また、体験装置200は、このような要注意な状況及び音が発生した時刻及び地点の視覚再現情報313及び環境再現情報314を出力する際、例えば、要注意な状況を示す部分の画像を強調表示したり、要注意な音をより大きく出力したりしてよい。
<システムの概要>
図12は、実施の形態2に係る体験システム1の構成例を示す模式図である。図13は、実施の形態2に係るAR眼鏡200Bに表示される災害(津波)の再現画像の一例を示す模式図である。なお、実施の形態2では、実施の形態1にて説明済みの構成要素については同一の参照符号を付し、説明を省略する場合がある。
図14は、実施の形態2に係るAR眼鏡200Bを用いて災害が発生したときの避難誘導を体験する方法の一例を示すフローチャートである。次に、図14を参照して、体験装置200の一例であるAR眼鏡200Bを装着したユーザ2が、災害が発生したときの避難誘導を体験する方法について説明する。
本開示は以下のように表現できる。
体験装置200は、プロセッサ210及びメモリ207を備え、プロセッサ210は、メモリ207と協働して、現実空間の物体の時間経過に伴う変化を3Dモデル化したデータである時空間モデル310のうち、第1の時刻の時空間モデル310を取得し、第1の時刻の時空間モデル310に基づいて、現実空間の所定の第1の地点の第1の時刻における視覚的な状況を再現した画像である再現画像320を出力する。
これにより、体験装置200は、再現画像320を表示して、現実空間の第1の地点の第1の時刻における状況をユーザ2に体験させることができる。
表現1において、第1の地点は、所定の対象人物3が第1の時刻のときにいた地点であってよい。
これにより、体験装置200は、再現画像320を表示して、対象人物3が第1の地点にいたとき(つまり第1の時刻のとき)の状況をユーザ2に体験させることができる。
表現2において、プロセッサ210は、現実空間において対象人物3が第1の時刻を含む所定の対象期間に移動したと推測される経路を示す移動経路情報312を取得し、対象期間における時空間モデル310に基づいて、移動経路情報312が示す経路を対象人物が移動した際の対象期間における再現画像320を出力してよい。
これにより、体験装置200は、再現画像320を表示して、対象人物3が過去に移動した経路上の状況をユーザ2に体験させることができる。
表現3において、プロセッサ210は、ユーザ2が第1の時刻を選択した場合、移動経路情報312に基づいて、対象人物3が第1の時刻のときにいた地点を第1の地点として特定し、第1の地点の第1の地点における再現画像320を出力してよい。
これにより、体験装置200は、ユーザ2が第1の時刻を選択した場合、対象人物3が第1の時刻のときにいた地点(第1の地点)をユーザ2に提示できると共に、再現画像320を表示して、対象人物3が第1の地点にいたとき(つまり第1の時刻のとき)の状況をユーザ2に体験させることができる。
表現2から4のいずれか1つにおいて、プロセッサ210は、対象人物3の目線の高さから見た再現画像320を出力してよい。
これにより、体験装置200は、対象人物3の目線の高さから見た再現画像320を表示して、対象人物3が体験した状況をよりリアルにユーザ2に体験させることができる。
表現3において、プロセッサ210は、ユーザ2が現実空間の第1の地点にいる場合、移動経路情報312に基づいて、対象人物3が第1の地点にいた時刻を第1の時刻として特定し、第1の地点の第1の時刻における再現画像320を出力してよい。
これにより、体験装置200は、ユーザ2がいる現在位置(第1の地点)に対象人物3がいたときの時刻(第1の時刻)をユーザ2に提示できると共に、再現画像320を表示して、ユーザ2がいる現在地点(第1の地点)に対象人物3がいたとき(つまり第1の時刻のとき)の状況をユーザ2に体験させることができる。
表現6において、プロセッサ210は、ユーザ2の目線の高さから見た再現画像320を出力してよい。
これにより、体験装置200は、ユーザ2の目線の高さに合ったより精度の高い再現画像320を表示することができる。
表現1から6のいずれか1つにおいて、プロセッサ210は、現実空間の第1の地点の第1の時刻における環境を再現する情報である環境再現情報314を取得し、環境再現情報314に基づいて、第1の地点の第1の時刻における環境に関する情報を出力してよい。
これにより、体験装置200は、環境に関する情報(例えば環境画像321)を出力して、現実空間の第1の地点の第1の時刻における環境に関する情報をユーザ2に認識させることができる。
表現8において、環境再現情報は、音、天気、気温、湿度、風速、風向、明るさ、並びに、太陽又は月の位置のうち少なくとも1つの情報を含んでよい。
これにより、体験装置200は、現実空間の第1の地点の第1の時刻における、音、天気、気温、湿度、風速、風向、明るさ、並びに、太陽又は月の位置のうち少なくとも1つの情報をユーザ2に認識させることができる。
表現1において、時空間モデル310は、災害時における現実空間の時間経過に伴う変化を3次元モデル化した災害の時空間モデル400であり、再現画像320は、第1の時刻の第1の地点における災害時の視覚的な状況を再現した災害の再現画像410であってよい。
これにより、体験装置200は、災害の再現画像410を表示して、現実空間の第1の地点の第1の時刻における災害の状況をユーザ2に体験させることができる。
表現10において、プロセッサ210は、ユーザ2が現実空間の第1の地点にいる場合、第1の地点からの避難方向を示す情報を出力してよい。
これにより、体験装置200は、ユーザ2がいる現在位置(第1の地点)から避難すべき方向を、ユーザ2に認識させることができる。
体験システム1は、サーバ100及び体験装置200を備え、サーバ100は、体験装置200から第1の時刻を示す情報を受信し、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデル310のうち、第1の時刻の時空間モデル310に基づいて、現実空間の所定の第1の地点の第1の時刻における視覚的な状況を再現した画像である再現画像320を生成し、再現画像320を体験装置200へ送信し、体験装置200は、サーバ100から受信した再現画像320を出力する。
これにより、体験装置200は、再現画像320を表示して、現実空間の第1の地点の第1の時刻における状況をユーザ2に体験させることができる。
体験装置200は表示方法として、第1の時刻を示す情報をサーバ100へ送信し、サーバ100から、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデル310のうち、第1の時刻の時空間モデル310に基づいて生成された、現実空間の所定の第1の地点の第1の時刻における視覚的な状況を再現した画像である再現画像320を受信し、サーバ100から受信した再現画像320を表示する。
これにより、体験装置200は、再現画像320を表示して、現実空間の第1の地点の第1の時刻における状況をユーザ2に体験させることができる。
2 ユーザ
3 対象人物
4 通信ネットワーク
10 センサ
100 サーバ
101 入力部
102 表示部
103 メモリ
104 ストレージ
105 通信部
106 プロセッサ
200 体験装置
200A VR装置
200B AR眼鏡
201 位置計測部
202 姿勢計測部
203 撮像部
204 入力部
205 表示部
206 スピーカ
207 メモリ
208 ストレージ
209 通信部
210 プロセッサ
301 現在位置情報
302 姿勢情報
303 公開情報
310 時空間モデル
311 環境情報
312 移動経路情報
313 視覚再現情報
314 環境再現情報
320 再現画像
321 環境画像
322 シークバー
323 車両
324 歩行者
400 災害の時空間モデル
401 避難経路情報
410 災害の再現画像
412 避難誘導画像
Claims (13)
- 体験装置であって、プロセッサ及びメモリを備え、
前記プロセッサは、前記メモリと協働して、
現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、第1の時刻の前記時空間モデルを取得し、
前記第1の時刻の前記時空間モデルに基づいて、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を出力する、
体験装置。 - 前記第1の地点は、所定の対象人物が前記第1の時刻のときにいた地点である、
請求項1に記載の体験装置。 - 前記プロセッサは、
前記現実空間において前記対象人物が前記第1の時刻を含む所定の対象期間に移動したと推測される経路を示す移動経路情報を取得し、
前記対象期間における前記時空間モデルに基づいて、前記移動経路情報が示す経路を前記対象人物が移動した際の前記対象期間における前記再現画像を出力する、
請求項2に記載の体験装置。 - 前記プロセッサは、ユーザが前記第1の時刻を選択した場合、
前記移動経路情報に基づいて、前記対象人物が前記第1の時刻のときにいた地点を前記第1の地点として特定し、
前記第1の地点の前記第1の地点における前記再現画像を出力する、
請求項3に記載の体験装置。 - 前記プロセッサは、前記対象人物の目線の高さから見た前記再現画像を出力する、
請求項2から4のいずれか1項に記載の体験装置。 - 前記プロセッサは、ユーザが前記現実空間の前記第1の地点にいる場合、
前記移動経路情報に基づいて、前記対象人物が前記第1の地点にいた時刻を前記第1の時刻として特定し、
前記第1の地点の前記第1の時刻における前記再現画像を出力する、
請求項3に記載の体験装置。 - 前記プロセッサは、前記ユーザの目線の高さから見た前記再現画像を出力する、
請求項6に記載の体験装置。 - 前記プロセッサは、
前記現実空間の前記第1の地点の前記第1の時刻における環境を再現する情報である環境再現情報を取得し、
前記環境再現情報に基づいて、前記第1の地点の前記第1の時刻における環境に関する情報を出力する、
請求項1から6のいずれか1項に記載の体験装置。 - 前記環境再現情報は、音、天気、気温、湿度、風速、風向、明るさ、並びに、太陽又は月の位置のうち少なくとも1つの情報を含む、
請求項8に記載の体験装置。 - 前記時空間モデルは、災害時における前記現実空間の時間経過に伴う変化を3次元モデル化した災害の時空間モデルであり、
前記再現画像は、前記第1の時刻の第1の地点における災害時の視覚的な状況を再現した災害の再現画像である、
請求項1に記載の体験装置。 - 前記プロセッサは、
ユーザが前記現実空間の前記第1の地点にいる場合、前記第1の地点からの避難方向を示す情報を出力する、
請求項10に記載の体験装置。 - 体験システムであって、サーバ及び体験装置を備え、
前記サーバは、
前記体験装置から第1の時刻を示す情報を受信し、
現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、前記第1の時刻の前記時空間モデルに基づいて、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を生成し、
前記再現画像を前記体験装置へ送信し、
前記体験装置は、
前記サーバから受信した前記再現画像を表示する、
体験システム。 - 体験装置による表示方法であって、
第1の時刻を示す情報をサーバへ送信し、
前記サーバから、現実空間の物体の時間経過に伴う変化を3次元モデル化したデータである時空間モデルのうち、前記第1の時刻の前記時空間モデルに基づいて生成された、前記現実空間の所定の第1の地点の前記第1の時刻における視覚的な状況を再現した画像である再現画像を受信し、
前記サーバから受信した前記再現画像を表示する、
表示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021169632A JP7011364B1 (ja) | 2021-10-15 | 2021-10-15 | 体験装置、体験システム、及び、表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021169632A JP7011364B1 (ja) | 2021-10-15 | 2021-10-15 | 体験装置、体験システム、及び、表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7011364B1 JP7011364B1 (ja) | 2022-01-26 |
JP2023059553A true JP2023059553A (ja) | 2023-04-27 |
Family
ID=80678904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021169632A Active JP7011364B1 (ja) | 2021-10-15 | 2021-10-15 | 体験装置、体験システム、及び、表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7011364B1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7129579B1 (ja) | 2022-03-31 | 2022-09-01 | Kddi株式会社 | 情報処理装置及び情報処理方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228050A (ja) * | 2014-05-30 | 2015-12-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
WO2018092486A1 (ja) * | 2016-11-16 | 2018-05-24 | ソニー株式会社 | 情報処理装置、方法及びプログラム |
WO2019012817A1 (ja) * | 2017-07-14 | 2019-01-17 | ソニー株式会社 | 画像処理装置、画像処理装置の画像処理方法、プログラム |
WO2019159617A1 (ja) * | 2018-02-16 | 2019-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2020202458A (ja) * | 2019-06-07 | 2020-12-17 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、及び、プログラム |
-
2021
- 2021-10-15 JP JP2021169632A patent/JP7011364B1/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228050A (ja) * | 2014-05-30 | 2015-12-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
WO2018092486A1 (ja) * | 2016-11-16 | 2018-05-24 | ソニー株式会社 | 情報処理装置、方法及びプログラム |
WO2019012817A1 (ja) * | 2017-07-14 | 2019-01-17 | ソニー株式会社 | 画像処理装置、画像処理装置の画像処理方法、プログラム |
WO2019159617A1 (ja) * | 2018-02-16 | 2019-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP2020202458A (ja) * | 2019-06-07 | 2020-12-17 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、及び、プログラム |
Non-Patent Citations (2)
Title |
---|
JAF CHANNEL: "360度動画でVR体験!水没車両からの脱出[疑似体験版]", YOUTUBE[VIDEO][ONLINE], JPN7021004780, 30 May 2017 (2017-05-30), ISSN: 0004636611 * |
一般社団法人中部地域づくり協会: "浸水疑似体験映像", YOUTUBE[VIDEO][ONLINE], JPN7021004781, 7 May 2020 (2020-05-07), ISSN: 0004636612 * |
Also Published As
Publication number | Publication date |
---|---|
JP7011364B1 (ja) | 2022-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10957110B2 (en) | Systems, devices, and methods for tracing paths in augmented reality | |
US11415986B2 (en) | Geocoding data for an automated vehicle | |
CN107667521B (zh) | 个人感测无人机 | |
CN105074493B (zh) | 驾驶支持技术 | |
CN106662458B (zh) | 用于改进地图和导航数据的可穿戴传感器数据 | |
CN109891195A (zh) | 用于在初始导航中使用视觉地标的系统和方法 | |
US10908609B2 (en) | Apparatus and method for autonomous driving | |
CN113302621A (zh) | 将运载工具中捕获的乘客关注数据用于定位和基于地点的服务 | |
US20090315775A1 (en) | Mobile computing services based on devices with dynamic direction information | |
US11593593B2 (en) | Low power consumption deep neural network for simultaneous object detection and semantic segmentation in images on a mobile computing device | |
JP2011238242A (ja) | ナビゲーション及びインスペクションシステム | |
JP2015076077A (ja) | 交通量推定システム、端末装置、交通量推定方法および交通量推定プログラム | |
US11947354B2 (en) | Geocoding data for an automated vehicle | |
KR20230043561A (ko) | 도시 디지털 트윈 플랫폼 시스템 및 이를 위한 이동객체 정보 분석 및 관리 방법 | |
JP7011364B1 (ja) | 体験装置、体験システム、及び、表示方法 | |
US11423660B2 (en) | Methods and systems for determining emergency data for a vehicle | |
JP2010039256A (ja) | 表示システム、表示方法,及び移動体 | |
JP2019087969A (ja) | 走行現調支援装置 | |
JP5865708B2 (ja) | 施設、自然、歴史、ルートに関する画像及び音声の再生及びデータの制作方法 | |
JP2022099774A (ja) | 情報表示装置、情報表示方法及びプログラム | |
Hillen et al. | Information fusion infrastructure for remote-sensing and in-situ sensor data to model people dynamics | |
US11538218B2 (en) | System and method for three-dimensional reproduction of an off-road vehicle | |
US11825394B1 (en) | Data presentation system and method | |
Thompson et al. | All-in-One Urban Mobility Mapping Application with Optional Routing Capabilities | |
KR20090063959A (ko) | 자동차 주행 상태 정보 제공 시스템 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211015 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7011364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |