JP3948202B2 - Evacuation virtual experience system - Google Patents

Evacuation virtual experience system Download PDF

Info

Publication number
JP3948202B2
JP3948202B2 JP2000304058A JP2000304058A JP3948202B2 JP 3948202 B2 JP3948202 B2 JP 3948202B2 JP 2000304058 A JP2000304058 A JP 2000304058A JP 2000304058 A JP2000304058 A JP 2000304058A JP 3948202 B2 JP3948202 B2 JP 3948202B2
Authority
JP
Japan
Prior art keywords
virtual
evacuation
virtual space
image
experience
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000304058A
Other languages
Japanese (ja)
Other versions
JP2002108196A (en
Inventor
弘泰 中西
伸之 柴野
一哉 澤田
正徳 柏木
ピー ヴィ ハリーシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2000304058A priority Critical patent/JP3948202B2/en
Publication of JP2002108196A publication Critical patent/JP2002108196A/en
Application granted granted Critical
Publication of JP3948202B2 publication Critical patent/JP3948202B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Emergency Lowering Means (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、避難仮想体験システムに関するものである。
【0002】
【従来の技術】
従来、災害発生時の避難訓練は、現実世界で行うことが常識的であった。また安全性の評価には、例えば、火災の広がり、人間の避難行動にコンピュータシミュレーションを用いることもあるが、その可視化は色による表現,球等の単純な形状を用いた表現が用いられていることが多い。
【0003】
【発明が解決しようとする課題】
上記のように災害発生時の避難訓練を現実世界で行う場合、多くの準備や人手を必要とし、また集団で行うため時間的制約があり、更に実施場所等の制約もある。
【0004】
また安全性の評価には、例えば火災の広がり、人間の避難行動にコンピュータシミュレーションを用いることもあったが、そのシミュレーションの可視化には色による表現、球などの単純形状を用いた表示が行われる似すぎず、現実世界での避難訓練に置き換えて避難訓練を体験させるような装置は提供されていなかった。
【0005】
本発明は、上記の点に鑑みて為された者で、その目的とするところは、現実世界での避難訓練のような時間的な制約や実施場所等の制約を受けることなく災害時の状況下の避難を疑似体験することができる避難仮想体験システムを提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するために、請求項1の発明では、災害状況をシミュレートし災害状況シミュレーション結果を生成する災害状況シミュレータと、仮想空間内の体験者の視点位置と前記体験者が指定する進行方向と前記体験者が指定する速度情報とからなる避難経路情報をリアルタイムに入力するための入力手段と、前記避難経路情報と予め登録した理想的な避難経路情報とを管理する仮想空間構築手段と、前記理想的な避難経路の情報に従い仮想空間映像内を避難する仮想人間像を生成し、該仮想人間像と前記災害状況シミュレーション結果と前記避難経路情報とから避難仮想体験用の仮想空間映像データを生成する映像生成手段と、前記仮想空間映像データに基づいて実スケールで立体視可能な仮想空間映像を表示させて体験者に仮想空間を提示するドーム型の映像表示手段と、を備え、前記映像生成手段は、前記仮想人間像を、前記体験者の視点位置の進行方向前方に位置する場合には動作を有した詳細な3次元形状とテクスチャとで表現するとともに、前記体験者の視点位置の進行方向後方に位置する場合には動作及び3次元形状が無いテクスチャのみで表現することを特徴とする。
【0007】
請求項2の発明では、請求項1の発明において、前記映像生成手段は、前記仮想人間像が前記体験者の視点位置の進行方向前方に位置する場合には、前記テクスチャに加え前記体験者の視点位置との距離に応じて段階的に形状の詳細度を落とした前記仮想人間像を生成することを特徴とする。
【0008】
請求項3の発明では、請求項1又は2の発明において、前記各映像表示手段により表示される仮想空間映像は、前記体験者自身の視点で見た映像であることを特徴とする。
【0009】
請求項4の発明では、請求項1乃至請求項3の何れかの発明において、前記仮想空間構築手段は、前記避難経路情報を蓄積する蓄積手段を備え、前記映像生成手段は、前記蓄積手段にて蓄積した避難経路情報と前記災害シミュレーション結果とに基づいて再現する避難経路を立体視可能な仮想空間の映像データとして生成することを特徴とする。
【0010】
請求項5の発明では、請求項1乃室請求項4の何れかの発明において、前記仮想人間像は、前記各映像表示手段により表示される仮想空間映像によって避難仮想体験を共有する他の体験者を示すものであることを特徴とする。
【0011】
請求項6の発明では、請求項1乃至請求項5の何れかの発明において、前記映像表示手段に表示させる仮想空間映像を前記体験者が見るための偏光眼鏡を含んだことを特徴とする。
【0023】
【発明の実施の形態】
以下本発明を一実施形態により説明する。
【0024】
図1は本発明の一実施形態のシステムを示すものであって、図においてXは本実施形態の基本となる避難仮想訓練装置の構成を示し、この基本となる避難仮想訓練装置Xと、避難仮想訓練装置X内のイントラネットA’に接続されたインターネットA上や、専用線Bを介して接続されたイントラネットA’’上のコンピュータ群とでシステム全体が構成され、インターネットのTCP/IPにより相互間でデータの授受ができるようになっている。
【0025】
基本装置Xは災害状況をシミュレートする災害状況シミュレータ1と、体験者の指定する進行方向(視点位置)や移動速度に基づいた避難経路の情報や模範となる避難経路情報を蓄積・管理する記憶装置(図示せず)を備えた仮想空間構築サーバ2及び蓄積された品経路情報をデータベース化して格納する外部記憶装置14と、災害状況シミュレータ1で行われる災害状況シミュレーション結果と仮想空間構築サーバ2から与えられる体験者や模範となる避難経路情報とに基づいて立体視可能な仮想空間の映像データを生成する映像生成装置3と、この映像生成装置3で生成される映像データに基づいて、実スケール表示可能なドーム型のスクリーン4に映像を投影する投影手段(図示せず)からなる大型の表示装置5と、スクリーン4の前方に配置され体験者が乗る揺動装置6と、災害状況のシミュレーション結果に基づいて地震、ガス爆発、更には車椅子の振動等を想定した揺動を発生するように揺動装置6を制御する揺動制御装置7と、体験者の身振りを光学的センサ、例えばCCDカメラ8により撮像検知してその画像から体験者の動作指示を判定して、体験者の仮想空間内の進行方向(視点位置)や移動速度を認識する身振り認識装置9と、避難経路情報と災害状況のシミュレーション結果とに基づいて仮想空間内の3次元音響信号を生成する3次元音響制御装置10と、3次元音響制御装置10により生成される3次元音響信号を再生して音響的に災害発生下の臨場感を盛り上げる3次元音響装置11と、後述する専門家によるアドバイス情報を管理するアドバイス情報管理サーバ12及びアドバイス情報をデータベースとして格納する外部記憶装置15と、体験者の認証情報や体験者の体験記録等の体験者に関する情報を管理する体験者情報管理サーバ13とにより構成され、災害状況シミュレータ1,仮想空間構築サーバ2,映像生成装置3,揺動制御装置7,身振り認識装置9,3次元音響制御装置10,アドバイス情報管理サーバ11,体験者情報管理サーバ13を構成するコンピュータはTCP/IPを用いたイントラネットA’により接続されて互いに情報の授受を行うようになっている。
【0026】
このように構成された避難仮想訓練装置Xに対して、避難仮想訓練装置Xの設置場所と離れた場所に設けられたコンピュータ群がネットワークを通じて接続され本実施形態のシステムが構築される。勿論本発明システムは基本となる避難仮想訓練装置X単体で構築することができる。
【0027】
上記コンピュータとしては例えば上記イントラネットAに対して専用回線Bを介して接続されたイントラネットA’’に連なるコンピュータ21…やインターネットAに接続されたコンピュータ21等が用いられ、これらコンピュータ21…に備わった映像データ生成機能を用いて、CRTやLCD等を用いた表示装置22に仮想空間映像を表示したり、或いは実スケール表示可能な大型平面あるいはアーチ型の立体視画像を表示できる表示装置23に、上記スクリーン4に映し出される仮想空間と同じ仮想空間映像を映し出すことで、避難仮想訓練装置Xのスクリーン4前の体験者と、コンピュータ21…に接続されている表示装置22や表示装置23前の体験者とが、仮想空間を共用して避難体験ができるようなっている。
【0028】
各コンピュータ21…に備わっている音響制御機能を利用して音響信号を災害状況シミュレーション結果等に基づいて生成して、音響装置24により発鳴させることもできるようになっている。
【0029】
ここでイントラネットA’’内に仮想空間情報および避難経路情報管理のための仮想空間補助補助サーバ30を設け、この仮想空間構築補助サーバ30を通じて避難仮想訓練装置X側の仮想空間構築サーバ2との間で避難経路情報を授受したり、避難経路情報を仮想空間補助補助サーバ30内の記憶装置に蓄積させたり、外部記憶装置31に格納させることで、仮想空間構築サーバの多重化を図り、ネットワークの遅延を吸収するようになっている。
【0030】
尚災害状況シミュレータ1についても可能であれば多重化すべきであるが、これには多くのコンピュータリソースを必要とするため、コンピュータ21の映像データ生成機能側に避難者の行動予測機能を組み込むことでネットワークの遅延を吸収する図るようにしている。勿論災害状況シミュレータ1を多重化することも可能である。この行動予測機能は、図示する如くインターネットA経由で接続されたコンピュータ21のように、何れのサーバも最寄りで多重化しておらず、ネットワークによる遅延が避けられない場合にも有効に機能する。
【0031】
尚イントラネットA’’やインターネットAに接続されている、表示装置22を表示装置とするコンピュータ21は、仮想空間を立体表示するのではなく、単眼視のウィンドウ表示とし、さらに仮想空間の映像要素の制御用グラフィカル・ユーザ・インタフェースを表示し、大型の表示装置とは異なる用途に用いる。
【0032】
ここで言う仮想空間の制御とは、蓄積した避難経路情報、アドバイス情報の閲覧、災害条件の変更を指す。
【0033】
また表示装置5のスクリーン4に投影される仮想空間映像或いは表示装置23に表示される仮想空間映像は、体験者が偏光眼鏡を掛けることで立体視できる映像であり、この映像データを生成する方法は公知の方法を用いるので、ここでは説明は省略する。勿論その他の立体視できる映像生成方法を採用しても良い。
【0034】
上記避難仮想訓練装置Xにおいて、体験者の視点位置情報の入力はCCDカメラ8を用いた画像処理によるものであるが、例えば表示装置23を用いる体験者の視点位置情報の入力は、例えばジョイスティック或いはグローブ型入力装置を用いて体験者の操作或いは手の動きにより行う。
【0035】
またコンピュータ21の表示装置22を用いる体験者の視点位置情報の入力は、ジョイスティック或いはグローブ型入力装置、キーボード、マウス等を用いる。
【0036】
尚上記のCCDカメラ8により身振り検知は、体験者Mの情報に設置したCCDカメラ8で撮像した体験者の映像を身振り認識装置9に取り込み、身振り認識装置9は画像処理機能により体験者が手で示している方向を検知し、その向きを進行方向(視点位置)として認識する。また体験開始前に体験者が真っ直ぐ手を前方に伸ばしたときの手の長さを測定しておき、進行方向を指示するために手を延ばす際に肘の折り曲げ具合により上方から捉えた手の長さが変わることを利用し、その時の手の長さを進行方向に対する移動速度として認識する。勿論画像処理方法としては周知の方法を用いれば良いので、ここでは説明は省略する。
【0037】
次に本発明避難仮想体験システムの動作について説明する。
【0038】
まず、体験開始に当たっては、避難仮想体験装置X及び各コンピュータ21…を用いて体験する体験者の個人情報(頭の高さを示す身長等を含む)の入力や認証のためのIDの入力を者情報管理サーバ13の管理の下で行う。この場合体験者情報管理サーバ13からの質問等に応じて表示装置22,23やスクリーン4のを見ながらキーボードや手による指示にて、体験者は所定のデータを入力する。
【0039】
また避難仮想体験装置X側では体験者の手の長さの初期設定も合わせて行う。
【0040】
このようにして認証や初期測定が終了すると、避難体験訓練が開始されることになる。まず基本となる避難仮想体験装置Xでは、災害状況シミュレータ1の災害状況シミュレーション結果と、体験者の指示する避難経路情報に基づいて映像生成装置3がCG(コンピュータグラフィス)によって立体視用の仮想空間映像データを生成し、この生成された仮想空間映像データに基づいて表示装置5の投影手段によって仮想空間映像を実スケールでスクリーン4上に投影する。
【0041】
この投影される仮想空間映像に合わせて、仮想空間内の騒音や人の声等を音響信号を3次元音響制御装置10によって生成して3次元音響装置11より再生させることで、体験者に与える臨場感が一層高まることになる。尚立体視映像の方式は偏光眼鏡を用いない他の方式を採用しても勿論良い。
【0042】
図2は避難仮想体験訓練を行う仮想空間の映像の一例を示しており、この場合地下街の例を示す。そして映像の中心の前方方向が体験者の進行方向(視点位置)を示しており、身振り認識装置9が認識する進行方向(視点位置)情報と、速度情報に基づいて仮想空間構築サーバ2は避難経路情報の蓄積を開始する。
【0043】
ここで災害状況シュミレータ1は、火災発生後延焼するに従って、周りの温度、煙(ガス)の状況変化をシミュレーションし、また煙などの影響による避難誘導灯の視認率の変化、避難する人の集中度合による移動速度の制約、体験者の頭の高さによる視界、健康状態の変化をシミュレーションしており、この災害状況シミュレータ1の災害状況シミュレーション結果及び身振り認識装置9の身振りより認識する体験者の進行方向(視点方向)及び移動速度に基づいて映像生成装置3は生成する映像データを刻々変化させ、表示装置5のスクリーン4上に映し出す。図3は火災発生状況を示している映像を示す。同様に3次元音響制御装置10は体験者の位置で聞こえる音の音響データを生成し、3次元音響装置11を通じて再生する。またガス爆発等が起きた場合には、災害シミュレーション結果に基づいて揺動制御装置7は揺動装置6を動作させ、該揺動装置6に座っている体験者に爆発時の揺動を仮想体験させ、臨場感を一層高める。また体験者が車椅子利用者の場合には、車椅子の揺動や、避難経路に階段がある場合には階段での揺動を仮想体験させる。
【0044】
このようにして災害状況シミュレータ1による災害シミュレーション結果及び体験者の進行方向(視点位置)及び移動速度によって刻々表示装置5のスクリーン4上の仮想空間での映像要素の変化と、3次元音響装置11で再生される音、更に揺動装置6による揺動とによって、体験者は恰も実際の災害状況下で、避難しているような臨場感と没入感によって避難を体験することができるのである。
【0045】
この避難体験時おいて体験者が指示する避難経路情報(進行方向<視点位置>及び速度の情報)は仮想空間構築サーバ2内の蓄積手段により逐次蓄積されており、この蓄積情報は当該体験者の避難状況を観察するために、再生することができるようなっている。
【0046】
つまり、避難仮想訓練装置Xを再生動作に設定して、再生動作を行わせると、この蓄積情報に蓄積された避難経路情報(進行方向<視点位置>及び移動速度の情報)が逐次時系列的に読み出され、この再生情報と災害シミュレーション結果とに基づいて映像生成装置3は映像データを生成する。これにより当該体験者が選択した避難経路に沿った仮想空間の映像が再現することができ、当該体験者の避難経路の分析などが行えるのである。
【0047】
またこの蓄積情報は、仮想空間構築サーバ2によって外部記憶装置14にデータベース化されて保存され、上述したような再生が後日読み出して行えるようにもなっている。
【0048】
ところで上記映像には図2,図3に示すように建物や施設の仮想空間以外に人物をも映像要素として含めているが、この仮想人間の映像上での描きかたは次のよう方法を取っている。
【0049】
まず図4に示すように体験者の位置Aから、一定距離間隔の同心円L1…を想定し、位置Aから仮想人間の迄の距離L1…と、進行方向Bに対する位置とで存在する仮想人間の描き方を変えるようにしている。そして図5(a)に示すように位置Aから一定距離L1内の仮想人間m1は細かい形状とテクスチャでの表現を行い、その動作を滑らかにする。また更に位置Aからやや遠い位置L2に存在する仮想人間m2は中程度の細かい形状とテクスチャでの表現を行い動作を中程度とし、更に遠い位置L3に存在する仮想人間m3はシンプルな形状とテクスチャでの表現とし動作は無しとする。またそれ以上遠方L4…に位置する仮想人間m4…は、テクスチャのみでの表現として動作は無しとする。
【0050】
そして体験者の位置Aが図5(b)のように前方へ移動した場合、図5(a)で最も近い場所に存在していた仮想人間m1は位置Aより後方に位置することになり、この場合、テクスチャのみでの表現として動作は無しとする。そして位置Aより前方方向に存在している仮想人間m2…は図5(a)の場合に準じ、位置Aからの距離に応じて描き方を変える。同様に更に体験者の位置Aが図5(c)のように更に前方へ移動した場合、位置Aより後方位置することになった仮想人間m1,mはテクスチャのみでの表現として動作は無しとし、位置Aより前方位置に位置する仮想人間m3…は図5(a)の場合に準じ、位置Aからの距離に応じて描き方を変える。このようにして体験者からの距離に応じて段々と仮想人間の描き方を変えることで、映像生成装置3のデータ生成処理の軽減を図っている。
【0051】
ところで本実施形態では、基本となる避難仮想体験装置Xは専用線BとイントラネットA’’或いはインターネットAにより他のコンピュータ21…に接続され、それぞれのコンピュータ21…に接続される表示装置22或いは表示装置23によって、遠隔地においても避難仮想体験が行えるようになっているが、表示装置23に接続されるコンピュータ21に備わっている映像生成機能は専用線B及びイントラネットA’’を通じて送られてくる災害シミュレーション結果と、当該コンピュータ21側に設けられたジョイスティックやグローブ型入力装置からなる入力手段により体験者が操作入力する進行方向(視点位置)や移動速度の指示に基づいて体験者の視点で見た仮想空間の立体視映像データを生成して表示装置23で表示させ、また併設せる音響装置24で仮想空間内の音を再生するようになっている。
【0052】
また一方表示装置22はコンピュータ21…に接続されたCRTやLCDのモニタが用いられており、この表示装置22に接続されるコンピュータ21に備わっている映像生成機能は、専用線B及びイントラネットA’’を通じて送られてくる災害シミュレーション結果と、当該コンピュータ21側に設けられたジョイスティックやグローブ型入力装置、キーボード、マウスなどの入力手段により体験者が操作入力する進行方向(視点位置)や移動速度の指示に基づいて体験者の視点で見た仮想空間の単眼視用でWebブラウザで閲覧可能な映像データを生成し、表示装置22にウィンドウ表示させる。この映像はコンピュータ21で動作させているWebブラウザにより閲覧できるようになっている。この場合も併設する音響装置24で仮想空間内の音を再生するようになっている。また表示装置22に、表示される仮想空間の制御用グラフィカル・ユーザー・インターフェースを利用して、避難経路の再生等や災害状況の変更などの指示も可能となっている。
【0053】
以上のように何れにしても本実施形態では、基本となる避難仮想体験装置Xの表示装置5のスクリーン4で表示される仮想空間をこれらコンピュータ21…に接続された表示装置22,23で共有し、遠隔地で複数の人が同時に避難訓練を参加体験できることになる。
【0054】
この場合避難経路の情報管理や比較的高頻度な更新が必要な情報を管理する仮想空間構築サーバ2に対して各コンピュータ21で入力される進行方向(視点位置)や進行速度等の避難経路情報をネットワークを介して直接送る場合ネットワーク上での遅延が生じるため、イントラネットA’’上に設けた仮想空間構築補助サーバ30によって、各コンピュータ21の入力手段により入力された進行方向(視点位置)や移動速度の情報を蓄積し、イントラネットA’’上のコンピュータ21…での仮想空間構築に用いるとともに避難経路の蓄積と、外部記憶装置31にデータベース化して格納することでネットワークでの遅れを吸収するようになっている。
【0055】
そして仮想空間を共有する体験者の進行方向(視点位置)や移動速度を当該体験者以外の体験者が見ている仮想空間映像に反映させるために、各体験者の指定内容に基づいて、映像生成装置3や、コンピュータ21…の映像生成機能に、他の体験者を示す仮想人間の映像データをその進行方向(視点位置)や移動速度を反映させて生成し、仮想空間内に表示させるようになっている。これにより仮想空間内に没入している夫々の体験者が、他の体験者の避難行動の影響を受けた避難行動を取る状況を作り出すことができるのである。
【0056】
また遠隔のコンピュータ21…の表示装置22を利用して、仮想避難対象となる施設管理者や、災害避難の専門家が体験者の避難活動をモニタしたり、蓄積されている体験者の避難経路に基づく再生映像をモニタすることで、体験者にアドバイスしたり、意見を提示することができるようになっており、これらアドバイスや意見は、アドバイス情報管理サーバ12の管理の下で表示装置5,22,23に映し出す文字、映像、或いは音響装置11,24を通じての音声の何れか或いはそれらの組み合わせ等によりにより提示される。或いは後日外部記憶装置14、31に記憶されている避難経路情報を再生チェックして当該体験者にアドバイスや意見をオフライン(文書)によって提示することもできる。
【0057】
尚外部記憶装置14のデータベースには体験者の避難経路の情報以外に、予めある災害状況における理想的(模範的)な避難状態に対応した避難経路の情報を登録しておき、体験者に避難経験をさせる場合に、この避難経路を再生し、表示装置5或いは22,23で映し出す仮想空間内の複数の仮想人間の中で、体験者に同様の避難を行わせ、この避難行動中において、体験者が自己の進行方向(視点位置)や移動速度を指示することで、周りの仮想人間或いは施設、建物の扉の構造物に干渉させながら避難できる仮想空間を提示することも出来るようになっている。この場合再生する避難情報は、時間軸に従った厳密な位置情報ではないため、大幅な状況(例えば災害状況の進展によって避難経路中の扉がロックされるような場合等)がない限り、相互干渉しながらの体験者の避難を達成することができるようにもなっている。
【0058】
ところで図1の避難仮想体験装置Xにおいては、体験者の上方に配置したCCDカメラ8が捉える映像を処理することで、体験者が手を延ばす方向により、進行方向(視点位置)を、また手の長さにより速度を認識する身振り認識装置9を用いているが、図6に示すように体験者Mの前方中央及び左右に体験者Mの足踏みを捉える3台のCCDカメラ8a〜8cと、体験者Mの上方に配置したCCDカメラ8dによって、体験者Mの足の動きを撮像し、体験者Mが足踏みする周期を動画像処理により取得し、これを体験者Mの仮想空間内での移動速度として認識し、また体験者Mの顔の向きを進行方向として検知する身振り認識装置8を用いても良い。この場合足の位置を検出しやすくするために、足首に画像処理で抽出可能なマークを取り付け、また顔の向きの検知をし易くするために、体験者Mにマークが付いた帽子を着用させ、このマークを上方のCCDカメラ8dで捉え、画像処理することで顔の方向、つまり進行方向(視点位置)を認識することができるようになっている。
【0059】
またCCDカメラの変わりに図7に示すように複数の赤外線センサ25を体験者Mの上方にマトリクス状に配置し、体験者の手が指し示す方向をこれら赤外線センサ25の検出出力に基づいて認識する身振り認識装置8を用いても良い。この場合体験者の移動速度や回転速度は固定した状態で、進行方向(視点位置)を変化させる映像データを映像生成装置3は生成する。尚図中aは各赤外線センサ25の検知エリアを示す。
【0060】
身振り以外に体験者が音声で発する進行方向(視点位置)や移動速度の指示を音声認識技術によって認識する入力手段を身振りによる入力手段の代わりに採用しても良い。また避難仮想体験装置Xにおいても、ジョイスティックやグローブ型入力装置を入力手段として用いても良い。
【0061】
【発明の効果】
本発明は、現実世界で避難訓練を実施することなく、映像表示手段で表示させる仮想空間により擬似的に避難訓練を実施することができ、そのため現実世界のような日時や訓練場所の設定等実施前の面倒な手続きを踏むことなく実施することができ、また使用する仮想空間として既存の建物や施設を模した空間だけでなく、計画中の建物、施設を模した仮想空間を用いることもでき、また起こることが想定される複数の災害状況を事前に体験する事も可能となり、避難訓練だけでなく、建物や施設の安全性の確認・検討にも使用できるというものであって、特に図面等を用いた方法では得られないパニック状況を表現可能であるため、人間の主観的な評価も検討でき、設計の変更と評価との繰り返しにかかる時間的コストを圧緒し易いという効果があり、また避難訓練装置とした場合、現実世界で行うことに比べて被害規模や避難人数等においより大規模な災害状況を想定したり、様々な災害状況(発生原因,位置など)で訓練することが可能であり、現実世界において集団で避難訓練を行うような時間的制約が少なく、何時でも何度でも体験することが容易となるという効果がある。特に仮想空間内の体験者の視点位置と体験者が指定する進行方向と体験者が指定する速度情報とからなる避難経路情報をリアルタイムに入力するための入力手段と、避難経路情報と予め登録した理想的な避難経路情報とを管理する仮想空間構築手段とを備えていることで、表示される仮想空間と体験者との間でインタラクティブ性を持たせることができ、理想的な避難経路の情報に従い仮想空間映像内を避難する仮想人間像を生成し、該仮想人間像と災害状況シミュレーション結果と避難経路情報とから避難仮想体験用の仮想空間映像データを生成する映像生成手段を備えることで、模範となる避難行動や、意図的に誤った行動を仮想人間にさせることが可能となり、集団行動時や、他人の行動が及ぼす体験者の行動を判断する為の状況を作り出すことができ、現実世界の避難訓練では実現が困難な状況を体験者に体験させることが可能となる。また映像生成手段は、前記仮想人間像を、前記体験者の視点位置の進行方向前方に位置する場合には動作を有した詳細な3次元形状とテクスチャとで表現するとともに、前記体験者の視点位置の進行方向後方に位置する場合には動作及び3次元形状が無いテクスチャのみで表現することで、体験者からの距離に応じて仮想人間像の描き方を変え、映像生成手段のデータ生成処理の軽減が図れる。
【0062】
また、仮想空間内の体験者の位置や行動の情報を取り込んで上記仮想空間構築手段に避難経路情報として与える入力手段を備えることで、表示される仮想空間と体験者との間でインタラクティブ性を持たせることができる。
【0063】
更に、上記入力手段を、体験者の音声による位置や行動の指定を認識する音声認識手段により構成したので、また上記入力手段を、体験者の身振りを光学的センサにより検知して上記位置情報を取り込む手段により構成することで、体験者による視点位置情報の入力操作が簡単に行え、誰にでも体験者となり得るという効果がある。
【0064】
また、搭乗する体験者に災害状況に応じた揺動を与える揺動装置を上記避難仮想訓練装置に付加することで、地震や爆発等の災害状況の再現度を高め、体験者に対して高い臨場感と没入感を与えることができる。
【0065】
また、更に映像生成機能を備えた複数のコンピュータを複数ネットワークを介して上記避難仮想訓練装置に接続し、各コンピュータにおいて避難経路情報に基づいて避難仮想体験用の仮想空間映像をコンピュータに接続された映像表示手段に映し出すことで、仮想空間を複数の体験者に共有することができ、多数の人間が参加した避難訓練も可能となる。
【0066】
また、上記コンピュータとして、上記映像表示手段に単眼視用の仮想空間映像とともに、該仮想空間映像内の映像表示要素の形状・位置を操作するためのグラフィカル・ユーザー・インターフェースを上記映像表示手段に表示させるコンピュータを備えることで、当該コンピュータを利用して避難訓練に参加する体験者によっても表示される仮想空間内映像要素を操作する事が可能となり、当該体験者の視点位置情報の取り込みも可能なる。
【0067】
更に、上記仮想空間映像と上記グラフィカル・ユーザー・インターフェースの表示にWebブラウザを用いることで、リアルタイム性とインタラクティブ性とを持たせた画面表示が簡単に行える。
【0068】
また、更に上記避難仮想訓練装置と上記各コンピュータとの間及び上記各コンピュータ間の接続にTCP/IPを用いたネットワークを用いることで、インターネットやイントラネットを用いて、遠隔地にあるコンピュータ側でも避難仮想訓練装置との間でデータの授受が行え、地理的制約や時間的制約を受けることなく、多数の人を訓練に参加させることも可能となる。
【0069】
更に、上記入力手段で入力される体験者の視点位置情報を体験者の避難経路情報として蓄積し、該蓄積された避難経路情報に基づいた仮想空間映像を再生可能とする記憶手段を備えることで、訓練実施後において、体験者が訓練中にとった避難経路を再生して、体験者の避難行動を検証することができる。
【0070】
また、上記蓄積手段に予め蓄積される避難経路情報によって構築されるデータベースを読み出し自在に格納する外部記憶装置を備えることで、多数の体験者の避難経路情報を、建物や施設の管理者や安全性に関する専門家に提示して意見を得ることが可能な環境を提供できる。
【0071】
更に、上記仮想空間映像に、避難状況のシミュレーションに従った仮想人間像を表示することで、模範となる避難行動や、意図的に誤った行動を仮想人間にさせることが可能となり、集団行動時や、他人の行動が及ぼす体験者の行動を判断する為の状況を作り出すことができ、現実世界の避難訓練では実現が困難な状況を体験者に体験させることが可能となる。
【0072】
また、更に上記仮想人間像は、上記各映像表示手段により表示される仮想空間映像によって避難仮想体験を共有する他の体験者を示すものであるので、他の体験者の視点位置(避難経路)を反映した仮想空間映像を提供することで、体験者相互間の行動の影響を判断したり、集団行動時の判断するための状況をより現実感を持たせて作り出すことができ、また、上記仮想人間像の、形状、詳細度を、当該仮想人間像とともに表示される仮想空間映像によって避難仮想体験を行う体験者の仮想空間内の位置との距離に応じて変化させることで、体験者の視点位置に近い位置ではリアリティに仮想人間像を表示でき、また体験者の視点位置から遠ざかる場合には詳細度を落としたりや形状を省略化することで表示処理を速めることが可能となる。
【0073】
更に、災害状況のシミュレーション結果及び上記入力手段からの位置情報に基づいて災害状況に応じた3次元音響を発する音響装置を備えることで、音響による効果を加えて一層の臨場感と没入感を体験者に与えることができる。
【0074】
また、上記コンピュータの何れかに、映像表示手段に表示される体験者の挙動を観察する専門家によって当該体験者にアドバイス情報をネットワークを介して伝達するための手段を備えることで、避難仮想体験装置や他の体験者が用いるコンピュータから離れた位置においても、体験者の挙動を専門家が観察し、且つアドバイスを避難訓練中にも与えることができる。
【0075】
また、更に上記記憶手段若しくは外部記憶装置に蓄積若しくは格納された避難経路情報をアドバイスの判断材料として用いることで、避難訓練後において蓄積或いは格納した避難経路情報に基づいて体験者の行動を分類解析し、より適切なアドバイスを体験者や建物・施設設計者或いは管理者に与えることが可能となる。
【図面の簡単な説明】
【図1】本発明の一実施形態の全体システム構成図である。
【図2】同上での仮想空間の映像例図である。
【図3】同上での加速区間の火災発生状態を示す映像例図である。
【図4】同上での仮想人間の位置と体験者の位置との関係説明図である。
【図5】同上での仮想人間の描画方法の説明図である。
【図6】同上の身振り認識装置の別の例の構成説明図である。
【図7】同上の身振り認識装置の他の例の構成説明図である。
【符号の説明】
A インターネット
A’,A’’ イントラネット
B 専用線
1 災害シュミレータ
2 仮想空間構築サーバ
3 映像生成装置
4 スクリーン
5 表示装置
6 揺動装置
7 揺動制御装置
8 CCDカメラ
9 身振り認識装置
10 3次元音響制御装置
11 3次元音響装置
12 アドバイス情報管理サーバ
13 体験者情報管理サーバ
14,15 外部記憶装置
21 コンピュータ
22,23 表示装置
24 音響装置
30 仮想空間構築補助サーバ
31 外部記憶装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an evacuation virtual experience system.
[0002]
[Prior art]
Conventionally, it has been common sense to conduct evacuation drills in the real world when a disaster occurs. For safety evaluation, for example, computer simulations may be used for the spread of fire and human evacuation behavior, but the visualization uses expressions using colors and simple shapes such as spheres. There are many cases.
[0003]
[Problems to be solved by the invention]
When evacuation drills are conducted in the real world as described above, many preparations and manpower are required, and there are time restrictions because they are performed in groups, and there are also restrictions on the place of implementation.
[0004]
For safety evaluation, for example, computer simulations were sometimes used for the spread of fires and human evacuation behavior, but the simulations were visualized using colors and simple shapes such as spheres. It was not too similar, and there was no device that could replace evacuation drills in the real world and let them experience evacuation drills.
[0005]
The present invention has been made in view of the above points, and the purpose of the present invention is the situation at the time of a disaster without being restricted by time restrictions or implementation places such as evacuation drills in the real world. The purpose is to provide an evacuation virtual experience system that can simulate the evacuation below.
[0006]
[Means for Solving the Problems]
  In order to achieve the above object, the invention of claim 1To generate disaster situation simulation resultsDisaster situation simulator and experience in virtual spaceInput means for inputting in real time evacuation route information consisting of the viewpoint position of the user, the traveling direction designated by the experience person, and the speed information designated by the experience person, and the ideal evacuation registered in advance with the evacuation route information Virtual space construction means for managing route information, and generating a virtual human image for evacuating in the virtual space image according to the information of the ideal evacuation route,The disaster situation simulation result and the evacuation route informationAnd fromVideo generation means for generating virtual space video data for evacuation virtual experience;Based on the virtual space video dataDisplay virtual space images that can be viewed stereoscopically on a real scale and present the virtual space to the userDomedVideo display means,The video generation means represents the virtual human image with a detailed three-dimensional shape and texture having an action when the virtual human image is positioned forward in the traveling direction of the viewpoint position of the experience person, and the viewpoint position of the experience person. If it is located behind the direction of travel, it is expressed only with textures without motion and 3D shapeIt is characterized by that.
[0007]
  In the invention of claim 2, in the invention of claim 1,When the virtual human image is positioned forward in the traveling direction of the viewpoint position of the experience person, the recorded image generation means adds the texture to the experience person.The virtual human image is generated in which the level of detail of the shape is gradually reduced according to the distance from the viewpoint position.
[0008]
  In invention of Claim 3, in invention of Claim 1 or 2,The virtual space image displayed by each image display means is an image viewed from the viewpoint of the experience person himself / herself.It is characterized by that.
[0009]
  In invention of Claim 4, in any invention of Claim 1 thru | or 3,The virtual space construction means includes storage means for storing the evacuation route information, and the video generation means three-dimensionally displays an evacuation route to be reproduced based on the evacuation route information stored in the storage means and the disaster simulation result. Generate video data in a visible virtual spaceIt is characterized by that.
[0010]
  In the invention of claim 5, in the invention of claim 1 or claim 4,The virtual human image shows another experience person who shares an evacuation virtual experience by a virtual space image displayed by each image display means.It is characterized by that.
[0011]
  In invention of Claim 6, in any invention of Claim 1 thru | or 5,It includes polarized glasses for the experience person to see the virtual space image to be displayed on the image display means.It is characterized by that.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
The present invention will be described below with reference to an embodiment.
[0024]
FIG. 1 shows a system according to an embodiment of the present invention. In the figure, X indicates the configuration of a basic evacuation virtual training apparatus according to the present embodiment. The entire system is composed of a group of computers on the Internet A ″ connected to the intranet A ′ in the virtual training apparatus X and the intranet A ″ connected via the dedicated line B, and is mutually connected by TCP / IP of the Internet. Data can be exchanged between them.
[0025]
The basic apparatus X stores a disaster situation simulator 1 that simulates a disaster situation, and stores and manages evacuation route information and exemplary evacuation route information based on the traveling direction (viewpoint position) and moving speed specified by the experience person. A virtual space construction server 2 provided with a device (not shown), an external storage device 14 for storing the stored product route information as a database, a disaster situation simulation result and a virtual space construction server 2 performed by the disaster situation simulator 1 The video generation device 3 that generates video data of a virtual space that can be viewed stereoscopically based on the experience person and the model evacuation route information given by the user, and the video data generated by the video generation device 3 A large display device 5 comprising projection means (not shown) for projecting an image on a dome-shaped screen 4 capable of scale display, and a front of the screen 4 The swinging device 6 that is placed on the experiencer and the swinging device 6 controls the swinging device 6 so as to generate a swing that assumes an earthquake, a gas explosion, or a wheelchair vibration based on the simulation result of the disaster situation. The motion control device 7 and the gesture of the experience person are detected by an optical sensor, for example, a CCD camera 8, the action instruction of the experience person is determined from the image, and the traveling direction (viewpoint position) in the experience person's virtual space And a gesture recognition device 9 for recognizing moving speed, a three-dimensional acoustic control device 10 that generates a three-dimensional acoustic signal in a virtual space based on evacuation route information and a simulation result of a disaster situation, and a three-dimensional acoustic control device 10 3D acoustic device 11 that reproduces the 3D acoustic signal generated by the above to acoustically excite the realism in the event of a disaster, and advice information for managing advice information by an expert described later A management server 12 and an external storage device 15 that stores advice information as a database, and an experience information management server 13 that manages information related to the experience such as the authentication information of the experience and the experience record of the experience, the disaster situation The computer constituting the simulator 1, the virtual space construction server 2, the image generation device 3, the swing control device 7, the gesture recognition device 9, the three-dimensional sound control device 10, the advice information management server 11, and the experience information management server 13 is TCP Are connected to each other via an intranet A ′ using / IP to exchange information.
[0026]
The evacuation virtual training apparatus X configured as described above is connected to a computer group provided at a location away from the installation location of the evacuation virtual training apparatus X through a network, and the system of this embodiment is constructed. Of course, the system of the present invention can be constructed with the basic evacuation virtual training apparatus X alone.
[0027]
As the computer, for example, a computer 21 connected to the intranet A ″ connected to the intranet A via the dedicated line B, a computer 21 connected to the Internet A, and the like are used. Using the video data generation function, a display device 23 that can display a virtual space video on the display device 22 using a CRT, an LCD, or the like, or can display a large planar or arched stereoscopic image that can be displayed in real scale, By projecting the same virtual space image as the virtual space projected on the screen 4, the experience in front of the screen 4 of the evacuation virtual training device X and the experience in front of the display device 22 and the display device 23 connected to the computer 21. The evacuation experience can be shared by those who share the virtual space.
[0028]
An acoustic signal can be generated based on a disaster situation simulation result using the acoustic control function provided in each computer 21.
[0029]
Here, the virtual space auxiliary auxiliary server 30 for managing the virtual space information and the evacuation route information is provided in the intranet A ″, and the virtual space construction server 2 on the evacuation virtual training apparatus X side is provided through the virtual space construction auxiliary server 30. The virtual space construction server is multiplexed by exchanging evacuation route information between them, storing the evacuation route information in a storage device in the virtual space auxiliary auxiliary server 30, or storing it in the external storage device 31. Is designed to absorb the delay.
[0030]
The disaster situation simulator 1 should be multiplexed if possible. However, since this requires a lot of computer resources, an action for predicting the behavior of the evacuees can be incorporated into the video data generation function side of the computer 21. It tries to absorb the delay of the network. Of course, the disaster situation simulator 1 can be multiplexed. This behavior prediction function functions effectively even when no server is multiplexed at the nearest location like a computer 21 connected via the Internet A as shown in the figure, and a delay due to the network cannot be avoided.
[0031]
Note that the computer 21 connected to the intranet A ″ or the Internet A and having the display device 22 as a display device does not display the virtual space stereoscopically, but displays a monocular window, and further displays video elements in the virtual space. It displays a graphical user interface for control and is used for different purposes from large display devices.
[0032]
The control of the virtual space mentioned here refers to browsing of accumulated evacuation route information, advice information, and changing disaster conditions.
[0033]
The virtual space image projected on the screen 4 of the display device 5 or the virtual space image displayed on the display device 23 is an image that can be viewed stereoscopically by a user wearing polarized glasses, and a method of generating this image data Since a known method is used, description thereof is omitted here. Of course, other stereoscopic video image generation methods may be employed.
[0034]
In the evacuation virtual training apparatus X, the input of the viewpoint position information of the experience person is by image processing using the CCD camera 8. For example, the input of the viewpoint position information of the experience person using the display device 23 is, for example, a joystick or It is performed by the operation of the experience person or the movement of the hand using the glove type input device.
[0035]
The viewpoint position information of the experience person using the display device 22 of the computer 21 is input using a joystick or a glove-type input device, a keyboard, a mouse, and the like.
[0036]
The gesture detection by the CCD camera 8 described above is performed by capturing an image of the experience person captured by the CCD camera 8 installed in the information of the experience person M into the gesture recognition device 9. The direction indicated by is detected, and the direction is recognized as the traveling direction (viewpoint position). Also, before the start of the experience, measure the length of the hand when the experience person straightened the hand forward, and when reaching out to indicate the direction of travel, the hand caught from above by the elbow bend Using the change in length, the length of the hand at that time is recognized as the moving speed in the traveling direction. Of course, a well-known method may be used as the image processing method, and the description is omitted here.
[0037]
Next, the operation of the evacuation virtual experience system of the present invention will be described.
[0038]
First, at the start of the experience, input of personal information (including height indicating the height of the head) of an experienced person who experiences using the evacuation virtual experience device X and each computer 21. This is performed under the management of the person information management server 13. In this case, the experience person inputs predetermined data according to a question or the like from the experience person information management server 13 by a keyboard or hand instruction while viewing the display devices 22 and 23 and the screen 4.
[0039]
On the evacuation virtual experience device X side, the initial setting of the length of the hands of the experience person is also performed.
[0040]
When authentication and initial measurement are completed in this way, evacuation experience training is started. First, in the basic evacuation virtual experience device X, the video generation device 3 uses a computer graphics (CG) to create a virtual space for stereoscopic viewing based on the disaster situation simulation result of the disaster situation simulator 1 and the evacuation route information instructed by the experience person. Video data is generated, and based on the generated virtual space video data, the virtual space video is projected on the screen 4 in real scale by the projection means of the display device 5.
[0041]
In accordance with the projected virtual space image, an acoustic signal is generated by the three-dimensional sound control device 10 and reproduced from the three-dimensional sound device 11 for a noise, a human voice or the like in the virtual space, and given to the experience person. A sense of reality will increase further. Of course, other methods that do not use polarized glasses may be adopted as the stereoscopic video method.
[0042]
FIG. 2 shows an example of an image of a virtual space where evacuation virtual experience training is performed. In this case, an example of an underground shopping center is shown. The forward direction of the center of the video indicates the traveling direction (viewpoint position) of the experience person, and the virtual space construction server 2 evacuates based on the traveling direction (viewpoint position) information recognized by the gesture recognition device 9 and the speed information. Start accumulation of route information.
[0043]
Here, the disaster situation simulator 1 simulates changes in ambient temperature and smoke (gas) situation as the fire spreads after the fire breaks out, changes in the visibility rate of the evacuation guide light due to the influence of smoke, etc., and concentration of evacuated people The simulation of the movement speed limitation according to the degree, the visibility according to the height of the head of the experiencer, and the change of the health condition, and the experience of the experiencer who recognizes from the disaster situation simulation result of the disaster situation simulator 1 and the gesture recognition device 9 Based on the traveling direction (viewpoint direction) and the moving speed, the video generation device 3 changes the video data to be generated every moment and displays it on the screen 4 of the display device 5. FIG. 3 shows an image showing a fire occurrence situation. Similarly, the three-dimensional sound control device 10 generates sound data of a sound that can be heard at the position of the experience person and reproduces it through the three-dimensional sound device 11. When a gas explosion or the like occurs, the swing control device 7 operates the swing device 6 based on the disaster simulation result, and the experience person sitting on the swing device 6 virtually moves the swing at the time of the explosion. Let them experience and further enhance the sense of reality. In addition, when the experience person is a wheelchair user, the virtual experience of swinging the wheelchair or swinging on the stairs when there is a staircase in the evacuation route is provided.
[0044]
In this way, the change of the image element in the virtual space on the screen 4 of the display device 5 and the three-dimensional sound device 11 according to the disaster simulation result by the disaster situation simulator 1 and the traveling direction (viewpoint position) and moving speed of the experience person. By using the sound reproduced in the above and the rocking by the rocking device 6, the experience person can experience the evacuation with the presence and feeling of being evacuated under the actual disaster situation.
[0045]
During this evacuation experience, the evacuation route information (travel direction <viewpoint position> and speed information) designated by the experience person is sequentially accumulated by the accumulation means in the virtual space construction server 2, and this accumulated information is stored in the experience person. It can be replayed to observe the evacuation situation.
[0046]
In other words, when the evacuation virtual training apparatus X is set to the reproduction operation and the reproduction operation is performed, the evacuation route information (travel direction <viewpoint position> and movement speed information) accumulated in the accumulated information is sequentially time-sequentially. The video generation device 3 generates video data based on the reproduction information and the disaster simulation result. Thereby, the video of the virtual space along the evacuation route selected by the experience person can be reproduced, and the evacuation route of the experience person can be analyzed.
[0047]
The stored information is stored in the external storage device 14 as a database by the virtual space construction server 2 and can be read out at a later date to be reproduced as described above.
[0048]
By the way, as shown in FIG. 2 and FIG. 3, the above video includes a person as a video element in addition to the virtual space of the building or facility. The following method is used to draw this virtual human video. Yes.
[0049]
First, as shown in FIG. 4, a concentric circle L1... At a certain distance from the position A of the experience person is assumed, and a virtual human existing at a distance L1 from the position A to the virtual human and a position with respect to the traveling direction B. I try to change the way I draw. Then, as shown in FIG. 5A, the virtual person m1 within a certain distance L1 from the position A expresses with a fine shape and texture, and smoothes the operation. Further, the virtual person m2 existing at the position L2 slightly far from the position A expresses with a medium fine shape and texture to make the operation moderate, and the virtual person m3 existing at the position L3 further away has a simple shape and texture. No expression and no action. Further, it is assumed that the virtual human m4 located at a far distance L4 does not operate as an expression only by texture.
[0050]
Then, when the position A of the experience person moves forward as shown in FIG. 5B, the virtual person m1 existing in the nearest place in FIG. 5A is located behind the position A, In this case, there is no operation as an expression using only texture. Then, the virtual human m2... Existing in the forward direction from the position A changes the way of drawing according to the distance from the position A according to the case of FIG. Similarly, when the position A of the experience person moves further forward as shown in FIG. 5C, the virtual humans m1 and m, which are located behind the position A, do not operate as expressions only by texture. The virtual person m3 located in front of the position A changes the way of drawing according to the distance from the position A according to the case of FIG. In this way, the data generation processing of the video generation device 3 is reduced by gradually changing how the virtual person is drawn according to the distance from the experience person.
[0051]
By the way, in this embodiment, the basic evacuation virtual experience apparatus X is connected to the other computers 21 through the dedicated line B and the intranet A ″ or the Internet A, and the display device 22 or the display connected to each computer 21. Although the device 23 can perform a virtual evacuation experience even in a remote place, the video generation function provided in the computer 21 connected to the display device 23 is sent through the dedicated line B and the intranet A ″. View from the viewpoint of the experience based on the disaster simulation results and the direction of travel (viewpoint position) and movement speed input by the experience with the input means consisting of a joystick or glove-type input device provided on the computer 21 side. Generated virtual space stereoscopic image data and displayed on the display device 23, It is adapted to reproduce the sound in the virtual space by the acoustic device 24 to the hotel has.
[0052]
On the other hand, the display device 22 uses a CRT or LCD monitor connected to the computers 21..., And the image generation function provided in the computer 21 connected to the display device 22 has a dedicated line B and an intranet A ′. The disaster simulation results sent through ', the direction of travel (viewpoint position) and the movement speed of the experience input by the user using input means such as a joystick, glove-type input device, keyboard and mouse provided on the computer 21 side. Based on the instruction, video data that can be viewed with a web browser for monocular viewing of the virtual space viewed from the viewpoint of the user is generated and displayed on the display device 22 in a window. This video can be browsed by a Web browser operating on the computer 21. Also in this case, the sound in the virtual space is reproduced by the acoustic device 24 provided therewith. In addition, the display device 22 can be instructed to reproduce the evacuation route or change the disaster situation by using a graphical user interface for controlling the displayed virtual space.
[0053]
As described above, in any embodiment, the virtual space displayed on the screen 4 of the display device 5 of the basic evacuation virtual experience device X is shared by the display devices 22 and 23 connected to the computers 21. In addition, multiple people can participate in evacuation drills at the same time in remote areas.
[0054]
In this case, the evacuation route information such as the traveling direction (viewpoint position) and the traveling speed input by each computer 21 with respect to the virtual space construction server 2 that manages evacuation route information management and information that needs to be updated relatively frequently. Since the delay on the network is caused when sending directly through the network, the virtual space construction auxiliary server 30 provided on the intranet A ″ causes the traveling direction (viewpoint position) input by the input means of each computer 21 and The information on the moving speed is accumulated and used to construct a virtual space in the computer 21 on the intranet A ″, and the evacuation route is accumulated and stored in the external storage device 31 as a database to absorb the delay in the network. It is like that.
[0055]
Then, in order to reflect the direction of travel (viewpoint position) and moving speed of the users who share the virtual space in the virtual space image viewed by the other users, the video is based on the contents specified by each user. The generation device 3 and the image generation function of the computer 21... Generate virtual human image data indicating other experienced users by reflecting their traveling direction (viewpoint position) and moving speed, and display them in the virtual space. It has become. As a result, it is possible to create a situation where each experienced person who is immersed in the virtual space takes an evacuation action influenced by the evacuation action of another experience person.
[0056]
Further, by using the display device 22 of the remote computer 21..., The facility manager who is a virtual evacuation target or a disaster evacuation specialist monitors the evacuation activity of the experience person, and the accumulated evacuation route of the experience person. By monitoring the reproduced video based on the video, it is possible to give advice or present an opinion to the experienced person. These advice and opinion are displayed on the display device 5 under the management of the advice information management server 12. It is presented by any one of a character, an image displayed on the screens 22 and 23, a voice through the audio devices 11 and 24, or a combination thereof. Alternatively, the evacuation route information stored in the external storage devices 14 and 31 can be reproduced and checked later, and advice and opinions can be presented offline (documents) to the experienced user.
[0057]
In addition to the information on the evacuation route of the experience person, information on the evacuation route corresponding to an ideal (exemplary) evacuation state in a certain disaster situation is registered in advance in the database of the external storage device 14, and the evacuation is performed to the experience person. In the case of having an experience, this evacuation route is reproduced and the experience person performs the same evacuation among a plurality of virtual humans in the virtual space displayed on the display device 5 or 22, 23. The experience person can indicate his / her traveling direction (viewpoint position) and moving speed, and can also present a virtual space where he / she can evacuate while interfering with surrounding virtual persons, facilities, and door structures. ing. In this case, the evacuation information to be reproduced is not strict position information according to the time axis. It is also possible to achieve evacuation of experienced people while interfering.
[0058]
By the way, in the evacuation virtual experience apparatus X of FIG. 1, by processing the image captured by the CCD camera 8 disposed above the experience person, the traveling direction (viewpoint position) is changed according to the direction in which the experience person extends his hand. Gesture recognition device 9 for recognizing the speed according to the length of the camera, as shown in FIG. The CCD camera 8d placed above the experiencer M captures the motion of the foot of the experiencer M, acquires a cycle in which the experiencer M steps on by moving image processing, and obtains this in the virtual space of the experiencer M The gesture recognition device 8 that recognizes the moving speed and detects the direction of the face of the experience person M as the traveling direction may be used. In this case, in order to make it easier to detect the position of the foot, a mark that can be extracted by image processing is attached to the ankle, and in order to make it easier to detect the orientation of the face, the user M wears a hat with a mark. The mark is captured by the upper CCD camera 8d and image processing is performed so that the face direction, that is, the traveling direction (viewpoint position) can be recognized.
[0059]
In place of the CCD camera, a plurality of infrared sensors 25 are arranged in a matrix above the experience person M as shown in FIG. 7, and the direction indicated by the hands of the experience person is recognized based on the detection output of these infrared sensors 25. The gesture recognition device 8 may be used. In this case, the video generation device 3 generates video data that changes the traveling direction (viewpoint position) while the moving speed and rotation speed of the experience person are fixed. In the figure, a indicates a detection area of each infrared sensor 25.
[0060]
In addition to gestures, an input means for recognizing a direction of movement (viewpoint position) or movement speed generated by a voice by an experienced person using voice recognition technology may be adopted instead of the input means by gesture. In the evacuation virtual experience device X, a joystick or a glove type input device may be used as an input means.
[0061]
【The invention's effect】
  The present inventionWithout conducting evacuation drills in the real world, it is possible to perform evacuation drills in a pseudo manner using the virtual space displayed by the video display means. It can be carried out without following the procedures, and it is possible to use not only a space that simulates an existing building or facility as a virtual space to be used, but also a virtual space that simulates a planned building or facility. In addition to evacuation drills, it can also be used for confirmation and examination of the safety of buildings and facilities, especially with drawings etc. Since it is possible to express a panic situation that cannot be obtained by the method, human subjective evaluation can also be considered, and there is an effect that it is easy to overwhelm the time cost required to repeat the design change and evaluation,AvoidanceIn the case of a difficult training device, the scale of damage and the number of people evacuated are compared to those in the real world.TheIt is possible to assume a larger scale disaster situation or to train in various disaster situations (causes of occurrence, location, etc.), and there are few time restrictions such as evacuation drills in groups in the real world, anytime It has the effect of making it easy to experience as many times as you want. In particular, input means for inputting evacuation route information in real time consisting of the viewpoint position of the experience person in the virtual space, the traveling direction specified by the experience person, and speed information designated by the experience person, and evacuation route information registered in advance By providing a virtual space construction means that manages ideal evacuation route information, it is possible to provide interactivity between the displayed virtual space and the experience person, and information on the ideal evacuation route A virtual human image that evacuates in the virtual space video according to the above, and a video generation means for generating virtual space video data for the evacuation virtual experience from the virtual human image, the disaster situation simulation result, and the evacuation route information, Evacuation behavior or intentionally wrong behavior can be made to a virtual person, creating a situation to judge the behavior of an experienced person during group behavior or the action of others. Can be issued, it is possible to experience the realization is a difficult situation to experience person in the evacuation drill of the real world. In addition, the video generation means represents the virtual human image with a detailed three-dimensional shape and texture having an action when the virtual human image is positioned forward in the traveling direction of the viewpoint position of the experience person, and the viewpoint position of the experience person. If it is located behind the direction of travel, it is expressed only with textures that do not have motion and three-dimensional shape, so that how to draw a virtual human image is changed according to the distance from the experience person, and data generation processing of the video generation means is reduced Can be planned.
[0062]
  TemporaryProvided with input means that captures the location and behavior information of the experience person in the virtual space and gives it to the virtual space construction means as evacuation route informationBy the tableInteractivity can be provided between the virtual space shown and the user.
[0063]
  Furthermore, aboveSince the input means is composed of voice recognition means that recognizes the designation of the position and action by the voice of the experience person,Also aboveThe input means is configured by means for capturing the position information by detecting the gesture of the experience person with an optical sensor.By makingIt is easy for an experienced person to input viewpoint position information, and anyone can become an experienced person.
[0064]
  Also, the towerThe above evacuation virtual training device is equipped with a swing device that swings the rider according to the disaster situation.In addition,It can increase the reproducibility of disaster situations such as earthquakes and explosions, and give the experience a high sense of realism and immersion.
[0065]
  Moreover, furtherVideo display means in which a plurality of computers having a video generation function are connected to the evacuation virtual training apparatus via a plurality of networks, and a virtual space video for evacuation virtual experience is connected to the computer based on the evacuation route information in each computer Reflected inBy doing so, provisionalThe imaginary space can be shared with multiple participants, and evacuation drills involving many people are also possible.
[0066]
  Also onAs a computer, a computer for causing the video display means to display a virtual user interface for operating the shape and position of video display elements in the virtual space video together with the virtual space video for monocular viewing on the video display means. WithByIt is possible to operate the image elements in the virtual space that are displayed even by an experienced person participating in the evacuation drill using the computer, and it is possible to capture the viewpoint position information of the experienced person.
[0067]
  Furthermore,A web browser is used to display the virtual space image and the graphical user interface.ByEasy to display on the screen with real-time and interactive features.
[0068]
  Moreover, furtherA network using TCP / IP is used for connection between the evacuation virtual training apparatus and each computer and between each computer.By doingData can be exchanged with the evacuation virtual training device even on a remote computer using the Internet or Intranet, and many people can participate in the training without any geographical or time restrictions. Is also possible.
[0069]
  Furthermore, aboveStorage means for accumulating the user's viewpoint position information input by the input means as the evacuation route information of the experience person and reproducing the virtual space video based on the accumulated evacuation route informationWith thatAfter the training, the evacuation route taken by the experienced person during the training can be reproduced to verify the evacuation behavior of the experienced person.
[0070]
  Also onStorage meansIn advanceEquipped with an external storage device for readable storage of a database constructed from the stored evacuation route informationByIt is possible to provide an environment in which the evacuation route information of a large number of experienced people can be presented to the managers of buildings and facilities and safety experts to obtain opinions.
[0071]
  Furthermore,Display the virtual human image according to the simulation of the evacuation situation in the virtual space image aboveBy, Model evacuation behaviors and intentionally wrong behaviors can be made virtual, and situations can be created for group behavior and for judging the actions of other people's behavior, This makes it possible for the experiencer to experience situations that are difficult to achieve with real-world evacuation drills.
[0072]
  Moreover, furtherSince the virtual human image shows another experience person who shares the evacuation virtual experience with the virtual space image displayed by each of the image display means, the virtual person image reflects the viewpoint position (evacuation route) of the other experience person. Providing spatial imagesAnd the bodyJudgment of the influence of the behavior between the testers, the situation for the judgment of the group behavior can be created with a more realistic feeling,Also onThe shape and level of detail of the virtual human image is changed according to the distance from the position in the virtual space of the experience person performing the evacuation virtual experience with the virtual space image displayed together with the virtual human image.With thatA virtual human image can be displayed in reality at a position close to the viewpoint position of the experience person, and when moving away from the viewpoint position of the experience person, it is possible to speed up the display process by reducing the level of detail or omitting the shape. .
[0073]
  Furthermore, disasterProvided with an acoustic device that emits a three-dimensional sound corresponding to the disaster situation based on the simulation result of the harm situation and the position information from the input meansByBy adding sound effects, it is possible to give a more realistic and immersive experience to the experience.
[0074]
  Also onOne of the computers is provided with means for transmitting advice information to the experienced person via a network by an expert who observes the behavior of the experienced person displayed on the video display means.ByEven at a position away from the computer used by the evacuation virtual experience device and other experiential persons, the expert can observe the behavior of the experiential person and give advice during the evacuation drill.
[0075]
  Moreover, furtherUse the evacuation route information stored or stored in the above storage means or external storage device as a judgment material for adviceByBased on the evacuation route information accumulated or stored after the evacuation drill, it is possible to classify and analyze the behavior of the experienced person and to give more appropriate advice to the experienced person, the building / facility designer or the manager.
[Brief description of the drawings]
FIG. 1 is an overall system configuration diagram of an embodiment of the present invention.
[Fig. 2] Fig. 2 is a video example diagram of the virtual space in the same as above.
FIG. 3 is a video example diagram showing a fire occurrence state in the acceleration section in the same as above.
FIG. 4 is an explanatory diagram of the relationship between the position of the virtual human and the position of the experience person in the same as above.
FIG. 5 is an explanatory diagram of a virtual human drawing method in the same as above.
FIG. 6 is a configuration explanatory diagram of another example of the gesture recognition device according to the embodiment.
FIG. 7 is a diagram illustrating the configuration of another example of the gesture recognition apparatus according to the embodiment.
[Explanation of symbols]
A Internet
A ', A "Intranet
B Private line
1 Disaster simulator
2 Virtual space construction server
3 Video generator
4 screens
5 display devices
6 Oscillator
7 Swing control device
8 CCD camera
9 gesture recognition device
10 Three-dimensional acoustic control device
11 3D sound equipment
12 Advice information management server
13 Experiencer information management server
14, 15 External storage device
21 computer
22, 23 Display device
24 sound equipment
30 Virtual space construction auxiliary server
31 External storage device

Claims (6)

災害状況をシミュレートし災害状況シミュレーション結果を生成する災害状況シミュレータと、
仮想空間内の体験者の視点位置と前記体験者が指定する進行方向と前記体験者が指定する速度情報とからなる避難経路情報をリアルタイムに入力するための入力手段と、
前記避難経路情報と予め登録した理想的な避難経路情報とを管理する仮想空間構築手段と、
前記理想的な避難経路の情報に従い仮想空間映像内を避難する仮想人間像を生成し、該仮想人間像と前記災害状況シミュレーション結果と前記避難経路情報とから避難仮想体験用の仮想空間映像データを生成する映像生成手段と、
前記仮想空間映像データに基づいて実スケールで立体視可能な仮想空間映像を表示させて体験者に仮想空間を提示するドーム型の映像表示手段と、を備え、
前記映像生成手段は、前記仮想人間像を、前記体験者の視点位置の進行方向前方に位置する場合には動作を有した詳細な3次元形状とテクスチャとで表現するとともに、前記体験者の視点位置の進行方向後方に位置する場合には動作及び3次元形状が無いテクスチャのみで表現することを特徴とする避難仮想訓練システム。
A disaster situation simulator that simulates disaster situations and generates disaster situation simulation results ;
Input means for inputting in real time evacuation route information consisting of the viewpoint position of the experience person in the virtual space, the traveling direction designated by the experience person, and the speed information designated by the experience person,
Virtual space construction means for managing the evacuation route information and ideal evacuation route information registered in advance;
A virtual human image for evacuating in a virtual space image is generated according to the ideal evacuation route information, and virtual space image data for evacuation virtual experience is generated from the virtual human image, the disaster situation simulation result, and the evacuation route information. Video generation means;
A dome-shaped image display means for displaying a virtual space image that can be stereoscopically viewed in real scale based on the virtual space image data and presenting the virtual space to the experience person,
The video generation means represents the virtual human image with a detailed three-dimensional shape and texture having an action when the virtual human image is positioned forward in the traveling direction of the viewpoint position of the experience person, and the viewpoint position of the experience person. An evacuation virtual training system characterized by being expressed only by a texture having no motion and three-dimensional shape when located behind the traveling direction .
記映像生成手段は、前記仮想人間像が前記体験者の視点位置の進行方向前方に位置する場合には、前記テクスチャに加え前記体験者の視点位置との距離に応じて段階的に形状の詳細度を落とした前記仮想人間像を生成することを特徴とする請求項1に記載の避難仮想訓練システム。Before Symbol image generating means, wherein when the virtual beings is located forward in the traveling direction of the viewpoint position of the viewer in addition to the texture the viewer viewpoint position and distance stepwise shape details in accordance with the The virtual evacuation training system according to claim 1, wherein the virtual human image with a reduced degree is generated . 前記各映像表示手段により表示される仮想空間映像は、前記体験者自身の視点で見た映像であることを特徴とする請求項1又は請求項2に記載の避難仮想訓練システム。 3. The evacuation virtual training system according to claim 1 , wherein the virtual space image displayed by each of the image display means is an image viewed from the viewpoint of the user himself / herself . 前記仮想空間構築手段は、前記避難経路情報を蓄積する蓄積手段を備え、前記映像生成手段は、前記蓄積手段にて蓄積した避難経路情報と前記災害シミュレーション結果とに基づいて再現する避難経路を立体視可能な仮想空間の映像データとして生成することを特徴とする請求項1乃至請求項3の何れに記載の避難仮想訓練システム。 The virtual space construction means includes storage means for storing the evacuation route information, and the video generation means three-dimensionally displays an evacuation route to be reproduced based on the evacuation route information stored in the storage means and the disaster simulation result. The evacuation virtual training system according to any one of claims 1 to 3, wherein the evacuation virtual training system is generated as video data of a visible virtual space . 前記仮想人間像は、前記各映像表示手段により表示される仮想空間映像によって避難仮想体験を共有する他の体験者を示すものであることを特徴とする請求項1乃至請求項4の何れかに記載の避難仮想訓練システム。 5. The virtual human image indicates another experience person who shares an evacuation virtual experience by a virtual space image displayed by each of the image display means. Evacuation virtual training system. 前記映像表示手段に表示させる仮想空間映像を前記体験者が見るための偏光眼鏡を含んだことを特徴とする請求項1乃至請求項5の何れかに記載の避難仮想訓練システムThe evacuation virtual training system according to any one of claims 1 to 5 , further comprising polarized glasses for the experience person to view a virtual space image to be displayed on the image display means.
JP2000304058A 2000-10-03 2000-10-03 Evacuation virtual experience system Expired - Fee Related JP3948202B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000304058A JP3948202B2 (en) 2000-10-03 2000-10-03 Evacuation virtual experience system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000304058A JP3948202B2 (en) 2000-10-03 2000-10-03 Evacuation virtual experience system

Publications (2)

Publication Number Publication Date
JP2002108196A JP2002108196A (en) 2002-04-10
JP3948202B2 true JP3948202B2 (en) 2007-07-25

Family

ID=18785166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000304058A Expired - Fee Related JP3948202B2 (en) 2000-10-03 2000-10-03 Evacuation virtual experience system

Country Status (1)

Country Link
JP (1) JP3948202B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3625212B1 (en) * 2003-09-16 2005-03-02 独立行政法人科学技術振興機構 Three-dimensional virtual space simulator, three-dimensional virtual space simulation program, and computer-readable recording medium recording the same
IT1399901B1 (en) * 2010-04-19 2013-05-09 Manfredo Giuseppe Mario Ferrari MULTISENSORY ROOM IN PARTICULAR FOR TRAINING AND PROCESS FOR THE REAL-TIME SIMULATION OF VIRTUAL SCENARIOS IN THE SAME
CN103430215B (en) * 2011-03-21 2017-03-22 Lg电子株式会社 Display device and method of controlling the same
JP6261068B2 (en) * 2013-08-20 2018-01-17 国立大学法人愛媛大学 Disaster prevention system
CN103971556B (en) * 2014-04-04 2016-08-24 中国矿业大学 A kind of mine disaster simulated training system
JP2016201007A (en) * 2015-04-13 2016-12-01 Ihi運搬機械株式会社 Transportation facility remote maintenance system
JP6043408B1 (en) * 2015-07-10 2016-12-14 株式会社アイエスエム Simulated experience system, simulated experience method, portable device and simulated experience program
KR101815915B1 (en) * 2015-08-12 2018-01-08 주식회사 유캔스타 Safety training method using a virtual experience
JP2020091475A (en) * 2018-11-27 2020-06-11 株式会社住化分析センター Information processing device, information processing system, information processing method, and information processing program, recording medium, and teaching method
US10825260B2 (en) * 2019-01-04 2020-11-03 Jand, Inc. Virtual try-on systems and methods for spectacles
CN110009738B (en) * 2019-03-28 2023-04-11 电子科技大学 Indoor three-dimensional expression model for fire emergency evacuation
JP7379798B2 (en) * 2019-10-11 2023-11-15 株式会社竹中工務店 Earthquake simulation device, earthquake simulation control program
JP7476614B2 (en) 2020-03-30 2024-05-01 株式会社大林組 Evacuation safety evaluation system, evacuation safety evaluation method, and evacuation safety evaluation program
JP7497597B2 (en) 2020-03-30 2024-06-11 株式会社大林組 Evacuation safety evaluation system, evacuation safety evaluation method, and evacuation safety evaluation program
CA3179919A1 (en) 2020-04-15 2021-10-21 Warby Parker Inc. Virtual try-on systems for spectacles using reference frames

Also Published As

Publication number Publication date
JP2002108196A (en) 2002-04-10

Similar Documents

Publication Publication Date Title
JP3948202B2 (en) Evacuation virtual experience system
Zhu et al. Virtual and augmented reality technologies for emergency management in the built environments: A state-of-the-art review
US8624924B2 (en) Portable immersive environment using motion capture and head mounted display
KR101007944B1 (en) System and method for cyber training of martial art on network
NL2002841C2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave.
CN106530887B (en) Fire scene simulating escape method and device
Feng et al. Development and evaluation of a VR research tool to study wayfinding behaviour in a multi-story building
JP2020502603A (en) Field of view (FOV) aperture of virtual reality (VR) content on head-mounted display
US20090187389A1 (en) Immersive Collaborative Environment Using Motion Capture, Head Mounted Display, and Cave
Gonçalves et al. Systematic review of comparative studies of the impact of realism in immersive virtual experiences
JP3715219B2 (en) Virtual field training device
Stigall et al. Evaluation of mobile augmented reality application for building evacuation
Feng et al. A sequence analysis of behaviors in immersive virtual reality for indoor earthquake and post-earthquake evacuation
JP7397875B2 (en) Seismic vulnerability analysis system for user&#39;s living space and seismic vulnerability analysis method for user&#39;s living space using the system
Langner et al. Assessing the impact of dynamic public signage on mass evacuation
Zhang et al. Human decision change in crowd evacuation: A virtual reality-based study
CN102346981A (en) System used for virtual fire-fighting drilling and method thereof
JP2001084375A (en) Operation verification system and non-contact manipulation system
Thalmann et al. Virtual reality software and technology
Doroudian et al. A study of real-time information on user behaviors during search and rescue (sar) training of firefighters
KR20210062972A (en) Apparatus and method for training
Nesamalar et al. An introduction to virtual reality techniques and its applications
JP2019203914A (en) Earthquake experience system
KR20180098936A (en) HMD Working VR(virtual reality) Contents experience system based on Position Sensors
CN116490249A (en) Information processing device, information processing system, information processing method, and information processing terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070409

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100427

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100427

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100427

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110427

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130427

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees