JPH07282299A - 表示方法及び表示装置 - Google Patents

表示方法及び表示装置

Info

Publication number
JPH07282299A
JPH07282299A JP6074693A JP7469394A JPH07282299A JP H07282299 A JPH07282299 A JP H07282299A JP 6074693 A JP6074693 A JP 6074693A JP 7469394 A JP7469394 A JP 7469394A JP H07282299 A JPH07282299 A JP H07282299A
Authority
JP
Japan
Prior art keywords
virtual
route
patrol
site
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6074693A
Other languages
English (en)
Other versions
JP3214776B2 (ja
Inventor
Miwako Doi
美和子 土井
Naoko Sakata
直子 阪田
Nobuko Kato
伸子 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP07469394A priority Critical patent/JP3214776B2/ja
Priority to US08/419,421 priority patent/US5754189A/en
Publication of JPH07282299A publication Critical patent/JPH07282299A/ja
Application granted granted Critical
Publication of JP3214776B2 publication Critical patent/JP3214776B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S345/00Computer graphics processing and selective visual display systems
    • Y10S345/949Animation processing method
    • Y10S345/959Object path adherence

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

(57)【要約】 【目的】発電所や化学工場等の大規模プラントの現場パ
トロール訓練を支援すること 【構成】作業場所を構成する物体の形状、それらの配置
およびそれらが配置される作業場所の形状、作業場所を
連結する経路の形状と配置、作業者の位置や身体計測
値、作業場所での作業者の操作を入力し、入力された作
業場所と経路を記憶し、入力された現場環境における巡
回経路を記憶し、入力された作業者の身体計測値に基づ
き、作業者のかわりに記憶された順序で経路を歩行する
仮想パトロール員を生成し、記憶された作業場所と経
路、生成された仮想パトロール員を呈示し、仮想パトロ
ール員の経路歩行と、作業場所での作業者の直接操作と
を切り替えることを特徴とする表示装置

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は所定の環境モデル下で、
仮想的に生成した人間のモデルを動作させ、この動作を
表示する表示方法、及び表示装置に関する。
【0002】
【従来の技術】発電所や化学工場など大規模なプラント
の運転制御は主として、中央操作室(略して中操)で行
われている。ただし、故障や事故などの異常時には現場
にある操作盤(現場盤)を直接操作することが必要とな
る。
【0003】このような異常時に現場での対応がスムー
ズに行えるように、日頃から、現場をパトロールして、
現場盤の操作や異常時での駆けつけ方などの訓練をして
おかねばならい。
【0004】また、作業場所にある現場盤などの実機を
作り、操作を模擬することも行われているが、対象とな
るプラントあるいは作業場所ごとに模擬の現場盤を用意
せねばならず、場所とコストが非常にかかるという問題
がある。
【0005】この問題を解決するために、計算機上に訓
練システムを作ることも行われている。現状の訓練シス
テムとしては、現場盤のうち、操作する部分のみを計算
機上に実現し、訓練を行っている。しかし、この方法で
は、異なる作業場所ごとに、単に現場盤の操作部分の表
示が切り替わるだけである。このため、作業場所を結ぶ
経路を歩行しているという感触が無いために、実際に現
場にいったときに経路がわからないという問題点があ
る。
【0006】経路を実際に歩行している感覚を作るため
に、ローラスケートやトレッドミルなどを用いて、仮想
環境内を歩行するようにしたものがある(参考文献「ウ
オークスルー・シミュレータにおける動歩行の実現と解
析」、計測自動制御学会ヒューマンインタフェース部会
News & Report,Vol.8,pp.199-204) 。これは作業者の実
際の位置は固定であるが、ローラスケートやトレッドミ
ルが移動した距離分だけ、仮想環境内を移動できるよう
にしている。ただし、身体の位置が固定されているた
め、歩行したという感覚は、装置を作る手間やコストの
割には得られないのが問題である。また、これらの装置
ではHMD(Head Mounted Display) というゴーグルタイプ
で頭部に装着する表示装置を用いる。このHMD では、頭
部に着いている3次元位置センサにより、頭部の位置を
検出し、頭部が向いている位置の仮想環境を表示装置上
に表示するので、自由に仮想環境の中を見回すことがで
きる。しかし、作業者は自分が見ているところだけしか
わからないので、仮想環境全体の中での、自分の位置を
把握するのが、難しく、経路を正しく学習できないとい
う問題もある。
【0007】経路を案内する点では、大規模プラントの
現場経路に限らず、街の経路案内もある。街の経路案内
では、特に地下鉄の駅や地下街など地下から地上に出る
ときが難しい。つまり、地下で地上の地図を見て、目的
地を確認しても、階段を上るため、方向がわからなくな
り、地下でみた地図との対応がつかなくなるという問題
がある。
【0008】
【発明が解決しようとする課題】発電所や化学工場など
の大規模プラントの現場パトロールの訓練では実機を用
いて、訓練環境を作っていたので、場所・コストがかか
りすぎるという問題がある。
【0009】計算機化された訓練シミュレータでは、複
数の現場盤の切り替えを行うことはできるが、これらの
位置的な関係、特に複数の作業場所を結ぶ経路を学習で
きるようになっていなかった。このため、実際に現場に
いったとき、経路がわからず、目的の作業場所に到達で
きないというこが起こり得た。
【0010】ローラスケートなどを使って仮想環境内を
歩行する装置では、装置作成の手間やコストの割には歩
行感覚が得られないという問題があった。また、HMD
のような作業者の視野だけしか表示できない状況では、
仮想環境内の経路を正しく学習できないという問題もあ
った。
【0011】街の経路案内では、地下から地上に出たと
きの方向と、地下で示されている地図の方向の対応付け
がうまくできずに、方向を見失って、道に迷うことがあ
った。
【0012】そこで、本発明は所定の環境モデル、例え
ば発電所や化学工場などの大規模プラントの現場におい
て、仮想的に生成した人間のモデル、例えば仮想パトロ
ール員を動作させることにより、例えば現場における操
作等を容易に体験することができる表示方法及び表示装
置を提供することを目的とする。
【0013】
【解決を解決するための手段及び作用】本発明は、所定
の環境モデル下で、仮想的に生成した人間のモデルを動
作させ、この動作を表示する際に、前記人間のモデルの
動作による前記環境モデルに対する仮想操作と、この環
境モデルに対する直接操作とを切り替えながら前記人間
のモデルの動作を表示することを特徴とするものであ
る。
【0014】
【実施例】
(実施例1)本発明に係わる実施例1の詳細を説明する
前に、まず簡単に実施例1を説明する。
【0015】実施例1の表示装置は、作業場所を構成す
る物体の形状、それらの配置およびそれらが配置される
作業場所の形状、作業場所を連結する経路の形状と配
置、作業者の位置や身体計測値、作業場所での作業者の
操作等を入力するための入力手段と、この入力手段によ
り入力された作業場所と経路を記憶するための現場環境
記憶手段と、前記入力手段により入力された前記現場環
境における巡回経路を記憶するための巡回経路記憶手段
と、前記入力手段により入力された作業者の身体計測値
に基づき、作業者のかわりに前記巡回経路記憶手段に記
憶された順序で経路を歩行する仮想のパトロール員(モ
デル)を生成するための仮想パトロール員生成手段と、
前記現場環境記憶手段に記憶された作業場所と経路、前
記仮想パトロール員生成手段により生成された仮想パト
ロール員を呈示するための呈示手段と、前記仮想パトロ
ール員の経路歩行と、作業場所での作業者の直接操作と
を切り替える切り替え手段とを具備する点に特徴を有す
る。つまり、入力された作業者の身体計測値に基づき、
作業者のかわりに、巡回経路記憶手段に記憶された順序
で経路を歩行する仮想パトロール員を生成し、現場環境
記憶手段に記憶された作業場所と経路、生成された仮想
パトロール員を呈示手段に呈示し、前記仮想パトロール
員の経路歩行と、作業場所での作業者の直接操作とを切
り替るように動作するものである。 (1)これにより、従来は発電所や化学工場などの大規
模プラントの現場パトロールの訓練では実機を用いて、
訓練環境を作っていたので、場所・コストがかかりすぎ
るという問題があったが、本実施例では実機の代わり
に、3次元コンピュータ・グラフィックスで作成した仮
想の現場環境を用いるので、3次元コンピュータ・グラ
フィックス部品の再利用が可能であるので、種々の大規
模プラントの現場をコスト・時間をかけずに生成するこ
とができる。また、実機と違い、仮想環境は高々コンピ
ュータ数台に収まるものなので、場所をとるという問題
も解決される。 (2)計算機化された訓練シミュレータでは、複数の現
場盤の切り替えを行うことはできるが、これらの位置的
な関係、特に複数の作業場所を結ぶ経路を学習できるよ
うになっていなかった。このため、実際に現場にいった
とき、経路がわからず、目的の作業場所に到達できない
というこが起こり得た。ローラスケートなどを使って仮
想環境内を歩行する装置では、装置作成の手間やコスト
の割には歩行感覚が得られないという問題があった。
【0016】これに対し、本実施例では現場盤の据え付
けられている複数の作業場所を結ぶ経路を学習できるよ
うに、仮想の現場環境には、経路も実際の現場と同様に
設け、この経路を歩行している様子を、作業者のかわり
に仮想の現場環境内の経路を歩行する仮想パトロール員
が歩行している様子を見る事で、経路を容易に学習でき
るようになる。また、現場盤にたどりつくと、実際に現
場にいるのと同様に現場盤に対して、操作を行うことが
できるので、現場までの経路と現場での操作を容易に体
験しながら訓練ができるので、効果は大きい。
【0017】以下、図面に沿って実施例1の具体例につ
いて説明する。図1は、本発明の一実施例の概略構成図
である。作業場所を構成する現場盤などの物体を3次元
CADなどを用いて作成された形状を、あるフォーマッ
ト(例えば、業界標準のdxfフォーマット、あるいは
IGESフォーマット)に従って記述されたファイルな
どを読み込んだり、読み込んだ物体を3次元空間のどこ
に配置するかの指定、例えば、キーボードやマウスなど
のポインティング・デバイスからなる入力部1を有す
る。また、手の振りや手の位置、頭部の位置を入力する
ための例えば、データグローブや磁気センサなどの3次
元位置センサからなる入力部1’を有する。また、入力
部1には図示しないが、フロッピーディスクドライバな
どからなる外部記憶媒体読みとり装置や、あるいはイー
サネット・ケーブルなどの外部のネットワークとのコネ
クタ等を有してなる。
【0018】入力部1または1’から入力された物体や
経路の3次元形状とその位置は、例えば、図2のような
形式で現場環境記憶部2に記憶される。また、現場環境
において、どのような順序で経路を巡回するかを、例え
ば図3のような形式で巡回経路記憶部3に記憶される。
この順序は入力部1または1’から入力される。
【0019】実際の作業者のかわりに仮想の現場環境で
動作する仮想パトロール員(モデル)の3次元形状や位
置等は仮想パトロール員記憶部6に記憶される。仮想パ
トロール員記憶部6には、仮想パトロール員のデータ
(腕、足等の部分)が、例えば特願昭3ー107880
号あるいは特願昭5−74716号に示されているよう
に、部品毎に3次元を構成するための多角形群の頂点座
標と結合するための代表点の座標とで記載されものが記
憶されている。
【0020】仮想パトロール員生成部5は、メモリ制御
部15からの読み出された仮想パトロール員のデータ
(腕、足等の部品)を、入力部1から入力された作業者
の身体計測値に基づいて伸縮し、各々組み合わせて、仮
想パトロール員を生成する。なお、現場環境記憶部2、
巡回経路記憶部3、仮想パトロール員記憶部6は各々メ
モリ制御部15により読み出し、書き込みが制御され
る。
【0021】一方、巡回経路生成部10は、図2に示さ
れるような現場環境記憶部2に記憶された作業場所と経
路(データ)、及び図5に示されるような巡回経路記憶
部3に記憶された経路順序をもとに、現場環境内の物体
にぶつからないように仮想パトロール員が歩行できるよ
うに、物体と仮想パトロール員との干渉をチェックによ
り経路を生成する。巡回経路生成部10により生成され
た経路をもとに仮想パトロール員動作生成部9は、仮想
パトロール員の歩行動作を生成する。上述したような現
場環境記憶部2に記憶された作業場所と経路、仮想パト
ロール員生成部5により生成された仮想パトロール員、
及び巡回経路生成部10により生成された経路をもとに
仮想パトロール員動作生成部9において生成された仮想
パトロール員の歩行動作は、例えばCRT、あるいは頭
部にかぶって使用するヘッドマウンティド・ディスプレ
イなどからなる表示部7に呈示される。
【0022】また、仮想パトロール員の経路歩行と、作
業場所での訓練員の直接操作との切り替えは、入力部1
または1’からの指示により切り替え制御部8において
なされる。実際の訓練員あるいは仮想パトロール員の操
作指示に従って、現場環境内に設置された機器の動作の
シミュレーションは、機器動作シミュレータ制御部11
において実行される。なお、ここでは直接本実施例の特
徴部分ではないので説明は省略する。
【0023】図2、図3、図4は現場環境記憶部2の記
憶形式の一例である。図2はポジションデータファイル
の一例で、物体毎にポジションデータファイル上でのI
D番号、物体の形状データへのポインタとなるID番
号、操作に必要な属性データへのポインタとなるID番
号、実際の座標値、向きを示す回転角からなっている。
【0024】図3は属性データファイルの一例で、実際
に物体に操作が加えられた時の動き方などが詳細に記述
されている。例えば、属性ID(ATT_ID)0は、
ギアであり(CLASSが0)、ギアの設定位置(Nu
m_of_Gears)は2箇所であり、ギアポジショ
ンの範囲(Range)は30度、ギアポジションの中
心位置(Gear_Position)のx座標が6
0、y座標が120であり、ギアを操作したときに出る
音のファイル番号(Sound_file_No)が9
である。同様に属性ID1は、パネルであり(CLAS
Sが2)、オンの時の色(On_Color))はre
dが230、greenが120、blueが150、
オフの時の色(Off_Color)がredが20
0、greenが200、blueが100である。こ
れらの動き方の制約は、操作時のみに有効である。レイ
アウトの変更時には、これらの動き方に制限されない。
【0025】図2でポジションデータID0のオブジェ
クトの属性データは0になっているので、図3で示され
ている属性ID0のギアの属性をもつ。つまり、操作さ
れたとき、属性ID0で定義されているギアとして動く
ことになる。
【0026】また、操作時には、操作対象となる属性を
持つオブジェクトだけ、動かせるようになっている。つ
まり、ギアやボタンなどの操作対象となるオブジェクト
だけ、入力部1より指示を与えて、操作することが可能
であり、他の操作対象ならない属性をもつオブジェクト
は、位置の変更などを行うことはできない。レイアウト
変更時には、すべての属性をもつオブジェクトの位置を
変更できる。
【0027】図4はオブジェクト間の従属関係を記憶す
る従属関係データファイルの一例である。従属関係デー
タのID(NUMBER)0はポジションデータ0のオ
ブジェクトはポジションデータ1のオブジェクトを子供
とすることを意味している。つまり、ポジションデータ
0のオブジェクトが操作されると、ポジションデータ1
のオブジェクトも追随して、状態が変化する。つまり、
親がONになれば、子供もONになり、親がOFFにな
れば、子供もOFFになる。
【0028】また、レイアウトの時に、親のオブジェク
トの位置を変更すると、子供のオブジェクトの位置も、
親のオブジェクトとの相対的な位置を保ったまま、変更
される。つまり、図2での親のオブジェクトに位置(x
p,yp,zp)に対して子供のオブジェクトの相対位
置が(x1,y1,z1)により、(xc,yc,z
c)=(xp+x1,yp+y1,zp+z1)ときま
っていれば、親のオブジェクトの位置が(xp’,y
p’,zp’)に変更になったときに、子供のオブジェ
クトの位置も、(xc’,yc’,zc’)=(xp’
+x1,yp’+y1,zp’+z1)に変更になる。
【0029】図2、図3、図4は、記憶形式の好ましい
一例であり、必ずしもこれに限定されるものではない。
図5は巡回経路記憶部3の記憶形式の一例である。巡回
経路は経路を構成する座標値のうち、適当な間隔でサン
プリングした座標値を記憶する方法もあるが、ここで
は、詳細な経路は巡回経路生成部10により生成する方
法をもっているので、起点と終点、通過すべきドアなど
キーになるポイントの座標と属性のみを記憶するように
なっている。属性には、例えば、起点を表すSと、終点
を表すE、通過すべきドアを表すD、エレベータへの乗
り口を示すVS,エレベータからの降り口を示すVE、
階段の昇り降りの起点を示すSS,終点を示すSE,エ
スカレータへの昇り降りの起点を示すCS,終点を示す
CE、作業場所を示すMなどがある。
【0030】巡回経路生成部10での経路生成方式とし
ては例えば、特願平5ー348535号に開示されてい
るように、物体の床への投影多角形と経路のキーポイン
ト間を結ぶ線分とも干渉チェックを用いる方法や、ある
いは、物体のバウンディングボックス(物体に外接する
直方体)と仮想パトロール員のバウンディングボックス
との干渉チェックによる方法や、文献(「Comput
er Graphic:Principles and
Practice」、ISBN 0ー201ー121
10ー7)に紹介されているような方法を用いる。
【0031】仮想パトロール員生成部5における生成方
法は、特願平3ー107880号あるいは特願平5ー7
4716号に開示されているように、仮想パトロール員
記憶部6の内容を入力部1より入力された身長になるよ
うに、Moragan、C.T. 、Cook、J.
S., Chapanis,A.、and Lund,
M.W.の「人間工学データハンドブック ー 機器設
計の人間工学指針」(コロナ社)などの人体の計測値を
もとに頭部や胴体、腕、脚の長さを算出し、仮想パトロ
ール員の人体を構成する。
【0032】仮想パトロール員動作生成部9は、仮想パ
トロール員生成部5で生成された仮想パトロール員を、
巡回経路生成部10で生成された経路にそって動作させ
る。この動作は、文献「仮想被験者のための動作生成手
法」(NICOGRAPH論文集1993、pp.27
0ー280)にあるように、歩行や着席などの基本動作
を用意しておき、これらを行動目標との距離に応じて、
組み合わせることにより生成される。同じ歩行でも、平
坦な場所の歩行と、階段の昇り降りと、エレベータの昇
り降りなどは異なるので、本実施例では、図5に示され
たキーポイントの属性をみて、異なる歩行動作を組み合
わせるようにしている。つまり、キーポイントの属性が
SSであれば、階段の昇り降りの起点である。属性SE
の点のy座標とを比較し、差が正であれば昇り、差が負
であれば降りの歩行動作を生成し、SSのキーポイント
点で、そこまでの平坦な場所の歩行動作との歩幅調整な
どの動作のつなぎを行う。
【0033】次に本実施例の処理の流れを図6及び図7
を用いて説明する。訓練を開始する前に、訓練者や訓練
現場の設定などを行う(ステップs1〜s6)。まず、
訓練者と同じ身体条件の仮想パトロール員を生成するの
に必要な身長等の条件(データ)は入力部1から入力さ
れる(ステップs1)。仮想パトロール員生成部5で
は、仮想パトロール員記憶部6に記憶された腕や胴体、
脚などの3次元形状データを基に、ステップs1で入力
された身長等の身体条件にあうように、仮想パトロール
員生成部5に保持されている人間工学データを参考に縮
小あるいは拡張を行い、各部を連結させて身長にあった
仮想パトロール員を生成する(ステップs2)。
【0034】次に、実際の訓練の対象となる現場、具体
的には特定の発電所や変電所等の巡回区域を、入力部1
より選択する(ステップs3)。つまり、現場環境記憶
部2に記憶されている現場データのリストを表示部7上
に呈示し、そのなかから必要な現場環境を選ぶようにす
る。あるいは該当のデータが現場環境記憶部2に記憶さ
れていない場合には、現場環境記憶部2に記憶されてい
る現場盤やドア等の物体データを配置することで、新規
に現場環境を作成することも可能である。
【0035】メモリ制御部15では、ステップs3で選
択された現場環境を現場環境記憶部2より読み込み(ス
テップs4)、さらにそれに対応する巡回経路データを
巡回経路記憶部3より読み込む(ステップs5)。
【0036】巡回経路生成部10では、読み込んだ現場
環境データと巡回経路データに基づいて、仮想パトロー
ル員が現場環境内で歩行する経路を生成する(ステップ
s6)。ここまでで、訓練者に合わせた仮想パトロール
員と訓練すべき現場環境の設定ができたので、訓練が開
始される(ステップs7)。
【0037】表示制御部16を介し、表示部7上に例え
ば、図8に示すようにパトロール訓練をする現場とそこ
を歩く訓練者の分身として、仮想の現場環境の中に存在
する仮想パトロール員とが表示される(ステップs
8)。ここで想定している現場環境は例えば、図9のよ
うな構成になっている。発電機が2機とその制御操作を
行う現場盤1機が置いてある発電室が2部屋ある。巡回
経路記憶部3に例えば、図5のような形式で記憶されて
いるキーポイントを、図9上に示してある。Sがキーポ
イント1の出発点、Dがキーポイント2のドアの点、M
がキーポイント3の作業場所の点である。これらの点を
結ぶ経路は、巡回経路生成部10が生成した経路を示し
ている。図8は出発点SとドアDの中間あたり(図9で
はP1と示されている点)を仮想パトロール員が歩行し
ている様子である。図8では、仮想パトロール員が、前
方にドアが見える廊下を歩いていることがわかる。
【0038】歩行する仮想パトロール員を中心にして、
視点が移動するように表示部7では、例えば特願平5ー
232653号に示されているような方法(視野の中央
に注視物体が位置するように、かつ視点と注視物体とを
結ぶ線と他の物体との干渉チェックを行い、他の物体に
遮られることがないようにする方法)で、視点位置と方
向の制御を行う。あるいは図10に示すように、キーポ
イントiとキーポイントi+1の途中に仮想パトロール
員がいるとき、視点位置Pは、キーポイントiとキーポ
イントi+1を結んだ線上で、仮想パトロール員(V)
から適当な距離αだけ離れた点とする方法もある。視点
方向はキーポイントiからキーポイントi+1を結ぶベ
クトル方向となる。あるいは、入力部1’からデータグ
ローブ等の3次元入力デバイスやマウス等を用いて、直
接、視点位置と方向を変更することも可能である。
【0039】仮想パトロール員は仮想パトロール員動作
生成部9の生成した動作に従って、ドアを過ぎ、現場盤
の近くの作業場所Mまで歩いていく。この間、切り替え
制御部8では、入力部1から直接操作への切り替え指示
が行われたか否かをチェックしている(ステップs
9)。直接操作への切り替えが行われると、切り替え制
御部8は、表示制御部に対し、表示部7での現場環境の
表示を仮想パトロール員の呈示から、訓練員の視野呈示
に切り替えるよう制御する(ステップs10)。つま
り、直接操作切り替え前までは、訓練員は仮想環境にい
る仮想パトロール員を見て経路を学習している(図11
のA)。直接操作切り替え後は、訓練員は仮想環境にあ
る現場盤に対して直接操作を行い、現場盤の操作を学習
している(図11のB)(ステップs11)。
【0040】現場盤への直接操作を可能にするために、
訓練員が頭部につけている位置センサより、訓練員の位
置と向きを検出する。検出した位置(X,Y,Z)は頭
部の位置なので、これを次のような式により、眼の位置
(x,y,z)に校正する。
【0041】x=X y=Y+a z=Z+b 訓練開始前に訓練員に頭部と眼の位置の校正用のパラメ
ータ、bを計測しておき校正を行う。上の式は簡単のた
めに、平行移動だけを想定したものだが、回転移動が加
わっている場合には4×4の座標変換行列を用いて校正
する。また、現場盤に対する操作は、入力部1’の訓練
員が手に付けたデータグローブや磁気センサ等の3次元
位置センサを用いて訓練員の手振りや手の位置を認識し
て、操作を行うようにしている(特願平4ー76773
号、特願平5ー234372号参照)。
【0042】眼の位置に校正した位置座標と方向を、現
場環境を表示部7に呈示するときの視点として投影を行
う(ステップs10)。例えば、丁度仮想パトロール員
が作業場所Mに到着した時点で、入力部1より、直接操
作への切り替え指示が行われたとする。切り替え指示の
直前では、表示部7には、例えば、図12のように、仮
想パトロール員が現場盤に向かっている様子が呈示され
ていたとする。切り替え指示後では、表示部7には、例
えば、図13のように、丁度訓練員自身が仮想の現場環
境にある現場盤を直接操作する状態が呈示されるように
変更になり、図13のように表示部7に呈示されている
手は、訓練員が手に装着している、例えば、データグロ
ーブ等の3次元入力デバイスの位置と方向に追随して動
き、現場盤上のレバー等を操作する。また、図13の表
示は訓練員が頭部に装着している、例えば、磁気センサ
等の3次元入力デバイスの位置と方向に追随して変化す
る。
【0043】この状態で訓練員は現場で行う種々の作業
を模擬した操作を行う。実際の操作と同様の効果を得ら
れるように、機器の動作をシミュレーションする機器動
作シミュレータ11と現場盤の各メータやレバーが連結
されている。つまり、現場盤上でレバーを操作すると、
現場環境記憶部2に例えば、図3のような形式で記憶さ
れたレバーの状態が変更され、その変更がメモリ制御部
15を介して、機器動作シミュレータ11に伝送され
る。機器動作シミュレータ11内でレバー操作に対応し
た処理が計算され、その結果が現場盤のメータの表示が
変更され表示部7に呈示される。
【0044】訓練員が正しく操作を行い、例えば、訓練
の対象になっていた異常事態の回避が行えれば、機器動
作シミュレータ11から定格運転に入ったこと表示制御
部16に伝送される。
【0045】この時点で、表示制御部16は訓練終了と
判断し(ステップ12)、訓練が終了する。あるいは訓
練途中でも、訓練員から、訓練終了の指示が入力部1よ
りなされれば(ステップs13)、その時点で訓練が終
了する。終了指示がなく、操作やり直しの指示がなけれ
ば(ステップs14)、そのまま直接操作による訓練が
継続される(ステップs9,ステップs10)。また、
直接操作から、仮想パトロール員への切り替えを指示す
れば(ステップs9),パトロール経路の終了まで、つ
まり、巡回経路の終点(図9の点E)に到着するまで
(ステップs16)、仮想パトロール員の呈示が行われ
る(ステップ8)。
【0046】訓練員が正しく操作を行えず、訓練対象の
異常事態の回避が行えない場合、情報管理部1あるいは
訓練指導者からの指示で、訓練員の直接操作のやり直し
が指示される(ステップs14)。この場合、機器動作
シミュレータ11、現場環境記憶部2の内部状態を、訓
練員が直接操作を指示した時点(図12)の状態に設定
しなおし(ステップs15)、直接訓練を再度やり直す
(ステップs10)。
【0047】仮想パトロール員が作業場所Mに到着して
も、直接操作への切り替え指示が行われない場合(ステ
ップs9)、パトロール終了ではないので(ステップs
16)、そのまま仮想パトロール員の様子が呈示される
(ステップs9)。この場合、仮想パトロール員は訓練
対象の異常事態の回避を行うための操作を仮想パトロー
ル員動作生成部9の指示により行う。訓練員はその様子
を見ることで、正しい操作方法を学習できる。
【0048】上記の実施例では、機器動作シミュレータ
は、現場経路訓練装置の構成部品となっているが、必ず
しもこれに限定されるものではない。機器動作シミュレ
ータは別の計算機上で稼動し、ネットワークを介して通
信することで情報をやりとりをすることも可能である。
また、現場環境記憶部2での記憶方式も、図2、図3、
図4の形式に限定されるものではない。 (実施例2)実施例2は実施例1の構成に加え、現場の
地図やあるいは入力手段により入力された作業者の身体
計測値に基づき算出された作業者あるいは仮想パトロー
ル員の視点位置での視野等、現場歩行に参考となる情報
を呈示するための参考情報算出部を具備することを特徴
とする表示装置である。つまり、図14の参考情報算出
部12を新たに追加するものである。
【0049】計算機化された訓練シミュレータでは、複
数の現場盤の切り替えを行うことはできるが、これらの
位置的な関係、特に複数の作業場所を結ぶ経路を学習で
きるようになっていなかった。このため、実際に現場に
いったとき、経路がわからず、目的の作業場所に到達で
きないというこが起こり得た。また、上述したようにロ
ーラスケート等を使って仮想環境内を歩行する装置で
は、装置作成の手間やコストの割には歩行感覚が得られ
ないという問題があった。
【0050】そこで、この実施例では現場盤の据え付け
られている複数の作業場所を結ぶ経路を学習できるよう
に、仮想の現場環境には、経路も実際の現場と同様に設
け、この経路を歩行している様子を、作業者の代わりに
仮想の現場環境内の経路を歩行する仮想パトロール員が
見たり、仮想パトロール員の視野を確認する事で、経路
を容易に学習できるようにした。
【0051】これにより街の経路案内では、地下から地
上に出たときの方向と、地下で示されている地図の方向
の対応付けがうまくできなかったり、方向を見失って道
に迷うことがあったが、上記したように仮想パトロール
員の視野を確認する事により、地上に出たとき見るであ
ろう風景や目的地に着くまで目にする風景を、事前に地
図と関連させて学習できるので、方向を見失って、道に
迷うことを事前に防ぐことができる。
【0052】また、HMDのような作業者の視野だけし
か表示できない状況では、仮想環境内の経路を正しく学
習できないという問題もあったが、本実施例により仮想
の現場環境全体の地図と地図内に現在地を表示すること
で、現場環境全体における位置を把握しながら、経路を
学習できるので、経路の学習が容易となる。
【0053】以下に、実施例2に付いて詳細に説明す
る。図14は実施例2の構成図である。上述したよう
に、実施例1の構成に加え、現場の地図やあるいは入力
手段1から入力された作業者の身体計測値に基づき算出
された作業者あるいは仮想パトロール員の視点位置での
視野等、現場歩行に参考となる情報を算出する参考情報
算出部12を具備している。
【0054】次に本実施例の処理の流れを図15を用い
て説明する。実施例1の処理の流れ図、図7のステップ
s8とステップs9の間に図15の点線部分(ステップ
s17〜ステップs22)が付け加わっている。つま
り、この点線部分が参考情報算出部12における処理で
ある。
【0055】図8のように現場及び仮想パトロール員の
呈示を行った後(ステップs8)、参考情報として、地
図の呈示が指示されれば(ステップs17),仮想パト
ロール員の現在方向に合わせて地図を回転して(ステッ
プ18)、表示部7に地図の呈示を行う(ステップs1
9)。
【0056】例えば、図8の状態に対して、地図の呈示
が指示されると、表示部7の一部に、図16のように、
仮想パトロール員の進行方向にあわせて、パトロールす
べき現場を網羅する地図が呈示される。仮想パトロール
員は地図上に認識しやすい方法で、例えば、図16では
位置が黒丸で、方向が黒丸に付いた矢印で表示されてい
る。あるいは、図12の状態に対して、地図呈示の指示
があると、仮想パトロール員の進行方向が図16の時と
は、90度回転しているので、地図もそれに合わせて、
90度回転させて(ステップs18)、表示している
(ステップs19)。図17の例では地図は単純に回転
しているので、「ドア」等の地図の文字が読み難くなっ
ている。そこで地図内の文字をコード化し、地図を回転
しても文字だけは回転しないようにすることで、文字を
読み易くすることも可能となる。
【0057】本実施例では、仮想パトロール員の進行方
向と地図の方向の差異が60度以上になったときに、地
図は90度単位で回転するようになっている。次に仮想
パトロール員の歩行中の視野の呈示が指示されると(ス
テップs20)、参考情報算出部12は、仮想パトロー
ル員の視点と注視点とを結んだ線を中心軸とした視野錐
(例えば、頂角を有効視野角20度とした円錐)にはい
る領域を算出し(ステップ21)、仮想パトロール員が
目にしている情景を表示部7に呈示する(ステップs2
2)。仮想パトロール員の身長は、訓練員の身長に合わ
せているので、呈示される仮想パトロール員の視野は、
訓練員が実際に、現場をパトロールするときの視野にな
っている。
【0058】例えば、図12の状態に対して、視野を呈
示すると、図18のようになる。呈示される仮想パトロ
ール員の視野は、仮想パトロール員の歩行に追随して、
再度計算され呈示されるので、訓練員は、自分が現場を
歩いたときの距離感・臨場感を感じながら、訓練するこ
とができる。
【0059】図12に対して、地図と視野の呈示の双方
が指示されると、例えば、図19のように、双方が指示
される。訓練員は、地図で現場経路全体を把握しなが
ら、曲がる場所やドア等のキーポイントでの情景を視野
により確認しながら、現場パトロールを訓練できる。従
って、初めて現場にいったとしても、迷わずに目的の場
所にたどり着ける。
【0060】実施例2の参考情報算出部12は、地図を
呈示する際、仮想パトロール員の進行方向に合わせて、
地図を90度単位で回転させているが、この方法に限定
されるものではない。地図は回転せず、北を上にして表
示し、仮想パトロール員の位置と方向だけを示すことも
可能である。あるいは、仮想パトロール員の進行方向と
地図の方向との差異が一定角度以内になるように、一定
時間経過後に地図を任意の角度回転する方法も可能であ
る。あるいは、入力部1からの訓練員の指示に従って、
指示された角度だけ回転する方法も可能である。 (実施例3)本発明に係わる実施例3の詳細を説明する
前に、まず簡単に実施例3の内容を説明する。
【0061】本実施例はユーザが目的地や自分の身長等
を入力するための、例えば、マウス等からなる入力手段
と、環境の構成を記憶している環境記憶手段と、入力手
段により入力された目的地までの経路を環境記憶手段内
に記憶された環境データから算出する経路生成手段と、
経路生成手段により生成された経路を前記入力手段によ
り入力された身長で歩行したときの視野の算出や進行方
向に合わせ地図を回転するための参考情報算出手段と、
参考手段算出手段により算出された視野や地図や写真
を、必要なものを重ね合わせて呈示するための呈示手段
とを具備するものである。
【0062】これにより、街の経路案内では、地下から
地上に出たときの方向と、地下で示されている地図の方
向の対応付けがうまくできず、方向を見失って、道に迷
うこと、特に、身長が異なるため、曲がり角の目印とな
る看板等が目に入らず、道に迷ったりすることがあった
が、本実施例では、身長に合わせた視野(具体的にはキ
ーポイントでのユーザの身長であれば目にするであろう
情景の写真)を呈示し、それを地図上に重ねて出力した
り、出力結果には曲がり角等キーとなるポイントでのユ
ーザの身長に合わせた情景が地図に重ねて表示されるの
で、地上に出たとき、実際見ている情景と地図に重ね合
わされた情景とを比較し確認しながら進めるの。したが
って、キーとなるポイントを見失わないのである。
【0063】以下に、本実施例の具体例について図20
を用いて説明する。基本的には、図14の構成と同じで
ある。ユーザが目的地や自分の身長等を入力するため
の、例えば、キーボード、マウス等からなる入力部1を
有する。
【0064】上記の環境の構成は環境記憶部13に、例
えば図21のような形式で記憶されている。入力部1か
ら入力された目的地までの経路は巡回経路生成部10に
おいて、メモリ制御部15から読み出された環境記憶部
13内の環境データから算出される。巡回経路生成部1
0により生成された経路は、参考情報算出部12におい
て、入力部1から入力された身長で歩行したときの視野
の算出や進行方向に合わせた地図の算出を行なう。参考
情報算出部12により算出された視野や地図は、表示制
御部16において必要なものを重ね合わせて表示部7に
呈示される。
【0065】図21は環境記憶部13に記憶される環境
データの内容を示すもので、環境を構成する区画ごとに
区画をxz平面に投影したときの多角形の頂点座標を、
例えば時計まわり方向に記憶している。なお、多角形の
頂点の数は固定ではないので、各区画の頂点座標の最後
にはNullが入っている。
【0066】図21の例では、区画1は4頂点からでき
ており、区画2は5頂点からできていることがわかる。
また、区画の頂点座標をy方向(高さ方向)に立ちあげ
たときの各面に貼る画像データが格納されている場所の
位置を示すポインタが、各面毎に格納されている。
【0067】図21の例では頂点(x11,z11)と
頂点(x12,z12)により構成される面(例えば、
高さはαに正規化されているとする)に貼る画像データ
へのポインタは、頂点(x11,z11)に対応して格
納されているp11になる。同様に頂点(x14,z1
4)と頂点(x11,z11)の面に貼る画像データへ
のポインタは、頂点(x14,z14)に対応して格納
されているp14になる。さらに頂点座標の最後を示す
Nullに対応して格納されている画像へのポインタ
は、その区画に存在する主要な建物の位置や名称全体の
画像データへのポインタとなっている。つまり、図21
の例では、区画1の地図としての画像イメージがp10
に格納されていることを示している。
【0068】次に本実施例の処理の流れを図22を用い
て説明する。図21のような形式の環境記憶部13の環
境データはメモリ制御部15によってを読み込まれ(ス
テップ23)、区画の各面に画像データをテクスチャマ
ッピングして環境を作成する(ステップs24)。テク
スチャマッピングについては、文献(「応用グラフィッ
クス」、pp.159ー165、太田昌孝、竹内あき
ら、大口孝之、アスキー出版局、ISBN4ー8714
8ー199ー9)で紹介されているような、一般的な表
面マッピングを用いている。今の場合、例えば、区画1
の最初の面の座標は、高さがαになっているので、(x
11,0,z11),(x11,α、z11),(x1
2,α、z12),(x12,0,z12)となるが、
この面にポインタp11で示されている場所に格納され
ているテクスチャを、座標変換して貼ることになる。同
様の作業を区画ごとのすべての面に関してテクスチャマ
ッピングを行い、環境が作成できる。
【0069】次に読み込んだ環境データをもとに、地図
を表示制御部16を介して表示部7に表示する(ステッ
プs25)。表示する地図は、例えば、図22に格納さ
れている各区画の頂点座標ら区画の輪郭線を描き、その
中に、地図イメージを書き込んで行けばよい。
【0070】つまり、図22の例では、区画1の輪郭は
(x11,z11)(x12,z12)(x13,z1
3)(x14、z14)の頂点を結べばよく、次にp1
0のところに格納されている地図イメージをその輪郭内
に書き込めばよい。その結果、例えば、図23のような
地図が表示部7上に表示される。
【0071】次にユーザは目的地や身長等を入力部1か
ら入力する(ステップs26)。目的地の入力は、例え
ば、表示部7上に表示されている地図上をマウス等のポ
インティングデバイスを使って、直接指示することで行
える。あるいは、キーボードから目的の名称を入力して
指定することも可能である。
【0072】巡回経路生成部10での経路の生成は、実
施例1や実施例2と同様の方法を用いることができる
(ステップs27)。図23に示された画面例で、X△
百貨店が目的に指定されたとする。と、例えば、図23
に示されるように、現在地からの経路が生成され、表示
部7に表示されている地図上に表示される。
【0073】次に開始が指示されると(ステップs2
8)、地図案内が開始される。具体的には、図23で示
された経路上をユーザが移動していく時に見るであろう
視野の算出が参考情報算出部12において行われる(ス
テップs29)。経路上の各位置で、ステップs26で
入力されたユーザの身長にあわせた視野の算出を行な
う。なお、視野の算出方法は、実施例2のものと同様で
ある。
【0074】算出した視野は、表示制御部16を介し、
例えば図24のように表示される(ステップ30)。経
路上に、現在地が、進行方向を示す矢印付きの黒丸で示
されている。ここにユーザが立ったときに見える算出さ
れた視野が、その黒丸からズームアップして出てくるよ
うに、地図の下方に表示されている。この視野は、黒丸
の進行に伴って随時変更されていく。
【0075】キーポイント(つまり角等、道案内でポイ
ントになる箇所)に来ると(ステップ31)、そのとき
の視野を現在地(つまりキーポイントの座標値)に対応
させて、参考情報算出部12内に一時的に記憶する(ス
テップ32)。例えば、「X△スタジオ」と「○X区役
所」の間のある角に来たときの視野は、図25の下部に
表示されるようになっている。この下部の表示が、参考
情報算出部12内に一時的に、出力が指示されるまで、
格納される。
【0076】同様の処理が現在地が目的に着くまで行わ
れる(ステップs33)。目的地に着くと、道案内は終
了する。このとき地図の出力を指示する(ステップs3
4)と、ステップs32でキーポイント毎にキーポイン
トの座標に対応させて格納した視野を呼び出して、例え
ば、キーポイントの座標との対応がわかるような形式
で、図26のように出力する(ステップ35)。図26
のように出力された地図を持っていれば、ユーザはキー
ポイントで自分が見るべき視野(地図上に印刷された)
と実際の視野とを見比べることができるので、自分が正
しい方向に進んでいるか、いなかを簡単に確認しながら
進んでいくことができる。
【0077】ステップs28で経路案内を開始せず、直
接地図の出力を指示した場合は、重畳する視野がないの
で、図23の状態の地図を出力する。なお、図21の地
図の格納方式は、画像イメージとして記憶する場合であ
るが、必ずしもこれに限定されるものではない。各区画
に存在する主要建築物の位置座標と名称のコードからな
るリストの先頭アドレスを記憶するようにして、主要建
築物に直接アクセスしたり、主要建築物の名称からの検
索が行えるようにしておくことも可能である。
【0078】図22のステップs24では、対象となる
すべての区画に対して、テクスチャマッピングを行い、
環境を作成しているが、必ずしもそれに限定されるもの
ではない。例えば、経路生成のステップ27の後に、環
境作成のステップ24の処理を行うようにして、作成さ
れた経路の近辺だけ(つまり、目的地まで歩いて見える
範囲だけ)、テクスチャマッピングを行えば、テクスチ
ャマッピングの処理の負荷を減じることができる。
【0079】
【発明の効果】この発明によれば、種々の大規模プラン
トの現場等のコスト・時間をかけずに生成することがで
きる。仮想の環境モデルにおける仮想の人間のモデルの
走行経路及び走行の様子を見る事で、経路を容易に学習
できるようになる。また、仮想の人間のモデルの視野
(風景や目的地に着くまで目にする風景等も含む)につ
いても容易に学習できるようなる。
【図面の簡単な説明】
【図1】本発明の実施例1の構成図
【図2】実施例1中の現場環境記憶部における3次元物
体の記憶例を示す図
【図3】実施例1中の現場環境記憶部における属性の記
憶例を示す図
【図4】実施例1中の現場環境記憶部におけるオブジェ
クト間の従属関係の記憶例を示す図
【図5】実施例1中の巡回経路記憶部における経路の記
憶例を示す図
【図6】実施例1中の一連の現場パトロール訓練の流れ
【図7】実施例1中の一連の現場パトロール訓練の流れ
【図8】実施例1中の仮想パトロール員呈示の画面例を
示す図
【図9】実施例1中の対象現場環境の構成の一例を示す
【図10】実施例1中の視点の設定例を示す図
【図11】実施例1中の仮想パトロール員と直接訓練と
の関連図
【図12】実施例1中の仮想パトロール員呈示の画面例
を示す図
【図13】実施例1中の直接訓練時の画面例を示す図
【図14】実施例2の概略構成図
【図15】実施例2中の処理の流れ図
【図16】実施例2中の画面例を示す図
【図17】実施例2中の画面例を示す図
【図18】実施例2中の画面例を示す図
【図19】実施例2中の画面例を示す図
【図20】実施例3の概略構成図
【図21】実施例3中の環境記憶部における記憶形式の
一例を示す図
【図22】実施例3中の処理の流れ図
【図23】実施例3中の画面例を示す図
【図24】実施例3中の画面例を示す図
【図25】実施例3中の画面例を示す図
【図26】実施例3中の画面例を示す図
【符号の説明】
1、1’ー入力部、2ー現場環境記憶部、3ー巡回経路
記憶部、5ー仮想パトロール員生成部、6ー仮想パトロ
ール員記憶部、7ー表示部、8ー切り替え制御部、9ー
仮想パトロール員動作生成部、10ー巡回経路生成部、
11ー機器動作シミュレータ、12ー参考情報算出部、
13ー環境記憶部、

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】所定の環境モデル下で、仮想的に生成した
    人間のモデルを動作させ、この動作を表示する表示方法
    において、 前記人間のモデルの動作により前記環境モデルに対して
    なされる仮想操作と、この環境モデルに対する直接操作
    とを切り替えながら前記人間のモデルの動作を表示する
    ことを特徴とする表示方法。
  2. 【請求項2】所定の環境モデル、仮想的に生成した人間
    のモデル、及びこの所定の環境モデル下で仮想的に生成
    した人間のモデルを動作させる経路の各々のデータを記
    憶する記憶手段と、 この記憶手段に記憶されたデータを表示する表示手段
    と、 前記記憶手段に記憶された人間のモデルの動作による前
    記環境モデルに対する仮想操作と、この環境モデルに対
    する直接操作とを切り替える切り替え手段とを具備した
    ことを特徴とする表示装置。
  3. 【請求項3】請求項2記載の表示装置に、仮想的に生成
    した人間のモデルの視野情報、あるいは所定の環境モデ
    ルを把握する上で参考となる情報を呈示する手段を付加
    することをとする表示装置。
JP07469394A 1994-04-13 1994-04-13 仮想環境表示装置および方法 Expired - Fee Related JP3214776B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07469394A JP3214776B2 (ja) 1994-04-13 1994-04-13 仮想環境表示装置および方法
US08/419,421 US5754189A (en) 1994-04-13 1995-04-10 Virtual environment display apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07469394A JP3214776B2 (ja) 1994-04-13 1994-04-13 仮想環境表示装置および方法

Publications (2)

Publication Number Publication Date
JPH07282299A true JPH07282299A (ja) 1995-10-27
JP3214776B2 JP3214776B2 (ja) 2001-10-02

Family

ID=13554571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07469394A Expired - Fee Related JP3214776B2 (ja) 1994-04-13 1994-04-13 仮想環境表示装置および方法

Country Status (2)

Country Link
US (1) US5754189A (ja)
JP (1) JP3214776B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256873A (ja) * 2002-03-05 2003-09-12 Matsushita Electric Works Ltd 商品擬似体験システム
JP2006277368A (ja) * 2005-03-29 2006-10-12 Mazda Motor Corp 車両企画支援システム
JP2010237881A (ja) 2009-03-30 2010-10-21 Able Seed Co Ltd 道案内装置、道案内システム、道案内方法、及びプログラム
JP2015121756A (ja) * 2013-12-25 2015-07-02 株式会社日立国際電気 救助訓練システム
JP2017084201A (ja) * 2015-10-30 2017-05-18 セコム株式会社 警備シミュレーション装置
JP2017084004A (ja) * 2015-10-26 2017-05-18 セコム株式会社 警備シミュレーション装置
JP2019049631A (ja) * 2017-09-08 2019-03-28 三菱電機株式会社 昇降機用作業訓練装置
WO2019171777A1 (ja) * 2018-03-08 2019-09-12 コニカミノルタ株式会社 プラント監視システムのシミュレーション装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
JPH09152954A (ja) * 1995-11-30 1997-06-10 Toshiba Corp 情報提示方法及び情報提示装置
GB9525047D0 (en) * 1995-12-07 1996-02-07 Philips Electronics Nv Virtual body control device
EP0825506B1 (en) 1996-08-20 2013-03-06 Invensys Systems, Inc. Methods and apparatus for remote process control
CA2213884C (en) * 1996-08-21 2001-05-22 Nippon Telegraph And Telephone Corporation Method for generating animations of a multi-articulated structure, recording medium having recorded thereon the same and animation generating apparatus using the same
US5912675A (en) * 1996-12-19 1999-06-15 Avid Technology, Inc. System and method using bounding volumes for assigning vertices of envelopes to skeleton elements in an animation system
US6226001B1 (en) * 1997-03-07 2001-05-01 International Business Machines Corporation Viewer interactive object with multiple selectable face views in virtual three-dimensional workplace
US6400368B1 (en) * 1997-03-20 2002-06-04 Avid Technology, Inc. System and method for constructing and using generalized skeletons for animation models
US6064389A (en) * 1997-05-27 2000-05-16 International Business Machines Corporation Distance dependent selective activation of three-dimensional objects in three-dimensional workspace interactive displays
JP4240343B2 (ja) * 1998-12-19 2009-03-18 株式会社セガ 画像生成装置および画像生成方法
US6289299B1 (en) * 1999-02-17 2001-09-11 Westinghouse Savannah River Company Systems and methods for interactive virtual reality process control and simulation
US7089530B1 (en) 1999-05-17 2006-08-08 Invensys Systems, Inc. Process control configuration system with connection validation and configuration
WO2000070417A1 (en) 1999-05-17 2000-11-23 The Foxboro Company Process control configuration system with parameterized objects
US6788980B1 (en) 1999-06-11 2004-09-07 Invensys Systems, Inc. Methods and apparatus for control using control devices that provide a virtual machine environment and that communicate via an IP network
US6736642B2 (en) * 1999-08-31 2004-05-18 Indeliq, Inc. Computer enabled training of a user to validate assumptions
US6563529B1 (en) 1999-10-08 2003-05-13 Jerry Jongerius Interactive system for displaying detailed view and direction in panoramic images
JP3390806B2 (ja) * 1999-12-28 2003-03-31 株式会社テイエルブイ 位置認識装置及びこの位置認識装置を備えた測定装置並びに測定システム
US6636210B1 (en) * 2000-03-03 2003-10-21 Muse Corporation Method and system for auto-navigation in a three dimensional viewing environment
JP2002032701A (ja) * 2000-07-14 2002-01-31 Kajima Corp 建築物の性能解析方法及び装置
JP2002258740A (ja) * 2001-03-02 2002-09-11 Mixed Reality Systems Laboratory Inc 画像記録装置及び画像再生装置とそれらの方法
US7200819B2 (en) * 2001-07-03 2007-04-03 Research In Motion Limited Graphics stack system and method
GB2391147A (en) * 2002-07-19 2004-01-28 Kaydara Inc Generating animation data simply via display
US20050071306A1 (en) * 2003-02-05 2005-03-31 Paul Kruszewski Method and system for on-screen animation of digital objects or characters
US7173623B2 (en) * 2003-05-09 2007-02-06 Microsoft Corporation System supporting animation of graphical display elements through animation object instances
US7046151B2 (en) * 2003-07-14 2006-05-16 Michael J. Dundon Interactive body suit and interactive limb covers
US20060274070A1 (en) 2005-04-19 2006-12-07 Herman Daniel L Techniques and workflows for computer graphics animation system
US20070291034A1 (en) * 2006-06-20 2007-12-20 Dones Nelson C System for presenting a navigable virtual subway system, and method for operating and using the same
WO2009155483A1 (en) 2008-06-20 2009-12-23 Invensys Systems, Inc. Systems and methods for immersive interaction with actual and/or simulated facilities for process, environmental and industrial control
US8463964B2 (en) 2009-05-29 2013-06-11 Invensys Systems, Inc. Methods and apparatus for control configuration with enhanced change-tracking
US8127060B2 (en) 2009-05-29 2012-02-28 Invensys Systems, Inc Methods and apparatus for control configuration with control objects that are fieldbus protocol-aware
US9147284B2 (en) 2009-10-05 2015-09-29 Myles L. Strohl System and method for generating a computer model to display a position of a person
JP5687940B2 (ja) * 2011-03-31 2015-03-25 株式会社日立製作所 情報表示端末
CN104464428A (zh) * 2014-11-12 2015-03-25 国家电网公司 一种虚实结合的开关柜检修培训系统及方法
KR20210030279A (ko) * 2018-07-04 2021-03-17 소니 주식회사 정보 처리 장치 및 방법, 그리고 프로그램
KR102272507B1 (ko) * 2019-06-11 2021-07-01 엘지전자 주식회사 공기조화기 및 그 제어방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3899662A (en) * 1973-11-30 1975-08-12 Sperry Rand Corp Method and means for reducing data transmission rate in synthetically generated motion display systems
JPH0738198B2 (ja) * 1985-11-14 1995-04-26 株式会社日立製作所 設計支援方法及びその装置
US4807202A (en) * 1986-04-17 1989-02-21 Allan Cherri Visual environment simulator for mobile viewer
US5179638A (en) * 1990-04-26 1993-01-12 Honeywell Inc. Method and apparatus for generating a texture mapped perspective view
US5261041A (en) * 1990-12-28 1993-11-09 Apple Computer, Inc. Computer controlled animation system based on definitional animated objects and methods of manipulating same
JP2671619B2 (ja) * 1991-03-06 1997-10-29 富士通株式会社 映像生成処理装置
US5490239A (en) * 1992-10-01 1996-02-06 University Corporation For Atmospheric Research Virtual reality imaging system
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256873A (ja) * 2002-03-05 2003-09-12 Matsushita Electric Works Ltd 商品擬似体験システム
JP2006277368A (ja) * 2005-03-29 2006-10-12 Mazda Motor Corp 車両企画支援システム
JP4636318B2 (ja) * 2005-03-29 2011-02-23 マツダ株式会社 車両企画支援システム
JP2010237881A (ja) 2009-03-30 2010-10-21 Able Seed Co Ltd 道案内装置、道案内システム、道案内方法、及びプログラム
JP2015121756A (ja) * 2013-12-25 2015-07-02 株式会社日立国際電気 救助訓練システム
JP2017084004A (ja) * 2015-10-26 2017-05-18 セコム株式会社 警備シミュレーション装置
JP2017084201A (ja) * 2015-10-30 2017-05-18 セコム株式会社 警備シミュレーション装置
JP2019049631A (ja) * 2017-09-08 2019-03-28 三菱電機株式会社 昇降機用作業訓練装置
WO2019171777A1 (ja) * 2018-03-08 2019-09-12 コニカミノルタ株式会社 プラント監視システムのシミュレーション装置
JPWO2019171777A1 (ja) * 2018-03-08 2021-03-04 コニカミノルタ株式会社 プラント監視システムのシミュレーション装置

Also Published As

Publication number Publication date
JP3214776B2 (ja) 2001-10-02
US5754189A (en) 1998-05-19

Similar Documents

Publication Publication Date Title
JP3214776B2 (ja) 仮想環境表示装置および方法
CN113096252B (zh) 一种混合增强教学场景中多移动机制融合方法
Colle et al. The room effect: Metric spatial knowledge of local and separated regions
Vince Virtual reality systems
US6078329A (en) Virtual object display apparatus and method employing viewpoint updating for realistic movement display in virtual reality
KR101262848B1 (ko) 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치
Tlauka et al. The effect of landmarks on route-learning in a computer-simulated environment
US7117135B2 (en) System for providing a high-fidelity visual display coordinated with a full-scope simulation of a complex system and method of using same for training and practice
CN106530894A (zh) 一种采用增强现实技术的飞行训练器虚拟平显方法及系统
CN108230440A (zh) 基于虚拟增强现实的化工全流程操作系统及方法
CN112099627B (zh) 一种基于人工智能的城市设计虚拟现实即时交互平台
US20130120372A1 (en) Apparatus and method for providing mixed reality contents for learning through story-based virtual experience
Okapuu-von Veh et al. Design and operation of a virtual reality operator-training system
CN106951076A (zh) 基于bim的高速公路模型vr展示方法
Kondyli et al. Rotational locomotion in large-scale environments: A survey and implications for evidence-based design practice
CN115933868A (zh) 翻转讲台的立体综合教学场系统及其工作方法
Arns A new taxonomy for locomotion in virtual environments
Ayyanchira et al. Toward cross-platform immersive visualization for indoor navigation and collaboration with augmented reality
CN112037090B (zh) 基于vr技术和6dof姿态跟踪的知识教育系统
JP2000122520A (ja) 仮想現実シミュレータ及びそのシミュレーション方法
JP6253834B1 (ja) 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
Colle et al. The room effect: Exploring paths and rooms in a desktop virtual environment with objects grouped categorically and spatially
US20230162458A1 (en) Information processing apparatus, information processing method, and program
CN113989462A (zh) 一种基于增强现实的铁路信号室内设备维护系统
Rossmann et al. Integrating Virtual Reality, Motion Simulation and a 4D GIS

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080727

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090727

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090727

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130727

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees