JP7000397B2 - 仮想現実制御システム - Google Patents

仮想現実制御システム Download PDF

Info

Publication number
JP7000397B2
JP7000397B2 JP2019193318A JP2019193318A JP7000397B2 JP 7000397 B2 JP7000397 B2 JP 7000397B2 JP 2019193318 A JP2019193318 A JP 2019193318A JP 2019193318 A JP2019193318 A JP 2019193318A JP 7000397 B2 JP7000397 B2 JP 7000397B2
Authority
JP
Japan
Prior art keywords
user
virtual reality
authority
image
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019193318A
Other languages
English (en)
Other versions
JP2021068209A (ja
Inventor
フーン ソン、チャエ
ホ カン、セ
Original Assignee
スコネック エンターテインメント カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スコネック エンターテインメント カンパニー リミテッド filed Critical スコネック エンターテインメント カンパニー リミテッド
Publication of JP2021068209A publication Critical patent/JP2021068209A/ja
Application granted granted Critical
Publication of JP7000397B2 publication Critical patent/JP7000397B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

[関連出願の相互参照]
本出願は、2019年10月23日に提出された韓国特許出願第10-2019-0132026号の優先権と利益を主張し、その開示はその全体が参照により本明細書に組み込まれる。
本開示は、仮想現実制御システムに関する。
[関連技術の説明]
仮想現実は、現実に追加された仮想情報、又はプログラムによって生成された仮想現実画像として、現実世界の対象物体の状態をユーザに提供する技術であり得る。
このような仮想現実を提供する技術には、ユーザ又は物体などの対象物体の状態に関する現実世界で提供される情報に基づいて、プログラムを用いて仮想空間、仮想キャラクタ、仮想物体を作成する技術が含まれ得る。この技術では、様々なセンサを使用して、対象物体の状態に関する情報を取得できる。
仮想現実システムを使用して、様々な災害状況をユーザに提供することができ、仮想現実を体験しているユーザの没入感を改善する方法に関する研究が活発に行われている。
本開示の1つの目的は、化学事故対応訓練コンテンツの権限に従ってユーザに異なる役割を割り当て、それによりユーザが適切な訓練を実行できるようにする仮想現実システムを提供することである。
本開示の1つの一般的な態様によれば、対象物体に光を放出し、対象物体から光を受光して、光信号を検出するように構成されたセンサと、画像を第1ユーザに出力するように構成された第1ディスプレイと、画像を第2ユーザに出力するように構成された第2ディスプレイと、第1ディスプレイ及び第2ディスプレイのうちの少なくとも1つを制御するように構成された少なくとも1つのコントローラと、を備える仮想現実制御システムが提供され、コントローラは、光信号に基づいて第1ユーザに関する第1位置データと第2ユーザに関する第2位置データとを取得し、第1位置データに基づき第1ディスプレイに第1領域及び第2領域を備える画像を出力するように構成され、第1ユーザは第1権限を有し、第2ユーザは第2権限を有し、第1権限が第2権限より高い権限であり、第1位置データが第1領域に位置するときは、第1画像が出力され、第2位置データが第1領域に位置するときは、通知画像が第2ディスプレイに出力される。
本開示の上記及び他の目的、特徴、及び利点は、添付の図面を参照してその例示的な実施形態を詳細に説明することにより、当業者により明らかになるであろう。
本開示の一実施形態による仮想現実制御システムを示す図である。
本開示の一実施形態による検出デバイスを示す図である。
本開示の一実施形態によるサーバを示す図である。
本開示の一実施形態による補助計算デバイスを示す図である。
本開示の一実施形態によるウェアラブルディスプレイデバイスを示す図である。
本開示の一実施形態による訓練制御システムを示す図である。
一実施形態による仮想現実制御システムの行動後レビュー(AAR)システムを示す図である。
本開示の一実施形態による仮想現実制御システムの実装例を示す図である。
本開示の一実施形態による対象物体を追跡する方法を示す図である。
本開示の一実施形態によるウェアラブルディスプレイデバイスを介して仮想現実画像を出力する例を示す図である。
本開示の一実施形態による仮想現実画像を示す図である。
本開示の一実施形態による追跡領域に配置された実物体ROを示す図である。
一実施形態による追跡領域を示す図である。そして
一実施形態による訓練シナリオによる移動線を示す図である。 一実施形態による訓練シナリオによる移動線を示す図である。 一実施形態による訓練シナリオによる移動線を示す図である。 一実施形態による訓練シナリオによる移動線を示す図である。
一実施形態による仮想現実制御システムは、対象物体に光を放出し、対象物体から光を受光して、光信号を検出するように構成されたセンサと、画像を第1ユーザに出力するように構成された第1ディスプレイと、画像を第2ユーザに出力するように構成された第2ディスプレイと、第1ディスプレイ及び第2ディスプレイのうちの少なくとも1つを制御するように構成された少なくとも1つのコントローラと、を備えることができ、コントローラは、光信号に基づいて第1ユーザに関する第1位置データと第2ユーザに関する第2位置データとを取得し、第1領域及び第2領域を備える画像を第1位置データに基づき第1ディスプレイに出力するように構成され、第1ユーザは第1権限を有し、第2ユーザは第2権限を有し、第1権限が第2権限より高い権限であり、第1位置データが第1領域に位置するときは、第1画像が出力され、第2位置データが第1領域に位置するときは、通知画像が第2ディスプレイに出力される。
通知画像は、第2ユーザの視野に対応する画像でなくてもよい。
第2ユーザが、第1ユーザによって移譲される第1権限を有する場合において、第2位置データが第1領域に位置するときは、第2ユーザの視野に対応する画像が出力され得る。
第1権限及び第2権限は、予め設定された権限である場合がある。
コントローラは、第1ユーザと第2ユーザとの間の第1領域に最初に位置するユーザに、より高い権限を割り当てることができる。
シミュレーションは、第1権限及び第2権限に従って、異なるシナリオで実行できる。
評価は、第1権限及び第2権限に従って、異なる評価項目で実行できる。
コントローラは、第1権限及び第2権限に従って、第1ユーザ及び第2ユーザの各々が第1ディスプレイ及び第2ディスプレイの各々に移動する移動経路を表示してもよい。
コントローラは、第1ディスプレイ及び第2ディスプレイの各々に目的地への移動経路を表示してもよく、移動経路は最短距離ではない。
コントローラは、第1ディスプレイ及び第2ディスプレイの各々に目的地への移動経路を表示し、コントローラは、第1ユーザの移動が完了した後に第2ユーザの移動経路が表示されるように制御する。
以下、本開示の例示的な実施形態について、添付図面を参照して詳細に説明する。一方、本開示の趣旨は、提案された実施形態に限定されず、本開示が属する分野の当業者は、さらなる遡及的な開示又は別の実施形態を容易に提案することができ、これは、本開示の趣旨から逸脱することなく、別の構成要素の追加、修正、及び削除を介して本開示の趣旨に含まれる。
以下の説明において、実施形態の図面に示される同一の範囲内で同一の機能を有する構成要素は、同一の参照番号を用いて示される。
本開示は、空間及び時間の制約又は実装或いは発生の制限のために体験することが困難な状況をユーザが体験できるように仮想現実を提供し得る仮想現実制御システムに関する。
ここで、仮想現実は現実世界とは異なる場合があり、プログラムによって作成された人工的な環境である場合がある。
このような仮想現実は一般に、プログラムを使用して現実から分離された仮想空間を作成し、仮想空間の画像を提供する仮想現実(VR)、現実世界に仮想画像を重ね合わせることにより単一の画像を提供する拡張現実(AR)、現実世界と仮想現実を融合して仮想空間を提供し、仮想空間の画像を提供する複合現実(MR)に分類され得る。
以下の仮想現実の説明において、仮想現実は、上述のVR、AR、及びMRだけでなく、様々な種類の仮想空間を提供する仮想環境を指す場合がある。
以下、図1を参照して、本発明の一実施形態による仮想現実感を提供する仮想現実感制御システム10について説明する。
図1は、本開示の一実施形態による仮想現実制御システム10を示す図である。
図1を参照すると、仮想現実制御システムは、検出デバイス100、サーバ200、補助計算デバイス300、ウェアラブルディスプレイデバイス400、入力デバイス500、制御システム1000、及び訓練データベース(DB)サーバ1300を備えることができる。
一実施形態によれば、検出デバイス100はサーバ200に接続されてもよい。
検出デバイス100は、対象物体を追跡することにより検出されたデータを取得してもよい。
一実施形態による対象物体は、ウェアラブルディスプレイデバイス400を介して出力される画像に影響を及ぼす物体であり得る。例えば、対象物体は、ウェアラブルディスプレイデバイス400、ユーザ、入力デバイス500、及びユーザの近くに位置する物体など、基準点又は特徴点を有する物体のうちの少なくとも1つを備えてもよい。
加えて、一実施形態による対象物体の追跡は、現実環境における対象物体の位置に関するデータを取得することを意味してもよい。
例えば、対象物体を追跡することにより、現実環境における対象物体の動きに応じて変化する位置のデータが取得され得る。対象物体の位置データは、予め定められた間隔で取得されてもよいが、これに限定されない。
一実施形態によれば、検出デバイス100は、検出データをサーバ200に提供してもよい。
一実施形態によれば、サーバ200は、検出デバイス100及び補助計算デバイス300に接続されてもよい。
サーバ200は、接続されているデバイスからデータを取得してもよい。
一実施形態によれば、サーバ200は、検出データ、検出デバイス100により取得された画像データ、及び検出デバイス100から検出デバイス100の状態データのうちの少なくとも1つを取得してもよい。
加えて、サーバ200は、以下で説明されるいくつかの実施形態による様々なデータを取得することができる。
一実施形態によれば、サーバ200はそれに接続されたデバイスを制御することができる。
一実施形態によれば、サーバ200は、補助計算デバイス300又はウェアラブルディスプレイデバイス400を制御してもよい。
一例では、サーバ200は、補助計算デバイス300にインストールされたプログラム又はアプリケーションの駆動を制御することができる。より具体的には、サーバ200は、補助計算デバイス300にインストールされるプログラム又はアプリケーションの開始及び/又は終了を制御することができる。
別の例では、サーバ200は、検出デバイス100の動作に必要な様々な設定を提供してもよい。
また、サーバ200は、検出データに基づいて、対象物体の位置データを生成してもよいし、仮想現実における対象物体の位置に対応する仮想位置データを生成してもよい。
また、サーバ200は、補助計算デバイス300で実行されるプログラム又はアプリケーションの認証を実行してもよい。
一実施形態によるサーバ200の機能は、上記の機能に限定されず、実施形態によっては、様々な機能を実行するサーバ200が提供されてもよい。
また、一実施形態によるサーバ200は、必ずしも単一の物理デバイスとして提供されず、上記の機能から細分化された個別の機能を実行する複数のデバイスとして提供されてもよい。
例えば、サーバ200は、検出デバイス100に接続され、検出データに基づいて、位置データを取得するように構成された検出サーバ、システムに設けられたデバイスの一部を制御するように構成された運用サーバ、仮想現実制御システム10のデバイスのうち少なくとも1つのデバイスで実行されるプログラム又はアプリケーションの認証を実行するように構成されたライセンスサーバに分割され得、関連する機能は、それぞれのサーバによって実行され得る。
一方、サーバ200には、補助計算デバイス300が入力デバイス500から取得した入力信号、又は入力信号に基づく入力データが提供されてもよい。
入力データは、物体などに関するユーザの選択データ、入力デバイス500を介した入力動作に関するデータ、及び入力デバイス500の照準方向に関する照準データを含んでもよい。
補助計算デバイス300は、検出デバイス100、サーバ200、ウェアラブルディスプレイデバイス400、及び入力デバイス500のうちの少なくとも1つに接続され得る。
また、補助計算デバイス300は、制御システム1000に接続されてもよい。
補助計算デバイス300は、サーバ200から取得した位置データに基づいて、仮想位置データを計算してもよい。
あるいは、補助計算デバイス300は、検出デバイス100から取得した検出データを処理することにより、対象物体の位置データを計算してもよいし、仮想位置データを計算してもよい。
補助計算デバイス300は、予め記憶されたプログラム又はアプリケーションを通じて、ウェアラブルディスプレイデバイス400を介してユーザに画像を提供してもよい。
加えて、補助計算デバイス300は、ウェアラブルディスプレイデバイス400を介して提供される音声データを提供してもよい。
一実施形態によれば、補助計算デバイス300は、予めインストールされたプログラム又はアプリケーションを通じて、位置データに基づいてユーザに提供される画像を取得することができる。
また、補助計算デバイス300は、入力デバイス500から取得した入力信号に基づいて入力データを取得してもよい。
加えて、補助計算デバイス300は、取得された入力データを考慮に入れることにより、ユーザに提供される画像を取得してもよい。
ウェアラブルディスプレイデバイス400は、補助計算デバイス300に接続されてもよい。
ウェアラブルディスプレイデバイス400は、仮想現実の画像をユーザに提供してもよい。
ウェアラブルディスプレイデバイス400は、補助計算デバイス300から取得した仮想現実画像をユーザに視覚的に出力してもよい。
また、ウェアラブルディスプレイデバイス400は、補助計算デバイス300から取得した音声データを出力してもよい。
入力デバイス500は、仮想現実に反映されるユーザの入力に関する信号を取得してもよい。
入力デバイス500は、補助計算デバイス300に接続されてもよい。
入力デバイス500は、補助計算デバイス300へのユーザの入力に対応する入力信号を提供してもよい。
入力デバイス500は、ユーザの動きに対応する信号を取得するための加速度センサ、ジャイロスコープ、ジャイロセンサ、微小電気機械システム(MEMS)、地磁気センサ、慣性測定センサ(IMIU)、光学センサ、照度センサ、フォトセンサ、赤外線センサ、カラーセンサ、深度センサ、電磁波センサなどを備えてもよい。
さらに、入力デバイス500は、ユーザに関する信号、慣性を取得するためのボタン、スイッチ、ジョグシャトル、ホイールなどを備えることができる。さらに、入力デバイス500は、有線通信及び無線通信のうちの少なくとも1つを介して補助計算デバイス300に接続されてもよい。
また、入力デバイス500は、補助計算デバイス300と通信するための通信モジュールを備えることができる。
制御システム1000は、サーバ200に接続されてもよい。あるいは、制御システム1000は、補助計算デバイス300に接続されてもよい。制御システム1000は、サーバ200に備えられる構成要素であってもよい。制御システム1000には、外部要員が訓練を制御できるようにするインタフェースが設けられてもよい。
制御システム1000は、訓練制御システム1100及び行動後レビュー(AAR)システム1200を備え得る。
訓練制御システム1100は、監督者などの外部要員が訓練状況を設定し、訓練状況を進めることを可能にするシステムであり得る。
訓練制御システム1100は、ユーザが外部要員によって設定された訓練状況に基づいて訓練を実施できるように、補助計算デバイス300及びサーバ200のうちの少なくとも1つを制御することができる。
AARシステム1200は、訓練プロセス及び結果データを記憶してもよい。AARシステム1200は、記憶された訓練データに基づいてレビューするコンテンツをユーザに提供してもよい。AARシステム1200は、訓練生を評価し、評価結果をユーザに提供し得る。
訓練DBサーバ1300は、訓練シナリオを記憶してもよい。制御システム1000は、訓練DBサーバ1300の記憶されたデータをロードして、サーバ200及び補助計算デバイス300のうちの少なくとも1つを制御し、それにより、ユーザが訓練を実施できるようにすることができる。
訓練DBサーバ1300は、訓練プロセス中に生成されるユーザデータ及び訓練データを記憶してもよい。
訓練DBサーバ1300は、制御システム1000とは別個のサーバとして実装されてもよいし、制御システム1000の一部分として実装されてもよい。また、制御システム1000及び訓練DBサーバ1300は、サーバ200の一部分として実装されてもよい。
図1は、入力デバイス500が補助計算デバイス300に接続されることを示しているが、実施形態はこれに限定されず、入力デバイス500は選択に応じて様々な接続形態で提供され得る。
例えば、入力デバイス500は、サーバ200及びウェアラブルディスプレイデバイス400に接続され、それらに入力信号を提供し得る。
上述した仮想現実制御システム10は、説明の便宜上の一例に過ぎない。一実施形態による仮想現実制御システム10は、図1に示す構成及び接続関係に限定されず、選択に応じて様々な形式で提供され得る。
一例では、補助計算デバイス300及びウェアラブルディスプレイデバイス400は1つのデバイスとして提供されてもよく、この場合、補助計算デバイス300で実行される動作はウェアラブルディスプレイデバイス400で実装されてもよい。
ただし、以下の様々な実施形態の説明では、説明の便宜上、仮想現実制御システム10を例として説明する。
以下、図2を参照して、本開示の一実施形態による検出デバイス100について説明する。
図2は、本開示の一実施形態による検出デバイスを示す図である。
図2を参照すると、検出デバイス100は、発光部110とセンサ120とを備えることができる。
発光部110は、追跡のために、信号を対象物体に、又は対象物体の近傍に投射してもよい。
一例では、発光部110は、可視光、赤外光などの光信号を投射する発光デバイスとして提供されてもよい。
より具体的には、発光部は、可視光発光ダイオード(LED)、赤外線LEDなどとして提供されてもよい。
センサ120は、外部ソースから信号を取得してもよい。
一例では、センサ120は、発光部110から投射された信号に対応する信号を取得することができる。
別の例では、センサ120は、対象物体に提供されたマーカによって反射された光に関する信号を取得してもよい。
例えば、センサ120は、イメージセンサ、光学センサ、照度センサ、フォトセンサ、赤外線センサ、カラーセンサ、深度センサ、電磁波センサなどとして提供されてもよい。
図3は、本開示の一実施形態によるサーバ200を示す図である。
図3を参照すると、サーバ200は、サーバ通信部210、サーバ記憶部220、サーバ入力部230、サーバコントローラ240、及びサーバディスプレイ250を備えることができる。
サーバ通信部210は、検出デバイス100、補助コンピューティングデバイス300、ウェアラブルディスプレイデバイス400、及び入力デバイス500のうちの少なくとも1つに接続され、そこから又はそこへデータを取得又は提供することができる。
サーバ通信部210は、有線通信及び無線通信のうちの少なくとも1つを介して、検出デバイス100、補助計算デバイス300、ウェアラブルディスプレイデバイス400、及び入力デバイス500のうちの少なくとも1つに接続され得る。
例えば、無線通信には、Wi-Fiネットワーク、第3世代(3G)ネットワーク、ロングタームエボリューション(LTE)ネットワーク、5Gネットワーク、及び長距離(LoRA)、車両環境における無線アクセス(WAVE)、ビーコン、ZigBee(登録商標)、Bluetooth(登録商標)、Bluetooth(登録商標)低エネルギーなどのモバイル通信ネットワークが備えられ得る。
加えて、有線通信は、ツイストペアケーブル、同軸ケーブル、光ファイバーケーブルなどを備えてもよい。
サーバ通信部210は、有線通信及び無線通信のうちの少なくとも1つを提供する通信モジュールとして提供されてもよい。
サーバ記憶部220は、データを記憶することができる。
サーバ記憶部220は、外部ソースから取得されたデータを記憶してもよい。
さらに、サーバ記憶部220は、サーバ200の動作に必要なデータを記憶してもよい。
例えば、サーバ記憶部220は、ハードディスク、フロッピーディスク、磁気テープなどの磁気媒体、コンパクトディスク読み取り専用メモリ(CD-ROM)などの光学媒体、フロティカルディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フラッシュメモリ、ソリッドステートドライブ(SSD)、CD-ROM、DVD-ROM、ユニバーサルシリアルバス(USB)などの光磁気媒体として提供されてもよい。
サーバ入力部230は、ユーザの入力に対応する信号を取得してもよい。
ユーザの入力は、例えば、ボタンを押す、クリックする、タッチする、又はドラッグすることであり得る。
サーバ入力部230は、例えば、キーボード、キーパッド、ジョグシャトル、又はホイールとして実装されてもよい。
サーバコントローラ240は、サーバ200の全体的な動作を制御することができる。
例えば、サーバコントローラ240は、サーバ200に備えられたデバイスの動作を制御することができる。
サーバディスプレイ250は視覚データを出力してもよい。
サーバディスプレイ250は、視覚データを出力するモニタ、テレビ、表示パネルなどとして提供されてもよい。
また、サーバディスプレイ250がタッチスクリーンとして提供される場合、サーバディスプレイ250は、サーバ入力部230の機能を実行することができる。
図4は、本開示の一実施形態による補助計算デバイス300を示す図である。
図4を参照すると、補助計算デバイス300は、補助計算通信部310、補助計算記憶部320、補助計算入力部330、及び補助計算コントローラ340を備え得る。
補助計算通信部310は、サーバ200、ウェアラブルディスプレイデバイス400、及び入力デバイス500のうちの少なくとも1つに接続されてもよい。
補助計算通信部310は、有線通信及び無線通信のうちの少なくとも1つを介して、サーバ200、ウェアラブルディスプレイデバイス400、及び入力デバイス500のうちの少なくとも1つに接続されてもよい。
補助計算通信部310は、接続されたサーバ200、接続されたウェアラブルディスプレイデバイス、及び接続された入力デバイス500のうちの少なくとも1つとデータを交換してもよい。
例えば、無線通信は、Wi-Fiネットワーク、3Gネットワーク、LTEネットワーク、5Gネットワーク、LoRA、WAVE、ビーコン、ZigBee(登録商標)、Bluetooth(登録商標)、Bluetooth(登録商標)低エネルギーなどのモバイル通信ネットワークを含み得る。
加えて、有線通信は、ツイストペアケーブル、同軸ケーブル、光ファイバーケーブルなどを含んでもよい。
補助計算通信部310は、有線通信及び無線通信のうちの少なくとも1つを提供するための通信モジュールとして提供されてもよい。
補助計算記憶部320は、外部ソースから取得されたデータを記憶してもよい。
加えて、補助計算記憶部320は、補助計算デバイス300の動作に必要なデータを記憶してもよい。
また、補助計算記憶部320は、ユーザに仮想体験を提供するために、アプリケーション又はプログラムを記憶してもよい。
補助計算入力部330は、ユーザの入力に対応する信号を取得してもよい。
ユーザの入力は、例えば、ボタンを押す、クリックする、タッチする、又はドラッグすることができる。
例えば、補助計算入力部330は、例えば、キーボード、キーパッド、ジョグシャトル、又はホイールとして実装されてもよい。
補助計算コントローラ340は、補助計算デバイス300の全体的な動作を制御することができる。
図5は、本開示の一実施形態によるウェアラブルディスプレイデバイス400を示す図である。
図5を参照すると、ウェアラブルディスプレイデバイス400は、ウェアラブル表示通信部410、ウェアラブル表示記憶部420、ウェアラブル表示センサ430、ウェアラブル表示コントローラ440、ウェアラブル表示画面出力部450、ウェアラブル表示スピーカ460を備えることができる。
ウェアラブル表示通信部410は、補助計算デバイス300に接続されてもよい。
ウェアラブル表示通信部410は、有線通信及び無線通信のうちの少なくとも1つを介して補助計算デバイス300に接続されてもよい。
ウェアラブル表示記憶部420は、データを記憶することができる。
ウェアラブル表示記憶部420は、ウェアラブルディスプレイデバイス400の動作に必要なアプリケーション又はプログラムを記憶してもよい。
さらに、ウェアラブル表示記憶部420は、外部ソースから取得されたデータを記憶してもよい。
ウェアラブル表示センサ430は、ウェアラブルディスプレイデバイス400の状態と、ユーザの入力に対応する信号を取得することができる。
一実施形態によるウェアラブル表示センサ430は、ウェアラブル表示動作センサモジュール431及びウェアラブル表示音センサモジュール432を備えることができる。
ウェアラブル表示動作センサモジュール431は、ウェアラブルディスプレイデバイス400の状態に関する信号を取得してもよい。
一例では、ウェアラブル表示動作センサモジュール431は、ウェアラブルディスプレイデバイス400の回転に関する回転データを取得してもよい。
別の例では、ウェアラブル表示動作センサモジュール431は、ウェアラブルディスプレイデバイス400の位置の動きに関する動きデータを取得してもよい。
ウェアラブル表示動作センサモジュール431は、加速度センサ、ジャイロスコープ、ジャイロセンサ、MEMS、地磁気センサ、IMIU、光学センサ、照度センサ、フォトセンサ、赤外線センサ、カラーセンサ、深度センサ、電磁波センサなどを備えてもよい。
ウェアラブル表示音センサモジュール432は、外部から入力された音に対応する信号を取得してもよい。
一例では、ウェアラブル表示音センサモジュール432は、マイクロホンであり得る。
ウェアラブル表示コントローラ440は、ウェアラブルディスプレイデバイス400の全体的な動作を制御してもよい。
ウェアラブル表示画面出力部450は、視覚データをユーザに出力してもよい。
一例では、ウェアラブル表示画面出力部450は、仮想現実の画像を出力してもよい。
別の例では、ウェアラブル表示画面出力部450は、3次元(3D)仮想現実の画像を出力してもよい。
ウェアラブル表示画面出力部450は、液晶ディスプレイ(LCD)、電子ペーパー、LEDディスプレイ、有機発光ダイオード(OLED)ディスプレイ、湾曲ディスプレイ、立体視(両眼視差を使用した3Dディスプレイ)などの画像出力デバイスとして提供されてもよい。
ウェアラブル表示スピーカ460は、聴覚データを出力してもよい。
ウェアラブル表示スピーカ460は、チューナー、プレーヤー、アンプ、スピーカなどの音響デバイスとして提供されてもよい。
図6は、本開示の一実施形態による訓練制御システム1100を示す図である。
図6を参照すると、一実施形態による訓練制御システム1100は、情報マネージャ1110、訓練コントローラ1120、モニタ1130、予期しない事象マネージャ1140、及びプリセッター1150を備えることができる。
情報マネージャ1110は、訓練生情報を管理し得る。
情報マネージャ1110は、記憶された訓練生情報をシステム管理者及びコントローラに提供してもよい。
情報マネージャ1110は、複数の訓練生の権限を設定してもよい。例えば、情報マネージャ1110は、複数の訓練生のうちの少なくとも1人をフィールドコマンダーとして設定し、残りの訓練生をチームメンバーとして設定することができる。情報マネージャ1110は、複数の訓練生を複数のチームに設定してもよい。情報マネージャ1110は、訓練生に関する記憶された情報に基づいて各訓練生の権限及び役割を設定することができる。
訓練コントローラ1120は、訓練生が進める訓練に関する予め設定及び訓練を制御することができる。
訓練コントローラ1120は、訓練生が訓練を開始する前に、訓練シナリオ、訓練生の登録の設定などの予め設定を設定してもよい。
訓練コントローラ1120は、各訓練生に役割を割り当てることができる。訓練コントローラ1120は、情報マネージャ1110によって設定された権限に基づいて各訓練生に役割を割り当てることができる。訓練コントローラ1120は、記憶されたシナリオをロードするか、訓練の難易度を設定することができる。訓練コントローラ1120は、訓練シナリオで作成された任意の状況を追加又は削除してもよい。訓練コントローラ1120は、訓練の開始、停止、及び/又は終了を制御し得る。
モニタ1130は、訓練中に訓練生の行動、訓練フィールドの状況、シナリオの進行、機器の状態などをリアルタイムで確認することができる。
予期しない事象マネージャ1140は、訓練シナリオを実行している訓練生に任意の状況を適用してもよい。予期しない事象マネージャ1140は、各訓練生のタスクと役割を変更してもよい。予期しない事象マネージャ1140は、複数の訓練生の中で最高の権限を有する訓練生の権限を削除してもよい。この場合、次に高い権限を有する訓練生に最高の権限を割り当てることができるように、更新を行うことができる。あるいは、訓練生の中で最高の権限を有する訓練生の権限が削除された場合、対応する訓練生に最も近い訓練生に最高の権限が割り当てられてもよい。あるいは、訓練生の中で最高の権限を有する訓練生の権限が削除された場合、対応する訓練生が占めていた領域を最初に占有した訓練生に最高の権限が割り当てられてもよい。
予期しない事象マネージャ1140は、仮想キャラクタを追加及び/又は削除し、訓練生の機器を編集し、又は複数の事象を適用することができる。
図7は、一実施形態による仮想現実制御システムのAARシステムを示す図である。
図7を参照すると、一実施形態によるAARシステム1200は、訓練評価部1210、訓練記録部1220、訓練チェック部1230、訓練分析部1240、及び記録された訓練再生部1250を備え得る。
訓練評価部1210は、訓練生のタスクの達成に関する進捗度を評価してもよい。訓練評価部1210は、各訓練生の評価スコアを計算してもよい。訓練評価部1210は、各訓練生が所属するチームの評価スコア、又は同じシナリオを実行した訓練生の全体的な評価スコアを計算してもよい。
訓練評価部1210は、訓練生の位置情報を検出し、位置情報とシナリオに設定された経路とを比較することにより類似度を決定し、訓練生の訓練を評価することができる。予期しない事象が発生する場合、訓練評価部1210は、訓練生の位置情報の変化に基づいて訓練を評価してもよい。特に、訓練評価部1210は、予期しない事象の発生直後に訓練生の応答速度に重みを割り当てることにより訓練を評価してもよい。訓練評価部1210は、訓練生の身長と、移動時のマーカの高さに基づいて、訓練生の姿勢を評価してもよい。また、訓練評価部1210は、訓練生のハンドジェスチャ、実物体の取り扱いの習熟度などに基づいて訓練生を評価することができる。
訓練記録部1220は、各訓練生の訓練を記録してもよい。訓練記録部1220は、訓練プロセス中の訓練生の位置、姿勢、行動、及び実物体の位置を記録してもよい。訓練評価部1210は、訓練記録部1220に記録されたデータに基づいて、訓練生の訓練を評価してもよい。
訓練チェック部1230は、記憶された訓練を確認してもよい。訓練チェック部1230は、期間又はシナリオごとに、訓練生固有の訓練結果及び訓練チーム固有の訓練結果を確認してもよい。
訓練分析部1240は、実行された訓練を分析し得る。訓練分析部1240は、時間固有の評価にグラフを提供してもよい。訓練分析部1240は、複数の訓練生の間で評価結果を比較し、比較結果にグラフを提供することができる。
記録された訓練再現部1240は、記録された訓練を再現してもよい。記録された訓練再現部1250は、各訓練生についてウェアラブルディスプレイデバイス400に出力された画像を、ウェアラブルディスプレイデバイス400を介して再出力することができる。
ここで、仮想現実制御システムのサーバ200、補助計算デバイス300、制御システム1000、及び訓練DBサーバ1300は、単一のコントローラとして定義されてもよい。単一のコントローラとして定義された構成要素は、単一のデバイス又はクラウド計算として実装できる。コントローラは、マイクロプロセッサとして実装されてもよい。
図8は、本開示の一実施形態による仮想現実制御システム10の実装例を示す図である。
図8を参照すると、仮想現実制御システム10は、少なくとも1人のユーザ800に仮想体験のための追跡領域600を提供することにより実装され得る。
加えて、追跡領域600では、ユーザ800は、補助計算デバイス300、ウェアラブルディスプレイデバイス400、及び入力デバイス500のうちの少なくとも1つを提供され得る。
また、ユーザ800に提供される対象物体には、マーカMが提供されてもよい。
例えば、対象物体がウェアラブルディスプレイデバイス400及び入力デバイス500である場合、ウェアラブルディスプレイデバイス400及び入力デバイス500には、異なるパターンのマーカMが提供されてもよい。
以下、マーカMが提供されるパターンについて説明する。
加えて、追跡領域600には、少なくとも1つの検出デバイス100が提供されてもよい。
例えば、図8に示すように、追跡領域600には、複数の検出デバイス100が提供されていてもよい。
検出デバイス100は、追跡領域600の周囲に予め定められた間隔で互いに離間するように提供されてもよい。
また、検出デバイス100は、地面から予め定められた高さで互いに離間するように提供されてもよい。
加えて、検出デバイス100は、追跡領域600に向けて提供されてもよい。
検出デバイス100は、予め設置されたフレームに固定設置されてもよい。
例えば、図8に示すように、追跡領域600の周囲に検出デバイス100を設置するためのフレームを設けてもよい。また、検出デバイス100をフレームに固定設置してもよい。
検出デバイス100は、追跡領域600に関する検出データを取得してもよい。
検出デバイス100に備えられるセンサ120は、追跡領域600の少なくとも一部に関する検出データを取得してもよい。
検出デバイス100は、検出データをサーバ200又は補助計算デバイス300に提供してもよい。
例えば、検出デバイス100は、センサ120により取得された検出データをサーバ200に提供してもよい。
サーバ200は、検出データに基づいて、対象物体のリアルタイムの位置データを取得してもよい。
図8に示すように、追跡領域600に複数の検出デバイス100が提供されている場合、サーバ200又は補助計算デバイス300は、複数の検出デバイス100から検出データを取得し、取得した検出データに基づいて、対象物体の現在位置データを取得してもよい。
また、サーバ200又は補助計算デバイス300は、対象物体の位置データに基づいて、少なくとも1つの対象物体の仮想位置データを取得してもよい。
例えば、補助計算デバイス300は、現実世界におけるユーザ800の位置データに含まれる座標に対応する仮想現実の座標を、ユーザ800に対応する仮想現実のキャラクタの仮想位置データとして取得してもよい。
サーバ200は、対象物体の位置データ及び仮想位置データのうちの少なくとも1つを補助計算デバイス300に提供してもよい。
図8に示すように、追跡領域600に複数の検出デバイス100が提供されている場合、サーバ200又は補助計算デバイス300は、複数の検出デバイス100から検出データを取得し、取得した検出データに基づいて、対象物体の現在位置データを取得してもよい。
また、サーバ200又は補助計算デバイス300は、対象物体の位置データに基づいて、少なくとも1つの対象物体の仮想位置データを取得してもよい。
例えば、補助計算デバイス300は、現実世界におけるユーザ800の位置データに含まれる座標に対応する仮想現実の座標を、ユーザ800に対応する仮想現実のキャラクタの仮想位置データとして取得してもよい。
サーバ200は、対象物体の位置データ及び仮想位置データのうちの少なくとも1つを補助計算デバイス300に提供してもよい。
加えて、サーバ200が複数の補助計算デバイス300に接続されている場合、サーバ200は、複数の補助計算デバイス300のうち少なくとも1つの補助計算デバイス300から仮想現実画像を取得し、取得した仮想現実画像を接続された監視ディスプレイデバイス700に提供することができる。
例えば、サーバ200は、サーバ入力部230を介してサーバ200に接続された補助計算デバイス300の中から仮想現実画像を取得する補助計算デバイス300の選択を取得してもよく、選択された補助計算デバイス300から取得された仮想現実画像を監視ディスプレイデバイス700に提供してもよい。
また、サーバ200は、補助計算デバイス300から仮想位置データを取得し、取得した仮想位置データと仮想現実における仮想カメラの予め設定された位置とに基づいて仮想現実画像を取得してもよい。
さらに、サーバ200は、取得した仮想現実画像を接続された監視ディスプレイデバイス700に提供してもよい。
監視ディスプレイデバイス700は、サーバ200から取得した仮想現実画像を出力してもよい。
加えて、入力デバイス500は、サーバ200、補助計算デバイス300、及びウェアラブルディスプレイデバイス400のうちの少なくとも1つに接続されるように提供されてもよい。
また、入力デバイス500には、少なくとも1つのマーカMが提供されていてもよい。
入力デバイス500は、各ユーザ800が入力デバイス500を携帯するように提供されてもよい。
例えば、ユーザ800は、入力デバイス500を自身の手に携帯していてもよい。
一実施形態によれば、サーバ200は、検出デバイス100から取得した検出データに基づいて、入力デバイス500の位置データを取得してもよい。また、入力デバイス500の現実位置データは、追跡領域600内の入力デバイス500の位置データ又は向き方向データのうちの少なくとも1つを含んでもよい。
補助計算デバイス300は、入力デバイス500の位置データに基づいて、仮想現実における入力デバイス500に対応する仮想物体の向き方向を決定してもよい。
また、補助計算デバイス300は、仮想現実における入力デバイス500に対応する仮想物体の向き方向を考慮した仮想画像を取得してもよい。
例えば、補助計算デバイス300は、入力デバイス500に対応する銃が仮想現実における入力デバイス500の向き方向に対応する方向に向けられた仮想画像を取得してもよい。
また、補助計算デバイス300は、仮想現実における入力デバイス500を介したユーザ800の事象生成命令に応じた事象の生成を考慮した仮想画像を取得してもよい。
例えば、ユーザ800が入力デバイス500に提供されたスイッチを押すと、補助計算デバイス300は、ユーザ800に対応するキャラクタが仮想現実で銃を発射することを示す仮想画像を取得することができる。
図9は、本開示の一実施形態による対象物体を追跡する方法を示す図である。
図9を参照すると、対象物体を追跡する方法は、外部に提供されたセンサを用いて対象物体に関するデータを取得し、取得した対象物体に関するデータに基づいて、対象物体の位置を決定することができる。
以下、図9を参照して、対象物体がウェアラブルディスプレイデバイス400である例について説明する。
図9を参照すると、対象物体には、対象物体を識別するためのマーカMが提供されていてもよい。
マーカMは、対象物体上に提供され、対象物体を識別及び追跡するための基準として機能し得る。
対象物体を追跡するためには、対象物体と他のデバイスを区別する必要があり、対象物体にマーカMを提供することにより対象物体を識別することが可能である。
また、複数の対象物体が提供される場合、各対象物体を識別する必要があり、そのために、ある物体に提供されたマーカは、他の物体に提供された他のマーカMと区別可能であってもよい。
例えば、1つの対象物体に提供されたマーカMは、他の対象物体に提供された他のマーカMとは異なるパターンで提供されてもよい。
また、パターンは、異なる位置に提供された複数のマーカMにより形成されるパターン、一つの表示パネルに提供される光学パターンなど、様々な種類のパターンを含んでもよい。
パターンは、マーカMのマーカ座標によって形成されてもよい。
例えば、検出デバイス100により3つのマーカMを追跡できるため、第1マーカ座標MP1-1、第2マーカ座標MP1-2、第3マーカ座標MP1-3を検出データとして取得し、第1マーカ座標MP1-1から第3マーカ座標MP1-3までは、三角形のパターンを形成してもよい。
また、マーカMは、発光部110から投射される光信号を反射又は吸収する受動マーカと、光信号を自律的に放出するアクティブマーカとして提供されてもよい。
例えば、受動マーカは、光反射材料が取り付けられた3次元モデル、認識可能なコードが印刷された紙、反射テープなどを備えてもよい。
さらに、アクティブマーカは、LEDモジュール、電波発生部などを備えてもよい。
一実施形態によれば、対象物体には、少なくとも1つのマーカMが提供されてもよい。
例えば、仮想現実制御システム10が1つの物体のみの位置を追跡する場合、1つのマーカMのみが対象物体上に提供され得る。
また、仮想現実制御システム10が1つの物体のみの位置を追跡する場合であっても、対象物体には複数のマーカMが提供されていてもよい。
また、仮想現実制御システム10が複数の対象物体の位置を追跡する場合、複数の対象物体の各々を識別するために、1つの対象物体にパターンを形成する複数のマーカMを設けてもよい。
例えば、仮想現実制御システム10によって位置が追跡される対象物体が、ウェアラブルディスプレイデバイス400及び入力デバイス500である場合、ウェアラブルディスプレイデバイス400には、第1パターンのマーカMが提供されてもよく、入力デバイス500には、第2パターンのマーカMが提供されてもよい。
第1パターンは第2パターンとは異なり、位置追跡中に検出される第1パターンはウェアラブルディスプレイデバイス400として識別され、検出された第2パターンは入力デバイス500として識別され得る。
上記において、複数の対象物体が提供される場合、複数の対象物体の各々に提供されるマーカMは、複数の対象物体の各々を識別するためのパターンを形成するように提供される。
ただし、実施形態はこれに限らず、単一の対象物体が提供されている場合であっても、対象物体に提供されたマーカMを形成してパターンを形成してもよい。
さらに、対象物体上に提供されたマーカMのパターンは、ユーザ800を識別するために使用されてもよい。
例えば、第1パターンは、第1ユーザが着用するウェアラブルディスプレイデバイス400として識別され、第2パターンは、第1ユーザが携帯する入力デバイス500として識別され得る。
加えて、第3パターンは、第2ユーザが着用するウェアラブルディスプレイデバイス400として識別され、第4パターンは、第2ユーザが携帯する入力デバイス500として識別され得る。
対象物体を追跡するために、サーバ200は、検出デバイス100から対象物体に関するデータを取得し、取得したデータに基づいて、対象物体の位置に関する検出データを取得してもよい。また、サーバ200は、検出データに基づいて、対象物体の位置データを計算してもよい。
検出デバイス100が対象物体に関するデータをサーバ200に提供する技術について説明する。検出デバイス100の発光部110は、追跡領域600の少なくとも一部に信号を投射してもよい。
例えば、発光部110が赤外線LEDである場合、発光部110は、追跡領域600の少なくとも一部に赤外線信号を投射してもよい。
さらに、センサ120は、外部ソースから取得したデータをサーバ200に提供してもよい。
一例では、センサ120がカメラである場合、センサ120は、外部ソースから取得された画像信号をサーバ200に提供してもよい。
図9は、1つのセンサ120のみを示しているが、実施形態はこれに限定されない。
図8に示すように、複数のセンサ120が提供されてもよく、複数のセンサ120の各々は、取得されたデータをサーバ200に提供してもよい。
サーバ200は、センサ120から取得したデータに基づいて、対象物体の位置を決定してもよい。
サーバ200は、センサ120から取得したデータがマーカMに関するデータを含むかどうかを判定してもよい。
また、サーバ200は、センサ120から取得したデータにマーカMに関するデータが含まれると判定された場合、マーカMのパターンに基づいて対象物体を識別してもよい。
例えば、センサ120から取得されたデータが第1パターンを含む場合、サーバ200は、対象物体をウェアラブルディスプレイデバイス400として識別してもよい。
1つのセンサ120から取得したデータには複数のパターンが存在する場合があり、サーバ200は複数のパターンを識別できる。
パターンは、サーバ200に予め記憶されてもよく、予め記憶されたパターンが取得データに存在する場合、サーバ200は、対応するパターンが存在すると判定し、パターンに対応する対象物体を識別してもよい。
サーバ200は、センサ120から取得したデータに基づいて、対象物体の位置を決定してもよい。
なお、サーバ200には、予め記憶された各パターンに関する代表点RPが設定されてもよい。
代表点RPは、パターンを表す点であり得る。
代表点RPは、パターンの外側に存在し得る。
例えば、代表点RPは、第1マーカ座標MK1-1、第2マーカ座標MK1-2、及び第3マーカ座標MK1-3により形成される平面から予め定められた距離だけ離れた点に設定されてもよい。
複数のマーカMに基づくパターンが提供されている場合、パターンに備えられる複数のマーカMに関する座標データを取得し、サーバ200は、パターンを表す代表点RPを、パターンが付与された対象物体の位置データとして取得してもよい。
したがって、サーバ200は、対象物体の位置データを取得することにより、対象物体を追跡することができる。
対象物体の位置を追跡する方法は、上記の例に限らず、選択に応じて様々な種類の位置を追跡する方法を用いてもよい。
一実施形態によれば、センサ120がイメージセンサとして提供される場合、センサ120は外部映像を取得し、取得された映像に基づいて対象物体に関する位置データを取得することができる。
一例では、図9に示されたセンサ120が、ウェアラブルディスプレイデバイス400に提供される場合、センサ120は、ウェアラブルディスプレイデバイス400の片側に提供され、ウェアラブルディスプレイデバイス400の内側から外側方向に向けられて、ウェアラブルディスプレイデバイス400の外側に関する画像データを取得することができる。
さらに、ウェアラブルディスプレイデバイス400は、取得した画像データを補助計算デバイス300に提供してもよい。
一実施形態によれば、ウェアラブルディスプレイデバイス400は、予め定められた間隔で画像データを補助計算デバイス300に提供してもよい。
例えば、ウェアラブルディスプレイデバイス400は、画像データがセンサ120を介して取得される間隔と同じ間隔で、補助計算デバイス300に画像データを提供してもよい。
補助計算デバイス300は、取得した画像データから少なくとも1つの特徴点を取得してもよい。
一実施形態によれば、補助計算デバイス300は、画像データに含まれる物体を特徴点として取得してもよい。
一実施形態によれば、補助計算デバイス300は、画像データに含まれる物体のうち、予め定められたサイズよりも大きい物体を特徴点として取得してもよい。
補助計算デバイス300は、画像データに含まれる物体を識別し、識別した物体の中から予め定められたサイズよりも大きい物体を特徴点として取得してもよい。また、補助計算デバイス300は、画像データに含まれる物体が占める画素数に基づいて物体のサイズを決定してもよい。
一実施形態によれば、補助計算デバイス300は、画像データに含まれる物体のうち、予め設定された種類の物体を特徴点として取得することができる。
例えば、ボール型物体が予め設定されている場合、補助計算デバイス300は、画像データに含まれる野球ボール、サッカーボール、バスケットボールボールなどのボール型物体を特徴点として取得してもよい。
一実施形態によれば、補助計算デバイス300は、画像データに含まれるマーカを特徴点として取得してもよい。
補助計算デバイス300は、画像データに含まれるバーコード、クイックレスポンス(QR)コードなどのマーカを識別し、マーカを特徴点として取得してもよい。
また、補助計算デバイス300は、画像データに含まれる特徴点の位置を決定してもよい。
補助計算デバイス300は、ウェアラブルディスプレイデバイス400から取得した画像データに基づいて、特徴点の位置変化及びサイズ変化のうちの少なくとも1つを判定してもよい。
補助計算デバイス300は、特徴点の位置変化方向、位置変動、及びサイズ変動に基づいてウェアラブルディスプレイデバイス400の移動方向及び移動距離を決定することができる。
例えば、補助計算デバイス300は、ウェアラブルディスプレイデバイス400から取得した画像データに基づいて、特徴点の位置変化を判定してもよい。
補助計算デバイス300は、ウェアラブルディスプレイデバイス400の移動方向及び移動距離を決定し得る。
補助計算デバイス300は、特徴点の位置変化方向、位置変動、及びサイズ変動に基づいてウェアラブルディスプレイデバイス400の移動方向及び移動距離を決定することができる。
例えば、補助計算デバイス300は、第1時点で取得された第1画像データに含まれる特徴点の位置と、第1時点より遅い第2時点で取得された第2画像データに含まれる特徴点の位置とを比較してもよく、第1画像データ内の特徴点が第2画像データ内で右に移動したことを比較が示す場合、ウェアラブルディスプレイデバイス400が左に移動したと判定することができる。
また、補助計算デバイス300は、特徴点の位置が変化した場合に特徴点の移動距離を決定してもよい。
補助計算デバイスは、第1画像データにおける特徴点の位置と第2画像データにおける特徴点の位置との間の画素数に基づいて、特徴点の移動距離を決定してもよい。
あるいは、補助計算デバイス300は、第1画像データにおける特徴点の座標と第2画像データにおける特徴点の座標とに基づいて、特徴点の移動距離を決定してもよい。
また、例えば、補助計算デバイス300は、サイズ変動に基づいてウェアラブルディスプレイデバイスの移動方向及び移動距離を決定してもよい。
補助計算デバイス300は、第1時点で取得された第1画像データに含まれる特徴点のサイズと、第1時点より遅い第2時点で取得された第2画像データに含まれる特徴点のサイズとを比較してもよく、比較が、第1画像データ内の特徴点の位置が第2画像データ内で右に移動することを比較が示す場合、ウェアラブルディスプレイデバイス400が左に移動したと判定することができる。
したがって、補助計算デバイス300は、予め設定された初期位置に対する対象物体の位置の変化に基づいて対象物体の位置を追跡することができる。
図10は、本開示の一実施形態によるウェアラブルディスプレイデバイス400を介して仮想現実画像452を出力する例を示す図である。
図10を参照すると、仮想現実制御システム10は、仮想現実の少なくとも一部に関連する仮想現実画像452を、ウェアラブルディスプレイデバイス400を介してユーザ800に提供することができる。
ここで、仮想現実画像452は、ユーザ800が仮想現実を体験するためにウェアラブルディスプレイデバイス400を通じて提供されてもよく、仮想現実画像452は、仮想現実に関する画像として実装される複数の画像フレームとして解釈されてもよく、又は特定の瞬間の画像フレームとして解釈されてもよいことに留意されたい。
仮想現実画像452は、仮想位置データに基づいて表示されるキャラクタ又は仮想物体を備え得る。この場合、仮想位置データは、現実世界における対象物体の位置座標及び向き方向ののうちの少なくとも一つを含む位置データに基づいて計算されてもよい。例えば、位置データは、追跡領域600に位置する対象物体の位置座標であってもよい。
サーバ200は、追跡領域600に関する座標値を予め記憶してもよい。
サーバ200は、追跡領域600に関する座標系を予め記憶してもよい。座標系は、平面座標系、直交座標系、極座標系、空間座標系、円筒座標系、及び球座標系のうちの少なくとも1つであり得る。
サーバ200は、追跡領域600に関する検出データ及び座標系に基づいて、追跡領域600内の対象物体の座標値を取得してもよい。また、サーバ200は、取得した追跡領域600内の対象物体の座標値を位置データとして取得してもよい。
一例では、検出データが赤外線画像である場合、サーバ200は、赤外線画像における対象物体に対応するマーカの位置と、赤外線画像を提供した検出デバイス100の設置位置とに基づいて、追跡領域600におけるマーカの座標値を取得してもよい。また、サーバ200は、追跡領域600内のマーカの座標値に基づいてマーカが形成するパターンを決定し、マーカが形成するパターンに対応する対象物体を識別してもよい。また、サーバ200は、追跡領域600内のマーカとマーカの座標値とによって形成されるパターンに基づいて、対象物体の代表点RPを取得し、対象物体の代表点RPの座標値を対象物体の位置データとして取得してもよい。
サーバ200は、位置データを補助計算デバイス300に提供してもよい。
補助計算デバイス300は、仮想現実に関する座標値を予め記憶してもよい。
補助計算デバイス300は、仮想現実に関する座標系を予め記憶してもよい。座標系は、平面座標系、直交座標系、極座標系、空間座標系、円筒座標系、及び球座標系のうちの少なくとも1つであり得る。
補助計算デバイス300は、仮想現実に関する位置データと座標系とに基づいて、仮想現実における対象物体の座標値を取得してもよい。
例えば、補助計算デバイス300は、現実位置データに含まれる座標値に対応する仮想現実の座標値を取得し、取得した仮想現実の座標値を仮想位置データとして取得してもよい。
補助計算デバイス300は、仮想位置データに基づいて、ユーザ800に出力される仮想現実画像452を取得してもよい。
一実施形態によれば、補助計算デバイス300は、仮想カメラの仮想位置データとしてウェアラブルディスプレイデバイス400の仮想位置データを取得し、仮想カメラの仮想位置データ及び仮想カメラの向き方向に基づいて、仮想カメラの視野451を取得してもよい。
補助計算デバイス300は、ウェアラブルディスプレイデバイス400の位置データに含まれる向き方向に基づいて、仮想カメラの向き方向を取得してもよい。
また、補助計算デバイス300は、仮想カメラの視野451として、仮想カメラの向き方向の予め定められた領域を取得してもよい。
したがって、ウェアラブルディスプレイデバイス400の位置データに基づいて、仮想カメラの視野451を取得することにより、現実世界のユーザ800に対応するキャラクタの視野は、ユーザ800の動きに応じて変化し得、その変化は、ユーザ800に提供される仮想現実画像452に反映され得る。
一方、仮想カメラの視野451は、ウェアラブルディスプレイデバイス400の仮想位置データだけでなく、仮想現実における特定の仮想位置データに基づいて取得されてもよい。
さらに、補助計算デバイス300は、仮想現実における仮想カメラの視野451に対応する仮想現実画像452を取得してもよい。
補助計算デバイス300は、仮想現実画像452をウェアラブルディスプレイデバイス400に提供してもよい。
ウェアラブルディスプレイデバイス400は、取得した仮想現実画像452を、ウェアラブル表示画面出力部450を介してユーザ800に出力してもよい。
以下、本発明の一実施形態による仮想現実制御システム10が仮想体験の一部としてユーザ800に提供する災害訓練コンテンツについて、図11及び12を参照して説明する。
図11は、本開示の一実施形態による仮想現実画像452を示す図である。
図12は、本開示の一実施形態による追跡領域600に配置された実物体ROを示す図である。
図11を参照すると、仮想現実制御システム10は、災害訓練に関するコンテンツをユーザ800に提供してもよい。
ここで、災害訓練コンテンツには、実際に発生する可能性のある事象、事故、及び問題のある状況に対応するために、事前に災害に備える方法に関するコンテンツが含まれる場合がある。例えば、災害訓練コンテンツには、化学物質を扱う工場で発生する可能性のある化学事故に対応するための訓練コンテンツが含まれる場合がある。したがって、ユーザ800は、仮想現実で災害を体験し、実質的な訓練を受けることにより、現実の災害に備えることができる。
図11に戻り参照すると、仮想現実制御システム10は、災害訓練コンテンツをユーザ800に提供するために、災害訓練に関する仮想現実画像452を提供してもよい。
ここで、仮想現実画像452は、災害に関する背景及び地形、キャラクタ900、ピアキャラクタ910、及び仮想物体VOを備え得る。
ここで、災害に関する背景と地形には、災害を表す地形の特徴と物体が備えられる場合がある。例えば、災害が化学プラントでの化学事故である場合、仮想現実画像452は、垂直/水平配管、弁、貯蔵タンク、ポンプ、又は安全デバイスなどの工場施設及び化学施設を備え得る。
ここで、キャラクタ900は、ユーザ800に対応する仮想現実のキャラクタを指すことができる。例えば、キャラクタ900は、ユーザ800の動きを追跡することにより取得される仮想位置データに基づいて生成されてもよく、ユーザ800の動きに対応するように移動してもよい。
ここで、ピアキャラクタ910は、予め記憶されたアプリケーション又はプログラムによって提供されるノンプレイヤーキャラクタ(NPC)と、ユーザ800を除く他のユーザに対応するキャラクタを備えることができる。特に、仮想現実制御システム10によって提供される災害訓練コンテンツは、 複数のユーザに提供されてもよい。この場合、複数のユーザが互いに協力して、仮想現実で災害を体験することができ、ユーザ800の動きに応じて仮想現実で動くキャラクタ900と、ユーザ800を除く別のユーザの動きに対応するピアキャラクタ910が提供されてもよい。
ここで、仮想物体VOは、仮想現実で実現され、キャラクタによって使用されることができ、ツール、機器、設備などを備えることができる。例えば、仮想物体VOは、現実世界でユーザ800が携帯する入力デバイス500に対応する仮想現実において、ユーザキャラクタ900の手と、ユーザキャラクタ900が携帯する機器、機械設備などを備えることができる。別の例では、仮想物体VOは、災害訓練コンテンツ内の化学設備及び機器を制御するための弁、スパナ、測定部などを備え得る。
仮想物体VOは、補助計算デバイス300に予め記憶されたプログラムのアプリケーションによって提供されてもよい。ここで、仮想物体VOは、補助計算デバイス300に予め記憶された物体データに基づいて、又は現実世界の実物体ROに基づいて生成されてもよい。
図12を参照すると、仮想現実制御システム10は、仮想現実の仮想物体VOを表示するために、実物体ROを備える追跡領域600をユーザ800に提供することができる。
ここで、実物体ROは、仮想現実制御システム10によってユーザ800に提供されるコンテンツに応じて形態又は形状が異なり得る。例えば、仮想現実制御システム10は、工場での事故に関する災害訓練コンテンツをユーザ800に提供し、実物体ROには、垂直/水平配管、弁、貯蔵タンク、ポンプ、安全デバイスなどの工場設備と化学設備が備えられる場合がある。一方、実物体ROは、必ずしも仮想現実で提供される仮想物体VOと同様の形態を有するとは限らない。例えば、実物体ROが特徴点又はマーカを備え、その結果、実物体ROのサイズデータ、位置データ、又は関数データが検出デバイス100、サーバ200、又は補助計算デバイス300に提供される場合、実物体ROは、実物体ROに基づいて生成される仮想物体VOとは異なる形態を有し得る。しかし、追跡領域600内に空間が許される場合、実物体ROは、仮想物体VOと同様の形態及び形状を有することができ、この場合、仮想現実へのユーザ800の没入感を改善するために、ユーザ800に触感を提供することができる。
実物体ROは、予め設定された機能を自動的に、又はユーザ800の動作によって実行するシミュレータを備えることができる。例えば、仮想現実を体験しているユーザ800がコンテンツの進行に従って追跡領域に力を加える場合、実物体ROは、回転又は異なる位置に移動し、関連情報をサーバ200又は補助計算デバイス300に提供することができる。あるいは、検出デバイス100は、実物体ROの位置変化又は回転の発生を監視し、関連情報をサーバ200又は補助計算デバイス300に提供してもよい。
図13は、一実施形態による追跡領域を示す図である。
図13を参照すると、一実施形態による追跡領域600は、複数の領域を備えることができる。
追跡領域600は、除染領域610、塩素充填領域620、第1貯蔵領域630、第2貯蔵領域640、塩素貯蔵領域650、漏れ封じ込め機器ボックス660、除染供給ボックス670、及びフィールド命令領域680を備えてもよい。
各領域は、実物体TOからなる領域、仮想物体VOからなる領域、又はROとVOの組み合わせからなる領域であってもよい。各領域がRO又はVOで構成される領域である場合、各領域はRO又はVOが占める領域よりも大きくなる場合がある。制御システム1000、サーバ200、又は補助計算デバイス300は、各領域をRO又はVOが占める領域よりも大きく設定することにより、各領域内の物体の近くに位置するユーザの行動をより正確に評価し得る。
除染領域610は、訓練領域の入口ドアの近くの位置に設定されてもよい。除染領域610は、NPCにより除染された除染空間と、化学シャワーにより除染された除染空間とに分割され得る。除染領域の近くに準備空間があり得る。準備空間に機器回収ボックスを配置できる。仮想ディスプレイを準備空間に設置し、ユーザは仮想ディスプレイを介して訓練監督者の指示を受信することができる。
塩素充填領域620は、Yシリンダー、トン容器、及び複数の弁を備えることができる。第1貯蔵領域630は、タンク、ポンプ、及びタンクローリーを備え得る。第2貯蔵領域640は、複数のタンク及びポンプを備え得る。第1貯蔵領域630及び第2貯蔵領域640は、1つのタンクを共有してもよい。第1貯蔵領域630と第2貯蔵領域640とによって共有されるタンクには、排出壁が設置されてもよい。
複数の機器を漏れ封じ込め機器ボックス660内に配置することができる。機器の各々は、実物体又は仮想物体であり得る。
フィールド命令領域680は、各領域を見ることができる追跡領域600の中央領域に配置することができる。フィールド命令領域680は、フィールドコマンダーのための領域であり得る。
フィールド命令領域680は、仮想物体又は実物体によって他の領域から分割されてもよい。
複数のユーザの中で最高の権限を有するユーザは、フィールド命令領域680に位置することができる。すなわち、フィールド命令の権限を割り当てられたユーザは、フィールド命令領域680に入るよう誘導されることができる。
フィールドコマンダーがフィールド命令領域680に配置される場合、フィールドマネージャーの視野に対応する画像がウェアラブルディスプレイデバイスに出力され得る。フィールド命令ではないユーザがフィールド命令領域680に位置するときは、視野に対応する画像は出力され得ない。あるいは、ウェアラブルデバイスを介して、ユーザが許可されていない領域に入ったことを通知することもできる。この場合、フィールドコマンダーではないユーザが装着するウェアラブルデバイスは、低解像度の画像、警告通知、又は警告音を出力できる。
すなわち、第1ユーザが第1権限を有し得、第2ユーザが第2権限を有し得、第1権限が第2権限より高い場合、第1ユーザのみがフィールド命令領域680に入ることができる。第1ユーザがフィールド命令領域680に位置するときは、視野に対応する画像が出力され得、第2ユーザがフィールド命令領域680に位置するときは、通知画像が出力されるか、視野に対応する画像ではない画像が出力され得る。
第2ユーザがフィールド命令領域680に位置するときは、コントローラは、フィールド命令権限を第2ユーザに移譲するかどうかを第1ユーザに確認してもよい。第1ユーザがフィールド命令権限の移譲を確認する場合、第2ユーザはフィールドコマンダーになり、視野に対応する画像が出力され得る。フィールドコマンダー権限を持たない第2ユーザが予め定められた時間移動せずにフィールド命令領域680に位置するときは、コントローラは、第1ユーザにフィールド命令権限を移譲するか否かを確認することができる。
あるいは、訓練プロセス中にフィールドコマンダーの権限が削除される場合、フィールド命令領域680に最も近い領域のチームのチームリーダーにフィールドコマンダー権限が自動的に割り当てられ得る。又は、フィールド命令領域680に最も近い領域に位置するユーザに、フィールドコマンダー権限を自動的に割り当てることができる。
フィールド命令領域680は、フィールドコマンダー権限を有する人にのみ表示されてもよい。フィールド命令領域680の入口ドアは、フィールド命令権限を有する人にのみ表示されてもよく、フィールド命令権限を持たない人には表示されなくてもよい。
フィールド命令領域680は、ユーザがフィールド命令権限を有しているかどうかに応じて、入口ドアの開閉を制御してもよい。例えば、ユーザがフィールド命令領域680の入口ドアから予め定められた距離内に入るフィールドコマンダー権限を有する場合において、コントローラは、フィールド命令領域680の入口ドアを開くように制御することができる。フィールド命令権限を持たないユーザがフィールド命令領域680に近い領域内に位置するときでも、入口ドアは開かないように制御されてもよい。
フィールドコマンダーの権限は、事前にユーザの1人に割り当てられてもよい。あるいは、訓練が開始された後に最初にフィールド命令領域680に入るユーザにフィールドコマンダー権限が割り当てられてもよい。
図14から図17は、一実施形態による訓練シナリオによる移動線を示す図である。
図14を参照すると、5人のユーザが訓練シナリオに参加できる。5人のユーザは、1つのフィールドコマンダーC、チームA(A1及びA2)、及びチームB(B1及びB2)に分類できる。
フィールドコマンダーC、チームA(A1及びA2)、及びチームB(B1及びB2)は、除染領域610に配置されてもよい。フィールドコマンダーC、チームA(A1及びA2)、及びチームB (B2及びB2)は、除染領域で除染を実行し、準備空間で待機できる。状況情報は、準備空間に設置されたディスプレイを通じて提供され得る。状況が報告されると、コントローラはユーザに保護スーツの着用を促すことができる。
この場合、保護スーツの色はチームによって異なる場合があり、フィールドコマンダーの保護スーツの形状はチームメンバーの保護スーツの形状とは異なる場合がある。
図15を参照すると、チームA(A及びA2)は、緊急停止(ESD)領域に近い領域を移動するように誘導され得、チームB(B1及びB2)は、塩素充填領域620に移動するように誘導され得る。
フィールドコマンダーCは、フィールド命令領域680に移動するように誘導されてもよい。
状況が発生した場合、目的地は準備空間の各ユーザのウェアラブルディスプレイに表示され得る。目的地は、仮想空間内の矢印で表され得、各ユーザを目的地に誘導する。
あるいは、状況が発生した後、フィールドコマンダーCの命令が行われた後、各目的地が準備空間に表示されてもよい。例えば、フィールドコマンダーCがマイクロホンを介して音声入力を入力してチームAにESDを実行するように命令する場合、チームAのユーザが着用するウェアラブルディスプレイデバイスにESD領域が表示され得る。さらに、フィールドコマンダーCがマイクロホンを介して音声入力を入力してチームBに漏洩箇所の確認を命令する場合、チームBのユーザが着用するウェアラブルディスプレイデバイスに塩素充填領域620が表示され得る。
フィールドコマンダーCの命令があっても、チームAとチームBの目的地を表示するタイミングが異なる場合がある。例えば、フィールドコマンダーCが連続的に命令を命令する場合でも、チームA及びチームBの各ユーザのウェアラブル表示デバイスに時間間隔で目的地を表示することができる。あるいは、チームAの移動状態に基づいて、チームBのユーザの目的地を表示することもできる。
したがって、ユーザの移動線が重複することを防ぐことにより、ユーザ同士の物理的な接触を防ぐことができる。
目的地への経路は、各ユーザのウェアラブルディスプレイデバイスに表示されてもよい。各ユーザのウェアラブルディスプレイデバイスは、ユーザが追跡領域の地面を移動するための経路を表示してもよい。ユーザが移動するための経路の周りに別のユーザがいる場合、そのユーザは別のユーザの存在を知らされ、物理的な接触を防ぐことができる。
ユーザが移動する経路の周りに別のユーザがいる場合、地面に表示されている経路の色を変更したり、ウェアラブル表示デバイスを介して表示される別のユーザに矢印を追加したりできる。この場合、ユーザと他のユーザとの間の距離が短くなると、より大きな警告通知が出力され得る。
フィールドコマンダーCは、チームA(A1及びA2)とチームB(B1及びB2)が移動を完了した後に移動するように誘導され得る。
チームA(A1及びA2)は、ESD領域に移動してESDを試みるよう誘導され得る。ESDが正常に実行される場合、状況は閉じられる。フィールドコマンダーCがESDの失敗の報告を受信する場合、チームB(B1及びB2)の動きが誘導され得る。チームBの最後に動いたユーザ(B1及びB2)が除染領域610から予め定められた距離以上離れた場合、フィールドコマンダーCの移動が誘導され得る。
コントローラは、チームB(B1及びB2)にYシリンダーの漏洩箇所を確認するよう誘導できる。
図16を参照すると、チームA(A1及びA2)は、塩素充填領域620に移動するように誘導され得る。塩素充填領域620に移動したチームA(A1及びA2)は、配管弁を閉じるよう誘導され得る。
チームA(A1及びA2)の塩素充填領域620への移動が完了した後、チームB(B1及びB2)は、漏れ封じ込め機器ボックス660に移動するように誘導され得る。チームB(B1及びB2)の漏れ封じ込めボックス660への移動が完了すると、チームAは除染供給ボックス670に移動するように誘導され得る。
チームAの除染供給ボックス670への移動が完了した場合、チームBが塩素充填領域620に戻り、漏れ封じ込めボックス660から選択された機器を使用して漏れ封じ込めプロセスを進めるように誘導できる。
コントローラは、予め設定されているか、監督者によって割り当てられた予期しない事象を追加できる。例えば、予期しない事象が追加される場合、チームAの1人のメンバーが弁に移動し、弁を閉じ、除染供給ボックス670に戻るよう誘導され得る。
図17を参照すると、フィールドコマンダーCがマイクロホンを介して撤退する命令を入力した場合、チームBは除染領域610に移動するように誘導され得る。チームBの移動が完了した場合、チームAは消石灰の確認後にスプレーするように誘導され、その後除染領域610に移動するように誘導することができる。チームAの除染領域610への移動が完了した場合、フィールドコマンダーCも除染領域610に移動するように誘導され、フィールドコマンダーCの移動と除染が完了すると、状況は終了する。
訓練シナリオでのチームの同時移動は制限される場合がある。つまり、一方のチームが動いている場合、もう一方のチームは静止状態を維持するように誘導され、それによってユーザ間の物理的な衝突を防ぐ。
さらに、1つのチームの役割は、役割を実行するための物体までの距離に基づいて割り当てられ得る。例えば、1人が弁を閉じる必要がある場合、チーム内の弁に最も近いユーザに役割が付与され得、ユーザから物体までの距離が同じ場合、予め設定された順序に従って役割を付与できる。さらに、同じチーム内の目的地への経路のディスプレイを設定して、ユーザの移動線が重複しないように設定することができる。つまり、チームメンバーが1人の場合、目的地への最短経路が表示され得るが、チームメンバーが複数の場合、目的地への経路は曲線として表示され得、移動線が重複しないようにする。
実施形態による仮想現実制御システムは、化学事故対応訓練コンテンツにおいて、それらの権限に従って、ユーザに異なる役割を割り当てるシステムを提供することができ、それにより、ユーザの訓練能力が向上する。
多くの例示的な実施形態が上記で説明された。それにもかかわらず、これらの例示的な実施形態に様々な修正を加えることができることを理解されたい。例えば、適切な結果は、記述された技術が異なる順序で実行される場合、及び/又は記述されたシステム、アーキテクチャ、デバイス、又は回路の構成要素が異なる方法で組み合わされ、及び/又は他の構成要素又はそれらの同等物によって置換又は補足される場合に達成され得る。
[参照番号]
10:仮想現実制御システム
100:検出デバイス
200:サーバ
300:補助計算デバイス
400:ウェアラブルディスプレイデバイス
500:入力デバイス

Claims (6)

  1. 対象物体に光を放出し、前記対象物体から光を受光して、光信号を検出するように構成されたセンサと、
    画像を第1ユーザに出力するように構成された第1ディスプレイと、
    画像を第2ユーザに出力するように構成された第2ディスプレイと、
    前記第1ディスプレイ及び前記第2ディスプレイのうちの少なくとも1つを制御するように構成された少なくとも1つのコントローラと、
    を備え、
    前記コントローラは、
    前記光信号に基づいて、前記第1ユーザに関する第1位置データ及び前記第2ユーザに関する第2位置データを取得し、
    前記第1位置データに基づいて、第1領域及び第2領域を含む画像を前記第1ディスプレイに出力する
    ように構成され、
    前記コントローラは、前記第1ユーザが前記第2ユーザよりも先に前記第1領域に位置するときに、前記第1ユーザ第1権限を、前記第2ユーザ第2権限を割り当て
    前記第1権限が前記第2権限より高い権限であ
    前記第1位置データが前記第1領域に位置するときは、第1画像が前記第1ディスプレイに出力され、前記第2位置データが前記第1領域に位置するときは、通知画像が前記第2ディスプレイに出力され
    前記第2権限を有する前記第2ユーザが予め定められた時間移動せずに前記第1領域に位置するときに、前記コントローラは、前記第1権限を前記第2ユーザに移譲するかどうかを前記第1ユーザに確認し、
    前記コントローラは、前記第1ディスプレイおよび前記第2ディスプレイのそれぞれに、目的地への移動経路を含む画像を表示するように制御し、
    前記第1ユーザの移動が完了した後、前記コントローラは、前記第2ユーザの移動経路を含む画像を前記第2ディスプレイに表示するように制御し、
    前記第1ユーザが前記第2ユーザの前記移動経路に近接して位置するときに、前記コントローラは、前記第2ユーザの前記移動経路の色を変更するように前記第2ディスプレイを制御する、
    仮想現実制御システム。
  2. 前記通知画像は、前記第2ユーザの前記第2位置データに対応する画像ではない、
    請求項1に記載の仮想現実制御システム。
  3. 前記第2ユーザが前記第1ユーザによって移譲された前記第1権限を有する場合において、前記第2位置データが前記第1領域に位置するときは、前記第2ユーザの前記第2位置データに対応する画像が前記第2ディスプレイに出力される、
    請求項1又は2に記載の仮想現実制御システム。
  4. 前記第1権限及び前記第2権限は、予め設定された権限である、
    請求項1から3のいずれか一項に記載の仮想現実制御システム。
  5. 前記第1権限が前記第1ユーザに、前記第2権限が前記第2ユーザに割り当てられているときに、前記コントローラは、前記第1ディスプレイに第1シナリオと関連する画像を表示するように制御し、前記第2ディスプレイに、前記第1シナリオとは異なる第2シナリオと関連する画像を表示するように制御する、
    請求項1からのいずれか一項に記載の仮想現実制御システム。
  6. 前記第1権限に従って、前記第1位置データおよび予め定められた第1移動経路を比較することにより評価が実行される、
    請求項1からのいずれか一項に記載の仮想現実制御システム。
JP2019193318A 2019-10-23 2019-10-24 仮想現実制御システム Active JP7000397B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190132026A KR102212511B1 (ko) 2019-10-23 2019-10-23 가상 현실 제어 시스템
KR10-2019-0132026 2019-10-23

Publications (2)

Publication Number Publication Date
JP2021068209A JP2021068209A (ja) 2021-04-30
JP7000397B2 true JP7000397B2 (ja) 2022-02-04

Family

ID=68699133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019193318A Active JP7000397B2 (ja) 2019-10-23 2019-10-24 仮想現実制御システム

Country Status (4)

Country Link
US (1) US11080930B2 (ja)
EP (1) EP3812878A1 (ja)
JP (1) JP7000397B2 (ja)
KR (1) KR102212511B1 (ja)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122520A (ja) 1998-10-14 2000-04-28 Mitsubishi Heavy Ind Ltd 仮想現実シミュレータ及びそのシミュレーション方法
JP2000353248A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2010535363A (ja) 2007-03-01 2010-11-18 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 仮想世界のアバター制御、インタラクティビティおよび通信インタラクティブメッセージング
US20140336786A1 (en) 2013-05-09 2014-11-13 Rockwell Automation Technologies, Inc. Using cloud-based data for virtualization of an industrial automation environment with information overlays
US20150116316A1 (en) 2013-10-28 2015-04-30 Brown University Virtual reality methods and systems
JP2015121756A (ja) 2013-12-25 2015-07-02 株式会社日立国際電気 救助訓練システム
US20150269818A1 (en) 2014-03-18 2015-09-24 Symbol Technologies, Inc. Modifying rfid system operation using movement detection
JP2016532909A (ja) 2013-09-11 2016-10-20 リンカーン グローバル, インコーポレイテッドLincoln Global, Inc. リアルタイム模擬バーチャルリアリティ溶接訓練環境用習得管理システム
CN106055113A (zh) 2016-07-06 2016-10-26 北京华如科技股份有限公司 一种混合现实的头盔显示系统及控制方法
CN106601062A (zh) 2016-11-22 2017-04-26 山东科技大学 一种用于模拟矿井灾害逃生训练的交互方法
JP2019012154A (ja) 2017-06-30 2019-01-24 Mxモバイリング株式会社 Vrを用いた消火体験シミュレーションシステム、体験用消火器、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2913624B1 (ja) * 1998-03-23 1999-06-28 川崎重工業株式会社 災害体験模擬装置
WO2016183401A1 (en) * 2015-05-13 2016-11-17 Capital Preferences, Ltd. Human capital management system and method
KR101819722B1 (ko) * 2015-07-24 2018-03-02 아가월드 주식회사 사용자 체험 기반 가상융합현실 제공방법 및 시스템
US20170193705A1 (en) * 2015-12-31 2017-07-06 Daqri, Llc Path visualization for motion planning
KR20180017736A (ko) * 2016-08-10 2018-02-21 (주) 씽크브릿지 Hmd 및 그 hmd의 제어 방법
WO2020077254A1 (en) * 2018-10-12 2020-04-16 Armaments Research Company Inc. Firearm monitoring and remote support system
KR101954338B1 (ko) * 2017-06-12 2019-05-17 (주) 씽크브릿지 증강 현실 컨텐츠를 제공하는 전자 장치, 밴드 장치 및 컨텐츠 제공 시스템
KR20190013346A (ko) * 2017-08-01 2019-02-11 주식회사 붕우 체험형 mr 어드벤처 관광 서비스 제공 방법 및 장치
KR102092464B1 (ko) * 2017-12-26 2020-03-23 (주)스코넥엔터테인먼트 착용형 디스플레이 장치 및 이를 이용한 가상 현실 제어 시스템
CN108744512A (zh) * 2018-06-01 2018-11-06 腾讯科技(深圳)有限公司 信息提示方法和装置、存储介质及电子装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000122520A (ja) 1998-10-14 2000-04-28 Mitsubishi Heavy Ind Ltd 仮想現実シミュレータ及びそのシミュレーション方法
JP2000353248A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実感装置及び複合現実感提示方法
JP2010535363A (ja) 2007-03-01 2010-11-18 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 仮想世界のアバター制御、インタラクティビティおよび通信インタラクティブメッセージング
US20140336786A1 (en) 2013-05-09 2014-11-13 Rockwell Automation Technologies, Inc. Using cloud-based data for virtualization of an industrial automation environment with information overlays
JP2016532909A (ja) 2013-09-11 2016-10-20 リンカーン グローバル, インコーポレイテッドLincoln Global, Inc. リアルタイム模擬バーチャルリアリティ溶接訓練環境用習得管理システム
US20150116316A1 (en) 2013-10-28 2015-04-30 Brown University Virtual reality methods and systems
JP2015121756A (ja) 2013-12-25 2015-07-02 株式会社日立国際電気 救助訓練システム
US20150269818A1 (en) 2014-03-18 2015-09-24 Symbol Technologies, Inc. Modifying rfid system operation using movement detection
CN106055113A (zh) 2016-07-06 2016-10-26 北京华如科技股份有限公司 一种混合现实的头盔显示系统及控制方法
CN106601062A (zh) 2016-11-22 2017-04-26 山东科技大学 一种用于模拟矿井灾害逃生训练的交互方法
JP2019012154A (ja) 2017-06-30 2019-01-24 Mxモバイリング株式会社 Vrを用いた消火体験シミュレーションシステム、体験用消火器、及びプログラム

Also Published As

Publication number Publication date
JP2021068209A (ja) 2021-04-30
US11080930B2 (en) 2021-08-03
US20210125408A1 (en) 2021-04-29
EP3812878A1 (en) 2021-04-28
KR102212511B1 (ko) 2021-02-04

Similar Documents

Publication Publication Date Title
KR102185016B1 (ko) 화학 사고 대응 훈련용 가상 현실 제어 시스템
CN110199325B (zh) 仿真系统、处理方法以及信息存储介质
Kadous et al. Effective user interface design for rescue robotics
US10510189B2 (en) Information processing apparatus, information processing system, and information processing method
KR102181587B1 (ko) 가상 환경 제어 시스템
US11561609B2 (en) Virtual reality control system
US20140160162A1 (en) Surface projection device for augmented reality
Jacobsen et al. Active personalized construction safety training using run-time data collection in physical and virtual reality work environments
KR102182079B1 (ko) 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법
CN111716365B (zh) 基于自然行走的沉浸式远程交互系统及方法
JP7000397B2 (ja) 仮想現実制御システム
KR102237608B1 (ko) 가상 현실 제어 시스템
KR102218088B1 (ko) 가상 현실 제어 시스템
Kamalasanan et al. Behaviour control with augmented reality systems for shared spaces
KR102218089B1 (ko) 가상 현실 제어 시스템
KR102212507B1 (ko) 가상 현실 제어 시스템
KR102613539B1 (ko) 가상 현실 제어 시스템
RE Low cost augmented reality for industrial problems
KR102218091B1 (ko) 가상 현실 제어 시스템
KR102212508B1 (ko) 가상 환경 제어 시스템
Cleary Systematic use of deictic commands for mobile robot navigation
Hung et al. Security Robot Simulator
CN117253016A (zh) 基于现场三维模型的vr巡检方法、装置、设备及介质
Tsujimura et al. Active spatial interface projecting luminescent augmented reality marker
KR20150009631A (ko) 가상 객체의 표시 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211223

R150 Certificate of patent or registration of utility model

Ref document number: 7000397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150