KR102182079B1 - 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법 - Google Patents

화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법 Download PDF

Info

Publication number
KR102182079B1
KR102182079B1 KR1020200077266A KR20200077266A KR102182079B1 KR 102182079 B1 KR102182079 B1 KR 102182079B1 KR 1020200077266 A KR1020200077266 A KR 1020200077266A KR 20200077266 A KR20200077266 A KR 20200077266A KR 102182079 B1 KR102182079 B1 KR 102182079B1
Authority
KR
South Korea
Prior art keywords
user
virtual reality
control system
virtual
information
Prior art date
Application number
KR1020200077266A
Other languages
English (en)
Inventor
윤이
김소영
김보경
황승율
류연기
신창현
김정민
마병철
송채훈
신승준
임민택
신수빈
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020200077266A priority Critical patent/KR102182079B1/ko
Application granted granted Critical
Publication of KR102182079B1 publication Critical patent/KR102182079B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어 방법은, 사용자가 비상조치 단계를 수행하였는지 여부를 판단하는 단계; 상기 비상조치 단계 이후 상기 사용자가 누출정보 식별 단계를 수행하였는지 여부를 판단하는 단계; 상기 누출정보 식별 단계 이후 상기 사용자가 이송펌프 중지 단계를 수행하였는지 여부를 판단하는 단계; 상기 이송펌프 중지 단계 이후 상기 사용자가 누출봉쇄 단계를 수행하였는지 여부를 판단하는 단계; 상기 누출봉쇄 단계 이후 상기 사용자가 확산 차단 단계를 수행하였는지 여부를 판단하는 단계; 및 상기 확산 차단 단계 이후 상기 사용자가 밸브 차단 단계를 수행하였는지 여부를 판단하는 단계를 포함하고, 상기 밸브 차단 단계의 수행여부는 밸브와 대응되는 시뮬레이터의 회전에 기초하여 판단될 수 있다.

Description

화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법{Method of Controlling Virtual Reality Control System for chemical accident response training}
본 발명은 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법 에 관한 것이다. 본 아래의 실시예들은 가상 현실 제어 시스템에 관한 것으로, 보다 상세하게는 현실에서의 사용자의 위치에 기반한 가상 현실을 사용자에게 제공하여 사용자가 직접적으로 체험하기 어려운 상황을 가상으로 제공하는 가상 현실 제어 시스템에 관한 것이다.
가상 현실은 현실을 기반으로 현실에 가상의 정보를 부가하여 사용자에게 제공하거나 현실에서의 대상체의 상태를 프로그램에 의해 생성된 가상 현실 이미지로써 제공하는 기술일 수 있다.
이러한 가상 현실 제공 기술에는 현실에 제공되는 사용자나 오브젝트 등의 대상체의 상태에 대한 정보를 기반으로 프로그램에 의해 가상 공간, 가상 캐릭터 및 가상 오브젝트 등을 생성하는 기술이 포함될 수 있고, 이 때 다양한 센서를 이용하여 대상체의 상태에 대한 정보를 획득하게 된다.
가상 현실 시스템을 이용하여 사용자에게 다양한 재난 훈련이 제공될 수 있으며 최근 가상 현실을 체험하는 사용자의 몰입감을 향상시키는 방법에 대한 연구가 활발히 진행되고 있다.
한편, 사용자의 위치만을 기반으로 하여 사용자에게 가상 현실을 제공하는 종래의 기술은 사용자에게 시각적 효과는 줄 수 있으나 촉각적 효과는 주기 어려운 한계가 있다.
본 발명이 해결하고자 하는 일 과제는, 사용자에게 재난 훈련과 관련된 가상 현실을 제공함에 있어 실제 재난과 유사한 환경을 구축하는 가상 현실 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 일 과제는, 사용자에게 가상 현실을 제공함에 있어 사용자가 시뮬레이터(simulator)를 이용할 수 있는 가상 현실 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 일 과제는, 사용자에게 제공되는 가상 현실에 가스가 확산되는 것을 표시하는 가상 현실 제어 시스템을 제공하는 것이다.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어 방법은, 사용자가 비상조치 단계를 수행하였는지 여부를 판단하는 단계; 상기 비상조치 단계 이후 상기 사용자가 누출정보 식별 단계를 수행하였는지 여부를 판단하는 단계; 상기 누출정보 식별 단계 이후 상기 사용자가 이송펌프 중지 단계를 수행하였는지 여부를 판단하는 단계; 상기 이송펌프 중지 단계 이후 상기 사용자가 누출봉쇄 단계를 수행하였는지 여부를 판단하는 단계; 상기 누출봉쇄 단계 이후 상기 사용자가 확산 차단 단계를 수행하였는지 여부를 판단하는 단계; 및 상기 확산 차단 단계 이후 상기 사용자가 밸브 차단 단계를 수행하였는지 여부를 판단하는 단계를 포함하고, 상기 밸브 차단 단계의 수행여부는 밸브와 대응되는 시뮬레이터의 회전에 기초하여 판단될 수 있다.
본 발명에 의하면, 사용자가 재난 훈련 컨텐츠를 통해 직간접적으로 재난을 체험함으로써 재난에 대한 경각심을 높이고 재난에 대한 훈련을 진행할 수 있다.
본 발명에 의하면, 실제 발생할 수 있는 재난을 가상 현실에서 구현함으로써 사용자로 하여금 몰입감과 흥미도를 향상시킬 수 있다.
본 발명에 의하면, 사용자가 시뮬레이터를 이용함으로써 촉각 피드백을 받을 수 있어 가상 현실에 대한 몰입도를 증가시킬 수 있다.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 명세서의 일 실시예에 따른 가상 현실 제어 시스템을 나타내는 도면이다.
도 2는 본 명세서의 일 실시예에 따른 디텍팅 장치를 나타내는 도면이다.
도 3은 본 명세서의 일 실시예에 따른 서버를 나타내는 도면이다.
도 4는 본 명세서의 일 실시예에 따른 보조 컴퓨팅 장치를 나타내는 도면이다.
도 5는 본 명세서의 일 실시예에 따른 착용형 디스플레이 장치를 나타내는 도면이다.
도 6은 본 명세서의 일 실시예에 따른 가상 현실 제어 시스템이 구현되는 것을 나타내는 도면이다.
도 7은 본 명세서의 일 실시예에 따른 대상체 추적 방법을 나타내는 도면이다.
도 8은 본 명세서의 일 실시예에 따른 가상 현실 이미지가 착용형 디스플레이 장치를 통해 출력되는 것을 나타내는 도면이다.
도 9는 본 명세서의 일 실시예에 따른 가상 현실 이미지를 나타내는 도면이다.
도 10은 본 명세서의 일 실시예에 따른 추적 영역에 리얼 오브젝트가 배치되는 것을 나타내는 도면이다.
도 11은 본 명세서의 일 실시예에 따른 시뮬레이터의 구성을 나타내는 도면이다.
도 12는 본 명세서의 가상 현실 제어 시스템의 제어방법에 기초한 화학사고 대응 시나리오를 나타내는 순서도이다.
도 13은 본 명세서의 일 실시예에 따른 가상 현실에서 누출 가스를 표시하는 방법을 나타내는 순서도이다.
도 14는 본 명세서의 일 실시예에 따른 가스의 확산 모델을 나타내는 도면이다.
도 15는 본 명세서의 일 실시예에 따른 가상 현실에서 가스가 확산되는 것을 나타내는 도면이다.
도 16은 본 명세서의 일 실시예에 따른 가상 현실에서 가스와 캐릭터가 표시되는 것을 나타내는 도면이다.
도 17은 본 명세서의 일 실시예에 따른 시뮬레이터의 동작을 나타내는 도면이다.
도 18은 본 명세서의 일 실시예에 따른 가상 오브젝트 동작에 의한 가스 차단을 나타내는 도면이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈", "유닛" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 발명의 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어 방법은, 사용자가 비상조치 단계를 수행하였는지 여부를 판단하는 단계; 상기 비상조치 단계 이후 상기 사용자가 누출정보 식별 단계를 수행하였는지 여부를 판단하는 단계; 상기 누출정보 식별 단계 이후 상기 사용자가 이송펌프 중지 단계를 수행하였는지 여부를 판단하는 단계; 상기 이송펌프 중지 단계 이후 상기 사용자가 누출봉쇄 단계를 수행하였는지 여부를 판단하는 단계; 상기 누출봉쇄 단계 이후 상기 사용자가 확산 차단 단계를 수행하였는지 여부를 판단하는 단계; 및 상기 확산 차단 단계 이후 상기 사용자가 밸브 차단 단계를 수행하였는지 여부를 판단하는 단계를 포함하고, 상기 밸브 차단 단계의 수행여부는 밸브와 대응되는 시뮬레이터의 회전에 기초하여 판단될 수 있다.
상기 시뮬레이터의 회전은 상기 시뮬레이터에 부착된 마커패턴의 변화에 의해 감지될 수 있다.
상기 밸브 차단 단계가 수행되면, 상기 사용자가 착용한 착용형 디스플레이 장치에 가스가 제거된 영상이 표시될 수 있다.
상기 누출정보 식별 단계는 센싱부에 의해 획득된 사용자의 위치정보 및 회전정보에 기초하여 상기 사용자의 시선이 미리 정해진 영역 내에 미리 정해진 시간동안 위치하는 경우 상기 누출정보를 식별한 것으로 판단할 수 있다.
상기 누출정보 식별 단계는 센싱부에 의해 획득된 사용자의 위치정보에 기초하여 상기 사용자의 위치가 미리 정해진 영역 내에 미리 정해 진 시간동안 위치하는 경우 상기 누출 정보를 식별한 것으로 판단할 수 있다.
상기 이송 펌프 중지 단계는 상기 사용자가 미리 정해진 차단 순서에 대응되도록 차단을 수행하였는지 여부에 기초하여 이송펌프 중지를 수행하였는지 여부를 판단할 수 있다.
상기 밸브 차단 단계 이후 상기 사용자가 제독 실시 단계를 수행하였는지 여부를 판단할 수 있다.
상기 시뮬레이터의 회전 속도에 기초하여 상기 사용자의 밸브 차단을 평가할 수 있다.
본 발명의 일 양상에 따르면, 화학 사고 대응 훈련 컨텐츠를 제공하는 가상 현실 제어 시스템에 있어서, 대상체에 광을 조사하고 수신하여 광 신호를 검출하는 센싱부, 사용자에게 영상을 출력하는 디스플레이, 상기 디스플레이를 제어하는 적어도 하나 이상의 제어부 및 상기 영상에 밸브로 표시되는 시뮬레이터를 포함하고, 상기 제어부는, 상기 광 신호에 기초하여 상기 사용자에 관한 제1 위치 정보 및 상기 시뮬레이터에 관한 제2 위치 정보를 획득하고, 상기 제1 위치 정보에 기초하여 상기 사용자에 대응하는 캐릭터의 가상 위치를 지시하는 제1 가상 위치 정보를 획득하고 상기 제2 위치 정보에 기초하여 상기 시뮬레이터에 대응하는 상기 밸브의 가상 위치를 지시하는 제2 가상 위치 정보를 획득하며, 상기 디스플레이에 상기 제1 가상 위치 정보 및 상기 제2 가상 위치 정보에 기초하여 상기 캐릭터 및 상기 밸브를 표시하고 상기 밸브로부터 미리 설정된 거리 이내에 가스를 표시하되, 상기 캐릭터의 적어도 일부가 상기 밸브와 접촉한 상태에서 움직이면 상기 가스의 적어도 일부를 표시하지 않는 가상 현실 제어 시스템이 제공될 수 있다.
본 발명의 또 다른 양상에 따르면, 재난 훈련 컨텐츠를 제공하는 가상 현실 제어 시스템에 있어서, 대상체에 광을 조사하고 수신하여 광 신호를 검출하는 센싱부, 사용자에게 영상을 출력하는 디스플레이, 상기 디스플레이를 제어하는 적어도 하나 이상의 제어부 및 상기 영상에 가상 오브젝트로 표시되는 시뮬레이터를 포함하고, 상기 제어부는, 상기 광 신호에 기초하여 상기 사용자에 관한 제1 위치 정보 및 상기 시뮬레이터에 관한 제2 위치 정보를 획득하고, 상기 사용자의 상기 제1 위치 정보에 기초하여 제1 가상 위치 정보를 획득하고 상기 시뮬레이터의 상기 제2 위치 정보에 기초하여 제2 가상 위치 정보를 획득하며, 상기 디스플레이에 재난 훈련을 위한 가스 및 상기 제2 가상 위치 정보에 기초하여 상기 가상 오브젝트를 표시하고, 상기 제1 가상 위치 정보 및 상기 제2 가상 위치 정보가 미리 설정된 거리 이내에 위치하는 상태에서 상기 제2 가상 위치 정보가 제3 가상 위치 정보로 변경되면 상기 디스플레이에 상기 가스가 제거된 영상을 표시하는 가상 현실 제어 시스템이 제공될 수 있다.
여기서, 상기 가상 오브젝트는 상기 시뮬레이터와 다른 형상일 수 있다.
또 여기서, 상기 시뮬레이터는 상기 사용자에 의해 조작 가능한 시뮬레이터 조작부 및 미리 설정된 패턴을 형성하는 복수의 마커를 포함하고, 상기 제2 위치 정보는 상기 마커 중 적어도 하나의 위치 정보일 수 있다.
또 여기서, 상기 제3 가상 위치 정보는 제3 위치 정보로부터 획득되고, 상기 제2 위치 정보 및 상기 제3 위치 정보는 상기 시뮬레이터 조작부에 배치되는 상기 마커의 위치 정보일 수 있다.
또 여기서, 상기 가스는 상기 디스플레이에 시간의 경과에 따라 확산되어 표시될 수 있다.
또 여기서, 상기 가스는 미리 설정된 기체 확산 모델에 기초하여 확산될 수 있다.
또 여기서, 상기 제어부는 상기 가스의 종류 및 상기 가스의 밀도에 기초하여 상기 디스플레이에 상기 가스를 표시할 수 있다.
본 명세서는 가상 현실 제어 시스템에 관한 것으로, 가상 현실 제어 시스템은 사용자가 현실에서는 공간, 시간의 제약 또는 구현이나 발생의 한계 등으로 인해 경험하기 어려운 상황을 가상 공간에서 체험하도록 가상 현실을 제공할 수 있다.
여기서, 가상 현실은 현실 세계와 달리 프로그램에 의해 생성된 인공적인 환경일 수 있다.
이러한 가상 현실은 통상적으로 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 VR, 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 AR 및 현실 세계와 가상 현실을 융합하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 MR로 구분될 수 있다.
이하에서 설명되는 가상 현실을 설명함에 있어서 가상 현실은 앞서 설명된 VR, AR 및 MR 뿐만 아니라 다양한 형태의 가상 공간을 제공하는 가상 환경을 의미할 수 있다.
이하에서는 도 1을 참조하여 본 명세서의 일 실시예에 따른 가상 현실을 제공하기 위한 가상 현실 제어 시스템(10)에 대해서 설명하도록 한다.
도 1은 본 명세서의 일 실시예에 따른 가상 현실 제어 시스템(10)을 나타내는 도면이다.
도 1을 참조하면, 가상 현실 제어 시스템(10)은 디텍팅 장치(100), 서버(200), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)를 포함할 수 있다.
일 실시예에 따르면 디텍팅 장치(100)는 서버(200)와 연결될 수 있다.
디텍팅 장치(100)는 대상체를 추적하여 디텍팅 정보를 획득할 수 있다.
일 실시예에 따른 대상체는 착용형 디스플레이 장치(400)를 통해 출력되는 이미지에 영향을 주는 물체일 수 있다. 예를 들어 대상체는 착용형 디스플레이 장치(400), 사용자, 입력 장치(500), 리얼 오브젝트(real object)와 같이 상기 사용자 주변에 위치한 물체 및 기준점 또는 특징점을 갖는 물체 중 적어도 하나가 포함될 수 있다.
또한 일 실시예에 따른 대상체의 추적은 현실 환경에서의 대상체의 위치에 대한 정보를 획득하는 것을 의미할 수 있다. 예를 들어 대상체의 추적은 현실 환경에서 대상체의 이동에 따라 변경되는 위치에 대한 정보를 획득할 수 있다. 이러한 대상체에 대한 위치 정보는 획득한 미리 정해진 주기로위치 정보 획득될 수 있으나, 이에 한정되는 것은 아니다.
일 실시예에 따르면 디텍팅 장치(100)는 디텍팅 정보를 서버(200)에 제공할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100) 및 보조 컴퓨팅 장치(300)와 연결될 수 있다.
서버(200)는 연결된 구성으로부터 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100)로부터 디텍팅 정보, 디텍팅 장치(100)가 획득한 이미지 정보 및 디텍팅 장치(100)의 상태 정보 중 적어도 하나를 획득할 수 있다.
그 밖에도 서버(200)는 후술할 몇몇 실시예에 따라 다양한 정보를 획득할 수 있다.
일 실시예에 따르면 서버(200)는 연결된 구성을 제어할 수 있다.
일 실시예에 따르면 서버(200)는 보조 컴퓨팅 장치(300) 또는 착용형 디스플레이 장치(400)를 제어할 수 있다.
일 예로 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 프로그램 또는 어플리케이션의 구동을 제어할 수 있다. 보다 구체적인 예를 들어 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 프로그램 또는 어플리케이션의 시작 및/또는 종료를 제어할 수 있다.
다른 예로 서버(200)는 디텍팅 장치(100)의 동작에 필요한 다양한 설정을 제공할 수 있다.
또한 서버(200)는 디텍팅 정보에 기초하여 대상체의 위치 정보를 생성하거나 대상체의 위치에 대응하는 가상 현실에서의 가상 위치 정보를 생성할 수 있다.
또한 서버(200)는 보조 컴퓨팅 장치(300)에서 구동되는 프로그램 또는 어플리케이션의 인증을 수행할 수 있다.
일 실시예에 따른 서버(200)의 기능이 상술한 기능으로 한정되는 것은 아니며, 실시예에 따라 다양한 기능을 수행하는 서버(200)가 제공될 수 있다.
또한 일 실시예예 따른 서버(200)가 반드시 하나의 물리적인 구성으로 제공되어야 하는 것은 아니며, 상술한 기능을 세분화 하여 각각의 기능을 수행하는 복수의 장치로 제공될 수 있다.
예를 들어 서버(200)는 디텍팅 장치(100)와 연결되어 디텍팅 정보에 기초하여 위치 정보를 획득하는 디텍팅 서버, 가상 현실 제어 시스템(10)에 제공되는 구성 중 적어도 일부에 대한 제어를 수행하는 운영 서버 및 가상 현실 제어 시스템(10)의 각 구성 중 적어도 하나의 구성에서 실행되는 프로그램 또는 어플리케이션에 대한 인증을 수행하는 라이선스 서버 등으로 세분화되어 각 서버에서 수행될 수 있다.
한편, 서버(200)는 보조 컴퓨팅 장치(300)가 입력 장치(500)로부터 획득한 입력신호 또는 입력신호에 기초한 입력 정보를 제공 받을 수 있다.
입력 정보는 가상 현실 내 오브젝트 등에 대한 사용자의 선택 정보, 입력 장치(500)를 통하여 입력된 동작에 대한 정보, 입력 장치(500)의 지향 방향에 대한 지향 정보 등을 포함할 수 있다.
보조 컴퓨팅 장치는(300)는 디텍팅 장치(100), 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 장치(300)는 서버(200)로부터 획득한 위치 정보에 기초하여 가상 위치 정보를 산출할 수 있다.
또는 보조 컴퓨팅 장치(300)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보를 가공하여 대상체의 위치 정보를 산출하거나 가상 위치 정보를 산출할 수 있다.
보조 컴퓨팅 장치(300)는 미리 저장된 프로그램 또는 어플리케이션을 통하여 착용형 디스플레이 장치(400)를 통하여 사용자에게 이미지를 제공할 수 있다.
또한 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통해 사용자에게 제공할 음향 정보를 제공할 수 있다.
일 실시예에 따르면, 보조 컴퓨팅 장치(300)는 미리 설치된 어플리케이션 또는 프로그램을 통해 위치 정보에 기초하여 사용자에게 제공될 이미지를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 입력 장치(500)로부터 획득한 입력신호에 기초하여 입력 정보를 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 획득한 입력 정보를 고려하여 사용자에게 제공할 이미지를 획득할 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 장치(400)는 사용자에게 가상 현실에 대한 이미지를 제공할 수 있다.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 현실 이미지를 사용자에게 시각적으로 출력할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 음향 정보를 출력할 수 있다.
입력 장치(500)는 가상 현실에 반영할 사용자의 입력에 대한 신호를 획득할 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
입력 장치(500)는 보조 컴퓨팅 장치(300)로 사용자의 입력에 대응하는 입력신호를 제공할 수 있다.
입력 장치(500)는 사용자의 동작에 대응하는 신호를 획득하기 위한 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMU), 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등을 포함할 수 있다.
또한 입력 장치(500)는 사용자의 선택에 대한 신호를 획득하기 위한 버튼, 스위치, 조그셔틀 및 휠 등을 포함할 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식으로 연결될 수 있다.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와의 통신을 위한 통신 모듈을 포할 수 있다.
도 1에는 입력 장치(500)가 보조 컴퓨팅 장치(300)와 연결되는 것으로 도시하였으나 이에 한정되는 것은 아니며 입력 장치(500)는 선택에 따라 다양한 연결 형태로 제공될 수 있다.
예를 들어 입력 장치(500)는 서버(200) 및 착용형 디스플레이(400)등의 구성과 연결되어 입력 신호를 제공할 수 있다.
이상에서 설명된 가상 현실 제어 시스템(10)은 설명의 편의를 위한 예시일 뿐 일 실시예에 따른 가상 현실 제어 시스템(10)이 도 1에 도시된 구성 및 연결 관계로 한정되는 것은 아니며 선택에 따라 다양한 형태로 제공될 수 있다.
일 예로 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400)는 하나의 구성으로 제공될 수 있으며, 이 경우 보조 컴퓨팅 장치(300)에서 수행하는 동작이 착용형 디스플레이 장치(400)에서 구현될 수 있다.
다만, 이하에서 다양한 실시예들을 설명함에 있어서 설명의 편의를 위하여 상술한 가상 현실 제어 시스템(10)을 예시로 하여 설명하도록 한다.
이하에서는 도 2를 참조하여 본 명세서의 일 실시예에 따른 디텍팅 장치(100)에 대하여 설명하도록 한다.
도 2는 본 명세서의 일 실시예에 따른 디텍팅 장치(100)를 나타내는 도면이다.
도 2를 참조하면, 디텍팅 장치(100)는 발광부(110) 및 센싱부(120)를 포함할 수 있다.
발광부(110)는 대상체 추적을 위해 상기 대상체 또는 그 주변에 신호를 송출할 수 있다.
일 예로, 발광부(110)는 가시광 및 적외선 등의 광 신호를 외부로 발신하는 발광 소자로 제공될 수 있다.
보다 구체적인 예를 들어 발광부는 가시광 LED 및 적외선 LED 등으로 제공될 수 있다.
센싱부(120)는 외부로부터 신호를 획득할 수 있다.
일 예로, 센싱부(120)는 발광부(110)가 송출한 신호에 대응하는 신호를 획득할 수 있다.
다른 예로, 센싱부(120)는 대상체에 제공되는 마커가 반사한 광에 대한 신호를 획득할 수 있다.
예를 들어 센싱부(120)는 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등으로 제공될 수 있다.
도 3은 본 명세서의 일 실시예에 따른 서버(200)를 나타내는 도면이다.
도 3을 참조하면, 서버(200)는 서버 통신부(210), 서버 저장부(220), 서버 입력부(230), 서버 제어부(240) 및 서버 디스플레이부(250)를 포함할 수 있다.
서버 통신부(210)는 디텍팅 장치(100), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결되어 데이터를 획득하거나 제공할 수 있다.
서버 통신부(210)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 디텍팅 장치(100), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
서버 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
서버 저장부(220)는 데이터를 저장할 수 있다.
서버 저장부(220)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 서버 저장부(220)는 서버(200)의 동작에 필요한 정보를 저장할 수 있다.
예를 들어 서버 저장부(220)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, SSD, CD-ROM, DVD-ROM 또는 USB 등으로 제공될 수 있다.
서버 입력부(230)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
서버 입력부(230)는 예를 들어 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
서버 제어부(240)는 서버(200)의 동작을 총괄할 수 있다.
일 예로 서버 제어부(240)는 서버(200)에 포함된 구성의 동작을 제어할 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력할 수 있다.
서버 디스플레이부(250)는 시각적인 정보를 출력하는 모니터, TV, 디스플레이 패널 등으로 제공될 수 있다.
또한 서버 디스플레이부(250)가 터치 스크린으로 제공되는 경우, 서버 디스플레이부(250)는 서버 입력부(230)의 기능을 수행할 수 있다.
도 4는 본 명세서의 일 실시예에 따른 보조 컴퓨팅 장치(300)를 나타내는 도면이다.
도 4를 참조하면, 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 통신부(310), 보조 컴퓨팅 저장부(320), 보조 컴퓨팅 입력부(330) 및 보조 컴퓨팅 제어부(340)를 포함할 수 있다.
보조 컴퓨팅 통신부(310)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.
보조 컴퓨팅 통신부(310)는 연결된 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 정보를 교환할 수 있다.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.
보조 컴퓨팅 통신부(310)는 무선 통신 및 유선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.
보조 컴퓨팅 저장부(320)는 외부로부터 획득한 정보를 저장할 수 있다.
또한 보조 컴퓨팅 저장부(320)는 보조 컴퓨팅 장치(300)의 동작에 필요한 데이터 등을 저장할 수 있다.
또한, 보조 컴퓨팅 저장부(320)는 사용자에게 가상 체험을 제공하기 위한 어플리케이션 또는 프로그램 등을 저장할 수 있다.
보조 컴퓨팅 입력부(330)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.
예를 들어 보조 컴퓨팅 입력부(330)는 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.
보조 컴퓨팅 제어부(340)는 보조 컴퓨팅 장치(300)의 동작을 총괄할 수 있다.
도 5는 본 명세서의 일 실시예에 따른 착용형 디스플레이 장치(400)를 나타내는 도면이다.
도 5를 참조하면, 착용형 디스플레이 장치(400)는 착용형 디스플레이 통신부(410), 착용형 디스플레이 저장부(420), 착용형 디스플레이 센서부(430), 착용형 디스플레이 제어부(440) 및 착용형 디스플레이 출력부(450)를 포함할 수 있다.
착용형 디스플레이 통신부(410)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 통신부(410)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 보조 컴퓨팅 장치(300)와 연결될 수 있다.
착용형 디스플레이 저장부(420)는 데이터를 저장할 수 있다.
착용형 디스플레이 저장부(420)는 착용형 디스플레이 장치(400)의 동작에 필요한 어플리케이션 또는 프로그램을 저장할 수 있다.
또한 착용형 디스플레이 저장부(420)는 외부로부터 획득한 정보를 저장할 수 있다.
착용형 디스플레이 센서부(430)는 착용형 디스플레이 장치(400)의 상태 및 사용자의 입력에 대응하는 신호를 획득할 수 있다.
일 실시예에 따른 착용형 디스플레이 센서부(430)는 착용형 디스플레이 동작 센서모듈(431) 및 착용형 디스플레이 음향 센서모듈(432)을 포함할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 상태에 대한 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 회전에 대한 회전 정보를 획득할 수 있다.
다른 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 위치 이동에 대한 이동 정보를 획득할 수 있다.
착용형 디스플레이 동작 센서모듈(431)은 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 또는 전자파 센서 등을 포함할 수 있다.
착용형 디스플레이 음향 센서모듈(432)는 외부로부터 유입되는 소리에 대응하는 신호를 획득할 수 있다.
일 예로 착용형 디스플레이 음향 센서모듈(432) 마이크일 수 있다.
착용형 디스플레이 제어부(440)는 착용형 디스플레이 장치(400)의 동작을 총괄할 수 있다.
착용형 디스플레이 화면 출력부(450)는 사용자에게 시각적인 정보를 출력할 수 있다.
일 예로 착용형 디스플레이 화면 출력부(450)는 가상 현실에 대한 이미지를 출력할 수 있다. 또한 다른 예로 착용형 디스플레이 화면 출력부(450)는 3차원 가상 현실에 대한 이미지를 출력할 수 있다.
착용형 디스플레이 화면 출력부(450)는 액정 디스플레이(LCD), 전자 종이, LED 디스플레이, OLED 디스플레이, 곡면 디스플레이, 스테레오스코피(양안 시차를 이용한 3차원 디스플레이) 등의 이미지 출력 장치로 제공될 수 있다.
착용형 디스플레이 음향 출력부(460)는 청각적인 정보를 출력할 수 있다.
착용형 디스플레이 음향 출력부(460)는 튜너, 재생장치, 앰프, 스피커 등의 음향장치로 제공될 수 있다.
도 6은 본 명세서의 일 실시예에 따른 가상 현실 제어 시스템(10)이 구현되는 것을 나타내는 도면이다.
도 6을 참조하면 가상 현실 제어 시스템(10)은 적어도 하나의 사용자(800)에게 가상 체험을 위한 추적 영역(600)이 제공됨으로써 구현될 수 있다.
또한 추적 영역(600)에서 사용자(800)에게 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나가 제공될 수 있다.
또한 사용자(800)에게 제공되는 대상체에는 마커(M)가 제공될 수 있다.
일 예로 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)인 경우 착용형 디스플레이 장치(400) 및 입력 장치(500)에는 서로 상이한 패턴의 마커(M)가 제공될 수 있다.
마커(M)가 제공되는 패턴에 대해서는 후술하도록 한다.
또한 추적 영역(600)에는 적어도 하나의 디텍팅 장치(100)가 제공될 수 있다.
일 예로 도 6에 도시된 바와 같이 추적 영역(600)에는 복수의 디텍팅 장치(100)가 제공될 수 있다.
이러한 디텍팅 장치(100)는 추적 영역(600)의 주변을 둘러 미리 정해진 간격으로 이격 되어 제공될 수 있다.
또한 디텍팅 장치(100)는 지면으로부터 미리 정해진 높이만큼 이격되어 제공될 수 있다.
또한 디텍팅 장치(100)는 추적 영역(600)을 지향하도록 제공될 수 있다.
디텍팅 장치(100)는 미리 설치된 프레임에 고정되어 설치 될 수 있다.
일 예로 도 6에 도시된 바와 같이 추적 영역(600) 주변에는 디텍팅 장치(100)를 설치하기 위한 프레임이 제공될 수 있다. 또한 디텍팅 장치(100)는 프레임에 고정되어 설치될 수 있다.
디텍팅 장치(100)는 추적 영역(600)에 대한 디텍팅 정보를 획득할 수 있다.
일 예로 디텍팅 장치(100)에 포함된 센싱부(120)는 추적 영역(600) 중 적어도 일부에 대한 디텍팅 정보를 획득할 수 있다.
디텍팅 장치(100)는 디텍팅 정보를 서버(200) 또는 보조 컴퓨팅 장치(300)에 제공할 수 있다.
일 예로 디텍팅 장치(100)는 센싱부(120)가 획득한 디텍팅 정보를 서버(200)에 제공할 수 있다.
서버(200)는 디텍팅 정보에 기초하여 대상체의 실시간 위치 정보를 획득할 수 있다.
도 6에 도시된 바와 같이 추적 영역(600)에 복수의 디텍팅 장치(100)가 제공되는 경우 서버(200) 또는 보조 컴퓨팅 장치(300)는 복수의 디텍팅 장치(100)로부터 디텍팅 정보를 획득할 수 있으며, 획득한 디텍팅 정보들에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.
또한 서버(200) 또는 보조 컴퓨팅 장치(300)는 대상체들의 위치 정보에 기초하여 적어도 하나의 대상체에 대한 가상 위치 정보를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 사용자(800)의 현실에서의 위치 정보에 포함된 좌표에 대응하는 가상 현실에서의 좌표를 가상 현실에서 사용자(800)에 대응하는 캐릭터의 가상 위치 정보로 획득할 수 있다.
서버(200)는 대상체의 위치 정보 및 가상 위치 정보 중 적어도 하나를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 획득한 위치 정보에 기초하여 가상 위치 정보를 산출할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 가상 현실 이미지를 획득할 수 있다.
일 예로, 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 저장부(320)에 저장된 프로그램 또는 어플리케이션을 이용하여 가상 체험에 필요한 가상 현실을 구축하고 획득한 가상 위치 정보에 기초하여 가상 현실에서 시야 범위를 획득할 수 있다. 보조 컴퓨팅 장치(300)는 가상 현실 내 시야 범위에 기초하여 가상 현실 이미지를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 가상 현실 이미지를 사용자(800)에게 출력할 수 있다.
또한 서버(300)는 모니터링 디스플레이(700)로 가상 현실 이미지를 제공할 수 있다.
서버(300)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 현실 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
또한 서버(300)가 복수의 보조 컴퓨팅 장치(300)와 연결된 경우 서버(300)는 복수의 보조 컴퓨팅 장치(300) 중 적어도 하나의 보조 컴퓨팅 장치(300)로부터 가상 현실 이미지를 획득할 수 있으며, 획득한 가상 현실 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
일 예로 서버(300)는 서버 입력부(230)를 통하여 서버(300)와 연결된 보조 컴퓨팅 장치(300) 중 가상 현실 이미지를 획득할 보조 컴퓨팅 장치(300)에 대한 선택을 획득할 수 있으며, 선택된 보조 컴퓨팅 장치(300)로부터 획득한 가상 현실 이미지를 모니터링 디스플레이(700)로 제공할 수 있다.
또한 서버(300)는 보조 컴퓨팅 장치(300)로부터 가상 위치 정보를 획득할 수 있으며, 획득한 가상 위치 정보 및 미리 설정된 가상 현실 내 가상 카메라 위치에 기초하여 가상 현실 이미지를 획득할 수 있다.
또한 서버(300)는 획득한 가상 현실 이미지를 연결된 모니터링 디스플레이(700)로 제공할 수 있다.
모니터링 디스플레이(700)는 서버(300)로부터 획득한 가상 현실 이미지를 출력할 수 있다.
또한 입력 장치(500)는 서버(200), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 제공될 수 있다.
또한 입력 장치(500)는 적어도 하나의 마커(M)가 제공될 수 있다.
입력 장치(500)는 각각의 사용자(800)가 소지하도록 제공될 수 있다.
일 예로 사용자(800)는 입력 장치(400)를 손에 휴대할 수 있다.
일 실시예에 따르면 서버(200)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 입력 장치(500)의 위치 정보를 획득할 수 있다. 또한 입력 장치(500)의 위치 정보는 추적 영역(600)에서의 입력 장치(500)의 위치 정보 및 입력 장치(500)의 지향 방향 정보 중 적어도 하나를 포함할 수 있다.
보조 컴퓨팅 장치(300)는 입력 장치(500)의 위치 정보에 기초하여 가상 현실에서 입력 장치(500)에 대응하는 가상 오브젝트의 지향 방향을 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 현실에서 입력 장치(500)에 대응하는 가상 오브젝트의 지향 방향이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 가상 현실에서 입력 장치(500)에 대응하는 총이 입력 장치(500)의 지향 방향에 대응하는 방향으로 지향하는 가상 이미지를 획득할 수 있다.
또한 또한 보조 컴퓨팅 장치(300)는 가상 현실에서 입력 장치(500)를 통한 사용자(800)의 이벤트 발생 명령에 따른 이벤트 발생이 고려된 가상 이미지를 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 입력 장치(500)에 제공되는 스위치가 사용자(800)에 의해 눌린 경우 가상 현실에서 사용자(800)에 대응하는 캐릭터가 소지한 총을 발사하는 가상 이미지를 획득할 수 있다.
도 7은 본 명세서의 일 실시예에 따른 대상체 추적 방법을 나타내는 도면이다.
도 7을 참조하면 대상체 추적 방법은 외부에 제공되는 센서를 이용하여 대상체에 대한 정보를 획득하고, 획득한 대상체에 대한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
이하에서는 도 7을 참조하여 대상체가 착용형 디스플레이 장치(400)인 경우를 예시적으로 설명하도록 한다.
도 7을 참조하면 대상체에는 대상체를 식별하기 위한 마커(M)가 제공될 수 있다.
마커(M)는 대상체에 제공되어 대상체를 식별하여 추적하는 기준을 제공할 수 있다.
대상체를 추적하기 위해서는 대상체와 대상체가 아닌 구성을 식별해야 할 필요가 있으며, 대상체에 마커(M)가 제공됨으로써 대상체임을 식별 가능할 수 있다.
또한 복수의 대상체가 제공되는 경우 각각의 대상체를 식별할 필요가 있으며, 이를 위하여 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 구별 가능하게 제공될 수 있다.
예를 들어 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 상이한 패턴으로 제공될 수 있다.
또한 패턴은 복수의 마커(M)가 상이한 위치에 제공되어 형성되는 패턴 및 하나의 디스플레이 패널 등에 제공되는 광 패턴 등 다양한 의미의 패턴을 포함할 수 있다.
패턴은 마커(M)의 마커 좌표에 의해 형성될 수 있다.
일 예로, 세 개의 마커(M)가 디텍팅 장치(100)에 의해 추적되어 디텍팅 정보로 제1 마커 좌표(MP1-1), 제2 마커 좌표(MP1-2) 및 제3 마커 좌표(MP1-3)가 획득될 수 있고 제1 마커 좌표(MP1-1) 내지 제3 마커 좌표(MP1-3)는 삼각형의 패턴을 형성할 수 있다.
또한 마커(M) 는 발광부(110)로부터 송출된 광 신호를 반사하거나 흡수하는 패시브 마커 및 자체적으로 광 신호를 송출할 수 있는 액티브 마커 등으로 제공될 수 있다.
일 예로, 패시브 마커는 광 반사 물질이 부착된 입체 모형, 인식 가능한 코드가 인쇄되어 있는 종이, 반사테이프 등을 포함할 수 있다.
또한 액티브 마커는 LED 모듈, 전파 발생기 등이 포함할 수 있다.
일 실시예에 따르면 대상체에는 적어도 하나의 마커(M)가 제공될 수 있다.
일 예로, 가상 현실 제어 시스템(10)이 하나의 대상체에 대해서만 위치를 추적하는 경우에는 대상체에는 하나의 마커(M)만 제공될 수 있다.
또한 가상 현실 제어 시스템(10)이 하나의 대상체에 대해서만 위치를 추적하는 경우라 하더라도 대상체에는 복수의 마커(M)가 제공될 수 있다.
또한 가상 현실 제어 시스템(10)이 복수의 대상체에 대해서 위치를 추적하는 경우, 복수의 대상체 각각을 식별하기 위해서 하나의 대상체에는 복수의 마커(M)가 패턴을 형성하여 제공될 수 있다.
일 예로 가상 현실 제어 시스템(10)에서 위치를 추적하는 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)의 두 가지로 제공되는 경우 착용형 디스플레이 장치(400)에는 제1 패턴으로 마커(M)가 제공될 수 있고 입력 장치(500)에는 제2 패턴으로 마커가(M) 제공될 수 있다.
제1 패턴 및 제2 패턴은 서로 상이한 패턴으로, 위치 추적 시 제1 패턴이 검출된 경우 착용형 디스플레이 장치(400)로 식별할 수 있으며, 제2 패턴이 검출된 경우 입력 장치(500)로 식별할 수 있다.
이상에서는 복수의 대상체가 제공되는 경우 복수의 각각을 식별하기 위하여 복수의 대상체 각각에 제공되는 마커(M)들이 패턴을 형성하여 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 하나의 대상체가 제공되는 경우에도 대상체에 제공되는 마커(M)들이 패턴을 형성하여 제공될 수 있다.
또한 대상체에 제공되는 마커(M)의 패턴은 사용자(800)의 식별에도 사용될 수 있다.
일 예로 제1 패턴은 제1 사용자가 착용한 착용형 디스플레이 장치로 식별될 수 있으며, 제2 패턴은 제1 사용자가 소지한 입력 장치로 식별될 수 있다. 또한 제3 패턴은 제2 사용자가 착용한 착용형 디스플레이 장치로 식별될 수 있으며, 제4 패턴은 제2 사용자가 소지한 입력 장치로 식별될 수 있다.
대상체의 추적에 대해서 설명하면 서버(200)는 디텍팅 장치(100)로부터 대상체에 대한 정보를 획득할 수 있으며, 획득한 정보에 기초하여 대상체의 위치에 대한 디텍팅 정보를 획득할 수 있다. 또한 서버(200)는 디텍팅 정보에 기초하여 대상체의 위치 정보를 산출할 수 있다.
디텍팅 장치(100)가 서버(200)로 대상체에 대한 정보를 제공하는 기술에 대해서 설명하면 디텍팅 장치(100)의 발광부(110)는 추적 영역(600)의 적어도 일부 영역에 신호를 발신할 수 있다.
일 예로 발광부(110)가 적외선 LED인 경우 발광부(100)는 추적 영역(600)의 적어도 일부 영역에 적외선 신호를 발신할 수 있다.
또한 센싱부(120)는 외부로부터 획득한 정보를 서버(200)로 제공할 수 있다.
일 예로 센싱부(120)가 카메라인 경우 센싱부(120)는 외부로부터 획득한 이미지 신호를 서버(200)로 제공할 수 있다.
도 7에는 하나의 센싱부(120)만 도시되어 있으나, 이에 한정되는 것은 아니며, 앞서 도 6에서 설명된 바와 같이 센싱부(120)는 복수로 제공될 수 있으며, 복수의 센싱부(120) 각각은 획득한 정보를 서버(200)로 제공할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함되어 있는지 여부를 판단할 수 있다. 또한 서버(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함된 경우 마커(M)의 패턴에 기초하여 대상체를 식별할 수 있다.
일 예로 서버(200)는 센싱부(120)로부터 획득한 정보에 제1 패턴이 포함된 경우 착용형 디스플레이 장치(400)임을 식별할 수 있다.
하나의 센싱부(120)로부터 획득한 정보에는 복수의 패턴이 존재할 수 있으며, 서버(200)는 복수의 패턴을 식별할 수 있다.
이러한 패턴은 서버(200)에 미리 저장될 수 있으며, 서버(200)는 획득한 정보에 미리 저장된 패턴이 존재하는 경우 해당 패턴이 존재하는 것으로 판단할 수 있으며, 해당 패턴에 대응하는 대상체를 식별할 수 있다.
서버(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.
한편, 서버(200)에 미리 저장된 패턴 각각에 대해 대표점(RP)이 설정될 수 있다.
대표점(RP)은 패턴을 대표하는 점(point)일 수 있다.
대표점(RP)은 패턴 밖에 존재할 수 있다.
일 예로, 대표점(RP)은 제1 마커 좌표(MK1-1), 제2 마커 좌표(MK1-2) 및 제3 마커 좌표(MK1-3)가 이루는 평면으로부터 일정 거리 떨어진 점으로 설정될 수 있다.
복수의 마커(M)를 통한 패턴이 제공되는 경우 패턴에 포함된 복수의 마커(M)에 대한 좌표 정보가 획득되며, 서버(200)는 패턴을 대표하는 대표점(RP)을 패턴이 제공된 대상체의 위치 정보로 획득할 수 있다.
따라서, 서버(200)는 대상체의 위치 정보를 획득함으로써 대상체를 추적할 수 있다.
일 실시예에 따른 대상체의 위치 추적이 상술한 방법으로 한정되는 것은 아니며, 선택에 따라 다양한 방식의 위치 추적 방법이 사용될 수 있다.
일 실시예에 따르면 센싱부(120)가 이미지 센서로 제공되는 경우 센싱부(120)는 외부에 대한 이미지를 획득할 수 있으며, 획득한 이미지에 기초하여 대상체에 대한 위치 정보를 획득할 수 있다..
일 예로 도 7에 도시된 센싱부(120)가 착용형 디스플레이 장치(400)에 제공되는 경우 센싱부(120)는 착용형 디스플레이 장치(400)의 일측에 제공되어 착용형 디스플레이 장치(400)의 내부에서 외부 방향으로 지향하여 착용형 디스플레이 장치(400)의 외부에 대한 이미지 정보를 획득할 수 있다.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로 획득한 이미지 정보를 제공할 수 있다.
일 실시예에 따르면 착용형 디스플레이 장치(400)는 미리 정해진 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
일 예로 착용형 디스플레이 장치(400)는 센싱부(120)를 통하여 이미지 정보를 획득하는 주기와 동일한 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.
보조 컴퓨팅 장치(300)는 획득한 이미지 정보로부터 적어도 하나의 특징점을 획득할 수 있다.
일 실시예예 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 식별할 수 있으며, 식별된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물이 차지하는 픽셀 수에 기초하여 사물의 크기를 판단할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 설정된 유형의 사물을 특징점으로 획득할 수 있다.
일 예로 공 유형의 사물이 미리 설정된 경우 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 야구공, 축구공 및 농구공 등과 같은 공 유형의 사물을 특징점으로 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 마커를 특징점으로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 바코드, QR 코드와 같은 마커를 식별하여 특징점으로 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 특징점의 위치를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화 및 크기 변화 중 적어도 하나를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 위치와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 위치를 비교한 결과 제1 이미지 정보의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
또한 보조 컴퓨팅 장치(300)는 특징점의 위치가 변경된 경우 특징점의 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 위치와 제2 이미지 정보에서의 특징점의 위치 사이의 픽셀 수에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또는 보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 좌표와 제2 이미지에서의 특징점의 좌표에 기초하여 특징점의 이동 거리를 판단할 수 있다.
또한 일 예로 보조 컴퓨팅 장치(300)는 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.
보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 크기와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 크기를 비교한 결과 제1 이미지 정보의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.
따라서 보조 컴퓨팅 장치(300)는 미리 설정된 초기 위치로부터 대상체의 상대적인 위치 변화에 기초하여 대상체의 위치를 추적할 수 있다.
도 8은 본 명세서의 일 실시예에 따른 가상 현실 이미지(452)가 착용형 디스플레이 장치(400)를 통해 출력되는 것을 나타내는 도면이다.
도 8을 참조하면, 가상 현실 제공 시스템(10)은 착용형 디스플레이 장치(400)를 통하여 사용자(800)에게 가상 현실의 적어도 일부에 대한 가상 현실 이미지(452)를 제공할 수 있다.
여기서, 가상 현실 이미지(452)는 사용자(800)가 가상 현실을 체험하기 위해 착용형 디스플레이 장치(400)를 통해 제공되는 것으로, 가상 현실에 대한 영상으로 구현되는 복수의 이미지 프레임 또는 특정 순간의 이미지 프레임으로 해석될 수 있음을 미리 밝혀둔다.
가상 현실 이미지(452)는 가상 위치 정보에 기초하여 표시되는 캐릭터 또는 가상 오브젝트를 포함할 수 있다. 이 때, 가상 위치 정보는 현실에서 대상체의 위치 좌표 및 지향 방향 중 적어도 하나를 포함하는 위치 정보에 기초하여 산출될 수 있다. 일 예로 위치 정보는 추적 영역(600) 상에 위치한 대상체의 위치 좌표일 수 있다.
서버(200)는 추적 영역(600)에 대한 좌표값을 미리 저장할 수 있다.
서버(200)는 추적 영역(600)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
서버(200)는 디텍팅 정보 및 추적 영역(600)에 대한 좌표계에 기초하여 대상체의 추적 영역(600)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 획득한 대상체의 추적 영역(600)에서의 좌표값을 위치 정보로 획득할 수 있다.
일 예로 서버(200)는 디텍팅 정보가 적외선 이미지인 경우 적외선 이미지에서의 대상체에 대응하는 마커의 위치 및 적외선 이미지를 제공한 디텍팅 장치(100)의 설치 위치에 기초하여 마커의 추적 영역(600)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 마커의 추적 영역(600)에서의 좌표값에 기초하여 마커가 형성하는 패턴을 판단할 수 있으며, 마커가 형성하는 패턴에 대응하는 대상체를 식별할 수 있다. 또한 서버(200)는 마커가 형성하는 패턴 및 마커의 추적 영역(600)에서의 좌표값에 기초하여 대상체의 대표점(RP)을 획득할 수 있으며, 대상체의 대표점(RP)의 좌표값을 대상체의 위치 정보로 획득할 수 있다.
서버(200)는 위치 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실에 대한 좌표값을 미리 저장할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.
보조 컴퓨팅 장치(300)는 위치 정보 및 가상 현실에 대한 좌표계에 기초하여 대상체의 가상 현실에서의 좌표값을 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 획득한 대상체의 가상 현실에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
일 예로 보조 컴퓨팅 장치(300)는 위치 정보에 포함된 좌표값에 대응하는 가상 현실에서의 좌표값을 획득할 수 있으며, 획득한 가상 현실에서의 좌표값을 가상 위치 정보로 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 사용자(800)에게 출력할 가상 현실 이미지(452)를 획득할 수 있다.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 가상 위치 정보를 가상 카메라의 가상 위치 정보로 획득할 수 있으며, 가상 카메라의 가상 위치 정보 및 가상 카메라의 지향 방향에 기초하여 가상 카메라의 시야 범위(451)를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 위치 정보에 포함된 지향 방향에 기초하여 가상 카메라의 지향 방향을 획득할 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 카메라의 지향 방향으로 미리 정해진 영역을 가상 카메라의 시야 범위(451)로 획득할 수 있다.
이와 같이, 착용형 디스플레이 장치(400)의 위치 정보에 기초하여 가상 카메라의 시야 범위(451)를 획득함으로써 사용자(800) 움직임에 따라 가상 현실에서 사용자(800)에 대응하는 캐릭터의 시야가 변경될 수 있고 사용자(800)에게 제공되는 가상 현실 이미지(452)에 이를 반영할 수 있다.
한편, 가상 카메라의 시야 범위(451)는 착용형 디스플레이 장치(400)의 가상 위치 정보 이외에도 가상 현실 내 특정 가상 위치 정보에 의해서도 획득될 수 있다.
또한 보조 컴퓨팅 장치(300)는 가상 현실에서 가상 카메라의 시야 범위(451)에 대응하는 가상 현실 이미지(452)를 획득할 수 있다.
보조 컴퓨팅 장치(300)는 가상 현실 이미지(452)를 착용형 디스플레이 장치(400)로 제공할 수 있다.
착용형 디스플레이 장치(400)는 획득한 가상 현실 이미지(452)를 착용형 디스플레이 화면 출력부(450)를 통하여 사용자(800)에게 출력할 수 있다.
이하에서는 도 9 및 도 10을 참조하여 본 발명의 일 실시예에 따른 가상 현실 제어 시스템(10)이 사용자(800)에게 가상 체험의 일환으로 제공하는 재난 훈련 컨텐츠에 대해서 서술한다.
도 9는 본 명세서의 일 실시예에 따른 가상 현실 이미지(452)를 나타내는 도면이다.
도 10은 본 명세서의 일 실시예에 따른 추적 영역(600)에 리얼 오브젝트(RO)가 배치되는 것을 나타내는 도면이다.
도 9를 참조하면, 가상 현실 제어 시스템(10)은 사용자(800)에게 재난 훈련에 관한 컨텐츠를 제공할 수 있다.
여기서 재난 훈련 컨텐츠는 현실에서 발생할 수 있는 사건, 사고 및 문제 상황에 대응할 수 있도록 사전에 재난에 대비하는 방법에 관한 컨텐츠를 포함할 수 있다. 예를 들어, 재난 훈련 컨텐츠는 화학 물질을 다루는 공장 내에서 발생할 수 있는 화학 사고에 대응하는 훈련 컨텐츠를 포함할 수 있다. 이로써, 사용자(800)는 가상 현실에서 재난을 체험하고 실질적인 훈련을 함으로써 현실에서의 재난에 대비할 수 있다.
다시 도 9를 참조하면, 가상 현실 제어 시스템(10)은 사용자(800)에게 재난 훈련 컨텐츠를 제공하기 위해 재난 훈련에 관한 가상 현실 이미지(452)를 제공할 수 있다.
여기서, 가상 현실 이미지(452)는 재난에 관한 배경 및 지형, 캐릭터(900), 상대 캐릭터(910) 및 가상 오브젝트(VO)를 포함할 수 있다.
여기서, 재난에 관한 배경 및 지형은 재난을 표현하기 위한 지형 지물, 사물을 포함할 수 있다. 예를 들어, 재난이 화학 플랜트 내 화학 사고인 경우 가상 현실 이미지(452)는 수직/수평 배관, 밸브, 저장탱크, 펌프 또는 안전 장비 등과 같은 공장 설비 및 화학 설비를 포함할 수 있다.
여기서, 캐릭터(900)는 가상 현실에서 사용자(800)에 대응하는 캐릭터를 의미할 수 있다. 예를 들어, 캐릭터(900)는 사용자(800)의 움직임을 추적하여 획득된 가상 위치 정보에 기초하여 생성되어 사용자(800)의 움직임에 대응되도록 움직일 수 있다.
여기서, 상대 캐릭터(910)는 보조 컴퓨팅 장치(300)에 미리 저장된 어플리케이션 또는 프로그램에 의해 제공되는 NPC 캐릭터 및 사용자(800) 외의 다른 사용자에 대응되는 캐릭터를 포함할 수 있다. 구체적으로, 가상 현실 제어 시스템(10)에 의해 제공되는 재난 훈련 컨텐츠는 복수의 사용자에게 제공될 수 있다. 이 때, 복수의 사용자는 협업하여 가상 현실에서 재난에 대한 훈련을 체험할 수 있고, 가상 현실에서 각 사용자(800) 본인의 움직임에 따라 움직이는 캐릭터(900) 및 각 사용자(800) 본인을 제외한 다른 사용자의 움직임에 대응하는 캐릭터로 상대 캐릭터(910)가 제공될 수 있다.
여기서, 가상 오브젝트(VO)는 가상 현실 내에 구현되어 캐릭터가 이용할 수 있는 가상의 물체로 도구나 장비, 설비 등을 포함할 수 있다. 예를 들어, 가상 오브젝트(VO)는 현실에서 사용자(800)가 소지한 입력 장치(500)에 대응되도록 가상 현실 내 사용자 캐릭터(900)의 손이나 사용자 캐릭터(900)가 소지하는 장비, 기계 장치 등을 포함할 수 있다. 또 다른 예로, 가상 오브젝트(VO)는 재난 훈련 컨텐츠에서 화학 설비, 장비를 제어하기 위한 밸브, 스패너, 계량기 등을 포함할 수 있다.
가상 오브젝트(VO)는 보조 컴퓨팅 장치(300)에 미리 저장된 어플리케이션 또는 프로그램에 의해 가상 현실에 제공될 수 있다. 여기서, 가상 오브젝트(VO)는 보조 컴퓨팅 장치(300)에 미리 저장된 오브젝트 정보에 기초하여 생성될 수도 있고, 현실에서의 리얼 오브젝트(RO)에 기초하여 생성될 수도 있다.
도 10을 참조하면, 가상 현실 제어 시스템(10)은 가상 현실에 가상 오브젝트(VO)를 표시하기 위해 사용자(800)에게 리얼 오브젝트(RO)가 포함된 추적 영역(600)을 제공할 수 있다.
여기서, 리얼 오브젝트(RO)는 가상 현실 제어 시스템(10)이 사용자(800)에게 제공하는 컨텐츠에 따라 형상이나 모양이 다를 수 있다. 예를 들어, 가상 현실 제어 시스템(10)이 사용자(800)에게 공장 내 사고와 관련된 재난 훈련 컨텐츠를 제공하는 경우, 리얼 오브젝트(RO)는 수직/수평 배관, 밸브, 저장탱크, 펌프 또는 안전 장비 등과 같은 공장 설비 및 화학 설비를 포함할 수 있다. 한편, 리얼 오브젝트(RO)가 반드시 가상 현실에서 제공되는 가상 오브젝트(VO)와 유사한 형상을 가질 필요는 없다. 예를 들어, 리얼 오브젝트(RO)는 디텍팅 장치(100), 서버(200) 또는 보조 컴퓨팅 장치(300)에 리얼 오브젝트(RO)의 크기 정보, 위치 정보 또는 기능 정보를 제공하도록 특징점 또는 마커(M)를 포함하는 경우 해당 리얼 오브젝트(RO)를 기초로 생성되는 가상 오브젝트(VO)와 다른 형상을 가질 수 있다. 다만, 추적 영역(600) 내 공간이 허용되는 경우 리얼 오브젝트(RO)는 가상 오브젝트(VO)와 유사한 형상 및 모양을 가질 수 있고, 이 경우 사용자(800)에게 촉감을 제공하여 사용자(800)의 가상 현실에 대한 몰입감을 향상시킬 수 있다.
리얼 오브젝트(RO)는 자동으로 또는 사용자(800)의 조작에 의해 미리 설정된 기능을 수행하는 시뮬레이터를 포함할 수 있다. 예를 들어, 리얼 오브젝트(RO)는 추적 영역(600) 내에서 가상 현실을 체험하는 사용자(800)가 컨텐츠 진행에 따라 힘을 가하면 회전하거나 위치가 변경되고 관련 정보를 서버(200) 또는 보조 컴퓨팅 장치(300)에 제공할 수 있다. 또는 디텍팅 장치(100)는 리얼 오브젝트(RO)의 위치 변경 또는 회전 여부 등을 감지하여 관련 정보를 서버(200) 또는 보조 컴퓨팅 장치(300)에 제공할 수 있다.
이하에서는, 도 11을 참조하여 사용자(800)에게 리얼 오브젝트(RO)로 제공될 수 있는 시뮬레이터(1100)에 대하여 서술한다.
도 11을 참조하면, 시뮬레이터(1100)는 시뮬레이터 조작부(1110), 시뮬레이터 감지부(1120), 시뮬레이터 제어부(1130) 및 시뮬레이터 통신부(1140)를 포함할 수 있다. 사용자(800)가 시뮬레이터 조작부(1110)를 조작하는 경우 시뮬레이터 감지부(1120)는 조작 정보를 시뮬레이터 제어부(1130)에 제공하고 시뮬레이터 제어부(1130)는 시뮬레이터 통신부(1140)를 통해 서버(200) 또는 보조 컴퓨팅 장치(300)에 조작 정보를 제공할 수 있다.
시뮬레이터 조작부(1100)는 물리적 압력에 의해 동작할 수 있다. 예를 들어 시뮬레이터(1100)가 밸브인 경우 시뮬레이터 조작부(1110)는 밸브를 열고 닫기 위한 핸들(handle) 또는 레버(lever) 등을 포함할 수 있다. 구체적으로 사용자(800)는 밸브의 핸들을 돌리거나 레버를 돌려 밸브의 게이트를 열고 닫을 수 있다.
시뮬레이터 감지부(1120)는 시뮬레이터 조작부(1110)가 조작되는 것을 감지할 수 있다. 예를 들어, 시뮬레이터(1100)가 밸브인 경우 시뮬레이터 감지부(1120)는 밸브의 핸들이나 레버가 움직이는 것을 감지할 수 있다. 한편, 디텍팅 장치(100)에서 시뮬레이터(1100)가 동작하는 것을 감지할 수도 있다. 이 경우 시뮬레이터 감지부(1120)는 생략될 수 있다.
시뮬레이터 제어부(1130)는 시뮬레이터(1100)의 동작 전반을 제어할 수 있다. 예를 들어, 시뮬레이터 제어부(1130)는 사용자(800)가 시뮬레이터 조작부(1110)를 작동하는 경우 조작 정보를 서버(200) 또는 보조 컴퓨팅 장치(300)에 제공할 수 있다. 한편, 디텍팅 장치(100)에서 시뮬레이터(1100)의 동작을 감지하는 경우 시뮬레이터 제어부(1130)는 생략될 수 있다.
시뮬레이터 통신부(1140)는 서버(200) 또는 보조 컴퓨팅 장치(300)와 유/무선으로 통신할 수 있다. 한편, 디텍팅 장치(100)에서 시뮬레이터(1100)의 동작을 감지하는 경우 시뮬레이터 통신부(1140)는 생략될 수 있다.
이상에서는 시뮬레이터(1100)가 밸브인 경우를 예시로 들었으나 본 명세서의 사상이 이에 한정되는 것은 아니며, 시뮬레이터(1100)는 사용자(800)의 조작에 의해 동작하거나 미리 설정된 조건이 만족되면 스스로 동작하는 장치를 포괄하는 개념으로 이해되어야 하는 점을 미리 밝혀둔다.
이상에서는 가상 현실 제어 시스템(10)이 사용자(800)에게 제공하는 재난 훈련 컨텐츠의 일반적인 내용 및 구성에 대하여 서술하였다.
이하에서는 도 12를 참조하여 본 명세서의 일 실시예에 따른 사용자(800)에게 몰입도 높은 재난 훈련 컨텐츠를 제공하기 위해 가상 현실에서 구현할 수 있는 이벤트에 대해서 서술한다.
도 12는 본 명세서의 일 실시 예에 따른 화학사고 대응 시나리오를 나타내는 순서도이다.
가상 현실 제어 시스템(10)은 사용자(800)에게 화학 사고 대응 훈련 시나리오를 제공할 수 있고, 가상 현실 제어 시스템(10)은 시나리오에 따른 사용자(800)의 행동을 유도하며, 이에 대한 사용자(800)의 행위에 기초하여 시나리오를 진행할 수 있도록 제어할 수 있다. 즉, 가상 현실 제어 시스템(10)은 각각의 단계별로 사용자의 행위에 기초하여 목표 달성 여부를 판단하고, 목표가 달성되면 다음 단계로 사용자의 행동을 유도할 수 있다.
가상 현실 시스템(10)은 사용자의 행위에 기초하여 각 단계에 대한 평가를 수행할 수 있다.
도 12를 참조하면, 본 명세서의 일 실시 예에 따른 화학사고 대응 시나리오는 비상조치 단계(S110), 누출정보 식별 단계(S120), 이송펌프 중지 단계(S130), 누출 봉쇄 단계(S140), 확산 차단 단계(S150), 밸브 차단 단계(S160) 및 제독 실시 단계(S170)를 포함할 수 있다.
가상 현실 제어 시스템(10)에 의해 시나리오가 시작되면, 가상 현실 제어 시스템(10)은 사용자(800)가 비상조치 단계를 수행하였는지 여부를 판단할 수 있다. (S110)
가상 현실 제어 시스템(10)은 비상 조치를 설비 가동 버튼 형태로 사용자(800)에게 제공하고, 사용자(800)에 의해 설비 가동 버튼이 눌려졌는지 여부를 판단하여, 사용자가 비상조치 단계를 수행하였는지 여부를 판단할 수 있다.
설비 가동 버튼은 가상 오브젝트 또는 리얼 오브젝트로 제공될 수 있다. 설비 가동 버튼이 가상 오브젝트인 경우에는 사용자의 신체의 일부 또는 사용자가 파지하고 있는 도구의 일부의 좌표가 설비 가동 버튼의 좌표와 중첩되는 경우 사용자(800)가 버튼을 누른 것으로 판단하고, 비상조치 단계가 수행된 것으로 판단할 수 있다.
설비 가동 버튼이 리얼 오브젝트인 경우 사용자의 신체의 일부 또는 사용자가 파지하고 있는 도구의 일부가 리얼 오브젝트에 접촉 또는 리얼 오브젝트를 가압하면 버튼이 눌려진 것으로 판단하고, 비상조치 단계가 수행된 것으로 판단할 수 있다.
가상 현실 제어 시스템(10)은 시나리오가 시작된 후 설비 가동 버튼이 눌려진 것으로 판단된 시간에 기초하여 사용자의 행동을 평가할 수 있다.
비상조치 단계 종료 후 가상 현실 제어 시스템(10)은 사용자(800)가 누출정보 식별 단계를 수행하였는지 여부를 판단할 수 있다. (S120)
누출정보 식별 단계는 사고발생 설비 인지 여부 판단 및 누출 지점 보고 여부 판단을 포함할 수 있다.
가상 현실 제어 시스템(10)은 사용자(800)가 사고발생 설비를 인지하였는지 여부를 판단할 수 있다. 가상 현실 제어 시스템(10)은 영역 트리거 또는 시선 트리거에 의해 사용자(800)가 사고발생 설비를 인지하였는지 여부를 판단할 수 있다.
시선 트리거의 경우 가상 현실 제어 시스템(10)은 사용자(800)의 시선이 사고발생 설비에 시선이 위치하는지 여부를 통해 사고발생 설비에 대한 인지여부를 판단할 수 있다. 즉, 사용자의 시선이 미리 정해진 시선 체크 영역 내에 들어왔는지 여부와 시선 체크 영역 내에 미리 정해진 시간 동안 시선이 유지되는지를 통해 사고발생 설비에 대한 인지여부를 판단할 수 있다. 가상 현실 제어 시스템(10)은 사용자의 위치정보 및 회전정보에 기초하여 사용자(800)의 시선을 판단할 수 있다.
영역 트리거의 경우 가상 현실 제어 시스템(10)은 사용자의 위치가 지정 영역 내에 위치하는지 여부에 기초하여 사고발생 설비에 대한 인지여부를 판단할 수 있다. 즉, 사용자의 위치가 미리 정해진 지정영역 내에 위치하는지와 지정 영역 내에 미리 정해진 시간동안 위치가 유지되는지를 통해 사고발생 설비에 대한 인지여부를 판단할 수 있다. 가상 현실 제어 시스템(10)은 사용자의 위치 정보에 기초하여 영역 트리거를 판단할 수 있다.
가상 현실 제어 시스템(10)은 비상조치 단계 종료 후 시선 트리거 또는 영역 트리거가 발생하는데 걸리는 시간에 기초하여 사용자(800)의 행위를 평가할 수 있다. 시선 트리거의 경우에는 얼마나 오랬동안 시선이 유지되고 있는지에 기초하여 사용자(800)의 행위를 평가할 수 있고, 영역 트리거는 지정영역 중 어느 위치에 사용자가 위치하는지에 기초하여 사용자(800)의 행위를 평가할 수 있다.
사고 발생 설비 인지가 완료되는 사용자(800)는 누출 지점 보고를 수행할 수 있다. 가상 현실 제어 시스템(10)은 사용자(800)의 누출 지점 보고를 유도할 수 있다. 사용자(800)는 음성을 통해 또는 UI형 트리거를 통해 누출 지점 보고를 수행할 수 있다.
사용자(800)가 UI형 트리거를 통해 누출 지점 보고를 수행하는 경우 가상 현실 제어 시스템(10)은 사용자(800)의 착용형 디스플레이 장치에 UI를 출력하고, 사용자(800)의 UI 버튼 선택이 있는 경우 누출 지점 보고가 완료된 것으로 판단할 수 있다. 가상 현실 제어 시스템(10)은 UI출력과 UI버튼 선택 사이의 시간에 기초하여 사용자의 행위를 평가할 수 있다.
누출정보 식별 단계 종료 후 가상 현실 제어 시스템(10)은 사용자(800)가 이송펌프 중지 단계를 수행하였는지 여부를 판단할 수 있다. (S130)
가상 현실 제어 시스템(10)은 절차 트리거를 통해 이송펌프 중지 단계가 적절히 수행되었는지 여부를 판단할 수 있다. 예를 들어, 제1 스텝, 제2 스텝 및 제3 스텝 순서로 이송펌프 중지 단계가 수행되어야 하는 경우 가상 현실 제어 시스템(10)은 사용자(800)가 순서에 부합하도록 행위를 수행했는지를 통해 이송펌프 중지단계의 완료여부를 판단할 수 있다.
가상 현실 제어 시스템(10)은 각 스텝 별 소요시간, 전체 스텝의 소요시간 및 미리 정해진 스텝 순서의 부합 여부 중 적어도 어느 하나에 기초하여 사용자의 행위를 평가할 수 있다.
이송폄프 중지 단계 종료 후 가상 현실 제어 시스템(10)은 사용자(800)가 누출 봉쇄 단계를 수행하였는지 여부를 판단할 수 있다. (S140)
가상 현실 제어 시스템(10)은 누출봉쇄장비의 선택 여부와 누출봉쇄장비 사용법 인지 여부를 통해 누출 봉쇄단계 수행여부를 판단할 수 있다, 가상 현실 제어 시스템(10)은 사용자가 적절한 누출봉쇄장비를 선택하였는지 여부 및 선택시간에 기초하여 사용자의 누출봉쇄장비의 선택과 관련한 평가를 수행할 수 있다 또한, 가상 현실 제어 시스템(10)은 UI형 트리거를 통해 사용자(800)의 누출 봉쇄장비 사용법 인지여부를 판단할 수 있고, 평가할 수 있다.
누출봉쇄 단계 종료후 가상 현실 제어 시스템(10)은 사용자(800)가 확산차단 단계를 수행하였는지 여부를 판단할 수 있다. (S150)
가상 현실 제어 시스템(10)은 사용자가 흡착포와 흡착붐을 정해진 순서에 부합하도록 수행하였는지 여부에 기초하여 확산차단 단계의 수행 여부를 판단할 수 있고, 정해진 순서에 부합하는지와 각각의 스텝의 소요시간, 전체 스텝의 소요시간에 기초하여 사용자의 행위를 평가할 수 있다.
확산차단 단계 종료 후 가상 현실 제어 시스템(10)은 사용자(800)가 밸브차단 단계를 수행하였는지 여부를 판단할 수 있다. (S160)
밸브차단 단계의 구체적인 실시 예는 후술하기로 한다.
가상 현실 제어 시스템(10)은 밸브 차단 단계의 수행 적합성, 수행 속도 등에 기초하여 사용자(800)의 행위를 평가할 수 있다.
밸브차단 단계 종료후 가상 현실 제어 시스템(10)은 사용자(800)가 제독 실시 단계를 수행하였는지 여부를 판단할 수 있다. (S170)
가상 현실 제어 시스템(10)은 오염장비 수거 여부와 제독 수행 여부에 기초하여 제독 실시 단계 수행 여부를 판단할 수 있고, 소요 시간에 기초하여 사용자(800)의 행위를 평가할 수 있다.
이하에서는 밸브차단 단계의 구체적인 실시 예를 설명한다.
도 13은 본 명세서의 일 실시예에 따른 가상 현실에서 누출 가스를 표시하는 방법을 나타내는 순서도이다. 가상 현실 제어 시스템(10)이 사용자(800)에게 재난 훈련 컨텐츠의 일환으로 화학 사고 대응 훈련 프로그램이 제공될 수 있다. 이 때, 가상 현실 제어 시스템(10)은 가상 현실에서 사용자(800)에게 화학 사고의 대표적인 경우 중 하나로 가스 누출 상황을 제공할 수 있다.
도 13을 참조하면, 누출 가스 표시 방법은 누출 가스의 확산 모델 획득 단계(S1100), 가상 환경에서 확산 가스의 표시 우선 순위 판단 단계(S1200), 가상 환경에서 가스 확산 표시 단계(S1300), 가스 누출 차단 이벤트 감지 단계(S1400) 및 가스 누출 차단 표시 단계(S1500)를 포함할 수 있다.
이하에서는 상술한 누출 가스 표시 방법의 각 단계에 대해 구체적으로 서술한다.
가상 현실 제어 시스템(10)은 누출 가스의 확산 모델을 획득할 수 있다(S1100).
여기서, 확산 모델은 기체나 액체 등의 유체가 확산하는 형상이나 모양을 의미할 수 있다. 예를 들어, 누출 가스의 확산 모델은 화학 사고에서 누출되는 가스가 이동하는 방향이나 속도 등을 나타내는 모델을 의미할 수 있다.
여기서, 누출 가스는 가상 현실 제어 시스템(10)이 사용자(800)에게 제공하는 재난 훈련 컨텐츠의 성질에 기초하여 설정될 수 있다. 예를 들어, 누출 가스는 고압가스, 액화 가스, 압축가스 및 가연성 배출가스 등을 포함할 수 있다.
가상 현실 제어 시스템(10)은 기체 확산에 관한 시뮬레이션 프로그램 또는 데이터베이스를 이용하여 누출 가스의 확산 모델에 관한 데이터를 획득할 수 있다.
한편, 가상 현실 제어 시스템(10)은 획득한 누출 가스의 확산 모델을 단순화하거나 누출 가스의 종류에 상관 없이 공통된 유체 유동 모델을 획득할 수도 있다. 또한, 가상 현실 제어 시스템(10)은 가스 종류에 따라 미리 설정된 확산 모델을 이용하여 가상 현실에 누출 가스를 표시할 수도 있다.
가상 현실 제어 시스템(10)이 획득하는 누출 가스 확산 모델에 관하여는 추후 보다 구체적으로 서술한다.
가상 현실 제어 시스템(10)은 가상 현실에서 확산 가스의 표시 우선 순위를 판단할 수 있다(S1200).
여기서, 확산 가스의 표시 우선 순위는 사용자(800)의 착용형 디스플레이 장치(400)에 누출 가스의 확산을 표시하는 경우 가상 현실을 구성하는 배경이나 가상 오브젝트(VO) 또는 상대 캐릭터(910)의 가상 위치 정보와 누출 가스의 가상 위치 정보가 서로 중첩되는 경우 가상 현실에 표시하기 위한 우선 순위를 설정하고 상기 우선 순위에 기초하여 누출 가스를 표시할 수 있다.
한편, 가상 현실에서 확산 가스의 표시 우선 순위 판단 단계(S1200)는 생략될 수 있다.
가상 현실 제어 시스템(10)은 가상 현실에서 가스가 확산되는 것을 표시할 수 있다(S1300).
가상 현실 제어 시스템(10)은 사용자(800)에게 제공되는 재난 훈련 컨텐츠의 시나리오에 따라 사용자(800)에게 제공되는 가상 현실 이미지(452)에 누출 가스를 표시할 수 있다. 구체적으로, 가상 현실 제어 시스템(10)은 누출 가스의 확산 모델로부터 획득한 누출 가스의 가상 위치 정보에 기초하여 가상 현실 내 누출 가스를 표시할 수 있다.
가상 현실 제어 시스템(10)은 가스 누출이 차단되는 이벤트가 감지되었는지 여부를 판단할 수 있다(S1400).
가상 현실 제어 시스템(10)은 사용자(800)에게 제공되는 재난 훈련 컨텐츠의 시나리오에 따라 가상 현실 내 캐릭터(900)의 동작에 의해 가스 누출 차단 이벤트가 발생하였는지 여부를 판단할 수 있다. 예를 들어, 가상 현실에서 가스 누출이 발생된 후 사용자(800)에 대응되는 캐릭터(900)가 가스 누출을 차단하기 위해 밸브를 작동시키거나 가스 누출 부위를 임시로 막으면 가상 현실 제어 시스템(10)은 가스 누출 차단 이벤트가 발생하였다고 판단할 수 있다.
한편, 가상 현실 제어 시스템(10)은 사용자(800)의 움직임에 따른 캐릭터(900)의 동작을 감지하는 것 외에 시뮬레이터(1100)의 움직임이나 작동을 감지하여 가스 누출 차단 이벤트 발생 여부를 판단할 수도 있다. 시뮬레이터(1100)를 이용한 가스 누출 차단 이벤트 감지하는 방법에 대해서는 추후 구체적으로 서술하기로 한다.
가상 현실 제어 시스템(10)은 가스 누출 이벤트가 감지되면 가상 현실에서 가스 누출이 차단되는 것을 표시(S1500)하고, 가스 누출 이벤트가 감지되지 않은 경우 계속하여 가상 현실에서 누출 가스의 확산을 표시(S1300) 할 수 있다.
가상 현실 제어 시스템(10)은 가상 현실에서 가스 누출이 차단되는 것을 표시할 수 있다(S1500).
가상 현실 제어 시스템(10)은 가스 누출 차단 이벤트를 감지하면 가상 현실에서 가스가 차단되는 것을 표시할 수 있다. 예를 들어, 가상 현실 제어 시스템(10)은 누출 가스 차단 이벤트가 감지되는 경우 사용자(800)에게 제공되는 가상 현실 이미지(452)에 표시되는 누출 가스의 밝기나 투명도를 조절하여 누출 가스를 점차적으로 제거하는 등으로 누출 가스가 차단되었음을 표시할 수 있다.
한편, 가상 현실 제어 시스템(10)은 가스 누출 차단 이벤트를 감지하면 사용자(800)에게 제공되는 가상 현실 이미지(452)에 가스 누출이 차단되었음을 알리는 메시지나 음향 효과를 제공할 수 있다.
이하에서는 도 14 내지 도 16을 참조하여 가스 확산 모델을 이용하여 가상 현실에 누출 가스를 표시하는 구체적인 방법에 대하여 서술한다.
도 14는 본 명세서의 일 실시예에 따른 가스의 확산 모델을 나타내는 도면이다.
도 15는 본 명세서의 일 실시예에 따른 가상 현실에서 가스가 확산되는 것을 나타내는 도면이다.
도 14를 참조하면, 가상 현실 제어 시스템(10)은 사용자(800)에게 제공될 가상 현실과 유사한 환경에서 가스가 누출되는 확산 모델을 획득할 수 있다. 예를 들어, 사용자(800)에게 제공되는 재난 훈련 컨텐츠가 복수 개의 저장 탱크를 갖는 화학 플랜트를 배경으로 하고 특정 저장 탱크에서 가스가 누출되는 경우가 시나리오에 포함되는 경우, 가상 현실 제어 시스템(10)은 상기 화학 플랜트와 동일/유사한 환경을 가정한 가스 확산 모델을 획득할 수 있다.
확산 모델은 누출 가스의 성질에 기초하여 설정될 수 있다. 예를 들어, 확산 모델은 누출 가스의 누출속도, 누출농도, 가스의 분자량 또는 밀도 및 가스가 이동할 수 있는 경로나 주위 온도 등의 가스가 누출되는 환경 중 적어도 하나를 고려하여 설정될 수 있다. 이 때, 보다 정밀한 누출 가스의 확산 모델을 획득하기 위해 센서 등을 이용하여 유체 흐름을 관측한 결과 값 또는 유체 역학 시뮬레이션 프로그램이 이용될 수 있다. 또한, 확산 모델은 2차원 모델 또는 3차원 모델로 획득될 수 있고 2상 유동(2-phase flow), 다상 유동(multi-phase flow)으로 획득될 수 있다.
가상 현실 제어 시스템(10)은 시뮬레이션 프로그램 또는 기체 확산 모델에 대한 데이터베이스를 이용하여 확산 모델에 관한 데이터를 획득할 수 있다. 예를 들어, 가상 현실 제어 시스템(10)은 CFD(Computational Fluid Dynamics), FLACS(Flame Acceleration Simulator), CA(Consequence Analysis) 또는 PHAST(Process Hazard Analysis Software) 등을 이용하여 확산 모델 데이터를 획득할 수 있다.
가상 현실 제어 시스템(10)은 누출 가스의 확산 모델로부터 가상 현실에 가스 누출 이벤트를 표시하기 위한 데이터를 획득할 수 있다. 예를 들어, 가상 현실 제어 시스템(10)은 누출 가스의 확산 모델을 이용하여 가상 현실에서 누출되는 가스의 가상 위치 정보를 산출할 수 있다. 구체적으로, 누출 가스 확산 모델은 시계열적으로 변화하는 공간 좌표들의 집합을 포함할 수 있고 가상 현실 제어 시스템(10)은 상기 시변하는 공간 좌표들의 집합에 기초하여 가상 현실 내 누출 가스의 가상 위치 정보를 산출할 수 있다. 또 다른 예로, 누출 가스 확산 모델은 2차원 또는 3차원에서 그래프로 나타날 수 있는 함수 데이터를 포함할 수 있고 가상 현실 제어 시스템(10)은 상기 함수 데이터에 기초하여 가상 현실 내 누출 가스의 가상 위치 정보를 산출할 수 있다.
도 15를 참조하면, 가상 현실 제어 시스템(10)은 누출 가스 확산 모델로부터 획득한 누출 가스의 가상 위치 정보를 반영하여 사용자(800)에게 제공되는 가상 현실 이미지(452)에 가스가 누출되는 것을 표시할 수 있다.
가상 현실 제어 시스템(10)은 확산 모델로부터 획득한 가스의 가상 위치 정보 및 누출 가스의 종류에 따른 색, 투명도 등을 이용하여 가상 현실 이미지(452)에 누출 가스를 표시할 수 있다.
가상 현실 제어 시스템(10)은 미리 설정된 조건이 만족하면 가상 현실에 누출 가스를 표시할 수 있다. 예를 들면, 사용자(800)에게 재난 훈련 컨텐츠가 제공된 후 경과 시간에 따라 누출 가스가 가상 현실 이미지(452)에 표시될 수 있다. 또 다른 예로, 사용자(800)에 대응하는 가상 현실 내 캐릭터(900)가 가상 현실에서 미리 설정된 방향으로 움직이거나 미리 설정된 행위를 수행한 것으로 판단되는 경우 누출 가스가 가상 현실 이미지(452)에 표시될 수 있다.
도 16을 참조하면, 가상 현실 제어 시스템(10)은 누출 가스와 가상 현실 내 물체를 같은 위치에서 동시에 표시할 수 있다.
가상 현실 내에서 누출 가스의 가상 위치 정보와 가상 오브젝트(VO), 캐릭터(900) 또는 상대 캐릭터(910)의 가상 위치 정보가 중첩될 수 있다. 이 때, 가상 현실 제어 시스템(10)은 중첩된 가상 위치 정보 사이의 우선 순위를 설정하고 이를 기초로 가상 현실 이미지(452)에 표시할 수 있다. 예를 들어, 상대 캐릭터(910)와 누출 가스의 가상 위치 정보가 중첩된 경우 가상 현실 제어 시스템(10)은 상대 캐릭터(910)의 가상 위치 정보를 우선하여 표시할 수 있다.
가상 현실 제어 시스템(10)은 가상 오브젝트(VO), 캐릭터(900) 또는 상대 캐릭터(910)의 가상 위치 정보와 누출 가스의 가상 위치 정보가 중첩되는 경우 누출 가스의 투명도를 조절하여 가상 현실 이미지(452)에 표시할 수 있다.
이하에서는 도 17을 참조하여, 누출 차단 이벤트가 감지되는 방법에 대하여 구체적으로 서술한다.
도 17은 본 명세서의 일 실시예에 따른 시뮬레이터(1100)의 동작을 나타내는 도면이다. 가상 현실 제어 시스템(10)은 시뮬레이터(1100)가 동작하는 경우 누출 가스 차단 이벤트 발생을 감지할 수 있다.
도 17을 참조하면, 시뮬레이터(1100)는 특정 패턴을 제공하는 적어도 하나의 마커(M)를 포함할 수 있다.
이하에서는 설명의 편의를 위해 시뮬레이터(1100)의 일 예로 밸브에 대하여 서술하나 본 명세서의 기술적 사상이 이에 한정되는 것은 아니며 시뮬레이터(1100)는 사용자(800)에게 제공되는 가상 현실 컨텐츠에 따라 추적 영역(600)에 제공되는 시뮬레이터(1100)를 의미할 수 있다.
다시 도 17을 참조하면, 마커(M)는 시뮬레이터(1100)의 적어도 일부에 부착될 수 있다. 예를 들면, 마커(M)는 시뮬레이터 조작부(1110)에 부착될 수 있다. 구체적으로, 시뮬레이터(1100)가 밸브인 경우 제1 마커(M1), 제2 마커(M2) 및 제3 마커(M3)가 밸브의 핸들 부분에 부착될 수 있다.
마커(M)는 시뮬레이터(1100)의 일부 중 사용자(800)가 접촉하기 어려운 부분에 배치될 수 있다. 예를 들어, 시뮬레이터(1100)가 밸브인 경우 마커(M)는 핸들의 축이나 기둥에 배치되거나 핸들 하부에 배치될 수 있다.
마커(M)는 도 7에서 서술한 바와 같이 서버(200) 또는 보조 컴퓨팅 장치(300)에 의해 특정 패턴으로 인식될 수 있다. 다시 도 17을 참조하면, 시뮬레이터(1100)에 부착된 제1 내지 제3 마커(M1, M2, M3)는 삼각 패턴을 형성할 수 있다.
한편, 시뮬레이터(1100)가 포함하는 마커(M)의 수가 상술한 개수로 한정되는 것은 아니며, 시뮬레이터(1100)가 포함하는 마커(M)가 형성하는 패턴이 도 17에 도시된 모양으로 한정되는 것도 아니다. 예를 들어, 시뮬레이터(1100)는 4개, 5개 혹은 그 이상의 마커(M)를 포함할 수 있고 시뮬레이터(1100)에 포함된 마커(M)들은 사각형, 오각형 또는 다각형 패턴을 형성할 수도 있다.
가상 현실 제어 시스템(10)은 시뮬레이터(1100)의 마커(M)를 감지하여 가상 현실에 가상 오브젝트(VO)를 표시할 수 있다. 예를 들어, 서버(200) 또는 보조 컴퓨팅 장치(300)는 시뮬레이터(1100)가 포함하는 마커(M)의 위치 정보를 획득하여 패턴을 감지하고 미리 저장된 정보에 기초하여 시뮬레이터(1100)의 종류를 판단하고 추적 영역(600)에서의 시뮬레이터(1100)의 위치 및 종류를 고려하여 가상 현실 이미지(452)에 표시할 수 있다.
또는, 가상 현실 제어 시스템(10)은 시뮬레이터(1100)의 마커(M)의 위치 정보로부터 획득한 가상 위치 정보에 기초하여 시뮬레이터(1100)의 위치 및 종류를 고려하여 가상 현실 이미지(452)에 표시할 수도 있다.
한편, 가상 현실 제어 시스템(10)은 시뮬레이터(1100)의 유무와 관계 없이 가상 현실에서 시뮬레이터(1100)와 같은 기능을 하는 가상 오브젝트(VO)를 표시할 수도 있음은 물론이다.
가상 현실 제어 시스템(10)은 시뮬레이터(1100)의 동작에 따라 시뮬레이터(1100)에 부착된 마커(M)가 형성하는 패턴의 변화를 감지할 수 있다. 예를 들어, 다시 도 17을 참조하면, 시뮬레이터(1100)가 동작하기 전에 제1 내지 제3 마커(M1, M2, M3)가 제1 삼각 패턴(T1)을 형성한 경우 시뮬레이터(1100)가 동작한 후 제1 내지 제3 마커(M1, M2, M3)는 제2 삼각 패턴(T2)를 형성할 수 있다. 이 때, 디텍팅 장치(100)는 시뮬레이터(1100)에 부착된 마커(M)의 위치 정보를 서버(200) 또는 보조 컴퓨팅 장치(300)에 제공하여 서버(200) 또는 보조 컴퓨팅 장치(300)에서 시뮬레이터(1100)에 부착된 마커(M)가 형성하는 패턴이 제1 삼각 패턴(T1)에서 제2 삼각 패턴(T2)으로 변경된 것을 감지하고 시뮬레이터(1100)가 동작하였음을 판단할 수 있다. 구체적으로, 시뮬레이터(1100)가 밸브인 경우, 사용자(800)에 의해 밸브의 핸들이 회전하면 핸들에 배치된 마커(M)가 형성하는 패턴이 변경되고 서버(200) 또는 보조 컴퓨팅 장치(300)는 디텍팅 장치(100)로부터 마커(M)의 위치 정보를 획득함으로써 밸브 핸들이 회전한 것을 감지할 수 있다.
한편, 가상 현실 제어 시스템(10)은 시뮬레이터(1100)에 부착된 마커(M)의 위치 정보로부터 시뮬레이터(1100)의 작동을 감지할 수도 있고 시뮬레이터(1100)에 부착된 마커(M)의 위치 정보로부터 획득된 가상 위치 정보에 기초하여 시뮬레이터(1100)의 작동을 감지할 수도 있다. 예를 들어, 시뮬레이터(1100)에 부착된 마커(M)의 위치 정보로부터 획득된 가상 위치 정보가 제1 가상 위치 정보에서 제2 가상 위치 정보로 변경되는 경우 가상 현실 제어 시스템(10)은 시뮬레이터(1100)가 작동한 것으로 판단할 수 있다.
가상 현실 제어 시스템(10)은 시뮬레이터(1100)가 동작하는 경우 가상 현실에서 특정 이벤트가 발생한 것으로 판단할 수 있다. 예를 들어, 가상 현실 제어 시스템(10)은 시뮬레이터(1100)에 부착된 마커(M)가 형성하는 패턴이 변경되면 시뮬레이터(1100)가 동작하였음을 감지하고 가상 현실 내 가스 누출 차단 이벤트가 발생한 것을 감지할 수 있다. 보다 구체적으로, 시뮬레이터(1100)가 밸브인 경우 사용자(800)에 의해 밸브의 핸들이 회전하면 서버(200) 또는 보조 컴퓨팅 장치(300)는 가스 누출 차단 이벤트 발생에 따라 사용자(800)에게 제공되는 가상 현실 이미지(452)에서 누출 가스를 서서히 제거하거나 가스 누출이 차단되었음을 표시할 수 있다.
이하에서는 도 18을 참조하여 가상 현실에서 누출 가스가 차단되는 것을 표시하는 방법에 대해 구체적으로 서술한다.
도 18은 본 명세서의 일 실시예에 따른 가상 오브젝트(VO) 동작에 의한 가스 차단을 나타내는 도면이다. 가상 현실 제어 시스템(10)은 가상 현실에서 캐릭터(900) 및 가상 오브젝트(VO)의 가상 위치 정보 또는 시뮬레이터(1100)의 작동에 기초하여 가스 누출 차단 이벤트를 감지하고 가상 현실 이미지(452)에 가스가 누출이 차단되는 것을 표시할 수 있다.
도 18을 참조하면, 가상 현실 제어 시스템(10)은 누출 차단 이벤트가 감지된 경우 사용자(800)에게 가스 누출이 차단되는 가상 현실 이미지(452)를 제공할 수 있다.
예를 들어, 가상 현실 제어 시스템(10)은 가상 현실에서 캐릭터(900)가 가상 오브젝트(VO)로부터 미리 설정된 거리 이내인 상태에서 캐릭터(900)의 적어도 일부가 미리 설정된 움직임을 수행하는 경우 누출 차단 이벤트가 발생한 것으로 판단할 수 있다. 구체적으로, 가상 현실에서 캐릭터(900)가 밸브를 돌리는 동작을 하는 경우 누출 가스가 차단될 수 있다.
가상 현실 제어 시스템(10)은 사용자(800)의 움직임 또는 시뮬레이터(1100)의 작동에 기초하여 가상 현실 이미지(452)에 누출 가스 차단을 표시할 수 있다. 예를 들어, 가상 현실 제어 시스템(10)은 캐릭터(900)의 손의 가상 위치 정보의 변화량 및 변화 속도에 기초하여 누출 가스가 사라지는 속도 누출 가스의 투명도 또는 가스가 누출되는 속도를 설정할 수 있다. 구체적으로, 가상 현실 제어 시스템(10)은 가상 현실에서 캐릭터(900)가 밸브의 핸들을 빠르게 회전시킬수록 가스 누출량을 감소시키거나 밸브의 핸들의 회전량에 따라 가스 누출 속도를 감소시킬 수 있다. 보다 구체적으로, 가상 현실 제어 시스템(10)은 캐릭터(900) 손의 가상 위치 정보가 제1 각도 또는 제1 거리만큼 변경되면 누출 가스를 제1 비율만큼 제거하거나 누출 가스의 투명도를 제1 값으로 설정하고 캐릭터(900) 손의 가상 위치 정보가 제1 각도보다 큰 제2 각도 또는 제1 거리보다 큰 제2 거리만큼 변경되면 누출 가스를 제1 비율보다 큰 제2 비율만큼 제거하거나 누출 가스의 투명도를 제1 값보다 큰 제2 값으로 설정하여 가상 현실 이미지(452)에 표시할 수 있다.
또 다른 예로, 가상 현실 제어 시스템(10)은 시뮬레이터(1100)의 동작 속도 또는 시뮬레이터(1100)에 부착된 마커(M)의 위치 변화량 또는 위치 변화 속도에 따라 누출 가스가 사라지는 속도 또는 가스가 누출되는 속도를 설정할 수 있다. 구체적으로, 가상 현실 제어 시스템(10)은 시뮬레이터(1100)에 부착된 마커(M)가 형성하는 패턴의 이동 또는 회전 속도, 각속도에 기초하여 가스 누출량을 조절할 수 있다. 보다 구체적으로, 가상 현실 제어 시스템(10)은 시뮬레이터(1100)에 부착된 마커(M)가 형성하는 패턴이 제1 각도 또는 제1 거리만큼 변경되면 누출 가스를 제1 비율만큼 제거하거나 누출 가스의 투명도를 제1 값으로 설정하고 캐릭터(900) 손의 가상 위치 정보가 제1 각도보다 큰 제2 각도 또는 제1 거리보다 큰 제2 거리만큼 변경되면 누출 가스를 제1 비율보다 큰 제2 비율만큼 제거하거나 누출 가스의 투명도를 제1 값보다 큰 제2 값으로 설정하여 가상 현실 이미지(452)에 표시할 수 있다. 이러한 회전속도에 기초하여 가상 현실 제어 시스템(10)은 사용자의 밸브 차단을 평가할 수 있다.
한편, 가상 현실 제어 시스템(10)은 상술한 경우와 반대로 사용자(800)의 움직임 또는 시뮬레이터(1100)의 작동에 기초하여 가상 현실 이미지(452)에 가스가 누출을 표시할 수도 있다. 예를 들어, 가상 현실 제어 시스템(10)은 캐릭터(900)의 손의 가상 위치 정보의 변화량 및 변화 속도에 기초하여 가상 현실 이미지(452)에 누출 가스가 더 빠르게 증가하도록 표시하거나 누출 가스의 투명도를 증가 시켜 표시할 수 있다. 또 다른 예로, 가상 현실 제어 시스템(10)은 시뮬레이터(1100)의 동작 속도 또는 시뮬레이터(1100)에 부착된 마커(M)의 위치 변화량 또는 위치 변화 속도에 따라 가상 현실 이미지(452)에 누출 가스가 더 빠르게 증가하도록 표시하거나 누출 가스의 투명도를 증가 시켜 표시할 수 있다.
가상 현실 제어 시스템(10)은 가상 현실 이미지(452)에 누출 가스의 형상이나 모양이 변경되는 것을 표시함에 있어 사용자(800)의 움직임 또는 시뮬레이터(1100) 작동 후 미리 설정된 시간이 경과한 후에 누출 가스의 형상이나 모양을 변경하여 표시할 수 있다. 예를 들면, 가상 현실 제어 시스템(10)은 누출 가스 차단 이벤트가 발생한 시점으로부터 미리 설정된 시간이 경과한 후에 가상 현실 이미지(452)에 누출 가스가 사라지는 속도, 누출 가스의 투명도 또는 가스가 누출되는 속도 등을 변경하여 표시할 수 있다.
여기서, 미리 설정된 시간은 재난 훈련에 있어서 누출 가스를 차단하는 동작이 이루어진 시점과 누출 가스가 차단되는 시점 사이의 지연 시간을 의미할 수 있다. 예를 들어, 지연 시간은 밸브에 의해 가스 누출이 차단된 후 화학 설비나 장비로부터 누출되지 않은 가스가 누출되기까지 소요되는 시간을 포함할 수 있다.
사용자(800)가 움직이는 시점 또는 시뮬레이터(1100)의 동작 시점과 누출 가스의 형상이나 모양이 변경되어 표시되는 시점 사이에 지연 시간이 존재함으로써 가상 현실 제어 시스템(10)은 사용자(800)에게 보다 현실적인 재난 훈련 컨텐츠를 제공하여 사용자(800)가 느끼는 가상 현실에 대한 몰입감을 증대시킬 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
가상 현실 제어 시스템 10 디텍팅 장치 100
서버 200 보조 컴퓨팅 장치 300
착용형 디스플레이 장치 400 입력 장치 500

Claims (8)

  1. 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어 방법에 있어서,
    설비 가동 버튼이 눌려졌는지 판단하여 사용자가 비상조치 단계를 수행하였는지 여부를 판단하는 단계;
    상기 비상조치 단계 이후 상기 사용자가 누출정보 식별 단계를 수행하였는지 여부를 판단하는 단계;
    상기 누출정보 식별 단계 이후 상기 사용자가 이송펌프 중지 단계를 수행하였는지 여부를 판단하는 단계;
    상기 이송펌프 중지 단계 이후 상기 사용자가 누출봉쇄 단계를 수행하였는지 여부를 판단하는 단계;
    상기 누출봉쇄 단계 이후 상기 사용자가 확산 차단 단계를 수행하였는지 여부를 판단하는 단계; 및
    상기 확산 차단 단계 이후 상기 사용자가 밸브 차단 단계를 수행하였는지 여부를 판단하는 단계를 포함하고,
    상기 밸브 차단 단계의 수행여부는 밸브와 대응되는 시뮬레이터의 회전에 기초하여 판단되며,
    상기 밸브 차단 단계가 수행되면, 상기 사용자가 착용한 착용형 디스플레이 장치에 가스가 제거된 영상이 표시되고,
    상기 누출정보 식별 단계는 센싱부에 의해 획득된 사용자의 위치정보에 기초하여 상기 사용자의 위치가 미리 정해진 영역 내에 미리 정해진 시간동안 위치하는 경우 상기 누출 정보를 식별한 것으로 판단하며,
    상기 누출 정보는 CFD(Computational Fluid Dynamics), FLACS(Flame Acceleration Simulator), CA(Consequence Analysis) 또는 PHAST(Process Hazard Analysis Software)를 이용한 확산 모델 데이터를 통한 누출가스를 통해 상기 착용형 디스플레이 장치에 표시되며,
    상기 가상 현실에서 상기 누출 가스와 상대 캐릭터의 위치정보가 중첩되는 경우 상기 착용형 디스플레이 장치는 상기 상대 캐릭터의 위치정보를 우선하여 표시하고,
    상기 사용자의 신체의 일부의 좌표와 상기 설비 가동 버튼의 좌표가 중첩되는 경우 상기 사용자가 버튼을 누른 것으로 판단하는 가상 현실 제어 시스템의 제어방법.
  2. 제1항에 있어서,
    상기 시뮬레이터의 회전은 상기 시뮬레이터에 부착된 마커패턴의 변화에 의해 감지되는 가상 현실 제어 시스템의 제어방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 누출정보 식별 단계는 센싱부에 의해 획득된 사용자의 위치정보 및 회전정보에 기초하여 상기 사용자의 시선이 미리 정해진 영역 내에 미리 정해진 시간동안 위치하는 경우 상기 누출정보를 식별한 것으로 판단하는 가상 현실 제어 시스템의 제어방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 이송 펌프 중지 단계는 상기 사용자가 미리 정해진 차단 순서에 대응되도록 차단을 수행하였는지 여부에 기초하여 이송펌프 중지를 수행하였는지 여부를 판단하는 가상 현실 제어 시스템의 제어 방법.
  7. 제1항에 있어서,
    상기 밸브 차단 단계 이후 상기 사용자가 제독 실시 단계를 수행하였는지 여부를 판단하는 가상 현실 제어 시스템의 제어 방법.
  8. 제1항에 있어서,
    상기 시뮬레이터의 회전 속도에 기초하여 상기 사용자의 밸브 차단을 평가하는 가상 현실 제어 시스템의 제어방법.

KR1020200077266A 2020-06-24 2020-06-24 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법 KR102182079B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200077266A KR102182079B1 (ko) 2020-06-24 2020-06-24 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200077266A KR102182079B1 (ko) 2020-06-24 2020-06-24 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법

Publications (1)

Publication Number Publication Date
KR102182079B1 true KR102182079B1 (ko) 2020-11-24

Family

ID=73679487

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200077266A KR102182079B1 (ko) 2020-06-24 2020-06-24 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법

Country Status (1)

Country Link
KR (1) KR102182079B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373891B1 (ko) * 2020-12-02 2022-03-15 (주)스코넥엔터테인먼트 가상 현실 제어 시스템 및 방법
KR102387674B1 (ko) * 2021-01-12 2022-04-18 대한민국 유체 누출 대응 훈련 시스템
KR102387671B1 (ko) * 2021-01-12 2022-04-19 대한민국 유체 누출 대응 훈련용 유체 방출 방법
KR20230060297A (ko) * 2021-10-27 2023-05-04 주식회사 한국가스기술공사 가스 정압기 설비 시뮬레이터

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120052783A (ko) * 2010-11-16 2012-05-24 한국전자통신연구원 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 관리 장치
KR20170090276A (ko) * 2016-01-28 2017-08-07 엠더블유엔테크 주식회사 가상현실 소방체험 시스템
JP2020091475A (ja) * 2018-11-27 2020-06-11 株式会社住化分析センター 情報処理装置、情報処理システム、情報処理方法、情報処理プログラム、記録媒体及び教育方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120052783A (ko) * 2010-11-16 2012-05-24 한국전자통신연구원 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 관리 장치
KR20170090276A (ko) * 2016-01-28 2017-08-07 엠더블유엔테크 주식회사 가상현실 소방체험 시스템
JP2020091475A (ja) * 2018-11-27 2020-06-11 株式会社住化分析センター 情報処理装置、情報処理システム、情報処理方法、情報処理プログラム、記録媒体及び教育方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373891B1 (ko) * 2020-12-02 2022-03-15 (주)스코넥엔터테인먼트 가상 현실 제어 시스템 및 방법
KR102387674B1 (ko) * 2021-01-12 2022-04-18 대한민국 유체 누출 대응 훈련 시스템
KR102387671B1 (ko) * 2021-01-12 2022-04-19 대한민국 유체 누출 대응 훈련용 유체 방출 방법
KR20230060297A (ko) * 2021-10-27 2023-05-04 주식회사 한국가스기술공사 가스 정압기 설비 시뮬레이터
KR102585699B1 (ko) * 2021-10-27 2023-10-06 주식회사 한국가스기술공사 가스 정압기 설비 시뮬레이터

Similar Documents

Publication Publication Date Title
KR102182079B1 (ko) 화학 사고 대응 훈련용 가상 현실 제어 시스템의 제어방법
KR102212510B1 (ko) 가상 현실 제어 시스템
KR102185016B1 (ko) 화학 사고 대응 훈련용 가상 현실 제어 시스템
Chen et al. Development of BIM, IoT and AR/VR technologies for fire safety and upskilling
US11238666B2 (en) Display of an occluded object in a hybrid-reality system
CN106662925B (zh) 使用头戴式显示器设备的多用户注视投影
US9558592B2 (en) Visualization of physical interactions in augmented reality
US11887258B2 (en) Dynamic integration of a virtual environment with a physical environment
KR101997298B1 (ko) 3차원 가상의 시나리오 내 물체의 선택
EP2584403A2 (en) Multi-user interaction with handheld projectors
KR102071427B1 (ko) 사용자 생활공간에서의 화재 훈련 방법 및 장치
US20170371410A1 (en) Dynamic virtual object interactions by variable strength ties
US20170257610A1 (en) Device and method for orchestrating display surfaces, projection devices, and 2d and 3d spatial interaction devices for creating interactive environments
JP2007506165A (ja) バーチャルリアリティ・グラフィックシステムの機能選択による制御のための三次元空間ユーザインタフェース
JP2018097141A (ja) 頭部装着型表示装置、仮想物体表示システム
US20070200847A1 (en) Method And Device For Controlling A Virtual Reality Graphic System Using Interactive Techniques
KR102218088B1 (ko) 가상 현실 제어 시스템
Nóbrega et al. Flood emergency interaction and visualization system
KR102613539B1 (ko) 가상 현실 제어 시스템
KR102218089B1 (ko) 가상 현실 제어 시스템
JP7000397B2 (ja) 仮想現実制御システム
KR102218091B1 (ko) 가상 현실 제어 시스템
Ssin et al. SONA: improving situational awareness of geotagged information using tangible interfaces
RE Low cost augmented reality for industrial problems
Addin et al. Design and Test of an adaptive augmented reality interface to manage systems to assist critical missions

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant