KR102588703B1 - 확장 현실 기반 소방 훈련 방법 및 그 장치 - Google Patents

확장 현실 기반 소방 훈련 방법 및 그 장치 Download PDF

Info

Publication number
KR102588703B1
KR102588703B1 KR1020220131521A KR20220131521A KR102588703B1 KR 102588703 B1 KR102588703 B1 KR 102588703B1 KR 1020220131521 A KR1020220131521 A KR 1020220131521A KR 20220131521 A KR20220131521 A KR 20220131521A KR 102588703 B1 KR102588703 B1 KR 102588703B1
Authority
KR
South Korea
Prior art keywords
virtual
fire
training
evacuation
reality environment
Prior art date
Application number
KR1020220131521A
Other languages
English (en)
Inventor
최수미
강호산
이종원
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020220131521A priority Critical patent/KR102588703B1/ko
Priority to US18/049,329 priority patent/US20240123271A1/en
Application granted granted Critical
Publication of KR102588703B1 publication Critical patent/KR102588703B1/ko

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • AHUMAN NECESSITIES
    • A62LIFE-SAVING; FIRE-FIGHTING
    • A62CFIRE-FIGHTING
    • A62C99/00Subject matter not provided for in other groups of this subclass
    • A62C99/0081Training methods or equipment for fire-fighting
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Emergency Management (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Fire-Extinguishing By Fire Departments, And Fire-Extinguishing Equipment And Control Thereof (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

확장 현실 기반 소방 훈련 방법 및 그 장치가 개시된다. 확장 현실 기반 소방 훈련 방법은, (a) 스테레오 카메라를 통해 획득되는 현실 공간의 각 객체와 상기 각 객체의 깊이 정보를 획득하는 단계; (b) 상기 각 객체와 각 객체의 깊이 정보를 기초로 3D 메시(mesh) 객체로 각각 재구성하는 단계; (c) 상기 재구성된 3D 메시 객체 중 적어도 하나에 가상 불을 생성한 후 가상 화재 진압 훈련 증강 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치로 전송하는 단계; 및 (d) 사용자의 실제 소화기 조작에 따라 가상 소화기 객체를 상기 가상 화재 진압 훈련 증강 현실 환경상에서 동작시키되, 상기 가상 소화기 객체의 동작에 따라 가상 분말 객체가 상기 가상 불 객체를 향해 발사되어 상기 가상 불 객체가 소화되는 단계를 포함한다.

Description

확장 현실 기반 소방 훈련 방법 및 그 장치{Extended reality-based fire drill method and apparatus}
본 발명은 확장 현실 기반 소방 훈련 방법 및 그 장치에 관한 것이다.
확장현실은 현실과 가상의 경계가 사라지며 하나의 세계처럼 작동할 수 있는 기술이다. 이러한 확장현실 기술은 엔터테인먼트, 광고, 교육, 훈련, 치료 등 거의 모든 분야에 적용할 수 있다. 특히, 교육 및 훈련에 확장현실을 적용하는 연구들이 늘어나고 있다. Grzegorz Zwolinski et al.은 다양한 종류(Case)의 서로 다른 확장현실 훈련 응용 프로그램을 만들고 이를 테스트하여 교육적 맥락에서 각 접근 방식의 장단점을 식별하여 효과적인 확장현실 훈련 도구를 만들 수 있도록 방향을 제시하였다. Jamie K. Pringle et al.은 지구 물리학에 관련하여 확장현실 가상 학습 도구를 만들어 테스트하였고 그 결과 확장현실을 이용한 훈련 도구가 기존의 훈련 도구보다 더 효율적이라고 제안하였다.
확장현실을 이용한 훈련은 다양한 분야에서 적용이 되어 연구되고 있다. Dong Keon Lee et al.은 기초 생명 유지를 위한 확장현실 훈련 시스템을 고안했다. 이 시스템은 참가자가 확장현실 HMD를 착용하고 현실에 있는 인형에게 흉부 압박 및 인공호흡을 실시하여 가상에 있는 위급 환자를 구하는 훈련 시스템이다. Yong Guk Go et al.은 확장현실 환경에서의 1인칭 시점 드론을 위한 훈련 시스템을 제안하였다. 혼합현실을 이용하여 비행하는 사용자에게 가상현실의 사용자가 훈련을 시켜 실제로 경험하기 어려운 훈련을 확장현실 기술을 이용하여 해결하였다. 확장현실 교육 및 훈련 시스템을 구현하기 어려운 측면 중의 하나는 제 어 인터페이스에 포함된 물리적인 장치의 실제 조작에 관한 문제이다. Ariel Caputo et al.의 XR-Cockpit 시스템은 손 추적(Hand Tracking) 기술과 제스처 인식(Gesture Recognition) 기술을 사용하여 모형 비행기 조종 훈련 시뮬레이션을 제안하였다[26]. 하지만, 위의 연구는 허공에 있는 가상 인터페이스를 조작해야 하므로 촉각적인 피드백이 전달되기 어렵다.
본 발명은 확장 현실 기반 소방 훈련 방법 및 그 시스템을 제공하기 위한 것이다.
또한, 본 발명은 증강 현실과 가상 현실을 하나의 헤드 마운티드 디스플레이 장치를 통해 제공할 수 있는 확장 현실 기반 소방 훈련 방법 및 그 시스템을 제공하기 위한 것이다.
또한, 본 발명은 실제 소화기와의 연동을 통한 증강 현실을 기반으로 현실감 있는 화재 진압 훈련이 가능하고, 가상 현실을 기반으로 안전하게 화재 대피 훈련이 가능하도록 할 수 있는 확장 현실 기반 소방 훈련 방법 및 그 시스템을 제공하기 위한 것이다.
본 발명의 일 측면에 따르면 확장 현실 기반 소방 훈련 방법이 제공된다.
본 발명의 일 실시예에 따르면, (a) 스테레오 카메라를 통해 획득되는 현실 공간의 각 객체와 상기 각 객체의 깊이 정보를 획득하는 단계; (b) 상기 각 객체와 각 객체의 깊이 정보를 기초로 3D 메시(mesh) 객체로 각각 재구성하는 단계; (c) 상기 재구성된 3D 메시 객체 중 적어도 하나에 가상 불을 생성한 후 가상 화재 진압 훈련 증강 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치로 전송하는 단계; 및 (d) 사용자의 실제 소화기 조작에 따라 가상 소화기 객체를 상기 가상 화재 진압 훈련 증강 현실 환경상에서 동작시키되, 상기 가상 소화기 객체의 동작에 따라 가상 분말 객체가 상기 가상 불 객체를 향해 발사되어 상기 가상 불 객체가 소화되는 단계를 포함하는 확장 현실 기반 소방 훈련 방법이 제공될 수 있다.
상기 가상 불 객체는 화재 대상이 되는 재구성된 3D 메시 객체의 크기 및 재질에 따라 다른 크기 및 효과로 생성되되, 상기 효과는 연기의 색, 가상 불 객체의 지속 시간, 상기 가상 불 객체가 커지는 속도 중 적어도 하나일 수 있다.
상기 가상 분말 객체와 상기 가상 불 객체는 유니티 엔진의 파티클 효과가 적용되되, 상기 소화되는 단계는, 상기 가상 불 객체의 파티클에 상기 가상 분말 객체가 충돌하면 상기 가상 불 객체의 크기가 작아지도록 구현되되, 상기 가상 불 객체의 크기가 0 이하가 되면 상기 가상 불 객체가 소화될 수 있다.
상기 가상 화재 진압 훈련 증강 현실 환경을 화재 대피 가상 현실 환경으로 전환시키되, 화재 대피 훈련 가상 현실 환경을 시뮬레이션하여 상기 헤드 마운티드 디스플레이 장치로 전송하는 단계; 및 사용자가 착용한 복수의 트래커의 위치 변화에 기초하여 상기 화재 대피 훈련 가상 환경상에서 가상 아바타를 이동시키는 단계를 더 포함할 수 있다.
상기 가상 화재 진압 훈련 증강 현실 환경에서 상기 화재 대피 가상 현실 환경으로의 전환은, 상기 가상 화재 진압 훈련 증강 현실 환경과 상기 화재 대피 가상 현실 환경 상호간 전환을 위한 환경 전환 객체가 상기 가상 화재 진압 훈련 증강 현실 환경 또는 상기 화재 대피 가상 현실 환경에서 제공되되, 상기 환경 전환 객체는 가상 포탈을 이용하여 구현될 수 있다.
상기 사용자가 착용한 헤드 마운티드 디스플레이 장치의 높이에 따라 화재 대피시 상기 가상 아바타의 대피 자세 높이가 결정되며, 상기 헤드 마운티드 디스플레이 장치의 헤드 트래킹 기능은 상기 화재 대피 가상 현실 환경으로의 전환시 활성화될 수 있다.
본 발명의 다른 측면에 따르면, 확장 현실 기반 소방 훈련 장치가 제공된다.
본 발명의 일 실시예에 따르면, 현실 공간을 인식하고, 상기 현실 공간내의 각 객체와 상기 각 객체의 깊이 정보를 획득하는 스테레오 카메라; 상기 각 객체와 각 객체의 깊이 정보를 기초로 3D 메시(mesh) 객체로 각각 재구성하는 3D 재구성부; 상기 재구성된 3D 메시 객체 중 적어도 하나에 가상 불을 생성한 후 가상 화재 진압 훈련 증강 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치로 전송하는 화재 훈련 시뮬레이션부; 및 실제 소화기에 부착된 복수의 센서로부터 취득되는 정보를 기초로 가상 소화기 객체를 상기 실제 소화기와 연동하여 동기화하는 동기화부를 포함하되, 상기 화재 훈련 시뮬레이션부는, 사용자의 상기 실제 소화기 조작에 따라 상기 가상 소화기 객체를 상기 가상 화재 진압 훈련 증강 현실 환경상에서 동작시키되, 상기 가상 소화기 객체의 동작에 따라 가상 분말 객체가 상기 가상 불 객체를 향해 발사되어 상기 가상 불 객체가 소화되는 것을 특징으로 하는 확장 현실 기반 소방 훈련 장치가 제공될 수 있다.
상기 가상 분말 객체와 상기 가상 불은 유니티 엔진의 파티클 효과가 적용되되, 상기 화재 훈련 시뮬레이션부는, 상기 가상 불 객체는 소정의 크기값으로 생성되되, 시간이 경과함에 따라 상기 가상 불 객체의 크기값이 커짐에 따라 상기 가상 불 객체가 커지도록 구현하고, 상기 가상 불 객체의 파티클에 상기 가상 분말 객체가 충돌하면, 상기 가상 불 객체의 크기를 작아지게 하고, 상기 가상 불 객체의 크기값이 0 이하가 되면 상기 가상 불 객체가 소화되도록 구현할 수 있다.
화재 훈련이 완료되면 상기 가상 화재 진압 훈련 증강 현실 환경을 화재 대피 가상 현실 환경으로 전환시키는 프로세서-상기 프로세서는 상기 사용자가 착용한 복수의 트래커를 활성화시킴; 및 화재 대피 훈련 가상 현실 환경을 시뮬레이션하여 상기 헤드 마운티드 디스플레이 장치로 전송하는 대피 훈련 시뮬레이션부를 더 포함하되, 상기 대피 훈련 시뮬레이션부는, 상기 사용자가 착용한 복수의 트래커의 위치 변화에 기초하여 상기 화재 대피 훈련 가상 환경상에서 가상 아바타를 이동시킬 수 있다.
상기 프로세서는, 상기 가상 화재 진압 훈련 증강 현실 환경과 상기 화재 대피 훈련 가상 현실 환경 상호간 전환을 위한 환경 전환 객체를 상기 가상 화재 진압 훈련 증강 현실 환경 또는 상기 화재 대피 가상 현실 환경의 일 영역에 출력되도록 제어하되, 상기 환경 전환 객체는 가상 포탈을 이용하여 구현될 수 있다.
상기 대피 훈련 시뮬레이션부는, 상기 사용자가 착용한 헤드 마운티드 디스플레이 장치의 높이에 따라 화재 대피시 상기 가상 아바타의 대피 자세 높이를 결정하되, 상기 헤드 마운티드 디스플레이 장치의 헤드 트래킹 기능은 상기 화재 대피 가상 현실 환경으로의 전환시 활성화될 수 있다.
상기 대피 훈련 시뮬레이션부는, 상기 사용자가 상기 가상 아바타를 화재 발생 위치로 이동시키거나, 상기 가상 아바타의 대피 자세 높이가 기준치 이상인 상태로 기준 시간 이상 이동하거나 가상 손수건 객체를 상기 가상 아바타의 얼굴 일부분에 위치시키지 않은 상태로 기준 시간 이상 이동한 경우 대피 훈련에 실패한 것으로 판단하여 대피 훈련 시뮬레이션을 종료시킬 수 있다.
본 발명의 일 실시예에 따른 확장 현실 기반 소방 훈련 방법 및 그 시스템을 제공함으로써, 증강 현실과 가상 현실을 하나의 헤드 마운티드 디스플레이 장치를 통해 제공할 수 있다.
또한, 본 발명은 실제 소화기와의 연동을 통한 증강 현실을 기반으로 현실감 있는 화재 진압 훈련이 가능하고, 가상 현실을 기반으로 안전하게 화재 대피 훈련이 가능하도록 할 수 있다.
도 1은 본 발명의 일 실시예에 따른 확장 현실 기반 소방 훈련 장치의 내부 구성을 개략적으로 도시한 블록도.
도 2는 본 발명의 일 실시예에 따른 SRWorks 라이브러리 모듈의 일 예를 도시한 도면.
도 3은 본 발명의 일 실시예에 따른 실제 소화기의 프로토타입의 일 예를 도시한 도면.
도 4는 본 발명의 일 실시예에 따른 현실 공간의 객체를 3D 메시 객체로 재구성하는 일 예를 도시한 도면.
도 5는 본 발명의 일 실시예에 따른 가상 불 객체 생성을 설명하기 위해 도시한 도면.
도 6은 본 발명의 일 실시예에 따른 가상 화재 진압 훈련 증강 현실 환경에서 가상 화재를 진압하는 상황을 도시한 도면.
도 7은 본 발명의 일 실시예에 따른 소방 훈련을 설명하기 위해 도시한 도면.
도 8은 본 발명의 일 실시예에 따른 대피 훈련 가상 현실 환경을 예시한 도면.
도 9는 본 발명의 일 실시예에 따른 신체 일부에 트래커를 부착한 일 예를 도시한 도면.
도 10은 본 발명의 일 실시예에 따른 가상 화재 진압 훈련 증강 현실 환경내에 가상 현실 환경으로의 전환을 위한 환경 전환 객체를 설명하기 위해 도시한 도면.
도 11은 본 발명의 다른 실시예에 따른 가상 화재 진압 훈련 증강 현실 환경내에 가상 현실 환경으로의 전환 방법을 설명하기 위해 도시한 도면.
도 12는 본 발명의 일 실시예에 따른 확장 현실 기반 소방 훈련 방법을 나타낸 순서도.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 확장 현실 기반 소방 훈련 장치의 내부 구성을 개략적으로 도시한 블록도이고, 도 2는 본 발명의 일 실시예에 따른 SRWorks 라이브러리 모듈의 일 예를 도시한 도면이고, 도 3은 본 발명의 일 실시예에 따른 실제 소화기의 프로토타입의 일 예를 도시한 도면이며, 도 4는 본 발명의 일 실시예에 따른 현실 공간의 객체를 3D 메시 객체로 재구성하는 일 예를 도시한 도면이며, 도 5는 본 발명의 일 실시예에 따른 가상 불 객체 생성을 설명하기 위해 도시한 도면이고, 도 6은 본 발명의 일 실시예에 따른 가상 화재 진압 훈련 증강 현실 환경에서 가상 화재를 진압하는 상황을 도시한 도면이고, 도 7은 본 발명의 일 실시예에 따른 소방 훈련을 설명하기 위해 도시한 도면이고, 도 8은 본 발명의 일 실시예에 따른 대피 훈련 가상 현실 환경을 예시한 도면이고, 도 9는 본 발명의 일 실시예에 따른 신체 일부에 트래커를 부착한 일 예를 도시한 도면이며, 도 10은 본 발명의 일 실시예에 따른 가상 화재 진압 훈련 증강 현실 환경내에 가상 현실 환경으로의 전환을 위한 환경 전환 객체를 설명하기 위해 도시한 도면이고, 도 11은 본 발명의 다른 실시예에 따른 가상 화재 진압 훈련 증강 현실 환경내에 가상 현실 환경으로의 전환 방법을 설명하기 위해 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 확장 현실 기반 소방 훈련 장치(100)는 스테레오 카메라(110), 헤드 마운티드 디스플레이 장치(115), 3D 재구성부(120), 동기화부(125), 화재 훈련 시뮬레이션부(130), 대피 훈련 시뮬레이션부(135), 메모리(140) 및 프로세서(145)를 포함하여 구성된다.
스테레오 카메라(110)는 현실 공간을 인식하고, 현실 공간내의 각 객체와 각 객체에 대한 깊이 정보를 획득하기 위한 수단이다.
스테레오 카메라(110)는 실제 공간에 대한 프리뷰나 촬영된 영상을 획득하기 위한 수단이다.
본 발명의 일 실시예에서는 스테레오 카메라(110)가 헤드 마운티드 디스플레이 장치(115)와 별도의 구성으로 구비되는 것을 가정하여 설명하고 있으나, 스테레오 카메라(110)는 헤드 마운티드 디스플레이 장치(115)의 일 구성일 수도 있다.
본 발명의 일 실시예에 따른 스테레오 카메라(110)는 실제 공간에 대한 영상을 헤드 마운티드 디스플레이 장치(115)로 제공할 수 있다. 또한, 스테레오 카메라(110)는 실제 공간(즉, 현실 세계)에 있는 객체를 인식하고, 해당 객체에 대한 깊이 정보도 감지할 수 있다.
현실 세계에 존재하는 객체를 인식하기 위해, 스테레오 카메라(110)는 딥러닝 비전 모듈을 구비할 수 있다. 해당 딥러닝 비전 모듈을 통해 스테레오 카메라(110)는 현실 세계의 각 객체를 인식하고, 해당 인식된 객체의 깊이 정보를 함께 획득할 수 있다.
헤드 마운티드 디스플레이 장치(115)는 머리 부분에 장착해 사용자의 눈 앞에 직접 영상을 제시할 수 있는 디스플레이 장치이다.
헤드 마운티드 디스플레이 장치(115)는 현실 세계와 연동하여 증강 현실 또는 가상 현실을 구현하여 디스플레이할 수 있다.
본 발명의 일 실시예에서는 헤드 마운티드 디스플레이 장치(115)가 VIVE PRO 모델인 것을 가정하여 이를 중심으로 설명하나, 이외의 헤드 마운티드 디스플레이 장치(115)의 경우에도 동일하게 적용될 수 있음은 당연하다.
이와 같이 VIVE PRO 모델을 이용함으로써, 본 발명의 일 실시예에 따른 소방 훈련 장치는 하나의 헤드 마운티드 디스플레이 장치(115)를 통해 증강 현실 환경과 가상 현실 환경을 모두 디스플레이할 수 있는 이점이 있다.
VIVE PRO 모델의 헤드 마운티드 디스플레이 장치(115)를 통해 증강 현실과 가상 현실을 모두 경험하도록 스테레오 카메라(110)와의 연동을 위해 VIVE 개발사에서 배포된 SRWorks SDK를 이용하였다.
헤드 마운티드 디스플레이 장치(115)의 기능 및 동작은 당업자에는 자명한 사항이므로 이에 대한 별도의 설명은 생략하기로 한다.
3D 재구성부(120)는 스테레오 카메라(110)를 통해 획득되는 현실 공간 영상을 3D로 재구성하기 위한 수단이다.
전술한 바와 같이, 스테레오 카메라(110)를 통해 획득되는 현실 공간 영상에서 각 객체와 각 객체의 깊이 정보가 획득될 수 있다. 따라서, 3D 재구성부(120)는 각 객체의 깊이 정보를 고려하여 3D로 재구성할 수 있다. 이러한 현실 공간내의 객체를 3D로 재구성하기 위해 VIVE 개발사에서 배포된 SRWorks SDK를 이용하였다. SRWorks 라이브러리 모듈은 도 2에 도시된 바와 같다.
3D 재구성부(120)는 스테레오 카메라(110)를 통해 획득되는 2D 픽셀의 현실 공간 영상에서 미리 학습된 객체가 인식되는 경우, 해당 객체의 레이블을 지정하고 깊이 정보를 기초로 3D 메시(mesh)로 재구성하여 객체를 독립적으로 분할할 수 있다.
여기서, 학습된 객체는 예를 들어, 의자, 책상, 모니터, 문, 바닥, 천장, 인간 등일 수 있다.
동기화부(125)는 실제 소화기와 가상 소화기를 동기화하기 위한 수단이다.
실제 소화기는 복수의 센서가 구비될 수 있다. 예를 들어, 실제 소화기에 부착되는 센서는 위치 추적 센서, 가속도 센서, 스위치 등일 수 있다.
도 3에는 실제 소화기의 프로토타입이 예시되어 있다. 본 발명의 일 실시예에서는 가상의 화재를 진압하는 것을 목적으로 하기 때문에, 실제 소화기에 물을 주입하지 않고 사용하였다.
실제 소화기의 상단에는 해당 소화기의 위치 추적을 위한 트래커가 장착되며, 소화기의 호스 방향 추적을 위해 호스 일부분에 자이로스코프 센서가 장착될 수 있다. 또한, 실제 소화기의 손잡이 부분에 물리적인 스위치가 장착될 수 있다.
즉, 소화기 상단에 장착된 트래커를 통해 소화기 위치 정보가 획득되며, 동기화부(125)는 해당 소화기 위치 정보를 이용하여 가상 소화기와의 위치를 동기화시킬 수 있다.
또한, 소화기 호스 부분에 장착된 자이로스코프 센서를 이용하여 동기화부(125)는 소화기 호스의 조작 방향 정보를 획득할 수 있다. 동기화부(125)는 소화기 호스의 조작 방향 정보를 기초로 가상 소화기의 가상 분말이 분출되는 소화 호스의 방향을 결정할 수 있다.
또한, 동기화부(125)는 소화기의 손잡이 부분에 부착된 물리적 스위치를 이용하여 소화기 손잡이 조작에 대한 정보를 획득하여, 가상 소화기에서 가상 분말 객체가 발사되도록 동기화시킬 수 있다. 가상 소화기에서 분출(발사)되는 가상 분말 객체는 유니티 엔진의 파티클 효과를 이용하여 구현될 수 있다.
예를 들어, 유니티 엔진에서 소화기 3D 모델을 위한 Fire Extinguisher를 이용하여 가상 소화기 3D 모델을 구현하였다.
동기화부(125)는 가상 소화기 3D 모델에 실제 소화기의 위치, 방향 및 호스 방향을 연동시켜 동기화하였다. 호스의 경우 계층적 구조로 구성되었으며, 자이로스코프 센서의 방향 정보를 이용해 호스 끝 부분을 이동시키면 호스가 자연스럽게 구부러지도록 구현될 수 있다.
화재 훈련 시뮬레이션부(130)는 가상 화재 진압 훈련 증강 현실 환경을 시뮬레이션하기 위한 수단이다. 이러한 화재 훈련 시뮬레이션부(130)는 가상 화재 진압 훈련 증강 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치(115)를 통해 출력할 수 있다.
이에 대해 보다 상세히 설명하기로 한다.
화재 훈련 시뮬레이션부(130)는 가상 화재 진압 훈련 증강 현실 환경에서 재구성된 3D 메시 객체 중 적어도 하나에서 가상 불 객체를 생성한다. 가상 불 객체는 대상 객체(즉, 불이 생성된 3D 메시 객체)의 크기나 재질에 따라 서로 상이한 크기와 효과로 생성될 수 있다. 또한, 가상 불 객체는 해당 대상 객체(즉, 불이 생성된 3D 메시 객체)의 재질에 따라 상이한 크기로 생성될 수도 있다. 여기서, 효과(또는 속성)는 연기의 색(예를 들어, 하얀색 내지 검은색), 가상 불 객체의 지속 시간, 가상 불 객체가 커지는 속도 중 적어도 하나를 포함할 수 있다.
이와 같이, 생성된 가상 불 객체는 임의의 크기값을 가지고 생성되되, 시간이 경과함에 따라 가상 불 객체의 크기값을 증가시켜 가상 불 객체가 커지도록 구현될 수 있다.
예를 들어, 도 4 및 도 5를 참조하여 설명하기로 한다.
도 4에서 보여지는 바와 같이, 스테레오 카메라(110)를 통해 현실 공간이 인식되면, 해당 인식된 현실 공간에서 적어도 하나의 객체가 3D로 재구성되어 3D 메시 객체로서 저장될 수 있다.
이어, 도 5에 도시된 바와 같이, 해당 3D 메시 객체 중 적어도 하나의 객체에서 가상 불 객체가 발생하도록 구현될 수 있다. 헤드 마운티드 디스플레이 장치(115)를 장착한 사용자의 헤드 움직임에 따라 스테레오 카메라(110)로 인식되는 현실 공간이 달라질 수 있으며, 해당 현실 공간내에서 인식되는 객체 또한 달라질 수 있음은 당연하다.
이와 같이, 가상 화재 진압 훈련 증강 현실 환경에서 재구성된 3D 메시 객체 중 적어도 하나에서 가상 불 객체를 생성한 후 가상 화재 훈련하는 방법에 대해 설명하기로 한다.
전술한 바와 같이, 실제 소화기와 가상 화재 진압 훈련 증강 현실 환경내에서 동작하는 가상 소화기는 동기화부(125)에 의해 동기화되어 있다.
따라서, 사용자가 실제 소화기를 조작함에 따라 화재 훈련 시뮬레이션부(130)는 가상 소화기를 가상 화재 진압 훈련 증강 현실 환경상에서 렌더링하되, 동기화부(125)에 의해 획득되는 실제 소화기의 조작에 따라 가상 소화기를 동기화시킬 수 있다.
예를 들어, 사용자가 실제 소화기를 들어서 이동한 후 가상 불 객체를 향해 호스를 위치시킨 후 실제 소화기의 손잡이에 부착된 물리적 스위치를 누르면, 가상 화재 진압 훈련 증강 현실 환경상에서 가상 소화기가 동기화되어 가상 불 객체를 향해 가상 분말 객체를 발사하도록 구현될 수 있다. 여기서, 가상 분말 객체는 유니티 엔진의 파티클 효과가 적용될 수 있다.
해당 가상 분말 객체가 발사하면, 가상 분말 객체의 파티클이 가상 불 객체의 파티클과 충돌하면서 가상 불 객체가 소화되도록 구현될 수 있다. 즉, 가상 분말 객체의 파티클과 가상 불 객체의 파티클이 충돌하는 동안 가상 불 객체의 크기값이 작아지며, 해당 크기값이 0이되면, 가상 불 객체가 사라지도록 시뮬레이션될 수 있다.
이를 통해, 도 6은 가상 화재 진압 훈련 증강 현실 환경에서 가상 화재를 진압하는 상황을 도시한 도면이다. 가상 불 객체를 확인한 후 실제 소화기의 안전핀을 뽑고 호스 방향을 가상 불 객체를 향하도록 위치시킨 후 실제 소화기의 스위치가 눌려지면, 도 5에 도시된 바와 같이 가상 불 객체를 향해 가상 분말 객체가 발사될 수 있다. 가상 불 객체를 완전히 소확시키지 않은 경우 가상 불 객체의 잔불이 남게 되면, 시간이 지나면 다시 가상 불 객체가 커지도록 구현될 수 있다.
가상 화재 진압 훈련 증강 현실 환경에서 가상 불 객체를 완전히 끄기 위해 실제 소화기를 사용하여 화재 진압하는 행동과 동일하게 구현함으로써, 안전하고, 몰입도가 뛰어나게 소방 훈련을 진행할 수 있는 이점이 있다. 즉, 실제 불을 끄는 훈련의 경우 냄새나 열기가 직접 느껴져 더 긴박감을 조성할 수 있으나 매우 위험하고, 실제 소방 훈련의 경우 건물 내부에서 불을 붙이는 것과 같이 제한적인 상황에서만 소방 훈련이 가능하다. 그러나 가상 화재 진압 훈련 증강 현실 환경을 통해 소방 훈련을 진행함으로써, 장소에 구애받지 않고 안전하게 소방 훈련이 가능한 이점이 있다.
또한, 종래의 가상 환경에서의 소방 훈련은 대다수 실제 소화기가 아닌 다른 입력장치(컨트롤러, 마우스 등)를 통해 소화 훈련을 진행하거나 시각적인 영상 및 이미지로만 훈련하는 단점이 있었다. 그러나 본 발명의 일 실시예에 따른 가상 화재 진압 훈련 증강 현실 환경의 경우 실제 소화기를 사용하여 몰입도가 높은 이점이 있다.
도 7에는 화재 진압 훈련 시나리오의 일 예가 도시되어 있다. 도 7에 도시된 바와 같이, 사용자가 헤드 마운티드 디스플레이 장치(115)를 착용한 상태에서 실제 소화기를 조작하면, 가상 화재 진압 훈련 증강 현실 환경상에서 동기화된 가상 소화기를 통해 소방 훈련이 진행될 수 있다.
대피 훈련 시뮬레이션부(135)는 대피 훈련 가상 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치(115)로 전송한다. 시뮬레이션된 대피 훈련 가상 현실 환경은 도 8에 도시된 바와 같다.
대피 훈련은 세가지 행동으로 구현될 수 있다. 예를 들어, 손수건 객체로 얼굴에 대는 행동을 할 수 있다. 실제 상황에서 손수건이나 옷 등으로 코와 입을 가리지 않았을 때 일산화탄소 및 유독가스 흡입에 대한 문제로 인해 치명적인 결과를 초래할 수 있다.
따라서, 본 발명의 일 실시예에 따르면, 가상 손수건 객체는 트래커와 연동될 수 있다. 사용자가 가상 손수건 객체와 연동된 트래커를 입 근처에 위치시키면 가상 손수건 객체가 코와 입을 막은 것으로 판단할 수 있다.
대피 훈련 시뮬레이션부(135)는 대피 훈련 가상 현실 환경에서 대피 훈련 중 가상 손수건 객체를 얼굴에 대지 않고 누적 30초 이상 대피를 진행하는 경우 훈련을 종료시키고 경고 문구를 출력할 수 있다.
또한, 대피 훈련 시뮬레이션부(135)는 헤드 마운티드 디스플레이 장치(115)의 위치를 트래킹하여 사용자가 기준치 이상 낮은 자세로 이동하는지 여부를 판단할 수 있다. 예를 들어, 헤드 마운티드 디스플레이 장치(115)의 위치 트래킹 결과 사용자가 약 1m 30cm 높이 이내로 얼굴 높이를 낮추지 않은 상태로 30초 이상 누적하여 이동하는 경우 대피 훈련 시뮬레이션부(135)는 대피 훈련을 종료하고 경고 문구를 출력할 수 있다.
또한, 대피 훈련 시뮬레이션부(135)는 사용자가 양발에 착용한 복수의 트래커를 통해 획득된 정보를 토대로 사용자의 이동 동작을 구현할 수 있다. 즉, 사용자는 양발 발목에 두개의 트래커를 부착할 수 있다(도 9 참조). 사용자가 이동하는 방향은 헤드 마운티드 디스플레이 장치(115)로 바라보는 정면 방향으로 결정될 수 있다. 대피시 이동은 화재 진압 훈련이 끝난 후 가상 대피 훈련이 시작되면 활성화될 수 있다.
즉, 대피 훈련 시뮬레이션부(135)는 양발 발목에 트래커를 부착한 상태에서 제자리 걸음하는 경우 양발 발목에 부착된 트래커 사이의 위치 차이를 이용하여 대피 훈련 가상 현실 환경에서 가상 아바타를 이동시킬 수 있다. 즉, 대피 훈련 시뮬레이션부(135)는 가상 아바타를 화재가 발생한 건물 밖까지 이동하면 대피 훈련을 통과한 것으로 판단할 수 있다. 만약 가상 손수건으로 코와 입을 막지 않거나 고개를 들고 제한 시간을 초과하여 이동하는 경우 대피 훈련 시뮬레이션부(135)는 대피 훈련이 실패한 것으로 판단하여 종료할 수 있다.
물론, 대피 훈련 시뮬레이션부(135)는 사용자가 대피 방향을 잘못 판단하여 가상 불이 난 위치로 이동하는 경우 대피 훈련이 실패한 것으로 판단하여 대피 훈련을 그 즉시 중단할 수 있다.
메모리(140)는 본 발명의 일 실시예에 따른 확장 현실 기반 소방 훈련 방법을 수행하기 위한 명령어를 저장한다.
프로세서(145)는 본 발명의 일 실시예에 따른 확장 현실 기반 소방 훈련 장치(100)의 내부 구성 요소들(예를 들어, 스테레오 카메라(110), 헤드 마운티드 디스플레이 장치(115), 3D 재구성부(120), 동기화부(125), 화재 훈련 시뮬레이션부(130), 대피 훈련 시뮬레이션부(135), 메모리(140) 등)을 제어하기 위한 수단이다.
또한, 프로세서(145)는 가상 화재 진압 훈련이 완료되면, 증강 현실 환경과 가상 현실 환경을 전환하도록 제어할 수도 있다. 즉, 프로세서(145)는 가상 화재 진압 훈련이 종료되면, 가상 화재 진압 훈련 증강 현실 환경내에 가상 현실 환경으로의 전환을 위한 환경 전환 객체가 출력되도록 제어할 수 있다. 예를 들어, 환경 전환 객체는 가상 포탈을 이용하여 구현될 수 있으며, 환경 전환 객체의 형태는 가상 문 객체의 형태일 수 있다. 물론, 전환 객체는 가상 문 객체 이외에도 다른 형태로 구현될 수도 있음은 당연하다.
도 10에는 환경 전환 객체의 일 예가 도시되어 있다.
또한, 프로세서(145)는 도 11에 도시된 바와 같이, 페이드인/페이드 아웃 기법을 적용하여 증강 현실 환경에서 가상 현실 환경으로 전환할 수도 있다.
또한, 프로세서(145)는 증강 현실 환경에서 가상 현실 환경으로 전환시, 사용자가 착용한 복수의 트래커를 활성화시킬 수 있다.
도 12는 본 발명의 일 실시예에 따른 확장 현실 기반 소방 훈련 방법을 나타낸 순서도이다.
단계 1210에서 확장 현실 기반 소방 훈련 장치(100)는 스테레오 카메라를 통해 현실 공간을 인식하고, 해당 현실 공간내의 각 객체와 각 객체에 대한 깊이 정보를 획득한다.
단계 1215에서 확장 현실 기반 소방 훈련 장치(100)는 각 객체와 각 객체의 깊이 정보를 기초로 각 객체를 3D 메시 객체로 각각 재구성한다.
단계 1220에서 확장 현실 기반 소방 훈련 장치(100)는 재구성된 3D 메시 객체 중 적어도 하나에 가상 불 객체를 생성한 후 가상 화재 진압 훈련 증강 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치로 전송한다.
단계 1225에서 확장 현실 기반 소방 훈련 장치(100)는 사용자의 상기 실제 소화기 조작에 따라 상기 가상 소화기 객체를 상기 가상 화재 진압 훈련 증강 현실 환경상에서 동작시킨다.
실제 소화기와 가상 소화기 객체는 상호 동기화되어 있는 것을 가정하기로 한다.
즉, 실제 소화기에 부착된 복수의 센서로부터 획득되는 정보(위치, 방향, 스위치 온/오프)에 따라 가상 소화기 객체가 동기화되어 동작되도록 구현될 수 있다. 사용자가 실제 소화기를 조작함에 따라 해당 실제 소화기에 부착된 복수의 센서로부터 획득되는 정보에 기초하여 가상 소화기 객체를 동작시키되, 해당 가상 소화기 객체의 동작에 따라 가상 분말 객체가 가상 불 객체를 향해 발사되며 소화 작업이 진행될 수 있다.
이는 전술한 바와 동일하므로 상세하 설명은 생략하기로 한다.
단계 1230에서 확장 현실 기반 소방 훈련 장치(100)는 화재 훈련이 완료되면 상기 가상 화재 진압 훈련 증강 현실 환경을 화재 대피 가상 현실 환경으로 전환시킨다.
이때, 확장 현실 기반 소방 훈련 장치(100)는 가상 화재 진압 훈련 증강 현실 환경과 화재 대피 훈련 가상 현실 환경 상호간 전환을 위한 환경 전환 객체를 가상 화재 진압 훈련 증강 현실 환경 또는 화재 대피 가상 현실 환경의 일 영역에 출력할 수 있다. 여기서, 환경 전환 객체는 가상 포탈을 이용하여 구현될 수 있다.
또한, 확장 현실 기반 소방 훈련 장치는 해당 가상 화재 진압 훈련 증강 현실 환경에서 화재 대피 가상 현실 환경으로 전환에 따라 사용자의 신체 일 부분에 착용한 복수의 트래커를 활성화시킬 수 있다.
또한, 해당 가상 화재 진압 훈련 증강 현실 환경에서 화재 대피 가상 현실 환경으로 전환에 따라 확장 현실 기반 소방 훈련 장치는 가상 아바타를 출력할 수 있다.
단계 1235에서 확장 현실 기반 소방 훈련 장치(100)는 화재 대피 훈련 가상 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치로 전송한다.
확장 현실 기반 소방 훈련 장치(100)는 사용자가 착용한 복수의 트래커의 위치 변화에 기초하여 상기 화재 대피 훈련 가상 환경상에서 가상 아바타를 이동시킬 수 있다. 또한, 확장 현실 기반 소방 훈련 장치(100)는 사용자가 착용한 헤드 마운티드 디스플레이 장치의 높이에 따라 화재 대피시 상기 가상 아바타의 대피 자세 높이를 결정할 수 있다.
이때, 헤드 마운티드 디스플레이 장치(115)는 전술한 바와 같이, 화재 대피 가상 현실 환경으로의 전환되는 경우 활성화되며, 가상 화재 진압 훈련 증강 현실 환경에서는 비활성화될 수 있다.
확장 현실 기반 소방 훈련 장치(100)는 사용자가 상기 가상 아바타를 화재 발생 위치로 이동시키거나, 가상 아바타의 대피 자세 높이가 기준치 이상인 상태로 기준 시간 이상 이동하거나 가상 손수건 객체를 가상 아바타의 얼굴 일부분에 위치시키지 않은 상태로 기준 시간 이상 이동한 경우 대피 훈련에 실패한 것으로 판단하여 대피 훈련 시뮬레이션을 종료시킬 수 있다.
본 발명의 실시 예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100: 확장 현실 기반 소방 훈련 장치
110: 스테레오 카메라
115: 헤드 마운티드 디스플레이
120: 3D 재구성부
125: 동기화부
130: 화재 훈련 시뮬레이션부
135: 대피 훈련 시뮬레이션부
140: 메모리
145: 프로세서

Claims (14)

  1. 스테레오 카메라를 통해 획득되는 현실 공간의 각 객체와 상기 각 객체의 깊이 정보를 획득하는 단계;
    상기 각 객체와 각 객체의 깊이 정보를 기초로 3D 메시(mesh) 객체로 각각 재구성하는 단계;
    상기 재구성된 3D 메시 객체 중 적어도 하나에 가상 불을 생성한 후 가상 화재 진압 훈련 증강 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치로 전송하는 단계;
    사용자의 실제 소화기 조작에 따라 가상 소화기 객체를 상기 가상 화재 진압 훈련 증강 현실 환경상에서 동작시키되, 상기 가상 소화기 객체의 동작에 따라 가상 분말 객체가 상기 가상 불 객체를 향해 발사되어 상기 가상 불 객체가 소화되는 단계;
    가상 화재 진압 훈련 종료시, 상기 가상 화재 진압 훈련 증강 현실 환경과 화재 대피 훈련 가상 현실 환경 상호간 전환을 위한 환경 전환 객체를 상기 가상 화재 진압 훈련 증강 현실 환경의 일 영역을 통해 출력한 후 상기 환경 전환 객체를 통해 상기 화재 대피 훈련 가상 현실 환경으로 전환시킨 후 상기 화재 대피 훈련 가상 현실 환경을 시뮬레이션하여 상기 헤드 마운티드 디스플레이 장치로 전송하고, 상기 화재 대피 훈련 가상 현실 환경으로의 전환에 따라 상기 헤드 마운티드 디스플레이 장치의 헤드 트래킹 기능을 활성화시키는 단계;
    사용자가 양발 발목에 트래커를 착용한 상태에서의 제자리 걸음시 상기 양발 발목에 착용한 트래커 사이의 위치 차이를 이용하여 상기 화재 대피 훈련 가상 현실 환경상에서 가상 아바타를 이동시키는 단계; 및
    상기 헤드 마운티드 디스플레이 장치로 바라보는 정면 방향으로 상기 가상 아바타의 이동 방향을 결정하여 상기 이동 방향에 따라 상기 가상 아바타를 상기 가상 불이 생성된 위치로 이동시키고, 가상 손수건 객체를 상기 가상 아바타의 얼굴 일부분에 위치시키지 않은 상태로 기준 시간 이상 이동한 경우 대피 훈련에 실패한 것으로 판단하여 대피 훈련 시뮬레이션을 종료시키는 단계를 포함하되,
    상기 가상 불 객체는 화재 대상이 되는 재구성된 3D 메시 객체의 크기 및 재질에 따라 다른 크기 및 효과로 생성되며, 상기 효과는 연기의 색, 가상 불 객체의 지속 시간 및 상기 가상 불 객체가 커지는 속도를 포함하고,
    상기 가상 분말 객체와 상기 가상 불 객체는 유니티 엔진의 파티클 효과가 적용되되,
    상기 소화되는 단계는,
    상기 가상 불 객체의 파티클에 상기 가상 분말 객체가 충돌하면 상기 가상 불 객체의 크기가 작아지도록 구현되되, 상기 가상 불 객체의 크기가 0 이하가 되면 상기 가상 불 객체가 소화되는 것을 특징으로 하는 확장 현실 기반 소방 훈련 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1 항에 있어서,
    상기 사용자가 착용한 헤드 마운티드 디스플레이 장치의 높이에 따라 화재 대피시 상기 가상 아바타의 대피 자세 높이가 결정되는 것을 특징으로 하는 확장 현실 기반 소방 훈련 방법.
  7. 제1 항에 따른 방법을 수행하기 위한 프로그램 코드를 기록한 컴퓨터로 판독 가능한 기록매체.
  8. 현실 공간을 인식하고, 상기 현실 공간내의 각 객체와 상기 각 객체의 깊이 정보를 획득하는 스테레오 카메라;
    상기 각 객체와 각 객체의 깊이 정보를 기초로 3D 메시(mesh) 객체로 각각 재구성하는 3D 재구성부;
    상기 재구성된 3D 메시 객체 중 적어도 하나에 가상 불을 생성한 후 가상 화재 진압 훈련 증강 현실 환경을 시뮬레이션하여 헤드 마운티드 디스플레이 장치로 전송하는 화재 훈련 시뮬레이션부;
    실제 소화기에 부착된 복수의 센서로부터 취득되는 정보를 기초로 가상 소화기 객체를 상기 실제 소화기와 연동하여 동기화하는 동기화부; 및
    가상 화재 진압 훈련 종료시, 상기 가상 화재 진압 훈련 증강 현실 환경과 화재 대피 훈련 가상 현실 환경 상호간 전환을 위한 환경 전환 객체를 상기 가상 화재 진압 훈련 증강 현실 환경의 일 영역을 통해 출력한 후 상기 환경 전환 객체를 통해 상기 화재 대피 훈련 가상 현실 환경으로 전환시킨 후 상기 화재 대피 훈련 가상 현실 환경을 시뮬레이션하여 상기 헤드 마운티드 디스플레이 장치로 전송하고, 상기 화재 대피 훈련 가상 현실 환경으로의 전환에 따라 상기 헤드 마운티드 디스플레이 장치의 헤드 트래킹 기능을 활성화시키는 프로세서-상기 프로세서는 상기 전환에 따라 사용자가 착용한 복수의 트래커를 활성화시킴; 및
    화재 대피 훈련 가상 현실 환경을 시뮬레이션하여 상기 헤드 마운티드 디스플레이 장치로 전송하고,
    사용자가 양발 발목에 트래커를 착용한 상태에서의 제자리 걸음시 상기 양발 발목에 착용한 트래커 사이의 위치 차이를 이용하여 상기 화재 대피 훈련 가상 현실 환경상에서 가상 아바타를 이동시키되, 상기 헤드 마운티드 디스플레이 장치로 바라보는 정면 방향으로 상기 가상 아바타의 이동 방향을 결정하여 상기 이동 방향에 따라 상기 가상 아바타를 상기 가상 불이 생성된 위치로 이동시키고가상 손수건 객체를 상기 가상 아바타의 얼굴 일부분에 위치시키지 않은 상태로 기준 시간 이상 이동한 경우 대피 훈련에 실패한 것으로 판단하여 대피 훈련 시뮬레이션을 종료시키는 대피 훈련 시뮬레이션부를 포함하되,
    상기 화재 훈련 시뮬레이션부는,
    사용자의 상기 실제 소화기 조작에 따라 상기 가상 소화기 객체를 상기 가상 화재 진압 훈련 증강 현실 환경상에서 동작시키되, 상기 가상 소화기 객체의 동작에 따라 가상 분말 객체가 상기 가상 불 객체를 향해 발사되어 상기 가상 불 객체가 소화되되,
    상기 가상 불 객체는 화재 대상이 되는 재구성된 3D 메시 객체의 크기 및 재질에 따라 다른 크기 및 효과로 생성되며, 상기 효과는 연기의 색, 가상 불 객체의 지속 시간 및 상기 가상 불 객체가 커지는 속도를 포함하고,
    상기 가상 분말 객체와 상기 가상 불 객체는 유니티 엔진의 파티클 효과가 적용되되,
    상기 화재 훈련 시뮬레이션부는,
    상기 가상 불 객체의 파티클에 상기 가상 분말 객체가 충돌하면 상기 가상 불 객체의 크기가 작아지도록 구현되되, 상기 가상 불 객체의 크기가 0 이하가 되면 상기 가상 불 객체가 소화되는 것을 특징으로 하는 확장 현실 기반 소방 훈련 장치.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 제8 항에 있어서,
    상기 환경 전환 객체는 가상 포탈을 이용하여 구현되는 것을 특징으로 하는 확장 현실 기반 소방 훈련 장치.
  13. 제8 항에 있어서,
    상기 대피 훈련 시뮬레이션부는,
    상기 사용자가 착용한 헤드 마운티드 디스플레이 장치의 높이에 따라 화재 대피시 상기 가상 아바타의 대피 자세 높이를 결정하는 것을 특징으로 하는 확장 현실 기반 소방 훈련 장치.

  14. 삭제
KR1020220131521A 2022-10-13 2022-10-13 확장 현실 기반 소방 훈련 방법 및 그 장치 KR102588703B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220131521A KR102588703B1 (ko) 2022-10-13 2022-10-13 확장 현실 기반 소방 훈련 방법 및 그 장치
US18/049,329 US20240123271A1 (en) 2022-10-13 2022-10-25 Extended reality-based fire training method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220131521A KR102588703B1 (ko) 2022-10-13 2022-10-13 확장 현실 기반 소방 훈련 방법 및 그 장치

Publications (1)

Publication Number Publication Date
KR102588703B1 true KR102588703B1 (ko) 2023-10-12

Family

ID=88291457

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220131521A KR102588703B1 (ko) 2022-10-13 2022-10-13 확장 현실 기반 소방 훈련 방법 및 그 장치

Country Status (2)

Country Link
US (1) US20240123271A1 (ko)
KR (1) KR102588703B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180012033A (ko) * 2016-07-26 2018-02-05 최명렬 증강현실과 가상현실 간 전환 방법
KR102137040B1 (ko) * 2019-12-13 2020-07-24 한국건설기술연구원 혼합현실 기반의 화재환경 시뮬레이션 시스템 및 이를 이용한 화재 시뮬레이션 방법
KR20220113207A (ko) * 2021-02-05 2022-08-12 중앙대학교 산학협력단 혼합 현실을 이용한 가상 화재 대응 교육 평가 시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180012033A (ko) * 2016-07-26 2018-02-05 최명렬 증강현실과 가상현실 간 전환 방법
KR102137040B1 (ko) * 2019-12-13 2020-07-24 한국건설기술연구원 혼합현실 기반의 화재환경 시뮬레이션 시스템 및 이를 이용한 화재 시뮬레이션 방법
KR20220113207A (ko) * 2021-02-05 2022-08-12 중앙대학교 산학협력단 혼합 현실을 이용한 가상 화재 대응 교육 평가 시스템 및 방법

Also Published As

Publication number Publication date
US20240123271A1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
Matsas et al. Design of a virtual reality training system for human–robot collaboration in manufacturing tasks
US11138436B2 (en) Automatic control of wearable display device based on external conditions
EP3304252B1 (en) Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
Maes et al. The ALIVE system: Full-body interaction with autonomous agents
CN103226390B (zh) 全景式火灾紧急逃生的虚拟现实系统
CN106652625A (zh) 交互式虚拟现实消防训练系统
US10675766B1 (en) System for introducing physical experiences into virtual reality (VR) worlds
CN107393351A (zh) 一种基于vr系统的电力培训用走位训练装置及培训方法
KR20110133254A (ko) 건설 구조물 화재에서 개인별 대피 행동 및 사상자를 시뮬레이션하는 화재 위험 평가 시스템, 화재 위험 평가 방법 및 그 기록 매체
CN104470593A (zh) 社交舞用的系统和方法
KR20190113054A (ko) 사용자 생활공간에서의 화재 훈련 방법 및 장치
KR102564810B1 (ko) 실감형 소방훈련 시뮬레이터
JP2010257081A (ja) 画像処理方法及び画像処理装置
Vichitvejpaisal et al. Firefighting simulation on virtual reality platform
US11850508B2 (en) System for simulating an output in a virtual reality environment
Bartoli et al. Emergency medicine training with gesture driven interactive 3D simulations
CN206363567U (zh) 交互式虚拟现实消防训练系统
KR102588703B1 (ko) 확장 현실 기반 소방 훈련 방법 및 그 장치
KR102300082B1 (ko) 센서 기반 가상 소방 도구를 이용한 소방 훈련 프로그램 제공 장치 및 방법과 이를 이용한 실감형 소방 훈련 시스템
KR20190112895A (ko) 화재진압 학습시스템 및 그 방법
US20230214007A1 (en) Virtual reality de-escalation tool for delivering electronic impulses to targets
CN108563145A (zh) 消防情景仿真系统和方法
CN110420434A (zh) 一种机场火灾演习训练系统
CN110428690A (zh) 一种机场火灾消防考核系统
CN110444050A (zh) 一种机场火灾模拟方法

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant