KR101262848B1 - Apparatus of reconfigurable platform for virtual reality based training simulator - Google Patents

Apparatus of reconfigurable platform for virtual reality based training simulator Download PDF

Info

Publication number
KR101262848B1
KR101262848B1 KR1020090125543A KR20090125543A KR101262848B1 KR 101262848 B1 KR101262848 B1 KR 101262848B1 KR 1020090125543 A KR1020090125543 A KR 1020090125543A KR 20090125543 A KR20090125543 A KR 20090125543A KR 101262848 B1 KR101262848 B1 KR 101262848B1
Authority
KR
South Korea
Prior art keywords
unit
user
training
information
virtual
Prior art date
Application number
KR1020090125543A
Other languages
Korean (ko)
Other versions
KR20110068544A (en
Inventor
양웅연
이건
김용완
조동식
최진성
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020090125543A priority Critical patent/KR101262848B1/en
Publication of KR20110068544A publication Critical patent/KR20110068544A/en
Application granted granted Critical
Publication of KR101262848B1 publication Critical patent/KR101262848B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B25/00Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes
    • G09B25/02Models for purposes not provided for in G09B23/00, e.g. full-sized devices for demonstration purposes of industrial processes; of machinery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Abstract

본 발명은 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치에 관한 것으로서, 실제의 작업환경에 상응하는 다양한 훈련 컨텐츠를 관리하며, 가상현실 기반 훈련 시뮬레이터에서 운영될 훈련 컨텐츠의 시나리오를 결정하는 컨텐츠 운영부; 사용자에 의해 선택된 훈련 컨텐츠를 증강현실 기법을 이용하여 입체영상으로 제시하는 영상 출력부; 실제 작업에서 사용되는 작업 도구와 유사한 작업 도구를 기반으로, 컨텐츠 운영부에서 결정된 훈련 컨텐츠의 시나리오에 따라 사용자가 실제의 작업환경에서 느끼는 감각을 느낄 수 있도록 시각, 청각, 촉각, 및 후각 중 하나 이상의 감각 피드백을 지원하는 사용자 작업도구부; 및 사용자 및 작업 환경 상태를 실시간으로 추적하여 가상현실 기반 훈련 시뮬레이터의 입력 정보를 생성하는 트래킹부를 구비한다. 본 발명에 의하면, 교육 및 훈련 과정이 필요한 임의의 작업 현장을 실시간 시뮬레이션 기반으로 가시화 시켜줌으로써, 사용자의 활동을 통해서 시나리오를 진행시키는 모든 분야에 폭넓게 활용될 수 있다.The present invention relates to a variable platform apparatus for a virtual reality-based training simulator, and more particularly, to a variable-type platform apparatus for managing a variety of training contents corresponding to an actual work environment and determining a scenario of training content to be operated in a virtual reality-based training simulator; An image output unit for presenting the training content selected by the user as a stereoscopic image using an augmented reality technique; Based on the work tools similar to the work tools used in actual work, one or more senses such as sight, hearing, tactile sense, and sense of smell can be sensed so that the user can feel the sensation in the actual work environment according to the scenario of the training contents determined by the content management section User work tools to support feedback; And a tracking unit for generating input information of a virtual reality-based training simulator by tracking user and work environment conditions in real time. According to the present invention, an arbitrary worksite requiring a training and training process can be visualized on a real-time simulation basis, and thus can be widely used in all fields for advancing a scenario through user's activities.

가상, 작업, 시뮬레이터, 훈련, 가변형, 플랫폼, 컨텐츠 Virtual, work, simulator, training, adjustable, platform, content

Description

가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치{APPARATUS OF RECONFIGURABLE PLATFORM FOR VIRTUAL REALITY BASED TRAINING SIMULATOR}[0001] APPARATUS OF RECONFIGURABLE PLATFORM FOR VIRTUAL REALITY BASED TRAINING SIMULATOR [0002]

본 발명은 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치 및 그 방법에 관한 것이다. 보다 상세하게는, 다양한 작업 환경 및 사용자 중심의 요구 사항을 수용하여 가상현실 기반 훈련 시뮬레이터의 플랫폼을 변형할 수 있는 장치 및 그 방법에 관한 것이다.The present invention relates to a variable platform apparatus and method for a virtual reality based training simulator. More particularly, the present invention relates to an apparatus and method for adapting a platform of a virtual reality-based training simulator by accommodating various work environments and user-oriented requirements.

실제 도구를 이용한 기존의 훈련 방법은 소모성 재료의 사용, 제한된 훈련 공간, 부대 시설 관리 문제, 전압, 전류, 열방출, 스패터(불꽃)에 의한 초보자의 안전사고 위험, 및 훈련에 대한 소극적 대응 등 많은 어려움이 존재한다. 즉, 현장에서는 고도의 숙련된 작업자를 요구하고 있지만, 앞에서 열거한 문제점들은 효율적인 훈련 과정 수행에 걸림돌이 되고 있다.Existing training methods using actual tools include the use of consumable materials, limited training space, management of facilities, voltage, current, heat emission, risk of safety risk for beginners by spatters, and passive response to training There are many difficulties. In other words, the field requires highly skilled workers, but the problems listed above are obstacles to the efficient training process.

이러한 문제점들을 해결하기 위해, 실제 작업 환경과 동일한 가상의 환경을 조성하고, 조성된 가상의 환경에서 상기한 문제점들로 인해 발생하는 어려움을 최소화하며 작업자가 훈련을 수행할 수 있도록 하는 가상현실 기반 훈련 시뮬레이터들이 개 발되었다.In order to solve these problems, it is necessary to create a virtual environment that is the same as the actual work environment, to minimize the difficulties caused by the above problems in the created virtual environment, Simulators have been developed.

가상현실 기반 훈련 시뮬레이터는 현장의 교육 및 훈련 상황을 실시간 시뮬레이션을 기반으로 디지털 컨텐츠로 구현하고, 사용자가 직접 컨텐츠와 상호작용할 수 있는 입출력 인터페이스 장치를 구비하여, 실제 작업 환경에서 얻는 것과 동일한 경험을 사용자에게 제시하는 시스템이다. 이를 활용하면 훈련과 관련한 비용의 절감 및 안전사고의 감소 등, 높은 경제적 효과 및 효율적인 과정으로 훈련을 수행하는 것이 가능하다. 이에 우주, 항공, 군사, 의료, 교육 및 산업 현장 등 다양한 상황에 대응하는 시뮬레이션 시스템이 개발되고 있다.Virtual reality based training simulator is implemented with digital contents based on real-time simulation of training and training situation on the field, and has input / output interface device that user can directly interact with contents, . Using this, it is possible to carry out training with high economic efficiency and efficient process such as reduction of cost related to training and reduction of safety accident. Simulation systems are being developed to cope with various situations such as space, aviation, military, medical, education, and industrial sites.

하지만, 종래 가상현실 기반 훈련 시뮬레이터들의 경우, 작업 현장에서의 모든 상황에 유동적으로 대응할 수 있는 다양한 작업 시나리오를 제시하고 있지 못하고 있다. However, in the conventional virtual reality based training simulators, various work scenarios that can flexibly cope with all situations at the work site are not presented.

때문에, 다양한 작업 현장 및 상황에 능동적으로 대처할 수 있는 가상훈련 기반 시뮬레이터를 원하는 소비자의 기술 수요를 지원하지 못하는 한계점을 가지고 있다.Therefore, it has a limitation that it can not support the technical demand of consumers who want a virtual training-based simulator capable of actively coping with various work sites and situations.

본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로서,SUMMARY OF THE INVENTION The present invention has been proposed in order to solve the above problems,

사용자 중심의 요구 사항을 수용하여 다양한 작업 현장 및 상황에 능동적으로 대처할 수 있는 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치를 제공하는 것을 목적으로 한다.The object of the present invention is to provide a variable platform device for a virtual reality-based training simulator capable of actively coping with various work sites and situations by accommodating user-oriented requirements.

특히, 본 발명의 실시예로, 가상 용접 훈련 시뮬레이터의 사례를 구체적으로 제시함으로써, 기존 기술이 해결하지 못한 다양한 용접 작업 자세 시나리오를 지원하고, 작업 현장에서 느낄 수 있는 느낌(시각, 청각, 촉각, 후각 등)을 동일하게 사용자가 체험할 수 있도록 하는 플랫폼 장치를 제공하는 것을 목적으로 한다.In particular, by presenting an example of a virtual welding training simulator as an embodiment of the present invention, various welding work posture scenarios that are not solved by existing technologies are supported, and a feeling (visual, auditory, tactile, And the like) to be experienced by the user in the same manner.

본 발명의 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치는, 실제의 작업환경에 상응하는 다양한 훈련 컨텐츠를 관리하며, 상기 가상현실 기반 훈련 시뮬레이터에서 운영될 훈련 컨텐츠의 시나리오를 결정하는 컨텐츠 운영부; 상기 사용자에 의해 선택된 훈련 컨텐츠를 증강현실 기법을 이용하여 입체영상으로 제시하는 영상 출력부; 실제 작업에서 사용되는 작업 도구와 유사한 작업 도구를 기반으로, 상기 컨텐츠 운영부에서 결정된 훈련 컨텐츠의 시나리오에 따라 사용자가 실제의 작업환경에서 느끼는 감각을 느낄 수 있도록 시각, 청각, 촉각, 및 후각 중 하나 이상의 감각 피드백을 지원하는 사용자 작업도구부; 및 사용자 및 작업 환경 상태를 실시간으로 추적하여 상기 가상현실 기반 훈련 시뮬레이터의 입력 정보를 생성하는 트래킹부를 구비한다.A variable platform device for a virtual reality based training simulator of the present invention includes a content management unit for managing various training contents corresponding to an actual working environment and determining a scenario of training content to be operated in the virtual reality based training simulator; An image output unit for presenting the training content selected by the user as a stereoscopic image using an augmented reality technique; The user may use one or more of visual, auditory, tactile, and olfactory senses so that the user can feel the sensation felt in the actual working environment according to the scenario of the training contents determined by the content operation unit, User action tool to support sensory feedback; And a tracking unit for generating input information of the virtual reality based training simulator by tracking user and work environment conditions in real time.

본 발명에 따르면 다음과 같은 효과를 기대할 수 있다.According to the present invention, the following effects can be expected.

실제 작업 환경과 동일한 훈련 시스템을 구축 하는데 필요한 비용, 및 훈련용 재료의 소비에 따른 소모성 비용을 가상현실 데이터로 대체함으로써, 비용절감을 통한 경제적 이득을 도모할 수 있다.By replacing the cost required to construct the same training system as the actual working environment and the consumable cost due to the consumption of the training material with the virtual reality data, the economic gain can be achieved through cost reduction.

특히, 본 발명에서 실시예로 제시하는 가상 용접 훈련 시뮬레이터의 경우, 다양한 작업 구조물에 따른 훈련 공간, 작업 준비 시간, 훈련 후 정리 작업 시간 등을 보다 효율적으로 활용할 수 있게 하고, 또 초보자의 안전사고에 대한 위험을 감소시킬 수 있어서, 숙련된 작업자 양성에 도움이 될 수 있다.Particularly, in the case of the virtual welding training simulator shown in the embodiment of the present invention, it is possible to more effectively utilize the training space, the preparation time, and the post-training work time according to various work structures, It can reduce the risk of injury and can help to train skilled workers.

또한, 본 발명은 교육 및 훈련 과정이 필요한 임의의 작업 현장을 실시간 시뮬레이션 기반으로 가시화 시켜줌으로써, 사용자의 활동을 통해서 시나리오를 진행시키는 모든 분야에 폭넓게 활용될 수 있다.In addition, the present invention can be widely applied to all fields for advancing scenarios through user's activities by visually visualizing any work site requiring a training and training process based on a real-time simulation.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

본 발명을 설명하기에 앞서, 본 발명은 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치 및 운영 방법에 관한 것으로, 사용자가 특정 도구를 들고 수행하는 다양한 훈련 작업 시나리오를 구현할 수 있는 플랫폼 장치를 제안한다. Prior to describing the present invention, the present invention relates to a variable platform apparatus and method for a virtual reality-based training simulator, and proposes a platform apparatus capable of implementing various training task scenarios in which a user carries out a specific tool.

그리고, 구체적인 실시예로 용접 작업 훈련 시뮬레이터의 설계와 운영방법을 제시한다.In addition, a design and operation method of a welding work training simulator is presented as a concrete example.

도 1은 본 발명에 따른 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치의 구성을 구체적으로 설명하기 위한 도면이다.FIG. 1 is a view for explaining the construction of a variable platform apparatus for a virtual reality-based training simulator according to the present invention.

도 1을 참조하면, 본 발명의 가변형 플랫폼 장치(100)는 영상 출력부(200), 사용자 작업도구부(300), 트래킹부(400), 사용자 인터페이스부(500), 컨텐츠 운영부(600), 및 시스템 관리부(700)를 구비한다.1, a variable platform device 100 according to the present invention includes an image output unit 200, a user task tool unit 300, a tracking unit 400, a user interface unit 500, a content operation unit 600, And a system management unit 700.

먼저, 본 발명의 가변형 플랫폼 장치(100)는 크게 상부(A)/중부(B)/하부(C)의 구성으로 3부분으로 분류될 수 있으며, 소비자의 요구에 따라서 상부(A)/중부(B)/하부(C)의 기술 구현 방법을 변경하거나, 세부 구성 요소(200 내지 700)의 구현 방식을 유사 기술로 대체하거나, 일부 구성을 생략한 상태로 운영할 수 있다.First, the variable platform device 100 of the present invention can be divided into three parts in the configuration of an upper part A / a middle part B / a lower part C, B) / subcontracting method C, the implementation method of the detailed components 200 to 700 may be replaced with a similar technology, or a part of the components may be omitted.

영상 출력부(200)는 사용자(작업자) 신체 및 작업 환경에 적합한 형태로, 증강현실 기법을 이용하여 훈련 컨텐츠를 입체영상으로 사용자에게 제시하는 하드웨어 장치를 제공한다.The video output unit 200 provides a hardware device for presenting a training content to a user as a stereoscopic video using augmented reality technique in a form suitable for the user (worker) body and work environment.

사용자 작업 도구부(300)는 현실 작업 시나리오에서와 동일한 작업 도구를 기반으로 현장 작업과 동일한 상호작용 방법으로, 현장 작업과 동일한 느낌(시각, 청각, 촉각 및 후각)을 전달 받을 수 있는 하드웨어 장치를 제공한다.The user operation tool unit 300 is a hardware device that receives the same feeling (sight, hearing, tactile sense and smell) as that of the field work, using the same working tool as the real working scenario, to provide.

트래킹부(400)는 플랫폼 장치(100)를 사용하는 사용자 및 작업 환경 상태를 실시간에 추적하여 플랫폼 장치(100)의 입력 정보를 생성하는 하드웨어 장치를 제공한다.The tracking unit 400 provides a hardware device that generates input information of the platform device 100 by tracking the user environment and the working environment using the platform device 100 in real time.

사용자 인터페이스부(500)는 간편하게 디자인된 그래픽 기반 사용자 인터페이스(GUI)를 이용해서 플랫폼 장치(100)의 동작을 제어하는 소프트웨어를 제공한다.The user interface unit 500 provides software for controlling the operation of the platform apparatus 100 using a graphical user interface (GUI) designed in a simple manner.

컨텐츠 운영부(600)는 시뮬레이터의 컨텐츠 내용을 결정하는 소프트웨어를 제공한다.The content management unit 600 provides software for determining content contents of the simulator.

시스템 보호부(700)는 시뮬레이터의 관리 및 유지 보수를 위한 하드웨어 장치를 제공한다.The system protection unit 700 provides a hardware device for the management and maintenance of the simulator.

이하, 도 1에 도시된 각각의 구성 요소에 대해 도면을 참조하여 보다 상세하게 설명하기로 한다.Hereinafter, each of the components shown in FIG. 1 will be described in detail with reference to the drawings.

도 2는 도 1의 영상 출력부(200)의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining the detailed configuration of the video output unit 200 of FIG. 1 in detail.

도 2를 참조하면, 본 발명의 영상 출력부(200)는 입체 디스플레이부(210), 혼합현실 기반 정보 가시화부(220), LMD기반 정보 가시화부(230), 및 가변형 플랫폼 제어부(240)를 구비한다.2, the image output unit 200 includes a stereoscopic display unit 210, a mixed reality-based information visualization unit 220, an LMD-based information visualization unit 230, and a variable platform control unit 240 Respectively.

입체 디스플레이부(210)는 좌/우 시각을 분리하여 출력하는 입체 영상 장치를 활용하고, 작업 훈련 시나리오의 요구 사항에 따라서 입체 영상 장치의 크기 및 배치 구조를 결정한다.The stereoscopic display unit 210 utilizes a stereoscopic image apparatus that outputs left and right images separately, and determines a size and an arrangement structure of the stereoscopic image apparatus according to requirements of a task training scenario.

혼합현실 기반 정보 가시화부(220)는 입체 디스플레이부(210)에서 제시되는 영상의 3차원적인 공간에 혼합현실 기술을 기반으로 추가 정보를 표현한다. 이때 증강현실에서 사용하는 see-through 기법을 활용하여 정보를 표현한다.The mixed reality-based information visualization unit 220 expresses additional information based on the mixed reality technology in a three-dimensional space of the image presented by the stereoscopic display unit 210. At this time, information is expressed using the see-through technique used in Augmented Reality.

가변형 플랫폼 제어부(240)는 앞의 두 가지 구성 요소(210,220)가 사용자가 휴대 할 수 없는 물리적 구조(예, 크기 및 무게)를 가지고 있는 경우, 그 구조물을 사용자 및 작업 시나리오에 적합하도록 공간적 및 시간적 요소에 대해 구조를 변경시킨 다.The variable platform control unit 240 may be configured such that if the preceding two components 210,220 have a physical structure (e.g., size and weight) that the user can not carry, then the structure may be spatially and temporally Change the structure of the element.

이를 위해 가변형 플랫폼 제어부(240)는, 사용자의 신체적 특징에 하드웨어 시스템을 최적화시키기 위하여 사용자의 신체에 관련된 물리적 정보(예, 키, 몸무게 등 측정값과 혈압, 근전도, 심전도 등의 생체 신호 모니터링 정보)를 획득할 수 있는 센서부(미도시)를 구비한다. 그리고, 사용자 인터페이스부(500)의 정보를 받아서 사용자가 요구하는 형태로 구조를 변경시키는 수동 및 자동 제어부(미도시)를 구비한다.To this end, the variable-type platform control unit 240 receives physical information related to the user's body (for example, measurement values such as height and weight, and bio-signal monitoring information such as blood pressure, electromyogram, and electrocardiogram) (Not shown) capable of acquiring a signal. And a manual and automatic control unit (not shown) for receiving the information of the user interface unit 500 and changing the structure in a form required by the user.

또한, 본 발명의 영상 출력부(200)는 한국공개특허(등록번호:0809479, 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치) 및 선행논문(이건, 양웅연, 손욱호. Layered Multiple Displays for Immersive and Interactive Digital Contents. Int. Conf. of Entertainment Computing, 영국, 2006.)에서와 같이 LMD 기반 정보 가시화부(230)를 구비하여, 상기한 입체 디스플레이부(210)의 공간 표현 영역의 한계 및 복수 사용자의 동시 참여 조건에 대한 정보의 차별 가시화 기능을 구현한다.In addition, the image output unit 200 of the present invention can be applied to a face-wearable display device for a mixed reality environment and Korean Patent Laid-Open Publication No. 0809479 (Layered Multiple Displays for Immersive and Interactive Digital The LMD-based information visualization unit 230 is provided as in the contents of Int. Conf. Of Entertainment Computing, UK, 2006. The limitation of the spatial representation area of the stereoscopic display unit 210 and the simultaneous participation And realizes the function of visualizing the discrimination of information about the condition.

그리고, 상기한 혼합현실 기반 정보 가시화부(220)와 LMD 기반 정보 가시화부(230)는 컨텐츠 운영부(600)의 렌더링(rendering) 결과를 수신하여 출력하는 한편, 입체 영상과 LMD 영상 구현에 필요한 제어 신호를 교환한다.The mixed reality-based information visualization unit 220 and the LMD-based information visualization unit 230 receive and output the rendering result of the content operation unit 600, and control the stereoscopic image and the LMD image Exchange signals.

도 3은 도 1의 사용자 작업도구부(300)의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining in detail the detailed configuration of the user work tool unit 300 of FIG.

도 3을 참조하면, 본 발명의 사용자 작업도구부(300)는 시나리오에 특화된 작업도 구(310), 시나리오별 작업도구 구현부(320), 및 지원부(350)를 구비하여, 여기서 시나리오에 특화된 작업도구(310)는 시나리오별 작업도구 구현부(320)에 의해 구현된다.3, the user task tool unit 300 of the present invention includes a task tool 310 specialized in a scenario, a task tool implementation unit 320 for each scenario, and a support unit 350, The work tool 310 is implemented by the scenario-specific work tool implementer 320.

시나리오별 작업도구 구현부(320)는 훈련 시나리오에 따라서 다른 형태와 기능을 포함하도록 구현된다. 보다 상게하게는 시나리오별 작업도구 구현부(320)는 컨텐츠 운영부(600)의 제어 정보를 받아서 다중 감각 피드백 효과를 구현한다.The scenario-specific work tool implementer 320 is implemented to include other forms and functions according to the training scenarios. The scenario-specific work tool implementation unit 320 receives the control information of the content operation unit 600 and implements the multi-sensory feedback effect.

시나리오별 작업도구 구현부(320)는 아래 제시하는 과정을 거쳐서 작업도구(310)의 기본적인 하드웨어 형상을 구현한다.The scenario-specific work tool implementation unit 320 implements the basic hardware configuration of the work tool 310 through the process described below.

a) 현장 또는 훈련 시뮬레이터가 구현하고자 하는 가상의 작업 공간에서 활용되는 실제의 작업 도구(321)를 3D 그래픽스모델링에 의한 수작업 또는 3D 스캐너와 같은 자동화 도구를 이용하여 3차원 형상과 표면 재질 정보를 획득한다.a) A real work tool 321 used in a virtual work space to be implemented by a field or training simulator is acquired by 3D graphics modeling or an automation tool such as a 3D scanner to acquire three-dimensional shape and surface material information do.

b) 3차원 형상과 표면 재질 정보를 3차원 모델링(322)을 이용하여 디지털화 시킨다. b) digitize the three-dimensional shape and surface material information using three-dimensional modeling 322;

c) 마지막으로, 훈련 시나리오에 필요한 입출력 관련 부품(입력센서 및 출력소자)를 작업 도구의 내부에 추가한다.c) Finally, I / O-related parts (input sensors and output elements) necessary for the training scenarios are added inside the work tool.

이렇게 구현된 시나리오에 특화된 작업도구(310)는 지원부(350)와 연계하여 다중 감각 피드백을 지원한다.The task tool 310 specialized in the scenario thus implemented supports multi-sensory feedback in association with the support unit 350. [

이를 위해, 지원부(350)는 시각 피드백 지원부(352), 촉각 피드백 지원부(352), 청각 피드백 지원부(352), 후각 피드백 지원부(352), 트래킹 지원부(330)를 구비한다.The support unit 350 includes a visual feedback support unit 352, a tactile feedback support unit 352, a hearing feedback support unit 352, a smell feedback support unit 352, and a tracking support unit 330.

시각 피드백 지원부(352)는 시각 감각을 자극하는 정보의 출력으로 작업도구(100)와 관련된 피드백 정보를 작업자에게 전달한다. 촉각 피드백 지원부(352)는 물리적 및 인지적인 힘의 출력으로 작업도구(100)와 관련된 피드백 정보를 작업자에게 전달한다. 청각 피드백 지원부(352)는 음향 효과를 이용한 입출력 정보를 작업자에게 출력한다. 후각 피드백 지원부(352)는 후각 감각 기관을 이용한 정보의 입출력을 제공한다. 트래킹 지원부(330)는 트래킹부(400)와 연계하여 작업도구(100)의 위치 및 자세 정보의 일부 또는 전체를 획득할 때 정보를 교환한다.The visual feedback support unit 352 delivers feedback information related to the work tool 100 to the worker by outputting information that stimulates the visual sense. The haptic feedback support 352 communicates feedback information associated with the task tool 100 to the worker with an output of physical and cognitive forces. The auditory feedback support unit 352 outputs the input / output information using the sound effect to the operator. The olfactory feedback support unit 352 provides input and output of information using the olfactory sense organ. The tracking support unit 330 exchanges information when acquiring a part or all of the position and attitude information of the work tool 100 in cooperation with the tracking unit 400. [

도 4는 도 1의 트래킹부(400)의 세부 구성을 상세하게 설명하기 위한 도면이다.4 is a detailed view for explaining the detailed configuration of the tracking unit 400 of FIG.

도 4를 참조하면, 본 발명의 트래킹부(400)는 센서기반 추적 정보 생성부(410), 가상센서기반 추적정보 생성부(420), 및 데이터DB기반 추적정보 생성부(430)를 구비한다.4, the tracking unit 400 of the present invention includes a sensor based tracking information generating unit 410, a virtual sensor based tracking information generating unit 420, and a data DB based tracking information generating unit 430 .

센서기반 추적 정보 생성부(410)는 위치, 자세, 압력, 가속도, 및 온도 등을 측정하기 위해 특정 물체에 접촉 또는 비접촉 방식으로 센서를 부착하여 물리적인 데이터를 획득한다.The sensor-based trace information generation unit 410 acquires physical data by attaching a sensor to a specific object in a contact or non-contact manner to measure a position, an attitude, a pressure, an acceleration, and a temperature.

가상센서기반 추적정보 생성부(420)는 소프트웨어에 의해서 시뮬레이션 되는 가상의 센서로서, 센서기반 추적 정보 생성부(410)에 의해 측정된 물리적인 센서 값을 데이터DB기반 추적정보 생성부(430)의 출력 값을 이용하여 생성하거나, 사용자 인터페이스를 통한 제3의 장치의 값(예, 키보드 방향키의 입력 데이터 값을 3차원 위치 센서의 특정 축의 값으로 변환하여 제시)으로 변환하여 제시할 수 있다.The virtual sensor-based trace information generating unit 420 is a virtual sensor that is simulated by software. The virtual sensor-based trace information generating unit 420 includes a physical sensor value measured by the sensor-based trace information generating unit 410, Output value or by converting the value of the third device through the user interface (for example, converting the input data value of the keyboard directional key into a value of the specific axis of the three-dimensional position sensor and presenting it).

데이터DB기반 추적정보 생성부(430)는 데이터베이스(DB)에 기록된 추적 데이터를 일정 시간을 주기로 현재 센서에서 발생된 것으로 시뮬레이션 하여 다른 부의 입력 값으로 전달한다.The data DB-based trace information generation unit 430 simulates the trace data recorded in the database DB as being generated by the current sensor at a predetermined period of time, and delivers the trace data to the other input values.

상기한 방법으로 추적된 대상물의 정보는 컨텐츠 운영부(600)로 전송되어 가상 개체의 표현 및 시뮬레이션 과정의 입력 데이터로 활용된다.The information of the tracked object is transmitted to the content management unit 600 and used as input data for the representation and simulation of the virtual entity.

도 5는 도 1의 사용자 인터페이스부(500)의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 5 is a diagram for explaining in detail the detailed configuration of the user interface unit 500 of FIG.

도 5를 참조하면, 본 발명의 사용자 인터페이스부(500)는 GUI 조작부(510) 및 시뮬레이터 제어부(520)를 구비한다.Referring to FIG. 5, the user interface unit 500 of the present invention includes a GUI operating unit 510 and a simulator control unit 520.

GUI 조작부(510)는 GUI(Graphic User Interface)를 기반으로 플래폼 장치의 운영 설정 및 시나리오 관련 파라미터를 설정하는 과정을 사용자가 입력할 수 있도록 한다. 그리고, 컨텐츠 운영부(600)와 정보를 교환하여 현재 플랫폼 장치의 상태를 표시한다.The GUI operating unit 510 enables a user to input operation setting of a platform apparatus and setting a scenario-related parameter based on a GUI (Graphic User Interface). Then, it exchanges information with the content management unit 600 to display the current status of the platform device.

시뮬레이터 제어부(520)는 훈련 시나리오 조건에 따라서 가변형 플랫폼 장치의 자세 변경 및 안내 정보를 영상 출력부(200)와 교환하는 기능 담당한다. 그리고, 시뮬레이터 제어부(520)는 다수의 센서, 구동기, PC 및 디스플레이 장치와 프로그램 모듈이 통합된 전체 시뮬레이터의 가동 및 관리를 위한 일련의 구동 프로세스를 자동화시킨 소프트웨어 기능(배치 프로세스에 의한 순차적 프로그램 시동 및 종료) 및 제어 신호 발생 장치(전원 제어 및 네트워크 통신)를 포함하고 있다.The simulator control unit 520 takes charge of exchanging posture change and guidance information of the variable platform apparatus with the video output unit 200 according to the training scenario conditions. The simulator control unit 520 includes a software function (a sequential program start-up by a batch process, and the like) that automates a series of drive processes for operating and managing an entire simulator in which a plurality of sensors, drivers, End) and a control signal generating device (power control and network communication).

도 6은 도 1의 컨텐츠 운영부(600)의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 6 is a diagram for explaining in detail the detailed configuration of the content operating unit 600 of FIG.

도 6을 참조하면, 본 발명의 컨텐츠 운영부(600)는 트래킹 데이터 처리부(610), 실시간 작업 시뮬레이션부(620), 실시간 결과 렌더링부(630), 사용자 인터페이스 제어부(640), 사용자 중심 가변형 플랫폼 제어부(650), 네트워크 기반 훈련 DB(660), 및 감각 피드백 제어부(670)를 구비한다.6, the content operation unit 600 includes a tracking data processing unit 610, a real-time operation simulation unit 620, a real-time result rendering unit 630, a user interface control unit 640, a user- (650), a network-based training DB (660), and a sensory feedback controller (670).

트래킹 데이터 처리부(610)는 트래킹부(400)를 통해서 실제 및 가상의 추적 대상 개체로부터 발생되는 트래킹 정보를 처리한다.The tracking data processing unit 610 processes the tracking information generated from the actual and virtual objects to be tracked through the tracking unit 400.

실시간 작업 시뮬레이션부(620)는 훈련 시뮬레이터를 활용하는 현장 시나리오를 중심으로 현실과 동일한 상황을 소프트웨어적(계산적)으로 시뮬레이션 한다.The real-time job simulation unit 620 simulates the same situation as the reality based on the field scenarios utilizing the training simulator by software (computationally).

이를 위해 실시간 작업 시뮬레이션부(620)는 훈련 시뮬레이터를 구성하는 컴퓨터 하드웨어 시스템 및 소프트웨어 알고리즘의 계산 처리 능력을 감안하여 최적화 기반 실시간 가상 시뮬레이션(621)을 구동시키기 위해서, 실측 실험 DB(622)에 저장된 현장에서의 실측 실험 데이터를 기반으로 설계된다.To this end, the real-time task simulation unit 620 calculates a real-time task simulation result by using the simulation result of the real-time task simulator 622, which is stored in the actual experiment DB 622, Based on the experimental data of the experiment.

한편, 시뮬레이터의 활용 시나리오에 따라서 사용자에게 작업용 인터페이스와 출력 디스플레이 장치를 통해서 다양한 정보를 전달하려는 경우에는, 실시간 작업 시뮬레이션부(620)는 시뮬레이션된 결과를 이벤트 형식으로 출력하여 감각 피드백 제어부(670)를 통해 사용자 작업도구부(300)로 제어 정보를 전달한다.Meanwhile, when various information is to be delivered to the user through the work interface and the output display device according to the scenario of using the simulator, the real-time job simulation unit 620 outputs the simulated result as an event format, and outputs the sensed feedback control unit 670 To the user operation tool unit (300).

또한, 실시간 작업 시뮬레이션부(620)는 다양한 작업 조건 및 다수의 사용자가 참 여하는 경우를 대비하여 네트워크 기반 협동 작업 환경을 지원한다. 그리고, 네트워크 기반 훈련 DB(660)와 연계하여 미리 계산되었거나 과거에 수행된 훈련 관련 정보를 이용하여 실시간 시뮬레이션을 계산한다. 계산된 결과는 실시간 결과 렌더링부(630)를 통하여 영상출력부(200)에 표시된다. 그리고, 이것과 동기화된 다중 감각 피드백(시각, 청각, 촉각, 후각과 관련된 디스플레이 장치 및 출력용 기구) 제어 신호는 감각 피드백 제어부(670)를 통해서 처리된다.In addition, the real-time job simulation unit 620 supports a network-based collaborative work environment in response to various job conditions and a plurality of users' participation. In addition, the real-time simulation is calculated by using the training-related information that has been calculated in the past or performed in association with the network-based training DB 660. The calculated result is displayed on the video output unit 200 through the real-time result rendering unit 630. The multi-sensory feedback (visual, auditory, tactile, olfactory-related display device, and output device) control signals synchronized with this are processed through the sensory feedback controller 670.

본 발명이 제시하는 플랫폼 장치의 특징인 '사용자 적응형'의 기능은 사용자 중심 가변형 플랫폼 제어부(650)를 중심으로 구현된다.The 'user adaptive' function, which is a feature of the platform apparatus proposed by the present invention, is implemented mainly on the user-centered, variable platform control unit 650.

사용자 중심 가변형 플랫폼 제어부(650)는 수집된 사용자의 물리적 정보(예; 신체 정보 및 생체 정보), 시연되는 훈련 컨텐츠의 상황 정보, 및 시뮬레이터 하드웨어의 정보를 연계 처리하여, 플랫폼의 변경 정보를 결정하고, 사용자 인터페이스 제어부(640)를 통해 사용자 인터페이스부(500)를 거쳐서 관련된 정보의 수집과 변경 정보의 전달을 처리한다.The user-centered, variable-type platform control unit 650 processes the collected physical information (e.g., physical information and biometric information) of the user, the status information of the training content and the simulator hardware to determine the change information of the platform , And processes the collection of related information and the transfer of change information via the user interface unit 640 through the user interface control unit 640.

도 7은 도 1의 시스템 관리부(700)의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 7 is a diagram for explaining the detailed configuration of the system management unit 700 of FIG. 1 in detail.

도 7을 참조하면, 본 발명의 시스템 관리부(700)는 진행상황 출력부(710), 보호부(720), 분해 및 연계 지원부(730), 및 원격 관리부(740)를 구비한다.Referring to FIG. 7, the system management unit 700 of the present invention includes a progress status output unit 710, a protection unit 720, a decomposition and connection support unit 730, and a remote management unit 740.

진행상황 출력부(710)는 제한된 시뮬레이터 작업 공간에 방해받지 않고, 다수의 외부 관찰자가 시뮬레이션 컨텐츠의 진행 상황을 알 수 있도록 한다.The progress status output unit 710 allows a plurality of external observers to know the progress of the simulation content without being disturbed by the limited simulator workspace.

보호부(720)는 플랫폼 장치의 설치 및 관리의 용의함을 제공한다.The protection unit 720 provides for the installation and management of the platform device.

분해 및 연계 지원부(730)는 플랫폼 장치의 이동 및 다수의 플랫폼 장치가 동시에 용이하게 설치될 수 있도록 지원한다.The disassembly and linkage support unit 730 supports movement of the platform device and facilitates simultaneous installation of a plurality of platform devices.

원격 관리부(740)는 본 발명이 제시하는 플랫폼 장치에 연결되는 다수 개의 전자 제어 모듈 및 컴퓨터 시스템을 관리한다. 보다 상세하게는, 원격 관리부(740)는 각 시스템의 가동과 종료, 및 사용자 인터페이스부(500)에서 처리되는 작업 조건 설정 등의 과정을 원격 제어 장치와 유무선의 네트워크를 통해 명령어 및 상태 정보를 교환하여 관리할 수 있도록, 명령어와 메시지의 전달 과정을 처리한다.The remote management unit 740 manages a plurality of electronic control modules and a computer system connected to the platform apparatus proposed by the present invention. More specifically, the remote management unit 740 exchanges commands and status information through the remote control device and the wired / wireless network through operations such as operation and termination of each system, and setting of work conditions processed by the user interface unit 500 And processes the delivery of commands and messages so that they can be managed.

이상, 도 1 내지 도 7에서는 본 발명이 제시하는 핵심적인 특징에 대한 종합적인 모델의 구성 및 작용을 설명하였다.In the above, FIGS. 1 to 7 illustrate the construction and operation of a comprehensive model of the core features proposed by the present invention.

전술한 바와 같은 구성을 갖는 본 발명에 따르면, 실제 작업 환경의 훈련 시스템 구축에 필요한 비용 및 훈련용 재료의 소비에 따른 소모성 비용을 가상현실 시스템 및 디지털 데이터로 상당 부분 대체함으로써 경제적인 이득을 얻을 수 있다.According to the present invention having the above-described configuration, economical benefits can be obtained by replacing the cost required for constructing the training system of the actual work environment and the consumable cost due to the consumption of the training material to a virtual reality system and digital data have.

그리고, 실제 작업 환경에서 잠재되어 있는 안전사고의 위험을 감소시키는 효과가 기대된다. And it is expected to reduce the risk of potential safety accidents in actual working environment.

특히, 후술할 본 발명의 실시예로 제시하는 '가상 용접 훈련 시뮬레이터'의 경우, 다양한 작업 구조물에 따른 훈련 공간, 작업 준비 시간, 훈련 후 정리 작업 시간 등을 보다 효율적으로 활용할 수 있으며, 초보자의 안전사고에 대한 위험을 감소시킬 수 있어서, 숙련된 작업자 양성에 도움이 될 수 있다.In particular, in the case of the 'virtual welding training simulator' presented in the embodiment of the present invention to be described later, it is possible to more efficiently utilize the training space, the preparation time, and the post-training work time according to various work structures, It can reduce the risk of accidents and can help train skilled workers.

뿐만 아니라, 본 발명은 교육 및 훈련 과정이 필요한 임의의 작업 현상을 실시간 시뮬레이션을 기반으로 가시화시키고, 사용자의 신체적인 활동을 통해서 시나리오를 진행시키는 모든 분야 폭넓게 활용될 수 있다.In addition, the present invention can be utilized in all fields that visualize any work phenomenon requiring education and training process on the basis of real-time simulation and proceed the scenario through the user's physical activity.

이하, 본 발명의 실시예에서는 본 발명의 일부 기능을 '용접 훈련 시나리오'라는 구체적이고 제한적인 사례에 대해서 적용한 결과를 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the results of applying some functions of the present invention to specific and limited examples of 'welding training scenario'.

도 8은 본 발명의 일실시예에 따른 가상 용접 훈련 시뮬레이터의 구성을 설명하기 위한 예시도이다.FIG. 8 is an exemplary diagram illustrating a configuration of a virtual welding training simulator according to an embodiment of the present invention. Referring to FIG.

도 8을 참조하면, 본 발명의 가상 용접 훈련 시뮬레이터는 사용자가 시뮬레이터 내부에서 작업할 수 있도록 설계 되었다. 이를 위해 본 발명의 시뮬레이터는 영상 출력부(1200), 사용자 작업도구부(1300), 트래킹부(1400), 사용자 인터페이스부(1500), 컨텐츠 운영부(1600), 및 시스템 관리부(1700)를 구비한다.Referring to FIG. 8, the virtual welding training simulator of the present invention is designed so that the user can work inside the simulator. To this end, the simulator of the present invention includes an image output unit 1200, a user operation tool unit 1300, a tracking unit 1400, a user interface unit 1500, a content operation unit 1600, and a system management unit 1700 .

영상 출력부(1200)는 사용자의 신체 정보 및 용접 훈련 작업 시나리오에 따라서 적합한 형태로, 증강 현실 기법을 이용하여 용접 훈련 컨텐츠를 입체영상으로 사용자에게 제시한다.The video output unit 1200 presents the welding training contents to the user as a stereoscopic video using augmented reality technique in a form suitable for the user's body information and the welding training task scenario.

사용자 작업도구부(1300)는 현장의 작업 도구와 동일한 외형(용접 토치 모양)과 기능을 기본으로 가상의 소리 효과 및 진동 효과를 내장한다. 즉, 현실 작업 시나리오에서와 동일한 작업 도구를 기반으로 현장 작업과 동일한 상호작용 방법으로, 현장 작업과 동일한 느낌(시각, 청각, 촉각 및 후각)을 전달 받을 수 있는 하드웨어 장치를 제공한다.The user operation tool unit 1300 incorporates a virtual sound effect and a vibration effect based on the same external shape (welding torch shape) and function as the work tool on the spot. In other words, it provides a hardware device that can receive the same feeling (visual, auditory, tactile, and olfactory) as the field work with the same interaction method as the field work based on the same work tool as in the real work scenario.

트래킹부(1400)는 가상 용접 훈련 시뮬레이터를 사용하는 사용자 및 작업 환경 상태를 실시간 추적하여 가상 용접 훈련 시뮬레이터의 입력 정보를 생성한다.The tracking unit 1400 generates the input information of the virtual welding training simulator by real-time tracking of the user and the working environment using the virtual welding training simulator.

사용자 인터페이스부(1500)는 가상 용접 훈련 시뮬레이터의 작업 조건 설정, 기구부 변경 제어 및 작업 결과 분석용 프로그램 제어할 수 있는 사용자 인터페이스를 제공한다.The user interface unit 1500 provides a user interface for controlling the operation conditions of the virtual welding training simulator, controlling the change of the mechanism portion, and analyzing the results of the operation.

컨텐츠 운영부(1600)는 가상 용접 훈련을 위한 각종 소프트웨어 프로그램을 저장한다.The content management unit 1600 stores various software programs for virtual welding training.

시스템 관리부(1700)는 전체 시스템의 보호 및 외부 관찰자 대상 정보의 출력을 담당한다. 보다 상세하게는, 시스템 관리부(1700)는 도 11에 도시된 바와 같이, 훈련 시뮬레이터에서의 작업 내용을 외부 관찰자가 볼 수 있도록 외부 디스플레이용 출력 포트를 구비하고 있다. The system management unit 1700 is responsible for protection of the entire system and output of external observer information. More specifically, as shown in FIG. 11, the system management unit 1700 is provided with an output port for external display so that the external observer can view the work contents in the training simulator.

그리고, 시스템 관리부(1700)는 다수의 용접 훈련 부스가 연결되어 설치 운영 될 수 있도록 각각의 부스는 경첩 구조의 연결부를 구비하고 있고, 모니터 공유기(KVM 스위치)를 통하여 외부 관찰용 모니터에 내부 영상을 선택적으로 출력할 수 있도록 한다. 이때 각 부스의 외부 케이스는 전면부를 투명한 소재로 제작하여 내부를 볼 수 있도록 하는 것이 바람직하다. Each of the booths has a hinge-type connection unit so that a plurality of welding training booths can be connected to the system management unit 1700, and an internal image is displayed on an external monitoring monitor through a monitor router (KVM switch) So that it can selectively output. At this time, the outer case of each booth is preferably made of a transparent material so that the inside can be seen.

또한, 시스템 관리부(1700)는 원격 관리 모듈을 구비한다. 여기서 원격 관리 모듈은 다수의 PC와 전자 센서 등 전자기기를 포함한 가상 용접 훈련 시뮬레이터의 전원 관리 및 시스템 제어를 훈련 부스 장치 외부의 사용자(예; 훈련 교사)가 손 쉽 게 제어할 수 있도록, 무선 통신 기반 휴대형 시스템 관리 장치를 구비한다.In addition, the system management unit 1700 includes a remote management module. Here, the remote management module is used to control the power management and system control of a virtual welding training simulator including a plurality of PCs and electronic sensors such as electronic sensors, by a user (for example, a training teacher) Based portable system management device.

또한, 훈련 시뮬레이터에는 인터넷 서비스를 처리할 수 있는 웹서버가 설치되어, 사용자 인터페이스부(1500)의 내용을 웹 브라우저로 제어할 수 있도록 하여 임의의 휴대형 장치(예, 휴대폰, 스마트폰, PDA)에서 간편하게 시스템을 제어할 수가 있다.In addition, a training simulator is provided with a web server capable of processing an Internet service, so that contents of the user interface unit 1500 can be controlled by a web browser, The system can be easily controlled.

도 9는 도 8의 영상 출력부(1200)의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 9 is a diagram for explaining the detailed configuration of the video output unit 1200 of FIG. 8 in detail.

도 9를 참조하면, 도 9의 입체 디스플레이부(1210)는 좌우 양안 시각 영상을 분리하여 사용자에게 제시하는 평면 입체 디스플레이(1211)와 입체 영상을 사용자 작업도구부(1300)의 사용 공간에 가시화시키기 위한 반투명 반사거울 및 필터부(1212)를 구비한다. 이때 반투명 반사거울 및 필터부(1212)는 평면 입체 디스플레이(1211)로부터 반사되는 영상의 난반사와 편광 효과로 인한 좌우시각 영상의 분리 제시가 용이하도록 한다. 구현 예로는, 투과도 70%의 반사거울과 quarter wave retarder filter를 부착하였다. 즉, 일반적인 LCD평면입체영상패널과 LCD셔터 안경의 경우 거울에 반사될 때 위상이 반전되어 입체영상을 볼 수 없게 된다.9, the stereoscopic display unit 1210 of FIG. 9 includes a planar stereoscopic display 1211 for separating left and right binocular visual images and presenting them to a user, and a stereoscopic display unit for displaying a stereoscopic image in a use space of the user's operation tool unit 1300 And a translucent reflecting mirror and a filter portion 1212 for reflecting light. At this time, the translucent reflecting mirror and filter unit 1212 facilitate separation and presentation of left and right visual images due to irregular reflection of the image reflected from the planar stereoscopic display 1211 and polarizing effect. As an implementation example, a reflective mirror with a transmittance of 70% and a quarter wave retarder filter were attached. That is, in the case of the LCD panel stereoscopic image panel and the LCD shutter eyeglass in general, the phase is reversed when reflected to the mirror, so that the stereoscopic image can not be seen.

이러한 문제를 해결하기 위해 본 발명에서는, 반사거울에 광위상지연기(retarder)를 설치해줌으로써, 위상이 반전되는 문제를 해결하여 거울 면에 반사된 입체영상을 정상적으로 볼 수 있도록 하였다. In order to solve such a problem, the present invention solves the problem that the phase is inverted by providing a retarder on the reflection mirror so that the stereoscopic image reflected on the mirror surface can be normally viewed.

도 9에서 가변형 플랫폼 제어부(1240), 사용자 신체 정보 측정부(1241), 및 입체 디스플레이부(1210)의 d1,d2,θ1,θ2 값은 가변형 플랫폼 제어부(1240)에서의 제어를 위한 것이다.The values of d1, d2, θ1, and θ2 of the variable platform control unit 1240, the user body information measurement unit 1241 and the stereoscopic display unit 1210 are used for control in the variable platform control unit 1240 in FIG.

사용자 신체정보 측정부(1241)는 사용자의 신장의 크기를 측정하는 센서를 구비한다. 그리고, 사용자 인터페이스부(1500)에서는 상기한 센서에서 측정된 값을 토대로 작업 시나리오에 따라서 결정된 시뮬레이터의 높이 값 설정을 결정하여, 지정된 훈련 작업을 진행할 수 있도록 시뮬레이터의 높이 단계를 조정하는 과정을 수행(사용자의 수동작에 의한 디스플레이 장치 구조 변경 또는 모터 구동부를 구비하여 지정된 위치로 자동 이동)한다. The user body information measuring unit 1241 includes a sensor for measuring the size of the user's elongation. The user interface unit 1500 determines the height value setting of the simulator determined according to the job scenario based on the value measured by the sensor, and adjusts the height of the simulator so that the designated training job can be performed A display device structure change by a user's operation or a motor drive unit to automatically move to a designated position).

가변형 플랫폼 제어부(1240)는 사용자의 신체 정보와 선택된 작업 자세에 적합하도록 h[입체 디스플레이부(1210)의 높이 값], π[입체 디스플레이부(1210)의 회전값], 및 입체 영상 구조물(예, 가상 용접 모재 블록)이 지정된 위치에 보이도록 하기 위해서 d1,d2,θ1,θ2 값을 조정한다.The variable-type platform control unit 1240 controls the variable platform controller 1240 such that h (height value of the stereoscopic display unit 1210), pi (rotation value of the stereoscopic display unit 1210), and stereoscopic image structure D2,? 1,? 2 are adjusted so as to be visible at the designated position.

각각의 변수에 대한 최적의 값은 작업 데이터베이스에 미리 저장되어 있으며, 시뮬레이터는 지정된 값으로 입체 디스플레이부(1210)를 변형하도록 사용자에게 안내 매시지를 출력한다. 동시에, 해당 값을 검출하는 센서(회전, 높이, 및 이동 거리 측정 센서)를 각각의 요소에 구비하여 시뮬레이터의 구조 변형 과정을 모니터링 한다.The optimal values for the respective variables are stored in advance in the job database, and the simulator outputs a guidance message to the user to modify the stereoscopic display portion 1210 to a specified value. At the same time, a sensor (rotation, height, and movement distance measurement sensor) for detecting the corresponding value is provided in each element to monitor the structural transformation process of the simulator.

본 발명의 실시예에서는 도 9의 가변형 플랫폼 제어부(1240)의 그림과 같이 천정-정면-아래 보기 작업에 대한 입체 디스플레이부(1210)의 관련 변수 설정 값을 미리 저장하고 있으며, 사용자의 신체 조건을 반영하여 일부 값을 수정하는 알고리즘을 구비한다. 사용자 신체 정보 측정부(1241) 중 시뮬레이터 바닥에 설치된 압력 분포 측정 센서는 사용자의 발의 위치 및 체중의 분포에 따른 압력의 분산 상태를 추적하여, 작업 자세 가이드 및 훈련 상태 모니터링의 정보로 활용한다.In the embodiment of the present invention, as shown in the figure of the variable platform control unit 1240 in FIG. 9, the related variable setting values of the stereoscopic display unit 1210 for the ceiling-front-down view work are stored in advance. And an algorithm for correcting some of the values by reflecting them. The pressure distribution measuring sensor installed at the bottom of the simulator of the user body information measuring unit 1241 tracks the distribution of the pressure according to the position and weight distribution of the user's foot, and utilizes the information as the work posture guide and the training condition monitoring information.

도 2에는 도시되어 있으나, 도 9에서는 도시되지 않은 LMD 기반 정보 가시화부(230)는, 제시된 입체 디스플레이 모듈(1210)이 가지는 좁은 입체 영상부 공간의 단점(완전한 시각 몰입형 디스플레이 장치가 아니며, 주변 가상 작업 환경 가시화를 위한 영상 제시 공간 확장 및 다자 참여를 위한 개인 정보 및 공용 정보 분리 가시화 기능 미지원)을 보완하기 위해서 추가로 탑재하여 활용하면 된다.The LMD-based information visualization unit 230, which is not shown in FIG. 9, has a disadvantage of the narrow stereoscopic image subspace of the presented stereoscopic display module 1210 (not a complete visual immersion type display device, It can be used to supplement image presentation space for virtual work environment visualization and visualization function of personal information and public information for multi - party participation).

도 10은 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 작업도구를 설명하기 위한 예시도이다.FIG. 10 is an exemplary view for explaining a work tool applied to a virtual welding training simulator according to the present invention.

도 10의 (a)를 참조하면, 본 발명의 실시예에 따른 작업도구(용접 토치)는 현장에서 활용되는 용접 도구를 3차원 스캐닝과정을 거쳐 획득한 3차원 모델 데이터를 기반으로 구현된다.Referring to FIG. 10A, a work tool (welding torch) according to an embodiment of the present invention is implemented based on three-dimensional model data obtained through a three-dimensional scanning process of a welding tool used in the field.

용접 토치에는 다중 감각 피드백 효과를 지원하기 위한 여러 가지 출력기(촉각, 후각, 청각, 시각 등)를 내장할 수 있도록 내부 배치 공간이 마련된다. 그리고, 제작 시 3차원 프린팅 기술을 활용하여 작업도구의 물리적 형상을 제작한다.The welding torch has an internal layout space to accommodate various output devices (tactile, olfactory, auditory, visual, etc.) to support multiple sensory feedback effects. Then, the physical shape of the work tool is produced by using the 3D printing technology at the time of production.

용접 토치의 내부에는 6자유도(위치 및 자세) 추적을 위한 적외선 발광 센서 또는 반사 센서가 내장된다. 그리고, 3차원 음향 효과를 시뮬레이션 하기 위해서 실제 용접 작업 시 음향이 발생되는 위치인 용접 토치 끝 부분에, 음향 방향이 여러 개 가 되도록 초소형 스피커를 내장하거나 스피커 전방에 다수의 구멍이 있는 구형 반사판을 부착하여 방사형으로 소리가 퍼지도록 한다. 이에 모노 사운드 출력만으로도 사용자의 손에 들린 작업도구가 움직임으로써 음원의 위치가 변하여 3차원 공간 사운드 피드백이 지원된다.The inside of the welding torch is equipped with an infrared light sensor or a reflection sensor for tracking 6 degrees of freedom (position and orientation). In order to simulate the three-dimensional sound effect, a small-sized speaker is embedded in the end portion of the welding torch where the sound is generated in the actual welding operation, or a plurality of holes are provided in the front of the speaker So that the sound spreads radially. Thus, the mono sound output alone moves the working tool in the user's hand, thereby changing the position of the sound source, thereby supporting three-dimensional spatial sound feedback.

작업도구 사용에 대한 가이드를 위한 시각 피드백 기능으로는, 작업도구에 레이저 포인팅 출력기를 내장하여, 가상의 용접 비드가 생성되는 위치를 표시할 수 있도록 한다. 그리고, 적정한 용접 거리(CTWD:Contact Tip to Work Distance)와 일치하는 초점 거리를 가진 렌즈와 투사용 광학 패턴을 이용하여 용접 모재와 용접 토치의 끝 부분이 적정한 거리에 있을 때 패턴이 선명하게 보이도록 하는 방법으로 작업 거리에 대한 시각적 피드백을 전달한다. 또한, 작업도구 내부에는 미니 진동 모터가 내장되어 특정 용접 작업 조건에서 발생되는 진동 효과를 재현한다.As a visual feedback function for guiding the use of the working tool, a laser pointing device is built in the working tool so that the position where the virtual welding bead is generated can be displayed. Using a lens with a focal length that matches the CTWD (Contact Tip to Work Distance) and an optical pattern to be used, the pattern should be clearly visible when the end of the welding torch and the welding torch are at proper distances. To convey visual feedback about the working distance. Inside the work tool, a mini vibration motor is built in to reproduce the vibration effect generated in specific welding work conditions.

그리고, 탈부착이 가능한 형태로 제작된 촉각 피드백 지원부(1362)를 평면 입체 디스플레이 장치(1211)에 추가 장착하여 동일한 공간에 물리적인 물체와 영상이 동시에 존재하도록 하여서, 혼합현실 기반 실사-가상 영상 합성 가시화 효과를 구현한다(도 10의 (b) 참조).In addition, a tactile feedback support unit 1362 formed in a detachable form is additionally mounted on the planar stereoscopic display device 1211 so that a physical object and an image coexist in the same space, (See Fig. 10 (b)).

즉, 사용자는 가상의 용접 모재 블록과 일치된 모양의 실제 모형이 3차원 공간에 일치된 곳에 존재하므로, 용접 토치와 모재 사이의 물리적인 접촉에 의한 촉각 피드백 효과를 얻을 수 있으므로, 보다 사실적인 훈련이 가능하다. In other words, the user can obtain the tactile feedback effect due to the physical contact between the welding torch and the base material because the actual model of the shape coinciding with the virtual welding base block coincides with the three-dimensional space, This is possible.

그리고, 본 발명의 실시예에서는 용접 불꽃의 열감을 표현하기 위해서 용접 토치 부분의 내부에 가열과 냉각 속도가 빠른 발열부 및 냉각부를 내장하여 용접 작업 시 발생하는 열감 효과를 사용자에게 전달한다.In addition, in the embodiment of the present invention, a heating unit and a cooling unit having a fast heating and cooling speed are built in the welding torch portion to express the heat sensation of the welding flame, and the heat effect generated in the welding operation is transmitted to the user.

도 11 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 트래킹부를 설명하기 위한 예시도이다.FIG. 11 is an exemplary view for explaining a tracking unit applied to a virtual welding training simulator according to the present invention. FIG.

도 11을 참조하면, 본 발명의 실시예에 따른 트래킹부(1400)는 가상 용접 모재가 가시화되는 입체 디스플레이 장치의 공간과 정확한 입체 영상 생성을 위해 사용자의 머리(시선, eye position & orientation)의 위치 및 자세를 정확히 트래킹해야 한다. 이를 위해서 카메라 기반 추적용 센서(1331)를 추적 대상물에 부착하였다. 그리고, 최소 개수의 카메라를 이용해서 안정적으로 대상물을 트래킹할 수 있는 공간을 3차원 그래픽 기반 사전 시뮬레이션 계산 과정을 거쳐서 복수 카메라 기반 안정적 추적 공간(1412)를 정의하였다. 즉, 3대로 구성된 각각의 카메라 기반 센서 추적 장치(1411)에서의 영상 획득은 카메라 렌즈를 통해서 입력되는 공간의 정보가 원뿔(cone)과 유사한 형태로 정의될 수 있다. 2차원 영상 정보를 얻는 카메라의 경우에는 최소 2대 이상의 영상 정보가 있어야 목표물의 3차원 위치를 복원 계산할 수 있으므로, 최소 개수의 카메라 사용과 안정적인 트래킹을 위해서 카메라 3대의 추적 공간이 공통적으로 겹치는 공간을 구성하고, 그 내부에 가상 용접 모재, 용접 토치, 그리고 사용자가 착용한 입체 안경에 부착된 마커가 포함되도록 설계하였다.Referring to FIG. 11, the tracking unit 1400 according to the embodiment of the present invention detects a position of a user's head (eye position & orientation) in order to accurately generate a stereoscopic image and a space of a stereoscopic display device in which a virtual welding base material is visualized. And posture must be accurately tracked. To this end, a camera-based tracking sensor 1331 was attached to the tracked object. In addition, a stable tracking space 1412 based on a plurality of cameras is defined through a 3D simulation-based pre-simulation calculation process of a space capable of stably tracking an object using a minimum number of cameras. That is, in the image acquisition in each of the three camera-based sensor tracking devices 1411, the information of the space input through the camera lens can be defined in a form similar to a cone. In the case of a camera that obtains two-dimensional image information, it is necessary to have at least two pieces of image information so that the three-dimensional position of the target can be restored. Therefore, in order to use the least number of cameras and to keep stable tracking, And a virtual welding base material, a welding torch, and a marker attached to the stereoscopic glasses worn by the user are included in the interior.

또한, 본 발명의 실시예에서는 최소 개수의 카메라 사용과 시뮬레이터 시스템 크기의 최소화를 위해서 복수 카메라 기반 안정적 추적 공간(1412)을 구현하였다.Also, in the embodiment of the present invention, a multi-camera based stable tracking space 1412 is implemented in order to use the minimum number of cameras and minimize the size of the simulator system.

도 12는 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 사용자 인터페이스부를 설명하기 위한 예시도이다.FIG. 12 is an exemplary view for explaining a user interface unit applied to a virtual welding training simulator according to the present invention. FIG.

본 발명의 사용자 인터페이스부는 터치 스크린에 그래픽-사용자-인터페이스(GUI) 기반으로 구현되어 간편하게 데이터 입력이 가능하다. 또한, 사용자가 조작을 편하게 할 수 있도록, 연결 링크부에 관절을 구비하여 높이를 자유롭게 조절할 수가 있다. The user interface unit of the present invention is implemented on the touch screen on the basis of a graphic-user-interface (GUI) so that data can be easily input. Further, a joint can be provided at the connecting link portion so that the user can easily operate the apparatus, and the height can be freely adjusted.

도 12에는 훈련 작업 조건 설정, 장치 변경 가이드, 모범 훈련 가이드 정보 가시화 및 작업 결과 분석용 프로그램 실행에 활용한 사례가 도시되어 있다.Fig. 12 shows an example in which training work conditions are set, a device change guide, visualization of a training guide information, and execution of a program for analysis of a work result.

도 12의 작업 예와 같이 사용자가 특정 작업 시나리오를 선택하면(1511), 시뮬레이터 장치 내부에 부착된 센서들로부터 측정된 현재의 상태와 목표 상태의 차이점을 기준으로 하드웨어의 변경 가이드를 출력한다(1521).12, the user selects a specific task scenario 1511 and outputs a change guide of the hardware based on the difference between the current state and the target state measured from the sensors attached to the inside of the simulator apparatus 1521 ).

이에 사용자가 목표 형태로 시스템을 변경(또는 모터를 이용한 자동 이송 장치 작동)한다(1522). 실시예에서 사용자는 디스플레이의 높이(h), 디스플레이부 회전값(π), 반사 거울부의 회전값(θ), 반사 거울부의 거리값(d)을 시스템 안내에 따라서 조정할 수 있다.The user changes the system to the target form (or operates the automatic transfer device using the motor) (1522). In the embodiment, the user can adjust the display height h, the display unit rotation value?, The rotation value? Of the reflection mirror unit, and the distance value d of the reflection mirror unit in accordance with the system guide.

조정 작업 이후 사용자 인터페이스부에서는 작업 안내에 대한 학습 컨텐츠를 가시화시키고, 훈련 작업 완료 후에는 작업 결과 분석툴을 실행하여 결과 분석 및 평가 과정을 수행할 수 있다(1523).After the adjustment work, the user interface section visualizes the learning contents of the work guide, and after completion of the training work, the work result analysis tool is executed to perform the result analysis and evaluation process (1523).

도 12와 같이 용접 작업 결과물(3차원 비드 형상)을 가시화시키고 터치 스크린 상호작용으로 3차원 물체를 간편하게 돌려보면서, 원하는 위치의 용접 단면 값과 관 련된 작업 파라미터 등을 조사한다. 그리고, 훈련 컨텐츠의 조회 및 갱신이 가능하도록 한다.As shown in FIG. 12, the result of the welding work (three-dimensional bead shape) is visualized and the three-dimensional object is easily rotated by the touch screen interaction, and the working parameters related to the welding section value at the desired position are examined. In addition, the training contents can be inquired and updated.

도 13은 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 컨텐츠 운영부를 설명하기 위한 도면이다.13 is a view for explaining a content operating unit applied to a virtual welding training simulator according to the present invention.

도 13을 참조하면, 실시간 작업 시뮬레이션부(1620)를 위해서 사전 작업으로, 여러 종류의 용접 작업 조건에 대하여 현장 실측 실험 환경을 구축하고, 실험 시편을 제작하여 용접 비드의 외부 형상과 단면의 구조를 측정하여 실측 실험 샘플용 DB를 구축하였다. 그리고, 실측 실험 샘플용 DB를 보완하는 측면에서 용접 비드 생성용 알고리즘에 기반한 수치 모델을 이용하여 가상 실험 샘플용 DB를 구축하였다. 그리고, 구축된 실험 샘플용 DB를 이용하여, 다양한 입력 값에 따른 굳어진 상태의 비드 형상을 출력할 수 있는 신경망을 학습시키는 방법으로 최적화 기반 실시간 가상 시뮬레이션(1621)을 구현하였다.Referring to FIG. 13, a field test environment is constructed for various kinds of welding work conditions by a preliminary work for the real-time work simulation unit 1620, and experimental specimens are prepared to determine the external shape and cross-sectional structure of the weld bead And DB for experimental test sample was constructed. In addition, a database for virtual experiment samples was constructed using a numerical model based on the algorithm for generating weld beads in terms of supplementing the experimental test sample DB. Then, we implemented the optimization based real - time virtual simulation (1621) by learning the neural network which can output the bead shape of hardened state according to various input values by using the DB for the constructed experimental sample.

실시간 작업 시뮬레이션부(1620)는 사용자 작업도구부(1300)의 움직임과 훈련 작업 설정 조건 값의 입력(1610)을 기준으로 용접 비드의 외형을 결정한다. 그리고, 실시간 결과 렌더링부(1630)에서는 가시화를 시키는 동시에 네트워크 기반 훈련 DB(1660)에 정보를 저장하거나, 특정 조건에 대한 사전 작업의 결과를 DB로부터 얻어와서 렌더링을 수행한다.The real-time operation simulation unit 1620 determines the appearance of the welding bead based on the movement of the user's operation tool unit 1300 and the input of the training operation setting condition value 1610. [ Then, the real-time result rendering unit 1630 visualizes and stores information in the network-based training DB 1660, or obtains a result of a preliminary work on a specific condition from the DB and performs rendering.

실시간 훈련 작업 진행에 따라서 특정한 조건을 만족시키는 경우(예; 진동, 사운드, 및 시각적 피드백 이벤트 발생 조건 만족)에는 다중 감각 피드백 제어 부(1670)에서 사용자 작업도구부(1300)에 메시지를 전송하여 현장 작업과 동일한 물리적 효과(예, 소리 및 진동)와 작업 가이드 정보를 출력한다. 그리고, 사용자 인터페이스 제어부(1640)와 사용자 중심 가변형 플랫폼 제어부(1650)는 사용자 인터페이스부(1500)와 연계된 기능을 수행한다.In a case where a specific condition is satisfied according to the progress of the real-time training work (for example, vibration, sound, and visual feedback event occurrence condition is satisfied), the multi-sensory feedback control unit 1670 transmits a message to the user operation tool unit 1300 Outputs the same physical effects (eg, sound and vibration) and task guide information as the task. The user interface control unit 1640 and the user-centered platform control unit 1650 perform functions associated with the user interface unit 1500.

도 14는 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 시스템 관리부를 설명하기 위한 도면이다.14 is a view for explaining a system management unit applied to a virtual welding training simulator according to the present invention.

도 14를 참조하면, 본 발명의 시스템 관리부(1700)는 도 8에서와 같이 내부 입체 디스플레이의 내용과 터치스크린 모니터의 내용을 외부 관찰자가 볼 수 있도록 외부 디스플레이용 출력 포트를 구비하고 있다. 그리고, 다수의 용접 훈련 부스가 연결되어 설치 운영될 수 있도록 경첩 구조의 연결부를 구비하고 있다(도 16참조). 그리고, 모니터 공유기(KVM 스위치)를 통해 외부 관찰용 모니터에 내부 영상을 선택적으로 출력할 수 있도록 한다.Referring to FIG. 14, the system management unit 1700 of the present invention includes an output port for an external display so that an external observer can view the content of the internal stereoscopic display and the contents of the touch screen monitor, as shown in FIG. In addition, a plurality of welding training booths are connected and installed so that they can be connected and operated (see FIG. 16). Then, it can selectively output the internal image to the external monitoring monitor through the monitor router (KVM switch).

그리고, 도 8의 좌측 상단 그림과 같이, 외부 케이스는 전면부를 투명한 소재로 제작하여 내부를 볼 수 있도록 하였다.As shown in the upper left figure of FIG. 8, the outer case is made of a transparent material so that the inside can be seen.

도 14의 시스템 관리부(1700)는 다수의 PC와 전자 센서 등 전자기기를 포함한 가상 용접 훈련 시뮬레이터의 전원 관리 및 시스템 제어를 훈련 부스 장치 외부의 사용자(예, 훈련 교사)가 손쉽게 제어할 수 있도록, 원격 관리부(미도시)를 통해 웹 브라우저를 탑재한 휴대용 무선통신 단말(예, 스마트폰, PDA, 휴대폰 등)과 통신한다. 이에, 사용자는 가상 용접 훈련 시뮬레이터를 휴대용 무선통신 단말의 웹 브라 우저를 이용하여 원격에서 제어할 수 있다.The system management unit 1700 shown in FIG. 14 is a system in which a user (e.g., a training teacher) outside the training booth apparatus can easily control power management and system control of a virtual welding training simulator including a plurality of PCs and electronic devices such as electronic sensors, And communicates with a portable wireless communication terminal (e.g., smart phone, PDA, mobile phone, etc.) equipped with a web browser through a remote management unit (not shown). Accordingly, the user can remotely control the virtual welding training simulator using the web browser of the portable wireless communication terminal.

도 15는 본 발명에 따른 가상 용접 훈련 시뮬레이터의 운영 방법 및 설치 사례를 설명하기 위한 예시도이며, 각각의 참조 번호에 대한 설명은 다음과 같다.FIG. 15 is an exemplary view for explaining an operation method and an installation example of a virtual welding training simulator according to the present invention, and the respective reference numerals are as follows.

1 : 보호형 투명 케이스에 보관된 가상 용접 훈련 시뮬레이터1: Virtual Welding Training Simulator in a Protective Transparent Case

2 : 중앙 제어 스위치(power on) 또는 휴대형 제어 장치로 시스템 가동2: System operation with central control switch (power on) or portable control unit

3 : 작업 환경 설정 단계(용접 방식, 용접봉, 모재 종류, 전압, 전류, 용접 자세 등)3: Setting of work environment (welding method, welding rod, base material type, voltage, current, welding posture, etc.)

4a : 선택된 작업 자세에 적합하도록 디스플레이 장치의 위치를 변경하는 안내 메시지 출력4a: Outputting a message for changing the position of the display device to fit the selected working posture

5a 및 6a : 작업 자세에 적합하도록 플랫폼을 수동으로 변경하는 과정 (또는 모터 구동부를 이용한 자동 변경)5a and 6a: a process of manually changing the platform to suit the working posture (or automatic change using the motor drive)

7a : 선택된 용접 작업에 대한 모범 작업 가이드 비디오 관찰7a: Best Practices Guide for selected welding tasks

8a : 입체 디스플레이 장치의 사용을 위한 입체 영상용 안경 착용 8a: Stereo image wearing glasses for stereoscopic display

9a : 입체 디스플레이 장치를 이용하여 실제 훈련 작업 3차원 공간에 투영된 가상 작업 가이드 정보 관찰9a: Observation of virtual work guide information projected in real space training work space using stereoscopic display device

10a : 정면 보기 작업 훈련 실시10a: Frontal view work training conducted

10b : 아래 보기 작업 훈련 실시10b: Do the following work training exercises

10c : 위(천정) 보기 작업 훈련 실시10c: Performing training on top (ceiling) view

11 : 터치 스크린에 가시화된 작업 결과(비드 패턴의 3차원 모델 구조, 단면의 구 조 및 훈련 요소 측정 그래프) 점검11: Check the work results visualized on the touch screen (three-dimensional model structure of bead pattern, cross-section structure and training element measurement graph)

12 : 다른 (자세) 작업 훈련을 원하는 경우 '참조부호 3의 작업 환경 설정 단계'로 이동12: If you want other (posture) work training, go to 'work environment setting step with reference number 3'

13 : 작업 종료13: End of the job

가 : 시뮬레이터 외부 참관인을 위해서, 입체 디스플레이 장치에 출력되는 영상과 터치 스크린 모니터에 출력되는 영상을 동시에 보여주는 디스플레이 장치A: A display device for simultaneously displaying images output to the stereoscopic display device and images output to the touch screen monitor for an observer outside the simulator

나 : 산업체 용접 훈련 실습실과 유사한 가상 용접 훈련 시뮬레이터 설치 사례I: Example of installation of virtual welding training simulator similar to industrial welding training laboratory

도 16은 본 발명에 따른 가상 용접 훈련 시뮬레이터 기반 훈련실의 예시도이다. 도 17 및 도 18은 본 발명에 따른 가상 훈련 시뮬레이터의 구성(교육기관용)을 나타낸 예시도이다.16 is an illustration of a training room based on a virtual welding training simulator according to the present invention. 17 and 18 are views showing an example of a configuration (for educational institutions) of a virtual training simulator according to the present invention.

전술한 바와 같은 본 발명에 의하면, 다양한 작업 구조물에 따른 훈련 공간, 작업 준비 시간, 훈련 후 정리 작업 시간 등을 보다 효율적으로 활용할 수 있게 하고, 또 초보자의 안전사고에 대한 위험을 감소시킬 수 있어서, 숙련된 작업자 양성에 도움이 될 수 있다. 또한, 교육 및 훈련 과정이 필요한 임의의 작업 현장을 실시간 시뮬레이션 기반으로 가시화 시켜줌으로써, 사용자의 활동을 통해서 시나리오를 진행시키는 모든 분야에 폭넓게 활용될 수 있다.As described above, according to the present invention, it is possible to more effectively utilize the training space, the preparation time, the training time after the training, etc. according to various work structures and reduce the risk of the novice safety accident, It can help train skilled workers. In addition, visualization of arbitrary work sites that require training and training processes based on real-time simulation can be widely used in all fields for driving scenarios through user's activities.

본 발명의 일부 단계들은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있 는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, CD-RW, 자기 테이프, 플로피디스크, HDD, 광 디스크, 광자기 저장장치 등이 있을 수 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.Some of the steps of the present invention can be implemented as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, CD-RW, magnetic tape, floppy disk, HDD, optical disk, magneto optical storage, , Transmission over the Internet). The computer readable recording medium may also be distributed over a networked computer system and stored and executed in computer readable code in a distributed manner.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. As described above, an optimal embodiment has been disclosed in the drawings and specification. Although specific terms have been employed herein, they are used for purposes of illustration only and are not intended to limit the scope of the invention as defined in the claims or the claims. Therefore, those skilled in the art will appreciate that various modifications and equivalent embodiments are possible without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

도 1은 본 발명에 따른 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치의 구성을 구체적으로 설명하기 위한 도면이다. FIG. 1 is a view for explaining the construction of a variable platform apparatus for a virtual reality-based training simulator according to the present invention.

도 2는 도 1의 영상 출력부의 세부 구성을 상세하게 설명하기 위한 도면이다.2 is a diagram for explaining in detail the detailed configuration of the video output unit of FIG.

도 3은 도 1의 사용자 작업도구부의 세부 구성을 상세하게 설명하기 위한 도면이다.3 is a diagram for explaining in detail the detailed configuration of the user work tool unit of FIG.

도 4는 도 1의 트래킹부의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining in detail the detailed structure of the tracking unit of FIG. 1;

도 5는 도 1의 사용자 인터페이스부의 세부 구성을 상세하게 설명하기 위한 도면이다.5 is a diagram for explaining in detail the detailed configuration of the user interface unit of FIG.

도 6은 도 1의 컨텐츠 운영부의 세부 구성을 상세하게 설명하기 위한 도면이다.6 is a diagram for explaining in detail the detailed configuration of the content management unit of FIG.

도 7은 도 1의 시스템 관리부의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 7 is a diagram for explaining in detail the detailed configuration of the system management unit of FIG. 1;

도 8은 본 발명의 일실시예에 따른 가상 용접 훈련 시뮬레이터의 구성을 설명하기 위한 예시도이다.FIG. 8 is an exemplary diagram illustrating a configuration of a virtual welding training simulator according to an embodiment of the present invention. Referring to FIG.

도 9는 도 8의 영상 출력부의 세부 구성을 상세하게 설명하기 위한 도면이다.FIG. 9 is a diagram for explaining the detailed configuration of the video output unit of FIG. 8 in detail.

도 10은 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 작업도구를 설명하기 위한 예시도이다.FIG. 10 is an exemplary view for explaining a work tool applied to a virtual welding training simulator according to the present invention.

도 11 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 트래킹부를 설명하기 위한 예시도이다.FIG. 11 is an exemplary view for explaining a tracking unit applied to a virtual welding training simulator according to the present invention. FIG.

도 12는 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 사용자 인터페이스부를 설명하기 위한 예시도이다.FIG. 12 is an exemplary view for explaining a user interface unit applied to a virtual welding training simulator according to the present invention. FIG.

도 13은 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 컨텐츠 운영부를 설명하기 위한 도면이다.13 is a view for explaining a content operating unit applied to a virtual welding training simulator according to the present invention.

도 14는 본 발명에 따른 가상 용접 훈련 시뮬레이터에 적용되는 시스템 관리부를 설명하기 위한 도면이다.14 is a view for explaining a system management unit applied to a virtual welding training simulator according to the present invention.

도 15는 본 발명에 따른 가상 용접 훈련 시뮬레이터의 운영 방법 및 설치 사례를 설명하기 위한 예시도이다.15 is an exemplary view for explaining an operation method and an installation example of a virtual welding training simulator according to the present invention.

도 16은 본 발명에 따른 가상 용접 훈련 시뮬레이터 기반 훈련실의 예시도이다.16 is an illustration of a training room based on a virtual welding training simulator according to the present invention.

도 17 및 도 18은 본 발명에 따른 가상 훈련 시뮬레이터의 구성(교육기관용)을 나타낸 예시도이다.17 and 18 are views showing an example of a configuration (for educational institutions) of a virtual training simulator according to the present invention.

<도면의 주요 부분에 대한 부호의 설명>Description of the Related Art

100:가변형 플랫폼 장치 200:영상 출력부100: variable platform device 200: video output unit

210:입체 디스플레이부 220:혼합현실 기반 정보 가시화부210: stereoscopic display unit 220: mixed reality-based information visualization unit

230:LMD기반 정보 가시화부 240:가변형 플랫폼 제어부230: LMD-based information visualization unit 240: Variable platform control unit

300:사용자 작업도구부 310:시나리오에 특화된 작업도구300: User action tool 310: Scenario-specific action tool

320:시나리오별 작업도구 구현부 350:지원부320: Scenario-specific work tool implementation section 350: Support section

400:트래킹부 410:센서기반 추적정보 생성부400: tracking unit 410: sensor-based tracking information generating unit

420:가상센서기반 추적정보 생성부 430:데이터 DB기반 추적정보 생성부420: virtual sensor-based tracking information generation unit 430: data DB-based tracking information generation unit

500:사용자 인터페이스부 510:GUI조작부500: user interface unit 510: GUI control unit

520:시뮬레이터 제어부 600:컨텐츠 운영부520: simulator control unit 600:

610:트래킹 데이터 처리부 620:실시간 작업 시뮬레이션부610: tracking data processing unit 620: real-time job simulation unit

630:실시간 결과 렌더링부 640:사용자 인터페이스 제어부630: Real-time result rendering unit 640: User interface control unit

650:사용자 중심 가변형 플랫폼 제어부650: User-centric, variable platform control

660:네트워크 기반 훈련 DB 670:감각 피드백 제어부660: network-based training DB 670: sensory feedback control

700:시스템 관리부 710:진행상황 출력부700: system management unit 710: progress status output unit

720:보호부 730:분해 및 연계 지원부720: Protection section 730: Disassembly and connection support section

740:원격 관리부740:

Claims (10)

가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치에 관한 것으로서,The present invention relates to a variable platform apparatus for a virtual reality based training simulator, 상기 가상현실 기반 훈련 시뮬레이터에 대응하는 훈련 컨텐츠의 시나리오를 결정하는 컨텐츠 운영부;A content management unit for determining a scenario of training content corresponding to the virtual reality based training simulator; 사용자에 의해 선택된 훈련 컨텐츠를 입체영상으로 제시하는 영상 출력부;A video output unit for presenting a training content selected by a user as a stereoscopic video; 상기 컨텐츠 운영부에서 결정된 훈련 컨텐츠의 시나리오에 따라 사용자가 실제의 작업환경에서 느끼는 감각을 느낄 수 있도록 시각, 청각, 촉각, 및 후각의 감각 피드백을 지원하는 사용자 작업도구부; 및A user task tool for supporting sensory feedback of sight, hearing, tactile sense, and sense of smell so that the user can feel a sensation felt in an actual working environment according to a scenario of the training content determined by the content managing unit; And 센서를 통해 상기 사용자 및 작업 환경 상태를 실시간으로 추적하여 상기 가상현실 기반 훈련 시뮬레이터의 입력 정보를 생성하고, 상기 입력 정보를 상기 컨텐츠 운영부에게로 전송하는 트래킹부;를 포함하고,And a tracking unit for generating the input information of the virtual reality based training simulator by tracking the user and the working environment state in real time through the sensor and transmitting the input information to the content management unit, 상기 사용자 작업도구부는, 가상의 작업도구와 관련된 시각의 감각 피드백 정보를 상기 사용자에게 전달하는 시각 피드백 지원부, 상기 가상의 작업도구와 관련된 촉각의 감각 피드백 정보를 상기 사용자에게 전달하는 촉각 피드백 지원부, 상기 가상의 작업도구와 관련된 청각의 감각 피드백 정보를 상기 사용자에게 전달하는 청각 피드백 지원부, 및 상기 가상의 작업도구와 관련된 후각의 감각 피드백 정보를 상기 사용자에게 전달하는 후각 피드백 지원부를 포함하는 것을 특징으로 하는 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치. Wherein the user task tool unit comprises: a visual feedback support unit for delivering visual sensory feedback information related to a virtual work tool to the user; a tactile feedback support unit for transmitting sensory feedback information of a tactile sense related to the virtual work tool to the user; An auditory feedback support unit for delivering auditory sense feedback information related to a virtual work tool to the user and a sense feedback support unit for delivering sense sense feedback information related to the virtual work tool to the user A Variable Platform Device for Virtual Reality Based Training Simulator. 청구항 1에 있어서, The method according to claim 1, 상기 컨텐츠 운영부는The content operating unit 실제 및 가상의 추적 대상 개체로부터 발생되는 트래킹 정보를 처리하는 트래킹 데이터 처리부;A tracking data processing unit for processing tracking information generated from actual and virtual objects to be tracked; 현실과 동일한 상황에 해당하는 실시간 시뮬레이션을 계산하는 시뮬레이션부; A simulation unit for calculating a real time simulation corresponding to the same situation as the reality; 상기 실시간 시뮬레이션을 렌더링한 결과를 상기 영상 출력부를 통해 사용자에게 제공하는 렌더링부;A rendering unit that provides a result of rendering the real-time simulation to a user through the image output unit; 상기 렌더링한 결과에 해당하는 다중 감각 피드백 제어신호를 처리하는 감각 피드백 제어부;A sensory feedback controller for processing the multi-sensory feedback control signal corresponding to the rendered result; 상기 사용자를 중심으로 수집된 가변형 정보를 토대로 플랫폼의 변경 정보를 결정하는 플랫폼 제어부; 및A platform control unit for determining change information of the platform based on the variable information collected around the user; And 상기 플랫폼의 변경 정보를 상기 사용자에게 제공함으로써, 상기 사용자의 해당 정보의 수집과 변경 정보의 전달을 처리하는 사용자 인터페이스 제어부A user interface control unit for processing change information of the platform by providing the change information of the platform to the user, 를 포함하는 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치.Based virtual reality-based training simulator. 청구항 1에 있어서, The method according to claim 1, 상기 영상 출력부는The image output unit 상기 사용자에 의해 선택된 훈련 컨텐츠를 증강현실 기법을 이용하여 입체영상으로 제시하는 것을 특징으로 하는 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치.Wherein the training content selected by the user is presented as a stereoscopic image using an augmented reality technique. 청구항 1에 있어서, The method according to claim 1, 상기 영상 출력부는 The image output unit 상기 훈련 컨텐츠의 시나리오에 해당하는 요구 사항에 따라 입체 영상 장치의 크기 및 배치 구조를 결정하는 디스플레이부; A display unit for determining a size and an arrangement structure of the stereoscopic image device according to a requirement corresponding to the scenario of the training content; 상기 디스플레이부에서 제시하는 영상의 3차원적인 공간에 혼합현실 기술을 기반으로 추가 정보를 표현하는 혼합현실 기반 정보 가시화부; 및 A mixed reality-based information visualization unit for displaying additional information based on mixed reality technology in a three-dimensional space of the image presented by the display unit; And 상기 디스플레이부에서 제시하는 영상과 상기 추가 정보를 사용자 및 작업 시나리오에 대응하게 변경하는 가변형 플랫폼 제어부를 포함하는 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치.And a variable platform control unit for changing the video presented by the display unit and the additional information corresponding to the user and the task scenario. 삭제delete 삭제delete 청구항 1에 있어서, The method according to claim 1, 상기 트래킹부는 The tracking unit 특정 물체에 접촉 또는 비접촉 방식으로 상기 센서를 부착하여 물리적인 데이터를 획득하는 센서기반 추적 정보 생성부;A sensor-based tracking information generation unit for acquiring physical data by attaching the sensor to a specific object in a contact or non-contact manner; 데이터베이스에 기록된 추적 데이터를 상기 센서에서 발생된 것으로 시뮬레이션하는 데이터DB기반 추적정보 생성부; 및A data DB based trace information generation unit for simulating trace data recorded in the database as being generated by the sensor; And 상기 센서기반 추적 정보 생성부에서의 물리적인 데이터에 상기 데이터DB기반 추적정보 생성부의 출력값을 적용하여 상기 입력 정보를 생성하는 가상센서기반 추적정보 생성부;A virtual sensor based tracking information generation unit for generating the input information by applying an output value of the data DB based tracking information generation unit to physical data in the sensor based tracking information generation unit; 를 포함하는 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 장치. Based virtual reality-based training simulator. 삭제delete 삭제delete 삭제delete
KR1020090125543A 2009-12-16 2009-12-16 Apparatus of reconfigurable platform for virtual reality based training simulator KR101262848B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090125543A KR101262848B1 (en) 2009-12-16 2009-12-16 Apparatus of reconfigurable platform for virtual reality based training simulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090125543A KR101262848B1 (en) 2009-12-16 2009-12-16 Apparatus of reconfigurable platform for virtual reality based training simulator

Publications (2)

Publication Number Publication Date
KR20110068544A KR20110068544A (en) 2011-06-22
KR101262848B1 true KR101262848B1 (en) 2013-05-09

Family

ID=44400775

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090125543A KR101262848B1 (en) 2009-12-16 2009-12-16 Apparatus of reconfigurable platform for virtual reality based training simulator

Country Status (1)

Country Link
KR (1) KR101262848B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981701B1 (en) 2018-06-20 2019-05-23 주식회사 에스피지코리아 Educational Training Apparatus and Methods Using Virtual Reality
KR20220068622A (en) 2020-11-19 2022-05-26 김기홍 System for providing virtual experience contents to feel five senses
KR20240047591A (en) 2022-10-05 2024-04-12 가온그룹 주식회사 XR device compatible of AR and VR

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318026B2 (en) 2008-08-21 2016-04-19 Lincoln Global, Inc. Systems and methods providing an enhanced user experience in a real-time simulated virtual reality welding environment
US9483959B2 (en) 2008-08-21 2016-11-01 Lincoln Global, Inc. Welding simulator
US9196169B2 (en) 2008-08-21 2015-11-24 Lincoln Global, Inc. Importing and analyzing external data using a virtual reality welding system
US9280913B2 (en) 2009-07-10 2016-03-08 Lincoln Global, Inc. Systems and methods providing enhanced education and training in a virtual reality environment
US8274013B2 (en) 2009-03-09 2012-09-25 Lincoln Global, Inc. System for tracking and analyzing welding activity
KR101303994B1 (en) * 2010-11-24 2013-09-04 한국전자통신연구원 Virtual-Reality Based Training Guide System and the Method
US20160093233A1 (en) 2012-07-06 2016-03-31 Lincoln Global, Inc. System for characterizing manual welding operations on pipe and other curved structures
US9767712B2 (en) * 2012-07-10 2017-09-19 Lincoln Global, Inc. Virtual reality pipe welding simulator and setup
US20150072323A1 (en) 2013-09-11 2015-03-12 Lincoln Global, Inc. Learning management system for a real-time simulated virtual reality welding training environment
US10083627B2 (en) 2013-11-05 2018-09-25 Lincoln Global, Inc. Virtual reality and real welding training system and method
US9836987B2 (en) 2014-02-14 2017-12-05 Lincoln Global, Inc. Virtual reality pipe welding simulator and setup
CN106233358A (en) 2014-06-02 2016-12-14 林肯环球股份有限公司 System and method for artificial welders training
KR101827912B1 (en) * 2016-07-05 2018-02-12 주식회사 인디고엔터테인먼트 Walkable virtual reality apparatus
EP3319066A1 (en) 2016-11-04 2018-05-09 Lincoln Global, Inc. Magnetic frequency selection for electromagnetic position tracking
US10913125B2 (en) 2016-11-07 2021-02-09 Lincoln Global, Inc. Welding system providing visual and audio cues to a welding helmet with a display
US10878591B2 (en) 2016-11-07 2020-12-29 Lincoln Global, Inc. Welding trainer utilizing a head up display to display simulated and real-world objects
KR101917435B1 (en) 2016-12-05 2018-11-09 주식회사 포스코 Training guide supplying system for virtual compact endless cast and rolling mill based on trainee's control
KR101937934B1 (en) 2017-07-12 2019-01-14 한국전자통신연구원 Apparatus and method for method for cyber crisis response training based on augmented reality
KR101988962B1 (en) * 2017-09-06 2019-06-14 (주)엔정보기술 Guide plate for mixed realty service, apparatus for 3d shape information providing using the same and method thereof
KR102152595B1 (en) * 2017-09-18 2020-09-08 한국과학기술연구원 Coaching system for users participating in virtual reality contents
KR102026703B1 (en) * 2017-12-22 2019-09-30 한국기술교육대학교 산학협력단 A haptic tool system
US11557223B2 (en) 2018-04-19 2023-01-17 Lincoln Global, Inc. Modular and reconfigurable chassis for simulated welding training
US11475792B2 (en) 2018-04-19 2022-10-18 Lincoln Global, Inc. Welding simulator with dual-user configuration
KR102115199B1 (en) * 2018-08-31 2020-05-26 주식회사 버넥트 Virtual reality based industrial field simulation system
KR102152940B1 (en) * 2018-12-28 2020-09-08 (주)스코넥엔터테인먼트 Medical practice contents cps(contents sercice platform) interworking interface

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198767A (en) * 2002-12-19 2004-07-15 Yutaka Rikimaru Virtual experiencing system
KR200434822Y1 (en) * 2006-08-04 2006-12-28 (주)케이씨이아이 Aerial Working Platform Training Simulator

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198767A (en) * 2002-12-19 2004-07-15 Yutaka Rikimaru Virtual experiencing system
KR200434822Y1 (en) * 2006-08-04 2006-12-28 (주)케이씨이아이 Aerial Working Platform Training Simulator

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101981701B1 (en) 2018-06-20 2019-05-23 주식회사 에스피지코리아 Educational Training Apparatus and Methods Using Virtual Reality
KR20220068622A (en) 2020-11-19 2022-05-26 김기홍 System for providing virtual experience contents to feel five senses
KR20240047591A (en) 2022-10-05 2024-04-12 가온그룹 주식회사 XR device compatible of AR and VR

Also Published As

Publication number Publication date
KR20110068544A (en) 2011-06-22

Similar Documents

Publication Publication Date Title
KR101262848B1 (en) Apparatus of reconfigurable platform for virtual reality based training simulator
KR101390383B1 (en) Apparatus for managing a reconfigurable platform for virtual reality based training simulator
Juang et al. SimCrane 3D+: A crane simulator with kinesthetic and stereoscopic vision
US10529248B2 (en) Aircraft pilot training system, method and apparatus for theory, practice and evaluation
Ong et al. Augmented reality applications in manufacturing: a survey
Xia et al. A new type haptics-based virtual environment system for assembly training of complex products
Wang et al. Design, strategies, and issues towards an augmented reality-based construction training platform
KR100721713B1 (en) Immersive training system for live-line workers
Hilfert et al. First person virtual reality for evaluation and learning of construction site safety
CN108062900A (en) Utilize head-up display display simulation and the welding training airplane of real world objects
CN108057938A (en) The welding system that vision and audio prompt are provided welder&#39;s helmet with display
KR20160020136A (en) Training system for treating disaster using virtual reality and role playing game
WO2011058584A1 (en) Avatar-based virtual collaborative assistance
KR100936090B1 (en) The semi-immersive multi computerized numuerical control machine tools simulation system
US6149435A (en) Simulation method of a radio-controlled model airplane and its system
Perez et al. Developing a virtual environment for safety training
KR20190095849A (en) Real time and multi local cross remote control system and method using Mixed Reality Device
Chen et al. Mixed reality-based active hazard prevention system for heavy machinery operators
Stark et al. Major Technology 7: Virtual Reality—VR
WO2017014671A1 (en) Virtual reality driving simulator with added real objects
CN112400198A (en) Display system, server, display method and device
KR20200087369A (en) Education and Qualification System and the Method Using VR
Cvetković Introductory Chapter: Virtual Reality
Seet et al. A unified pilot training and control system for underwater robotic vehicles (URV)
JP6695529B1 (en) Projection system, projection device, projection method and program

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160427

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170427

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180426

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190425

Year of fee payment: 7