KR20230161117A - Electronic apparatus providing nursing simulation education program for virtual reality based, and virtual reality apparatus - Google Patents

Electronic apparatus providing nursing simulation education program for virtual reality based, and virtual reality apparatus Download PDF

Info

Publication number
KR20230161117A
KR20230161117A KR1020220060745A KR20220060745A KR20230161117A KR 20230161117 A KR20230161117 A KR 20230161117A KR 1020220060745 A KR1020220060745 A KR 1020220060745A KR 20220060745 A KR20220060745 A KR 20220060745A KR 20230161117 A KR20230161117 A KR 20230161117A
Authority
KR
South Korea
Prior art keywords
user
virtual
scenario
processor
interaction
Prior art date
Application number
KR1020220060745A
Other languages
Korean (ko)
Inventor
전재희
Original Assignee
강릉원주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강릉원주대학교산학협력단 filed Critical 강릉원주대학교산학협력단
Priority to KR1020220060745A priority Critical patent/KR20230161117A/en
Publication of KR20230161117A publication Critical patent/KR20230161117A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/06Selective distribution of broadcast services, e.g. multimedia broadcast multicast service [MBMS]; Services to user groups; One-way selective calling services

Abstract

본 발명은 메모리, VR(Virtual Reality) 인터랙션(Interaction)을 기반으로, 적어도 하나의 시나리오를 사용자에게 제공하기 위해, VR 영상을 제공하는 VR 장치와 통신하는 통신부, 및 메모리, 및 통신부와 연결된 프로세서를 포함하는 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치에 관한 것으로, 이에 따라, 프로세서는, 통신부를 통해, VR 장치로부터 획득된 사용자 명령에 따라 응급실 모드가 선택되면, VR 장치를 통해 임상실습 시나리오를 사용자에게 제공하고, 임상실습 시나리오에 대해 획득된 인터랙션을 실습 정보로 메모리에 저장한다.The present invention includes a communication unit that communicates with a VR device that provides VR images, and a processor connected to the memory and the communication unit to provide at least one scenario to the user based on memory and VR (Virtual Reality) interaction. An electronic device that provides a virtual reality-based nursing simulation education program for patients with hypovolemic shock, including: Accordingly, when the processor selects the emergency room mode according to a user command obtained from the VR device through a communication unit, the VR device A clinical practice scenario is provided to the user, and the interactions obtained for the clinical practice scenario are stored in memory as practice information.

Description

가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치, 및 VR 장치{ELECTRONIC APPARATUS PROVIDING NURSING SIMULATION EDUCATION PROGRAM FOR VIRTUAL REALITY BASED, AND VIRTUAL REALITY APPARATUS}An electronic device that provides a virtual reality-based nursing simulation education program for patients with hypovolemic shock, and a VR device {ELECTRONIC APPARATUS PROVIDING NURSING SIMULATION EDUCATION PROGRAM FOR VIRTUAL REALITY BASED, AND VIRTUAL REALITY APPARATUS}

본 발명은 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치, 및 VR(Virtual Reality) 장치에 관한 것으로, 상세하게는, VR 프로그램을 활용한 가상현실에서의 교육을 기반으로 쉽게 경험하기 어려운 저혈량성 쇼크 환자의 시나리오를 바탕으로 간호실습생이 상황에 따른 임상실습을 경험할 수 있도록 하는 기술이다.The present invention relates to an electronic device and a VR (Virtual Reality) device that provides a virtual reality-based nursing simulation education program for patients suffering from hypovolemic shock. In detail, the present invention relates to an electronic device and a VR (Virtual Reality) device that provides an education program in virtual reality using a VR program. This is a technology that allows nursing trainees to experience clinical practice according to the situation based on the scenario of a patient with hypovolemic shock, which is difficult to experience.

저혈량성 쇼크란, 순환기 내에 체액이 부족하여 발생하는 쇼크로, 대게 출혈, 화상, 및 탈수에 의해 발생할 수 있으며, 증상, 검사법, 치료법 등이 환자의 연령과 발생 원인에 따라 다르게 발현 및 적용될 수 있다.Hypovolemic shock is shock caused by a lack of body fluid in the circulatory system. It can usually be caused by bleeding, burns, and dehydration. Symptoms, tests, and treatments may appear and be applied differently depending on the patient's age and cause. there is.

한편, 종래의 시뮬레이션 실습 교육은 고가의 장비와 시설 등이 마련되어야 하며, 대상자의 상태 변화를 현실적으로 확인할 수 없다는 점에서 비용 대비 실습 효과가 낮은 문제점이 존재해왔다.Meanwhile, conventional simulation training requires expensive equipment and facilities, and there has been a problem of low cost-effectiveness compared to practice in that changes in the subject's condition cannot be realistically confirmed.

구체적으로, 간호대학 교육에서 의료 현장과 비슷한 환경의 시설을 구축하여 인간 실습 모형(시뮬레이터)을 통해 개발된 시나리오를 적용하여 환자의 상태를 사정하고 건강문제를 발견하며 적절한 처치 등 실제 간호 중재를 체험할 수 있도록 하는 교육이 시뮬레이션 실습 교육이다.Specifically, in nursing school education, a facility with an environment similar to a medical field is built and scenarios developed through a human practice model (simulator) are applied to experience actual nursing interventions such as assessing the patient's condition, discovering health problems, and providing appropriate treatment. The training that allows you to do this is simulation training.

하지만, 시뮬레이션 실습 교육은 다양한 한계점이 존재하며, 상세하게는, 인간 실습 모형의 생동감이 낮아 실제 대상자와 같은 현실감이 떨어지며, 시뮬레이터에 의해 다양한 의료 상황을 구현하고자 하지만 구현할 수 있는 상황에 대한 한계점이 존재하고, 인간 실습 모형을 대상으로 간호 행위를 할 수 있는 시나리오의 종류는 적으며, 간호 행위 후 대상자의 반응도 제한적이다.However, simulation practice training has various limitations. Specifically, the liveliness of the human practice model is low, so it does not have the same sense of reality as the actual subject. Although it is attempted to implement various medical situations through simulators, there are limitations to the situations that can be implemented. In addition, the types of scenarios in which nursing actions can be performed on human practice models are small, and the reactions of subjects after nursing actions are limited.

또한, 시뮬레이션 실습 교육을 위해서는 고가의 장비와 환경이 셋팅되어야 하며, 소수의 인원만이 제한된 시간 중에 교육을 받을 수 있고, 의료환경 중 출혈성 쇼크 등으로 발생하는 저혈량성 쇼크와 같은 상황에 대해 의료현장 재현이나 대처에 대한 실습이 제한적이다.In addition, expensive equipment and environments must be set up for simulation training, only a small number of people can receive training within a limited time, and medical treatment is required for situations such as hypovolemic shock that occurs due to hemorrhagic shock in a medical environment. There is limited practice of on-site reproduction or response.

한편, 상기의 배경기술로서 설명된 사항들은 본 발명의 배경에 대한 이해 증진을 위한 것일 뿐, 이 기술분야에서 통상의 지식을 가진 자에게 이미 알려진 종래기술에 해당함을 인정하는 것으로 받아들여져서는 안 될 것이다.Meanwhile, the matters described as background technology above are only for the purpose of improving understanding of the background of the present invention, and should not be taken as recognition that they correspond to prior art already known to those skilled in the art. will be.

등록특허공보 제10-1591775호, 2016.01.29.Registered Patent Publication No. 10-1591775, 2016.01.29.

본 발명이 해결하고자 하는 과제는 간호분야에 있어, 임상실습을 대체하는 시뮬레이션 실습 교육에 대해 IT를 접목하여, 간호실습생을 대상으로 가상현실을 활용하여 저혈량성 쇼크 대상자의 시뮬레이션 실습 교육 프로그램을 통해 실습생이 시간과 공간에 대한 제한없이 실제적이고 효과적인 실습 교육을 받을 수 있도록 하는, 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치, 및 VR 장치를 제공하는 것이다.The problem that the present invention seeks to solve is in the field of nursing, by incorporating IT into simulation practice education that replaces clinical practice, and using virtual reality for nursing trainees to provide a simulation practice education program for patients with hypovolemic shock. To provide an electronic device and a VR device that provide a virtual reality-based nursing simulation education program for patients with hypovolemic shock that allows trainees to receive realistic and effective hands-on training without restrictions on time and space.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치는, 메모리, VR(Virtual Reality) 인터랙션(Interaction)을 기반으로, 적어도 하나의 시나리오를 사용자에게 제공하기 위해, VR 영상을 제공하는 VR 장치와 통신하는 통신부, 및 메모리, 및 통신부와 연결된 프로세서를 포함하고, 이에 따라, 프로세서는, 통신부를 통해, VR 장치로부터 획득된 사용자 명령에 따라 응급실 모드가 선택되면, VR 장치를 통해 임상실습 시나리오를 사용자에게 제공하고, 임상실습 시나리오에 대해 획득된 인터랙션을 실습 정보로 메모리에 저장한다.An electronic device that provides a virtual reality-based nursing simulation education program for hypovolemic shock patients according to one aspect of the present invention to solve the above-mentioned problems is based on memory and VR (Virtual Reality) interaction, and includes at least one In order to provide a scenario to a user, it includes a communication unit that communicates with the VR device providing a VR image, and a memory, and a processor connected to the communication unit, whereby the processor, through the communication unit, receives user commands from the VR device. If the emergency room mode is selected according to this, a clinical practice scenario is provided to the user through the VR device, and the interactions obtained for the clinical practice scenario are stored in memory as practice information.

한편, 통신부는, 적어도 하나의 단말과 통신하고, 이에 따라, 프로세서는, 통신부를 통해, 실습 정보를 평가자 단말로 제공하고, 평가자 단말로부터 실습 정보에 대한 평가 정보를 획득할 수 있다.Meanwhile, the communication unit communicates with at least one terminal, and accordingly, the processor can provide practice information to the evaluator terminal through the communication unit and obtain evaluation information about the practice information from the evaluator terminal.

추가로, 프로세서는, 통신부를 통해, VR 장치로부터 획득된 사용자 명령에 따라 강의실 모드가 선택되면, VR 장치를 통해 가상의 강의실에 대한 이미지를 사용자에게 제공하고, 사용자에 대해 등록된 개인 캐릭터를 가상의 강의실에 출력하여, VR 장치를 통해 획득된 인터랙션을 기반으로 동작하도록 제어하고, 사용자에 대해 등록된 강의 스케줄을 바탕으로, 가상의 강의실에 포함된 가상의 디스플레이에 대해 기 등록된 강의 영상을 출력하고, 출력된 강의 영상에 대해, 가상의 해부도 및 가상의 도구를 VR 장치를 통해 사용자에게 제공하고, VR 장치를 통해 사용자로부터, 가상의 해부도에 대해 가상의 도구를 사용하는 것에 대한 인터랙션을 획득할 수 있다.Additionally, when the classroom mode is selected according to a user command obtained from the VR device through the communication unit, the processor provides the user with an image of the virtual classroom through the VR device and creates a personal character registered for the user as a virtual classroom. It is output to the classroom, controlled to operate based on the interaction acquired through the VR device, and based on the lecture schedule registered for the user, the pre-registered lecture video is output to the virtual display included in the virtual classroom. And, for the output lecture video, a virtual anatomy diagram and virtual tools are provided to the user through a VR device, and interaction about using the virtual tools for the virtual anatomy diagram is obtained from the user through the VR device. You can.

또한, 프로세서는, 임상실습 시나리오를 사용자에게 제공함에 있어서, 가상의 환자를 대상으로 응대, 진찰 및 검사를 수행하는 제1 시나리오, 제1 시나리오에 의한 검사 결과를 바탕으로 처방을 수행하는 제2 시나리오, 및 제2 시나리오에 의한 처방에 대한 조치를 가상의 환자를 대상으로 수행하는 제3 시나리오를 VR 장치를 통해 사용자에게 제공할 수 있다.In addition, in providing a clinical practice scenario to the user, the processor provides a first scenario in which a virtual patient is treated, examined, and examined, and a second scenario in which a prescription is performed based on the test results of the first scenario. , and a third scenario in which actions for prescriptions according to the second scenario are performed on a virtual patient can be provided to the user through a VR device.

또한, 프로세서는, 가상의 환자가 출혈 환자, 화상 환자, 및 탈수 환자 중 적어도 하나에 매칭되는 경우, 가상의 환자에 대해, 기 등록된 저혈량성 쇼크에 따른 증상을 수행하도록 제어할 수 있다.Additionally, if the virtual patient matches at least one of a bleeding patient, a burn patient, and a dehydration patient, the processor may control the virtual patient to perform symptoms according to pre-registered hypovolemic shock.

추가로, 프로세서는, 선택된 모드가 연습용 응급실 모드인 경우, 제1 시나리오 내지 제3 시나리오에 대한 인터랙션이 일정 시간 내에 미획득되면, VR 장치를 통해, 사용자에게 가이드 이미지를 제공하고, 제1 시나리오 내지 제3 시나리오 중, 가이드 이미지가 제공된 시나리오를 VR 장치를 통해 사용자에게 다시 제공할 수 있다.Additionally, when the selected mode is the emergency room mode for practice, if interaction with the first to third scenarios is not obtained within a certain time, the processor provides a guide image to the user through the VR device, and provides the first to third scenarios with a guide image. Among the third scenarios, the scenario in which the guide image is provided can be provided again to the user through the VR device.

한편, 프로세서는, 선택된 모드가 실전용 응급실 모드인 경우, 가상의 환자에 대해 골든타임이 식별되면, 식별된 골든타임에 대한 카운터를 VR 장치를 통해 사용자에게 제공하고, 가상의 환자에 대해 기 설정된 조치에 대한 인터랙션이 식별된 골든타임 내에 미획득되면, 가상의 환자에 대해, 쇼크에 따른 증상을 수행하도록 제어할 수 있다.Meanwhile, when the selected mode is a practical emergency room mode, when a golden time is identified for a virtual patient, the processor provides a counter for the identified golden time to the user through the VR device, and provides a counter for the identified golden time to the user through the VR device. If the interaction for the action is not obtained within the identified golden time, the virtual patient can be controlled to perform symptoms according to shock.

본 발명의 이 면에 따른 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 VR 장치는, 메모리, VR(Virtual Reality) 인터랙션(Interaction)을 기반으로, 적어도 하나의 시나리오를 사용자에게 제공하기 위해, VR 영상을 제공하는 디스플레이 모듈, 사용자로부터 인터랙션을 획득하기 위한 컨트롤러, 및 메모리, 디스플레이 모듈, 및 컨트롤러와 연결된 제어부를 포함하고, 이에 따라, 제어부는, 컨트롤러를 통해 획득된 사용자 명령에 따라 응급실 모드가 선택되면, 디스플레이 모듈을 통해 임상실습 시나리오를 사용자에게 제공하고, 임상실습 시나리오에 대해, 컨트롤러를 통해, 획득된 인터랙션을 실습 정보로 메모리에 저장하고, 컨트롤러를 통해 획득된 사용자 명령에 따라 강의실 모드가 선택되면, 디스플레이 모듈을 통해 가상의 강의실에 대한 이미지를 사용자에게 제공하고, 사용자에 대해 등록된 개인 캐릭터를 가상의 강의실에 출력하여, 컨트롤러를 통해 획득된 인터랙션을 기반으로 동작하도록 제어하고, 사용자에 대해 등록된 강의 스케줄을 바탕으로, 가상의 강의실에 포함된 가상의 디스플레이에 대해 기 등록된 강의 영상을 출력하고, 출력된 강의 영상에 대해, 가상의 해부도 및 가상의 도구를 디스플레이 모듈을 통해 사용자에게 제공하고, 컨트롤러를 통해 사용자로부터, 가상의 해부도에 대해 가상의 도구를 사용하는 것에 대한 인터랙션을 획득한다.A VR device that provides a virtual reality-based hypovolemic shock patient nursing simulation education program according to this aspect of the present invention provides at least one scenario to the user based on memory and VR (Virtual Reality) interaction. In order to do so, it includes a display module that provides a VR image, a controller for obtaining interaction from the user, and a control unit connected to the memory, the display module, and the controller. Accordingly, the control unit operates the emergency room according to the user command obtained through the controller. When the mode is selected, the clinical practice scenario is provided to the user through the display module, the acquired interactions about the clinical practice scenario are stored in memory as practice information through the controller, and the classroom is operated according to user commands obtained through the controller. When the mode is selected, an image of the virtual classroom is provided to the user through the display module, the personal character registered for the user is output to the virtual classroom, and the operation is controlled based on the interaction obtained through the controller. Based on the lecture schedule registered for the user, pre-registered lecture videos are output for the virtual display included in the virtual classroom, and for the output lecture videos, virtual anatomy diagrams and virtual tools are displayed through the display module. It is provided to the user and, through the controller, obtains interaction from the user about using a virtual tool on the virtual anatomy.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치, 및 VR(Virtual Reality) 장치에 의하면, 간호실습생이 저혈량성 쇼크 환자의 간호에 대한 시뮬레이션 임상실습을 시간과 장소의 제한 없이 가상현실로 경험하고 직접 간호수행을 하여 실제적인 임상지식과 수행능력을 향상시킬 수 있으며, 교육에 대한 시설, 장비 및 소모품이 소요되지 않아 비용대비 효율적이며, 간호실습생이 반복적으로 가상현실 임상실습을 경험하여 교육의 효과를 극대화할 수 있으며, 게임과 같은 느낌으로 흥미를 가지고 임상실습을 적극적으로 경험할 수 있다.According to the electronic device and VR (Virtual Reality) device that provide a virtual reality-based nursing simulation education program for patients with hypovolemic shock of the present invention, nursing trainees can conduct simulation clinical practice on nursing patients with hypovolemic shock at a time and place. You can improve your practical clinical knowledge and performance ability by experiencing and performing nursing directly in virtual reality without any limitations. It is cost-effective because it does not require facilities, equipment, or consumables for education, and nursing trainees can use virtual reality repeatedly. You can maximize the effectiveness of education by experiencing clinical practice, and you can actively experience clinical practice with interest through a game-like feel.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 본 개시의 일 실시예에 따른 전자 장치의 구성도이다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 개통도이다.
도 3은 본 개시의 일 실시예에 따른 시스템 구성도이다.
도 4는 본 개시의 일 실시예에 따른 기본 흐름도이다.
도 5 내지 도 7은 본 개시의 일 실시예에 따른 시나리오 예상도이다.
도 8은 본 개시의 일 실시예에 따른 VR 장치의 구성도이다.
1 is a configuration diagram of an electronic device according to an embodiment of the present disclosure.
Figure 2 is an opening diagram of an electronic device according to an embodiment of the present disclosure.
Figure 3 is a system configuration diagram according to an embodiment of the present disclosure.
Figure 4 is a basic flowchart according to an embodiment of the present disclosure.
5 to 7 are scenario prediction diagrams according to an embodiment of the present disclosure.
Figure 8 is a configuration diagram of a VR device according to an embodiment of the present disclosure.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide a general understanding of the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing embodiments and is not intended to limit the invention. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements. Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be a second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used in the specification, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and the “unit” or “module” performs certain roles. However, “part” or “module” is not limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, a “part” or “module” refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. The functionality provided within components and “parts” or “modules” can be combined into smaller components and “parts” or “modules” or into additional components and “parts” or “modules”. Could be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms such as “below”, “beneath”, “lower”, “above”, “upper”, etc. are used as a single term as shown in the drawing. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms that include different directions of components during use or operation in addition to the directions shown in the drawings. For example, if you flip a component shown in a drawing, a component described as "below" or "beneath" another component will be placed "above" the other component. You can. Accordingly, the illustrative term “down” may include both downward and upward directions. Components can also be oriented in other directions, so spatially relative terms can be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer refers to all types of hardware devices including at least one processor, and depending on the embodiment, it may be understood as encompassing software configurations that operate on the hardware device. For example, a computer can be understood to include, but is not limited to, a smartphone, tablet PC, desktop, laptop, and user clients and applications running on each device.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 개시의 일 실시예에 따른 전자 장치의 구성도이고, 도 2는 본 개시의 일 실시예에 따른 전자 장치의 개통도이고, 도 3은 본 개시의 일 실시예에 따른 시스템 구성도이다.FIG. 1 is a configuration diagram of an electronic device according to an embodiment of the present disclosure, FIG. 2 is an opening diagram of an electronic device according to an embodiment of the present disclosure, and FIG. 3 is a system configuration diagram according to an embodiment of the present disclosure. am.

도시된 바와 같이, 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치(100)는 메모리(110), VR(Virtual Reality) 인터랙션(Interaction)을 기반으로, 적어도 하나의 시나리오를 사용자에게 제공하기 위해, VR 영상을 제공하는 VR 장치(200)와 통신하는 통신부(120), 및 메모리(110), 및 통신부(120)와 연결된 프로세서(130)를 포함한다.As shown, the electronic device 100, which provides a virtual reality-based hypovolemic shock patient nursing simulation education program, provides at least one scenario to the user based on the memory 110 and VR (Virtual Reality) interaction. In order to provide VR images, it includes a communication unit 120 that communicates with the VR device 200 that provides VR images, a memory 110, and a processor 130 connected to the communication unit 120.

이때, 프로세서(130)는 통신부(120)를 통해 VR 장치(200)와 통신할 수 있으며, 이를 위해, VR 장치(200)에도 별도의 통신부가 포함될 수 있다.At this time, the processor 130 can communicate with the VR device 200 through the communication unit 120, and for this purpose, the VR device 200 may also include a separate communication unit.

일 실시예로, 전자 장치(100)는, 서버, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 노트북 컴퓨터(notebook computer), 의료 장비 중 적어도 하나를 포함할 수 있다.In one embodiment, the electronic device 100 includes a server, a smartphone, a tablet personal computer, a mobile phone, a video phone, a laptop PC, and a netbook computer. ), a laptop computer, and medical equipment.

일 실시예로, VR 장치(200)는, PC용 기기, 모바일용 기기(스마트폰 연동), 콘솔 기반 기기, 일체형 기기 등일 수 있다.In one embodiment, the VR device 200 may be a PC device, a mobile device (connected to a smartphone), a console-based device, an all-in-one device, etc.

한편, 전자 장치(100)는 통신부(120)를 통해 적어도 하나의 단말(스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 노트북 컴퓨터(notebook computer) 등)과 통신할 수 있으며, 이를 위해, 임상실습에 따른 평가를 진행하는 평가자가 보유한 단말인 평가자 단말은, 별도의 통신부를 포함할 수 있다.Meanwhile, the electronic device 100 is connected to at least one terminal (smartphone, tablet personal computer, mobile phone, video phone, laptop PC, etc.) through the communication unit 120. It is possible to communicate with a netbook computer (netbook computer, laptop computer, etc.), and for this purpose, the evaluator terminal, which is a terminal owned by an evaluator who conducts an evaluation according to clinical practice, may include a separate communication unit.

한편, 메모리(110)는 전자 장치(100)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(110)는 비휘발성 메모리(110), 휘발성 메모리(110), 플래시메모리(110)(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다.Meanwhile, the memory 110 can store various programs and data necessary for the operation of the electronic device 100. The memory 110 may be implemented as a non-volatile memory 110, a volatile memory 110, a flash-memory 110, a hard disk drive (HDD), or a solid state drive (SSD).

통신부(120)는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부(120)는 와이파이 칩, 블루투스 칩, 무선 통신 칩, NFC칩, 저전력 블루투스 칩(BLE 칩) 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), 5G(5th Generation) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다.The communication unit 120 can communicate with an external device. In particular, the communication unit 120 may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, a wireless communication chip, an NFC chip, and a low-energy Bluetooth chip (BLE chip). At this time, the Wi-Fi chip, Bluetooth chip, and NFC chip communicate in the LAN method, WiFi method, Bluetooth method, and NFC method, respectively. When using a Wi-Fi chip or Bluetooth chip, various connection information such as SSID and session key are first transmitted and received, and various information can be transmitted and received after establishing a communication connection using this. A wireless communication chip refers to a chip that performs communication according to various communication standards such as IEEE, ZigBee, 3G (3rd Generation), 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), and 5G (5th Generation).

프로세서(130)는 메모리(110)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 프로세서(130)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 및 버스로 구성될 수 있다. 이때, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다.The processor 130 can control the overall operation of the electronic device 100 using various programs stored in the memory 110. The processor 130 may be comprised of RAM, ROM, a graphics processing unit, a main CPU, first to n interfaces, and a bus. At this time, RAM, ROM, graphics processing unit, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

RAM은 O/S 및 어플리케이션 프로그램을 저장한다. 구체적으로, 전자 장치(100)가 부팅되면 O/S가 RAM에 저장되고, 사용자가 선택한 각종 어플리케이션 데이터가 RAM에 저장될 수 있다.RAM stores O/S and application programs. Specifically, when the electronic device 100 is booted, the O/S is stored in RAM, and various application data selected by the user may be stored in RAM.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리(110)에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리(110)에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.ROM stores a set of instructions for booting the system. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory 110 to RAM according to the command stored in the ROM, executes the O/S, and boots the system. When booting is complete, the main CPU copies various application programs stored in the memory 110 to RAM and executes the application programs copied to RAM to perform various operations.

그래픽 처리부는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이템, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 여기서, 연산부는 입력부로부터 수신된 제어 명령을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산하는 구성일 수 있다. 그리고, 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성하는 구성이 일 수 있다. 이러한 렌더링부에서 생성된 화면은 디스플레이(VR 장치(200)의 디스플레이 모듈(220)에 포함된 디스플레이)의 디스플레이 영역 내에 표시될 수 있다.The graphics processing unit uses a calculation unit (not shown) and a rendering unit (not shown) to create a screen containing various objects such as items, images, and text. Here, the calculation unit may be configured to calculate attribute values such as coordinate values, shape, size, color, etc. for each object to be displayed according to the layout of the screen using a control command received from the input unit. Additionally, the rendering unit may be configured to generate screens of various layouts including objects based on attribute values calculated by the calculation unit. The screen generated by this rendering unit may be displayed within the display area of the display (display included in the display module 220 of the VR device 200).

메인 CPU는 메모리(110)에 액세스하여, 메모리(110)에 저장된 OS를 이용하여 부팅을 수행한다. 그리고, 메인 CPU는 메모리(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU accesses the memory 110 and performs booting using the OS stored in the memory 110. And, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory 110.

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 제1 내지 n 인터페이스 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces are connected to the various components described above. One of the first to n interfaces may be a network interface connected to an external device through a network.

한편, 나아가, 프로세서(130)는 인공지능 모델을 제어할 수 있다. 이 경우, 프로세서(130)는 인공지능 모델을 제어하기 위한 그래픽 전용 프로세서(예: GPU)를 포함할 수 있음은 물론이다.Meanwhile, furthermore, the processor 130 can control an artificial intelligence model. In this case, of course, the processor 130 may include a graphics processor (eg, GPU) for controlling the artificial intelligence model.

한편, 본 발명에 따른 인공지능 모델은 교사 지도학습(supervised learning) 또는 비교사 지도학습(unsupervised learning)기반의 모델일 수 있다. 나아가, 본 발명에 따른 인공지능 모델은 SVM(support vector machine), Decision tree, neural network 등 및 이들이 응용된 방법론을 포함할 수 있다.Meanwhile, the artificial intelligence model according to the present invention may be a model based on supervised learning or unsupervised learning. Furthermore, the artificial intelligence model according to the present invention may include SVM (support vector machine), decision tree, neural network, etc., and methodologies applied thereto.

일 실시예로, 본 발명에 따른 인공지능 모델은 학습데이터를 입력하여 학습된 합성곱 신경망(Convolutional deep Neural Networks, CNN) 기반의 인공지능 모델일 수 있다. 다만, 이에 한정되는 것은 아니며, 다양한 인공지능 모델이 본 발명에 적용될 수 있음은 물론이다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 인공지능 모델로서 사용될 수 있으나, 이에 한정되지 않는다.In one embodiment, the artificial intelligence model according to the present invention may be an artificial intelligence model based on convolutional deep neural networks (CNN) that is learned by inputting learning data. However, it is not limited to this, and of course, various artificial intelligence models can be applied to the present invention. For example, models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN) can be used as artificial intelligence models, but are not limited to these.

이때, 합성곱 신경망(Convolutional deep Neural Networks, CNN)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. 합성곱 신경망은 하나 또는 여러개의 합성곱 계층(convolutional layer)과 그 위에 올려진 일반적인 인공신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 합성곱 신경망은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 또한, 합성곱 신경망은 표준 역전달을 통해 훈련될 수 있다. 합성곱 신경망은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.At this time, Convolutional deep Neural Networks (CNN) are a type of multilayer perceptrons designed to use minimal preprocessing. A convolutional neural network consists of one or several convolutional layers and general artificial neural network layers on top of them, and additionally utilizes weights and pooling layers. Thanks to this structure, the convolutional neural network can fully utilize input data with a two-dimensional structure. Additionally, convolutional neural networks can be trained via standard back propagation. Convolutional neural networks have the advantage of being easier to train and using fewer parameters than other feedforward artificial neural network techniques.

또한, 심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.Additionally, Deep Neural Networks (DNN) are Artificial Neural Networks (ANN) consisting of multiple hidden layers between an input layer and an output layer.

이때, 심층 신경망의 구조는 퍼셉트론(perceptron)으로 구성될 수 있다. 퍼셉트론은 여러 개의 입력 값(input)과 하나의 프로세서(prosessor), 하나의 출력 값으로 구성된다. 프로세서는 여러 개의 입력 값에 각각 가중치를 곱한 후, 가중치가 곱해진 입력 값들을 모두 합한다. 그 다음 프로세서는 합해진 값을 활성화함수에 대입하여 하나의 출력 값을 출력한다. 만약 활성화함수의 출력 값으로 특정한 값이 나오기를 원하는 경우, 각 입력 값에 곱해지는 가중치를 수정하고, 수정된 가중치를 이용하여 출력 값을 다시 계산할 수 있다. 이때, 각각의 퍼셉트론은 서로 다른 활성화함수를 사용할 수 있다. 또한 각각의 퍼셉트론은 이전 계층에서 전달된 출력들을 입력으로 받아들인 다음, 활성화 함수를 이용해서 출력을 구한다. 구해진 출력은 다음 계층의 입력으로 전달된다. 상술한 바와 같은 과정을 거치면 최종적으로 몇 개의 출력 값을 얻을 수 있다.At this time, the structure of the deep neural network may be composed of a perceptron. A perceptron consists of several inputs, one processor, and one output. The processor multiplies multiple input values by their respective weights and then adds up all of the input values multiplied by the weights. Next, the processor substitutes the combined value into the activation function and outputs one output value. If you want a specific value to come out as the output value of the activation function, you can modify the weight multiplied by each input value and recalculate the output value using the modified weight. At this time, each perceptron can use a different activation function. Additionally, each perceptron accepts the outputs from the previous layer as input and then obtains the output using an activation function. The obtained output is passed to the input of the next layer. By going through the above-described process, you can finally obtain several output values.

순환 신경망(Reccurent Neural Network, RNN)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말한다. 순환 신경망은 앞먹임 신경망과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다.Recurrent Neural Network (RNN) refers to a neural network in which the connections between units that make up the artificial neural network form a directed cycle. Unlike a forward neural network, a recurrent neural network can utilize the memory inside the neural network to process arbitrary input.

심층 신뢰 신경망(Deep Belief Networks, DBN)이란 기계학습에서 사용되는 그래프 생성 모형(generative graphical model)으로, 딥 러닝에서는 잠재변수(latent variable)의 다중계층으로 이루어진 심층 신경망을 의미한다. 계층 간에는 연결이 있지만 계층 내의 유닛 간에는 연결이 없다는 특징이 있다.Deep Belief Networks (DBN) is a generative graphical model used in machine learning. In deep learning, it refers to a deep neural network composed of multiple layers of latent variables. It has the characteristic that there is a connection between layers, but no connection between units within the layer.

심층 신뢰 신경망은 생성 모형이라는 특성상 선행학습에 사용될 수 있고, 선행학습을 통해 초기 가중치를 학습한 후 역전파 혹은 다른 판별 알고리즘을 통해 가중치의 미조정을 할 수 있다. 이러한 특성은 훈련용 데이터가 적을 때 굉장히 유용한데, 이는 훈련용 데이터가 적을수록 가중치의 초기값이 결과적인 모델에 끼치는 영향이 세지기 때문이다. 선행학습된 가중치 초기값은 임의로 설정된 가중치 초기값에 비해 최적의 가중치에 가깝게 되고 이는 미조정 단계의 성능과 속도향상을 가능케 한다.Due to the nature of the deep trust neural network as a generative model, it can be used for prior learning, and after learning the initial weights through prior learning, the weights can be fine-tuned through backpropagation or other discriminant algorithms. This characteristic is very useful when there is little training data, because the smaller the training data, the stronger the influence of the initial value of the weights on the resulting model. The pre-learned weight initial value becomes closer to the optimal weight compared to the arbitrarily set initial weight value, which enables improved performance and speed of the fine-tuning stage.

상술한 인공지능 및 그 학습방법에 관한 내용은 예시를 위하여 서술된 것이며, 상술한 실시 예들에서 이용되는 인공지능 및 그 학습방법은 제한되지 않는다. 예를 들어, 당 업계의 통상의 기술자가 동일한 과제해결을 위하여 적용할 수 있는 모든 종류의 인공지능 기술 및 그 학습방법이 개시된 실시 예에 따른 시스템을 구현하는 데 활용될 수 있다.The content regarding the above-described artificial intelligence and its learning method is described for illustrative purposes, and the artificial intelligence and its learning method used in the above-described embodiments are not limited. For example, all types of artificial intelligence technologies and learning methods that can be applied by a person skilled in the art to solve the same problem can be used to implement the system according to the disclosed embodiments.

한편, 프로세서(130)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.Meanwhile, the processor 130 may include one or more cores (not shown) and a graphics processing unit (not shown) and/or a connection path (e.g., bus, etc.) for transmitting and receiving signals with other components. You can.

일 실시예에 따른 프로세서(130)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 본 발명과 관련하여 설명된 방법을 수행한다.Processor 130 according to one embodiment performs the method described in connection with the present invention by executing one or more instructions stored in memory 110.

예를 들어, 프로세서(130)는 메모리(110)에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다.For example, the processor 130 acquires new training data by executing one or more instructions stored in the memory 110, performs a test on the acquired new training data using a learned model, and performs the test. As a result, first learning data in which labeled information is obtained with an accuracy greater than a predetermined first reference value is extracted, the extracted first learning data is deleted from the new learning data, and the new learning data from which the extracted learning data is deleted is extracted. The learned model can be retrained using training data.

한편, 프로세서(130)는 프로세서(130) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(130)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다.Meanwhile, the processor 130 includes random access memory (RAM) (not shown) and read-only memory (ROM) that temporarily and/or permanently store signals (or data) processed within the processor 130. , not shown) may be further included. Additionally, the processor 130 may be implemented in the form of a system on chip (SoC) that includes at least one of a graphics processing unit, RAM, and ROM.

메모리(110)에는 프로세서(130)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(110)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 110 may store programs (one or more instructions) for processing and control of the processor 130. Programs stored in the memory 110 may be divided into a plurality of modules according to their functions.

도 4는 본 개시의 일 실시예에 따른 기본 흐름도이고, 도 5 내지 도 7은 본 개시의 일 실시예에 따른 시나리오 예상도이다.FIG. 4 is a basic flowchart according to an embodiment of the present disclosure, and FIGS. 5 to 7 are scenario prediction diagrams according to an embodiment of the present disclosure.

도시된 바와 같이, 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치(100)에 있어서, 프로세서(130)는, 통신부(120)를 통해, VR 장치(200)로부터, 강의실 모드 및 응급실 모드 중 어느 하나를 선택하는 사용자 명령을 획득(S410)하고, 선택된 모드가 응급실 모드인 경우, VR 장치(200)를 통해 임상실습 시나리오를 사용자에게 제공(S420)하고, 임상실습 시나리오에 대해 획득된 인터랙션을 실습 정보로 메모리(110)에 저장(S430)한다.As shown, in the electronic device 100 that provides a virtual reality-based nursing simulation education program for patients with hypovolemic shock, the processor 130 receives the classroom mode information from the VR device 200 through the communication unit 120. and acquire a user command to select one of the emergency room modes (S410), and if the selected mode is the emergency room mode, provide a clinical practice scenario to the user through the VR device 200 (S420), and provide information about the clinical practice scenario The acquired interactions are stored in the memory 110 as practice information (S430).

한편, 프로세서(130)는, 통신부(120)를 통해, 사용자에 대한 실습 정보를 평가자 단말로 제공하고, 평가자 단말로부터 실습 정보에 대한 평가 정보를 획득할 수 있다.Meanwhile, the processor 130 may provide practice information about the user to the evaluator terminal through the communication unit 120 and obtain evaluation information about the practice information from the evaluator terminal.

도 5에 도시된 바와 같이, 프로세서(130)는 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램이 시작되면, VR 장치(200)를 통해, 사용자의 계정에 대해 기 등록된 개인 캐릭터(아바타)로 가상현실에 입장하도록 한다.As shown in FIG. 5, when the virtual reality-based hypovolemic shock patient nursing simulation education program starts, the processor 130 creates a personal character (avatar) already registered for the user's account through the VR device 200. Enter virtual reality with .

이때, 사용자는, VR 장치(200)를 통해, 아바타의 동작을 제어하며, 교육 내용(강의실 모드 및 응급실 모드, 응급실 모드인 경우, 연습용 응급실 모드, 실전용 응급실 모드로 분류)을 선택할 수 있다.At this time, the user can control the movements of the avatar through the VR device 200 and select the training content (classified into classroom mode, emergency room mode, emergency room mode, practice emergency room mode, and actual emergency room mode).

강의실 모드는, 가상의 강의실에서 임상실습 시나리오의 이론적 바탕이 되는 내용을 동영상 강의 등을 통해 사전 학습할 수 있도록 구성된 가상 교육 시나리오를 제공하는 모드이며, 응급실 모드는, 실제 환자를 대상으로 가상현실에서 임상실습 체험에 대한 시나리오를 제공하는 모드로, 내원한 환자에 대한 대응 및 진찰, 진찰 및 검사 결과에 따른 처방, 처방에 따른 적절한 조치(MRI 검사, 혈액검사, X-ray 검사 등)를 수행하는 인터랙션을 VR 장치(200)를 통해 사용자로부터 획득할 수 있다.The classroom mode is a mode that provides a virtual education scenario that allows students to learn the theoretical basis of clinical practice scenarios in advance through video lectures in a virtual classroom, and the emergency room mode is a mode that provides a virtual education scenario for actual patients in virtual reality. This is a mode that provides a scenario for clinical practice experience. It involves responding to and examining patients who visit the hospital, prescribing based on examination and test results, and taking appropriate actions according to the prescription (MRI test, blood test, X-ray test, etc.). Interaction can be obtained from the user through the VR device 200.

이에 따라, 시나리오는, 실제 환자에 대해 발병된 질병의 종류에 따른 증상, 동작, 대화, 진찰 방법, 처방 내역, 및 조치 방법을 바탕으로 구성된 인터랙션 기반 영상일 수 있다.Accordingly, the scenario may be an interaction-based image composed based on symptoms, movements, conversations, examination methods, prescription details, and action methods according to the type of disease that occurs in an actual patient.

한편, 단계 S420에 있어서, 프로세서(130)는, 선택된 모드가 강의실 모드인 경우, VR 장치(200)를 통해 가상의 강의실에 대한 이미지를 사용자에게 제공하고, 사용자에 대해 등록된 개인 캐릭터를 가상의 강의실에 출력하여, VR 장치(200)를 통해 획득된 인터랙션을 기반으로 동작하도록 제어한다.Meanwhile, in step S420, when the selected mode is the classroom mode, the processor 130 provides an image of a virtual classroom to the user through the VR device 200, and converts the personal character registered for the user into a virtual classroom. It is output to the classroom and controlled to operate based on the interaction obtained through the VR device 200.

도 7에 도시된 바와 같이, 프로세서(130)는 사용자에 대해 등록된 강의 스케줄을 바탕으로, 가상의 강의실에 포함된 가상의 디스플레이에 대해 기 등록된 강의 영상을 출력하고, 출력된 강의 영상에 대해, 가상의 해부도 및 가상의 도구를 VR 장치(200)를 통해 사용자에게 제공하고, VR 장치(200)를 통해 사용자로부터, 가상의 해부도에 대해 가상의 도구를 사용하는 것에 대한 인터랙션을 획득할 수 있다.As shown in FIG. 7, the processor 130 outputs a pre-registered lecture video to a virtual display included in a virtual classroom based on the lecture schedule registered for the user, and provides information about the output lecture video. , a virtual anatomy diagram and a virtual tool can be provided to the user through the VR device 200, and interaction about using the virtual tool on the virtual anatomy diagram can be obtained from the user through the VR device 200. .

예컨대, 프로세서(130)는 VR 장치(200)를 통해 사용자에게 개인 캐릭터의 시야를 제공하고, 사용자에 대해 등록된 강의 스케줄에 심전도 검사 강의가 포함된 경우, 가상의 심장, 가상의 심전도 측정 도구, 및 가상의 심전도 모니터링 화면을 개인 캐릭터의 시야에 포함되도록 하고, 가상의 심장에 대한 인터랙션을 바탕으로 가상의 심전도 측정 도구가 위치하게된 가상의 심장에 대한 부위 별 심전도 검사 결과를 가상의 심전도 모니터링 화면에 제공할 수 있다.For example, the processor 130 provides a view of a personal character to the user through the VR device 200, and when the lecture schedule registered for the user includes an electrocardiogram examination lecture, a virtual heart, a virtual electrocardiogram measurement tool, And the virtual ECG monitoring screen is included in the personal character's field of view, and based on the interaction with the virtual heart, the ECG test results for each region of the virtual heart where the virtual ECG measurement tool is located are displayed on the virtual ECG monitoring screen. can be provided to.

다른 예로, 프로세서(130)는 VR 장치(200)를 통해 사용자에게 가상의 키보드를 개인 캐릭터의 시야에 포함되도록 하고, 가상의 키보드에 대한 인터랙션을 바탕으로 텍스트 입력이 수행되도록 하며, 입력된 텍스트를 가상의 강의실에 대한 채팅 화면에 포함되도록 하여, 가상의 강의실에 접속한 다른 사용자들 및 강의자 각각에 대한 캐릭터에게 입력된 텍스트가 공유되도록 할 수 있다.As another example, the processor 130 allows the user to include a virtual keyboard in the field of view of the personal character through the VR device 200, allows text input to be performed based on interaction with the virtual keyboard, and inputs the input text. By including it in the chat screen for the virtual classroom, the text entered can be shared with other users connected to the virtual classroom and the character for each lecturer.

한편, 단계 S420 및 단계 S430에 있어서, 프로세서(130)는, 가상의 환자를 대상으로 응대, 진찰 및 검사를 수행하는 제1 시나리오, 제1 시나리오에 의한 검사 결과를 바탕으로 처방을 수행하는 제2 시나리오, 및 제2 시나리오에 의한 처방에 대한 조치를 가상의 환자를 대상으로 수행하는 제3 시나리오를 포함하는 임상실습 시나리오를, VR 장치(200)를 통해, 사용자에게 제공할 수 있다.Meanwhile, in steps S420 and S430, the processor 130 configures a first scenario to perform a response, examination, and examination on a virtual patient, and a second scenario to perform a prescription based on the test results according to the first scenario. A clinical practice scenario including a scenario and a third scenario in which actions for prescriptions according to the second scenario are performed on a virtual patient can be provided to the user through the VR device 200.

이때, 프로세서(130)는, 가상의 환자가 출혈 환자, 화상 환자, 및 탈수 환자 중 적어도 하나에 매칭되는 경우, 가상의 환자에 대해, 기 등록된 저혈량성 쇼크에 따른 증상을 수행하도록 제어할 수 있다.At this time, if the virtual patient matches at least one of a bleeding patient, a burn patient, and a dehydration patient, the processor 130 controls the virtual patient to perform symptoms according to pre-registered hypovolemic shock. You can.

구체적으로, 프로세서(130)는, VR 장치(200)를 통해, 사용자로부터 제1 시나리오에 대한 인터랙션을 수집하는데 있어서, 가상의 환자를 응대하는 사용자의 음성, 가상의 환자에 대한 촉진 부위, 및 사용된 적어도 하나의 가상의 검사 도구에 대한 선택, 각각에 대한 인터랙션을 수집할 수 있다.Specifically, the processor 130 collects interaction about the first scenario from the user through the VR device 200, including the user's voice responding to the virtual patient, the palpation area for the virtual patient, and the user's interaction with the first scenario. By selecting at least one virtual inspection tool, interactions for each can be collected.

이에 따라, 프로세서(130)는 가상의 환자를 응대하는 사용자의 음성을 기반으로 제1 시나리오에 대해 기 등록된 정답 키워드가 존재하는지 여부에 대한 제1-1 실습 정보, 가상의 환자에 대한 촉진 부위가 가상의 환자가 나타내는 증상에 대해 기 등록된 부위와 일치하는지 여부에 대한 제1-2 실습 정보, 및 선택된 가상의 검사 도구가 가상의 환자가 나타내는 증상에 대해 기 등록된 검사 도구와 일치하는지 여부에 대한 제1-3 실습 정보를 생성한다.Accordingly, the processor 130 provides 1-1 practice information about whether a pre-registered correct answer keyword exists for the first scenario based on the voice of the user responding to the virtual patient, and the palpation site for the virtual patient. 1-2 practice information about whether the selected virtual test tool matches a pre-registered part for the symptom shown by the virtual patient, and whether the selected virtual test tool matches a pre-registered test tool for the symptom shown by the virtual patient. Create practice information for 1-3.

프로세서(130)는, VR 장치(200)를 통해, 사용자로부터 제2 시나리오에 대한 인터랙션을 수집하는데 있어서, 적어도 하나의 처방을 선택하는 인터랙션을 수집하되, 선택된 처방에 대한 근거 정보를 가상의 키보드에 대한 입력 및 음성 입력 중 적어도 하나에 대한 인터랙션을 통해 획득할 수 있다.In collecting interaction for the second scenario from the user through the VR device 200, the processor 130 collects an interaction for selecting at least one prescription, and provides basis information for the selected prescription on a virtual keyboard. It can be obtained through interaction with at least one of input and voice input.

이에 따라, 프로세서(130)는, 가상의 환자가 나타내는 증상에 대해 기 등록된 적어도 하나의 처방을 선택된 처방과 비교하여, 누락된 처방이 존재하는지 여부에 대한 제2-1 실습 정보를 생성하고, 근거 정보에 포함된 키워드를 가상의 환자가 나타내는 증상에 대해 기 등록된 적어도 하나의 키워드와 일치하는지 여부에 대한 제2-2 실습 정보를 생성한다.Accordingly, the processor 130 compares at least one prescription previously registered for the symptom displayed by the virtual patient with the selected prescription, and generates 2-1 practice information about whether a missing prescription exists, 2-2 practice information is generated regarding whether the keyword included in the evidence information matches at least one keyword already registered for the symptom displayed by the virtual patient.

프로세서(130)는, VR 장치(200)를 통해, 사용자로부터 제3 시나리오에 대한 인터랙션을 수집하는데 있어서, 선택된 처방을 수행하는 인터랙션에 따른 제3 실습 정보를 생성한다.The processor 130, in collecting interactions for the third scenario from the user through the VR device 200, generates third practice information according to the interaction for performing the selected prescription.

프로세서(130)는, 제1-1 실습 정보 내지 제3 실습 정보를 바탕으로 가체점 점수를 산출하여, 산출된 가체점 점수를 제1-1 실습 정보 내지 제3 실습 정보와 함께 평가자 단말로 제공하고, 가체점 점수를 VR 장치(200)를 통해 사용자에게 제공할 수 있다.The processor 130 calculates a false mark score based on the 1-1 practice information to the third practice information, and provides the calculated false mark score to the evaluator terminal along with the 1-1 practice information to the third practice information. And, the score can be provided to the user through the VR device 200.

실시예로, 프로세서(130)는, 제1 시나리오에 대한 인터랙션의 수집이 완료된 제1 시점, 제2 시나리오에 대한 인터랙션의 수집이 완료된 제2 시점, 및 제3 시나리오에 대한 인터랙션의 수집이 완료된 제3 시점을 식별한다.In an embodiment, the processor 130 operates at a first time when the collection of interactions for the first scenario is completed, at a second time when the collection of interactions for the second scenario is completed, and at a time when the collection of interactions for the third scenario is completed. 3 Identify the point in time.

이에 따라, 프로세서(130)는 제1 시나리오 내지 제3 시나리오에 대해 메모리(110)에 기 저장된 소요 시간 지표를 바탕으로, 제2 시나리오에 대해 소요되는 제1 평균시간, 및 제3 시나리오에 대해 소요되는 제2 평균시간을 획득하고, 제1 시점 내지 제2 시점에 대한 제1 차값, 제2 시점 내지 제3 시점에 대한 제2 차값을 산출하고, 제1 차값을 제1 평균시간과 비교하여, 제1 차값이 제1 평균시간 이하의 값인 경우, 제1 차값과 제1 평균시간의 차값에 비례하는 판단 능숙도에 대한 점수를 산출하고, 제1 차값이 제1 평균시간을 초과하는 경우, 제1 차값과 제1 평균시간의 차값에 반비례하는 판단 능숙도에 대한 점수를 산출한다.Accordingly, the processor 130 calculates the first average time required for the second scenario and the third scenario based on the time required indicators previously stored in the memory 110 for the first to third scenarios. Obtain the second average time, calculate the first difference for the first to second time points, the second difference for the second to third time points, and compare the first difference with the first average time, If the first difference value is less than or equal to the first average time, a score for judgment proficiency is calculated proportional to the difference value between the first difference value and the first average time, and if the first difference value exceeds the first average time, the first average time is calculated. A score for judgment proficiency is calculated that is inversely proportional to the difference between the difference value and the first average time.

또한, 프로세서(130)는 제2 차값을 제2 평균시간과 비교하여, 제2 차값이 제2 평균시간 이하의 값인 경우, 제2 차값과 제2 평균시간의 차값에 비례하는 처방 능숙도에 대한 점수를 산출하고, 제2 차값이 제2 평균시간을 초과하는 경우, 제2 차값과 제2 평균시간의 차값에 반비례하는 처방 능숙도에 대한 점수를 산출한다.In addition, the processor 130 compares the second difference value with the second average time, and when the second difference value is less than or equal to the second average time, the score for prescription proficiency is proportional to the difference value between the second difference value and the second average time. is calculated, and when the second difference value exceeds the second average time, a score for prescription proficiency is calculated that is inversely proportional to the difference value between the second difference value and the second average time.

프로세서(130)는 판단 능숙도에 대한 점수 및 처방 능숙도에 대한 점수를 평가자 단말 및 VR 장치로 제공할 수 있다.The processor 130 may provide scores for judgment proficiency and scores for prescription proficiency to the evaluator terminal and VR device.

이때, 제1 시나리오에 대하여는, 응대, 진찰 및 검사가 정확하게 이루어지는 것을 목표로 하므로, 프로세서(130)는 제1 시나리오에 대하여는 시간에 따른 점수를 산출하지 않는다.At this time, since the goal is to ensure accurate response, diagnosis, and inspection for the first scenario, the processor 130 does not calculate a score according to time for the first scenario.

한편, 소요 시간 지표는, 질병 및 증상에 따른 처방을 판단하고 처방을 실시하는데 소요되는 평균 시간에 대한 데이터이다.Meanwhile, the time required indicator is data on the average time required to determine a prescription according to the disease and symptoms and implement the prescription.

단계 S420에 있어서, 선택된 모드가 연습용 응급실 모드인 경우, 프로세서(130)는, 제1 시나리오 내지 제3 시나리오에 대한 인터랙션이 일정 시간 내에 미획득되면, VR 장치(200)를 통해, 사용자에게 가이드 이미지를 제공하고, 제1 시나리오 내지 제3 시나리오 중, 가이드 이미지가 제공된 시나리오를 VR 장치(200)를 통해 사용자에게 다시 제공하여, 반복적으로 연습을 수행할 수 있도록 한다.In step S420, when the selected mode is the practice emergency room mode, the processor 130 sends a guide image to the user through the VR device 200 if interaction for the first to third scenarios is not obtained within a certain time. is provided, and among the first to third scenarios, the scenario in which the guide image is provided is provided again to the user through the VR device 200, so that the user can practice repeatedly.

가이드 이미지란, 제1 시나리오 내지 제3 시나리오에 대해 사용자가 VR 장치(200)를 통해 인터랙션을 입력하지 못한 시간 구간에 대해, 수집되어야 하는 인터랙션에 대한 동작을 설명하는 이미지이다.The guide image is an image that explains the operation of the interaction that must be collected for the time period in which the user did not input interaction through the VR device 200 for the first to third scenarios.

반면, 선택된 모드가 실전용 응급실 모드인 경우, 프로세서(130)는, 가상의 환자에 대해 골든타임이 식별되면, 식별된 골든타임에 대한 카운터를 VR 장치(200)를 통해 사용자에게 제공하고, 가상의 환자에 대해 기 설정된 조치에 대한 인터랙션이 식별된 골든타임 내에 미획득되면, 가상의 환자에 대해, 쇼크에 따른 증상을 수행하도록 제어할 수 있다.On the other hand, when the selected mode is the actual emergency room mode, when a golden time is identified for a virtual patient, the processor 130 provides a counter for the identified golden time to the user through the VR device 200, and provides a counter for the identified golden time to the user through the VR device 200. If the interaction for the preset action for the patient is not obtained within the identified golden time, the virtual patient can be controlled to perform symptoms due to shock.

추가로, 프로세서(130)는 인터렉션 훈련 모드에 따른 시나리오를, VR 장치(200)를 통해, 사용자에게 추가로 제공할 수 있다. 예컨대, 프로세서(130)는 과일을 바구니에 옮기는 동작에 대한 객체 옮기기 시나리오, 가상의 키보드를 통해, 제시된 텍스트를 타이핑하는 타이핑 시나리오, 물병에 뚜껑을 분리하거나 결합하는 객체간 결합 시나리오 등을 VR 장치(200)를 통해, 사용자에게 제공할 수 있다.Additionally, the processor 130 may additionally provide a scenario according to the interaction training mode to the user through the VR device 200. For example, the processor 130 may provide a VR device ( 200), it can be provided to the user.

도 8은 본 개시의 일 실시예에 따른 VR 장치의 구성도이다.Figure 8 is a configuration diagram of a VR device according to an embodiment of the present disclosure.

도시된 바와 같이, 가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 VR 장치(200)는, 메모리(210), VR 인터랙션을 기반으로, 적어도 하나의 시나리오를 사용자에게 제공하기 위해, VR 영상을 제공하는 디스플레이 모듈(220), 사용자로부터 인터랙션을 획득하기 위한 컨트롤러(230), 및 메모리(210), 디스플레이 모듈(220), 및 컨트롤러(230)와 연결된 제어부(240)를 포함한다.As shown, the VR device 200, which provides a virtual reality-based hypovolemic shock patient nursing simulation education program, includes a memory 210 and VR to provide at least one scenario to the user based on VR interaction. It includes a display module 220 that provides an image, a controller 230 for obtaining interaction from the user, and a control unit 240 connected to the memory 210, the display module 220, and the controller 230.

디스플레이 모듈(220)는 다양한 정보를 시각적으로 출력하기 위한 구성이다.The display module 220 is configured to visually output various information.

일 실시예로, 디스플레이 모듈(220)는 헤드 마운티드 디스플레이(HMD, Head Mounted Display), 페이스 마운티드 디스플레이(FMD, Face Mounted Display) 중 적어도 하나를 포함하되, 사운드의 출력 및 입력을 위한 스피커 및 마이크를 포함할 수 있다.In one embodiment, the display module 220 includes at least one of a head mounted display (HMD) and a face mounted display (FMD), and includes a speaker and a microphone for output and input of sound. It can be included.

한편, VR 장치(200)는 모션 트래커를 더 포함할 수 있으며, 모션 트래커가 컨트롤러(230)를 대체할 수도 있다.Meanwhile, the VR device 200 may further include a motion tracker, and the motion tracker may replace the controller 230.

컨트롤러(230)는 사용자로부터 인터랙션을 수집하기 위한, VR 컨트롤러이다.The controller 230 is a VR controller for collecting interaction from the user.

제어부(240)는 메모리(210)에 저장된 각종 프로그램을 이용하여 VR 장치(200)의 전반적인 동작을 제어할 수 있다The control unit 240 can control the overall operation of the VR device 200 using various programs stored in the memory 210.

이에 따라, 제어부(240)는, 컨트롤러(230)를 통해, 강의실 모드 및 응급실 모드 중 어느 하나를 선택하는 사용자 명령을 획득하고, 선택된 모드가 응급실 모드인 경우, 디스플레이 모듈(220)을 통해 임상실습 시나리오를 사용자에게 제공한다.Accordingly, the control unit 240 obtains a user command to select one of the classroom mode and the emergency room mode through the controller 230, and when the selected mode is the emergency room mode, the control unit 240 displays the clinical practice mode through the display module 220. Provide scenarios to users.

이때, 제어부(240)는 임상실습 시나리오에 대해, 컨트롤러(230)를 통해, 획득된 인터랙션을 실습 정보로 메모리(210)에 저장하고, 선택된 모드가 강의실 모드인 경우, 디스플레이 모듈(220)을 통해 가상의 강의실에 대한 이미지를 사용자에게 제공하고, 사용자에 대해 등록된 개인 캐릭터를 가상의 강의실에 출력하여, 컨트롤러(230)를 통해 획득된 인터랙션을 기반으로 동작하도록 제어하고, 사용자에 대해 등록된 강의 스케줄을 바탕으로, 가상의 강의실에 포함된 가상의 디스플레이에 대해 기 등록된 강의 영상을 출력하고, 출력된 강의 영상에 대해, 가상의 해부도 및 가상의 도구를 디스플레이 모듈(220)을 통해 사용자에게 제공하고, 컨트롤러(230)를 통해 사용자로부터, 가상의 해부도에 대해 가상의 도구를 사용하는 것에 대한 인터랙션을 획득할 수 있다.At this time, for the clinical practice scenario, the control unit 240 stores the acquired interactions as practice information in the memory 210 through the controller 230, and when the selected mode is the classroom mode, through the display module 220. An image of the virtual classroom is provided to the user, the personal character registered for the user is output to the virtual classroom, and the operation is controlled based on the interaction obtained through the controller 230, and the lecture registered for the user is performed. Based on the schedule, pre-registered lecture videos are output on virtual displays included in the virtual classroom, and virtual anatomy diagrams and virtual tools are provided to users for the output lecture videos through the display module 220. And, through the controller 230, interaction about using a virtual tool for a virtual anatomy can be obtained from the user.

한편, 선택된 모드가 응급실 모드인 경우, 제어부(240)는 가상의 환자를 대상으로 응대, 진찰 및 검사를 수행하는 제1 시나리오, 제1 시나리오에 의한 검사 결과를 바탕으로 처방을 수행하는 제2 시나리오, 및 제2 시나리오에 의한 처방에 대한 조치를 가상의 환자를 대상으로 수행하는 제3 시나리오를 포함하는 임상실습 시나리오를 디스플레이 모듈(220)을 통해 사용자에게 제공하되, 이때, 제1 시나리오 내지 제3 시나리오의 대상인 가상의 환자가 출혈 환자, 화상 환자, 및 탈수 환자 중 적어도 하나에 매칭되는 경우, 가상의 환자에 대해, 기 등록된 저혈량성 쇼크에 따른 증상을 수행하도록 제어할 수 있다.Meanwhile, when the selected mode is the emergency room mode, the control unit 240 creates a first scenario in which response, examination, and examination are performed on a virtual patient, and a second scenario in which a prescription is performed based on the examination results by the first scenario. , and a clinical practice scenario including a third scenario in which the prescription action according to the second scenario is performed on a virtual patient, is provided to the user through the display module 220, wherein the first to third scenarios are provided to the user through the display module 220. If the virtual patient that is the target of the scenario matches at least one of a bleeding patient, a burn patient, and a dehydration patient, the virtual patient may be controlled to perform symptoms according to pre-registered hypovolemic shock.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in connection with embodiments of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. The software module may be RAM (Random Access Memory), ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

또한, 본 발명의 서로 다른 실시예들은 상호 보완되거나 결합될 수 있다.Additionally, different embodiments of the present invention may complement or be combined with each other.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler), 파이썬(Python) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be implemented as a program (or application) and stored in a medium in order to be executed in conjunction with a hardware computer. Components of the invention may be implemented as software programming or software elements, and similarly, embodiments may include various algorithms implemented as combinations of data structures, processes, routines or other programming constructs, such as C, C++, , it can be implemented in a programming or scripting language such as Java, assembler, Python, etc. Functional aspects may be implemented as algorithms running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.Above, embodiments of the present invention have been described with reference to the attached drawings, but those skilled in the art will understand that the present invention can be implemented in other specific forms without changing its technical idea or essential features. You will be able to understand it. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive.

100 : 전자 장치
110 : 메모리
120 : 통신부
130 : 프로세서
200 : VR 장치
210 : 메모리
220 : 디스플레이 모듈
230 : 컨트롤러
240 : 제어부
100: electronic device
110: memory
120: Department of Communications
130: processor
200: VR device
210: memory
220: display module
230: controller
240: control unit

Claims (8)

가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 전자 장치에 있어서,
메모리;
VR(Virtual Reality) 인터랙션(Interaction)을 기반으로, 적어도 하나의 시나리오를 사용자에게 제공하기 위해, VR 영상을 제공하는 VR 장치와 통신하는 통신부; 및
상기 메모리, 및 상기 통신부와 연결된 프로세서;를 포함하고,
상기 프로세서는,
상기 통신부를 통해, 상기 VR 장치로부터 획득된 사용자 명령에 따라 응급실 모드가 선택되면, 상기 VR 장치를 통해 임상실습 시나리오를 상기 사용자에게 제공하고,
상기 임상실습 시나리오에 대해 획득된 인터랙션을 실습 정보로 상기 메모리에 저장하는, 전자 장치.
In the electronic device that provides a virtual reality-based nursing simulation education program for patients with hypovolemic shock,
Memory;
A communication unit that communicates with a VR device that provides VR images to provide at least one scenario to the user based on VR (Virtual Reality) interaction; and
Includes a processor connected to the memory and the communication unit,
The processor,
When the emergency room mode is selected according to a user command obtained from the VR device through the communication unit, a clinical practice scenario is provided to the user through the VR device,
An electronic device that stores interactions obtained for the clinical practice scenario as practice information in the memory.
제1 항에 있어서,
상기 통신부는,
적어도 하나의 단말과 통신하고,
상기 프로세서는,
상기 통신부를 통해, 상기 실습 정보를 평가자 단말로 제공하고,
상기 평가자 단말로부터 상기 실습 정보에 대한 평가 정보를 획득하는, 전자 장치.
According to claim 1,
The Department of Communications,
communicate with at least one terminal,
The processor,
Through the communication unit, the practice information is provided to the evaluator terminal,
An electronic device that obtains evaluation information about the practice information from the evaluator terminal.
제1 항에 있어서,
상기 프로세서는,
상기 통신부를 통해, 상기 VR 장치로부터 획득된 사용자 명령에 따라 강의실 모드가 선택되면, 상기 VR 장치를 통해 가상의 강의실에 대한 이미지를 사용자에게 제공하고,
상기 사용자에 대해 등록된 개인 캐릭터를 상기 가상의 강의실에 출력하여, 상기 VR 장치를 통해 획득된 인터랙션을 기반으로 동작하도록 제어하고,
상기 사용자에 대해 등록된 강의 스케줄을 바탕으로, 상기 가상의 강의실에 포함된 가상의 디스플레이에 대해 기 등록된 강의 영상을 출력하고,
상기 출력된 강의 영상에 대해, 가상의 해부도 및 가상의 도구를 상기 VR 장치를 통해 상기 사용자에게 제공하고,
상기 VR 장치를 통해 상기 사용자로부터, 상기 가상의 해부도에 대해 상기 가상의 도구를 사용하는 것에 대한 인터랙션을 획득하는, 전자 장치.
According to claim 1,
The processor,
When a classroom mode is selected according to a user command obtained from the VR device through the communication unit, an image of a virtual classroom is provided to the user through the VR device,
Outputting the personal character registered for the user to the virtual classroom and controlling it to operate based on the interaction obtained through the VR device,
Based on the lecture schedule registered for the user, output a pre-registered lecture video on a virtual display included in the virtual classroom,
For the output lecture video, provide a virtual anatomy diagram and virtual tools to the user through the VR device,
An electronic device that obtains interaction about using the virtual tool on the virtual anatomy from the user via the VR device.
제1 항에 있어서,
상기 프로세서는,
상기 임상실습 시나리오를 상기 사용자에게 제공함에 있어서, 가상의 환자를 대상으로 응대, 진찰 및 검사를 수행하는 제1 시나리오, 상기 제1 시나리오에 의한 검사 결과를 바탕으로 처방을 수행하는 제2 시나리오, 및 상기 제2 시나리오에 의한 처방에 대한 조치를 상기 가상의 환자를 대상으로 수행하는 제3 시나리오를 상기 VR 장치를 통해 상기 사용자에게 제공하는, 전자 장치.
According to claim 1,
The processor,
In providing the clinical practice scenario to the user, a first scenario in which a virtual patient is treated, examined, and examined, a second scenario in which a prescription is performed based on test results from the first scenario, and An electronic device that provides a third scenario in which an action for a prescription according to the second scenario is performed on the virtual patient to the user through the VR device.
제4 항에 있어서,
상기 프로세서는,
상기 가상의 환자가 출혈 환자, 화상 환자, 및 탈수 환자 중 적어도 하나에 매칭되는 경우, 상기 가상의 환자에 대해, 기 등록된 저혈량성 쇼크에 따른 증상을 수행하도록 제어하는, 전자 장치.
According to clause 4,
The processor,
When the virtual patient matches at least one of a bleeding patient, a burn patient, and a dehydration patient, an electronic device that controls to perform symptoms according to pre-registered hypovolemic shock on the virtual patient.
제4 항에 있어서,
상기 프로세서는,
선택된 모드가 연습용 응급실 모드인 경우, 상기 제1 시나리오 내지 상기 제3 시나리오에 대한 인터랙션이 일정 시간 내에 미획득되면, 상기 VR 장치를 통해, 상기 사용자에게 가이드 이미지를 제공하고,
상기 제1 시나리오 내지 상기 제3 시나리오 중, 상기 가이드 이미지가 제공된 시나리오를 상기 VR 장치를 통해 상기 사용자에게 다시 제공하는, 전자 장치.
According to clause 4,
The processor,
When the selected mode is a practice emergency room mode, if interaction for the first to third scenarios is not obtained within a certain time, a guide image is provided to the user through the VR device,
An electronic device that provides a scenario in which the guide image is provided among the first to third scenarios again to the user through the VR device.
제4 항에 있어서,
상기 프로세서는,
선택된 모드가 실전용 응급실 모드인 경우, 상기 가상의 환자에 대해 골든타임이 식별되면, 상기 식별된 골든타임에 대한 카운터를 상기 VR 장치를 통해 상기 사용자에게 제공하고,
상기 가상의 환자에 대해 기 설정된 조치에 대한 인터랙션이 상기 식별된 골든타임 내에 미획득되면, 상기 가상의 환자에 대해, 쇼크에 따른 증상을 수행하도록 제어하는, 전자 장치.
According to clause 4,
The processor,
When the selected mode is a practical emergency room mode, when a golden time is identified for the virtual patient, a counter for the identified golden time is provided to the user through the VR device,
An electronic device that controls the virtual patient to perform symptoms of shock when an interaction for a preset action is not obtained within the identified golden time.
가상현실 기반 저혈량성 쇼크 대상자 간호 시뮬레이션 교육 프로그램을 제공하는 VR 장치에 있어서,
메모리;
VR(Virtual Reality) 인터랙션(Interaction)을 기반으로, 적어도 하나의 시나리오를 사용자에게 제공하기 위해, VR 영상을 제공하는 디스플레이 모듈;
상기 사용자로부터 인터랙션을 획득하기 위한 컨트롤러; 및
상기 메모리, 상기 디스플레이 모듈, 및 상기 컨트롤러와 연결된 제어부;를 포함하고,
상기 제어부는,
상기 컨트롤러를 통해 획득된 사용자 명령에 따라 응급실 모드가 선택되면, 상기 디스플레이 모듈을 통해 임상실습 시나리오를 상기 사용자에게 제공하고,
상기 임상실습 시나리오에 대해, 상기 컨트롤러를 통해, 획득된 인터랙션을 실습 정보로 상기 메모리에 저장하고,
상기 컨트롤러를 통해 획득된 사용자 명령에 따라 강의실 모드가 선택되면, 상기 디스플레이 모듈을 통해 가상의 강의실에 대한 이미지를 사용자에게 제공하고,
상기 사용자에 대해 등록된 개인 캐릭터를 상기 가상의 강의실에 출력하여, 상기 컨트롤러를 통해 획득된 인터랙션을 기반으로 동작하도록 제어하고,
상기 사용자에 대해 등록된 강의 스케줄을 바탕으로, 상기 가상의 강의실에 포함된 가상의 디스플레이에 대해 기 등록된 강의 영상을 출력하고,
상기 출력된 강의 영상에 대해, 가상의 해부도 및 가상의 도구를 상기 디스플레이 모듈을 통해 상기 사용자에게 제공하고,
상기 컨트롤러를 통해 상기 사용자로부터, 상기 가상의 해부도에 대해 상기 가상의 도구를 사용하는 것에 대한 인터랙션을 획득하는, VR 장치.
In the VR device that provides a virtual reality-based nursing simulation education program for hypovolemic shock patients,
Memory;
A display module that provides VR images to provide at least one scenario to a user based on VR (Virtual Reality) interaction;
a controller for obtaining interaction from the user; and
Includes a control unit connected to the memory, the display module, and the controller,
The control unit,
When the emergency room mode is selected according to a user command obtained through the controller, a clinical practice scenario is provided to the user through the display module,
For the clinical practice scenario, the acquired interactions are stored in the memory as practice information through the controller,
When the classroom mode is selected according to a user command obtained through the controller, an image of the virtual classroom is provided to the user through the display module,
Outputting the personal character registered for the user to the virtual classroom and controlling it to operate based on the interaction obtained through the controller,
Based on the lecture schedule registered for the user, output a pre-registered lecture video on a virtual display included in the virtual classroom,
For the output lecture video, provide a virtual anatomy diagram and virtual tools to the user through the display module,
A VR device that obtains, through the controller, interaction from the user about using the virtual tool on the virtual anatomy.
KR1020220060745A 2022-05-18 2022-05-18 Electronic apparatus providing nursing simulation education program for virtual reality based, and virtual reality apparatus KR20230161117A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220060745A KR20230161117A (en) 2022-05-18 2022-05-18 Electronic apparatus providing nursing simulation education program for virtual reality based, and virtual reality apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220060745A KR20230161117A (en) 2022-05-18 2022-05-18 Electronic apparatus providing nursing simulation education program for virtual reality based, and virtual reality apparatus

Publications (1)

Publication Number Publication Date
KR20230161117A true KR20230161117A (en) 2023-11-27

Family

ID=88968008

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220060745A KR20230161117A (en) 2022-05-18 2022-05-18 Electronic apparatus providing nursing simulation education program for virtual reality based, and virtual reality apparatus

Country Status (1)

Country Link
KR (1) KR20230161117A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101591775B1 (en) 2014-08-06 2016-02-05 원도연 Equipment of education for vascular photography

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101591775B1 (en) 2014-08-06 2016-02-05 원도연 Equipment of education for vascular photography

Similar Documents

Publication Publication Date Title
US20230282329A1 (en) Computerized systems and methods for ai/ml determinations of user capabilities and fitness for military operations
US20220331663A1 (en) System and Method for Using an Artificial Intelligence Engine to Anonymize Competitive Performance Rankings in a Rehabilitation Setting
KR102266310B1 (en) Method, apparatus and coumputer-readable medium of artificial intelligence based instructional content recommendation for dementia care enhancing cognitive ability
US9198622B2 (en) Virtual avatar using biometric feedback
Karyotaki et al. Online and other ICT Applications for Cognitive Training and Assessment.
US10089895B2 (en) Situated simulation for training, education, and therapy
US11373383B2 (en) Immersive ecosystem
US11612341B2 (en) Systems and methods for assessment and measurement of reaction time in virtual/augmented reality
JP2016521145A (en) Perception-cognition-motor learning system and method
CA3228550A1 (en) Method and system for analysing activity performance of users through smart mirror
US20180247714A1 (en) Methods and apparatuses for monitoring condition of object in medical imaging
Sharma et al. Sensing technologies and child–computer interaction: Opportunities, challenges and ethical considerations
JP2023015042A (en) Platform for identification of biomarkers using navigation tasks and treatments using navigation tasks
CN117541445A (en) Talent training method, system, equipment and medium for virtual environment interaction
Cao et al. Intelligent physical education teaching tracking system based on multimedia data analysis and artificial intelligence
CN117541444B (en) Interactive virtual reality talent expression training method, device, equipment and medium
KR20230161117A (en) Electronic apparatus providing nursing simulation education program for virtual reality based, and virtual reality apparatus
JP5362744B2 (en) Method, system, and computer-readable recording medium for providing simulation with subsequent notice
CA3233781A1 (en) Mental health intervention using a virtual environment
CA3176236C (en) Method and system for using sensor data from rehabilitation or exercise equipment to treat patients via telemedicine
Huang et al. Body in motion, attention in focus: A virtual reality study on teachers' movement patterns and noticing
KR102645240B1 (en) Electronic device for diagnosing myocardial infarction based on image about electrocardiogram, and control method
US20230237920A1 (en) Augmented reality training system
Ruge-Vera et al. Convulsive treatment game-based training app
Sarrafzadeh et al. Intelligent Affect-Sensitive Tutoring Systems: An Evaluative Case Study and Future Directions

Legal Events

Date Code Title Description
E902 Notification of reason for refusal