KR20230055779A - Method for providing automatic contents customzing service for virtual reality exposure therapy - Google Patents

Method for providing automatic contents customzing service for virtual reality exposure therapy Download PDF

Info

Publication number
KR20230055779A
KR20230055779A KR1020210139558A KR20210139558A KR20230055779A KR 20230055779 A KR20230055779 A KR 20230055779A KR 1020210139558 A KR1020210139558 A KR 1020210139558A KR 20210139558 A KR20210139558 A KR 20210139558A KR 20230055779 A KR20230055779 A KR 20230055779A
Authority
KR
South Korea
Prior art keywords
user terminal
user
content
exposure
event
Prior art date
Application number
KR1020210139558A
Other languages
Korean (ko)
Inventor
정인혜
Original Assignee
아이콘테크놀러지스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이콘테크놀러지스(주) filed Critical 아이콘테크놀러지스(주)
Priority to KR1020210139558A priority Critical patent/KR20230055779A/en
Publication of KR20230055779A publication Critical patent/KR20230055779A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense

Abstract

VR 노출치료 자동화 서비스 제공 방법이 제공되며, 사용자 단말로 진단평가설문을 전송하고, 사용자 단말로부터 수신된 사용자 정보 및 응답 데이터에 기반하여 노출 단계(Level)를 결정하는 단계, 결정된 노출 단계의 VR 콘텐츠를 사용자 단말로 전송하여 디스플레이되도록 하는 단계, 사용자 단말에서 발생하는 이벤트를 모니터링하는 단계, 모니터링된 이벤트가 기 설정된 불안감 상승 이벤트와 일치하는 경우, 사용자 단말로 사용자의 상태를 체크하는 팝업 UI(User Interface)를 제공하는 단계 및 사용자 단말로부터 팝업 UI를 통하여 반응을 확인한 후, 반응에 기 매핑되어 저장된 3D 오브젝트(Object)를 제어하는 단계를 포함한다.Provided is a method for providing an automated VR exposure treatment service, transmitting a diagnostic evaluation questionnaire to a user terminal, determining an exposure level based on user information and response data received from the user terminal, and VR content of the determined exposure level. Transmitting to a user terminal to be displayed, monitoring an event occurring in the user terminal, and when the monitored event coincides with a preset anxiety-increasing event, a pop-up UI (User Interface) that checks the user's status with the user terminal ) and controlling a 3D object previously mapped and stored to the reaction after confirming the reaction from the user terminal through a pop-up UI.

Description

VR 노출치료 자동화 서비스 제공 방법{METHOD FOR PROVIDING AUTOMATIC CONTENTS CUSTOMZING SERVICE FOR VIRTUAL REALITY EXPOSURE THERAPY}VR exposure therapy automation service provision method {METHOD FOR PROVIDING AUTOMATIC CONTENTS CUSTOMZING SERVICE FOR VIRTUAL REALITY EXPOSURE THERAPY}

본 발명은 VR 노출치료 자동화 서비스 제공 방법에 관한 것으로, VR 노출치료를 위한 VR 콘텐츠를 제공할 때 사용자의 불안함 정도를 UI 팝업으로 확인하여 3D 오브젝트를 자동으로 제어할 수 있는 플랫폼을 제공한다.The present invention relates to a method for providing an automated VR exposure treatment service, and provides a platform capable of automatically controlling a 3D object by confirming a user's level of anxiety through a UI pop-up when VR content for VR exposure treatment is provided.

가상현실 기술은 미래 우리의 생활에 미칠 파급효과가 큰 주목해야 할 기술 중 하나이다. 현재 다양한 분야에서 사용되고 있는 가상현실 기술은 특히 의료분야에 있어 새로운 패러다임을 제공하고, 이를 이용한 공포증 치료는 국내외에서 시행되고 있으며, 치료효과 면에서도 효과성을 인정받아 점점 그 입지를 굳혀가고 있다. 특히, 가상현실 기술을 이용하여 정신과 치료를 시도한 것은 공포증 치료인데, 가상현실 기술을 이용한 치료 중 가장 긴 역사를 가지고 있다. 가상현실 환경 및 상황 내에서 사용자의 오감을 자극하는 요소를 함께하여 실제와 유사한 공간적, 시간적 체험을 하게 됨으로써 현실과 상상의 경계를 자유롭게 드나들게 할 수 있게 해준다. 정신적으로 장애를 겪고 있는 환자들을 대상으로 일반적인 치료 방식에 가상현실 기술을 적용하여 치료에 도움을 주는 방법을 채택하고 있는 것이다. Virtual reality technology is one of the most noteworthy technologies that will have a great ripple effect on our lives in the future. Currently, virtual reality technology, which is used in various fields, provides a new paradigm, especially in the medical field, and phobia treatment using it is being implemented at home and abroad, and its effectiveness in terms of treatment effect is recognized and its position is gradually solidified. In particular, psychiatric treatment using virtual reality technology is attempted to treat phobias, and it has the longest history among treatments using virtual reality technology. In the virtual reality environment and situation, elements that stimulate the user's five senses are combined to provide a spatial and temporal experience similar to reality, allowing them to freely move in and out of the boundary between reality and imagination. It is adopting a method to help treatment by applying virtual reality technology to the general treatment method for patients suffering from mental disorders.

이때, 손가락 재활치료를 센서리스 기반으로 VR 환경에서 제공하거나 사고나 재난에 대응하는 훈련을 VR 환경에서 실행하는 방법이 연구 및 개발되었는데, 이와 관련하여 선행기술인 한국등록특허 제10-1936082호(2019년04월03일 공고) 및 한국공개특허 제2020-0095174호(2020년08월10일 공개)에는, 손가락 재활치료영상을 출력하여 재활대상자의 운동을 유도하고, 리얼센스 카메라를 통하여 손가락 센서 또는 센싱 장갑 없이도 재활운동을 트래킹할 수 있는 구성과, 플랜트 내 비상상황에 대해 조업자 훈련을 위해 플랜트 정보를 저장하고, 비상상황에서 탈출가능한 안전경로를 산정하며, 조업자 개인성향에 따라 안전경로를 선택할 수 있도록 옵션을 제공하고, 출구산정이 완료된 상태에서 조업자 개개인의 신체조건, 운동신경 및 공포나 두려움 정도를 반영하여 조업자에게 적합한 경로에 따른 출구를 선택할 수 있도록 유도하며 맞춤형 피난경로를 제시하여 생존가능성을 높일 수 있는 구성이 각각 개시되어 있다.At this time, a method of providing finger rehabilitation treatment in a VR environment based on a sensorless system or performing training to respond to an accident or disaster in a VR environment has been researched and developed. Announced on April 03, 2020) and Korean Patent Publication No. 2020-0095174 (published on August 10, 2020), a finger rehabilitation treatment image is output to induce exercise of a rehabilitation subject, and a finger sensor or A configuration that can track rehabilitation exercises without sensing gloves, plant information is stored for operator training in emergency situations in the plant, safety routes that can be escaped in emergency situations are calculated, and safety routes are determined according to the operator's personal preference. Provides options for the operator to choose, and induces the operator to select an exit according to the route suitable for the operator by reflecting the individual operator's physical condition, motor nerve, and level of fear or fear after the exit calculation is completed, and presents a customized evacuation route Thus, configurations capable of increasing survivability are disclosed.

다만, 전자의 경우 신체적인 치료 목적의 VR을 제공할 뿐 정신적인 치료 목적의 VR을 제공하는 것이 아니기 때문에 현재 치료대상자의 심리상태나 불안정도를 파악하는 구성이 개시되어 있지 않다. 후자의 경우에도 개인의 선호도나 신체상태를 기반으로 긴급피난을 위한 최적경로를 제공할 뿐, 사용자의 실시간 불안감이나 심리상태를 파악할 수 없다. 심리상태를 측정하기 위한 센서 기반 VR 노출치료가 다수 연구 및 개발되고 있으나, 고가의 센서가 필수적이기 때문에 비용 문제가 발생하고, 사용자의 심리상태를 관찰하여 의료진 또는 상담사가 수동으로 VR 콘텐츠 내 3D 오브젝트를 수동으로 바꾸거나 변경해야 하기 때문에 인간의 개입이 필수적이다. 이에, VR 노출치료 기반 센서를 적용하지 않으면서도 사용자의 심리상태를 자동으로 반영하여 3D 오브젝트를 커스터마이징하여 제공할 수 있는 플랫폼의 연구 및 개발이 요구된다.However, since the former only provides VR for the purpose of physical treatment, not VR for the purpose of mental treatment, the configuration for understanding the psychological state or instability of the current treatment subject is not disclosed. Even in the latter case, the optimal route for emergency evacuation is provided based on individual preference or physical condition, but the user's real-time anxiety or psychological state cannot be grasped. A number of sensor-based VR exposure treatments are being researched and developed to measure the psychological state, but cost problems arise because expensive sensors are essential. Human intervention is essential because you have to manually change or change the Therefore, research and development of a platform that can provide customized 3D objects by automatically reflecting the user's psychological state without applying VR exposure therapy-based sensors is required.

본 발명의 일 실시예는, VR 노출치료를 진행할 때 인간의 개입이나 센서의 장착 없이도 사용자의 불안함 정도를 사용자 단말로부터 모니터링되는 적어도 하나의 이벤트로 감지한 후, 사용자의 반응을 UI 팝업으로 확인받아 VR 콘텐츠 내 배치되는 적어도 하나의 3D 오브젝트를 제어함으로써 불안함이 상승되는 경우에는 노출강도 및 현실반영도를 낮추고, 불안함이 저하되는 경우에는 노출강도 및 현실반영도를 높임으로써 의료진이나 상담자와 같은 인간의 개입이 없이도 자동으로 사용자의 반응을 모니터링 및 확인한 후 3D 오브젝트를 제어 및 커스터마이징할 수 있는, VR 노출치료 자동화 서비스 제공 시스템을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment of the present invention, when performing VR exposure treatment, detects the level of anxiety of the user as at least one event monitored from the user terminal without human intervention or mounting of a sensor, and then confirms the user's reaction through a UI pop-up By controlling at least one 3D object placed in the VR content, the exposure intensity and reality reflection are lowered when anxiety is increased, and the exposure intensity and reality reflection are increased when anxiety is decreased, so that medical staff and counselors can communicate with each other. It is possible to provide a VR exposure treatment automation service providing system capable of controlling and customizing a 3D object after automatically monitoring and confirming a user's reaction without human intervention. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 사용자 단말로 진단평가설문을 전송하고, 사용자 단말로부터 수신된 사용자 정보 및 응답 데이터에 기반하여 노출 단계(Level)를 결정하는 단계, 결정된 노출 단계의 VR 콘텐츠를 사용자 단말로 전송하여 디스플레이되도록 하는 단계, 사용자 단말에서 발생하는 이벤트를 모니터링하는 단계, 모니터링된 이벤트가 기 설정된 불안감 상승 이벤트와 일치하는 경우, 사용자 단말로 사용자의 상태를 체크하는 팝업 UI(User Interface)를 제공하는 단계 및 사용자 단말로부터 팝업 UI를 통하여 반응을 확인한 후, 반응에 기 매핑되어 저장된 3D 오브젝트(Object)를 제어하는 단계를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention transmits a diagnostic evaluation questionnaire to a user terminal, and determines an exposure level based on user information and response data received from the user terminal. Step of transmitting the VR content at the determined exposure stage to the user terminal so that it is displayed, monitoring an event occurring in the user terminal, if the monitored event coincides with a preset anxiety-increasing event, the user terminal to the user terminal A step of providing a pop-up user interface (UI) for checking a state, and a step of controlling a stored 3D object mapped to the reaction after confirming a reaction from a user terminal through the pop-up UI.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, VR 노출치료를 진행할 때 인간의 개입이나 센서의 장착 없이도 사용자의 불안함 정도를 사용자 단말로부터 모니터링되는 적어도 하나의 이벤트로 감지한 후, 사용자의 반응을 UI 팝업으로 확인받아 VR 콘텐츠 내 배치되는 적어도 하나의 3D 오브젝트를 제어함으로써 불안함이 상승되는 경우에는 노출강도 및 현실반영도를 낮추고, 불안함이 저하되는 경우에는 노출강도 및 현실반영도를 높임으로써 의료진이나 상담자와 같은 인간의 개입이 없이도 자동으로 사용자의 반응을 모니터링 및 확인한 후 3D 오브젝트를 제어 및 커스터마이징할 수 있다.According to any one of the above-described problem solving means of the present invention, when the VR exposure treatment is performed, the level of anxiety of the user is detected as at least one event monitored from the user terminal without human intervention or mounting of a sensor, and then the user's By controlling at least one 3D object placed in the VR content after confirming the reaction as a UI pop-up, if the anxiety increases, the exposure intensity and reality reflection are lowered, and if the anxiety is reduced, the exposure intensity and reality reflection are lowered. By raising the object, it is possible to control and customize the 3D object after automatically monitoring and confirming the user's reaction without human intervention such as a medical staff or counselor.

도 1은 본 발명의 일 실시예에 따른 VR 노출치료 자동화 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 자동화 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 VR 노출치료 자동화 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 VR 노출치료 자동화 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram for explaining a VR exposure treatment automation service providing system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an automated service providing server included in the system of FIG. 1 .
3 and 4 are diagrams for explaining an embodiment in which an automated VR exposure treatment service according to an embodiment of the present invention is implemented.
5 is an operational flowchart illustrating a method for providing an automated VR exposure treatment service according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is the terminal's identifying data. can be interpreted as

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 VR 노출치료 자동화 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, VR 노출치료 자동화 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 자동화 서비스 제공 서버(300), 적어도 하나의 HMD(400)를 포함할 수 있다. 다만, 이러한 도 1의 VR 노출치료 자동화 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram for explaining a VR exposure treatment automation service providing system according to an embodiment of the present invention. Referring to FIG. 1 , the VR exposure therapy automated service providing system 1 may include at least one user terminal 100, an automated service providing server 300, and at least one HMD 400. However, since the VR exposure treatment automation service providing system 1 of FIG. 1 is only one embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1 .

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(Network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 자동화 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 자동화 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100) 및 적어도 하나의 HMD(400)와 연결될 수 있다. 또한, 적어도 하나의 HMD(400)는, 네트워크(200)를 통하여 사용자 단말(100) 및 자동화 서비스 제공 서버(300)와 연결될 수 있다. At this time, each component of FIG. 1 is generally connected through a network (Network, 200). For example, as shown in FIG. 1 , at least one user terminal 100 may be connected to an automation service providing server 300 through a network 200 . In addition, the automation service providing server 300 may be connected to at least one user terminal 100 and at least one HMD 400 through the network 200 . In addition, at least one HMD 400 may be connected to the user terminal 100 and the automation service providing server 300 through the network 200 .

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷(WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), 5GPP(5th Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), RF(Radio Frequency), 블루투스(Bluetooth) 네트워크, NFC(Near-Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure capable of exchanging information between nodes such as a plurality of terminals and servers, and examples of such networks include a local area network (LAN) and a wide area network (WAN: Wide Area Network), the Internet (WWW: World Wide Web), wired and wireless data communications networks, telephone networks, and wired and wireless television communications networks. Examples of wireless data communication networks include 3G, 4G, 5G, 3rd Generation Partnership Project (3GPP), 5th Generation Partnership Project (5GPP), Long Term Evolution (LTE), World Interoperability for Microwave Access (WIMAX), Wi-Fi , Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), RF (Radio Frequency), Bluetooth (Bluetooth) network, NFC ( A Near-Field Communication (Near-Field Communication) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, etc. are included, but not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term at least one is defined as a term including singular and plural, and even if at least one term does not exist, each component may exist in singular or plural, and may mean singular or plural. It will be self-evident. In addition, the singular or plural number of each component may be changed according to embodiments.

적어도 하나의 사용자 단말(100)은, VR 노출치료 자동화 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 VR 노출치료를 받는 내담자, 환자 등의 단말일 수 있다. 사용자 단말(100)은 진단평가설문을 자동화 서비스 제공 서버(300)로부터 수신하고, 이에 대한 응답을 전송할 때 사용자 정보를 함께 전송하는 단말일 수 있다. 그리고, 사용자 단말(100)은, HMD(400)와 연결되어 자동화 서비스 제공 서버(300)로부터 수신되는 VR 콘텐츠를 출력하는 단말일 수 있다. 또한, 사용자 단말(100)은, 사용자의 응답을 수신하여 자동화 서비스 제공 서버(300)로 전송하고, 자동화 서비스 제공 서버(300)에서 실시간으로 제어되는 3D 오브젝트가 삭제, 추가 또는 변형된 VR 콘텐츠를 실시간으로 스트리밍받아 출력하는 단말일 수 있다.At least one user terminal 100 may be a terminal such as a client or a patient who receives VR exposure therapy using a web page, app page, program, or application related to VR exposure therapy automation service. The user terminal 100 may be a terminal that receives a diagnostic evaluation questionnaire from the automation service providing server 300 and transmits user information when transmitting a response thereto. Also, the user terminal 100 may be a terminal that is connected to the HMD 400 and outputs VR contents received from the automation service providing server 300 . In addition, the user terminal 100 receives the user's response and transmits it to the automation service providing server 300, and the 3D object controlled in real time by the automation service providing server 300 is deleted, added or modified VR content. It may be a terminal that receives and outputs streaming in real time.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100 is, for example, a wireless communication device that ensures portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet ) may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

자동화 서비스 제공 서버(300)는, VR 노출치료 자동화 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 자동화 서비스 제공 서버(300)는, 진단평가설문을 저장하고, 응답 데이터 및 사용자 정보에 기반한 노출 단계를 기 매핑하여 저장하는 서버일 수 있다. 또한, 자동화 서비스 제공 서버(300)는, 노출 단계와 VR 콘텐츠를 매핑하여 저장하고, 사용자 단말(100)로부터 감지해야 할 이벤트의 종류 및 이벤트 데이터를 저장하는 서버일 수 있다. 그리고, 자동화 서비스 제공 서버(300)는, 모니터링된 이벤트가 기 설정된 불안감 상승 이벤트와 일치하는 경우 사용자 단말(100)로 사용자의 상태를 체크하는 팝업 UI(User Interface)를 제공하도록 팝업 UI도 함께 매핑하여 저장하는 서버일 수 있다. 또한, 자동화 서비스 제공 서버(300)는, 팝업 UI를 통하여 반응을 확인한 후, 반응에 기 매핑되어 저장된 3D 오브젝트(Object)를 제어하고, 변경, 삭제 및 추가된 3D 오브젝트가 포함된 VR 콘텐츠를 사용자 단말(100)로 실시간 스트리밍하는 서버일 수 있다.The automation service providing server 300 may be a server that provides a VR exposure treatment automation service web page, app page, program or application. In addition, the automated service providing server 300 may be a server that stores diagnostic evaluation questionnaires and pre-maps and stores exposure steps based on response data and user information. In addition, the automation service providing server 300 may be a server that maps and stores exposure steps and VR content, and stores event data and types of events to be sensed from the user terminal 100 . In addition, the automation service providing server 300 maps a pop-up UI to provide a pop-up UI (User Interface) for checking the user's condition to the user terminal 100 when the monitored event coincides with a preset anxiety-increasing event. It may be a server that stores In addition, after checking the reaction through the pop-up UI, the automation service providing server 300 controls the stored 3D object mapped to the reaction, and provides VR content including the changed, deleted, and added 3D object to the user. It may be a server that streams to the terminal 100 in real time.

여기서, 자동화 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the automation service providing server 300 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser.

적어도 하나의 HMD(400)는, VR 노출치료 자동화 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하거나 이용하지 않고 VR 콘텐츠를 자동화 서비스 제공 서버(300)로부터 사용자 단말(100)을 경유하여 출력하는 장치일 수 있다.At least one HMD 400 outputs VR content from the automation service providing server 300 via the user terminal 100 with or without using a web page, app page, program or application related to VR exposure treatment automation service. It may be a device that

여기서, 적어도 하나의 HMD(400)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 HMD(400)는, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 HMD(400)는, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(Smartphone), 스마트 패드(Smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, at least one HMD 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a laptop, a desktop, a laptop, and the like equipped with a navigation system and a web browser. In this case, at least one HMD 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one HMD 400 is, for example, a wireless communication device that ensures portability and mobility, and includes navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) It may include all types of handheld-based wireless communication devices such as terminals, smartphones, smart pads, tablet PCs, and the like.

도 2는 도 1의 시스템에 포함된 자동화 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3 및 도 4는 본 발명의 일 실시예에 따른 VR 노출치료 자동화 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.2 is a block diagram illustrating an automated service providing server included in the system of FIG. 1, and FIGS. 3 and 4 describe an embodiment in which an automated VR exposure treatment service is implemented according to an embodiment of the present invention. It is a drawing for

도 2를 참조하면, 자동화 서비스 제공 서버(300)는, 결정부(310), 디스플레이부(320), 모니터링부(330), 팝업부(340) 및 제어부(350)를 포함할 수 있다.Referring to FIG. 2 , the automated service providing server 300 may include a determining unit 310 , a display unit 320 , a monitoring unit 330 , a pop-up unit 340 and a control unit 350 .

본 발명의 일 실시예에 따른 자동화 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100) 및 적어도 하나의 HMD(400)로 VR 노출치료 자동화 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100) 및 적어도 하나의 HMD(400)는, VR 노출치료 자동화 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100) 및 적어도 하나의 HMD(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: World Wide Web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(Hyper Text Mark-up Language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(Chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(Application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(App)을 포함한다.An automated service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one user terminal 100 and at least one HMD 400 is a VR exposure treatment automation service application. , When transmitting a program, app page, web page, etc., at least one user terminal 100 and at least one HMD 400 install a VR exposure treatment automation service application, program, app page, web page, etc. can be opened In addition, a service program may be driven in at least one user terminal 100 and at least one HMD 400 by using a script executed in a web browser. Here, the web browser is a program that allows users to use the web (WWW: World Wide Web) service, and means a program that receives and displays hypertext described in HTML (Hyper Text Mark-up Language). For example, Netscape , Explorer, Chrome, and the like. In addition, an application means an application on a terminal, and includes, for example, an app running on a mobile terminal (smart phone).

도 2를 참조하면, 결정부(310)는, 사용자 단말(100)로 진단평가설문을 전송하고, 사용자 단말(100)로부터 수신된 사용자 정보 및 응답 데이터에 기반하여 노출 단계(Level)를 결정할 수 있다. 이때, 자동화 서비스 제공 서버(300)는, [진단평가설문-응답 데이터-노출 단계]가 기 매핑되어 저장되고, 노출 단계와 VR 콘텐츠가 기 매핑되어 저장되어 최종적으로 [진단평가설문-응답 데이터-노출 단계-VR 콘텐츠]와 같은 데이터베이스를 구축할 수 있다. Referring to FIG. 2 , the determination unit 310 may transmit a diagnostic evaluation questionnaire to the user terminal 100 and determine an exposure level based on user information and response data received from the user terminal 100. there is. At this time, in the automated service providing server 300, the [diagnostic evaluation questionnaire-response data-exposure step] is pre-mapped and stored, the exposure step and VR content are pre-mapped and stored, and finally [diagnostic evaluation questionnaire-response data- exposure stage-VR content].

디스플레이부(320)는, 결정된 노출 단계의 VR 콘텐츠를 사용자 단말(100)로 전송하여 디스플레이되도록 할 수 있다. 이때 노출 단계는 최초 1 회 진단으로 세팅되는 최초 세팅을 위한 노출 단계이므로 고정된 것이 아니고 후술하는 사용자의 반응에 따라 지속적으로 증감될 수 있다. 사용자 단말(100)은 VR 콘텐츠를 출력하는 HMD(Head Mounted Display, 400)와 연결될 수 있다.The display unit 320 may transmit the VR content of the determined exposure stage to the user terminal 100 to be displayed. At this time, the exposure step is not fixed because it is an exposure step for the initial setting that is set for the first one-time diagnosis, and can be continuously increased or decreased according to the user's response to be described later. The user terminal 100 may be connected to a Head Mounted Display (HMD) 400 that outputs VR content.

모니터링부(330)는, 사용자 단말(100)에서 발생하는 이벤트를 모니터링할 수 있다. 이때, 사용자 단말(100)에서 발생하는 이벤트란, 사용자 단말(100)로 입력되거나 사용자 단말(100)에서 감지되는 모든 종류의 데이터를 의미할 수 있다. 모니터링부(330)는, 사용자 단말(100)에서 발생하는 이벤트를 모니터링할 때, 사용자의 눈동자의 위치 및 동공의 크기와, 사용자의 음성 및 숨소리와, 적어도 하나의 인체 부위를 촬영한 사진을 분석할 수 있다. 사용자 단말(100)은 HMD(400)(Head Mounted Display)와 연결되고, HMD(400)는 눈동자의 위치를 추적 및 동공의 크기를 모니터링하는 아이트래킹 모듈과, 사용자의 음성 및 숨소리를 입력받는 마이크를 더 포함할 수 있다. 사용자 단말(100)은 사용자를 촬영하는 카메라를 포함하고, 카메라는 적어도 하나의 인체 부위를 촬영할 수 있다. 이러한 경우 별도의 심박수 센서 등을 이용하지 않더라도 영상 또는 소리 기반으로 사용자의 흥분상태, 불안감 상태 등을 확인할 수 있다.The monitoring unit 330 may monitor events occurring in the user terminal 100 . In this case, the event occurring in the user terminal 100 may mean all types of data input to the user terminal 100 or detected by the user terminal 100 . When monitoring an event occurring in the user terminal 100, the monitoring unit 330 analyzes the position and pupil size of the user's pupil, the user's voice and breathing sound, and a photograph of at least one body part. can do. The user terminal 100 is connected to an HMD 400 (Head Mounted Display), and the HMD 400 includes an eye tracking module that tracks the position of the pupil and monitors the size of the pupil, and a microphone that receives the user's voice and breathing sound. may further include. The user terminal 100 includes a camera that photographs the user, and the camera may photograph at least one body part. In this case, even if a separate heart rate sensor or the like is not used, the user's excitement state or anxiety state can be confirmed based on an image or sound.

사람이 흥분하거나 불안할 때에는 다리를 떨거나, 동공의 크기가 변화하거나 손톱을 물어뜯거나 안절부절하지 못하는 모습을 보일 수 있고, 입을 앙 다문 자세로 턱근육이 경직될 수도 있으며 숨소리가 거칠어지거나 호흡을 제대로 하지 못하는 등의 신체변화가 일어난다. 이를 소리 및 영상 기반으로 분석하여 체크한 후 사용자에게 다시 한 번 팝업 UI로 컨펌받음으로써 각 개인마다 반응하는 상황과 불안 정도를 매핑하여 저장할 수 있고, 이에 따라 개인화된 3D 오브젝트를 제공할 수 있게 된다.When a person is excited or anxious, they may tremble their legs, change the size of their pupils, bite their nails, or show restlessness. Bodily changes occur, such as not being able to do it properly. After analyzing and checking based on sound and image, the user is confirmed once again through the pop-up UI, so that each individual's reaction situation and anxiety level can be mapped and stored, and personalized 3D objects can be provided accordingly. .

<동공><pupil>

동공은 홍채의 중심에 위치한 원모양의 빈 공간으로, 망막으로 도달되는 빛의 양을 최적화하는 기능을 한다. 부교감신경에 의해 동공조임근이 자극을 받으면 동공은 수축되고 교감신경에 의해 동공확대근이 자극을 받으면 동공은 확장된다. 동공 크기는 동공의 가로 지름을 칭하며 정신적 노력 혹은 인지부하가 증가할수록 확장되고 조도, 연령, 피로, 약물 복용 등에 의해서도 변화된다. 동공크기는 비간섭적이고 지속적으로 측정될 수 있고 심리적 상태에 즉각 반응하므로 불안감 또는 흥분도와 같은 상태의 변화를 민감하게 포착할 수 있다.The pupil is a circular empty space located in the center of the iris, and functions to optimize the amount of light reaching the retina. When the pupillary sphincter is stimulated by the parasympathetic nerve, the pupil constricts, and when the dilated muscle is stimulated by the sympathetic nerve, the pupil dilates. Pupil size refers to the transverse diameter of the pupil and expands as mental effort or cognitive load increases, and is also changed by illumination, age, fatigue, and drug intake. Pupil size can be measured non-intrusively and continuously, and responds immediately to psychological states, so that changes in states such as anxiety or excitability can be sensitively captured.

동공 크기를 정확하게 측정하기 위해 고려해야 할 사항은 다음과 같다. 동공의 구형성 등을 정밀하게 계산하고 순간적인 눈의 움직임과 동공의 크기를 포착하는 아이트래커를 이용할 수 있다. 이때, 동공 크기를 산출할 시 사용자별 기저반응(Baseline)을 고려해야 한다. 기저반응이란 사용자가 자극에 노출되기 전에 수집된 생리심리 데이터로 연구대상자 개인의 육체적, 정신적 상태에 대한 기초 평가이다. VR 콘텐츠를 재생하기 전 생리심리 반응 분석의 기준 역할을 하며 동공의 개인차를 통제할 수 있다. 동공은 명암 및 밝기에 민감하게 반응하므로 이러한 물리적 자극으로 인한 영향도 최소화해야 한다. 이에 따라, 동공 크기가 개인의 기저반응보다 크게 증가했다면 불안도가 증가했다고 가정한다. 여기서, 조도를 통제한 환경에서 아이트래커로 측정된 사용자의 동공 크기 원값(Raw Measures)에서 사용자의 기저반응을 뺀 값을 동공 크기로 보고, 동공 크기에 따라 불안감의 수준을 판단할 수 있다.Here are some things to consider to accurately measure pupil size: An eye tracker can be used that precisely calculates the sphericity of the pupil and captures the instantaneous eye movement and pupil size. At this time, when calculating the pupil size, the baseline for each user should be considered. The baseline response is the physiological and psychological data collected before the user is exposed to the stimulus, which is a basic evaluation of the physical and mental state of the individual research subject. It serves as a standard for physiological and psychological response analysis before playing VR content and can control individual differences in pupils. Since the pupil reacts sensitively to contrast and brightness, the effects of these physical stimuli should also be minimized. Accordingly, it is assumed that anxiety increased if pupil size increased more than the individual's baseline response. Here, a value obtained by subtracting the user's basal response from raw measures of the user's pupil size measured by the eye tracker in an environment in which illumination is controlled is regarded as the pupil size, and the level of anxiety may be determined according to the pupil size.

<호흡><breathing>

호흡의 구분은 불수의호흡과 수의호흡의 두 종류로 나뉘어진다. 불수의호흡은 뇌의 뇌간이나 연수의 호흡중추 활동과 결부되어 있다. 수의호흡은 언어활동과 결부되어 대뇌피질 활동과 연관되어 있으므로 이 활동은 의식호흡에서만 가능하지만 보통의 상태에서는 이 두 종류가 섞여 합해져 있다고 볼 수 있다. 생리적 긴장이완 또는 긴장상태에서 호흡은 깊이와 횟수, 들숨과 날숨의 관계에 영향을 주게 된다. 스트레스상태에서 호흡이 가빠지는 과호흡증후군의 경우도 혈압을 재거나 산소포화도를 측정하는 장비가 없어도 들숨과 날숨의 주기, 패턴, 소리의 크기, 깊이 등을 측정하게 되면 흥분도나 불안감을 측정할 수 있다.Respiration is divided into two types: involuntary respiration and voluntary respiration. Involuntary breathing is associated with activity in the respiratory center of the brainstem or medulla oblongata. Veterinary breathing is related to cerebral cortical activity in connection with language activity, so this activity is possible only in conscious breathing, but in normal conditions, these two types can be seen as a mixture. In a state of physiological relaxation or tension, breathing affects the depth and number of breaths and the relationship between inhalation and exhalation. Even in the case of hyperventilation syndrome, in which breathing becomes rapid under stress, excitement or anxiety can be measured by measuring the cycle, pattern, volume, and depth of inhalation and exhalation even if there is no equipment to measure blood pressure or oxygen saturation. there is.

호흡패턴을 파악하기 위해 동공과 마찬가지로 사용자의 기저반응을 확인하여 호흡 원값(Raw Measures)을 마련하고, 호흡의 주기, 패턴, 크기 등을 고려하여 측정을 시작한다. 이때, 호흡은 동공과는 다르게 들숨이 있으면 날숨이 있는 주기성 있는 파동의 형태를 띄게 되므로 수집된 소리 데이터를 STFT(Short-Time Fourier Trasnform)을 이용하여 스펙트로그램(Spectrogram) 이미지로 변환할 수 있다. 이때, 푸리에 변환(Fourier Transform)의 비정상적인 신호에 대한 주파수 분석 기법의 오차가 생기는 문제점이 발생하고, 이와 같은 오차가 발생하는 순간에도 주파수 분석을 할 수 있는 방법이 필요하다. In order to understand the breathing pattern, the user's basal response is checked like the pupil, raw measures are prepared, and the measurement starts by considering the cycle, pattern, size, etc. of breathing. At this time, unlike the pupil, respiration takes the form of periodic waves with exhalation if there is inhalation, so the collected sound data can be converted into a spectrogram image using Short-Time Fourier Transform (STFT). At this time, a problem arises in which an error occurs in the frequency analysis technique for an abnormal signal of Fourier Transform, and a method for performing frequency analysis even at the moment when such an error occurs is required.

이에, STFT는, 신호의 안정성을 고려하여 대상 신호를 프레임 단위로 나누어 일정한 크기의 창을 움직이면서 푸리에 변환을 하는 방법인데, 분석하고자 하는 신호에 윈도우(Window) 함수를 적용한 후 푸리에 변환을 수행하는 것으로 시간 영역에서의 STFT의 수식은 STFT(t,w)=∫x(τ-t)e-jwτ dτ이며, 인테그랄의 범위는 - 무한대에서 + 무한대까지이다. 여기서 x(τ)는 분석하고자 하는 신호이고, w(τ-t)는 윈도우 함수이다. 또, 스펙트로그램(Spectrogram)은, 소리나 파동을 시각화하여 파악하기 위한 도구로, 파형(Waveform)과 스펙트럼(Spectrum)의 특징이 조합되어 있다. 파형에서는 시간축의 변화, 즉 시간 도메인에서의 진폭축의 변화를 볼 수 있고, 스펙트럼에서는 주파수축의 변화에 따른 진폭축의 변화를 볼 수 있는 반면, 스펙트로그램에서는 시간축과 주파수축의 변화에 따라 진폭의 차이를 인쇄 농도나 표시 색상의 차이로 나타낸다.Accordingly, STFT is a method of dividing a target signal into frame units and performing Fourier transform while moving a window of a certain size in consideration of signal stability. After applying a window function to the signal to be analyzed, the Fourier transform is performed. The formula for STFT in the time domain is STFT(t,w)=∫x(τ-t)e- jwτ dτ, and the integral range is from -infinity to +infinity. Here, x(τ) is the signal to be analyzed, and w(τ-t) is the window function. In addition, a spectrogram is a tool for visualizing and grasping sound or waves, and the characteristics of a waveform and a spectrum are combined. In the waveform, you can see the change in the time axis, that is, the change in the amplitude axis in the time domain. In the spectrum, you can see the change in the amplitude axis according to the change in the frequency axis. On the other hand, in the spectrogram, you can see the difference in amplitude according to the change in the time axis and the frequency axis. It is expressed as a difference in density or displayed color.

이렇게 변환된 스펙트로그램 이미지를 CNN(Convolutional Neural Network)를 이용하여 특징 데이터를 추출할 수 있다. 스펙트로그램이 이미지로 출력되기 때문에, 결과적으로 이미지 분석을 통하여 소리 데이터를, 기 저장된 소리 데이터와 비교를 할 때, 이미지를 이용하여 비교해야 한다. 이때, 서로 다른 이미지 간에 유사도를 계산하고자 할 때 픽셀 단위의 비교를 통해서는 이미지 사이의 유사한 정도를 판단하기 어렵기 때문에, 이러한 문제를 해결하기 위해 이미지를 픽셀 단위로 비교하는 것이 아닌 이미지의 특징을 추출하여 이미지를 비교하는 방법이 존재하는데, 바로 딥러닝 기술, CNN이다. CNN은, 스스로 이미지의 특징을 학습하고 학습된 특징을 바탕으로 이미지의 분류 및 이미지의 패턴을 인식할 수 있고, 컨볼루션 층을 이용한 네트워크 구조로 이미지 처리에 적합하며, 이미지 데이터를 입력으로 하여 이미지 내의 특징을 기반으로 이미지를 분류할 수 있기 때문에 본 발명의 일 실시예에서 이용하도록 한다. 다만, CNN에 한정되는 것은 아니고 이미지를 구분하고 그 특징을 추출할 수 있는 방법이라면 그 어떠한 것이든 가능하다 할 것이다. Feature data may be extracted from the converted spectrogram image using a Convolutional Neural Network (CNN). Since the spectrogram is output as an image, as a result, when comparing sound data with pre-stored sound data through image analysis, it is necessary to compare using an image. At this time, when trying to calculate the degree of similarity between different images, it is difficult to determine the degree of similarity between images through comparison in pixel units. There is a method of extracting and comparing images, which is deep learning technology, CNN. CNN learns the features of images by itself and can classify images and recognize patterns of images based on the learned features, and is suitable for image processing with a network structure using convolution layers, Since the image can be classified based on the characteristics of the image, it is used in one embodiment of the present invention. However, it is not limited to CNN, and any method that can classify images and extract their features will be possible.

CNN은, 스펙트로그램의 특징을 벡터 형태로 추출하고 추출된 특징을 이용하여 이미지 간 유사도를 측정할 수 있다. 스펙트로그램의 특징을 추출하기 위해 본 발명의 일 실시예에서는, 컨볼루션(Convolution) 레이어, 활성 함수(Activation Function) 레이어, 최대 풀링(Max Pooling) 레이어로 구성된 합성곱 신경망의 기본 구조를 이용한 모델을 이용할 수 있고, 유사도를 측정하기 이전, 이미지를 분류하기 위해사용되는 소프트맥스 레이어(Softmax Layer) 이전의 레이어로부터 스펙트로그램의 특징 벡터를 추출하여 사용할 수 있다. 기본적으로 전결합 레이어(Fully-Connected Layer)를 가지는 CNN과, 특징 맵(Feature Map) 상의 평균값을 가져오는 GAP 레이어(Global Average Layer)를 가지는 모델로부터 특징을 추출하여 유사도를 측정하는 데 사용할 수 있다. The CNN can extract the features of the spectrogram in the form of a vector and measure the similarity between images using the extracted features. In order to extract the features of the spectrogram, in one embodiment of the present invention, a model using the basic structure of a convolutional neural network consisting of a convolution layer, an activation function layer, and a max pooling layer is used. Before measuring similarity, a feature vector of a spectrogram can be extracted and used from a layer before a Softmax layer used to classify an image. Basically, it can be used to measure similarity by extracting features from a CNN with a Fully-Connected Layer and a model with a GAP layer (Global Average Layer) that brings an average value on a feature map. .

이미지의 유사도를 측정하기 위한 또 다른 모델로 CNN 기반의 오토인코더 모델을 이용할 수도 있는데, 인코더(Encoder)는 컨볼루션 신경망 구조로 구성되어 있고, 인코더의 결과로 압축된 데이터를 다시 재구성하기 위한 디코더(Decoder)를 포함할 수 있다. 학습된 오토인코더 모델의 특정 레이어로부터 스펙트로그램의 특징을 추출하고, 이를 다시 GAP 레이어를 통해 나온 특징 벡터를 이미지 유사도 측정에 사용할 수 있다. 위 세 가지 모델을 통해 추출된 이미지 특징 벡터로부터 유클리디안거리(Euclidean Distance) 및 코사인 유사도(Cosine Similarity)를 측정할 수 있고, 이를 이용하여 스펙트로그램 별 유사 정도, 즉 유사도에 따라 정렬할 수 있으며, 정렬된 순서를 이용하여 스펙트로그램 별 가장 유사하다고 판단되는 데이터뿐만 아니라 가장 유사하지 않다고 판단되는 데이터까지 확인할 수 있다. 이렇게 소리 데이터로부터 추출된 특징 데이터를 기저반응인 소리 원값의 특징 데이터와 비교한다. As another model for measuring the similarity of images, a CNN-based autoencoder model can be used. The encoder is composed of a convolutional neural network structure, and a decoder for reconstructing compressed data as a result of the encoder ( decoder). The spectrogram features are extracted from a specific layer of the learned autoencoder model, and the feature vectors obtained through the GAP layer can be used for image similarity measurement. The Euclidean Distance and Cosine Similarity can be measured from the image feature vectors extracted through the three models above, and can be sorted according to the degree of similarity by spectrogram, that is, the similarity. , it is possible to check not only the most similar data but also the most dissimilar data for each spectrogram using the sorted order. The feature data extracted from the sound data in this way is compared with the feature data of the raw sound value, which is the base response.

<인체 부위><Body parts>

안면근육의 변화나 턱근육을 써 입술을 앙 다문 모습 등은 사용자 단말(100)이 일반 스마트폰인 경우 캐치하기가 어렵지만, 손을 가만히 두지 못하거나 다리를 떨거나 손톱을 입술 근처로 가져가 물어뜯거나 머리를 수시로 만지거나 하는 등의 불안증세나 반응은 일반적인 사양의 카메라로도 쉽게 측정이 가능하다. 사용자 단말(100)은 HMD(400)와 연결은 되어 있지만, 여전히 멀티기능을 통하여 카메라도 구동가능한 상태이므로, 카메라를 HMD(400)를 착용하는 사용자를 향하도록 위치시킨 후 카메라로부터 수신된 영상을 실시간으로 스트리밍받아 영상을 실시간으로 분석할 수 있고, 예를 들어, YOLO(You Only Look Once)를 이용하여 실시간성을 유지할 수 있다. 여기서 한 가지 고려해야 할 점은 사용자 단말(100)이 현재 VR 콘텐츠를 수신하고 있는 상태이므로 이미 가용가능한 컴퓨팅 자원 및 네트워킹 자원을 최대한으로 사용하고 있는 상태일 수도 있다는 점이다. 이에, 사용자를 촬영한 데이터를 처리하는 업무로드는 분산 클라우드 환경 내에서 노드를 골라 분산해줄 수도 있는데 이는 후술하기로 한다.It is difficult to catch changes in facial muscles or the appearance of lips closed using jaw muscles when the user terminal 100 is a general smartphone, but cannot keep their hands still, tremble their legs, or bring their nails near their lips to bite. Anxiety symptoms or reactions, such as biting off or touching the hair frequently, can be easily measured with a standard camera. Although the user terminal 100 is connected to the HMD 400, since the camera can still be driven through multi-functions, the camera is positioned facing the user wearing the HMD 400 and then the image received from the camera is displayed. The video can be analyzed in real time by being streamed in real time, and real time can be maintained by using, for example, You Only Look Once (YOLO). One thing to consider here is that since the user terminal 100 is currently receiving VR content, it may be already maximally using available computing and networking resources. Accordingly, the workload processing the data photographed by the user may select and distribute nodes within the distributed cloud environment, which will be described later.

팝업부(340)는, 모니터링된 이벤트가 기 설정된 불안감 상승 이벤트와 일치하는 경우, 사용자 단말(100)로 사용자의 상태를 체크하는 팝업 UI(User Interface)를 제공할 수 있다. 이때, 기 설정된 불안감 상승 이벤트는, 기 설정된 시간 이상 움직임 멈춤 이벤트, VR 콘텐츠의 이용속도 이상(Abnormal) 이벤트 및 사용자 단말(100)로부터 발생하는 일시정지 이벤트 중 어느 하나 또는 적어도 하나의 조합을 포함할 수 있다. 이때, 움직임 멈춤 이벤트는 예를 들어, 사용자가 앞으로 가거나 건물 내로 진입해야 하는데 이를 하지 않고 약 N 초간 멈춰있거나, 그 다음 동작이나 프로세스를 진행해야 하는데 아무 반응도 나타내지 않는 경우일 수도 있다. 이용속도 이상은, 예를 들어, 디폴트로 설정된 속도가 A-B 사이인데, 이 범위를 벗어나는 속도인 경우, 예를 들어 너무 높거나 너무 낮은 경우를 의미할 수 있다. 일시정지 이벤트는 사용자가 아무런 행동이나 반응도 보이지 않는 상태가 지속되는 것을 의미하거나 사용자가 갑자기 Pause 버튼이나 Panic 버튼을 누른 경우를 의미할 수 있다. 팝업 UI는, VR 콘텐츠의 스토리 분기별로 VR 콘텐츠 상에 출력될 수 있다. 이때, 스토리 분기는 예를 들어, [A-B-C-D-E]의 스토리라인으로 짜여진 VR 콘텐츠라면, A-B 사이, B-C 사이 등일 수 있다.The pop-up unit 340 may provide a pop-up UI (User Interface) for checking the user's status to the user terminal 100 when the monitored event coincides with a preset anxiety-increasing event. At this time, the preset anxiety increase event may include any one or a combination of at least one of a movement stop event for a preset time or longer, an abnormal use speed of VR content (abnormal) event, and a pause event generated from the user terminal 100. can In this case, the movement stop event may be, for example, when the user needs to go forward or enter a building, but does not do so and stops for about N seconds, or when the user needs to proceed with the next action or process, but does not show any reaction. The usage speed or higher may mean, for example, a speed set by default between A and B, but a speed outside this range, for example, too high or too low. The pause event may mean that the user does not show any action or reaction, or may mean that the user suddenly presses the Pause button or the Panic button. The pop-up UI may be output on the VR content for each branch of the story of the VR content. In this case, the branching of the story may be between A-B and B-C, for example, in the case of VR content composed of [A-B-C-D-E] storylines.

제어부(350)는, 사용자 단말(100)로부터 팝업 UI를 통하여 반응을 확인한 후, 반응에 기 매핑되어 저장된 3D 오브젝트(Object)를 제어할 수 있다. VR 콘텐츠는, 노출 단계 또는 사용자의 반응에 따라 기 매핑된 적어도 하나의 3D 오브젝트가 실시간으로 합성된 콘텐츠일 수 있다. 만약, 소방관이 화재에 대한 트라우마를 겪고 있고 이에 대한 PTSD 노출치료인 경우에는 3D 오브젝트는 예를 들어 불꽃 또는 불이 난 건물 자체일 수 있다. 만약 소방관(사용자)의 불안감이 높아지고 있다면 불꽃에 대응하는 3D 오브젝트의 수나 크기 또는 부피를 줄일 수도 있고, 빈도나 주기를 낮출 수도 있다. The controller 350 may control a 3D object previously mapped and stored to the reaction after confirming the reaction from the user terminal 100 through the pop-up UI. VR content may be content in which at least one pre-mapped 3D object is synthesized in real time according to an exposure step or a user's reaction. If a firefighter is suffering from fire trauma and PTSD exposure treatment is provided, the 3D object may be, for example, a flame or a building on fire. If the anxiety of firefighters (users) is increasing, the number, size, or volume of 3D objects corresponding to the flame may be reduced, or the frequency or cycle may be reduced.

제어부(350)는, 사용자 단말(100)로부터 팝업 UI를 통하여 반응을 확인한 후, 반응에 기 매핑되어 저장된 3D 오브젝트(Object)를 제어할 때, 팝업 UI를 통하여 확인한 반응이 불안감 상승 이벤트인 경우, 노출강도 및 현실반영도를 낮춘 콘텐츠를 실시간 적용하고, 팝업 UI를 통하여 확인한 반응이 불안감 저하 이벤트인 경우, 노출강도 및 현실반영도를 높인 콘텐츠를 실시간 적용할 수 있다. VR 콘텐츠는, PTSD(PostTraumatic Stress Disorder), 공포증(Phobia), 우울증(Depression) 및 치매(Dementia)를 치료하기 위한 콘텐츠일 수 있으나 나열된 것들로 한정되지 않고 열거되지 않은 이유로 배제되지 않는다.After confirming the reaction from the user terminal 100 through the pop-up UI, the control unit 350 controls a stored 3D object mapped to the reaction, when the reaction confirmed through the pop-up UI is an anxiety-increasing event, Content with lower exposure intensity and reality reflection can be applied in real time, and if the reaction confirmed through the pop-up UI is an anxiety-reducing event, content with increased exposure intensity and reality reflection can be applied in real time. VR content may be content for treating posttraumatic stress disorder (PTSD), phobia, depression, and dementia, but is not limited to those listed and is not excluded for reasons not listed.

<클라우드 VR><Cloud VR>

VR 콘텐츠를 사용자 단말(100, 클라이언트)에서 자동화 서비스 제공 서버(300)로부터 실시간 스트리밍받을 때 클라우드 VR을 이용할 수 있다. 클라우드 VR은 다중의 사용자가 접속할 때 자원량, 대역폭, 컴퓨팅 리소스 등을 고려하여 엣지 클라우드 내 업무를 할당 및 로딩시키는 기술이다. 단일 사용자 환경에서 일반적인 클라우드 VR의 동작 프로세스는, 사용자의 입력값과 모션 센싱 데이터는 클라이언트 내에서 감지되어 엣지 서버로 전달된다. 엣지 서버는 이 입력을 기반으로 VR 콘텐츠 프로세싱을 한 후, 사용자의 뷰포트 화면을 렌더링한다. 렌더링된 결과는 인코딩되어 클라이언트로 전송되며, 클라이언트는 이를 재생하는 방식으로 콘텐츠를 구현한다. 엣지 서버는 네트워크 내의 서버 인스턴스로, 입력 신호 처리와 그래픽 렌더링, 영상 인코딩을 클라이언트 대신 수행한다. 네트워크 지연을 최소화해야 하므로 사용자와 물리적 또는 지리적으로 가까운 곳에서 동작한다. Cloud VR can be used when VR content is received in real time from the automation service providing server 300 in the user terminal 100 (client). Cloud VR is a technology that allocates and loads tasks within the edge cloud by considering the amount of resources, bandwidth, and computing resources when multiple users access. In a typical cloud VR operation process in a single user environment, the user's input value and motion sensing data are detected in the client and transmitted to the edge server. The edge server processes VR content based on this input and then renders the user's viewport screen. The rendered result is encoded and transmitted to the client, and the client implements the content by playing it. An edge server is a server instance in the network that processes input signals, renders graphics, and encodes images on behalf of clients. Network delay must be minimized, so it operates physically or geographically close to the user.

이때, 엣지 서버가 동작하는 네트워크 내 물리적 서버는 엣지 노드라 한다. 엣지 노드는 네트워크 장비 그 자체거나 그와 직접적으로 연결된 물리머신으로, 네트워크 노드와 동일하게 간주될 수 있다. 이러한 상황에서 네트워크 관점에서 고려해야 할 점은 다음과 같다. 특정 애플리케이션에 대해, 컴퓨팅 및 네트워크 리소스 요구치, 네트워크 지연 허용치, 컴퓨팅 및 네트워킹 부하 변화량 등의 정보를 고려해야 하며, 엣지 노드의 가용 컴퓨팅 리소스도 고려되어야 한다. 특정 애플리케이션의 엣지 서버는 사용자별로 분리되어 구성되며, 콘텐츠 및 네트워크 성능 지표 향상을 위해 서버가 동작할 엣지 노드가 결정될 수 있다.At this time, the physical server in the network where the edge server operates is called an edge node. An edge node is a network equipment itself or a physical machine directly connected thereto, and can be regarded as the same as a network node. In this situation, the points to be considered from the network point of view are as follows. For a particular application, information such as compute and network resource requirements, network latency tolerance, compute and networking load variations, etc. must be considered, as well as the edge node's available computing resources. The edge server of a specific application is configured separately for each user, and the edge node where the server operates can be determined to improve content and network performance indicators.

이에 반해 실시간으로 3D 오브젝트가 변경되는 VR 콘텐츠에서는, 각 사용자는 각각의 입력과 동작을 자동화 서비스 제공 서버(300)로 전송하며, 이 입력은 3D 오브젝트의 배치에 영향을 미친다. 기존 온라인 콘텐츠는 입력 신호만 공유되어 각 클라이언트에서 개별적으로 처리하는 방식이나, 클라우드 VR에서는 인접한 모든 사용자의 입력을 중앙집중화된 서버에서 처리해야 할 필요가 있다. 즉, 각 사용자의 입력은 중앙 서버로 전달되어 데이터 취합 후 엔진 프로세싱 과정을 거치며, 이 결과는 각 사용자와 연관된 엣지 서버로 전달되어 각 사용자의 3D 오브젝트에 대해 렌더링된 후 클라이언트로 전송된다. 또한, HMD 모션 프로세싱과 같은 지연시간에 민감한 동작은 중앙 서버와 엣지 서버에 동시에 보내져 처리될 수도 있다. 중앙 서버에 보내진 모션 데이터는 엔진 프로세싱을 하여 3D 오브젝트가 반영된 VR 콘텐츠를 구성하는데 이용되며, 동시에 엣지 서버에 보내진 모션 데이터는 HMD 동작에 따른 신속한 VR 콘텐츠 렌더링에 이용될 수 있다.In contrast, in VR content in which 3D objects are changed in real time, each user transmits each input and operation to the automation service providing server 300, and these inputs affect the arrangement of 3D objects. In existing online content, only input signals are shared and processed individually by each client, but in cloud VR, input from all adjacent users needs to be processed by a centralized server. That is, each user's input is transmitted to the central server, data is collected, and engine processing is performed, and the result is transmitted to the edge server associated with each user, rendered for each user's 3D object, and then transmitted to the client. In addition, delay-sensitive operations such as HMD motion processing may be simultaneously sent to and processed by the central server and the edge server. Motion data sent to the central server is used to compose VR contents in which 3D objects are reflected through engine processing, and at the same time, motion data sent to the edge server can be used for rapid VR content rendering according to HMD operation.

이때, 링크별 트래픽 팩터를 이용하여 후보별 예상 트래픽 부하를 구할 수 있다. 링크별 트래픽 팩터란 엣지 서버와 클라이언트 사이의 네트워크 경로 상 각링크에 요구되는 트래픽 부하를 의미한다. 네트워크내 모든 노드 집합의 각 노드에 대해, 해당 노드와 각 클라이언트 간 최단경로의 합과 트래픽 팩터의 곱으로 후보 노드의 예상 트래픽 부하를 구한다. 즉, 엣지 서버가 노드에 배치되었을 때 발생할 것으로 예상되는 트래픽 부하라는 의미다. 이렇게 구해진 후보 노드는 예상 트래픽 부하를 기준으로 오름차순 정렬되어 후보 목록을 구성한다. 동일한 방식으로 네트워크 내 모든 클라이언트에 대해 각각의 후보 목록을 생성한다.In this case, an expected traffic load for each candidate may be obtained using the traffic factor for each link. The traffic factor for each link means the traffic load required for each link on the network path between the edge server and the client. For each node of all node sets in the network, the expected traffic load of the candidate node is obtained by multiplying the traffic factor by the sum of the shortest paths between the corresponding node and each client. In other words, it means the traffic load expected to occur when an edge server is deployed on a node. Candidate nodes obtained in this way are sorted in ascending order based on expected traffic load to form a candidate list. Create each candidate list for every client in the network in the same way.

컴퓨팅 리소스를 고려하여 후보들을 선택하는 경우, 모든 클라이언트의 가장 좋은 후보 노드에 엣지 서버를 배치하는 것이 최선이겠지만, 특정 노드의 컴퓨팅 리소스가 부족하여 해당 노드에 엣지 서버를 모두 배치할 수 없을 수도 있다. 클라이언트의 후보 노드 선택 상황을 배치 계획이라고 하면, 최초에는 모든 클라이언트의 가장 좋은 후보 노드가 선택된 것으로 초기화된다. 하지만 리소스 초과 노드가 존재한다면 해당 노드에 배치될 예정이었던 엣지 서버 중 일부를 교체해야 한다. 교체 노드 선택 방법은 W-VBP(Weighted Vector Bin Packing)를 이용할 수 있다. VBP 기반 교체 기법이란 노드의 리소스 구성 비율과 엣지 서버의 리소스 구성 비율의 차이가 가장 큰 서버를 교체하는 방법이다. 이는 벡터를 기반으로 하므로 리소스 개수에 제약이 없으며, 일부 리소스만 고갈되어도 다른 타입의 리소스를 사용하지 못하는 부작용을 최소화한다. 교체 대상 클라이언트의 모든 후보가 고갈되었다면 알고리즘은 최종적으로 실패한 것으로 간주되므로, 특정 클라이언트의 후보만 연속하여 고갈되는 상황을 방지하기 위해 클라이언트별 잔여 후보 비율을 가중치로 고려할 수 있다. VBP의 결과인 벡터각과 가중치를 곱한 결과값이 가장 큰 엣지 서버가 교체 대상이 된다.When selecting candidates considering computing resources, it is best to place edge servers on the best candidate nodes of all clients, but it may not be possible to place all edge servers on a particular node due to insufficient computing resources. If the client's candidate node selection situation is a deployment plan, the best candidate node of all clients is initially initialized as selected. However, if there are overresource nodes, some of the edge servers that were scheduled to be deployed on those nodes must be replaced. A replacement node selection method may use Weighted Vector Bin Packing (W-VBP). The VBP-based replacement technique replaces the server with the greatest difference between the node's resource composition ratio and the edge server's resource composition ratio. Since this is vector-based, there is no limit on the number of resources, and even if only some resources are exhausted, side effects of not being able to use other types of resources are minimized. If all candidates for replacement clients are exhausted, the algorithm is finally considered to have failed. Therefore, the remaining candidate ratio for each client may be considered as a weight in order to prevent a situation in which only candidates for a specific client are continuously exhausted. The edge server with the largest value obtained by multiplying the vector angle, which is the result of VBP, by the weight, becomes the replacement target.

교체 대상이 된 엣지 서버를 보유한 클라이언트은 현재 선택된 후보 노드를 제거하고 자신의 후보 목록에서 다음 후보 노드를 선택한다. 그런 다음, 현재상태를 기반으로 초과 노드 존재 여부를 다시 검사한다. 알고리즘의 실패는 네트워크 내 VR 콘텐츠들의 컴퓨팅 리소스 요구량이 총 가용 리소스에 가까워지거나 초과할 때 발생할 수 있다. 이러한 상황은 하드웨어를 추가하거나 또는 콘텐츠들의 엣지 컴퓨팅으로의 오프로드 수준을 낮추는 대책을 적용함으로써 극복할 수 있다.The client holding the edge server to be replaced removes the currently selected candidate node and selects the next candidate node from its own candidate list. Then, based on the current state, the existence of excess nodes is checked again. Algorithm failure may occur when the computing resource demand of VR contents in the network approaches or exceeds the total available resources. This situation can be overcome by adding hardware or applying countermeasures that reduce the level of offloading of contents to edge computing.

이하, 상술한 도 2의 자동화 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, an operation process according to the configuration of the above-described automated service providing server of FIG. 2 will be described in detail with reference to FIGS. 3 and 4 as examples. However, it will be apparent that the embodiment is only any one of various embodiments of the present invention, and is not limited thereto.

도 3을 참조하면, 상단의 플로우는 아이트래커, 마이크 및 카메라 등을 이용하여 입력된 소리 및 영상을 분석하여 불안감을 모니터링한 후 3D 오브젝트를 변경하여 VR 콘텐츠를 진행하는 과정이고, 하단의 플로우는 소리 및 영상의 분석 없이 사용자 단말(100)에서 발생하는 이벤트를 이용하여 사용자의 불안감을 1차적으로 모니터링하고, 2차적으로 팝업 UI를 통하여 확정함으로써 사용자의 불안감을 체크한 후 3D 오브젝트를 변경하여 VR 콘텐츠를 진행하는 과정이다. 본 발명의 일 실시예에 따른 자동화 서비스는, 상담자나 의료진이 수동으로 일일이 3D 오브젝트를 제어하거나 조절할 필요없이 자체적으로 사용자의 반응에 따라 VR 콘텐츠가 구성되므로 상담자나 의료진은 대면상담이나 진료에 집중할 수 있다.Referring to FIG. 3, the upper flow is a process of monitoring anxiety by analyzing input sounds and images using an eye tracker, a microphone, and a camera, and then changing a 3D object to proceed with VR content, and the lower flow is First, the user's anxiety is monitored using events occurring in the user terminal 100 without sound and video analysis, and the user's anxiety is checked by secondarily confirming through the pop-up UI, and then the 3D object is changed to VR It is the process of creating content. In the automated service according to an embodiment of the present invention, VR content is configured according to the user's response without the need for counselors or medical staff to manually control or adjust 3D objects, so counselors or medical staff can focus on face-to-face counseling or treatment. there is.

본 발명의 일 실시예에 따른 서비스는 도 4a와 같이 VR 노출치료를 진행하는데 사용될 수 있으며, 도 4b와 같이 개인 맞춤형 콘텐츠를 제공할 수 있고, 도 4c와 같은 분야에 활용될 수 있으며, 도 4d와 같이 화재 진압 현장에서 정신적 트라우마를 가지는 소방관, 경찰, 군인 등 외상상황 노출이 잦은 직업군을 대상으로 솔루션을 제공할 수 있고, 도 4e와 같이 노출정도를 변경하여 개인화된 VR 콘텐츠를 제공할 수 있으며, 도 4f와 같이 발표 공포증과 같이 각종 공포가 유발될 수 있는 상황에서 연습을 해볼 수 있게, 사용자가 공포상황에 "노출"됨으로써, 가상으로 공포상황을 경험할 수 있고 사용자의 공포심을 없애거나 줄여줄 수 있다. 도 4g와 같이 치매에도 이용될 수 있으며, 도 4h와 같이 고품질 3D 모델링, 표준 준수 및 사용자 친화적 UI/UX로 누구나 손 쉽게 이용할 수 있고 개인화된 콘텐츠를 이용할 수 있다.The service according to an embodiment of the present invention can be used for VR exposure therapy as shown in FIG. 4a, can provide personalized content as shown in FIG. 4b, and can be utilized in the field as shown in FIG. 4c, and FIG. It is possible to provide a solution for occupational groups that are frequently exposed to traumatic situations, such as firefighters, police officers, and soldiers who have mental trauma at firefighting sites, and provide personalized VR content by changing the degree of exposure as shown in FIG. 4e. 4f, so that the user can practice in a situation where various fears can be induced, such as public speaking phobia, by being "exposed" to a fear situation, the user can virtually experience the fear situation and eliminate or reduce the user's fear can give As shown in FIG. 4g, it can be used for dementia, and as shown in FIG. 4h, anyone can easily use and use personalized content with high-quality 3D modeling, standard compliance, and user-friendly UI/UX.

이와 같은 도 2 내지 도 4의 VR 노출치료 자동화 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 VR 노출치료 자동화 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not described for the VR exposure treatment automation service provision method of FIGS. 2 to 4 are the same as or easily inferred from the description of the VR exposure treatment automation service provision method through FIG. 1 above. Therefore, the following description is omitted.

도 5는 본 발명의 일 실시예에 따른 도 1의 VR 노출치료 자동화 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 5를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 5에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.5 is a diagram illustrating a process of transmitting and receiving data between each component included in the VR exposure treatment automation service providing system of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process of transmitting and receiving data between each component will be described through FIG. 5, but the present application is not limited to such an embodiment, and according to various embodiments described above, It is obvious to those skilled in the art that a process of transmitting and receiving data may be changed.

도 5를 참조하면, 자동화 서비스 제공 서버는,Referring to Figure 5, the automation service providing server,

상술한 단계들(S5100~S5400)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5400)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps (S5100 to S5400) is only an example, and is not limited thereto. That is, the order of the above-described steps (S5100 to S5400) may be mutually changed, and some of the steps may be simultaneously executed or deleted.

이와 같은 도 5의 VR 노출치료 자동화 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 VR 노출치료 자동화 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters not explained about the VR exposure treatment automation service provision method of FIG. 5 are the same as or easily inferred from the description of the VR exposure treatment automation service provision method through FIGS. 1 to 4 above. Therefore, the following description is omitted.

도 5를 통해 설명된 일 실시예에 따른 VR 노출치료 자동화 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The VR exposure treatment automation service providing method according to an embodiment described with reference to FIG. 5 may be implemented in the form of a recording medium including instructions executable by a computer, such as an application or program module executed by a computer. . Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 VR 노출치료 자동화 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 VR 노출치료 자동화 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The above-described method for providing an automated VR exposure treatment service according to an embodiment of the present invention may be executed by an application basically installed in the terminal (this may include a program included in a platform or operating system basically loaded in the terminal). and may be executed by an application (that is, a program) directly installed in the master terminal by a user through an application providing server such as an application store server, an application or a web server related to the corresponding service. In this sense, the VR exposure treatment automation service providing method according to an embodiment of the present invention described above is implemented as an application (ie, a program) that is basically installed in a terminal or directly installed by a user and can be read by a computer such as a terminal. can be recorded on a recording medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts should be construed as being included in the scope of the present invention. do.

Claims (10)

자동화 서비스 제공 서버에서 실행되는 자동화 서비스 제공 방법에 있어서,
사용자 단말로 진단평가설문을 전송하고, 상기 사용자 단말로부터 수신된 사용자 정보 및 응답 데이터에 기반하여 노출 단계(Level)를 결정하는 단계;
결정된 상기 노출 단계의 VR 콘텐츠를 상기 사용자 단말로 전송하여 디스플레이되도록 하는 단계;
상기 사용자 단말에서 발생하는 이벤트를 모니터링하는 단계;
모니터링된 상기 이벤트가 기 설정된 불안감 상승 이벤트와 일치하는 경우, 상기 사용자 단말로 사용자의 상태를 체크하는 팝업 UI(User Interface)를 제공하는 단계; 및
상기 사용자 단말로부터 상기 팝업 UI를 통하여 반응을 확인한 후, 상기 반응에 기 매핑되어 저장된 3D 오브젝트(Object)를 제어하는 단계;
를 포함하는 VR 노출치료 자동화 서비스 제공 방법.
In the automation service providing method executed in the automation service providing server,
Transmitting a diagnostic evaluation questionnaire to a user terminal, and determining an exposure level based on user information and response data received from the user terminal;
transmitting the determined VR content of the exposure step to the user terminal and displaying the VR content;
monitoring events occurring in the user terminal;
If the monitored event coincides with a preset anxiety-increasing event, providing a pop-up UI (User Interface) for checking the user's status to the user terminal; and
After confirming a reaction from the user terminal through the pop-up UI, controlling a 3D object previously mapped and stored to the reaction;
VR exposure treatment automation service providing method comprising a.
제 1 항에 있어서,
상기 사용자 단말은 상기 VR 콘텐츠를 출력하는 HMD(Head Mounted Display)와 연결되는 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 1,
The method of providing VR exposure treatment automation service, characterized in that the user terminal is connected to a head mounted display (HMD) that outputs the VR content.
제 1 항에 있어서,
상기 기 설정된 불안감 상승 이벤트는,
기 설정된 시간 이상 움직임 멈춤 이벤트;
상기 VR 콘텐츠의 이용속도 이상(Abnormal) 이벤트; 및
상기 사용자 단말로부터 발생하는 일시정지 이벤트;
중 어느 하나 또는 적어도 하나의 조합을 포함하는 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 1,
The preset anxiety rising event,
A motion stop event for a predetermined period of time or longer;
Abnormal event using the VR contents; and
a pause event generated from the user terminal;
A VR exposure treatment automation service providing method comprising any one or a combination of at least one of them.
제 1 항에 있어서,
상기 VR 콘텐츠는,
상기 노출 단계 또는 상기 사용자의 반응에 따라 기 매핑된 적어도 하나의 3D 오브젝트가 실시간으로 합성된 콘텐츠인 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 1,
The VR content,
The VR exposure treatment automation service providing method, characterized in that at least one 3D object pre-mapped according to the exposure step or the user's reaction is synthesized content in real time.
제 1 항에 있어서,
상기 팝업 UI는,
상기 VR 콘텐츠의 스토리 분기별로 상기 VR 콘텐츠 상에 출력되는 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 1,
The pop-up UI,
VR exposure therapy automation service providing method, characterized in that output on the VR content for each story quarter of the VR content.
제 1 항에 있어서,
상기 VR 콘텐츠는,
PTSD(PostTraumatic Stress Disorder), 공포증(Phobia), 우울증(Depression) 및 치매(Dementia)를 치료하기 위한 콘텐츠인 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 1,
The VR content,
A method for providing VR exposure therapy automation service, characterized in that content for treating PTSD (PostTraumatic Stress Disorder), Phobia, Depression and Dementia.
제 1 항에 있어서,
상기 사용자 단말로부터 상기 팝업 UI를 통하여 반응을 확인한 후, 상기 반응에 기 매핑되어 저장된 3D 오브젝트(Object)를 제어하는 단계는,
상기 팝업 UI를 통하여 확인한 반응이 불안감 상승 이벤트인 경우, 노출강도 및 현실반영도를 낮춘 콘텐츠를 실시간 적용하고, 상기 팝업 UI를 통하여 확인한 반응이 불안감 저하 이벤트인 경우, 노출강도 및 현실반영도를 높인 콘텐츠를 실시간 적용하는 단계;
를 수행하며 실행되는 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 1,
After confirming a reaction from the user terminal through the pop-up UI, the step of controlling a 3D object previously mapped and stored to the reaction,
If the reaction confirmed through the pop-up UI is an anxiety-increasing event, content with lower exposure intensity and reality reflection is applied in real time, and if the reaction confirmed through the pop-up UI is an anxiety-reducing event, exposure intensity and reality reflection are increased Applying content in real time;
A VR exposure treatment automation service providing method characterized in that it is executed while performing.
제 1 항에 있어서,
상기 사용자 단말은 HMD(Head Mounted Display)와 연결되고,
상기 HMD는 눈동자의 위치를 추적 및 동공의 크기를 모니터링하는 아이트래킹 모듈;
상기 사용자의 음성 및 숨소리를 입력받는 마이크;
를 더 포함하는 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 1,
The user terminal is connected to a Head Mounted Display (HMD),
The HMD includes an eye tracking module that tracks the position of the pupil and monitors the size of the pupil;
a microphone for receiving the user's voice and breathing;
VR exposure treatment automation service providing method further comprising.
제 8 항에 있어서,
상기 사용자 단말은 사용자를 촬영하는 카메라를 포함하고,
상기 카메라는 적어도 하나의 인체 부위를 촬영하는 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 8,
The user terminal includes a camera for photographing the user,
The method of providing an automated VR exposure treatment service, characterized in that the camera photographs at least one body part.
제 9 항에 있어서,
상기 사용자 단말에서 발생하는 이벤트를 모니터링하는 단계는,
상기 사용자의 눈동자의 위치 및 동공의 크기와, 상기 사용자의 음성 및 숨소리와, 상기 적어도 하나의 인체 부위를 촬영한 사진을 분석하는 단계;
를 포함하는 것을 특징으로 하는 VR 노출치료 자동화 서비스 제공 방법.
According to claim 9,
The step of monitoring an event occurring in the user terminal,
analyzing the position and pupil size of the user's pupil, the user's voice and breathing sound, and a photograph of the at least one body part;
VR exposure treatment automation service providing method comprising a.
KR1020210139558A 2021-10-19 2021-10-19 Method for providing automatic contents customzing service for virtual reality exposure therapy KR20230055779A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210139558A KR20230055779A (en) 2021-10-19 2021-10-19 Method for providing automatic contents customzing service for virtual reality exposure therapy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210139558A KR20230055779A (en) 2021-10-19 2021-10-19 Method for providing automatic contents customzing service for virtual reality exposure therapy

Publications (1)

Publication Number Publication Date
KR20230055779A true KR20230055779A (en) 2023-04-26

Family

ID=86099589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210139558A KR20230055779A (en) 2021-10-19 2021-10-19 Method for providing automatic contents customzing service for virtual reality exposure therapy

Country Status (1)

Country Link
KR (1) KR20230055779A (en)

Similar Documents

Publication Publication Date Title
US11923057B2 (en) Method and system using artificial intelligence to monitor user characteristics during a telemedicine session
US20180122509A1 (en) Multilevel Intelligent Interactive Mobile Health System for Behavioral Physiology Self-Regulation in Real-Time
US10182766B2 (en) Intelligent apparatus for patient guidance and data capture during physical therapy and wheelchair usage
AU2009268428B2 (en) Device, system, and method for treating psychiatric disorders
CN114287041A (en) Electronic device for therapeutic intervention using virtual or augmented reality and related method
US20140100464A1 (en) Virtual avatar using biometric feedback
KR20160075677A (en) Consumer biometric devices
Parra et al. Multimedia sensors embedded in smartphones for ambient assisted living and e-health
US11033238B2 (en) Intelligent apparatus for guidance and data capture during physical repositioning of a patient on a sleep platform
Schöne et al. The reality of virtual reality
US11169621B2 (en) Assessing postural sway in virtual or augmented reality
US20220406473A1 (en) Remote virtual and augmented reality monitoring and control systems
Morales et al. An adaptive model to support biofeedback in AmI environments: a case study in breathing training for autism
US20210183477A1 (en) Relieving chronic symptoms through treatments in a virtual environment
US20240082535A1 (en) Cloud-based gaming platform with health-related data collection
KR20230055779A (en) Method for providing automatic contents customzing service for virtual reality exposure therapy
CN115551579B (en) System and method for assessing ventilated patient condition
Pistoia et al. Integrated ICT system for the implementation of rehabilitation therapy for Alzheimer’s patients and for the improvement of quality and efficiency in managing their health: the rehab-dem project
US20230380793A1 (en) System and method for deep audio spectral processing for respiration rate and depth estimation using smart earbuds
US20180113991A1 (en) Interactive Apparatus and Devices for Personal Symptom Management and Therapeutic Treatment Systems
US11771955B2 (en) System and method for neurological function analysis and treatment using virtual reality systems
TW202004773A (en) System for diagnosing cognitive function for providing fitness correction program and method thereof
KR102606193B1 (en) Method, computing device and computer program for providing personal health management service through remote health diagnosis based on camera
US11791026B2 (en) Cloud-based healthcare diagnostics and treatment platform
US20230107691A1 (en) Closed Loop System Using In-ear Infrasonic Hemodynography and Method Therefor