KR102113634B1 - Virtual reality head mounted display for showing user's status and user status display method and content control method using the system - Google Patents

Virtual reality head mounted display for showing user's status and user status display method and content control method using the system Download PDF

Info

Publication number
KR102113634B1
KR102113634B1 KR1020180014945A KR20180014945A KR102113634B1 KR 102113634 B1 KR102113634 B1 KR 102113634B1 KR 1020180014945 A KR1020180014945 A KR 1020180014945A KR 20180014945 A KR20180014945 A KR 20180014945A KR 102113634 B1 KR102113634 B1 KR 102113634B1
Authority
KR
South Korea
Prior art keywords
user
unit
image
display
virtual reality
Prior art date
Application number
KR1020180014945A
Other languages
Korean (ko)
Other versions
KR20190095671A (en
Inventor
장준석
Original Assignee
장준석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장준석 filed Critical 장준석
Priority to KR1020180014945A priority Critical patent/KR102113634B1/en
Publication of KR20190095671A publication Critical patent/KR20190095671A/en
Application granted granted Critical
Publication of KR102113634B1 publication Critical patent/KR102113634B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • A61B5/0402
    • A61B5/0476
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0211Combination with medical sensor, e.g. for measuring heart rate, temperature
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Tourism & Hospitality (AREA)
  • Veterinary Medicine (AREA)
  • Child & Adolescent Psychology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Economics (AREA)
  • Physiology (AREA)
  • Emergency Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 방법 및 콘텐츠 관리 방법이 개시된다. 본 발명의 일 실시예에 따르면, 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이(VR HMD)에 있어서, 상기 프레임 바디의 배면부에 설치되어, 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 카메라부; 상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리한 사용자 상태 영상을 생성하는 신호 처리부; 및 상기 프레임 바디의 전면부에 설치되며, 영상 처리된 상기 사용자 상태 영상을 표시하는 전면 디스플레이부를 포함하는 가상현실 헤드 마운트 디스플레이가 제공된다.Disclosed is a virtual reality head mounted display showing a user's status, a user status display method using the same, and a content management method. According to an embodiment of the present invention, in a virtual reality head mounted display (VR HMD) that allows a user to watch audio-visual content played through an internal display installed inside a frame body by wearing it on the head, a rear portion of the frame body A camera unit installed and acquiring a user facial image including the user's eyes; A signal processor generating a user state image processed by processing the user's face image according to a predetermined image processing algorithm; And it is installed on the front portion of the frame body, a virtual reality head-mounted display is provided that includes a front display for displaying the user-processed image image.

Description

사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 방법 및 콘텐츠 관리 방법{Virtual reality head mounted display for showing user's status and user status display method and content control method using the system}{Virtual reality head mounted display for showing user's status and user status display method and content control method using the system}

본 발명은 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이(VR HMD) 및 이를 이용한 사용자 상태 표시 및 콘텐츠 관리 방법에 관한 것이다. The present invention relates to a virtual reality head mounted display (VR HMD) showing a user's status and a user status display and content management method using the same.

가상현실(VR, Virtual Reality)은 교육, 의료, 간병 등으로 그 적용 폭을 넓혀 가고 있다. VR을 통해 알코올 중독을 치료하거나 군인들의 전쟁 트라우마를 치료하고, 치매환자에 대해 VR을 이용한 간병을 수행하거나 아동 등의 학생에 대해 VR을 활용한 수업을 진행할 수도 있다. Virtual Reality (VR) is expanding its application to education, medical care, and nursing care. You can also treat alcoholism through VR, cure soldiers' war trauma, perform VR-based care for dementia patients, and conduct classes using VR for students, such as children.

하지만, 이러한 가상현실 체험을 위해서는 헤드 마운트 디스플레이(HMD, Head Mounted Display)가 요구되는데, VR HMD를 착용할 경우 사용자의 눈과 표정을 볼 수 없다. 이로 인해 사용자가 아동 혹은 환자일 경우 보호자, 치료자, 간병인 등이 실시간으로 사용자의 상태를 파악하기 어려워 교육, 의료, 간병 등의 분야에서의 활용에 문제가 되고 있다. 예컨대, 사용자가 아동일 경우 제대로 VR 콘텐츠를 활용하고 있는지에 대한 교사 혹은 부모가 불안할 수 있다. 노인요양환자의 경우에는 VR 콘텐츠로 인한 멀미 혹은 발작 등의 징후를 사전에 포착하기 어렵다. However, for this virtual reality experience, a head mounted display (HMD) is required. When wearing a VR HMD, the user's eyes and facial expression cannot be seen. As a result, when a user is a child or a patient, it is difficult for guardians, therapists, and caregivers to grasp the user's status in real time, which is a problem in use in education, medical care, and care. For example, if the user is a child, the teacher or parent may be uneasy as to whether the user is using VR content properly. For elderly patients, it is difficult to detect signs of motion sickness or seizures caused by VR content in advance.

또한, 정신병 치료에 사용되는 VR 콘텐츠의 경우 치료대상자가 회피하고 싶은 콘텐츠들이 치료요소로 사용되는 경우가 많다. 예컨대, 전쟁 PTSD(외상 후 스트레스 장애, post traumatic stress disorder) 치료를 위해 참전 군인이 괴로워하는 장면을 보여주거나 고소공포증 치료를 위해 높은 건물, 고공 다리 등에 올라간 장면을 VR로 보여주거나 알코올 중독 치료를 위해 숙취 후 구토 장면 등을 보여줄 수 있다. 이 경우 치료대상자들이 눈을 감아버리는 경우가 많아 치료 목적을 달성하지 못하는 경우가 많은 실정이다. In addition, in the case of VR contents used for the treatment of psychosis, contents that the treatment subject wants to avoid are often used as treatment elements. For example, to show a scene of veterans suffering for post-traumatic stress disorder (PTSD) treatment, to show high-rise buildings, high-rise bridges, etc. for VR, or to treat alcoholism. After a hangover, you can show a vomiting scene. In this case, the treatment subjects often close their eyes, and thus the treatment purpose is often not achieved.

한국공개특허 10-2017-0139185호 (2017.12.19 공개) - 쿨링팬이 장착된 접이식 가상현실 HMDKorean Patent Publication No. 10-2017-0139185 (released on December 19, 2017)-Foldable virtual reality HMD with cooling fan

본 발명은 전면을 통해 사용자의 눈 및/또는 표정에 관한 영상을 보여줌으로써 관리자(보호자, 치료자, 보육자, 간병자 등)가 직관적으로 사용자 상태를 확인할 수 있어 즉각적인 대응이 가능한 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 및 콘텐츠 관리 방법을 제공하기 위한 것이다.According to the present invention, a manager (guardian, healer, nursery, caregiver, etc.) can intuitively check the user status by showing an image of the user's eyes and / or facial expression through the front surface, thereby showing a user's status capable of immediate response It is for providing a real head mounted display and a user status display and content management method using the same.

본 발명은 전면을 통해 사용자의 눈 및/또는 표정에 관한 정보를 개념화하여 보여줌으로써 VR 콘텐츠 체험이 제대로 이루어지고 있는지 여부를 관리자가 직관적으로 확인할 수 있게 하는 사용자의 시청 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 및 콘텐츠 관리 방법을 제공하기 위한 것이다.The present invention is a virtual reality head mounted display showing a user's viewing state that allows an administrator to intuitively check whether a VR content experience is properly performed by conceptually showing information about a user's eyes and / or facial expression through the front surface. And to provide a user status display and content management method using the same.

본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Objects other than the present invention will be easily understood through the following description.

본 발명의 일 측면에 따르면, 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이(VR HMD)에 있어서, 상기 프레임 바디의 배면부에 설치되어, 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 카메라부; 상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리한 사용자 상태 영상을 생성하는 신호 처리부; 및 상기 프레임 바디의 전면부에 설치되며, 영상 처리된 상기 사용자 상태 영상을 표시하는 전면 디스플레이부를 포함하는 가상현실 헤드 마운트 디스플레이가 제공된다. According to an aspect of the present invention, in a virtual reality head mounted display (VR HMD) that allows a user to watch audio-visual content played through an internal display installed inside a frame body by wearing it on the head, installed on the rear surface of the frame body A camera unit for acquiring a user facial image including the user's eyes; A signal processor generating a user state image processed by processing the user's face image according to a predetermined image processing algorithm; And it is installed on the front portion of the frame body, a virtual reality head-mounted display is provided that includes a front display for displaying the user-processed image image.

상기 신호 처리부는 상기 사용자 안면 영상을 상기 전면 디스플레이부의 크기에 맞도록 스케일 업 혹은 스케일 다운하여 상기 사용자 상태 영상을 생성할 수 있다.The signal processing unit may generate the user state image by scaling up or down the user's face image to fit the size of the front display unit.

상기 신호 처리부는 상기 사용자 안면 영상에서 획득한 정보에 기초하여 이를 개념화한 애니메이션으로 상기 사용자 상태 영상을 생성할 수 있다.The signal processing unit may generate the user state image with an animation conceptualizing it based on information obtained from the user's face image.

상기 전면 디스플레이부는 상기 전면부의 일측에 소형으로 구현되며, 상기 신호 처리부는 상기 사용자 안면 영상을 분석한 결과에 따라 상기 사용자가 눈을 뜨고 있는지 여부 혹은 상기 사용자의 감정 상태 판정 결과에 상응하는 이모티콘을 상기 사용자 상태 영상으로 생성할 수 있다.The front display unit is implemented in a small size on one side of the front unit, and the signal processing unit displays an emoticon corresponding to whether the user has an eye open or the user's emotional state determination result according to a result of analyzing the user's face image. It can be created as a user status image.

상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 센서부를 더 포함하되, 상기 신호 처리부는 상기 생체신호를 사용자 부가 정보로 가공하여, 상기 전면 디스플레이부를 통해 표시되는 상기 사용자 상태 영상에 중첩 표시되게 할 수 있다.The user's brain wave (EGG), heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, further comprising a sensor unit for obtaining a biosignal of at least one of the gaze direction, the signal processing unit is the living body The signal may be processed as user additional information so that it is superimposed on the user status image displayed through the front display unit.

상기 생체신호의 해석 결과에 따른 사용자 상태를 출력하는 상태 출력부를 더 포함하되, 상기 상태 출력부는 복수의 색상 발현이 가능한 LED와 사운드 출력이 가능한 스피커 중 하나 이상을 포함할 수 있다.Further comprising a status output unit for outputting a user state according to the analysis result of the bio-signal, the status output unit may include one or more of a plurality of color capable LED and sound output speaker.

상기 생체신호의 해석 결과 혹은 상기 사용자 안면 영상의 분석 결과에 따라 상기 사용자의 감정 상태를 판정하고, 판정 결과에 따라 현재 재생 중인 상기 시청각 콘텐츠를 자동 전환하거나 정지시키는 제어부를 더 포함할 수 있다.The controller may further include a control unit for determining the emotional state of the user according to the analysis result of the biosignal or the analysis result of the user's face image, and automatically switching or stopping the audio-visual content currently being played according to the determination result.

상기 시청각 콘텐츠의 재생, 정지, 변환을 포함하는 콘텐츠 관련 조작이 가능한 조작부를 더 포함하되, 상기 조작부는 상기 전면부에 하드웨어적 버튼으로 구현되거나 상기 전면 디스플레이부에 소프트웨어적 버튼으로 구현될 수 있다.Further comprising an operation unit capable of content-related manipulation including playback, stop, and conversion of the audio-visual content, the manipulation unit may be implemented as a hardware button on the front panel or a software button on the front display.

한편 본 발명의 다른 측면에 따르면, 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이에서 수행되는 사용자 상태 표시 방법으로서, 상기 시청각 콘텐츠가 재생될 때 상기 프레임 바디의 배면부에 설치된 카메라부를 통해 상기 사용자의 안면에 대한 사용자 안면 영상을 획득하는 단계; 상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리하여 사용자 상태 영상을 생성하는 단계; 및 상기 사용자 상태 영상을 상기 프레임 바디의 전면부에 설치된 전면 디스플레이부에 표시하는 단계를 포함하는 가상현실 헤드 마운트 디스플레이에서의 사용자 상태 표시 방법이 제공된다.On the other hand, according to another aspect of the present invention, as a user state display method performed on a virtual reality head-mounted display to allow a user to watch audio-visual content played through an internal display installed inside a frame body by wearing it on the head, the audio-visual content Acquiring a user facial image of the user's face through a camera unit installed on the rear surface of the frame body when being reproduced; Generating a user state image by processing the user's face image according to a predetermined image processing algorithm; And displaying the user status image on a front display unit installed on a front portion of the frame body.

상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 단계; 및 상기 생체신호를 사용자 부가 정보로 가공하여, 상기 전면 디스플레이부를 통해 표시되는 상기 사용자 상태 영상에 중첩 표시되게 하는 단계를 더 포함할 수 있다.Obtaining at least one biosignal of the user's EEG, heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, and gaze direction; And processing the biosignal as user additional information so as to be superimposed on the user state image displayed through the front display unit.

한편 본 발명의 또 다른 측면에 따르면, 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이에서 수행되는 콘텐츠 관리 방법으로서, 상기 시청각 콘텐츠가 재생될 때 상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 단계; 상기 생체신호를 분석하여 상기 시청각 콘텐츠에 대한 사용자 반응을 미리 지정된 기준에 따라 복수의 감정 상태 중 하나로 구분 판정하는 단계; 및 상기 구분 판정된 감정 상태에 따라 상기 시청각 콘텐츠의 유지 혹은 전환을 결정하는 단계를 포함하는 가상현실 헤드 마운트 디스플레이에서의 콘텐츠 관리 방법이 제공된다. On the other hand, according to another aspect of the present invention, as a content management method performed on a virtual reality head-mounted display that allows a user to watch audio-visual content played through an internal display installed inside a frame body by wearing it on the head, the audio-visual content Acquiring at least one biosignal of the user's brainwave (EGG), heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, and gaze direction when reproduced; Analyzing the bio-signal and determining the user response to the audio-visual content as one of a plurality of emotional states according to a predetermined criterion; And determining maintenance or conversion of the audio-visual content according to the determined determined emotional state.

상기 구분 판정된 감정 상태에 기반하여 상기 시청각 콘텐츠에 대한 선호도 및 혐오도를 저장하는 단계를 더 포함하되, 상기 시청각 콘텐츠의 전환 시 상기 선호도 및 혐오도에 기초하여 임의의 시청각 콘텐츠를 추천 혹은 회피하게 할 수 있다.Further comprising the step of storing the preference and aversion to the audio-visual content based on the determined determined emotional state, to recommend or avoid any audio-visual content based on the preference and aversion when switching the audio-visual content can do.

본 발명의 또 다른 측면에 따르면, 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 시스템으로서, 상기 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하고, 상기 프레임 바디의 배면부에 설치된 카메라부를 통해 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 가상현실 헤드 마운트 디스플레이(VR HMD); 상기 가상현실 헤드 마운트 디스플레이와 네트워크를 통해 연결되어, 상기 사용자 안면 영상을 전송받거나 상기 사용자 안면 영상에 상응하는 사용자 상태 영상을 전송받고, 상기 사용자 안면 영상을 전송받은 경우에는 미리 정해진 영상 처리 알고리즘에 따라 상기 사용자 상태 영상으로 변환하고 상기 사용자 상태 영상을 전송받은 경우에는 그대로 상기 사용자 상태 영상을 화면에 출력하는 관리자 단말을 포함하는 가상현실 헤드 마운트 디스플레이 시스템이 제공된다. According to another aspect of the present invention, as a virtual reality head mounted display system showing the user's state, the user is worn on the head to watch the audio-visual content played through the internal display installed inside the frame body, the frame body A virtual reality head mounted display (VR HMD) for acquiring a user's face image including the user's eye through a camera unit installed on the rear portion of the camera; When connected to the virtual reality head-mounted display through a network, the user's face image is transmitted or a user state image corresponding to the user's face image is received, and when the user's face image is received, according to a predetermined image processing algorithm A virtual reality head mounted display system is provided that includes an administrator terminal that converts the user state image to the user state image and outputs the user state image to the screen when the user state image is transmitted.

상기 관리자 단말은 상기 사용자 상태 영상에 따른 관리자의 치료지시를 입력받고, 상기 가상현실 헤드 마운트 디스플레이는 상기 네트워크를 통해 상기 치료지시를 전달받아 상기 사용자가 확인 가능하게 출력할 수 있다.The administrator terminal may receive an administrator's treatment instruction according to the user status image, and the virtual reality head mounted display may receive the treatment instruction through the network and output the treatment instruction to the user.

상기 가상현실 헤드 마운트 디스플레이 혹은 상기 관리자 단말은 상기 사용자 안면 영상 혹은 상기 사용자 상태 영상을 분석하는 분석 모듈을 더 포함하되, 상기 분석 모듈에서의 분석 결과 상기 사용자가 치료회피 중인지 여부를 판별하고, 치료회피로 판정된 경우 상기 사용자가 착용한 상기 가상현실 헤드 마운트 디스플레이를 통해 경고음 혹은 디렉션 음이 출력되게 할 수 있다. The virtual reality head mounted display or the manager terminal further includes an analysis module for analyzing the user's face image or the user's state image, and the analysis result in the analysis module determines whether the user is being evaded or not. If it is determined that the warning sound or direction sound can be output through the virtual reality head mounted display worn by the user.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 전면을 통해 사용자의 눈 및/또는 표정에 관한 영상을 보여줌으로써 관리자(보호자, 치료자, 보육자, 간병자 등)가 직관적으로 사용자 상태를 확인할 수 있어 즉각적인 대응이 가능한 효과가 있다.According to an embodiment of the present invention, by displaying an image of the user's eyes and / or facial expression through the front surface, an administrator (guardian, therapist, nursery, caregiver, etc.) can intuitively check the user status, thereby enabling immediate response There is.

또한, 전면을 통해 사용자의 눈 및/또는 표정에 관한 정보를 개념화하여 보여줌으로써 VR 콘텐츠 체험이 제대로 이루어지고 있는지 여부를 관리자가 직관적으로 확인할 수 있게 하는 효과도 있다. In addition, by conceptualizing and showing information about the user's eyes and / or facial expressions through the front, there is also an effect that allows the administrator to intuitively check whether the VR content experience is properly performed.

도 1은 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD의 개략적인 블록 구성도,
도 2는 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD를 이용한 사용자 상태 표시 방법의 순서도,
도 3 및 도 4는 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD를 후방 및 전방에서 내려다본 모습,
도 5는 VR HMD의 전면 디스플레이부의 다른 예시를 나타낸 도면,
도 6은 VR HMD의 전면 디스플레이부의 또 다른 예시를 나타낸 도면,
도 7은 사용자의 상태를 보여주는 VR HMD에서 사용자 상태를 표시하는 예시도,
도 8은 본 발명의 다른 실시예에 따른 VR HMD를 이용한 콘텐츠 관리 방법의 순서도,
도 9는 본 발명의 또 다른 실시예에 따른 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 시스템의 개략적인 구성도.
1 is a schematic block diagram of a VR HMD showing a user's state according to an embodiment of the present invention;
Figure 2 is a flow chart of a user status display method using a VR HMD showing the user's status according to an embodiment of the present invention,
3 and 4 are views of the VR HMD showing the user's state according to an embodiment of the present invention, as viewed from the rear and the front,
5 is a view showing another example of the front display unit of the VR HMD,
6 is a view showing another example of the front display unit of the VR HMD,
7 is an exemplary view showing a user state in a VR HMD showing a user state,
8 is a flowchart of a content management method using VR HMD according to another embodiment of the present invention,
9 is a schematic configuration diagram of a virtual reality head mounted display system showing a user's state according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention can be applied to various changes and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but there may be other components in between. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used herein are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.In addition, the components of the embodiments described with reference to the drawings are not limited to those embodiments, and may be implemented to be included in other embodiments within the scope of maintaining the technical spirit of the present invention. Although the description is omitted, it is natural that a plurality of embodiments may be reimplemented as one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same components, regardless of reference numerals, are assigned the same or related reference numerals, and redundant description thereof will be omitted. In the description of the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted.

또한, 명세서에 기재된 "…부", "…유닛", "…모듈", "…기" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as “… unit”, “… unit”, “… module”, and “… group” described in the specification mean a unit that processes at least one function or operation, which is hardware or software or hardware and software. It can be implemented as a combination of.

도 1은 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD의 개략적인 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD를 이용한 사용자 상태 표시 방법의 순서도이며, 도 3 및 도 4는 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD를 후방 및 전방에서 내려다본 모습이고, 도 5는 VR HMD의 전면 디스플레이부의 다른 예시를 나타낸 도면이며, 도 6은 VR HMD의 전면 디스플레이부의 또 다른 예시를 나타낸 도면이고, 도 7은 사용자의 상태를 보여주는 VR HMD에서 사용자 상태를 표시하는 예시도이다. 1 is a schematic block diagram of a VR HMD showing a user's state according to an embodiment of the present invention, and FIG. 2 is a user state displaying method using a VR HMD showing a user's state according to an embodiment of the present invention 3 and 4 are views of the VR HMD showing the user's state according to an embodiment of the present invention, as viewed from the rear and front, and FIG. 5 is a view showing another example of the front display unit of the VR HMD. , FIG. 6 is a diagram illustrating another example of the front display unit of the VR HMD, and FIG. 7 is an exemplary diagram of displaying the user status in the VR HMD showing the user's status.

본 발명의 일 실시예에 따른 사용자(착용자)의 상태를 보여주는 VR HMD(가상현실 헤드 마운트 디스플레이)는 전면 디스플레이를 통해 사용자의 눈 및/또는 표정을 촬영한 영상 혹은 이를 분석한 결과에 대응되는 애니메이션/이모티콘을 표시하여 관리자가 사용자 상태를 쉽게 확인 가능하도록 한다. VR HMD (Virtual Reality Head Mounted Display) showing the state of a user (wearer) according to an embodiment of the present invention is an animation corresponding to an image obtained by analyzing a user's eyes and / or facial expression through a front display or an analysis result thereof / Display emoticons so administrators can easily check user status.

본 실시예에 따른 사용자의 상태를 보여주는 VR HMD(100)는 프레임 바디(105), 내부 디스플레이부(110), 제어부(120), 카메라부(130), 전면 디스플레이부(140), 신호 처리부(150)를 포함한다. 또한, 실시예에 따라 센서부(160), 상태 출력부(170), 조작부(180) 중 하나 이상을 더 포함할 수도 있다. The VR HMD 100 showing the user's state according to the present embodiment includes a frame body 105, an internal display unit 110, a control unit 120, a camera unit 130, a front display unit 140, and a signal processing unit ( 150). Also, according to an embodiment, one or more of the sensor unit 160, the status output unit 170, and the operation unit 180 may be further included.

프레임 바디(105)는 내부 디스플레이부(110), 제어부(120), 카메라부(130), 전면 디스플레이부(140), 신호 처리부(150) 등의 구성요소가 설치되는 몸체로서, 사용자가 머리(얼굴)에 착용할 수 있도록 하는 형상을 가진다. The frame body 105 is a body in which components such as an internal display unit 110, a control unit 120, a camera unit 130, a front display unit 140, and a signal processing unit 150 are installed, and a user may use a head ( Face).

프레임 바디(105)의 배면부(106)는 사용자의 안면에서 눈 주변을 덮는 형태로, 사용자의 안면 굴곡에 대응하는 형태를 가질 수 있다. 배면부(106)에는 사용자의 눈에 대응하는 개구부가 형성되고, 개구부에는 렌즈를 포함하는 광학계가 설치될 수 있다. The rear surface 106 of the frame body 105 may cover a user's face around the eyes, and may have a shape corresponding to the user's facial curvature. An opening corresponding to a user's eye may be formed in the rear portion 106, and an optical system including a lens may be installed in the opening.

프레임 바디(105)의 내부에는 광학계에 대응하여 내부 디스플레이부(110)가 후방(즉, 배면부)을 향하도록 설치된다. 따라서, 착용 시 배면부의 광학계를 통해 사용자는 내부 디스플레이부(110)에서 재생되는 VR 콘텐츠와 같은 시청각 콘텐츠를 시청할 수 있게 된다. The inside of the frame body 105 is installed so that the inner display unit 110 faces the rear (ie, the rear portion) corresponding to the optical system. Accordingly, when worn, the user can watch audio-visual content such as VR content played on the internal display unit 110 through the optical system of the rear unit.

내부 디스플레이부(110)는 VR 콘텐츠와 같은 시청각 콘텐츠를 재생하여 표시한다(단계 S210). 예를 들어, 내부 디스플레이부(110)는 전송된 영상 신호를 재생하여 화면에 표출하는 LCD, LED, OLED 등과 같은 평판형 디스플레이일 수 있다. 또한, 내부 디스플레이부(110)는 오디오 출력을 위한 스피커도 포함할 수 있다. The internal display 110 reproduces and displays audio-visual content such as VR content (step S210). For example, the internal display unit 110 may be a flat panel display such as LCD, LED, OLED, etc. that reproduces the transmitted image signal and displays it on the screen. In addition, the internal display 110 may also include a speaker for audio output.

제어부(120)는 내부 디스플레이부(110)를 통한 시청각 콘텐츠의 재생을 제어한다. 제어부(120)는 후술할 조작부(180) 또는 통신부를 통한 사용자 혹은 관리자 입력에 의해 혹은 미리 설정된 제어 알고리즘에 따라 재생될 시청각 콘텐츠의 종류 결정, 결정된 시청각 콘텐츠의 재생 혹은 재생 정지 등을 수행한다.The control unit 120 controls reproduction of audio-visual content through the internal display unit 110. The control unit 120 determines the type of audio-visual content to be played back, or stops playback or playback of the determined audio-visual content, by a user or administrator input through an operation unit 180 or a communication unit, which will be described later, or according to a preset control algorithm.

본 실시예에서 내부 디스플레이부(110) 및 제어부(120)는 스마트폰으로 대체될 수 있으며, 이 경우 내부 디스플레이부(110) 및 제어부(120)로 기능하는 스마트폰은 착탈 가능하게 구성될 수 있다. 이 경우 프레임 바디(105)는 스마트폰의 착탈이 가능한 구조로 설계될 수 있으며, 헤드 마운트 디스플레이에서 착탈 가능한 스마트폰 구성은 본 발명이 속하는 기술분야에서 통상의 기술자에게 자명한 사항인 바 상세한 설명은 생략한다. In this embodiment, the internal display unit 110 and the control unit 120 may be replaced with a smart phone, and in this case, the smart phone functioning as the internal display unit 110 and the control unit 120 may be detachably configured. . In this case, the frame body 105 may be designed as a detachable structure of a smartphone, and the detachable smartphone configuration in the head mounted display is a matter obvious to a person skilled in the art to which the present invention pertains. Omitted.

시청각 콘텐츠는 별도의 저장부(미도시)에 미리 저장되어 있을 수 있다. 혹은 통신부(미도시)를 통해 원격에 있는 관리 서버(미도시)로부터 실시간으로 전송받을 수도 있다. Audio-visual content may be stored in advance in a separate storage (not shown). Alternatively, it may be transmitted in real time from a remote management server (not shown) through a communication unit (not shown).

프레임 바디(105)의 배면부(즉 접안부)에는 카메라부(130)가 설치된다. 카메라부(130)는 내부 디스플레이부(110)를 통해 재생되는 시청각 콘텐츠를 접한 사용자의 눈을 포함하는 사용자 안면을 촬영하여 사용자 안면 영상을 획득한다(단계 S220). The camera unit 130 is installed on the rear surface of the frame body 105 (ie, the eyepiece). The camera unit 130 acquires a user's facial image by photographing a user's face including the user's eyes that have encountered audio-visual content played through the internal display unit 110 (step S220).

카메라부(130)는 배면부의 가운데에 1개가 설치될 수 있다. 또는 사용자의 눈을 각각 촬영할 수 있도록 배면부의 광학계에 상응하는 위치마다 1개씩 2개가 설치될 수도 있다. 또는 보다 정교한 영상 획득을 위해 3개 이상이 설치될 수도 있을 것이다. One camera unit 130 may be installed in the center of the rear portion. Alternatively, two can be installed, one for each position corresponding to the optical system of the rear portion, so that each of the user's eyes can be photographed. Or three or more may be installed for more sophisticated image acquisition.

전면 디스플레이부(140)는 프레임 바디(105)의 전면부에 설치되는 디스플레이 장치로서, 카메라부(130)에서 촬영한 사용자 안면 영상을 미리 설정된 영상 처리 알고리즘에 의해 영상 처리하여 생성된 사용자 상태 영상을 표시할 수 있다(단계 S230). The front display unit 140 is a display device that is installed on the front portion of the frame body 105, and processes the user's face image captured by the camera unit 130 by using an image processing algorithm set in advance to generate a user state image. It can be displayed (step S230).

전면 디스플레이부(140)에 표시되는 사용자 상태 영상을 통해 관리자는 직관적으로 사용자의 현재 시청각 콘텐츠 시청 여부, 현재 재생 중인 시청각 콘텐츠에 대한 사용자 반응(사용자 감정 상태) 등을 직관적으로 확인할 수 있다. Through the user status image displayed on the front display unit 140, the administrator can intuitively check whether the user is currently viewing the audio-visual content or the user's reaction (user emotion state) to the currently playing audio-visual content.

신호 처리부(150)는 카메라부(130)에서 촬영한 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 전면 디스플레이부(140)에서 표시 가능한 포맷으로 영상 처리하여 사용자 상태 영상을 생성한다. The signal processing unit 150 generates a user state image by processing a user's face image photographed by the camera unit 130 in a format displayable by the front display unit 140 according to a predetermined image processing algorithm.

전면 디스플레이부(140)는 도 4에 도시된 것과 같이 1개의 디스플레이로 이루어지거나 혹은 도 5에 도시된 것과 같이 2개의 디스플레이(140a, 140b)로 이루어질 수 있다. The front display unit 140 may consist of one display as shown in FIG. 4 or may be composed of two displays 140a and 140b as shown in FIG. 5.

카메라부(130)의 개수와 전면 디스플레이부(140)의 개수가 동일한 경우, 신호 처리부(150)는 임의의 카메라부(130)에서 촬영한 영상이 해당 카메라부(130)에 대응되는 전면 디스플레이부(140)를 통해 바로 표시되도록 할 수 있다. When the number of camera units 130 and the number of front display units 140 are the same, the signal processing unit 150 may display an image captured by an arbitrary camera unit 130 corresponding to the corresponding camera unit 130. It can be displayed directly through (140).

여기서, 사용자 상태 영상은 간단하게는 사용자 안면 영상을 전면 디스플레이부(140)의 크기에 맞도록 적합하게 스케일 업 혹은 스케일 다운하거나 노이즈 제거한 영상일 수 있다.Here, the user state image may be simply an image that is scaled up or down or noise-reduced to fit the user's face image to fit the size of the front display 140.

또는, 신호 처리부(150)는 사용자 안면 영상에서 획득한 정보에 기초하여 이를 개념화한 애니메이션으로 사용자 상태 영상을 생성할 수도 있다. 예컨대, 사용자가 눈을 뜨고 있는 경우에는 눈을 뜨고 있는 애니메이션으로, 사용자가 눈을 감고 있는 경우에는 눈을 감고 있는 애니메이션으로, 판별된 사용자의 감정 상태에 상응하는 표정을 나타내는 애니메이션 등으로 대체할 수 있는 것이다. 이는 사용자가 본인의 눈을 포함하는 얼굴이 전면 디스플레이부(140)에 직접 표출되는 것을 꺼려할 수도 있는 점을 고려한 영상 처리 알고리즘이다. Alternatively, the signal processing unit 150 may generate a user state image with an animation conceptualizing it based on information obtained from the user's face image. For example, if the user opens his eyes, it can be replaced with an animation that opens his eyes, or if the user closes his eyes, the animation that closes his eyes, or an animation that expresses an expression corresponding to the determined user's emotional state. It is. This is an image processing algorithm considering that the user may be reluctant to directly display the face including his / her eyes on the front display unit 140.

또는 전면 디스플레이부는 도 6에 도시된 것과 같이 전면부의 일측에 소형으로 구현(140c 참조)될 수도 있다. 이는 사용자가 본인의 안면이 모두 노출되는 것이 꺼려지는 상황에서 사용 가능하게 구현된 것이다. Alternatively, the front display unit may be implemented in a small size (see 140c) on one side of the front unit as illustrated in FIG. 6. This is implemented to be usable in situations where the user is reluctant to expose all of his or her face.

이 경우 소형의 전면 디스플레이부(140c)는 카메라부(130)에서 촬영한 영상을 보여주는 것이 아니라 신호 처리부(150)에서 영상을 분석한 결과에 따라 눈을 뜨고 있는지 혹은 감정 상태가 어떤지를 판정한 결과에 상응하는 이모티콘(도 6의 (b), (c) 참조)을 표시할 수 있다. In this case, the small front display unit 140c does not show the image taken by the camera unit 130 but determines whether the eye is opened or the emotional state is determined according to the result of analyzing the image by the signal processing unit 150. Corresponding emoticons (see (b) and (c) of FIG. 6) may be displayed.

다시 도 1을 참조하면, 본 실시예에 따른 VR HMD(100)는 사용자에 관한 부가 정보를 측정하는 센서부(160)를 더 포함할 수 있다. Referring back to FIG. 1, the VR HMD 100 according to the present embodiment may further include a sensor unit 160 that measures additional information about the user.

센서부(160)는 사용자의 뇌파(EGG)를 측정하는 뇌파 센서, 사용자의 동공 크기(pupil size)를 측정하는 퓨필 측정기, 사용자의 시선(안구 움직임)을 추적하는 아이트래커, 사용자의 심박수(HR), 심박변이도(HRV), 심전도(ECG)를 측정하는 심장 센서, 사용자의 피부저항도(GSR)를 측정하는 피부 센서 중 하나 이상을 포함할 수 있다. The sensor unit 160 is an EEG sensor that measures the user's EEG, an pupil sensor that measures the pupil size of the user, an eye tracker that tracks the user's gaze (eye movement), and the user's heart rate (HR ), Heart rate variability (HRV), heart sensor measuring electrocardiogram (ECG), skin sensor measuring user's skin resistance (GSR).

센서부(160)에서는 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 등의 생체신호를 획득할 수 있다(단계 S240). The sensor unit 160 may obtain a biosignal such as an EEG, heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, and gaze direction (step S240).

센서부(160)에서 획득한 생체신호는 신호 처리부(150)에서 사용자 부가 정보로 가공되어(단계 S250), 전면 디스플레이부(140)를 통해 표시되는 사용자 상태 영상에 중첩되어 표시되게 할 수 있다(단계 S260). The bio-signal obtained by the sensor unit 160 is processed as additional user information in the signal processing unit 150 (step S250), so that it can be superimposed on the user state image displayed through the front display unit 140 ( Step S260).

도 7의 (a)를 참조하면, 전면 디스플레이부(140)를 통해 사용자 상태 영상 이외에 환자 정보(예컨대, 나이 등), 동공 크기, 동공 크기 변화 등이 중첩 표시된 예시가 도시되어 있다. Referring to (a) of FIG. 7, an example in which patient information (eg, age, etc.), pupil size, pupil size change, and the like are displayed in addition to the user state image through the front display unit 140 is superimposed.

도 7의 (b)를 참조하면, 전면 디스플레이부(140)를 통해 사용자 상태 영상 이외에 환자 감정 정보, 뇌파(EGG) 스펙트럼 등이 중첩 표시된 예시가 도시되어 있다. Referring to (b) of FIG. 7, an example in which patient emotion information, an EEG spectrum, and the like are displayed in addition to a user state image through the front display unit 140 is illustrated.

또한, 센서부(160)에서는 뇌파센서를 통해 아이블링크(eye blink) 신호를 측정할 수도 있다. 아이블링크 신호는 눈 깜빡임에 관한 신호이다. Also, the sensor unit 160 may measure an eye blink signal through an EEG sensor. The iBlink signal is a signal related to blinking of the eyes.

제어부(120)는 아이블링크 신호가 지속적으로 감지되지 않았을 때 사용자가 눈을 감고 있는 것으로 판정할 수 있다. 이 경우 신호 처리부(150)를 제어하여 애니메이션 혹은 이모티콘을 표시하는 전면 디스플레이부(140)를 통해 현재 사용자의 상태(특히, 눈을 감고 있는지 여부)에 대해서 표시해 줄 수 있다. 아이블링크 신호가 감지되는 동안에는 눈을 뜨고 있는 애니메이션 혹은 이모티콘이 표시되게 하고, 아이블링크 신호가 일정 시간 이상 감지되지 않으면 눈을 감고 있는 애니메이션 혹은 이모티콘이 표시되게 할 수 있다. The control unit 120 may determine that the user is closing his eyes when the i-link signal is not continuously detected. In this case, the state of the current user (especially, whether or not the eyes are closed) may be displayed through the front display unit 140 that controls the signal processing unit 150 and displays animation or emoticons. While the i-link signal is detected, the animation or emoticon with the eyes open may be displayed. If the i-link signal is not detected for a certain time or more, the animation or emoticon with the eyes closed may be displayed.

또한, 본 실시예에 따른 VR HMD(100)는 생체신호 해석 결과에 따른 사용자 상태를 출력하는 상태 출력부(170)를 더 포함할 수 있다. In addition, the VR HMD 100 according to the present embodiment may further include a status output unit 170 that outputs a user state according to a biosignal analysis result.

상태 출력부(170)는 프레임 바디(105)의 전면에 설치될 수 있으며, 복수의 색상 발현이 가능한 LED와 사운드 출력이 가능한 스피커 중 하나 이상을 포함할 수 있다. The status output unit 170 may be installed on the front surface of the frame body 105, and may include one or more of a plurality of color-expressing LEDs and a speaker capable of sound output.

센서부(160)에서 획득한 생체신호의 해석 결과가 콘텐츠를 통해 얻고자 하는 기대 상태와는 상이한 이상 상태를 나타내는 경우(예컨대, 공포, 불안 등) 관리자가 인지할 수 있도록 하는 경고 불빛을 LED를 통해 표출하거나 경고음 등을 스피커를 통해 출력할 수 있다. 관리자는 경고 불빛이나 경고음을 통해 현재 재생중인 콘텐츠를 정지시키거나 VR HMD(100)의 착용을 해제시킬 수 있다. When the analysis result of the bio-signal obtained from the sensor unit 160 indicates an abnormal state different from the expected state to be obtained through the content (for example, fear, anxiety, etc.), the LED is turned on to warn the administrator to recognize it. You can express it or output a warning sound through the speaker. The manager may stop the content currently being played or release the VR HMD 100 through the warning light or the warning sound.

또는 제어부(120)를 통해 현재 재생중인 콘텐츠를 자동으로 전환시키거나 정지시키게 할 수도 있다. Alternatively, the controller 120 may automatically switch or stop the currently playing content.

생체신호의 해석 결과는 다음과 같은 변화상황에서 사용자가 이상 상태에 있는 것으로 판단할 수 있다. The result of the analysis of the bio-signal can be determined to be in an abnormal state by the user in the following changes.

뇌파(EEG) - High beta 증가, Gamma 증가EEG-High beta increase, Gamma increase

심박(HR) - 증가Heart rate (HR)-increased

심박변이도(HRV) - RR, LF, HF, FL/HF 증가Heart Rate Variability (HRV)-RR, LF, HF, FL / HF increase

피부저항도(GSR) - 증가Skin resistance (GSR)-increase

동공크기(Pupil Size) - 증가Pupil Size-Increase

안구움직임 - 불규칙정도 증가Eye movement-increased irregularity

상기 생체신호의 증가는 일정 범위까지는 흥미의 증가로 볼 수 있으며, 임계치를 넘어설 경우에는 놀람, 불안 등으로 해석될 수 있다. 임계치는 사용자마다 개인차가 있을 수 있으며, 사용자의 질병, 평상시 상태 등과 같은 개인 상태 정보를 고려하여 보정될 수 있다. The increase in the bio-signal can be regarded as an increase in interest up to a certain range, and can be interpreted as surprise or anxiety when the threshold is exceeded. The threshold may have individual differences for each user, and may be corrected in consideration of personal status information such as the user's disease and normal condition.

본 실시예에서 제어부(120)는 카메라부(130)를 통해 획득한 사용자 안면 영상의 분석 결과 혹은 센서부(160)를 통해 획득한 생체신호의 해석 결과 사용자가 미리 설정된 시간(예컨대, 15초 정도) 이상으로 눈을 지속적으로 감고 있는 경우 상태 출력부(170)를 통해 경고 신호(경고 불빛, 경고음)를 출력시킴으로써 관리자가 이를 인지하게 할 수 있다. In this embodiment, the control unit 120 analyzes the user's facial image obtained through the camera unit 130 or the analysis result of the bio-signal obtained through the sensor unit 160, a user preset time (for example, about 15 seconds) ) If the eyes are continuously closed above, the manager may recognize this by outputting a warning signal (warning light, warning sound) through the status output unit 170.

사용자가 일정 시간 이상 눈을 감고 있는 경우 현재 시청각 콘텐츠의 재생이 사용자에게 의도한 효과를 발생시키지 못하게 되는 바, 이를 관리자에게 알려줌으로써 해당 사용자에게 적절한 조치가 취해질 수 있게 하기 위함이다. 이 경우 경고 신호 출력을 통해 관리자가 지속적으로 모니터링하지 않더라도 쉽게 인지할 수 있게 함으로써 소수의 관리자가 다수의 사용자를 동시에 케어하는 것이 가능하게 할 수 있다. If the user closes his or her eyes for a certain period of time, the playback of the current audio-visual content will not cause the intended effect to the user, so that the user can take appropriate action by notifying the administrator. In this case, it is possible to enable a small number of managers to care for multiple users at the same time by making it easy to recognize even if the manager does not continuously monitor through the warning signal output.

또한, 본 실시예에 따른 VR HMD(100)는 외부에서 시청각 콘텐츠의 재생, 정지, 변환 등과 같은 콘텐츠 관련 조작이 가능한 조작부(180)를 더 포함할 수 있다. In addition, the VR HMD 100 according to the present embodiment may further include an operation unit 180 capable of content-related manipulation, such as reproduction, stop, conversion, etc. of audio-visual content from the outside.

조작부(180)는 도 7의 (a)에 도시된 것과 같이 하드웨어(HW)적인 버튼으로 구현될 수도 있고, 도 7의 (b)에 도시된 것과 같이 소프트웨어(SW)로 구현되어 전면 디스플레이부(140)에 표시될 수도 있다. The operation unit 180 may be implemented as a hardware (HW) button as shown in FIG. 7 (a), or implemented as software (SW) as shown in FIG. 7 (b) to display the front display unit ( 140).

관리자는 전면 디스플레이부(140)를 통해 파악되는 사용자 상태에 따라 재생할 시청각 콘텐츠의 전환, 재생 중인 시청각 콘텐츠의 정지, 정지된 시청각 콘텐츠의 재생 등과 같은 콘텐츠 관련 조작에 적합한 하드웨어 버튼 혹은 소프트웨어 버튼을 누르는 간단한 조작으로 사용자를 케어할 수 있다. The administrator simply presses a hardware button or a software button suitable for content-related operations, such as switching audio-visual content to be played, stopping audio-visual content being played, and playing audio-visual content, depending on the user state identified through the front display 140. You can care for the user by manipulation.

이는 시청각 콘텐츠의 시청 중에 사용자에게 심리적 불안정이 발생한 것과 같은 이상 상태가 발생한 경우 신체가 불편한 사용자의 경우 자율적으로 VR HMD(100)의 해제가 불가능할 수 있는 상황에서 시청각 콘텐츠의 시청이 오히려 사용자에게 위해를 가할 수도 있는 바, 관리자가 외부에서 원활히 도움을 주기 위함이다. This is because, in the situation where an abnormal state such as psychological instability occurs to the user while viewing the audio-visual content, the user of the physically uncomfortable may not be able to autonomously release the VR HMD 100. It can be applied, so that the administrator can help smoothly from the outside.

본 실시예에 의하면, 전면 디스플레이부(140)를 통해 사용자가 눈을 지속적으로 감고 있는지 여부, 현재 재생 중인 VR 콘텐츠에 대해 느끼는 감정 상태(예컨대, 두려움, 놀람, 공포 등)는 무엇인지, 그리고 그 감정 정도가 어떠한지 등에 대해서 카메라부(130)에서 촬영된 사용자 상태 영상을 통해 혹은 사용자 상태에 상응하는 애니메이션 혹은 이모티콘을 통해 관리자가 직관적으로 파악할 수 있게 되어 사용자 상태에 따라 적합한 대응이 즉시적으로 이루어질 수 있게 도와준다. According to the present embodiment, whether the user continuously closes his or her eyes through the front display unit 140, what is the emotional state (for example, fear, surprise, fear, etc.) felt about the currently playing VR content, and The administrator can intuitively grasp the emotion level through the user state image captured by the camera unit 130 or through an animation or emoticon corresponding to the user state, so that an appropriate response can be immediately performed according to the user state. To help.

특히, VR 콘텐츠의 경우 높은 현실감과 몰입도로 인해 정신질환의 치료, 장기요양환자나 치매환자의 간병 등으로 적용범위가 확대되고 있다. 본 실시예에 따르면 VR HMD(100)를 착용한 환자의 표정, 눈빛 등을 관찰할 수 있어 환자의 심리적 불안정이 발생한 경우 즉각적 대응이 가능하고 신체가 불편한 환자에 대해서도 집중적 간병이 가능하게 된다. 따라서, 소수의 간병인이 다수의 환자를 동시에 케어할 수 있는 장점이 있다. In particular, the scope of VR content is expanding due to the high degree of realism and immersion in the treatment of mental disorders and the care of patients with long-term care or dementia. According to this embodiment, it is possible to observe the facial expression, eyes, etc. of the patient wearing the VR HMD 100, so that if the patient's psychological instability occurs, immediate response is possible, and intensive care is possible even for patients with physical discomfort. Therefore, there is an advantage that a small number of caregivers can simultaneously care for a large number of patients.

도 8은 본 발명의 다른 실시예에 따른 VR HMD를 이용한 콘텐츠 관리 방법의 순서도이다. 8 is a flowchart of a content management method using VR HMD according to another embodiment of the present invention.

내부 디스플레이부(110)를 통해 콘텐츠를 재생한다(단계 S310). The content is played through the internal display 110 (step S310).

VR HMD(100)를 착용한 사용자는 재생되는 콘텐츠를 시청하게 되며, 카메라부(130)에서 사용자의 콘텐츠 반응을 영상으로 획득한다(단계 S320). 또한, 센서부(160)에서 사용자의 콘텐츠 반응을 생체신호로 획득할 수도 있다. The user wearing the VR HMD 100 watches the played content, and the user's content response is acquired by the camera 130 as an image (step S320). In addition, the sensor unit 160 may acquire a user's content response as a biosignal.

획득한 영상 및/또는 생체신호는 시간대별로 재생된 콘텐츠와 연관하여 저장할 수 있다(단계 S330). 획득한 영상 및/또는 생체신호는 전면 디스플레이부(140)를 통해 실시간으로 표현될 수 있다(단계 S335). The acquired image and / or bio-signal may be stored in association with content reproduced by time (step S330). The acquired image and / or biosignal may be displayed in real time through the front display unit 140 (step S335).

그리고 획득한 영상 및/또는 생체신호를 분석하여 해당 콘텐츠에 대한 사용자 반응과 대응감정을 분석한다(단계 S340). Then, the obtained image and / or bio-signal is analyzed to analyze the user's reaction and corresponding emotion for the corresponding content (step S340).

사용자의 콘텐츠에 대한 감정 분석 결과를 미리 지정된 기준에 따라 구분 판정한다(단계 S350). 예를 들어, 감정 상태는 관심(engagement), 지루함(boring), 편안함(restful), 두려움(fear) 등으로 구분될 수 있다. The result of the emotion analysis on the user's content is determined according to a predetermined criterion (step S350). For example, the emotional state can be divided into interest, boring, restful, and fear.

판정된 감정 상태에 따라 콘텐츠의 유지 혹은 전환을 결정한다(단계 S360). The content is maintained or converted according to the determined emotional state (step S360).

추가적으로 판정된 감정 상태에 기반하여 해당 콘텐츠에 대한 사용자의 선호도, 혐오도를 저장하고, 추후 콘텐츠의 전환 시 추천 혹은 회피하게 할 수 있다(단계 S370). In addition, the user's preference and aversion to the corresponding content may be stored based on the determined emotional state, and may be recommended or avoided when switching the content later (step S370).

예를 들어, 동공 크기와 부가적인 사용자 생체정보를 이용하는 경우를 가정하여 설명한다. For example, it will be described on the assumption that a pupil size and additional user biometric information are used.

카메라부(130)는 동공 크기를 측정한다. 그리고 시선의 동선을 파악하여 주의 집중하는 부분을 측정할 수도 있다. The camera unit 130 measures the pupil size. In addition, you can measure the part of attention by grasping the line of sight.

센서부(160)는 맥파(PPG), 심전도(ECG), 뇌파(EGG) 등을 측정할 수 있다. The sensor unit 160 may measure pulse waves (PPG), electrocardiogram (ECG), and brain waves (EGG).

신호 처리부(150)는 동공 크기를 포함하여 유의미한 생체정보 변화를 판별한다. 여기에는 맥파, 심전도, 뇌파 등을 함께 사용하여 종합적인 판단을 수행할 수 있다. 또한, 시선의 이동도 함께 사용할 수 있다. The signal processing unit 150 determines significant bioinformation changes, including pupil size. Here, comprehensive judgment can be performed using pulse waves, electrocardiograms, and brain waves. In addition, movement of the gaze can also be used.

제어부(120)는 유의미한 생체정보 변화시점에 상응하는 해당 콘텐츠의 시점 또는 구간을 기록하거나 스냅샷을 생성할 수 있다. The control unit 120 may record a time point or section of the corresponding content corresponding to a point in time of a significant change in biological information or create a snapshot.

예를 들어 소방관을 위한 PTSD치료의 경우 화재 상황에서 특별히 동공이 커지는 (추가하여 맥파반응도 변동하는) 시점을 측정하여 해당 시점의 이미지 스냅샷 또는 전후 구간을 동영상 클립으로 저장하고, 부가적으로 그 시점 또는 구간에서 대상자의 시선이 집중하는 부분(예를 들어 불이 붙는 커튼)을 추적하여 해당 부분만 특별히 마킹하여 줄 수 있다. For example, in the case of PTSD treatment for firefighters, a point in time at which the pupil is particularly enlarged (in addition, the pulse wave response also fluctuates) in a fire situation is measured, and a snapshot of the image or a section before and after that point is saved as a video clip, and additionally, the point of view Alternatively, the part where the subject's gaze is concentrated in the section (for example, a lighted curtain) may be tracked and only the relevant part may be marked.

또는 콘텐츠를 활용한 치매환자의 간병의 경우에는 동공의 크기가 발생한 부분의 스냅샷 또는 전후 구간 동영상클립으로 콘텐츠 감상 후 미술치료교육 등에 활용할 수 있다. Alternatively, in the case of caring for dementia patients using the content, it can be used for art therapy education after viewing the content with a snapshot of the part where the pupil size occurred or a video clip in the front and rear sections.

또는 약물 중독치료, 분노장애치료 등의 경우에는 해당시점의 대화내용 등을 추출하여 해당 사운드에 대한 분노발생 원인 등을 상담으로 알아내어 추가적인 치료의 방향을 잡을 수 있다.Alternatively, in the case of drug addiction treatment, anger disorder treatment, etc., the dialogue content at the time can be extracted to find out the cause of anger about the sound through counseling, and the direction of additional treatment can be determined.

또는 체계적 탈감작 등의 방법을 활용하는 혐오치료, 강화치료 등에서는 해당 구간의 냄새, 소리, 시각, 촉각 등 각종 자극 및 감각상태를 활용하여 추후 치료에서 강화해야 할 감각의 종류를 선정하여 효과의 극대화를 추구할 수 있다. Or, in aversion treatment and reinforcement treatment using methods such as systematic desensitization, various types of stimuli and sensory conditions such as smell, sound, vision, and tactile sense of the relevant section are utilized to maximize the effect by selecting the type of sensation to be strengthened in future treatment. Can pursue.

별도의 저장부를 통해, 유의미한 생체정보 변화시점에 상응하는 해당 스냅샷을 파일화, 출력, DB화하여 후반 치료 또는 교육에 활용할수록 지원할 수도 있다. Through a separate storage unit, the corresponding snapshot corresponding to the point of change of the significant bio-information can be filed, output, and DB, and used as it is used for post-treatment or education.

목적시점의 스냅샷 또는 동영상, 사운드, 냄새약물, 촉각 자극 등 감각적 자극의 소스를 활용별로 파일화, 출력, DB화하여 활용을 지원할 수 있다. The source of the sensory stimuli such as snapshots or video, sound, odor drugs, and tactile stimuli at the point of view can be filed, output, and DB-by-application to support utilization.

예컨대, 치매의 경우 콘텐츠 간병 후 미술치료에 활용할 스냅샷의 출력이 이루어질 수 있다. PTSD의 경우 반응이 강했던 구간의 동영상 클립과 시선집중지점의 마킹을 동영상에 저장할 수 있다. 중독치료, 분노장애치료의 경우 자극제공의 정보를 DB화하여 분석하고 추후 치료극대화를 위해 활용할 수 있을 것이다. For example, in the case of dementia, output of a snapshot to be used for art therapy after content care can be performed. In the case of PTSD, the video clip of the section with strong response and the marking of the focusing point can be stored in the video. In the case of addiction treatment and anger disorder treatment, the information of stimulus provision can be DB analyzed and used for further treatment maximization.

본 실시예에 따르면, 사용자에 대한 영상 및/또는 생체신호를 실시간으로 분석하여 콘텐츠에 대한 반응이 유쾌하지 않을 시(예컨대, 두려움, 지루함 등) 다른 콘텐츠로 전환시켜 줄 수 있다. According to the present exemplary embodiment, an image and / or a bio-signal for a user may be analyzed in real time to switch to other content when the response to the content is not pleasant (eg, fear, boredom, etc.).

그리고 특정 사용자에 대해서는 해당 사용자가 좋아하는 콘텐츠 유형을 판단하고, 유사 콘텐츠를 추천해 줄 수도 있다. In addition, for a specific user, the content type preferred by the user may be determined and similar content may be recommended.

이러한 콘텐츠의 전환 및 추천이 자동으로 이루어지게 함으로써 별도의 조작 없이도 사용자가 희망하는 콘텐츠를 계속 감상할 수 있게 하여, 소수의 관리자가 다수의 사용자를 관리할 수 있게 하는 장점이 있다. By automatically converting and recommending such content, it is possible to continuously enjoy the content desired by the user without any additional manipulation, so that a small number of administrators can manage a large number of users.

상술한 본 실시예들에 따른 VR HMD를 이용한 사용자 상태 표시 방법 및/또는 콘텐츠 관리 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. The user state display method and / or content management method using the VR HMD according to the above-described embodiments can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes any kind of recording medium that stores data that can be read by a computer system. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, and an optical data storage device. In addition, the computer-readable recording medium may be distributed over computer systems connected by a computer communication network, and stored and executed as code readable in a distributed manner.

도 9는 본 발명의 또 다른 실시예에 따른 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 시스템의 개략적인 구성도이다. 9 is a schematic configuration diagram of a virtual reality head mounted display system showing a user's state according to another embodiment of the present invention.

도 9를 참조하면, 복수의 환자들은 가상현실 헤드 마운트 디스플레이를 착용하고 있고, 원격에 관리자 단말(400)이 위치하여 복수의 가상현실 헤드 마운트 디스플레이와는 인터넷과 같은 네트워크를 통해 연결될 수 있다. Referring to FIG. 9, a plurality of patients are wearing a virtual reality head mounted display, and a manager terminal 400 is remotely located to be connected to a plurality of virtual reality head mounted displays through a network such as the Internet.

관리자 단말(400)은 환자에 대한 치료를 담당하는 치료자(예컨대, 의사, 간호사, 간병인 등)가 환자 상태를 확인할 수 있는 단말 화면(420)을 포함하고 있다. The manager terminal 400 includes a terminal screen 420 through which a therapist (eg, doctor, nurse, caregiver, etc.) in charge of treatment for a patient can check the patient's condition.

가상현실 헤드 마운트 디스플레이는 각 사용자(환자)의 안면(눈 포함)에 관한 사용자 안면 영상을 획득한다. 또한, 부착된 각종 센서를 통해 센서 정보를 획득할 수 있다. 센서 정보에는 뇌파, 심박수, 심박변이도, 심전도, 동공 크기, 시선 방향 중 적어도 하나의 생체신호가 포함될 수 있다. The virtual reality head mounted display acquires a user's face image of each user's (patient's) face (including the eyes). In addition, sensor information may be acquired through various attached sensors. The sensor information may include at least one biosignal among brain waves, heart rate, heart rate variability, electrocardiogram, pupil size, and gaze direction.

여기서, 사용자 안면 영상에 대한 영상 신호 해석 혹은 생체신호에 대한 해석은 전술한 것과 같이 클라이언트단인 가상현실 헤드 마운트 디스플레이의 분석 모듈(미도시)에서 수행될 수 있다. 혹은 서버단인 관리자 단말(400)에서 분석 모듈(410)을 통해 영상 신호 해석 및/또는 생체신호 해석이 수행될 수도 있다. Here, the analysis of the image signal for the user's face image or the analysis of the biosignal may be performed in the analysis module (not shown) of the virtual reality head mounted display as the client end as described above. Alternatively, image signal analysis and / or biosignal analysis may be performed through the analysis module 410 in the server terminal, the administrator terminal 400.

단말 화면(420)에는 각 환자들(치료대상자들)의 상태가 일목요연하게 표현될 수 있다. 도 9를 참조하면, 환자 1과 환자 3은 눈을 뜨고 있고, 환자 2와 환자 4는 눈을 감고 있는 것을 확인할 수 있다. On the terminal screen 420, the state of each patient (the subjects to be treated) can be clearly expressed. Referring to FIG. 9, it can be seen that patients 1 and 3 have their eyes open, and patients 2 and 4 have their eyes closed.

눈을 감거나 고개를 돌리는 등 현재 사용자의 상태가 치료회피행동 등으로 판단될 경우, 관리자(치료자)는 해당 사용자(환자)에게 마이크로 치료지시를 내릴 수 있다. 해당 사용자에 상응하는 마이크 아이콘(430)을 클릭 혹은 터치함으로써 선택하고, 관리자가 관리자 단말(400)에 구비된 마이크를 통해 말하면 해당 사용자에게만 치료지시가 음성으로 전달될 수 있다. When the current user's condition, such as closing his eyes or turning his head, is determined to be a treatment avoidance behavior, the manager (therapist) may give a micro-treatment instruction to the user (patient). If the user selects the microphone icon 430 corresponding to the user by clicking or touching, and the administrator speaks through the microphone provided in the administrator terminal 400, the treatment instruction can be transmitted to the user only by voice.

혹은 사용자의 치료회피행동에 대해서 클라이언트단(가상현실 헤드 마운트 디스플레이) 혹은 서버단(관리자 단말(400))에서 자동 파악하고, 해당 치료회피행동에 대해 가상현실 헤드 마운트 디스플레이를 통해 경고음을 출력하거나 디렉션 음(예컨대, 고개 돌리지 마세요, 눈을 감지 마세요 등)을 출력하게 할 수도 있다.Alternatively, the user's treatment avoidance behavior is automatically detected at the client end (virtual reality head mounted display) or the server end (administrator terminal 400), and a warning sound is output or directed through the virtual reality head mounted display for the treatment avoidance behavior. You can also output sound (eg, don't turn your head, don't close your eyes, etc.).

사용자의 눈에 관한 정보는 영상으로 전달되어 단말 화면(420)에서 영상으로 표현될 수 있다(환자 1 및 3 참조). 혹은 영상으로 전달된 정보가 분석 모듈(410)을 통해 아이콘 혹은 애니메이션의 형태로 보여질 수도 있다(환자 2 및 4 참조). 혹은 클라이언트단에서 해석되어 서버단으로는 영상 대신에 아이콘 형태로만 전달되어 보여질 수도 있다. 이에 의해 프라이버시 등의 문제가 해결될 수 있다. Information about the user's eyes may be transmitted as an image and expressed as an image on the terminal screen 420 (see patients 1 and 3). Alternatively, the information transmitted as an image may be displayed in the form of an icon or animation through the analysis module 410 (see patients 2 and 4). Or, it can be interpreted at the client side and delivered to the server side only in the form of an icon instead of an image. Thereby, problems such as privacy can be solved.

상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments of the present invention, those skilled in the art variously modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. And can be changed.

100: VR HMD 105: 프레임 바디
110: 내부 디스플레이부 120: 제어부
130: 카메라부 140: 전면 디스플레이부
150: 신호 처리부 160: 센서부
170: 상태 출력부 180: 조작부
100: VR HMD 105: Frame body
110: internal display unit 120: control unit
130: camera unit 140: front display unit
150: signal processing unit 160: sensor unit
170: status output unit 180: operation unit

Claims (15)

사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이(VR HMD)에 있어서,
상기 프레임 바디의 배면부에 설치되어, 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 카메라부;
상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리한 사용자 상태 영상을 생성하는 신호 처리부; 및
상기 프레임 바디의 전면부에 설치되는 디스플레이 장치로서, 영상 처리된 상기 사용자 상태 영상을 표시하는 전면 디스플레이부를 포함하되,
상기 사용자 상태 영상은 상기 사용자 안면 영상을 상기 전면 디스플레이부의 크기에 맞도록 스케일 업 혹은 스케일 다운하여 생성되고,
상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 센서부를 더 포함하며,
상기 신호 처리부는 상기 생체신호를 사용자 부가 정보로 가공하여, 상기 전면 디스플레이부를 통해 표시되는 상기 사용자 상태 영상에 중첩 표시되게 하고,
상기 센서부는 뇌파센서를 통해 눈 깜빡임에 관한 아이블링크 신호를 측정하고,
상기 아이블링크 신호가 일정 시간 이상 지속적으로 감지되지 않았을 때 상기 사용자가 눈을 감고 있는 것으로 판정하는 제어부를 더 포함하되,
상기 제어부는 상기 신호 처리부를 제어하여 상기 사용자가 눈을 감고 있는지 여부에 대해 상기 전면 디스플레이부를 통해 표시해주는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
In the virtual reality head mounted display (VR HMD) that allows the user to watch the audio-visual content played through the internal display installed inside the frame body worn on the head,
A camera unit installed on the rear surface of the frame body to acquire a user facial image including the user's eyes;
A signal processor generating a user state image processed by processing the user's face image according to a predetermined image processing algorithm; And
A display device installed on the front portion of the frame body, including a front display unit for displaying the user-processed image of the image processing,
The user state image is generated by scaling up or down the user's face image to fit the size of the front display,
The user's brain wave (EGG), heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, further includes a sensor unit for obtaining a biosignal of at least one of the gaze direction,
The signal processing unit processes the biosignal as user additional information so that it is superimposed on the user state image displayed through the front display unit,
The sensor unit measures the eye blink signal related to the blink of the eye through the EEG sensor,
Further comprising a control unit for determining that the user is closing his eyes when the iBlink signal is not continuously detected for a certain period of time,
The control unit controls the signal processing unit to display whether or not the user is closing his or her eyes through the front display unit.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 생체신호의 해석 결과에 따른 사용자 상태를 출력하는 상태 출력부를 더 포함하되,
상기 상태 출력부는 복수의 색상 발현이 가능한 LED와 사운드 출력이 가능한 스피커 중 하나 이상을 포함하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
According to claim 1,
Further comprising a status output unit for outputting a user state according to the analysis result of the bio-signal,
The status output unit is a virtual reality head-mounted display, characterized in that it comprises at least one of a plurality of color capable LED and a speaker capable of sound output.
제1항에 있어서,
상기 생체신호의 해석 결과 혹은 상기 사용자 안면 영상의 분석 결과에 따라 상기 사용자의 감정 상태를 판정하고, 판정 결과에 따라 현재 재생 중인 상기 시청각 콘텐츠를 자동 전환하거나 정지시키는 제어부를 더 포함하는 가상현실 헤드 마운트 디스플레이.
According to claim 1,
Virtual reality head mount further comprising a control unit for determining the emotional state of the user according to the analysis result of the bio-signal or the analysis result of the user's face image, and automatically switching or stopping the audio-visual content currently playing according to the determination result display.
제1항에 있어서,
상기 시청각 콘텐츠의 재생, 정지, 변환을 포함하는 콘텐츠 관련 조작이 가능한 조작부를 더 포함하되,
상기 조작부는 상기 전면부에 하드웨어적 버튼으로 구현되거나 상기 전면 디스플레이부에 소프트웨어적 버튼으로 구현되는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
According to claim 1,
Further comprising a control unit capable of content-related manipulation, including playback, stop, conversion of the audio-visual content,
The operation unit is implemented as a hardware button on the front portion or a virtual reality head mounted display, characterized in that implemented as a software button on the front display portion.
사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이에서 수행되는 사용자 상태 표시 방법으로서,
상기 시청각 콘텐츠가 재생될 때 상기 프레임 바디의 배면부에 설치된 카메라부를 통해 상기 사용자의 안면에 대한 사용자 안면 영상을 획득하는 단계;
신호 처리부에서 상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리하여 사용자 상태 영상을 생성하는 단계; 및
상기 프레임 바디의 전면부에 설치된 전면 디스플레이부에서 상기 사용자 상태 영상을 표시하는 단계를 포함하되,
상기 사용자 상태 영상은 상기 사용자 안면 영상을 상기 전면 디스플레이부의 크기에 맞도록 스케일 업 혹은 스케일 다운하여 생성되고,
센서부에서 상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 단계를 더 포함하되,
상기 신호 처리부는 상기 생체신호를 사용자 부가 정보로 가공하여, 상기 전면 디스플레이부를 통해 표시되는 상기 사용자 상태 영상에 중첩 표시되게 하고,
상기 센서부는 뇌파센서를 통해 눈 깜빡임에 관한 아이블링크 신호를 측정하는 단계;
제어부에서 상기 아이블링크 신호가 일정 시간 이상 지속적으로 감지되지 않았을 때 상기 사용자가 눈을 감고 있는 것으로 판정하는 단계;
상기 제어부에서 상기 신호 처리부를 제어하여 상기 사용자가 눈을 감고 있는지 여부에 대해 상기 전면 디스플레이부를 통해 표시해주는 단계를 더 포함하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이에서의 사용자 상태 표시 방법.
A user state display method performed on a virtual reality head mounted display that allows a user to watch audio-visual content played through an internal display installed inside the frame body by wearing it on the head,
Acquiring a user's face image of the user's face through a camera unit installed on a rear portion of the frame body when the audio-visual content is reproduced;
Generating, by the signal processing unit, the user's face image by processing the image according to a predetermined image processing algorithm; And
Displaying the user status image on the front display unit installed on the front portion of the frame body,
The user state image is generated by scaling up or down the user's face image to fit the size of the front display,
The sensor unit further comprises the step of acquiring at least one bio-signal of the user's brain wave (EGG), heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, gaze direction,
The signal processing unit processes the biosignal as user additional information so that it is superimposed on the user state image displayed through the front display unit,
The sensor unit measures an eye-blink signal related to blinking of an eye through an EEG sensor;
Determining, by the control unit, that the user is closing his eyes when the iBlink signal is not continuously detected for a predetermined time or longer;
And controlling the signal processing unit in the control unit to display whether the user is closing his or her eyes through the front display unit.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020180014945A 2018-02-07 2018-02-07 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system KR102113634B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180014945A KR102113634B1 (en) 2018-02-07 2018-02-07 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180014945A KR102113634B1 (en) 2018-02-07 2018-02-07 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190100885A Division KR20190101336A (en) 2019-08-19 2019-08-19 Virtual reality head mounted display system for showing user's status

Publications (2)

Publication Number Publication Date
KR20190095671A KR20190095671A (en) 2019-08-16
KR102113634B1 true KR102113634B1 (en) 2020-05-21

Family

ID=67806737

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180014945A KR102113634B1 (en) 2018-02-07 2018-02-07 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system

Country Status (1)

Country Link
KR (1) KR102113634B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102437583B1 (en) * 2022-03-21 2022-08-29 가천대학교 산학협력단 System And Method For Providing User-Customized Color Content For Preferred Colors Using Biosignals
KR102543337B1 (en) * 2022-03-21 2023-06-14 가천대학교 산학협력단 System And Method For Providing User-Customized Color Healing Content Based On Biometric Information Of A User Who has Created An Avatar
US11843764B2 (en) 2020-10-21 2023-12-12 Hewlett-Packard Development Company, L.P. Virtual reality headsets and method of managing user experience with virtual reality headsets

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102359471B1 (en) * 2019-09-04 2022-02-08 주식회사 옴니씨앤에스 Individual or group treatment system in virtual reality environment and the method thereof
KR102435408B1 (en) * 2020-04-07 2022-08-24 홍석우 Eye movement and emotion based HMD
KR20220003197A (en) * 2020-07-01 2022-01-10 삼성전자주식회사 Electronic apparatus and method for controlling thereof
KR102277820B1 (en) * 2021-01-29 2021-07-16 전다정 The psychological counseling system and the method thereof using the feeling information and response information
KR102429627B1 (en) * 2021-12-16 2022-08-08 가천대학교 산학협력단 The System that Generates Avatars in Virtual Reality and Provides Multiple Contents
KR102432250B1 (en) * 2021-12-16 2022-08-12 가천대학교 산학협력단 The System that Provides Care Chatbot
KR102425481B1 (en) * 2021-12-16 2022-07-26 가천대학교 산학협력단 Virtual reality communication system for rehabilitation treatment
KR102432251B1 (en) * 2021-12-16 2022-08-12 가천대학교 산학협력단 Virtual reality rehabilitation system performed on social servers
KR102429630B1 (en) * 2021-12-16 2022-08-08 가천대학교 산학협력단 A system that creates communication NPC avatars for healthcare
KR102425479B1 (en) * 2022-03-03 2022-07-26 가천대학교 산학협력단 System And Method For Generating An Avatar With User Information, Providing It To An External Metaverse Platform, And Recommending A User-Customized DTx(Digital Therapeutics)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006188772A (en) * 2004-12-28 2006-07-20 Advanced Telecommunication Research Institute International Wearing article unit, cloth and cloth unit
JP2008532587A (en) 2005-02-22 2008-08-21 ヘルス−スマート リミテッド Method and system for physiological and psychological / physiological monitoring and use thereof
JP2014021707A (en) 2012-07-18 2014-02-03 Nikon Corp Information input/output device and information input/output method
JP2016126500A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101668246B1 (en) * 2010-03-03 2016-10-28 엘지전자 주식회사 Apparatus for displaying image and and method for operationg the same
KR20110133295A (en) * 2010-06-04 2011-12-12 엘지전자 주식회사 Mobile terminal and operating method thereof
KR20170139185A (en) 2016-06-08 2017-12-19 여승호 Folding Virtual Reality HMD with Cooling Fan

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006188772A (en) * 2004-12-28 2006-07-20 Advanced Telecommunication Research Institute International Wearing article unit, cloth and cloth unit
JP2008532587A (en) 2005-02-22 2008-08-21 ヘルス−スマート リミテッド Method and system for physiological and psychological / physiological monitoring and use thereof
JP2014021707A (en) 2012-07-18 2014-02-03 Nikon Corp Information input/output device and information input/output method
JP2016126500A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11843764B2 (en) 2020-10-21 2023-12-12 Hewlett-Packard Development Company, L.P. Virtual reality headsets and method of managing user experience with virtual reality headsets
KR102437583B1 (en) * 2022-03-21 2022-08-29 가천대학교 산학협력단 System And Method For Providing User-Customized Color Content For Preferred Colors Using Biosignals
KR102543337B1 (en) * 2022-03-21 2023-06-14 가천대학교 산학협력단 System And Method For Providing User-Customized Color Healing Content Based On Biometric Information Of A User Who has Created An Avatar

Also Published As

Publication number Publication date
KR20190095671A (en) 2019-08-16

Similar Documents

Publication Publication Date Title
KR102113634B1 (en) Virtual reality head mounted display for showing user's status and user status display method and content control method using the system
US10901509B2 (en) Wearable computing apparatus and method
US10524715B2 (en) Systems, environment and methods for emotional recognition and social interaction coaching
KR102643105B1 (en) Augmented reality systems and methods for user health analysis
Amft et al. Making regular eyeglasses smart
US11779275B2 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
WO2018222589A1 (en) System and method for treating disorders with a virtual reality system
US20230282080A1 (en) Sound-based attentive state assessment
WO2023034347A9 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
WO2023034347A1 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
Lancioni et al. Persons with multiple disabilities choose among environmental stimuli using a smile response and a technology–aided program
WO2018232538A1 (en) System and method based on psychometric assessments and assessments of the senses, reflexes and physiology, for preventing terrorist acts
KR20190101336A (en) Virtual reality head mounted display system for showing user's status
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
Obe et al. Integration of emotional assessment into e-health care delivery: For autism spectrum disorder: A review
US20240164672A1 (en) Stress detection
US20230320640A1 (en) Bidirectional sightline-position determination device, bidirectional sightline-position determination method, and training method
US20220276509A1 (en) Optical Measurement System Integrated into a Wearable Glasses Assembly
US20230338698A1 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
US20230259203A1 (en) Eye-gaze based biofeedback
US20240164677A1 (en) Attention detection
US20220028291A1 (en) Device for the implementation of serious games for the prevention and/or treatment of mental disorders
FR3123794A1 (en) COMMUNICATION INTERFACE ADAPTED BASED ON A COGNITIVE ASSESSMENT FOR PATIENTS DEPRIVED OF SPEECH
CN117677345A (en) Enhanced meditation experience based on biofeedback
da Eira Eye communication system for nonspeaking patients

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)