KR20190004088A - Virtual Reality Education System and Method based on Bio Sensors - Google Patents

Virtual Reality Education System and Method based on Bio Sensors Download PDF

Info

Publication number
KR20190004088A
KR20190004088A KR1020170084221A KR20170084221A KR20190004088A KR 20190004088 A KR20190004088 A KR 20190004088A KR 1020170084221 A KR1020170084221 A KR 1020170084221A KR 20170084221 A KR20170084221 A KR 20170084221A KR 20190004088 A KR20190004088 A KR 20190004088A
Authority
KR
South Korea
Prior art keywords
user
concentration
content
display
virtual reality
Prior art date
Application number
KR1020170084221A
Other languages
Korean (ko)
Other versions
KR101988110B1 (en
Inventor
유선영
최해룡
Original Assignee
포항공과대학교 산학협력단
재단법인 대구경북첨단의료산업진흥재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단, 재단법인 대구경북첨단의료산업진흥재단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020170084221A priority Critical patent/KR101988110B1/en
Publication of KR20190004088A publication Critical patent/KR20190004088A/en
Application granted granted Critical
Publication of KR101988110B1 publication Critical patent/KR101988110B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Abstract

The present invention relates to a bio-signal interlocked virtual reality education system and a method. More specifically, the present invention relates to a system and an apparatus which can increase education efficiency by displaying a virtual reality education content on a smart glass device, and interlocking bio-signal sensors to analyze cumulative concentrativeness and real-time concentrativeness of a user. According to an embodiment of the present invention, the bio-signal interlocked virtual reality education system comprises: a head mounted display which comprises an optical module transmitting an image light emitted from at least one display to an eyeball of the user, and displays a first content associated with education of the user; a brain wave sensor which senses at least one brain wave of the user; a control unit which evaluates concentrativeness of the user for the first content by using the sensed at least one brain wave; and a memory which accumulates and stores the concentrativeness of the user, wherein the control unit can control the head mounted display so that the concentrativeness of the user is displayed in real time through the head mounted display.

Description

생체신호연동 가상현실 교육 시스템 및 방법 {Virtual Reality Education System and Method based on Bio Sensors}Technical Field [0001] The present invention relates to a virtual reality education system and method,

본 발명은 생체신호연동 가상현실 교육 시스템 및 방법에 관한 것이다. 보다 상세하게는 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a bio-signal interworking virtual reality education system and method. And more particularly, to a system and an apparatus capable of increasing educational efficiency by displaying virtual reality education contents in a smart glass device and analyzing cumulative concentration and real time concentration degree of a user by interlocking a bio-signal sensor.

가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감 있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.Virtual reality is a process of creating a 3D environment in which a specific environment or situation is created through a computer and creating a human-computer interaction that makes the person using the 3D content appear as if they are interacting with the actual surroundings and environment. And the like.

일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.Generally, the three-dimensional sensation perceived by a person depends on the degree of thickness change of the lens according to the position of the observed object, the angle difference between the eyes and the object, the position and shape difference of the object on the left and right eyes, , And various other psychological and memory effects.

그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.Among them, binocular disparity is the most important factor for a person to feel the stereoscopic effect, as the eyes of a person are about 6.5 cm apart in the horizontal direction. In other words, the binocular parallax causes the angle of the object to be viewed with the difference. Due to this difference, the images coming into each eye have different phases. When these two images are transmitted to the brain through the retina, The 3D stereoscopic image of the original can be felt.

이러한 입체감 있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.These stereoscopic 3D contents have already been widely used in various media fields and have been well received by consumers. For example, 3D movies, 3D games, and experience displays are examples.

이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.As described above, in addition to the universalization of virtual reality technology 3D contents, there is a need to develop a technology capable of providing a more immersive virtual reality service.

일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼 수 있도록 하는 화상 표시 장치를 말한다.2. Description of the Related Art Generally, an image display device forms a focal point so that a virtual large-sized screen can be formed at a long distance by using a precision optical device, which is generated in a position very close to an eye, so that a user can view an enlarged virtual image An image display device.

또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광만을 볼 수 있는 밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다.In addition, the image display device is configured to include a see-close type in which only the image light emitted from the display device can not be seen in the surrounding environment, and a see-close mode in which the image light emitted from the display device (See-through) that can be seen.

헤드 마운트 디스플레이(HMD)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화 추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. HMD는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.Head-mounted display (HMD) refers to various digital devices that can be worn on the head like glasses to receive multimedia contents. Various wearable computers (Wearable Computers) have been developed in accordance with the trend of weight reduction and miniaturization of digital devices, and HMDs are also widely used. The HMD can be combined with augmented reality technology, N screen technology, etc., beyond the simple display function, to provide various convenience to the user.

예를 들어, HMD에 마이크와 스피커가 장착되는 경우, 유저는 HMD를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD에 카메라가 장착되는 경우, 유저는 HMD를 착용한 상태에서, 유저가 원하는 방향의 이미지를 캡쳐할 수 있다.For example, when a microphone and a speaker are mounted on the HMD, the user can perform a telephone conversation while wearing the HMD. Further, for example, when a camera is mounted on the HMD, the user can capture an image of a desired direction in a state in which the HMD is worn.

현재, 전술한 가상 현실 기술을 체감형 교육 프로그램을 위해 활용하고자 하는 니즈가 높아지고 있다At present, there is an increasing need to utilize the above-described virtual reality technology for a sensory-type educational program

현재, 헤드 마운트 디스플레이(HMD) 등을 이용한 다양한 교육 방법이 제안되고 있으나 컨텐츠를 이용하는 사용자의 집중도를 실시간 또는 누적하여 평가하고, 평가된 집중도를 사용자에게 피드백함으로써 효율적인 교육을 꾀하는 시스템 및 방법은 전혀 제안되고 있지 못하므로, 이에 대한 해결방안이 요구되고 있는 실정이다.Currently, various educational methods using a head-mounted display (HMD) or the like have been proposed. However, there is no system or method for efficiently educating users by evaluating the concentration of users using contents in real time or cumulatively, Therefore, there is a need for a solution to this problem.

따라서 뇌파, 근전도, 심전도 센서와 같은 생체 센서 기술과 스마트글라스 기술, 가상현실 컨텐츠 기술이 융합된 기술로 개인이 착용하여 사용할 수 있는 간단한 시스템으로 장소에 구애 없이 교육 프로그램을 진행할 수 있는 시스템을 제안할 필요성이 있다.Therefore, we propose a system which can carry out educational program without any admission to the place with a simple system that can be worn by individuals with technology that combines bio sensor technology such as EEG, electromyography, ECG sensor, smart glass technology and virtual reality contents technology There is a need.

대한민국 공개특허 제10-2014-0001167호Korean Patent Publication No. 10-2014-0001167 대한민국 공개특허 제10-2013-0137692호Korean Patent Publication No. 10-2013-0137692 대한민국 특허등록 제10-1619468호Korean Patent Registration No. 10-1619468

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 생체신호연동 가상현실 교육 시스템 및 방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a system and a method for training a virtual reality system linked with a bio-signal.

구체적으로 본 발명은 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치를 사용자에게 제공하고자 한다.Specifically, the present invention provides a system and an apparatus for increasing the educational efficiency by displaying the virtual reality education contents on a smart glass device and analyzing cumulative concentration and real time concentration of the user by interlocking the living body signal sensor.

본 발명이 제안하는 교육 장치는 안경이나 헬멧처럼 착용하는 스마트 글라스에 가상현실 컨텐츠를 디스플레이 할 수 있는 구조로, 장소의 구애 없이 사용이 가능하며, 스마트 글라스에 내장된 뇌파센서나 사용자의 인체에 부착이 가능한 근전도 센서를 이용하여 사용자의 집중도, 인지기능, 운동기능에 대한 실시간, 정량적 분석이 가능하며 이를 사용자에게 피드백하여 줌으로써 효율적인 교육 및 훈련이 가능한 것을 목적으로 하며 또한 집중도, 인지기능 정도에 따른 레벨별 훈련이 가능한 것을 목적으로 한다.The educational device proposed by the present invention is a structure capable of displaying virtual reality contents in a smart glass worn like a pair of glasses or a helmet, and can be used without any admission of a place, and can be attached to an electroencephalogram sensor or a user's body It is possible to perform real-time and quantitative analysis of the user's concentration, cognitive function, and exercise function using the possible EMG sensor and to provide effective education and training by feedback to the user. Also, The aim is to be able to train separately.

본 발명의 제안하는 교육 장치는 스마트글라스에 내장된 모션센서, 카메라, 외부연동 가능한 키넥트 센서 등을 이용해 사용자 모션 및 위치기반 컨텐츠 제공이 가능하므로 체감형 교육훈련 시스템, 인지재활뿐만 아니라 운동재활 시스템으로도 활용이 가능한 것을 목적으로 하며, 인체부착 가능한 심전도 센서를 이용해 스트레스 지수 등 신체분석 데이터를 제공할 수 있는 것을 목적으로 한다.The training apparatus proposed by the present invention can provide user-motion and position-based contents by using a motion sensor, a camera, and an external interlocking Kinect sensor built in a smart glass, so that a bodily-sensible education and training system, And it is intended to provide body analysis data such as a stress index using an electrocardiograph sensor that can be attached to a human body.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.

상술한 과제를 실현하기 위한 본 발명의 일예와 관련된 생체신호연동 가상현실 교육 시스템은, 적어도 하나의 디스플레이에서 발산되는 영상광을 사용자의 안구에 전달하는 광학 모듈로 이루어지고, 사용자의 교육과 관련된 제 1 컨텐츠를 표시하는 헤드마운트 디스플레이; 상기 사용자의 적어도 하나의 뇌파를 센싱하는 뇌파 센서; 상기 센싱한 적어도 하나의 뇌파를 이용하여 상기 제 1 컨텐츠에 대한 상기 사용자의 집중도를 평가하는 제어부; 및 상기 사용자의 집중도를 누적하여 저장하는 메모리;를 포함하되, 상기 제어부는, 상기 사용자의 집중도가 상기 헤드마운트 디스플레이를 통해 실시간으로 표시되도록 제어할 수 있다.The bio-signal interworking virtual reality education system according to an embodiment of the present invention for realizing the above-mentioned problems comprises an optical module for delivering video light emitted from at least one display to a user's eyeball, 1 head mounted display for displaying contents; A brain wave sensor for sensing at least one brain wave of the user; A controller for evaluating the user's concentration on the first content using at least one sensed EEG; And a memory for cumulatively storing the concentration of the user, wherein the controller can control the concentration of the user to be displayed in real time through the head mount display.

또한, 상기 제어부는, 상기 실시간으로 평가한 사용자의 집중도가 미리 설정된 수치 이하인 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단할 수 있다.The control unit may stop displaying the first content on the head mount display when the concentration of the user evaluated in real time is less than a predetermined value.

또한, 상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하고, 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 제어부는 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되도록 제어할 수 있다.In addition, the memory may store at least one second content previously designated by the user, and when the display of the first content is interrupted, the control unit causes the second content stored in the memory to be displayed on the head- Can be controlled.

또한, 상기 제어부는, 상기 메모리에 누적하여 저장된 사용자의 집중도 정보를 이용하여, 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출할 수 있다.Also, the controller may extract at least one first time period in which the concentration of the user is equal to or greater than a predetermined value, using the concentration information of the user accumulated in the memory.

또한, 상기 제어부는, 상기 제 1 컨텐츠가 표시되는 시간이 상기 제 1 시간 구간 이내가 아닌 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단할 수 있다.In addition, the controller may stop displaying the first content on the head-mounted display when the time of displaying the first content is not within the first time period.

또한, 상기 제어부는, 상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하고, 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 제어부는 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되도록 제어할 수 있다.In addition, the controller may be configured such that the memory stores at least one second content previously designated by the user, and when the first content display is stopped, the control unit causes the second content stored in the memory to be displayed on the head- As shown in FIG.

또한, 상기 사용자의 집중도를 외부로 통신하는 무선통신부;를 더 포함하고, 상기 생체신호연동 가상현실 교육 시스템은 복수이며, 상기 복수의 생체신호연동 가상현실 교육 시스템은 각각의 무선통신부를 통해 네트워크를 형성하고, 상기 복수의 사용자의 집중도를 공유할 수 있다.The bio-signal interworking virtual reality education system includes a plurality of bio-signal interworking virtual reality education systems, and the plurality of bio-signal interworking virtual reality education systems are connected to a network through respective wireless communication units. And share the concentration of the plurality of users.

또한, 상기 제어부는, 상기 복수의 사용자의 집중도의 순위를 평가하고, 상기 각각의 무선통신부가 상기 평가한 집중도의 순위를 실시간으로 공유하도록 제어할 수 있다.The control unit may evaluate the ranking of the concentration of the plurality of users and control each of the wireless communication units to share the ranking of the evaluated concentration in real time.

또한, 상기 제어부는, 상기 복수의 메모리 각각에 누적하여 저장된 복수의 사용자의 집중도 정보를 이용하여, 복수의 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출할 수 있다.The control unit may extract at least one first time period in which the concentration of the plurality of users is equal to or greater than a predetermined value by using the concentration information of the plurality of users cumulatively stored in each of the plurality of memories.

또한, 상기 헤드마운트 디스플레이는 상기 사용자의 안구 전면에 배치되고, 상기 헤드마운트 디스플레이의 위치를 기준으로 수평으로 상기 사용자의 헤드를 고정하는 제 1 인터페이스부; 및 상기 헤드마운트 디스플레이의 위치를 기준으로 수직으로 상기 사용자의 헤드를 고정하는 제 2 인터페이스부;를 더 포함할 수 있다.Also, the head mount display may include a first interface unit disposed at an eyeball front of the user and fixing the user's head horizontally based on the position of the head mount display; And a second interface unit fixing the head of the user vertically with respect to the position of the head mount display.

또한, 상기 헤드마운트 디스플레이는 고글 형태 또는 헬멧 형태일 수 있다.In addition, the head mount display may be in the form of a goggle or a helmet.

또한, 상기 적어도 하나의 뇌파는, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함할 수 있다.The at least one EEG may include alpha waves, beta waves, theta waves, gamma waves, gamma waves, delta waves, SMR waves and Mid- beta waves .

한편, 상술한 과제를 실현하기 위한 본 발명의 다른 일예와 관련된 생체신호연동 가상현실 교육 방법은, 적어도 하나의 디스플레이에서 발산되는 영상광을 사용자의 안구에 전달하는 광학 모듈로 이루어진 헤드마운트 디스플레이가 사용자의 교육과 관련된 제 1 컨텐츠를 표시하는 제 1 단계; 뇌파 센서가 상기 사용자의 적어도 하나의 뇌파를 센싱하는 제 2 단계; 제어부가 상기 센싱한 적어도 하나의 뇌파를 이용하여 상기 제 1 컨텐츠에 대한 상기 사용자의 집중도를 평가하는 제 3 단계; 메모리가 상기 사용자의 집중도를 누적하여 저장하는 제 4 단계; 및 상기 사용자의 집중도가 상기 헤드마운트 디스플레이를 통해 실시간으로 표시되는 제 5 단계;를 포함할 수 있다.According to another aspect of the present invention, there is provided a bio-signal interlocking virtual reality teaching method for realizing the above-mentioned problem, wherein a head-mounted display comprising an optical module for transmitting video light emitted from at least one display to a user's eye, A first step of displaying first contents related to the education of the user; A second step in which an EEG sensor senses at least one EEG of the user; A third step of the controller evaluating the user's concentration on the first content using at least one sensed EEG; A memory accumulating the concentration of the user; And a fifth step in which the concentration of the user is displayed in real time via the head mount display.

또한, 상기 제 5 단계 이후, 상기 실시간으로 평가한 사용자의 집중도가 미리 설정된 수치 이하인 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 제 6 단계;를 더 포함할 수 있다.The method may further include a sixth step of stopping the first content display on the head mount display if the concentration of the user evaluated in real time after the fifth step is less than a predetermined value.

또한, 상기 제 1 단계 이전에는, 상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하는 제 0.5 단계;를 더 포함하고, 상기 제 6 단계에서 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되는 제 7 단계;를 더 포함할 수 있다.The method may further include a fifth step of storing the at least one second content previously designated by the user before the first step, and when the first content display is stopped in the sixth step, And displaying the second content stored in the memory on the head mount display instead of the second content.

또한, 상기 제 5 단계 이후, 상기 메모리에 누적하여 저장된 사용자의 집중도 정보를 이용하여, 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 제 6 단계;를 더 포함할 수 있다.The method may further include a sixth step of extracting at least one first time period in which the concentration of the user is equal to or greater than a predetermined value using the concentration information of the user accumulated in the memory after the fifth step .

또한, 상기 제 6 단계 이후, 상기 제 1 컨텐츠가 표시되는 시간이 상기 제 1 시간 구간 이내가 아닌 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 제 7 단계;를 더 포함할 수 있다.The method may further include a seventh step of stopping the display of the first content on the head mounted display when the time of displaying the first content is not within the first time period after the sixth step .

또한, 상기 제 1 단계 이전에, 상기 메모리가 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하는 제 0.5 단계;를 더 포함하고, 상기 제 7 단계에서 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되는 제 8 단계;를 더 포함할 수 있다.The method according to claim 1, further comprising, before the first step, the memory storing at least one second content previously designated by the user, wherein, in the seventh step, And displaying the second content stored in the memory on the head mount display instead of the second content.

또한, 상기 제 5 단계 이후, 무선통신부를 이용하여 상기 사용자의 집중도를 외부로 통신하는 제 6 단계;를 더 포함하고, 상기 생체신호연동 가상현실 교육 시스템은 복수이며, 상기 복수의 생체신호연동 가상현실 교육 시스템이 각각의 무선통신부를 통해 네트워크를 형성하고, 상기 복수의 사용자의 집중도를 공유하는 제 7 단계;를 더 포함할 수 있다.And a sixth step of communicating the concentration of the user to the outside by using the wireless communication unit after the fifth step, wherein the biological signal interlocking virtual reality education system includes a plurality of biological signal interlocking virtual And a seventh step of the reality education system forming a network through each wireless communication unit and sharing the concentration of the plurality of users.

또한, 상기 제 7 단계 이후에는, 상기 복수의 사용자의 집중도의 순위를 평가하는 제 8 단계; 및 상기 각각의 무선통신부가 상기 평가한 집중도의 순위를 실시간으로 공유하는 제 9 단계;를 더 포함할 수 있다.After the seventh step, an eighth step of evaluating the ranking of the concentration of the plurality of users is performed. And a ninth step in which each of the wireless communication units shares the ranking of the degree of concentration evaluated in real time.

또한, 상기 제 7 단계 이후에는, 상기 복수의 메모리 각각에 누적하여 저장된 복수의 사용자의 집중도 정보를 이용하여, 복수의 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 제 8 단계;를 더 포함할 수 있다.In the seventh and eighth steps, at least one first time period in which concentration of a plurality of users is equal to or greater than a predetermined value is extracted using cumulative information of a plurality of users cumulatively stored in each of the plurality of memories, Step;

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 생체신호연동 가상현실 교육 시스템 및 방법을 제공할 수 있다.Disclosure of Invention Technical Problem [8] The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a system and a method for real-time interactive virtual reality (VRT) education.

구체적으로 본 발명은 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치를 사용자에게 제공할 수 있다.Specifically, the present invention can provide a system and an apparatus capable of increasing educational efficiency by displaying virtual reality education contents on a smart glass device and analyzing cumulative concentration and real time concentration of a user by interlocking with a bio-signal sensor .

본 발명이 제안하는 교육 장치는 안경이나 헬멧처럼 착용하는 스마트 글라스에 가상현실 컨텐츠를 디스플레이 할 수 있는 구조로, 장소의 구애 없이 사용이 가능하며, 스마트 글라스에 내장된 뇌파센서나 사용자의 인체에 부착이 가능한 근전도 센서를 이용하여 사용자의 집중도, 인지기능, 운동기능에 대한 실시간, 정량적 분석이 가능하며 집중도, 인지기능 정도에 따른 레벨별 훈련이 가능할 수 있다.The educational device proposed by the present invention is a structure capable of displaying virtual reality contents in a smart glass worn like a pair of glasses or a helmet, and can be used without any admission of a place, and can be attached to an electroencephalogram sensor or a user's body By using the available EMG sensor, it is possible to analyze the user's concentration, cognitive function and movement function in real time and quantitatively, and it is possible to perform training by level according to the degree of concentration and cognitive function.

또한, 본 발명의 제안하는 교육 장치는 스마트글라스에 내장된 모션센서, 카메라, 외부연동 가능한 키넥트 센서, 전자펜 등을 이용해 사용자 모션 및 위치기반 컨텐츠 제공이 가능하므로 체감형 교육훈련, 인지재활뿐만 아니라 운동재활 시스템으로도 활용이 가능한 것을 목적으로 하며, 인체부착 가능한 심전도 센서를 이용해 운동지표, 스트레스 지수 등 신체분석 데이터를 제공할 수 있다.Further, the educational apparatus proposed by the present invention can provide user-motion and position-based contents using a motion sensor, a camera, an external interlocking Kinect sensor, and an electronic pen incorporated in a smart glass, It can also be used as an exercise rehabilitation system. The body electrocardiogram sensor can be used to provide physical analysis data such as exercise index and stress index.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art to which the present invention belongs It will be possible.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명이 제안하는 생체신호연동 가상현실 교육 시스템의 블록구성도 일례를 도시한 것이다.
도 2는 본 발명에 적용되는 스마트 글라스의 블록도 일례를 도시한 것이다.
도 3a는 생체신호연동 가상현실 교육 장치의 구체적인 일례를 도시한 것이고, 도 3b는 생체신호연동 가상현실 교육 장치에 이용되는 근전도 센서의 일례를 도시한 것이다.
도 4a는 도 3a 및 도 3b에서 설명한 가상현실 교육 장치를 사용자가 이용하는 구체적인 모습을 도시한 것이고, 도 4b는 주의력 결핍 과잉 행동 장애(ADHD) 예방 및 치료에 이용하는 구체적인 모습을 도시한 것이다.
도 5는 도 3a에서 설명한 가상현실 교육장치를 사용자가 개인형 동영상 학습기로 이용하는 구체적인 모습을 도시한 것이다.
도 6은 본 발명과 관련된 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 방법을 설명하는 순서도이다.
도 7은 도 6와 관련하여, 사용자의 집중도가 떨어지는 시점 또는 시기에 미리 설정된 컨텐츠를 플레이하여 사용자가 휴식하고, 집중도를 회복할 수 있는 방법을 설명하는 순서도이다.
도 8은 도 6와 관련하여, 복수의 사용자가 사용하는 디스플레이 간에 네트워크를 형성하고, 실시간 집중도 순위 및 복수 사용자의 집중 시간대에 대한 정보를 사용자들에게 제공하기 위한 방법을 설명하는 순서도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the description, serve to further the understanding of the technical idea of the invention, It should not be construed as limited.
1 shows an example of a block diagram of a bio-signal interlocking virtual reality (EDL) system proposed by the present invention.
Fig. 2 shows an example of a block diagram of a smart glass applied to the present invention.
FIG. 3A shows a specific example of a bio-signal interlocking virtual reality teaching device, and FIG. 3B shows an example of an electromyography sensor used in a bio-signal interlocking virtual reality teaching device.
FIG. 4A is a detailed view of a user using the virtual reality education apparatus illustrated in FIG. 3A and FIG. 3B, and FIG. 4B is a specific view used for prevention and treatment of ADHD.
FIG. 5 is a detailed view of a user using the virtual reality educational apparatus illustrated in FIG. 3A as a personalized video learning apparatus.
FIG. 6 is a flowchart illustrating a method for enhancing a training efficiency by analyzing cumulative concentration and real-time concentration of a user by interfacing a bio-signal sensor according to the present invention.
FIG. 7 is a flowchart illustrating a method by which a user can rest and recover a concentration of content by playing predetermined content at a point in time or at a time when the user's concentration becomes low, with reference to FIG.
FIG. 8 is a flowchart illustrating a method for forming a network between displays used by a plurality of users, and for providing information on real-time concentration ranking and concentration time zones of a plurality of users to users, with reference to FIG.

가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.VIRTUAL REAL-TIME TECHNOLOGY In addition to the generalization of 3D contents, it is required to develop a technology capable of providing a more immersive virtual reality service.

따라서 본 명세서에서는 생체신호연동 가상현실 교육 장치를 제안한다.Therefore, the present invention proposes a bio-signal interlocking virtual reality education device.

구체적으로 본 발명은 뇌파센서, 근전도 센서, 심전도 센서 등과 같은 생체 센서 기술과 스마트글라스 기술, 가상현실 컨텐츠 기술이 융합된 기술로 개인이 착용하여 사용할 수 있는 간단한 시스템으로 장소에 구애 없이 집중도를 유지하면서 교육을 받을 수 있는 시스템에 관한 것이다.Specifically, the present invention is a technology which is a fusion technology of a biosensor technology such as an electroencephalogram sensor, an electromyogram sensor, an electrocardiograph sensor, a smart glass technology and a virtual reality contents technology, and is a simple system that can be worn by an individual. And a system for receiving education.

본 발명의 구체적인 설명에 앞서 도면을 참조하여 본 발명의 기본 구성에 대해 설명한다.Prior to a specific description of the present invention, the basic structure of the present invention will be described with reference to the drawings.

도 1은 본 발명이 제안하는 생체신호연동 가상현실 교육 시스템의 블록구성도 일례를 도시한 것이다.1 shows an example of a block diagram of a bio-signal interlocking virtual reality (EDL) system proposed by the present invention.

도 1을 참조하면, 생체신호연동 가상현실 교육 시스템(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. Referring to FIG. 1, a bio-signal interworking virtual reality education system 100 includes a wireless communication unit 110, an audio / video (A / V) input unit 120, a user input unit 130, a sensing unit 140, A controller 160, a memory 160, an interface 170, a controller 180, and a power supply 190.

단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 생체신호연동 가상현실 교육 시스템이 구현될 수도 있다.However, the components shown in FIG. 1 are not essential, so that a bio-signal interlocking virtual reality training system having more or fewer components than those shown in FIG. 1 may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 생체신호연동 가상현실 교육 시스템과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The wireless communication unit 110 may include one or more modules that enable wireless communication between a bio-signal interworking virtual reality education system and a wireless communication system or between a device and a network in which the device is located.

예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 생체신호연동 가상현실 교육 시스템에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may be a server for generating and transmitting broadcast signals and / or broadcast-related information, or a server for receiving broadcast signals and / or broadcast-related information generated in advance and transmitting the broadcast signals and / or broadcast- related information to a bio- have. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only And a Digital Broadcasting System (ISDB-T) (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다. The mobile communication module 112 transmits and receives a radio signal to at least one of a base station, an external device, and a server on a mobile communication network.

문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. And various types of data according to transmission / reception of text / multimedia messages.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 생체신호연동 가상현실 교육 시스템에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 is a module for wireless Internet access, and may be embedded or externally installed in a bio-signal interworking virtual reality education system. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi), 와이다이(Wi-Di; Wireless Display) 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. As a short range communication technology, there are Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (UDA), Ultra Wideband (UWB), ZigBee, Wireless Fidelity (Wi-Fi) A Wi-Di (Wireless Display) or the like may be used.

위치정보 모듈(115)은 생체신호연동 가상현실 교육 시스템의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The position information module 115 is a module for acquiring the position of the bio-signal linked virtual reality education system, and a representative example thereof is a GPS (Global Position System) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes an image frame such as a still image or a moving image obtained by the image sensor in the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 생체신호연동 가상현실 교육 시스템의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 센싱부(140)의 센서로부터 발생된 센서 신호가 신호처리 과정을 거쳐 입력될 수 있다. 또한, 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 전자펜, 조그 휠, 조그 스위치 등으로 구성될 수 있다. The user input unit 130 generates input data for a user to control the operation of the bio-signal interfacing virtual reality education system. The user input unit 130 may receive a sensor signal generated from a sensor of the sensing unit 140 through a signal processing process. Also, it can be composed of a key pad dome switch, a touch pad (static pressure / static electricity), an electronic pen, a jog wheel, a jog switch, and the like.

센싱부(140)는 생체신호연동 가상현실 교육 시스템의 개폐 상태, 생체신호연동 가상현실 교육 시스템의 위치, 사용자 접촉 유무, 생체신호연동 가상현실 교육 시스템의 방위, 생체신호연동 가상현실 교육 시스템의 가속/감속 등과 같이 생체신호연동 가상현실 교육 시스템의 현 상태를 감지하여 생체신호연동 가상현실 교육 시스템의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The sensing unit 140 senses the opening / closing state of a bio-signal interlocking virtual reality education system, the position of a virtual reality interlocking virtual reality education system, the presence or absence of user contact, the orientation of a virtual reality interlocking system, / Deceleration and the like, and generates a sensing signal for controlling the operation of the bio-signal interlocking virtual reality education system by detecting the current state of the bio-signal interlocking virtual reality education system.

센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. The sensing unit 140 may sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like.

한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The output unit 150 is for generating an output relating to visual, auditory or tactile sense and includes a display unit 151, an acoustic output module 152, an alarm unit 153, a haptic module 154, 155, and the like.

디스플레이부(151)는 생체신호연동 가상현실 교육 시스템에서 처리되는 정보를 표시(출력)한다. The display unit 151 displays (outputs) information processed in the bio-signal linked virtual reality education system.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED) 마이크로디스플레이, LCoS(liquid Crystal on Silicon) 마이크로디스플레이, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) liquid crystal on silicon, a microdisplay, a flexible display, and a 3D display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조는 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 생체신호연동 가상현실 교육 시스템 바디의 디스플레이부(151)가 차지하는 영역을 통해 생체신호연동 가상현실 교육 시스템 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may be a light transmission type structure. According to this structure, the user can view objects located behind the body of the bio-signal interlocking virtual reality education system body through the area occupied by the display unit 151 of the bio-signal interlocking virtual reality education system body.

생체신호연동 가상현실 교육 시스템의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 생체신호연동 가상현실 교육 시스템에는 복수의 디스플레이부들이 하나의 면에 이격 되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or more display units 151 according to the implementation form of the bio-signal interlocking virtual reality education system. For example, in a bio-signal interlocking virtual reality education system, a plurality of display units may be spaced apart from one another, disposed integrally, or disposed on different surfaces.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 생체신호연동 가상현실 교육 시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 141 may be disposed in an internal region of the bio-signal interlocking virtual reality education system wrapped by the touch screen or in the vicinity of the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as " proximity touch & The act of actually touching the pointer on the screen is called " contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

또한, 본 발명에 따른 시스템(100)은 뇌파센서(142)를 포함할 수 있다.In addition, the system 100 according to the present invention may include an EEG sensor 142.

뇌파(EEG, Electro-Encephalography)란 뇌에서 발생한 신호를 전극으로 측정한 것을 말하며, 뇌의 수많은 신경에서 발생한 전기적인 신호가 합성되어 나타나는 미세한 뇌 표면의 신호를 측정함으로써 얻어진다.Electro-encephalography (EEG) is a measurement of the signal generated by the brain on an electrode. It is obtained by measuring the minute brain surface signals that are synthesized by electrical signals generated from numerous neurons in the brain.

뇌파 신호는 뇌의 활동, 측정 시의 상태 및 뇌 기능에 따라 시공간적으로 변화하며, 이에 따라 뇌파 신호는 주파수에 따른 대역별 특성, 시간 영역에서의 특성, 뇌 기능과 관련된 공간적 특성을 가진다. EEG signals change in time and space according to brain activity, measurement state, and brain function. Thus, EEG signals have frequency characteristics according to frequency, time characteristics, and spatial characteristics related to brain function.

뇌파는 주파수와 전압의 범위에 따라 델타, 세타, 알파, 베타, 감마파 등으로 나뉘며, 뇌파의 주파수 대역과 신체 상태에 따른 파장을 살펴보면 다음의 표 1과 같다.EEG waves are divided into delta, theta, alpha, beta, and gamma waves depending on the frequency and voltage range. Table 1 below shows the wavelengths according to the frequency band and physical condition of the brain waves.

Figure pat00001
Figure pat00001

상기 표 1은 뇌파의 주파수 대역과 신체 상태에 따른 파장을 나타낸다.Table 1 shows the wavelengths according to the frequency band and physical condition of EEG.

본 발명에 따른 뇌파센서(141)는 상기 복수의 뇌파 중 적어도 하나를 감지하는 기능을 제공한다.The brain wave sensor 141 according to the present invention provides a function of detecting at least one of the plurality of brain waves.

또한, 본 발명에 따른 시스템(100)은 모션센서(143)를 포함할 수 있다.In addition, the system 100 according to the present invention may include a motion sensor 143.

본 발명에 따른 모션센서(143)는 사물이나 사람의 움직임을 자이로스코프 센서를 이용해 디지털로 옮기는 기술을 말한다. The motion sensor 143 according to the present invention refers to a technique of moving an object or a person's movement to a digital using a gyroscope sensor.

모션센서(143)는 모션캡처의 방식에 따라 기계식, 자기식, 광학식 등으로 분류될 수 있다.The motion sensor 143 may be classified into a mechanical type, a magnetic type, an optical type, and the like according to the mode of motion capture.

또한, 본 발명에 따른 시스템(100)은 근전도 센서(144)를 포함할 수 있다.In addition, the system 100 according to the present invention may include an electromyogram sensor 144.

근전도는 골격근의 전기적 활동을 표면 전극 또는 침전극으로 검출하여 기록한 것이다.The electromyogram is the electrical activity of skeletal muscle detected by surface electrode or needle electrode.

근전도는 일반적으로 말초 신경계의 질병을 파악하는 데에 탁월한 효과를 나타낸다.  EMG generally has an excellent effect in understanding the diseases of the peripheral nervous system.

중증 근무력증, 진행성 근디스트로피, 다발성 근염 등에서는 각각 특징 있는 근전도의 패턴이 나타난다. Myasthenia gravis, progressive muscular stroma, multiple myositis, etc. have characteristic EMG patterns.

본 발명에 따른 근전도센서(144)는 이러한 근전도의 변화를 센싱하여 좌/우, 전/후 방향조종, 선택 등과 같은 컨텐츠 연동 제어 기능을 위한 신호를 제공할 수 있다.The electromyogram sensor 144 according to the present invention senses a change in the electromyogram to provide a signal for a content link control function such as left / right, forward / backward manipulation, selection, and the like.

또한, 본 발명에 따른 시스템(100)은 심전도 센서(145)를 포함할 수 있다.In addition, the system 100 according to the present invention may include an electrocardiogram sensor 145.

심전도는 심장의 전기적 활동을 표면 전극으로 검출하여 기록한 것이다. Electrocardiogram (ECG) is the detection of the cardiac electrical activity as a surface electrode.

심전도 센서로부터 측정된 심전도 신호로부터 운동 시 심박 측정, 협심증, 심근경색과 같은 관동맥 질환, 부정맥, 전해질 이상 진단 등이 가능하다.From the electrocardiogram signal measured from the electrocardiogram sensor, heart rate measurement during exercise, angina pectoris such as angina pectoris, myocardial infarction, arrhythmia, electrolyte abnormality diagnosis, and the like are possible.

본 발명에 따른 심전도 센서는 이러한 심전도의 변화를 센싱하여 운동지표, 스트레스 지표 산출을 위한 신호를 제공할 수 있다. The electrocardiogram sensor according to the present invention can sense a change in the electrocardiogram and provide a signal for a movement index and a stress index calculation.

한편, 음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 생체신호연동 가상현실 교육 시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.Meanwhile, the audio output module 152 can output audio data received from the wireless communication unit 110 or stored in the memory 160 in a recording mode, a voice recognition mode, a broadcast receiving mode, and the like. The sound output module 152 also outputs sound signals related to the functions performed in the bio-signal interworking virtual reality education system. The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 생체신호연동 가상현실 교육 시스템의 이벤트 발생을 알리기 위한 신호를 출력한다. The alarm unit 153 outputs a signal for notifying the occurrence of an event of the bio-signal interlocking virtual reality education system.

알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration.

상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. The haptic module 154 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 154 is vibration. The intensity and pattern of the vibration generated by the hit module 154 can be controlled.

예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the haptic module 154 may include a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or a suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 생체신호연동 가상현실 교육 시스템의 구성에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. The haptic module 154 may include two or more haptic modules 154 according to the configuration of the bio-signal interlocking virtual reality education system.

프로젝터 모듈(155)은, 생체신호연동 가상현실 교육 시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The projector module 155 is a component for performing an image project function by using a bio-signal interlocking virtual reality education system and includes a display unit 151, To display an image on the external screen or on the wall.

구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the projector module 155 includes a light source (not shown) that generates light (for example, laser light) for outputting an image to the outside, a light source And a lens (not shown) for enlarging and outputting the image at a predetermined focal distance to the outside. Further, the projector module 155 may include a device (not shown) capable of mechanically moving the lens or the entire module to adjust the image projection direction.

프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The projector module 155 can be divided into a CRT (Cathode Ray Tube) module, an LCD (Liquid Crystal Display) module and a DLP (Digital Light Processing) module according to the type of the display means. In particular, the DLP module may be advantageous for miniaturization of the projector module 151 by enlarging and projecting an image generated by reflecting light generated from a light source on a DMD (Digital Micromirror Device) chip.

바람직하게, 프로젝터 모듈(155)은, 생체신호연동 가상현실 교육 시스템의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 생체신호연동 가상현실 교육 시스템의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the projector module 155 may be provided on the side, the front side, or the back side in the longitudinal direction of the bio-signal interlocking virtual reality education system. It goes without saying that the projector module 155 may be provided at any position in the bio-signal interlocking virtual reality education system as needed.

또한, 본 발명에서는 스마트글라스(156)을 포함할 수 있다.In addition, the present invention may include a smart glass 156.

본 발명이 제안하는 스마트글라스(156)은 헤드 마운트 디스플레이(HMD)일 수 있다.The smart glass 156 proposed by the present invention may be a head mount display (HMD).

도 2는 본 발명에 적용되는 스마트 글라스의 블록도 일례를 도시한 것이다.Fig. 2 shows an example of a block diagram of a smart glass applied to the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 HMD(156)는 디스플레이 유닛(1110), 커뮤니케이션 유닛(1120), 센싱유닛(1130), 카메라 유닛(1140), 프로세서(1150)를 포함할 수 있다.2, an HMD 156 according to an embodiment of the present invention includes a display unit 1110, a communication unit 1120, a sensing unit 1130, a camera unit 1140, and a processor 1150 .

HMD(156)는 제 1 바디 및 제 2 바디를 포함할 수 있다. 제 1 바디는 HMD(156)의 본체에 해당하는 것으로서, 디스플레이 유닛(1110), 제 1 커뮤니케이션 유닛, 제 1 모션 센싱 유닛, 프로세서(1150) 등을 포함할 수 있다. 또한, 제 2 바디는 HMD(156)의 본체로부터 분리 가능한 바디로서, 제 2 모션 센싱 유닛, 카메라 유닛(1140), 제 2 커뮤니케이션 유닛 등을 포함할 수 있다. 상술한 제 1 바디 및 제 2 바디는 일 실시예로서, 당업자의 필요에 따라, 제 1 바디 및 제 2 바디에 일부 구성 유닛을 변경 또는 새로운 구성 유닛을 추가할 수 있다.The HMD 156 may include a first body and a second body. The first body corresponds to the body of the HMD 156 and may include a display unit 1110, a first communication unit, a first motion sensing unit, a processor 1150, and the like. The second body may be a body detachable from the body of the HMD 156, and may include a second motion sensing unit, a camera unit 1140, a second communication unit, and the like. The above-described first body and second body are, as one embodiment, capable of changing some of the constituent units or adding new constituent units to the first body and the second body, as required by those skilled in the art.

디스플레이 유닛(1110)은 비주얼 정보를 디스플레이할 수 있다. 여기에서, 비주얼 정보는 컨텐츠, 애플리케이션, 이미지, 동영상 등을 포함할 수 있다. 또한, 디스플레이 유닛(1110)은 프로세서(1150)의 제어 명령에 기초하여 비주얼 정보를 스크린에 출력할 수 있다. 본 명세서에서, 디스플레이 유닛(1110)은 HMD(156)의 제 1 바디에 포함될 수 있다.Display unit 1110 may display visual information. Here, the visual information may include contents, applications, images, moving pictures, and the like. Display unit 1110 may also output visual information to the screen based on control instructions of processor 1150. [ In this specification, the display unit 1110 may be included in the first body of the HMD 156.

한편, 본 명세서에서, HMD(156)는 다양한 방식으로 디스플레이 스크린에 이미지를 출력할 수 있다. 일 예로서, HMD(156)는 투시형(see-through) 방식으로 이미지를 출력할 수 있다. Meanwhile, in this specification, the HMD 156 can output an image on a display screen in various ways. As an example, the HMD 156 may output an image in a see-through manner.

여기에서, 투시형(see-through) 방식은 디스플레이 스크린이 투명한 것으로, HMD(156)를 착용한 상태에서 유저가 주위 환경을 인식하면서 컨텐츠를 이용할 수 있는 방식을 나타낸다. 다른 일 예로서, HMD(156)는 전방 주사(front-light) 방식으로 이미지를 출력할 수 있다. 여기에서, 전방 주사 방식은 빛이 눈에 직접 투사되지 않고 반사된 영상을 거울과 같은 반사체를 통해 디스플레이하는 방식을 나타낸다.Here, the see-through method is a method in which the display screen is transparent and the user can use the contents while recognizing the surrounding environment while wearing the HMD 156. As another example, the HMD 156 may output an image in a front-light manner. Here, the forward scanning method represents a method of displaying a reflected image through a reflector such as a mirror without projecting the light directly onto the eye.

또한, 다른 일 예로서, HMD(156)는 암막형(see-closed) 방식으로 이미지를 출력할 수 있다. 여기에서, 암막형 방식은 디스플레이 스크린을 통해 외부 환경을 볼 수 없고, 디스플레이 스크린을 통해 컨텐츠를 이용하는 방식을 나타낸다. 본 명세서에서, HMD(156)는 투시형 또는 암막형 방식으로 이미지를 디스플레이하는 것으로 가정하도록 한다.Also, as another example, the HMD 156 may output an image in a see-closed fashion. Here, the dark type method can not view the external environment through the display screen, and shows the manner of using the contents through the display screen. In the present specification, the HMD 156 is assumed to display an image in a perspective or a film-like manner.

커뮤니케이션 유닛(1120)은 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고 데이터를 송/수신할 수 있다. 또한, 커뮤니케이션 유닛(1120)은 유선 또는 무선으로 네트워크에 접속하여 컨텐츠 등의 디지털 데이터를 송/수신할 수 있다. 예를 들어, 커뮤니케이션 유닛은 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN), Wi-Fi, Wi-Di, Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등을 이용할 수 있다.The communication unit 1120 can communicate with external devices and transmit / receive data using various protocols. In addition, the communication unit 1120 can connect to a network by wire or wireless and send / receive digital data such as contents. For example, the communication unit may be a WLAN (Wireless LAN), Wi-Fi, Wi-Di, Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA Access) communication standard can be used.

본 명세서에서, 커뮤니케이션 유닛(1120)은 제 1 커뮤니케이션 유닛 및 제 2 커뮤니케이션 유닛을 포함할 수 있다. 상술한 바와 같이, 제 1 커뮤니케이션 유닛은 제 1 바디에 구비될 수 있고, 제 2 커뮤니케이션 유닛은 제 2 바디에 구비될 수 있다. 예를 들어, 제 1 커뮤니케이션 유닛 및 제 2 커뮤니케이션 유닛은 제 1 바디에 포함된 프로세서(1150)로부터 신호를 송/수신하고, 제 2 바디에 포함된 카메라 유닛(1140)으로부터 신호를 송/수신할 수 있다.In this specification, the communication unit 1120 may include a first communication unit and a second communication unit. As described above, the first communication unit may be provided in the first body, and the second communication unit may be provided in the second body. For example, the first communication unit and the second communication unit transmit / receive signals from / to the processor 1150 included in the first body, and transmit / receive signals from the camera unit 1140 included in the second body .

센싱 유닛(1130)은 HMD(156)에 장착된 적어도 하나의 센서를 사용하여, HMD(156)의 주변 환경을 센싱하고, 이를 신호 형태로 프로세서(1150)에 전달할 수 있다.The sensing unit 1130 may sense the ambient environment of the HMD 156 using at least one sensor mounted on the HMD 156 and deliver it to the processor 1150 in the form of a signal.

센싱 유닛(1130)은 적어도 하나의 센싱 수단을 포함할 수 있다. 일 실시예로서, 적어도 하나의 센싱 수단은, 중력(gravity) 센서, 지자기 센서, 모션 센서, 자이로스코프 센서, 가속도 센서, 적외선 센서, 기울임(inclination) 센서, 밝기 센서, 고도 센서, 후각 센서, 온도 센서, 뎁스 센서, 압력 센서, 밴딩 센서, 오디오 센서, 비디오 센서, GPS(Global Positioning System) 센서, 터치 센서 및 그립 센서 등의 센싱 수단을 포함할 수 있다.The sensing unit 1130 may include at least one sensing means. In one embodiment, the at least one sensing means includes at least one sensor selected from the group consisting of a gravity sensor, a geomagnetism sensor, a motion sensor, a gyroscope sensor, an acceleration sensor, an infrared sensor, an inclination sensor, a brightness sensor, A sensor, a depth sensor, a pressure sensor, a banding sensor, an audio sensor, a video sensor, a global positioning system (GPS) sensor, a touch sensor, and a grip sensor.

또한, 센싱 유닛(1130)은 상술한 다양한 센싱 수단을 통칭하는 것으로, 사용자의 다양한 입력 및 HMD(156)의 환경을 센싱하여, 프로세서(1150)가 그에 따른 동작을 수행할 수 있도록 센싱 결과를 전달할 수 있다. 상술한 센서들은 별도의 엘리먼트로 HMD(156)에 포함되거나, 적어도 하나의 엘리먼트에 통합되어 포함될 수 있다.The sensing unit 1130 collectively refers to the various sensing means described above and senses the various inputs of the user and the environment of the HMD 156 and transmits the sensing result so that the processor 1150 can perform the operation accordingly . The sensors described above may be included in the HMD 156 as separate elements or integrated into at least one element.

본 명세서에서, 센싱 유닛(1130)은 각도 센싱 유닛(131) 및 입력 센싱 유닛(132)를 포함할 수 있다. 또한, 각도 센싱 유닛(131) 및 입력 센싱 유닛(132)은 각각 제 1 바디 및 제 2 바디에 구비될 수 있다. 예를 들어, 제 1 바디에 구비된 각도 센싱 유닛은 제 1 바디의 회전 각도를 센싱할 수 있고, 제 1 바디에 구비된 입력 센싱 유닛은 제 1 바디에 대한 유저의 입력 신호를 디텍트할 수 있다. 또한, 예를 들어, 제 2 바디에 구비된 각도 센싱 유닛은 제 2 바디의 회전 각도를 센싱할 수 있고, 제 2 바디에 구비된 입력 센싱 유닛은 제 2 바디에 대한 유저의 입력 신호를 디텍트할 수 있다. 또한, 제 1 바디 및 제 2 바디에 구비된 다양한 센싱 수단을 통하여, 제 1 바디와 제 2 바디 간의 분리 신호 및 장착 신호를 디텍트할 수 있다. 또한, 제 1 바디 또는 제 2 바디에 구비된 입력 센싱 유닛을 통하여, 이미지 캡쳐링 신호를 디텍트할 수 있다.In this specification, the sensing unit 1130 may include an angle sensing unit 131 and an input sensing unit 132. In addition, the angle sensing unit 131 and the input sensing unit 132 may be provided in the first body and the second body, respectively. For example, the angle sensing unit of the first body may sense the rotation angle of the first body, and the input sensing unit of the first body may detect the input signal of the user to the first body have. In addition, for example, the angle sensing unit provided on the second body may sense the rotation angle of the second body, and the input sensing unit provided on the second body may detect a user's input signal with respect to the second body, can do. Also, a separation signal and a mounting signal between the first body and the second body can be detected through various sensing means provided on the first body and the second body. Also, the image capturing signal can be detected through the input sensing unit provided in the first body or the second body.

카메라 유닛(1140)은 이미지를 촬영할 수 있다. 보다 상세하게는, 카메라 유닛(1140)은 앞 방향의 이미지를 촬영할 수 있다. 여기에서, 앞 방향은 카메라 유닛(1140)이 향하고 있는 방향에 해당할 수 있다. 또한, 카메라 유닛(1140)은 화각 영역 내의 이미지를 센싱하여 프로세서(1150)에 제공할 수 있다. 여기에서, 화각 영역은 이미지를 센싱하는 때에 일정한 화면 내에 포함시킬 수 있는 수평 및 수직 시야각의 범위를 나타낸다.The camera unit 1140 can take an image. More specifically, the camera unit 1140 can take an image in the forward direction. Here, the front direction may correspond to the direction in which the camera unit 1140 faces. In addition, the camera unit 1140 may sense the image within the field of view area and provide it to the processor 1150. Here, the angle of view field represents the range of horizontal and vertical viewing angles that can be included in a certain screen when sensing an image.

본 명세서에서, 카메라 유닛(1140)은 제 2 바디에 포함될 수 있다. 한편, 본 명세서에서, 카메라 유닛(1140)은 제 2 바디뿐만 아니라 제 1 바디에도 구비될 수 있다. 제 2 바디에 포함된 카메라 유닛(1140)은 제 1 바디에 장착되어 이미지를 센싱할 수 있다. 또한, 제 2 바디에 포함된 카메라 유닛(1140)은 제 1 바디로부터 분리되어 이미지를 센싱할 수 있다.In this specification, the camera unit 1140 may be included in the second body. Meanwhile, in this specification, the camera unit 1140 may be provided not only to the second body but also to the first body. The camera unit 1140 included in the second body may be mounted on the first body to sense an image. In addition, the camera unit 1140 included in the second body may be separated from the first body to sense the image.

프로세서(1150)는 데이터를 프로세싱하고, 상술한 HMD(156)의 각 유닛들을 제어하며, 유닛들 간의 데이터 송/수신을 제어할 수 있다. 본 명세서에서, 프로세서(1150)는 제 1 바디에 포함될 수 있다. 예를 들어, 프로세서(1150)는 제 1 바디에 포함된 디스플레이 유닛(1110), 제 1 각도 센싱 유닛, 제 1 커뮤니케이션 유닛 뿐만 아니라, 제 2 바디에 포함된 카메라 유닛(1140), 제 2 커뮤니케이션 유닛, 센서 유닛(1130), 제 2 각도 센싱 유닛을 제어할 수 있다. 한편, 프로세서(1150)는 제 1 바디뿐만 아니라 제 2 바디에서 별도로 구비될 수도 있다.Processor 1150 can process data, control each unit of HMD 156 described above, and control data transmission / reception between units. In this specification, processor 1150 may be included in the first body. For example, the processor 1150 may include a display unit 1110, a first angle sensing unit, a first communication unit, as well as a camera unit 1140 included in the second body, a second communication unit The sensor unit 1130, and the second angle sensing unit. The processor 1150 may be provided separately from the first body as well as the second body.

본 명세서에서, 제 2 바디가 제 1 바디로부터 분리된 경우, 프로세서(1150)는 제 1 회전 각도 및 제 2 회전 각도를 획득할 수 있다. 또한, 프로세서(1150)는 센싱된 이미지를 제 2 회전 각도에 기초하여 제 1 회전 보상한 이미지를 디스플레이하는 분리 이미지 프리뷰 인터페이스를 디스플레이할 수 있다. 또한, 프로세서(1150)는 제 1 캡쳐링 신호를 디텍트할 수 있다. 또한, 프로세서(1150)는 센싱된 이미지를 캡쳐하고, 캡쳐된 이미지를 제 1 회전 각도 및 제 2 회전 각도에 기초하여 제 2 회전 보상한 이미지를 저장할 수 있다.In the present specification, when the second body is separated from the first body, the processor 1150 can obtain the first rotation angle and the second rotation angle. In addition, the processor 1150 may display a separate image preview interface that displays an image obtained by performing a first rotation compensation on the sensed image based on the second rotation angle. Processor 1150 may also detect the first capturing signal. The processor 1150 may also capture the sensed image and store the captured image a second rotationally compensated image based on the first rotational angle and the second rotational angle.

본 명세서의 일 실시예로서, HMD(156)가 수행하는 동작들은 프로세서(1150)에 의해 제어될 수 있다. 편의를 위해, 도면 및 이하의 설명에서는 이러한 동작들을 통칭하여 HMD(156)가 수행/제어하는 것으로 설명하도록 한다.In one embodiment of the present disclosure, the operations performed by the HMD 156 may be controlled by the processor 1150. [ For convenience, the drawings and the following description are collectively referred to as performing / controlling the HMD 156.

한편, 도 2에는 도시되지 않았으나, HMD(156)는 파워 유닛, 스토리지 유닛, 오디오 유닛 등을 포함할 수 있다. 2, the HMD 156 may include a power unit, a storage unit, an audio unit, and the like.

파워 유닛은 HMD(156)의 내부의 배터리 또는 외부 전원과 연결되는 파워 소스로서, HMD(156)에 파워를 공급할 수 있다. 또한, 스토리지 유닛은 오디오, 사진, 동영상, 애플리케이션 등 다양한 디지털 데이터를 저장할 수 있다. 스토리지 유닛은 플래시 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 데이터 저장 공간을 나타낼 수 있다. 또한, 오디오 유닛은 마이크 및 스피커를 통해 오디오 데이터를 수신하거나 출력할 수 있다.The power unit can supply power to the HMD 156 as a power source connected to a battery or an external power source inside the HMD 156. [ In addition, the storage unit can store various digital data such as audio, pictures, movies, and applications. The storage unit may represent various digital data storage spaces such as a flash memory, a random access memory (RAM), and a solid state drive (SSD). Further, the audio unit can receive or output audio data through a microphone and a speaker.

또한, 본 발명이 제안하는 HMD(156)는 고글형으로 제작될 수 있다.In addition, the HMD 156 proposed by the present invention can be manufactured in a goggle type.

한편, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory unit 160 may store a program for processing and controlling the control unit 180 and temporarily store input / output data (e.g., message, audio, still image, For example. The frequency of use of each of the data may be stored in the memory unit 160 as well. In addition, the memory unit 160 may store data on vibration and sound of various patterns output when the touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 생체신호연동 가상현실 교육 시스템은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM A disk, and / or an optical disk. The bio-signal interworking virtual reality education system may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 생체신호연동 가상현실 교육 시스템에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 생체신호연동 가상현실 교육 시스템 내부의 각 구성 요소에 전달하거나, 생체신호연동 가상현실 교육 시스템 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a pathway to all external devices connected to the bio-signal interworking virtual reality education system. The interface unit 170 receives data from an external device or supplies power to each component in the bio-signal interlocking virtual reality education system, or transmits data to the external devices in the biology signal interlocking virtual reality education system do. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 생체신호연동 가상현실 교육 시스템의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 생체신호연동 가상현실 교육 시스템과 연결될 수 있다. The identification module is a chip for storing various information for authenticating the usage right of the bio-signal linked virtual reality education system. The identification module includes a user identification module (UIM), a subscriber identity module (SIM) A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Therefore, the identification device can be connected to the bio-signal interlocking virtual reality education system through the port.

상기 인터페이스부는 생체신호연동 가상현실 교육 시스템이 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 생체신호연동 가상현실 교육 시스템에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the bio-signal interlocking virtual reality education system is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the bio-signal interworking virtual reality education system, Signal may be the path through which the mobile device is communicated. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile device is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 생체신호연동 가상현실 교육 시스템의 전반적인 동작을 제어한다. The controller 180 typically controls the overall operation of the bio-signal interworking virtual reality education system.

제어부(180)는 무선통신부, A/V입력부, 사용자입력부, 센싱부, 인터페이스부를 통해 입력된 신호를 이용하여 출력부의 하드웨어를 동작할 수 있는 제어 신호를 송신하거나 메모리에 저장 할 수 있다. 제어부에서는 센서신호를 분석하여 인지기능 지표, 운동기능 지표와 같은 분석지표를 산출하는 프로세서 모듈을 포함할 수 있다. 제어부는 메모리로부터 신호를 입력받아 출력부 기능을 제어할 수 있다. The control unit 180 may transmit a control signal for operating the hardware of the output unit or may store the control signal in the memory by using the signal input through the wireless communication unit, the A / V input unit, the user input unit, the sensing unit, and the interface unit. The control unit may include a processor module for analyzing the sensor signal to calculate an analysis index such as a cognitive function index and a motor function index. The control unit can receive a signal from the memory and control the function of the output unit.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control unit 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

도 3a는 생체신호연동 가상현실 교육 장치의 구체적인 일례를 도시한 것이고, 도 3b는 생체신호연동 가상현실 교육 장치에 이용되는 근전도 센서의 일례를 도시한 것이다.FIG. 3A shows a specific example of a bio-signal interlocking virtual reality teaching device, and FIG. 3B shows an example of an electromyography sensor used in a bio-signal interlocking virtual reality teaching device.

도 3a을 참조하면, 본 발명이 제안하는 생체신호연동 가상현실 교육 장치(100)는 밴드 모양의 인터페이스부(170), 뇌파센서(142) 및 스마트글라스(156)을 포함할 수 있다.Referring to FIG. 3A, the bio-signal interworking virtual reality apparatus 100 proposed by the present invention may include a band-shaped interface unit 170, a brain wave sensor 142, and a smart glass 156.

또한, 도 3b에 도시된 것과 같이, 본 발명이 제안하는 생체신호연동 가상현실 교육 장치(100)는 근전도 센서(144)를 더 포함하여 구성될 수 있다.Also, as shown in FIG. 3B, the bio-signal interlocking virtual reality teaching apparatus 100 proposed by the present invention may further comprise an electromyogram sensor 144.

도 3a을 참조하면, 밴드 모양의 인터페이스부(170)는 이마를 기준으로 수직으로 사용자의 헤드에 결합되는 제 1 부분(170a)과 수평으로 사용자의 헤드에 결합되는 제 2 부분(170b)을 포함한다.Referring to FIG. 3A, the band-shaped interface unit 170 includes a first portion 170a coupled to the user's head vertically with respect to the forehead and a second portion 170b coupled to the user's head horizontally do.

또한, 뇌파센서(142)는 사용자의 이마 또는 관자놀이 부근에 배치되어 사용자의 뇌파를 측정하는 기능을 제공한다.In addition, the brain-wave sensor 142 is disposed near the forehead or the temple of the user to provide a function of measuring a user's brain wave.

전술한 것과 같이, 뇌파센서(142)는 주파수와 전압의 범위에 따라 구분되는 델타, 세타, 알파, 베타, 감마파 등을 감지할 수 있고, 이를 통해 사용자의 상태를 판별하는 것이 가능하다.As described above, the brain-wave sensor 142 can detect delta, theta, alpha, beta, gamma wave, and the like, which are classified according to the frequency and voltage range.

또한, 스마트글라스(156)는 헤드 마운트 디스플레이(HMD)로, 고글의 형태로 구비될 수 있다.The smart glass 156 may be a head mounted display (HMD), and may be provided in the form of a goggle.

사용자는 스마트글라스(156)를 통해 가상현실 콘텐츠를 제공받을 수 있다.The user can be provided with the virtual reality content through the smart glass 156.

또한, 도 3b를 참조하면, 근전도 센서(144)는 복수의 센서를 포함하는 구조로, 사용자의 팔의 적어도 일부에 채워지는 팔찌 형태를 가질 수 있다.3B, the electromyogram sensor 144 may include a plurality of sensors, and may have a bracelet shape that is filled in at least a part of the user's arm.

전술한 것과 같이, 근전도 센서(144)를 통해 사용자의 골격근의 전기적 활동을 감지하는 것이 가능하다.As described above, it is possible to sense the electrical activity of the skeletal muscle of the user through the electromyogram sensor 144. [

도 4a는 도 3a 및 도 3b에서 설명한 가상현실 교육 장치를 사용자가 이용하는 구체적인 모습을 도시한 것이다.FIG. 4A is a detailed view of a user using the virtual reality education apparatus illustrated in FIGS. 3A and 3B.

도 4a를 참조하면, 사용자는 이마를 기준으로 수직으로 사용자의 헤드에 결합되는 제 1 부분(170a)과 수평으로 사용자의 헤드에 결합되는 제 2 부분(170b)을 포함하는 밴드 모양의 인터페이스부(170)를 통해 생체신호연동 가상현실 교육 장치(100)와 연결될 수 있다.4A, a user has a band-like interface (not shown) including a first portion 170a coupled to the user's head vertically with respect to the forehead and a second portion 170b coupled to the user's head horizontally 170 may be connected to the bio-signal interworking virtual reality teaching apparatus 100. [

또한, 사용자의 안구 정면에는 고글 형태의 스마트글라스(156)가 배치되고, 뇌파센서(142)는 사용자의 이마 혹은 관자놀이 부근에 배치되며, 근전도 센서(144)는 팔찌형태로 사용자의 팔에 채워지게 된다.In addition, a goggle-type smart glass 156 is disposed on the front of the user's eye, an EEG sensor 142 is disposed near the forehead or the temple of the user, and the EMG sensor 144 is mounted on the user's arm in the form of a bracelet do.

본 발명이 제안하는 생체신호연동 가상현실 교육 장치(100)는 주의력결핍 과잉행동장애(ADHD)와 치매와 같은 인지기능장애 예방 및 치료를 위해 이용될 수 있다.The bio-signal interworking virtual reality education apparatus 100 proposed by the present invention can be used for prevention and treatment of cognitive dysfunction such as attention deficit hyperactivity disorder (ADHD) and dementia.

즉, 과잉행동장애(ADHD) 치료를 위해, 고글 형태의 스마트글라스(156)를 통해 가상현실의 콘텐츠를 표시하고, 근전도 센서(144) 신호 기반의 제어를 통해 콘텐츠에서 제시하는 문제를 해결한다. 사용자의 집중정도를 뇌파센서(142)를 통해 확인하고, 집중정도가 높은 경우에만 상기 가상현실의 콘텐츠가 변화되어 표시되도록 할 수 있다.That is, for the treatment of hyperactivity disorder (ADHD), the contents of the virtual reality are displayed through the smart glass 156 in the form of goggles and solved the problem of presenting the contents through the control based on the signal of the EMG sensor 144. The concentration of the user can be checked through the brain wave sensor 142 and the content of the virtual reality can be changed and displayed only when the degree of concentration is high.

또한, 치매와 같은 인지기능장애 예방 및 치료를 위해 고글 형태의 스마트글라스(156)를 통해 가상현실의 콘텐츠를 표시하고, 사용자에게 주어진 문제 및 동작을 해결하는 것을 근전도 센서(144)를 통해 확인하고, 해결하는 경우에만 상기 가상현실의 콘텐츠가 변화되어 표시되도록 함으로써, 근력운동과 함께 인지기능이 저하되는 것을 예방할 수 있게 된다.In addition, in order to prevent and treat cognitive dysfunction such as dementia, the contents of the virtual reality are displayed through the goggle type smart glass 156, and the problem and the action given to the user are solved through the electromyogram sensor 144 , The content of the virtual reality is changed and displayed only when it is solved, so that it is possible to prevent the decline of the cognitive function together with the strength movement.

또한, 본 발명에 따른 스마트글라스(156)는 안경형, 헤드밴드형, 혹은 헬멧형 형태로 사용자가 손쉽게 착용하여 가상현실 컨텐츠를 즐길 수 있는 구조이다.In addition, the smart glass 156 according to the present invention is a structure that can be easily worn by a user in the form of a spectacles, a headband, or a helmet to enjoy virtual reality contents.

또한, 본 발명에 따른 가상현실컨텐츠는 인지기능강화 및 치료를 목적으로 하는 내용으로 인지 기능별(치매, ADHD등) 컨텐츠 내용구성, 인지기능별 난이도 조절이 가능하며 뇌파신호와 같은 생체신호 분석을 통한 인지상태 분석 및 리포트가 가능하다.In addition, the virtual reality contents according to the present invention are contents for enhancing and treating cognitive functions, and can be configured to control the degree of difficulty according to cognitive functions (dementia, ADHD, etc.) Status analysis and reporting is possible.

본 발명에 따른 스마트글라스(156)는 인지재활 컨텐츠를 사용자의 눈에 확대하여 디스플레이하는 기능을 한다.The smart glass 156 according to the present invention enlarges and displays cognitive rehabilitative contents on the user's eyes.

또한, 뇌파센서(142), 모션센서(143), camera(121), audio(150), 유/무선통신모듈(110) 등이 내장되어 있어 생체신호, 위치기반 신호 및 sound 신호 등을 활용한 컨텐츠 구성이 가능하다.The brain wave sensor 142, the motion sensor 143, the camera 121, the audio 150 and the wired / wireless communication module 110 are built in and utilize a bio-signal, a position-based signal, Content composition is possible.

특히, 뇌파신호를 이용한 뉴로피드백 훈련 및 인지기능 분석이 가능하고, 유/무선 송수신 모듈(110)을 이용해 컨텐츠의 업로드 및 업그레이드가 가능하다.Particularly, it is possible to perform neuro feedback training and cognitive function analysis using EEG signals, and to upload and upgrade contents using the wired / wireless transmission / reception module 110.

또한, 본 발명에 따른 근전도 센서(144)는 손목밴드 형태의 다채널 근전도 측정 시스템이다.In addition, the electromyogram sensor 144 according to the present invention is a wrist band type multi-channel electromyography measuring system.

근전도 센서(144)는 무선 송수신 모듈 내장으로 근전도 신호를 송수신할 수 있고, 모션센서(143), 위치센서(115)가 내장될 수 있으며, 이를 이용한 근전도 측정 및 근력지표 산출이 가능하다.The EMG sensor 144 can transmit and receive an EMG signal by incorporating a wireless transmission / reception module, and can incorporate a motion sensor 143 and a position sensor 115. The EMG sensor and the muscle index can be calculated using the EMG sensor 144.

본 발명에 따른 생체신호연동 가상현실 교육 장치(100)는 가정용으로 이용 가능하다.The bio-signal interworking virtual reality teaching apparatus 100 according to the present invention can be used for home use.

도 4b는 본 발명이 제안하는 생체신호연동 가상현실 교육 시스템을 주의력 결핍 과잉 행동 장애(ADHD) 예방 및 치료에 이용하는 구체적인 모습을 도시한 것이다.FIG. 4B is a view showing a concrete use of the bio-signal interlocking virtual reality education system proposed by the present invention in the prevention and treatment of attention deficit hyperactivity disorder (ADHD).

도 4b를 참조하면, 본 발명에 따른 생체신호연동 가상현실 교육 장치(100)는 ADHD, 치매 환자 인지기능 강화 훈련기로서 이용 가능하다.Referring to FIG. 4B, the bio-signal interlocking virtual reality teaching apparatus 100 according to the present invention can be used as an ADHD, a dementia cognitive function enhancing training machine.

즉, 가정에서 개인이 착용하고 기억력, 주의력, 집중력 훈련을 수행하며, 난이도별 게임컨텐츠를 활용한 흥미 유도가 가능하고, 다양한 컨텐츠를 제공하며, 신버전의 컨텐츠 유료 업그레이드가 가능하고, 인지기능 분석 결과를 제공함으로써 자가진단을 통한 치료 및 예방 효과를 모니터링 할 수 있다.That is, it is possible to induce interest by using game contents according to degree of difficulty, to provide various contents, to upgrade the contents of a new version, and to perform cognitive function analysis To monitor treatment and prevention effects through self-diagnosis.

한편, 헤드 마운트 디스플레이(HMD) 등을 이용한 다양한 교육 방법이 제안되고 있으나 컨텐츠를 이용하는 사용자의 집중도를 실시간 또는 누적하여 평가하고, 평가된 집중도를 사용자에게 피드백함으로써 효율적인 교육을 꾀하는 시스템 및 방법은 전혀 제안되고 있지 못하므로, 이에 대한 해결방안이 요구되고 있는 실정이다.On the other hand, various educational methods using a head-mounted display (HMD) or the like have been proposed. However, there is no system or method for evaluating the concentration of users using contents in real time or cumulatively, Therefore, there is a need for a solution to this problem.

따라서 뇌파, 근전도, 심전도 센서와 같은 생체 센서 기술과 스마트글라스 기술, 가상현실 컨텐츠 기술이 융합된 기술로 개인이 착용하여 사용할 수 있는 간단한 시스템으로 장소에 구애 없이 교육 프로그램을 진행할 수 있는 시스템을 제안할 필요성이 있다.Therefore, we propose a system which can carry out educational program without any admission to the place with a simple system that can be worn by individuals with technology that combines bio sensor technology such as EEG, electromyography, ECG sensor, smart glass technology and virtual reality contents technology There is a need.

본 발명에서는 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 생체신호연동 가상현실 교육 시스템 및 방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a system and method for training a virtual reality in a bio-signal interlocking system.

구체적으로 본 발명은 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치를 사용자에게 제공하고자 한다.Specifically, the present invention provides a system and an apparatus for increasing the educational efficiency by displaying the virtual reality education contents on a smart glass device and analyzing cumulative concentration and real time concentration of the user by interlocking the living body signal sensor.

본 발명이 제안하는 생체신호연동 가상현실 교육 장치(100)는 대표적으로 개인이 착용하고 동영상 학습을 할 수 있는 개인 착용형 학습기로 이용될 수 있다. The bio-signal interworking virtual reality teaching apparatus 100 proposed by the present invention can be used as a personal wearable learning machine which can be typically worn by an individual and can learn moving pictures.

도 5는 도 3a에서 설명한 가상현실 교육장치를 사용자가 개인형 동영상 학습기로 이용하는 구체적인 모습을 도시한 것이다.FIG. 5 is a detailed view of a user using the virtual reality educational apparatus illustrated in FIG. 3A as a personalized video learning apparatus.

도 5를 참조하면, 가정에서 개인이 착용하고 다양한 텍스트나 동영상 컨텐츠를 활용하여 학습이 가능하며, 신버전의 컨텐츠 유료 업그레이드가 가능하고, 생체신호를 통한 집중도 분석 결과를 제공함으로써 집중도를 모니터링 하고, 주의를 환기시킬 수 있는 이벤트를 제공함으로써 효과적인 학습 환경하에서 학습할 수 있는 시스템으로 활용될 수 있다.Referring to FIG. 5, it is possible to learn by using various text or moving picture contents worn by individuals at home, to pay for upgrading contents of a new version, to provide a result of concentration analysis through bio-signals, Which can be used as a system capable of learning in an effective learning environment.

본 발명의 구체적인 방법에 대해 도면을 참조하여 설명한다. Specific methods of the present invention will be described with reference to the drawings.

제 1 실시예First Embodiment

본 발명에 따른 제 1 실시예에서는 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석하게 된다.In the first embodiment of the present invention, the cumulative concentration and the real-time concentration of the user are analyzed by interlocking the bio-signal sensor.

도 6은 본 발명과 관련된 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 방법을 설명하는 순서도이다.FIG. 6 is a flowchart illustrating a method for enhancing a training efficiency by analyzing cumulative concentration and real-time concentration of a user by interfacing a bio-signal sensor according to the present invention.

도 6을 참조하면, 가장 먼저, HMD(156)를 통해 교육과 관련된 컨텐츠가 플레이 되는 단계(S100)가 진행된다.Referring to FIG. 6, first, the content related to education is played through the HMD 156 (S100).

여기서 교육 관련 컨텐츠는 텍스트, 이미지, 동영상 등을 포함할 수 있다.Here, the education-related contents may include text, image, video, and the like.

또한, 플레이 되는 교육 관련 컨텐츠는 무선 통신부(110)를 통해 외부로부터 수신되어 플레이 되거나 메모리(160)에 미리 저장되어 로딩 이후 플레이 될 수 있다.In addition, the education-related contents to be played may be received from the outside through the wireless communication unit 110 and played or stored in the memory 160 in advance and then played after loading.

교육 관련 컨텐츠가 플레이되는 경우, 뇌파 센서(142)를 이용하여 사용자의 적어도 하나의 뇌파를 센싱하는 단계(S200)가 진행된다.When the education-related contents are played, a step S200 of sensing at least one brain wave of the user using the brain-wave sensor 142 is performed.

여기서 적어도 하나의 뇌파는 전술한 것과 같이, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함할 수 있다.As described above, at least one EEG includes at least one of alpha-beta, beta-beta, theta, gamma wave, delta wave, SMR wave and Mid- beta wave .

이후, 제어부(180)는 센싱된 적어도 하나의 뇌파를 이용하여 사용자의 실시간 집중도를 평가하고, 사용자에게 피드백 하는 단계(S300)를 수행한다.Then, the control unit 180 evaluates the real-time concentration degree of the user using at least one sensed EEG and performs a step S300 of feeding back to the user.

즉, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파 중 적어도 하나의 변화를 이용하여 사용자의 변화하는 집중도를 사용자에게 실시간으로 피드백 할 수 있다.That is, a change of at least one of alpha-wave (alpha), beta wave (beta), theta wave (?), Gamma wave (?), Delta wave (?), SMR wave and Mid- The concentration can be fed back to the user in real time.

본 실시예에서는 뇌파를 이용하여 사용자의 집중도를 평가하는 것을 대표적인 일례로 들었으나 추가적으로 사용자의 시선 추적 기능을 더 적용하여 사용자의 집중도를 정확하게 판단하는 것도 가능하다.In the present embodiment, evaluation of the user's concentration using the EEG is described as a representative example. However, it is also possible to accurately determine the concentration of the user by further applying the user's gaze tracking function.

또한, 전술한 심전도 센서를 통한 센싱 정보도 추가적으로 활용될 수도 있다.In addition, the sensing information through the electrocardiographic sensor described above may be additionally utilized.

제어부(180)에 따라 집중도의 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Feedback of the degree of concentration according to the control unit 180 may be displayed on the HMD 156 or displayed to the user through the sound output module 152, the alarm unit 153, or the projector module 155, and the like.

이후, 제어부(180)의 제어에 따라 메모리(160)는 평가된 실시간 집중도를 저장하는 단계(S400)를 수행한다.Then, in accordance with the control of the control unit 180, the memory 160 stores the evaluated real time concentration degree (S400).

이후, 교육 컨텐츠의 플레이가 종료되거나 미리 설정된 기간이 경과하는 경우, 제어부(180)는 일정 기간 동안 메모리(160)에 저장된 집중도를 분석하여 사용자가 집중을 잘 할 수 있는 시간대를 평가하고, 사용자에게 피드백 하게 된다(S500).Thereafter, when the play of the educational contents is terminated or a predetermined period of time elapses, the controller 180 analyzes the concentration degree stored in the memory 160 for a predetermined period of time, evaluates a time period during which the user can concentrate well, (S500).

예를 들어, 일주일 동안 사용자의 집중도를 수집 및 분석한 결과, 13시부터 17시까지의 집중도가 가장 높았고, 06시부터 08시까지의 집중도가 가장 낮았다는 평가 정보를 사용자에게 피드백 할 수 있다.For example, as a result of collecting and analyzing the user's concentration for a week, the user can feedback the evaluation information that the concentration from 13:00 to 17:00 is the highest and the concentration from 06:00 to 08:00 is the lowest.

일정 기간에 대한 평가 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Evaluation feedback for a predetermined period may be displayed on the HMD 156 or displayed to the user through the sound output module 152, the alarm unit 153, or the projector module 155, and the like.

한편, 본 발명에서는 HMD(156)와 자동으로 연동되는 전자펜이 추가적으로 이용될 수 있다.In the present invention, an electronic pen automatically interlocked with the HMD 156 may be additionally used.

즉, 사용자의 전자펜 조작을 통해 HMD(156)의 동작이 제어되거나 교육 관련 컨텐츠가 플레이되는 도중 사용자는 필기를 수행하여 메모리가 이를 저장하도록 할 수도 있다.That is, the user may control the operation of the HMD 156 through the operation of the user's electronic pen, or the user may perform handwriting while the education-related contents are being played, thereby allowing the memory to store it.

제 2 실시예Second Embodiment

한편, 본 발명에 따른 제 2 실시예에서는 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석하되, 사용자의 집중도가 떨어지는 시점 또는 시기에 미리 설정된 컨텐츠를 플레이하여 사용자가 휴식하고, 집중도를 회복할 수 있다.Meanwhile, in the second embodiment of the present invention, the cumulative concentration and the real-time concentration of the user are interlocked by interlocking the bio-signal sensor, and the user can play the pre-set contents at the time or when the concentration of the user drops, I can recover.

도 7은 도 6와 관련하여, 사용자의 집중도가 떨어지는 시점 또는 시기에 미리 설정된 컨텐츠를 플레이하여 사용자가 휴식하고, 집중도를 회복할 수 있는 방법을 설명하는 순서도이다.FIG. 7 is a flowchart illustrating a method by which a user can rest and recover a concentration of content by playing predetermined content at a point in time or at a time when the user's concentration becomes low, with reference to FIG.

도 7을 참조하면, 가장 먼저, HMD(156)를 통해 교육과 관련된 컨텐츠가 플레이 되는 단계(S100)가 진행된다.Referring to FIG. 7, first, the content related to education is played through the HMD 156 (S100).

여기서 교육 관련 컨텐츠는 텍스트, 이미지, 동영상 등을 포함할 수 있다.Here, the education-related contents may include text, image, video, and the like.

또한, 플레이 되는 교육 관련 컨텐츠는 무선 통신부(110)를 통해 외부로부터 수신되어 플레이 되거나 메모리(160)에 미리 저장되어 로딩 이후 플레이 될 수 있다.In addition, the education-related contents to be played may be received from the outside through the wireless communication unit 110 and played or stored in the memory 160 in advance and then played after loading.

교육 관련 컨텐츠가 플레이되는 경우, 뇌파 센서(142)를 이용하여 사용자의 적어도 하나의 뇌파를 센싱하는 단계(S200)가 진행된다.When the education-related contents are played, a step S200 of sensing at least one brain wave of the user using the brain-wave sensor 142 is performed.

여기서 적어도 하나의 뇌파는 전술한 것과 같이, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함할 수 있다.As described above, at least one EEG includes at least one of alpha-beta, beta-beta, theta, gamma wave, delta wave, SMR wave and Mid- beta wave .

이후, 제어부(180)는 센싱된 적어도 하나의 뇌파를 이용하여 사용자의 실시간 집중도를 평가하고, 사용자에게 피드백 하는 단계(S300)를 수행한다.Then, the control unit 180 evaluates the real-time concentration degree of the user using at least one sensed EEG and performs a step S300 of feeding back to the user.

즉, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파 중 적어도 하나의 변화를 이용하여 사용자의 변화하는 집중도를 사용자에게 실시간으로 피드백 할 수 있다.That is, a change of at least one of alpha-wave (alpha), beta wave (beta), theta wave (?), Gamma wave (?), Delta wave (?), SMR wave and Mid- The concentration can be fed back to the user in real time.

제어부(180)에 따라 집중도의 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Feedback of the degree of concentration according to the control unit 180 may be displayed on the HMD 156 or displayed to the user through the sound output module 152, the alarm unit 153, or the projector module 155, and the like.

이때, 제 2 실시예에서는 제어부(180)가 평가된 사용자의 집중도가 미리 설정된 집중도 이하인 경우, 교육 컨텐츠의 플레이를 중단하는 단계(S310)를 진행한다.In this case, in the second embodiment, when the concentration of the user who has been evaluated by the controller 180 is equal to or less than a predetermined degree of concentration, the process proceeds to step S310 of stopping the play of the education contents.

즉, 집중도가 떨어져 있는 상태에서 교육 컨텐츠의 플레이를 통한 효과는 미비할 수 밖에 없으므로, 평가된 사용자의 집중도가 미리 설정된 집중도 이하인 경우, 교육 컨텐츠의 플레이를 자동으로 중단하거나 중단 여부에 대한 질문이 부여될 수 있다.That is, since the effect of playing the educational contents is inevitable in a state where the concentration is low, when the concentration of the evaluated user is equal to or less than a preset concentration level, .

여기서 질문에 대해 YES로 답하는 경우, 미리 지정한 컨텐츠가 플레이될 수도 있다.If the answer to the question is YES, predefined contents may be played.

또한, 제어부(180)는 사용자가 미리 지정한 컨텐츠가 HMD(156)를 통해 플레이되도록 할 수 있다.In addition, the controller 180 may cause the HMD 156 to play the content previously designated by the user.

예를 들어, 사용자가 미리 지정한 음악 리스트, 동영상 리스트 등이 HMD(156)를 통해 표시되어 사용자의 휴식을 유도할 수 있다.For example, a music list, a video list, and the like designated by the user may be displayed through the HMD 156 to induce the rest of the user.

일정 기간 동안 사용자 지정 컨텐츠가 플레이 되는 경우, 제어부(180)는 플레이를 중단하고, 다시 교육과 관련된 컨텐츠가 플레이되도록 할 수 있다.If the user-specified content is played for a predetermined period of time, the control unit 180 may stop the play and cause the content related to the education to be played again.

이후, 제어부(180)의 제어에 따라 메모리(160)는 평가된 실시간 집중도를 저장하는 단계(S400)를 수행한다.Then, in accordance with the control of the control unit 180, the memory 160 stores the evaluated real time concentration degree (S400).

이후, 교육 컨텐츠의 플레이가 종료되거나 미리 설정된 기간이 경과하는 경우, 제어부(180)는 일정 기간 동안 메모리(160)에 저장된 집중도를 분석하여 사용자가 집중을 잘 할 수 있는 시간대를 평가하고, 사용자에게 피드백 하게 된다(S500).Thereafter, when the play of the educational contents is terminated or a predetermined period of time elapses, the controller 180 analyzes the concentration degree stored in the memory 160 for a predetermined period of time, evaluates a time period during which the user can concentrate well, (S500).

예를 들어, 일주일 동안 사용자의 집중도를 수집 및 분석한 결과, 13시부터 17시까지의 집중도가 가장 높았고, 06시부터 08시까지의 집중도가 가장 낮았다는 평가 정보를 사용자에게 피드백 할 수 있다.For example, as a result of collecting and analyzing the user's concentration for a week, the user can feedback the evaluation information that the concentration from 13:00 to 17:00 is the highest and the concentration from 06:00 to 08:00 is the lowest.

일정 기간에 대한 평가 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Evaluation feedback for a predetermined period may be displayed on the HMD 156 or displayed to the user through the sound output module 152, the alarm unit 153, or the projector module 155, and the like.

S500 단계를 통한 집중할 수 있는 시간에 대한 피드백이 전달된 이후, 다시 교육 관련 컨텐츠가 플레이되면, 제어부(180)는 사용자가 집중할 수 있는 시간대 이외의 경우, 교육 컨텐츠의 플레이를 중단하는 단계(S510)를 수행할 수 있다.If the education-related content is played again after the feedback on the focusable time through S500 is delivered, the control unit 180 stops the play of the educational contents in a time period other than the time zone in which the user can concentrate (S510) Can be performed.

즉, 집중도가 떨어져 있는 시간대에서 교육 컨텐츠의 플레이를 통한 효과는 미비할 수 밖에 없으므로, 사용자의 집중도가 떨어지는 시간대에서는 교육 컨텐츠의 플레이를 자동으로 중단하거나 실행 여부를 확인할 수 있다.That is, since the effect of playing the educational contents is inevitable in a time zone in which the concentration is low, it is possible to automatically stop the play of the educational contents or check whether the execution of the education contents is executed in a time zone where the user's concentration is low.

또한, 제어부(180)는 사용자가 미리 지정한 컨텐츠가 HMD(156)를 통해 플레이되도록 할 수 있다(S520).In addition, the control unit 180 may cause the HMD 156 to play the content previously designated by the user (S520).

예를 들어, 사용자가 미리 지정한 음악 리스트, 동영상 리스트 등이 HMD(156)를 통해 표시되어 사용자의 휴식을 유도할 수 있다.For example, a music list, a video list, and the like designated by the user may be displayed through the HMD 156 to induce the rest of the user.

일정 기간 동안 사용자 지정 컨텐츠가 플레이 되는 경우, 제어부(180)는 플레이를 중단하고, 다시 교육과 관련된 컨텐츠가 플레이되도록 할 수 있다.If the user-specified content is played for a predetermined period of time, the control unit 180 may stop the play and cause the content related to the education to be played again.

제 3 실시예Third Embodiment

본 발명에 따른 제 3 실시예에서는 복수의 사용자가 사용하는 디스플레이 간에 네트워크를 형성하고, 실시간 집중도 순위 및 복수 사용자의 집중 시간대에 대한 정보를 사용자들에게 제공할 수 있다.In the third embodiment of the present invention, a network is formed between displays used by a plurality of users, and information on the real-time concentration ranking and the concentration time zones of a plurality of users can be provided to users.

도 8은 도 6와 관련하여, 복수의 사용자가 사용하는 디스플레이 간에 네트워크를 형성하고, 실시간 집중도 순위 및 복수 사용자의 집중 시간대에 대한 정보를 사용자들에게 제공하기 위한 방법을 설명하는 순서도이다.FIG. 8 is a flowchart illustrating a method for forming a network between displays used by a plurality of users, and for providing information on real-time concentration ranking and concentration time zones of a plurality of users to users, with reference to FIG.

도 8을 참조하면, 가장 먼저, 복수의 HMD(156) 간에 네트워크를 형성하는 단계(S50)가 진행된다.Referring to FIG. 8, first, a step S50 of forming a network between a plurality of HMDs 156 is performed.

여기서 네트워크는 근거리 통신 또는 원거리 통신을 이용하여 구축될 수 있다.Where the network may be established using local or remote communication.

여기서 근거리 통신은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, Wi-Fi (Wireless Fidelity) 기술을 포함할 수 있다.The local area communication may include Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and Wi-Fi (Wireless Fidelity).

또한, 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술을 포함할 수 있다.Further, the long-distance communication may be performed by using a code division multiple access (CDMA), a frequency division multiple access (FDMA), a time division multiple access (TDMA), an orthogonal frequency division multiple access (OFDMA), a single carrier frequency division multiple access . ≪ / RTI >

이후, HMD(156)를 통해 교육과 관련된 컨텐츠가 플레이 되는 단계(S100)가 진행된다.Thereafter, a step S100 of playing contents related to education through the HMD 156 is performed.

여기서 교육 관련 컨텐츠는 텍스트, 이미지, 동영상 등을 포함할 수 있다.Here, the education-related contents may include text, image, video, and the like.

또한, 플레이 되는 교육 관련 컨텐츠는 무선 통신부(110)를 통해 외부로부터 수신되어 플레이 되거나 메모리(160)에 미리 저장되어 로딩 이후 플레이 될 수 있다.In addition, the education-related contents to be played may be received from the outside through the wireless communication unit 110 and played or stored in the memory 160 in advance and then played after loading.

교육 관련 컨텐츠가 플레이되는 경우, 뇌파 센서(142)를 이용하여 사용자의 적어도 하나의 뇌파를 센싱하는 단계(S200)가 진행된다.When the education-related contents are played, a step S200 of sensing at least one brain wave of the user using the brain-wave sensor 142 is performed.

여기서 적어도 하나의 뇌파는 전술한 것과 같이, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함할 수 있다.As described above, at least one EEG includes at least one of alpha-beta, beta-beta, theta, gamma wave, delta wave, SMR wave and Mid- beta wave .

이후, 제어부(180)는 센싱된 적어도 하나의 뇌파를 이용하여 사용자의 실시간 집중도를 평가하고, 사용자에게 피드백 하는 단계(S300)를 수행한다.Then, the control unit 180 evaluates the real-time concentration degree of the user using at least one sensed EEG and performs a step S300 of feeding back to the user.

즉, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파 중 적어도 하나의 변화를 이용하여 사용자의 변화하는 집중도를 사용자에게 실시간으로 피드백 할 수 있다.That is, a change of at least one of alpha-wave (alpha), beta wave (beta), theta wave (?), Gamma wave (?), Delta wave (?), SMR wave and Mid- The concentration can be fed back to the user in real time.

제어부(180)에 따라 집중도의 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Feedback of the degree of concentration according to the control unit 180 may be displayed on the HMD 156 or displayed to the user through the sound output module 152, the alarm unit 153, or the projector module 155, and the like.

제 1 실시예 및 제 2 실시예와 달리, S300 단계 이후에, 제어부(180)가 복수의 사용자의 실시간 집중도 순위를 평가하고, 무선통신부(110)를 통해 평가한 집중도 순위를 복수의 디스플레이 간에 공유하는 단계(S330)가 진행된다.Unlike the first and second embodiments, after step S300, the controller 180 evaluates the real-time concentration ranking of a plurality of users, and the concentration ranking evaluated through the wireless communication unit 110 is shared among the plurality of displays (S330).

S330 단계를 통해, 사용자 간의 경쟁을 유도함으로써, 더 높은 집중도로 교육 컨텐츠를 습득하는 것을 유도할 수 있게 된다.Through the step S330, it is possible to induce competition between the users, thereby acquiring the education contents with higher concentration.

이후, 제어부(180)의 제어에 따라 메모리(160)는 평가된 실시간 집중도를 저장하는 단계(S400)를 수행한다.Then, in accordance with the control of the control unit 180, the memory 160 stores the evaluated real time concentration degree (S400).

이후, 교육 컨텐츠의 플레이가 종료되거나 미리 설정된 기간이 경과하는 경우, 제어부(180)는 일정 기간 동안 메모리(160)에 저장된 집중도를 분석하여 사용자가 집중을 잘 할 수 있는 시간대를 평가하고, 사용자에게 피드백 하게 된다(S500).Thereafter, when the play of the educational contents is terminated or a predetermined period of time elapses, the controller 180 analyzes the concentration degree stored in the memory 160 for a predetermined period of time, evaluates a time period during which the user can concentrate well, (S500).

예를 들어, 일주일 동안 사용자의 집중도를 수집 및 분석한 결과, 13시부터 17시까지의 집중도가 가장 높았고, 06시부터 08시까지의 집중도가 가장 낮았다는 평가 정보를 사용자에게 피드백 할 수 있다.For example, as a result of collecting and analyzing the user's concentration for a week, the user can feedback the evaluation information that the concentration from 13:00 to 17:00 is the highest and the concentration from 06:00 to 08:00 is the lowest.

일정 기간에 대한 평가 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Evaluation feedback for a predetermined period may be displayed on the HMD 156 or displayed to the user through the sound output module 152, the alarm unit 153, or the projector module 155, and the like.

또한, 제 3 실시예에서는 복수의 사용자의 집중 시간대에 대한 평균을 평가하고, 사용자에게 피드백 하는 단계(S530)가 추가된다.In addition, in the third embodiment, a step S530 of adding an average of a plurality of users to the concentrated time zone and feedback to the user is added.

따라서 사용자는 본인의 집중 시간대에 대한 정보뿐만 아니라 복수의 사용자들이 평균적으로 높게 보이는 집중 시간대에 대한 정보를 함께 획득하여 이용할 수 있게 된다.Therefore, the user can acquire information on the concentration time zone of the user, as well as the information on the concentration time zone, which is higher in average on the average of the plurality of users.

전술한 본 발명의 구성을 통해 생체신호연동 가상현실 교육 시스템 및 방법을 제공할 수 있다.The present invention can provide a bio-signal interlocking virtual reality education system and method.

구체적으로 본 발명은 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치를 사용자에게 제공할 수 있다.Specifically, the present invention can provide a system and an apparatus capable of increasing educational efficiency by displaying virtual reality education contents on a smart glass device and analyzing cumulative concentration and real time concentration of a user by interlocking with a bio-signal sensor .

본 발명이 제안하는 교육 장치는 안경이나 헬멧처럼 착용하는 스마트 글라스에 가상현실 컨텐츠를 디스플레이 할 수 있는 구조로, 장소의 구애 없이 사용이 가능하며, 스마트 글라스에 내장된 뇌파센서나 사용자의 인체에 부착이 가능한 근전도 센서를 이용하여 사용자의 집중도, 인지기능, 운동기능에 대한 실시간, 정량적 분석이 가능하며 집중도에 따른 교육, 인지기능 정도에 따른 레벨별 훈련이 가능할 수 있다.The educational device proposed by the present invention is a structure capable of displaying virtual reality contents in a smart glass worn like a pair of glasses or a helmet, and can be used without any admission of a place, and can be attached to an electroencephalogram sensor or a user's body Using this possible EMG sensor, real-time and quantitative analysis of the user's concentration, cognitive function, and motor function is possible, and it is possible to perform training according to the degree of concentration and level-specific training according to the degree of cognitive function.

또한, 본 발명의 제안하는 교육 장치는 스마트글라스에 내장된 모션센서, 카메라, 외부연동 가능한 키넥트 센서 등을 이용해 사용자 모션 및 위치기반 컨텐츠 제공이 가능하므로 체감형 교육훈련 뿐 아니라 인지재활, 운동재활 시스템으로도 활용이 가능한 것을 목적으로 하며, 인체부착 가능한 심전도 센서를 이용해 스트레스 지수, 운동상태 등 신체분석 데이터를 제공할 수 있다.Further, since the education apparatus proposed by the present invention can provide user-motion and position-based contents using a motion sensor, a camera, and an external interlocking Kinect sensor built in a smart glass, it is possible to provide not only a sensible training but also cognitive rehabilitation, System, and can provide body analysis data such as stress index and exercise state using an electrocardiograph sensor that can be attached to a human body.

또한, 본 발명은 인지기능장애 예방 및 치료 관련하여, 주의력결핍 과잉행동장애(ADHD) 예방 및 치료 및 치매 예방 및 치료에 이용될 수 있다.In addition, the present invention can be used for the prevention and treatment of attention deficit hyperactivity disorder (ADHD) and for the prevention and treatment of dementia in relation to prevention and treatment of cognitive dysfunction.

본 발명은 뇌기능장애 예방 및 치료와 관련하여, 뇌기능 장애로 인한 인지기능 재활 및 운동기능 재활, 인지기능강화 훈련 및 주의력, 집중력 훈련에 이용될 수 있다.The present invention can be used for cognitive function rehabilitation and motor function rehabilitation due to brain dysfunction, cognitive function strengthening training, and attention and concentration training in relation to prevention and treatment of brain dysfunction.

또한, 본 발명은 게임 시장과 관련하여, 생체신호를 이용한 집중력 게임에 이용될 수도 있다.Further, the present invention may be used for a concentration game using biological signals in connection with the game market.

한편, 본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet) .

또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다. In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers of the technical field to which the present invention belongs.

또한, 상기와 같이 설명된 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It should be noted that the above-described apparatus and method are not limited to the configurations and methods of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .

Claims (21)

적어도 하나의 디스플레이에서 발산되는 영상광을 사용자의 안구에 전달하는 광학 모듈로 이루어지고, 사용자의 교육과 관련된 제 1 컨텐츠를 표시하는 헤드마운트 디스플레이;
상기 사용자의 적어도 하나의 뇌파를 센싱하는 뇌파 센서;
상기 센싱한 적어도 하나의 뇌파를 이용하여 상기 제 1 컨텐츠에 대한 상기 사용자의 집중도를 평가하는 제어부; 및
상기 사용자의 집중도를 누적하여 저장하는 메모리;를 포함하되,
상기 제어부는,
상기 사용자의 집중도가 상기 헤드마운트 디스플레이를 통해 실시간으로 표시되도록 제어하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
A head mount display comprising an optical module for transmitting video light emitted from at least one display to a user's eyeball and displaying first content related to a user's education;
A brain wave sensor for sensing at least one brain wave of the user;
A controller for evaluating the user's concentration on the first content using at least one sensed EEG; And
And a memory for cumulatively storing the concentration of the user,
Wherein,
And controls the user to display the concentration of the user in real time through the head mount display.
제 1항에 있어서,
상기 제어부는,
상기 실시간으로 평가한 사용자의 집중도가 미리 설정된 수치 이하인 경우,
상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
The method according to claim 1,
Wherein,
When the concentration of the user evaluated in real time is less than a predetermined value,
And stops displaying the first content on the head mount display.
제 2항에 있어서,
상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하고,
상기 제 1 컨텐츠 표시가 중단되는 경우,
상기 제어부는 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되도록 제어하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
3. The method of claim 2,
Wherein the memory stores at least one second content previously designated by the user,
When the first content display is stopped,
Wherein the controller controls the second content stored in the memory to be displayed on the head-mounted display instead of the second content.
제 1항에 있어서,
상기 제어부는,
상기 메모리에 누적하여 저장된 사용자의 집중도 정보를 이용하여, 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
The method according to claim 1,
Wherein,
Wherein at least one first time interval in which the concentration of the user is equal to or greater than a predetermined value is extracted using the concentration information of the user accumulated in the memory.
제 4항에 있어서,
상기 제어부는,
상기 제 1 컨텐츠가 표시되는 시간이 상기 제 1 시간 구간 이내가 아닌 경우,
상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
5. The method of claim 4,
Wherein,
When the time at which the first content is displayed is not within the first time period,
And stops displaying the first content on the head mount display.
제 5항에 있어서,
상기 제어부는,
상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하고,
상기 제 1 컨텐츠 표시가 중단되는 경우,
상기 제어부는 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되도록 제어하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
6. The method of claim 5,
Wherein,
Wherein the memory stores at least one second content previously designated by the user,
When the first content display is stopped,
Wherein the controller controls the second content stored in the memory to be displayed on the head-mounted display instead of the second content.
제 1항에 있어서,
상기 사용자의 집중도를 외부로 통신하는 무선통신부;를 더 포함하고,
상기 생체신호연동 가상현실 교육 시스템은 복수이며,
상기 복수의 생체신호연동 가상현실 교육 시스템은 각각의 무선통신부를 통해 네트워크를 형성하고, 상기 복수의 사용자의 집중도를 공유하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
The method according to claim 1,
And a wireless communication unit for externally communicating the concentration of the user,
The bio-signal interlocking virtual reality education system is a plurality of,
Wherein the plurality of bio-signal interworking virtual reality education systems form a network through respective wireless communication units and share the concentration of the plurality of users.
제 7항에 있어서,
상기 제어부는,
상기 복수의 사용자의 집중도의 순위를 평가하고,
상기 각각의 무선통신부가 상기 평가한 집중도의 순위를 실시간으로 공유하도록 제어하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
8. The method of claim 7,
Wherein,
Evaluating a ranking of the concentration of the plurality of users,
Wherein each of the wireless communication units controls the ranking of the degree of concentration to be shared in real time.
제 7항에 있어서,
상기 제어부는,
상기 복수의 메모리 각각에 누적하여 저장된 복수의 사용자의 집중도 정보를 이용하여, 복수의 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
8. The method of claim 7,
Wherein,
Wherein at least one first time interval in which the concentration of a plurality of users is equal to or greater than a predetermined value is extracted using the concentration information of a plurality of users cumulatively stored in each of the plurality of memories, .
제 1항에 있어서,
상기 헤드마운트 디스플레이는 상기 사용자의 안구 전면에 배치되고,
상기 헤드마운트 디스플레이의 위치를 기준으로 수평으로 상기 사용자의 헤드를 고정하는 제 1 인터페이스부; 및
상기 헤드마운트 디스플레이의 위치를 기준으로 수직으로 상기 사용자의 헤드를 고정하는 제 2 인터페이스부;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
The method according to claim 1,
Wherein the head mount display is disposed at an eyeball front of the user,
A first interface unit for horizontally fixing the head of the user based on a position of the head mount display; And
And a second interface for fixing the user's head vertically with respect to the position of the head mount display.
제 2항에 있어서,
상기 헤드마운트 디스플레이는 고글 형태 또는 헬멧 형태인 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
3. The method of claim 2,
Wherein the head mount display is a goggle type or a helmet type.
제 1항에 있어서,
상기 적어도 하나의 뇌파는,
알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.
The method according to claim 1,
Wherein the at least one EEG comprises:
A virtual-reality virtual reality education system comprising an alpha wave, a beta wave, a theta wave, a gamma wave, a delta wave, an SMR wave and a Mid- .
적어도 하나의 디스플레이에서 발산되는 영상광을 사용자의 안구에 전달하는 광학 모듈로 이루어진 헤드마운트 디스플레이가 사용자의 교육과 관련된 제 1 컨텐츠를 표시하는 제 1 단계;
뇌파 센서가 상기 사용자의 적어도 하나의 뇌파를 센싱하는 제 2 단계;
제어부가 상기 센싱한 적어도 하나의 뇌파를 이용하여 상기 제 1 컨텐츠에 대한 상기 사용자의 집중도를 평가하는 제 3 단계;
메모리가 상기 사용자의 집중도를 누적하여 저장하는 제 4 단계; 및
상기 사용자의 집중도가 상기 헤드마운트 디스플레이를 통해 실시간으로 표시되는 제 5 단계;를 포함하는 생체신호연동 가상현실 교육 방법.
A head mount display comprising an optical module for transmitting image light emitted from at least one display to a user's eye, the first mount displaying a first content related to a user's education;
A second step in which an EEG sensor senses at least one EEG of the user;
A third step of the controller evaluating the user's concentration on the first content using at least one sensed EEG;
A memory accumulating the concentration of the user; And
And a fifth step of displaying the concentration of the user in real time through the head mount display.
제 13항에 있어서,
상기 제 5 단계 이후,
상기 실시간으로 평가한 사용자의 집중도가 미리 설정된 수치 이하인 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 제 6 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.
14. The method of claim 13,
After the fifth step,
And stopping the first content display on the head mount display if the concentration of the user evaluated in real time is less than a preset value.
제 14항에 있어서,
상기 제 1 단계 이전에는, 상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하는 제 0.5 단계;를 더 포함하고,
상기 제 6 단계에서 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되는 제 7 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.
15. The method of claim 14,
Before the first step, the memory further stores at least one second content previously designated by the user,
And displaying the second contents stored in the memory instead on the head mount display when the first content display is interrupted in the sixth step Way.
제 13항에 있어서,
상기 제 5 단계 이후,
상기 메모리에 누적하여 저장된 사용자의 집중도 정보를 이용하여, 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 제 6 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.
14. The method of claim 13,
After the fifth step,
And a sixth step of extracting at least one first time interval in which the concentration of the user is equal to or greater than a predetermined value by using the concentration information of the user cumulatively stored in the memory, Way.
제 16항에 있어서,
상기 제 6 단계 이후,
상기 제 1 컨텐츠가 표시되는 시간이 상기 제 1 시간 구간 이내가 아닌 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 제 7 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.
17. The method of claim 16,
After the sixth step,
And stopping the display of the first content on the head-mounted display if the time for displaying the first content is not within the first time period. Way.
제 17항에 있어서,
상기 제 1 단계 이전에,
상기 메모리가 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하는 제 0.5 단계;를 더 포함하고,
상기 제 7 단계에서 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되는 제 8 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.
18. The method of claim 17,
Prior to the first step,
Wherein the memory stores at least one second content previously designated by the user,
And displaying the second contents stored in the memory instead on the head mount display when the first contents display is interrupted in the seventh step. Way.
제 13항에 있어서,
상기 제 5 단계 이후,
무선통신부를 이용하여 상기 사용자의 집중도를 외부로 통신하는 제 6 단계;를 더 포함하고,
상기 생체신호연동 가상현실 교육 시스템은 복수이며,
상기 복수의 생체신호연동 가상현실 교육 시스템이 각각의 무선통신부를 통해 네트워크를 형성하고, 상기 복수의 사용자의 집중도를 공유하는 제 7 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.
14. The method of claim 13,
After the fifth step,
And a sixth step of communicating the concentration of the user to the outside using a wireless communication unit,
The bio-signal interlocking virtual reality education system is a plurality of,
Further comprising a seventh step of the plurality of bio-signal interworking virtual reality education systems forming a network through respective wireless communication units and sharing the concentration of the plurality of users. .
제 19항에 있어서,
상기 제 7 단계 이후에는,
상기 복수의 사용자의 집중도의 순위를 평가하는 제 8 단계; 및
상기 각각의 무선통신부가 상기 평가한 집중도의 순위를 실시간으로 공유하는 제 9 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.
20. The method of claim 19,
After the seventh step,
An eighth step of evaluating a ranking of the concentration of the plurality of users; And
And each of the wireless communication units shares the ranking of the degree of concentration evaluated in real time by the wireless communication unit.
제 19항에 있어서,
상기 제 7 단계 이후에는,
상기 복수의 메모리 각각에 누적하여 저장된 복수의 사용자의 집중도 정보를 이용하여, 복수의 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 제 8 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.
20. The method of claim 19,
After the seventh step,
And extracting at least one first time period in which the concentration of the plurality of users is equal to or greater than a predetermined value by using the concentration information of the plurality of users cumulatively stored in each of the plurality of memories, Vital Signal Interlocking Virtual Reality Education Method.
KR1020170084221A 2017-07-03 2017-07-03 Virtual Reality Education System and Method based on Bio Sensors KR101988110B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170084221A KR101988110B1 (en) 2017-07-03 2017-07-03 Virtual Reality Education System and Method based on Bio Sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170084221A KR101988110B1 (en) 2017-07-03 2017-07-03 Virtual Reality Education System and Method based on Bio Sensors

Publications (2)

Publication Number Publication Date
KR20190004088A true KR20190004088A (en) 2019-01-11
KR101988110B1 KR101988110B1 (en) 2019-09-30

Family

ID=65028242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170084221A KR101988110B1 (en) 2017-07-03 2017-07-03 Virtual Reality Education System and Method based on Bio Sensors

Country Status (1)

Country Link
KR (1) KR101988110B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102051543B1 (en) 2019-10-07 2019-12-05 주식회사 포더비전 System and method for vr training
KR102051558B1 (en) 2019-10-07 2019-12-05 주식회사 포더비전 System and method for vr training
KR102051568B1 (en) 2019-10-07 2019-12-05 주식회사 포더비전 System and method for vr training
KR20200113050A (en) * 2019-03-20 2020-10-06 주식회사 토즈 The concentration Enhancement System Using Virtual Reality and the method thereof
KR102165590B1 (en) * 2019-11-15 2020-10-14 가천대학교 산학협력단 Social Virtual Reality System for the Treatment of Mild Cognitive Impairment and Social Virtual Reality Providing Method
KR102165592B1 (en) * 2019-11-15 2020-10-14 가천대학교 산학협력단 Virtual Reality Contents System for the Treatment of Attention Deficit Hyperactivity Disorder and Virtual Reality Contents Providing Method
KR102192131B1 (en) * 2020-07-20 2020-12-16 (주)엠라인스튜디오 Virtual experience safety training system
KR20210063857A (en) * 2019-11-25 2021-06-02 광운대학교 산학협력단 Method and appratus for vr training
WO2021261845A1 (en) * 2020-06-23 2021-12-30 고려대학교 산학협력단 Device for testing earth gravity sensing function on basis of virtual/augmented reality interface and biosignal measurement device
KR102364964B1 (en) * 2021-06-17 2022-02-18 (주)생존수영교육연구소 Training System and Method for Use of Sports Center using Virtual Reality
US11417228B2 (en) 2019-09-18 2022-08-16 International Business Machines Corporation Modification of extended reality environments based on learning characteristics
KR102511588B1 (en) * 2022-02-22 2023-03-20 크로노그래프 주식회사 Apparatus for calculating untact learning concentraition
WO2024053845A1 (en) * 2022-09-08 2024-03-14 삼성전자주식회사 Electronic device and method for providing content sharing based on object

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102206014B1 (en) * 2020-07-20 2021-01-21 (주)엠라인스튜디오 Virtual experience safety training system
KR102595614B1 (en) * 2021-10-21 2023-11-01 한국생산기술연구원 Apparatus for changing user concentration using collective emotional signal and the method thereof
KR20230084643A (en) 2021-12-06 2023-06-13 주식회사 투엠비게임 System and method for providing group-type content for virtual reality

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002751B1 (en) * 2010-09-10 2010-12-21 주식회사 다이나믹플러스 Device for education diagnosis using brain waves, education management system using the device and operating method thereof
KR20120113573A (en) * 2011-04-05 2012-10-15 주식회사 유비온 Method of providing customized learning contents based on brainwave information
KR20130137692A (en) 2011-03-29 2013-12-17 퀄컴 인코포레이티드 Anchoring virtual images to real world surfaces in augmented reality systems
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method
KR20140001167A (en) 2012-06-26 2014-01-06 한국과학기술원 Method and apparatus for providing augmented reality service in wearable computing environment
KR101619468B1 (en) 2015-01-29 2016-05-18 곽준영 Display device for displaying 3D virtual reality media and control method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101002751B1 (en) * 2010-09-10 2010-12-21 주식회사 다이나믹플러스 Device for education diagnosis using brain waves, education management system using the device and operating method thereof
KR20130137692A (en) 2011-03-29 2013-12-17 퀄컴 인코포레이티드 Anchoring virtual images to real world surfaces in augmented reality systems
KR20120113573A (en) * 2011-04-05 2012-10-15 주식회사 유비온 Method of providing customized learning contents based on brainwave information
JP2013258555A (en) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc Head-mounted display, biological information management apparatus, and biological information display method
KR20140001167A (en) 2012-06-26 2014-01-06 한국과학기술원 Method and apparatus for providing augmented reality service in wearable computing environment
KR101619468B1 (en) 2015-01-29 2016-05-18 곽준영 Display device for displaying 3D virtual reality media and control method thereof

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200113050A (en) * 2019-03-20 2020-10-06 주식회사 토즈 The concentration Enhancement System Using Virtual Reality and the method thereof
US11475781B2 (en) 2019-09-18 2022-10-18 International Business Machines Corporation Modification of extended reality environments based on learning characteristics
US11417228B2 (en) 2019-09-18 2022-08-16 International Business Machines Corporation Modification of extended reality environments based on learning characteristics
KR102051543B1 (en) 2019-10-07 2019-12-05 주식회사 포더비전 System and method for vr training
KR102051558B1 (en) 2019-10-07 2019-12-05 주식회사 포더비전 System and method for vr training
KR102051568B1 (en) 2019-10-07 2019-12-05 주식회사 포더비전 System and method for vr training
KR102165590B1 (en) * 2019-11-15 2020-10-14 가천대학교 산학협력단 Social Virtual Reality System for the Treatment of Mild Cognitive Impairment and Social Virtual Reality Providing Method
KR102165592B1 (en) * 2019-11-15 2020-10-14 가천대학교 산학협력단 Virtual Reality Contents System for the Treatment of Attention Deficit Hyperactivity Disorder and Virtual Reality Contents Providing Method
KR20210063857A (en) * 2019-11-25 2021-06-02 광운대학교 산학협력단 Method and appratus for vr training
KR20210158320A (en) * 2020-06-23 2021-12-30 고려대학교 산학협력단 Apparatus for testing gravity perception under structured visual stimulation based on a virtual/augmented reality interface and IMU sensors
WO2021261845A1 (en) * 2020-06-23 2021-12-30 고려대학교 산학협력단 Device for testing earth gravity sensing function on basis of virtual/augmented reality interface and biosignal measurement device
KR102192131B1 (en) * 2020-07-20 2020-12-16 (주)엠라인스튜디오 Virtual experience safety training system
KR102364964B1 (en) * 2021-06-17 2022-02-18 (주)생존수영교육연구소 Training System and Method for Use of Sports Center using Virtual Reality
KR102511588B1 (en) * 2022-02-22 2023-03-20 크로노그래프 주식회사 Apparatus for calculating untact learning concentraition
WO2024053845A1 (en) * 2022-09-08 2024-03-14 삼성전자주식회사 Electronic device and method for providing content sharing based on object

Also Published As

Publication number Publication date
KR101988110B1 (en) 2019-09-30

Similar Documents

Publication Publication Date Title
KR101988110B1 (en) Virtual Reality Education System and Method based on Bio Sensors
KR20180045278A (en) Virtual Reality Recognition Rehabilitation System based on Bio Sensors
US10915180B2 (en) Systems and methods for monitoring a user's eye
CN106471419B (en) Management information is shown
US9122321B2 (en) Collaboration environment using see through displays
Adhanom et al. Eye tracking in virtual reality: a broad review of applications and challenges
KR102571818B1 (en) Head mounted type electronic device
EP3981320A1 (en) Enhanced optical and perceptual digital eyewear
KR20160128119A (en) Mobile terminal and controlling metohd thereof
KR20170042877A (en) Head Mounted Electronic Device
KR101203921B1 (en) Information providing apparatus using an eye tracking and local based service
KR20150110299A (en) Wearable device and operating method thereof
WO2014144918A2 (en) Enhanced optical and perceptual digital eyewear
US9805612B2 (en) Interest-attention feedback method for separating cognitive awareness into different left and right sensor displays
CN112506336A (en) Head mounted display with haptic output
CN117043714A (en) Split construction for wristband system and related apparatus and method
KR20180042055A (en) Head mounted display device
JP2017151576A (en) Training device, training method, and program
WO2022091832A1 (en) Information processing device, information processing system, information processing method, and information processing terminal
EP4161387B1 (en) Sound-based attentive state assessment
US20240104861A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20240104859A1 (en) User interfaces for managing live communication sessions
EP4131276A1 (en) Patient care methods and systems through artificial intelligence-based monitoring
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
US20240103677A1 (en) User interfaces for managing sharing of content in three-dimensional environments

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant