KR20190004088A - Virtual Reality Education System and Method based on Bio Sensors - Google Patents
Virtual Reality Education System and Method based on Bio Sensors Download PDFInfo
- Publication number
- KR20190004088A KR20190004088A KR1020170084221A KR20170084221A KR20190004088A KR 20190004088 A KR20190004088 A KR 20190004088A KR 1020170084221 A KR1020170084221 A KR 1020170084221A KR 20170084221 A KR20170084221 A KR 20170084221A KR 20190004088 A KR20190004088 A KR 20190004088A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- concentration
- content
- display
- virtual reality
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
Abstract
Description
본 발명은 생체신호연동 가상현실 교육 시스템 및 방법에 관한 것이다. 보다 상세하게는 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0002] The present invention relates to a bio-signal interworking virtual reality education system and method. And more particularly, to a system and an apparatus capable of increasing educational efficiency by displaying virtual reality education contents in a smart glass device and analyzing cumulative concentration and real time concentration degree of a user by interlocking a bio-signal sensor.
가상 현실(Virtual reality)이란 컴퓨터를 통해 어떤 특정한 환경이나 상황을 입체감 있는 3D 컨텐츠로 제작하여, 그 3D 컨텐츠를 사용하는 사람이 마치 실제 주변 상황, 환경과 상호작용하고 있는 것처럼 만들어 주는 인간-컴퓨터 사이의 인터페이스 등을 총칭한다.Virtual reality is a process of creating a 3D environment in which a specific environment or situation is created through a computer and creating a human-computer interaction that makes the person using the 3D content appear as if they are interacting with the actual surroundings and environment. And the like.
일반적으로 사람이 지각하는 입체감은 관찰하는 물체의 위치에 따른 수정체의 두께 변화 정도, 양쪽 눈과 대상물과의 각도 차이, 그리고 좌우 눈에 보이는 대상물의 위치 및 형태의 차이, 대상물의 운동에 따라 생기는 시차, 그 밖에 각종 심리 및 기억에 의한 효과 등이 복합적으로 작용하여 생긴다.Generally, the three-dimensional sensation perceived by a person depends on the degree of thickness change of the lens according to the position of the observed object, the angle difference between the eyes and the object, the position and shape difference of the object on the left and right eyes, , And various other psychological and memory effects.
그 중 사람이 입체감을 느끼는 가장 중요한 요인은, 사람의 두 눈이 가로 방향으로 약 6.5㎝가량 떨어져 있음으로써, 나타나게 되는 양안 시차(binocular disparity)이다. 즉, 양안 시차에 의해 대상물에 대한 각도 차이를 가지고 바라보게 되고, 이 차이로 인해 각각의 눈에 들어오는 이미지가 서로 다른 상을 갖게 되며 이 두 영상이 망막을 통해 뇌로 전달되면 뇌는 이 두 개의 정보를 정확히 서로 융합하여 본래의 3D 입체 영상을 느낄 수 있는 것이다.Among them, binocular disparity is the most important factor for a person to feel the stereoscopic effect, as the eyes of a person are about 6.5 cm apart in the horizontal direction. In other words, the binocular parallax causes the angle of the object to be viewed with the difference. Due to this difference, the images coming into each eye have different phases. When these two images are transmitted to the brain through the retina, The 3D stereoscopic image of the original can be felt.
이러한 입체감 있는 3D 컨텐츠들은 이미 여러 미디어 분야에 두루 이용되어 소비자들로부터 호평을 받아오고 있다. 예를 들어 3D 영화, 3D 게임 및 체험 디스플레이와 같은 것들이 대표적이다.These stereoscopic 3D contents have already been widely used in various media fields and have been well received by consumers. For example, 3D movies, 3D games, and experience displays are examples.
이와 같이 가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.As described above, in addition to the universalization of virtual reality technology 3D contents, there is a need to develop a technology capable of providing a more immersive virtual reality service.
일반적으로 이미지 디스플레이 장치는 눈과 매우 근접한 위치에서 발생하는 영상광을 정밀한 광학 장치를 이용하여 먼 거리에 가상의 대형화면이 구성될 수 있도록 초점을 형성함으로써 사용자로 하여금 확대된 허상을 볼 수 있도록 하는 화상 표시 장치를 말한다.2. Description of the Related Art Generally, an image display device forms a focal point so that a virtual large-sized screen can be formed at a long distance by using a precision optical device, which is generated in a position very close to an eye, so that a user can view an enlarged virtual image An image display device.
또한, 이미지 디스플레이 장치는, 주위 환경은 볼 수 없고 디스플레이 소자에서 발산된 영상광만을 볼 수 있는 밀폐형(See-close)과, 윈도우를 통해 주위 환경을 볼 수 있으면서도 디스플레이 소자에서 발산된 영상광을 동시에 볼 수 있는 투과식(See-through)으로 나뉠 수 있다.In addition, the image display device is configured to include a see-close type in which only the image light emitted from the display device can not be seen in the surrounding environment, and a see-close mode in which the image light emitted from the display device (See-through) that can be seen.
헤드 마운트 디스플레이(HMD)란 안경처럼 머리에 착용하여 멀티미디어 컨텐츠를 제공받을 수 있도록 하는 각종디지털 디바이스를 말한다. 디지털 디바이스의 경량화 및 소량화 추세에 따라, 다양한 웨어러블 컴퓨터(Wearable Computer)가 개발되고 있으며, HMD 또한 널리 사용되고 있다. HMD는 단순한 디스플레이 기능을 넘어 증강 현실 기술, N 스크린 기술 등과 조합되어 유저에게 다양한 편의를 제공할 수 있다.Head-mounted display (HMD) refers to various digital devices that can be worn on the head like glasses to receive multimedia contents. Various wearable computers (Wearable Computers) have been developed in accordance with the trend of weight reduction and miniaturization of digital devices, and HMDs are also widely used. The HMD can be combined with augmented reality technology, N screen technology, etc., beyond the simple display function, to provide various convenience to the user.
예를 들어, HMD에 마이크와 스피커가 장착되는 경우, 유저는 HMD를 착용한 상태에서, 전화 통화를 수행할 수 있다. 또한, 예를 들어, HMD에 카메라가 장착되는 경우, 유저는 HMD를 착용한 상태에서, 유저가 원하는 방향의 이미지를 캡쳐할 수 있다.For example, when a microphone and a speaker are mounted on the HMD, the user can perform a telephone conversation while wearing the HMD. Further, for example, when a camera is mounted on the HMD, the user can capture an image of a desired direction in a state in which the HMD is worn.
현재, 전술한 가상 현실 기술을 체감형 교육 프로그램을 위해 활용하고자 하는 니즈가 높아지고 있다At present, there is an increasing need to utilize the above-described virtual reality technology for a sensory-type educational program
현재, 헤드 마운트 디스플레이(HMD) 등을 이용한 다양한 교육 방법이 제안되고 있으나 컨텐츠를 이용하는 사용자의 집중도를 실시간 또는 누적하여 평가하고, 평가된 집중도를 사용자에게 피드백함으로써 효율적인 교육을 꾀하는 시스템 및 방법은 전혀 제안되고 있지 못하므로, 이에 대한 해결방안이 요구되고 있는 실정이다.Currently, various educational methods using a head-mounted display (HMD) or the like have been proposed. However, there is no system or method for efficiently educating users by evaluating the concentration of users using contents in real time or cumulatively, Therefore, there is a need for a solution to this problem.
따라서 뇌파, 근전도, 심전도 센서와 같은 생체 센서 기술과 스마트글라스 기술, 가상현실 컨텐츠 기술이 융합된 기술로 개인이 착용하여 사용할 수 있는 간단한 시스템으로 장소에 구애 없이 교육 프로그램을 진행할 수 있는 시스템을 제안할 필요성이 있다.Therefore, we propose a system which can carry out educational program without any admission to the place with a simple system that can be worn by individuals with technology that combines bio sensor technology such as EEG, electromyography, ECG sensor, smart glass technology and virtual reality contents technology There is a need.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 생체신호연동 가상현실 교육 시스템 및 방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a system and a method for training a virtual reality system linked with a bio-signal.
구체적으로 본 발명은 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치를 사용자에게 제공하고자 한다.Specifically, the present invention provides a system and an apparatus for increasing the educational efficiency by displaying the virtual reality education contents on a smart glass device and analyzing cumulative concentration and real time concentration of the user by interlocking the living body signal sensor.
본 발명이 제안하는 교육 장치는 안경이나 헬멧처럼 착용하는 스마트 글라스에 가상현실 컨텐츠를 디스플레이 할 수 있는 구조로, 장소의 구애 없이 사용이 가능하며, 스마트 글라스에 내장된 뇌파센서나 사용자의 인체에 부착이 가능한 근전도 센서를 이용하여 사용자의 집중도, 인지기능, 운동기능에 대한 실시간, 정량적 분석이 가능하며 이를 사용자에게 피드백하여 줌으로써 효율적인 교육 및 훈련이 가능한 것을 목적으로 하며 또한 집중도, 인지기능 정도에 따른 레벨별 훈련이 가능한 것을 목적으로 한다.The educational device proposed by the present invention is a structure capable of displaying virtual reality contents in a smart glass worn like a pair of glasses or a helmet, and can be used without any admission of a place, and can be attached to an electroencephalogram sensor or a user's body It is possible to perform real-time and quantitative analysis of the user's concentration, cognitive function, and exercise function using the possible EMG sensor and to provide effective education and training by feedback to the user. Also, The aim is to be able to train separately.
본 발명의 제안하는 교육 장치는 스마트글라스에 내장된 모션센서, 카메라, 외부연동 가능한 키넥트 센서 등을 이용해 사용자 모션 및 위치기반 컨텐츠 제공이 가능하므로 체감형 교육훈련 시스템, 인지재활뿐만 아니라 운동재활 시스템으로도 활용이 가능한 것을 목적으로 하며, 인체부착 가능한 심전도 센서를 이용해 스트레스 지수 등 신체분석 데이터를 제공할 수 있는 것을 목적으로 한다.The training apparatus proposed by the present invention can provide user-motion and position-based contents by using a motion sensor, a camera, and an external interlocking Kinect sensor built in a smart glass, so that a bodily-sensible education and training system, And it is intended to provide body analysis data such as a stress index using an electrocardiograph sensor that can be attached to a human body.
한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.
상술한 과제를 실현하기 위한 본 발명의 일예와 관련된 생체신호연동 가상현실 교육 시스템은, 적어도 하나의 디스플레이에서 발산되는 영상광을 사용자의 안구에 전달하는 광학 모듈로 이루어지고, 사용자의 교육과 관련된 제 1 컨텐츠를 표시하는 헤드마운트 디스플레이; 상기 사용자의 적어도 하나의 뇌파를 센싱하는 뇌파 센서; 상기 센싱한 적어도 하나의 뇌파를 이용하여 상기 제 1 컨텐츠에 대한 상기 사용자의 집중도를 평가하는 제어부; 및 상기 사용자의 집중도를 누적하여 저장하는 메모리;를 포함하되, 상기 제어부는, 상기 사용자의 집중도가 상기 헤드마운트 디스플레이를 통해 실시간으로 표시되도록 제어할 수 있다.The bio-signal interworking virtual reality education system according to an embodiment of the present invention for realizing the above-mentioned problems comprises an optical module for delivering video light emitted from at least one display to a user's eyeball, 1 head mounted display for displaying contents; A brain wave sensor for sensing at least one brain wave of the user; A controller for evaluating the user's concentration on the first content using at least one sensed EEG; And a memory for cumulatively storing the concentration of the user, wherein the controller can control the concentration of the user to be displayed in real time through the head mount display.
또한, 상기 제어부는, 상기 실시간으로 평가한 사용자의 집중도가 미리 설정된 수치 이하인 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단할 수 있다.The control unit may stop displaying the first content on the head mount display when the concentration of the user evaluated in real time is less than a predetermined value.
또한, 상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하고, 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 제어부는 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되도록 제어할 수 있다.In addition, the memory may store at least one second content previously designated by the user, and when the display of the first content is interrupted, the control unit causes the second content stored in the memory to be displayed on the head- Can be controlled.
또한, 상기 제어부는, 상기 메모리에 누적하여 저장된 사용자의 집중도 정보를 이용하여, 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출할 수 있다.Also, the controller may extract at least one first time period in which the concentration of the user is equal to or greater than a predetermined value, using the concentration information of the user accumulated in the memory.
또한, 상기 제어부는, 상기 제 1 컨텐츠가 표시되는 시간이 상기 제 1 시간 구간 이내가 아닌 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단할 수 있다.In addition, the controller may stop displaying the first content on the head-mounted display when the time of displaying the first content is not within the first time period.
또한, 상기 제어부는, 상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하고, 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 제어부는 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되도록 제어할 수 있다.In addition, the controller may be configured such that the memory stores at least one second content previously designated by the user, and when the first content display is stopped, the control unit causes the second content stored in the memory to be displayed on the head- As shown in FIG.
또한, 상기 사용자의 집중도를 외부로 통신하는 무선통신부;를 더 포함하고, 상기 생체신호연동 가상현실 교육 시스템은 복수이며, 상기 복수의 생체신호연동 가상현실 교육 시스템은 각각의 무선통신부를 통해 네트워크를 형성하고, 상기 복수의 사용자의 집중도를 공유할 수 있다.The bio-signal interworking virtual reality education system includes a plurality of bio-signal interworking virtual reality education systems, and the plurality of bio-signal interworking virtual reality education systems are connected to a network through respective wireless communication units. And share the concentration of the plurality of users.
또한, 상기 제어부는, 상기 복수의 사용자의 집중도의 순위를 평가하고, 상기 각각의 무선통신부가 상기 평가한 집중도의 순위를 실시간으로 공유하도록 제어할 수 있다.The control unit may evaluate the ranking of the concentration of the plurality of users and control each of the wireless communication units to share the ranking of the evaluated concentration in real time.
또한, 상기 제어부는, 상기 복수의 메모리 각각에 누적하여 저장된 복수의 사용자의 집중도 정보를 이용하여, 복수의 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출할 수 있다.The control unit may extract at least one first time period in which the concentration of the plurality of users is equal to or greater than a predetermined value by using the concentration information of the plurality of users cumulatively stored in each of the plurality of memories.
또한, 상기 헤드마운트 디스플레이는 상기 사용자의 안구 전면에 배치되고, 상기 헤드마운트 디스플레이의 위치를 기준으로 수평으로 상기 사용자의 헤드를 고정하는 제 1 인터페이스부; 및 상기 헤드마운트 디스플레이의 위치를 기준으로 수직으로 상기 사용자의 헤드를 고정하는 제 2 인터페이스부;를 더 포함할 수 있다.Also, the head mount display may include a first interface unit disposed at an eyeball front of the user and fixing the user's head horizontally based on the position of the head mount display; And a second interface unit fixing the head of the user vertically with respect to the position of the head mount display.
또한, 상기 헤드마운트 디스플레이는 고글 형태 또는 헬멧 형태일 수 있다.In addition, the head mount display may be in the form of a goggle or a helmet.
또한, 상기 적어도 하나의 뇌파는, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함할 수 있다.The at least one EEG may include alpha waves, beta waves, theta waves, gamma waves, gamma waves, delta waves, SMR waves and Mid- beta waves .
한편, 상술한 과제를 실현하기 위한 본 발명의 다른 일예와 관련된 생체신호연동 가상현실 교육 방법은, 적어도 하나의 디스플레이에서 발산되는 영상광을 사용자의 안구에 전달하는 광학 모듈로 이루어진 헤드마운트 디스플레이가 사용자의 교육과 관련된 제 1 컨텐츠를 표시하는 제 1 단계; 뇌파 센서가 상기 사용자의 적어도 하나의 뇌파를 센싱하는 제 2 단계; 제어부가 상기 센싱한 적어도 하나의 뇌파를 이용하여 상기 제 1 컨텐츠에 대한 상기 사용자의 집중도를 평가하는 제 3 단계; 메모리가 상기 사용자의 집중도를 누적하여 저장하는 제 4 단계; 및 상기 사용자의 집중도가 상기 헤드마운트 디스플레이를 통해 실시간으로 표시되는 제 5 단계;를 포함할 수 있다.According to another aspect of the present invention, there is provided a bio-signal interlocking virtual reality teaching method for realizing the above-mentioned problem, wherein a head-mounted display comprising an optical module for transmitting video light emitted from at least one display to a user's eye, A first step of displaying first contents related to the education of the user; A second step in which an EEG sensor senses at least one EEG of the user; A third step of the controller evaluating the user's concentration on the first content using at least one sensed EEG; A memory accumulating the concentration of the user; And a fifth step in which the concentration of the user is displayed in real time via the head mount display.
또한, 상기 제 5 단계 이후, 상기 실시간으로 평가한 사용자의 집중도가 미리 설정된 수치 이하인 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 제 6 단계;를 더 포함할 수 있다.The method may further include a sixth step of stopping the first content display on the head mount display if the concentration of the user evaluated in real time after the fifth step is less than a predetermined value.
또한, 상기 제 1 단계 이전에는, 상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하는 제 0.5 단계;를 더 포함하고, 상기 제 6 단계에서 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되는 제 7 단계;를 더 포함할 수 있다.The method may further include a fifth step of storing the at least one second content previously designated by the user before the first step, and when the first content display is stopped in the sixth step, And displaying the second content stored in the memory on the head mount display instead of the second content.
또한, 상기 제 5 단계 이후, 상기 메모리에 누적하여 저장된 사용자의 집중도 정보를 이용하여, 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 제 6 단계;를 더 포함할 수 있다.The method may further include a sixth step of extracting at least one first time period in which the concentration of the user is equal to or greater than a predetermined value using the concentration information of the user accumulated in the memory after the fifth step .
또한, 상기 제 6 단계 이후, 상기 제 1 컨텐츠가 표시되는 시간이 상기 제 1 시간 구간 이내가 아닌 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 제 7 단계;를 더 포함할 수 있다.The method may further include a seventh step of stopping the display of the first content on the head mounted display when the time of displaying the first content is not within the first time period after the sixth step .
또한, 상기 제 1 단계 이전에, 상기 메모리가 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하는 제 0.5 단계;를 더 포함하고, 상기 제 7 단계에서 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되는 제 8 단계;를 더 포함할 수 있다.The method according to claim 1, further comprising, before the first step, the memory storing at least one second content previously designated by the user, wherein, in the seventh step, And displaying the second content stored in the memory on the head mount display instead of the second content.
또한, 상기 제 5 단계 이후, 무선통신부를 이용하여 상기 사용자의 집중도를 외부로 통신하는 제 6 단계;를 더 포함하고, 상기 생체신호연동 가상현실 교육 시스템은 복수이며, 상기 복수의 생체신호연동 가상현실 교육 시스템이 각각의 무선통신부를 통해 네트워크를 형성하고, 상기 복수의 사용자의 집중도를 공유하는 제 7 단계;를 더 포함할 수 있다.And a sixth step of communicating the concentration of the user to the outside by using the wireless communication unit after the fifth step, wherein the biological signal interlocking virtual reality education system includes a plurality of biological signal interlocking virtual And a seventh step of the reality education system forming a network through each wireless communication unit and sharing the concentration of the plurality of users.
또한, 상기 제 7 단계 이후에는, 상기 복수의 사용자의 집중도의 순위를 평가하는 제 8 단계; 및 상기 각각의 무선통신부가 상기 평가한 집중도의 순위를 실시간으로 공유하는 제 9 단계;를 더 포함할 수 있다.After the seventh step, an eighth step of evaluating the ranking of the concentration of the plurality of users is performed. And a ninth step in which each of the wireless communication units shares the ranking of the degree of concentration evaluated in real time.
또한, 상기 제 7 단계 이후에는, 상기 복수의 메모리 각각에 누적하여 저장된 복수의 사용자의 집중도 정보를 이용하여, 복수의 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 제 8 단계;를 더 포함할 수 있다.In the seventh and eighth steps, at least one first time period in which concentration of a plurality of users is equal to or greater than a predetermined value is extracted using cumulative information of a plurality of users cumulatively stored in each of the plurality of memories, Step;
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 생체신호연동 가상현실 교육 시스템 및 방법을 제공할 수 있다.Disclosure of Invention Technical Problem [8] The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a system and a method for real-time interactive virtual reality (VRT) education.
구체적으로 본 발명은 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치를 사용자에게 제공할 수 있다.Specifically, the present invention can provide a system and an apparatus capable of increasing educational efficiency by displaying virtual reality education contents on a smart glass device and analyzing cumulative concentration and real time concentration of a user by interlocking with a bio-signal sensor .
본 발명이 제안하는 교육 장치는 안경이나 헬멧처럼 착용하는 스마트 글라스에 가상현실 컨텐츠를 디스플레이 할 수 있는 구조로, 장소의 구애 없이 사용이 가능하며, 스마트 글라스에 내장된 뇌파센서나 사용자의 인체에 부착이 가능한 근전도 센서를 이용하여 사용자의 집중도, 인지기능, 운동기능에 대한 실시간, 정량적 분석이 가능하며 집중도, 인지기능 정도에 따른 레벨별 훈련이 가능할 수 있다.The educational device proposed by the present invention is a structure capable of displaying virtual reality contents in a smart glass worn like a pair of glasses or a helmet, and can be used without any admission of a place, and can be attached to an electroencephalogram sensor or a user's body By using the available EMG sensor, it is possible to analyze the user's concentration, cognitive function and movement function in real time and quantitatively, and it is possible to perform training by level according to the degree of concentration and cognitive function.
또한, 본 발명의 제안하는 교육 장치는 스마트글라스에 내장된 모션센서, 카메라, 외부연동 가능한 키넥트 센서, 전자펜 등을 이용해 사용자 모션 및 위치기반 컨텐츠 제공이 가능하므로 체감형 교육훈련, 인지재활뿐만 아니라 운동재활 시스템으로도 활용이 가능한 것을 목적으로 하며, 인체부착 가능한 심전도 센서를 이용해 운동지표, 스트레스 지수 등 신체분석 데이터를 제공할 수 있다.Further, the educational apparatus proposed by the present invention can provide user-motion and position-based contents using a motion sensor, a camera, an external interlocking Kinect sensor, and an electronic pen incorporated in a smart glass, It can also be used as an exercise rehabilitation system. The body electrocardiogram sensor can be used to provide physical analysis data such as exercise index and stress index.
한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art to which the present invention belongs It will be possible.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명이 제안하는 생체신호연동 가상현실 교육 시스템의 블록구성도 일례를 도시한 것이다.
도 2는 본 발명에 적용되는 스마트 글라스의 블록도 일례를 도시한 것이다.
도 3a는 생체신호연동 가상현실 교육 장치의 구체적인 일례를 도시한 것이고, 도 3b는 생체신호연동 가상현실 교육 장치에 이용되는 근전도 센서의 일례를 도시한 것이다.
도 4a는 도 3a 및 도 3b에서 설명한 가상현실 교육 장치를 사용자가 이용하는 구체적인 모습을 도시한 것이고, 도 4b는 주의력 결핍 과잉 행동 장애(ADHD) 예방 및 치료에 이용하는 구체적인 모습을 도시한 것이다.
도 5는 도 3a에서 설명한 가상현실 교육장치를 사용자가 개인형 동영상 학습기로 이용하는 구체적인 모습을 도시한 것이다.
도 6은 본 발명과 관련된 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 방법을 설명하는 순서도이다.
도 7은 도 6와 관련하여, 사용자의 집중도가 떨어지는 시점 또는 시기에 미리 설정된 컨텐츠를 플레이하여 사용자가 휴식하고, 집중도를 회복할 수 있는 방법을 설명하는 순서도이다.
도 8은 도 6와 관련하여, 복수의 사용자가 사용하는 디스플레이 간에 네트워크를 형성하고, 실시간 집중도 순위 및 복수 사용자의 집중 시간대에 대한 정보를 사용자들에게 제공하기 위한 방법을 설명하는 순서도이다.BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the description, serve to further the understanding of the technical idea of the invention, It should not be construed as limited.
1 shows an example of a block diagram of a bio-signal interlocking virtual reality (EDL) system proposed by the present invention.
Fig. 2 shows an example of a block diagram of a smart glass applied to the present invention.
FIG. 3A shows a specific example of a bio-signal interlocking virtual reality teaching device, and FIG. 3B shows an example of an electromyography sensor used in a bio-signal interlocking virtual reality teaching device.
FIG. 4A is a detailed view of a user using the virtual reality education apparatus illustrated in FIG. 3A and FIG. 3B, and FIG. 4B is a specific view used for prevention and treatment of ADHD.
FIG. 5 is a detailed view of a user using the virtual reality educational apparatus illustrated in FIG. 3A as a personalized video learning apparatus.
FIG. 6 is a flowchart illustrating a method for enhancing a training efficiency by analyzing cumulative concentration and real-time concentration of a user by interfacing a bio-signal sensor according to the present invention.
FIG. 7 is a flowchart illustrating a method by which a user can rest and recover a concentration of content by playing predetermined content at a point in time or at a time when the user's concentration becomes low, with reference to FIG.
FIG. 8 is a flowchart illustrating a method for forming a network between displays used by a plurality of users, and for providing information on real-time concentration ranking and concentration time zones of a plurality of users to users, with reference to FIG.
가상 현실 기술 3D 컨텐츠들의 보편화와 더불어, 더욱 몰입도 높은 가상 현실 서비스를 제공할 수 있는 기술의 개발이 다각적으로 요구되고 있다.VIRTUAL REAL-TIME TECHNOLOGY In addition to the generalization of 3D contents, it is required to develop a technology capable of providing a more immersive virtual reality service.
따라서 본 명세서에서는 생체신호연동 가상현실 교육 장치를 제안한다.Therefore, the present invention proposes a bio-signal interlocking virtual reality education device.
구체적으로 본 발명은 뇌파센서, 근전도 센서, 심전도 센서 등과 같은 생체 센서 기술과 스마트글라스 기술, 가상현실 컨텐츠 기술이 융합된 기술로 개인이 착용하여 사용할 수 있는 간단한 시스템으로 장소에 구애 없이 집중도를 유지하면서 교육을 받을 수 있는 시스템에 관한 것이다.Specifically, the present invention is a technology which is a fusion technology of a biosensor technology such as an electroencephalogram sensor, an electromyogram sensor, an electrocardiograph sensor, a smart glass technology and a virtual reality contents technology, and is a simple system that can be worn by an individual. And a system for receiving education.
본 발명의 구체적인 설명에 앞서 도면을 참조하여 본 발명의 기본 구성에 대해 설명한다.Prior to a specific description of the present invention, the basic structure of the present invention will be described with reference to the drawings.
도 1은 본 발명이 제안하는 생체신호연동 가상현실 교육 시스템의 블록구성도 일례를 도시한 것이다.1 shows an example of a block diagram of a bio-signal interlocking virtual reality (EDL) system proposed by the present invention.
도 1을 참조하면, 생체신호연동 가상현실 교육 시스템(100)은 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. Referring to FIG. 1, a bio-signal interworking virtual
단, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 생체신호연동 가상현실 교육 시스템이 구현될 수도 있다.However, the components shown in FIG. 1 are not essential, so that a bio-signal interlocking virtual reality training system having more or fewer components than those shown in FIG. 1 may be implemented.
이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
무선 통신부(110)는 생체신호연동 가상현실 교육 시스템과 무선 통신 시스템 사이 또는 기기와 기기가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. The
예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.For example, the
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 생체신호연동 가상현실 교육 시스템에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may be a server for generating and transmitting broadcast signals and / or broadcast-related information, or a server for receiving broadcast signals and / or broadcast-related information generated in advance and transmitting the broadcast signals and / or broadcast- related information to a bio- have. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).
상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 기기, 서버 중 적어도 하나와 무선 신호를 송수신한다. The
문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. And various types of data according to transmission / reception of text / multimedia messages.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 생체신호연동 가상현실 교육 시스템에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, 와이파이(Wireless Fidelity, Wi-Fi), 와이다이(Wi-Di; Wireless Display) 등이 이용될 수 있다.The short-
위치정보 모듈(115)은 생체신호연동 가상현실 교육 시스템의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video)
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the
마이크(122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
사용자 입력부(130)는 사용자가 생체신호연동 가상현실 교육 시스템의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 센싱부(140)의 센서로부터 발생된 센서 신호가 신호처리 과정을 거쳐 입력될 수 있다. 또한, 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 전자펜, 조그 휠, 조그 스위치 등으로 구성될 수 있다. The
센싱부(140)는 생체신호연동 가상현실 교육 시스템의 개폐 상태, 생체신호연동 가상현실 교육 시스템의 위치, 사용자 접촉 유무, 생체신호연동 가상현실 교육 시스템의 방위, 생체신호연동 가상현실 교육 시스템의 가속/감속 등과 같이 생체신호연동 가상현실 교육 시스템의 현 상태를 감지하여 생체신호연동 가상현실 교육 시스템의 동작을 제어하기 위한 센싱 신호를 발생시킨다. The
센싱부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. The
한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다. Meanwhile, the
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153), 햅틱 모듈(154) 및 프로젝터 모듈(155) 등이 포함될 수 있다.The
디스플레이부(151)는 생체신호연동 가상현실 교육 시스템에서 처리되는 정보를 표시(출력)한다. The
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED) 마이크로디스플레이, LCoS(liquid Crystal on Silicon) 마이크로디스플레이, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조는 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 생체신호연동 가상현실 교육 시스템 바디의 디스플레이부(151)가 차지하는 영역을 통해 생체신호연동 가상현실 교육 시스템 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the
생체신호연동 가상현실 교육 시스템의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 생체신호연동 가상현실 교육 시스템에는 복수의 디스플레이부들이 하나의 면에 이격 되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. There may be two or
디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the
상기 근접 센서(141)는 상기 터치스크린에 의해 감싸지는 생체신호연동 가상현실 교육 시스템의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The
상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.
이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as " proximity touch & The act of actually touching the pointer on the screen is called " contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.
상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (e.g., a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.
또한, 본 발명에 따른 시스템(100)은 뇌파센서(142)를 포함할 수 있다.In addition, the
뇌파(EEG, Electro-Encephalography)란 뇌에서 발생한 신호를 전극으로 측정한 것을 말하며, 뇌의 수많은 신경에서 발생한 전기적인 신호가 합성되어 나타나는 미세한 뇌 표면의 신호를 측정함으로써 얻어진다.Electro-encephalography (EEG) is a measurement of the signal generated by the brain on an electrode. It is obtained by measuring the minute brain surface signals that are synthesized by electrical signals generated from numerous neurons in the brain.
뇌파 신호는 뇌의 활동, 측정 시의 상태 및 뇌 기능에 따라 시공간적으로 변화하며, 이에 따라 뇌파 신호는 주파수에 따른 대역별 특성, 시간 영역에서의 특성, 뇌 기능과 관련된 공간적 특성을 가진다. EEG signals change in time and space according to brain activity, measurement state, and brain function. Thus, EEG signals have frequency characteristics according to frequency, time characteristics, and spatial characteristics related to brain function.
뇌파는 주파수와 전압의 범위에 따라 델타, 세타, 알파, 베타, 감마파 등으로 나뉘며, 뇌파의 주파수 대역과 신체 상태에 따른 파장을 살펴보면 다음의 표 1과 같다.EEG waves are divided into delta, theta, alpha, beta, and gamma waves depending on the frequency and voltage range. Table 1 below shows the wavelengths according to the frequency band and physical condition of the brain waves.
상기 표 1은 뇌파의 주파수 대역과 신체 상태에 따른 파장을 나타낸다.Table 1 shows the wavelengths according to the frequency band and physical condition of EEG.
본 발명에 따른 뇌파센서(141)는 상기 복수의 뇌파 중 적어도 하나를 감지하는 기능을 제공한다.The
또한, 본 발명에 따른 시스템(100)은 모션센서(143)를 포함할 수 있다.In addition, the
본 발명에 따른 모션센서(143)는 사물이나 사람의 움직임을 자이로스코프 센서를 이용해 디지털로 옮기는 기술을 말한다. The
모션센서(143)는 모션캡처의 방식에 따라 기계식, 자기식, 광학식 등으로 분류될 수 있다.The
또한, 본 발명에 따른 시스템(100)은 근전도 센서(144)를 포함할 수 있다.In addition, the
근전도는 골격근의 전기적 활동을 표면 전극 또는 침전극으로 검출하여 기록한 것이다.The electromyogram is the electrical activity of skeletal muscle detected by surface electrode or needle electrode.
근전도는 일반적으로 말초 신경계의 질병을 파악하는 데에 탁월한 효과를 나타낸다. EMG generally has an excellent effect in understanding the diseases of the peripheral nervous system.
중증 근무력증, 진행성 근디스트로피, 다발성 근염 등에서는 각각 특징 있는 근전도의 패턴이 나타난다. Myasthenia gravis, progressive muscular stroma, multiple myositis, etc. have characteristic EMG patterns.
본 발명에 따른 근전도센서(144)는 이러한 근전도의 변화를 센싱하여 좌/우, 전/후 방향조종, 선택 등과 같은 컨텐츠 연동 제어 기능을 위한 신호를 제공할 수 있다.The
또한, 본 발명에 따른 시스템(100)은 심전도 센서(145)를 포함할 수 있다.In addition, the
심전도는 심장의 전기적 활동을 표면 전극으로 검출하여 기록한 것이다. Electrocardiogram (ECG) is the detection of the cardiac electrical activity as a surface electrode.
심전도 센서로부터 측정된 심전도 신호로부터 운동 시 심박 측정, 협심증, 심근경색과 같은 관동맥 질환, 부정맥, 전해질 이상 진단 등이 가능하다.From the electrocardiogram signal measured from the electrocardiogram sensor, heart rate measurement during exercise, angina pectoris such as angina pectoris, myocardial infarction, arrhythmia, electrolyte abnormality diagnosis, and the like are possible.
본 발명에 따른 심전도 센서는 이러한 심전도의 변화를 센싱하여 운동지표, 스트레스 지표 산출을 위한 신호를 제공할 수 있다. The electrocardiogram sensor according to the present invention can sense a change in the electrocardiogram and provide a signal for a movement index and a stress index calculation.
한편, 음향 출력 모듈(152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 생체신호연동 가상현실 교육 시스템에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.Meanwhile, the
알람부(153)는 생체신호연동 가상현실 교육 시스템의 이벤트 발생을 알리기 위한 신호를 출력한다. The
알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. The
상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The video signal or the audio signal may be output through the
햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어 가능하다. The
예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. For example, different vibrations may be synthesized and output or sequentially output.
햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다. In addition to the vibration, the
햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 생체신호연동 가상현실 교육 시스템의 구성에 따라 2개 이상이 구비될 수 있다.The
프로젝터 모듈(155)은, 생체신호연동 가상현실 교육 시스템을 이용하여 이미지 프로젝트(project) 기능을 수행하기 위한 구성요소로서, 제어부(180)의 제어 신호에 따라 디스플레이부(151)상에 디스플레이되는 영상과 동일하거나 적어도 일부가 다른 영상을 외부 스크린 또는 벽에 디스플레이할 수 있다.The
구체적으로, 프로젝터 모듈(155)은, 영상을 외부로 출력하기 위한 빛(일 예로서, 레이저 광)을 발생시키는 광원(미도시), 광원에 의해 발생한 빛을 이용하여 외부로 출력할 영상을 생성하기 위한 영상 생성 수단 (미도시), 및 영상을 일정 초점 거리에서 외부로 확대 출력하기 위한 렌즈(미도시)를 포함할 수 있다. 또한, 프로젝터 모듈(155)은, 렌즈 또는 모듈 전체를 기계적으로 움직여 영상 투사 방향을 조절할 수 있는 장치(미도시)를 포함할 수 있다.Specifically, the
프로젝터 모듈(155)은 디스플레이 수단의 소자 종류에 따라 CRT(Cathode Ray Tube) 모듈, LCD(Liquid Crystal Display) 모듈 및 DLP(Digital Light Processing) 모듈 등으로 나뉠 수 있다. 특히, DLP 모듈은, 광원에서 발생한 빛이 DMD(Digital Micromirror Device) 칩에 반사됨으로써 생성된 영상을 확대 투사하는 방식으로 프로젝터 모듈(151)의 소형화에 유리할 수 있다.The
바람직하게, 프로젝터 모듈(155)은, 생체신호연동 가상현실 교육 시스템의 측면, 정면 또는 배면에 길이 방향으로 구비될 수 있다. 물론, 프로젝터 모듈(155)은, 필요에 따라 생체신호연동 가상현실 교육 시스템의 어느 위치에라도 구비될 수 있음은 당연하다.Preferably, the
또한, 본 발명에서는 스마트글라스(156)을 포함할 수 있다.In addition, the present invention may include a
본 발명이 제안하는 스마트글라스(156)은 헤드 마운트 디스플레이(HMD)일 수 있다.The
도 2는 본 발명에 적용되는 스마트 글라스의 블록도 일례를 도시한 것이다.Fig. 2 shows an example of a block diagram of a smart glass applied to the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 HMD(156)는 디스플레이 유닛(1110), 커뮤니케이션 유닛(1120), 센싱유닛(1130), 카메라 유닛(1140), 프로세서(1150)를 포함할 수 있다.2, an
HMD(156)는 제 1 바디 및 제 2 바디를 포함할 수 있다. 제 1 바디는 HMD(156)의 본체에 해당하는 것으로서, 디스플레이 유닛(1110), 제 1 커뮤니케이션 유닛, 제 1 모션 센싱 유닛, 프로세서(1150) 등을 포함할 수 있다. 또한, 제 2 바디는 HMD(156)의 본체로부터 분리 가능한 바디로서, 제 2 모션 센싱 유닛, 카메라 유닛(1140), 제 2 커뮤니케이션 유닛 등을 포함할 수 있다. 상술한 제 1 바디 및 제 2 바디는 일 실시예로서, 당업자의 필요에 따라, 제 1 바디 및 제 2 바디에 일부 구성 유닛을 변경 또는 새로운 구성 유닛을 추가할 수 있다.The
디스플레이 유닛(1110)은 비주얼 정보를 디스플레이할 수 있다. 여기에서, 비주얼 정보는 컨텐츠, 애플리케이션, 이미지, 동영상 등을 포함할 수 있다. 또한, 디스플레이 유닛(1110)은 프로세서(1150)의 제어 명령에 기초하여 비주얼 정보를 스크린에 출력할 수 있다. 본 명세서에서, 디스플레이 유닛(1110)은 HMD(156)의 제 1 바디에 포함될 수 있다.
한편, 본 명세서에서, HMD(156)는 다양한 방식으로 디스플레이 스크린에 이미지를 출력할 수 있다. 일 예로서, HMD(156)는 투시형(see-through) 방식으로 이미지를 출력할 수 있다. Meanwhile, in this specification, the
여기에서, 투시형(see-through) 방식은 디스플레이 스크린이 투명한 것으로, HMD(156)를 착용한 상태에서 유저가 주위 환경을 인식하면서 컨텐츠를 이용할 수 있는 방식을 나타낸다. 다른 일 예로서, HMD(156)는 전방 주사(front-light) 방식으로 이미지를 출력할 수 있다. 여기에서, 전방 주사 방식은 빛이 눈에 직접 투사되지 않고 반사된 영상을 거울과 같은 반사체를 통해 디스플레이하는 방식을 나타낸다.Here, the see-through method is a method in which the display screen is transparent and the user can use the contents while recognizing the surrounding environment while wearing the
또한, 다른 일 예로서, HMD(156)는 암막형(see-closed) 방식으로 이미지를 출력할 수 있다. 여기에서, 암막형 방식은 디스플레이 스크린을 통해 외부 환경을 볼 수 없고, 디스플레이 스크린을 통해 컨텐츠를 이용하는 방식을 나타낸다. 본 명세서에서, HMD(156)는 투시형 또는 암막형 방식으로 이미지를 디스플레이하는 것으로 가정하도록 한다.Also, as another example, the
커뮤니케이션 유닛(1120)은 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고 데이터를 송/수신할 수 있다. 또한, 커뮤니케이션 유닛(1120)은 유선 또는 무선으로 네트워크에 접속하여 컨텐츠 등의 디지털 데이터를 송/수신할 수 있다. 예를 들어, 커뮤니케이션 유닛은 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN), Wi-Fi, Wi-Di, Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등을 이용할 수 있다.The
본 명세서에서, 커뮤니케이션 유닛(1120)은 제 1 커뮤니케이션 유닛 및 제 2 커뮤니케이션 유닛을 포함할 수 있다. 상술한 바와 같이, 제 1 커뮤니케이션 유닛은 제 1 바디에 구비될 수 있고, 제 2 커뮤니케이션 유닛은 제 2 바디에 구비될 수 있다. 예를 들어, 제 1 커뮤니케이션 유닛 및 제 2 커뮤니케이션 유닛은 제 1 바디에 포함된 프로세서(1150)로부터 신호를 송/수신하고, 제 2 바디에 포함된 카메라 유닛(1140)으로부터 신호를 송/수신할 수 있다.In this specification, the
센싱 유닛(1130)은 HMD(156)에 장착된 적어도 하나의 센서를 사용하여, HMD(156)의 주변 환경을 센싱하고, 이를 신호 형태로 프로세서(1150)에 전달할 수 있다.The
센싱 유닛(1130)은 적어도 하나의 센싱 수단을 포함할 수 있다. 일 실시예로서, 적어도 하나의 센싱 수단은, 중력(gravity) 센서, 지자기 센서, 모션 센서, 자이로스코프 센서, 가속도 센서, 적외선 센서, 기울임(inclination) 센서, 밝기 센서, 고도 센서, 후각 센서, 온도 센서, 뎁스 센서, 압력 센서, 밴딩 센서, 오디오 센서, 비디오 센서, GPS(Global Positioning System) 센서, 터치 센서 및 그립 센서 등의 센싱 수단을 포함할 수 있다.The
또한, 센싱 유닛(1130)은 상술한 다양한 센싱 수단을 통칭하는 것으로, 사용자의 다양한 입력 및 HMD(156)의 환경을 센싱하여, 프로세서(1150)가 그에 따른 동작을 수행할 수 있도록 센싱 결과를 전달할 수 있다. 상술한 센서들은 별도의 엘리먼트로 HMD(156)에 포함되거나, 적어도 하나의 엘리먼트에 통합되어 포함될 수 있다.The
본 명세서에서, 센싱 유닛(1130)은 각도 센싱 유닛(131) 및 입력 센싱 유닛(132)를 포함할 수 있다. 또한, 각도 센싱 유닛(131) 및 입력 센싱 유닛(132)은 각각 제 1 바디 및 제 2 바디에 구비될 수 있다. 예를 들어, 제 1 바디에 구비된 각도 센싱 유닛은 제 1 바디의 회전 각도를 센싱할 수 있고, 제 1 바디에 구비된 입력 센싱 유닛은 제 1 바디에 대한 유저의 입력 신호를 디텍트할 수 있다. 또한, 예를 들어, 제 2 바디에 구비된 각도 센싱 유닛은 제 2 바디의 회전 각도를 센싱할 수 있고, 제 2 바디에 구비된 입력 센싱 유닛은 제 2 바디에 대한 유저의 입력 신호를 디텍트할 수 있다. 또한, 제 1 바디 및 제 2 바디에 구비된 다양한 센싱 수단을 통하여, 제 1 바디와 제 2 바디 간의 분리 신호 및 장착 신호를 디텍트할 수 있다. 또한, 제 1 바디 또는 제 2 바디에 구비된 입력 센싱 유닛을 통하여, 이미지 캡쳐링 신호를 디텍트할 수 있다.In this specification, the
카메라 유닛(1140)은 이미지를 촬영할 수 있다. 보다 상세하게는, 카메라 유닛(1140)은 앞 방향의 이미지를 촬영할 수 있다. 여기에서, 앞 방향은 카메라 유닛(1140)이 향하고 있는 방향에 해당할 수 있다. 또한, 카메라 유닛(1140)은 화각 영역 내의 이미지를 센싱하여 프로세서(1150)에 제공할 수 있다. 여기에서, 화각 영역은 이미지를 센싱하는 때에 일정한 화면 내에 포함시킬 수 있는 수평 및 수직 시야각의 범위를 나타낸다.The
본 명세서에서, 카메라 유닛(1140)은 제 2 바디에 포함될 수 있다. 한편, 본 명세서에서, 카메라 유닛(1140)은 제 2 바디뿐만 아니라 제 1 바디에도 구비될 수 있다. 제 2 바디에 포함된 카메라 유닛(1140)은 제 1 바디에 장착되어 이미지를 센싱할 수 있다. 또한, 제 2 바디에 포함된 카메라 유닛(1140)은 제 1 바디로부터 분리되어 이미지를 센싱할 수 있다.In this specification, the
프로세서(1150)는 데이터를 프로세싱하고, 상술한 HMD(156)의 각 유닛들을 제어하며, 유닛들 간의 데이터 송/수신을 제어할 수 있다. 본 명세서에서, 프로세서(1150)는 제 1 바디에 포함될 수 있다. 예를 들어, 프로세서(1150)는 제 1 바디에 포함된 디스플레이 유닛(1110), 제 1 각도 센싱 유닛, 제 1 커뮤니케이션 유닛 뿐만 아니라, 제 2 바디에 포함된 카메라 유닛(1140), 제 2 커뮤니케이션 유닛, 센서 유닛(1130), 제 2 각도 센싱 유닛을 제어할 수 있다. 한편, 프로세서(1150)는 제 1 바디뿐만 아니라 제 2 바디에서 별도로 구비될 수도 있다.
본 명세서에서, 제 2 바디가 제 1 바디로부터 분리된 경우, 프로세서(1150)는 제 1 회전 각도 및 제 2 회전 각도를 획득할 수 있다. 또한, 프로세서(1150)는 센싱된 이미지를 제 2 회전 각도에 기초하여 제 1 회전 보상한 이미지를 디스플레이하는 분리 이미지 프리뷰 인터페이스를 디스플레이할 수 있다. 또한, 프로세서(1150)는 제 1 캡쳐링 신호를 디텍트할 수 있다. 또한, 프로세서(1150)는 센싱된 이미지를 캡쳐하고, 캡쳐된 이미지를 제 1 회전 각도 및 제 2 회전 각도에 기초하여 제 2 회전 보상한 이미지를 저장할 수 있다.In the present specification, when the second body is separated from the first body, the
본 명세서의 일 실시예로서, HMD(156)가 수행하는 동작들은 프로세서(1150)에 의해 제어될 수 있다. 편의를 위해, 도면 및 이하의 설명에서는 이러한 동작들을 통칭하여 HMD(156)가 수행/제어하는 것으로 설명하도록 한다.In one embodiment of the present disclosure, the operations performed by the
한편, 도 2에는 도시되지 않았으나, HMD(156)는 파워 유닛, 스토리지 유닛, 오디오 유닛 등을 포함할 수 있다. 2, the
파워 유닛은 HMD(156)의 내부의 배터리 또는 외부 전원과 연결되는 파워 소스로서, HMD(156)에 파워를 공급할 수 있다. 또한, 스토리지 유닛은 오디오, 사진, 동영상, 애플리케이션 등 다양한 디지털 데이터를 저장할 수 있다. 스토리지 유닛은 플래시 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 데이터 저장 공간을 나타낼 수 있다. 또한, 오디오 유닛은 마이크 및 스피커를 통해 오디오 데이터를 수신하거나 출력할 수 있다.The power unit can supply power to the
또한, 본 발명이 제안하는 HMD(156)는 고글형으로 제작될 수 있다.In addition, the
한편, 메모리부(160)는 제어부(180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들(예를 들어, 메시지, 오디오, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 메모리부(160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 생체신호연동 가상현실 교육 시스템은 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
인터페이스부(170)는 생체신호연동 가상현실 교육 시스템에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 생체신호연동 가상현실 교육 시스템 내부의 각 구성 요소에 전달하거나, 생체신호연동 가상현실 교육 시스템 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The
식별 모듈은 생체신호연동 가상현실 교육 시스템의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 생체신호연동 가상현실 교육 시스템과 연결될 수 있다. The identification module is a chip for storing various information for authenticating the usage right of the bio-signal linked virtual reality education system. The identification module includes a user identification module (UIM), a subscriber identity module (SIM) A Universal Subscriber Identity Module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Therefore, the identification device can be connected to the bio-signal interlocking virtual reality education system through the port.
상기 인터페이스부는 생체신호연동 가상현실 교육 시스템이 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 생체신호연동 가상현실 교육 시스템에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동기기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동기기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the bio-signal interlocking virtual reality education system is connected to an external cradle, the interface unit may be a path through which power from the cradle is supplied to the bio-signal interworking virtual reality education system, Signal may be the path through which the mobile device is communicated. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile device is correctly mounted on the cradle.
제어부(controller, 180)는 통상적으로 생체신호연동 가상현실 교육 시스템의 전반적인 동작을 제어한다. The
제어부(180)는 무선통신부, A/V입력부, 사용자입력부, 센싱부, 인터페이스부를 통해 입력된 신호를 이용하여 출력부의 하드웨어를 동작할 수 있는 제어 신호를 송신하거나 메모리에 저장 할 수 있다. 제어부에서는 센서신호를 분석하여 인지기능 지표, 운동기능 지표와 같은 분석지표를 산출하는 프로세서 모듈을 포함할 수 있다. 제어부는 메모리로부터 신호를 입력받아 출력부 기능을 제어할 수 있다. The
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The
여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the
도 3a는 생체신호연동 가상현실 교육 장치의 구체적인 일례를 도시한 것이고, 도 3b는 생체신호연동 가상현실 교육 장치에 이용되는 근전도 센서의 일례를 도시한 것이다.FIG. 3A shows a specific example of a bio-signal interlocking virtual reality teaching device, and FIG. 3B shows an example of an electromyography sensor used in a bio-signal interlocking virtual reality teaching device.
도 3a을 참조하면, 본 발명이 제안하는 생체신호연동 가상현실 교육 장치(100)는 밴드 모양의 인터페이스부(170), 뇌파센서(142) 및 스마트글라스(156)을 포함할 수 있다.Referring to FIG. 3A, the bio-signal interworking
또한, 도 3b에 도시된 것과 같이, 본 발명이 제안하는 생체신호연동 가상현실 교육 장치(100)는 근전도 센서(144)를 더 포함하여 구성될 수 있다.Also, as shown in FIG. 3B, the bio-signal interlocking virtual
도 3a을 참조하면, 밴드 모양의 인터페이스부(170)는 이마를 기준으로 수직으로 사용자의 헤드에 결합되는 제 1 부분(170a)과 수평으로 사용자의 헤드에 결합되는 제 2 부분(170b)을 포함한다.Referring to FIG. 3A, the band-shaped
또한, 뇌파센서(142)는 사용자의 이마 또는 관자놀이 부근에 배치되어 사용자의 뇌파를 측정하는 기능을 제공한다.In addition, the brain-
전술한 것과 같이, 뇌파센서(142)는 주파수와 전압의 범위에 따라 구분되는 델타, 세타, 알파, 베타, 감마파 등을 감지할 수 있고, 이를 통해 사용자의 상태를 판별하는 것이 가능하다.As described above, the brain-
또한, 스마트글라스(156)는 헤드 마운트 디스플레이(HMD)로, 고글의 형태로 구비될 수 있다.The
사용자는 스마트글라스(156)를 통해 가상현실 콘텐츠를 제공받을 수 있다.The user can be provided with the virtual reality content through the
또한, 도 3b를 참조하면, 근전도 센서(144)는 복수의 센서를 포함하는 구조로, 사용자의 팔의 적어도 일부에 채워지는 팔찌 형태를 가질 수 있다.3B, the
전술한 것과 같이, 근전도 센서(144)를 통해 사용자의 골격근의 전기적 활동을 감지하는 것이 가능하다.As described above, it is possible to sense the electrical activity of the skeletal muscle of the user through the
도 4a는 도 3a 및 도 3b에서 설명한 가상현실 교육 장치를 사용자가 이용하는 구체적인 모습을 도시한 것이다.FIG. 4A is a detailed view of a user using the virtual reality education apparatus illustrated in FIGS. 3A and 3B.
도 4a를 참조하면, 사용자는 이마를 기준으로 수직으로 사용자의 헤드에 결합되는 제 1 부분(170a)과 수평으로 사용자의 헤드에 결합되는 제 2 부분(170b)을 포함하는 밴드 모양의 인터페이스부(170)를 통해 생체신호연동 가상현실 교육 장치(100)와 연결될 수 있다.4A, a user has a band-like interface (not shown) including a
또한, 사용자의 안구 정면에는 고글 형태의 스마트글라스(156)가 배치되고, 뇌파센서(142)는 사용자의 이마 혹은 관자놀이 부근에 배치되며, 근전도 센서(144)는 팔찌형태로 사용자의 팔에 채워지게 된다.In addition, a goggle-type
본 발명이 제안하는 생체신호연동 가상현실 교육 장치(100)는 주의력결핍 과잉행동장애(ADHD)와 치매와 같은 인지기능장애 예방 및 치료를 위해 이용될 수 있다.The bio-signal interworking virtual
즉, 과잉행동장애(ADHD) 치료를 위해, 고글 형태의 스마트글라스(156)를 통해 가상현실의 콘텐츠를 표시하고, 근전도 센서(144) 신호 기반의 제어를 통해 콘텐츠에서 제시하는 문제를 해결한다. 사용자의 집중정도를 뇌파센서(142)를 통해 확인하고, 집중정도가 높은 경우에만 상기 가상현실의 콘텐츠가 변화되어 표시되도록 할 수 있다.That is, for the treatment of hyperactivity disorder (ADHD), the contents of the virtual reality are displayed through the
또한, 치매와 같은 인지기능장애 예방 및 치료를 위해 고글 형태의 스마트글라스(156)를 통해 가상현실의 콘텐츠를 표시하고, 사용자에게 주어진 문제 및 동작을 해결하는 것을 근전도 센서(144)를 통해 확인하고, 해결하는 경우에만 상기 가상현실의 콘텐츠가 변화되어 표시되도록 함으로써, 근력운동과 함께 인지기능이 저하되는 것을 예방할 수 있게 된다.In addition, in order to prevent and treat cognitive dysfunction such as dementia, the contents of the virtual reality are displayed through the goggle type
또한, 본 발명에 따른 스마트글라스(156)는 안경형, 헤드밴드형, 혹은 헬멧형 형태로 사용자가 손쉽게 착용하여 가상현실 컨텐츠를 즐길 수 있는 구조이다.In addition, the
또한, 본 발명에 따른 가상현실컨텐츠는 인지기능강화 및 치료를 목적으로 하는 내용으로 인지 기능별(치매, ADHD등) 컨텐츠 내용구성, 인지기능별 난이도 조절이 가능하며 뇌파신호와 같은 생체신호 분석을 통한 인지상태 분석 및 리포트가 가능하다.In addition, the virtual reality contents according to the present invention are contents for enhancing and treating cognitive functions, and can be configured to control the degree of difficulty according to cognitive functions (dementia, ADHD, etc.) Status analysis and reporting is possible.
본 발명에 따른 스마트글라스(156)는 인지재활 컨텐츠를 사용자의 눈에 확대하여 디스플레이하는 기능을 한다.The
또한, 뇌파센서(142), 모션센서(143), camera(121), audio(150), 유/무선통신모듈(110) 등이 내장되어 있어 생체신호, 위치기반 신호 및 sound 신호 등을 활용한 컨텐츠 구성이 가능하다.The
특히, 뇌파신호를 이용한 뉴로피드백 훈련 및 인지기능 분석이 가능하고, 유/무선 송수신 모듈(110)을 이용해 컨텐츠의 업로드 및 업그레이드가 가능하다.Particularly, it is possible to perform neuro feedback training and cognitive function analysis using EEG signals, and to upload and upgrade contents using the wired / wireless transmission /
또한, 본 발명에 따른 근전도 센서(144)는 손목밴드 형태의 다채널 근전도 측정 시스템이다.In addition, the
근전도 센서(144)는 무선 송수신 모듈 내장으로 근전도 신호를 송수신할 수 있고, 모션센서(143), 위치센서(115)가 내장될 수 있으며, 이를 이용한 근전도 측정 및 근력지표 산출이 가능하다.The
본 발명에 따른 생체신호연동 가상현실 교육 장치(100)는 가정용으로 이용 가능하다.The bio-signal interworking virtual
도 4b는 본 발명이 제안하는 생체신호연동 가상현실 교육 시스템을 주의력 결핍 과잉 행동 장애(ADHD) 예방 및 치료에 이용하는 구체적인 모습을 도시한 것이다.FIG. 4B is a view showing a concrete use of the bio-signal interlocking virtual reality education system proposed by the present invention in the prevention and treatment of attention deficit hyperactivity disorder (ADHD).
도 4b를 참조하면, 본 발명에 따른 생체신호연동 가상현실 교육 장치(100)는 ADHD, 치매 환자 인지기능 강화 훈련기로서 이용 가능하다.Referring to FIG. 4B, the bio-signal interlocking virtual
즉, 가정에서 개인이 착용하고 기억력, 주의력, 집중력 훈련을 수행하며, 난이도별 게임컨텐츠를 활용한 흥미 유도가 가능하고, 다양한 컨텐츠를 제공하며, 신버전의 컨텐츠 유료 업그레이드가 가능하고, 인지기능 분석 결과를 제공함으로써 자가진단을 통한 치료 및 예방 효과를 모니터링 할 수 있다.That is, it is possible to induce interest by using game contents according to degree of difficulty, to provide various contents, to upgrade the contents of a new version, and to perform cognitive function analysis To monitor treatment and prevention effects through self-diagnosis.
한편, 헤드 마운트 디스플레이(HMD) 등을 이용한 다양한 교육 방법이 제안되고 있으나 컨텐츠를 이용하는 사용자의 집중도를 실시간 또는 누적하여 평가하고, 평가된 집중도를 사용자에게 피드백함으로써 효율적인 교육을 꾀하는 시스템 및 방법은 전혀 제안되고 있지 못하므로, 이에 대한 해결방안이 요구되고 있는 실정이다.On the other hand, various educational methods using a head-mounted display (HMD) or the like have been proposed. However, there is no system or method for evaluating the concentration of users using contents in real time or cumulatively, Therefore, there is a need for a solution to this problem.
따라서 뇌파, 근전도, 심전도 센서와 같은 생체 센서 기술과 스마트글라스 기술, 가상현실 컨텐츠 기술이 융합된 기술로 개인이 착용하여 사용할 수 있는 간단한 시스템으로 장소에 구애 없이 교육 프로그램을 진행할 수 있는 시스템을 제안할 필요성이 있다.Therefore, we propose a system which can carry out educational program without any admission to the place with a simple system that can be worn by individuals with technology that combines bio sensor technology such as EEG, electromyography, ECG sensor, smart glass technology and virtual reality contents technology There is a need.
본 발명에서는 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 생체신호연동 가상현실 교육 시스템 및 방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a system and method for training a virtual reality in a bio-signal interlocking system.
구체적으로 본 발명은 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치를 사용자에게 제공하고자 한다.Specifically, the present invention provides a system and an apparatus for increasing the educational efficiency by displaying the virtual reality education contents on a smart glass device and analyzing cumulative concentration and real time concentration of the user by interlocking the living body signal sensor.
본 발명이 제안하는 생체신호연동 가상현실 교육 장치(100)는 대표적으로 개인이 착용하고 동영상 학습을 할 수 있는 개인 착용형 학습기로 이용될 수 있다. The bio-signal interworking virtual
도 5는 도 3a에서 설명한 가상현실 교육장치를 사용자가 개인형 동영상 학습기로 이용하는 구체적인 모습을 도시한 것이다.FIG. 5 is a detailed view of a user using the virtual reality educational apparatus illustrated in FIG. 3A as a personalized video learning apparatus.
도 5를 참조하면, 가정에서 개인이 착용하고 다양한 텍스트나 동영상 컨텐츠를 활용하여 학습이 가능하며, 신버전의 컨텐츠 유료 업그레이드가 가능하고, 생체신호를 통한 집중도 분석 결과를 제공함으로써 집중도를 모니터링 하고, 주의를 환기시킬 수 있는 이벤트를 제공함으로써 효과적인 학습 환경하에서 학습할 수 있는 시스템으로 활용될 수 있다.Referring to FIG. 5, it is possible to learn by using various text or moving picture contents worn by individuals at home, to pay for upgrading contents of a new version, to provide a result of concentration analysis through bio-signals, Which can be used as a system capable of learning in an effective learning environment.
본 발명의 구체적인 방법에 대해 도면을 참조하여 설명한다. Specific methods of the present invention will be described with reference to the drawings.
제 1 실시예First Embodiment
본 발명에 따른 제 1 실시예에서는 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석하게 된다.In the first embodiment of the present invention, the cumulative concentration and the real-time concentration of the user are analyzed by interlocking the bio-signal sensor.
도 6은 본 발명과 관련된 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 방법을 설명하는 순서도이다.FIG. 6 is a flowchart illustrating a method for enhancing a training efficiency by analyzing cumulative concentration and real-time concentration of a user by interfacing a bio-signal sensor according to the present invention.
도 6을 참조하면, 가장 먼저, HMD(156)를 통해 교육과 관련된 컨텐츠가 플레이 되는 단계(S100)가 진행된다.Referring to FIG. 6, first, the content related to education is played through the HMD 156 (S100).
여기서 교육 관련 컨텐츠는 텍스트, 이미지, 동영상 등을 포함할 수 있다.Here, the education-related contents may include text, image, video, and the like.
또한, 플레이 되는 교육 관련 컨텐츠는 무선 통신부(110)를 통해 외부로부터 수신되어 플레이 되거나 메모리(160)에 미리 저장되어 로딩 이후 플레이 될 수 있다.In addition, the education-related contents to be played may be received from the outside through the
교육 관련 컨텐츠가 플레이되는 경우, 뇌파 센서(142)를 이용하여 사용자의 적어도 하나의 뇌파를 센싱하는 단계(S200)가 진행된다.When the education-related contents are played, a step S200 of sensing at least one brain wave of the user using the brain-
여기서 적어도 하나의 뇌파는 전술한 것과 같이, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함할 수 있다.As described above, at least one EEG includes at least one of alpha-beta, beta-beta, theta, gamma wave, delta wave, SMR wave and Mid- beta wave .
이후, 제어부(180)는 센싱된 적어도 하나의 뇌파를 이용하여 사용자의 실시간 집중도를 평가하고, 사용자에게 피드백 하는 단계(S300)를 수행한다.Then, the
즉, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파 중 적어도 하나의 변화를 이용하여 사용자의 변화하는 집중도를 사용자에게 실시간으로 피드백 할 수 있다.That is, a change of at least one of alpha-wave (alpha), beta wave (beta), theta wave (?), Gamma wave (?), Delta wave (?), SMR wave and Mid- The concentration can be fed back to the user in real time.
본 실시예에서는 뇌파를 이용하여 사용자의 집중도를 평가하는 것을 대표적인 일례로 들었으나 추가적으로 사용자의 시선 추적 기능을 더 적용하여 사용자의 집중도를 정확하게 판단하는 것도 가능하다.In the present embodiment, evaluation of the user's concentration using the EEG is described as a representative example. However, it is also possible to accurately determine the concentration of the user by further applying the user's gaze tracking function.
또한, 전술한 심전도 센서를 통한 센싱 정보도 추가적으로 활용될 수도 있다.In addition, the sensing information through the electrocardiographic sensor described above may be additionally utilized.
제어부(180)에 따라 집중도의 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Feedback of the degree of concentration according to the
이후, 제어부(180)의 제어에 따라 메모리(160)는 평가된 실시간 집중도를 저장하는 단계(S400)를 수행한다.Then, in accordance with the control of the
이후, 교육 컨텐츠의 플레이가 종료되거나 미리 설정된 기간이 경과하는 경우, 제어부(180)는 일정 기간 동안 메모리(160)에 저장된 집중도를 분석하여 사용자가 집중을 잘 할 수 있는 시간대를 평가하고, 사용자에게 피드백 하게 된다(S500).Thereafter, when the play of the educational contents is terminated or a predetermined period of time elapses, the
예를 들어, 일주일 동안 사용자의 집중도를 수집 및 분석한 결과, 13시부터 17시까지의 집중도가 가장 높았고, 06시부터 08시까지의 집중도가 가장 낮았다는 평가 정보를 사용자에게 피드백 할 수 있다.For example, as a result of collecting and analyzing the user's concentration for a week, the user can feedback the evaluation information that the concentration from 13:00 to 17:00 is the highest and the concentration from 06:00 to 08:00 is the lowest.
일정 기간에 대한 평가 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Evaluation feedback for a predetermined period may be displayed on the
한편, 본 발명에서는 HMD(156)와 자동으로 연동되는 전자펜이 추가적으로 이용될 수 있다.In the present invention, an electronic pen automatically interlocked with the
즉, 사용자의 전자펜 조작을 통해 HMD(156)의 동작이 제어되거나 교육 관련 컨텐츠가 플레이되는 도중 사용자는 필기를 수행하여 메모리가 이를 저장하도록 할 수도 있다.That is, the user may control the operation of the
제 2 실시예Second Embodiment
한편, 본 발명에 따른 제 2 실시예에서는 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석하되, 사용자의 집중도가 떨어지는 시점 또는 시기에 미리 설정된 컨텐츠를 플레이하여 사용자가 휴식하고, 집중도를 회복할 수 있다.Meanwhile, in the second embodiment of the present invention, the cumulative concentration and the real-time concentration of the user are interlocked by interlocking the bio-signal sensor, and the user can play the pre-set contents at the time or when the concentration of the user drops, I can recover.
도 7은 도 6와 관련하여, 사용자의 집중도가 떨어지는 시점 또는 시기에 미리 설정된 컨텐츠를 플레이하여 사용자가 휴식하고, 집중도를 회복할 수 있는 방법을 설명하는 순서도이다.FIG. 7 is a flowchart illustrating a method by which a user can rest and recover a concentration of content by playing predetermined content at a point in time or at a time when the user's concentration becomes low, with reference to FIG.
도 7을 참조하면, 가장 먼저, HMD(156)를 통해 교육과 관련된 컨텐츠가 플레이 되는 단계(S100)가 진행된다.Referring to FIG. 7, first, the content related to education is played through the HMD 156 (S100).
여기서 교육 관련 컨텐츠는 텍스트, 이미지, 동영상 등을 포함할 수 있다.Here, the education-related contents may include text, image, video, and the like.
또한, 플레이 되는 교육 관련 컨텐츠는 무선 통신부(110)를 통해 외부로부터 수신되어 플레이 되거나 메모리(160)에 미리 저장되어 로딩 이후 플레이 될 수 있다.In addition, the education-related contents to be played may be received from the outside through the
교육 관련 컨텐츠가 플레이되는 경우, 뇌파 센서(142)를 이용하여 사용자의 적어도 하나의 뇌파를 센싱하는 단계(S200)가 진행된다.When the education-related contents are played, a step S200 of sensing at least one brain wave of the user using the brain-
여기서 적어도 하나의 뇌파는 전술한 것과 같이, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함할 수 있다.As described above, at least one EEG includes at least one of alpha-beta, beta-beta, theta, gamma wave, delta wave, SMR wave and Mid- beta wave .
이후, 제어부(180)는 센싱된 적어도 하나의 뇌파를 이용하여 사용자의 실시간 집중도를 평가하고, 사용자에게 피드백 하는 단계(S300)를 수행한다.Then, the
즉, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파 중 적어도 하나의 변화를 이용하여 사용자의 변화하는 집중도를 사용자에게 실시간으로 피드백 할 수 있다.That is, a change of at least one of alpha-wave (alpha), beta wave (beta), theta wave (?), Gamma wave (?), Delta wave (?), SMR wave and Mid- The concentration can be fed back to the user in real time.
제어부(180)에 따라 집중도의 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Feedback of the degree of concentration according to the
이때, 제 2 실시예에서는 제어부(180)가 평가된 사용자의 집중도가 미리 설정된 집중도 이하인 경우, 교육 컨텐츠의 플레이를 중단하는 단계(S310)를 진행한다.In this case, in the second embodiment, when the concentration of the user who has been evaluated by the
즉, 집중도가 떨어져 있는 상태에서 교육 컨텐츠의 플레이를 통한 효과는 미비할 수 밖에 없으므로, 평가된 사용자의 집중도가 미리 설정된 집중도 이하인 경우, 교육 컨텐츠의 플레이를 자동으로 중단하거나 중단 여부에 대한 질문이 부여될 수 있다.That is, since the effect of playing the educational contents is inevitable in a state where the concentration is low, when the concentration of the evaluated user is equal to or less than a preset concentration level, .
여기서 질문에 대해 YES로 답하는 경우, 미리 지정한 컨텐츠가 플레이될 수도 있다.If the answer to the question is YES, predefined contents may be played.
또한, 제어부(180)는 사용자가 미리 지정한 컨텐츠가 HMD(156)를 통해 플레이되도록 할 수 있다.In addition, the
예를 들어, 사용자가 미리 지정한 음악 리스트, 동영상 리스트 등이 HMD(156)를 통해 표시되어 사용자의 휴식을 유도할 수 있다.For example, a music list, a video list, and the like designated by the user may be displayed through the
일정 기간 동안 사용자 지정 컨텐츠가 플레이 되는 경우, 제어부(180)는 플레이를 중단하고, 다시 교육과 관련된 컨텐츠가 플레이되도록 할 수 있다.If the user-specified content is played for a predetermined period of time, the
이후, 제어부(180)의 제어에 따라 메모리(160)는 평가된 실시간 집중도를 저장하는 단계(S400)를 수행한다.Then, in accordance with the control of the
이후, 교육 컨텐츠의 플레이가 종료되거나 미리 설정된 기간이 경과하는 경우, 제어부(180)는 일정 기간 동안 메모리(160)에 저장된 집중도를 분석하여 사용자가 집중을 잘 할 수 있는 시간대를 평가하고, 사용자에게 피드백 하게 된다(S500).Thereafter, when the play of the educational contents is terminated or a predetermined period of time elapses, the
예를 들어, 일주일 동안 사용자의 집중도를 수집 및 분석한 결과, 13시부터 17시까지의 집중도가 가장 높았고, 06시부터 08시까지의 집중도가 가장 낮았다는 평가 정보를 사용자에게 피드백 할 수 있다.For example, as a result of collecting and analyzing the user's concentration for a week, the user can feedback the evaluation information that the concentration from 13:00 to 17:00 is the highest and the concentration from 06:00 to 08:00 is the lowest.
일정 기간에 대한 평가 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Evaluation feedback for a predetermined period may be displayed on the
S500 단계를 통한 집중할 수 있는 시간에 대한 피드백이 전달된 이후, 다시 교육 관련 컨텐츠가 플레이되면, 제어부(180)는 사용자가 집중할 수 있는 시간대 이외의 경우, 교육 컨텐츠의 플레이를 중단하는 단계(S510)를 수행할 수 있다.If the education-related content is played again after the feedback on the focusable time through S500 is delivered, the
즉, 집중도가 떨어져 있는 시간대에서 교육 컨텐츠의 플레이를 통한 효과는 미비할 수 밖에 없으므로, 사용자의 집중도가 떨어지는 시간대에서는 교육 컨텐츠의 플레이를 자동으로 중단하거나 실행 여부를 확인할 수 있다.That is, since the effect of playing the educational contents is inevitable in a time zone in which the concentration is low, it is possible to automatically stop the play of the educational contents or check whether the execution of the education contents is executed in a time zone where the user's concentration is low.
또한, 제어부(180)는 사용자가 미리 지정한 컨텐츠가 HMD(156)를 통해 플레이되도록 할 수 있다(S520).In addition, the
예를 들어, 사용자가 미리 지정한 음악 리스트, 동영상 리스트 등이 HMD(156)를 통해 표시되어 사용자의 휴식을 유도할 수 있다.For example, a music list, a video list, and the like designated by the user may be displayed through the
일정 기간 동안 사용자 지정 컨텐츠가 플레이 되는 경우, 제어부(180)는 플레이를 중단하고, 다시 교육과 관련된 컨텐츠가 플레이되도록 할 수 있다.If the user-specified content is played for a predetermined period of time, the
제 3 실시예Third Embodiment
본 발명에 따른 제 3 실시예에서는 복수의 사용자가 사용하는 디스플레이 간에 네트워크를 형성하고, 실시간 집중도 순위 및 복수 사용자의 집중 시간대에 대한 정보를 사용자들에게 제공할 수 있다.In the third embodiment of the present invention, a network is formed between displays used by a plurality of users, and information on the real-time concentration ranking and the concentration time zones of a plurality of users can be provided to users.
도 8은 도 6와 관련하여, 복수의 사용자가 사용하는 디스플레이 간에 네트워크를 형성하고, 실시간 집중도 순위 및 복수 사용자의 집중 시간대에 대한 정보를 사용자들에게 제공하기 위한 방법을 설명하는 순서도이다.FIG. 8 is a flowchart illustrating a method for forming a network between displays used by a plurality of users, and for providing information on real-time concentration ranking and concentration time zones of a plurality of users to users, with reference to FIG.
도 8을 참조하면, 가장 먼저, 복수의 HMD(156) 간에 네트워크를 형성하는 단계(S50)가 진행된다.Referring to FIG. 8, first, a step S50 of forming a network between a plurality of
여기서 네트워크는 근거리 통신 또는 원거리 통신을 이용하여 구축될 수 있다.Where the network may be established using local or remote communication.
여기서 근거리 통신은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, Wi-Fi (Wireless Fidelity) 기술을 포함할 수 있다.The local area communication may include Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and Wi-Fi (Wireless Fidelity).
또한, 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 기술을 포함할 수 있다.Further, the long-distance communication may be performed by using a code division multiple access (CDMA), a frequency division multiple access (FDMA), a time division multiple access (TDMA), an orthogonal frequency division multiple access (OFDMA), a single carrier frequency division multiple access . ≪ / RTI >
이후, HMD(156)를 통해 교육과 관련된 컨텐츠가 플레이 되는 단계(S100)가 진행된다.Thereafter, a step S100 of playing contents related to education through the
여기서 교육 관련 컨텐츠는 텍스트, 이미지, 동영상 등을 포함할 수 있다.Here, the education-related contents may include text, image, video, and the like.
또한, 플레이 되는 교육 관련 컨텐츠는 무선 통신부(110)를 통해 외부로부터 수신되어 플레이 되거나 메모리(160)에 미리 저장되어 로딩 이후 플레이 될 수 있다.In addition, the education-related contents to be played may be received from the outside through the
교육 관련 컨텐츠가 플레이되는 경우, 뇌파 센서(142)를 이용하여 사용자의 적어도 하나의 뇌파를 센싱하는 단계(S200)가 진행된다.When the education-related contents are played, a step S200 of sensing at least one brain wave of the user using the brain-
여기서 적어도 하나의 뇌파는 전술한 것과 같이, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함할 수 있다.As described above, at least one EEG includes at least one of alpha-beta, beta-beta, theta, gamma wave, delta wave, SMR wave and Mid- beta wave .
이후, 제어부(180)는 센싱된 적어도 하나의 뇌파를 이용하여 사용자의 실시간 집중도를 평가하고, 사용자에게 피드백 하는 단계(S300)를 수행한다.Then, the
즉, 알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파 중 적어도 하나의 변화를 이용하여 사용자의 변화하는 집중도를 사용자에게 실시간으로 피드백 할 수 있다.That is, a change of at least one of alpha-wave (alpha), beta wave (beta), theta wave (?), Gamma wave (?), Delta wave (?), SMR wave and Mid- The concentration can be fed back to the user in real time.
제어부(180)에 따라 집중도의 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Feedback of the degree of concentration according to the
제 1 실시예 및 제 2 실시예와 달리, S300 단계 이후에, 제어부(180)가 복수의 사용자의 실시간 집중도 순위를 평가하고, 무선통신부(110)를 통해 평가한 집중도 순위를 복수의 디스플레이 간에 공유하는 단계(S330)가 진행된다.Unlike the first and second embodiments, after step S300, the
S330 단계를 통해, 사용자 간의 경쟁을 유도함으로써, 더 높은 집중도로 교육 컨텐츠를 습득하는 것을 유도할 수 있게 된다.Through the step S330, it is possible to induce competition between the users, thereby acquiring the education contents with higher concentration.
이후, 제어부(180)의 제어에 따라 메모리(160)는 평가된 실시간 집중도를 저장하는 단계(S400)를 수행한다.Then, in accordance with the control of the
이후, 교육 컨텐츠의 플레이가 종료되거나 미리 설정된 기간이 경과하는 경우, 제어부(180)는 일정 기간 동안 메모리(160)에 저장된 집중도를 분석하여 사용자가 집중을 잘 할 수 있는 시간대를 평가하고, 사용자에게 피드백 하게 된다(S500).Thereafter, when the play of the educational contents is terminated or a predetermined period of time elapses, the
예를 들어, 일주일 동안 사용자의 집중도를 수집 및 분석한 결과, 13시부터 17시까지의 집중도가 가장 높았고, 06시부터 08시까지의 집중도가 가장 낮았다는 평가 정보를 사용자에게 피드백 할 수 있다.For example, as a result of collecting and analyzing the user's concentration for a week, the user can feedback the evaluation information that the concentration from 13:00 to 17:00 is the highest and the concentration from 06:00 to 08:00 is the lowest.
일정 기간에 대한 평가 피드백은 HMD(156) 상에 표시되거나 음향출력모듈(152), 알람부(153) 또는 프로젝터 모듈(155) 등을 통해 사용자에게 표시될 수 있다.Evaluation feedback for a predetermined period may be displayed on the
또한, 제 3 실시예에서는 복수의 사용자의 집중 시간대에 대한 평균을 평가하고, 사용자에게 피드백 하는 단계(S530)가 추가된다.In addition, in the third embodiment, a step S530 of adding an average of a plurality of users to the concentrated time zone and feedback to the user is added.
따라서 사용자는 본인의 집중 시간대에 대한 정보뿐만 아니라 복수의 사용자들이 평균적으로 높게 보이는 집중 시간대에 대한 정보를 함께 획득하여 이용할 수 있게 된다.Therefore, the user can acquire information on the concentration time zone of the user, as well as the information on the concentration time zone, which is higher in average on the average of the plurality of users.
전술한 본 발명의 구성을 통해 생체신호연동 가상현실 교육 시스템 및 방법을 제공할 수 있다.The present invention can provide a bio-signal interlocking virtual reality education system and method.
구체적으로 본 발명은 스마트 글라스 장치에 가상현실 교육 컨텐츠를 디스플레이하고, 생체신호 센서를 연동하여 사용자의 누적 집중도 및 실시간 집중도를 분석함으로써, 교육 효율을 높일 수 있는 시스템 및 장치를 사용자에게 제공할 수 있다.Specifically, the present invention can provide a system and an apparatus capable of increasing educational efficiency by displaying virtual reality education contents on a smart glass device and analyzing cumulative concentration and real time concentration of a user by interlocking with a bio-signal sensor .
본 발명이 제안하는 교육 장치는 안경이나 헬멧처럼 착용하는 스마트 글라스에 가상현실 컨텐츠를 디스플레이 할 수 있는 구조로, 장소의 구애 없이 사용이 가능하며, 스마트 글라스에 내장된 뇌파센서나 사용자의 인체에 부착이 가능한 근전도 센서를 이용하여 사용자의 집중도, 인지기능, 운동기능에 대한 실시간, 정량적 분석이 가능하며 집중도에 따른 교육, 인지기능 정도에 따른 레벨별 훈련이 가능할 수 있다.The educational device proposed by the present invention is a structure capable of displaying virtual reality contents in a smart glass worn like a pair of glasses or a helmet, and can be used without any admission of a place, and can be attached to an electroencephalogram sensor or a user's body Using this possible EMG sensor, real-time and quantitative analysis of the user's concentration, cognitive function, and motor function is possible, and it is possible to perform training according to the degree of concentration and level-specific training according to the degree of cognitive function.
또한, 본 발명의 제안하는 교육 장치는 스마트글라스에 내장된 모션센서, 카메라, 외부연동 가능한 키넥트 센서 등을 이용해 사용자 모션 및 위치기반 컨텐츠 제공이 가능하므로 체감형 교육훈련 뿐 아니라 인지재활, 운동재활 시스템으로도 활용이 가능한 것을 목적으로 하며, 인체부착 가능한 심전도 센서를 이용해 스트레스 지수, 운동상태 등 신체분석 데이터를 제공할 수 있다.Further, since the education apparatus proposed by the present invention can provide user-motion and position-based contents using a motion sensor, a camera, and an external interlocking Kinect sensor built in a smart glass, it is possible to provide not only a sensible training but also cognitive rehabilitation, System, and can provide body analysis data such as stress index and exercise state using an electrocardiograph sensor that can be attached to a human body.
또한, 본 발명은 인지기능장애 예방 및 치료 관련하여, 주의력결핍 과잉행동장애(ADHD) 예방 및 치료 및 치매 예방 및 치료에 이용될 수 있다.In addition, the present invention can be used for the prevention and treatment of attention deficit hyperactivity disorder (ADHD) and for the prevention and treatment of dementia in relation to prevention and treatment of cognitive dysfunction.
본 발명은 뇌기능장애 예방 및 치료와 관련하여, 뇌기능 장애로 인한 인지기능 재활 및 운동기능 재활, 인지기능강화 훈련 및 주의력, 집중력 훈련에 이용될 수 있다.The present invention can be used for cognitive function rehabilitation and motor function rehabilitation due to brain dysfunction, cognitive function strengthening training, and attention and concentration training in relation to prevention and treatment of brain dysfunction.
또한, 본 발명은 게임 시장과 관련하여, 생체신호를 이용한 집중력 게임에 이용될 수도 있다.Further, the present invention may be used for a concentration game using biological signals in connection with the game market.
한편, 본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission over the Internet) .
또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다. In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers of the technical field to which the present invention belongs.
또한, 상기와 같이 설명된 장치 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.It should be noted that the above-described apparatus and method are not limited to the configurations and methods of the embodiments described above, but the embodiments may be modified so that all or some of the embodiments are selectively combined .
Claims (21)
상기 사용자의 적어도 하나의 뇌파를 센싱하는 뇌파 센서;
상기 센싱한 적어도 하나의 뇌파를 이용하여 상기 제 1 컨텐츠에 대한 상기 사용자의 집중도를 평가하는 제어부; 및
상기 사용자의 집중도를 누적하여 저장하는 메모리;를 포함하되,
상기 제어부는,
상기 사용자의 집중도가 상기 헤드마운트 디스플레이를 통해 실시간으로 표시되도록 제어하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.A head mount display comprising an optical module for transmitting video light emitted from at least one display to a user's eyeball and displaying first content related to a user's education;
A brain wave sensor for sensing at least one brain wave of the user;
A controller for evaluating the user's concentration on the first content using at least one sensed EEG; And
And a memory for cumulatively storing the concentration of the user,
Wherein,
And controls the user to display the concentration of the user in real time through the head mount display.
상기 제어부는,
상기 실시간으로 평가한 사용자의 집중도가 미리 설정된 수치 이하인 경우,
상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.The method according to claim 1,
Wherein,
When the concentration of the user evaluated in real time is less than a predetermined value,
And stops displaying the first content on the head mount display.
상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하고,
상기 제 1 컨텐츠 표시가 중단되는 경우,
상기 제어부는 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되도록 제어하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.3. The method of claim 2,
Wherein the memory stores at least one second content previously designated by the user,
When the first content display is stopped,
Wherein the controller controls the second content stored in the memory to be displayed on the head-mounted display instead of the second content.
상기 제어부는,
상기 메모리에 누적하여 저장된 사용자의 집중도 정보를 이용하여, 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.The method according to claim 1,
Wherein,
Wherein at least one first time interval in which the concentration of the user is equal to or greater than a predetermined value is extracted using the concentration information of the user accumulated in the memory.
상기 제어부는,
상기 제 1 컨텐츠가 표시되는 시간이 상기 제 1 시간 구간 이내가 아닌 경우,
상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.5. The method of claim 4,
Wherein,
When the time at which the first content is displayed is not within the first time period,
And stops displaying the first content on the head mount display.
상기 제어부는,
상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하고,
상기 제 1 컨텐츠 표시가 중단되는 경우,
상기 제어부는 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되도록 제어하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.6. The method of claim 5,
Wherein,
Wherein the memory stores at least one second content previously designated by the user,
When the first content display is stopped,
Wherein the controller controls the second content stored in the memory to be displayed on the head-mounted display instead of the second content.
상기 사용자의 집중도를 외부로 통신하는 무선통신부;를 더 포함하고,
상기 생체신호연동 가상현실 교육 시스템은 복수이며,
상기 복수의 생체신호연동 가상현실 교육 시스템은 각각의 무선통신부를 통해 네트워크를 형성하고, 상기 복수의 사용자의 집중도를 공유하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.The method according to claim 1,
And a wireless communication unit for externally communicating the concentration of the user,
The bio-signal interlocking virtual reality education system is a plurality of,
Wherein the plurality of bio-signal interworking virtual reality education systems form a network through respective wireless communication units and share the concentration of the plurality of users.
상기 제어부는,
상기 복수의 사용자의 집중도의 순위를 평가하고,
상기 각각의 무선통신부가 상기 평가한 집중도의 순위를 실시간으로 공유하도록 제어하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.8. The method of claim 7,
Wherein,
Evaluating a ranking of the concentration of the plurality of users,
Wherein each of the wireless communication units controls the ranking of the degree of concentration to be shared in real time.
상기 제어부는,
상기 복수의 메모리 각각에 누적하여 저장된 복수의 사용자의 집중도 정보를 이용하여, 복수의 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.8. The method of claim 7,
Wherein,
Wherein at least one first time interval in which the concentration of a plurality of users is equal to or greater than a predetermined value is extracted using the concentration information of a plurality of users cumulatively stored in each of the plurality of memories, .
상기 헤드마운트 디스플레이는 상기 사용자의 안구 전면에 배치되고,
상기 헤드마운트 디스플레이의 위치를 기준으로 수평으로 상기 사용자의 헤드를 고정하는 제 1 인터페이스부; 및
상기 헤드마운트 디스플레이의 위치를 기준으로 수직으로 상기 사용자의 헤드를 고정하는 제 2 인터페이스부;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.The method according to claim 1,
Wherein the head mount display is disposed at an eyeball front of the user,
A first interface unit for horizontally fixing the head of the user based on a position of the head mount display; And
And a second interface for fixing the user's head vertically with respect to the position of the head mount display.
상기 헤드마운트 디스플레이는 고글 형태 또는 헬멧 형태인 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.3. The method of claim 2,
Wherein the head mount display is a goggle type or a helmet type.
상기 적어도 하나의 뇌파는,
알파파(α), 베타파(β), 세타파(θ), 감마파(γ), 델타파(δ), SMR파 및 Mid- β파를 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 시스템.The method according to claim 1,
Wherein the at least one EEG comprises:
A virtual-reality virtual reality education system comprising an alpha wave, a beta wave, a theta wave, a gamma wave, a delta wave, an SMR wave and a Mid- .
뇌파 센서가 상기 사용자의 적어도 하나의 뇌파를 센싱하는 제 2 단계;
제어부가 상기 센싱한 적어도 하나의 뇌파를 이용하여 상기 제 1 컨텐츠에 대한 상기 사용자의 집중도를 평가하는 제 3 단계;
메모리가 상기 사용자의 집중도를 누적하여 저장하는 제 4 단계; 및
상기 사용자의 집중도가 상기 헤드마운트 디스플레이를 통해 실시간으로 표시되는 제 5 단계;를 포함하는 생체신호연동 가상현실 교육 방법.A head mount display comprising an optical module for transmitting image light emitted from at least one display to a user's eye, the first mount displaying a first content related to a user's education;
A second step in which an EEG sensor senses at least one EEG of the user;
A third step of the controller evaluating the user's concentration on the first content using at least one sensed EEG;
A memory accumulating the concentration of the user; And
And a fifth step of displaying the concentration of the user in real time through the head mount display.
상기 제 5 단계 이후,
상기 실시간으로 평가한 사용자의 집중도가 미리 설정된 수치 이하인 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 제 6 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.14. The method of claim 13,
After the fifth step,
And stopping the first content display on the head mount display if the concentration of the user evaluated in real time is less than a preset value.
상기 제 1 단계 이전에는, 상기 메모리는 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하는 제 0.5 단계;를 더 포함하고,
상기 제 6 단계에서 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되는 제 7 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.15. The method of claim 14,
Before the first step, the memory further stores at least one second content previously designated by the user,
And displaying the second contents stored in the memory instead on the head mount display when the first content display is interrupted in the sixth step Way.
상기 제 5 단계 이후,
상기 메모리에 누적하여 저장된 사용자의 집중도 정보를 이용하여, 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 제 6 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.14. The method of claim 13,
After the fifth step,
And a sixth step of extracting at least one first time interval in which the concentration of the user is equal to or greater than a predetermined value by using the concentration information of the user cumulatively stored in the memory, Way.
상기 제 6 단계 이후,
상기 제 1 컨텐츠가 표시되는 시간이 상기 제 1 시간 구간 이내가 아닌 경우, 상기 헤드마운트 디스플레이 상의 상기 제 1 컨텐츠 표시를 중단하는 제 7 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.17. The method of claim 16,
After the sixth step,
And stopping the display of the first content on the head-mounted display if the time for displaying the first content is not within the first time period. Way.
상기 제 1 단계 이전에,
상기 메모리가 상기 사용자가 미리 지정한 적어도 하나의 제 2 컨텐츠를 저장하는 제 0.5 단계;를 더 포함하고,
상기 제 7 단계에서 상기 제 1 컨텐츠 표시가 중단되는 경우, 상기 메모리에 저장된 제 2 컨텐츠가 대신 상기 헤드마운트 디스플레이 상에 표시되는 제 8 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.18. The method of claim 17,
Prior to the first step,
Wherein the memory stores at least one second content previously designated by the user,
And displaying the second contents stored in the memory instead on the head mount display when the first contents display is interrupted in the seventh step. Way.
상기 제 5 단계 이후,
무선통신부를 이용하여 상기 사용자의 집중도를 외부로 통신하는 제 6 단계;를 더 포함하고,
상기 생체신호연동 가상현실 교육 시스템은 복수이며,
상기 복수의 생체신호연동 가상현실 교육 시스템이 각각의 무선통신부를 통해 네트워크를 형성하고, 상기 복수의 사용자의 집중도를 공유하는 제 7 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.14. The method of claim 13,
After the fifth step,
And a sixth step of communicating the concentration of the user to the outside using a wireless communication unit,
The bio-signal interlocking virtual reality education system is a plurality of,
Further comprising a seventh step of the plurality of bio-signal interworking virtual reality education systems forming a network through respective wireless communication units and sharing the concentration of the plurality of users. .
상기 제 7 단계 이후에는,
상기 복수의 사용자의 집중도의 순위를 평가하는 제 8 단계; 및
상기 각각의 무선통신부가 상기 평가한 집중도의 순위를 실시간으로 공유하는 제 9 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.20. The method of claim 19,
After the seventh step,
An eighth step of evaluating a ranking of the concentration of the plurality of users; And
And each of the wireless communication units shares the ranking of the degree of concentration evaluated in real time by the wireless communication unit.
상기 제 7 단계 이후에는,
상기 복수의 메모리 각각에 누적하여 저장된 복수의 사용자의 집중도 정보를 이용하여, 복수의 사용자의 집중도가 미리 설정된 수치 이상인 적어도 하나의 제 1 시간 구간을 추출하는 제 8 단계;를 더 포함하는 것을 특징으로 하는 생체신호연동 가상현실 교육 방법.20. The method of claim 19,
After the seventh step,
And extracting at least one first time period in which the concentration of the plurality of users is equal to or greater than a predetermined value by using the concentration information of the plurality of users cumulatively stored in each of the plurality of memories, Vital Signal Interlocking Virtual Reality Education Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170084221A KR101988110B1 (en) | 2017-07-03 | 2017-07-03 | Virtual Reality Education System and Method based on Bio Sensors |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170084221A KR101988110B1 (en) | 2017-07-03 | 2017-07-03 | Virtual Reality Education System and Method based on Bio Sensors |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190004088A true KR20190004088A (en) | 2019-01-11 |
KR101988110B1 KR101988110B1 (en) | 2019-09-30 |
Family
ID=65028242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170084221A KR101988110B1 (en) | 2017-07-03 | 2017-07-03 | Virtual Reality Education System and Method based on Bio Sensors |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101988110B1 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102051543B1 (en) | 2019-10-07 | 2019-12-05 | 주식회사 포더비전 | System and method for vr training |
KR102051558B1 (en) | 2019-10-07 | 2019-12-05 | 주식회사 포더비전 | System and method for vr training |
KR102051568B1 (en) | 2019-10-07 | 2019-12-05 | 주식회사 포더비전 | System and method for vr training |
KR20200113050A (en) * | 2019-03-20 | 2020-10-06 | 주식회사 토즈 | The concentration Enhancement System Using Virtual Reality and the method thereof |
KR102165590B1 (en) * | 2019-11-15 | 2020-10-14 | 가천대학교 산학협력단 | Social Virtual Reality System for the Treatment of Mild Cognitive Impairment and Social Virtual Reality Providing Method |
KR102165592B1 (en) * | 2019-11-15 | 2020-10-14 | 가천대학교 산학협력단 | Virtual Reality Contents System for the Treatment of Attention Deficit Hyperactivity Disorder and Virtual Reality Contents Providing Method |
KR102192131B1 (en) * | 2020-07-20 | 2020-12-16 | (주)엠라인스튜디오 | Virtual experience safety training system |
KR20210063857A (en) * | 2019-11-25 | 2021-06-02 | 광운대학교 산학협력단 | Method and appratus for vr training |
WO2021261845A1 (en) * | 2020-06-23 | 2021-12-30 | 고려대학교 산학협력단 | Device for testing earth gravity sensing function on basis of virtual/augmented reality interface and biosignal measurement device |
KR102364964B1 (en) * | 2021-06-17 | 2022-02-18 | (주)생존수영교육연구소 | Training System and Method for Use of Sports Center using Virtual Reality |
US11417228B2 (en) | 2019-09-18 | 2022-08-16 | International Business Machines Corporation | Modification of extended reality environments based on learning characteristics |
KR102511588B1 (en) * | 2022-02-22 | 2023-03-20 | 크로노그래프 주식회사 | Apparatus for calculating untact learning concentraition |
WO2024053845A1 (en) * | 2022-09-08 | 2024-03-14 | 삼성전자주식회사 | Electronic device and method for providing content sharing based on object |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102206014B1 (en) * | 2020-07-20 | 2021-01-21 | (주)엠라인스튜디오 | Virtual experience safety training system |
KR102595614B1 (en) * | 2021-10-21 | 2023-11-01 | 한국생산기술연구원 | Apparatus for changing user concentration using collective emotional signal and the method thereof |
KR20230084643A (en) | 2021-12-06 | 2023-06-13 | 주식회사 투엠비게임 | System and method for providing group-type content for virtual reality |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101002751B1 (en) * | 2010-09-10 | 2010-12-21 | 주식회사 다이나믹플러스 | Device for education diagnosis using brain waves, education management system using the device and operating method thereof |
KR20120113573A (en) * | 2011-04-05 | 2012-10-15 | 주식회사 유비온 | Method of providing customized learning contents based on brainwave information |
KR20130137692A (en) | 2011-03-29 | 2013-12-17 | 퀄컴 인코포레이티드 | Anchoring virtual images to real world surfaces in augmented reality systems |
JP2013258555A (en) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | Head-mounted display, biological information management apparatus, and biological information display method |
KR20140001167A (en) | 2012-06-26 | 2014-01-06 | 한국과학기술원 | Method and apparatus for providing augmented reality service in wearable computing environment |
KR101619468B1 (en) | 2015-01-29 | 2016-05-18 | 곽준영 | Display device for displaying 3D virtual reality media and control method thereof |
-
2017
- 2017-07-03 KR KR1020170084221A patent/KR101988110B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101002751B1 (en) * | 2010-09-10 | 2010-12-21 | 주식회사 다이나믹플러스 | Device for education diagnosis using brain waves, education management system using the device and operating method thereof |
KR20130137692A (en) | 2011-03-29 | 2013-12-17 | 퀄컴 인코포레이티드 | Anchoring virtual images to real world surfaces in augmented reality systems |
KR20120113573A (en) * | 2011-04-05 | 2012-10-15 | 주식회사 유비온 | Method of providing customized learning contents based on brainwave information |
JP2013258555A (en) * | 2012-06-12 | 2013-12-26 | Sony Computer Entertainment Inc | Head-mounted display, biological information management apparatus, and biological information display method |
KR20140001167A (en) | 2012-06-26 | 2014-01-06 | 한국과학기술원 | Method and apparatus for providing augmented reality service in wearable computing environment |
KR101619468B1 (en) | 2015-01-29 | 2016-05-18 | 곽준영 | Display device for displaying 3D virtual reality media and control method thereof |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200113050A (en) * | 2019-03-20 | 2020-10-06 | 주식회사 토즈 | The concentration Enhancement System Using Virtual Reality and the method thereof |
US11475781B2 (en) | 2019-09-18 | 2022-10-18 | International Business Machines Corporation | Modification of extended reality environments based on learning characteristics |
US11417228B2 (en) | 2019-09-18 | 2022-08-16 | International Business Machines Corporation | Modification of extended reality environments based on learning characteristics |
KR102051543B1 (en) | 2019-10-07 | 2019-12-05 | 주식회사 포더비전 | System and method for vr training |
KR102051558B1 (en) | 2019-10-07 | 2019-12-05 | 주식회사 포더비전 | System and method for vr training |
KR102051568B1 (en) | 2019-10-07 | 2019-12-05 | 주식회사 포더비전 | System and method for vr training |
KR102165590B1 (en) * | 2019-11-15 | 2020-10-14 | 가천대학교 산학협력단 | Social Virtual Reality System for the Treatment of Mild Cognitive Impairment and Social Virtual Reality Providing Method |
KR102165592B1 (en) * | 2019-11-15 | 2020-10-14 | 가천대학교 산학협력단 | Virtual Reality Contents System for the Treatment of Attention Deficit Hyperactivity Disorder and Virtual Reality Contents Providing Method |
KR20210063857A (en) * | 2019-11-25 | 2021-06-02 | 광운대학교 산학협력단 | Method and appratus for vr training |
KR20210158320A (en) * | 2020-06-23 | 2021-12-30 | 고려대학교 산학협력단 | Apparatus for testing gravity perception under structured visual stimulation based on a virtual/augmented reality interface and IMU sensors |
WO2021261845A1 (en) * | 2020-06-23 | 2021-12-30 | 고려대학교 산학협력단 | Device for testing earth gravity sensing function on basis of virtual/augmented reality interface and biosignal measurement device |
KR102192131B1 (en) * | 2020-07-20 | 2020-12-16 | (주)엠라인스튜디오 | Virtual experience safety training system |
KR102364964B1 (en) * | 2021-06-17 | 2022-02-18 | (주)생존수영교육연구소 | Training System and Method for Use of Sports Center using Virtual Reality |
KR102511588B1 (en) * | 2022-02-22 | 2023-03-20 | 크로노그래프 주식회사 | Apparatus for calculating untact learning concentraition |
WO2024053845A1 (en) * | 2022-09-08 | 2024-03-14 | 삼성전자주식회사 | Electronic device and method for providing content sharing based on object |
Also Published As
Publication number | Publication date |
---|---|
KR101988110B1 (en) | 2019-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101988110B1 (en) | Virtual Reality Education System and Method based on Bio Sensors | |
KR20180045278A (en) | Virtual Reality Recognition Rehabilitation System based on Bio Sensors | |
US10915180B2 (en) | Systems and methods for monitoring a user's eye | |
CN106471419B (en) | Management information is shown | |
US9122321B2 (en) | Collaboration environment using see through displays | |
Adhanom et al. | Eye tracking in virtual reality: a broad review of applications and challenges | |
KR102571818B1 (en) | Head mounted type electronic device | |
EP3981320A1 (en) | Enhanced optical and perceptual digital eyewear | |
KR20160128119A (en) | Mobile terminal and controlling metohd thereof | |
KR20170042877A (en) | Head Mounted Electronic Device | |
KR101203921B1 (en) | Information providing apparatus using an eye tracking and local based service | |
KR20150110299A (en) | Wearable device and operating method thereof | |
WO2014144918A2 (en) | Enhanced optical and perceptual digital eyewear | |
US9805612B2 (en) | Interest-attention feedback method for separating cognitive awareness into different left and right sensor displays | |
CN112506336A (en) | Head mounted display with haptic output | |
CN117043714A (en) | Split construction for wristband system and related apparatus and method | |
KR20180042055A (en) | Head mounted display device | |
JP2017151576A (en) | Training device, training method, and program | |
WO2022091832A1 (en) | Information processing device, information processing system, information processing method, and information processing terminal | |
EP4161387B1 (en) | Sound-based attentive state assessment | |
US20240104861A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
US20240104859A1 (en) | User interfaces for managing live communication sessions | |
EP4131276A1 (en) | Patient care methods and systems through artificial intelligence-based monitoring | |
US20240115831A1 (en) | Enhanced meditation experience based on bio-feedback | |
US20240103677A1 (en) | User interfaces for managing sharing of content in three-dimensional environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |