KR101881092B1 - Eye-ear attention system and method for study - Google Patents
Eye-ear attention system and method for study Download PDFInfo
- Publication number
- KR101881092B1 KR101881092B1 KR1020170157826A KR20170157826A KR101881092B1 KR 101881092 B1 KR101881092 B1 KR 101881092B1 KR 1020170157826 A KR1020170157826 A KR 1020170157826A KR 20170157826 A KR20170157826 A KR 20170157826A KR 101881092 B1 KR101881092 B1 KR 101881092B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- training
- eye tracking
- audio
- sound
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
- G01S15/08—Systems for measuring distance only
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Educational Administration (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computer Networks & Wireless Communication (AREA)
- Educational Technology (AREA)
- Business, Economics & Management (AREA)
- Rehabilitation Tools (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 시청각 연동형 인지 훈련 시스템 및 방법에 관한 것이다.The present invention relates to an audiovisual and interlocking cognitive training system and method.
집중력(혹은 주의력)은 한 가지 일에 의식을 집중하는 능력을 말하는 것으로서, 사회생활에 있어서 상대방과 대화를 하거나 수업, 업무 등을 수행하는데 있어서 기본적으로 요구되는 능력이다. Concentration (or attention) refers to the ability to concentrate consciousness on a single occasion, and is basically a required skill in conversation with the other person in social life, and in performing lessons and tasks.
또한, 주의집중은 뇌졸중, 치매, 뇌손상 후에 발생되는 문제점들 증에서 매우 비중 있는 문제이기도 하다. 이러한 집중력이 결핍되면, 학습 장애를 일으킬 뿐만 아니라 대인 관계에서도 심각한 문제를 초래할 수 있다. Attention is also a significant problem in the problems that arise after stroke, dementia, and brain damage. This lack of concentration can lead to serious problems in interpersonal relationships as well as learning disabilities.
최근 이러한 주의력 저하를 보이는 사람들이 증가하고 있는데, 사망률 2위인 뇌졸중, 10년동안 3배의 인구수가 증가한 치매, 교통사고 증가로 인한 외상성 뇌손상 등 성인이 되어 질환과 뇌손상으로 인한 주의력 저하 인구수가 증가하고 있다. 또한, 주의력 결핍 과잉행동장애 아동 및 청소년의 증가와 같은 선천적 감각처리와 정보처리의 문제를 가진 학령기 인구 수도 증가하고 있다. 마지막으로 스마트폰 사용률 폭발로 멀티태스킹으로 인한 후천적 주의력 저하가 증가하고 있기도 하다. In recent years, the number of people who are suffering from such attention deterioration is increasing. The number of people suffering from the disease and brain damage due to stroke, which is the second mortality rate, dementia with three times the population increase over 10 years, traumatic brain injury caused by traffic accidents, . In addition, the number of school-age populations with inborn sensory processing and information processing problems, such as an increase in children and adolescents with attention deficit hyperactivity disorder, is increasing. Finally, due to the explosion of smartphone usage rates, there has also been an increase in the deterioration of attention due to multitasking.
이러한 사회적, 인구통계학적 문제를 해결하기 위해 주의력 저하에 저항하는 전문적인 훈련 도구가 필요한 실정이다. 한국공개특허 제10-2015-0122877호에는 뇌파를 이용하는 집중력 향상 기술이 개시되어 있기도 하다. In order to solve these social and demographic problems, there is a need for professional training tools to resist the deterioration of attention. Korean Patent Laid-Open No. 10-2015-0122877 discloses a technique for improving concentration using brain waves.
컴퓨터 기반 인지훈련 프로그램은 인지장애로 인해 특별히 감소한 인지영역을 일관성 있게 지속 반복 훈련함으로써 인지기능을 높이고 향상시키는 소프트웨어 치료 도구이다. 하지만, 이러한 컴퓨터 소프트웨어를 이용한 인지재활 프로그램 사용이 저조하다. 이는 문헌적 근거를 바탕으로 제작된 과학적이고 기술적인 인지집중력 훈련 전용 프로그램이 부족하기 때문이다. A computer-based cognitive training program is a software therapy tool that enhances and enhances cognitive function by consistently and repeatedly training in a specifically reduced cognitive domain due to cognitive impairment. However, the use of cognitive rehabilitation programs using such computer software is poor. This is due to the lack of scientific and technical programs dedicated to cognitive concentration training that are based on literary grounds.
대개 임상에서 사용하는 것이 치료용으로 쉽게 구할 수 있는 특수교육용 소프트웨어와 학습 소프트웨어 또는 게임기를 뇌손상 환자들에게 적용해 볼 만한 몇몇 프로그램을 선택하여 환자에게 맞춤식으로 사용하였다. 결국, 집중력 부족 인원을 위하여 개발된 전문화되고 기술수준이 높은 컴퓨터 기반 인지훈련 프로그램과 콘텐츠가 매우 부족한 것이 현실이다. In general, some of the programs that are suitable for clinical use include special education software, learning software, or game machines that are easily available for treatment. In the end, it is a reality that there is a very lack of specialized and highly skilled computer - based cognitive training programs and contents developed for people with low concentration.
본 발명은 시각과 청각의 능동적 활용을 통해 집중력 저하를 예방하고 학습 혹은 업무의 집중력을 증진시키기 위한 IT 융복합 훈련이 가능한 시청각 연동형 인지 훈련 시스템 및 방법을 제공하기 위한 것이다. The present invention is to provide an audiovisual and interactive cognitive training system and method capable of IT fusion training to prevent concentration loss through active use of visual and auditory and to enhance the concentration of learning or work.
본 발명은 디스플레이에 아이트랙킹 장치 및 오디토리 장치를 설치하고 집중력 훈련 콘텐츠를 활용할 수 있게 함으로써 간단하게 집중력 훈련이 가능하여 장소에 구애받지 않는 시청각 연동형 인지 훈련 시스템 및 방법을 제공하기 위한 것이다. An object of the present invention is to provide an audiovisual interlocking type cognitive training system and method capable of easily performing concentration training by installing an eye tracking device and an auditory device on a display and utilizing concentration training content.
본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through the following preferred embodiments.
본 발명의 일 측면에 따르면, 시청각 연동형 인지 훈련 시스템으로서, 시각 콘텐츠를 표시하는 디스플레이에 부착되며, 사용자의 시선을 추적하여 아이트래킹 정보를 생성하는 아이트래킹 모듈; 상기 디스플레이의 상하좌우 중 2곳 이상에 부착되며, 청각 콘텐츠를 출력하는 복수의 오디토리 모듈; 상기 시각 콘텐츠와 상기 청각 콘텐츠가 연동 저장되는 콘텐츠 데이터베이스; 및 상기 시각 콘텐츠와 상기 청각 콘텐츠의 출력을 제어하고, 상기 시각 콘텐츠 및 상기 청각 콘텐츠 중 하나 이상의 출력에 따른 사용자 반응으로 상기 아이트래킹 정보를 활용하여 인지 훈련을 수행하고 훈련 결과를 평가하는 훈련부를 포함하는 시청각 연동형 인지 훈련 시스템이 제공된다. According to an aspect of the present invention, there is provided an audiovisual interlocked cognitive training system, comprising: an eye tracking module attached to a display for displaying visual content, the eye tracking module for tracking the user's eyes and generating eye tracking information; A plurality of audio modules attached to two or more of upper, lower, right, and left sides of the display and outputting auditory contents; A contents database in which the visual contents and the auditory contents are interlocked and stored; And a training unit for controlling the output of the visual content and the auditory content, performing cognitive training using the eye tracking information in response to one or more of the visual content and the output of the auditory content, and evaluating the training result An audiovisual and interlocking cognitive training system is provided.
상기 사용자의 위치를 검출하고, 인지 훈련을 위한 정위치로 상기 사용자의 이동을 안내하는 캘리브레이션부를 더 포함할 수 있다.And a calibration unit for detecting the position of the user and guiding the movement of the user to a correct position for cognitive training.
또는 상기 사용자의 위치를 검출하고, 상기 위치에 상응하여 상기 복수의 오디토리 모듈에서 출력되는 각각의 사운드 크기를 개별 조절함으로써 상기 위치가 청각적 중심이 되도록 조정하는 캘리브레이션부를 더 포함할 수 있다.Or a calibration unit for detecting the position of the user and adjusting the position to be auditory center by individually adjusting the respective sound magnitudes output from the plurality of audio modules corresponding to the position.
상기 복수의 오디토리 모듈 각각은 초음파를 통해 상기 사용자까지의 거리를 측정하는 초음파 센서를 포함하며, 상기 캘리브레이션부는 상기 초음파 센서에서 측정된 거리를 반경으로 하고 상기 복수의 오디토리 모듈 각각을 중심점으로 하는 복수 개의 가상의 원이 만나는 교점을 상기 사용자의 위치로 검출할 수 있다.Wherein each of the plurality of audio modules includes an ultrasonic sensor for measuring a distance to the user through ultrasonic waves, wherein the calibration unit sets the distance measured by the ultrasonic sensor as a radius and the center of each of the plurality of audio modules An intersection where a plurality of virtual circles meet can be detected as the position of the user.
또는 상기 복수의 오디토리 모듈 각각은 복수의 구역으로 서로 다른 소리 신호를 구분 출력하는 스피커를 포함하며, 상기 캘리브레이션부는 상기 오디토리 모듈마다 상기 사용자가 가장 크게 들은 소리 신호가 출력된 구역을 서로 중첩함으로써 중첩 구역을 상기 사용자의 위치로 검출할 수 있다.Or each of the plurality of audio modules includes a speaker for outputting different sound signals in a plurality of zones, and the calibration unit superimposes the zones in which the sound signals heard by the user are most widely output for each of the audio module The overlapping area can be detected as the position of the user.
상기 훈련부는 상기 복수의 오디토리 모듈 각각에서 서로 다른 사운드가 출력되도록 설정하며, 상기 서로 다른 사운드 중 문제로 정해진 어느 하나에 상응하는 위치 정보와 상기 아이트래킹 모듈에서 생성한 상기 아이트래킹 정보에서 도출한 사용자 시선 정보의 일치성을 기초로 하여 인지 훈련 및 평가를 수행할 수 있다.Wherein the training unit sets different sounds to be output from each of the plurality of audio modules, and outputs the position information corresponding to one of the different sounds, which is determined as a problem, Cognitive training and evaluation can be performed based on the correspondence of the user's sight line information.
상기 서로 다른 사운드는 데시벨이 상이하도록 설정될 수 있다.The different sounds may be set to differ in decibel.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 실시예에 따르면, 시각과 청각의 능동적 활용을 통해 집중력 저하를 예방하고 학습 혹은 업무의 집중력을 증진시키기 위한 IT 융복합 훈련이 가능한 효과가 있다.According to the embodiment of the present invention, it is possible to prevent the deterioration of concentration through active use of sight and hearing, and to perform IT fusion training to enhance the concentration of learning or work.
또한, 디스플레이에 아이트랙킹 장치 및 오디토리 장치를 설치하고 집중력 훈련 콘텐츠를 활용할 수 있게 함으로써 간단하게 집중력 훈련이 가능하여 장소에 구애받지 않는 효과가 있다. In addition, since an eye tracking device and an auditory device can be installed on the display and the concentration training content can be utilized, the concentration training can be easily performed, and there is no effect on the place.
도 1은 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템의 개략적인 구성도,
도 2는 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 방법의 순서도,
도 3은 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템을 디스플레이에 설치한 모습을 나타낸 도면,
도 4는 제1 실시예에 따른 사용자 위치 캘리브레이션을 설명하기 위한 도면,
도 5는 제2 실시예에 따른 사용자 위치 캘리브레이션을 설명하기 위한 도면,
도 6은 본 발명의 다른 실시예에 따른 시청각 연동형 인지 훈련 방법의 순서도,
도 7 및 도 8은 시청각 연동형 인지 훈련을 위한 콘텐츠 재생에 관한 예시도,
도 9는 본 발명의 또 다른 실시예에 따른 시청각 연동형 인지 훈련 콘텐츠를 나타낸 도면,
도 10은 본 발명의 다른 실시예에 따른 시청각 연동형 인지 훈련 시스템에서 실행되는 평가툴과 연동되는 자동 훈련 프로그램의 구성도. 1 is a schematic configuration diagram of an audiovisual and interlocked cognitive training system according to an embodiment of the present invention;
2 is a flowchart of an audiovisual and interlocking cognitive training method according to an embodiment of the present invention;
FIG. 3 is a view illustrating an audiovisual and interlocking type cognitive training system according to an exemplary embodiment of the present invention,
4 is a view for explaining the calibration of the user position according to the first embodiment,
5 is a view for explaining the calibration of the user position according to the second embodiment,
FIG. 6 is a flowchart of an audiovisual-linked cognitive training method according to another embodiment of the present invention;
FIGS. 7 and 8 illustrate an example of contents reproduction for audiovisual and interlocking type cognitive training;
FIG. 9 is a view illustrating an audiovisual-linked cognitive training content according to another embodiment of the present invention;
10 is a configuration diagram of an automatic training program interlocked with an evaluation tool executed in an audiovisual and ancillary cognitive training system according to another embodiment of the present invention;
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.It is to be understood that the components of the embodiments described with reference to the drawings are not limited to the embodiments and may be embodied in other embodiments without departing from the spirit of the invention. It is to be understood that although the description is omitted, multiple embodiments may be implemented again in one integrated embodiment.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
도 1은 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템의 개략적인 구성도이고, 도 2는 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 방법의 순서도이며, 도 3은 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템을 디스플레이에 설치한 모습을 나타낸 도면이고, 도 4는 제1 실시예에 따른 사용자 위치 캘리브레이션을 설명하기 위한 도면이며, 도 5는 제2 실시예에 따른 사용자 위치 캘리브레이션을 설명하기 위한 도면이다. 2 is a flowchart of an audiovisual and interlocking cognitive training method according to an embodiment of the present invention. FIG. 3 is a flowchart illustrating a cognitive- FIG. 4 is a view for explaining the calibration of the user position according to the first embodiment, and FIG. 5 is a view for explaining the calibration of the user position according to the second embodiment And FIG.
도 1 내지 도 5에는 디스플레이(10), 시청각 연동형 인지 훈련 시스템(100), 아이트래킹 모듈(110), 카메라부(112), 오디토리 모듈(120), 120a~120c, 이하 '120'으로 통칭하기도 함), 스피커(122a~122d, 이하 '122'으로 통칭하기도 함), 초음파 센서(124a~124d, 이하 '124'로 통칭하기도 함), 캘리브레이션부(130), 훈련부(140), 콘텐츠 데이터베이스(150)가 도시되어 있다. 1 to 5 show a
본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템(100)은 사용자(혹은 훈련자)의 시각과 청각을 모두 활용하게 함으로써 집중력 저하를 예방하고 학습 혹은 업무의 집중력을 증진시키도록 하는 것을 특징으로 한다. The audiovisual and interlocking
본 실시예에 따른 시청각 연동형 인지 훈련 시스템(100)은 아이트래킹 모듈(110), 오디토리 모듈(120), 훈련부(140), 콘텐츠 데이터베이스(150)를 포함한다. 필요에 따라 캘리브레이션부(130)를 더 포함할 수 있다. The audiovisual interlocking
시청각 연동형 인지 훈련 시스템(100)에서 아이트래킹 모듈(110)과 오디토리 모듈(120)은 공지의 디스플레이(10)에 부착 가능한 구조를 갖는다. 여기서, 디스플레이(10)는 컴퓨터 모니터, 태블릿 PC 등 시각 콘텐츠의 표시가 가능한 표시장치를 의미한다. The
아이트래킹 모듈(110)은 사용자의 시선을 추적하는 모듈로서, 카메라부(112)와 아이트래킹부(미도시)를 포함한다. The
카메라부(112)는 디스플레이(10)의 전방에 위치하는 사용자의 얼굴 영상을 촬영한다. 카메라부(112)에서 촬영된 사용자의 얼굴 영상은 아이트래킹부로 전송된다. The
아이트래킹부에서는 사용자의 얼굴 영상에서 안구를 인식하고, 아이트래킹을 통해 사용자가 보고 있는 위치를 추적하여 아이트래킹 정보를 생성할 수 있다. 아이트래킹 기술은 본 발명이 속하는 기술분야에서 통상의 기술자에게 자명한 사항인 바 상세한 설명은 생략하기로 한다. The eye tracking unit recognizes the eyeball in the face image of the user and generates eye tracking information by tracking the position the user is viewing through eye tracking. The eye tracking technique is a matter which is obvious to a person skilled in the art to which the present invention belongs, and a detailed description thereof will be omitted.
오디토리 모듈(120)은 청각 콘텐츠를 출력하는 모듈로서, 오디오 재생부(미도시) 및 스피커(122)를 포함한다. The
오디오 재생부는 집중력 훈련에 활용되는 청각 콘텐츠를 재생한다. 스피커(122)는 오디오 재생부에서 재생된 청각 콘텐츠에 상응하는 소리 신호(사운드)를 외부로 출력한다. The audio reproduction unit reproduces the auditory contents used for the concentration training. The speaker 122 externally outputs a sound signal (sound) corresponding to the auditory contents reproduced by the audio reproducing section.
오디토리 모듈(120)은 디스플레이(10)의 상하좌우 중 2곳 이상에 설치될 수 있다. 디스플레이(10)의 하부에 설치되는 오디토리 모듈의 경우에는 아이트래킹 모듈(110)에 통합되어 설치될 수도 있다. 즉, 아이트래킹 모듈(110)에는 1개의 오디토리 모듈(즉, 오디오 재생부 및 스피커(122))이 탑재될 수도 있다. 캘리브레이션부(130)는 시청각 연동형 인지 훈련을 수행하기에 앞서 아이트래킹 모듈(110)과 복수의 오디토리 모듈(120)이 설치된 디스플레이(10) 앞에 사용자가 위치한 경우 보다 정확한 훈련이 이루어질 수 있도록 사용자의 위치를 파악하여 사용자가 적절한 위치에 있지 않은 경우 적절한 위치(정위치)로 이동하도록 안내할 수 있다. The
사용자에 대한 안내는 디스플레이(10)를 통해 시각적 메시지로 표시되거나 오디토리 모듈(120)의 스피커(122)를 통해 청각적 메시지로 출력될 수 있다. 예컨대, 시각적 메시지 및/또는 청각적 메시지는 디스플레이에 가까운 방향, 디스플레이로부터 멀어지는 방향, 디스플레이에 평행하게 좌측 혹은 우측 방향으로 이동하라는 내용을 포함할 수 있다. The guidance for the user may be displayed as a visual message via the
또는 캘리브레이션부(130)는 파악된 사용자의 위치에 기초하여 각 오디토리 모듈(120)의 스피커(122)에서 출력되는 소리 신호의 크기를 조절함으로써 시청각 연동형 인지 훈련이 보다 정확히 이루어지도록 할 수도 있다. Or the
사용자 위치 파악을 위한 제1 실시예에 따르면, 오디토리 모듈(120)은 초음파 센서(124)를 더 포함할 수 있다. 초음파 센서(124)는 전방에 위치하는 사용자를 탐색하고 사용자까지의 거리를 측정한다. According to the first embodiment for identifying the user's position, the
본 실시예에서 오디토리 모듈(120)은 디스플레이(10)의 상하좌우 중 2곳 이상에 부착될 수 있다. 따라서, 상호 이격된 복수의 초음파 센서(124)에서 측정한 거리를 반경으로 하는 가상의 원을 그리고, 가상의 원이 만나는 지점에 사용자가 위치하고 있는 것으로 판단할 수 있다. In this embodiment, the
도 4를 참조하면, 제1 초음파 센서(124a)에서 측정한 결과에 기초할 때 사용자까지의 거리가 R1이고, 제2 초음파 센서(124b)에서 측정한 결과에 기초할 때 사용자까지의 거리가 R2인 경우가 도시되어 있다. Referring to FIG. 4, when the distance to the user is R1 based on the measurement result of the first
이 경우 캘리브레이션부(130)는 제1 초음파 센서(124a)를 중심점으로 하고 R1을 반경으로 하는 가상의 제1 원과, 제2 초음파 센서(124b)를 중심점으로 하고 R2를 반경으로 하는 가상의 제2 원이 만나는 교점에 사용자(1)가 위치하고 있는 것으로 판단할 수 있다. In this case, the
사용자 위치 파악을 위한 제2 실시예에 따르면, 오디토리 모듈(120)에 구비되는 스피커(122)는 출력되는 소리 신호의 방향 조정이 가능한 지향성 스피커일 수 있다. According to the second embodiment for identifying the user's position, the speaker 122 provided in the
제1 스피커(122a)를 통해 출력되는 제1 소리 신호는 복수의 구역으로 구분되어 출력될 수 있다. 예컨대, 도 5에 도시된 것과 같이 3개의 구역(A1, A2, A3)으로 구분되어 출력되게 할 수 있다. The first sound signal output through the
이 경우 각 구역마다 출력되는 제1 소리 신호를 다르게 설정할 수 있다. 예컨대, A1 구역으로는 '아', A2 구역으로는 '어', A3 구역으로는 '오'라는 소리가 출력되게 할 수 있다. In this case, the first sound signal output for each zone can be set differently. For example, a sound may be output in the area A1, the area A2, and the area A3.
제2 스피커(122b)를 통해 출력되는 제2 소리 신호 역시 복수의 구역으로 구분되어 출력될 수 있다. 예컨대, 도 5에 도시된 것과 같이 3개의 구역(B1, B2, B3)으로 구분되어 출력되게 할 수 있다. The second sound signal output through the
이 경우 각 구역마다 출력되는 제2 소리 신호를 다르게 설정할 수 있다. 예컨대, B1 구역으로는 '가', B2 구역으로는 '나', B3 구역으로는 '다'라는 소리가 출력되게 할 수 있다. In this case, the second sound signal output for each zone can be set differently. For example, it is possible to output a sound of 'A' in the B1 zone, 'I' in the B2 zone, and 'Da' in the B3 zone.
제1 소리 신호와 제2 소리 신호는 구분된 각 구역에 대해 일정 시간 간격을 가지면서 출력될 수 있다. 즉, 제1 소리 신호는 3개의 구역(A1~A3) 중 하나의 구역으로 출력되며, 제2 소리 신호 역시 3개의 구역(B1~B3) 중 하나의 구역으로 출력된다. The first sound signal and the second sound signal may be output with a predetermined time interval for each of the separated regions. That is, the first sound signal is output to one of the three zones A1 to A3, and the second sound signal is also output to one of the three zones B1 to B3.
제1 소리 신호에 의한 구역과 제2 소리 신호에 의한 구역은 일부 중첩되는 중첩 구역(A1B3, A2B3, A3B3, A2B2, A3B2, A3B1)이 생기기도 한다. A zone based on the first sound signal and a zone based on the second sound signal may also have overlapped zones A1B3, A2B3, A3B3, A2B2, A3B2 and A3B1.
사용자는 제1 스피커(122a)를 통해 출력되는 제1 소리 신호 중에서 가장 크게 들린 소리와, 제2 스피커(122b)를 통해 출력되는 제2 소리 신호 중에서 가장 크게 들린 소리를 알려줄 수 있다. 사용자 입력은 별도의 입력 장치(키보드, 마우스 등) 혹은 터치스크린 방식의 디스플레이를 통해 이루어질 수 있다. 또는 전술한 아이트래킹 모듈(110)을 활용하여 화면에 표시된 소리 예시들에 대해서 시선을 이동시킴으로써 사용자 입력이 이루어지게 할 수도 있다. The user can be informed of the loudest sound among the first sound signal outputted through the
이 경우 예를 들어 사용자가 '오'라는 소리와 '나'라는 소리가 가장 크게 들린 것으로 인식하였음을 알려준 경우, 캘리브레이션부(130)는 '오' 소리에 대응되는 A3 구역과 '나' 소리에 대응되는 B21 구역이 중첩되는 A3B2 구역에 사용자(1)가 위치하고 있는 것으로 판정할 수 있다. In this case, for example, when the user indicates that the user has recognized that the sound 'O' and the sound 'I' are heard the greatest, the
캘리브레이션부(130)는 검출된 사용자 위치에 기초하여 사용자 이동을 안내하는 시각적 메시지를 디스플레이(10)를 통해 표시하거나 청각적 메시지를 스피커(122)를 통해 출력함으로써 사용자가 적절한 위치로 이동하게 할 수 있다. The
혹은 캘리브레이션부(130)는 검출된 사용자의 위치에 기초하여 각 오디토리 모듈(120)의 스피커(122)에서 출력되는 소리 신호의 크기를 조절함으로써 시청각 연동형 인지 훈련이 보다 정확히 이루어지도록 할 수도 있다. Or the
디스플레이(10)를 통해 출력되는 시각 콘텐츠의 경우에는 사용자가 디스플레이(10)의 전방에 위치하고 있으면서 사용자가 디스플레이(10)를 확인 가능한 위치라면 충분할 수 있다. 따라서, 시각 콘텐츠에 대한 캘리브레이션은 생략될 수 있다. In the case of the time content output through the
하지만, 청각 콘텐츠의 경우에는 오디토리 모듈(120)이 복수 개 배치되어 있으면서 서로 구분되는 소리 신호를 출력하게 되므로, 사용자 위치가 효율적 집중력 훈련을 위한 중요한 인자이다. However, in the case of auditory contents, since a plurality of
이 경우 사용자가 이동하지 않더라도 사용자 위치에 기초하여 사용자에 가까운 오디토리 모듈(120)에서는 출력되는 소리 신호를 줄이고 사용자에 먼 오디토리 모듈(120)에서는 출력되는 소리 신호를 크게 함으로써 청각적인 관점에서 사용자가 중심에 위치한 것과 같은 효과를 나타낼 수 있다. In this case, even if the user does not move, the audio signal output from the
이를 위해 캘리브레이션부(130)는 사용자 위치와 오디토리 모듈(120) 사이의 거리에 따라 스피커(122)를 통해 출력되는 소리 신호의 크기를 비례하게 설정되도록 할 수 있다.For this, the
사용자 위치 파악을 위한 제3 실시예에 따르면, 아이트래킹 모듈(110)을 이용할 수 있다. 아이트래킹 모듈(110)에 포함된 카메라부(112) 및 IR 센서(미도시)를 이용하여 사용자 위치를 파악할 수 있다. According to the third embodiment for identifying the user's position, the
아이트래킹부에서 분석한 사용자의 눈을 중심으로 하여 전체 머리의 위치를 파악한다. 그리고 아이트래킹이 최적화되는 위치와의 오차를 계산하고, 오차에 따른 사용자의 필요 이동 정보를 생성한다. The position of the entire head is grasped around the eye of the user analyzed by the i-tracking unit. And calculates the error with the position where the eye tracking is optimized, and generates the necessary movement information of the user according to the error.
그 후 디스플레이(10)를 통해서는 사용자의 현재 모습을 표시한다. 그와 함께 사용자에게 필요 이동 정보(예. 좌우 또는 전후 이동 거리)를 제시한다. 사용자는 지시에 따라 최적화된 위치로 이동함으로써, 사용자 위치 캘리브레이션이 이루어지도록 할 수 있다. Then, the
캘리브레이션부(130)에 의한 사용자 위치 캘리브레이션이 완료되면, 훈련부(140)는 콘텐츠 데이터베이스(150)에 저장된 시청각 연동 훈련 콘텐츠를 활용하여 사용자에게 집중력 훈련을 수행한다. When the calibration of the user position by the
시각 콘텐츠는 디스플레이(10)를 통해 출력되게 한다. 그리고 청각 콘텐츠는 상응하는 오디토리 모듈(120)을 통해 출력되게 한다. The visual content is output via the
시각 콘텐츠의 출력 혹은 청각 콘텐츠의 출력에 따른 사용자 시선은 아이트래킹 모듈(110)을 통해 검출할 수 있다. 따라서, 출력된 시각 콘텐츠/청각 콘텐츠의 내용에 상응하는 시선 위치(혹은 시선 이동)가 검출되는 경우에는 사용자가 집중력 훈련을 제대로 수행하고 있는 것으로 판정할 수 있다. 그 외 경우에는 사용자가 집중력 훈련을 제대로 수행하고 있지 않은 바, 훈련부(140)는 이에 대해 경고하거나 콘텐츠의 변화를 통해 사용자의 관심을 유도할 수도 있다. The user's line of sight according to the output of the visual content or the output of the auditory contents can be detected through the
콘텐츠 데이터베이스(150)에는 집중력 훈련에 이용되는 시각 콘텐츠 및/또는 청각 콘텐츠가 저장된다. 그리고 사용자 위치 캘리브레이션을 위한 캘리브레이션용 콘텐츠도 저장될 수 있다. The
도 6은 본 발명의 다른 실시예에 따른 시청각 연동형 인지 훈련 방법의 순서도이고, 도 7 및 도 8은 시청각 연동형 인지 훈련을 위한 콘텐츠 재생에 관한 예시도이다. FIG. 6 is a flowchart of an audiovisual-linked cognitive training method according to another embodiment of the present invention, and FIGS. 7 and 8 illustrate contents reproduction for audiovisual-linked cognitive training.
본 실시예에 따른 시청각 연동형 인지 훈련 평가 방법은 시청각 연동형 인지 훈련 시스템(100)을 통해 수행되며, 특히 청각을 활용한 리얼 3차원(3D) 사운드 훈련에 적용될 수 있다. The audiovisual-linked cognitive training evaluation method according to the present embodiment is performed through the audiovisual-linked
3차원 사운드는 청각을 통한 집중력 훈련에 매우 중요한 요소이다. 기존에는 3차원 사운드를 제작할 때 C#을 이용하여 사운드의 위치를 임의로 조정하여 제작하는 경우가 대부분이다. 3D sound is a very important factor in the training of concentration through hearing. In the past, most of the time, when making 3D sound, the position of sound is arbitrarily adjusted by using C #.
하지만, 이 경우 사운드의 위치가 불분명하고 특히 고령의 사용자는 사운드의 위치를 명확히 판별하기가 어려웠다. 예를 들면, 유사하게는 들리지만 정확히 오른쪽인지 중앙인지 판단이 어려운 것이다. However, in this case, the position of the sound is unclear and it is difficult for an elderly user to clearly determine the position of the sound. For example, it sounds similar, but it is difficult to judge whether it is right or center.
따라서, 리얼 3차원 사운드의 구현을 위해서는 본 실시예와 같이 아이트래킹 모듈(110) 및 탈부착이 가능한 오디토리 모듈(120)이 요구된다. Accordingly, in order to realize a real three-dimensional sound, the
아이트래킹 모듈(110)은 도 3에 도시된 것과 같이 디스플레이(10)의 하부에 부착된다. 아이트래킹 모듈(110) 내부에는 1개의 오디토리 모듈에 해당하는 사운드 재생부와 스피커가 탑재될 수 있다. The
디스플레이(10)의 상부와 좌우 양측부에도 오디토리 모듈(120)이 각각 부착된다. The
아이트래킹 모듈(110)과 오디토리 모듈(120)은 서로 유선 연결되며, 하나의 USB 포트를 통해 컴퓨터와 연결되어 구동될 수 있다. The
이 경우 아이트래킹 모듈(110)과 연동하는 청각을 통한 집중력 훈련 방법이 도 6 이하의 도면에 도시되어 있다. In this case, a concentration training method through auditory interlocking with the
오디토리 모듈(120)을 통해 미리 정해진 사운드가 출력되도록 한다(단계 S300). So that the predetermined sound is outputted through the auditory module 120 (step S300).
이 경우 복수의 오디토리 모듈(120) 각각에는 서로 다른 사운드가 출력되도록 할 수 있다. 예컨대, 좌측에서는 새소리가 출력되고 우측에서는 맹수소리가 출력되게 할 수 있다. In this case, different sound may be output to each of the plurality of
사운드 출력 이전에 혹은 사운드 출력 이후에 디스플레이(10)를 통한 시각적 메시지를 통해 혹은 오디토리 모듈(120)을 통한 청각적 메시지를 통해, 미리 지정된 특정 동물(예컨대, 맹수)에 관한 소리가 출력되어 숨어있는 것으로 여겨지는 부분을 사용자가 응시하도록 지시 혹은 안내할 수 있다. A sound relating to a predetermined specific animal (for example, a beast) is output through a visual message through the
사용자가 미리 정해진 소리가 출력된 쪽을 응시하는 경우, 아이트래킹 모듈(110)을 통해 사용자 시선을 추적하여 사용자 시선이 머물고 있는 곳을 검출한다(단계 S310). When the user looks at a predetermined sound output side, the
사용자 시선이 미리 정해진 시간 이상 머무른 지점이 검출되면, 해당 지점에 숨어있는 동물을 표시하거나 혹은 목표 동물이 숨어있던 곳을 표시함으로써 사용자에게 정답 여부를 확인할 수 있게 한다(단계 S320). 목표 동물이 숨어있던 곳을 맞춘 경우에는 소정의 점수를 획득하도록 하고, 이러한 과정을 반복함으로써 사용자의 흥미를 유발함과 동시에 집중력 훈련 성과도 계량화할 수 있게 된다. When a point where the user's eyesight stays for a predetermined time or longer is detected, the user can display the hidden animal at the corresponding point or display the place where the target animal is hidden (Step S320). When the place where the target animal is hiding is matched, a predetermined score is obtained. By repeating this process, it is possible to quantify the concentration training performance while inducing the user's interest.
즉, 서로 다른 사운드 중 어느 하나에 상응하는 위치 정보와 아이트래킹 모듈(110)에서 생성한 아이트래킹 정보에서 도출한 사용자 시선 정보의 일치성을 기초로 하여 인지 훈련 및 평가를 수행할 수 있게 된다. That is, cognitive training and evaluation can be performed on the basis of the correspondence between the position information corresponding to any one of the different sounds and the user's gaze information derived from the eye tracking information generated by the
또 다른 실시예에서는 C# 등을 이용한 코딩을 통해 임의의 제1 스피커(122)에서 사운드 출력을 시작하여 다른 제2 스피커(122)로 사운드 출력을 이동시키는 과제를 주고, 사용자 시선이 사운드의 이동을 따라 이동하게 하는 훈련도 가능하다. 이 경우 사용자 시선이 제대로 이동하였는지는 아이트래킹 모듈(110)을 통해 확인할 수 있어, 집중력 훈련이 제대로 이루어지고 있는지 여부에 대한 확인도 가능하다. In another embodiment, the first speaker 122 may start sound output through coding using C # or the like to move the sound output to another second speaker 122, It is also possible to train to move along. In this case, whether the user's gaze has been properly moved can be confirmed through the
또는 복수의 오디토리 모듈(120)을 연동 제어하여 사운드 소스(sound source)를 좌표 이동시키면서 그에 따른 3차원 사운드가 출력되도록 할 수도 있다. 이 경우 사운드 이동 효과를 따라 사용자의 시선이 함께 이동되도록 함으로써 집중력 훈련을 수행할 수 있다. 또한 사용자 시선이 사운드 이동 효과를 추종하여 이동하는지를 아이트래킹 모듈(110)을 통해 확인하고, 그 결과에 따라 집중력 훈련에 대한 평가를 수행할 수도 있다. Or a plurality of
앞서 단계 S300에서, 복수의 오디토리 모듈(120)를 통해 사운드 출력 시 출력되는 사운드의 크기(데시벨)가 위치에 따라 상이하도록 설정할 수도 있다. In step S300, it is also possible to set the size (decibel) of the sound output at the time of sound output through the plurality of
이 경우 보다 큰 사운드가 출력된 쪽을 사용자가 응시하게 하여 사용자의 청각 집중력을 평가할 수도 있을 것이다. 사용자의 응시 위치는 아이트래킹 모듈(110)을 통해 확인할 수 있다. In this case, the user may try to evaluate the hearing concentration of the user by letting the user take a larger sound output. The user's gazing position can be confirmed through the
또는 특정 위치에서 출력된 사운드가 무엇인지를 사용자가 입력 혹은 선택하게 함으로써 사용자의 청각 집중력을 평가할 수도 있을 것이다. 예컨대, 좌측 스피커에서는 '한글'이라는 단어를 10dB로 출력하고, 우측 스피커에서는 '영어'라는 단어를 30dB로 출력하였을 때, 사용자에게 좌측에서 난 소리가 무엇인지를 물어볼 수도 있다. 이 경우 사운드의 크기뿐만 아니라 방향에 대해서도 사용자가 염두에 두게 함으로써 높은 집중력을 가지도록 유도할 수 있을 것이다. Alternatively, the user may be able to evaluate the auditory attention by causing the user to input or select what sound is output at a particular location. For example, when the left speaker outputs the word 'Hangul' at 10 dB and the right speaker outputs the word 'English' at 30 dB, the user may be asked what the sound is from the left. In this case, not only the size of the sound but also the direction of the user can be guided to have high concentration ability by keeping it in mind.
도 9는 본 발명의 또 다른 실시예에 따른 시청각 연동형 인지 훈련 콘텐츠를 나타낸 도면이다. FIG. 9 is a view illustrating audiovisual-linked cognitive training contents according to another embodiment of the present invention.
도 9를 참조하면, 디스플레이(10)에는 시계가 표시된다. 초침이 1초마다 움직이며, 초침이 한칸씩 움직이는 소리가 오디토리 모듈(120)을 통해 출력된다. Referring to Fig. 9, the
이 경우 사용자는 시계를 주의깊게 보고 있다가, 초침이 1회에 한칸 단위가 아닌 여러 칸 단위로 움직이면 미리 지정된 반응을 함으로써, 인지 훈련을 수행할 수 있다. In this case, the user watches the clock carefully, and if the second hand moves a plurality of units instead of one at a time, the user can perform the cognitive training by performing the predetermined response.
예를 들면, 1단계 난이도에서는 초침이 1회에 4칸을 움직이면 반응하도록 하고, 3분 동안 진행하면서, 4칸 움직이는 경우를 10번이 되도록 설정할 수 있다. 2단계 난이도에서는 초침이 1회에 3칸을 움직이면 반응하도록 하고, 3분 동안 진행하면서, 3칸 움직이는 경우를 10번이 되도록 설정할 수 있다. 3단계 난이도에서는 초침이 1회에 2칸을 움직이면 반응하도록 하고, 3분 동안 진행하면서, 2칸 움직이는 경우를 10번이 되도록 설정할 수 있다. 4단계 난이도에서는 초침이 1회에 2칸을 움직이면 반응하도록 하고, 5분 동안 진행하면서, 2칸 움직이는 경우를 10번이 되도록 설정할 수 있다.For example, in the
훈련부(140)에서는 반응의 정확도, 시선이 초침의 경로에서 벗어난 횟수, 전체 시선 추적 경로 등을 미리 정해진 결과 산출 알고리즘에 적용하여 종합적으로 반영하여 집중력 훈련 결과를 산출해 낼 수 있을 것이다. The
도 10은 본 발명의 다른 실시예에 따른 시청각 연동형 인지 훈련 시스템에서 실행되는 평가툴과 연동되는 자동 훈련 프로그램의 구성도이다. 10 is a configuration diagram of an automatic training program linked to an evaluation tool executed in an audiovisual and ancillary cognitive training system according to another embodiment of the present invention.
자동 훈련 프로그램의 메인화면에서 평가 시작 버튼을 클릭하면, 평가가 시작된다. 그리고 평가 진행에 따른 평가 점수를 확인한다. 평가 점수에 따라 난이도가 자동 조정될 수 있다. When you click the start evaluation button on the main screen of the automatic training program, evaluation starts. And check the evaluation score according to the evaluation progress. The difficulty level can be adjusted automatically according to the score.
자동 조정된 난이도에 따라 인지 훈련이 자동 시작되어, 난이도에 상응하는 문제 수행이 이루어진다. Cognitive training is automatically started according to the difficulty level that is automatically adjusted, and the problem corresponding to the difficulty level is performed.
이번 단계의 인지 훈련이 종료되면 자동으로 평가창이 뜨면서 평가를 진행한다. When the cognitive training at this stage is finished, the evaluation window will open automatically and evaluation will proceed.
평가 점수를 확인하고, 평가 점수에 따라 다음 단계로 이동하거나 이번 단계를 재훈련할 수 있다. 평가 점수는 데이터베이스에 자동 저장될 수 있다. You can check your score and move on to the next step or re-train this step, depending on your score. Scores can be automatically saved in the database.
전술한 시청각 연동형 인지 훈련 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. The above-described audio-visual interlocking cognitive training method can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, it may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, or the like. In addition, the computer-readable recording medium may be distributed and executed in a computer system connected to a computer network, and may be stored and executed as a code readable in a distributed manner.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.
10: 디스플레이 100: 시청각 연동형 인지 훈련 시스템
110: 아이트래킹 모듈 112: 카메라부
120, 120a~120c: 오디토리 모듈 122a~122d: 스피커
124a~124d: 초음파 센서 130: 캘리브레이션부
140; 훈련부 150: 콘텐츠 데이터베이스 10: Display 100: Audio-visual interlocking cognitive training system
110: Eye tracking module 112:
120, 120a to 120c:
124a to 124d: Ultrasonic sensor 130: Calibration unit
140; Training Department 150: Content Database
Claims (7)
시각 콘텐츠를 표시하는 디스플레이에 부착되며, 사용자의 시선을 추적하여 아이트래킹 정보를 생성하는 아이트래킹 모듈;
상기 디스플레이의 상하좌우 중 2곳 이상에 부착되며, 청각 콘텐츠를 출력하는 복수의 오디토리 모듈;
상기 시각 콘텐츠와 상기 청각 콘텐츠가 연동 저장되는 콘텐츠 데이터베이스;
상기 시각 콘텐츠와 상기 청각 콘텐츠의 출력을 제어하고, 상기 시각 콘텐츠 및 상기 청각 콘텐츠 중 하나 이상의 출력에 따른 사용자 반응으로 상기 아이트래킹 정보를 활용하여 인지 훈련을 수행하고 훈련 결과를 평가하는 훈련부; 및
상기 사용자의 위치를 검출하고, 상기 사용자의 위치에 상응하여 상기 복수의 오디토리 모듈에서 출력되는 각각의 사운드 크기를 개별 조절함으로써 상기 사용자의 위치가 청각적 중심이 되도록 조정하는 캘리브레이션부를 포함하되,
상기 복수의 오디토리 모듈 각각은 소리 신호의 방향 조정이 가능하여 복수의 구역으로 서로 다른 소리 신호를 구분 출력하는 스피커를 포함하며,
상기 캘리브레이션부는 상기 복수의 오디토리 모듈 각각에 대해 상기 사용자가 가장 크게 들은 소리 신호가 출력된 구역이 서로 중첩되는 중첩 구역을 상기 사용자의 위치로 검출하며,
상기 캘리브레이션부는 상기 사용자의 위치와 상기 복수의 오디토리 모듈 사이의 거리에 따라 상기 사운드 크기를 비례하게 설정하고,
상기 훈련부는 상기 복수의 오디토리 모듈 각각에서 서로 다른 사운드가 출력되도록 설정하며,
상기 서로 다른 사운드 중 문제로 정해진 어느 하나에 상응하는 위치 정보와 상기 아이트래킹 모듈에서 생성한 상기 아이트래킹 정보에서 도출한 사용자 시선 정보의 일치성을 기초로 하여 인지 훈련 및 평가를 수행하는 것을 특징으로 하는 시청각 연동형 인지 훈련 시스템.
As an audio-visual interlocking cognitive training system,
An eye tracking module attached to a display for displaying visual contents and tracking eye lines of a user to generate eye tracking information;
A plurality of audio modules attached to two or more of upper, lower, right, and left sides of the display and outputting auditory contents;
A contents database in which the visual contents and the auditory contents are interlocked and stored;
A training unit for controlling the output of the visual content and the auditory content, performing cognitive training using the eye tracking information as a user response according to one or more outputs of the visual content and the auditory content, and evaluating a training result; And
And a calibration unit for detecting the position of the user and adjusting the position of the user to be the auditory center by individually adjusting the respective sound magnitudes output from the plurality of audio modules corresponding to the position of the user,
Wherein each of the plurality of audio modules includes a speaker capable of adjusting a direction of a sound signal to separately output different sound signals in a plurality of zones,
Wherein the calibration unit detects, as the position of the user, a superimposition zone in which the zones where the sound signals heard by the user are most likely to be superimposed on each other for the plurality of auditorium modules,
Wherein the calibration unit proportionally sets the sound size according to the position of the user and the distance between the plurality of audio modules,
Wherein the training unit sets different sounds to be output from each of the plurality of audio modules,
The cognitive training and evaluation are performed on the basis of the correspondence between the position information corresponding to one of the different sounds determined as the problem and the user's gaze information derived from the eye tracking information generated by the eye tracking module Visual - cognitive cognitive training system.
상기 서로 다른 사운드는 데시벨이 상이하도록 설정된 것을 특징으로 하는 시청각 연동형 인지 훈련 시스템.The method according to claim 1,
Wherein the different sounds are set to be different in decibels.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170157826A KR101881092B1 (en) | 2017-11-24 | 2017-11-24 | Eye-ear attention system and method for study |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170157826A KR101881092B1 (en) | 2017-11-24 | 2017-11-24 | Eye-ear attention system and method for study |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101881092B1 true KR101881092B1 (en) | 2018-07-23 |
Family
ID=63102841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170157826A KR101881092B1 (en) | 2017-11-24 | 2017-11-24 | Eye-ear attention system and method for study |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101881092B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101961844B1 (en) * | 2018-11-29 | 2019-03-25 | (주)인더텍 | Augment reality based occupational therapy table device for cognitive training and occupational therapy method |
CN109919143A (en) * | 2019-04-24 | 2019-06-21 | 郭钢 | The educational method of force estimation is paid attention to based on more sense organ interactive experiences and study |
KR20220116807A (en) * | 2021-02-15 | 2022-08-23 | 주식회사 겜브릿지 | Server and Method for adjustment Game Difficulty based on Operation Skill Level by Age and Cognitive Characteristics |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090111372A (en) * | 2008-04-22 | 2009-10-27 | (주) 싱크업 | A intensifying power enhancement device providing auditory and visual stimulus |
KR20130137020A (en) * | 2011-03-03 | 2013-12-13 | 퀄컴 인코포레이티드 | Systems, methods, apparatus, and computer-readable media for source localization using audible sound and ultrasound |
KR20140000108A (en) * | 2012-06-22 | 2014-01-02 | 주식회사 한국토프톤 | 9.1 channel speaker system |
KR20150122877A (en) | 2014-04-23 | 2015-11-03 | 세종대학교산학협력단 | Method and system for improving concentration using neuro-feedback |
KR20170107229A (en) * | 2016-03-15 | 2017-09-25 | (주)인더텍 | cognitive training apparatus and method with eye-tracking |
-
2017
- 2017-11-24 KR KR1020170157826A patent/KR101881092B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090111372A (en) * | 2008-04-22 | 2009-10-27 | (주) 싱크업 | A intensifying power enhancement device providing auditory and visual stimulus |
KR20130137020A (en) * | 2011-03-03 | 2013-12-13 | 퀄컴 인코포레이티드 | Systems, methods, apparatus, and computer-readable media for source localization using audible sound and ultrasound |
KR20140000108A (en) * | 2012-06-22 | 2014-01-02 | 주식회사 한국토프톤 | 9.1 channel speaker system |
KR20150122877A (en) | 2014-04-23 | 2015-11-03 | 세종대학교산학협력단 | Method and system for improving concentration using neuro-feedback |
KR20170107229A (en) * | 2016-03-15 | 2017-09-25 | (주)인더텍 | cognitive training apparatus and method with eye-tracking |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101961844B1 (en) * | 2018-11-29 | 2019-03-25 | (주)인더텍 | Augment reality based occupational therapy table device for cognitive training and occupational therapy method |
CN109919143A (en) * | 2019-04-24 | 2019-06-21 | 郭钢 | The educational method of force estimation is paid attention to based on more sense organ interactive experiences and study |
CN109919143B (en) * | 2019-04-24 | 2023-08-18 | 重庆交互科技有限公司 | Education method based on multisensory interaction experience and learning attention assessment |
KR20220116807A (en) * | 2021-02-15 | 2022-08-23 | 주식회사 겜브릿지 | Server and Method for adjustment Game Difficulty based on Operation Skill Level by Age and Cognitive Characteristics |
KR102512926B1 (en) * | 2021-02-15 | 2023-03-22 | 주식회사 하트버스 | Server and Method for adjustment Game Difficulty based on Operation Skill Level by Age and Cognitive Characteristics |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Grigos et al. | Oral articulatory control in childhood apraxia of speech | |
US20180314328A1 (en) | System and Method for Dynamic Content Delivery Based on Gaze Analytics | |
Hendrikse et al. | Movement and gaze behavior in virtual audiovisual listening environments resembling everyday life | |
KR101881092B1 (en) | Eye-ear attention system and method for study | |
Cvejic et al. | Prosody off the top of the head: Prosodic contrasts can be discriminated by head motion | |
Darling et al. | Changes to articulatory kinematics in response to loudness cues in individuals with Parkinson’s disease | |
WO2013082049A1 (en) | Head-mounted display based education and instruction | |
Jicol et al. | Efficiency of sensory substitution devices alone and in combination with self-motion for spatial navigation in sighted and visually impaired | |
Jesus et al. | Comparing traditional and tablet-based intervention for children with speech sound disorders: A randomized controlled trial | |
US9548003B2 (en) | System, method and computer program for training for medical examinations involving body parts with concealed anatomy | |
Shuster et al. | Evoking [r] using visual feedback | |
Carl et al. | Vowel acoustics and speech intelligibility in young adults with Down syndrome | |
KR102341565B1 (en) | A training apparatus for prevention and rehabilitation of senile disease | |
JP7066115B2 (en) | Public speaking support device and program | |
Lewis et al. | Children's understanding of instructions presented in noise and reverberation | |
Brungart et al. | The effect of walking on auditory localization, visual discrimination, and aurally aided visual search | |
KR20190048144A (en) | Augmented reality system for presentation and interview training | |
Dromey et al. | Bidirectional interference between simulated driving and speaking | |
Colin et al. | Rules of intersensory integration in spatial scene analysis and speechreading | |
KR102122021B1 (en) | Apparatus and method for enhancement of cognition using Virtual Reality | |
Klein et al. | Children’s knowledge of auditory/articulatory correspondences: Phonologic and metaphonologic | |
Bujacz et al. | Echovis–A collection of human echolocation tests performed by blind and sighted individuals: A pilot study | |
Nguyen et al. | An evaluation of the presentation of acoustic cues for shorelining techniques | |
US20230320640A1 (en) | Bidirectional sightline-position determination device, bidirectional sightline-position determination method, and training method | |
Jin et al. | Acoustic touch: An auditory sensing paradigmto support close reaching for people who are blind |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |