KR101881092B1 - Eye-ear attention system and method for study - Google Patents

Eye-ear attention system and method for study Download PDF

Info

Publication number
KR101881092B1
KR101881092B1 KR1020170157826A KR20170157826A KR101881092B1 KR 101881092 B1 KR101881092 B1 KR 101881092B1 KR 1020170157826 A KR1020170157826 A KR 1020170157826A KR 20170157826 A KR20170157826 A KR 20170157826A KR 101881092 B1 KR101881092 B1 KR 101881092B1
Authority
KR
South Korea
Prior art keywords
user
training
eye tracking
audio
sound
Prior art date
Application number
KR1020170157826A
Other languages
Korean (ko)
Inventor
천승호
안도현
Original Assignee
(주)인더텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인더텍 filed Critical (주)인더텍
Priority to KR1020170157826A priority Critical patent/KR101881092B1/en
Application granted granted Critical
Publication of KR101881092B1 publication Critical patent/KR101881092B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Educational Administration (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Rehabilitation Tools (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

Disclosed are an audio-video linked recognition training system to prevent lowering of concentration, and a method thereof. According to one embodiment of the present invention, the audio-video linked recognition training system comprises: an eye tracking module mounted on a display which displays visual content, and tracking a user′s gaze to generate eye tracking information; a plurality of auditory modules attached to two or more of upper, lower, left, and right sides of the display and outputting audio content; a content database linking and storing the visual and audio content; and a training unit controlling output of the video and audio content, and using the eye tracking information as a user′s reaction in accordance with output of either or both of the video and audio content to perform recognition training, and evaluating a training result.

Description

시청각 연동형 인지 훈련 시스템 및 방법{Eye-ear attention system and method for study}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye-

본 발명은 시청각 연동형 인지 훈련 시스템 및 방법에 관한 것이다.The present invention relates to an audiovisual and interlocking cognitive training system and method.

집중력(혹은 주의력)은 한 가지 일에 의식을 집중하는 능력을 말하는 것으로서, 사회생활에 있어서 상대방과 대화를 하거나 수업, 업무 등을 수행하는데 있어서 기본적으로 요구되는 능력이다. Concentration (or attention) refers to the ability to concentrate consciousness on a single occasion, and is basically a required skill in conversation with the other person in social life, and in performing lessons and tasks.

또한, 주의집중은 뇌졸중, 치매, 뇌손상 후에 발생되는 문제점들 증에서 매우 비중 있는 문제이기도 하다. 이러한 집중력이 결핍되면, 학습 장애를 일으킬 뿐만 아니라 대인 관계에서도 심각한 문제를 초래할 수 있다. Attention is also a significant problem in the problems that arise after stroke, dementia, and brain damage. This lack of concentration can lead to serious problems in interpersonal relationships as well as learning disabilities.

최근 이러한 주의력 저하를 보이는 사람들이 증가하고 있는데, 사망률 2위인 뇌졸중, 10년동안 3배의 인구수가 증가한 치매, 교통사고 증가로 인한 외상성 뇌손상 등 성인이 되어 질환과 뇌손상으로 인한 주의력 저하 인구수가 증가하고 있다. 또한, 주의력 결핍 과잉행동장애 아동 및 청소년의 증가와 같은 선천적 감각처리와 정보처리의 문제를 가진 학령기 인구 수도 증가하고 있다. 마지막으로 스마트폰 사용률 폭발로 멀티태스킹으로 인한 후천적 주의력 저하가 증가하고 있기도 하다. In recent years, the number of people who are suffering from such attention deterioration is increasing. The number of people suffering from the disease and brain damage due to stroke, which is the second mortality rate, dementia with three times the population increase over 10 years, traumatic brain injury caused by traffic accidents, . In addition, the number of school-age populations with inborn sensory processing and information processing problems, such as an increase in children and adolescents with attention deficit hyperactivity disorder, is increasing. Finally, due to the explosion of smartphone usage rates, there has also been an increase in the deterioration of attention due to multitasking.

이러한 사회적, 인구통계학적 문제를 해결하기 위해 주의력 저하에 저항하는 전문적인 훈련 도구가 필요한 실정이다. 한국공개특허 제10-2015-0122877호에는 뇌파를 이용하는 집중력 향상 기술이 개시되어 있기도 하다. In order to solve these social and demographic problems, there is a need for professional training tools to resist the deterioration of attention. Korean Patent Laid-Open No. 10-2015-0122877 discloses a technique for improving concentration using brain waves.

컴퓨터 기반 인지훈련 프로그램은 인지장애로 인해 특별히 감소한 인지영역을 일관성 있게 지속 반복 훈련함으로써 인지기능을 높이고 향상시키는 소프트웨어 치료 도구이다. 하지만, 이러한 컴퓨터 소프트웨어를 이용한 인지재활 프로그램 사용이 저조하다. 이는 문헌적 근거를 바탕으로 제작된 과학적이고 기술적인 인지집중력 훈련 전용 프로그램이 부족하기 때문이다. A computer-based cognitive training program is a software therapy tool that enhances and enhances cognitive function by consistently and repeatedly training in a specifically reduced cognitive domain due to cognitive impairment. However, the use of cognitive rehabilitation programs using such computer software is poor. This is due to the lack of scientific and technical programs dedicated to cognitive concentration training that are based on literary grounds.

대개 임상에서 사용하는 것이 치료용으로 쉽게 구할 수 있는 특수교육용 소프트웨어와 학습 소프트웨어 또는 게임기를 뇌손상 환자들에게 적용해 볼 만한 몇몇 프로그램을 선택하여 환자에게 맞춤식으로 사용하였다. 결국, 집중력 부족 인원을 위하여 개발된 전문화되고 기술수준이 높은 컴퓨터 기반 인지훈련 프로그램과 콘텐츠가 매우 부족한 것이 현실이다. In general, some of the programs that are suitable for clinical use include special education software, learning software, or game machines that are easily available for treatment. In the end, it is a reality that there is a very lack of specialized and highly skilled computer - based cognitive training programs and contents developed for people with low concentration.

한국공개특허 제10-2015-0122877호 (2015.11.03 공개) - 뉴로피드백을 이용한 집중력 향상 방법 및 시스템Korean Patent Laid-Open No. 10-2015-0122877 (published on November 11, 2015) - Method and system for improving concentration using neurofeedback

본 발명은 시각과 청각의 능동적 활용을 통해 집중력 저하를 예방하고 학습 혹은 업무의 집중력을 증진시키기 위한 IT 융복합 훈련이 가능한 시청각 연동형 인지 훈련 시스템 및 방법을 제공하기 위한 것이다. The present invention is to provide an audiovisual and interactive cognitive training system and method capable of IT fusion training to prevent concentration loss through active use of visual and auditory and to enhance the concentration of learning or work.

본 발명은 디스플레이에 아이트랙킹 장치 및 오디토리 장치를 설치하고 집중력 훈련 콘텐츠를 활용할 수 있게 함으로써 간단하게 집중력 훈련이 가능하여 장소에 구애받지 않는 시청각 연동형 인지 훈련 시스템 및 방법을 제공하기 위한 것이다. An object of the present invention is to provide an audiovisual interlocking type cognitive training system and method capable of easily performing concentration training by installing an eye tracking device and an auditory device on a display and utilizing concentration training content.

본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through the following preferred embodiments.

본 발명의 일 측면에 따르면, 시청각 연동형 인지 훈련 시스템으로서, 시각 콘텐츠를 표시하는 디스플레이에 부착되며, 사용자의 시선을 추적하여 아이트래킹 정보를 생성하는 아이트래킹 모듈; 상기 디스플레이의 상하좌우 중 2곳 이상에 부착되며, 청각 콘텐츠를 출력하는 복수의 오디토리 모듈; 상기 시각 콘텐츠와 상기 청각 콘텐츠가 연동 저장되는 콘텐츠 데이터베이스; 및 상기 시각 콘텐츠와 상기 청각 콘텐츠의 출력을 제어하고, 상기 시각 콘텐츠 및 상기 청각 콘텐츠 중 하나 이상의 출력에 따른 사용자 반응으로 상기 아이트래킹 정보를 활용하여 인지 훈련을 수행하고 훈련 결과를 평가하는 훈련부를 포함하는 시청각 연동형 인지 훈련 시스템이 제공된다. According to an aspect of the present invention, there is provided an audiovisual interlocked cognitive training system, comprising: an eye tracking module attached to a display for displaying visual content, the eye tracking module for tracking the user's eyes and generating eye tracking information; A plurality of audio modules attached to two or more of upper, lower, right, and left sides of the display and outputting auditory contents; A contents database in which the visual contents and the auditory contents are interlocked and stored; And a training unit for controlling the output of the visual content and the auditory content, performing cognitive training using the eye tracking information in response to one or more of the visual content and the output of the auditory content, and evaluating the training result An audiovisual and interlocking cognitive training system is provided.

상기 사용자의 위치를 검출하고, 인지 훈련을 위한 정위치로 상기 사용자의 이동을 안내하는 캘리브레이션부를 더 포함할 수 있다.And a calibration unit for detecting the position of the user and guiding the movement of the user to a correct position for cognitive training.

또는 상기 사용자의 위치를 검출하고, 상기 위치에 상응하여 상기 복수의 오디토리 모듈에서 출력되는 각각의 사운드 크기를 개별 조절함으로써 상기 위치가 청각적 중심이 되도록 조정하는 캘리브레이션부를 더 포함할 수 있다.Or a calibration unit for detecting the position of the user and adjusting the position to be auditory center by individually adjusting the respective sound magnitudes output from the plurality of audio modules corresponding to the position.

상기 복수의 오디토리 모듈 각각은 초음파를 통해 상기 사용자까지의 거리를 측정하는 초음파 센서를 포함하며, 상기 캘리브레이션부는 상기 초음파 센서에서 측정된 거리를 반경으로 하고 상기 복수의 오디토리 모듈 각각을 중심점으로 하는 복수 개의 가상의 원이 만나는 교점을 상기 사용자의 위치로 검출할 수 있다.Wherein each of the plurality of audio modules includes an ultrasonic sensor for measuring a distance to the user through ultrasonic waves, wherein the calibration unit sets the distance measured by the ultrasonic sensor as a radius and the center of each of the plurality of audio modules An intersection where a plurality of virtual circles meet can be detected as the position of the user.

또는 상기 복수의 오디토리 모듈 각각은 복수의 구역으로 서로 다른 소리 신호를 구분 출력하는 스피커를 포함하며, 상기 캘리브레이션부는 상기 오디토리 모듈마다 상기 사용자가 가장 크게 들은 소리 신호가 출력된 구역을 서로 중첩함으로써 중첩 구역을 상기 사용자의 위치로 검출할 수 있다.Or each of the plurality of audio modules includes a speaker for outputting different sound signals in a plurality of zones, and the calibration unit superimposes the zones in which the sound signals heard by the user are most widely output for each of the audio module The overlapping area can be detected as the position of the user.

상기 훈련부는 상기 복수의 오디토리 모듈 각각에서 서로 다른 사운드가 출력되도록 설정하며, 상기 서로 다른 사운드 중 문제로 정해진 어느 하나에 상응하는 위치 정보와 상기 아이트래킹 모듈에서 생성한 상기 아이트래킹 정보에서 도출한 사용자 시선 정보의 일치성을 기초로 하여 인지 훈련 및 평가를 수행할 수 있다.Wherein the training unit sets different sounds to be output from each of the plurality of audio modules, and outputs the position information corresponding to one of the different sounds, which is determined as a problem, Cognitive training and evaluation can be performed based on the correspondence of the user's sight line information.

상기 서로 다른 사운드는 데시벨이 상이하도록 설정될 수 있다.The different sounds may be set to differ in decibel.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 시각과 청각의 능동적 활용을 통해 집중력 저하를 예방하고 학습 혹은 업무의 집중력을 증진시키기 위한 IT 융복합 훈련이 가능한 효과가 있다.According to the embodiment of the present invention, it is possible to prevent the deterioration of concentration through active use of sight and hearing, and to perform IT fusion training to enhance the concentration of learning or work.

또한, 디스플레이에 아이트랙킹 장치 및 오디토리 장치를 설치하고 집중력 훈련 콘텐츠를 활용할 수 있게 함으로써 간단하게 집중력 훈련이 가능하여 장소에 구애받지 않는 효과가 있다. In addition, since an eye tracking device and an auditory device can be installed on the display and the concentration training content can be utilized, the concentration training can be easily performed, and there is no effect on the place.

도 1은 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템의 개략적인 구성도,
도 2는 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 방법의 순서도,
도 3은 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템을 디스플레이에 설치한 모습을 나타낸 도면,
도 4는 제1 실시예에 따른 사용자 위치 캘리브레이션을 설명하기 위한 도면,
도 5는 제2 실시예에 따른 사용자 위치 캘리브레이션을 설명하기 위한 도면,
도 6은 본 발명의 다른 실시예에 따른 시청각 연동형 인지 훈련 방법의 순서도,
도 7 및 도 8은 시청각 연동형 인지 훈련을 위한 콘텐츠 재생에 관한 예시도,
도 9는 본 발명의 또 다른 실시예에 따른 시청각 연동형 인지 훈련 콘텐츠를 나타낸 도면,
도 10은 본 발명의 다른 실시예에 따른 시청각 연동형 인지 훈련 시스템에서 실행되는 평가툴과 연동되는 자동 훈련 프로그램의 구성도.
1 is a schematic configuration diagram of an audiovisual and interlocked cognitive training system according to an embodiment of the present invention;
2 is a flowchart of an audiovisual and interlocking cognitive training method according to an embodiment of the present invention;
FIG. 3 is a view illustrating an audiovisual and interlocking type cognitive training system according to an exemplary embodiment of the present invention,
4 is a view for explaining the calibration of the user position according to the first embodiment,
5 is a view for explaining the calibration of the user position according to the second embodiment,
FIG. 6 is a flowchart of an audiovisual-linked cognitive training method according to another embodiment of the present invention;
FIGS. 7 and 8 illustrate an example of contents reproduction for audiovisual and interlocking type cognitive training;
FIG. 9 is a view illustrating an audiovisual-linked cognitive training content according to another embodiment of the present invention;
10 is a configuration diagram of an automatic training program interlocked with an evaluation tool executed in an audiovisual and ancillary cognitive training system according to another embodiment of the present invention;

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.It is to be understood that the components of the embodiments described with reference to the drawings are not limited to the embodiments and may be embodied in other embodiments without departing from the spirit of the invention. It is to be understood that although the description is omitted, multiple embodiments may be implemented again in one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 1은 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템의 개략적인 구성도이고, 도 2는 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 방법의 순서도이며, 도 3은 본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템을 디스플레이에 설치한 모습을 나타낸 도면이고, 도 4는 제1 실시예에 따른 사용자 위치 캘리브레이션을 설명하기 위한 도면이며, 도 5는 제2 실시예에 따른 사용자 위치 캘리브레이션을 설명하기 위한 도면이다. 2 is a flowchart of an audiovisual and interlocking cognitive training method according to an embodiment of the present invention. FIG. 3 is a flowchart illustrating a cognitive- FIG. 4 is a view for explaining the calibration of the user position according to the first embodiment, and FIG. 5 is a view for explaining the calibration of the user position according to the second embodiment And FIG.

도 1 내지 도 5에는 디스플레이(10), 시청각 연동형 인지 훈련 시스템(100), 아이트래킹 모듈(110), 카메라부(112), 오디토리 모듈(120), 120a~120c, 이하 '120'으로 통칭하기도 함), 스피커(122a~122d, 이하 '122'으로 통칭하기도 함), 초음파 센서(124a~124d, 이하 '124'로 통칭하기도 함), 캘리브레이션부(130), 훈련부(140), 콘텐츠 데이터베이스(150)가 도시되어 있다. 1 to 5 show a display 10, an audiovisual interlocked cognitive training system 100, an eye tracking module 110, a camera unit 112, an audio module 120, 120a to 120c, (Collectively referred to as '122'), ultrasonic sensors 124a to 124d (hereinafter also collectively referred to as '124'), a calibration unit 130, a training unit 140, A database 150 is shown.

본 발명의 일 실시예에 따른 시청각 연동형 인지 훈련 시스템(100)은 사용자(혹은 훈련자)의 시각과 청각을 모두 활용하게 함으로써 집중력 저하를 예방하고 학습 혹은 업무의 집중력을 증진시키도록 하는 것을 특징으로 한다. The audiovisual and interlocking cognitive training system 100 according to an embodiment of the present invention is characterized in that it utilizes both the sight and the hearing of a user (or a trainee) to prevent a decrease in concentration and to enhance the concentration of learning or work do.

본 실시예에 따른 시청각 연동형 인지 훈련 시스템(100)은 아이트래킹 모듈(110), 오디토리 모듈(120), 훈련부(140), 콘텐츠 데이터베이스(150)를 포함한다. 필요에 따라 캘리브레이션부(130)를 더 포함할 수 있다. The audiovisual interlocking cognitive training system 100 includes an eye tracking module 110, an auditory module 120, a training unit 140, and a content database 150. [ And may further include a calibration unit 130 as needed.

시청각 연동형 인지 훈련 시스템(100)에서 아이트래킹 모듈(110)과 오디토리 모듈(120)은 공지의 디스플레이(10)에 부착 가능한 구조를 갖는다. 여기서, 디스플레이(10)는 컴퓨터 모니터, 태블릿 PC 등 시각 콘텐츠의 표시가 가능한 표시장치를 의미한다. The eye tracking module 110 and the audio module 120 in the audio-visual interlocking type cognitive training system 100 have a structure that can be attached to the known display 10. Here, the display 10 refers to a display device capable of displaying visual contents such as a computer monitor, a tablet PC, and the like.

아이트래킹 모듈(110)은 사용자의 시선을 추적하는 모듈로서, 카메라부(112)와 아이트래킹부(미도시)를 포함한다. The eye tracking module 110 is a module for tracking a user's gaze and includes a camera unit 112 and an eye tracking unit (not shown).

카메라부(112)는 디스플레이(10)의 전방에 위치하는 사용자의 얼굴 영상을 촬영한다. 카메라부(112)에서 촬영된 사용자의 얼굴 영상은 아이트래킹부로 전송된다. The camera unit 112 photographs a face image of a user located in front of the display 10. [ The face image of the user photographed by the camera unit 112 is transmitted to the eye tracking unit.

아이트래킹부에서는 사용자의 얼굴 영상에서 안구를 인식하고, 아이트래킹을 통해 사용자가 보고 있는 위치를 추적하여 아이트래킹 정보를 생성할 수 있다. 아이트래킹 기술은 본 발명이 속하는 기술분야에서 통상의 기술자에게 자명한 사항인 바 상세한 설명은 생략하기로 한다. The eye tracking unit recognizes the eyeball in the face image of the user and generates eye tracking information by tracking the position the user is viewing through eye tracking. The eye tracking technique is a matter which is obvious to a person skilled in the art to which the present invention belongs, and a detailed description thereof will be omitted.

오디토리 모듈(120)은 청각 콘텐츠를 출력하는 모듈로서, 오디오 재생부(미도시) 및 스피커(122)를 포함한다. The audio module 120 is a module for outputting auditory contents, and includes an audio reproducing unit (not shown) and a speaker 122.

오디오 재생부는 집중력 훈련에 활용되는 청각 콘텐츠를 재생한다. 스피커(122)는 오디오 재생부에서 재생된 청각 콘텐츠에 상응하는 소리 신호(사운드)를 외부로 출력한다. The audio reproduction unit reproduces the auditory contents used for the concentration training. The speaker 122 externally outputs a sound signal (sound) corresponding to the auditory contents reproduced by the audio reproducing section.

오디토리 모듈(120)은 디스플레이(10)의 상하좌우 중 2곳 이상에 설치될 수 있다. 디스플레이(10)의 하부에 설치되는 오디토리 모듈의 경우에는 아이트래킹 모듈(110)에 통합되어 설치될 수도 있다. 즉, 아이트래킹 모듈(110)에는 1개의 오디토리 모듈(즉, 오디오 재생부 및 스피커(122))이 탑재될 수도 있다. 캘리브레이션부(130)는 시청각 연동형 인지 훈련을 수행하기에 앞서 아이트래킹 모듈(110)과 복수의 오디토리 모듈(120)이 설치된 디스플레이(10) 앞에 사용자가 위치한 경우 보다 정확한 훈련이 이루어질 수 있도록 사용자의 위치를 파악하여 사용자가 적절한 위치에 있지 않은 경우 적절한 위치(정위치)로 이동하도록 안내할 수 있다. The auditorium module 120 may be installed at two or more of the upper, lower, right, and left sides of the display 10. In the case of an auditorium module installed under the display 10, the module may be integrated with the eye tracking module 110. That is, the audio tracking module 110 may be equipped with one audio module (that is, an audio reproducing unit and a speaker 122). The calibrating unit 130 may be configured to perform a more accurate training than the case where the user is positioned in front of the display 10 in which the eye tracking module 110 and the plurality of audio modules 120 are installed, And can guide the user to move to an appropriate position (correct position) if the user is not in the proper position.

사용자에 대한 안내는 디스플레이(10)를 통해 시각적 메시지로 표시되거나 오디토리 모듈(120)의 스피커(122)를 통해 청각적 메시지로 출력될 수 있다. 예컨대, 시각적 메시지 및/또는 청각적 메시지는 디스플레이에 가까운 방향, 디스플레이로부터 멀어지는 방향, 디스플레이에 평행하게 좌측 혹은 우측 방향으로 이동하라는 내용을 포함할 수 있다. The guidance for the user may be displayed as a visual message via the display 10 or as an audible message through the speaker 122 of the audio module 120. [ For example, a visual message and / or audible message may include a direction close to the display, a direction away from the display, or a left or right direction parallel to the display.

또는 캘리브레이션부(130)는 파악된 사용자의 위치에 기초하여 각 오디토리 모듈(120)의 스피커(122)에서 출력되는 소리 신호의 크기를 조절함으로써 시청각 연동형 인지 훈련이 보다 정확히 이루어지도록 할 수도 있다. Or the calibration unit 130 may adjust the size of the sound signal output from the speaker 122 of each auditory module 120 based on the detected user's position so that the audiovisual and interlocking awareness training is performed more accurately .

사용자 위치 파악을 위한 제1 실시예에 따르면, 오디토리 모듈(120)은 초음파 센서(124)를 더 포함할 수 있다. 초음파 센서(124)는 전방에 위치하는 사용자를 탐색하고 사용자까지의 거리를 측정한다. According to the first embodiment for identifying the user's position, the auditory module 120 may further include an ultrasonic sensor 124. The ultrasonic sensor 124 searches for a user located in front and measures the distance to the user.

본 실시예에서 오디토리 모듈(120)은 디스플레이(10)의 상하좌우 중 2곳 이상에 부착될 수 있다. 따라서, 상호 이격된 복수의 초음파 센서(124)에서 측정한 거리를 반경으로 하는 가상의 원을 그리고, 가상의 원이 만나는 지점에 사용자가 위치하고 있는 것으로 판단할 수 있다. In this embodiment, the auditory module 120 may be attached to two or more of the upper, lower, right, and left sides of the display 10. Therefore, it is possible to determine that the user is located at a point where a virtual circle whose distance is measured by a plurality of mutually spaced ultrasonic sensors 124 is a radius, and where a virtual circle meets.

도 4를 참조하면, 제1 초음파 센서(124a)에서 측정한 결과에 기초할 때 사용자까지의 거리가 R1이고, 제2 초음파 센서(124b)에서 측정한 결과에 기초할 때 사용자까지의 거리가 R2인 경우가 도시되어 있다. Referring to FIG. 4, when the distance to the user is R1 based on the measurement result of the first ultrasonic sensor 124a and the distance to the user based on the measurement result of the second ultrasonic sensor 124b is R2 Is shown.

이 경우 캘리브레이션부(130)는 제1 초음파 센서(124a)를 중심점으로 하고 R1을 반경으로 하는 가상의 제1 원과, 제2 초음파 센서(124b)를 중심점으로 하고 R2를 반경으로 하는 가상의 제2 원이 만나는 교점에 사용자(1)가 위치하고 있는 것으로 판단할 수 있다. In this case, the calibration unit 130 includes a virtual first circle having the first ultrasonic sensor 124a as its center and a radius of R1, a hypothetical first circle having the second ultrasonic sensor 124b as a center, It can be determined that the user 1 is located at the intersection where the two circles meet.

사용자 위치 파악을 위한 제2 실시예에 따르면, 오디토리 모듈(120)에 구비되는 스피커(122)는 출력되는 소리 신호의 방향 조정이 가능한 지향성 스피커일 수 있다. According to the second embodiment for identifying the user's position, the speaker 122 provided in the auditory module 120 may be a directional speaker capable of adjusting the direction of a sound signal to be output.

제1 스피커(122a)를 통해 출력되는 제1 소리 신호는 복수의 구역으로 구분되어 출력될 수 있다. 예컨대, 도 5에 도시된 것과 같이 3개의 구역(A1, A2, A3)으로 구분되어 출력되게 할 수 있다. The first sound signal output through the first speaker 122a may be divided into a plurality of zones and output. For example, as shown in FIG. 5, three zones A1, A2, and A3 may be separately output.

이 경우 각 구역마다 출력되는 제1 소리 신호를 다르게 설정할 수 있다. 예컨대, A1 구역으로는 '아', A2 구역으로는 '어', A3 구역으로는 '오'라는 소리가 출력되게 할 수 있다. In this case, the first sound signal output for each zone can be set differently. For example, a sound may be output in the area A1, the area A2, and the area A3.

제2 스피커(122b)를 통해 출력되는 제2 소리 신호 역시 복수의 구역으로 구분되어 출력될 수 있다. 예컨대, 도 5에 도시된 것과 같이 3개의 구역(B1, B2, B3)으로 구분되어 출력되게 할 수 있다. The second sound signal output through the second speaker 122b may be divided into a plurality of zones and output. For example, as shown in FIG. 5, three zones B1, B2, and B3 may be separately output.

이 경우 각 구역마다 출력되는 제2 소리 신호를 다르게 설정할 수 있다. 예컨대, B1 구역으로는 '가', B2 구역으로는 '나', B3 구역으로는 '다'라는 소리가 출력되게 할 수 있다. In this case, the second sound signal output for each zone can be set differently. For example, it is possible to output a sound of 'A' in the B1 zone, 'I' in the B2 zone, and 'Da' in the B3 zone.

제1 소리 신호와 제2 소리 신호는 구분된 각 구역에 대해 일정 시간 간격을 가지면서 출력될 수 있다. 즉, 제1 소리 신호는 3개의 구역(A1~A3) 중 하나의 구역으로 출력되며, 제2 소리 신호 역시 3개의 구역(B1~B3) 중 하나의 구역으로 출력된다. The first sound signal and the second sound signal may be output with a predetermined time interval for each of the separated regions. That is, the first sound signal is output to one of the three zones A1 to A3, and the second sound signal is also output to one of the three zones B1 to B3.

제1 소리 신호에 의한 구역과 제2 소리 신호에 의한 구역은 일부 중첩되는 중첩 구역(A1B3, A2B3, A3B3, A2B2, A3B2, A3B1)이 생기기도 한다. A zone based on the first sound signal and a zone based on the second sound signal may also have overlapped zones A1B3, A2B3, A3B3, A2B2, A3B2 and A3B1.

사용자는 제1 스피커(122a)를 통해 출력되는 제1 소리 신호 중에서 가장 크게 들린 소리와, 제2 스피커(122b)를 통해 출력되는 제2 소리 신호 중에서 가장 크게 들린 소리를 알려줄 수 있다. 사용자 입력은 별도의 입력 장치(키보드, 마우스 등) 혹은 터치스크린 방식의 디스플레이를 통해 이루어질 수 있다. 또는 전술한 아이트래킹 모듈(110)을 활용하여 화면에 표시된 소리 예시들에 대해서 시선을 이동시킴으로써 사용자 입력이 이루어지게 할 수도 있다. The user can be informed of the loudest sound among the first sound signal outputted through the first speaker 122a and the second sound signal outputted through the second speaker 122b. The user input can be done through a separate input device (keyboard, mouse, etc.) or a touch screen display. Alternatively, the eye tracking module 110 may be used to move the eyes to the sound examples displayed on the screen, thereby allowing the user input.

이 경우 예를 들어 사용자가 '오'라는 소리와 '나'라는 소리가 가장 크게 들린 것으로 인식하였음을 알려준 경우, 캘리브레이션부(130)는 '오' 소리에 대응되는 A3 구역과 '나' 소리에 대응되는 B21 구역이 중첩되는 A3B2 구역에 사용자(1)가 위치하고 있는 것으로 판정할 수 있다. In this case, for example, when the user indicates that the user has recognized that the sound 'O' and the sound 'I' are heard the greatest, the calibration unit 130 outputs the sound 'A' It can be determined that the user 1 is located in the A3B2 zone where the corresponding B21 zone is overlapped.

캘리브레이션부(130)는 검출된 사용자 위치에 기초하여 사용자 이동을 안내하는 시각적 메시지를 디스플레이(10)를 통해 표시하거나 청각적 메시지를 스피커(122)를 통해 출력함으로써 사용자가 적절한 위치로 이동하게 할 수 있다. The calibration unit 130 may display a visual message on the display 10 that guides the user movement based on the detected user location or may output an audible message through the speaker 122 to allow the user to move to an appropriate location have.

혹은 캘리브레이션부(130)는 검출된 사용자의 위치에 기초하여 각 오디토리 모듈(120)의 스피커(122)에서 출력되는 소리 신호의 크기를 조절함으로써 시청각 연동형 인지 훈련이 보다 정확히 이루어지도록 할 수도 있다. Or the calibration unit 130 may adjust the size of the sound signal output from the speaker 122 of each auditory module 120 based on the detected position of the user so that the audiovisual interlocking type awareness training is performed more accurately .

디스플레이(10)를 통해 출력되는 시각 콘텐츠의 경우에는 사용자가 디스플레이(10)의 전방에 위치하고 있으면서 사용자가 디스플레이(10)를 확인 가능한 위치라면 충분할 수 있다. 따라서, 시각 콘텐츠에 대한 캘리브레이션은 생략될 수 있다. In the case of the time content output through the display 10, it may suffice if the user is located in front of the display 10 and the user can see the display 10. Thus, calibration for visual content can be omitted.

하지만, 청각 콘텐츠의 경우에는 오디토리 모듈(120)이 복수 개 배치되어 있으면서 서로 구분되는 소리 신호를 출력하게 되므로, 사용자 위치가 효율적 집중력 훈련을 위한 중요한 인자이다. However, in the case of auditory contents, since a plurality of auditory modules 120 are arranged and output sound signals separated from each other, the user position is an important factor for efficient concentration training.

이 경우 사용자가 이동하지 않더라도 사용자 위치에 기초하여 사용자에 가까운 오디토리 모듈(120)에서는 출력되는 소리 신호를 줄이고 사용자에 먼 오디토리 모듈(120)에서는 출력되는 소리 신호를 크게 함으로써 청각적인 관점에서 사용자가 중심에 위치한 것과 같은 효과를 나타낼 수 있다. In this case, even if the user does not move, the audio signal output from the auditory module 120 closer to the user is reduced based on the user position and the audio signal output from the remote auditory module 120 to the user is increased, The effect can be the same as that located at the center.

이를 위해 캘리브레이션부(130)는 사용자 위치와 오디토리 모듈(120) 사이의 거리에 따라 스피커(122)를 통해 출력되는 소리 신호의 크기를 비례하게 설정되도록 할 수 있다.For this, the calibration unit 130 may set the magnitude of the sound signal output through the speaker 122 in proportion to the distance between the user position and the audio module 120.

사용자 위치 파악을 위한 제3 실시예에 따르면, 아이트래킹 모듈(110)을 이용할 수 있다. 아이트래킹 모듈(110)에 포함된 카메라부(112) 및 IR 센서(미도시)를 이용하여 사용자 위치를 파악할 수 있다. According to the third embodiment for identifying the user's position, the eye tracking module 110 can be used. The user's location can be determined by using the camera unit 112 and the IR sensor (not shown) included in the eye tracking module 110.

아이트래킹부에서 분석한 사용자의 눈을 중심으로 하여 전체 머리의 위치를 파악한다. 그리고 아이트래킹이 최적화되는 위치와의 오차를 계산하고, 오차에 따른 사용자의 필요 이동 정보를 생성한다. The position of the entire head is grasped around the eye of the user analyzed by the i-tracking unit. And calculates the error with the position where the eye tracking is optimized, and generates the necessary movement information of the user according to the error.

그 후 디스플레이(10)를 통해서는 사용자의 현재 모습을 표시한다. 그와 함께 사용자에게 필요 이동 정보(예. 좌우 또는 전후 이동 거리)를 제시한다. 사용자는 지시에 따라 최적화된 위치로 이동함으로써, 사용자 위치 캘리브레이션이 이루어지도록 할 수 있다. Then, the display 10 displays the current state of the user. Together with this, the user is presented with necessary movement information (eg, left / right or front / rear movement distance). The user can move to the optimized position in accordance with the instructions, so that the calibration of the user position can be made.

캘리브레이션부(130)에 의한 사용자 위치 캘리브레이션이 완료되면, 훈련부(140)는 콘텐츠 데이터베이스(150)에 저장된 시청각 연동 훈련 콘텐츠를 활용하여 사용자에게 집중력 훈련을 수행한다. When the calibration of the user position by the calibration unit 130 is completed, the training unit 140 performs concentration training on the user using the audio-visual and interlocking training contents stored in the content database 150.

시각 콘텐츠는 디스플레이(10)를 통해 출력되게 한다. 그리고 청각 콘텐츠는 상응하는 오디토리 모듈(120)을 통해 출력되게 한다. The visual content is output via the display 10. And auditory content to be output via the corresponding auditorium module 120.

시각 콘텐츠의 출력 혹은 청각 콘텐츠의 출력에 따른 사용자 시선은 아이트래킹 모듈(110)을 통해 검출할 수 있다. 따라서, 출력된 시각 콘텐츠/청각 콘텐츠의 내용에 상응하는 시선 위치(혹은 시선 이동)가 검출되는 경우에는 사용자가 집중력 훈련을 제대로 수행하고 있는 것으로 판정할 수 있다. 그 외 경우에는 사용자가 집중력 훈련을 제대로 수행하고 있지 않은 바, 훈련부(140)는 이에 대해 경고하거나 콘텐츠의 변화를 통해 사용자의 관심을 유도할 수도 있다. The user's line of sight according to the output of the visual content or the output of the auditory contents can be detected through the eye tracking module 110. [ Therefore, when the visual line position (or visual line movement) corresponding to the contents of the outputted visual contents / auditory contents is detected, it can be determined that the user is performing the concentration training properly. In other cases, since the user is not performing the concentration training properly, the training unit 140 may alert the user or induce the user's interest through the change of the content.

콘텐츠 데이터베이스(150)에는 집중력 훈련에 이용되는 시각 콘텐츠 및/또는 청각 콘텐츠가 저장된다. 그리고 사용자 위치 캘리브레이션을 위한 캘리브레이션용 콘텐츠도 저장될 수 있다. The contents database 150 stores visual contents and / or auditory contents used for concentration training. And content for calibration for user location calibration can also be stored.

도 6은 본 발명의 다른 실시예에 따른 시청각 연동형 인지 훈련 방법의 순서도이고, 도 7 및 도 8은 시청각 연동형 인지 훈련을 위한 콘텐츠 재생에 관한 예시도이다. FIG. 6 is a flowchart of an audiovisual-linked cognitive training method according to another embodiment of the present invention, and FIGS. 7 and 8 illustrate contents reproduction for audiovisual-linked cognitive training.

본 실시예에 따른 시청각 연동형 인지 훈련 평가 방법은 시청각 연동형 인지 훈련 시스템(100)을 통해 수행되며, 특히 청각을 활용한 리얼 3차원(3D) 사운드 훈련에 적용될 수 있다. The audiovisual-linked cognitive training evaluation method according to the present embodiment is performed through the audiovisual-linked cognitive training system 100, and can be applied to real three-dimensional (3D) sound training using auditory sense.

3차원 사운드는 청각을 통한 집중력 훈련에 매우 중요한 요소이다. 기존에는 3차원 사운드를 제작할 때 C#을 이용하여 사운드의 위치를 임의로 조정하여 제작하는 경우가 대부분이다. 3D sound is a very important factor in the training of concentration through hearing. In the past, most of the time, when making 3D sound, the position of sound is arbitrarily adjusted by using C #.

하지만, 이 경우 사운드의 위치가 불분명하고 특히 고령의 사용자는 사운드의 위치를 명확히 판별하기가 어려웠다. 예를 들면, 유사하게는 들리지만 정확히 오른쪽인지 중앙인지 판단이 어려운 것이다. However, in this case, the position of the sound is unclear and it is difficult for an elderly user to clearly determine the position of the sound. For example, it sounds similar, but it is difficult to judge whether it is right or center.

따라서, 리얼 3차원 사운드의 구현을 위해서는 본 실시예와 같이 아이트래킹 모듈(110) 및 탈부착이 가능한 오디토리 모듈(120)이 요구된다. Accordingly, in order to realize a real three-dimensional sound, the eye tracking module 110 and the detachable audio module 120 are required as in the present embodiment.

아이트래킹 모듈(110)은 도 3에 도시된 것과 같이 디스플레이(10)의 하부에 부착된다. 아이트래킹 모듈(110) 내부에는 1개의 오디토리 모듈에 해당하는 사운드 재생부와 스피커가 탑재될 수 있다. The eye tracking module 110 is attached to the bottom of the display 10 as shown in Fig. In the eye tracking module 110, a sound reproducing unit and a speaker corresponding to one audio module can be mounted.

디스플레이(10)의 상부와 좌우 양측부에도 오디토리 모듈(120)이 각각 부착된다. The auditorium modules 120 are also attached to the upper and left and right sides of the display 10, respectively.

아이트래킹 모듈(110)과 오디토리 모듈(120)은 서로 유선 연결되며, 하나의 USB 포트를 통해 컴퓨터와 연결되어 구동될 수 있다. The eye tracking module 110 and the audio module 120 are connected to each other via a USB port.

이 경우 아이트래킹 모듈(110)과 연동하는 청각을 통한 집중력 훈련 방법이 도 6 이하의 도면에 도시되어 있다. In this case, a concentration training method through auditory interlocking with the eye tracking module 110 is shown in the following figures.

오디토리 모듈(120)을 통해 미리 정해진 사운드가 출력되도록 한다(단계 S300). So that the predetermined sound is outputted through the auditory module 120 (step S300).

이 경우 복수의 오디토리 모듈(120) 각각에는 서로 다른 사운드가 출력되도록 할 수 있다. 예컨대, 좌측에서는 새소리가 출력되고 우측에서는 맹수소리가 출력되게 할 수 있다. In this case, different sound may be output to each of the plurality of audio modules 120. [ For example, a bird sound may be outputted on the left side, and a beep sound may be outputted on the right side.

사운드 출력 이전에 혹은 사운드 출력 이후에 디스플레이(10)를 통한 시각적 메시지를 통해 혹은 오디토리 모듈(120)을 통한 청각적 메시지를 통해, 미리 지정된 특정 동물(예컨대, 맹수)에 관한 소리가 출력되어 숨어있는 것으로 여겨지는 부분을 사용자가 응시하도록 지시 혹은 안내할 수 있다. A sound relating to a predetermined specific animal (for example, a beast) is output through a visual message through the display 10 or through an auditory message through the audio module 120 before or after the sound output, You can instruct or guide the user to take the part that is supposed to be there.

사용자가 미리 정해진 소리가 출력된 쪽을 응시하는 경우, 아이트래킹 모듈(110)을 통해 사용자 시선을 추적하여 사용자 시선이 머물고 있는 곳을 검출한다(단계 S310). When the user looks at a predetermined sound output side, the eye tracking module 110 tracks the user's eyes and detects where the user's eyes are staying (step S310).

사용자 시선이 미리 정해진 시간 이상 머무른 지점이 검출되면, 해당 지점에 숨어있는 동물을 표시하거나 혹은 목표 동물이 숨어있던 곳을 표시함으로써 사용자에게 정답 여부를 확인할 수 있게 한다(단계 S320). 목표 동물이 숨어있던 곳을 맞춘 경우에는 소정의 점수를 획득하도록 하고, 이러한 과정을 반복함으로써 사용자의 흥미를 유발함과 동시에 집중력 훈련 성과도 계량화할 수 있게 된다. When a point where the user's eyesight stays for a predetermined time or longer is detected, the user can display the hidden animal at the corresponding point or display the place where the target animal is hidden (Step S320). When the place where the target animal is hiding is matched, a predetermined score is obtained. By repeating this process, it is possible to quantify the concentration training performance while inducing the user's interest.

즉, 서로 다른 사운드 중 어느 하나에 상응하는 위치 정보와 아이트래킹 모듈(110)에서 생성한 아이트래킹 정보에서 도출한 사용자 시선 정보의 일치성을 기초로 하여 인지 훈련 및 평가를 수행할 수 있게 된다. That is, cognitive training and evaluation can be performed on the basis of the correspondence between the position information corresponding to any one of the different sounds and the user's gaze information derived from the eye tracking information generated by the eye tracking module 110.

또 다른 실시예에서는 C# 등을 이용한 코딩을 통해 임의의 제1 스피커(122)에서 사운드 출력을 시작하여 다른 제2 스피커(122)로 사운드 출력을 이동시키는 과제를 주고, 사용자 시선이 사운드의 이동을 따라 이동하게 하는 훈련도 가능하다. 이 경우 사용자 시선이 제대로 이동하였는지는 아이트래킹 모듈(110)을 통해 확인할 수 있어, 집중력 훈련이 제대로 이루어지고 있는지 여부에 대한 확인도 가능하다. In another embodiment, the first speaker 122 may start sound output through coding using C # or the like to move the sound output to another second speaker 122, It is also possible to train to move along. In this case, whether the user's gaze has been properly moved can be confirmed through the eye tracking module 110, and it is also possible to confirm whether or not the concentration training is properly performed.

또는 복수의 오디토리 모듈(120)을 연동 제어하여 사운드 소스(sound source)를 좌표 이동시키면서 그에 따른 3차원 사운드가 출력되도록 할 수도 있다. 이 경우 사운드 이동 효과를 따라 사용자의 시선이 함께 이동되도록 함으로써 집중력 훈련을 수행할 수 있다. 또한 사용자 시선이 사운드 이동 효과를 추종하여 이동하는지를 아이트래킹 모듈(110)을 통해 확인하고, 그 결과에 따라 집중력 훈련에 대한 평가를 수행할 수도 있다. Or a plurality of audio modules 120 may be interlocked and controlled so that a three-dimensional sound corresponding to the sound source is output while the sound source is moved. In this case, the user's eyes can be moved along with the sound movement effect, so that the concentration training can be performed. In addition, the user may confirm whether the user's gaze moves following the sound movement effect through the eye tracking module 110, and perform evaluation of concentration training according to the result.

앞서 단계 S300에서, 복수의 오디토리 모듈(120)를 통해 사운드 출력 시 출력되는 사운드의 크기(데시벨)가 위치에 따라 상이하도록 설정할 수도 있다. In step S300, it is also possible to set the size (decibel) of the sound output at the time of sound output through the plurality of audio modules 120 to be different according to the position.

이 경우 보다 큰 사운드가 출력된 쪽을 사용자가 응시하게 하여 사용자의 청각 집중력을 평가할 수도 있을 것이다. 사용자의 응시 위치는 아이트래킹 모듈(110)을 통해 확인할 수 있다. In this case, the user may try to evaluate the hearing concentration of the user by letting the user take a larger sound output. The user's gazing position can be confirmed through the eye tracking module 110.

또는 특정 위치에서 출력된 사운드가 무엇인지를 사용자가 입력 혹은 선택하게 함으로써 사용자의 청각 집중력을 평가할 수도 있을 것이다. 예컨대, 좌측 스피커에서는 '한글'이라는 단어를 10dB로 출력하고, 우측 스피커에서는 '영어'라는 단어를 30dB로 출력하였을 때, 사용자에게 좌측에서 난 소리가 무엇인지를 물어볼 수도 있다. 이 경우 사운드의 크기뿐만 아니라 방향에 대해서도 사용자가 염두에 두게 함으로써 높은 집중력을 가지도록 유도할 수 있을 것이다. Alternatively, the user may be able to evaluate the auditory attention by causing the user to input or select what sound is output at a particular location. For example, when the left speaker outputs the word 'Hangul' at 10 dB and the right speaker outputs the word 'English' at 30 dB, the user may be asked what the sound is from the left. In this case, not only the size of the sound but also the direction of the user can be guided to have high concentration ability by keeping it in mind.

도 9는 본 발명의 또 다른 실시예에 따른 시청각 연동형 인지 훈련 콘텐츠를 나타낸 도면이다. FIG. 9 is a view illustrating audiovisual-linked cognitive training contents according to another embodiment of the present invention.

도 9를 참조하면, 디스플레이(10)에는 시계가 표시된다. 초침이 1초마다 움직이며, 초침이 한칸씩 움직이는 소리가 오디토리 모듈(120)을 통해 출력된다. Referring to Fig. 9, the display 10 displays a clock. The second hand moves every second, and the sound of the second hand moving one by one is outputted through the audio module 120. [

이 경우 사용자는 시계를 주의깊게 보고 있다가, 초침이 1회에 한칸 단위가 아닌 여러 칸 단위로 움직이면 미리 지정된 반응을 함으로써, 인지 훈련을 수행할 수 있다. In this case, the user watches the clock carefully, and if the second hand moves a plurality of units instead of one at a time, the user can perform the cognitive training by performing the predetermined response.

예를 들면, 1단계 난이도에서는 초침이 1회에 4칸을 움직이면 반응하도록 하고, 3분 동안 진행하면서, 4칸 움직이는 경우를 10번이 되도록 설정할 수 있다. 2단계 난이도에서는 초침이 1회에 3칸을 움직이면 반응하도록 하고, 3분 동안 진행하면서, 3칸 움직이는 경우를 10번이 되도록 설정할 수 있다. 3단계 난이도에서는 초침이 1회에 2칸을 움직이면 반응하도록 하고, 3분 동안 진행하면서, 2칸 움직이는 경우를 10번이 되도록 설정할 수 있다. 4단계 난이도에서는 초침이 1회에 2칸을 움직이면 반응하도록 하고, 5분 동안 진행하면서, 2칸 움직이는 경우를 10번이 되도록 설정할 수 있다.For example, in the difficulty level 1, the second hand can be set to be 10 times as long as it moves 4 times at a time, reacting for 3 minutes, and moving 4 times. In the second level of difficulty, the second hand can be set to respond by moving three spaces at a time, while moving for three minutes while moving three spaces to ten. In the 3-step difficulty, you can set the second hand to respond by moving 2 spaces at a time, and 10 times when moving 2 spaces while proceeding for 3 minutes. In the 4-step difficulty, the second hand can respond by moving 2 spaces at a time, and can be set to 10 times while moving for 2 minutes while proceeding for 5 minutes.

훈련부(140)에서는 반응의 정확도, 시선이 초침의 경로에서 벗어난 횟수, 전체 시선 추적 경로 등을 미리 정해진 결과 산출 알고리즘에 적용하여 종합적으로 반영하여 집중력 훈련 결과를 산출해 낼 수 있을 것이다. The training unit 140 may be able to calculate the concentration training result by comprehensively reflecting the accuracy of the response, the number of times the gaze deviates from the second hand path, and the entire gaze tracking path to the predetermined result calculation algorithm.

도 10은 본 발명의 다른 실시예에 따른 시청각 연동형 인지 훈련 시스템에서 실행되는 평가툴과 연동되는 자동 훈련 프로그램의 구성도이다. 10 is a configuration diagram of an automatic training program linked to an evaluation tool executed in an audiovisual and ancillary cognitive training system according to another embodiment of the present invention.

자동 훈련 프로그램의 메인화면에서 평가 시작 버튼을 클릭하면, 평가가 시작된다. 그리고 평가 진행에 따른 평가 점수를 확인한다. 평가 점수에 따라 난이도가 자동 조정될 수 있다. When you click the start evaluation button on the main screen of the automatic training program, evaluation starts. And check the evaluation score according to the evaluation progress. The difficulty level can be adjusted automatically according to the score.

자동 조정된 난이도에 따라 인지 훈련이 자동 시작되어, 난이도에 상응하는 문제 수행이 이루어진다. Cognitive training is automatically started according to the difficulty level that is automatically adjusted, and the problem corresponding to the difficulty level is performed.

이번 단계의 인지 훈련이 종료되면 자동으로 평가창이 뜨면서 평가를 진행한다. When the cognitive training at this stage is finished, the evaluation window will open automatically and evaluation will proceed.

평가 점수를 확인하고, 평가 점수에 따라 다음 단계로 이동하거나 이번 단계를 재훈련할 수 있다. 평가 점수는 데이터베이스에 자동 저장될 수 있다. You can check your score and move on to the next step or re-train this step, depending on your score. Scores can be automatically saved in the database.

전술한 시청각 연동형 인지 훈련 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. The above-described audio-visual interlocking cognitive training method can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, it may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, or the like. In addition, the computer-readable recording medium may be distributed and executed in a computer system connected to a computer network, and may be stored and executed as a code readable in a distributed manner.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.

10: 디스플레이 100: 시청각 연동형 인지 훈련 시스템
110: 아이트래킹 모듈 112: 카메라부
120, 120a~120c: 오디토리 모듈 122a~122d: 스피커
124a~124d: 초음파 센서 130: 캘리브레이션부
140; 훈련부 150: 콘텐츠 데이터베이스
10: Display 100: Audio-visual interlocking cognitive training system
110: Eye tracking module 112:
120, 120a to 120c: Audio module 122a to 122d: Speaker
124a to 124d: Ultrasonic sensor 130: Calibration unit
140; Training Department 150: Content Database

Claims (7)

시청각 연동형 인지 훈련 시스템으로서,
시각 콘텐츠를 표시하는 디스플레이에 부착되며, 사용자의 시선을 추적하여 아이트래킹 정보를 생성하는 아이트래킹 모듈;
상기 디스플레이의 상하좌우 중 2곳 이상에 부착되며, 청각 콘텐츠를 출력하는 복수의 오디토리 모듈;
상기 시각 콘텐츠와 상기 청각 콘텐츠가 연동 저장되는 콘텐츠 데이터베이스;
상기 시각 콘텐츠와 상기 청각 콘텐츠의 출력을 제어하고, 상기 시각 콘텐츠 및 상기 청각 콘텐츠 중 하나 이상의 출력에 따른 사용자 반응으로 상기 아이트래킹 정보를 활용하여 인지 훈련을 수행하고 훈련 결과를 평가하는 훈련부; 및
상기 사용자의 위치를 검출하고, 상기 사용자의 위치에 상응하여 상기 복수의 오디토리 모듈에서 출력되는 각각의 사운드 크기를 개별 조절함으로써 상기 사용자의 위치가 청각적 중심이 되도록 조정하는 캘리브레이션부를 포함하되,
상기 복수의 오디토리 모듈 각각은 소리 신호의 방향 조정이 가능하여 복수의 구역으로 서로 다른 소리 신호를 구분 출력하는 스피커를 포함하며,
상기 캘리브레이션부는 상기 복수의 오디토리 모듈 각각에 대해 상기 사용자가 가장 크게 들은 소리 신호가 출력된 구역이 서로 중첩되는 중첩 구역을 상기 사용자의 위치로 검출하며,
상기 캘리브레이션부는 상기 사용자의 위치와 상기 복수의 오디토리 모듈 사이의 거리에 따라 상기 사운드 크기를 비례하게 설정하고,
상기 훈련부는 상기 복수의 오디토리 모듈 각각에서 서로 다른 사운드가 출력되도록 설정하며,
상기 서로 다른 사운드 중 문제로 정해진 어느 하나에 상응하는 위치 정보와 상기 아이트래킹 모듈에서 생성한 상기 아이트래킹 정보에서 도출한 사용자 시선 정보의 일치성을 기초로 하여 인지 훈련 및 평가를 수행하는 것을 특징으로 하는 시청각 연동형 인지 훈련 시스템.
As an audio-visual interlocking cognitive training system,
An eye tracking module attached to a display for displaying visual contents and tracking eye lines of a user to generate eye tracking information;
A plurality of audio modules attached to two or more of upper, lower, right, and left sides of the display and outputting auditory contents;
A contents database in which the visual contents and the auditory contents are interlocked and stored;
A training unit for controlling the output of the visual content and the auditory content, performing cognitive training using the eye tracking information as a user response according to one or more outputs of the visual content and the auditory content, and evaluating a training result; And
And a calibration unit for detecting the position of the user and adjusting the position of the user to be the auditory center by individually adjusting the respective sound magnitudes output from the plurality of audio modules corresponding to the position of the user,
Wherein each of the plurality of audio modules includes a speaker capable of adjusting a direction of a sound signal to separately output different sound signals in a plurality of zones,
Wherein the calibration unit detects, as the position of the user, a superimposition zone in which the zones where the sound signals heard by the user are most likely to be superimposed on each other for the plurality of auditorium modules,
Wherein the calibration unit proportionally sets the sound size according to the position of the user and the distance between the plurality of audio modules,
Wherein the training unit sets different sounds to be output from each of the plurality of audio modules,
The cognitive training and evaluation are performed on the basis of the correspondence between the position information corresponding to one of the different sounds determined as the problem and the user's gaze information derived from the eye tracking information generated by the eye tracking module Visual - cognitive cognitive training system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 서로 다른 사운드는 데시벨이 상이하도록 설정된 것을 특징으로 하는 시청각 연동형 인지 훈련 시스템.
The method according to claim 1,
Wherein the different sounds are set to be different in decibels.
KR1020170157826A 2017-11-24 2017-11-24 Eye-ear attention system and method for study KR101881092B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170157826A KR101881092B1 (en) 2017-11-24 2017-11-24 Eye-ear attention system and method for study

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170157826A KR101881092B1 (en) 2017-11-24 2017-11-24 Eye-ear attention system and method for study

Publications (1)

Publication Number Publication Date
KR101881092B1 true KR101881092B1 (en) 2018-07-23

Family

ID=63102841

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170157826A KR101881092B1 (en) 2017-11-24 2017-11-24 Eye-ear attention system and method for study

Country Status (1)

Country Link
KR (1) KR101881092B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101961844B1 (en) * 2018-11-29 2019-03-25 (주)인더텍 Augment reality based occupational therapy table device for cognitive training and occupational therapy method
CN109919143A (en) * 2019-04-24 2019-06-21 郭钢 The educational method of force estimation is paid attention to based on more sense organ interactive experiences and study
KR20220116807A (en) * 2021-02-15 2022-08-23 주식회사 겜브릿지 Server and Method for adjustment Game Difficulty based on Operation Skill Level by Age and Cognitive Characteristics

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090111372A (en) * 2008-04-22 2009-10-27 (주) 싱크업 A intensifying power enhancement device providing auditory and visual stimulus
KR20130137020A (en) * 2011-03-03 2013-12-13 퀄컴 인코포레이티드 Systems, methods, apparatus, and computer-readable media for source localization using audible sound and ultrasound
KR20140000108A (en) * 2012-06-22 2014-01-02 주식회사 한국토프톤 9.1 channel speaker system
KR20150122877A (en) 2014-04-23 2015-11-03 세종대학교산학협력단 Method and system for improving concentration using neuro-feedback
KR20170107229A (en) * 2016-03-15 2017-09-25 (주)인더텍 cognitive training apparatus and method with eye-tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090111372A (en) * 2008-04-22 2009-10-27 (주) 싱크업 A intensifying power enhancement device providing auditory and visual stimulus
KR20130137020A (en) * 2011-03-03 2013-12-13 퀄컴 인코포레이티드 Systems, methods, apparatus, and computer-readable media for source localization using audible sound and ultrasound
KR20140000108A (en) * 2012-06-22 2014-01-02 주식회사 한국토프톤 9.1 channel speaker system
KR20150122877A (en) 2014-04-23 2015-11-03 세종대학교산학협력단 Method and system for improving concentration using neuro-feedback
KR20170107229A (en) * 2016-03-15 2017-09-25 (주)인더텍 cognitive training apparatus and method with eye-tracking

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101961844B1 (en) * 2018-11-29 2019-03-25 (주)인더텍 Augment reality based occupational therapy table device for cognitive training and occupational therapy method
CN109919143A (en) * 2019-04-24 2019-06-21 郭钢 The educational method of force estimation is paid attention to based on more sense organ interactive experiences and study
CN109919143B (en) * 2019-04-24 2023-08-18 重庆交互科技有限公司 Education method based on multisensory interaction experience and learning attention assessment
KR20220116807A (en) * 2021-02-15 2022-08-23 주식회사 겜브릿지 Server and Method for adjustment Game Difficulty based on Operation Skill Level by Age and Cognitive Characteristics
KR102512926B1 (en) * 2021-02-15 2023-03-22 주식회사 하트버스 Server and Method for adjustment Game Difficulty based on Operation Skill Level by Age and Cognitive Characteristics

Similar Documents

Publication Publication Date Title
Grigos et al. Oral articulatory control in childhood apraxia of speech
US20180314328A1 (en) System and Method for Dynamic Content Delivery Based on Gaze Analytics
Hendrikse et al. Movement and gaze behavior in virtual audiovisual listening environments resembling everyday life
KR101881092B1 (en) Eye-ear attention system and method for study
Cvejic et al. Prosody off the top of the head: Prosodic contrasts can be discriminated by head motion
Darling et al. Changes to articulatory kinematics in response to loudness cues in individuals with Parkinson’s disease
WO2013082049A1 (en) Head-mounted display based education and instruction
Jicol et al. Efficiency of sensory substitution devices alone and in combination with self-motion for spatial navigation in sighted and visually impaired
Jesus et al. Comparing traditional and tablet-based intervention for children with speech sound disorders: A randomized controlled trial
US9548003B2 (en) System, method and computer program for training for medical examinations involving body parts with concealed anatomy
Shuster et al. Evoking [r] using visual feedback
Carl et al. Vowel acoustics and speech intelligibility in young adults with Down syndrome
KR102341565B1 (en) A training apparatus for prevention and rehabilitation of senile disease
JP7066115B2 (en) Public speaking support device and program
Lewis et al. Children's understanding of instructions presented in noise and reverberation
Brungart et al. The effect of walking on auditory localization, visual discrimination, and aurally aided visual search
KR20190048144A (en) Augmented reality system for presentation and interview training
Dromey et al. Bidirectional interference between simulated driving and speaking
Colin et al. Rules of intersensory integration in spatial scene analysis and speechreading
KR102122021B1 (en) Apparatus and method for enhancement of cognition using Virtual Reality
Klein et al. Children’s knowledge of auditory/articulatory correspondences: Phonologic and metaphonologic
Bujacz et al. Echovis–A collection of human echolocation tests performed by blind and sighted individuals: A pilot study
Nguyen et al. An evaluation of the presentation of acoustic cues for shorelining techniques
US20230320640A1 (en) Bidirectional sightline-position determination device, bidirectional sightline-position determination method, and training method
Jin et al. Acoustic touch: An auditory sensing paradigmto support close reaching for people who are blind

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant