KR101276097B1 - Simulator and simulation method for treating adhd - Google Patents

Simulator and simulation method for treating adhd Download PDF

Info

Publication number
KR101276097B1
KR101276097B1 KR1020120129859A KR20120129859A KR101276097B1 KR 101276097 B1 KR101276097 B1 KR 101276097B1 KR 1020120129859 A KR1020120129859 A KR 1020120129859A KR 20120129859 A KR20120129859 A KR 20120129859A KR 101276097 B1 KR101276097 B1 KR 101276097B1
Authority
KR
South Korea
Prior art keywords
user
content
response
image
rider
Prior art date
Application number
KR1020120129859A
Other languages
Korean (ko)
Inventor
이호석
Original Assignee
(주) 피디케이리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 피디케이리미티드 filed Critical (주) 피디케이리미티드
Priority to KR1020120129859A priority Critical patent/KR101276097B1/en
Application granted granted Critical
Publication of KR101276097B1 publication Critical patent/KR101276097B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0023Colour matching, recognition, analysis, mixture or the like
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/052Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PURPOSE: A multi simulator for a developmental disorder treatment and a simulation method thereof are provided to cure developmental disorder through various simulations like sense, recognition, language and playing, as providing the same optimum simulation environment as an actual situation to a user who suffers from the developmental disorder. CONSTITUTION: A multi simulator for a developmental disorder treatment includes a display part, a user reaction monitoring device(41), an audio processing part, and a control part. The display part displays images. The user reaction monitoring device monitors the reaction of a user watching the images, and outputs information about the reaction of the user. The audio processing part receives and outputs the voice of the user through a microphone, and outputs an action induction guide voice according to contents through a speaker. The control part stores numerous contents for the developmental disorder treatment, and displays images of the selected contents on the display part, and outputs the action induction guide voice inducing the action of the user in correspondence to the images to the speaker through the audio processing part, and judges whether the user performs the induced action by analyzing the reaction of the user corresponding to the action induction guide voice by the information inputted from the user reaction monitoring device, and then performs a treatment according to the scenario of the contents. The display part comprises a sphere screen(31) and a projector(32). The sphere screen displays images, and the sphere shape thereof is bent up, down, right, and left. The projector projects the image data according to the scenario of the contents from the control part to the sphere screen with the form of light. The projector performs NLCD(Nonlinear Distortion Correction) so that the image is not distorted when the image is displayed on the sphere screen.

Description

발달장애 치료용 다중 시뮬레이터 및 시뮬레이션 방법{Simulator and simulation method for treating ADHD}Multiple simulator and simulation method for treating developmental disorders

본 발명은 발달장애 치료를 위한 장치 및 방법에 관한 것으로, 보다 상세하게는 주의력 결핍/과잉행동 장애(Attention Deficit Hyperactivity Disorder: ADHD) 및 발달장애(자폐증)(이하 ADHD, 뇌병변장애 및 발달장애를 "발달장애"로 통칭하여 사용함)를 겪고 있는 사용자에게 실제 상황과 동일한 최적의 시뮬레이션 환경을 제공하고, 아동들을 감각, 인지, 언어 및 놀이 등의 다양한 시뮬레이션을 통해 훈련하여 발달장애를 치유할 수 있는 발달장애 치료용 다중 시뮬레이터 및 시뮬레이션 방법에 관한 것이다.
The present invention relates to an apparatus and method for the treatment of developmental disorders, and more particularly, attention deficit hyperactivity disorder (ADHD) and developmental disorders (autism) (hereinafter referred to as ADHD, brain lesions and developmental disorders). It is used to collectively use the term "developmental disability" to provide users with the best simulation environment in real life and to train children through various simulations such as sensory, cognition, language, and play. The present invention relates to a multiple simulator and simulation method for the treatment of developmental disorders.

발달은 성장에 따른 기능적 발전 과정을 말하는데 대개 일정하고 예측 가능한 양상으로 진행되는 역동적 과정이다. 그리고 발달 장애란 어느 특정 질환 또는 장애를 지칭하는 것이 아니라, 해당하는 나이에 이루어져야 할 발달이 성취되지 않은 상태로, 발달 선별검사에서 해당 연령의 정상 기대치보다 25%가 뒤쳐져 있는 경우를 말한다. 전반적 발달 지연은 대운동(Gross motor), 미세운동(Fine motor), 인지, 언어, 사회성과 일상 생황 중 2가지 이상이 지연된 경우를 말한다.Development refers to the functional development process as it grows, usually a dynamic process that proceeds in a constant and predictable manner. A developmental disability does not refer to a specific disease or disorder, but refers to a case in which development to be performed at a corresponding age is not achieved, and the developmental screening test is 25% behind the normal expectation of the age. Overall developmental delay is a delay in two or more of the gross motor, fine motor, cognition, language, sociality and everyday life.

상술한 바와 같이 발달장애는 나이에 비해 지연된 것이므로 몸으로 익히고 학습함으로써 개선될 수 있다.As described above, the developmental disorder is delayed compared with age, and thus can be improved by learning and learning with the body.

이러한 발달장애를 겪고 있는 발달장애인을 치료하기 위해서 치료용 시뮬레이터를 이용하고 있다. 통상 발달장애 치료 방법으로는 선 출원된 등록특허 10-1008541호, [시, 청각 자극을 제공하는 인지능력 향상 장치] 등과 같이 시각 및 청각적으로 자극을 주어 인지능력을 향상시키는 방법, 디스플레이 장치를 통해 시뮬레이션을 제공하여 치료하는 방법, 시각적 자극과 뇌에 물리적인 전정 자극을 주어 치료하는 방법, 및 약물 흡입에 의해 치료하는 방법 등이 적용되고 있다.Therapeutic simulators are used to treat people with developmental disabilities suffering from these developmental disorders. In general, as a method for treating developmental disorders, a method for improving cognitive ability by providing visual and auditory stimuli, such as a previously filed Patent Registration No. 10-1008541, [a cognitive ability improving device for providing an auditory stimulus], and a display device are provided. Through the use of simulation to provide treatment, visual stimulation and physical vestibular stimulation to the brain, treatment, and drug inhalation are being applied.

그러나 이러한 종래의 시· 청각 자극을 이용하여 뇌파를 변화시키는 장치는 미리 설정된 자극신호만을 이용자에게 공급하여 뇌파를 특정 주파수로 유도하므로 이용자의 상태 및 훈련결과 등을 분석하여 인지능력을 향상시키기 어려운 문제점이 있었다.However, the conventional apparatus for changing brain waves using visual and auditory stimuli supplies only a predetermined stimulus signal to a user to induce brain waves at a specific frequency, so it is difficult to improve cognitive ability by analyzing the user's state and training results. There was this.

그리고 종래 시각적인 자극을 이용한 치료 장치는 단순한 평면 디스플레이 화면을 통해 영상을 표시하여 주므로 치료를 받는 발달장애인을 치료에 몰입시킬 수 없는 문제점이 있었다.In addition, the conventional treatment device using visual stimulation has a problem that it is not possible to immerse the developmentally disabled person under treatment because the image is displayed through a simple flat display screen.

또한, 종래 발달장애 치료 장치들은 자극을 통한 것으로, 발달장애인 상호 동작을 유도할 수 없어 실질적인 운동능력, 인지 능력, 집중력 및 사회성 등의 전반적인 기능을 향상시킬 수 없는 문제점이 있었다.In addition, the conventional developmental disorder treatment apparatus through the stimulation, there is a problem that can not improve the overall function, such as practical motor skills, cognitive ability, concentration and sociality can not induce the interaction of the developmental disorder.

디스플레이 장치를 통한 시뮬레이션 장치를 이용하는 치료하는 방법은 치료보다는 검사를 위한 시뮬레이션이 대부분이며, 치료용일지라도 상술한 시각적 자극을 이용하는 방식과 동일하게 단순한 영상의 표시에 의한 치료를 제공하므로 특정 기능에 대해서만 치료를 하는 것이 대부분이며, 발달장애인을 치료에 몰입시킬 수 없는 문제점이 있었다.
The treatment method using the simulation device through the display device is mostly for simulation rather than treatment, and even for the treatment, treatment is performed only for a specific function because it provides treatment by the display of a simple image in the same way as the above-described visual stimulus. Most of them, there was a problem that can not immerse people with developmental disabilities into treatment.

따라서 본 발명의 목적은 발달장애를 겪고 있는 사용자에게 실제 상황과 동일한 최적의 시뮬레이션 환경을 제공하고, 아동들을 감각, 인지, 언어 및 놀이 등의 다양한 시뮬레이션을 통해 훈련하여 발달장애를 치유할 수 있는 발달장애 치료용 다중 시뮬레이터 및 시뮬레이션 방법을 제공함에 있다.
Accordingly, an object of the present invention is to provide a user with a developmental disorder with an optimal simulation environment as in actual situations, and to train children through various simulations such as sensation, cognition, language, and play to develop and cure a developmental disorder. The present invention provides multiple simulators and simulation methods for treating disorders.

상기와 같은 목적을 달성하기 위한 본 발명의 발달장애 치료용 다중 시뮬레이터는: 영상을 표시하는 디스플레이부; 상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치; 사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부; 다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하는 것을 특징으로 한다.Multi-simulator for treatment of developmental disorders of the present invention for achieving the above object comprises: a display unit for displaying an image; A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response; An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker; Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. It characterized in that it comprises a control unit for performing the treatment according to the scenario of the content.

상기 디스플레이부는, 상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및 상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되는 것을 특징으로 한다.The display unit may include: a spherical screen formed in a spherical shape curved up, down, left, and right to display an image; And a projector for irradiating image data according to a scenario of the content from the controller to the concrete screen as an image in the form of light.

상기 프로젝터는 상기 영상을 상기 구체 스크린에 표시 시 일그러지지 않도록 비선형 왜곡 보정(Non-linear Distortion Correction: NLDC)을 수행하는 것을 특징으로 한다.The projector performs non-linear distortion correction (NLDC) so that the image is not distorted when the image is displayed on the spherical screen.

상기 치료용 다중 시뮬레이터는, 사용자가 앉을 수 있도록 구성되는 라이더를 더 포함하는 것을 특징으로 한다.The therapeutic multiple simulator is characterized in that it further comprises a rider configured to sit the user.

상기 라이더는, 의자, 모형 말, 자전거 중 하나이되, 콘텐츠의 내용에 따라 교체될 수 있는 교체형인 것을 특징으로 한다.(설명: 이부분은 특허청구범위에 대응하는 부분이며, 특허청구범위에서 "등"을 사용할 수 없습니다.The rider is one of a chair, a model horse, and a bicycle, and is characterized by being a replaceable type that can be replaced according to the contents of the contents. (Description: This part corresponds to the claims, and in the claims, " Etc. "is not available.

상기 발달장애 치료용 콘텐츠는 사용자의 균형 감각, 전정 자극, 무게중심, 몸의 움직임과 시선의 상관관계를 훈련시키기 위한 감각 통합 콘텐츠이고, 사용자가 앉을 수 있도록 말 및 자전거 형상 중 하나의 형상으로 구성되고, 제어를 받아 좌우 또는 전후좌우로 움직이는 라이더; 및 상기 제어부의 상기 감각 통합 콘텐츠에 따른 제어를 받아 좌우 또는 전후좌우로 움직이기 위한 라이더 제어부를 더 포함하는 것을 특징으로 한다.The content for treatment of developmental disabilities is a sense-integrated content for training the correlation between the user's sense of balance, vestibular stimulation, center of gravity, body movement and gaze, and consists of one shape of the horse and bicycle shape so that the user can sit A rider which is controlled and moves left, right, front, back, left and right; And a rider control unit configured to move left, right, front, rear, left and right under control according to the sensory integrated content of the controller.

상기 라이더 제어부는, 상기 라이더의 전후좌우 방향의 이동 및 기울기를 제어하는 라이더 구동부; 및 상기 라이더의 조작에 따란 조작 데이터를 상기 라이더로부터 입력받아 상기 제어부로 출력하는 라이더 인터페이스부를 포함하는 것을 특징으로 한다.The rider controller may include: a rider driver configured to control movement and inclination of the front, rear, left, and right directions of the rider; And a rider interface unit configured to receive operation data according to the rider's manipulation from the rider and output the manipulation data to the controller.

상기 제어부는, 상기 감각 통합 콘텐츠의 시나리오에 따른 영상을 상기 구체 스크린에 표시하고 상기 감각 통합 콘텐츠의 시나리오에 따른 행동 유도 안내 음성인 균형 및 방향 전환 유도 안내 음성을 출력하여 사용자의 행동을 유도한 후, 상기 사용자 반응 모니터링 장치를 통해 사용자의 반응에 대한 상기 정보를 분석하여 사용자가 유도된 행동을 수행하지 못했으면 사용자의 동작 및 시선을 개선할 수 있는 개선 유도 영상 및 음성을 상기 구체 스크린 및 스피커를 통해 출력하는 감각 통합 훈련 모듈을 포함하는 것을 특징으로 한다.The controller may display an image according to the scenario of the sensory integrated content on the concrete screen and induce a user's behavior by outputting a balance and direction change guide voice that is a behavior guidance voice according to the scenario of the sensory integrated content. By analyzing the information on the user's response through the user response monitoring device, if the user fails to perform the induced action, the user may monitor the concrete screen and the speaker to improve the guided image and sound that may improve the user's motion and gaze. It is characterized by including a sensory integration training module to output through.

상기 사용자 반응 모니터링 장치는 상기 사용자의 신체를 촬영하는 행동 촬영 카메라이고, 상기 정보는 상기 행동 촬영 카메라에 의해 촬영된 영상데이터인 것을 특징으로 한다.The user response monitoring apparatus may be a behavior photographing camera which photographs the body of the user, and the information may be image data photographed by the behavior photographing camera.

상기 발달장애 치료용 콘텐츠는 사용자의 인지 능력을 훈련시키는 인지 콘텐츠이고, 상기 제어부는, 상기 인지 콘텐츠의 시나리오에 따라 트래킹 대상 사물을 상기 구체 스크린에 표시한 후, 상기 트래킹 대상 사물을 이동시키면서 사용자의 시선이 상기 트래킹 대상 사물을 추적하도록 유도하는 상기 행동 유도 안내 음성인 이동 및 트래킹 유도 안내 음성을 출력하고, 상기 사용자 반응 모니터링 장치로부터 입력되는 상기 정보를 분석하여 사용자의 시선을 추적하여 사용자의 시선이 유도된 행동인 트래킹 대상 사물을 추적하는지를 판단하고, 트래킹 대상 사물을 추적하지 못하는 경우, 반복적으로 트래킹 대상 사물을 이동시키며 사용자 시선의 트래킹 대상 사물을 추적하는 인지 훈련을 시키는 인지 훈련 모듈을 포함하는 것을 특징으로 한다.The content for treating a developmental disorder is cognitive content for training a user's cognitive ability, and the controller displays a tracking object on the concrete screen according to a scenario of the cognitive content, and then moves the tracking object. Outputs the movement and tracking guidance voice, which is the behavior guidance voice, which induces the gaze to track the object to be tracked, analyzes the information input from the user response monitoring device to track the user's gaze, Determining whether to track the tracking target object, which is an induced action, and if the tracking target object is not tracked, a cognitive training module for repeatedly moving the tracking target object and performing cognitive training for tracking the tracking target object of the user's eyes. It features.

상기 제어부의 인지모듈은, 상기 사용자 시선이 상기 트래킹 대상 사물을 추적하는데 성공하면 성공 횟수를 표시 및 안내하는 것을 특징으로 한다.The recognition module of the controller may display and guide the number of successes when the user gaze succeeds in tracking the tracking target object.

상기 사용자 반응 모니터링 장치는 상기 사용자의 눈을 촬영하는 시선 트래킹 카메라이고, 상기 정보는 상기 시선 트래킹 카메라에 의해 촬영된 영상데이터인 것을 특징으로 한다.The apparatus for monitoring user response may be a gaze tracking camera for capturing the eyes of the user, and the information may be image data photographed by the gaze tracking camera.

상기 발달장애 치료용 콘텐츠는 사용자의 언어 능력을 훈련시키기 위한 언어교육 콘텐츠이고, 상기 제어부는, 상기 언어교육 콘텐츠의 시나리오에 따라 교육할 발음을 로딩하여 상기 구체 스크린에 표시한 후 상기 발음에 대한 사용자의 발성을 유도하는 발음 유도 안내 음성을 출력하고, 상기 발음 유도 안내 음성에 대해 사용자가 발성을 하면 발성 시의 사용자의 입 모양과 미리 저장되어 있는 상기 발음에 대한 선생님의 입 모양을 동시에 상기 구체 스크린에 표시하며, 사용자의 입 모양과 선생님의 입 모양을 비교하여 일치하도록 사용자의 발성을 훈련시키는 언어교육 모듈을 포함하는 것을 특징으로 한다.The content for treating a developmental disability is a language education content for training a user's language ability, and the controller loads a pronunciation to be taught according to a scenario of the language education content and displays it on the concrete screen, and then the user for the pronunciation. Outputs a pronunciation guide voice for guiding a voice, and when the user speaks to the voice guide voice, simultaneously displays the shape of the user's mouth at the time of speech and the shape of the teacher's mouth for the pronunciation stored in advance. Displayed in, characterized in that it comprises a language training module for training the user's speech to match the mouth shape of the user and the teacher's mouth to match.

상기 언어교육 모듈은, 상기 사용자의 입 모양과 상기 선생님의 입 모양이 일치하면 상기 발음과 연관되는 단어를 표시한 후, 상기 단어의 발음에 대한 사용자의 발성을 유도하는 발음 유도 안내 음성을 출력하고, 사용자가 상기 단어의 발음에 대해 발성을 하면, 상기 오디오 처리부를 통해 음성인식을 수행하여 상기 단어를 정확하게 발음하였는지를 검사하고, 정확하게 발음하였으면 해당 단어를 정확하게 발음하였음을 표시하는 것을 특징으로 한다.The language education module displays a word associated with the pronunciation when the mouth shape of the user and the teacher's mouth match, and then outputs a pronunciation guide voice for inducing a user's utterance for the pronunciation of the word. When the user speaks about the pronunciation of the word, the audio processor performs voice recognition to check whether the word is pronounced correctly. If the user pronounces the word correctly, the user pronounces the word correctly.

상기 사용자 반응 모니터링 장치는, 사용자의 입을 촬영하는 행동 촬영 카메라이고, 상기 정보는 사용자의 입을 촬영한 영상데이터인 것을 특징으로 한다.The user response monitoring apparatus may be a behavior photographing camera photographing a user's mouth, and the information may be image data photographing a user's mouth.

상기 시뮬레이터는, 의자 형상으로 형성되되, 등받이에 진동 스피커를 구비하고 상기 진동 스피커를 통해 상기 발음 유도 안내 음성의 세기 및 파장에 대응하는 진동을 발생하는 라이더를 더 포함하는 것을 특징으로 한다.The simulator is characterized in that it further comprises a rider formed in a chair shape, having a vibrating speaker on the back and generating a vibration corresponding to the intensity and wavelength of the pronunciation guide voice through the vibrating speaker.

상기 라이더는 상기 진동 스피커를 온/오프하는 스위치를 더 구비하는 것을 특징으로 한다.The rider further comprises a switch for turning on / off the vibrating speaker.

상기 발달장애 치료용 콘텐츠는 사용자의 운동을 유도하고 사용자의 사회성을 훈련시키는 게임 콘텐츠이고, 상기 제어부는, 선택된 게임 콘텐츠의 게임 영상을 상기 구체 스크린에 표시하고, 상기 게임 영상과 연동하여 사용자의 움직임을 유도하는 움직임 유도 안내 음성을 출력하고 상기 사용자 반응 모니터링 장치로부터 입력되는 상기 정보를 분석하여 사용자가 상기 움직임 유도에 대응하는 행동을 하였는지를 판단하고, 그 결과에 따른 성공 알림 및 지속적인 사용자의 움직임을 유도하는 게임 모듈을 포함하는 것을 특징으로 한다.The content for treating a developmental disorder is game content for inducing a user's exercise and training a user's sociality, and the controller displays a game image of a selected game content on the concrete screen and moves the user in conjunction with the game image. It outputs a motion induction guidance voice to guide the user and analyzes the information input from the user response monitoring device to determine whether the user has acted in response to the motion induction, and induces success notification and continuous user motion according to the result. Characterized in that it comprises a game module.

상기 게임은 구체 스크린 상에 표시되는 영상을 터치하는 터치 게임이고, 상기 사용자 반응 모니터링 장치는, 상기 구체 스크린에 터치된 위치를 인지하는 센서이며, 상기 정보는 상기 터치된 위치의 위치정보인 것을 특징으로 한다.The game is a touch game that touches the image displayed on the sphere screen, the user response monitoring device is a sensor for recognizing the position touched on the sphere screen, the information is the position information of the touched position It is done.

사용자 반응 모니터링 장치는, 상기 구체 스크린의 터치 위치를 검출하여 출력하는 센서; 사용자의 신체를 촬영한 영상데이터를 출력하는 행동 촬영 카메라; 및 사용자의 눈을 촬영한 영상데이터를 출력하는 시선 트래킹 카메라를 포함하는 것을 특징으로 한다.User response monitoring device, the sensor for detecting and outputting the touch position of the specific screen; An action photographing camera which outputs image data photographing a user's body; And a gaze tracking camera for outputting image data photographing the user's eyes.

상기와 같은 목적을 달성하기 위한 본 발명의 발달장애 치료용 다중 시뮬레이션 방법은: 제어부가 다수의 발달장애 치료용 콘텐츠들 중 선택된 적어도 하나 이상의 콘텐츠가 선택되는지를 판단하는 콘텐츠 선택 과정; 제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정; 상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정; 상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하는 것을 특징으로 한다.In order to achieve the above object, the multi-simulation method for treating developmental disorder of the present invention includes: a content selection process of determining, by a controller, at least one selected content from among a plurality of contents for treating developmental disorder; A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider; A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body; The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and the user corresponding to the image and the behavior guidance voice. And a content execution process of analyzing a response based on information input from the user response monitoring device to determine whether the user has performed an induced action, and performing a treatment according to the scenario of the content.

상기 콘텐츠 선택 과정은, 시뮬레이션 개시 이벤트가 발생되는지를 검사하는 시뮬레이션 개시 판단 단계; 상기 사용자 반응 모니터링 장치를 초기화하는 장치 초기화 단계; 및 콘텐츠 설정 화면을 표시하여 콘텐츠를 선택받는 콘텐츠 선택 단계를 포함하는 것을 특징으로 한다.The content selection process may include a simulation start determination step of checking whether a simulation start event occurs; A device initialization step of initializing the user response monitoring device; And a content selection step of selecting a content by displaying a content setting screen.

상기 시뮬레이션 방법은, 상기 라이더 필요 판단 과정에서 라이더가 필요한 것으로 판단되면 라이더를 초기화하는 라이더 초기화 과정; 및 사용자가 상기 라이더에 사용자가 착석했는지를 판단하는 사용자 착석 판단 과정을 더 포함하는 것을 특징으로 한다.The simulation method may include: a rider initialization process of initializing a rider when it is determined that a rider is needed in the rider need determination process; And a user seating determination process of determining whether the user is seated on the rider.

상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 감각 통합 콘텐츠이고, 상기 콘텐츠 실행 과정은, 라이더 정보를 로딩하는 라이더 정보 획득 단계; 상기 획득된 라이더 정보에 대응하는 주행 영상을 해당 콘텐츠에서 로딩하여 구체 스크린에 디스플레이하는 영상 디스플레이 단계; 상기 디스플레이되는 영상에 대응하여 단계별 균형 및 방향 전환을 유도하는 행동 유도 안내 음성을 출력하는 행동 유도 단계; 사용자 반응 모니터링 장치로부터 입력되는 영상데이터 및 라이더로부터 입력되는 입력정보를 분석하여 상기 유도된 영상에 대응하는 사용자의 행동 및 시선을 분석하는 사용자 행동 분석 단계; 사용자가 유도된 영상 및 음성에 대응하는 행동을 하였는지를 판단하는 동작 판단 단계; 및 사용자가 유도된 영상 및 음성에 대응하는 동작을 하지 못했으면 사용자의 행동 및 시선에 대응하는 개선 유도 영상 및 유도 안내 음성을 출력하여 사용자의 행동을 개선시키고, 유도된 영상 및 음성에 대응하는 행동을 했으면 다음 단계를 수행하는 반복 훈련 단계를 포함하는 것을 특징으로 한다.The content selected in the content selection process is sensory integrated content, and the content execution process includes: a rider information obtaining step of loading rider information; An image display step of loading a driving image corresponding to the obtained rider information from a corresponding content and displaying the same on a concrete screen; A behavior derivation step of outputting a behavior guidance voice for inducing balance and direction change in stages in response to the displayed image; A user behavior analysis step of analyzing the image data input from the user response monitoring device and the input information input from the rider to analyze the behavior and gaze of the user corresponding to the induced image; An operation determining step of determining whether the user has acted in response to the induced video and audio; And if the user fails to perform an action corresponding to the induced video and audio, the user may improve the user's behavior by outputting an improved guided video and guided voice corresponding to the user's behavior and gaze, and then respond to the induced video and audio. If it is characterized in that it comprises a repetitive training step to perform the next step.

상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 인지 콘텐츠이고, 상기 콘텐츠 실행 과정은, 선택된 인지 콘텐츠의 트래킹 대상 사물을 구체 스크린에 표시하는 트래킹 대상 사물 표시 단계; 상기 표시된 트래킹 대상 사물의 이동 및 트래킹 유도 안내 음성을 출력하는 행동 유도 단계; 사용자 반응 모니터링 장치로의 시선 트래킹 카메라를 통해 입력되는 사용자의 눈을 촬영한 영상데이터를 분석하여 상기 사용자가 상기 트래킹 대상 사물을 보고 추적하는지를 분석하는 사용자 행동 분석 단계; 및 트래킹 대상 사물 추적에 성공여부를 사용자에게 통지하는 통지 단계를 포함하는 것을 특징으로 한다.The content selected in the content selection process is cognitive content, and the content execution process includes: a tracking object display step of displaying a tracking object of the selected cognitive content on a specific screen; An action derivation step of outputting a movement and tracking guidance voice of the displayed tracking object; A user behavior analysis step of analyzing whether the user views and tracks the object to be tracked by analyzing image data photographing the eye of the user input through a gaze tracking camera to a user reaction monitoring device; And a notification step of notifying a user of whether the tracking target thing has been successfully tracked.

상기 통지 단계는, 트래킹 대상 사물 추적 성공 시 성공 횟수를 카운트하고 카운트된 횟수를 상기 구체 스크린에 표시하여 상기 성공여부를 표시하는 추적 성공 표시 단계를 포함하는 것을 특징으로 한다.The notifying step may include a tracking success display step of counting the number of successes when tracking the tracking target object and displaying the counted number on the concrete screen to indicate the success or failure.

상기 통지 단계는, 상기 인지 콘텐츠의 트래킹 대상 사물 추적 완료 시 추적에 성공한 총 횟수와 상기 총 횟수의 트래킹 대상 사물을 함께 표시하는 최종 추적 성공 통지 단계를 더 포함하는 것을 특징으로 한다.The notifying step may further include a final tracking success notification step of displaying the total number of successful tracking and the total number of tracking target objects together when the tracking of the tracking target object is completed.

상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 언어교육 콘텐츠이고, 상기 콘텐츠 실행 과정은, 교육할 음을 상기 언어교육 콘텐츠로부터 단계별로 로딩하여 구체 스크린에 표시하는 음 표시 단계; 표시된 음에 대한 발음을 유도하는 발음 유도 안내 음성을 출력하는 발음 유도 단계; 상기 발음 유도 단계 후 사용자 반응 모니터링부의 행동 촬영 카메라를 통해 사용자의 입 촬영을 개시하고 마이크를 통해 사용자가 발성을 하는지를 모니터링하는 행동 모니터링 단계; 사용자가 상기 표시된 음에 대해 발성을 하면 사용자 입을 캡처하고, 미리 저장되어 있는 상기 음에 대한 선생님 입 모양과 함께 상기 구체 스크린에 표시하는 입 모양 비교 표시 단계; 및 상기 캡처된 사용자의 입 모양과 상기 선생님 입 모양의 패턴을 비교하여 일치하는지를 판단하는 사용자의 발음 성공 여부를 판단하는 발음 성공 판단 단계를 포함하는 것을 특징으로 한다.The content selected in the content selection process is language education content, and the content execution process includes: a sound display step of loading a sound to be trained step by step from the language education content and displaying it on a specific screen; A pronunciation inducing step of outputting a pronunciation guide voice for inducing a pronunciation of the displayed sound; A behavior monitoring step of starting photographing a mouth of a user through a behavior photographing camera of a user response monitoring unit after the pronunciation inducing step and monitoring whether a user speaks through a microphone; A mouth shape comparison display step of capturing the user's mouth when the user speaks to the displayed sound and displaying the mouth mouth on the concrete screen together with the teacher mouth shape for the sound previously stored; And a pronunciation success determination step of determining whether or not the user's pronunciation success is determined by comparing the captured user's mouth shape with the teacher's mouth pattern.

상기 콘텐츠 실행 과정은, 상기 발음 성공 판단 단계에서 발음 성공 시 상기 성공한 음에 대한 적어도 하나 이상의 단어를 표시한 후 상기 단어들의 발성을 유도하는 발음 유도 안내 음성을 출력하는 단어 발음 유도 단계; 상기 마이크를 통해 상기 단어에 대한 사용자의 발음이 입력되는지를 검사하고 사용자 발음 검사 단계; 상기 사용자가 상기 단어에 대해 발성하면 상기 발성된 발음을 음성인식 하여 해당 단어를 정확하게 발성했는지를 검사하는 발성 성공 판단 단계; 및 단어에 대한 발성 성공 시 해당 단어의 쓰기란에 해당 단어를 써 넣는 성공 알림 표시 단계를 포함하는 것을 특징으로 한다.The content execution process may include: a word pronunciation derivation step of outputting a pronunciation guide voice for deriving the utterance of the words after displaying at least one word for the successful sound when the pronunciation succeeds in the pronunciation success determination step; Checking whether a user's pronunciation of the word is input through the microphone and checking a user's pronunciation; A speech success determination step of checking whether the user pronounces the word correctly by voice recognition of the pronounced pronunciation when the user speaks about the word; And a success notification display step of writing the corresponding word in the writing column of the word when the utterance of the word is successful.

상기 콘텐츠 실행 과정은, 상기 발음 유도 단계에서 발음 유도 안내 음성을 라이더의 진동 스피커로 출력하여 상기 발음 유도 안내 음성에 대응하는 진동을 발생시키는 진동 자극 단계를 더 포함하는 것을 특징으로 한다.The content execution process may further include a vibration stimulation step of generating a vibration corresponding to the pronunciation guide voice by outputting the pronunciation guide voice to the vibration speaker of the rider in the pronunciation guide step.

상기 선택된 콘텐츠는 게임 콘텐츠이고, 상기 게임은 구체 스크린에 표시된 사물들을 터치하도록 유도하는 터치 게임인 것을 특징으로 한다.
The selected content is game content, and the game is a touch game for inducing a user to touch objects displayed on a sphere screen.

본 발명은 구체(Spherical) 스크린을 적용하여 실제 상황과 동일한 최적의 시뮬레이션 환경을 구성함으로서 발달장애인의 몰입감을 향상시킬 수 있고, 학습능력을 향상시킬 수 있는 효과를 갖는다.The present invention has the effect of improving the immersion of the developmental disabled and learning ability by applying the spherical screen to configure the optimal simulation environment as the actual situation.

또한, 본 발명은 발달장애인인 사용자가 라이더에 탑승하여 시뮬레이션을 수행하므로, 해당 콘텐츠에 대응하여 라이더를 조작하기 위한 행동을 유도하므로 사용자의 학습능력 및 치료 성능을 향상시킬 수 있는 효과를 갖는다.In addition, the present invention, because the user with a developmental disability performs a simulation on the rider, inducing an action for manipulating the rider in response to the content has the effect of improving the learning ability and treatment performance of the user.

또한, 본 발명은 제공되는 시뮬레이션의 콘텐츠에 대응하는 사용자의 행동, 시선을 카메라를 통해 촬영된 영상을 통해 분석하고, 사용자가 발성한 발음을 마이크 등을 통해 분석하므로 사용자의 잘못된 행동, 시선 및 발음을 판단할 수 있어 사용자의 반응을 보다 명확하게 분석할 수 있는 효과를 갖는다.In addition, the present invention analyzes the user's behavior, gaze corresponding to the content of the simulation provided through the image taken by the camera, and analyzes the user's pronunciation through a microphone, etc., so that the user's wrong behavior, gaze and pronunciation It can be determined that has the effect of more clearly analyzing the user's response.

또한, 사용자의 반응을 보다 명확하게 분석할 수 있으므로 사용자에게 정확한 콘텐츠를 제공할 수 있고, 사용자의 잘못된 반응에 대한 보다 정확한 개선 시뮬레이션(영상, 음성 등)을 제공할 수 있으므로 사용자의 학습능력을 향상시킬 수 있는 효과를 갖는다.
In addition, the user's response can be analyzed more clearly, thereby providing accurate content to the user, and providing a more accurate simulation (video, audio, etc.) of the user's wrong reaction, thereby improving the user's learning ability. It has an effect that can be made.

도 1은 본 발명에 따른 발달장애 치료용 다중 시뮬레이터의 구성을 나타낸 도면이다.
도 2는 본 발명에 따른 발달장애 치료용 다중 시뮬레이터의 제어장치의 구성을 나타낸 도면이다.
도 3은 본 발명에 따른 발달장애 치료용 다중 시뮬레이터에 적용될 수 있는 라이더들을 나타낸 도면이다.
도 4는 본 발명에 따른 발달장애 치료용 다중 시뮬레이터에서의 다중 시뮬레이션 방법을 나타낸 흐름도이다.
도 5는 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 감각 통합 훈련 방법을 나타낸 흐름도이다.
도 6은 본 발명의 일실시예에 따른 라이더를 이용한 감각 통합 훈련 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 인지훈련 방법을 나타낸 흐름도이다.
도 8은 본 발명의 일실시예에 따른 인지훈련 방법의 일예를 나타낸 도면이다.
도 9는 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 언어교육 방법을 나타낸 흐름도이다.
도 10은 본 발명의 일실시예에 따른 언어교육 방법의 일예를 나타낸 도면이다.
도 11은 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 놀이 방법을 나타낸 흐름도이다.
도 12는 본 발명의 일실시예에 따른 놀이 방법의 예들을 나타낸 도면이다.
도 13은 본 발명의 일실시예에 따라 진동 스피커가 구비하는 의자 라이더의 구성을 나타낸 도면이다.
1 is a view showing the configuration of a multi-simulator for the treatment of developmental disorders according to the present invention.
2 is a view showing the configuration of a control device of a multi-simulator for the treatment of developmental disorders according to the present invention.
3 is a view showing riders that can be applied to the multi-simulator for the treatment of developmental disorders according to the present invention.
4 is a flowchart illustrating a multi-simulation method in a multi-simulator for treating a developmental disorder according to the present invention.
5 is a flowchart illustrating a sensory integration training method of a multiple simulation method according to an embodiment of the present invention.
6 is a view for explaining a sensory integration training method using a rider according to an embodiment of the present invention.
7 is a flowchart illustrating a cognitive training method of a multiple simulation method according to an embodiment of the present invention.
8 is a view showing an example of a cognitive training method according to an embodiment of the present invention.
9 is a flowchart illustrating a language teaching method of a multi-simulation method according to an embodiment of the present invention.
10 is a view showing an example of a language teaching method according to an embodiment of the present invention.
11 is a flowchart illustrating a play method of a multi-simulation method according to an embodiment of the present invention.
12 is a diagram showing examples of a play method according to an embodiment of the present invention.
13 is a view showing the configuration of a chair rider provided in a vibration speaker according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 발달장애 치료용 다중 시뮬레이터의 구성 및 동작 및 다중 시뮬레이터에서의 시뮬레이션 방법을 설명한다.Hereinafter, with reference to the accompanying drawings will be described the configuration and operation of the multi-simulator for the treatment of developmental disorders of the present invention and the simulation method in the multi-simulator.

도 1은 본 발명에 따른 발달장애 치료용 다중 시뮬레이터의 구성을 나타낸 도면이고, 도 3은 본 발명에 따른 발달장애 치료용 다중 시뮬레이터에 적용될 수 있는 라이더들을 나타낸 도면이며, 도 13은 본 발명의 일실시예에 따라 진동 스피커가 구비하는 의자 라이더의 구성을 나타낸 도면이다.1 is a view showing the configuration of a multi-simulator for the treatment of developmental disorders according to the present invention, Figure 3 is a view showing the riders that can be applied to the multi-simulator for the treatment of developmental disorders according to the present invention, Figure 13 is one of the present invention According to an embodiment, a diagram illustrating a configuration of a chair rider included in a vibrating speaker.

도 1 및 도 3, 도 13을 참조하면, 본 발명의 치료용 다중 시뮬레이터는 제어장치(100), 구체 스크린(31), 프로젝터(32), 사용자 반응 모니터링 장치(41), 마이크(MIC)(51), 스피커(52) 및 라이더(70)를 포함한다.1, 3, and 13, the therapeutic multiple simulator of the present invention includes a control device 100, a concrete screen 31, a projector 32, a user response monitoring device 41, a microphone (MIC) ( 51, a speaker 52, and a rider 70.

본 발명의 제어장치(100)는 본 발명에 따른 다중 시뮬레이션을 위한 다양한 콘텐츠들 대한 전반적인 동작을 제어한다. 제어장치(100)의 구성 및 동작은 후술할 도 2를 참조하여 상세히 설명한다.The control device 100 of the present invention controls the overall operation of the various contents for the multi-simulation according to the present invention. The configuration and operation of the control device 100 will be described in detail with reference to FIG. 2 to be described later.

스크린(31)은 프로젝터(32)로부터 조사된 영상을 디스플레이한다. 본 발명의 스크린(31)은 사용자, 즉 아동의 몰입감을 높이고, 스크린에 표시되는 콘텐츠의 상황이 실제 상황과 동일하게 느껴질 수 있도록 도 1과 같이 영상 표시면이 상하좌우 곡면으로 이루어지는 구체(Spherical) 스크린이 적용된다.The screen 31 displays the image irradiated from the projector 32. Screen 31 of the present invention is a spherical surface of the image display surface as shown in Figure 1 so as to increase the immersion of the user, that is, the child, and the situation of the content displayed on the screen can feel the same as the actual situation (Spherical) The screen is applied.

프로젝터(32)는 제어장치(100)로부터 콘텐츠에 대응하는 영상데이터를 입력받고, 구체 스크린(31)에 일그러짐 없이 표시될 수 있도록 스크린의 굴곡 정도에 따라 영상을 변환하여 상기 구체 스크린(31)에 변환된 영상을 조사한다. 구체인 스크린 면에 왜곡 없는 영상을 표시하기 위해 구체 스크린(31)에 표시되는 영상은 비선형 왜곡 보정(NLDC: Non-linear Distortion Correction) 방식에 의해 보정된다. 그러나 상기 보정은 제어장치(100)에서 이루어지도록 구성될 수도 있을 것이다. 이 경우 프로젝터(32)는 보정된 영상데이터를 입력받아 빛의 형태의 영상으로 변환하여 상기 구체 스크린(31)에 조사할 것이다.The projector 32 receives the image data corresponding to the content from the control device 100, converts the image according to the degree of curvature of the screen so that it can be displayed without distortion on the concrete screen 31 to the concrete screen 31 Examine the converted image. The image displayed on the sphere screen 31 is corrected by a non-linear distortion correction (NLDC) method in order to display an image without distortion on the screen surface which is a sphere. However, the correction may be configured to be made in the control device 100. In this case, the projector 32 receives the corrected image data, converts it into an image in the form of light, and irradiates the concrete screen 31.

스피커(52)는 제어장치(100)로부터 콘텐츠에 대응하는 안내 음성을 출력한다.The speaker 52 outputs the guide voice corresponding to the content from the control device 100.

사용자 반응 모니터링 장치(41)는 사용자의 행동, 시선을 모니터링하는 것으로, 센서(42), 행동 촬영 카메라(43), 시선 트래킹 카메라(44)를 포함한다. 구체적으로 센서(42)는 사용자의 동작 및 움직임을 인식한다. 상기 센서(42)는 사용자가 구체 스크린(31)의 터치 위치를 인식하고, 인식된 터치 위치 정보를 출력하는 센서일 수 있을 것이다. 그리고 행동 촬영 카메라(43)는 사용자의 전신을 촬영하여 출력하고, 시선 트래킹 카메라(44)는 제어장치(100)의 제어를 받아 사용자의 눈을 촬영하여 출력한다. 상기 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)는 PTZ(Pan/Tilt/Zoom) 카메라이다. The user response monitoring device 41 monitors a user's behavior and gaze, and includes a sensor 42, a behavior photographing camera 43, and a gaze tracking camera 44. In detail, the sensor 42 recognizes a user's motion and movement. The sensor 42 may be a sensor for the user to recognize the touch position of the concrete screen 31 and output the recognized touch position information. The action photographing camera 43 photographs and outputs the entire body of the user, and the gaze tracking camera 44 photographs and outputs the user's eyes under the control of the control apparatus 100. The behavior photographing camera 43 and the gaze tracking camera 44 are PTZ (Pan / Tilt / Zoom) cameras.

마이크(51)는 사용자가 발화한 발음을 전기적인 신호로 변환하여 제어장치(100)로 출력하는 것으로 기능적으로 상기 사용자 반응 모니터링부(40)에 포함될 수도 있을 것이다.The microphone 51 may be functionally included in the user response monitoring unit 40 by converting the pronunciation spoken by the user into an electrical signal and outputting the converted signal to the control device 100.

라이더(70)는 사용자가 시뮬레이션을 편안하게 앉아서 이용하기 위한 좌석으로, 도 3에 나타낸 바와 같이 의자, 말, 자전거 등의 형태로 구성될 수 있다. 그러나 라이더(70)의 모양은 콘텐츠에 따라 다양하게 구성될 수 있으며, 도 3의 형태에 국한되지 않는다. 예를 들어, 라이더(70)는 승마 콘텐츠가 실행될 경우, 말 위에 올라탄 느낌을 갖게 하기 위해 도 3의 (나)와 같이 말 형상의 좌석으로 구성될 수 있으며, 균형 감각을 훈련하기 위한 자전거 콘텐츠가 실행될 경우 도 3의 (다)와 같이 자전거 형상의 좌석으로 구성될 수 있을 것이다. 즉 라이더(70)는 콘텐츠의 내용과 조화되어 구성되고, 유사한 환경조건을 조성해 줌으로써 사용자가 실제와 같은 상황으로 느낄 수 있도록 만든다. 또한, 라이더(70)는 도 13에서 보이는 바와 같이 언어 교육 콘텐츠 등과 같은 진동에 의한 자극을 주는 콘텐츠들에서 사용자에게 실제와 유사한 환경조건을 조성해 주기 위해 의자 라이더(70)의 등받이에 진동 스피커(71)를 포함하도록 구성될 수도 있을 것이다. 이는 콘텐츠 내에서 가르치는 선생님 또는 사용자가 글자(음절)을 발음 시, 음성의 파장 및 떨림이 탑승자의 몸으로 느껴지게 하기 위한 것이다. 예를 들어 설명하면, '아'를 발음할 때와 '우'를 발음할 때 각각의 음절이 세기, 파장 및 진동이 다르다는 것을 느끼고 이해할 수 있게 하며, 성대에서 울리는 떨림을 사용자의 몸으로 전달하여 각 음절에 따른 세기, 파장 및 진동이 다르다는 것을 인지시켜 학습 성능을 향상시킨다. 상기 진동 스피커(71)는 전원과 연결되고, 라이더(70)의 임의의 위치에 설치되는 스위치를 통해 온/오프되도록 구성될 수 있을 것이다.
The rider 70 is a seat for the user to sit comfortably using the simulation, and may be configured in the form of a chair, a horse, a bicycle, and the like as shown in FIG. 3. However, the shape of the rider 70 may be configured in various ways depending on the content, it is not limited to the form of FIG. For example, the rider 70 may be configured as a horse-shaped seat as shown in (b) of FIG. 3 in order to have a feeling of riding on a horse when the riding content is executed, and bicycle content for training a sense of balance. When executed, it may be configured as a bicycle-shaped seat as shown in (c) of FIG. That is, the rider 70 is configured in harmony with the content of the content, and by creating a similar environmental conditions to make the user feel like a real situation. In addition, as shown in FIG. 13, the rider 70 vibrates the speaker 71 on the back of the chair rider 70 in order to create a realistic environmental condition for the user in the contents stimulating by the vibration, such as language education content. It may be configured to include). This is for the teacher or user teaching in the content to make the wavelength and trembling of the voice felt by the passenger's body when the character (syllable) is pronounced. For example, when you pronounce 'ah' and 'right', you can feel and understand that each syllable is different in intensity, wavelength, and vibration, and transmit the trembling from the vocal cords to your body. Improves learning performance by recognizing that the strength, wavelength and vibration of each syllable are different. The vibrating speaker 71 may be connected to a power source and configured to be turned on / off through a switch installed at an arbitrary position of the rider 70.

이하에서는 도 2를 참조하여 제어장치(100)의 구성 및 동작을 상세히 설명한다.Hereinafter, the configuration and operation of the control device 100 will be described in detail with reference to FIG. 2.

도 2는 본 발명에 따른 발달장애 치료용 다중 시뮬레이터의 제어장치의 구성을 나타낸 도면이다.2 is a view showing the configuration of a control device of a multi-simulator for the treatment of developmental disorders according to the present invention.

본 발명에 따른 제어장치(100)는 제어부(10), 입력부(20), 디스플레이부(30), 사용자 반응 모니터링부(40), 오디오 처리부(50) 및 라이더 제어부(60)를 포함한다. The control device 100 according to the present invention includes a control unit 10, an input unit 20, a display unit 30, a user response monitoring unit 40, an audio processing unit 50, and a rider control unit 60.

입력부(20)는 다수의 숫자키 및 문자키, 방향키 등의 다수의 키들을 포함하는 키보드 등이 될 수 있으며, 사용자 또는 관리자에 의해 눌려진 키에 대응하는 키신호를 제어부(10)로 출력한다. 입력부(20)는 키보드 외에도, 사용자가 콘텐츠에 대응하여 반응을 입력받는 버튼들로 구성될 수 있는 사용자 응답 수단을 더 포함할 수도 있을 것이다.The input unit 20 may be a keyboard including a plurality of keys such as a number key, a character key, and a direction key, and outputs a key signal corresponding to a key pressed by a user or an administrator to the controller 10. In addition to the keyboard, the input unit 20 may further include user response means that may be configured as buttons for receiving a response in response to the content.

디스플레이부(30)는 도 1에서 설명한 구체 스크린(31) 및 프로젝터(32)로 구성될 수도 있고, 구체 스크린(31) 및 프로젝터(32) 외에 별도의 CRT 모니터 또는 LCD 모니터 등이 될 수도 있고 둘 모두를 포함하여 구성될 수 있을 것이다. 그러나 사용자에게 실제상황과 유사한 조건을 만들어주기 위해서는 사용자가 보는 스크린은 구체 스크린(31)을 적용하는 것이 바람직할 것이다. 그리고 CRT 모니터 또는 LCD 모니터는 관리자가 이용하게 하는 것이 바람직할 것이다.The display unit 30 may be configured of the concrete screen 31 and the projector 32 described in FIG. 1, or may be a separate CRT monitor or LCD monitor, etc. in addition to the concrete screen 31 and the projector 32. It may be configured to include all. However, in order to create a condition similar to the actual situation for the user, it may be desirable to apply the spherical screen 31 to the screen that the user sees. And it would be desirable to have a CRT monitor or LCD monitor available to the administrator.

사용자 반응 모니터링부(40)는 사용자 반응 모니터링 장치(41)들과 연결되어 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)의 촬영 방향을 조절하고, 각 카메라를 통해 촬영된 영상데이터를 제어부(10)로 출력하며, 센서(42)를 통해 검출된 센싱데이터를 제어부(10)로 출력한다. 구체적으로 사용자 반응 모니터링부(40)는 센서(42)와 연결되어 센서(42)로부터 센싱 신호를 입력받아 센싱데이터로 변환하여 제어부(10)로 출력하는 인터페이스부(45), 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)의 방향을 각각 제어하는 카메라 틸팅부(46), 및 상기 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)로부터 촬영된 영상데이터를 영상 처리하여 제어부(10)로 출력하는 영상 처리부(47)를 포함한다. 구체적으로, 카메라 틸팅부(46)는 제어부(10)의 제어를 받아 상기 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)의 팬(Pan), 틸트(Tilt), 줌(Zoom)을 제어한다.The user reaction monitoring unit 40 is connected to the user reaction monitoring devices 41 to adjust the photographing direction of the behavior photographing camera 43 and the gaze tracking camera 44, and controls the image data photographed through the respective cameras. 10), and outputs the sensing data detected through the sensor 42 to the controller 10. In detail, the user reaction monitoring unit 40 is connected to the sensor 42 and receives the sensing signal from the sensor 42, converts the sensing data into the sensing data, and outputs the control unit 10 to the control unit 10 and the action photographing camera 43. ) And a camera tilting unit 46 for controlling the direction of the gaze tracking camera 44, and the image data captured by the behavior photographing camera 43 and the gaze tracking camera 44 to be processed by the controller 10. And an image processor 47 for outputting. In detail, the camera tilting unit 46 controls the pan, tilt, and zoom of the behavior photographing camera 43 and the gaze tracking camera 44 under the control of the controller 10. .

오디오 처리부(50)는 콘텐츠에 따른 행동 유도 안내 음성 등과 같은 안내 음성데이터를 제어부(10)로부터 입력받아 스피커(52)를 통해 출력하고, 사용자가 발성한 발음을 마이크(51)를 통해 전기적인 신호로 입력받아 음성데이터로 변환하여 제어부(10)로 출력한다. 또한, 오디오 처리부(50)는 마이크(51)를 통해 입력되는 사용자의 발성을 음성인식 하여 제어부(10)로 출력한다.The audio processor 50 receives guide voice data such as a behavior guidance voice according to the content from the controller 10 and outputs it through the speaker 52, and an electrical signal is output through the microphone 51. Is converted into voice data and output to the control unit 10. In addition, the audio processor 50 recognizes the voice of the user input through the microphone 51 and outputs the voice to the controller 10.

라이더 제어부(60)는 제어부(10)의 제어를 받아 라이더(70)의 동작을 제어하는 라이더 구동부(62)와 라이더(70)로부터 입력되는 데이터를 제어부(10)로 출력하는 라이더 인터페이스부(63)를 포함한다. 구체적으로 라이더 구동부(62)는 라이더(70)를 움직이기 위해 구성된 모터 등을 구동하여 라이더를 전후좌우 및 기울기 등을 제어한다. 라이더 인터페이스부(63)는 라이더(70)에 탑승한 사용자의 라이더(70) 조작에 따른 데이터를 입력받아 제어부(10)로 출력한다. 상기 조작에 따른 데이터는 라이더(70)가 자전거인 경우, 핸들 좌우 조작 데이터, 브레이크 데이터, 페달 회전 속도 데이터, 자전거의 좌우 기울어짐 각도 데이터 등이 될 수 있을 것이다. 또한, 라이더(70)에 진동 스피커(71)가 구성되어 있는 경우 라이더 인터페이스부(63)는 제어부(10)로부터 발음 유도 안내 음성 등과 같으나 음성데이터를 입력받아 아날로그 음성신호로 변환하여 상기 진동스피커(71)로 출력하도록 구성될 수도 있고, 오디오 처리부(50)와 연결되어 오디오 처리부(50)의 스피커(52)를 통해 출력되는 아날로그 신호인 발음 유도 안내 음성 신호를 입력받아 상기 진동 스피커(71)로 출력하도록 구성될 수도 있을 것이다.The rider controller 60 controls the operation of the rider 70 under the control of the controller 10, and the rider interface unit 63 that outputs data input from the rider 70 to the controller 10. ). Specifically, the rider driver 62 drives a motor configured to move the rider 70 to control the rider in front, rear, left, right, and inclination. The rider interface unit 63 receives data corresponding to the operation of the rider 70 of the user who rides on the rider 70 and outputs the data to the controller 10. When the rider 70 is a bicycle, the data according to the manipulation may be left and right steering data, brake data, pedal rotation speed data, left and right tilt angle data of the bicycle, and the like. In addition, when the vibration speaker 71 is configured in the rider 70, the rider interface unit 63 is the same as the pronunciation guide voice from the controller 10, but receives voice data and converts it into an analog voice signal to convert the vibration speaker ( 71 may be configured to be outputted to the vibrating speaker 71 by receiving a pronunciation guide voice signal, which is connected to the audio processor 50 and is an analog signal output through the speaker 52 of the audio processor 50. It may be configured to output.

제어부(10)는 시뮬레이션 모듈(11), 사용자 반응 인식 모듈(16) 및 콘텐츠 DB(17)를 포함하여 본 발명에 따른 치료용 다중 시뮬레이터의 전반적인 동작을 제어한다.The control unit 10 includes a simulation module 11, a user response recognition module 16, and a content DB 17 to control the overall operation of the therapeutic multiple simulator according to the present invention.

구체적으로 설명하면, 콘텐츠 DB(17)는 발달장애를 치료하기 위한 감각통합 훈련 콘텐츠, 인지훈련 콘텐츠, 언어교육 콘텐츠, 다수의 놀이 콘텐츠 등의 다수의 콘텐츠들을 저장한다. 상기 콘텐츠들은 다양한 상황에 대한 훈련 시나리오 및 상기 시나리오에 따른 영상, 정지영상 및/또는 이미지, 행동 유도 안내 음성 데이터, 라이더 제어 데이터 등을 포함한다. Specifically, the content DB 17 stores a plurality of contents such as sensory integration training contents, cognitive training contents, language education contents, and a plurality of play contents for treating a developmental disorder. The contents include training scenarios for various situations and images, still images and / or images according to the scenarios, behavior guidance voice data, rider control data, and the like.

시뮬레이션 모듈(11)은 선택된 콘텐츠에 대응하여 해당 영상을 프로젝터(32)를 통해 구체 스크린(31)에 표시하고, 상기 콘텐츠의 영상에 대응하여 사용자 반응 모니터링부(40), 오디오 처리부(50) 및 라이더 제어부(60)를 통해 사용자의 반응을 유도 및 모니터링하고, 사용자 반응 인식 모듈(16)로부터 입력되는 분석된 정보에 기초하여 해당 콘텐츠에 따른 훈련을 수행한다.The simulation module 11 displays the corresponding image on the concrete screen 31 through the projector 32 in response to the selected content, and responds to the user response monitoring unit 40, the audio processing unit 50, and the corresponding image of the content. The rider controller 60 induces and monitors the user's response, and performs training according to the corresponding content based on the analyzed information input from the user response recognition module 16.

상기 시뮬레이션 모듈(11)은 감각통합 훈련 모듈(12), 인지훈련 모듈(13), 언어 교육 모듈(14) 및 놀이 모듈(15) 등을 포함한다.The simulation module 11 includes a sensory integration training module 12, a cognitive training module 13, a language education module 14, a play module 15, and the like.

감각통합 훈련 모듈(12)은 감각통합 훈련 콘텐츠를 콘텐츠 DB(17)로부터 로딩하고, 로딩된 감각통합 훈련 콘텐츠에 따라 영상을 구체 스크린(31)에 표시하고, 그에 대응하여 라이더(70)를 제어하며, 그에 따른 라이더(70)의 조작 및 사용자 반응 모니터링 장치(41)를 통한 사용자의 반응을 모니터링하며, 상기 라이더(70) 및 구체 스크린(31)을 통해 상기 모니터링된 사용자의 반응 및 조작에 대응하는 콘텐츠의 시나리오에 따라 연속적인 훈련을 제공한다. 부연설명을 하면, 정신 및 행동장애를 가진 사용자의 경우 일반적인 사람들과는 다르게 실제 경험을 통해 행동 발달을 이루기가 쉽지 않은 경우가 많다. 그 예로, 자전거나 말과 같은 움직임과 동시에 균형감각을 필요로 하는 것에서 두려움, 회피, 부적응을 보이고, 넘어지거나 떨어지는 등 위험한 사고의 발생 확률이 높다. 따라서 라이더(70)를 통해 손잡이를 잡고 페달을 돌려보며, 구체 스크린(31)에 표시되는 영상을 통해 전방 주시를 할 수 있도록 유도하여 사용자가 균형을 잡고 상황을 미리 체험할 수 있도록 한다. 이러한 반복된 연습을 통해 사용자는 감각과 무게중심을 익히고, 몸의 움직임과 시선의 상관관계를 자연스럽게 훈련시킨다.The sensory integration training module 12 loads the sensory integration training content from the content DB 17, displays an image on the concrete screen 31 according to the loaded sensory integration training content, and controls the rider 70 accordingly. And monitors the user's response through the user's response and the user's response monitoring device 41 accordingly, and responds to the monitored user's response and operation through the rider 70 and the concrete screen 31. Provide continuous training based on the scenario of the content. In detail, users with mental and behavioral disorders are not easy to achieve behavioral development through actual experiences unlike general people. For example, there is a high likelihood of a dangerous accident, such as a bicycle or a horse, requiring a sense of balance at the same time as showing a fear, avoidance, or inadequacy, falling or falling. Therefore, by holding the handle through the rider 70 and turning the pedal, the user is guided to look forward through the image displayed on the concrete screen 31 so that the user can balance and experience the situation in advance. Through these repeated exercises, the user learns the senses and the center of gravity, and naturally trains the correlation between the movement of the body and the eyes.

인지훈련 모듈(13)은 인지 훈련 콘텐츠를 콘텐츠 DB(17)로부터 로딩하고, 로딩된 인지 훈련 콘텐츠에 따라 영상을 구체 스크린(31)에 표시하고, 그에 대응하여 사용자 반응 모니터링 장치(41)를 통해 사용자의 시선의 움직임 등을 모니터링 및 분석하고, 분석된 사용자의 시선에 대응하는 콘텐츠의 시나리오에 따라 인지 훈련을 수행한다. 부연 설명을 하면, 인지훈련 모듈(13)은 시선 트래킹 카메라(44)를 통해 사용자의 눈(홍채)을 인식하고, 인식되는 사용자 시선이 구체 스크린(31)에 표시되는 물체의 이동에 따라 옮겨지도록 유도하여 사용자의 시야각을 넓힐 수 있도록 훈련한다.The cognitive training module 13 loads cognitive training content from the content DB 17, displays an image on the concrete screen 31 according to the loaded cognitive training content, and correspondingly through the user response monitoring device 41. Monitor and analyze the movement of the user's gaze, and perform cognitive training according to the scenario of the content corresponding to the analyzed gaze of the user. In detail, the cognitive training module 13 recognizes the eye (iris) of the user through the gaze tracking camera 44 and moves the recognized user gaze according to the movement of the object displayed on the sphere screen 31. Train to induce wider viewing angles.

언어 교육 모듈(14)은 언어 교육 콘텐츠를 콘텐츠 DB(17)로부터 로딩하고, 로딩된 언어 교육 콘텐츠에 따라 언어 교육 영상을 구체 스크린(31)에 표시하고, 그에 대응하는 사용자의 행동 및 발성을 사용자 반응 모니터링 장치(41) 및 마이크(51)를 통해 분석하고, 분석된 사용자의 행동 및 발성에 대응하는 콘텐츠의 시나리오에 따라 언어교육을 수행한다.The language teaching module 14 loads language teaching content from the content DB 17, displays a language teaching image on the concrete screen 31 according to the loaded language teaching content, and displays the user's behavior and voice corresponding thereto. Analyzes through the reaction monitoring device 41 and the microphone 51, and performs language training according to the scenario of the content corresponding to the analyzed user's behavior and speech.

놀이 모듈(15)은 사용자의 능동적인 행동을 유도하는 게임 콘텐츠를 콘텐츠 DB(17)로부터 로딩하고, 로딩된 게임 콘텐츠에 따라 영상을 구체 스크린(31)에 표시하고, 사용자의 능동적인 행동을 유도하며, 상기 유도에 의한 사용자의 행동을 사용자 반응 모니터링 장치(41)를 통해 분석하고, 분석된 사용자의 행동에 대응하는 콘텐츠의 시나리오에 따라 게임을 수행한다. 부연하여 설명하면, 손가락을 쥐었다 펴게 하고, 손과 다리를 뻗었다가 흔들었다가, 이리저리 몸을 움직이게 하며, 사용자의 행동을 유도 및 실행하게 하여 사회성을 향상시킨다.The play module 15 loads game content inducing the active action of the user from the content DB 17, displays an image on the concrete screen 31 according to the loaded game content, and induces the active action of the user. The user's behavior by the induction is analyzed through the user response monitoring device 41, and the game is performed according to the scenario of the content corresponding to the analyzed user's behavior. In other words, the fingers are stretched and stretched, hands and legs stretched and shaked, the body moves around, and the user's actions are induced and executed to improve sociality.

사용자 반응 인식 모듈(16)은 상기 사용자 반응 모니터링부(40), 또는 사용자 반응 모니터링부(40) 및 라이더 인터페이스부(63)로부터 입력되는 정보들을 분석하여 사용자 반응을 인식한 후 해당 시뮬레이션 모듈(11)로 제공한다.
The user response recognition module 16 analyzes the information input from the user response monitoring unit 40 or the user response monitoring unit 40 and the rider interface unit 63 to recognize the user response and then simulates the corresponding response module 11. )

도 4는 본 발명에 따른 발달장애 치료용 다중 시뮬레이터에서의 다중 시뮬레이션 방법을 나타낸 흐름도이다. 이하 도 1 내지 도 4를 참조하여 설명한다.4 is a flowchart illustrating a multi-simulation method in a multi-simulator for treating a developmental disorder according to the present invention. Hereinafter, a description will be given with reference to Figs. 1 to 4. Fig.

우선, 제어장치(100)의 제어부(10)는 시뮬레이션 개시 이벤트가 발생되는지를 검사한다(S411). 시뮬레이션 개시 이벤트는 입력부(20)를 통해 관리자기 시뮬레이션 개시 명령을 입력할 경우 발생할 수도 있고, 시뮬레이터가 구동된 상태에서 사용자가 라이더(70)에 착석하거나 구체 스크린(31)의 앞에 서는 경우 발생될 수도 있을 것이다. 후자의 경우, 제어부(10)는 사용자 반응 모니터링 장치(41) 및 마이크(51) 중 하나에 의해 사용자가 구체 스크린(31) 앞에 서 있는 지의 여부를 판단할 수 있을 것이다.First, the control unit 10 of the control device 100 checks whether a simulation start event occurs (S411). The simulation start event may occur when an administrator initiates a simulation start command through the input unit 20, or may occur when a user is seated on the rider 70 or stands in front of the concrete screen 31 while the simulator is driven. There will be. In the latter case, the controller 10 may determine whether the user is standing in front of the concrete screen 31 by one of the user response monitoring device 41 and the microphone 51.

시뮬레이션 개시 이벤트가 발생되면 제어부(10)는 사용자 반응 모니터링 장치(41) 및 마이크(51)를 사용자에 맞도록 촬영 방향 및 위치를 설정한다(S413). 상기 초기 사용자 반응 모니터링 장치(41) 및 마이크(51)의 설정은 자동으로 사용자 반응 모니터링 장치(41)를 통해 모니터링되는 정보에 의해 자동으로 설정할 수도 있고, 관리자가 수동으로 설정할 수도 있을 것이다.When the simulation start event occurs, the controller 10 sets the photographing direction and the position of the user response monitoring device 41 and the microphone 51 to fit the user (S413). The initial user response monitoring device 41 and the microphone 51 may be set automatically by information monitored through the user response monitoring device 41 or may be manually set by an administrator.

장치 초기화 후, 제어부(10)는 콘텐츠 설정 화면을 표시한다(S415). 상기 콘텐츠 설정 화면은 프로젝터(32)를 통해 구체 스크린(31)에 표시될 수도 있고, 별도의 LCD 등과 같은 별도의 디스플레이 장치에 표시될 수도 있을 것이다. 콘텐츠 설정 화면은 다수의 콘텐츠들 중 하나 이상을 선택하고, 그 순서 등을 설정하는 화면일 수 있을 것이다.After device initialization, the controller 10 displays a content setting screen (S415). The content setting screen may be displayed on the concrete screen 31 through the projector 32 or may be displayed on a separate display device such as a separate LCD. The content setting screen may be a screen for selecting one or more of a plurality of contents, setting the order, and the like.

상기 콘텐츠 설정화면이 표시된 후, 제어부(10)는 임의의 콘텐츠가 선택되는지를 검사한다(S417).After the content setting screen is displayed, the controller 10 checks whether arbitrary content is selected (S417).

임의의 콘텐츠가 선택되면 제어부(10)는 선택된 콘텐츠가 라이더(70)를 필요로 하는 콘텐츠인지를 판단한다(S419).If any content is selected, the controller 10 determines whether the selected content is a content that requires the rider 70 (S419).

판단 결과, 라이더(70)를 필요로 하는 콘텐츠이면 제어부(10)는 선택된 콘텐츠에 대응하는 라이더(70)가 적용되었는지를 판단한다(S421). 이를 위해 상기 콘텐츠 DB(17)에 저장된 각 콘텐츠는 콘텐츠 필요 여부 정보를 가지고 있으며, 콘텐츠가 필요한 경우 해당 콘텐츠는 필요한 라이더(70)의 식별정보를 가지고 있어야 한다. 그리고 각 라이더(70)는 종류별 식별정보를 가지고 있어야 한다. 그러면 제어부(10)는 상기 콘텐츠의 선택 시 콘텐츠에 포함된 필요 라이더의 식별정보와 라이더 인터페이스부(63)를 통해 라이더(70)로부터 입력받은 식별정보를 비교하여 동일한 라이더인지를 판단하여 상기 콘텐츠에 대응하는 라이더(70)가 적용되었는지를 판단한다.If it is determined that the content requires the rider 70, the controller 10 determines whether the rider 70 corresponding to the selected content is applied (S421). To this end, each content stored in the content DB 17 has content need information, and if the content is needed, the content should have identification information of the necessary rider 70. And each rider 70 should have identification information for each type. Then, when selecting the content, the controller 10 compares the identification information of the necessary rider included in the content with the identification information input from the rider 70 through the rider interface unit 63, and determines whether it is the same rider. It is determined whether the corresponding rider 70 has been applied.

선택된 콘텐츠에 대응하는 라이더가 적용되지 않은 경우 제어부(10)는 현재 적용된 라이더(70)의 라이더 정보(식별정보 포함) 및 콘텐츠에 대응하는 라이더 정보를 포함하는 콘텐츠 대응 라이더 정보를 표시하여 콘텐츠에 대응하는 라이더(70)를 적용할 것을 요청한다(S423).When the rider corresponding to the selected content is not applied, the controller 10 displays content corresponding rider information including rider information (including identification information) of the currently applied rider 70 and rider information corresponding to the content to correspond to the content. Request to apply the rider 70 to (S423).

선택된 콘텐츠에 대응하는 라이더가 적용되면 제어부(10)는 라이더 구동부(62)를 제어하여 라이더(70)를 초기화시킨다(S425).When a rider corresponding to the selected content is applied, the controller 10 controls the rider driver 62 to initialize the rider 70 (S425).

라이더가 초기화되면 제어부(10)는 사용자가 라이더(70)에 착석했는지를 판단한다(S427). 사용자의 라이더(70) 착석 여부는 사용자 반응 모니터링 장치(41)의 행동 촬영 카메라(43), 시선 트래킹 카메라(44)를 통해 촬영되는 영상을 통해 판단될 수 있으며, 라이더(70)에 설치된 별도의 센서(미도시)를 통해 판단될 수도 있을 것이다.When the rider is initialized, the controller 10 determines whether the user is seated in the rider 70 (S427). Whether the user's rider 70 is seated can be determined through the image captured by the behavior photographing camera 43 and the gaze tracking camera 44 of the user reaction monitoring device 41, and is installed in the rider 70 It may be determined through a sensor (not shown).

사용자가 라이더(70)에 착석했으면 제어부(10)는 사용자 반응 모니터링 장치(41)를 사용자에 맞도록 설정한다(S429). 예를 들어, 행동 촬영 카메라(43)는 라이더(70)에 착석한 사용자의 전체 신체 또는 서거나 바닥에 앉아 있는 사용자의 신체 전체 모두가 촬영될 수 있도록 조절되고, 시선 트래킹 카메라(44)는 사용자의 두 눈이 촬영될 수 있도록 조절된다.If the user is seated on the rider 70, the controller 10 sets the user response monitoring device 41 to fit the user (S429). For example, the behavior shooting camera 43 is adjusted so that the entire body of the user seated in the rider 70 or the whole body of the user standing or sitting on the floor can be photographed, and the gaze tracking camera 44 is the user. Your eyes are adjusted so that they can be taken.

상기 사용자 반응 모니터링 장치(41)의 설정이 완료되면 제어부(10)는 상기 선택된 콘텐츠를 실행하여 시뮬레이션 종료 이벤트가 발생할 때까지 해당 콘텐츠에 대응하는 훈련을 수행한다(S431, S433). 상기 시뮬레이션 종료 이벤트는 상기 선택된 콘텐츠가 완료되거나, 관리자가 입력부(20)를 통해 시뮬레이션 종류 명령을 실행한 경우 발생될 수 있을 것이다.When the setting of the user response monitoring device 41 is completed, the controller 10 executes the selected content and performs training corresponding to the corresponding content until a simulation end event occurs (S431 and S433). The simulation end event may be generated when the selected content is completed or when the administrator executes a simulation type command through the input unit 20.


도 5는 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 감각 통합 훈련 방법을 나타낸 흐름도이고, 도 6은 본 발명의 일실시예에 따른 라이더를 이용한 감각 통합 훈련 방법을 설명하기 위한 도면이다. 이하 도 5 및 도 6을 참조하여 감각 통합 훈련 방법을 설명한다.FIG. 5 is a flowchart illustrating a sensory integration training method of a multi-simulation method according to an embodiment of the present invention, and FIG. 6 is a diagram illustrating a sensory integration training method using a rider according to an embodiment of the present invention. Hereinafter, the sensory integration training method will be described with reference to FIGS. 5 and 6.

우선 제어부(10)는 상기 도 4에서 선택된 콘텐츠가 감각 통합 훈련 콘텐츠이고, 사용자 반응 모니터링 장치(41)의 설정이 완료되면(S429), 감각 통합 훈련 모듈(12)을 활성화시킨다.First, the controller 10 activates the sensory integration training module 12 when the content selected in FIG. 4 is the sensory integration training content and setting of the user response monitoring device 41 is completed (S429).

활성화된 감각 통합 훈련 모듈(12)은 라이더 인터페이스부(63)를 통해 라이더(70)의 라이더 정보를 로딩한다(S511). 여기서 라이더 정보를 로딩하는 이유는 감각 통합 훈련 콘텐츠라 할지라도 도 6에 표시된 바와 같이 다양한 라이더가 적용될 수 있고, 라이더의 종류에 따라서 그 영상 및 시나리오가 달라질 수 있기 때문이다.The activated sensory integration training module 12 loads rider information of the rider 70 through the rider interface unit 63 (S511). The reason for loading the rider information is that various riders may be applied as shown in FIG. 6 even in the sense-integrated training content, and the image and the scenario may vary depending on the type of rider.

라이더 정보가 로딩되면 통합 훈련 모듈(12)은 감각 통합 콘텐츠로부터 상기 로딩된 라이더 정보의 라이더(70)에 대응하는 감각 통합 콘텐츠 시나리오를 로드하고, 그 시나리오에 따른 주행 영상을 디스플레이부(30)인 프로젝터(32)를 통해 구체 스크린(31)에 표시한다(S513).When the rider information is loaded, the integrated training module 12 loads the sensory integrated content scenario corresponding to the rider 70 of the loaded rider information from the sensory integrated content, and displays the driving image according to the scenario as the display unit 30. The display is displayed on the spherical screen 31 through the projector 32 (S513).

영상이 표시되기 시작하면 감각 통합 훈련 모듈(12)은 영상(시나리오)에 대응하여 사용자의 동작을 요구하는 안내 음성을 스피커(52)를 통해 출력하여 사용자가 단계별 균형 및 방향 전환을 할 수 있도록 유도한다(S515).When the image starts to be displayed, the sensory integration training module 12 outputs a guide voice for requesting the user's operation in response to the image (scenario) through the speaker 52 to induce the user to step by step balance and direction change. (S515).

상기 사용자의 행동 유도 후 감각 통합 훈련 모듈(12)은 사용자 반응 모니터링부(40)를 통해 사용자 반응 모니터링 장치(41)로부터 수신되는 영상 및 라이더 인터페이스부(63)를 통해 입력되는 라이더(70)의 조작 정보를 분석하고(S517), 사용자의 시선을 분석하여 추적한다(S519).After inducing the behavior of the user, the sensory integration training module 12 receives an image received from the user response monitoring device 41 through the user response monitoring unit 40 and the rider 70 input through the rider interface unit 63. The operation information is analyzed (S517), and the eyes of the user are analyzed and tracked (S519).

감각 통합 훈련 모듈(12)은 분석된 정보로부터 유도된 영상에 대응하여 사용자가 반응했는지를 판단한다(S521).Sensory integration training module 12 determines whether the user responds to the image derived from the analyzed information (S521).

사용자가 유도된 영상에 대응하여 반응하지 않았으면 감각 통합 훈련 모듈(12)은 감각 통합 콘텐츠로부터 사용자의 동작 및 시선에 대응하는 개선 유도 영상 및 음성을 로딩하여 구체 스크린(31) 및 스피커(52)를 통해 출력한(S523) 후, 사용자가 유도된 반응을 했는지를 다시 판단한다(S521).If the user did not respond in response to the induced image, the sensory integration training module 12 loads the improved guidance image and the voice corresponding to the user's motion and gaze from the sensory integrated content, and then displays the sphere screen 31 and the speaker 52. After outputting through (S523), it is determined again whether the user made the induced reaction (S521).

사용자가 유도된 영상에 대응하여 반응했으면 감각 통합 훈련 모듈(12)은 콘텐츠의 모든 단계들을 완료했는지를 판단하고(S525), 모든 단계들을 완료할 때까지 콘텐츠의 영상(시나리오)에 따라 상술한 S517 내지 S523을 반복해서 수행한다.
If the user has responded in response to the induced image, the sensory integration training module 12 determines whether all the steps of the content have been completed (S525), and according to the image (scenario) of the content until the completion of all the steps S517 described above. To S523 are repeatedly performed.

도 7은 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 인지훈련 방법을 나타낸 흐름도이고, 도 8은 본 발명의 일실시예에 따른 인지훈련 방법의 일예를 나타낸 도면이다. 이하 도 7 및 도 8을 참조하여 인지훈련 방법을 설명한다.7 is a flowchart illustrating a cognitive training method of a multiple simulation method according to an embodiment of the present invention, and FIG. 8 is a diagram illustrating an example of a cognitive training method according to an embodiment of the present invention. Hereinafter, the cognitive training method will be described with reference to FIGS. 7 and 8.

우선 제어부(10)는 상기 도 4에서 선택된 콘텐츠가 인지 훈련 콘텐츠이고, 사용자 반응 모니터링 장치(41)의 설정이 완료되면(S429), 인지 훈련 모듈(13)을 활성화시킨다.First, when the content selected in FIG. 4 is the cognitive training content, and the setting of the user response monitoring device 41 is completed (S429), the controller 10 activates the cognitive training module 13.

활성화된 인지 훈련 모듈(13)은 도 8의 (가)와 같은 기본 좌표로 구성되는 구체 스크린(31)의 중앙에 인지 훈련을 위한 (나)와 같은 트래킹 대상 사물을 표시한다(S711).The activated cognitive training module 13 displays a tracking target object such as (b) for cognitive training in the center of the spherical screen 31 composed of basic coordinates as shown in FIG. 8 (A) (S711).

트래킹 대상 사물을 표시한 후, 인지 훈련 모듈(13)은 트래킹 대상 사물의 이동 및 사용자의 시선 트래킹을 유도하는 안내 음성을 오디오 처리부(50)를 거쳐 스피커(52)를 통해 출력한다(S713).After displaying the object to be tracked, the cognitive training module 13 outputs the guide voice for inducing the movement of the object to be tracked and the user's eye tracking through the speaker 52 through the audio processor 50 (S713).

상기 트래킹 유도 안내 음성의 출력 후 인지 훈련 모듈(13)은 사용자 반응 모니터링 장치(41)의 시선 트래킹 카메라(44)를 통해 사용자의 시선을 분석 및 추적한다(S715). 도 8을 참조하여 구체적으로 설명하면, 도 8의 (나)에서 구체 스크린(31)의 중앙에 표시된 사물, 즉 사과나무를 보도록 집중시킨 후, 사용자가 사과나무에 집중을 하면 사과나무에서 사과 한 개를 따서 (다)와 같이 외쪽 모퉁이로 이동시키고 사용자의 시선이 왼쪽으로 옮겨지도록 유도한다. 이때 사용자 시선이 사과나무에 집중되는지 및 이동된 사과의 위치로 사용자의 시선이 움직이는지는 사용자 반응 모니터링 장치(41)의 시선 트래킹 카메라(44)에 의해 촬영된 영상의 분석에 의해 이루어진다.The cognitive training module 13 after the output of the tracking guidance guidance voice analyzes and tracks the gaze of the user through the gaze tracking camera 44 of the user response monitoring device 41 (S715). Specifically, referring to FIG. 8, after focusing on the object displayed at the center of the sphere screen 31, that is, the apple tree in FIG. 8 (b), if the user concentrates on the apple tree, Pick up the dog and move it to the outer corner as shown in (c) and induce the user's eyes to move to the left. At this time, whether the user's gaze is concentrated on the apple tree and the user's gaze moves to the position of the moved apple is made by analyzing the image photographed by the gaze tracking camera 44 of the user reaction monitoring device 41.

상기와 같이 사용자 시선 분석 및 추적이 이루어지면 인지 훈련 모듈(13)은 사물이 이동한 위치로 사용자의 시선이 이동했는지를 판단하여 사물 추적 성공 여부를 판단한다(S717).When the user gaze analysis and tracking is performed as described above, the cognitive training module 13 determines whether the object tracking is successful by determining whether the user's gaze has moved to the position where the object has moved (S717).

판단 결과, 사물 추적에 성공했으면, 인지 훈련 모듈(13)은 추적 성공을 알리고 성공 횟수를 카운트한 후 표시한다(S719).As a result of the determination, if the object tracking is successful, the cognitive training module 13 notifies the tracking success and counts and displays the number of successes (S719).

반면, 사물 추적에 실패하면 인지 훈련 모듈(13)은 추적 실패 횟수를 카운트하고(S721), 사용자의 시선을 이동한 사물로 유도하는 안내 음성을 반복해서 출력한다(S713). 상기 카운트된 추적 실패 횟수는 추후 관리자의 자료로 이용될 수 있을 것이다.On the other hand, if the object tracking fails, the cognitive training module 13 counts the number of tracking failures (S721), and repeatedly outputs a guide voice for guiding the user's eyes to the moved object (S713). The counted number of tracking failures may be used later as data for the manager.

상기 추적 성공 횟수가 카운트되면 인지 훈련 모듈(13)은 추적 성공 횟수가 미리 설정된 기준 횟수를 초과하는지를 검사하여, 상기 추적 성공 횟수가 기준 횟수를 초과할 때까지 반복해서 상기 S713 내지 S717을 반복해서 수행한다(S723, S725).When the number of successful tracking is counted, the cognitive training module 13 checks whether the number of successful tracking exceeds a preset reference number, and repeatedly performs the steps S713 to S717 until the number of successful tracking exceeds the reference number. (S723, S725).

상기 추적 성공 횟수가 기준횟수를 초과하면 인지 훈련 모듈(13)은 추적 성공 횟수를 구체 스크린(31)에 표시한다(S727).If the number of successful tracking exceeds the reference number, the cognitive training module 13 displays the number of successful tracking on the concrete screen 31 (S727).

도 8을 참조하여 상기 S719 내지 S727을 설명하면, 도 8의 (다)와 같이 트래킹 대상 사물인 사과가 일측 모서리로 이동되고, 사용자가 사과로 시선을 이동하여 사물 추적에 성공하면 1을 카운트한 후 표시하며, (다)의 사과 위치에서 (라)와 같이 사과의 위치를 이동시킨 후, 사용자의 시선이 사과가 이동한 위치로 이동하면 2를 카운트한 후 표시한다. 그리고 기준 횟수가 2회로 설정된 경우 인지 훈련 모듈(13)은 추적 성공 횟수가 2가 되었으므로 도 8의 (바)와 같이 추적에 성공한 횟수를 표시하여 알려준다.Referring to S719 to S727 with reference to FIG. 8, as shown in (c) of FIG. 8, an apple, which is a tracking target object, is moved to one corner, and if the user moves the eye to the apple and succeeds in tracking the object, the number 1 is counted. After the apple is moved from the apple position of (C) as shown in (D), if the user's eyes move to the position where the apple is moved, 2 is counted and displayed. And if the reference number is set to two times, the cognitive training module 13 indicates the number of successful tracking as shown in Figure 8 (bar) since the number of successful tracking is 2, and informs.

상기 설명에서는 추적 성공 횟수가 기준 횟수를 초과하는 경우 추적 성공 횟수를 표시하여 과정을 완료하는 경우를 설명하였으나, 성공 및 실패에 상관없이 트래킹 대상 사물의 이동 횟수가 기준 횟수를 초과하는 경우, 최종 추적 성공 횟수를 표시하여 사용자에게 알려주도록 구성될 수도 있을 것이다.
In the above description, when the tracking success count exceeds the reference count, the tracking success count is displayed to complete the process. However, the final tracking is performed when the number of movements of the tracking target object exceeds the reference count regardless of success or failure. It may be configured to inform the user by displaying the number of successes.

도 9는 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 언어교육 방법을 나타낸 흐름도이고, 도 10은 본 발명의 일실시예에 따른 언어교육 방법의 일예를 나타낸 도면이다. 이하 도 9 및 도 10을 참조하여 언어 교육 방법을 설명한다.9 is a flowchart illustrating a language teaching method of a multi-simulation method according to an embodiment of the present invention, and FIG. 10 is a diagram illustrating an example of a language teaching method according to an embodiment of the present invention. Hereinafter, a language teaching method will be described with reference to FIGS. 9 and 10.

우선 제어부(10)는 상기 도 4에서 선택된 콘텐츠가 언어 교육 콘텐츠이고, 사용자 반응 모니터링 장치(41)의 설정이 완료되면(S429), 언어 교육 모듈(14)을 활성화시킨다.First, when the content selected in FIG. 4 is language education content and setting of the user response monitoring device 41 is completed (S429), the controller 10 activates the language education module 14.

활성화된 언어 교육 모듈(13)은 선택된 언어 교육 콘텐츠로부터 교육할 발음을 로딩하여 구체 스크린(31)에 표시한다(S911).The activated language teaching module 13 loads the pronunciation to be taught from the selected language teaching content and displays it on the spherical screen 31 (S911).

교육할 발음의 표시 후, 언어 교육 모듈(13)은 표시된 언어의 발음을 유도하는 발음 유도 안내 음성을 스피커(52)를 통해 출력한다(S913).After displaying the pronunciation to be taught, the language teaching module 13 outputs a pronunciation guide voice guiding the voice of the displayed language through the speaker 52 (S913).

상기 안내 발음 유도 안내 음성의 출력 후, 언어 교육 모듈(13)은 사용자 반응 모니터링 장치(41)의 행동 촬영 카메라(43)를 통해 사용자의 입의 촬영을 개시한다(S915).After outputting the guide pronunciation guide voice, the language training module 13 starts capturing the user's mouth through the behavior photographing camera 43 of the user response monitoring device 41 (S915).

상기 사용자 입의 촬영이 개시되면 언어 교육 모듈(13)은 마이크(51)를 통해 사용자가 발성을 하는지를 검사하고(S917), 사용자가 발성을 하면 오디오 처리부(50)를 통해 마이크(51)로부터 입력되는 음성에 대한 음성인식을 수행하고(S918), 상기 행동 촬영 카메라(43)를 통해 사용자의 발성 시의 입 모양을 캡처한다(S919).When the photographing of the user's mouth is started, the language teaching module 13 checks whether the user speaks through the microphone 51 (S917), and inputs from the microphone 51 through the audio processor 50 when the user speaks. The voice recognition is performed on the voice (S918), and the shape of the mouth when the user speaks is captured through the action photographing camera 43 (S919).

상기 사용자의 발성에 의한 사용자의 입 모양이 캡처되면 언어 교육 모듈(14)은 상기 표시된 발음에 대해 콘텐츠에 포함되어 있는 선생님의 입 모양을 로드하고(S921), 선생님의 입 모양과 사용자의 입모양을 도 10의 (가)와 같이 표시한다(S923).When the shape of the user's mouth by the user's utterance is captured, the language education module 14 loads the shape of the teacher's mouth included in the content for the displayed pronunciation (S921), and the shape of the teacher's mouth and the user's mouth. Is displayed as shown in FIG. 10A (S923).

상기 선생님의 입 모양 및 사용자의 입 모양 표시 후 언어 교육 모듈(14)은 오차 범위 내에서 선생님의 입 모양과 사용자의 입 모양이 일치하는지를 판단한다(S925). 상기 입 모양의 일치 여부는 각각의 입 모양 패턴을 비교하여 이루어질 수 있을 것이다.After displaying the teacher's mouth shape and the user's mouth shape, the language education module 14 determines whether the teacher's mouth shape and the user's mouth shape match within an error range (S925). Whether the mouth shape matches may be achieved by comparing the respective mouth shape patterns.

오차범위 내에서 일치하면 언어 교육 모듈(14)은 도 10의 (나)와 같이 적어도 하나 이상의 연관 단어를 표시하고, 표시된 연관 단어들의 발음을 유도하는 발음 유도 안내 음성을 스피커(52)를 통해 출력한다(S927).If it matches within the error range, the language teaching module 14 displays at least one or more related words as shown in FIG. 10 (b), and outputs a pronunciation guide voice to guide pronunciation of the displayed related words through the speaker 52. (S927).

상기 발음 유도 안내 음성의 출력 후 언어 교육 모듈(14)은 마이크(51)를 통해 발음이 입력되는지를 검사한다(S929).After outputting the pronunciation guidance voice, the language education module 14 checks whether the pronunciation is input through the microphone 51 (S929).

마이크(51)를 통해 발음이 입력되면 언어 교육 모듈(14)은 음성인식을 수행한(S930) 후, 인식된 결과가 상기 표시된 단어와 일치하는지를 판단한다(S931).When the pronunciation is input through the microphone 51, the language education module 14 performs voice recognition (S930), and then determines whether the recognized result matches the displayed word (S931).

일치하면 언어 교육 모듈(14)은 일치한 단어에 대해 해당 발음을 정확하게 했음을 나타내기 위해 구체 스크린(31)에 표시되는 해당 단어를 굵은 글씨 등으로 강조하여 표시한다(S933). 상기 강조 표현은 도 10에서와 같이 쓰기란을 굵은 글씨로 표기하는 것이 될 수 있을 것이다. 예를 들어, 발음 유도 안내 음성이 도 10의 (나)와 같이 [우유]이었고, 사용자가 이에 대해 정확하게 발음되었다면 도 10의 (나)와 같이 [우유]는 굵은 글씨로 표시될 것이다.If there is a match, the language education module 14 highlights the corresponding word displayed on the spherical screen 31 in bold letters or the like to indicate that the pronunciation of the matched word is correct (S933). The emphasizing expression may be to indicate the writing column in bold letters as shown in FIG. For example, if the pronunciation guidance voice was [milk] as shown in (b) of FIG. 10, and the user pronounced correctly for this, [milk] will be displayed in bold letters as shown in (b) of FIG.

언어 학습 모듈(14)은 표시된 단어들에 대해 모든 언어 학습이 끝나면 과정이 종료될 때까지 다음 단어들을 표시하여 상기 과정들을 반복 수행한다(S935, S937). 상기 과정 종료는 시간이 일정 시간 지나는 경우 종료되도록 구성될 수도 있고, 일정 단어들을 학습하는 경우 종료되도록 구성될 수도 있으며, 관리자의 종료 명령에 의해 종료될 수도 있을 것이다.
The language learning module 14 repeats the above processes by displaying the next words until all the language learning is completed for the displayed words until the process ends (S935, S937). The end of the process may be configured to terminate when a certain time passes, or may be configured to terminate when learning certain words, or may be terminated by an administrator's termination command.

도 11은 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 놀이 방법을 나타낸 흐름도이고, 도 12는 본 발명의 일실시예에 따른 놀이 방법의 예들을 나타낸 도면이다. 이하 도 11 및 도 12를 참조하여 놀이를 이용한 훈련 방법을 설명한다.11 is a flowchart illustrating a play method of a multi-simulation method according to an embodiment of the present invention, and FIG. 12 is a diagram illustrating examples of a play method according to an embodiment of the present invention. Hereinafter, a training method using play will be described with reference to FIGS. 11 and 12.

놀이에는 도 12에서 나타낸 바와 같이 (가)의 나비 잡기 놀이, (나) 농구 놀이 및 (다)의 이야기 듣고 지시에 따라 행동하기 등과 같은 다양한 놀이들이 놀이 콘텐츠로 등록되어 있을 수 있을 것이다.As shown in FIG. 12, various games such as (a) catching a butterfly, (b) basketball, and (c) listening to and acting according to instructions may be registered as play contents.

도 11을 참조하면, 제어부(10)는 상기 도 4에서 선택된 콘텐츠가 놀이 콘텐츠이고, 사용자 반응 모니터링 장치(41)의 설정이 완료되면(S429), 놀이 모듈(15)을 활성화시킨다.Referring to FIG. 11, the controller 10 activates the play module 15 when the content selected in FIG. 4 is play content and setting of the user response monitoring device 41 is completed (S429).

활성화된 놀이 모듈(13)은 게임 콘텐츠들을 리스트의 형태로 표시한다(S1111). 상기 게임 콘텐츠 리스트는 프로젝터(32)를 통해 구체 스크린(31)에 표시될 수도 있고, 관리자만 보는 별도의 디스플레이 장치에 표시될 수도 있을 것이다.The activated play module 13 displays game contents in the form of a list (S1111). The game content list may be displayed on the concrete screen 31 through the projector 32, or may be displayed on a separate display device which only an administrator sees.

상기 게임 리스트가 표시되면 게임 모듈(15)은 다수의 게임 콘텐츠들 중 하나가 선택되는지를 검사한다(S1113).When the game list is displayed, the game module 15 checks whether one of a plurality of game contents is selected (S1113).

하나의 게임 콘텐츠가 선택되면 게임 모듈(15)은 사용자 반응 모니터링 장치(41)의 센서(42)를 활성화시킨(S1114) 후, 선택 게임을 로딩하여 게임 영상을 프로젝터(32)를 통해 구체 스크린(31)에 표시하고, 게임 오디오를 스피커(52)를 통해 출력하여 게임을 플레이한다(S1115).When one game content is selected, the game module 15 activates the sensor 42 of the user response monitoring device 41 (S1114), and then loads the selected game to display the game image through the projector 32 through the spherical screen ( And display game audio through the speaker 52 to play the game (S1115).

게임이 플레이되면 게임 모듈은 사용자의 움직임을 유도하는 영상 및 안내 음성을 출력하고(S1117), 사용자 반응 모니터링 장치(41)를 통해 사용자가 대응동작을 수행하는지를 검사한다(S1119). 본 발명에 따른 게임들은 사용자의 적극적인 행동들을 유도하여야 함에 따라 도 12의 (가) 및 (나)에서 보이는 바와 같이 사용자가 구체 스크린(31)에 인접하여 행동하게 되므로 센서(42)를 통해 사용자가 터치하는 스크린 상의 위치를 센싱하는 것이 바람직할 것이다.When the game is played, the game module outputs an image and a guide voice for inducing a user's movement (S1117), and checks whether the user performs a corresponding operation through the user response monitoring device 41 (S1119). Games according to the present invention should induce active actions of the user, so that the user acts adjacent to the concrete screen 31 as shown in FIGS. 12A and 12B. It would be desirable to sense a location on the screen that touches.

유도된 영상 및 안내 음성에 대응하여 사용자가 적절한 대응 동작을 수행하지 못하면 게임 모듈(15)은 사용자의 개선 동작을 유도하는 개선 동작 유도 영상 및 안내 음성을 출력한(S1123) 후, 다시 사용자가 적절한 대응동작을 수행하는지를 판단한다(S1119).If the user does not perform an appropriate response in response to the guided image and the guided voice, the game module 15 outputs an improved motion guided image and the guided voice for inducing the user's improved operation (S1123), and then the user again selects an appropriate action. It is determined whether a corresponding operation is performed (S1119).

사용자가 적절한 대응동작을 수행하면 게임 모듈(15)은 성공 알림 및 칭찬 안내 음성을 구체 스크린(31) 및 스피커(52)를 통해 출력한다(S1121). When the user performs an appropriate response operation, the game module 15 outputs a success notification and a complimentary guidance voice through the concrete screen 31 and the speaker 52 (S1121).

한편, 본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에서 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다.
While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be easily understood. It is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, it is intended to cover various modifications within the scope of the appended claims.

10: 제어부 11: 시뮬레이션 모듈
12: 감각 통합 훈련 모듈 13: 인지 훈련 모듈
14: 언어 교육 모듈 15: 놀이 모듈
16: 사용자 반응 인식 모듈 17: 콘텐츠 DB
20: 입력부 30: 디스플레이부
40: 사용자 반응 모니터링부 41: 사용자 반응 모니터링 장치
42: 센서 43: 행동 촬영 카메라
44: 시선 트래킹 카메라 45: 인터페이스부
46: 카메라 틸팅부 47: 영상 처리부
50: 오디오 처리부 51: 마이크
52: 스피커 60: 라이더 제어부
62: 라이더 구동부 63: 라이더 인터페이스부
70: 라이더 71: 진동 스피커
10: control unit 11: simulation module
12: Sensory Integration Training Module 13: Cognitive Training Module
14: Language Teaching Module 15: Play Module
16: User response recognition module 17: Content DB
20: input unit 30: display unit
40: user response monitoring unit 41: user response monitoring device
42: sensor 43: action shooting camera
44: eye tracking camera 45: interface unit
46: camera tilting unit 47: image processing unit
50: audio processor 51: microphone
52: speaker 60: rider control unit
62: rider drive unit 63: rider interface unit
70: Rider 71: Vibration Speaker

Claims (31)

영상을 표시하는 디스플레이부;
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 프로젝터는 상기 영상을 상기 구체 스크린에 표시 시 일그러지지 않도록 비선형 왜곡 보정(Non-linear Distortion Correction: NLDC)을 수행하는 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
And the projector performs non-linear distortion correction (NLDC) so as not to be distorted when the image is displayed on the spherical screen.
삭제delete 삭제delete 제1항에 있어서,
사용자가 앉을 수 있도록 구성되는 라이더를 더 포함하는 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
The method of claim 1,
Multiple simulator for treatment of developmental disorders further comprising a rider configured to sit by the user.
제4항에 있어서,
상기 라이더는,
의자, 모형 말, 자전거 중 하나이되, 콘텐츠의 내용에 따라 교체될 수 있는 교체형인 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
5. The method of claim 4,
The rider,
A chair, a model horse, or a bicycle, the multi-simulator for the treatment of developmental disorders, characterized in that the replacement can be replaced according to the content of the content.
영상을 표시하는 디스플레이부;
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 발달장애 치료용 콘텐츠는 사용자의 균형 감각, 무게중심, 전정 자극, 몸의 움직임과 시선의 상관관계를 훈련시키기 위한 감각 통합 콘텐츠이고,
사용자가 앉을 수 있도록 말 및 자전거 형상 중 하나의 형상으로 구성되고, 제어를 받아 좌우 또는 전후좌우로 움직이는 라이더; 및
상기 제어부의 상기 감각 통합 콘텐츠에 따른 제어를 받아 좌우 또는 전후좌우로 움직이기 위한 라이더 제어부를 더 포함하는 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
The content for treatment of developmental disorders is a sense-integrated content for training the correlation between the user's sense of balance, center of gravity, vestibular stimulation, body movement and gaze,
A rider configured in one shape of a horse and a bicycle shape so that a user can sit, and moving left, right, front, rear, left and right under control; And
And a rider controller for moving left, right, front, rear, left, and right under control according to the sensory integrated content of the controller.
제6항에 있어서,
상기 라이더 제어부는,
상기 라이더의 전후좌우 방향의 이동 및 기울기를 제어하는 라이더 구동부; 및
상기 라이더의 조작에 따란 조작 데이터를 상기 라이더로부터 입력받아 상기 제어부로 출력하는 라이더 인터페이스부를 포함하는 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
The method according to claim 6,
The rider control unit,
A rider driver for controlling movement and inclination in the front, rear, left, and right directions of the rider; And
And a rider interface unit for receiving operation data according to the rider's operation from the rider and outputting the rider interface to the controller.
제6항에 있어서,
상기 제어부는,
상기 감각 통합 콘텐츠의 시나리오에 따른 영상을 상기 구체 스크린에 표시하고 상기 감각 통합 콘텐츠의 시나리오에 따른 행동 유도 안내 음성인 균형 및 방향 전환 유도 안내 음성을 출력하여 사용자의 행동을 유도한 후, 상기 사용자 반응 모니터링 장치를 통해 사용자의 반응에 대한 상기 정보를 분석하여 사용자가 유도된 행동을 수행하지 못했으면 사용자의 동작 및 시선을 개선할 수 있는 개선 유도 영상 및 음성을 상기 구체 스크린 및 스피커를 통해 출력하는 감각 통합 훈련 모듈을 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method according to claim 6,
The control unit,
After displaying the image according to the scenario of the sensory integrated content on the concrete screen and inducing the user's behavior by outputting a balance and direction guidance guidance voice which is a behavior guidance voice according to the scenario of the sensory integrated content, the user response Sense of analyzing the above information about the user's response through the monitoring device and outputting the guided video and audio through the sphere screen and the speaker to improve the user's motion and gaze if the user fails to perform the induced action. Simulator for the developmental disorders comprising an integrated training module.
제6항 또는 제8항에 있어서,
상기 사용자 반응 모니터링 장치는 상기 사용자의 신체를 촬영하는 행동 촬영 카메라이고,
상기 정보는 상기 행동 촬영 카메라에 의해 촬영된 영상데이터인 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
9. The method according to claim 6 or 8,
The user response monitoring device is a behavior photographing camera to photograph the user's body,
The information is a simulator for the treatment of developmental disorders, characterized in that the image data photographed by the behavior photographing camera.
영상을 표시하는 디스플레이부;
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 발달장애 치료용 콘텐츠는 사용자의 인지 능력을 훈련시키는 인지 콘텐츠이고,
상기 제어부는,
상기 인지 콘텐츠의 시나리오에 따라 트래킹 대상 사물을 상기 구체 스크린에 표시한 후, 상기 트래킹 대상 사물을 이동시키면서 사용자의 시선이 상기 트래킹 대상 사물을 추적하도록 유도하는 상기 행동 유도 안내 음성인 이동 및 트래킹 유도 안내 음성을 출력하고, 상기 사용자 반응 모니터링 장치로부터 입력되는 상기 정보를 분석하여 사용자의 시선을 추적하여 사용자의 시선이 유도된 행동인 트래킹 대상 사물을 추적하는지를 판단하고, 트래킹 대상 사물을 추적하지 못하는 경우, 반복적으로 트래킹 대상 사물을 이동시키며 사용자 시선의 트래킹 대상 사물을 추적하는 인지 훈련을 시키는 인지 훈련 모듈을 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
The content for treating developmental disorders is cognitive content for training a user's cognitive ability,
The control unit,
According to the scenario of the cognitive content, the tracking target object is displayed on the concrete screen, and then the movement guidance tracking voice, which is the behavior guidance voice, which guides the user's eyes to track the tracking target object while moving the tracking target object. Outputting a voice and analyzing the information input from the user response monitoring device to track the user's gaze to determine whether the user's gaze tracks the tracking object, which is an induced behavior, and fails to track the tracking object, And a cognitive training module that repeatedly moves a tracking target object and performs cognitive training for tracking a tracking target object of the user's gaze.
제10항에 있어서,
상기 제어부의 인지모듈은,
상기 사용자 시선이 상기 트래킹 대상 사물을 추적하는데 성공하면 성공 횟수를 표시 및 안내하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method of claim 10,
Recognition module of the control unit,
Simulator for treating a developmental disorder, characterized in that if the user gaze is successful in tracking the tracking object to display and guide the number of successes.
제10항 또는 제11항에 있어서,
상기 사용자 반응 모니터링 장치는 상기 사용자의 눈을 촬영하는 시선 트래킹 카메라이고,
상기 정보는 상기 시선 트래킹 카메라에 의해 촬영된 영상데이터인 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method according to claim 10 or 11,
The user response monitoring device is a gaze tracking camera for capturing the eyes of the user,
The information is a simulator for the treatment of developmental disorders, characterized in that the image data taken by the gaze tracking camera.
영상을 표시하는 디스플레이부;
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 발달장애 치료용 콘텐츠는 사용자의 언어 능력을 훈련시키기 위한 언어교육 콘텐츠이고,
상기 제어부는,
상기 언어교육 콘텐츠의 시나리오에 따라 교육할 발음을 로딩하여 상기 구체 스크린에 표시한 후 상기 발음에 대한 사용자의 발성을 유도하는 발음 유도 안내 음성을 출력하고, 상기 발음 유도 안내 음성에 대해 사용자가 발성을 하면 발성 시의 사용자의 입 모양과 미리 저장되어 있는 상기 발음에 대한 선생님의 입 모양을 동시에 상기 구체 스크린에 표시하며, 사용자의 입 모양과 선생님의 입 모양을 비교하여 일치하도록 사용자의 발성을 훈련시키는 언어교육 모듈을 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
The content for the treatment of developmental disabilities is language training content for training the user's language skills,
The control unit,
According to the scenario of the language education content, the pronunciation to be taught is loaded and displayed on the concrete screen, and a pronunciation guide voice for inducing a user's utterance for the pronunciation is output, and the user speaks for the pronunciation guide voice. The user's mouth shape during speech and the teacher's mouth shape for the pronunciation stored in advance are simultaneously displayed on the concrete screen, and the user's speech is trained to match by comparing the user's mouth shape with the teacher's mouth shape. Simulator for the developmental disorders comprising a language education module.
제13항에 있어서,
상기 언어교육 모듈은,
상기 사용자의 입 모양과 상기 선생님의 입 모양이 일치하면 상기 발음과 연관되는 단어를 표시한 후, 상기 단어의 발음에 대한 사용자의 발성을 유도하는 발음 유도 안내 음성을 출력하고, 사용자가 상기 단어의 발음에 대해 발성을 하면, 상기 오디오 처리부를 통해 음성인식을 수행하여 상기 단어를 정확하게 발음하였는지를 검사하고, 정확하게 발음하였으면 해당 단어를 정확하게 발음하였음을 표시하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method of claim 13,
The language education module,
If the user's mouth shape matches the teacher's mouth shape, a word associated with the pronunciation is displayed, and a pronunciation guide voice for inducing the user's utterance for the pronunciation of the word is output. When the voice is spoken, the audio processing unit performs voice recognition to check whether the word is correctly pronounced, and if it is pronounced correctly, the simulator for treating a developmental disorder, characterized in that it is displayed correctly.
제13항 또는 제14항에 있어서,
상기 사용자 반응 모니터링 장치는, 사용자의 입을 촬영하는 행동 촬영 카메라이고,
상기 정보는 사용자의 입을 촬영한 영상데이터인 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method according to claim 13 or 14,
The user response monitoring device is a behavior photographing camera to photograph the user's mouth,
The information is a simulator for treatment of developmental disorders, characterized in that the image data of the user's mouth.
제13항에 있어서,
의자 형상으로 형성되되, 등받이에 진동 스피커를 구비하고 상기 진동 스피커를 통해 상기 발음 유도 안내 음성의 세기 및 파장에 대응하는 진동을 발생하는 라이더를 더 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method of claim 13,
It is formed in the shape of a chair, having a vibration speaker on the back and further comprising a rider for generating a vibration corresponding to the intensity and wavelength of the pronunciation guide voice through the vibration speaker further comprising a rider.
제16항에 있어서,
상기 라이더는 상기 진동 스피커를 온/오프하는 스위치를 더 구비하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.

17. The method of claim 16,
The rider simulator for the developmental disorders further comprises a switch for turning on / off the vibrating speaker.

영상을 표시하는 디스플레이부;
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 발달장애 치료용 콘텐츠는 사용자의 운동을 유도하고 사용자의 사회성을 훈련시키는 게임 콘텐츠이고,
상기 제어부는,
선택된 게임 콘텐츠의 게임 영상을 상기 구체 스크린에 표시하고, 상기 게임 영상과 연동하여 사용자의 움직임을 유도하는 움직임 유도 안내 음성을 출력하고 상기 사용자 반응 모니터링 장치로부터 입력되는 상기 정보를 분석하여 사용자가 상기 움직임 유도에 대응하는 행동을 하였는지를 판단하고, 그 결과에 따른 성공 알림 및 지속적인 사용자의 움직임을 유도하는 게임 모듈을 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
The content for treatment of developmental disorders is game content that induces the user's movement and trains the user's sociality,
The control unit,
The game image of the selected game content is displayed on the concrete screen, the motion guidance guide voice for guiding the user's movement in conjunction with the game image is output, and the user analyzes the information input from the user reaction monitoring device. And a game module for determining whether an action corresponding to judo has been performed and inducing success notification and continuous user movement according to the result.
제 18항에 있어서,
상기 게임은 구체 스크린 상에 표시되는 영상을 터치하는 터치 게임이고,
상기 사용자 반응 모니터링 장치는, 상기 구체 스크린에 터치된 위치를 인지하는 센서이며,
상기 정보는 상기 터치된 위치의 위치정보인 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
19. The method of claim 18,
The game is a touch game to touch the image displayed on the sphere screen,
The user response monitoring device is a sensor for recognizing a position touched on the concrete screen,
The information is a simulator for treatment of developmental disorders, characterized in that the position information of the touched position.
영상을 표시하는 디스플레이부;
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
사용자 반응 모니터링 장치는,
상기 구체 스크린의 터치 위치를 검출하여 출력하는 센서;
사용자의 신체를 촬영한 영상데이터를 출력하는 행동 촬영 카메라; 및
사용자의 눈을 촬영한 영상데이터를 출력하는 시선 트래킹 카메라를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
User response monitoring device,
A sensor for detecting and outputting a touch position of the concrete screen;
An action photographing camera which outputs image data photographing a user's body; And
Simulator for treating developmental disorders, comprising a gaze tracking camera for outputting image data of the user's eyes.
제어부가 다수의 발달장애 치료용 콘텐츠들 중 선택된 적어도 하나 이상의 콘텐츠가 선택되는지를 판단하는 콘텐츠 선택 과정;
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 콘텐츠 선택 과정은,
시뮬레이션 개시 이벤트가 발생되는지를 검사하는 시뮬레이션 개시 판단 단계;
상기 사용자 반응 모니터링 장치를 초기화 하는 장치 초기화 단계; 및
콘텐츠 설정 화면을 표시하여 콘텐츠를 선택받는 콘텐츠 선택 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The content selection process,
A simulation start determining step of checking whether a simulation start event occurs;
A device initialization step of initializing the user response monitoring device; And
And a content selection step of selecting a content by displaying a content setting screen.
삭제delete 제어부가 다수의 발달장애 치료용 콘텐츠들 중 선택된 적어도 하나 이상의 콘텐츠가 선택되는지를 판단하는 콘텐츠 선택 과정;
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 라이더 필요 판단 과정에서 라이더가 필요한 것으로 판단되면 라이더를 초기화하는 라이더 초기화 과정; 및
사용자가 상기 라이더에 사용자가 착석했는지를 판단하는 사용자 착석 판단 과정을 더 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
A rider initialization process of initializing a rider if it is determined that a rider is needed in the rider need determination process; And
Simulation method for treatment of developmental disorders further comprising a user seating determination process for determining whether the user is seated on the rider.
제어부가 다수의 발달장애 치료용 콘텐츠들 중 선택된 적어도 하나 이상의 콘텐츠가 선택되는지를 판단하는 콘텐츠 선택 과정;
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 감각 통합 콘텐츠이고,
상기 콘텐츠 실행 과정은,
라이더 정보를 로딩하는 라이더 정보 획득 단계;
상기 획득된 라이더 정보에 대응하는 주행 영상을 해당 콘텐츠에서 로딩하여 구체 스크린에 디스플레이하는 영상 디스플레이 단계;
상기 디스플레이되는 영상에 대응하여 단계별 균형 및 방향 전환을 유도하는 행동 유도 안내 음성을 출력하는 행동 유도 단계;
사용자 반응 모니터링 장치로부터 입력되는 영상데이터 및 라이더로부터 입력되는 입력정보를 분석하여 상기 유도된 영상에 대응하는 사용자의 행동 및 시선을 분석하는 사용자 행동 분석 단계;
사용자가 유도된 영상 및 음성에 대응하는 행동을 하였는지를 판단하는 동작 판단 단계; 및
사용자가 유도된 영상 및 음성에 대응하는 행동을 하지 못했으면 사용자의 행동 및 시선에 대응하는 개선 유도 영상 및 유도 안내 음성을 출력하여 사용자의 행동을 개선시키고, 유도된 영상 및 음성에 대응하는 행동을 했으면 다음 단계를 수행하는 반복 훈련 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The content selected in the content selection process is sensory integrated content,
The content execution process,
A rider information obtaining step of loading rider information;
An image display step of loading a driving image corresponding to the obtained rider information from a corresponding content and displaying the same on a concrete screen;
A behavior derivation step of outputting a behavior guidance voice for inducing balance and direction change in stages in response to the displayed image;
A user behavior analysis step of analyzing the image data input from the user response monitoring device and the input information input from the rider to analyze the behavior and gaze of the user corresponding to the induced image;
An operation determining step of determining whether the user has acted in response to the induced video and audio; And
If the user fails to respond to the induced video and audio, the user can improve the user's behavior by outputting an improved guided video and guided voice corresponding to the user's behavior and gaze, and then If done, the simulation method for the treatment of developmental disorders, characterized in that it comprises a repeating training step of performing the next step.
제어부가 다수의 발달장애 치료용 콘텐츠들 중 선택된 적어도 하나 이상의 콘텐츠가 선택되는지를 판단하는 콘텐츠 선택 과정;
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 인지 콘텐츠이고,
상기 콘텐츠 실행 과정은,
선택된 인지 콘텐츠의 트래킹 대상 사물을 구체 스크린에 표시하는 트래킹 대상 사물 표시 단계;
상기 표시된 트래킹 대상 사물의 이동 및 트래킹 유도 안내 음성을 출력하는 행동 유도 단계;
사용자 반응 모니터링 장치로의 시선 트래킹 카메라를 통해 입력되는 사용자의 눈을 촬영한 영상데이터를 분석하여 상기 사용자가 상기 트래킹 대상 사물을 보고 추적하는지를 분석하는 사용자 행동 분석 단계; 및
트래킹 대상 사물 추적에 성공여부를 사용자에게 통지하는 통지 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The content selected in the content selection process is cognitive content,
The content execution process,
A tracking object display step of displaying a tracking object of the selected cognitive content on a specific screen;
An action derivation step of outputting a movement and tracking guidance voice of the displayed tracking object;
A user behavior analysis step of analyzing whether the user views and tracks the object to be tracked by analyzing image data photographing the eye of the user input through a gaze tracking camera to a user reaction monitoring device; And
And a notification step of notifying the user of whether or not the tracking target object has been successfully tracked.
제25항에 있어서,
상기 통지 단계는,
트래킹 대상 사물 추적 성공 시 성공 횟수를 카운트하고 카운트된 횟수를 상기 구체 스크린에 표시하여 상기 성공여부를 표시하는 추적 성공 표시 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
26. The method of claim 25,
Wherein the notifying step comprises:
And a tracking success displaying step of counting the number of successes when the tracking target object is successful and displaying the counted number on the concrete screen to indicate whether the success is successful.
제26항에 있어서,
상기 통지 단계는,
상기 인지 콘텐츠의 트래킹 대상 사물 추적 완료 시 추적에 성공한 총 횟수와 상기 총 횟수의 트래킹 대상 사물을 함께 표시하는 최종 추적 성공 통지 단계를 더 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
The method of claim 26,
Wherein the notifying step comprises:
And a final tracking success notification step of displaying the total number of successful tracking and the total number of tracking target objects together when the tracking of the target object tracking of the cognitive content is completed.
제어부가 다수의 발달장애 치료용 콘텐츠들 중 선택된 적어도 하나 이상의 콘텐츠가 선택되는지를 판단하는 콘텐츠 선택 과정;
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 언어교육 콘텐츠이고,
상기 콘텐츠 실행 과정은,
교육할 음을 상기 언어교육 콘텐츠로부터 단계별로 로딩하여 구체 스크린에 표시하는 음 표시 단계;
표시된 음에 대한 발음을 유도하는 발음 유도 안내 음성을 출력하는 발음 유도 단계;
상기 발음 유도 단계 후 사용자 반응 모니터링부의 행동 촬영 카메라를 통해 사용자의 입 촬영을 개시하고 마이크를 통해 사용자가 발성을 하는지를 모니터링하는 행동 모니터링 단계;
사용자가 상기 표시된 음에 대해 발성을 하면 사용자 입을 캡처하고, 미리 저장되어 있는 상기 음에 대한 선생님 입 모양과 함께 상기 구체 스크린에 표시하는 입 모양 비교 표시 단계; 및
상기 캡처된 사용자의 입 모양과 상기 선생님 입 모양의 패턴을 비교하여 일치하는지를 판단하는 사용자의 발음 성공 여부를 판단하는 발음 성공 판단 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The content selected in the content selection process is language education content,
The content execution process,
A sound display step of loading a sound to be trained step by step from the language education content and displaying the same on a concrete screen;
A pronunciation inducing step of outputting a pronunciation guide voice for inducing a pronunciation of the displayed sound;
A behavior monitoring step of starting photographing a mouth of a user through a behavior photographing camera of a user response monitoring unit after the pronunciation inducing step and monitoring whether a user speaks through a microphone;
A mouth shape comparison display step of capturing the user's mouth when the user speaks to the displayed sound and displaying the mouth mouth on the concrete screen together with the teacher mouth shape for the sound previously stored; And
And a pronunciation success determination step of determining whether the user's pronunciation succeeds by comparing the captured user's mouth shape with the teacher's mouth pattern and determining whether the pattern matches.
제28항에 있어서,
상기 발음 성공 판단 단계에서 발음 성공 시 상기 성공한 음에 대한 적어도 하나 이상의 단어를 표시한 후 상기 단어들의 발성을 유도하는 발음 유도 안내 음성을 출력하는 단어 발음 유도 단계;
상기 마이크를 통해 상기 단어에 대한 사용자의 발음이 입력되는지를 검사하고 사용자 발음 검사 단계;
상기 사용자가 상기 단어에 대해 발성하면 상기 발성된 발음을 음성인식 하여 해당 단어를 정확하게 발성했는지를 검사하는 발성 성공 판단 단계; 및
단어에 대한 발성 성공 시 해당 단어의 쓰기란에 해당 단어를 써 넣는 성공 알림 표시 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
29. The method of claim 28,
A word pronunciation derivation step of outputting a pronunciation guide voice for deriving utterance of the words after displaying at least one word for the successful sound when the pronunciation succeeds in the pronunciation success determination step;
Checking whether a user's pronunciation of the word is input through the microphone and checking a user's pronunciation;
A speech success determination step of checking whether the user pronounces the word correctly by voice recognition of the pronounced pronunciation when the user speaks about the word; And
And a success notification display step of writing the word in the writing column of the word when the utterance of the word succeeds.
제28항 또는 제29항에 있어서,
상기 발음 유도 단계에서 발음 유도 안내 음성을 라이더의 진동 스피커로 출력하여 상기 발음 유도 안내 음성에 대응하는 진동을 발생시키는 진동 자극 단계를 더 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
30. The method of claim 28 or 29,
And a vibration stimulation step of generating a vibration corresponding to the pronunciation guidance voice by outputting the pronunciation guidance voice to the vibration speaker of the rider in the pronunciation induction step.
제어부가 다수의 발달장애 치료용 콘텐츠들 중 선택된 적어도 하나 이상의 콘텐츠가 선택되는지를 판단하는 콘텐츠 선택 과정;
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 선택된 콘텐츠는 게임 콘텐츠이고, 상기 게임은 구체 스크린에 표시된 사물들을 터치하도록 유도하는 터치 게임인 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The selected content is a game content, the game is a simulation method for treatment of developmental disorders, characterized in that the touch game to induce to touch the objects displayed on the sphere screen.
KR1020120129859A 2012-11-16 2012-11-16 Simulator and simulation method for treating adhd KR101276097B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120129859A KR101276097B1 (en) 2012-11-16 2012-11-16 Simulator and simulation method for treating adhd

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120129859A KR101276097B1 (en) 2012-11-16 2012-11-16 Simulator and simulation method for treating adhd

Publications (1)

Publication Number Publication Date
KR101276097B1 true KR101276097B1 (en) 2013-06-18

Family

ID=48867223

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120129859A KR101276097B1 (en) 2012-11-16 2012-11-16 Simulator and simulation method for treating adhd

Country Status (1)

Country Link
KR (1) KR101276097B1 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101534196B1 (en) * 2013-11-21 2015-07-09 한국과학기술연구원 Apparatus providing training scenario generated on the basis of participant reaction and method thereof
KR20160088212A (en) * 2015-01-15 2016-07-25 최해용 A large projection screen image device with seesaw structure for virtual reality
KR101740198B1 (en) 2016-10-31 2017-05-26 재단법인대구경북과학기술원 Training system of brain computer interface
KR20170141490A (en) * 2016-06-15 2017-12-26 (주)팜스포 Exercise therapy rehabilitation system for treating ADHD
KR101918631B1 (en) * 2016-12-13 2018-11-15 (주)인더텍 Mixed reality based cognition and concentration evaluation and training feedback system
KR20190004898A (en) * 2017-07-05 2019-01-15 최해용 A vertual reality video chair
KR20190058169A (en) * 2017-11-21 2019-05-29 대한민국(국립재활원장) Treatment System and Method Based on Virtual-Reality
WO2019142949A1 (en) * 2018-01-16 2019-07-25 (주)피디케이리미티드 Interactive virtual reality bicycle riding system and simulation method therefor
KR102120112B1 (en) * 2020-02-11 2020-06-09 가천대학교 산학협력단 System, Method and Computer-readable Medium for Rehabilitation training with Virtual Reality for Patients with Exotropia Based on Artificial Intelligence
KR102147595B1 (en) * 2019-03-04 2020-08-24 순천향대학교 산학협력단 Balance motion system using active balance border and method thereof
KR20200099647A (en) 2019-02-14 2020-08-25 주식회사 인터포름 Sling-Harness System and Exercise therapy play contents
KR20200128506A (en) * 2018-12-26 2020-11-13 (주)소프트젠 Virtual reality education system and method for language training of disabled person
KR20210138973A (en) * 2020-05-13 2021-11-22 주식회사 인터포름 Language learning system devices and How to provide language learning MR content
KR20220107587A (en) * 2021-01-25 2022-08-02 박성연 Electronic device for testing online non-face-to-face language development disorder, system, and control method thereof
WO2023149652A1 (en) * 2022-02-04 2023-08-10 주식회사 히포티앤씨 Artificial intelligence-based customized content generating method for treating autism spectrum disorder

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000053732A (en) * 2000-03-14 2000-09-05 변덕규 Cart simulator for entertainment
KR100805274B1 (en) 2007-01-16 2008-02-20 성신여자대학교 산학협력단 Method for cognitive rehabilitation using games, recording medium thereof and apparatus for cognitive rehabilitation using games
KR20090067578A (en) * 2007-12-21 2009-06-25 주식회사 비트컴퓨터 Cognition enhancement system and method for dementia prevention
KR20110095588A (en) * 2010-02-19 2011-08-25 (주)이디유홀딩스 System for animal assisted therapy using gesture control and method for animal assisted therapy

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000053732A (en) * 2000-03-14 2000-09-05 변덕규 Cart simulator for entertainment
KR100805274B1 (en) 2007-01-16 2008-02-20 성신여자대학교 산학협력단 Method for cognitive rehabilitation using games, recording medium thereof and apparatus for cognitive rehabilitation using games
KR20090067578A (en) * 2007-12-21 2009-06-25 주식회사 비트컴퓨터 Cognition enhancement system and method for dementia prevention
KR20110095588A (en) * 2010-02-19 2011-08-25 (주)이디유홀딩스 System for animal assisted therapy using gesture control and method for animal assisted therapy

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101534196B1 (en) * 2013-11-21 2015-07-09 한국과학기술연구원 Apparatus providing training scenario generated on the basis of participant reaction and method thereof
KR102009544B1 (en) * 2015-01-15 2019-08-09 최해용 A large projection screen image device with seesaw structure for virtual reality
KR20160088212A (en) * 2015-01-15 2016-07-25 최해용 A large projection screen image device with seesaw structure for virtual reality
KR20170141490A (en) * 2016-06-15 2017-12-26 (주)팜스포 Exercise therapy rehabilitation system for treating ADHD
KR101886678B1 (en) * 2016-06-15 2018-08-09 (주)팜스포 Exercise therapy rehabilitation system for treating ADHD
KR101740198B1 (en) 2016-10-31 2017-05-26 재단법인대구경북과학기술원 Training system of brain computer interface
KR101918631B1 (en) * 2016-12-13 2018-11-15 (주)인더텍 Mixed reality based cognition and concentration evaluation and training feedback system
KR102319030B1 (en) 2017-07-05 2021-10-28 최해용 A vertual reality video chair
KR20190004898A (en) * 2017-07-05 2019-01-15 최해용 A vertual reality video chair
KR20190058169A (en) * 2017-11-21 2019-05-29 대한민국(국립재활원장) Treatment System and Method Based on Virtual-Reality
KR101999953B1 (en) * 2017-11-21 2019-07-15 대한민국 Treatment System and Method Based on Virtual-Reality
WO2019142949A1 (en) * 2018-01-16 2019-07-25 (주)피디케이리미티드 Interactive virtual reality bicycle riding system and simulation method therefor
KR102330218B1 (en) * 2018-12-26 2021-11-24 (주)소프트젠 Virtual reality education system and method for language training of disabled person
KR20200128506A (en) * 2018-12-26 2020-11-13 (주)소프트젠 Virtual reality education system and method for language training of disabled person
KR20200099647A (en) 2019-02-14 2020-08-25 주식회사 인터포름 Sling-Harness System and Exercise therapy play contents
KR102147595B1 (en) * 2019-03-04 2020-08-24 순천향대학교 산학협력단 Balance motion system using active balance border and method thereof
WO2021162207A1 (en) * 2020-02-11 2021-08-19 가천대학교 산학협력단 Virtual-reality system and method for rehabilitating exotropia patients on basis of artificial intelligence, and computer-readable medium
KR102120112B1 (en) * 2020-02-11 2020-06-09 가천대학교 산학협력단 System, Method and Computer-readable Medium for Rehabilitation training with Virtual Reality for Patients with Exotropia Based on Artificial Intelligence
KR20210138973A (en) * 2020-05-13 2021-11-22 주식회사 인터포름 Language learning system devices and How to provide language learning MR content
KR20220107587A (en) * 2021-01-25 2022-08-02 박성연 Electronic device for testing online non-face-to-face language development disorder, system, and control method thereof
KR102455859B1 (en) * 2021-01-25 2022-10-17 박성연 Electronic device for testing online non-face-to-face language development disorder, system, and control method thereof
WO2023149652A1 (en) * 2022-02-04 2023-08-10 주식회사 히포티앤씨 Artificial intelligence-based customized content generating method for treating autism spectrum disorder

Similar Documents

Publication Publication Date Title
KR101276097B1 (en) Simulator and simulation method for treating adhd
Morel et al. Advantages and limitations of virtual reality for balance assessment and rehabilitation
CN108919950A (en) Autism children based on Kinect interact device for image and method
KR20170107229A (en) cognitive training apparatus and method with eye-tracking
KR102104202B1 (en) Behavioral therapy apparatus for recovering psychological problems using virtual reality
Paredes et al. Evaluating in-car movements in the design of mindful commute interventions: exploratory study
KR101598955B1 (en) Speech therapy game device and game method
CN112118895A (en) System and method for device-based cognitive development or treatment
Ince et al. An audiovisual interface-based drumming system for multimodal human–robot interaction
KR20170107224A (en) eye-tracking module with cognitive training contents and cognitive training method thereof
Rocha et al. Towards enhancing the multimodal interaction of a social robot to assist children with autism in emotion regulation
EP2482935B1 (en) System for supporting a user to do exercises
KR20150087447A (en) Intelligent care system for developmental disorder child, and the method thereof
JP6195608B2 (en) Learning aids and shields
Lara et al. A serious videogame to support emotional awareness of people with Down syndrome
Sitdhisanguan et al. Evaluation the efficacy of computer-based training using tangible user interface for low-function children with autism
Yean et al. A human-robot interface to improve facial expression recognition in subjects with Autism Spectrum Disorder
Chan et al. Designing intelligent socially assistive robots as effective tools in cognitive interventions
KR101534411B1 (en) Clinical Art Therapy Device Using Tablet PC
US10049596B2 (en) Apparatus for recognizing intention of horse-riding simulator user and method thereof
Winoto et al. Sensory substitution to enable the visually impaired to play an affordable wearable mobile game
WO2020073103A1 (en) Virtual reality system
Maidenbaum et al. Depth-to-audio sensory substitution for increasing the accessibility of virtual environments
Al-Nafjan et al. Virtual Reality Technology and Speech Analysis for People Who Stutter
Van Ommen et al. Applying User Experience (UX) Methods to Understand Assistive Technology (AT) for Video Gaming

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160614

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170612

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180612

Year of fee payment: 6