KR101276097B1 - Simulator and simulation method for treating adhd - Google Patents
Simulator and simulation method for treating adhd Download PDFInfo
- Publication number
- KR101276097B1 KR101276097B1 KR1020120129859A KR20120129859A KR101276097B1 KR 101276097 B1 KR101276097 B1 KR 101276097B1 KR 1020120129859 A KR1020120129859 A KR 1020120129859A KR 20120129859 A KR20120129859 A KR 20120129859A KR 101276097 B1 KR101276097 B1 KR 101276097B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- content
- response
- image
- rider
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/0023—Colour matching, recognition, analysis, mixture or the like
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/02—Simulators for teaching or training purposes for teaching control of vehicles or other craft
- G09B9/04—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
- G09B9/052—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Health & Medical Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Entrepreneurship & Innovation (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 발달장애 치료를 위한 장치 및 방법에 관한 것으로, 보다 상세하게는 주의력 결핍/과잉행동 장애(Attention Deficit Hyperactivity Disorder: ADHD) 및 발달장애(자폐증)(이하 ADHD, 뇌병변장애 및 발달장애를 "발달장애"로 통칭하여 사용함)를 겪고 있는 사용자에게 실제 상황과 동일한 최적의 시뮬레이션 환경을 제공하고, 아동들을 감각, 인지, 언어 및 놀이 등의 다양한 시뮬레이션을 통해 훈련하여 발달장애를 치유할 수 있는 발달장애 치료용 다중 시뮬레이터 및 시뮬레이션 방법에 관한 것이다.
The present invention relates to an apparatus and method for the treatment of developmental disorders, and more particularly, attention deficit hyperactivity disorder (ADHD) and developmental disorders (autism) (hereinafter referred to as ADHD, brain lesions and developmental disorders). It is used to collectively use the term "developmental disability" to provide users with the best simulation environment in real life and to train children through various simulations such as sensory, cognition, language, and play. The present invention relates to a multiple simulator and simulation method for the treatment of developmental disorders.
발달은 성장에 따른 기능적 발전 과정을 말하는데 대개 일정하고 예측 가능한 양상으로 진행되는 역동적 과정이다. 그리고 발달 장애란 어느 특정 질환 또는 장애를 지칭하는 것이 아니라, 해당하는 나이에 이루어져야 할 발달이 성취되지 않은 상태로, 발달 선별검사에서 해당 연령의 정상 기대치보다 25%가 뒤쳐져 있는 경우를 말한다. 전반적 발달 지연은 대운동(Gross motor), 미세운동(Fine motor), 인지, 언어, 사회성과 일상 생황 중 2가지 이상이 지연된 경우를 말한다.Development refers to the functional development process as it grows, usually a dynamic process that proceeds in a constant and predictable manner. A developmental disability does not refer to a specific disease or disorder, but refers to a case in which development to be performed at a corresponding age is not achieved, and the developmental screening test is 25% behind the normal expectation of the age. Overall developmental delay is a delay in two or more of the gross motor, fine motor, cognition, language, sociality and everyday life.
상술한 바와 같이 발달장애는 나이에 비해 지연된 것이므로 몸으로 익히고 학습함으로써 개선될 수 있다.As described above, the developmental disorder is delayed compared with age, and thus can be improved by learning and learning with the body.
이러한 발달장애를 겪고 있는 발달장애인을 치료하기 위해서 치료용 시뮬레이터를 이용하고 있다. 통상 발달장애 치료 방법으로는 선 출원된 등록특허 10-1008541호, [시, 청각 자극을 제공하는 인지능력 향상 장치] 등과 같이 시각 및 청각적으로 자극을 주어 인지능력을 향상시키는 방법, 디스플레이 장치를 통해 시뮬레이션을 제공하여 치료하는 방법, 시각적 자극과 뇌에 물리적인 전정 자극을 주어 치료하는 방법, 및 약물 흡입에 의해 치료하는 방법 등이 적용되고 있다.Therapeutic simulators are used to treat people with developmental disabilities suffering from these developmental disorders. In general, as a method for treating developmental disorders, a method for improving cognitive ability by providing visual and auditory stimuli, such as a previously filed Patent Registration No. 10-1008541, [a cognitive ability improving device for providing an auditory stimulus], and a display device are provided. Through the use of simulation to provide treatment, visual stimulation and physical vestibular stimulation to the brain, treatment, and drug inhalation are being applied.
그러나 이러한 종래의 시· 청각 자극을 이용하여 뇌파를 변화시키는 장치는 미리 설정된 자극신호만을 이용자에게 공급하여 뇌파를 특정 주파수로 유도하므로 이용자의 상태 및 훈련결과 등을 분석하여 인지능력을 향상시키기 어려운 문제점이 있었다.However, the conventional apparatus for changing brain waves using visual and auditory stimuli supplies only a predetermined stimulus signal to a user to induce brain waves at a specific frequency, so it is difficult to improve cognitive ability by analyzing the user's state and training results. There was this.
그리고 종래 시각적인 자극을 이용한 치료 장치는 단순한 평면 디스플레이 화면을 통해 영상을 표시하여 주므로 치료를 받는 발달장애인을 치료에 몰입시킬 수 없는 문제점이 있었다.In addition, the conventional treatment device using visual stimulation has a problem that it is not possible to immerse the developmentally disabled person under treatment because the image is displayed through a simple flat display screen.
또한, 종래 발달장애 치료 장치들은 자극을 통한 것으로, 발달장애인 상호 동작을 유도할 수 없어 실질적인 운동능력, 인지 능력, 집중력 및 사회성 등의 전반적인 기능을 향상시킬 수 없는 문제점이 있었다.In addition, the conventional developmental disorder treatment apparatus through the stimulation, there is a problem that can not improve the overall function, such as practical motor skills, cognitive ability, concentration and sociality can not induce the interaction of the developmental disorder.
디스플레이 장치를 통한 시뮬레이션 장치를 이용하는 치료하는 방법은 치료보다는 검사를 위한 시뮬레이션이 대부분이며, 치료용일지라도 상술한 시각적 자극을 이용하는 방식과 동일하게 단순한 영상의 표시에 의한 치료를 제공하므로 특정 기능에 대해서만 치료를 하는 것이 대부분이며, 발달장애인을 치료에 몰입시킬 수 없는 문제점이 있었다.
The treatment method using the simulation device through the display device is mostly for simulation rather than treatment, and even for the treatment, treatment is performed only for a specific function because it provides treatment by the display of a simple image in the same way as the above-described visual stimulus. Most of them, there was a problem that can not immerse people with developmental disabilities into treatment.
따라서 본 발명의 목적은 발달장애를 겪고 있는 사용자에게 실제 상황과 동일한 최적의 시뮬레이션 환경을 제공하고, 아동들을 감각, 인지, 언어 및 놀이 등의 다양한 시뮬레이션을 통해 훈련하여 발달장애를 치유할 수 있는 발달장애 치료용 다중 시뮬레이터 및 시뮬레이션 방법을 제공함에 있다.
Accordingly, an object of the present invention is to provide a user with a developmental disorder with an optimal simulation environment as in actual situations, and to train children through various simulations such as sensation, cognition, language, and play to develop and cure a developmental disorder. The present invention provides multiple simulators and simulation methods for treating disorders.
상기와 같은 목적을 달성하기 위한 본 발명의 발달장애 치료용 다중 시뮬레이터는: 영상을 표시하는 디스플레이부; 상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치; 사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부; 다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하는 것을 특징으로 한다.Multi-simulator for treatment of developmental disorders of the present invention for achieving the above object comprises: a display unit for displaying an image; A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response; An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker; Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. It characterized in that it comprises a control unit for performing the treatment according to the scenario of the content.
상기 디스플레이부는, 상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및 상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되는 것을 특징으로 한다.The display unit may include: a spherical screen formed in a spherical shape curved up, down, left, and right to display an image; And a projector for irradiating image data according to a scenario of the content from the controller to the concrete screen as an image in the form of light.
상기 프로젝터는 상기 영상을 상기 구체 스크린에 표시 시 일그러지지 않도록 비선형 왜곡 보정(Non-linear Distortion Correction: NLDC)을 수행하는 것을 특징으로 한다.The projector performs non-linear distortion correction (NLDC) so that the image is not distorted when the image is displayed on the spherical screen.
상기 치료용 다중 시뮬레이터는, 사용자가 앉을 수 있도록 구성되는 라이더를 더 포함하는 것을 특징으로 한다.The therapeutic multiple simulator is characterized in that it further comprises a rider configured to sit the user.
상기 라이더는, 의자, 모형 말, 자전거 중 하나이되, 콘텐츠의 내용에 따라 교체될 수 있는 교체형인 것을 특징으로 한다.(설명: 이부분은 특허청구범위에 대응하는 부분이며, 특허청구범위에서 "등"을 사용할 수 없습니다.The rider is one of a chair, a model horse, and a bicycle, and is characterized by being a replaceable type that can be replaced according to the contents of the contents. (Description: This part corresponds to the claims, and in the claims, " Etc. "is not available.
상기 발달장애 치료용 콘텐츠는 사용자의 균형 감각, 전정 자극, 무게중심, 몸의 움직임과 시선의 상관관계를 훈련시키기 위한 감각 통합 콘텐츠이고, 사용자가 앉을 수 있도록 말 및 자전거 형상 중 하나의 형상으로 구성되고, 제어를 받아 좌우 또는 전후좌우로 움직이는 라이더; 및 상기 제어부의 상기 감각 통합 콘텐츠에 따른 제어를 받아 좌우 또는 전후좌우로 움직이기 위한 라이더 제어부를 더 포함하는 것을 특징으로 한다.The content for treatment of developmental disabilities is a sense-integrated content for training the correlation between the user's sense of balance, vestibular stimulation, center of gravity, body movement and gaze, and consists of one shape of the horse and bicycle shape so that the user can sit A rider which is controlled and moves left, right, front, back, left and right; And a rider control unit configured to move left, right, front, rear, left and right under control according to the sensory integrated content of the controller.
상기 라이더 제어부는, 상기 라이더의 전후좌우 방향의 이동 및 기울기를 제어하는 라이더 구동부; 및 상기 라이더의 조작에 따란 조작 데이터를 상기 라이더로부터 입력받아 상기 제어부로 출력하는 라이더 인터페이스부를 포함하는 것을 특징으로 한다.The rider controller may include: a rider driver configured to control movement and inclination of the front, rear, left, and right directions of the rider; And a rider interface unit configured to receive operation data according to the rider's manipulation from the rider and output the manipulation data to the controller.
상기 제어부는, 상기 감각 통합 콘텐츠의 시나리오에 따른 영상을 상기 구체 스크린에 표시하고 상기 감각 통합 콘텐츠의 시나리오에 따른 행동 유도 안내 음성인 균형 및 방향 전환 유도 안내 음성을 출력하여 사용자의 행동을 유도한 후, 상기 사용자 반응 모니터링 장치를 통해 사용자의 반응에 대한 상기 정보를 분석하여 사용자가 유도된 행동을 수행하지 못했으면 사용자의 동작 및 시선을 개선할 수 있는 개선 유도 영상 및 음성을 상기 구체 스크린 및 스피커를 통해 출력하는 감각 통합 훈련 모듈을 포함하는 것을 특징으로 한다.The controller may display an image according to the scenario of the sensory integrated content on the concrete screen and induce a user's behavior by outputting a balance and direction change guide voice that is a behavior guidance voice according to the scenario of the sensory integrated content. By analyzing the information on the user's response through the user response monitoring device, if the user fails to perform the induced action, the user may monitor the concrete screen and the speaker to improve the guided image and sound that may improve the user's motion and gaze. It is characterized by including a sensory integration training module to output through.
상기 사용자 반응 모니터링 장치는 상기 사용자의 신체를 촬영하는 행동 촬영 카메라이고, 상기 정보는 상기 행동 촬영 카메라에 의해 촬영된 영상데이터인 것을 특징으로 한다.The user response monitoring apparatus may be a behavior photographing camera which photographs the body of the user, and the information may be image data photographed by the behavior photographing camera.
상기 발달장애 치료용 콘텐츠는 사용자의 인지 능력을 훈련시키는 인지 콘텐츠이고, 상기 제어부는, 상기 인지 콘텐츠의 시나리오에 따라 트래킹 대상 사물을 상기 구체 스크린에 표시한 후, 상기 트래킹 대상 사물을 이동시키면서 사용자의 시선이 상기 트래킹 대상 사물을 추적하도록 유도하는 상기 행동 유도 안내 음성인 이동 및 트래킹 유도 안내 음성을 출력하고, 상기 사용자 반응 모니터링 장치로부터 입력되는 상기 정보를 분석하여 사용자의 시선을 추적하여 사용자의 시선이 유도된 행동인 트래킹 대상 사물을 추적하는지를 판단하고, 트래킹 대상 사물을 추적하지 못하는 경우, 반복적으로 트래킹 대상 사물을 이동시키며 사용자 시선의 트래킹 대상 사물을 추적하는 인지 훈련을 시키는 인지 훈련 모듈을 포함하는 것을 특징으로 한다.The content for treating a developmental disorder is cognitive content for training a user's cognitive ability, and the controller displays a tracking object on the concrete screen according to a scenario of the cognitive content, and then moves the tracking object. Outputs the movement and tracking guidance voice, which is the behavior guidance voice, which induces the gaze to track the object to be tracked, analyzes the information input from the user response monitoring device to track the user's gaze, Determining whether to track the tracking target object, which is an induced action, and if the tracking target object is not tracked, a cognitive training module for repeatedly moving the tracking target object and performing cognitive training for tracking the tracking target object of the user's eyes. It features.
상기 제어부의 인지모듈은, 상기 사용자 시선이 상기 트래킹 대상 사물을 추적하는데 성공하면 성공 횟수를 표시 및 안내하는 것을 특징으로 한다.The recognition module of the controller may display and guide the number of successes when the user gaze succeeds in tracking the tracking target object.
상기 사용자 반응 모니터링 장치는 상기 사용자의 눈을 촬영하는 시선 트래킹 카메라이고, 상기 정보는 상기 시선 트래킹 카메라에 의해 촬영된 영상데이터인 것을 특징으로 한다.The apparatus for monitoring user response may be a gaze tracking camera for capturing the eyes of the user, and the information may be image data photographed by the gaze tracking camera.
상기 발달장애 치료용 콘텐츠는 사용자의 언어 능력을 훈련시키기 위한 언어교육 콘텐츠이고, 상기 제어부는, 상기 언어교육 콘텐츠의 시나리오에 따라 교육할 발음을 로딩하여 상기 구체 스크린에 표시한 후 상기 발음에 대한 사용자의 발성을 유도하는 발음 유도 안내 음성을 출력하고, 상기 발음 유도 안내 음성에 대해 사용자가 발성을 하면 발성 시의 사용자의 입 모양과 미리 저장되어 있는 상기 발음에 대한 선생님의 입 모양을 동시에 상기 구체 스크린에 표시하며, 사용자의 입 모양과 선생님의 입 모양을 비교하여 일치하도록 사용자의 발성을 훈련시키는 언어교육 모듈을 포함하는 것을 특징으로 한다.The content for treating a developmental disability is a language education content for training a user's language ability, and the controller loads a pronunciation to be taught according to a scenario of the language education content and displays it on the concrete screen, and then the user for the pronunciation. Outputs a pronunciation guide voice for guiding a voice, and when the user speaks to the voice guide voice, simultaneously displays the shape of the user's mouth at the time of speech and the shape of the teacher's mouth for the pronunciation stored in advance. Displayed in, characterized in that it comprises a language training module for training the user's speech to match the mouth shape of the user and the teacher's mouth to match.
상기 언어교육 모듈은, 상기 사용자의 입 모양과 상기 선생님의 입 모양이 일치하면 상기 발음과 연관되는 단어를 표시한 후, 상기 단어의 발음에 대한 사용자의 발성을 유도하는 발음 유도 안내 음성을 출력하고, 사용자가 상기 단어의 발음에 대해 발성을 하면, 상기 오디오 처리부를 통해 음성인식을 수행하여 상기 단어를 정확하게 발음하였는지를 검사하고, 정확하게 발음하였으면 해당 단어를 정확하게 발음하였음을 표시하는 것을 특징으로 한다.The language education module displays a word associated with the pronunciation when the mouth shape of the user and the teacher's mouth match, and then outputs a pronunciation guide voice for inducing a user's utterance for the pronunciation of the word. When the user speaks about the pronunciation of the word, the audio processor performs voice recognition to check whether the word is pronounced correctly. If the user pronounces the word correctly, the user pronounces the word correctly.
상기 사용자 반응 모니터링 장치는, 사용자의 입을 촬영하는 행동 촬영 카메라이고, 상기 정보는 사용자의 입을 촬영한 영상데이터인 것을 특징으로 한다.The user response monitoring apparatus may be a behavior photographing camera photographing a user's mouth, and the information may be image data photographing a user's mouth.
상기 시뮬레이터는, 의자 형상으로 형성되되, 등받이에 진동 스피커를 구비하고 상기 진동 스피커를 통해 상기 발음 유도 안내 음성의 세기 및 파장에 대응하는 진동을 발생하는 라이더를 더 포함하는 것을 특징으로 한다.The simulator is characterized in that it further comprises a rider formed in a chair shape, having a vibrating speaker on the back and generating a vibration corresponding to the intensity and wavelength of the pronunciation guide voice through the vibrating speaker.
상기 라이더는 상기 진동 스피커를 온/오프하는 스위치를 더 구비하는 것을 특징으로 한다.The rider further comprises a switch for turning on / off the vibrating speaker.
상기 발달장애 치료용 콘텐츠는 사용자의 운동을 유도하고 사용자의 사회성을 훈련시키는 게임 콘텐츠이고, 상기 제어부는, 선택된 게임 콘텐츠의 게임 영상을 상기 구체 스크린에 표시하고, 상기 게임 영상과 연동하여 사용자의 움직임을 유도하는 움직임 유도 안내 음성을 출력하고 상기 사용자 반응 모니터링 장치로부터 입력되는 상기 정보를 분석하여 사용자가 상기 움직임 유도에 대응하는 행동을 하였는지를 판단하고, 그 결과에 따른 성공 알림 및 지속적인 사용자의 움직임을 유도하는 게임 모듈을 포함하는 것을 특징으로 한다.The content for treating a developmental disorder is game content for inducing a user's exercise and training a user's sociality, and the controller displays a game image of a selected game content on the concrete screen and moves the user in conjunction with the game image. It outputs a motion induction guidance voice to guide the user and analyzes the information input from the user response monitoring device to determine whether the user has acted in response to the motion induction, and induces success notification and continuous user motion according to the result. Characterized in that it comprises a game module.
상기 게임은 구체 스크린 상에 표시되는 영상을 터치하는 터치 게임이고, 상기 사용자 반응 모니터링 장치는, 상기 구체 스크린에 터치된 위치를 인지하는 센서이며, 상기 정보는 상기 터치된 위치의 위치정보인 것을 특징으로 한다.The game is a touch game that touches the image displayed on the sphere screen, the user response monitoring device is a sensor for recognizing the position touched on the sphere screen, the information is the position information of the touched position It is done.
사용자 반응 모니터링 장치는, 상기 구체 스크린의 터치 위치를 검출하여 출력하는 센서; 사용자의 신체를 촬영한 영상데이터를 출력하는 행동 촬영 카메라; 및 사용자의 눈을 촬영한 영상데이터를 출력하는 시선 트래킹 카메라를 포함하는 것을 특징으로 한다.User response monitoring device, the sensor for detecting and outputting the touch position of the specific screen; An action photographing camera which outputs image data photographing a user's body; And a gaze tracking camera for outputting image data photographing the user's eyes.
상기와 같은 목적을 달성하기 위한 본 발명의 발달장애 치료용 다중 시뮬레이션 방법은: 제어부가 다수의 발달장애 치료용 콘텐츠들 중 선택된 적어도 하나 이상의 콘텐츠가 선택되는지를 판단하는 콘텐츠 선택 과정; 제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정; 상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정; 상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하는 것을 특징으로 한다.In order to achieve the above object, the multi-simulation method for treating developmental disorder of the present invention includes: a content selection process of determining, by a controller, at least one selected content from among a plurality of contents for treating developmental disorder; A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider; A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body; The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and the user corresponding to the image and the behavior guidance voice. And a content execution process of analyzing a response based on information input from the user response monitoring device to determine whether the user has performed an induced action, and performing a treatment according to the scenario of the content.
상기 콘텐츠 선택 과정은, 시뮬레이션 개시 이벤트가 발생되는지를 검사하는 시뮬레이션 개시 판단 단계; 상기 사용자 반응 모니터링 장치를 초기화하는 장치 초기화 단계; 및 콘텐츠 설정 화면을 표시하여 콘텐츠를 선택받는 콘텐츠 선택 단계를 포함하는 것을 특징으로 한다.The content selection process may include a simulation start determination step of checking whether a simulation start event occurs; A device initialization step of initializing the user response monitoring device; And a content selection step of selecting a content by displaying a content setting screen.
상기 시뮬레이션 방법은, 상기 라이더 필요 판단 과정에서 라이더가 필요한 것으로 판단되면 라이더를 초기화하는 라이더 초기화 과정; 및 사용자가 상기 라이더에 사용자가 착석했는지를 판단하는 사용자 착석 판단 과정을 더 포함하는 것을 특징으로 한다.The simulation method may include: a rider initialization process of initializing a rider when it is determined that a rider is needed in the rider need determination process; And a user seating determination process of determining whether the user is seated on the rider.
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 감각 통합 콘텐츠이고, 상기 콘텐츠 실행 과정은, 라이더 정보를 로딩하는 라이더 정보 획득 단계; 상기 획득된 라이더 정보에 대응하는 주행 영상을 해당 콘텐츠에서 로딩하여 구체 스크린에 디스플레이하는 영상 디스플레이 단계; 상기 디스플레이되는 영상에 대응하여 단계별 균형 및 방향 전환을 유도하는 행동 유도 안내 음성을 출력하는 행동 유도 단계; 사용자 반응 모니터링 장치로부터 입력되는 영상데이터 및 라이더로부터 입력되는 입력정보를 분석하여 상기 유도된 영상에 대응하는 사용자의 행동 및 시선을 분석하는 사용자 행동 분석 단계; 사용자가 유도된 영상 및 음성에 대응하는 행동을 하였는지를 판단하는 동작 판단 단계; 및 사용자가 유도된 영상 및 음성에 대응하는 동작을 하지 못했으면 사용자의 행동 및 시선에 대응하는 개선 유도 영상 및 유도 안내 음성을 출력하여 사용자의 행동을 개선시키고, 유도된 영상 및 음성에 대응하는 행동을 했으면 다음 단계를 수행하는 반복 훈련 단계를 포함하는 것을 특징으로 한다.The content selected in the content selection process is sensory integrated content, and the content execution process includes: a rider information obtaining step of loading rider information; An image display step of loading a driving image corresponding to the obtained rider information from a corresponding content and displaying the same on a concrete screen; A behavior derivation step of outputting a behavior guidance voice for inducing balance and direction change in stages in response to the displayed image; A user behavior analysis step of analyzing the image data input from the user response monitoring device and the input information input from the rider to analyze the behavior and gaze of the user corresponding to the induced image; An operation determining step of determining whether the user has acted in response to the induced video and audio; And if the user fails to perform an action corresponding to the induced video and audio, the user may improve the user's behavior by outputting an improved guided video and guided voice corresponding to the user's behavior and gaze, and then respond to the induced video and audio. If it is characterized in that it comprises a repetitive training step to perform the next step.
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 인지 콘텐츠이고, 상기 콘텐츠 실행 과정은, 선택된 인지 콘텐츠의 트래킹 대상 사물을 구체 스크린에 표시하는 트래킹 대상 사물 표시 단계; 상기 표시된 트래킹 대상 사물의 이동 및 트래킹 유도 안내 음성을 출력하는 행동 유도 단계; 사용자 반응 모니터링 장치로의 시선 트래킹 카메라를 통해 입력되는 사용자의 눈을 촬영한 영상데이터를 분석하여 상기 사용자가 상기 트래킹 대상 사물을 보고 추적하는지를 분석하는 사용자 행동 분석 단계; 및 트래킹 대상 사물 추적에 성공여부를 사용자에게 통지하는 통지 단계를 포함하는 것을 특징으로 한다.The content selected in the content selection process is cognitive content, and the content execution process includes: a tracking object display step of displaying a tracking object of the selected cognitive content on a specific screen; An action derivation step of outputting a movement and tracking guidance voice of the displayed tracking object; A user behavior analysis step of analyzing whether the user views and tracks the object to be tracked by analyzing image data photographing the eye of the user input through a gaze tracking camera to a user reaction monitoring device; And a notification step of notifying a user of whether the tracking target thing has been successfully tracked.
상기 통지 단계는, 트래킹 대상 사물 추적 성공 시 성공 횟수를 카운트하고 카운트된 횟수를 상기 구체 스크린에 표시하여 상기 성공여부를 표시하는 추적 성공 표시 단계를 포함하는 것을 특징으로 한다.The notifying step may include a tracking success display step of counting the number of successes when tracking the tracking target object and displaying the counted number on the concrete screen to indicate the success or failure.
상기 통지 단계는, 상기 인지 콘텐츠의 트래킹 대상 사물 추적 완료 시 추적에 성공한 총 횟수와 상기 총 횟수의 트래킹 대상 사물을 함께 표시하는 최종 추적 성공 통지 단계를 더 포함하는 것을 특징으로 한다.The notifying step may further include a final tracking success notification step of displaying the total number of successful tracking and the total number of tracking target objects together when the tracking of the tracking target object is completed.
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 언어교육 콘텐츠이고, 상기 콘텐츠 실행 과정은, 교육할 음을 상기 언어교육 콘텐츠로부터 단계별로 로딩하여 구체 스크린에 표시하는 음 표시 단계; 표시된 음에 대한 발음을 유도하는 발음 유도 안내 음성을 출력하는 발음 유도 단계; 상기 발음 유도 단계 후 사용자 반응 모니터링부의 행동 촬영 카메라를 통해 사용자의 입 촬영을 개시하고 마이크를 통해 사용자가 발성을 하는지를 모니터링하는 행동 모니터링 단계; 사용자가 상기 표시된 음에 대해 발성을 하면 사용자 입을 캡처하고, 미리 저장되어 있는 상기 음에 대한 선생님 입 모양과 함께 상기 구체 스크린에 표시하는 입 모양 비교 표시 단계; 및 상기 캡처된 사용자의 입 모양과 상기 선생님 입 모양의 패턴을 비교하여 일치하는지를 판단하는 사용자의 발음 성공 여부를 판단하는 발음 성공 판단 단계를 포함하는 것을 특징으로 한다.The content selected in the content selection process is language education content, and the content execution process includes: a sound display step of loading a sound to be trained step by step from the language education content and displaying it on a specific screen; A pronunciation inducing step of outputting a pronunciation guide voice for inducing a pronunciation of the displayed sound; A behavior monitoring step of starting photographing a mouth of a user through a behavior photographing camera of a user response monitoring unit after the pronunciation inducing step and monitoring whether a user speaks through a microphone; A mouth shape comparison display step of capturing the user's mouth when the user speaks to the displayed sound and displaying the mouth mouth on the concrete screen together with the teacher mouth shape for the sound previously stored; And a pronunciation success determination step of determining whether or not the user's pronunciation success is determined by comparing the captured user's mouth shape with the teacher's mouth pattern.
상기 콘텐츠 실행 과정은, 상기 발음 성공 판단 단계에서 발음 성공 시 상기 성공한 음에 대한 적어도 하나 이상의 단어를 표시한 후 상기 단어들의 발성을 유도하는 발음 유도 안내 음성을 출력하는 단어 발음 유도 단계; 상기 마이크를 통해 상기 단어에 대한 사용자의 발음이 입력되는지를 검사하고 사용자 발음 검사 단계; 상기 사용자가 상기 단어에 대해 발성하면 상기 발성된 발음을 음성인식 하여 해당 단어를 정확하게 발성했는지를 검사하는 발성 성공 판단 단계; 및 단어에 대한 발성 성공 시 해당 단어의 쓰기란에 해당 단어를 써 넣는 성공 알림 표시 단계를 포함하는 것을 특징으로 한다.The content execution process may include: a word pronunciation derivation step of outputting a pronunciation guide voice for deriving the utterance of the words after displaying at least one word for the successful sound when the pronunciation succeeds in the pronunciation success determination step; Checking whether a user's pronunciation of the word is input through the microphone and checking a user's pronunciation; A speech success determination step of checking whether the user pronounces the word correctly by voice recognition of the pronounced pronunciation when the user speaks about the word; And a success notification display step of writing the corresponding word in the writing column of the word when the utterance of the word is successful.
상기 콘텐츠 실행 과정은, 상기 발음 유도 단계에서 발음 유도 안내 음성을 라이더의 진동 스피커로 출력하여 상기 발음 유도 안내 음성에 대응하는 진동을 발생시키는 진동 자극 단계를 더 포함하는 것을 특징으로 한다.The content execution process may further include a vibration stimulation step of generating a vibration corresponding to the pronunciation guide voice by outputting the pronunciation guide voice to the vibration speaker of the rider in the pronunciation guide step.
상기 선택된 콘텐츠는 게임 콘텐츠이고, 상기 게임은 구체 스크린에 표시된 사물들을 터치하도록 유도하는 터치 게임인 것을 특징으로 한다.
The selected content is game content, and the game is a touch game for inducing a user to touch objects displayed on a sphere screen.
본 발명은 구체(Spherical) 스크린을 적용하여 실제 상황과 동일한 최적의 시뮬레이션 환경을 구성함으로서 발달장애인의 몰입감을 향상시킬 수 있고, 학습능력을 향상시킬 수 있는 효과를 갖는다.The present invention has the effect of improving the immersion of the developmental disabled and learning ability by applying the spherical screen to configure the optimal simulation environment as the actual situation.
또한, 본 발명은 발달장애인인 사용자가 라이더에 탑승하여 시뮬레이션을 수행하므로, 해당 콘텐츠에 대응하여 라이더를 조작하기 위한 행동을 유도하므로 사용자의 학습능력 및 치료 성능을 향상시킬 수 있는 효과를 갖는다.In addition, the present invention, because the user with a developmental disability performs a simulation on the rider, inducing an action for manipulating the rider in response to the content has the effect of improving the learning ability and treatment performance of the user.
또한, 본 발명은 제공되는 시뮬레이션의 콘텐츠에 대응하는 사용자의 행동, 시선을 카메라를 통해 촬영된 영상을 통해 분석하고, 사용자가 발성한 발음을 마이크 등을 통해 분석하므로 사용자의 잘못된 행동, 시선 및 발음을 판단할 수 있어 사용자의 반응을 보다 명확하게 분석할 수 있는 효과를 갖는다.In addition, the present invention analyzes the user's behavior, gaze corresponding to the content of the simulation provided through the image taken by the camera, and analyzes the user's pronunciation through a microphone, etc., so that the user's wrong behavior, gaze and pronunciation It can be determined that has the effect of more clearly analyzing the user's response.
또한, 사용자의 반응을 보다 명확하게 분석할 수 있으므로 사용자에게 정확한 콘텐츠를 제공할 수 있고, 사용자의 잘못된 반응에 대한 보다 정확한 개선 시뮬레이션(영상, 음성 등)을 제공할 수 있으므로 사용자의 학습능력을 향상시킬 수 있는 효과를 갖는다.
In addition, the user's response can be analyzed more clearly, thereby providing accurate content to the user, and providing a more accurate simulation (video, audio, etc.) of the user's wrong reaction, thereby improving the user's learning ability. It has an effect that can be made.
도 1은 본 발명에 따른 발달장애 치료용 다중 시뮬레이터의 구성을 나타낸 도면이다.
도 2는 본 발명에 따른 발달장애 치료용 다중 시뮬레이터의 제어장치의 구성을 나타낸 도면이다.
도 3은 본 발명에 따른 발달장애 치료용 다중 시뮬레이터에 적용될 수 있는 라이더들을 나타낸 도면이다.
도 4는 본 발명에 따른 발달장애 치료용 다중 시뮬레이터에서의 다중 시뮬레이션 방법을 나타낸 흐름도이다.
도 5는 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 감각 통합 훈련 방법을 나타낸 흐름도이다.
도 6은 본 발명의 일실시예에 따른 라이더를 이용한 감각 통합 훈련 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 인지훈련 방법을 나타낸 흐름도이다.
도 8은 본 발명의 일실시예에 따른 인지훈련 방법의 일예를 나타낸 도면이다.
도 9는 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 언어교육 방법을 나타낸 흐름도이다.
도 10은 본 발명의 일실시예에 따른 언어교육 방법의 일예를 나타낸 도면이다.
도 11은 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 놀이 방법을 나타낸 흐름도이다.
도 12는 본 발명의 일실시예에 따른 놀이 방법의 예들을 나타낸 도면이다.
도 13은 본 발명의 일실시예에 따라 진동 스피커가 구비하는 의자 라이더의 구성을 나타낸 도면이다.1 is a view showing the configuration of a multi-simulator for the treatment of developmental disorders according to the present invention.
2 is a view showing the configuration of a control device of a multi-simulator for the treatment of developmental disorders according to the present invention.
3 is a view showing riders that can be applied to the multi-simulator for the treatment of developmental disorders according to the present invention.
4 is a flowchart illustrating a multi-simulation method in a multi-simulator for treating a developmental disorder according to the present invention.
5 is a flowchart illustrating a sensory integration training method of a multiple simulation method according to an embodiment of the present invention.
6 is a view for explaining a sensory integration training method using a rider according to an embodiment of the present invention.
7 is a flowchart illustrating a cognitive training method of a multiple simulation method according to an embodiment of the present invention.
8 is a view showing an example of a cognitive training method according to an embodiment of the present invention.
9 is a flowchart illustrating a language teaching method of a multi-simulation method according to an embodiment of the present invention.
10 is a view showing an example of a language teaching method according to an embodiment of the present invention.
11 is a flowchart illustrating a play method of a multi-simulation method according to an embodiment of the present invention.
12 is a diagram showing examples of a play method according to an embodiment of the present invention.
13 is a view showing the configuration of a chair rider provided in a vibration speaker according to an embodiment of the present invention.
이하 첨부된 도면을 참조하여 본 발명의 발달장애 치료용 다중 시뮬레이터의 구성 및 동작 및 다중 시뮬레이터에서의 시뮬레이션 방법을 설명한다.Hereinafter, with reference to the accompanying drawings will be described the configuration and operation of the multi-simulator for the treatment of developmental disorders of the present invention and the simulation method in the multi-simulator.
도 1은 본 발명에 따른 발달장애 치료용 다중 시뮬레이터의 구성을 나타낸 도면이고, 도 3은 본 발명에 따른 발달장애 치료용 다중 시뮬레이터에 적용될 수 있는 라이더들을 나타낸 도면이며, 도 13은 본 발명의 일실시예에 따라 진동 스피커가 구비하는 의자 라이더의 구성을 나타낸 도면이다.1 is a view showing the configuration of a multi-simulator for the treatment of developmental disorders according to the present invention, Figure 3 is a view showing the riders that can be applied to the multi-simulator for the treatment of developmental disorders according to the present invention, Figure 13 is one of the present invention According to an embodiment, a diagram illustrating a configuration of a chair rider included in a vibrating speaker.
도 1 및 도 3, 도 13을 참조하면, 본 발명의 치료용 다중 시뮬레이터는 제어장치(100), 구체 스크린(31), 프로젝터(32), 사용자 반응 모니터링 장치(41), 마이크(MIC)(51), 스피커(52) 및 라이더(70)를 포함한다.1, 3, and 13, the therapeutic multiple simulator of the present invention includes a
본 발명의 제어장치(100)는 본 발명에 따른 다중 시뮬레이션을 위한 다양한 콘텐츠들 대한 전반적인 동작을 제어한다. 제어장치(100)의 구성 및 동작은 후술할 도 2를 참조하여 상세히 설명한다.The
스크린(31)은 프로젝터(32)로부터 조사된 영상을 디스플레이한다. 본 발명의 스크린(31)은 사용자, 즉 아동의 몰입감을 높이고, 스크린에 표시되는 콘텐츠의 상황이 실제 상황과 동일하게 느껴질 수 있도록 도 1과 같이 영상 표시면이 상하좌우 곡면으로 이루어지는 구체(Spherical) 스크린이 적용된다.The
프로젝터(32)는 제어장치(100)로부터 콘텐츠에 대응하는 영상데이터를 입력받고, 구체 스크린(31)에 일그러짐 없이 표시될 수 있도록 스크린의 굴곡 정도에 따라 영상을 변환하여 상기 구체 스크린(31)에 변환된 영상을 조사한다. 구체인 스크린 면에 왜곡 없는 영상을 표시하기 위해 구체 스크린(31)에 표시되는 영상은 비선형 왜곡 보정(NLDC: Non-linear Distortion Correction) 방식에 의해 보정된다. 그러나 상기 보정은 제어장치(100)에서 이루어지도록 구성될 수도 있을 것이다. 이 경우 프로젝터(32)는 보정된 영상데이터를 입력받아 빛의 형태의 영상으로 변환하여 상기 구체 스크린(31)에 조사할 것이다.The
스피커(52)는 제어장치(100)로부터 콘텐츠에 대응하는 안내 음성을 출력한다.The
사용자 반응 모니터링 장치(41)는 사용자의 행동, 시선을 모니터링하는 것으로, 센서(42), 행동 촬영 카메라(43), 시선 트래킹 카메라(44)를 포함한다. 구체적으로 센서(42)는 사용자의 동작 및 움직임을 인식한다. 상기 센서(42)는 사용자가 구체 스크린(31)의 터치 위치를 인식하고, 인식된 터치 위치 정보를 출력하는 센서일 수 있을 것이다. 그리고 행동 촬영 카메라(43)는 사용자의 전신을 촬영하여 출력하고, 시선 트래킹 카메라(44)는 제어장치(100)의 제어를 받아 사용자의 눈을 촬영하여 출력한다. 상기 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)는 PTZ(Pan/Tilt/Zoom) 카메라이다. The user
마이크(51)는 사용자가 발화한 발음을 전기적인 신호로 변환하여 제어장치(100)로 출력하는 것으로 기능적으로 상기 사용자 반응 모니터링부(40)에 포함될 수도 있을 것이다.The
라이더(70)는 사용자가 시뮬레이션을 편안하게 앉아서 이용하기 위한 좌석으로, 도 3에 나타낸 바와 같이 의자, 말, 자전거 등의 형태로 구성될 수 있다. 그러나 라이더(70)의 모양은 콘텐츠에 따라 다양하게 구성될 수 있으며, 도 3의 형태에 국한되지 않는다. 예를 들어, 라이더(70)는 승마 콘텐츠가 실행될 경우, 말 위에 올라탄 느낌을 갖게 하기 위해 도 3의 (나)와 같이 말 형상의 좌석으로 구성될 수 있으며, 균형 감각을 훈련하기 위한 자전거 콘텐츠가 실행될 경우 도 3의 (다)와 같이 자전거 형상의 좌석으로 구성될 수 있을 것이다. 즉 라이더(70)는 콘텐츠의 내용과 조화되어 구성되고, 유사한 환경조건을 조성해 줌으로써 사용자가 실제와 같은 상황으로 느낄 수 있도록 만든다. 또한, 라이더(70)는 도 13에서 보이는 바와 같이 언어 교육 콘텐츠 등과 같은 진동에 의한 자극을 주는 콘텐츠들에서 사용자에게 실제와 유사한 환경조건을 조성해 주기 위해 의자 라이더(70)의 등받이에 진동 스피커(71)를 포함하도록 구성될 수도 있을 것이다. 이는 콘텐츠 내에서 가르치는 선생님 또는 사용자가 글자(음절)을 발음 시, 음성의 파장 및 떨림이 탑승자의 몸으로 느껴지게 하기 위한 것이다. 예를 들어 설명하면, '아'를 발음할 때와 '우'를 발음할 때 각각의 음절이 세기, 파장 및 진동이 다르다는 것을 느끼고 이해할 수 있게 하며, 성대에서 울리는 떨림을 사용자의 몸으로 전달하여 각 음절에 따른 세기, 파장 및 진동이 다르다는 것을 인지시켜 학습 성능을 향상시킨다. 상기 진동 스피커(71)는 전원과 연결되고, 라이더(70)의 임의의 위치에 설치되는 스위치를 통해 온/오프되도록 구성될 수 있을 것이다.
The
이하에서는 도 2를 참조하여 제어장치(100)의 구성 및 동작을 상세히 설명한다.Hereinafter, the configuration and operation of the
도 2는 본 발명에 따른 발달장애 치료용 다중 시뮬레이터의 제어장치의 구성을 나타낸 도면이다.2 is a view showing the configuration of a control device of a multi-simulator for the treatment of developmental disorders according to the present invention.
본 발명에 따른 제어장치(100)는 제어부(10), 입력부(20), 디스플레이부(30), 사용자 반응 모니터링부(40), 오디오 처리부(50) 및 라이더 제어부(60)를 포함한다. The
입력부(20)는 다수의 숫자키 및 문자키, 방향키 등의 다수의 키들을 포함하는 키보드 등이 될 수 있으며, 사용자 또는 관리자에 의해 눌려진 키에 대응하는 키신호를 제어부(10)로 출력한다. 입력부(20)는 키보드 외에도, 사용자가 콘텐츠에 대응하여 반응을 입력받는 버튼들로 구성될 수 있는 사용자 응답 수단을 더 포함할 수도 있을 것이다.The
디스플레이부(30)는 도 1에서 설명한 구체 스크린(31) 및 프로젝터(32)로 구성될 수도 있고, 구체 스크린(31) 및 프로젝터(32) 외에 별도의 CRT 모니터 또는 LCD 모니터 등이 될 수도 있고 둘 모두를 포함하여 구성될 수 있을 것이다. 그러나 사용자에게 실제상황과 유사한 조건을 만들어주기 위해서는 사용자가 보는 스크린은 구체 스크린(31)을 적용하는 것이 바람직할 것이다. 그리고 CRT 모니터 또는 LCD 모니터는 관리자가 이용하게 하는 것이 바람직할 것이다.The
사용자 반응 모니터링부(40)는 사용자 반응 모니터링 장치(41)들과 연결되어 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)의 촬영 방향을 조절하고, 각 카메라를 통해 촬영된 영상데이터를 제어부(10)로 출력하며, 센서(42)를 통해 검출된 센싱데이터를 제어부(10)로 출력한다. 구체적으로 사용자 반응 모니터링부(40)는 센서(42)와 연결되어 센서(42)로부터 센싱 신호를 입력받아 센싱데이터로 변환하여 제어부(10)로 출력하는 인터페이스부(45), 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)의 방향을 각각 제어하는 카메라 틸팅부(46), 및 상기 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)로부터 촬영된 영상데이터를 영상 처리하여 제어부(10)로 출력하는 영상 처리부(47)를 포함한다. 구체적으로, 카메라 틸팅부(46)는 제어부(10)의 제어를 받아 상기 행동 촬영 카메라(43) 및 시선 트래킹 카메라(44)의 팬(Pan), 틸트(Tilt), 줌(Zoom)을 제어한다.The user
오디오 처리부(50)는 콘텐츠에 따른 행동 유도 안내 음성 등과 같은 안내 음성데이터를 제어부(10)로부터 입력받아 스피커(52)를 통해 출력하고, 사용자가 발성한 발음을 마이크(51)를 통해 전기적인 신호로 입력받아 음성데이터로 변환하여 제어부(10)로 출력한다. 또한, 오디오 처리부(50)는 마이크(51)를 통해 입력되는 사용자의 발성을 음성인식 하여 제어부(10)로 출력한다.The
라이더 제어부(60)는 제어부(10)의 제어를 받아 라이더(70)의 동작을 제어하는 라이더 구동부(62)와 라이더(70)로부터 입력되는 데이터를 제어부(10)로 출력하는 라이더 인터페이스부(63)를 포함한다. 구체적으로 라이더 구동부(62)는 라이더(70)를 움직이기 위해 구성된 모터 등을 구동하여 라이더를 전후좌우 및 기울기 등을 제어한다. 라이더 인터페이스부(63)는 라이더(70)에 탑승한 사용자의 라이더(70) 조작에 따른 데이터를 입력받아 제어부(10)로 출력한다. 상기 조작에 따른 데이터는 라이더(70)가 자전거인 경우, 핸들 좌우 조작 데이터, 브레이크 데이터, 페달 회전 속도 데이터, 자전거의 좌우 기울어짐 각도 데이터 등이 될 수 있을 것이다. 또한, 라이더(70)에 진동 스피커(71)가 구성되어 있는 경우 라이더 인터페이스부(63)는 제어부(10)로부터 발음 유도 안내 음성 등과 같으나 음성데이터를 입력받아 아날로그 음성신호로 변환하여 상기 진동스피커(71)로 출력하도록 구성될 수도 있고, 오디오 처리부(50)와 연결되어 오디오 처리부(50)의 스피커(52)를 통해 출력되는 아날로그 신호인 발음 유도 안내 음성 신호를 입력받아 상기 진동 스피커(71)로 출력하도록 구성될 수도 있을 것이다.The
제어부(10)는 시뮬레이션 모듈(11), 사용자 반응 인식 모듈(16) 및 콘텐츠 DB(17)를 포함하여 본 발명에 따른 치료용 다중 시뮬레이터의 전반적인 동작을 제어한다.The
구체적으로 설명하면, 콘텐츠 DB(17)는 발달장애를 치료하기 위한 감각통합 훈련 콘텐츠, 인지훈련 콘텐츠, 언어교육 콘텐츠, 다수의 놀이 콘텐츠 등의 다수의 콘텐츠들을 저장한다. 상기 콘텐츠들은 다양한 상황에 대한 훈련 시나리오 및 상기 시나리오에 따른 영상, 정지영상 및/또는 이미지, 행동 유도 안내 음성 데이터, 라이더 제어 데이터 등을 포함한다. Specifically, the content DB 17 stores a plurality of contents such as sensory integration training contents, cognitive training contents, language education contents, and a plurality of play contents for treating a developmental disorder. The contents include training scenarios for various situations and images, still images and / or images according to the scenarios, behavior guidance voice data, rider control data, and the like.
시뮬레이션 모듈(11)은 선택된 콘텐츠에 대응하여 해당 영상을 프로젝터(32)를 통해 구체 스크린(31)에 표시하고, 상기 콘텐츠의 영상에 대응하여 사용자 반응 모니터링부(40), 오디오 처리부(50) 및 라이더 제어부(60)를 통해 사용자의 반응을 유도 및 모니터링하고, 사용자 반응 인식 모듈(16)로부터 입력되는 분석된 정보에 기초하여 해당 콘텐츠에 따른 훈련을 수행한다.The
상기 시뮬레이션 모듈(11)은 감각통합 훈련 모듈(12), 인지훈련 모듈(13), 언어 교육 모듈(14) 및 놀이 모듈(15) 등을 포함한다.The
감각통합 훈련 모듈(12)은 감각통합 훈련 콘텐츠를 콘텐츠 DB(17)로부터 로딩하고, 로딩된 감각통합 훈련 콘텐츠에 따라 영상을 구체 스크린(31)에 표시하고, 그에 대응하여 라이더(70)를 제어하며, 그에 따른 라이더(70)의 조작 및 사용자 반응 모니터링 장치(41)를 통한 사용자의 반응을 모니터링하며, 상기 라이더(70) 및 구체 스크린(31)을 통해 상기 모니터링된 사용자의 반응 및 조작에 대응하는 콘텐츠의 시나리오에 따라 연속적인 훈련을 제공한다. 부연설명을 하면, 정신 및 행동장애를 가진 사용자의 경우 일반적인 사람들과는 다르게 실제 경험을 통해 행동 발달을 이루기가 쉽지 않은 경우가 많다. 그 예로, 자전거나 말과 같은 움직임과 동시에 균형감각을 필요로 하는 것에서 두려움, 회피, 부적응을 보이고, 넘어지거나 떨어지는 등 위험한 사고의 발생 확률이 높다. 따라서 라이더(70)를 통해 손잡이를 잡고 페달을 돌려보며, 구체 스크린(31)에 표시되는 영상을 통해 전방 주시를 할 수 있도록 유도하여 사용자가 균형을 잡고 상황을 미리 체험할 수 있도록 한다. 이러한 반복된 연습을 통해 사용자는 감각과 무게중심을 익히고, 몸의 움직임과 시선의 상관관계를 자연스럽게 훈련시킨다.The sensory
인지훈련 모듈(13)은 인지 훈련 콘텐츠를 콘텐츠 DB(17)로부터 로딩하고, 로딩된 인지 훈련 콘텐츠에 따라 영상을 구체 스크린(31)에 표시하고, 그에 대응하여 사용자 반응 모니터링 장치(41)를 통해 사용자의 시선의 움직임 등을 모니터링 및 분석하고, 분석된 사용자의 시선에 대응하는 콘텐츠의 시나리오에 따라 인지 훈련을 수행한다. 부연 설명을 하면, 인지훈련 모듈(13)은 시선 트래킹 카메라(44)를 통해 사용자의 눈(홍채)을 인식하고, 인식되는 사용자 시선이 구체 스크린(31)에 표시되는 물체의 이동에 따라 옮겨지도록 유도하여 사용자의 시야각을 넓힐 수 있도록 훈련한다.The
언어 교육 모듈(14)은 언어 교육 콘텐츠를 콘텐츠 DB(17)로부터 로딩하고, 로딩된 언어 교육 콘텐츠에 따라 언어 교육 영상을 구체 스크린(31)에 표시하고, 그에 대응하는 사용자의 행동 및 발성을 사용자 반응 모니터링 장치(41) 및 마이크(51)를 통해 분석하고, 분석된 사용자의 행동 및 발성에 대응하는 콘텐츠의 시나리오에 따라 언어교육을 수행한다.The
놀이 모듈(15)은 사용자의 능동적인 행동을 유도하는 게임 콘텐츠를 콘텐츠 DB(17)로부터 로딩하고, 로딩된 게임 콘텐츠에 따라 영상을 구체 스크린(31)에 표시하고, 사용자의 능동적인 행동을 유도하며, 상기 유도에 의한 사용자의 행동을 사용자 반응 모니터링 장치(41)를 통해 분석하고, 분석된 사용자의 행동에 대응하는 콘텐츠의 시나리오에 따라 게임을 수행한다. 부연하여 설명하면, 손가락을 쥐었다 펴게 하고, 손과 다리를 뻗었다가 흔들었다가, 이리저리 몸을 움직이게 하며, 사용자의 행동을 유도 및 실행하게 하여 사회성을 향상시킨다.The
사용자 반응 인식 모듈(16)은 상기 사용자 반응 모니터링부(40), 또는 사용자 반응 모니터링부(40) 및 라이더 인터페이스부(63)로부터 입력되는 정보들을 분석하여 사용자 반응을 인식한 후 해당 시뮬레이션 모듈(11)로 제공한다.
The user response recognition module 16 analyzes the information input from the user
도 4는 본 발명에 따른 발달장애 치료용 다중 시뮬레이터에서의 다중 시뮬레이션 방법을 나타낸 흐름도이다. 이하 도 1 내지 도 4를 참조하여 설명한다.4 is a flowchart illustrating a multi-simulation method in a multi-simulator for treating a developmental disorder according to the present invention. Hereinafter, a description will be given with reference to Figs. 1 to 4. Fig.
우선, 제어장치(100)의 제어부(10)는 시뮬레이션 개시 이벤트가 발생되는지를 검사한다(S411). 시뮬레이션 개시 이벤트는 입력부(20)를 통해 관리자기 시뮬레이션 개시 명령을 입력할 경우 발생할 수도 있고, 시뮬레이터가 구동된 상태에서 사용자가 라이더(70)에 착석하거나 구체 스크린(31)의 앞에 서는 경우 발생될 수도 있을 것이다. 후자의 경우, 제어부(10)는 사용자 반응 모니터링 장치(41) 및 마이크(51) 중 하나에 의해 사용자가 구체 스크린(31) 앞에 서 있는 지의 여부를 판단할 수 있을 것이다.First, the
시뮬레이션 개시 이벤트가 발생되면 제어부(10)는 사용자 반응 모니터링 장치(41) 및 마이크(51)를 사용자에 맞도록 촬영 방향 및 위치를 설정한다(S413). 상기 초기 사용자 반응 모니터링 장치(41) 및 마이크(51)의 설정은 자동으로 사용자 반응 모니터링 장치(41)를 통해 모니터링되는 정보에 의해 자동으로 설정할 수도 있고, 관리자가 수동으로 설정할 수도 있을 것이다.When the simulation start event occurs, the
장치 초기화 후, 제어부(10)는 콘텐츠 설정 화면을 표시한다(S415). 상기 콘텐츠 설정 화면은 프로젝터(32)를 통해 구체 스크린(31)에 표시될 수도 있고, 별도의 LCD 등과 같은 별도의 디스플레이 장치에 표시될 수도 있을 것이다. 콘텐츠 설정 화면은 다수의 콘텐츠들 중 하나 이상을 선택하고, 그 순서 등을 설정하는 화면일 수 있을 것이다.After device initialization, the
상기 콘텐츠 설정화면이 표시된 후, 제어부(10)는 임의의 콘텐츠가 선택되는지를 검사한다(S417).After the content setting screen is displayed, the
임의의 콘텐츠가 선택되면 제어부(10)는 선택된 콘텐츠가 라이더(70)를 필요로 하는 콘텐츠인지를 판단한다(S419).If any content is selected, the
판단 결과, 라이더(70)를 필요로 하는 콘텐츠이면 제어부(10)는 선택된 콘텐츠에 대응하는 라이더(70)가 적용되었는지를 판단한다(S421). 이를 위해 상기 콘텐츠 DB(17)에 저장된 각 콘텐츠는 콘텐츠 필요 여부 정보를 가지고 있으며, 콘텐츠가 필요한 경우 해당 콘텐츠는 필요한 라이더(70)의 식별정보를 가지고 있어야 한다. 그리고 각 라이더(70)는 종류별 식별정보를 가지고 있어야 한다. 그러면 제어부(10)는 상기 콘텐츠의 선택 시 콘텐츠에 포함된 필요 라이더의 식별정보와 라이더 인터페이스부(63)를 통해 라이더(70)로부터 입력받은 식별정보를 비교하여 동일한 라이더인지를 판단하여 상기 콘텐츠에 대응하는 라이더(70)가 적용되었는지를 판단한다.If it is determined that the content requires the
선택된 콘텐츠에 대응하는 라이더가 적용되지 않은 경우 제어부(10)는 현재 적용된 라이더(70)의 라이더 정보(식별정보 포함) 및 콘텐츠에 대응하는 라이더 정보를 포함하는 콘텐츠 대응 라이더 정보를 표시하여 콘텐츠에 대응하는 라이더(70)를 적용할 것을 요청한다(S423).When the rider corresponding to the selected content is not applied, the
선택된 콘텐츠에 대응하는 라이더가 적용되면 제어부(10)는 라이더 구동부(62)를 제어하여 라이더(70)를 초기화시킨다(S425).When a rider corresponding to the selected content is applied, the
라이더가 초기화되면 제어부(10)는 사용자가 라이더(70)에 착석했는지를 판단한다(S427). 사용자의 라이더(70) 착석 여부는 사용자 반응 모니터링 장치(41)의 행동 촬영 카메라(43), 시선 트래킹 카메라(44)를 통해 촬영되는 영상을 통해 판단될 수 있으며, 라이더(70)에 설치된 별도의 센서(미도시)를 통해 판단될 수도 있을 것이다.When the rider is initialized, the
사용자가 라이더(70)에 착석했으면 제어부(10)는 사용자 반응 모니터링 장치(41)를 사용자에 맞도록 설정한다(S429). 예를 들어, 행동 촬영 카메라(43)는 라이더(70)에 착석한 사용자의 전체 신체 또는 서거나 바닥에 앉아 있는 사용자의 신체 전체 모두가 촬영될 수 있도록 조절되고, 시선 트래킹 카메라(44)는 사용자의 두 눈이 촬영될 수 있도록 조절된다.If the user is seated on the
상기 사용자 반응 모니터링 장치(41)의 설정이 완료되면 제어부(10)는 상기 선택된 콘텐츠를 실행하여 시뮬레이션 종료 이벤트가 발생할 때까지 해당 콘텐츠에 대응하는 훈련을 수행한다(S431, S433). 상기 시뮬레이션 종료 이벤트는 상기 선택된 콘텐츠가 완료되거나, 관리자가 입력부(20)를 통해 시뮬레이션 종류 명령을 실행한 경우 발생될 수 있을 것이다.When the setting of the user
도 5는 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 감각 통합 훈련 방법을 나타낸 흐름도이고, 도 6은 본 발명의 일실시예에 따른 라이더를 이용한 감각 통합 훈련 방법을 설명하기 위한 도면이다. 이하 도 5 및 도 6을 참조하여 감각 통합 훈련 방법을 설명한다.FIG. 5 is a flowchart illustrating a sensory integration training method of a multi-simulation method according to an embodiment of the present invention, and FIG. 6 is a diagram illustrating a sensory integration training method using a rider according to an embodiment of the present invention. Hereinafter, the sensory integration training method will be described with reference to FIGS. 5 and 6.
우선 제어부(10)는 상기 도 4에서 선택된 콘텐츠가 감각 통합 훈련 콘텐츠이고, 사용자 반응 모니터링 장치(41)의 설정이 완료되면(S429), 감각 통합 훈련 모듈(12)을 활성화시킨다.First, the
활성화된 감각 통합 훈련 모듈(12)은 라이더 인터페이스부(63)를 통해 라이더(70)의 라이더 정보를 로딩한다(S511). 여기서 라이더 정보를 로딩하는 이유는 감각 통합 훈련 콘텐츠라 할지라도 도 6에 표시된 바와 같이 다양한 라이더가 적용될 수 있고, 라이더의 종류에 따라서 그 영상 및 시나리오가 달라질 수 있기 때문이다.The activated sensory
라이더 정보가 로딩되면 통합 훈련 모듈(12)은 감각 통합 콘텐츠로부터 상기 로딩된 라이더 정보의 라이더(70)에 대응하는 감각 통합 콘텐츠 시나리오를 로드하고, 그 시나리오에 따른 주행 영상을 디스플레이부(30)인 프로젝터(32)를 통해 구체 스크린(31)에 표시한다(S513).When the rider information is loaded, the
영상이 표시되기 시작하면 감각 통합 훈련 모듈(12)은 영상(시나리오)에 대응하여 사용자의 동작을 요구하는 안내 음성을 스피커(52)를 통해 출력하여 사용자가 단계별 균형 및 방향 전환을 할 수 있도록 유도한다(S515).When the image starts to be displayed, the sensory
상기 사용자의 행동 유도 후 감각 통합 훈련 모듈(12)은 사용자 반응 모니터링부(40)를 통해 사용자 반응 모니터링 장치(41)로부터 수신되는 영상 및 라이더 인터페이스부(63)를 통해 입력되는 라이더(70)의 조작 정보를 분석하고(S517), 사용자의 시선을 분석하여 추적한다(S519).After inducing the behavior of the user, the sensory
감각 통합 훈련 모듈(12)은 분석된 정보로부터 유도된 영상에 대응하여 사용자가 반응했는지를 판단한다(S521).Sensory
사용자가 유도된 영상에 대응하여 반응하지 않았으면 감각 통합 훈련 모듈(12)은 감각 통합 콘텐츠로부터 사용자의 동작 및 시선에 대응하는 개선 유도 영상 및 음성을 로딩하여 구체 스크린(31) 및 스피커(52)를 통해 출력한(S523) 후, 사용자가 유도된 반응을 했는지를 다시 판단한다(S521).If the user did not respond in response to the induced image, the sensory
사용자가 유도된 영상에 대응하여 반응했으면 감각 통합 훈련 모듈(12)은 콘텐츠의 모든 단계들을 완료했는지를 판단하고(S525), 모든 단계들을 완료할 때까지 콘텐츠의 영상(시나리오)에 따라 상술한 S517 내지 S523을 반복해서 수행한다.
If the user has responded in response to the induced image, the sensory
도 7은 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 인지훈련 방법을 나타낸 흐름도이고, 도 8은 본 발명의 일실시예에 따른 인지훈련 방법의 일예를 나타낸 도면이다. 이하 도 7 및 도 8을 참조하여 인지훈련 방법을 설명한다.7 is a flowchart illustrating a cognitive training method of a multiple simulation method according to an embodiment of the present invention, and FIG. 8 is a diagram illustrating an example of a cognitive training method according to an embodiment of the present invention. Hereinafter, the cognitive training method will be described with reference to FIGS. 7 and 8.
우선 제어부(10)는 상기 도 4에서 선택된 콘텐츠가 인지 훈련 콘텐츠이고, 사용자 반응 모니터링 장치(41)의 설정이 완료되면(S429), 인지 훈련 모듈(13)을 활성화시킨다.First, when the content selected in FIG. 4 is the cognitive training content, and the setting of the user
활성화된 인지 훈련 모듈(13)은 도 8의 (가)와 같은 기본 좌표로 구성되는 구체 스크린(31)의 중앙에 인지 훈련을 위한 (나)와 같은 트래킹 대상 사물을 표시한다(S711).The activated
트래킹 대상 사물을 표시한 후, 인지 훈련 모듈(13)은 트래킹 대상 사물의 이동 및 사용자의 시선 트래킹을 유도하는 안내 음성을 오디오 처리부(50)를 거쳐 스피커(52)를 통해 출력한다(S713).After displaying the object to be tracked, the
상기 트래킹 유도 안내 음성의 출력 후 인지 훈련 모듈(13)은 사용자 반응 모니터링 장치(41)의 시선 트래킹 카메라(44)를 통해 사용자의 시선을 분석 및 추적한다(S715). 도 8을 참조하여 구체적으로 설명하면, 도 8의 (나)에서 구체 스크린(31)의 중앙에 표시된 사물, 즉 사과나무를 보도록 집중시킨 후, 사용자가 사과나무에 집중을 하면 사과나무에서 사과 한 개를 따서 (다)와 같이 외쪽 모퉁이로 이동시키고 사용자의 시선이 왼쪽으로 옮겨지도록 유도한다. 이때 사용자 시선이 사과나무에 집중되는지 및 이동된 사과의 위치로 사용자의 시선이 움직이는지는 사용자 반응 모니터링 장치(41)의 시선 트래킹 카메라(44)에 의해 촬영된 영상의 분석에 의해 이루어진다.The
상기와 같이 사용자 시선 분석 및 추적이 이루어지면 인지 훈련 모듈(13)은 사물이 이동한 위치로 사용자의 시선이 이동했는지를 판단하여 사물 추적 성공 여부를 판단한다(S717).When the user gaze analysis and tracking is performed as described above, the
판단 결과, 사물 추적에 성공했으면, 인지 훈련 모듈(13)은 추적 성공을 알리고 성공 횟수를 카운트한 후 표시한다(S719).As a result of the determination, if the object tracking is successful, the
반면, 사물 추적에 실패하면 인지 훈련 모듈(13)은 추적 실패 횟수를 카운트하고(S721), 사용자의 시선을 이동한 사물로 유도하는 안내 음성을 반복해서 출력한다(S713). 상기 카운트된 추적 실패 횟수는 추후 관리자의 자료로 이용될 수 있을 것이다.On the other hand, if the object tracking fails, the
상기 추적 성공 횟수가 카운트되면 인지 훈련 모듈(13)은 추적 성공 횟수가 미리 설정된 기준 횟수를 초과하는지를 검사하여, 상기 추적 성공 횟수가 기준 횟수를 초과할 때까지 반복해서 상기 S713 내지 S717을 반복해서 수행한다(S723, S725).When the number of successful tracking is counted, the
상기 추적 성공 횟수가 기준횟수를 초과하면 인지 훈련 모듈(13)은 추적 성공 횟수를 구체 스크린(31)에 표시한다(S727).If the number of successful tracking exceeds the reference number, the
도 8을 참조하여 상기 S719 내지 S727을 설명하면, 도 8의 (다)와 같이 트래킹 대상 사물인 사과가 일측 모서리로 이동되고, 사용자가 사과로 시선을 이동하여 사물 추적에 성공하면 1을 카운트한 후 표시하며, (다)의 사과 위치에서 (라)와 같이 사과의 위치를 이동시킨 후, 사용자의 시선이 사과가 이동한 위치로 이동하면 2를 카운트한 후 표시한다. 그리고 기준 횟수가 2회로 설정된 경우 인지 훈련 모듈(13)은 추적 성공 횟수가 2가 되었으므로 도 8의 (바)와 같이 추적에 성공한 횟수를 표시하여 알려준다.Referring to S719 to S727 with reference to FIG. 8, as shown in (c) of FIG. 8, an apple, which is a tracking target object, is moved to one corner, and if the user moves the eye to the apple and succeeds in tracking the object, the number 1 is counted. After the apple is moved from the apple position of (C) as shown in (D), if the user's eyes move to the position where the apple is moved, 2 is counted and displayed. And if the reference number is set to two times, the
상기 설명에서는 추적 성공 횟수가 기준 횟수를 초과하는 경우 추적 성공 횟수를 표시하여 과정을 완료하는 경우를 설명하였으나, 성공 및 실패에 상관없이 트래킹 대상 사물의 이동 횟수가 기준 횟수를 초과하는 경우, 최종 추적 성공 횟수를 표시하여 사용자에게 알려주도록 구성될 수도 있을 것이다.
In the above description, when the tracking success count exceeds the reference count, the tracking success count is displayed to complete the process. However, the final tracking is performed when the number of movements of the tracking target object exceeds the reference count regardless of success or failure. It may be configured to inform the user by displaying the number of successes.
도 9는 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 언어교육 방법을 나타낸 흐름도이고, 도 10은 본 발명의 일실시예에 따른 언어교육 방법의 일예를 나타낸 도면이다. 이하 도 9 및 도 10을 참조하여 언어 교육 방법을 설명한다.9 is a flowchart illustrating a language teaching method of a multi-simulation method according to an embodiment of the present invention, and FIG. 10 is a diagram illustrating an example of a language teaching method according to an embodiment of the present invention. Hereinafter, a language teaching method will be described with reference to FIGS. 9 and 10.
우선 제어부(10)는 상기 도 4에서 선택된 콘텐츠가 언어 교육 콘텐츠이고, 사용자 반응 모니터링 장치(41)의 설정이 완료되면(S429), 언어 교육 모듈(14)을 활성화시킨다.First, when the content selected in FIG. 4 is language education content and setting of the user
활성화된 언어 교육 모듈(13)은 선택된 언어 교육 콘텐츠로부터 교육할 발음을 로딩하여 구체 스크린(31)에 표시한다(S911).The activated
교육할 발음의 표시 후, 언어 교육 모듈(13)은 표시된 언어의 발음을 유도하는 발음 유도 안내 음성을 스피커(52)를 통해 출력한다(S913).After displaying the pronunciation to be taught, the
상기 안내 발음 유도 안내 음성의 출력 후, 언어 교육 모듈(13)은 사용자 반응 모니터링 장치(41)의 행동 촬영 카메라(43)를 통해 사용자의 입의 촬영을 개시한다(S915).After outputting the guide pronunciation guide voice, the
상기 사용자 입의 촬영이 개시되면 언어 교육 모듈(13)은 마이크(51)를 통해 사용자가 발성을 하는지를 검사하고(S917), 사용자가 발성을 하면 오디오 처리부(50)를 통해 마이크(51)로부터 입력되는 음성에 대한 음성인식을 수행하고(S918), 상기 행동 촬영 카메라(43)를 통해 사용자의 발성 시의 입 모양을 캡처한다(S919).When the photographing of the user's mouth is started, the
상기 사용자의 발성에 의한 사용자의 입 모양이 캡처되면 언어 교육 모듈(14)은 상기 표시된 발음에 대해 콘텐츠에 포함되어 있는 선생님의 입 모양을 로드하고(S921), 선생님의 입 모양과 사용자의 입모양을 도 10의 (가)와 같이 표시한다(S923).When the shape of the user's mouth by the user's utterance is captured, the
상기 선생님의 입 모양 및 사용자의 입 모양 표시 후 언어 교육 모듈(14)은 오차 범위 내에서 선생님의 입 모양과 사용자의 입 모양이 일치하는지를 판단한다(S925). 상기 입 모양의 일치 여부는 각각의 입 모양 패턴을 비교하여 이루어질 수 있을 것이다.After displaying the teacher's mouth shape and the user's mouth shape, the
오차범위 내에서 일치하면 언어 교육 모듈(14)은 도 10의 (나)와 같이 적어도 하나 이상의 연관 단어를 표시하고, 표시된 연관 단어들의 발음을 유도하는 발음 유도 안내 음성을 스피커(52)를 통해 출력한다(S927).If it matches within the error range, the
상기 발음 유도 안내 음성의 출력 후 언어 교육 모듈(14)은 마이크(51)를 통해 발음이 입력되는지를 검사한다(S929).After outputting the pronunciation guidance voice, the
마이크(51)를 통해 발음이 입력되면 언어 교육 모듈(14)은 음성인식을 수행한(S930) 후, 인식된 결과가 상기 표시된 단어와 일치하는지를 판단한다(S931).When the pronunciation is input through the
일치하면 언어 교육 모듈(14)은 일치한 단어에 대해 해당 발음을 정확하게 했음을 나타내기 위해 구체 스크린(31)에 표시되는 해당 단어를 굵은 글씨 등으로 강조하여 표시한다(S933). 상기 강조 표현은 도 10에서와 같이 쓰기란을 굵은 글씨로 표기하는 것이 될 수 있을 것이다. 예를 들어, 발음 유도 안내 음성이 도 10의 (나)와 같이 [우유]이었고, 사용자가 이에 대해 정확하게 발음되었다면 도 10의 (나)와 같이 [우유]는 굵은 글씨로 표시될 것이다.If there is a match, the
언어 학습 모듈(14)은 표시된 단어들에 대해 모든 언어 학습이 끝나면 과정이 종료될 때까지 다음 단어들을 표시하여 상기 과정들을 반복 수행한다(S935, S937). 상기 과정 종료는 시간이 일정 시간 지나는 경우 종료되도록 구성될 수도 있고, 일정 단어들을 학습하는 경우 종료되도록 구성될 수도 있으며, 관리자의 종료 명령에 의해 종료될 수도 있을 것이다.
The
도 11은 본 발명의 일실시예에 따른 다중 시뮬레이션 방법의 놀이 방법을 나타낸 흐름도이고, 도 12는 본 발명의 일실시예에 따른 놀이 방법의 예들을 나타낸 도면이다. 이하 도 11 및 도 12를 참조하여 놀이를 이용한 훈련 방법을 설명한다.11 is a flowchart illustrating a play method of a multi-simulation method according to an embodiment of the present invention, and FIG. 12 is a diagram illustrating examples of a play method according to an embodiment of the present invention. Hereinafter, a training method using play will be described with reference to FIGS. 11 and 12.
놀이에는 도 12에서 나타낸 바와 같이 (가)의 나비 잡기 놀이, (나) 농구 놀이 및 (다)의 이야기 듣고 지시에 따라 행동하기 등과 같은 다양한 놀이들이 놀이 콘텐츠로 등록되어 있을 수 있을 것이다.As shown in FIG. 12, various games such as (a) catching a butterfly, (b) basketball, and (c) listening to and acting according to instructions may be registered as play contents.
도 11을 참조하면, 제어부(10)는 상기 도 4에서 선택된 콘텐츠가 놀이 콘텐츠이고, 사용자 반응 모니터링 장치(41)의 설정이 완료되면(S429), 놀이 모듈(15)을 활성화시킨다.Referring to FIG. 11, the
활성화된 놀이 모듈(13)은 게임 콘텐츠들을 리스트의 형태로 표시한다(S1111). 상기 게임 콘텐츠 리스트는 프로젝터(32)를 통해 구체 스크린(31)에 표시될 수도 있고, 관리자만 보는 별도의 디스플레이 장치에 표시될 수도 있을 것이다.The activated
상기 게임 리스트가 표시되면 게임 모듈(15)은 다수의 게임 콘텐츠들 중 하나가 선택되는지를 검사한다(S1113).When the game list is displayed, the
하나의 게임 콘텐츠가 선택되면 게임 모듈(15)은 사용자 반응 모니터링 장치(41)의 센서(42)를 활성화시킨(S1114) 후, 선택 게임을 로딩하여 게임 영상을 프로젝터(32)를 통해 구체 스크린(31)에 표시하고, 게임 오디오를 스피커(52)를 통해 출력하여 게임을 플레이한다(S1115).When one game content is selected, the
게임이 플레이되면 게임 모듈은 사용자의 움직임을 유도하는 영상 및 안내 음성을 출력하고(S1117), 사용자 반응 모니터링 장치(41)를 통해 사용자가 대응동작을 수행하는지를 검사한다(S1119). 본 발명에 따른 게임들은 사용자의 적극적인 행동들을 유도하여야 함에 따라 도 12의 (가) 및 (나)에서 보이는 바와 같이 사용자가 구체 스크린(31)에 인접하여 행동하게 되므로 센서(42)를 통해 사용자가 터치하는 스크린 상의 위치를 센싱하는 것이 바람직할 것이다.When the game is played, the game module outputs an image and a guide voice for inducing a user's movement (S1117), and checks whether the user performs a corresponding operation through the user response monitoring device 41 (S1119). Games according to the present invention should induce active actions of the user, so that the user acts adjacent to the
유도된 영상 및 안내 음성에 대응하여 사용자가 적절한 대응 동작을 수행하지 못하면 게임 모듈(15)은 사용자의 개선 동작을 유도하는 개선 동작 유도 영상 및 안내 음성을 출력한(S1123) 후, 다시 사용자가 적절한 대응동작을 수행하는지를 판단한다(S1119).If the user does not perform an appropriate response in response to the guided image and the guided voice, the
사용자가 적절한 대응동작을 수행하면 게임 모듈(15)은 성공 알림 및 칭찬 안내 음성을 구체 스크린(31) 및 스피커(52)를 통해 출력한다(S1121). When the user performs an appropriate response operation, the
한편, 본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에서 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다.
While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be easily understood. It is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, it is intended to cover various modifications within the scope of the appended claims.
10: 제어부 11: 시뮬레이션 모듈
12: 감각 통합 훈련 모듈 13: 인지 훈련 모듈
14: 언어 교육 모듈 15: 놀이 모듈
16: 사용자 반응 인식 모듈 17: 콘텐츠 DB
20: 입력부 30: 디스플레이부
40: 사용자 반응 모니터링부 41: 사용자 반응 모니터링 장치
42: 센서 43: 행동 촬영 카메라
44: 시선 트래킹 카메라 45: 인터페이스부
46: 카메라 틸팅부 47: 영상 처리부
50: 오디오 처리부 51: 마이크
52: 스피커 60: 라이더 제어부
62: 라이더 구동부 63: 라이더 인터페이스부
70: 라이더 71: 진동 스피커10: control unit 11: simulation module
12: Sensory Integration Training Module 13: Cognitive Training Module
14: Language Teaching Module 15: Play Module
16: User response recognition module 17: Content DB
20: input unit 30: display unit
40: user response monitoring unit 41: user response monitoring device
42: sensor 43: action shooting camera
44: eye tracking camera 45: interface unit
46: camera tilting unit 47: image processing unit
50: audio processor 51: microphone
52: speaker 60: rider control unit
62: rider drive unit 63: rider interface unit
70: Rider 71: Vibration Speaker
Claims (31)
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 프로젝터는 상기 영상을 상기 구체 스크린에 표시 시 일그러지지 않도록 비선형 왜곡 보정(Non-linear Distortion Correction: NLDC)을 수행하는 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
And the projector performs non-linear distortion correction (NLDC) so as not to be distorted when the image is displayed on the spherical screen.
사용자가 앉을 수 있도록 구성되는 라이더를 더 포함하는 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
The method of claim 1,
Multiple simulator for treatment of developmental disorders further comprising a rider configured to sit by the user.
상기 라이더는,
의자, 모형 말, 자전거 중 하나이되, 콘텐츠의 내용에 따라 교체될 수 있는 교체형인 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
5. The method of claim 4,
The rider,
A chair, a model horse, or a bicycle, the multi-simulator for the treatment of developmental disorders, characterized in that the replacement can be replaced according to the content of the content.
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 발달장애 치료용 콘텐츠는 사용자의 균형 감각, 무게중심, 전정 자극, 몸의 움직임과 시선의 상관관계를 훈련시키기 위한 감각 통합 콘텐츠이고,
사용자가 앉을 수 있도록 말 및 자전거 형상 중 하나의 형상으로 구성되고, 제어를 받아 좌우 또는 전후좌우로 움직이는 라이더; 및
상기 제어부의 상기 감각 통합 콘텐츠에 따른 제어를 받아 좌우 또는 전후좌우로 움직이기 위한 라이더 제어부를 더 포함하는 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
The content for treatment of developmental disorders is a sense-integrated content for training the correlation between the user's sense of balance, center of gravity, vestibular stimulation, body movement and gaze,
A rider configured in one shape of a horse and a bicycle shape so that a user can sit, and moving left, right, front, rear, left and right under control; And
And a rider controller for moving left, right, front, rear, left, and right under control according to the sensory integrated content of the controller.
상기 라이더 제어부는,
상기 라이더의 전후좌우 방향의 이동 및 기울기를 제어하는 라이더 구동부; 및
상기 라이더의 조작에 따란 조작 데이터를 상기 라이더로부터 입력받아 상기 제어부로 출력하는 라이더 인터페이스부를 포함하는 것을 특징으로 하는 발달장애 치료용 다중 시뮬레이터.
The method according to claim 6,
The rider control unit,
A rider driver for controlling movement and inclination in the front, rear, left, and right directions of the rider; And
And a rider interface unit for receiving operation data according to the rider's operation from the rider and outputting the rider interface to the controller.
상기 제어부는,
상기 감각 통합 콘텐츠의 시나리오에 따른 영상을 상기 구체 스크린에 표시하고 상기 감각 통합 콘텐츠의 시나리오에 따른 행동 유도 안내 음성인 균형 및 방향 전환 유도 안내 음성을 출력하여 사용자의 행동을 유도한 후, 상기 사용자 반응 모니터링 장치를 통해 사용자의 반응에 대한 상기 정보를 분석하여 사용자가 유도된 행동을 수행하지 못했으면 사용자의 동작 및 시선을 개선할 수 있는 개선 유도 영상 및 음성을 상기 구체 스크린 및 스피커를 통해 출력하는 감각 통합 훈련 모듈을 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method according to claim 6,
The control unit,
After displaying the image according to the scenario of the sensory integrated content on the concrete screen and inducing the user's behavior by outputting a balance and direction guidance guidance voice which is a behavior guidance voice according to the scenario of the sensory integrated content, the user response Sense of analyzing the above information about the user's response through the monitoring device and outputting the guided video and audio through the sphere screen and the speaker to improve the user's motion and gaze if the user fails to perform the induced action. Simulator for the developmental disorders comprising an integrated training module.
상기 사용자 반응 모니터링 장치는 상기 사용자의 신체를 촬영하는 행동 촬영 카메라이고,
상기 정보는 상기 행동 촬영 카메라에 의해 촬영된 영상데이터인 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
9. The method according to claim 6 or 8,
The user response monitoring device is a behavior photographing camera to photograph the user's body,
The information is a simulator for the treatment of developmental disorders, characterized in that the image data photographed by the behavior photographing camera.
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 발달장애 치료용 콘텐츠는 사용자의 인지 능력을 훈련시키는 인지 콘텐츠이고,
상기 제어부는,
상기 인지 콘텐츠의 시나리오에 따라 트래킹 대상 사물을 상기 구체 스크린에 표시한 후, 상기 트래킹 대상 사물을 이동시키면서 사용자의 시선이 상기 트래킹 대상 사물을 추적하도록 유도하는 상기 행동 유도 안내 음성인 이동 및 트래킹 유도 안내 음성을 출력하고, 상기 사용자 반응 모니터링 장치로부터 입력되는 상기 정보를 분석하여 사용자의 시선을 추적하여 사용자의 시선이 유도된 행동인 트래킹 대상 사물을 추적하는지를 판단하고, 트래킹 대상 사물을 추적하지 못하는 경우, 반복적으로 트래킹 대상 사물을 이동시키며 사용자 시선의 트래킹 대상 사물을 추적하는 인지 훈련을 시키는 인지 훈련 모듈을 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
The content for treating developmental disorders is cognitive content for training a user's cognitive ability,
The control unit,
According to the scenario of the cognitive content, the tracking target object is displayed on the concrete screen, and then the movement guidance tracking voice, which is the behavior guidance voice, which guides the user's eyes to track the tracking target object while moving the tracking target object. Outputting a voice and analyzing the information input from the user response monitoring device to track the user's gaze to determine whether the user's gaze tracks the tracking object, which is an induced behavior, and fails to track the tracking object, And a cognitive training module that repeatedly moves a tracking target object and performs cognitive training for tracking a tracking target object of the user's gaze.
상기 제어부의 인지모듈은,
상기 사용자 시선이 상기 트래킹 대상 사물을 추적하는데 성공하면 성공 횟수를 표시 및 안내하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method of claim 10,
Recognition module of the control unit,
Simulator for treating a developmental disorder, characterized in that if the user gaze is successful in tracking the tracking object to display and guide the number of successes.
상기 사용자 반응 모니터링 장치는 상기 사용자의 눈을 촬영하는 시선 트래킹 카메라이고,
상기 정보는 상기 시선 트래킹 카메라에 의해 촬영된 영상데이터인 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method according to claim 10 or 11,
The user response monitoring device is a gaze tracking camera for capturing the eyes of the user,
The information is a simulator for the treatment of developmental disorders, characterized in that the image data taken by the gaze tracking camera.
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 발달장애 치료용 콘텐츠는 사용자의 언어 능력을 훈련시키기 위한 언어교육 콘텐츠이고,
상기 제어부는,
상기 언어교육 콘텐츠의 시나리오에 따라 교육할 발음을 로딩하여 상기 구체 스크린에 표시한 후 상기 발음에 대한 사용자의 발성을 유도하는 발음 유도 안내 음성을 출력하고, 상기 발음 유도 안내 음성에 대해 사용자가 발성을 하면 발성 시의 사용자의 입 모양과 미리 저장되어 있는 상기 발음에 대한 선생님의 입 모양을 동시에 상기 구체 스크린에 표시하며, 사용자의 입 모양과 선생님의 입 모양을 비교하여 일치하도록 사용자의 발성을 훈련시키는 언어교육 모듈을 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
The content for the treatment of developmental disabilities is language training content for training the user's language skills,
The control unit,
According to the scenario of the language education content, the pronunciation to be taught is loaded and displayed on the concrete screen, and a pronunciation guide voice for inducing a user's utterance for the pronunciation is output, and the user speaks for the pronunciation guide voice. The user's mouth shape during speech and the teacher's mouth shape for the pronunciation stored in advance are simultaneously displayed on the concrete screen, and the user's speech is trained to match by comparing the user's mouth shape with the teacher's mouth shape. Simulator for the developmental disorders comprising a language education module.
상기 언어교육 모듈은,
상기 사용자의 입 모양과 상기 선생님의 입 모양이 일치하면 상기 발음과 연관되는 단어를 표시한 후, 상기 단어의 발음에 대한 사용자의 발성을 유도하는 발음 유도 안내 음성을 출력하고, 사용자가 상기 단어의 발음에 대해 발성을 하면, 상기 오디오 처리부를 통해 음성인식을 수행하여 상기 단어를 정확하게 발음하였는지를 검사하고, 정확하게 발음하였으면 해당 단어를 정확하게 발음하였음을 표시하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method of claim 13,
The language education module,
If the user's mouth shape matches the teacher's mouth shape, a word associated with the pronunciation is displayed, and a pronunciation guide voice for inducing the user's utterance for the pronunciation of the word is output. When the voice is spoken, the audio processing unit performs voice recognition to check whether the word is correctly pronounced, and if it is pronounced correctly, the simulator for treating a developmental disorder, characterized in that it is displayed correctly.
상기 사용자 반응 모니터링 장치는, 사용자의 입을 촬영하는 행동 촬영 카메라이고,
상기 정보는 사용자의 입을 촬영한 영상데이터인 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method according to claim 13 or 14,
The user response monitoring device is a behavior photographing camera to photograph the user's mouth,
The information is a simulator for treatment of developmental disorders, characterized in that the image data of the user's mouth.
의자 형상으로 형성되되, 등받이에 진동 스피커를 구비하고 상기 진동 스피커를 통해 상기 발음 유도 안내 음성의 세기 및 파장에 대응하는 진동을 발생하는 라이더를 더 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
The method of claim 13,
It is formed in the shape of a chair, having a vibration speaker on the back and further comprising a rider for generating a vibration corresponding to the intensity and wavelength of the pronunciation guide voice through the vibration speaker further comprising a rider.
상기 라이더는 상기 진동 스피커를 온/오프하는 스위치를 더 구비하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
17. The method of claim 16,
The rider simulator for the developmental disorders further comprises a switch for turning on / off the vibrating speaker.
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
상기 발달장애 치료용 콘텐츠는 사용자의 운동을 유도하고 사용자의 사회성을 훈련시키는 게임 콘텐츠이고,
상기 제어부는,
선택된 게임 콘텐츠의 게임 영상을 상기 구체 스크린에 표시하고, 상기 게임 영상과 연동하여 사용자의 움직임을 유도하는 움직임 유도 안내 음성을 출력하고 상기 사용자 반응 모니터링 장치로부터 입력되는 상기 정보를 분석하여 사용자가 상기 움직임 유도에 대응하는 행동을 하였는지를 판단하고, 그 결과에 따른 성공 알림 및 지속적인 사용자의 움직임을 유도하는 게임 모듈을 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
The content for treatment of developmental disorders is game content that induces the user's movement and trains the user's sociality,
The control unit,
The game image of the selected game content is displayed on the concrete screen, the motion guidance guide voice for guiding the user's movement in conjunction with the game image is output, and the user analyzes the information input from the user reaction monitoring device. And a game module for determining whether an action corresponding to judo has been performed and inducing success notification and continuous user movement according to the result.
상기 게임은 구체 스크린 상에 표시되는 영상을 터치하는 터치 게임이고,
상기 사용자 반응 모니터링 장치는, 상기 구체 스크린에 터치된 위치를 인지하는 센서이며,
상기 정보는 상기 터치된 위치의 위치정보인 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
19. The method of claim 18,
The game is a touch game to touch the image displayed on the sphere screen,
The user response monitoring device is a sensor for recognizing a position touched on the concrete screen,
The information is a simulator for treatment of developmental disorders, characterized in that the position information of the touched position.
상기 영상을 보는 사용자의 반응을 모니터링하고, 사용자의 반응에 대한 정보를 출력하는 사용자 반응 모니터링 장치;
사용자의 음성을 마이크를 통해 입력받아 출력하고, 콘텐츠에 따른 행동 유도 안내 음성을 스피커를 통해 출력하는 오디오 처리부;
다수의 발달장애 치료용 콘텐츠들을 저장하고 있으며, 상기 콘텐츠들 중 적어도 하나 이상 콘텐츠를 선택받고, 선택된 콘텐츠의 영상을 상기 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 제어부를 포함하되,
상기 디스플레이부는,
상하좌우로 굴곡 지는 구체형상으로 형성되어 영상을 표시하는 구체 스크린; 및
상기 제어부로부터 상기 콘텐츠의 시나리오에 따른 영상데이터를 빛의 형태의 영상으로 상기 구체 스크린에 조사하는 프로젝터로 구성되며,
사용자 반응 모니터링 장치는,
상기 구체 스크린의 터치 위치를 검출하여 출력하는 센서;
사용자의 신체를 촬영한 영상데이터를 출력하는 행동 촬영 카메라; 및
사용자의 눈을 촬영한 영상데이터를 출력하는 시선 트래킹 카메라를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이터.
A display unit for displaying an image;
A user response monitoring device for monitoring a user's response to view the image and outputting information on the user's response;
An audio processor for receiving a user's voice through a microphone and outputting the voice, and outputting a behavior guidance voice according to content through a speaker;
Stores a plurality of contents for treatment of developmental disorders, receives at least one or more of the contents selected, displays an image of the selected content on the display, guides the behavior of inducing a user's response in response to the image The voice is output to the speaker through the audio processor, and the response of the user corresponding to the image and the behavior guidance voice is analyzed by the information input from the user response monitoring device to determine whether the user has performed the induced action. To include a control unit for performing the treatment according to the scenario of the content,
The display unit includes:
A spherical screen that is curved up, down, left, and right to display an image; And
The projector is configured to project the image data according to the scenario of the content from the control unit to the concrete screen in the form of light,
User response monitoring device,
A sensor for detecting and outputting a touch position of the concrete screen;
An action photographing camera which outputs image data photographing a user's body; And
Simulator for treating developmental disorders, comprising a gaze tracking camera for outputting image data of the user's eyes.
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 콘텐츠 선택 과정은,
시뮬레이션 개시 이벤트가 발생되는지를 검사하는 시뮬레이션 개시 판단 단계;
상기 사용자 반응 모니터링 장치를 초기화 하는 장치 초기화 단계; 및
콘텐츠 설정 화면을 표시하여 콘텐츠를 선택받는 콘텐츠 선택 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The content selection process,
A simulation start determining step of checking whether a simulation start event occurs;
A device initialization step of initializing the user response monitoring device; And
And a content selection step of selecting a content by displaying a content setting screen.
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 라이더 필요 판단 과정에서 라이더가 필요한 것으로 판단되면 라이더를 초기화하는 라이더 초기화 과정; 및
사용자가 상기 라이더에 사용자가 착석했는지를 판단하는 사용자 착석 판단 과정을 더 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
A rider initialization process of initializing a rider if it is determined that a rider is needed in the rider need determination process; And
Simulation method for treatment of developmental disorders further comprising a user seating determination process for determining whether the user is seated on the rider.
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 감각 통합 콘텐츠이고,
상기 콘텐츠 실행 과정은,
라이더 정보를 로딩하는 라이더 정보 획득 단계;
상기 획득된 라이더 정보에 대응하는 주행 영상을 해당 콘텐츠에서 로딩하여 구체 스크린에 디스플레이하는 영상 디스플레이 단계;
상기 디스플레이되는 영상에 대응하여 단계별 균형 및 방향 전환을 유도하는 행동 유도 안내 음성을 출력하는 행동 유도 단계;
사용자 반응 모니터링 장치로부터 입력되는 영상데이터 및 라이더로부터 입력되는 입력정보를 분석하여 상기 유도된 영상에 대응하는 사용자의 행동 및 시선을 분석하는 사용자 행동 분석 단계;
사용자가 유도된 영상 및 음성에 대응하는 행동을 하였는지를 판단하는 동작 판단 단계; 및
사용자가 유도된 영상 및 음성에 대응하는 행동을 하지 못했으면 사용자의 행동 및 시선에 대응하는 개선 유도 영상 및 유도 안내 음성을 출력하여 사용자의 행동을 개선시키고, 유도된 영상 및 음성에 대응하는 행동을 했으면 다음 단계를 수행하는 반복 훈련 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The content selected in the content selection process is sensory integrated content,
The content execution process,
A rider information obtaining step of loading rider information;
An image display step of loading a driving image corresponding to the obtained rider information from a corresponding content and displaying the same on a concrete screen;
A behavior derivation step of outputting a behavior guidance voice for inducing balance and direction change in stages in response to the displayed image;
A user behavior analysis step of analyzing the image data input from the user response monitoring device and the input information input from the rider to analyze the behavior and gaze of the user corresponding to the induced image;
An operation determining step of determining whether the user has acted in response to the induced video and audio; And
If the user fails to respond to the induced video and audio, the user can improve the user's behavior by outputting an improved guided video and guided voice corresponding to the user's behavior and gaze, and then If done, the simulation method for the treatment of developmental disorders, characterized in that it comprises a repeating training step of performing the next step.
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 인지 콘텐츠이고,
상기 콘텐츠 실행 과정은,
선택된 인지 콘텐츠의 트래킹 대상 사물을 구체 스크린에 표시하는 트래킹 대상 사물 표시 단계;
상기 표시된 트래킹 대상 사물의 이동 및 트래킹 유도 안내 음성을 출력하는 행동 유도 단계;
사용자 반응 모니터링 장치로의 시선 트래킹 카메라를 통해 입력되는 사용자의 눈을 촬영한 영상데이터를 분석하여 상기 사용자가 상기 트래킹 대상 사물을 보고 추적하는지를 분석하는 사용자 행동 분석 단계; 및
트래킹 대상 사물 추적에 성공여부를 사용자에게 통지하는 통지 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The content selected in the content selection process is cognitive content,
The content execution process,
A tracking object display step of displaying a tracking object of the selected cognitive content on a specific screen;
An action derivation step of outputting a movement and tracking guidance voice of the displayed tracking object;
A user behavior analysis step of analyzing whether the user views and tracks the object to be tracked by analyzing image data photographing the eye of the user input through a gaze tracking camera to a user reaction monitoring device; And
And a notification step of notifying the user of whether or not the tracking target object has been successfully tracked.
상기 통지 단계는,
트래킹 대상 사물 추적 성공 시 성공 횟수를 카운트하고 카운트된 횟수를 상기 구체 스크린에 표시하여 상기 성공여부를 표시하는 추적 성공 표시 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
26. The method of claim 25,
Wherein the notifying step comprises:
And a tracking success displaying step of counting the number of successes when the tracking target object is successful and displaying the counted number on the concrete screen to indicate whether the success is successful.
상기 통지 단계는,
상기 인지 콘텐츠의 트래킹 대상 사물 추적 완료 시 추적에 성공한 총 횟수와 상기 총 횟수의 트래킹 대상 사물을 함께 표시하는 최종 추적 성공 통지 단계를 더 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
The method of claim 26,
Wherein the notifying step comprises:
And a final tracking success notification step of displaying the total number of successful tracking and the total number of tracking target objects together when the tracking of the target object tracking of the cognitive content is completed.
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 콘텐츠 선택 과정에서 선택된 콘텐츠는 언어교육 콘텐츠이고,
상기 콘텐츠 실행 과정은,
교육할 음을 상기 언어교육 콘텐츠로부터 단계별로 로딩하여 구체 스크린에 표시하는 음 표시 단계;
표시된 음에 대한 발음을 유도하는 발음 유도 안내 음성을 출력하는 발음 유도 단계;
상기 발음 유도 단계 후 사용자 반응 모니터링부의 행동 촬영 카메라를 통해 사용자의 입 촬영을 개시하고 마이크를 통해 사용자가 발성을 하는지를 모니터링하는 행동 모니터링 단계;
사용자가 상기 표시된 음에 대해 발성을 하면 사용자 입을 캡처하고, 미리 저장되어 있는 상기 음에 대한 선생님 입 모양과 함께 상기 구체 스크린에 표시하는 입 모양 비교 표시 단계; 및
상기 캡처된 사용자의 입 모양과 상기 선생님 입 모양의 패턴을 비교하여 일치하는지를 판단하는 사용자의 발음 성공 여부를 판단하는 발음 성공 판단 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The content selected in the content selection process is language education content,
The content execution process,
A sound display step of loading a sound to be trained step by step from the language education content and displaying the same on a concrete screen;
A pronunciation inducing step of outputting a pronunciation guide voice for inducing a pronunciation of the displayed sound;
A behavior monitoring step of starting photographing a mouth of a user through a behavior photographing camera of a user response monitoring unit after the pronunciation inducing step and monitoring whether a user speaks through a microphone;
A mouth shape comparison display step of capturing the user's mouth when the user speaks to the displayed sound and displaying the mouth mouth on the concrete screen together with the teacher mouth shape for the sound previously stored; And
And a pronunciation success determination step of determining whether the user's pronunciation succeeds by comparing the captured user's mouth shape with the teacher's mouth pattern and determining whether the pattern matches.
상기 발음 성공 판단 단계에서 발음 성공 시 상기 성공한 음에 대한 적어도 하나 이상의 단어를 표시한 후 상기 단어들의 발성을 유도하는 발음 유도 안내 음성을 출력하는 단어 발음 유도 단계;
상기 마이크를 통해 상기 단어에 대한 사용자의 발음이 입력되는지를 검사하고 사용자 발음 검사 단계;
상기 사용자가 상기 단어에 대해 발성하면 상기 발성된 발음을 음성인식 하여 해당 단어를 정확하게 발성했는지를 검사하는 발성 성공 판단 단계; 및
단어에 대한 발성 성공 시 해당 단어의 쓰기란에 해당 단어를 써 넣는 성공 알림 표시 단계를 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
29. The method of claim 28,
A word pronunciation derivation step of outputting a pronunciation guide voice for deriving utterance of the words after displaying at least one word for the successful sound when the pronunciation succeeds in the pronunciation success determination step;
Checking whether a user's pronunciation of the word is input through the microphone and checking a user's pronunciation;
A speech success determination step of checking whether the user pronounces the word correctly by voice recognition of the pronounced pronunciation when the user speaks about the word; And
And a success notification display step of writing the word in the writing column of the word when the utterance of the word succeeds.
상기 발음 유도 단계에서 발음 유도 안내 음성을 라이더의 진동 스피커로 출력하여 상기 발음 유도 안내 음성에 대응하는 진동을 발생시키는 진동 자극 단계를 더 포함하는 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.
30. The method of claim 28 or 29,
And a vibration stimulation step of generating a vibration corresponding to the pronunciation guidance voice by outputting the pronunciation guidance voice to the vibration speaker of the rider in the pronunciation induction step.
제어부가 상기 선택된 콘텐츠가 라이더를 필요로 하는 콘텐츠인지를 판단하는 라이더 필요 판단 과정;
상기 제어부가 상기 라이더의 필요여부 및 사용자의 신체에 따라 사용자 반응 모니터링 장치를 설정하는 사용자 반응 모니터링 장치 설정 과정;
상기 제어부가 선택된 콘텐츠의 영상을 디스플레이부에 표시하고, 상기 영상에 대응하여 사용자의 반응을 유도하는 행동 유도 안내 음성을 오디오 처리부를 통해 스피커로 출력하고, 상기 영상 및 행동 유도 안내 음성에 대응한 사용자의 반응을 상기 사용자 반응 모니터링 장치로부터 입력되는 정보에 의해 분석하여 사용자가 유도된 행동을 수행하였는지의 여부를 판단하여 상기 콘텐츠의 시나리오에 따른 치료를 수행하는 콘텐츠 실행 과정을 포함하되,
상기 선택된 콘텐츠는 게임 콘텐츠이고, 상기 게임은 구체 스크린에 표시된 사물들을 터치하도록 유도하는 터치 게임인 것을 특징으로 하는 발달장애 치료용 시뮬레이션 방법.A content selection process of the control unit determining whether at least one selected content from among the plurality of contents for treating the developmental disorder is selected;
A rider necessity determining step of determining, by a controller, whether the selected content is a content requiring a rider;
A user response monitoring device setting process of setting, by the controller, a user response monitoring device according to whether the rider is required and the user's body;
The control unit displays an image of the selected content on a display unit, and outputs a behavior guidance voice for inducing a user's response in response to the image to a speaker through an audio processor, and responds to the video and the behavior guidance voice. And a content execution process of performing a treatment according to the scenario of the content by determining whether the user performed the induced behavior by analyzing the response of the response based on the information input from the user response monitoring apparatus.
The selected content is a game content, the game is a simulation method for treatment of developmental disorders, characterized in that the touch game to induce to touch the objects displayed on the sphere screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120129859A KR101276097B1 (en) | 2012-11-16 | 2012-11-16 | Simulator and simulation method for treating adhd |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120129859A KR101276097B1 (en) | 2012-11-16 | 2012-11-16 | Simulator and simulation method for treating adhd |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101276097B1 true KR101276097B1 (en) | 2013-06-18 |
Family
ID=48867223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120129859A KR101276097B1 (en) | 2012-11-16 | 2012-11-16 | Simulator and simulation method for treating adhd |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101276097B1 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101534196B1 (en) * | 2013-11-21 | 2015-07-09 | 한국과학기술연구원 | Apparatus providing training scenario generated on the basis of participant reaction and method thereof |
KR20160088212A (en) * | 2015-01-15 | 2016-07-25 | 최해용 | A large projection screen image device with seesaw structure for virtual reality |
KR101740198B1 (en) | 2016-10-31 | 2017-05-26 | 재단법인대구경북과학기술원 | Training system of brain computer interface |
KR20170141490A (en) * | 2016-06-15 | 2017-12-26 | (주)팜스포 | Exercise therapy rehabilitation system for treating ADHD |
KR101918631B1 (en) * | 2016-12-13 | 2018-11-15 | (주)인더텍 | Mixed reality based cognition and concentration evaluation and training feedback system |
KR20190004898A (en) * | 2017-07-05 | 2019-01-15 | 최해용 | A vertual reality video chair |
KR20190058169A (en) * | 2017-11-21 | 2019-05-29 | 대한민국(국립재활원장) | Treatment System and Method Based on Virtual-Reality |
WO2019142949A1 (en) * | 2018-01-16 | 2019-07-25 | (주)피디케이리미티드 | Interactive virtual reality bicycle riding system and simulation method therefor |
KR102120112B1 (en) * | 2020-02-11 | 2020-06-09 | 가천대학교 산학협력단 | System, Method and Computer-readable Medium for Rehabilitation training with Virtual Reality for Patients with Exotropia Based on Artificial Intelligence |
KR102147595B1 (en) * | 2019-03-04 | 2020-08-24 | 순천향대학교 산학협력단 | Balance motion system using active balance border and method thereof |
KR20200099647A (en) | 2019-02-14 | 2020-08-25 | 주식회사 인터포름 | Sling-Harness System and Exercise therapy play contents |
KR20200128506A (en) * | 2018-12-26 | 2020-11-13 | (주)소프트젠 | Virtual reality education system and method for language training of disabled person |
KR20210138973A (en) * | 2020-05-13 | 2021-11-22 | 주식회사 인터포름 | Language learning system devices and How to provide language learning MR content |
KR20220107587A (en) * | 2021-01-25 | 2022-08-02 | 박성연 | Electronic device for testing online non-face-to-face language development disorder, system, and control method thereof |
WO2023149652A1 (en) * | 2022-02-04 | 2023-08-10 | 주식회사 히포티앤씨 | Artificial intelligence-based customized content generating method for treating autism spectrum disorder |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000053732A (en) * | 2000-03-14 | 2000-09-05 | 변덕규 | Cart simulator for entertainment |
KR100805274B1 (en) | 2007-01-16 | 2008-02-20 | 성신여자대학교 산학협력단 | Method for cognitive rehabilitation using games, recording medium thereof and apparatus for cognitive rehabilitation using games |
KR20090067578A (en) * | 2007-12-21 | 2009-06-25 | 주식회사 비트컴퓨터 | Cognition enhancement system and method for dementia prevention |
KR20110095588A (en) * | 2010-02-19 | 2011-08-25 | (주)이디유홀딩스 | System for animal assisted therapy using gesture control and method for animal assisted therapy |
-
2012
- 2012-11-16 KR KR1020120129859A patent/KR101276097B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000053732A (en) * | 2000-03-14 | 2000-09-05 | 변덕규 | Cart simulator for entertainment |
KR100805274B1 (en) | 2007-01-16 | 2008-02-20 | 성신여자대학교 산학협력단 | Method for cognitive rehabilitation using games, recording medium thereof and apparatus for cognitive rehabilitation using games |
KR20090067578A (en) * | 2007-12-21 | 2009-06-25 | 주식회사 비트컴퓨터 | Cognition enhancement system and method for dementia prevention |
KR20110095588A (en) * | 2010-02-19 | 2011-08-25 | (주)이디유홀딩스 | System for animal assisted therapy using gesture control and method for animal assisted therapy |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101534196B1 (en) * | 2013-11-21 | 2015-07-09 | 한국과학기술연구원 | Apparatus providing training scenario generated on the basis of participant reaction and method thereof |
KR102009544B1 (en) * | 2015-01-15 | 2019-08-09 | 최해용 | A large projection screen image device with seesaw structure for virtual reality |
KR20160088212A (en) * | 2015-01-15 | 2016-07-25 | 최해용 | A large projection screen image device with seesaw structure for virtual reality |
KR20170141490A (en) * | 2016-06-15 | 2017-12-26 | (주)팜스포 | Exercise therapy rehabilitation system for treating ADHD |
KR101886678B1 (en) * | 2016-06-15 | 2018-08-09 | (주)팜스포 | Exercise therapy rehabilitation system for treating ADHD |
KR101740198B1 (en) | 2016-10-31 | 2017-05-26 | 재단법인대구경북과학기술원 | Training system of brain computer interface |
KR101918631B1 (en) * | 2016-12-13 | 2018-11-15 | (주)인더텍 | Mixed reality based cognition and concentration evaluation and training feedback system |
KR102319030B1 (en) | 2017-07-05 | 2021-10-28 | 최해용 | A vertual reality video chair |
KR20190004898A (en) * | 2017-07-05 | 2019-01-15 | 최해용 | A vertual reality video chair |
KR20190058169A (en) * | 2017-11-21 | 2019-05-29 | 대한민국(국립재활원장) | Treatment System and Method Based on Virtual-Reality |
KR101999953B1 (en) * | 2017-11-21 | 2019-07-15 | 대한민국 | Treatment System and Method Based on Virtual-Reality |
WO2019142949A1 (en) * | 2018-01-16 | 2019-07-25 | (주)피디케이리미티드 | Interactive virtual reality bicycle riding system and simulation method therefor |
KR102330218B1 (en) * | 2018-12-26 | 2021-11-24 | (주)소프트젠 | Virtual reality education system and method for language training of disabled person |
KR20200128506A (en) * | 2018-12-26 | 2020-11-13 | (주)소프트젠 | Virtual reality education system and method for language training of disabled person |
KR20200099647A (en) | 2019-02-14 | 2020-08-25 | 주식회사 인터포름 | Sling-Harness System and Exercise therapy play contents |
KR102147595B1 (en) * | 2019-03-04 | 2020-08-24 | 순천향대학교 산학협력단 | Balance motion system using active balance border and method thereof |
WO2021162207A1 (en) * | 2020-02-11 | 2021-08-19 | 가천대학교 산학협력단 | Virtual-reality system and method for rehabilitating exotropia patients on basis of artificial intelligence, and computer-readable medium |
KR102120112B1 (en) * | 2020-02-11 | 2020-06-09 | 가천대학교 산학협력단 | System, Method and Computer-readable Medium for Rehabilitation training with Virtual Reality for Patients with Exotropia Based on Artificial Intelligence |
KR20210138973A (en) * | 2020-05-13 | 2021-11-22 | 주식회사 인터포름 | Language learning system devices and How to provide language learning MR content |
KR20220107587A (en) * | 2021-01-25 | 2022-08-02 | 박성연 | Electronic device for testing online non-face-to-face language development disorder, system, and control method thereof |
KR102455859B1 (en) * | 2021-01-25 | 2022-10-17 | 박성연 | Electronic device for testing online non-face-to-face language development disorder, system, and control method thereof |
WO2023149652A1 (en) * | 2022-02-04 | 2023-08-10 | 주식회사 히포티앤씨 | Artificial intelligence-based customized content generating method for treating autism spectrum disorder |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101276097B1 (en) | Simulator and simulation method for treating adhd | |
Morel et al. | Advantages and limitations of virtual reality for balance assessment and rehabilitation | |
CN108919950A (en) | Autism children based on Kinect interact device for image and method | |
KR20170107229A (en) | cognitive training apparatus and method with eye-tracking | |
KR102104202B1 (en) | Behavioral therapy apparatus for recovering psychological problems using virtual reality | |
Paredes et al. | Evaluating in-car movements in the design of mindful commute interventions: exploratory study | |
KR101598955B1 (en) | Speech therapy game device and game method | |
CN112118895A (en) | System and method for device-based cognitive development or treatment | |
Ince et al. | An audiovisual interface-based drumming system for multimodal human–robot interaction | |
KR20170107224A (en) | eye-tracking module with cognitive training contents and cognitive training method thereof | |
Rocha et al. | Towards enhancing the multimodal interaction of a social robot to assist children with autism in emotion regulation | |
EP2482935B1 (en) | System for supporting a user to do exercises | |
KR20150087447A (en) | Intelligent care system for developmental disorder child, and the method thereof | |
JP6195608B2 (en) | Learning aids and shields | |
Lara et al. | A serious videogame to support emotional awareness of people with Down syndrome | |
Sitdhisanguan et al. | Evaluation the efficacy of computer-based training using tangible user interface for low-function children with autism | |
Yean et al. | A human-robot interface to improve facial expression recognition in subjects with Autism Spectrum Disorder | |
Chan et al. | Designing intelligent socially assistive robots as effective tools in cognitive interventions | |
KR101534411B1 (en) | Clinical Art Therapy Device Using Tablet PC | |
US10049596B2 (en) | Apparatus for recognizing intention of horse-riding simulator user and method thereof | |
Winoto et al. | Sensory substitution to enable the visually impaired to play an affordable wearable mobile game | |
WO2020073103A1 (en) | Virtual reality system | |
Maidenbaum et al. | Depth-to-audio sensory substitution for increasing the accessibility of virtual environments | |
Al-Nafjan et al. | Virtual Reality Technology and Speech Analysis for People Who Stutter | |
Van Ommen et al. | Applying User Experience (UX) Methods to Understand Assistive Technology (AT) for Video Gaming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160614 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20170612 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20180612 Year of fee payment: 6 |