KR101413598B1 - Apparatus and method for correcting pronunciation using chair with vibration speaker - Google Patents

Apparatus and method for correcting pronunciation using chair with vibration speaker Download PDF

Info

Publication number
KR101413598B1
KR101413598B1 KR1020130007271A KR20130007271A KR101413598B1 KR 101413598 B1 KR101413598 B1 KR 101413598B1 KR 1020130007271 A KR1020130007271 A KR 1020130007271A KR 20130007271 A KR20130007271 A KR 20130007271A KR 101413598 B1 KR101413598 B1 KR 101413598B1
Authority
KR
South Korea
Prior art keywords
audio
pronunciation
unit
speaker
content
Prior art date
Application number
KR1020130007271A
Other languages
Korean (ko)
Inventor
이호석
Original Assignee
(주) 피디케이리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 피디케이리미티드 filed Critical (주) 피디케이리미티드
Priority to KR1020130007271A priority Critical patent/KR101413598B1/en
Application granted granted Critical
Publication of KR101413598B1 publication Critical patent/KR101413598B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/04Devices for conversing with the deaf-blind
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a pronunciation correction device and, more specifically, to a pronunciation correction device using a chair with vibration speakers in which the vibration speakers are attached onto the chair and generate vibrations corresponding a pronunciation spoken by an instructor and a subject person who wants to correct pronunciation, and the vibrations corresponding to the pronunciation are delivered to the subject person sitting on the chair through the chair. As a plurality of vibration speakers are installed to be in contact with the back rest and the bottom rest of a chair, it is possible to deliver vibrations corresponding to a pronunciation to the chair to educate a trainee (patient) with language disorder with the whole body and accordingly enable the trainee to recognize the accurate pronunciation of spoken language. By enabling the trainee with language disorder and the instructor (therapist) to feel the spoken pronunciation with vibrations as well as a sound, it is possible to effectively conduct pronunciation training and correction by matching the sound and the vibrations of the spoken pronunciation.

Description

진동 스피커가 부착된 의자를 이용한 발음 교정 장치 및 방법{Apparatus and method for correcting pronunciation using chair with vibration speaker}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a pronunciation correction apparatus and method using a chair having a vibration speaker,

본 발명은 발음 교정 장치에 관한 것으로, 보다 상세하게는 진동 스피커를 의자에 부착하고, 진동 스피커를 통해 교육자 및 발음 교정 대상자가 발성한 발음에 대응하는 진동을 발생하여 의자를 통해 상기 의자에 앉은 발음 교정 대상자인 학습자에게 발음에 대응하는 진동을 전달하여 단어 및 구어 등의 발음을 학습시키는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치 및 방법에 관한 것이다.
More specifically, the present invention relates to a pronunciation correcting apparatus, and more particularly, to a vibration correcting apparatus that attaches a vibrating speaker to a chair, generates vibrations corresponding to pronunciations of an educator and a pronouncing person through a vibrating speaker, The present invention relates to a pronunciation correcting apparatus and method using a chair having a vibrating speaker for transmitting a vibration corresponding to a pronunciation to a learner who is a target of correction and learning pronunciation of words and spoken words.

일반적으로, 언어란 인간이 의사소통에 사용하는 상징체계이다. 의사소통에는 말이나 글 이외에도 여러 보완대체 수단이 존재할 수 있지만, 인간 의사소통은 대부분 구어나 문어를 통해서 이루어진다. 청각 장애인들이 사용하는 수화 또는 손을 사용한 언어, 즉 수어라도 할 수 있다. 언어는 구어에 대한 상징체계뿐 아니라 문어와 수어 체계 또한 포함한다.In general, language is a symbolic system that humans use to communicate. There may be many complementary alternatives to communication besides speech or writing, but human communication is mostly through spoken or written language. It can also be a handwritten or handwritten language used by the deaf. The language includes not only a symbolic system for spoken language, but also an octopus and a language system.

구어란 인간이 발음기관을 통하여 의사소통하는 수단으로 귀를 통해 들을 수 있는 언어이다. 정상적인 구어를 위해서는 호흡, 성대의 발성, 혀, 입술, 연구개 등의 발음기관들이 정상 기능을 수행하여야 한다.Spoken language is a language that human beings can hear through their ears as a means of communicating through a pronunciation agency. For normal speech, the pronunciation agencies such as breathing, vocal cords, tongue, lips, and research dogs should perform normal functions.

통상, 말을 통한 의사소통이 적절히 이루어지기 위해서 가장 중요한 것은 상대방의 말을 듣고 무슨 말을 하고 있는지를 이해 할 수 있어야 한다. Generally speaking, the most important thing to communicate properly is to understand what you are listening to and what you are talking about.

그러나 발달장애 아동 및 청각 장애인 등과 같은 언어 장애인은 상대방의 말을 잘 듣지 못하거나 아예 듣지 못하므로 자신이 발성하는 단어 및 구어 등의 발음을 못하거나 부정확해 진다.However, children with speech impairments such as children with developmental disabilities and hearing impaired people do not listen to or listen to the other person's words, so they can not pronounce or pronounce incorrect words or spoken words.

이러한 언어 장애인을 치료(또는 "학습"이라 함)하는 방법으로는 교구를 이용하여 단어를 학습하고 단어들을 확장시켜 나아는 교구 학습법, 전문가와의 상담 및 학습을 통한 전문가 상담 학습법 및 치료할 언어를 손의 진동으로 전달하여 치료하는 진동 학습법 등이 수행되고 있다. The methods of treating (or "learning") those with language impairments include the use of dioceses to learn words and expand words, diagonal learning methods, professional counseling through professional counseling and learning, And a vibration learning method in which the vibration is transmitted and treated.

그러나 교구 학습법의 경우, 교구를 이용한 단어 학습 위주로 언어 장애인이 해당 단어의 실질적인 발음을 인지할 수 없으며, 진동 학습법의 경우 손을 통해 발음에 대응하는 진동을 느끼도록 하므로, 언어 장애인이 진동을 잘 느끼지 못할 수 있어 학습이 더디어질 수 있는 문제점이 있었다. 그리고 전문가 상담 학습법 또한 학습자가 잘 듣지 못하거나 듣지 못하므로 전문가라 할지라도 학습시키고자 하는 발음의 전달이 어려운 문제점이 있었다.
However, in the case of the parody learning method, it is not possible to recognize the actual pronunciation of the word by the language disabled person mainly in the word learning using the parish. In the case of the vibration learning method, the vibration corresponding to the pronunciation is felt through the hand, There was a problem that the learning could be slowed down. In addition, the expert counseling method has a problem that the learner does not listen or listen, so that it is difficult to transmit the pronunciation to be learned even if it is a professional.

공개특허공보 10-2012-0033166호Japanese Patent Application Laid-Open No. 10-2012-0033166 등록특허공보 10-2012-0018397호Patent Registration No. 10-2012-0018397

따라서 본 발명의 목적은 진동 스피커를 의자에 부착하고, 진동 스피커를 통해 교육자 및 학습자가 발성한 발음에 대응하는 진동을 발생하여 의자를 통해 상기 의자에 앉은 발음 교정 대상자에게 발음에 대응하는 진동을 전달하여 발음을 학습시키는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치 및 방법을 제공함에 있다.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an apparatus and a method for attaching a vibrating speaker to a chair, generating vibrations corresponding to voices uttered by an educator and a learner through a vibrating speaker, And to provide a pronunciation correcting apparatus and method using a chair having a vibrating speaker for learning pronunciation.

상기한 목적을 달성하기 위한 본 발명의 일실시예에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 장치는: 오디오 신호에 따른 진동을 발생하여 부착된 의자 전체로 진동을 전달하고, 진동에 따른 오디오를 출력하는 하나 이상의 진동 스피커; 교육자 및 언어 장애를 치료하고자 하는 학습자 중 적어도 한 명 이상이 발성한 발음에 대한 오디오를 송신하는 적어도 하나 이상의 마이크; 상기 진동 스피커 및 마이크와 연결되어, 상기 마이크로부터 수신되는 오디오 신호를 상기 진동 스피커로 출력하는 발음 교정부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an apparatus for correcting a pronunciation of a chair, the apparatus comprising: a vibrator for vibrating according to an audio signal to transmit vibrations to the entire chair, One or more vibrating speakers for outputting a video signal; At least one microphone for transmitting audio for pronunciation of at least one of the educator and the learner who wishes to treat the speech disorder; And a pronunciation correction unit connected to the vibration speaker and the microphone to output an audio signal received from the microphone to the vibration speaker.

상기 마이크는 무선 마이크이고, 상기 발음 교정부는, 상기 무선 마이크로부터 오디오를 무선으로 수신하는 무선 오디오 수신부; 및 상기 무선 오디오 수신부로부터 오디오를 입력받고 오디오 신호로 변환하여 상기 진동 스피커로 출력하는 오디오 출력부를 포함하는 파워앰프인 것을 특징으로 한다.Wherein the microphone is a wireless microphone, and the pronunciation correcting unit comprises: a wireless audio receiver for wirelessly receiving audio from the wireless microphone; And an audio output unit for receiving audio from the wireless audio receiving unit, converting the audio signal into an audio signal, and outputting the audio signal to the vibration speaker.

상기 발음 교정부는, 외부기기와 연결되어 데이터 통신을 수행하는 앰프 인터페이스부를 더 포함하고, 상기 앰프 인터페이스부를 통해 외부기기와 연결되어 외부기기에 설치된 응용 프로그램을 통해 임의의 학습 콘텐츠에 따른 오디오 데이터를 입력받고, 상기 오디오 출력부를 통해 오디오 신호로 변환하여 진동 스피커로 출력하는 것을 특징으로 한다.The audio correction unit may further include an amplifier interface unit connected to an external device to perform data communication and connected to an external device through the amplifier interface unit to input audio data according to an arbitrary learning content through an application program installed in the external device Converts the audio signal into an audio signal through the audio output unit, and outputs the audio signal to the vibration speaker.

발음 교정부는, 외부기기와 연결되어 데이터 통신을 수행하는 인터페이스부 및 언어 장애를 치료하기 위한 다수의 학습 콘텐츠를 저장하는 콘텐츠 DB를 더 포함하고, 상기 인터페이스부를 통해 외부기기로부터 학습 콘텐츠를 수신받아 상기 콘텐츠 DB에 저장된 학습 콘텐츠들을 업데이트하고, 업데이트된 학습 콘텐츠들을 임의의 순서에 따라 선택하고, 선택된 학습 콘텐츠에 따른 오디오 데이터를 오디오 출력부에서 오디오 신호로 변환하여 진동 스피커로 출력하는 것을 특징으로 한다.The pronunciation correction unit may further include an interface unit connected to an external device for performing data communication and a content DB for storing a plurality of learning contents for treating a language disorder, Updates the learning contents stored in the content DB, selects updated learning contents in an arbitrary order, and converts the audio data according to the selected learning contents into an audio signal from the audio output unit and outputs the audio signal to the vibrating speaker.

상기 발음 교정부는, 언어 장애를 치료하기 위한 다수의 학습 콘텐츠를 저장하는 콘텐츠 DB 및 학습자의 평가 정보를 저장하는 학습자 DB를 포함하는 저장부; 상기 마이크로부터 오디오를 수신하는 오디오 수신부 및 상기 오디오 수신부로부터 오디오를 입력받고 오디오 신호로 변환하여 상기 진동 스피커로 출력하는 오디오 출력부를 구비하는 파워 앰프부; 상기 오디오 수신부를 통해 수신된 오디오의 특성을 분석하고 그 결과값을 출력하는 음성 분석부; 상기 콘텐츠 DB에 저장된 학습 콘텐츠에 따른 오디오 신호를 진동 스피커로 출력하는 콘텐츠 제공부 및 상기 음성 분석부를 통해 분석된 결과와 미리 설정되어 있는 상기 콘텐츠의 해당 오디오 특성과의 일치도를 평가하여 학습자의 평가 정보를 상기 학습자 DB에 저장하는 발음 평가 모듈을 구비하는 제어부를 포함하는 것을 특징으로 한다.Wherein the pronunciation correction unit comprises: a storage unit including a content DB storing a plurality of learning contents for treating a language disorder and a learner DB storing evaluation information of a learner; A power amplifier unit having an audio receiver for receiving audio from the microphone, and an audio output unit for receiving audio from the audio receiver and converting the audio signal into an audio signal and outputting the audio signal to the vibrating speaker; A voice analyzer for analyzing characteristics of audio received through the audio receiver and outputting a result of the analysis; A content providing unit that outputs an audio signal corresponding to the learning content stored in the content DB to a vibrating speaker and a degree of matching between the analyzed result through the voice analyzing unit and a predetermined audio characteristic of the predetermined content, And a pronunciation evaluation module for storing the pronunciation information in the learner DB.

상기 발음 교정부는, 표시부를 더 포함하고, 상기 제어부는 상기 오디오 수신부를 통해 수신된 오디오 데이터를 주파수별로 특성을 분석하고, 분석된 주파수별 특성을 주파수별로 시각화한 그래픽을 생성하여 상기 표시부에 표시하는 발음 시각화 모듈을 더 포함하는 것을 특징으로 한다.The sound correction unit may further include a display unit, wherein the control unit analyzes characteristics of the audio data received through the audio receiver by frequency, generates a graphic visualizing the analyzed frequency-dependent characteristics by frequency, and displays the graphic on the display unit And a pronunciation visualization module.

상기 제어부는, 콘텐츠 제공 모듈을 통해 학습 콘텐츠를 표시부에 표시하고, 오디오 수신부를 통해 교육자 및 학습자로부터 동일 콘텐츠에 대한 오디오를 오디오 수신부를 통해 수신하고, 상기 발음 시각화 모듈을 통해 두 오디오의 주파수별 특성을 각각 시각화한 그래픽을 상기 표시부에 표시하고, 상기 발음 평가 모듈을 통해 상기 두 오디오의 일치도를 평가하여 평가 정보를 생성한 후 상기 저장부의 학습자 DB에 저장하고 표시부에 표시하는 것을 특징으로 한다.Wherein the control unit displays the learning content on the display unit through the content providing module and receives the audio for the same content from the educator and the learner through the audio receiving unit through the audio receiving unit, And displaying the graphic in the learner DB of the storage unit and displaying the evaluation information on the display unit after the evaluation information is generated by evaluating the degree of match of the two audio through the pronunciation evaluation module.

상기 오디오 수신부는 마이크를 통해 오디오에 삽입된 하울링을 제거하는 하울링 제거부를 더 포함하는 것을 특징으로 한다.The audio receiving unit may further include a howling removing unit for removing howling inserted in the audio through the microphone.

상기 마이크는 무선 마이크이고, 상기 오디오 수신부는 무선 오디오 수신부인 것을 특징으로 한다.The microphone is a wireless microphone, and the audio receiver is a wireless audio receiver.

상기한 목적을 달성하기 위한 본 발명의 진동 스피커가 부착된 의자를 이용한 발음 교정 방법은: 제어부가, 교육자 및 학습자 중 적어도 한 명 이상이 학습 콘텐츠에 따른 발음을 발성하도록 유도하는 발성 유도 과정; 및 상기 제어부가 상기 발성 유도에 응답하여 적어도 교육자 및 학습자 중 한 명 이상이 발성한 발음에 대한 오디오가 마이크 및 오디오 수신부를 통해 수신되면 진동 스피커로 출력하여 오디오를 가청음으로 출력함과 동시에 상기 진동 스피커가 부착된 의자를 진동시키는 진동 과정을 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a pronunciation correction method using a chair having a vibrating speaker, the method comprising: a controller for causing a controller to induce at least one of an educator and a learner to utter pronunciation according to a learning content; And the control unit outputs audio to the vibrating speaker and outputs the audio to the audible sound when the audio for the pronunciation of at least one of the educator and the learner is received through the microphone and audio receiver in response to the utterance inducement, And a vibrating step of vibrating the chair to which the chair is attached.

상기 방법은: 상기 제어부가 상기 오디오를 주파수별로 특성을 분석하여 주파수별로 시각화한 그래픽을 생성하여 표시부에 표시하는 발음 오디오 특성 시각화 과정을 더 포함하는 것을 특징으로 한다.The method may further include: a visualized audio characteristic visualization process in which the control unit analyzes the audio by frequency to generate a graphic visualized by frequency and displays the generated graphic on a display unit.

상기 발성 유도 과정은, 제어부가 콘텐츠 모드가 선택되는지를 검사하는 콘텐츠 모드 판단 단계; 및 콘텐츠 모드가 선택되면 콘텐츠를 로드하여 콘텐츠에 따른 발성을 유도하는 콘텐츠 발성 유도 안내 음성을 출력하는 발성 유도 단계를 포함하는 것을 특징으로 한다.Wherein the speech inducing process comprises: a content mode determining step of checking whether a content mode is selected by the control unit; And a vocalization inducing step of outputting a content utterance inducing guidance voice that induces utterance in accordance with the content by loading the content when the content mode is selected.

상기 발성 유도 과정은, 상기 콘텐츠 모드 판단 단계 후 일반 스피커를 통해 오디오를 출력하는 일반 스피커 모드를 설정하는 일반 스피커 모드 설정 단계; 및 상기 발성 유도 단계 후 상기 일반 스피커 모드를 해제하고 상기 진동 스피커를 통해 오디오를 출력하는 진동 스피커 모드를 설정하는 진동 스피커 모드 설정 단계를 더 포함하되, 상기 일반 스피커 모드에서 상기 발성 유도 안내 음성을 상기 일반 스피커를 통해 출력하는 것을 특징으로 한다.Wherein the voice induction process comprises: setting a general speaker mode for outputting audio through a general speaker after the content mode determination step; And a vibration speaker mode setting step of releasing the normal speaker mode and outputting audio through the vibration speaker after the step of inducing utterance, And outputting it through a general speaker.

상기 방법은: 상기 발성 유도 단계의 발성 유도에 의해 발성된 발음을 음성인식한 후, 상기 콘텐츠의 오디오의 발음과 비교하여 상기 발성된 발음의 정확도를 평가하는 평가 과정을 더 포함하는 것을 특징으로 한다.The method further includes an evaluation step of evaluating the accuracy of the uttered pronunciation by comparing the pronunciation of the audio of the content with the pronunciation of the uttered voice by the utterance induction in the utterance inducing step .

상기 방법은: 상기 발성 유도 단계의 발성 유도에 의해 발성된 발음을 주파수별로 특성을 분석한 후, 상기 콘텐츠의 오디오의 발음의 주파수별 특성들 각각과 비교하여 상기 발성된 발음의 정확도를 평가하는 평가 과정을 더 포함하는 것을 특징으로 한다.The method comprises: analyzing a pronunciation of a vocalization induced by the vocalization induction in the vocalization inducing step, and comparing the pronunciation of the audio with the frequency-specific characteristics of the audio of the content to evaluate an accuracy of the vocalized pronunciation Further comprising the steps of:

상기 발성 유도 과정은, 제어부가 교육자 모드가 선택되는지를 검사하는 교육자 모드 판단단계; 및 교육자 모드가 선택되면 교육자로부터 학습자가 발성해야할 발음을 포함하여 상기 발음의 발성을 유도하는 발성 유도 안내 음성을 출력하는 발성 유도 단계를 포함하는 것을 특징으로 한다.Wherein the speech inducing process comprises: an educator mode determining step of examining whether the controller selects an educator mode; And a voicing inducing step of outputting a voicing induction guidance voice for inducing voicing of the pronunciation, including a pronunciation to be uttered by the learner, from the educator when the educator mode is selected.

상기 발성 유도 과정은, 상기 콘텐츠 모드 판단 단계 후 일반 스피커를 통해 오디오를 출력하는 일반 스피커 모드를 설정하는 일반 스피커 모드 설정 단계; 및 상기 발성 유도 단계 후 상기 일반 스피커 모드를 해제하고 상기 진동 스피커를 통해 오디오를 출력하는 진동 스피커 모드를 설정하는 진동 스피커 모드 설정 단계를 더 포함하되, 상기 제어부는 상기 일반 스피커 모드에서 상기 발음을 제외한 발성 유도 안내 음성을 출력하고, 상기 진동 스피커 모드에서 상기 발음을 출력하는 것을 특징으로 한다.Wherein the voice induction process comprises: setting a general speaker mode for outputting audio through a general speaker after the content mode determination step; And a vibrating speaker mode setting step of releasing the normal speaker mode and outputting audio through the vibrating speaker after the utterance inducing step, wherein the controller sets the vibrating speaker mode to a mode other than the pronunciation And outputs a voice guidance guidance voice and outputs the voice in the vibration speaker mode.

상기 방법은: 상기 제어부가 상기 발음을 주파수별로 특성을 분석하여 주파수별로 시각화한 그래픽을 생성하여 표시부에 표시하는 발음 오디오 특성 시각화 과정을 더 포함하는 것을 특징으로 한다. The method may further include a pronunciation audio characteristic visualizing step of generating a graphic visualized by frequency by analyzing the pronunciation of the pronunciation by the control unit and displaying the graphic on a display unit.

본 발명은 진동 스피커를 이용하여 언어 장애인 및 교육자가 발성한 단어 및 구어 등에 대한 발음을 음성과 함께 진동으로 느낄 수 있도록 해 줌으로써 발성된 단어 및 구어 등에 대해 음성과 진동을 매칭하여 발음 교육 및 교정을 수행할 수 있어 보다 효율적으로 발음을 학습시킬 수 있는 효과를 가진다.The present invention enables a user to feel the voices and voices of words and spoken utterances spoken by language-impaired persons and educators by using vibrating loudspeakers, thereby matching voice and vibration to voiced words and spoken words, So that the pronunciation can be learned more efficiently.

또한, 본 발명은 의자의 등 받침과 엉덩이 받침에 복수개의 진동 스피커를 접촉시켜 설치하므로, 발음에 대응하는 진동을 의자로 전달하여 교육(치료)받는 언어 장애인이 온 몸으로 교육(치료)을 받을 수 있도록 하고, 이로 인해 구어에 대한 발음을 보다 정확하게 인지할 수 있는 효과를 가진다.Further, since the present invention is provided by contacting a plurality of vibrating speakers to a backrest and a hip rest of a chair, the vibration corresponding to the pronunciation is transmitted to the chair, so that a language disabled person receiving education (treatment) So that the pronunciation of the spoken word can be more accurately recognized.

또한, 본 발명은 진동뿐 아니라 발성된 구어의 음성을 주파수별로 그 특성을 분석하고, 분석된 주파수별 특성을 서로 다른 색의 그래픽으로 시각화하여 학습자에게 보여주므로 교육(치료)의 효과를 극대화 시킬 수 있는 이점을 갖는다.In addition, the present invention analyzes characteristics of voices of spoken words as well as voices according to frequencies, and visualizes the analyzed characteristics of frequencies in graphic of different colors to show them to learners, thereby maximizing the effect of education .

또한, 본 발명은 교육(치료)자가 교육을 위해 발성한 발음의 진동과 학습자가 발성한 발음 진동을 비교하여 느낄 수 있도록 하고, 상기 두 발음에 대한 주파수별 시각화 그래픽을 제공하여 교육(치료) 효과를 극대화시킬 수 있는 효과를 가진다.
In addition, the present invention enables a user to feel and compare vibration of a pronunciation uttered for training by an educator (a therapist) and pronunciation vibrations of a learner, and provides a visualization graphic for each of the two pronunciations, Can be maximized.

도 1은 본 발명에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 장치의 기구적 구성을 나타낸 도면이다.
도 2는 본 발명에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 장치의 블록 구성도를 나타낸 도면이다.
도 3은 본 발명의 제1실시예에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 방법을 나타낸 흐름도이다.
도 4는 본 발명의 제2실시예에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 방법을 나타낸 흐름도이다.
도 5는 본 발명의 제3실시예에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 방법을 나타낸 흐름도이다.
1 is a diagram showing a mechanical configuration of a pronunciation correcting apparatus using a chair with a vibrating speaker according to the present invention.
2 is a block diagram of a pronunciation correction apparatus using a chair having a vibrating speaker according to the present invention.
3 is a flowchart illustrating a pronunciation correction method using a chair having a vibrating speaker according to a first embodiment of the present invention.
4 is a flowchart illustrating a pronunciation correction method using a chair having a vibrating speaker according to a second embodiment of the present invention.
5 is a flowchart illustrating a pronunciation correction method using a chair with a vibration speaker according to a third embodiment of the present invention.

이하 첨부된 도면에 도시된 본 발명 구성의 실시예들을 참조하여, 본 발명의 진동 스피커가 부착된 의자를 이용한 발음 교정 장치의 구성 및 동작을 설명하고, 상기 장치에서의 발음 교정 방법을 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout.

도 1은 본 발명에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 장치의 기구적 구성을 나타낸 도면이다.1 is a diagram showing a mechanical configuration of a pronunciation correcting apparatus using a chair with a vibrating speaker according to the present invention.

본 발명에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 장치는 발음 교정부(100), 진동 스피커(51)가 부착된 의자(1) 및 마이크(61)를 포함한다.The apparatus for correcting a sound using a chair with a vibrating speaker according to the present invention includes a pronunciation unit 100, a chair 1 with a vibrating speaker 51, and a microphone 61.

의자(1)는 프레임(2)과 학습자가 앉았을 때 등이 닿는 등 받침 및 엉덩이가 닿는 엉덩이 받침으로 구성되어 상기 프레임(2)에 의해 고정되는 플레이트(3), 및 학습자가 의자(1)에 앉았을 때 푹신하도록 해주는 쿠션(4)을 포함한다. 상기 플레이트(3)에는 의자에 앉은 학습자의 전신에 진동을 전달하기 위해 적어도 하나 이상의 진동 스피커(51)가 고정 또는 착탈식으로 고정된다. 그러나 진동을 보다 효율적으로 전달하기 위해 상기 진동 스피커(51)는 도 1에 표시된 바와 같이 등 받침 배면에 수평하게 2개를 설치하고, 엉덩이 받침 밑면에 수평으로 2개를 설치하는 것이 바람직할 것이다. 본 발명에서는 진동 스피커(51)가 부착되는 것을 의자로 한정하였으나, 이에 한정되는 것은 아니며, 학습자의 전신에 진동을 전달할 수 있는 소파 및 침대 등도 가능함을 유의하여야 할 것이다. 따라서 이하 설명에서 의자라 함은 소파 및 침대 등을 포함하는 용어로 사용됨을 유의하여야 할 것이다.The chair 1 comprises a frame 3 constituted by a frame 2 and a hip rest which the backrest and the buttocks contact with when the learner is seated and is fixed by the frame 2, And a cushion 4 for allowing the user to sit on the floor when he or she is seated. At least one or more vibrating loudspeakers 51 are fixedly or removably fixed to the plate 3 to transmit vibrations to the entire body of the learner sitting on the chair. However, in order to transmit the vibration more efficiently, it is preferable that the vibrating loudspeaker 51 is installed horizontally on the back surface of the backrest as shown in Fig. 1 and two horizontally on the bottom surface of the hips. In the present invention, the speaker 51 is attached to the chair, but the present invention is not limited thereto. It should be noted that a sofa and a bed capable of transmitting vibration to the entire body of the learner are also possible. Therefore, it should be noted that the chair in the following description is used as a term including a sofa and a bed.

본 발명의 실시예에 따란 발음 교정부(100)가 수신기/앰프의 기능만을 수행하는 파워앰프로 구성되는 경우, 발음 교정부(100) 또한 플레이트(3)의 엉덩이 받침 하부 또는 등 받침 배면에 고정될 수 있으며, 프레임(2)의 일측에 고정되도록 구성될 수도 있을 것이다. 이 경우 파워앰프는 의자(1)의 쿠션에 의해 가려지도록 구성될 수도 있을 것이다.According to the embodiment of the present invention, when the pronunciation correcting unit 100 is constituted by a power amplifier that performs only the function of a receiver / amplifier, the pronunciation correcting unit 100 is also fixed to the lower part of the hips of the plate 3, And may be configured to be fixed to one side of the frame 2. In this case, the power amplifier may be configured to be covered by the cushion of the chair 1.

진동 스피커(51)는 오디오 신호 입력 시 오디오 신호의 주파수 특성에 따른 진동을 발생하며, 진동에 따른 가청 주파수의 오디오를 출력한다.The vibration speaker 51 generates vibration according to the frequency characteristic of the audio signal when the audio signal is input, and outputs audio of the audible frequency according to the vibration.

마이크(61)는 교육자 및 학습자가 교육을 위해 발성한 단어 및 구어 등의 발음을 포함하는 음성(또는"오디오"라 함)을 전기적인 신호로 변환하여 발음 교정부(100)로 전송한다. 상기 마이크(61)는 유선 마이크가 사용될 수도 있으나, 학습자 및 교육자의 편의상 무선 마이크를 적용하는 것이 바람직할 것이다.The microphone 61 converts an audio signal (or "audio") including pronunciations of vocabulary and spoken words produced by an educator and a learner into an electrical signal and transmits the electrical signal to the pronunciation management unit 100. The microphone 61 may be a wired microphone, but it may be desirable to apply a wireless microphone for the convenience of learners and educators.

발음 교정부(100)는 제1실시예에 따라 상기 진동 스피커(51) 및 마이크(61)와 연결되어, 상기 마이크(61)로부터 수신되는 오디오 신호를 증폭 등의 오디오 처리를 수행하여 상기 진동 스피커(51)로 출력한다.The sound correcting unit 100 is connected to the vibrating speaker 51 and the microphone 61 according to the first embodiment to perform audio processing such as amplification of an audio signal received from the microphone 61, (51).

또한, 발음 교정부(100)는 제2실시예에 따라 컴퓨터 등의 외부기기의 제어를 받아 업데이트 되는 적어도 하나 이상의 콘텐츠들 중 선택되거나 순서에 따른 콘텐츠에 따라 상기 콘텐츠에 포함된 학습할 단어 및 구어를 발성할 것을 유도하는 콘텐츠 유도 발성 음성을 출력하고, 이에 대응하는 발성을 학습자가 착용한 마이크(61)를 통해 수신하여 진동 스피커(51)를 통해 출력하도록 하여 학습자가 자신이 발성한 발음에 대한 진동을 느낄 수 있도록 한다.In accordance with the second embodiment, the pronunciation determining unit 100 determines the words to be learned and spoken words included in the content according to the selected or ordered content among the at least one content updated under the control of the external device such as a computer, And outputs a content-derived vocal sound to the vocal speaker 51 via the microphone 61 worn by the learner so that the learner can output the vocal sound corresponding to the pronunciation Allows you to feel the vibration.

또한, 발음 교정부(100)는 제3실시예에 따라 교육자로부터 학습할 단어 및 구어를 발성할 것을 유도하는 콘텐츠 유도 발성 음성을 수신받아 진동 스피커(51)로 출력하여 학습자가 교육자가 학습시키고자 하는 단어 및 구어 등의 발음을 진동으로 느끼도록 하고, 이에 대응하는 학습자의 발음을 입력받아 진동 스피커(51)로 출력하여 학습자가 교육자의 발음에 대한 진동과 자신이 발성한 발음에 대한 진동을 비교하여 느낄 수 있도록 하며, 상기 두 발음의 주파수별 특성 및 음성인식 특성에 의해 평가한 평가정보를 저장 및 표시한다.
In addition, the pronunciation management unit 100 receives the content-inducing voices to induce vocabulary words and spoken words to be learned from the educator according to the third embodiment, outputs the generated voices to the vibration speaker 51, And the pronunciation of the spoken word is vibrated, and the pronunciation of the corresponding learner is input to the vibration speaker 51, and the learner compares the vibration of the educator with the vibration of the speaker And stores and displays evaluation information evaluated by frequency-specific characteristics and speech recognition characteristics of the two pronunciations.

도 2는 본 발명에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 장치의 블록 구성도를 나타낸 도면이다. 이하 도 2를 참조하여 발음 교정 장치의 상세 구성을 상세히 설명한다.2 is a block diagram of a pronunciation correction apparatus using a chair having a vibrating speaker according to the present invention. Hereinafter, the detailed configuration of the pronunciation correcting apparatus will be described in detail with reference to FIG.

본 발명에 따른 발음 교정 장치는 상술한 바와 같이 발음 교정부(100), 진동 스피커(51) 및 마이크(61)를 포함한다.The pronunciation correcting apparatus according to the present invention includes the pronunciation correcting unit 100, the vibration speaker 51, and the microphone 61 as described above.

상기 발음 교정부(100)는 본 발명의 제1실시예에 따라 제어부(10), 입력부(30) 및 파워 앰프부(70)로 구성될 수 있고, 제2실시예에 따라 제어부(10), 저장부(20), 표시부(40), 파워 앰프부(70) 및 인터페이스부(90)를 포함할 수 있으며, 제3실시예에 따라 제어부(10), 저장부(20), 입력부(30), 표시부(40), 파워 앰프부(70), 음성분석부(80) 및 인터페이스부(90)를 포함할 수 있을 것이다.
The sound acoustics unit 100 may include a control unit 10, an input unit 30 and a power amplifier unit 70 according to the first embodiment of the present invention. The sound control unit 100 may include the control unit 10, The storage unit 20, the input unit 30, the display unit 40, the power amplifier unit 70, and the interface unit 90 according to the third embodiment. A display section 40, a power amplifier section 70, a voice analysis section 80, and an interface section 90.

(제1실시예)(Embodiment 1)

제1실시예에 따른 발음 교정부(100)는 제어부(10), 입력부(30) 및 파워 앰프부(70)를 포함하며, 선택적으로 표시부(40) 및 음성 주파수 특성 분석부(82)를 더 포함할 수 있을 것이다.The sounding correcting unit 100 according to the first embodiment includes a control unit 10, an input unit 30 and a power amplifier unit 70 and selectively outputs the display unit 40 and the voice frequency characteristic analyzing unit 82 .

입력부(30)는 앰프의 증폭도 등을 조절하는 조그 다이얼 또는 기능 설정을 위한 버튼 등을 구비하고, 조그 다이얼의 위치 및 눌린 버튼에 대응하는 신호를 제어부(10)로 출력한다.The input unit 30 includes a jog dial for adjusting the degree of amplification of the amplifier or the like or a button for setting a function and outputs a signal corresponding to the position of the jog dial and the pressed button to the control unit 10. [

파워 앰프부(70)는 마이크(61)와 연결되어 마이크(61)로부터 오디오 신호를 수신하는 오디오 수신부(60) 및 상기 오디오 수신부(60)를 통해 수신되는 오디오를 진동 스피커(51)를 통해 출력하기 위한 오디오 신호로 변환하고 입력부(30)에 의해 조절된 설정 값에 따라 오디오 신호의 증폭 등의 오디오 처리를 수행하여 적어도 하나 이상의 진동 스피커(51)로 출력하는 오디오 출력부(50)를 포함한다.The power amplifier unit 70 includes an audio receiver 60 connected to the microphone 61 to receive an audio signal from the microphone 61 and an audio receiver 60 connected to the audio receiver 60 via a vibration speaker 51 And an audio output unit 50 for performing audio processing such as amplification of an audio signal according to a set value adjusted by the input unit 30 and outputting the audio signal to at least one or more vibration speakers 51 .

상기 마이크(61)는 무선 마이크인 것이 바람직하고, 상기 무선 마이크로부터 무선 오디오 신호를 수신하기 위해 상기 오디오 수신부(60)는 무선 오디오 수신부인 것이 바람직할 것이다. 상기 무선 마이크 및 무선 오디오 수신부는 블루투스(Bluetooth) 및 와이파이(WiFi) 프로토콜 등이 적용된 장치일 수 있으며, 적용된 프로토콜에 따라 오디오 신호뿐만 아니라 제어 데이터 등과 같은 데이터를 무선으로 송수신할 수 있도록 구성되는 것이 바람직할 것이다.Preferably, the microphone 61 is a wireless microphone, and the audio receiver 60 is preferably a wireless audio receiver in order to receive a wireless audio signal from the wireless microphone. The wireless microphone and the wireless audio receiving unit may be a device to which a Bluetooth protocol and a WiFi protocol are applied. Preferably, the wireless microphone and the wireless audio receiving unit are configured to wirelessly transmit and receive data such as control data as well as audio signals according to an applied protocol something to do.

상기 오디오 수신부(60)는 마이크(61)를 통해 입력될 수 있는 하울링을 제거하는 하울링 제거부(62)를 더 포함할 수 있을 것이다.The audio receiving unit 60 may further include a howling removing unit 62 for removing howling that can be input through the microphone 61.

그러나 제1실시예에 따른 발음 교정부(100)는 입력부(30)를 파워 앰프부(70)에 직접 연결하고 파워 앰프부(70)가 입력부(30)의 입력에 대응하는 동작을 수행하도록 하여 구성할 수도 있으며, 다용도 입출력 포트(GPIO) 인터페이스 장치를 이용하여 외부기기의 제어를 받아 동작하도록 구성될 수도 있을 것이다.However, the pronunciation correcting unit 100 according to the first embodiment directly connects the input unit 30 to the power amplifier unit 70 and allows the power amplifier unit 70 to perform an operation corresponding to the input of the input unit 30 Or may be configured to operate under the control of an external device using a multi-purpose input / output port (GPIO) interface device.

제어부(10)는 입력부(30)의 입력에 따른 파워 앰프부(70)의 전반적인 동작을 제어한다. 또한, 제어부(10)는 상기 음성 주파수 특성 분석부(82)를 통해 상기 학습자가 발성한 단어 또는 구어의 주파수별 특성을 분석하고, 분석된 주파수별로 특성을 시각화한 그래픽을 표시부(40)에 표시하여 학습자가 시각적으로 상기 단어 또는 구어를 학습할 수 있도록 한다.The control unit 10 controls the overall operation of the power amplifier unit 70 according to the input of the input unit 30. The controller 10 analyzes frequency characteristics of words or spoken words spoken by the learner through the voice frequency characteristic analyzer 82 and displays a graphic visualized by the analyzed frequencies on the display unit 40 So that the learner visually learns the word or spoken word.

이하 실시예에서는 상기 오디오 수신부가 도 2와 같이 무선 오디오 수신부인 경우를 예를 들어 설명한다.
Hereinafter, a case where the audio receiving unit is a wireless audio receiving unit as shown in FIG. 2 will be described.

(제2실시예)(Second Embodiment)

본 발명의 제2실시예에 따른 발음 교정부(100)는 제어부(10), 저장부(20), 표시부(40), 파워 앰프부(70) 및 인터페이스부(90)를 포함하며, 입력부(30)를 선택적으로 포함할 수 있다.The sounding calibration unit 100 according to the second embodiment of the present invention includes a control unit 10, a storage unit 20, a display unit 40, a power amplifier unit 70, and an interface unit 90, 30). ≪ / RTI >

저장부(20)는 언어 장애인, 즉 학습자를 치료(학습)할 다수의 콘텐츠들을 저장하는 콘텐츠 DB(21)와 학습자 정보 및 학습자의 평가 정보를 저장하는 학습자 DB(20)를 포함한다.The storage unit 20 includes a content DB 21 for storing a plurality of contents to be cared for by a language disabled person, that is, a learner, and a learner DB 20 for storing learner information and learner's evaluation information.

인터페이스부(90)는 USB, IEEE1394, RS232, GPIO 등과 같은 유선 인터페이스 및 블루투스, 지그비 등의 무선 인터페이스에 따른 외부기기와 제어부(10)간의 데이터 통신을 제공한다.The interface unit 90 provides a wired interface such as USB, IEEE1394, RS232, and GPIO, and data communication between the controller 10 and an external device based on a wireless interface such as Bluetooth or ZigBee.

제어부(10)는 인터페이스부(90)를 통해 컴퓨터 등의 외부기기에서 제공하는 콘텐츠를 다운받아 콘텐츠 DB(21)에 저장하고, 콘텐츠 DB(21)에 저장된 콘텐츠에 따라 학습시킬 특정 단어, 구어를 포함하는 콘텐츠 발성 유도 안내 음성을 스피커를 통해 출력한다. 이때, 학습시킬 특정 단어, 구어 등의 오디오는 진동 스피커(51)를 통해 출력하고, 그 외의 유도 음성들을 일반 스피커(52)를 통해 출력하도록 제어할 수도 있을 것이다.The control unit 10 downloads the content provided from an external device such as a computer through the interface unit 90 and stores the downloaded content in the content DB 21 and records a specific word and a spoken word to be learned according to the content stored in the content DB 21. [ And outputs a content utterance induction announcement voice including the voice. At this time, audio such as a specific word to be learned, a spoken word, etc., may be outputted through the vibration speaker 51, and other inductive sounds may be controlled to be outputted through the general speaker 52.

그리고 제어부(10)는 상기 콘텐츠 발성 유도 안내 음성에 응답하여 학습자가 해당 단어 또는 구어를 발성하면 무선 마이크(61), 무선 오디오 수신부(60)를 통해 입력받고 학습자 DB(22)에 저장한다. 학습자 DB(22)에 저장된 학습자 음성 데이터는 인터페이스부(90)를 통해 연결된 외부기기에 의해 읽혀지도록 구성될 것이다.When the learner speaks the word or the spoken word in response to the content utterance induction announcement voice, the control unit 10 receives the input via the wireless microphone 61 and the wireless audio receiver 60 and stores it in the learner DB 22. Learner voice data stored in the learner DB 22 may be configured to be read by an external device connected through the interface unit 90. [

또한, 제어부(10)는 콘텐츠 발성 유도 안내 음성의 단어 또는 구어와, 상기 학습자가 발성한 단어 또는 구어의 주파수별 특성을 주파수별로 시각화한 그래픽을 표시부(40)에 표시하여 학습자가 시각적으로 상기 단어 또는 구어를 학습할 수 있도록 한다. In addition, the control unit 10 displays on the display unit 40 a graphic that visualizes words or phrases of the contents utterance induction announcement voice and frequency-dependent characteristics of the words or phrases uttered by the learner on a frequency basis, Or spoken language.

제어부(10)는 주기적으로 인터페이스부(90)를 통해 외부기기로부터 콘텐츠를 입력받아 콘텐츠 DB(21)의 콘텐츠를 업데이트하도록 구성될 것이다.The control unit 10 periodically receives the content from the external device via the interface unit 90 and updates the content of the content DB 21. [

또한, 제어부(10)는 인터페이스부(90)를 통해 컴퓨터 등의 외부기기의 제어를 받아 그때그때 콘텐츠에 따른 단어 또는 구어를 포함하는 콘텐츠 발성 유도 안내 음성 데이터를 입력받고, 외부기기의 제어에 따라 상기 콘텐츠 발성 유도 안내 음성 데이터를 오디오 출력부(50)를 통해 스피커(51, 52)를 통해 출력하고, 그에 따라 입력되는 학습자의 발성을 외부기기로 제공하도록 구성될 수도 있을 것이며, 컴퓨터에 의해 분석된 학습자 발음의 주파수별 특성 시각화 그래픽을 입력받아 표시하도록 구성될 수도 있을 것이다. 상기 주파수별 특성 시각화 그래픽은 컴퓨터의 디스플레이 장치에 표시하도록 구성될 수도 있을 것이다.
The control unit 10 is controlled by an external device such as a computer through the interface unit 90 to receive the content utterance guidance announcement voice data including a word or a word corresponding to the content at that time, The content utterance inducing guidance voice data may be outputted through the speakers 51 and 52 through the audio output unit 50 and the utterance of the learner inputted thereto may be provided to the external device, And displaying the frequency-dependent characteristic visualization graphic of the learned learner's pronunciation. The frequency-dependent characteristic visualization graphic may be configured to be displayed on a display device of the computer.

(제3실시예)(Third Embodiment)

제3실시예에 따른 발음 교정부(100)는 제어부(10), 저장부(20), 입력부(30), 표시부(40), 파워 앰프부(70), 음성 분석부(80) 및 인터페이스부(90)를 포함한다.The sounding correcting unit 100 according to the third embodiment includes a control unit 10, a storage unit 20, an input unit 30, a display unit 40, a power amplifier unit 70, a voice analysis unit 80, (90).

제3실시예에 따른 저장부(20)의 학습자 DB(20)에는 학습자가 발성한 발음에 대한 평가 정보를 포함한다. 상기 평가 정보에는 제시된 발음과 학습자가 발성한 발음과의 일치도에 따른 정보뿐만 아니라 학습자가 발성한 발음의 주파수별 특성 정보 및 그에 따른 주파수별 그래픽 정보를 포함한다.The learner DB 20 of the storage unit 20 according to the third embodiment includes evaluation information about the pronunciation uttered by the learner. The evaluation information includes not only information according to the degree of agreement between the presented pronunciation and the utterance uttered by the learner, but also the per-frequency characteristic information of the utterance uttered by the learner and the corresponding per-frequency graphic information.

입력부(30)는 문자, 숫자 및 기능을 선택할 수 있는 다수의 키들을 구비하는 키보드 등의 입력장치가 될 수도 있고, 소수의 기능키만을 구비하는 입력장치가 될 수도 있을 것이다.The input unit 30 may be an input device such as a keyboard having a plurality of keys for selecting letters, numbers, and functions, or may be an input device having only a small number of function keys.

표시부(40)는 액정표시장치(LCD) 또는 터치스크린 등이 될 수 있으며, 발음 교정 장치의 동작 상태 정보, 본 발명에 따른 발음의 특성에 따른 주파수별 그래픽 및 그 외의 평가 정보와 같은 다양한 정보들을 표시한다. 표시부(40)가 터치스크린으로 구성되는 제어부(10)에 의해 소프트 키보드와 같은 소프트 터치 입력 수단을 제공할 수도 있을 것이다.The display unit 40 may be a liquid crystal display (LCD), a touch screen, or the like, and may store various information such as the operation state information of the pronunciation correcting apparatus, the frequency-dependent graphics according to the present invention, Display. The display unit 40 may be provided with a soft touch input means such as a soft keyboard by the control unit 10 constituted by a touch screen.

음성 분석부(80)는 무선 오디오 수신부(60)를 통해 수신되는 음성(오디오)의 특성을 분석하여 제어부로 출력한다. 상기 음성 분석부(80)는 무선 오디오 수신부(60)를 통해 수신되는 오디오(음성)를 입력받아 음성인식을 수행하고, 그 결과 값을 제어부(10)로 제공하는 음성 인식부(81) 및 무선 오디오 수신부(60)를 통해 수신된 음성(오디오)의 주파수별 특성을 분석하고 그 분석 결과를 제어부(10)로 출력하는 음성 주파수 특성 분석부(82)를 포함한다.The audio analysis unit 80 analyzes characteristics of audio received through the wireless audio receiving unit 60 and outputs the analyzed characteristics to the control unit. The voice analysis unit 80 includes a voice recognition unit 81 for receiving the voice (voice) received through the wireless audio reception unit 60 and performing voice recognition and providing the result to the control unit 10, And a voice frequency characteristic analyzing unit 82 for analyzing the characteristics of the voice received through the audio receiving unit 60 and outputting the analysis result to the control unit 10. [

제어부(10)는 콘텐츠 DB(21)에 저장된 콘텐츠들 중 선택된 콘텐츠 또는 미리 정해진 순서에 따라 로드하여 표시부(40)에 표시하고 오디오 출력부(50)를 통해 상기 표시부(40)에 표시된 콘텐츠에 따른 콘텐츠 발성 유도 음성을 출력하는 콘텐츠 제공 모듈(11) 및 상기 콘텐츠 발성 유도 음성에 대응하여 학습자가 무선 마이크(61)에 대고 발성을 하면 그 음성을 무선 오디오 수신부(60)를 통해 수신하고, 수신된 음성을 음성 분석부(80)를 통해 음성 인식한 후 콘텐츠에 미리 설정되어 있는 해당 기준 음성과 비교하여 발음을 평가하고, 평가된 평가 정보를 학습자 DB(22)에 저장하는 발음 평가 모듈(13)을 포함한다. 상기 콘텐츠 제공 모듈(11)은 직접 콘텐츠 DB(21)에 저장된 콘텐츠의 콘텐츠 발성 유도 음성을 로드하여 오디오 출력부(50)를 통해 출력할 수도 있고, 교육자의 무선 마이크(61)를 통해 입력된 콘텐츠 발성 유도 음성을 무선 오디오 수신부(60)를 통해 수신하여 오디오 출력부(50)를 통해 출력하도록 구성될 수도 있을 것이다. 또한, 상기 콘텐츠 제공 모듈(11)은 상기 콘텐츠 발성 유도 음성을 출력함에 있어서, 학습(치료)하고자 하는 발음만 진동 스피커(51)를 통해 출력하고, 그 이외의 음성은 일반 스피커(52)를 통해 출력하도록 제어할 수도 있을 것이다.The control unit 10 loads the content selected from the contents stored in the contents DB 21 or in a predetermined order and displays it on the display unit 40 and displays the contents on the display unit 40 via the audio output unit 50 A content providing module 11 for outputting a content utterance guidance voice, and a learner who has uttered the voice to the wireless microphone 61 in response to the content utterance guidance voice, receives the voice through the wireless audio receiver 60, A pronunciation evaluation module 13 for evaluating pronunciation by comparing the voice with a corresponding reference voice preset in the content after voice recognition through the voice analysis unit 80 and storing the evaluated evaluation information in the learner DB 22, . The content providing module 11 may load the content utterance inducing voice of the content stored in the direct content DB 21 and output it through the audio output unit 50 or may output the content inputted through the wireless microphone 61 of the educator A voice guidance inducing voice may be received via the wireless audio receiving unit 60 and output through the audio output unit 50. [ In addition, in outputting the content utterance inducing voice, the content providing module 11 outputs only the pronunciation to be learned (treated) through the vibrating speaker 51, and the other voice is outputted through the general speaker 52 Output.

또한 상기 제어부(10)는 상기 음성 주파수 특성 분석부(82)를 통해 분석된 음성 특성 정보에 대응하는 주파수별 특성을 주파수별로 시각화한 그래픽을 생성하여 표시부(40)에 표시하는 발음 시각화 모듈(12)을 더 포함하여, 진동과 시각 두 가지 방법에 의해 학습자를 학습(치료)할 수 있도록 한다.
The control unit 10 further includes a sound visualization module 12 for generating a graphic visualized by the frequency characteristic corresponding to the analyzed sound characteristic information through the sound frequency characteristic analyzing unit 82 and displaying the graphic on the display unit 40 ) So that the learner can be learned (treated) by two methods, vibration and visual.

도 3은 본 발명의 제1실시예에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 방법을 나타낸 흐름도로, 학습자 단독 모드에서의 발음 교정 방법을 나타낸 것이며, 상기 제1내지 제3실시예의 발음 교정 장치 모두에 적용될 수 있는 방법이다. FIG. 3 is a flowchart illustrating a pronunciation correction method using a chair having a vibrating speaker according to a first embodiment of the present invention. FIG. 3 shows a pronunciation correction method in a learner-alone mode. In the pronunciation correction method of the first to third embodiments, It is a method that can be applied to all devices.

도 3을 참조하면, 제어부(10)는 전원이 공급되면(S311), 무선 오디오 수신부(60)를 통해 학습자가 무선 마이크(61)에 발성한 발음(오디오)에 대한 오디오 데이터가 수신되는지를 검사한다(S313).3, when the power is supplied (S311), the control unit 10 checks whether audio data for pronunciation (audio) uttered by the learner to the wireless microphone 61 is received through the wireless audio receiving unit 60 (S313).

오디오 데이터가 수신되면 제어부(10)는 스피커를 통해 출력하기 위한 아날로그 오디오 신호로 변환한 후 진동 스피커(51)로 출력한다(S315). 그러면 진동 스피커(51)는 해당 오디오의 출력과 함께 진동하여 의자(1)에 진동을 전달할 것이다.When the audio data is received, the controller 10 converts the audio data into an analog audio signal for output through a speaker, and outputs the analog audio signal to the vibration speaker 51 (S315). Then, the vibrating speaker 51 will vibrate together with the output of the corresponding audio to transmit the vibrations to the chair 1.

상기 진동을 학습자에게 전달함과 동시에 제어부(10)는 음성 주파수 특성 분석부(82)를 통해 상기 오디오의 주파수 특성을 분석하고(S317), 상기 발음의 주파수별 특성을 시각화한 그래픽을 생성하여 표시부(40)에 표시한다(S319).The control unit 10 analyzes the frequency characteristics of the audio through the audio frequency characteristic analyzer 82 in step S317 and generates a visualized graph of the frequency characteristic of the sound, (Step S319).

도 4는 본 발명의 제2실시예에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 방법을 나타낸 흐름도로써, 콘텐츠 모드에서의 발음 교정 방법을 나타낸 것으로 상기 제2실시예의 발음 교정 장치에 적용될 수 있는 방법이다.FIG. 4 is a flowchart illustrating a pronunciation correction method using a chair with a vibrating speaker according to a second embodiment of the present invention. FIG. 4 illustrates a pronunciation correction method in the content mode. Method.

제어부(10)는 교육자 등에 의해 콘텐츠 모드가 설정되거나 설정되어 있으면(S411), 저장부(20)의 콘텐츠 DB(21)에 저장되어 있는 콘텐츠들 중 선택된 콘텐츠 또는 순서에 따른 콘텐츠를 로드한다(S413).If the content mode is set or set (S411) by the educator or the like, the control unit 10 loads the content selected in the content DB 21 of the storage unit 20 or the content according to the order ).

상기 콘텐츠의 로드 후 제어부(10)는 일반 스피커 모드를 설정하고(S414), 상기 일반 스피커 모드에서 콘텐츠 표시 및 콘텐츠 발성 유도 안내 음성을 일반 스피커(52)를 통해 출력한다(S415). 그러나 이때에도 상기 콘텐츠 발성 유도 안내 음성 중 학습시킬 단어, 구어 등의 발음 출력 시에는 진동 스피커 모드로 전환하여 출력하고, 상기 학습시킬 발음의 출력 후 다시 일반 스피커 모드로 되돌아오도록 구성되는 것이 바람직할 것이다.After loading the content, the control unit 10 sets a general speaker mode (S414), and outputs a content indication and a content utterance inducing voice through the general speaker 52 in the general speaker mode (S415). However, at this time, it is preferable to switch to the vibration speaker mode and to return to the normal speaker mode after outputting the pronunciation to be learned, .

상기 콘텐츠 발성 유도 안내 음성의 출력 후 제어부(10)는 진동 스피커 모드로 전환하고(S417), 무선 오디오 수신부(60)를 통해 상기 콘텐츠 발성 유도 안내 음성에 응답하여 학습자가 무선 마이크(61)에 발성한 오디오가 수신되는지를 검사한다(S419).The controller 10 switches to the vibration speaker mode (S417), and the learner speaks to the wireless microphone 61 in response to the contents utterance induction announcement voice through the wireless audio receiver 60 It is checked whether one audio is received (S419).

이때, 오디오가 수신되면 제어부(10)는 수신 오디오 데이터를 아날로그 오디오 신호 변환 및 증폭 등의 오디오 처리를 수행한 후 진동 스피커(61)로 출력한다(S421).
At this time, when the audio is received, the controller 10 performs audio processing such as analog audio signal conversion and amplification, and outputs the audio data to the vibration speaker 61 (S421).

도 5는 본 발명의 제3실시예에 따른 진동 스피커가 부착된 의자를 이용한 발음 교정 방법을 나타낸 흐름도로써, 제3실시예에 적용될 수 있는 방법이다.FIG. 5 is a flowchart illustrating a pronunciation correction method using a chair having a vibrating speaker according to a third embodiment of the present invention, which can be applied to the third embodiment.

제어부(10)는 교육자 모드가 선택되는지(S511), 콘텐츠 모드가 선택되는지(S512)를 검사한다.The control unit 10 checks whether the educator mode is selected (S511) or whether the content mode is selected (S512).

콘텐츠 모드가 설정되면 제어부(10)는 저장부(20)의 콘텐츠 DB(21)에 저장된 콘텐츠들 중 선택되거나 순서에 따른 콘텐츠를 로드한(S513) 후, 표시부(40)에 표시한다(S514).When the content mode is set, the control unit 10 loads the content selected or ordered according to the content stored in the content DB 21 of the storage unit 20 (S513), and displays the content on the display unit 40 (S514) .

반면, 교육자 모드가 선택되면 제어부(10)는 콘텐츠 DB(21)에서 콘텐츠를 로드하여(S515), 표시부(40)에 표시한(S516) 후, 교육자가 사용하는 무선 마이크(61) 및 무선 오디오 수신부(60)를 통해 교육자의 오디오가 수신되는지를 검사한다(S517).On the other hand, if the educator mode is selected, the control unit 10 loads the content from the content DB 21 (S515) and displays the wireless microphone 61 and wireless audio It is checked whether the audio of the educator is received through the receiving unit 60 (S517).

교육자 오디오가 수신되면 제어부(10)는 음성 분석부(80)의 음성 주파수 특성 분석부(82)를 통해 수신 오디오의 주파수별 특성을 분석하고, 분석된 정보를 학습자 DB(20)에 저장한다(S519).When the educator audio is received, the control unit 10 analyzes the frequency-specific characteristics of the received audio through the audio frequency characteristic analyzer 82 of the voice analysis unit 80 and stores the analyzed information in the learner DB 20 S519).

상기 주파수별 특성 정보의 저장 후 제어부(10)는 상기 주파수별 특성 정보에 의한 오디오의 주파수별 특성을 시각화 한 그래픽을 생성하여 저장부(20)의 학습자 DB(22)에 저장한 후 표시부(40)에 표시한다(S521).
After storing the frequency-specific characteristic information, the controller 10 generates a graphic visualizing the frequency characteristic of the audio according to the frequency-specific characteristic information, stores it in the learner DB 22 of the storage unit 20, (S521).

상기 교육자 모드에서 교육자의 오디오에 대한 주파수 특성이 분석되어 표시부(40)에 표시되거나 상기 콘텐츠 모드에서 콘텐츠가 표시부(40)에 표시되면, 제어부(10)는 일반 스피커 모드를 설정하고(S523), 발성 유도 안내 음성을 출력한다(S525). 상기 발성 유도 안내 음성은 콘텐츠 모드에서 상기 로드된 콘텐츠에 대해 미리 정의되어 있는 음성이고, 교육자 모드에서는 교육자가 발성한 음성이 될 수 있을 것이다. 상술한 바와 같이 상기 발성 유도 안내 음성은 상기 일반 스피커 모드에서 일반 스피커(52)를 통해 출력하도록 구성될 수도 있고, 발성 유도 안내 음성을 학습(치료)시킬 단어 및 구어에 대한 오디오의 출력 시에는 진동 스피커 모드를 설정하여 진동 스피커(51)를 통해 학습할 단어 및 구어에 대한 오디오를 출력하고, 그 이외의 오디오에 대해서는 일반 스피커 모드에서 일반 스피커(52)를 통해 출력하도록 구성될 수도 있을 것이다.If the frequency characteristic of the educator's audio is analyzed in the educator mode and displayed on the display unit 40 or the content is displayed on the display unit 40 in the content mode, the controller 10 sets a general speaker mode (S523) And outputs a voice guidance guidance voice (S525). The voice guidance voice may be a voice predefined for the loaded content in the content mode and a voice uttered by the educator in the educator mode. As described above, the voice guidance guiding voice may be configured to be outputted through the general speaker 52 in the general speaker mode, or may be configured to output the voice to be learned (therapy) The speaker mode may be set to output audio for a word and a spoken word to be learned through the vibration speaker 51, and other audio may be output through a general speaker 52 in a normal speaker mode.

상기 발성 유도 안내 음성이 출력되면 제어부(10)는 일반 스피커 모드에서 진동 스피커 모드로 전환하고(S527), 상기 진동 스피커 모드에서 학습자의 무선 마이크(61) 및 무선 오디오 수신부(60)를 통해 학습자의 오디오가 수신되는지를 검사한다(S529).The control unit 10 switches from the normal speaker mode to the vibrating speaker mode at step S527 and the learner's wireless microphone 61 and the wireless audio receiving unit 60 at the loudspeaker speaker mode It is checked whether audio is received (S529).

상기 학습자의 오디오가 수신되면 제어부(10)는 음성 주파수 특성 분석부(82)를 통해 학습자 오디오의 주파수별 특성을 분석하여(S531) 학습자 DB(20)에 저장하고 표시부(40)에 표시한다(S533). 이때에는 학습자 및 교육자의 주파수별 특성 정보를 표시하거나, 학습자 및 콘텐츠에 미리 정의되어 있는 오디오의 주파수별 특성 정보를 모두 표시하는 것이 바람직할 것이다.When the learner's audio is received, the controller 10 analyzes the learner's frequency-specific characteristics of the learner's audio through the audio frequency characteristic analyzer 82, stores it in the learner DB 20, and displays it on the display unit 40 S533). At this time, it may be desirable to display the frequency-dependent characteristic information of the learner and the educator, or to display all the frequency-specific characteristic information of the audio defined in the learner and the contents.

상기 표시 후, 제어부(10)는 상기 분석된 학습자의 오디오의 주파수별 특성과 미리 콘텐츠 DB(21)의 해당 콘텐츠에 정의되어 있는 주파수별 특성과 비교하거나, 학습자 오디오의 주파수별 특성과 교육자 오디오의 주파수별 특성을 비교하여 정확도를 계산하고(S537), 계산된 정확도 및 상기 주파수별 특성 정보를 포함하는 평가 정보를 학습자 DB(22)에 저장한 후 표시부(40)에 표시한다(S539).After the display, the control unit 10 compares the analyzed frequency characteristics of the learner's audio with the frequency-dependent characteristics defined in the corresponding contents of the content DB 21 in advance, Frequency characteristics to compute the accuracy (S537), store the evaluation information including the calculated accuracy and the frequency-specific characteristic information in the learner DB 22, and display the evaluation information on the display unit 40 (S539).

상기 설명에서는 오디오의 주파수별 특성에 의해 학습자가 발성한 발음을 평가하였으나, 음성인식부(81)를 통해 음성인식을 수행한(S518, S535) 후, 학습자의 음성 인식된 결과값과 표준 음성의 음성인식 결과값을 비교하거나, 학습자의 음성 인식 결과와 교육자 음성 인식 결과를 비교하여 정확도를 평가하도록(S539) 구성될 수도 있을 것이다.In the above description, the learner uttered the pronunciation by the frequency characteristic of the audio, but after performing the speech recognition through the speech recognition unit 81 (S518, S535), the learner's recognized speech result and the standard speech And compare the speech recognition result values or compare the speech recognition results of the learner with the educator speech recognition results (S539).

한편, 본 발명은 전술한 전형적인 바람직한 실시예에만 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 개량, 변경, 대체 또는 부가하여 실시할 수 있는 것임은 당해 기술분야에서 통상의 지식을 가진 자라면 용이하게 이해할 수 있을 것이다. 이러한 개량, 변경, 대체 또는 부가에 의한 실시가 이하의 첨부된 특허청구범위의 범주에 속하는 것이라면 그 기술사상 역시 본 발명에 속하는 것으로 보아야 한다.
While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be easily understood. It is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, it is intended to cover various modifications within the scope of the appended claims.

1: 의자 2: 프레임
3. 플레이트 4 쿠션
10: 제어부 11: 콘텐츠 제공 모듈
12: 발음 시각화 모듈 13: 발음 평가 모듈
20: 저장부 21: 콘텐츠 DB
22: 학습자 DB 30: 입력부
40: 표시부 50: 오디오 출력부
51: 진동 스피커 52: 스피커
60: 무선 오디오 수신부 61: 무선 마이크
62: 하울링 제거부 70: 파워앰프부
80: 음성분석부 81: 음성인식부
82: 음성 주파수 특성 분석부
90: 인터페이스부 100: 발음 교정부
1: Chair 2: Frame
3. Plate 4 cushion
10: control unit 11: content providing module
12: Pronunciation visualization module 13: Pronunciation evaluation module
20: storage unit 21: content DB
22: learner DB 30: input section
40: Display section 50: Audio output section
51: Vibrating speaker 52: Speaker
60: wireless audio receiving unit 61: wireless microphone
62: howling removing part 70: power amplifier part
80: Voice analysis unit 81: Voice recognition unit
82: Voice frequency characteristic analyzing unit
90: Interface unit 100: Pronunciation unit

Claims (18)

오디오 신호에 따른 진동을 발생하여 부착된 의자 전체로 진동을 전달하고, 진동에 따른 오디오를 출력하는 하나 이상의 진동 스피커;
교육자 및 언어 장애를 치료하고자 하는 학습자 중 적어도 한 명 이상이 발성한 발음에 대한 오디오를 송신하는 적어도 하나 이상의 마이크;
상기 진동 스피커 및 마이크와 연결되어, 상기 마이크로부터 수신되는 오디오 신호를 상기 진동 스피커로 출력하는 발음 교정부를 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
At least one vibration speaker for generating vibration according to an audio signal and transmitting vibration to the entire attached chair and outputting audio according to the vibration;
At least one microphone for transmitting audio for pronunciation of at least one of the educator and the learner who wishes to treat the speech disorder;
And a pronunciation correction unit connected to the vibration speaker and the microphone to output an audio signal received from the microphone to the vibration speaker.
제1항에 있어서,
상기 마이크는 무선 마이크이고,
상기 발음 교정부는,
상기 무선 마이크로부터 오디오를 무선으로 수신하는 무선 오디오 수신부; 및
상기 무선 오디오 수신부로부터 오디오를 입력받고 오디오 신호로 변환하여 상기 진동 스피커로 출력하는 오디오 출력부를 포함하는 파워앰프인 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
The method according to claim 1,
The microphone is a wireless microphone,
Wherein the pronunciation correcting unit comprises:
A wireless audio receiver for wirelessly receiving audio from the wireless microphone; And
And an audio output unit receiving audio from the wireless audio receiving unit and converting the audio signal into an audio signal and outputting the audio signal to the vibrating speaker.
제2항에 있어서,
상기 발음 교정부는,
외부기기와 연결되어 데이터 통신을 수행하는 앰프 인터페이스부를 더 포함하고,
상기 앰프 인터페이스부를 통해 외부기기와 연결되어 외부기기에 설치된 응용 프로그램을 통해 임의의 학습 콘텐츠에 따른 오디오 데이터를 입력받고, 상기 오디오 출력부를 통해 오디오 신호로 변환하여 진동 스피커로 출력하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
3. The method of claim 2,
Wherein the pronunciation correcting unit comprises:
And an amplifier interface unit connected to an external device and performing data communication,
Wherein the audio output unit is connected to an external device through the amplifier interface unit to receive audio data according to an arbitrary learning content through an application program installed in an external device and converts the audio data into an audio signal through the audio output unit, A pronunciation correction device using a chair with a speaker attached thereto.
제2항에 있어서,
발음 교정부는,
외부기기와 연결되어 데이터 통신을 수행하는 인터페이스부 및
언어 장애를 치료하기 위한 다수의 학습 콘텐츠를 저장하는 콘텐츠 DB를 더 포함하고,
상기 인터페이스부를 통해 외부기기로부터 학습 콘텐츠를 수신받아 상기 콘텐츠 DB에 저장된 학습 콘텐츠들을 업데이트하고,
업데이트된 학습 콘텐츠들을 임의의 순서에 따라 선택하고, 선택된 학습 콘텐츠에 따른 오디오 데이터를 오디오 출력부에서 오디오 신호로 변환하여 진동 스피커로 출력하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
3. The method of claim 2,
The pronunciation correction unit,
An interface unit connected to the external device and performing data communication;
And a content DB for storing a plurality of learning contents for treating a language disorder,
Receiving learning content from an external device via the interface, updating learning contents stored in the content DB,
And the audio output unit converts audio data corresponding to the selected learning content into an audio signal and outputs the audio signal to the vibrating speaker. .
제1항에 있어서,
상기 발음 교정부는,
언어 장애를 치료하기 위한 다수의 학습 콘텐츠를 저장하는 콘텐츠 DB 및 학습자의 평가 정보를 저장하는 학습자 DB를 포함하는 저장부;
상기 마이크로부터 오디오를 수신하는 오디오 수신부 및 상기 오디오 수신부로부터 오디오를 입력받고 오디오 신호로 변환하여 상기 진동 스피커로 출력하는 오디오 출력부를 구비하는 파워 앰프부;
상기 오디오 수신부를 통해 수신된 오디오의 특성을 분석하고 그 결과값을 출력하는 음성 분석부;
상기 콘텐츠 DB에 저장된 학습 콘텐츠에 따른 오디오 신호를 진동 스피커로 출력하는 콘텐츠 제공부 및
상기 음성 분석부를 통해 분석된 결과와 미리 설정되어 있는 상기 콘텐츠의 해당 오디오 특성과의 일치도를 평가하여 학습자의 평가 정보를 상기 학습자 DB에 저장하는 발음 평가 모듈을 구비하는 제어부를 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
The method according to claim 1,
Wherein the pronunciation correcting unit comprises:
A storage unit including a content DB for storing a plurality of learning contents for treating a language disorder and a learner DB for storing evaluation information of the learner;
A power amplifier unit having an audio receiver for receiving audio from the microphone, and an audio output unit for receiving audio from the audio receiver and converting the audio signal into an audio signal and outputting the audio signal to the vibrating speaker;
A voice analyzer for analyzing characteristics of audio received through the audio receiver and outputting a result of the analysis;
A content providing unit for outputting an audio signal according to the learning contents stored in the content DB to a vibrating speaker;
And a pronunciation evaluation module for evaluating the degree of matching between the result analyzed through the speech analysis unit and the audio characteristics of the predetermined content and storing the evaluation information of the learner in the learner DB Speech correction device using chair with vibration speaker.
제5항에 있어서,
상기 발음 교정부는,
표시부를 더 포함하고,
상기 제어부는 상기 오디오 수신부를 통해 수신된 오디오 데이터를 주파수별로 특성을 분석하고, 분석된 주파수별 특성을 주파수별로 시각화한 그래픽을 생성하여 상기 표시부에 표시하는 발음 시각화 모듈을 더 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
6. The method of claim 5,
Wherein the pronunciation correcting unit comprises:
Further comprising a display unit,
The control unit may further include a sound visualization module for analyzing the audio data received through the audio receiver by frequency and generating a graphic visualizing the analyzed frequency-dependent characteristic by frequency, and displaying the generated graphic on the display unit Speech correction device using chair with vibration speaker.
제6항에 있어서,
상기 제어부는,
콘텐츠 제공 모듈을 통해 학습 콘텐츠를 표시부에 표시하고, 오디오 수신부를 통해 교육자 및 학습자로부터 동일 콘텐츠에 대한 오디오를 오디오 수신부를 통해 수신하고,
상기 발음 시각화 모듈을 통해 두 오디오의 주파수별 특성을 각각 시각화한 그래픽을 상기 표시부에 표시하고,
상기 발음 평가 모듈을 통해 상기 두 오디오의 일치도를 평가하여 평가 정보를 생성한 후 상기 저장부의 학습자 DB에 저장하고 표시부에 표시하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
The method according to claim 6,
Wherein,
Displaying the learning contents on the display unit through the content providing module, receiving audio for the same contents from the educator and the learner through the audio receiver through the audio receiver,
A graphic visualizing each frequency characteristic of the two audio is visually displayed on the display unit through the sounding visualization module,
Evaluating the degree of agreement between the two audio through the pronunciation evaluation module, generating evaluation information, storing the evaluation information in the learner DB of the storage unit, and displaying the evaluation information on the display unit.
제2항 또는 제5항에 있어서,
상기 오디오 수신부는 마이크를 통해 오디오에 삽입된 하울링을 제거하는 하울링 제거부를 더 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
6. The method according to claim 2 or 5,
Wherein the audio receiving unit further comprises a howling removing unit for removing the howling inserted into the audio through the microphone.
제5항 내지 제7항 중 어느 한 항에 있어서,
상기 마이크는 무선 마이크이고,
상기 오디오 수신부는 무선 오디오 수신부인 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 장치.
8. The method according to any one of claims 5 to 7,
The microphone is a wireless microphone,
Wherein the audio receiving unit is a wireless audio receiving unit.
제어부가, 교육자 및 학습자 중 적어도 한 명 이상이 학습 콘텐츠에 따른 발음을 발성하도록 유도하는 발성 유도 과정; 및
상기 제어부가 상기 발성 유도에 응답하여 적어도 교육자 및 학습자 중 한 명 이상이 발성한 발음에 대한 오디오가 마이크 및 오디오 수신부를 통해 수신되면 진동 스피커로 출력하여 오디오를 가청음으로 출력함과 동시에 상기 진동 스피커가 부착된 의자를 진동시키는 진동 과정을 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.
Wherein the control unit instructs at least one of the educator and the learner to utter a pronunciation corresponding to the learning content; And
The control unit outputs audio to the vibration speaker and outputs audio to the audible sound when the audio for the pronunciation of at least one of the educator and the learner is received through the microphone and the audio receiver in response to the vocalization inducement, And a vibrating step of vibrating the attached chair.
제10항에 있어서,
상기 제어부가 상기 오디오를 주파수별로 특성을 분석하여 주파수별로 시각화한 그래픽을 생성하여 표시부에 표시하는 발음 오디오 특성 시각화 과정을 더 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.
11. The method of claim 10,
Further comprising the steps of: generating a graphic visualized by frequency of the audio by analyzing characteristics of the audio by frequency and displaying the generated graphic on a display unit, wherein the visualized audio characteristic visualization process is performed by the controller.
제10항에 있어서,
상기 발성 유도 과정은,
제어부가 콘텐츠 모드가 선택되는지를 검사하는 콘텐츠 모드 판단 단계; 및
콘텐츠 모드가 선택되면 콘텐츠를 로드하여 콘텐츠에 따른 발성을 유도하는 콘텐츠 발성 유도 안내 음성을 출력하는 발성 유도 단계를 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.
11. The method of claim 10,
In the speech induction process,
A content mode determination step of checking whether a content mode is selected by the control unit; And
And outputting a content utterance inducing voice to load the content and induce voice utterance according to the content when the content mode is selected.
제12항에 있어서,
상기 발성 유도 과정은,
상기 콘텐츠 모드 판단 단계 후 일반 스피커를 통해 오디오를 출력하는 일반 스피커 모드를 설정하는 일반 스피커 모드 설정 단계; 및
상기 발성 유도 단계 후 상기 일반 스피커 모드를 해제하고 상기 진동 스피커를 통해 오디오를 출력하는 진동 스피커 모드를 설정하는 진동 스피커 모드 설정 단계를 더 포함하되,
상기 일반 스피커 모드에서 상기 발성 유도 안내 음성을 상기 일반 스피커를 통해 출력하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.
13. The method of claim 12,
In the speech induction process,
Setting a general speaker mode for outputting audio through a general speaker after the content mode determination step; And
Further comprising a vibrating speaker mode setting step of setting the vibrating speaker mode to release the normal speaker mode and output audio through the vibrating speaker after the utterance induction step,
Wherein the voice guidance guidance voice is output through the general speaker in the general speaker mode.
제12항에 있어서,
상기 발성 유도 단계의 발성 유도에 의해 발성된 발음을 음성인식한 후, 상기 콘텐츠의 오디오의 발음과 비교하여 상기 발성된 발음의 정확도를 평가하는 평가 과정을 더 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.
13. The method of claim 12,
Further comprising the step of evaluating the accuracy of the uttered pronunciation by comparing the pronunciation of the uttered voice with the pronunciation of the uttered voice by voice induction in the utterance induction step, A method of pronunciation correction using a chair.
제12항에 있어서,
상기 발성 유도 단계의 발성 유도에 의해 발성된 발음을 주파수별로 특성을 분석한 후, 상기 콘텐츠의 오디오의 발음의 주파수별 특성들 각각과 비교하여 상기 발성된 발음의 정확도를 평가하는 평가 과정을 더 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.

13. The method of claim 12,
And evaluating the accuracy of the uttered pronunciation by analyzing the utterances uttered by the utterance induction in the utterance inducing step and analyzing the characteristics of each uttered utterance by frequencies and then comparing the uttered utterances with frequency characteristics of the pronunciation of the audio of the contents Wherein the speaker is attached to the speaker.

제10항에 있어서,
상기 발성 유도 과정은,
제어부가 교육자 모드가 선택되는지를 검사하는 교육자 모드 판단단계; 및
교육자 모드가 선택되면 교육자로부터 학습자가 발성해야할 발음을 포함하여 상기 발음의 발성을 유도하는 발성 유도 안내 음성을 출력하는 발성 유도 단계를 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.
11. The method of claim 10,
In the speech induction process,
An educator mode determination step of checking whether an educator mode is selected by the control unit; And
And a voicing inducing step of outputting a voicing inducing guidance voice for inducing voicing of the pronunciation including a pronunciation to be uttered by the learner from the educator when the educator mode is selected. .
제12항에 있어서,
상기 발성 유도 과정은,
상기 콘텐츠 모드 판단 단계 후 일반 스피커를 통해 오디오를 출력하는 일반 스피커 모드를 설정하는 일반 스피커 모드 설정 단계; 및
상기 발성 유도 단계 후 상기 일반 스피커 모드를 해제하고 상기 진동 스피커를 통해 오디오를 출력하는 진동 스피커 모드를 설정하는 진동 스피커 모드 설정 단계를 더 포함하되,
상기 제어부는 상기 일반 스피커 모드에서 상기 발음을 제외한 발성 유도 안내 음성을 출력하고,
상기 진동 스피커 모드에서 상기 발음을 출력하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.
13. The method of claim 12,
In the speech induction process,
Setting a general speaker mode for outputting audio through a general speaker after the content mode determination step; And
Further comprising a vibrating speaker mode setting step of setting the vibrating speaker mode to release the normal speaker mode and output audio through the vibrating speaker after the utterance induction step,
Wherein the control unit outputs a vocal guidance voice except for the pronunciation in the general speaker mode,
And the pronunciation is output in the vibration speaker mode.
제16항에 있어서,
상기 제어부가 상기 발음을 주파수별로 특성을 분석하여 주파수별로 시각화한 그래픽을 생성하여 표시부에 표시하는 발음 오디오 특성 시각화 과정을 더 포함하는 것을 특징으로 하는 진동 스피커가 부착된 의자를 이용한 발음 교정 방법.
17. The method of claim 16,
Further comprising the steps of: generating a graphic visualized on a frequency basis by analyzing the pronunciation of the sound by the controller, and displaying the generated graphic on a display unit.
KR1020130007271A 2013-01-23 2013-01-23 Apparatus and method for correcting pronunciation using chair with vibration speaker KR101413598B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130007271A KR101413598B1 (en) 2013-01-23 2013-01-23 Apparatus and method for correcting pronunciation using chair with vibration speaker

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130007271A KR101413598B1 (en) 2013-01-23 2013-01-23 Apparatus and method for correcting pronunciation using chair with vibration speaker

Publications (1)

Publication Number Publication Date
KR101413598B1 true KR101413598B1 (en) 2014-07-04

Family

ID=51740772

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130007271A KR101413598B1 (en) 2013-01-23 2013-01-23 Apparatus and method for correcting pronunciation using chair with vibration speaker

Country Status (1)

Country Link
KR (1) KR101413598B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066314A (en) 2017-12-05 2019-06-13 순천향대학교 산학협력단 Pronunciation and vocal practice device and method for deaf and dumb person
KR20190111305A (en) * 2018-03-22 2019-10-02 한국전자통신연구원 System and method for language learning for the deaf
KR20220115409A (en) * 2021-02-10 2022-08-17 임정택 Speech Training System For Hearing Impaired Person

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040026541A (en) * 2002-09-25 2004-03-31 엠엠기어 주식회사 The helmet-type speaker apparatus and the speaker system for chair using of it
JP2006133521A (en) 2004-11-05 2006-05-25 Kotoba No Kabe Wo Koete:Kk Language training machine
KR20090063566A (en) * 2007-12-14 2009-06-18 송옥기 A apparatus of game using speech recognition
KR100993694B1 (en) 2009-09-25 2010-11-10 이세현 Sympathized language learning apparatus with a vibration device for bodily sensation and method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040026541A (en) * 2002-09-25 2004-03-31 엠엠기어 주식회사 The helmet-type speaker apparatus and the speaker system for chair using of it
JP2006133521A (en) 2004-11-05 2006-05-25 Kotoba No Kabe Wo Koete:Kk Language training machine
KR20090063566A (en) * 2007-12-14 2009-06-18 송옥기 A apparatus of game using speech recognition
KR100993694B1 (en) 2009-09-25 2010-11-10 이세현 Sympathized language learning apparatus with a vibration device for bodily sensation and method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066314A (en) 2017-12-05 2019-06-13 순천향대학교 산학협력단 Pronunciation and vocal practice device and method for deaf and dumb person
KR20190111305A (en) * 2018-03-22 2019-10-02 한국전자통신연구원 System and method for language learning for the deaf
KR102479035B1 (en) 2018-03-22 2022-12-20 한국전자통신연구원 System and method for language learning for the deaf
KR20220115409A (en) * 2021-02-10 2022-08-17 임정택 Speech Training System For Hearing Impaired Person
KR102610871B1 (en) 2021-02-10 2023-12-05 임정택 Speech Training System For Hearing Impaired Person

Similar Documents

Publication Publication Date Title
Sadikovna COCHLEAR IMPLANTATION: AN INNOVATION IN THE DEVELOPMENT OF TECHNOLOGY, MEDICINE, DEAF PEDAGOGY AND SPEECH THERAPY
Sadikovna Objectives and tasks of cochlear implantation
Gfeller et al. Music therapy for preschool cochlear implant recipients
US20210375303A1 (en) Natural Ear
KR101413598B1 (en) Apparatus and method for correcting pronunciation using chair with vibration speaker
EP2924676A1 (en) Hearing-based adaptive training systems
Skuk et al. Parameter-specific morphing reveals contributions of timbre and fundamental frequency cues to the perception of voice gender and age in cochlear implant users
CN106572818B (en) Auditory system with user specific programming
de Vargas et al. Haptic speech communication using stimuli evocative of phoneme production
US20150305920A1 (en) Methods and system to reduce stuttering using vibration detection
US9773426B2 (en) Apparatus and method to facilitate singing intended notes
JP2008216735A (en) Reception robot and method of adapting to conversation for reception robot
Maté-Cid Vibrotactile perception of musical pitch
JP7299750B2 (en) Information processing device, information processing method and program
Plant et al. The use of tactile supplements in lipreading Swedish and English: A single-subject study
Zekveld et al. User evaluation of a communication system that automatically generates captions to improve telephone communication
JP6979300B2 (en) Vocalization / speech learning device and microphone
Gfeller Music therapy for children and adults who are deaf or hard of hearing
Leone et al. Children's perception of conversational and clear American-English vowels in noise
JP5960792B2 (en) Vocal sound practice aid
RU2342109C1 (en) Method of rehabilitation and development of hearing vocal function in patients with cochlear implants
RU2352998C2 (en) Training method of resonant singing and speaking using resonance metre
US12032807B1 (en) Assistive communication method and apparatus
坂尻正次 et al. Development of voice pitch control system using two dimensional tactile display for the deafblind or the hearing impaired persons
JP2024059525A (en) Hearing assistance device, hearing assistance system, and hearing assistance program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170623

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180612

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191224

Year of fee payment: 6