KR20180017905A - Pronunciation correction apparatus and pronunciationn data collection apparatus - Google Patents

Pronunciation correction apparatus and pronunciationn data collection apparatus Download PDF

Info

Publication number
KR20180017905A
KR20180017905A KR1020160102455A KR20160102455A KR20180017905A KR 20180017905 A KR20180017905 A KR 20180017905A KR 1020160102455 A KR1020160102455 A KR 1020160102455A KR 20160102455 A KR20160102455 A KR 20160102455A KR 20180017905 A KR20180017905 A KR 20180017905A
Authority
KR
South Korea
Prior art keywords
frame
user
data
air pressure
pronunciation
Prior art date
Application number
KR1020160102455A
Other languages
Korean (ko)
Inventor
박현미
Original Assignee
주식회사 메디스윙
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 메디스윙 filed Critical 주식회사 메디스윙
Priority to KR1020160102455A priority Critical patent/KR20180017905A/en
Publication of KR20180017905A publication Critical patent/KR20180017905A/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/0023Colour matching, recognition, analysis, mixture or the like
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/067Combinations of audio and projected visual presentation, e.g. film, slides
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a pronunciation correction apparatus and a pronunciation data collection apparatus, which can provide feedback data for accurate pronunciation correction by collecting various data affecting pronunciation. The pronunciation correction apparatus comprises: a support member; an image photographing unit disposed in the front surface of the support member to acquire the user′s mouth image; at least one between a first pneumatic sensor disposed in the front surface of the support member to collect first pneumatic data generated from a user′s mouth and a second pneumatic sensor disposed in the upper surface of the support member to collect second pneumatic data generated from a user′s nose; and a pronunciation analysis unit comparing at least one between the first pneumatic data and the second pneumatic data with predetermined standard pneumatic data and comparing the user′s mouth image with predetermined standard image data to generate feedback data for user′s pronunciation correction.

Description

발음 교정 장치 및 발음 데이터 수집 장치{PRONUNCIATION CORRECTION APPARATUS AND PRONUNCIATIONN DATA COLLECTION APPARATUS}[0001] PRONUNCIATION CORRECTION APPARATUS AND PRONUNCIATION DATA COLLECTION APPARATUS [0002]

본 발명은 발음 교정 장치 및 발음 데이터 수집 장치에 관한 것이다.The present invention relates to a pronunciation correction apparatus and a pronunciation data collection apparatus.

최근 국제화 추세에 따라 외국어 학습에 대한 관심이 증대되고 있다. 일반적으로 외국어의 정확한 발음을 구사하기 위한 외국어 발음 교정은 외국인 강사와의 일대일 지도에 의해 이루어질 수 있지만 많은 비용이 소요되며, 정해진 시간에 교육이 이루어지기 때문에 시간적 제약이 따른다.Recently, interest in foreign language learning has been increasing with the trend of internationalization. Generally speaking, pronunciation of a foreign language to correct pronunciation of a foreign language can be done by a one-to-one instruction with a foreign lecturer, but it takes a lot of time and time constraints because education is done at a fixed time.

이에 따라, 발음 교정을 위한 다양한 어학용 프로그램이 보급되고 있다.Accordingly, a variety of language programs for pronunciation correction are popular.

그러나, 발음은 발성 기관, 발성 위치 등 여러 가지 요인에 따라 달라지기 때문에 이러한 여러 가지 요인들을 동시에 파악하여 교정하는데는 한계가 있다.However, since pronunciation varies depending on various factors such as vocal organs and utterance positions, there is a limit to simultaneous recognition and correction of these various factors.

본 발명의 목적은 발음에 영향을 미칠 수 있는 다양한 데이터를 수집하여 보다 정확한 발음 교정을 위한 피드백을 제공하는 것이다.An object of the present invention is to collect various data that may affect pronunciation and provide feedback for more accurate pronunciation correction.

본 발명이 해결하고자 하는 과제는 이상에서 언급된 과제로 제한되지 않는다. 언급되지 않은 다른 기술적 과제들은 이하의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems. Other technical subjects not mentioned will be apparent to those skilled in the art from the description below.

본 발명의 일 실시예에 따른 발음 교정 장치는 지지부재; 사용자의 구강부의 영상을 획득하기 위해 상기 지지부재의 전면부에 배치되는 영상 촬영부; 상기 지지부재의 전면부에 배치되어 상기 사용자의 입에서 발생되는 제1 공기압 데이터를 수집하는 제1 공기압 센서 및 상기 지지부재의 상면부에 배치되어 상기 사용자의 코에서 발생되는 제2 공기압 데이터를 수집하는 제2 공기압 센서 중의 적어도 하나; 및 상기 제1 공기압 데이터 및 상기 제2 공기압 데이터 중 적어도 하나를 기설정된 표준 공기압 데이터와 비교하고, 상기 구강부의 영상을 기설정된 표준 영상 데이터와 비교하여 상기 사용자의 발음 교정을 위한 피드백 데이터를 생성하는 발음 분석부를 포함할 수 있다.According to another aspect of the present invention, there is provided a pronunciation correction apparatus comprising: a support member; An image capturing unit disposed on a front surface of the support member for acquiring an image of a user's mouth; A first air pressure sensor disposed at a front portion of the support member for collecting first air pressure data generated at the mouth of the user and a second air pressure sensor disposed at an upper surface portion of the support member for collecting second air pressure data generated in the nose of the user, At least one of the first air pressure sensor and the second air pressure sensor; And comparing at least one of the first air pressure data and the second air pressure data with predetermined standard air pressure data and comparing the image of the mouth part with predetermined standard image data to generate feedback data for the user's pronunciation correction And a pronunciation analysis unit.

일 실시예에 있어서, 상기 발음 분석부는, 상기 영상을 분석하여 상기 영상에서 상기 사용자의 입과 혀의 위치를 결정하는 영상 분석부를 더 포함할 수 있다.In one embodiment, the pronunciation analyzing unit may further include an image analyzing unit that analyzes the image and determines a position of the user's mouth and tongue in the image.

일 실시예에 있어서, 상기 지지부재에 설치되어 상기 사용자의 음성 데이터를 수집하는 음성 인식부;를 더 포함하고, 상기 발음 분석부는 상기 음성 데이터와 기설정된 표준 음성 데이터를 비교하여 상기 사용자의 발음 교정을 위한 피드백 데이터를 생성할 수 있다.In one embodiment, the speech analyzing apparatus further includes a voice recognition unit installed on the support member and collecting voice data of the user, wherein the voice analysis unit compares the voice data with predetermined standard voice data, Lt; / RTI >

일 실시예에 있어서, 상기 사용자의 목에 장착되도록 구성되어 상기 사용자의 목에서 발생되는 근전도 데이터를 수집하는 근전도 측정부를 포함하고, 상기 발음 분석부는 상기 근전도 데이터와 기설정된 표준 근전도 데이터를 비교하여 상기 사용자의 발음 교정을 위한 피드백 데이터를 생성할 수 있다.In one embodiment, the apparatus includes an electromyogram measuring unit configured to be mounted on the user's neck and collecting electromyogram data generated from the user's neck, wherein the pronunciation analyzing unit compares the electromyogram data with predetermined standard electromyogram data, It is possible to generate feedback data for user's pronunciation correction.

일 실시예에 있어서, 상기 근전도 측정부는, 상기 지지부재의 하부에 배치되어 상기 사용자의 목의 적어도 일부를 감싸도록 배치되는 프레임; 및 상기 프레임과 상기 사용자의 목이 접촉되는 상기 프레임의 내주면에 배치되는 근전도 센서를 포함할 수 있다.In one embodiment, the EMG measuring unit includes a frame disposed at a lower portion of the supporting member and arranged to surround at least a part of the neck of the user; And an electromyogram sensor disposed on an inner circumferential surface of the frame in contact with the neck of the user and the frame.

일 실시예에 있어서, 상기 프레임은, 제1 프레임; 상기 제1 프레임과 대향되게 배치되는 제2 프레임; 및 상기 제1 프레임과 상기 제2 프레임의 일단이 연결되고, 상기 제1 프레임과 상기 제2 프레임을 이동시키는 이동 부재를 포함할 수 있다.In one embodiment, the frame comprises: a first frame; A second frame disposed opposite the first frame; And a moving member connected to one end of the first frame and the second frame and configured to move the first frame and the second frame.

일 실시예에 있어서, 상기 프레임은, 상기 사용자의 위치를 감지하는 센서부를 더 포함하고, 상기 이동 부재는 상기 센서부에 의해 상기 사용자의 목이 감지되는 경우, 상기 제1 프레임과 상기 제2 프레임이 상기 사용자의 목에 접촉되도록 상기 제1 프레임과 상기 제2 프레임을 이동시킬 수 있다.In one embodiment, the frame may further include a sensor unit for sensing a position of the user, wherein when the user's neck is detected by the sensor unit, the first frame and the second frame The first frame and the second frame may be moved to contact the neck of the user.

일 실시예에 있어서, 상기 피드백 데이터를 출력하는 출력부를 더 포함할 수 있다.In one embodiment, the apparatus may further include an output unit outputting the feedback data.

일 실시예에 있어서, 상기 출력부는, 상기 피드백 데이터를 소리로 출력하는 음향 발생부 또는 상기 피드백 데이터를 화면에 표시하는 표시부를 포함할 수 있다.In one embodiment, the output unit may include a sound generator for outputting the feedback data by sound or a display unit for displaying the feedback data on a screen.

본 발명의 일 실시예에 따른 발음 데이터 수집 장치는 지지부재; 사용자의 구강부의 영상을 획득하기 위해 상기 지지부재의 전면부에 배치되는 영상 촬영부; 상기 지지부재의 전면부에 배치되어 상기 사용자의 입에서 발생되는 제1 공기압 데이터를 수집하는 제1 공기압 센서 및 상기 지지부재의 상면부에 배치되어 상기 사용자의 코에서 발생되는 제2 공기압 데이터를 수집하는 제2 공기압 센서 중의 적어도 하나를 포함할 수 있다.A pronunciation data collection device according to an embodiment of the present invention includes a support member; An image capturing unit disposed on a front surface of the support member for acquiring an image of a user's mouth; A first air pressure sensor disposed at a front portion of the support member for collecting first air pressure data generated at the mouth of the user and a second air pressure sensor disposed at an upper surface portion of the support member for collecting second air pressure data generated in the nose of the user, And a second air pressure sensor for detecting the second air pressure.

일 실시예에 있어서, 상기 지지부재에 설치되어 상기 사용자의 음성 데이터를 수집하는 음성 인식부;를 더 포함할 수 있다.In one embodiment, the apparatus may further include a voice recognition unit installed on the support member and collecting voice data of the user.

일 실시예에 있어서, 상기 지지부재의 하부에 배치되어 상기 사용자의 목의 적어도 일부를 감싸도록 배치되는 프레임; 및 상기 프레임과 상기 사용자의 목이 접촉되는 상기 프레임의 내주면에 배치되는 근전도 센서를 더 포함할 수 있다.In one embodiment, a frame disposed at a lower portion of the support member and disposed to surround at least a portion of the neck of the user; And an EMG sensor disposed on an inner circumferential surface of the frame in contact with the user's neck.

일 실시예에 있어서, 상기 프레임은, 제1 프레임; 상기 제1 프레임과 대향되게 배치되는 제2 프레임; 및 상기 제1 프레임과 상기 제2 프레임의 일단이 연결되고, 상기 제1 프레임과 상기 제2 프레임을 이동시키는 이동 부재를 포함할 수 있다.In one embodiment, the frame comprises: a first frame; A second frame disposed opposite the first frame; And a moving member connected to one end of the first frame and the second frame and configured to move the first frame and the second frame.

일 실시예에 있어서, 상기 프레임은, 상기 사용자의 위치를 감지하는 센서부를 더 포함하고, 상기 이동 부재는 상기 센서부에 의해 상기 사용자의 목이 감지되는 경우, 상기 제1 프레임과 상기 제2 프레임이 상기 사용자의 목에 접촉되도록 상기 제1 프레임과 상기 제2 프레임을 이동시킬 수 있다.In one embodiment, the frame may further include a sensor unit for sensing a position of the user, wherein when the user's neck is detected by the sensor unit, the first frame and the second frame The first frame and the second frame may be moved to contact the neck of the user.

본 발명의 일 실시예에 따르면, 발음에 영향을 미칠 수 있는 다양한 데이터를 수집하여 보다 정확한 발음 교정을 위한 피드백을 제공할 수 있다.According to an embodiment of the present invention, various data that may affect pronunciation may be collected to provide feedback for more accurate pronunciation correction.

본 발명의 효과는 상술한 효과들로 제한되지 않는다. 언급되지 않은 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects described above. Unless stated, the effects will be apparent to those skilled in the art from the description and the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 발음 교정 장치(1)를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 지지부재(100)의 정면도이다.
도 3은 본 발명의 일 실시예에 따른 발음 교정 장치(1)를 나타내는 블록도이다.
도 4는 본 발명의 일 실시예에 따른 발음 데이터 수집 장치(1000)를 나타내는 사시도이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 근전도 측정부의 동작 과정을 나타내는 도면이다.
1 is a diagram for explaining a pronunciation correcting apparatus 1 according to an embodiment of the present invention.
2 is a front view of a support member 100 according to an embodiment of the present invention.
3 is a block diagram showing a pronunciation correcting apparatus 1 according to an embodiment of the present invention.
4 is a perspective view showing a pronunciation data collection apparatus 1000 according to an embodiment of the present invention.
5 and 6 are diagrams illustrating an operation process of the electromyography measuring unit according to an embodiment of the present invention.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미가 있다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. Although not defined, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by the generic art in the prior art to which this invention belongs. Terms defined by generic dictionaries may be interpreted to have the same meaning as in the related art and / or in the text of this application, and may be conceptualized or overly formalized, even if not expressly defined herein I will not. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 또한 '구비한다', '갖는다' 등도 이와 동일하게 해석되어야 한다. 또한, 본 명세서에서 사용된 "제 1," "제 2," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않으며, 반드시 다른 구성요소를 의미하는 것은 아니다.In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms' comprise 'and / or various forms of use of the verb include, for example,' including, '' including, '' including, '' including, Steps, operations, and / or elements do not preclude the presence or addition of one or more other compositions, components, components, steps, operations, and / or components. Also, 'equipped' and 'possessed' should be interpreted in the same way. It is also to be understood that the expressions " first, "" second, ", etc. used herein may be used to denote various components, regardless of their order and / or importance, and to distinguish one component from another The present invention is not limited to these components and does not necessarily mean other components.

본 발명은 발음 교정 장치 및 발음 데이터 수집 장치에 관한 것이다. 본 발명의 일 실시예에 따른 발음 교정 장치는 지지부재, 사용자의 구강부의 영상을 획득하기 위해 지지부재의 전면부에 배치되는 영상 촬영부, 지지부재의 전면부에 배치되어 사용자의 입에서 발생되는 제1 공기압 데이터를 수집하는 제1 공기압 센서 및 지지부재의 상면부에 배치되어 사용자의 코에서 발생되는 제2 공기압 데이터를 수집하는 제2 공기압 센서 중의 적어도 하나 및 제1 공기압 데이터 및 제2 공기압 데이터 중 적어도 하나를 기설정된 표준 공기압 데이터와 비교하고, 구강부의 영상을 기설정된 표준 영상 데이터와 비교하여 상기 사용자의 발음 교정을 위한 피드백 데이터를 생성하는 발음 분석부를 포함할 수 있다. 이와 같이 발음에 영향을 미칠 수 있는 다양한 데이터를 수집하고 이를 표준 데이터와 비교 분석함으로써, 사용자 발음의 문제점을 보다 구체적으로 파악할 수 있어 정확한 발음을 구사하기 위한 구체적인 피드백을 제공해 줄 수 있다.The present invention relates to a pronunciation correction apparatus and a pronunciation data collection apparatus. A pronunciation correcting apparatus according to an embodiment of the present invention includes a support member, an image capturing unit disposed at a front portion of a support member to acquire an image of a user's mouth, At least one of a first air pressure sensor for collecting the first air pressure data and a second air pressure sensor for collecting the second air pressure data generated at the user's nose and disposed at the upper face portion of the support member and at least one of the first air pressure data and the second air pressure data And a pronunciation analyzing unit comparing the image of the oral cavity with predetermined standard image data to generate feedback data for correcting the pronunciation of the user. Thus, by collecting various data that may affect pronunciation and comparing the analyzed data with the standard data, it is possible to more specifically grasp the problem of user pronunciation and provide specific feedback for correct pronunciation.

도 1은 본 발명의 일 실시예에 따른 발음 교정 장치(1)를 설명하기 위한 도면이다.1 is a diagram for explaining a pronunciation correcting apparatus 1 according to an embodiment of the present invention.

도 1에 나타난 바와 같이, 본 발명의 일 실시예에 따른 발음 교정 장치(1)는 지지부재(100), 근전도 측정부(200), 발음 분석부(300) 그리고, 출력부로서 표시부(510) 및 음향 발생부(520)을 포함할 수 있다.1, the pronunciation correcting apparatus 1 according to an embodiment of the present invention includes a support member 100, an electromyography measuring unit 200, a pronunciation analyzing unit 300, a display unit 510 as an output unit, And an audio generating unit 520. [

지지부재(100)는 제1 공기압 센서(110), 제2 공기압 센서(120), 영상 촬영부(130), 음성 인식부(150)를 포함할 수 있다. 일 실시예로서, 상기 제1 공기압 센서(110)는 지지부재(100)의 전면부에 배치되어 사용자의 입에서 발생되는 공기압 데이터를 수집할 수 있다. 상기 제2 공기압 센서(120)는 지지부재(100)의 상면부(20)에 배치되어 사용자(A)의 코에서 발생되는 공기압 데이터를 수집할 수 있다. 상기 영상 촬영부(130)는 상기 지지부재의 전면부에 배치되어 사용자의 발화에 따른 구강부의 영상을 획득할 수 있다. 상기 음성 인식부(150)는 지지부재에 설치되어 사용자의 음성 데이터를 수집할 수 있다.The support member 100 may include a first air pressure sensor 110, a second air pressure sensor 120, an image capturing unit 130, and a voice recognition unit 150. In one embodiment, the first air pressure sensor 110 may be disposed on the front surface of the support member 100 to collect air pressure data generated from a user's mouth. The second air pressure sensor 120 may be disposed on the upper surface portion 20 of the support member 100 to collect air pressure data generated by the nose of the user A. The image capturing unit 130 may be disposed on the front surface of the support member to acquire an image of the oral cavity according to a user's ignition. The voice recognition unit 150 may be installed on a support member to collect voice data of a user.

근전도 측정부(200)는 지지 부재의 하부에 배치되고, 사용자(A)의 목에 장착되도록 구성되어 사용자의 목에서 발생되는 근전도 데이터를 수집할 수 있다. 일 실시예로서, 근전도 측정부(200)는 지지부재(100)의 하부에 배치되어 사용자(A)의 목의 적어도 일부를 감싸도록 배치되는 프레임(210), 프레임(210)과 사용자(A)의 목이 접촉되는 프레임(210)의 내주면에 배치되는 근전도 센서(220)을 포함할 수 있다. 예로서, 근전도 센서(220)는 사용자 목에 접촉되어 사용자(A)의 발화에 따른 근전도 데이터를 수집할 수 있다. 근전도 센서(220)는 사용자의 발화에 따른 근육의 움직임에 따른 미세한 전기 신호를 감지하여 근전도 데이터를 수집할 수 있다.The EMG measuring unit 200 is disposed at the lower portion of the supporting member and is configured to be mounted on the neck of the user A to collect EMG data generated from the user's neck. The EMG measuring unit 200 includes a frame 210 disposed at a lower portion of the supporting member 100 and arranged to surround at least a part of the neck of the user A, a frame 210 and a user A, And an electromyogram sensor 220 disposed on the inner circumferential surface of the frame 210 to which the neck of the subject is contacted. By way of example, the electromyogram sensor 220 may contact the user's neck and collect EMG data according to the utterance of the user A. The electromyogram sensor 220 senses a minute electrical signal according to the movement of the muscles according to the user's utterance, and collects EMG data.

발음 분석부(300)는 상기 영상, 공기압 데이터, 음성 데이터 및 근전도 데이터 중 적어도 하나를 포함하는 사용자의 발음 데이터와 각 발음 데이터에 대응되는 기설정된 표준 데이터를 비교하여 사용자의 발음 교정을 위한 피드백 데이터를 생성할 수 있다.The pronunciation analyzing unit 300 compares the pronunciation data of the user including at least one of the image, the air pressure data, the voice data, and the EMG data with predetermined standard data corresponding to each pronunciation data, Lt; / RTI >

출력부는 피드백 데이터를 사용자에게 제공할 수 있다. 일 실시예로서, 피드백 데이터를 소리로 출력하는 음향 발생부(510) 또는 피드백 데이터를 화면에 표시하는 표시부(520)를 포함할 수 있다.The output unit may provide feedback data to the user. In one embodiment, the apparatus may include an audio generation unit 510 for outputting feedback data by sound or a display unit 520 for displaying feedback data on a screen.

일 실시예로서, 음향 발생부(510)는 헤드셋, 이어폰, 스피커, 리시버 등을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 표시부(520)는 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있으나, 이에 한정되지 않는다.In one embodiment, the sound generator 510 may include, but is not limited to, a headset, an earphone, a speaker, a receiver, and the like. In addition, the display portion 520 may be a liquid crystal display (LCD), a light-emitting diode (LED) display, an organic light-emitting diode (OLED) but are not limited to, microelectromechanical systems (MEMS) displays, or electronic paper displays.

도 2는 본 발명의 일 실시예에 따른 지지부재(100)의 정면도이다.2 is a front view of a support member 100 according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 제1 공기압 센서(110), 영상 촬영부(130), 음성 인식부(150)는 사용자의 구강부로부터 발음 데이터를 수집하므로 사용자의 구강부에 대향되도록 지지부재(100)의 정면부에 배치될 수 있다. 일 실시예로서, 제1 공기압 센서(110), 영상 촬영부(130) 및 음성 인식부(150)는 지지부재(100)의 정면부의 동일선상에 배치될 수 있으나, 이에 한정되지 않는다. 제2 공기압 센서(120)는 지지부재(100)의 상면부에 배치되고, 지지부재(100)의 정면부에 가까운 일측에 설치될 수 있다.2, the first air pressure sensor 110, the image capturing unit 130, and the voice recognizing unit 150 collect pronunciation data from the mouth portion of the user, so that the support member 100, respectively. The first air pressure sensor 110, the image capturing unit 130, and the voice recognition unit 150 may be disposed on the same line as the front surface of the support member 100, but the present invention is not limited thereto. The second air pressure sensor 120 is disposed on the upper surface of the support member 100 and may be installed on a side near the front surface of the support member 100.

일 실시예에 있어서, 상기 제1 공기압 센서 및 제2 공기압 센서는 사용자의 입과 코에서 발생되는 공기에 따라 압력이 감지되는 경우 전기 신호를 생성하는 압전 센서일 수 있다. 또한, 제1 공기압 센서 및 제2 공기압 센서는 진동막을 포함하여 공기의 압력에 따른 진동막의 진동을 감지하는 진동 센서일 수 있으나, 이에 한정되지 않는다.In one embodiment, the first and second air pressure sensors may be piezoelectric sensors that generate an electrical signal when pressure is sensed according to air generated in a user's mouth and nose. The first air pressure sensor and the second air pressure sensor may be a vibration sensor including a diaphragm to sense the vibration of the diaphragm according to the pressure of the air, but the present invention is not limited thereto.

일 실시예에 있어서, 상기 영상 촬영부는 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다. 예로서, 음성 인식부는 소리를 전기 신호로 변환하는 마이크일 수 있으나, 이에 한정되지 않는다.In one embodiment, the image capturing unit is a device capable of capturing a still image and a moving image, and includes at least one image sensor (e.g., a front sensor or a rear sensor), a lens, an image signal processor (ISP) E.g., an LED or xenon lamp, etc.). For example, the speech recognition unit may be a microphone for converting sound into an electric signal, but is not limited thereto.

도 3은 본 발명의 일 실시예에 따른 발음 교정 장치(1)를 나타내는 블록도이다.3 is a block diagram showing a pronunciation correcting apparatus 1 according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 발음 교정 창치(1)는 발음 데이터 수집 장치(1000), 발음 분석부(300), 출력부(500)를 포함할 수 있다.3, the pronunciation correction apparatus 1 according to an embodiment of the present invention may include a pronunciation data collection apparatus 1000, a pronunciation analysis unit 300, and an output unit 500.

발음 데이터 수집 장치(1000)는 제1 공기압 센서(110), 제2 공기압 센서(120), 영상 촬영부(130), 음성 인식부(150), 근전도 센서(220)를 포함할 수 있다. 일 실시예로서, 제1 공기압 센서(110)는 사용자의 입에서 발생되는 제1 공기압 데이터를 수집할 수 있다. 제2 공기압 센서(120)는 사용자의 코에서 발생되는 제2 공기압 데이터를 수집할 수 있다. 영상 촬영부(130)는 사용자의 발화에 따른 구강부의 영상을 획득할 수 있다. 음성 인식부(150)는 사용자의 음성 데이터를 수집할 수 있다. 근전도 센서(220)는 사용자 사용자의 발화에 따라 사용자의 목에서 발생되는 근전도 데이터를 수집할 수 있다.The pronunciation data collection apparatus 1000 may include a first air pressure sensor 110, a second air pressure sensor 120, an image capturing unit 130, a voice recognition unit 150, and an EMG sensor 220. In one embodiment, the first air pressure sensor 110 may collect first air pressure data generated at the mouth of the user. The second air pressure sensor 120 may collect second air pressure data generated from the user's nose. The image capturing unit 130 can acquire an image of the mouth part according to the user's utterance. The voice recognition unit 150 may collect voice data of the user. The electromyogram sensor 220 may collect the electromyogram data generated from the user's neck according to the user's utterance.

발음 분석부(300)는 비교부(310), 표준 데이터(320), 피드백 데이터 생성부(330)을 포함할 수 있다.The pronunciation analysis unit 300 may include a comparison unit 310, standard data 320, and a feedback data generation unit 330.

일 실시예로서, 비교부(310)는 제1 공기압 센서(110), 제2 공기압 센서(120), 영상 촬영부(130), 음성 인식부(150) 및 근전도 센서(220) 중 적어도 하나에 의해 수집된 발음 데이터를 각 발음 데이터의 종류별로 기설정된 표준 데이터(320)와 비교할 수 있다. The comparison unit 310 may compare at least one of the first air pressure sensor 110, the second air pressure sensor 120, the image capturing unit 130, the voice recognition unit 150 and the EMG sensor 220 Can compare the pronunciation data collected by the user with the preset standard data 320 for each kind of pronunciation data.

일 실시예로서, 발음 데이터가 제1 공기압 센서(110)로부터 수집된 제1 공기압 데이터인 경우, 표준 발음에 따라 기설정된 표준 공기압 데이터와 비교할 수 있다. In one embodiment, when the pronunciation data is the first air pressure data collected from the first air pressure sensor 110, it can be compared with standard air pressure data predetermined according to standard pronunciation.

다른 실시예로서, 발음 데이터가 영상 촬영부(130)에 의해 수집된 영상인 경우, 표준 발음에 따라 기설정된 영상과 비교할 수 있다. 이 경우, 발음 분석부(300)는 영상에서 사용자의 입과 혀의 위치를 결정하는 영상 분석부를 더 포함할 수 있다.In another embodiment, when the pronunciation data is the image collected by the image capturing unit 130, the pronunciation data may be compared with the preset image according to the standard pronunciation. In this case, the pronunciation analyzing unit 300 may further include an image analyzing unit for determining a position of a user's mouth and tongue in the image.

또 다른 실시예로서, 비교부(310)는 사용자의 발음 데이터를 복수의 구간으로 분류하고, 분류된 복수의 구간 중 사용자의 발음 데이터가 기설정된 오차 범위를 초과하는 구간을 추출하는 교정 구간 추출부를 더 포함할 수 있다. 이에 따라, 사용자에게 사용자의 발음 중 교정이 필요한 구간에 대해서만 피드백 데이터를 제공할 수 있어 보다 효율적으로 발음 교정을 위한 피드백 데이터를 제공할 수 있다.As another example, the comparison unit 310 may classify the pronunciation data of the user into a plurality of sections, and may include a calibration section extraction section that extracts sections of the plurality of classified sections whose user's pronunciation data exceeds a predetermined error range . Accordingly, it is possible to provide the user with feedback data only for a section requiring correction of the user's pronunciation, thereby providing feedback data for pronunciation correction more efficiently.

피드백 데이터 생성부(320)는 비교부(310)에서 비교 분석된 결과를 이용하여 사용자에게 발음 교정을 위한 피드백 데이터를 생성할 수 있다. 일 실시예로서, 피드백 데이터는 발음 데이터의 종류 별로 생성할 수 있다. 예로서, 수집된 발음 데이터가 제1 공기압 데이터와 구강부의 영상인 경우, 각각 표준 공기압 데이터와 표준 영상 데이터를 비교한 데이터일 수 있다. 다른 실시예로서, 피드백 데이터는 임의의 발음 데이터가 기설정된 표준 데이터에 대해 기설정된 오차 범위를 초과하는 경우, 상기 임의의 발음을 강조하는 데이터를 포함할 수 있다.The feedback data generation unit 320 may generate feedback data for pronunciation correction to the user using the result of the comparison and analysis in the comparison unit 310. [ In one embodiment, feedback data may be generated for each type of pronunciation data. For example, when the collected pronunciation data is the first air pressure data and the mouth portion image, the data may be data obtained by comparing standard air pressure data and standard image data, respectively. In another embodiment, the feedback data may include data that emphasizes the certain pronunciation if any pronunciation data exceeds a predetermined error range for predetermined standard data.

출력부(500)는 발음 분석부(300)에서 생성된 피드백 데이터를 사용자에게 제공하기 위해, 피드백 데이터를 화면에 표시하는 표시부(510) 또는 소리로 출력하는 음향 발생부(520)를 통해 출력할 수 있다.The output unit 500 outputs the feedback data generated by the sound analysis unit 300 to the user through the display unit 510 for displaying the feedback data on the screen or the sound generator 520 for outputting sound data .

도 4는 본 발명의 일 실시예에 따른 발음 데이터 수집 장치(1000)를 나타내는 사시도이다.4 is a perspective view showing a pronunciation data collection apparatus 1000 according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 발음 데이터 수집 장치(1000)는 지지부재(100), 지지부재(100)에 배치되는 제1 공기압 센서(110), 제2 공기압 센서(120), 영상 촬영부(130), 음성 인식부(150), 그리고, 지지부재(100)의 하부에 배치되는 제1 프레임(211), 제2 프레임(212) 및 이동 부재(230)을 포함할 수 있다.4, the pronunciation data collecting apparatus 1000 according to an embodiment of the present invention includes a support member 100, a first air pressure sensor 110 disposed on the support member 100, The first frame 211, the second frame 212, and the moving member 230, which are disposed under the supporting member 100, .

지지부재(100) 및 지지부재(100)에 배치된 제1 공기압 센서(110), 제2 공기압 센서(120), 영상 촬영부(130), 음성 인식부(150)에 대한 설명은 도 1 및 도 2의 해당 부분에서 전술한 내용과 중복되므로 생략한다.Description of the first air pressure sensor 110, the second air pressure sensor 120, the image pickup unit 130 and the voice recognition unit 150 arranged in the support member 100 and the support member 100 will be described with reference to FIGS. It will be omitted because it overlaps with the above description in the corresponding part of FIG.

도 4에 나타난 바와 같이, 본 발명의 일 실시 예에 따른 발음 데이터 수집 장치(1000)는 지지부재(100)의 하부에 배치되어 사용자 목의 근전도를 측정하는 근전도 측정부로서, 사용자의 목의 적어도 일부를 감싸도록 배치되는 프레임 및 상기 프레임과 사용자의 목이 접촉되는 프레임의 내주면에 배치되는 근전도 센서(220)를 포함할 수 있다. 4, the pronunciation data collection apparatus 1000 according to an embodiment of the present invention includes an electromyogram measuring unit disposed at a lower portion of the support member 100 to measure an electromyogram of a user's neck, And an electromyogram sensor 220 disposed on an inner circumferential surface of the frame where the user's neck is in contact with the frame.

일 실시예로서, 상기 프레임은 제1 프레임(211), 제1 프레임(211)과 대향되게 배치되는 제2 프레임(212), 그리고, 제1 프레임(211)과 제2 프레임(212)의 일단이 연결되고, 제1 프레임(211)과 제2 프레임(212)을 이동시키는 이동 부재(230)를 포함할 수 있다. 예로서, 제1 프레임(211) 및 제2 프레임(212)은 각각 사용자의 목을 감싸도록 홈부(215)를 포함할 수 있고, 홈부의 내주면에 근전도 센서(220)가 장착될 수 있다.In one embodiment, the frame includes a first frame 211, a second frame 212 disposed opposite to the first frame 211, and a second frame 212 disposed between the first frame 211 and the second frame 212 And a moving member 230 for moving the first frame 211 and the second frame 212. For example, the first frame 211 and the second frame 212 may each include a groove 215 to surround a user's neck, and an electromyogram sensor 220 may be mounted on an inner circumferential surface of the groove.

도 5 및 도 6은 본 발명의 일 실시예에 따른 근전도 측정부의 동작 과정을 나타내는 도면이다.5 and 6 are diagrams illustrating an operation process of the electromyography measuring unit according to an embodiment of the present invention.

도 5는 근전도 측정부(200)가 사용자(A)의 목에 장착되기 전의 구조를 나타낸 도면이고, 도 6은 근전도 측정부(200)가 사용자(A)의 목에 장착된 후의 구조를 나타낸 도면이다.5 is a diagram showing the structure of the user A before being mounted on the neck of the user A and Fig. 6 is a view showing the structure after the electromyogram measuring unit 200 is mounted on the neck of the user A to be.

도 5 및 도 6에 도시된 바와 같이, 제1 프레임(211) 및 제2 프레임(212) 중 적어도 하나는 사용자의 목의 위치를 감지하는 센서부(250)를 더 포함할 수 있다. 예로서, 센서부(250)는 초음파 센서를 포함할 수 있다. 일 실시예로서, 센서부(250)는 사용자의 목이 위치하는 제1 프레임(211) 또는 제2 프레임(212)의 홈부(215)에 배치될 수 있다. 센서부(250)에 의해 사용자(A)의 목이 감지되는 경우,도 6에 도시된 바와 같이, 이동 부재(230)는 제1 프레임(211)과 상기 제2 프레임(212)이 상기 사용자의 목에 접촉되도록 상기 제1 프레임(211)과 상기 제2 프레임(212)을 이동시킬 수 있다.As shown in FIGS. 5 and 6, at least one of the first frame 211 and the second frame 212 may further include a sensor unit 250 for sensing the position of the user's neck. As an example, the sensor unit 250 may include an ultrasonic sensor. In one embodiment, the sensor unit 250 may be disposed in the groove 215 of the first frame 211 or the second frame 212 where the user's neck is located. 6, when the neck of the user A is sensed by the sensor unit 250, the moving member 230 moves the first frame 211 and the second frame 212 to the neck of the user A, The first frame 211 and the second frame 212 can be moved so as to be in contact with each other.

이상의 실시 예들은 본 발명의 이해를 돕기 위하여 제시된 것으로, 본 발명의 범위를 제한하지 않으며, 이로부터 다양한 변형 가능한 실시 예들도 본 발명의 범위에 속하는 것임을 이해하여야 한다. 본 발명의 기술적 보호범위는 특허청구범위의 기술적 사상에 의해 정해져야 할 것이며, 본 발명의 기술적 보호범위는 특허청구범위의 문언적 기재 그 자체로 한정되는 것이 아니라 실질적으로는 기술적 가치가 균등한 범주의 발명에 대하여까지 미치는 것임을 이해하여야 한다.It is to be understood that the above-described embodiments are provided to facilitate understanding of the present invention, and do not limit the scope of the present invention, and it is to be understood that various modifications are possible within the scope of the present invention. It is to be understood that the technical scope of the present invention should be determined by the technical idea of the claims and the technical scope of protection of the present invention is not limited to the literary description of the claims, To the invention of the invention.

1: 발음 교정 장치
100: 지지부재
110: 제1 공기압 센서
120: 제2 공기압 센서
130: 영상 촬영부
150: 음성 인식부
200: 근전도 측정부
220: 근전도 센서
300: 발음 분석부
500: 출력부
1: Pronunciation device
100: Support member
110: first air pressure sensor
120: Second air pressure sensor
130:
150:
200: EMG measuring unit
220: EMG sensor
300: pronunciation analysis section
500: Output section

Claims (14)

지지부재;
사용자의 구강부의 영상을 획득하기 위해 상기 지지부재의 전면부에 배치되는 영상 촬영부;
상기 지지부재의 전면부에 배치되어 상기 사용자의 입에서 발생되는 제1 공기압 데이터를 수집하는 제1 공기압 센서 및 상기 지지부재의 상면부에 배치되어 상기 사용자의 코에서 발생되는 제2 공기압 데이터를 수집하는 제2 공기압 센서 중의 적어도 하나; 그리고
상기 제1 공기압 데이터 및 상기 제2 공기압 데이터 중 적어도 하나를 기설정된 표준 공기압 데이터와 비교하고, 상기 구강부의 영상을 기설정된 표준 영상 데이터와 비교하여 상기 사용자의 발음 교정을 위한 피드백 데이터를 생성하는 발음 분석부를 포함하는 발음 교정 장치.
A support member;
An image capturing unit disposed on a front surface of the support member for acquiring an image of a user's mouth;
A first air pressure sensor disposed at a front portion of the support member for collecting first air pressure data generated at the mouth of the user and a second air pressure sensor disposed at an upper surface portion of the support member for collecting second air pressure data generated in the nose of the user, At least one of the first air pressure sensor and the second air pressure sensor; And
Wherein at least one of the first air pressure data and the second air pressure data is compared with predetermined standard air pressure data and the image of the mouth part is compared with predetermined standard image data to generate feedback data for correcting the pronunciation of the user A pronunciation correcting device including an analyzing part.
제1 항에 있어서,
상기 발음 분석부는,
상기 영상을 분석하여 상기 영상에서 상기 사용자의 입과 혀의 위치를 결정하는 영상 분석부를 더 포함하는 발음 교정 장치.
The method according to claim 1,
The pronunciation analysis unit
And an image analyzer for analyzing the image to determine a position of the user's mouth and tongue in the image.
제1 항에 있어서,
상기 지지부재에 설치되어 상기 사용자의 음성 데이터를 수집하는 음성 인식부;를 더 포함하고,
상기 발음 분석부는 상기 음성 데이터와 기설정된 표준 음성 데이터를 비교하여 상기 사용자의 발음 교정을 위한 피드백 데이터를 생성하는 발음 교정 장치.
The method according to claim 1,
And a voice recognition unit installed on the support member and collecting voice data of the user,
Wherein the pronunciation analyzing unit compares the speech data with predetermined standard speech data to generate feedback data for pronunciation correction of the user.
제1 항에 있어서,
상기 사용자의 목에 장착되도록 구성되어 상기 사용자의 목에서 발생되는 근전도 데이터를 수집하는 근전도 측정부를 포함하고,
상기 발음 분석부는 상기 근전도 데이터와 기설정된 표준 근전도 데이터를 비교하여 상기 사용자의 발음 교정을 위한 피드백 데이터를 생성하는 발음 교정 장치.
The method according to claim 1,
And an electromyogram measuring unit configured to be mounted on the neck of the user and collect EMG data generated from the user's neck,
Wherein the pronunciation analyzing unit compares the EMG data with predetermined standard EMG data to generate feedback data for pronunciation correction of the user.
제4 항에 있어서,
상기 근전도 측정부는,
상기 지지부재의 하부에 배치되어 상기 사용자의 목의 적어도 일부를 감싸도록 배치되는 프레임; 및
상기 프레임과 상기 사용자의 목이 접촉되는 상기 프레임의 내주면에 배치되는 근전도 센서를 포함하는 발음 교정 장치.
5. The method of claim 4,
Wherein the electromyogram measuring unit comprises:
A frame disposed at a lower portion of the support member and disposed to surround at least a portion of the neck of the user; And
And an electromyographic sensor disposed on an inner circumferential surface of the frame in contact with the neck of the user.
제5 항에 있어서,
상기 프레임은,
제1 프레임;
상기 제1 프레임과 대향되게 배치되는 제2 프레임; 및
상기 제1 프레임과 상기 제2 프레임의 일단이 연결되고, 상기 제1 프레임과 상기 제2 프레임을 이동시키는 이동 부재를 포함하는 발음 교정 장치.
6. The method of claim 5,
The frame includes:
A first frame;
A second frame disposed opposite the first frame; And
And a moving member connected to one end of the first frame and the second frame and configured to move the first frame and the second frame.
제6 항에 있어서,
상기 프레임은,
상기 사용자의 위치를 감지하는 센서부를 더 포함하고,
상기 이동 부재는 상기 센서부에 의해 상기 사용자의 목이 감지되는 경우, 상기 제1 프레임과 상기 제2 프레임이 상기 사용자의 목에 접촉되도록 상기 제1 프레임과 상기 제2 프레임을 이동시키는 발음 교정 장치.
The method according to claim 6,
The frame includes:
And a sensor unit for sensing a position of the user,
Wherein the moving member moves the first frame and the second frame such that the first frame and the second frame are in contact with the user's neck when the user's neck is detected by the sensor unit.
제1 항에 있어서,
상기 피드백 데이터를 출력하는 출력부를 더 포함하는 발음 교정 장치.
The method according to claim 1,
And an output unit outputting the feedback data.
제8 항에 있어서,
상기 출력부는,
상기 피드백 데이터를 소리로 출력하는 음향 발생부 또는 상기 피드백 데이터를 화면에 표시하는 표시부를 포함하는 발음 교정 장치.
9. The method of claim 8,
The output unit includes:
A sound generator for outputting the feedback data by sound or a display for displaying the feedback data on a screen.
지지부재;
사용자의 구강부의 영상을 획득하기 위해 상기 지지부재의 전면부에 배치되는 영상 촬영부;
상기 지지부재의 전면부에 배치되어 상기 사용자의 입에서 발생되는 제1 공기압 데이터를 수집하는 제1 공기압 센서 및 상기 지지부재의 상면부에 배치되어 상기 사용자의 코에서 발생되는 제2 공기압 데이터를 수집하는 제2 공기압 센서 중의 적어도 하나를 포함하는 발음 데이터 수집 장치.
A support member;
An image capturing unit disposed on a front surface of the support member for acquiring an image of a user's mouth;
A first air pressure sensor disposed at a front portion of the support member for collecting first air pressure data generated at the mouth of the user and a second air pressure sensor disposed at an upper surface portion of the support member for collecting second air pressure data generated in the nose of the user, And a second air pressure sensor for detecting the second air pressure.
제10 항에 있어서,
상기 지지부재에 설치되어 상기 사용자의 음성 데이터를 수집하는 음성 인식부;를 더 포함하는 발음 데이터 수집 장치.
11. The method of claim 10,
And a voice recognition unit installed on the support member and collecting voice data of the user.
제10 항에 있어서,
상기 지지부재의 하부에 배치되어 상기 사용자의 목의 적어도 일부를 감싸도록 배치되는 프레임; 및
상기 프레임과 상기 사용자의 목이 접촉되는 상기 프레임의 내주면에 배치되는 근전도 센서를 더 포함하는 발음 데이터 수집 장치.
11. The method of claim 10,
A frame disposed at a lower portion of the support member and disposed to surround at least a portion of the neck of the user; And
And an electromyogram sensor disposed on an inner circumferential surface of the frame in contact with the neck of the user.
제12 항에 있어서,
상기 프레임은,
제1 프레임;
상기 제1 프레임과 대향되게 배치되는 제2 프레임; 및
상기 제1 프레임과 상기 제2 프레임의 일단이 연결되고, 상기 제1 프레임과 상기 제2 프레임을 이동시키는 이동 부재를 포함하는 발음 데이터 수집 장치.
13. The method of claim 12,
The frame includes:
A first frame;
A second frame disposed opposite the first frame; And
And a moving member connected to one end of the first frame and the second frame and configured to move the first frame and the second frame.
제13 항에 있어서,
상기 프레임은,
상기 사용자의 위치를 감지하는 센서부를 더 포함하고,
상기 이동 부재는 상기 센서부에 의해 상기 사용자의 목이 감지되는 경우, 상기 제1 프레임과 상기 제2 프레임이 상기 사용자의 목에 접촉되도록 상기 제1 프레임과 상기 제2 프레임을 이동시키는 발음 데이터 수집 장치.
14. The method of claim 13,
The frame includes:
And a sensor unit for sensing a position of the user,
Wherein the moving member moves the first frame and the second frame such that the first frame and the second frame are in contact with the user's neck when the user's neck is sensed by the sensor unit, .
KR1020160102455A 2016-08-11 2016-08-11 Pronunciation correction apparatus and pronunciationn data collection apparatus KR20180017905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160102455A KR20180017905A (en) 2016-08-11 2016-08-11 Pronunciation correction apparatus and pronunciationn data collection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160102455A KR20180017905A (en) 2016-08-11 2016-08-11 Pronunciation correction apparatus and pronunciationn data collection apparatus

Publications (1)

Publication Number Publication Date
KR20180017905A true KR20180017905A (en) 2018-02-21

Family

ID=61525423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160102455A KR20180017905A (en) 2016-08-11 2016-08-11 Pronunciation correction apparatus and pronunciationn data collection apparatus

Country Status (1)

Country Link
KR (1) KR20180017905A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102623155B1 (en) * 2022-08-02 2024-01-10 최동원 Korean pronunciation education system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102623155B1 (en) * 2022-08-02 2024-01-10 최동원 Korean pronunciation education system

Similar Documents

Publication Publication Date Title
TWI576826B (en) Discourse Recognition System and Unit
US10276164B2 (en) Multi-speaker speech recognition correction system
US20130054240A1 (en) Apparatus and method for recognizing voice by using lip image
CN108133709B (en) Speech recognition apparatus and speech recognition method
WO2015030471A1 (en) Pronunciation correction apparatus and method thereof
EP1983316A3 (en) Sound quality display apparatus, sound quality display method, computer readable medium on which sound quality display program is recorded and sound camera
JP7183483B1 (en) Automatic, Objective Symptom Severity Score
Llico et al. Real-time estimation of aerodynamic features for ambulatory voice biofeedback
Freitas et al. An introduction to silent speech interfaces
ES2763937T3 (en) Procedure for assessing the quality of a use of a speaker's voice
JP2008158055A (en) Language pronunciation practice support system
US20200227072A1 (en) Computer-aided conversion test system and method for generating intelligible speech
CN108877841A (en) A kind of method and device for evaluating and testing Language State
KR20180017905A (en) Pronunciation correction apparatus and pronunciationn data collection apparatus
US20150039314A1 (en) Speech recognition method and apparatus based on sound mapping
KR20190067662A (en) Sign language translation system using robot
Chi et al. Glottographic and aerodynamic analysis on consonant aspiration and onset F0 in Mandarin Chinese
KR20190035181A (en) Larygeal stroboscopy
KR101144948B1 (en) A tune correction device using a egg
JP5305488B2 (en) Delay detection apparatus and delay detection method
JP2010185967A (en) Pronunciation training device
JP6285774B2 (en) Language listening inspection device and method
CN116705070B (en) Method and system for correcting speech pronunciation and nasal sound after cleft lip and palate operation
US20240008750A1 (en) Diagnosis of respiratory diseases
KR102360665B1 (en) System and method for analyzing nasalance multi-microphone

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application