KR101599030B1 - 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법 - Google Patents

음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법 Download PDF

Info

Publication number
KR101599030B1
KR101599030B1 KR1020120030805A KR20120030805A KR101599030B1 KR 101599030 B1 KR101599030 B1 KR 101599030B1 KR 1020120030805 A KR1020120030805 A KR 1020120030805A KR 20120030805 A KR20120030805 A KR 20120030805A KR 101599030 B1 KR101599030 B1 KR 101599030B1
Authority
KR
South Korea
Prior art keywords
pronunciation
english
chart
korean
frequency
Prior art date
Application number
KR1020120030805A
Other languages
English (en)
Other versions
KR20120040174A (ko
Inventor
강진호
조문경
Original Assignee
강진호
조문경
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강진호, 조문경 filed Critical 강진호
Priority to KR1020120030805A priority Critical patent/KR101599030B1/ko
Publication of KR20120040174A publication Critical patent/KR20120040174A/ko
Application granted granted Critical
Publication of KR101599030B1 publication Critical patent/KR101599030B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법에 관한 것이다.
이를 위해 본 발명의 일 실시예에 따른 음성분석기술을 이용한 시각적 영어 발음 교정시스템은 한국어 모음/자음 발음 및 영어 모음/자음 발음의 공명점들(Resonance Frequencies) 중 포먼트(Formant) 주파수의 공명점이 시각화된 차트를 저장하는 저장수단; 상기 차트가 디스플레이되는 디스플레이수단; 학습자로부터 음성을 입력받는 음성입력수단; 입력된 상기 음성을 분석하여 상기 음성의 포먼트 주파수의 공명점을 추출하는 분석/추출수단; 및 추출된 상기 공명점을 상기 차트 중 해당 위치에 디스플레이시키는 제어수단; 을 포함하는 것을 특징으로 한다.
이러한 구성에 의하면, 학습자는 차트를 보고 한국어 모음/자음 발음과 영어 모음/자음 발음의 차이점을 인식하면서 자신의 영어 모음 발음이 원어민의(표준) 모음 발음과 어느 정도 유사한지 파악할 수 있으며, 영어 모음과 가까운 또는 동일한 발음을 하도록 유도하여 학습자가 자신의 발음이 잘못된 부분을 손쉽게 인지하고 스스로 교정할 수 있는 효과가 있다.

Description

음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법{SYSTEM FOR CORRECTING ENGLISH PRONUNCIATION USING ANALYSIS OF USER'S VOICE-INFORMATION AND METHOD THEREOF}
본 발명은 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법에 관한 것으로, 보다 상세하게는 음성분석기술을 이용하여 신속하고 용이하게 정확한 발음으로 영어를 습득할 수 있게 하는 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법에 관한 것이다.
최근 들어 산업의 전문화와 국제화의 추세에 따라 영어에 대한 중요성이 날로 커지고 있고, 이러한 중요성에 따라 많은 사람들이 영어 학습에 많은 시간을 할애하고 있으며, 이에 발맞추어 다양한 온-오프라인 영어 강좌들이 개설되고 있다.
일반적으로 발음이나 발음에 대한 교정은 외국인 강사와의 1:1 지도방식에 의해 이루어지고 있는데, 이 경우 영어 학습에 많은 비용이 소요된다는 문제점이 있으며, 특별히 정해진 시간에 교육이 이루어지기 때문에 직장인 등과 같은 바쁜 일상생활을 영위하는 사람들에게는 그 학습에의 참여가 극히 제한적이라는 문제점이 있었다.
따라서 유휴 시간에 혼자서도 효과적으로 영어에 대한 발음이나 발음 등을 학습하고, 원어민의 발음과 비교 평가하는 프로그램 등을 필요로 하게 되었다.
이러한 요구에 부응하기 위하여 현재에는 음성인식을 이용한 다양한 어학용 프로그램들을 탑재한 어학용 학습기가 개발되어 보급되고 있다.
상기와 같은 어학용 학습기의 영어 발음 평가방법은 음성 신호 처리기술을 이용한 발음 비교방법에 의하며, 여기에는 은닉 마코브 모델(Hidden Markov Model, 이하 HMM 이라 함)을 이용하여 학습자의 발음을 인식한 후, 이를 원어민의 음성과 비교하여 그 결과를 알려주는 프로그램들을 이용하여 실시하고 있다.
하지만, 상기와 같은 프로그램을 탑재한 학습기들은 입력된 학습자의 음성을 상기 프로그램에 의해 원어민의 발음과 단순히 비교 평가하여 그 결과를 점수로 학습자에게 제공하는 것이 대부분이었다.
또한, 학습자는 표시된 점수로 자신의 발음이 얼마나 정확한지를 개략적으로 알 수 있지만, 모음/자음 발음, 강세, 억양에 대한 각 분야별로 비교할 수 있는 수단이 없어 자신의 모음/자음 발음, 강세, 억양이 원음과 얼마나 다르며, 어디가 틀렸는지 정확히 인식할 수 없다.
따라서 발음교정이 비효율적으로 진행되는 결과를 초래하고, 학습자가 영어를 정확하게 발음하도록 유도하는데 어려움이 있으며, 이로 인해 발음교정에 한계가 있는 등 영어 발음을 교정하는데 상당한 노력과 투자가 요구되는 문제점이 있다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 음성분석기술을 이용하여 신속하고 용이하게 정확한 발음으로 영어를 습득할 수 있게 하는 시스템 및 방법을 제공하는데 그 목적이 있다.
이러한 목적을 달성하기 위하여 본 발명은, 한국어 모음/자음 발음 및 영어 모음/자음 발음의 공명점들(Resonance Frequencies) 중 포먼트(Formant) 주파수의 공명점이 시각화된 차트를 저장하는 저장수단; 상기 차트가 디스플레이되는 디스플레이수단; 학습자로부터 음성을 입력받는 음성입력수단; 입력된 상기 음성을 분석하여 상기 음성의 포먼트 주파수의 공명점을 추출하는 분석/추출수단; 및 추출된 상기 공명점을 상기 차트 중 해당 위치에 디스플레이시키는 제어수단; 을 포함하는 것을 특징으로 하는 음성분석기술을 이용한 시각적 영어 발음 교정시스템을 제공한다.
이상에서 설명한 바와 같이 본 발명에 의하면, 학습자는 차트를 보고 한국어 모음/자음 발음과 영어 모음/자음 발음의 차이점을 인식하면서 자신의 영어 모음 발음이 원어민의(표준) 모음 발음과 어느 정도 유사한지 파악할 수 있으며, 영어 모음과 가까운 또는 동일한 발음을 하도록 유도하여 학습자가 자신의 발음이 잘못된 부분을 손쉽게 인지하고 스스로 교정할 수 있는 효과가 있다.
따라서 학습자는 신속하고 용이하게 발음을 교정할 수 있기 때문에 학습이 좀 더 효율적으로 수행될 수 있고, 학습속도 및 효과를 증진시킬 수 있는 효과가 있다.
또, 학습자가 하는 모음 발음과 표준 모음 발음의 위치가 매치되는지 용이하게 확인할 수 있으므로, 학습자가 자신의 발음을 좀 더 정교하게 교정할 수 있는데 많은 도움이 되는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 음성분석기술을 이용한 시각적 영어 발음 교정시스템이 구성을 개략적으로 도시한 블록도이다.
도 2a 내지 도 2c는 각각 본 발명의 일 실시예에 따른 음성분석기술을 이용한 시각적 영어 발음 교정법 중 영어의 모음, 자음, 마찰음 발음 교정을 위한 흐름도이다.
도 3 내지 도 7은 도 1 내지 도 2c를 설명하기 위한 예시도이다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
<시스템에 대한 설명>
도 1은 본 발명의 일 실시예에 따른 음성분석기술을 이용한 시각적 영어 발음 교정시스템의 구성을 개략적으로 도시한 블록도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 음성분석기술을 이용한 시각적 영어 발음 교정시스템(이하, '교정시스템'이라고 칭함)(100)은 음성분석기술을 활용하여 한국어와 영어의 모음, 자음, 마찰음, 강세 및 억양을 분석하여 시각적으로 표현한다.
먼저, 영어의 모음 발음 교정을 위한 상기 교정시스템(100)은 한국어 모음 발음 및 영어 모음 발음의 공명점들(Resonance Frequencies) 중 포먼트(Formant) 주파수의 공명점이 시각화된 차트(그래프)를 저장하는 저장수단(110)과, 상기 차트가 디스플레이되는 디스플레이수단(120)과, 학습자로부터 음성(발음)을 입력받는 음성입력수단(130)과, 입력된 상기 음성을 분석하여 상기 음성의 포먼트 주파수의 공명점을 추출하는 분석/추출수단(140) 및 추출된 상기 공명점을 상기 차트 중 해당 위치에 디스플레이시키는 제어수단(150)을 포함하고, 상기 저장수단(110)은 분석된 결과를 저장하는 것을 특징으로 한다.
여기서, 상기 포먼트 주파수는 사람의 성대와 비도에서 발생하는 공진주파수(성도의 공명주파수)로써, 성도의 기하학적인 모양에 따라 달라지며, 유성음 중에서 모음을 구별하는데 많이 사용된다.
이러한 상기 포먼트 주파수 중 가장 낮은 두 개의 주파수를 제 1(F1)과 제 2(F2) 포먼트 주파수라고 하며, 모음은 도 3과 같이 상기 F1과 F2 포먼트 주파수로 이루어진 주파수평면상 해당 위치에 점(공명점)으로 표시된다.
본 발명에서도 상기 저장수단(110)에 저장된 상기 포먼트 주파수는 F1과 F2 포먼트 주파수로, 상기 F1과 F2 포먼트 주파수의 공명점은 시각화되어 실제 한국어 모음 발음 및 영어 모음 발음 시의 혀의 위치가 상기 차트에 시각적으로 구현된다.
즉, 상기 차트에 시각화되어 나타나는 공명점의 위치는 모음 발음 시 혀의 위치에 대응되며, 이를 이용해 한국어 모음 발음 및 영어 모음 발음의 차이를 시각적으로 표현한 차트를 보기 쉽게 상기 디스플레이수단을 통하여 학습자에게 제공한다.
그리고 학습자의 발음에 해당하는 공명점이 상기 차트 상에 실시간으로 디스플레이된다.
이로 인해, 학습자는 상기 차트를 보고 한국어 모음 발음과 영어 모음 발음의 차이점을 인식하면서 자신의 영어 모음 발음이 원어민의(표준) 모음 발음과 어느 정도 유사한지 파악할 수 있다.
또한, 영어 모음과 가까운 또는 동일한 발음을 하도록 유도하여 학습자는 자신의 발음이 잘못된 부분을 손쉽게 인지하고, 스스로 신속하고 용이하게 발음을 교정할 수 있기 때문에 학습이 좀 더 효율적으로 수행될 수 있고, 학습속도 및 효과를 증진시킬 수 있다.
또, 학습자가 하는 모음 발음과 표준 모음 발음의 위치가 매칭되는지 용이하게 확인할 수 있으므로, 학습자가 자신의 발음을 좀 더 정교하게 교정할 수 있는데 많은 도움이 된다.
다음, 영어의 자음 발음 교정을 위한 상기 교정시스템(100)은 한국어 자음 발음 및 영어 자음 발음의 공명점들(Resonance Frequencies) 중 포먼트(Formant) 주파수의 공명점이 시각화된 차트를 저장하는 저장수단(110)과, 상기 차트가 디스플레이되는 디스플레이수단(120)과, 학습자로부터 음성을 입력받는 음성입력수단(130)과, 입력된 상기 음성을 분석하여 포먼트 주파수의 공명점을 추출하는 분석/추출수단(140) 및 추출된 상기 공명점을 상기 차트 중 해당 위치에 디스플레이시키는 제어수단(150)을 포함하고, 상기 저장수단(110)은 분석된 결과를 저장하는 것을 특징으로 한다.
이때, 상기 교정시스템(100)은 두 가지의 다른 시각적인 표출방식을 통하여 제공되며, 학습자가 자신에게 맞는 표출방식을 선택할 수 있도록 함으로써, 효과적인 발음 교정이 가능하도록 하는 것이 바람직하다.
첫 번째는 F1과 F2 포먼트 주파수의 공명점을 이용한 영어 자음 발음 교정으로 전술한 모음 발음 교정과 유사하므로, 자세한 설명은 하기 <방법에 대한 설명>에서 예를 들어 설명하기로 한다.
두 번째는 LPC(Linear Predictiver Coding) 피크 파형분석을 이용한 영어 자음 발음 교정으로, 여기서는 F1, F2 및 F3 포먼트 주파수의 공명점을 시각화하는 방법을 이용한다.
즉, 상기 저장수단(110)은 상기 한국어 자음 발음 및 영어 자음 발음의 공명점들 중 F1, F2 및 F3 포먼트 주파수의 공명점이 피크 형태로 시각화된 차트를 저장하고, 상기 분석/추출수단(140)은 상기 음성입력수단(130)으로 입력된 음성을 LPC 피크 파형분석을 통해 분석하여 도 5a나 도 5b와 같이 상기 음성의 F1, F2 및 F3 포먼트 주파수의 공명점을 추출하는 것을 특징으로 한다.
이러한 LPC 피크 파형분석으로 인해, F1, F2, F3의 위치, 및 F1과 F2 포먼트 주파수 또는 F2와 F3 포먼트 주파수 간의 거리차이를 시각적으로 인식할 수 있고, 이를 학습한 학습자가 영어 자음 발음 시, 시각적으로 정확한(원어민의) 영어 자음 발음 시에 나타나는 그래프와 학습자의 영어 자음 발음 시에 나타나는 그래프의 차이를 비교하면서 교정이 가능하기 때문에 학습자가 영어 자음 발음과 가깝게 발음하도록 유도할 수 있다.
다음, 영어의 자음 중 마찰음 발음 교정을 위한 상기 교정시스템(100)은 한국어 마찰음 및 영어 마찰음 발음의 조음점(Place Of Articulation)의 위치적 차이에 따른 주파수 대역이 시각화된 차트를 저장하는 저장수단(110)과, 상기 차트가 디스플레이되는 디스플레이수단(120)과, 학습자로부터 음성을 입력받는 음성입력수단(130)과, 입력된 상기 음성을 분석하여 주파수 대역을 추출하는 분석/추출수단(140) 및 추출된 상기 주파수 대역을 차트로 디스플레이시키는 제어수단(150)을 포함하고, 상기 저장수단(110)은 분석된 결과를 저장하는 것을 특징으로 한다.
한국어 마찰음은 /ㅅ, ㅆ, ㅎ/이 있고 영어 마찰음은 /s,∫, θ/가 있는데, 한국어 마찰음 /ㅅ/ 발음과 영어 마찰음 /s,∫, θ/ 발음들은 혀가 구강 내에서 접촉을 일으키는 조음점(Place Of Articulation)이 다르기 때문에 FFT(Faster Fourier Transform) 주파수의 범위분석을 통해 강조된 주파수의 위치를 시각화하여 학습자에게 제공한다.
다시 말해, 상기 분석/추출수단(140)은 상기 음성입력수단(130)으로부터 입력된 음성을 FFT(Faster Fourier Transform) 주파수 분석을 통해 분석하고, 이를 차트로 시각화하여 상기 저장수단(110)에 저장하고, 이를 도 6과 같이 디스플레이한다.
특히, 디스플레이되는 상기 주파수 대역 중 상기 한국어 마찰음 및 영어 마찰음 발음을 위해 강조될 필요가 있는 주파수 대역에는 다른 주파수 대역과 차별되도록 표시한다.
따라서 학습자는 영어 마찰음 발음을 교정 학습한 후에, 발음 시 학습자의 발음에 따라 증가하거나 감소하는 주파수 대역을 실시간으로 눈으로 확인하면서 교정할 수 있기 때문에 효과적이다.
또한, 강조된 주파수 대역의 위치를 눈에 띄도록 다른 색이나 영역으로 표시함에 따라, 학습자는 강조된 영역을 보다 쉽게 인식하면서 발음을 할 수 있기 때문에 원어민의 영어 마찰음 발음에 가깝도록 교정할 수 있다.
마지막으로, 영어의 강세/억양 교정을 위한 상기 시스템(100)은 한국식 강세(리듬, 소리의 강약)와 억양(소리의 높낮이)으로 영어 문장을 읽을 경우 및 상기 영어 문장을 영어식(표준) 강세와 억양으로 읽을 경우의 주파수 대역이 시각화된 차트를 저장하는 저장수단(110)과, 상기 차트가 디스플레이되는 디스플레이수단(120)과, 학습자로부터 음성을 입력받는 음성입력수단(130)과, 입력된 상기 음성을 분석하여 억양을 추출하는 분석/추출수단(140) 및 추출된 억양을 상기 차트 중 해당 위치에 디스플레이시키는 제어수단(150)을 포함하고, 상기 저장수단(110)은 분석된 결과를 저장하는 것을 특징으로 한다.
일반적으로 한국어는 음절 박자 언어이기 때문에 음절 간의 길이가 유사하고 강약에 변화가 크게 없으며, 억양의 경우에도 문장 전체를 읽는 동안 큰 변화가 없다.
반면에 영어는 강세가 소리의 크기 및 길이를 조절하는 강세 박자 언어이기 때문에 강세가 있는 단어의 모음이 강세가 없는 단어보다 길이가 길어지고, 또한 음향의 차이도 강세의 유무에 따라 확연히 달라지는 특징이 있다. 그리고 억양의 경우에도 영어의 경우에는 문장의 핵심 내용들인 내용어(주어, 동사, 목적어, 보어)들은 단어를 시작할 때는 높은 음조로 시작해서 단어가 끝날 때는 낮은 음조로 소리의 높낮이가 급격히 변화하는 특징이 있다.
이러한 특징들을 이해하고 학습자가 영어식 리듬, 억양으로 읽기를 학습 후에 자신의 리듬과 억양이 어느 정도 영어식 리듬과 억양으로 변화되는지를 학습자 스스로 눈으로 직접 확인하며 학습이 가능하다.
즉, 기존처럼 청각만으로 원어민의 억양을 판단한 후, 자신의 발음이 적정한 억양을 띄고 있는지 알지 못한 채 무작정 이를 모방하던 상황에서 벗어서, 시각적으로 양자간의 차이점을 인식하면서 학습할 수 있게 됨으로써 학습 효율이 향상되고 자신의 단점을 손쉽게 인지하여 교정할 수 있다.
또한, 학습자의 억양과 원어민의 억양차를 계량화하고 수치화하여 학습자가 매번 자신의 발성이 어느 정도 향상되었는지를 점수로 파악할 수 있게 할 수도 있으며, 이러한 점수화는 곧 학습자 스스로 학습 동기를 유발하는 좋은 계기로 작용할 수 있다.
<방법에 대한 설명>
본 발명의 일 실시예에 따른 음성분석기술을 이용한 시각적 영어 발음 교정법에 대해서 도 2a 내지 도 2c에 도시된 흐름도와 더불어 도 3 내지 도 7에 도시된 예시도를 참조하여 설명한다.
도 2a 내지 도 2c는 각각 본 발명의 일 실시예에 따른 음성분석기술을 이용한 시각적 영어 발음 교정법 중 영어의 모음, 자음, 마찰음 발음 교정을 위한 흐름도이다.
본 발명의 일 실시예에 따른 음성분석기술을 이용한 시각적 영어 발음 교정법은 음성분석기술을 활용하여 한국어와 영어의 모음, 자음, 마찰음, 강세 및 역양을 분석하여 시각적으로 표현한다.
영어의 모음 발음 교정을 위한 상기 교정법(도 2a)은 다음과 같다.
상기 저장수단(110)이 한국어 모음 발음 및 영어 모음 발음의 공명점들 중 포먼트 주파수의 공명점이 시각화된 차트를 저장하고(S211), 상기 디스플레이수단(120)은 상기 차트를 디스플레이한다(S212).
그리고 음성입력수단(130)은 학습자로부터 음성을 입력받고(S213), 상기 분석/추출수단(140)은 입력된 상기 음성을 분석하여 포먼트 주파수의 공명점을 추출한다(S214).
그 다음 상기 제어수단(150)은 추출된 상기 공명점을 상기 차트 중 해당 위치에 디스플레이시키도록 신호를 출력하고(S215), 상기 디스플레이수단(120)이 상기 제어수단(150)으로부터 신호를 수신함에 따라 상기 정보들은 학습자에게 제공되며(S216), 이러한 일련의 과정 중 발생된 분석 결과는 상기 저장수단(110)에 저장된다(S217).
상기 저장수단(110)에 저장된 차트는 구강 내 모음 발음 시 고정되는 혀의 위치를 점으로 표출하여 영어와 한국어의 공명점들의 차이를 보여주는 차트로, 도 3과 같이 제공되며, 이에 관해서는 상기 <시스템에 대한 설명>에 자세히 서술하였으므로 생략하기로 하고, 모음 중에서 몇 가지를 예로 들어 설명하기로 한다.
도 4a를 참조하여 영어 모음 /i/ 발음을 하기 위해 한국어 모음 /이/ 발음의 공명점의 위치를 활용하는 경우를 살펴보면, /이/와 /i/ 발음의 공명점의 위치는 다르고, 상기 차트를 보고 학습자가 이러한 양자간 위치차이를 시각적으로 인식하면서 상기 위치차이가 좁아지도록 발음을 교정할 수 있도록 한다.
또, 도 4b를 참조하여 영어 모음 /I/ 발음을 하기 위해 한국어 모음 /이/ 발음의 공명점의 위치를 활용하는 경우를 살펴보면, 학습자가 /I/를 정확하게 발음하기 위해서 /이/를 기준으로 /에/ 방향으로 약간만 혀의 위치를 이동시켜야 한다는 것을 손쉽게 알 수 있는데, 이는 학습자가 자신의 혀의 위치를 시각적으로 확인하면서 /I/를 발음하기 위한 혀의 위치를 어디로 이동시켜야 하는지 알 수 있게 하며, 혀의 위치를 /I/ 발음을 위한 위치로 이동시키도록 조력할 수 있다.
그리고 학습자의 발음 시, 상기 차트에 나타나는 공명점이 /I/ 발음과 동일한 위치에 나타나게 되면 학습자의 발음은 원어민(표준)의 /I/ 발음과 일치하는 것이 되며, 이로 인해 정확한 영어 발음이 구현될 수 있는 것이다.
다음, 영어의 자음 발음 교정을 위한 상기 교정법(도 2b)은 다음과 같다.
상기 저장수단(110)이 한국어 자음 발음 및 영어 자음 발음의 공명점들 중 포먼트 주파수의 공명점이 시각화된 차트를 저장하고(S221), 상기 디스플레이수단(120)은 상기 차트를 디스플레이한다(S222).
그리고 음성입력수단(230)은 학습자로부터 음성을 입력받고(S223), 상기 분석/추출수단(240)은 입력된 상기 음성을 분석하여 포먼트 주파수의 공명점을 추출한다(S224).
그 다음 상기 제어수단(250)은 추출된 상기 공명점을 상기 차트 중 해당 위치에 디스플레이시키도록 신호를 출력하고(S225), 상기 디스플레이수단(120)이 상기 제어수단(150)으로부터 신호를 수신함에 따라 상기 정보들이 학습자에게 제공되며(S226), 이러한 일련의 과정 중 발생된 분석 결과는 상기 저장수단에 저장된다(S227).
이때, 두 가지의 다른 시각적인 표출방식을 통해 학습자에게 제공되며, 효율적인 교정을 위해 양자택일 가능한 것이 바람직하다.
둘 중 하나의 표출방식에 대해 도 5a를 예로 들어 설명하면, 한국어 자음 중 /ㄹ/ 발음과 영어의 /l/ 발음의 공명점들 중 F1과 F2 포먼트 주파수의 공명점이 시각화되어 차트로 제공되고, 학습자는 상기 차트를 보고 /ㄹ/ 발음을 활용하여 /l/ 발음을 정확하게 발음하도록 교정할 수 있다.
즉, 이러한 방법을 통해 학습자는 한국어 /ㄹ/ 발음과 영어 /l/ 발음의 공명점들 중 F1과 F2 포먼트 주파수의 위치 차이를 이해하고, 학습하여 영어 /l/ 발음 시에 시각적으로 정확한(표준) /l/ 발음 시에 나타나는 F1과 F2의 공명점과 학습자의 /l/ 발음의 차이를 비교하면서 교정이 가능하기 때문에 /l/ 발음 시 정확한 혀의 위치를 이해하는데 효과가 있다.
그리고 또 다른 표출방식에 대해 도 5b를 참조하면, 한국어 /ㄹ/ 발음의 공명점과 영어 /r/ 발음의 공명점인 F1, F2, F3이 피크 형태로 상기 차트에 나타난다.
이렇게 표출되는 상기 차트를 보고 학습자는 한국어 /ㄹ/ 발음과 영어 /r/ 발음의 공명점들 중 F2와 F3 포먼트 주파수의 위치 및 두 간격사이의 거리차이를 이해하면서 학습할 수 있고, /r/ 발음 시 시각적으로 정확한(표준) /r/ 발음 시에 나타나는 그래프와 학습자의 /r/ 발음의 차이를 비교하면서 교정이 가능하기 때문에 /r/ 발음 시 본인 스스로 정확한 혀의 위치를 이해하는데 효과가 있다.
여기서, 한국어 /ㄹ/ 발음의 LPC 피크 파형분석을 통한 F1, F2, F3의 위치를 살펴보면 그래프 상 한국어 /ㄹ/ 발음은 전체 0~3000Hz 대역의 그래프에서 1500Hz를 중심으로 F2와 F3 피크가 오른쪽으로 치우쳐 있고, F2와 F3의 간격이 약 800~1000Hz 정도의 간격이 있음을 알 수 있다.
그리고 영어 /r/ 발음의 LPC 피크 파형분석을 통한 F1, F2, F3의 위치를 살펴보면 그래프 상 영어 /r/ 발음은 전체 0~3000Hz 대역의 그래프에서 1500Hz를 중심으로 F2와 F3 피크가 가운데 쪽에 위치해 있고, F2와 F3의 간격이 약 200~500Hz 정도로 좁아져 있음을 알 수 있다.
이러한 차이를 통해서 /r/ 발음 교정 학습 후에 학습자는 /r/ 발음 시 학습자의 발음의 공명점 중 F2와 F3이 LPC 응답화면에서 /r/과 유사하게 이동되었는지 확인하면서 교정할 수 있기 때문에 효과적이다.
다음, 영어의 마찰음 발음 교정을 위한 상기 교정법(도 2c)은 다음과 같다.
상기 저장수단(110)은 한국어 마찰음 및 영어 마찰음 발음의 조음점(Place Of Articulation)의 위치적 차이에 따른 주파수 대역이 시각화된 차트를 저장하고(S231), 상기 디스플레이수단(120)은 상기 차트를 디스플레이한다(S232).
그리고 상기 음성입력수단(130)은 학습자로부터 음성을 입력받고(S233), 상기 분석/추출수단(140)은 입력된 상기 음성을 분석하여 주파수 대역을 추출한다(S234).
그러면 상기 제어수단(150)은 추출된 상기 주파수 대역을 상기 차트 중 해당 위치에 디스플레이시키도록 신호를 출력하고(S235), 상기 디스플레이수단(120)이 상기 제어수단(150)으로부터 신호를 수신함에 따라 상기 정보들이 학습자에게 제공되며(S236), 이러한 일련의 과정 중 발생된 분석 결과는 상기 저장수단(110)에 저장된다(S237).
이러한 과정에 대해서는 도 6을 참조하여 설명하기로 한다.
한국어 마찰음 /ㅅ/을 활용하여 영어 마찰음 /s/ 발음을 정확하게 하도록 교정하기 위해서 상기 두 발음에 관한 FFT 주파수 범위 분석을 통한 주파수 대역을 그래프로 표시한다.
상기 그래프를 보면 한국어 /ㅅ/은 저(0~3000Hz)의 소리가 없으며, 중, 고역대인 6000Hz 주변에서 가장 큰 음량이 분포되어 있는 것을 알 수 있다.
그리고 영어 /s/는 조음점이 치경(윗잇몸; Alveolar ridge)이기 때문에 한국어 /ㅅ/에 비해서 저역대 주파수 음량이 적고, 8000Hz 이상의 고역대 주파수의 음량이 더 큰 것을 알 수 있다.
이러한 차이를 학습자가 시각적으로 인식하고, /s/ 발음 시 학습자의 발음에 따른 증가하거나 감소하는 주파수 대역을 실시간으로 눈으로 확인할 수 있으며, 이에 따라 자신의 발음이 표준 발음과 얼마나 유사한지를 손쉽게 알면서 교정할 수 있으므로 효과적이다.
마지막으로, 영어의 강세/억양 교정을 위한 상기 교정법은 전술한 <시스템에 대한 설명>과 유사하므로 도 7을 참조하여 예만 살펴보기로 한다.
도 7은 "I gave her a box."의 한국어식 발음과 영어식 발음에 따른 리듬과 억양의 변화를 나타내는 그래프를 나타낸다.
이러한 그래프를 보면, 한국어 발음을 기반으로 한 문자 읽기를 하는 경우에는 각 모음들 간의 길이가 비교적 균등하고 전체적인 리듬 및 억양의 변화가 크지 않다는 것을 알 수 있다.
그리고 영어식 리듬 및 억양을 기반으로 한 문장 읽기의 경우에는 단어의 문장 내에서의 중요도에 따른 강세의 유무에 따라서 각 모음들 간의 길이가 다르게 나타나며, 억양의 경우에도 내용어 'gave'와 'box'에서 소리의 높낮이의 확연한 변화를 확인할 수 있다.
이러한 차이점을 바탕으로 학습자는 자신이 하는 발음이 그래프에 나타나는 형태를 보고, 자신의 발음이 영어식 발음과 유사하도록 리듬 및 억양을 시각적으로 확인하면서 교정할 수 있다.
한편, 전술한 상기 교정법에 관한 부가적인 설명은 상기 교정시스템에서 설명한 바와 유사하므로, 생략하기로 한다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (8)

  1. 삭제
  2. 삭제
  3. 주파수(Hz)와 에너지(dB)를 좌표로 하는 차트상에 한국어 마찰음 및 영어 마찰음 발음들의 조음점(Place of Articulation) 위치 차이에 따른 주파수 대역들을 시각적으로 표시하는데 관련된 데이터를 저장하는 저장수단;
    상기 차트가 디스플레이되는 디스플레이수단;
    학습자로부터 음성을 입력받는 음성입력수단;
    입력된 상기 음성을 FFT(Faster Fourier Transform) 주파수 분석하여 상기 음성의 주파수 대역을 추출하는 분석/추출수단; 및
    상기 저장수단에 저장된 한국어 마찰음과 영어 마찰음 발음의 조음점 위치 차이에 따른 주파수 대역이 시각적으로 표시된 차트를 상기 디스플레이수단에 디스플레이하고, 상기 분석/추출수단에서 추출된 주파수 대역을 상기 디스플레이된 차트 중 해당 위치에 디스플레이하여 실제 발음 시의 주파수 대역 차이를 차트에 시각적으로 구현시키는 제어수단;을 포함하는 것을 특징으로 하는 음성분석기술을 이용한 시각적 영어 발음 교정시스템.
  4. 제 3 항에 있어서,
    디스플레이되는 상기 주파수 대역 중 상기 한국어 마찰음 및 영어 마찰음 발음을 위해 강조될 필요가 있는 주파수 대역에는 다른 주파수 대역과 차별되도록 표시하는 것을 특징으로 하는 음성분석기술을 이용한 시각적 영어 발음 교정시스템.
  5. 삭제
  6. 삭제
  7. 주파수(Hz)와 에너지(dB)를 좌표로 하는 차트상에 한국어 마찰음 및 영어 마찰음 발음들의 조음점(Place of Articulation) 위치 차이에 따른 주파수 대역들을 시각적으로 표시하는데 관련된 데이터를 저장하는 단계;
    저장수단에 저장된 한국어 마찰음과 영어 마찰음 발음의 조음점 위치 차이에 따른 주파수 대역이 시각적으로 표시된 차트를 디스플레이수단에 디스플레이하는 단계;
    학습자로부터 음성을 음성입력수단을 통해 입력받는 단계;
    입력된 상기 음성을 FFT(Faster Fourier Transform) 주파수 분석하여 상기 음성의 주파수 대역을 추출하는 단계; 및
    상기 추출된 주파수 대역을 상기 디스플레이된 차트 중 해당 위치에 디스플레이하여 실제 발음 시의 주파수 대역 차이를 차트에 시각적으로 구현시키는 단계;를 포함하는 것을 특징으로 하는 음성분석기술을 이용한 시각적 영어 발음 교정법.
  8. 제 7 항에 있어서,
    디스플레이되는 상기 주파수 대역 중 상기 한국어 마찰음 및 영어 마찰음 발음을 위해 강조될 필요가 있는 주파수 대역에는 다른 주파수 대역과 차별되도록 표시하는 것을 특징으로 하는 음성분석기술을 이용한 시각적 영어 발음 교정법.
KR1020120030805A 2012-03-26 2012-03-26 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법 KR101599030B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120030805A KR101599030B1 (ko) 2012-03-26 2012-03-26 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120030805A KR101599030B1 (ko) 2012-03-26 2012-03-26 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020090103657A Division KR101329999B1 (ko) 2009-10-29 2009-10-29 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법

Publications (2)

Publication Number Publication Date
KR20120040174A KR20120040174A (ko) 2012-04-26
KR101599030B1 true KR101599030B1 (ko) 2016-03-14

Family

ID=46140183

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120030805A KR101599030B1 (ko) 2012-03-26 2012-03-26 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법

Country Status (1)

Country Link
KR (1) KR101599030B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012036474A2 (ko) * 2010-09-17 2012-03-22 주식회사 엘지화학 양극 활물질 및 이를 이용한 리튬 이차전지
KR101883365B1 (ko) 2016-08-16 2018-07-31 주식회사 베코스 전문가 교정이 가능한 발음 학습 시스템
KR20240033425A (ko) 2022-09-05 2024-03-12 천혜진 외국어 발화 훈련을 위한 원어민 음성 매칭 시스템 및 방법
KR20240033423A (ko) 2022-09-05 2024-03-12 천혜진 외국어 발화 훈련 솔루션 제공 시스템 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122004A (ja) * 2005-09-29 2007-05-17 National Institute Of Advanced Industrial & Technology 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020030515A (ko) * 2000-10-18 2002-04-25 서정욱 발음교정을 이용한 언어학습 시스템 및 그 방법
KR20040073291A (ko) * 2004-01-08 2004-08-19 정보통신연구진흥원 외국어 발음 평가 시스템 및 그 평가 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122004A (ja) * 2005-09-29 2007-05-17 National Institute Of Advanced Industrial & Technology 発音診断装置、発音診断方法、記録媒体、及び、発音診断プログラム

Also Published As

Publication number Publication date
KR20120040174A (ko) 2012-04-26

Similar Documents

Publication Publication Date Title
Arias et al. Automatic intonation assessment for computer aided language learning
KR100733469B1 (ko) 외국어 발음 평가 시스템 및 외국어 발음 평가 방법
Hincks Technology and learning pronunciation
KR101329999B1 (ko) 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법
US20060053012A1 (en) Speech mapping system and method
KR101599030B1 (ko) 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법
Ghanem et al. Pronunciation features in rating criteria
Demenko et al. The use of speech technology in foreign language pronunciation training
Sztahó et al. A computer-assisted prosody pronunciation teaching system.
Peabody et al. Towards automatic tone correction in non-native mandarin
Kommissarchik et al. Better Accent Tutor–Analysis and visualization of speech prosody
Fan et al. The impact of L1 negative phonological transfer on L2 word identification and production
Kim et al. An interactive English pronunciation dictionary for Korean learners
Martens et al. Applying adaptive recognition of the learner’s vowel space to English pronunciation training of native speakers of Japanese
Graham et al. Articulation rate as a metric in spoken language assessment
Zinovjeva Use of speech technology in learning to speak a foreign language
JP3621624B2 (ja) 外国語学習装置、外国語学習方法および媒体
Hirose Accent type recognition of Japanese using perceived mora pitch values and its use for pronunciation training system
CN111508523A (zh) 一种语音训练提示方法及系统
Choe The effect of pronunciation teaching on the realization of English rhythm by Korean learners of English
Sbattella et al. Kaspar: a prosodic multimodal software for dyslexia
Kainada et al. The acquisition of English intonation by native Greek speakers
Damanik et al. An Acoustic Analysis of Chinese Indonesian Students in Pronouncing English Vowels: A Praat Study
Levis et al. Phonetics and phonology: Overview
CN114783412B (zh) 一种西班牙语口语发音训练纠正方法及系统

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190220

Year of fee payment: 4