KR100659212B1 - 어학 학습 시스템 및 어학 학습용의 음성 데이터 제공 방법 - Google Patents

어학 학습 시스템 및 어학 학습용의 음성 데이터 제공 방법 Download PDF

Info

Publication number
KR100659212B1
KR100659212B1 KR1020050128485A KR20050128485A KR100659212B1 KR 100659212 B1 KR100659212 B1 KR 100659212B1 KR 1020050128485 A KR1020050128485 A KR 1020050128485A KR 20050128485 A KR20050128485 A KR 20050128485A KR 100659212 B1 KR100659212 B1 KR 100659212B1
Authority
KR
South Korea
Prior art keywords
voice
database
speech
speaker
learner
Prior art date
Application number
KR1020050128485A
Other languages
English (en)
Other versions
KR20060073502A (ko
Inventor
나오히로 에모또
Original Assignee
야마하 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 야마하 가부시키가이샤 filed Critical 야마하 가부시키가이샤
Publication of KR20060073502A publication Critical patent/KR20060073502A/ko
Application granted granted Critical
Publication of KR100659212B1 publication Critical patent/KR100659212B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본원 발명은, 학습자와 비슷한 모범 음성을 이용하여 학습하는 것을 가능하게 한다. 복수의 각 화자마다, 그 화자의 음성으로부터 추출한 특징량과, 그 화자가 발성한 어학 학습용의 하나 또는 복수의 음성 데이터를 대응시켜, 각각 기억하는 데이터베이스가 설치된다. 학습자의 음성을 취득하고, 취득한 음성으로부터, 그 학습자의 음성의 특징량을 추출한다. 추출된 그 학습자의 특징량을, 상기 데이터베이스에 기록된 복수의 화자의 특징량과 비교하고, 이 비교에 기초하여, 하나의 화자의 음성 데이터를, 상기 데이터베이스로부터 선택한다. 선택된 하나의 음성 데이터에 따라 어학 학습용의 음성을 재생 출력한다.
모범 음성, 음성 데이터, 화자의 특징량, 학습자의 특징량, 유저 음성

Description

어학 학습 시스템 및 어학 학습용의 음성 데이터 제공 방법{LANGUAGE LEARNING SYSTEM AND VOICE DATA PROVIDING METHOD FOR LANGUAGE LEARNING}
도 1은 본 발명의 제1 실시예에 따른 어학 학습 시스템(1)의 기능 구성을 도시하는 블록도.
도 2는 데이터베이스 DB1의 내용을 예시하는 도면.
도 3은 어학 학습 시스템(1)의 하드웨어 구성을 도시하는 블록도.
도 4는 어학 학습 시스템(1)의 동작을 도시하는 플로우차트.
도 5는 어학 학습 시스템(1)에서의 데이터베이스 DB1의 갱신 동작을 도시하는 플로우차트.
도 6은 모범 음성(위) 및 유저 음성(아래)의 스펙트럼 포락을 예시하는 도면.
<도면의 주요 부분에 대한 부호의 설명>
1 : 어학 학습 시스템
2 : 어학 학습 시스템
11 : 기억부
12 : 입력부
13 : 특징 추출부
14 : 음성 데이터 추출부
15 : 재생부
16 : 기억부
17 : 비교부
18 : DB 갱신부
21 : 화속 변환부
101 : CPU
102 : RAM
104 : HDD
105 : 디스플레이
106 : 마이크
107 : 음성 처리부
108 : 스피커
109 : 키보드
110 : 버스
111 : I/F
[특허 문헌1] 일본 특개2002-244547호 공보
[특허 문헌2] 일본 특개2004-133409호 공보
본 발명은, 어학 학습을 지원하는 어학 학습 시스템에 관한 것이다.
외국어 혹은 모국어의 어학 학습, 특히, 발음 혹은 발화의 독습에서는, CD(Compact Disk) 등의 기록 매체에 기록된 모범 음성을 재생하고, 그 모범 음성의 흉내를 내어 발음 혹은 발화한다고 하는 학습 방법이 널리 이용되고 있다. 이것은 모범 음성의 흉내를 냄으로써 올바른 발음을 익히는 것을 목적으로 하는 것이다. 여기서, 학습을 보다 효과적으로 진행시키기 위해서는, 모범 음성과 자신의 음성의 차를 평가할 필요가 있다. 그러나, CD에 기록된 모범 음성은, 임의의 특정한 아나운서나 네이티브 스피커의 음성인 경우가 대부분이다. 즉, 많은 학습자에게 있어서 이들 모범 음성은, 자신의 음성과는 전혀 다른 특징을 갖는 음성에 의해 발해지는 것이기 때문에, 모범 음성과 비교하여 자신의 발음이 어느 정도 정확하게 되고 있는지 등의 평가가 곤란하다고 하는 문제가 있었다.
이러한 문제를 해결하는 기술로서, 예를 들면 특허 문헌1, 2에 기재된 기술이 있다. 특허 문헌1에 기재된 기술은, 모범 음성에 유저의 억양, 화속, 음질 등의 파라미터를 반영시켜, 모범 음성을 유저 음성과 비슷한 음성으로 변환하는 것이다. 특허 문헌2에 기재된 기술은, 복수의 모범 음성 중에서, 학습자가 임의의 것을 선택 가능하게 하는 것이다.
그러나, 특허 문헌1에 기재된 기술에 따르면 인토네이션의 교정은 가능하지 만, 예를 들면 영어에서의 「r과 l」이나 「s와 th」등 명백하게 발음이 다르지만 교정을 행하는 것은 곤란하다고 하는 문제가 있었다. 또한, 음성 파형에 대하여 수정을 실시하기 때문에, 처리가 복잡하게 된다고 하는 문제가 있었다. 또한, 특허 문헌2에 기재된 기술에서는, 모범 음성을 선택하는 방식이기 때문에, 학습자가 스스로 모범 음성을 선택할 필요가 있어, 번잡하다고 하는 문제가 있었다.
본 발명은 상술한 사정을 감안하여 이루어진 것으로, 보다 간단한 처리로 학습자와 비슷한 모범 음성을 이용하여 학습하는 것이 가능한 어학 학습 시스템 및 방법을 제공하는 것을 목적으로 한다.
상술한 과제를 해결하기 위해, 본 발명은, 복수의 각 화자마다, 그 화자의 음성으로부터 추출한 특징량과, 그 화자의 하나 또는 복수의 음성 데이터를 대응시켜, 각각 기억하는 데이터베이스와, 학습자의 음성을 취득하는 음성 취득 수단과, 상기 음성 취득 수단에 의해 취득한 음성으로부터, 상기 학습자의 음성의 특징량을 추출하는 특징량 추출 수단과, 상기 특징량 추출 수단에 의해 추출된 상기 학습자의 특징량을, 상기 데이터베이스에 기록된 복수의 화자의 특징량과 비교하고, 이 비교에 기초하여, 하나의 화자의 음성 데이터를, 상기 데이터베이스로부터, 선택하는 음성 데이터 선택 수단과, 상기 음성 데이터 선택 수단에 의해 선택된 하나의 음성 데이터에 따라 음성을 출력하는 재생 수단을 갖는 어학 학습 시스템을 제공한다.
바람직한 양태에서, 상기 음성 데이터 선택 수단은, 상기 데이터베이스에 기 록된 복수의 화자의 특징량과 상기 특징량 추출 수단에 의해 추출된 상기 학습자의 특징량과의 차를 나타내는 근사도 지수를, 각 화자마다 산출하는 근사도 산출 수단을 포함하고, 상기 그 근사도 산출 수단에 의해 산출된 근사도 지수에 기초하여, 소정의 조건을 만족하는 하나의 화자의 특징량과 대응지어진 하나의 음성 데이터를, 상기 데이터베이스로부터, 선택 추출하는 것을 특징으로 한다. 이 경우, 상기 소정의 조건이, 근사도가 가장 높은 것을 나타내는 근사도 지수에 대응하는 하나의 화자의 음성 데이터를 선택한다고 하는 조건이어도 된다.
다른 바람직한 양태에서, 이 어학 학습 시스템은, 상기 음성 데이터 선택 수단에 의해 선택된 음성 데이터의 화속을 변환하는 화속 변환 수단을 더 갖고, 상기 재생 수단이, 상기 화속 변환 수단에 의해 화속 변환된 음성 데이터에 따라 음성을 출력해도 된다.
또 다른 바람직한 양태에서, 이 어학 학습 시스템은, 모범 음성을 기억하는 기억 수단과, 상기 모범 음성과 상기 음성 취득 수단에 의해 취득된 학습자의 음성을 비교하여, 양자의 근사도를 나타내는 정보를 발생하는 비교 수단과, 상기 비교 수단에 의해 발생된 정보에 의해 나타내어지는 근사도가 소정의 조건을 만족시키고 있는 경우, 상기 음성 취득 수단에 의해 취득된 학습자의 음성을, 상기 특징량 추출 수단에 의해 추출된 특징량과 대응시켜 상기 데이터베이스에 추가하는 데이터베이스 갱신 수단을 더 구비해도 된다.
본 발명에 따르면, 학습자와 비슷한 소리의 특징을 갖는 화자에 의해 발해진 음성이, 학습에서의 예문의 음성으로서 재생시킬 수 있다. 따라서 학습자는, 흉내 낼(목표로 할) 발음을 보다 정확하게 인식할 수 있으며, 이에 의해 학습 효율을 향상시킬 수 있다.
<실시예>
이하, 도면을 참조하여 본 발명의 실시예에 대하여 설명한다.
<1. 구성>
도 1은 본 발명의 제1 실시예에 따른 어학 학습 시스템(1)의 기능 구성을 도시하는 블록도이다. 기억부(11)는, 화자의 음성으로부터 추출한 특징량과, 그 화자에 의한 음성의 음성 데이터를 대응시켜 기록한 데이터베이스 DB1을 기억하고 있다. 입력부(12)는, 학습자(유저)의 음성을 취득하여, 유저 음성 데이터로서 출력한다. 특징 추출부(13)는, 학습자의 음성으로부터 특징량을 추출한다. 음성 데이터 추출(선택)부(14)는, 특징 추출부(13)에 의해 추출된 특징량과, 데이터베이스 DB1에 기록되어 있는 특징량을 비교하여, 미리 정해진 조건을 만족하는, 하나의 화자의 특징량을 추출하고, 또한, 추출된 하나의 화자의 특징량에 대응지어져 있는 음성 데이터를 데이터베이스 DB1로부터 추출(선택)한다. 재생부(15)는, 음성 데이터 추출(선택)부(14)에 의해 추출(선택)된 음성 데이터를 재생하여, 스피커 혹은 이어폰 등을 통해 가청적으로 발음한다.
데이터베이스 DB1의 상세한 내용에 대해서는 후술하는데, 어학 학습 시스템(1)은 또한, 데이터베이스 DB1을 갱신하기 위해 이하의 구성 요소를 갖고 있다. 기억부(16)는, 어학 학습의 견본으로 되는 모범 음성 데이터와 그 모범 음성의 텍스트 데이터를 대응시켜 기록한 모범 음성 데이터베이스 DB2를 기억하고 있다. 비 교부(17)는, 입력부(12)에 의해 취득된 유저 음성 데이터와, 기억부(16)에 기억된 모범 음성 데이터의 비교를 행한다. 비교의 결과, 유저 음성이 미리 정해진 조건을 만족하면, DB 갱신부(18)는 유저 음성 데이터를 데이터베이스 DB1에 추가한다.
도 2는 데이터베이스 DB1의 내용을 예시하는 도면이다. 데이터베이스 DB1에는, 화자를 특정하는 식별자인 화자 ID(도 2에서는 「ID001」)와, 그 화자의 음성 데이터로부터 추출한 특징량이 기록되어 있다. 데이터베이스 DB1에는 또한, 예문을 특정하는 식별자인 예문 ID와, 그 예문의 음성 데이터와, 그 예문의 발음 레벨(후술함)이 대응지어져 기록되어 있다. 데이터베이스 DB1은, 예문 ID, 음성 데이터, 및 발음 레벨로 이루어지는 데이터 세트를 복수 갖고 있으며, 각 데이터 세트는 음성 데이터의 화자에게 제공된 화자 ID와 대응지어져 기록되어 있다. 즉, 데이터베이스 DB1은, 복수의 화자에 의한 복수의 예문의 음성 데이터를 갖고 있으며, 이들 데이터는 화자 ID 및 특징량에 따라 화자마다 대응지어져 기록되어 있다.
도 3은 어학 학습 시스템(1)의 하드웨어 구성을 도시하는 블록도이다. CPU(Central Processing Unit)(101)는, RAM(Random Access Memory)(102)을 작업 에리어로 하여, ROM(Read Only Memory)(103) 혹은 HDD(Hard Disk Drive)(104)에 기억되어 있는 프로그램을 판독하여 실행한다. HDD(104)는, 각종 어플리케이션 시스템이나 데이터를 기억하는 기억 장치이다. 또한, HDD(104)는, 데이터베이스 DB1 및 모범 음성 데이터베이스 DB2도 기억한다. 디스플레이(105)는, CRT(Cathode Ray Tube)나 LCD(Liquid Crystal Display) 등, CPU(101)의 제어 하에서 문자나 화상을 표시하는 표시 장치이다. 마이크(106)는, 유저의 음성을 취득하기 위한 집음 장치 로서, 유저가 발한 음성에 대응하는 음성 신호를 출력한다. 음성 처리부(107)는, 마이크(106)에 의해 출력된 아날로그 음성 신호를 디지털 음성 데이터로 변환하는 기능이나, HDD(104)에 기억된 음성 데이터를 음성 신호로 변환하여 스피커(108)에 출력하는 기능을 갖는다. 또한, 유저는 키보드(109)를 조작함으로써, 어학 학습 시스템(1)에 대하여 지시 입력을 행할 수 있다. 이상에서 설명한 각 구성 요소는, 버스(110)를 통해 서로 접속되어 있다. 또한, 어학 학습 시스템(1)은, I/F(인터페이스)(111)를 통해 다른 기기와 통신을 행할 수 있다.
<2. 동작>
계속해서, 본 실시예에 따른 어학 학습 시스템(1)의 동작에 대하여 설명한다. 여기서는, 우선 예문의 음성을 재생하는 동작에 대하여 설명한 후에, 데이터베이스 DB1의 내용을 갱신하는 동작에 대하여 설명한다. 어학 학습 시스템(1)에서, CPU(101)가 HDD(104)에 기억된 어학 학습 프로그램을 실행함으로써 도 1에 도시한 기능을 갖는다. 또한, 학습자(유저)는, 어학 학습 프로그램의 개시 시 등에 키보드(109)를 조작하여 자신을 특정하는 식별자인 유저 ID를 입력한다. CPU(101)는, 입력된 유저 ID를 현재 시스템을 사용하고 있는 학습자의 유저 ID로서 RAM(102)에 기억한다.
<2-1. 음성 재생>
도 4는 어학 학습 시스템(1)의 동작을 도시하는 플로우차트이다. 어학 학습 프로그램을 실행하면, 어학 학습 시스템(1)의 CPU(101)는, 모범 음성 데이터베이스 DB2를 검색하여 이용 가능한 예문의 리스트를 작성한다. CPU(101)는, 이 리스트에 기초하여, 디스플레이(105) 상에 예문의 선택을 재촉하는 메시지를 표시한다. 유저는 디스플레이(105) 상에 표시된 메시지에 따라, 리스트에 있는 예문으로부터 하나의 예문을 선택한다. CPU(101)는 선택된 예문의 음성을 재생한다(스텝 S101). 구체적으로는, CPU(101)는 예문의 모범 음성 데이터를 모범 음성 데이터베이스 DB2로부터 판독하고, 판독한 모범 음성 데이터를 음성 처리부(107)에 출력한다. 음성 처리부(107)는 입력된 모범 음성 데이터를 디지털/아날로그 변환하여 아날로그 음성 신호로서 스피커(108)에 출력한다. 이렇게 해서 스피커(108)로부터 모범 음성이 재생된다.
유저는 스피커(108)로부터 재생된 모범 음성을 듣고, 마이크(106)를 향하여 모범 음성을 흉내내어 예문을 발성한다. 즉, 유저 음성의 입력이 행해진다(단계 S102). 구체적으로는 다음과 같다. 모범 음성의 재생이 종료되면, CPU(101)는, 「다음은 당신 차례입니다. 예문을 발음해 주십시오.」 등, 유저에게 예문의 발생을 재촉하는 메시지를 디스플레이(105)에 표시한다. 또한 CPU(101)는, 「스페이스 키를 누르고 나서 발음하고, 발음이 종료되면 다시 한번 스페이스 키를 눌러 주십시오.」 등, 유저 음성의 입력을 행하기 위한 조작을 지시하는 메시지를 디스플레이(105)에 표시한다. 유저는, 디스플레이(105)에 표시된 메시지에 따라 키보드(109)를 조작하여, 유저 음성의 입력을 행한다. 즉, 키보드(109)의 스페이스 키를 누른 후에, 마이크(106)를 향하여 예문을 발성한다. 발성이 종료되면, 유저는 다시 한번 스페이스 키를 누른다.
유저의 음성은 마이크(106)에 의해 전기 신호로 변환된다. 마이크(106)는, 유저 음성 신호를 출력한다. 유저 음성 신호는, 음성 처리부(107)에 의해 디지털 음성 데이터로 변환되어, 유저 음성 데이터로서 HDD(104)에 기록된다. CPU(101)는, 모범 음성의 재생이 완료된 후, 스페이스 키의 누름을 트리거로 하여 유저 음성 데이터의 기록을 개시하고, 재차의 스페이스 키의 누름을 트리거로 하여 유저 음성 데이터의 기록을 종료한다. 즉, 유저가 최초로 스페이스 키를 누르고 나서, 다시 한번 스페이스 키를 누르기까지의 동안의 유저 음성이 HDD(104)에 기록된다.
계속해서 CPU(101)는, 얻어진 유저 음성 데이터에 대하여 특징량 추출 처리를 행한다(단계 S103). 구체적으로는 다음과 같다. CPU(101)는, 음성 데이터를 미리 정해진 시간(프레임)마다 분할한다. CPU(101)는, 프레임으로 분해된 모범 음성 데이터가 나타내는 파형 및 유저 음성 신호가 나타내는 파형을 푸리에 변환하여 얻어진 진폭 스펙트럼의 대수를 구하고, 그것을 푸리에 역변환하여 프레임마다의 스펙트럼 포락을 얻는다. CPU(101)는, 이렇게 해서 얻어진 스펙트럼 포락으로부터 제1 포르만트 및 제2 포르만트의 포르만트 주파수를 추출한다. 일반적으로 모음은 제1 및 제2 포르만트의 분포에 의해 특징지어진다. CPU(101)는, 음성 데이터의 선두로부터, 프레임마다 얻어진 포르만트 주파수의 분포를, 미리 정해진 모음(예를 들면 「a」)의 포르만트 주파수 분포와 매칭을 행한다. 매칭에 의해 그 프레임이 모음 「a」에 상당하는 것이다라고 판단되면, CPU(101)는, 그 프레임에서의 포르만트 중, 미리 정해진 포르만트(예를 들면, 제1, 제2, 제3의 3개의 포르만트)의 포르만트 주파수를 산출한다. CPU(101)는, 산출한 포르만트 주파수를, 유저의 음성의 특징량 P로서 RAM(102)에 기억한다.
계속해서 CPU(101)는, 데이터베이스 DB1로부터, 이 유저의 음성의 특징량 P와 비슷한 특징량과 대응지어져 있는 음성 데이터를 추출(선택)한다(스텝 S104). 구체적으로는, 추출된 특징량 P와 데이터베이스 DB1에 기록된 특징량을 비교하여, 특징량 P와 가장 근사하는 것을 특정한다. 비교에서는, 예를 들면, 특징량 P와 데이터베이스 DB1 사이에서 제1∼제3 포르만트 주파수의 값의 차를 산출하고, 또한 3개의 포르만트 주파수의 차의 절대값을 서로 합한 양을 양자의 근사도를 나타내는 근사도 지수로서 산출한다. CPU(101)는, 산출한 근사도 지수가 가장 작은 것, 즉 특징량 P와 가장 근사하는 특징량을 데이터베이스 DB1로부터 특정한다. CPU(101)는 또한, 특정된 특징량과 대응지어져 있는 음성 데이터를 추출하고, 추출한 음성 데이터를 RAM(102)에 기억한다.
계속해서 CPU(101)는, 음성 데이터의 재생을 행한다(단계 S105). 구체적으로는 다음과 같다. CPU(101)는 음성 데이터를 음성 처리부(107)에 출력한다. 음성 처리부(107)는, 입력된 음성 데이터를 디지털/아날로그 변환하여 음성 신호로서 스피커(108)에 출력한다. 이렇게 해서, 추출된 음성 데이터는 스피커(108)로부터 음성으로서 재생된다. 여기서, 음성 데이터는 특징량의 매칭에 의해 추출된 것이기 때문에, 재생된 음성은, 학습자의 음성과 특징이 비슷한 음성으로 되어 있다. 따라서, 학습자는, 자신과는 전혀 다른 소리의 특징을 갖는 화자(아나운서, 네이티브 스피커 등)에 의해 발해진 음성을 듣는 것만으로는 흉내를 내는 것이 곤란하였던 예문이라도, 자신과 아주 비슷한 소리의 특징을 갖는 화자에 의해 발해진 음성이면, 흉내낼 발음을 보다 정확하게 이해할 수 있어, 학습 효율을 향상시킬 수 있 다.
<2-2. 데이터베이스 갱신>
계속해서, 데이터베이스 DB1의 갱신 동작에 대하여 설명한다.
도 5는 어학 학습 시스템(1)에서의 데이터베이스 DB1의 갱신 동작을 도시하는 플로우차트이다. 우선, 상술한 스텝 S101∼S102의 처리에 의해, 모범 음성의 재생 및 유저 음성의 입력이 행해진다. 계속해서 CPU(101)는, 모범 음성과 유저 음성의 비교 처리를 행한다(단계 S201). 구체적으로는 다음과 같다. CPU(101)는, 모범 음성 데이터가 나타내는 파형을 미리 정해진 시간(프레임)마다 분할한다. 또한, CPU(101)는, 유저 음성 데이터가 나타내는 파형에 대해서도 프레임마다 분할한다. CPU(101)는, 프레임으로 분해된 모범 음성 데이터가 나타내는 파형 및 유저 음성 신호가 나타내는 파형을 푸리에 변환하여 얻어진 진폭 스펙트럼을 대수값으로 구하고, 그것을 푸리에 역변환하여 프레임마다의 스펙트럼 포락을 얻는다.
도 6은 모범 음성(위) 및 유저 음성(아래)의 스펙트럼 포락을 예시하는 도면이다. 도 6에 도시한 스펙트럼 포락은, 프레임 Ⅰ∼프레임 Ⅲ의 3개의 프레임으로 구성되어 있다. CPU(101)는, 얻어진 스펙트럼 포락을 프레임마다 비교하여, 양자의 근사도를 수치화하는 처리를 행한다. 근사도의 수치화(근사도 지수의 산출)는, 예를 들면 이하와 같이 행한다. CPU(101)는, 특징적인 포르만트의 주파수와 스펙트럼 밀도를 스펙트럼 밀도-주파수도에 표시하였을 때의 2점간의 거리를 음성 데이터 전체에 대하여 서로 합한 것을 근사도 지수로서 산출해도 된다. 혹은, 특정한 주파수에서의 스펙트럼 밀도의 차를 음성 데이터 전체에 대하여 적분한 것을 근사 도 지수로서 산출해도 된다. 또한, 모범 음성과 유저 음성은 길이(시간)가 다른 것이 통상이기 때문에, 상술한 처리에 앞서서 양자의 길이를 일치시키는 처리를 행하는 것이 바람직하다.
다시 도 5를 참조하여 설명한다. CPU(101)는, 산출한 근사도 지수에 기초하여, 데이터베이스 DB1의 갱신을 행할지의 여부를 판단한다(스텝 S202). 구체적으로는 다음과 같다. HDD(104)에는, 취득한 음성 데이터를 데이터베이스 DB1에 추가등록하기 위한 조건이 미리 기억되어 있다. CPU(101)는, 스텝 S201에서 산출한 근사도 지수가 이 등록 조건을 만족하는지의 여부를 판단한다. 등록 조건이 만족된 경우(단계 S202 : 예), CPU(101)는, 처리를 후술하는 스텝 S203으로 진행한다. 등록 조건이 만족되지 않은 경우(단계 S202 : 아니오), CPU(101)는 처리를 종료한다.
등록 조건이 만족된 경우, CPU(101)는 데이터베이스 갱신 처리를 행한다(단계 S203). 구체적으로는 다음과 같다. CPU(101)는, 등록 조건을 만족한 음성 데이터에, 이 음성 데이터의 화자인 학습자(유저)를 특정하는 유저 ID를 부여한다. CPU(101)는, 모범 음성 데이터베이스 DB2로부터 유저 ID와 동일한 유저 ID를 검색하고, 음성 데이터를 이 유저 ID와 대응시켜 모범 음성 데이터베이스 DB2에 추가 등록한다. CPU(101)는, 갱신 요구로부터 추출한 유저 ID가 모범 음성 데이터베이스 DB2에 등록되어 있지 않았던 경우에는, 이 유저 ID를 추가 등록하고, 이 유저 ID에 대응시켜 음성 데이터를 등록한다. 이와 같이 하여, 데이터베이스 DB1에 학습자의 음성 데이터가 추가 등록되어, 갱신된다.
이상에서 설명한 데이터베이스 갱신 동작은, 상술한 음성 재생 동작과 병행 하여 행해져도 되고, 음성 재생 동작의 완료 후에 행해져도 된다. 이렇게 해서, 학습자의 음성 데이터가 순차적으로 데이터베이스 DB1에 추가되어 감으로써 데이터베이스 DB1에는 수많은 화자의 음성 데이터가 축적되게 된다. 따라서, 어학 학습 시스템(1)이 사용됨에 따라 데이터베이스 DB1에 많은 화자의 음성 데이터가 등록되어 가고, 동시에 새로운 학습자가 어학 학습 시스템(1)을 사용할 때에도 자신과 특징이 비슷한 음성이 재생될 확률이 높아져 간다.
<3. 변형예>
본 발명은 상술한 실시예에 한정되는 것이 아니라, 다양한 변형 실시가 가능하다.
<3-1. 변형예1>
상술한 실시예에서, 스텝 S104에서 추출한 음성 데이터를 RAM(102)에 기억한 후, CPU(101)는, 음성 데이터에 대하여 화속 변환 처리를 행해도 된다. 구체적으로는 다음과 같다. RAM(102)은, 화속 변환 처리의 전후에서의 화속 비율을 지정하는 변수 a를 미리 기억해 둔다. CPU(101)는, 추출한 음성 데이터에 대하여, 음성의 시간(음성 데이터의 선두로부터 말미까지의 재생에 필요한 시간)을 a배하는 처리를 행한다. a>1인 경우에는 화속 변환 처리에 의해 음성의 길이가 신장된다. 즉, 화속은 느려진다. 반대로, a<1인 경우에는 화속 변환 처리에 의해 음성의 길이는 줄어든다. 즉, 화속은 빨라지게 된다. 본 실시예에서, 변수 a의 초기값으로서 1보다 큰 값이 설정되어 있다. 따라서, 모범 음성이 재생되며, 계속해서 유저 음성이 입력된 후, 유저 음성과 비슷한 음성으로 재생되는 예문은, 모범 음성보다 천천히 재생된다. 따라서, 학습자는, 흉내낼 발음(목표로 할 발음)을 보다 명확하게 인식할 수 있다.
<3-2. 변형예2>
상술한 실시예에서는, 스텝 S104에서, 학습자(유저)의 음성으로부터 추출한 특징량과 가장 근사하는 특징량과 대응지어진 음성 데이터를 추출하였지만, 음성 데이터를 추출하는 조건은 학습자의 음성의 특징량과 가장 근사하는 것에 한정되지 않는다. 예를 들면, 데이터베이스 DB1에서, 예문의 음성 데이터와 대응시켜 그 음성의 발화 레벨(모범 음성과의 근사도를 나타내는 지수; 발화 레벨이 높은 것은 보다 모범 음성에 근사하고 있음)을 기록해 놓고, 이 발화 레벨을 음성 데이터 선택의 조건에 포함해도 된다. 구체적인 조건으로서는 예를 들면, 발화 레벨이 임의의 일정 레벨 이상인 것 중에서, 특징량이 가장 근사하는 것을 추출한다고 하는 조건이어도 된다. 혹은, 특징량의 근사도가 임의의 값 이상인 것 중에서, 발화 레벨이 가장 높은 것을 추출한다고 하는 조건이어도 된다. 발화 레벨은, 예를 들면 스텝 S201에서의 근사도 지수의 산출과 마찬가지로 행하면 된다.
<3-3. 변형예3>
또한, 시스템의 구성은, 상술한 실시예에서 설명한 것에 한정되지 않는다. 어학 학습 시스템(1)이 네트워크를 통해 서버 장치에 접속되어 있고, 상술한 어학 학습 시스템의 기능 중 일부를, 서버 장치에 담당시켜도 된다.
또한, 상술한 실시예에서는, CPU(101)가 어학 학습 프로그램을 실행함으로써 어학 학습 시스템으로서의 기능이 소프트웨어적으로 실현되었지만, 도 1에 도시한 기능 구성 요소에 상당하는 전자 회로 등을 이용하여, 하드웨어적으로 시스템을 실현해도 된다.
<3-4. 변형예4>
상술한 실시예에서는, 화자의 음성의 특징량으로서 제1∼제3 포르만트의 포르만트 주파수를 이용하는 양태에 대하여 설명하였지만, 음성의 특징량은 포르만트 주파수에 한정되는 것은 아니다. 스펙트로그램 등, 다른 음성 해석 방법에 기초하여 산출한 특징량이어도 된다.
본 발명에 따르면, 보다 간단한 처리로 학습자와 비슷한 모범 음성을 이용하여 학습하는 것이 가능한 어학 학습 시스템 및 방법을 제공할 수 있다.

Claims (6)

  1. 복수의 각 화자마다, 그 화자의 음성으로부터 추출한 특징량과, 그 화자의 하나 또는 복수의 음성 데이터를 대응시켜, 각각 기억하는 데이터베이스와,
    학습자의 음성을 취득하는 음성 취득 수단과,
    상기 음성 취득 수단에 의해 취득한 음성으로부터, 상기 학습자의 음성의 특징량을 추출하는 특징량 추출 수단과,
    상기 특징량 추출 수단에 의해 추출된 상기 학습자의 특징량을, 상기 데이터베이스에 기록된 복수의 화자의 특징량과 비교하고, 이 비교에 기초하여, 하나의 화자의 음성 데이터를, 상기 데이터베이스로부터, 선택하는 음성 데이터 선택 수단과,
    상기 음성 데이터 선택 수단에 의해 선택된 하나의 음성 데이터에 따라 음성을 출력하는 재생 수단
    을 갖는 어학 학습 시스템.
  2. 제1항에 있어서,
    상기 음성 데이터 선택 수단은, 상기 데이터베이스에 기록된 복수의 화자의 특징량과 상기 특징량 추출 수단에 의해 추출된 상기 학습자의 특징량의 차를 나타내는 근사도 지수를, 각 화자마다, 산출하는 근사도 산출 수단을 포함하고, 그 근사도 산출 수단에 의해 산출된 근사도 지수에 기초하여, 소정의 조건을 만족하는 하나의 화자의 특징량과 대응지어진 하나의 음성 데이터를, 상기 데이터베이스로부터, 선택하는 것을 특징으로 하는 어학 학습 시스템.
  3. 제2항에 있어서,
    상기 소정의 조건이, 근사도가 가장 높은 것을 나타내는 근사도 지수에 대응하는 하나의 화자의 음성 데이터를 선택한다고 하는 조건인 것을 특징으로 하는 어학 학습 시스템.
  4. 제1항에 있어서,
    상기 음성 데이터 선택 수단에 의해 선택된 음성 데이터의 화속을 변환하는 화속 변환 수단을 더 갖고,
    상기 재생 수단이, 상기 화속 변환 수단에 의해 화속 변환된 음성 데이터에 따라 음성을 출력하는 것을 특징으로 하는 어학 학습 시스템.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    모범 음성을 기억하는 기억 수단과,
    상기 모범 음성과 상기 음성 취득 수단에 의해 취득된 학습자의 음성을 비교하여, 양자의 근사도를 나타내는 정보를 발생하는 비교 수단과,
    상기 비교 수단에 의해 발생된 정보에 의해 나타내어지는 근사도가 소정의 조건을 만족시키고 있는 경우, 상기 음성 취득 수단에 의해 취득된 학습자의 음성 을, 상기 특징량 추출 수단에 의해 추출된 특징량에 대응시켜 상기 데이터베이스에 추가하는 데이터베이스 갱신 수단
    을 더 갖는 어학 학습 시스템.
  6. 복수의 각 화자마다, 그 화자의 음성으로부터 추출한 특징량과, 그 화자가 발성한 하나 또는 복수의 어학 학습용의 음성 데이터를 대응시켜, 각각 기억하는 데이터베이스를 사용하여, 학습자에게 어학 학습용의 음성 데이터를 제공하는 방법으로서,
    학습자가 발성한 음성을 취득하는 과정과,
    상기 취득한 음성으로부터, 상기 학습자의 음성의 특징량을 추출하는 과정과,
    상기 추출된 상기 학습자의 특징량을, 상기 데이터베이스에 기록된 복수의 화자의 특징량과 비교하고, 이 비교에 기초하여, 하나의 화자의 음성 데이터를, 상기 데이터베이스로부터 선택하는 과정과,
    상기 선택된 하나의 음성 데이터에 따라 음성을 출력하는 과정
    을 갖는 것을 특징으로 하는 음성 데이터 제공 방법.
KR1020050128485A 2004-12-24 2005-12-23 어학 학습 시스템 및 어학 학습용의 음성 데이터 제공 방법 KR100659212B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004373815A JP2006178334A (ja) 2004-12-24 2004-12-24 語学学習システム
JPJP-P-2004-00373815 2004-12-24

Publications (2)

Publication Number Publication Date
KR20060073502A KR20060073502A (ko) 2006-06-28
KR100659212B1 true KR100659212B1 (ko) 2006-12-20

Family

ID=36732492

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050128485A KR100659212B1 (ko) 2004-12-24 2005-12-23 어학 학습 시스템 및 어학 학습용의 음성 데이터 제공 방법

Country Status (3)

Country Link
JP (1) JP2006178334A (ko)
KR (1) KR100659212B1 (ko)
CN (1) CN100585663C (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006184813A (ja) * 2004-12-28 2006-07-13 Advanced Telecommunication Research Institute International 外国語学習装置
CN101630448B (zh) * 2008-07-15 2011-07-27 上海启态网络科技有限公司 语言学习客户端及系统
KR101228909B1 (ko) * 2009-09-10 2013-02-01 최종근 전자 사전 단말기에서 어휘에 대한 소리를 제공하는 방법 및 그 전자 사전 단말기
KR101141793B1 (ko) * 2011-08-22 2012-05-04 광주대학교산학협력단 음 높이 가변 어학학습시스템
CN102760434A (zh) 2012-07-09 2012-10-31 华为终端有限公司 一种声纹特征模型更新方法及终端
CN104485115B (zh) * 2014-12-04 2019-05-03 上海流利说信息技术有限公司 发音评价设备、方法和系统
JP6613560B2 (ja) * 2014-12-12 2019-12-04 カシオ計算機株式会社 電子機器、学習支援方法およびプログラム
CN105933635A (zh) * 2016-05-04 2016-09-07 王磊 一种对音频或视频内容附加标签的方法
CN110556095B (zh) * 2018-05-30 2023-06-23 卡西欧计算机株式会社 学习装置、机器人、学习支援系统、学习装置控制方法以及存储介质
KR102416041B1 (ko) * 2021-11-23 2022-07-01 진기석 다국어 동시 학습 시스템

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6449081A (en) * 1987-08-19 1989-02-23 Chuo Hatsujo Kk Pronunciation training apparatus
JP2844817B2 (ja) * 1990-03-22 1999-01-13 日本電気株式会社 発声練習用音声合成方式
JP3931442B2 (ja) * 1998-08-10 2007-06-13 ヤマハ株式会社 カラオケ装置
JP2001051580A (ja) * 1999-08-06 2001-02-23 Nyuuton:Kk 音声学習装置
JP2002244547A (ja) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> 発話学習システムのコンピュータプログラムおよびこのプログラムと協働するサーバ装置
JP2004093915A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd サーバ装置、情報端末装置、学習支援装置及びプログラム
JP3842746B2 (ja) * 2003-03-03 2006-11-08 富士通株式会社 教材提供プログラム,教材提供システム及び教材提供方法

Also Published As

Publication number Publication date
JP2006178334A (ja) 2006-07-06
CN100585663C (zh) 2010-01-27
KR20060073502A (ko) 2006-06-28
CN1794315A (zh) 2006-06-28

Similar Documents

Publication Publication Date Title
KR100659212B1 (ko) 어학 학습 시스템 및 어학 학습용의 음성 데이터 제공 방법
US10789290B2 (en) Audio data processing method and apparatus, and computer storage medium
CN110148427B (zh) 音频处理方法、装置、系统、存储介质、终端及服务器
US10347238B2 (en) Text-based insertion and replacement in audio narration
CN106898340B (zh) 一种歌曲的合成方法及终端
US6182044B1 (en) System and methods for analyzing and critiquing a vocal performance
JP2007249212A (ja) テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ
JPH10507536A (ja) 言語認識
CN108053814B (zh) 一种模拟用户歌声的语音合成系统及方法
CN111370024B (zh) 一种音频调整方法、设备及计算机可读存储介质
JP2006337667A (ja) 発音評価方法、音素列モデル学習方法、これらの方法を用いた装置、プログラム、および記録媒体。
CN114927122A (zh) 一种情感语音的合成方法及合成装置
JP2011186143A (ja) ユーザ挙動を学習する音声合成装置、音声合成方法およびそのためのプログラム
JP2000347681A (ja) テキスト・ベースの音声合成を利用した音声制御システム用の再生方法
JPH1097267A (ja) 声質変換方法および装置
US10643600B1 (en) Modifying syllable durations for personalizing Chinese Mandarin TTS using small corpus
JP2844817B2 (ja) 発声練習用音声合成方式
JP2003186489A (ja) 音声情報データベース作成システム,録音原稿作成装置および方法,録音管理装置および方法,ならびにラベリング装置および方法
JP2006139162A (ja) 語学学習装置
JP2013088488A (ja) 音声検索装置、音声検索方法及びプログラム
CN112164387A (zh) 音频合成方法、装置及电子设备和计算机可读存储介质
KR20050041749A (ko) 방송 음성 데이터를 이용한 영역 및 화자 의존 음성 합성장치, 음성 합성용 데이터베이스 구축방법 및 음성 합성서비스 시스템
US6934680B2 (en) Method for generating a statistic for phone lengths and method for determining the length of individual phones for speech synthesis
CN113421544B (zh) 歌声合成方法、装置、计算机设备及存储介质
CN111696530B (zh) 一种目标声学模型获取方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121119

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131119

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141120

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee