JPH0293500A - 発音評価法 - Google Patents

発音評価法

Info

Publication number
JPH0293500A
JPH0293500A JP63246733A JP24673388A JPH0293500A JP H0293500 A JPH0293500 A JP H0293500A JP 63246733 A JP63246733 A JP 63246733A JP 24673388 A JP24673388 A JP 24673388A JP H0293500 A JPH0293500 A JP H0293500A
Authority
JP
Japan
Prior art keywords
vector
voice
teacher
adaptation
codebook
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63246733A
Other languages
English (en)
Other versions
JP2704216B2 (ja
Inventor
Hiroshi Hamada
浜田 洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63246733A priority Critical patent/JP2704216B2/ja
Publication of JPH0293500A publication Critical patent/JPH0293500A/ja
Application granted granted Critical
Publication of JP2704216B2 publication Critical patent/JP2704216B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分Tr] この発明は外国語等の発音の良さを評価する発音評価法
に関するものである。
(従来の技術) 従来は、発貰の評価を行う、あるいは、発音の訓練を行
うための装置において、単に教師音声と被験者(被訓練
者)の音声とのスペクトル間の距離を求め、その結果を
発声の良さを表わす値とする方式が取られていた。しか
し、この方式はスペク]・ル間の距離に含まれる教師の
音声と被験者の音声との様々な違いを一括にして扱うた
め、G伎畜な評価ができない、発音において何が問題で
あるかが明かでなく被験者に発声の何処に問題点がある
かを指摘できない、などの欠点があった。発音の良さを
決める要因としては、 (り種々の音韻が正しく発音されているか、(2)音韻
のスペクトルが時間的になめらかに変化しているか、 (3)発声における音韻の時間長、音声パワー、ピッチ
などの韻律的特徴が正しく発音されているか、の3点が
挙げられる。一方、発声された音声、特に連続に発声さ
れた音声中の音韻は調音結合の影響で変形しており、個
々の音filを正しく抽出することは非常に困難である
。従って、発音の評価を行うために、また、評価結果か
ら被験者の発声の問題点を明確に指摘するため、これら
の要因を分離し厳密に評価する方式、しかも、それらの
処理が個々の音韻を抽出することなしに扱える方式の実
現が7まれでいた。
〔課題を解決するための手段] この発明は被験者の音声をベクトル量子化することによ
り得られるコードブックを教師音声のコードブックに適
応化することにより得られる適応化ベクトルの妥当性を
用いて、被験者の音声と教師音声との音韻間の対応が正
しく取られているかを定量的に判定し、上記発音の良さ
を決定する要因のうら「種々の音韻が正しく発声されて
いるか」を厳害に評価することにある。また、同時に−
・クトル量子化−話者適応化−適応化ベクトルの評価と
いう手順により、音素を抽出することなしに統計的手法
によって発音の良さを評価することにある。
〔実施例) 以下に、この発明の実施例を図面を用いて詳tillに
説明する。
第1図はこの発明の発音評価法の処理を表わすブロック
図である。
まず、コードブック生成部1において教師および被験者
が発声した音声のクラスタ分析を行い教師および被験者
のコードブックを生成する。教師が発声した音声2を、
音声分析部3において音声のスペクトルの特徴を表わす
パラメータに変換する。音声分析の方法としては、バン
ドパスフィルタ分析、線形予測分析、FFT分析など種
々の方法が提案されており、そのいずれかの方式を用い
て分析を行えば良い。ここでは、2次の[、PC分析に
より得られるLPCケプストラムを特徴パラメータとす
る場合を考える。次に、クラスタリング演(7部4にお
いて教師音声の特iThパラメータのクラスタ分析を行
い、あらかじめ定められた数nの代表的なスペクトルバ
タン(コードブック)Vtl    VL2  、  
・ ・ ・、 ■いを持つ教師音声のコードブック5を
生成する。ただし、■いは1次のLPCケプストラムV
、、−(Vい、l+  V Li+ 2.  ・ ・ 
・、  v t;、 −1により表わされる。クラスタ
リングの手法については、Linde、 Buzo a
nd Gray ”八n alにorighm for
vector quantizer design ”
 (IIEEE Trans、 Comm。
vol、 C0M−28、lり80)に詳しい。
一方、被験者が教師と同じ1″11声1文章等)を発声
する。被験、どの音声6も教師の音声と同様に音声分析
部7で2次のLPCケプストラムに変換された後、クラ
スタリング演算部8でクラスタ分析され11個のコード
ベクトルを持つ被験者のコードブック9、 V、、、V、。、・ ・ ・、 ■い がi)られる。ただし、■1.は1次のLI’Cヶプス
1−ラム V、、=  (V、、、、、V、、、2.  ・ ・ 
・、  Vs;、plにより表わされる。
次に、話者適応jヒ部10において、被験者のコードブ
ック9を教師のコードブック5に適応化する。話者適応
化の手法については種々提案されているが、ここでは鹿
野により提案されたヒストグラムを用いる方法(Shi
kano、 Lee and Reddy”5peak
er adaptation through vec
tor quantizaLion” (IIEEE 
、 1cAssl’86 、49.5 、1986)参
j!;j )を用いた例を示す。
まず、ベクトル星γ−化部11において、コートブ、り
生成部lで作成された被験者のコードブック9を用いて
被験Hの音声をベクトル量子化(?)号化)する。また
、ベクトル量子化部12において同様に、教師のコード
ブック5を用いて教師の音声をベクトル量子化(符号化
)する。
次に、マツチング演算部13において、被験どの音声を
表わすベクトルコート列と教師の音声を表わす・・、ク
トルコー1列とのマノナング演算を行い、破!Sji 
”Hの音声と教師音声との時間軸上での対応を取る。マ
ンナング演算には、DPマンチング法、11財などの手
法を用いれば良い。
次に、ヒストグラム生成部14においてマツチング演算
部13で得られた被験者のコードへクトルと教師のコー
ドベクトルとの対応を表わすヒストグラムを生成する。
最後に、適応化コードブック生成部15において、ヒス
トグラムに従って教師のコードベクトルの線形結合によ
り教師の音声に適応した被験者のコードベクトルを作成
する。具体的には以下の弐により教師音声に適応した被
験者のコードブック16をj7る。
(i=1.  ・ ・ ・、  n) ただし、aijは被験者のコードベクトルV siに対
応する教師のコードベクトルVLjのヒストグラムの値
、■や、は教師の音声に適応した被験者のコドブノク1
6を構成するコードベクトルで■2、−(■1゜+ l
 +  V Ai+ 2.・・・、  V、i、、1で
ある。
話者適応化の方法についてはこの手法に限らず他の手法
も適用することができる。その場合は、適応化64算部
17をその方式に置き替えれば良い。
以上の一連の処理で得られた被験者のコードブック9、
及び、教Cl1iff声に適応化した被験−汗のコード
ブック16を用いて、適応化ベクトル評価部18におい
て適応化ベクトルの妥当性を評価し、発音の良さを評価
する。
被験者のコードブック9内のコードベクトルおよび教師
のコードブック5内の二)−ドベクトルは、被験者およ
び教師の音韻スペクトルを表わしている。音韻の数は音
素の数よりも通常は多く、その故はnを変えることによ
り自由に決定することができる。nの値としては128
や256が通常用いられる。また、適応化後のコードブ
ック16内のコードベクトルは、教師音声のスペク1−
ル空間上に写像した被験どの音韻スペクトルを表わして
いる。従って、適応化前の被験者のコードブックと適応
化後のコードブックとの間の関係を表わす適応化ベクト
ルは被験汗が音a口を正しく発声しているかを表わすベ
クトルであると考えることができる。第2図に適応化ベ
クトルの模式Vを示す。
第2図(a)は被験者が音αUを誤って発声している場
合で、被験者の音韻と教師の]+1とが異なった対応を
示している。第2図(b)は被験者が音韻をはっきり区
別していない場合で、適応化後のコードベクトルの分翔
1が非常に悪くなっている。さらに、第2図(C)は被
験者が音■を区別してはいるが分離が悪い場合である。
一方、正しい発声をした場合は、第2図(d)に示す場
合のように適応化ベクトルが被験者と教師との声道長な
どの差に起因する個人性のみを表わしているものになり
、それぞれの適応化ベクトルは平行に近いものになる。
従って、適応化ベクトルが平行かつベクトル長が均一で
あるほどよい発声である。
まず、「適応化ベクトルの各方向成分の分散を用いる方
法」の場合について、以下に第1図に従って手順を示す
。初めに、適応化ベクトル演算部19において被験者の
コードブック9と教師の音声に適応したコードブック1
6との間の対応を表わす適応化ベクトル20を求める。
適応化へクトルし、は次式により求められる。
U、  =V、、−V、。
−[Vat、+  Vti+l+  Vat、Z  L
i、2・ ・、  V、、、、−V、、1.1−(Ut
l、U□、2.・・・、(]3.P)次に、得られた適
応化へクトルし、の各成分ごとの分散の総和を評価値演
算部21において求める。
ずなわち評価(a巨v1は、 により求められる。ただしUIVI!+1 は第j方向
成分の平均値で U□。1、− Σ U12、/n である。この評価値E□、が小さいほど適応化ベクトル
としては平行かつ長さが安定したものであり、良い発音
であるといえる。最終的に、評価値E vatをそのま
まの値、あるいは、100点満魚の評価値、5段階8′
r価等に変換して発音31V価結果22を出力する。
次に、適応化ベクトルの妥当性を表わす評価値として、
平均適応化ベクトルと各適応化ヘクI・ルとの間の角度
を用いる場合について説明する。この場合は、先に述べ
た適応化ベクトルの平行性のみについて評価する方法で
ある。まず、先の場合と同様に適応化ベクトル演算部1
9において被験者のコードブックと教師の音声に適応し
たコードブックとの間の対応を表わす適応化ベクトルU
、を求める。また、適応化ベクトルの平均ベクトルUa
v、を求める。次に、評価値/iii算部においてn個
の適応化ベクトルと平均ベクトルとの間の角度θ、  
(i−1,・・・、n)を次式により求める。
θ;  −cos−’ ((Ut 、  U、、−) 
/(+1 Ur  II  −II Um、、  i 
)  )ただし、(U、 、U、、、)は適応化ベクト
ルU。
と平均適応ベクトルU eve との内聞を表わし、(
Ui  、U、v、  )  −Σ (Ut  、= 
 ×Uave 、J)である。また1iUllはベクト
ルU、のノルムを表わし、 である。以上の処理により求められたn個の角度から評
価(!Eva+ を計算する。評価値としては、角度θ
、の絶対値の総和 E vat  −Σ    θ1 や、角度θ、の2乗和 Eval”  Σ θ、′ を用いればよい、この値が小さいほど良い発音である。
最終的に得られた評価値、あるいは、100点満点の評
価値や5段階評価等に変換して発音評価結果22を出力
する。
次に、適応化ベクトルの妥当性を表わす評価値として、
適応化前のコードブック内のへクトルコートの分散と適
応化後のコードブック内のコートベクトルの分散の比を
用いる場合について説明する。これは、第2図fb)、
 (C)に示したように被験汗が音iiQをはっきり区
別していない場合、被験打が音α11を区別してはいる
が分離が悪い場合に、適応化前のコートベクトルの分布
範囲と適応化後のコ1ベクトルの分布範囲が大きく異な
ることを利用したものである。まず、適応化前のコード
ブック内のコートベクトルの分j枚 と、J9化後のコー(ブック内のコードブックトルの分
散 を求める。ただしy 、 ave 、 v、 aveは
それぞれclisL (V、 、  V7 )はコード
ベクトルV;aJ−トベクトルvJとの間のスペクトル
距離である。
スペクトル距離としてはそれぞれのパラメータにあった
ものを用いれば良(、LPCケプストラムの場合はユー
クリッド距離などがよく使われる。評価値E vat 
は以上で求められた分散り。、1〕1 を用いて、例え
ば、 EV−L  =m+n   (Do  、  DI  
)/max  (Do  、  DI )により求める
ことができる。評価値の計算はこの式に限らすDoとり
、の等しさを表わすものであれば良い。上の式を用いた
場合は値が1に近い程よい発声である。この場合も他の
適応化ヘクlル評価の時と同様、評価値E□1をそのま
まの値、あるいは、100点満点の評価値、5段階1坪
価等に変換して発音評価結果22を出力する。
評価値としては上記3例に限らず、適応化前のコードブ
ックと適応化後のコードブックの関係が音韻の対応とし
てみた場合に妥当であるか否かを表わしているものであ
れば艮い。また、例えば上記3例の評価値の線形和など
種々の評価値の組みあわ拷で最終的な、if 1tll
i値を求めても良い。
〔発明の効果〕
以上説明したように、この発明によれば、従来被験者と
教師との音声のスペクトル開路なのみにより行っていた
発音の良さの評価を、特に音韻が正しく発声されたかと
いう点に関してIfに行うことができる。また、ベクト
ル量子化の手法を用いてコードブンクを作成し、教師音
声に適応化した後、適応化ベクトルを用いて発音の良さ
を評価しているため、個々の音韻を抽出する必要がなく
、統計的に処理できるという利点がある。
【図面の簡単な説明】 第1図はこの発明による発音評価法の実施例を示すブロ
ック図、第2図は適応化ベクトルの評価の考え方を表わ
r模式図である。 特許出願人二口本電信電話株式会社

Claims (1)

    【特許請求の範囲】
  1. (1)発音の標準とされる教師が発声した音声を分析し
    た後クラスタリングしコードブックを作成し、 被験者の音声を分析した後クラスタリングしてコードブ
    ックを作成し、 その被験者音声のコードブックと上記教師音声のコード
    ブックとから上記被験者音声から上記教師音声への適応
    化ベクトルを求め、 その得られた適応化ベクトルから上記被験者の音声の発
    声の良さを表わす評価値を求めることを特徴とする発音
    評価法。
JP63246733A 1988-09-29 1988-09-29 発音評価法 Expired - Fee Related JP2704216B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63246733A JP2704216B2 (ja) 1988-09-29 1988-09-29 発音評価法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63246733A JP2704216B2 (ja) 1988-09-29 1988-09-29 発音評価法

Publications (2)

Publication Number Publication Date
JPH0293500A true JPH0293500A (ja) 1990-04-04
JP2704216B2 JP2704216B2 (ja) 1998-01-26

Family

ID=17152837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63246733A Expired - Fee Related JP2704216B2 (ja) 1988-09-29 1988-09-29 発音評価法

Country Status (1)

Country Link
JP (1) JP2704216B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100447371B1 (ko) * 2001-12-29 2004-09-04 주식회사 멀티채널랩스 녹음 비교 기능을 갖는 어학 학습 장치 및 이를 이용한어학학습 방법
KR100490367B1 (ko) * 2001-08-03 2005-05-17 정택 휴대용 단어학습 장치 및 이를 이용한 단어학습 방법
JP2006227030A (ja) * 2005-01-20 2006-08-31 Advanced Telecommunication Research Institute International 発音評定装置、およびプログラム
JP2007171944A (ja) * 1996-10-02 2007-07-05 Sri Internatl 言語教育のために発音をテキスト独立に自動グレード付けする方法及びシステム
JP2010169973A (ja) * 2009-01-23 2010-08-05 Hitachi Ltd 外国語学習支援システム、及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007171944A (ja) * 1996-10-02 2007-07-05 Sri Internatl 言語教育のために発音をテキスト独立に自動グレード付けする方法及びシステム
KR100490367B1 (ko) * 2001-08-03 2005-05-17 정택 휴대용 단어학습 장치 및 이를 이용한 단어학습 방법
KR100447371B1 (ko) * 2001-12-29 2004-09-04 주식회사 멀티채널랩스 녹음 비교 기능을 갖는 어학 학습 장치 및 이를 이용한어학학습 방법
JP2006227030A (ja) * 2005-01-20 2006-08-31 Advanced Telecommunication Research Institute International 発音評定装置、およびプログラム
JP2010169973A (ja) * 2009-01-23 2010-08-05 Hitachi Ltd 外国語学習支援システム、及びプログラム

Also Published As

Publication number Publication date
JP2704216B2 (ja) 1998-01-26

Similar Documents

Publication Publication Date Title
Kumar et al. Design of an automatic speaker recognition system using MFCC, vector quantization and LBG algorithm
Le Cornu et al. Generating intelligible audio speech from visual speech
Song et al. ExcitNet vocoder: A neural excitation model for parametric speech synthesis systems
JPH09101798A (ja) 音声帯域拡大方法および音声帯域拡大装置
Sündermann et al. A first step towards text-independent voice conversion
Milner et al. Prediction of fundamental frequency and voicing from mel-frequency cepstral coefficients for unconstrained speech reconstruction
US5943647A (en) Speech recognition based on HMMs
JPH0293500A (ja) 発音評価法
Liberatore et al. Voice conversion through residual warping in a sparse, anchor-based representation of speech
Praveen et al. Text dependent speaker recognition using MFCC features and BPANN
Huang et al. An automatic voice conversion evaluation strategy based on perceptual background noise distortion and speaker similarity
Helander et al. LSF mapping for voice conversion with very small training sets
Liberatore Native-nonnative voice conversion by residual warping in a sparse, anchor-based representation
Bhuyan et al. Comparative study of voice conversion framework with line spectral frequency and Mel-Frequency Cepstral Coefficients as features using artficial neural networks
Wagner et al. Generative models for improved naturalness, intelligibility, and voicing of whispered speech
Erro et al. On combining statistical methods and frequency warping for high-quality voice conversion
Sathiarekha et al. A survey on the evolution of various voice conversion techniques
Koolagudi et al. Spectral features for emotion classification
KR100322693B1 (ko) 선형예측분석합성을이용한음성인식방법
Bose et al. Robust speaker identification using fusion of features and classifiers
Yathigiri et al. Voice transformation using pitch and spectral mapping
JP2834471B2 (ja) 発音評価法
Mohammadi Reducing one-to-many problem in voice conversion by equalizing the formant locations using dynamic frequency warping
CN113611309B (zh) 一种音色转换方法、装置、电子设备及可读存储介质
Sangwan Feature Extraction for Speaker Recognition: A Systematic Study

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees