JP4440502B2 - 話者認証システム及び方法 - Google Patents

話者認証システム及び方法 Download PDF

Info

Publication number
JP4440502B2
JP4440502B2 JP2001264334A JP2001264334A JP4440502B2 JP 4440502 B2 JP4440502 B2 JP 4440502B2 JP 2001264334 A JP2001264334 A JP 2001264334A JP 2001264334 A JP2001264334 A JP 2001264334A JP 4440502 B2 JP4440502 B2 JP 4440502B2
Authority
JP
Japan
Prior art keywords
speaker
speaker model
voice
model
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001264334A
Other languages
English (en)
Other versions
JP2003076390A (ja
Inventor
昭二 早川
千晴 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001264334A priority Critical patent/JP4440502B2/ja
Publication of JP2003076390A publication Critical patent/JP2003076390A/ja
Application granted granted Critical
Publication of JP4440502B2 publication Critical patent/JP4440502B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、音声を用いて話者を特定する話者認証システムに関する。特に、入力される音声の内容が任意であっても話者の特定が可能な話者認証システムの話者登録に関する。
【0002】
【従来の技術】
昨今のコンピュータ関連技術の急速な発展に伴って、音声入力によって話者を特定することができる話者認証技術も急激に進歩してきている。そして、話者認証技術を適用するアプリケーションが急増するに従って、話者認証の精度の向上が強く求められるようになってきた。そして、従来は発声内容を固定することによって話者認証の精度向上を図っていた。
【0003】
しかしながら、アプリケーションによっては、その発声内容を固定しない場合もあり、そのような場合であっても、ある程度の話者認証精度を維持する必要があった。そして、任意の発声内容に基づいて話者認証を行う場合においては、あらかじめ登録しておく話者の登録音声に、より多くの音素を含んでおくことが、認識精度向上に重要な要素となっている。したがって、発声内容が固定されている話者認証時における登録音声よりも、より長い記録時間分の登録音声が必要となる。
【0004】
例えば、古井の著書である「音響・音声工学」(近代科学社(1992)、p.213)においては、一般に発声内容が任意である場合の話者認証には、10〜30秒程度の登録音声が必要であると言われているが、一方では、確率モデルを用いて一般的な話者モデルを作成した場合に、登録音声の記録時間を60秒にすることによって、登録音声の記録時間が30秒である時と比べて識別誤りが半減したという報告もされており("Robust text-independent speaker identification using gaussian mixture speaker models", IEEE Trans. On Speech and Audio Process. Vol.3 No.1.pp.78 (1995))、話者認証の精度を充分に確保するためには、なるべく長い記録時間分の登録音声が必要となることが明らかである。
【0005】
ここで、図1に従来の話者認証システムの原理図を示す。図1に示すように、音声の登録を開始する場合、音声入力部1で音声を取り込み、音声分析部2で音声を特徴パラメタに変換し、RAM領域3等に一時保存することになる。
【0006】
そして、所定の認証精度を維持するのに十分な特徴パラメタが確保できているか否か、すなわち十分な量の音声入力が登録できているか否かを判定する音声登録量判定部4により、登録すべき音声入力が量的に不足していると判定された場合には、音声入力部1に戻って、登録者に対して追加の音声入力を促すメッセージを出力する。最後に、登録すべき音声入力が所定の認証精度を維持するのに十分な量であると判定された場合には、話者モデル生成部6において話者モデルを生成することで登録処理を行っていた。
【0007】
【発明が解決しようとする課題】
しかしながら、上述したような従来の方法では、所定の認証精度を維持するのに十分な特徴パラメタが確保できているか否か、すなわち十分な量の音声入力が登録できているか否かを判定する指標として音声入力量を用いているため、所定の音声入力量が登録されるまでは話者モデルが生成されることがない。したがって、話者モデル自体が話者認証のために十分な精度を維持しているかどうか検証するのは最終的な話者モデル生成後にしか行うことができないという問題点があった。
【0008】
また、十分な量の音声入力が登録できていない場合に、どのような音声をどの程度入力すれば話者モデルとして十分に学習していることになるのかについても、明確な指標が存在していないという問題点もあった。したがって、音声入力量としては十分であるにもかかわらず、特定の音素については学習が不十分であるために認証精度が低い話者モデルとなる場合も生じていた。
【0009】
さらに、最終的な話者モデルに十分な認証精度を付与するために大量の音声入力を登録しておく必要があることから、大容量のRAM領域3等をシステム全体として確保しておく必要がある。したがって、計算機資源を必要以上に消費してしまうおそれがあるという問題点もあった。
【0010】
また、登録話者が音声入力する際に、音声入力のためだけに30秒以上発声する必要があり、かかる音声入力作業は登録話者にとっては苦痛であり、なるべく少ない発声時間で効率的に音声登録を終了できることが望ましい。
【0011】
本発明は、上記問題点を解決するために、話者認証精度を下げることなく、最小時間の登録音声入力で足りる話者認証システム及び方法を提供することを目的とする。
【0012】
【課題を解決するための手段】
上記目的を達成するために本発明にかかる話者認証システムは、任意の発声内容で話者を特定する話者認証システムであって、話者の音声を入力する音声入力部と、入力された話者の音声を分析し、特徴パラメタを抽出して一時保存する特徴パラメタ保存部と、特徴パラメタに基づいて、話者の話者モデルを生成もしくは更新する話者モデル生成・更新部と、話者モデルの学習が十分であるか否かを所定の判断基準に基づいて判定する話者モデル評価部と、話者モデルを話者データベースとして保存する話者モデル保存部とを含み、話者モデルの学習が不十分であると判定された場合には、音声入力部において追加の音声入力を行い、話者モデルの学習が十分であると判定された場合には、話者モデルを話者データベースに保存することを特徴とする。
【0013】
かかる構成により、音声入力に対して必ず話者モデルが生成されることから、入力時における話者モデルの学習度合を把握することができ、また新たに音声入力されるごとに話者モデルが更新されることから、話者モデルの学習度合は音声入力されるごとに進展することになり、学習度合が所定の値に到達するための最小限の音声入力で済ますことが可能となる。
【0014】
また、本発明にかかる話者認証システムは、入力すべき発声内容を話者に提示する発声内容提示部をさらに備えることが好ましい。より効果的な音声入力内容を提示できることから、より短い音声入力によって話者モデルの学習を完了させることができるからである。提示内容としては、可能な限り幅広い音素を含むことが好ましく、また既に生成されている話者モデルに不足あるいは欠けている音素を含んでいることが好ましい。
【0015】
また、本発明にかかる話者認証システムは、入力された話者の音声を認識する音声認識部と、音声認識部における認識結果に基づいて、話者モデル生成のために不足している発声内容を選択する発声内容選択部をさらに備えることが好ましい。認識された内容と重複している発声内容を再入力の対象から除外することができるからである。
【0016】
また、本発明にかかる話者認証システムは、不特定話者の音声データに基づいて生成された不特定話者モデルと、話者モデル生成・更新部で生成又は更新された話者モデルを一時保存する話者モデル一時保存部とをさらに備え、1回目の音声入力の場合には不特定話者モデルに基づいて話者モデルを生成し、2回目以降の音声入力の場合には話者モデル一時保存部に保存されている話者モデルに基づいて話者モデルを更新し、話者モデルの学習が十分であると判定された場合には、話者モデル一時保存部に保存されている話者モデルを話者データベースに保存することが好ましい。1回目の音声入力時から所定の認証精度を確保することができるからである。
【0017】
また、本発明は、上記のような話者認証システムの機能をコンピュータの処理ステップとして実行するソフトウェアを特徴とするものであり、具体的には、任意の発声内容で話者を特定する話者認証方法であって、話者の音声を入力する工程と、入力された話者の音声を分析し、特徴パラメタを抽出して一時保存する工程と、特徴パラメタに基づいて、話者の話者モデルを生成もしくは更新する工程と、話者モデルの学習が十分であるか否かを所定の判断基準に基づいて判定する工程と、話者モデルを話者データベースとして保存する工程とを含み、話者モデルの学習が不十分であると判定された場合には、話者の音声を入力する工程において追加の音声入力を行い、話者モデルの学習が十分であると判定された場合には、話者モデルを話者データベースに保存する話者認証方法並びにそのような工程を具現化するコンピュータ実行可能なプログラムであることを特徴とする。
【0018】
かかる構成により、コンピュータ上へ当該プログラムをロードさせ実行することで、音声入力に対して必ず話者モデルが生成されることから、入力時における話者モデルの学習度合を把握することができ、また新たに音声入力されるごとに話者モデルが更新されることから、話者モデルの学習度合は音声入力されるごとに進展することになり、学習度合が所定の値に到達するための最小限の音声入力で済ますことができる話者認証システムを実現することが可能となる。
【0019】
【発明の実施の形態】
(実施の形態1)
以下、本発明の実施の形態1にかかる話者認証システムについて、図面を参照しながら説明する。まず、本発明の実施の形態1にかかる話者認証システムの原理図を図2に示す。
【0020】
図2において、1は音声登録時に登録者の音声を入力するための音声入力部を、2は入力した音声を分析し特徴パラメタに変換する音声分析部を、3は特徴パラメタを一時的に保管するRAM領域を、それぞれ示している。
【0021】
また、5は登録音声の入力回数に応じて話者モデルを作成するか更新するか選択する話者モデル生成手段選択部を示しており、登録音声入力が1回目であれば話者モデル生成部6によって話者モデルを生成し、2回目以降であれば話者モデル更新部7によって話者モデルを更新することになる。
【0022】
さらに、8は話者モデルとして十分な認証精度を有しているかどうか、すなわち話者モデルとして学習が十分であるか否かを所定の判定基準に基づいて判定する話者モデル評価部を示しており、話者モデルとして学習が十分であると判定された場合には、生成されている話者モデルに一定の認証精度が確保されているものと判断される。一方、話者モデルとして学習が不十分であると判定された場合には、生成されている話者モデルに一定の認証精度が確保されていないものと判断され、音声入力部1によって2回目以降の音声入力がなされることになる。
【0023】
このような構成にすることで、まず音声入力単位ごとに話者モデルを作成・更新することができるようになる。すなわち、まず1回目の音声入力がされ、音声入力部1で音声が取り込まれる。取り込まれた音声は音声分析部2で特徴パラメタに変換される。作成された特徴パラメタはRAM領域3において保存されることになる。したがって、RAM領域3は入力単位ごとの特徴パラメタを保存しておけば足りる。
【0024】
また、1回目の音声入力の場合には、話者モデル生成部6でRAM領域3から特徴パラメタを受け取って、話者モデルを生成する。2回目以降の音声入力の場合には、話者モデル更新部7でRAM領域3から特徴パラメタを受け取って、既に生成されている話者モデルについて更新することになる。
【0025】
さらに、話者モデルが生成あるいは更新された後、話者モデルとして学習が十分であるか否か、すなわち話者モデルとして所定の認識精度が確保できているか否かについて話者モデル評価部8で判断し、話者モデルとして学習が不十分であると判断された場合には、話者モデルとして所定の認識精度が確保できていないものと判断できることから、追加音声入力として、音声入力部1から認証精度の向上に必要となる次の音声入力を取り込むことになる。
【0026】
話者モデルとして学習が十分であると判定された場合には、話者モデルとして所定の認識精度が確保できているものと判断できることから、これ以上の音声登録は不要となる。
【0027】
したがって、音声入力単位ごとに話者モデルとして学習が十分であるか否かを所定の判断基準に基づいて判定することにより、登録者に不必要な発声入力を強いることを未然に防止するとともに、話者モデルとして学習が不十分である状態で音声登録が終了することも回避することが可能となる。さらに、音声入力単位ごとに話者モデルを生成・更新することで、特徴パラメタを保管しておくために必要なRAM領域を小さくしておくことができ、計算機資源の有効利用を図ることが可能となる。
【0028】
より具体的には、図3に示すようなシステムとなる。図3は本発明の実施の形態1にかかる話者認証システムの構成図である。図3において、音声入力部31において登録話者の音声を取り込み、音声分析部32に渡す。音声分析部32では話者認証を行うための特徴パラメタに変換する。
【0029】
音声分析部32で抽出された特徴パラメタは、話者モデル生成あるいは更新のために、RAM33等で一時記憶される。もちろん、特徴パラメタ記憶部34等のディスク領域に保存しておくものであっても良い。
【0030】
そして、登録話者の話者モデルがすでに存在しているか否かを話者モデル生成手段選択部35において確認する。登録話者の話者モデルが存在していない場合、すなわち音声入力が1回目の場合には、話者モデル生成部36に保存している特徴パラメタを渡すことで、新たに話者モデルを生成することになる。話者モデルを生成した後、話者モデル評価部38において当該話者モデルの学習度合を検証することになる。
【0031】
また、登録話者の話者モデルが既に存在している場合、すなわち音声入力が2回目以降である場合には、保存されている特徴パラメタを用いて、話者モデル更新部37において話者モデルの更新を行う。話者モデルが更新されると、更新された話者モデルについても話者モデル評価部38において、学習度合が十分か否かについて判定することになる。
【0032】
そして、話者モデル評価部38において、入力音声による学習が不十分である、すなわち十分な認証精度が確保されていない話者モデルであると判断された場合には、音声入力部31に戻って、再度音声入力を行うことになる。この場合、話者に再入力を促すメッセージを出力する再入力促進部39を設けることが好ましい。話者モデルの学習度合を話者自身が認識できるからである。
【0033】
一方、学習が十分である、すなわち十分な認証精度が確保されている話者モデルであると判断された場合には、話者モデル保存部40において、話者モデルデータベース41として保存することになる。
【0034】
ここで、特徴パラメタとしては様々な種類のパラメタが考えられる。例えば、LPC(Linear Predictive Coding)ケプストラムやMFCC(Mel Frequency Cepstral Coefficients)等、通常の音声入力による話者認証で用いられる特徴パラメタであれば何でも良い。
【0035】
また、特徴パラメタのみを保存すれば良く、音声入力として取り込む時間は5〜15秒程度(短い文章で1文〜数文程度)であれば十分である。
【0036】
一方、話者モデル自体や、その生成方法についても、様々な方法が考えられる。例えば、GMM(Gaussian Mixture Model)等の確率モデルを用いる方法であっても良いし、k−means法やLBG法等を用いてクラスタリングを行い、コードブックを作成する方法であっても良い。話者モデルの生成方法自体は特に制限されるものではなく、音声入力による話者認証を行うことができるものであれば何でも良い。
【0037】
同様に、話者モデルの更新方法についても様々な方法が考えられる。例えば、MAP(maximum a posteriori )法や、ベイジアン(Bayesian)適応等のモデル更新アルゴリズムを用いて行う方法が一般的である。話者モデルの更新方法についても特に制限されるものではなく、音声入力による話者認証を行うことができるものであれば何でも良い。
【0038】
また本実施の形態1においては、話者モデルを新たに生成するか、あるいは既存の話者モデルを更新するか、どちらを選択するかについては、音声入力の回数(1回目か否か)で判断しているが、特にこれに限定されるものではなく、登録者の話者モデルが既に生成されているか否かで判断するものであっても良い。さらに、既に話者モデルが生成されている場合であっても、話者が登録自体を再実行したいと希望している場合や、話者モデル自体の認証精度が所定の水準にまで到達していないと判断される場合には、新規に話者モデルを生成するようにしても良い。
【0039】
生成あるいは更新された話者モデルが、十分に学習されているか否かについては、以下の判断基準を用いて行う。
【0040】
まず話者モデルを更新する前後における入力音声に対するベクトル空間上の距離差あるいは尤度差を求める。そして、当該距離差あるいは尤度差の変化が小さいものであれば、話者モデルの学習程度が進んでいるものと判断できることから、学習自体を終了することになる。
【0041】
例えば図4は、話者モデル更新前後の対数尤度差を示す図である。ここでは、初期の話者モデルを4つの文章に基づいて生成し、その後1文ごとに話者モデルを更新していった場合における話者モデル更新前後の対数尤度差を示している。なお、横軸には話者モデルの学習に用いた文章の総数を示している。
【0042】
図4からもわかるように、話者モデル更新前後の対数尤度差は、学習が進むにつれて小さくなっていく傾向が顕著である。したがって、話者モデル更新前後の対数尤度差の減少が飽和した時点において十分に学習されたものと判断すれば良いことになる。図4においては、話者モデル更新前後の対数尤度差が3以下である音声入力が2回あった時点をしきい値として判断している。
【0043】
なお、話者モデルが十分に学習されているか否かを判定する判断基準については、上述した方法に特に限定されるものではない。例えば、話者モデルがGMMの場合には、分散の値を指標として判断することも考えられる。すなわち、分散の値が過度に小さな値になっている場合には、特徴パラメタとして十分に抽出されていないものと考えられることから、利用者に追加の音声入力を促すことになる。
【0044】
また、話者モデルがコードブックの場合には、セントロイドに割り当てられたサンプル数を指標として判断することも考えられる。すなわち、セントロイドに割り当てられたサンプル数が少ない場合には、代表点として選択されたサンプル点が特異点である可能性が高くなってしまうことから、利用者に追加の音声入力を促すことになる。
【0045】
さらに、特徴パラメタ及び話者モデルについては、ユーザごとに作成しておくことが好ましい。すなわち、話者登録時においてユーザ識別子も同時に登録しておき、ユーザ識別子ごとに独立した特徴パラメタ及び話者モデルを生成することによって、複数の話者を識別することが可能となる。
【0046】
次に、本発明の実施の形態1にかかる話者認証システムを実現するプログラムの処理の流れについて説明する。図5に本発明の実施の形態にかかる話者認証システムを実現するプログラムの処理の流れ図を示す。
【0047】
図5において、まず話者の音声データを入力し(ステップS501)、入力された音声データから特徴パラメタを抽出する(ステップS502)。そして、音声入力が1回目である場合には(ステップS503:Yes)、話者モデルを新規に生成し(ステップS504)、音声入力が2回目以降である場合には(ステップS503:No)、話者モデルを更新する(ステップS505)。
【0048】
次に、話者モデルの学習が十分であるか否かを、学習度合を示す判断基準に基づいて判断し(ステップS506)、話者モデルの学習が不十分であると判断された場合には(ステップS506:No)、追加入力促進メッセージを出力して(ステップS507)、話者が再度音声を入力することになる(ステップS501)。
【0049】
一方、話者モデルの学習が十分であると判断された場合には(ステップS506:Yes)、生成・更新された話者モデルを新たな話者モデルとしてデータベースに保存することになる(ステップS508)。
【0050】
以上のように本実施の形態1によれば、音声入力単位ごとに話者モデルとして十分に学習されているか否かを判定することにより、登録者に不必要な音声入力を強いることを未然に防止するとともに、話者モデルとして学習が不十分である状態で音声登録が終了することも回避することが可能となる。さらに、音声入力単位ごとに話者モデルを生成・更新することで、特徴パラメタを保管しておくために必要な記憶領域を小さくしておくことができ、計算機資源の有効利用を図ることが可能となる。
【0051】
(実施の形態2)
以下、本発明の実施の形態2にかかる話者認証システムについて、図面を参照しながら説明する。まず、本発明の実施の形態2にかかる話者認証システムの構成図を図6に示す。
【0052】
図6において、実施の形態1にかかる話者認証システムと異なる点は、登録のために入力すべき発声内容を登録者に提示する発声内容提示部61及び発声内容制御部62を備えている点である。すなわち、発声内容提示部61において、利用者が入力すべき発声内容を提示するとともに、発声内容提示部61に提示する内容については、発声内容制御部62によって制御することになる。
【0053】
まず、発声内容提示部61において提示される発声内容は、音素がバランス良く配分されたテキストデータを保存しているテキストデータベース63から選択して提示する。提示方法は特に限定されるものではなく、例えばディスプレイ等の表示装置上で表示出力するものであっても良いし、電話回線等を用いて合成音声によって出力提示するものであっても良い。
【0054】
次に、発声内容制御部62においては、既に生成されている話者モデルに基づいて、過去に提示したテキストデータ及び当該テキストデータに対応した音声入力データの音声認識結果を解析することによって、既に話者モデルに含まれている音素と含まれていない、あるいはわずかしか含まれていない音素を明確に認識することになる。そして、話者モデルに含まれていない音素、あるいはわずかしか含まれていない音素を幅広く含んでいるテキストデータをテキストデータベース63から選択することによって、発声内容提示部61における提示内容を制御することになる。
【0055】
また、図7に示すように、登録された音声入力を音声認識する音声認識部71をさらに備え、発声内容制御部62において音声認識部71における音声認識結果を用いることで、話者モデル作成のために不足している発声内容を選択するよう制御することも考えられる。
【0056】
すなわち図7において、1回目の入力音声は、音声入力部31で取り込まれ、音声分析部32で特徴パラメタが抽出され、話者モデル生成部36又は話者モデル更新部37において音声入力ごとに話者モデルが生成又は更新される。そして、話者モデルが生成又は更新された後、入力された音声データに対して音声認識部71で音声認識を行い、認識結果を発声内容制御部62に送る。
【0057】
発声内容制御部62では、受け取った音声認識の結果から必要な音素を含むテキストをテキストデータベース63より選択し、発声内容提示部61に送る。そして、発声内容提示部61で認証精度を向上させるのに最も効果的なテキストデータを発声内容として表示し、2回目の音声入力を行う。
【0058】
すなわち、既に生成されている話者モデルは、以前に入力された音声入力に基づいて生成されていることから、まず以前に入力された音声入力について音声認識を行い、テキストデータベース63に準備されているテキストデータと照合して、合致度の小さいテキストデータを選択するとともに、特定の言語、例えば日本語における全ての音素を網羅して取り込むことができるようにテキストデータを選択することによって、話者モデルに含まれていない音素をより多く含むテキストデータを提示することが可能となる。
【0059】
このようにすることで、話者にとって無駄のない入力作業をすることができ、最小限の発声入力時間で最大限の効果を期待することが可能となる。
【0060】
次に、本発明の実施の形態2にかかる話者認証システムを実現するプログラムの処理の流れについて説明する。図8に本発明の実施の形態にかかる話者認証システムを実現するプログラムの処理の流れ図を示す。
【0061】
図8において、まず話者の音声データを入力し(ステップS801)、入力された音声データから特徴パラメタを抽出する(ステップS802)。特徴パラメタの抽出と平行して、入力された音声データに対して音声認識を行い(ステップS803)、認識結果を発声内容制御部へ渡す。
【0062】
そして、音声入力が1回目である場合には(ステップS804:Yes)、話者モデルを新規に生成し(ステップS805)、音声入力が2回目以降である場合には(ステップS804:No)、話者モデルを更新する(ステップS806)。
【0063】
次に、話者モデルの学習が十分であるか否かを、学習度合を示す判断基準に基づいて判断し(ステップS807)、話者モデルの学習が不十分であると判断された場合には(ステップS807:No)、音声認識の内容に基づいて発声内容として事前に準備されているテキストデータベース63をサーチする(ステップS808)。
【0064】
そして、音声認識内容と最も一致度の低いテキストデータ(特定の言語の全音素を最も網羅しているテキストデータ)を選択して(ステップS809)、当該テキストデータを次の発声内容として話者に提示し(ステップS810)、話者は当該テキストデータの内容を再度音声入力することになる(ステップS801)。
【0065】
一方、話者モデルの学習が十分であると判断された場合には(ステップS807:Yes)、生成・更新された話者モデルを新たな話者モデルとしてデータベースに保存することになる(ステップS811)。
【0066】
以上のように本実施の形態2によれば、登録のために入力すべき発声内容を登録者に提示する手段を備えることによって、登録者は入力する発声内容を考えて発声する必要がなく、音声入力時の負担を最小限にすることができる。
【0067】
また、提示する発声内容により多くの音素を含むように制御することができることから、音声入力時間が短時間であっても最も効率的に登録者の発声する音素を話者モデルに取り込むことが可能となる。
【0068】
さらに、1回目の登録音声入力時に発声された音声を音声認識する手段を備えており、音声認識結果を用いて話者モデル作成のために不足している発声内容を選択し、次回の登録音声入力時に提示することにより、短い登録時間で音声登録を終了することを可能にしている。
【0069】
(実施の形態3)
以下、本発明の実施の形態3にかかる話者認証システムについて、図面を参照しながら説明する。まず、本発明の実施の形態3にかかる話者認証システムの構成図を図9に示す。
【0070】
図9において、実施の形態1にかかる話者認証システムと異なる点は、1回目の音声入力において、不特定話者の音声に基づいて事前に生成されている話者モデルに基づいて話者モデルを生成する点にある。すなわち、話者モデル生成部36において事前に生成されている不特定話者モデル91を参照して、RAM33に一時記憶されている特徴パラメタに基づいて不特定話者モデル91を更新することで新たな話者モデルを生成することになる。
【0071】
まず、不特定話者モデル91の生成時においては、100〜1000人以上の大量の話者の音声データを入力し、前述したGMMやコードブック等のモデルを生成することになる。
【0072】
そして、図9に示すように、1回目の音声入力は音声入力部31で取り込まれ、音声分析部32で特徴パラメタが抽出され、話者モデル生成部36において、不特定話者モデル91と抽出された特徴パラメタに基づいて、音声入力ごとの一時的な話者モデルが生成される。そして、生成された話者モデルは話者モデル一時保存部92において一時的に保存される。
【0073】
2回目以降の入力音声についても同様に特徴パラメタが抽出されるが、話者モデル更新部37において、話者モデル一時保存部92に保存されている話者モデルを更新することで、新たな話者モデルに更新されることになる。
話者モデルが更新されると、更新された話者モデルについても話者モデル評価部38において、学習度合が十分か否かについて判定することになる。
【0074】
そして、実施の形態1と同様に、話者モデル評価部38において、入力音声による学習が不十分である、すなわち十分な認証精度が確保されていない話者モデルであると判断された場合には、音声入力部31に戻って、再度音声入力を行うことになる。この場合、話者に再入力を促すメッセージを出力する再入力促進部39を設けることが好ましい。話者モデルの学習度合を話者自身が認識できるからである。
【0075】
一方、学習が十分である、すなわち十分な認証精度が確保されている話者モデルであると判断された場合には、話者モデル保存部40において、話者モデルデータベース41として保存することになる。
【0076】
このようにすることで、1回目の音声入力時からある程度の認証精度が期待できるとともに、追加入力についても最小限の発声内容で最大限の効果を期待することが可能となる。
【0077】
なお、本実施の形態3では、一時的な話者モデルを話者モデル一時保存部92に保存しているが、話者モデルデータベース41に直接話者モデルを生成し、認証精度が所定の水準まで確保することができるようになるまで繰り返し音声入力しながら、話者モデルを更新するようにしても良い。
【0078】
なお、本発明の実施の形態にかかる話者認証システムを実現するプログラムは、図10に示すように、CD−ROM102−1やフレキシブルディスク102−2等の可搬型記録媒体102だけでなく、通信回線の先に備えられた他の記憶装置101や、コンピュータ103のハードディスクやRAM等の記録媒体104のいずれに記憶されるものであっても良く、プログラム実行時には、プログラムはDSP上にダウンロードされて実行される。
【0079】
また、本発明の実施の形態にかかる話者認証システムにより生成された話者モデル等についても、図10に示すように、CD−ROM102−1やフレキシブルディスク102−2等の可搬型記録媒体102だけでなく、通信回線の先に備えられた他の記憶装置101や、コンピュータ103のハードディスクやRAM、あるいはフラッシュメモリ等の不揮発性メモリ等に代表される記録媒体104のいずれに記憶されるものであっても良く、例えば本発明にかかる話者認証システムを利用する際にコンピュータ103により読み取られる。
【0080】
【発明の効果】
以上のように本発明にかかる話者認証システムによれば、音声入力単位ごとに話者モデルとして十分に学習されているか否かを判定することにより、登録者に不必要な音声入力を強いることを未然に防止するとともに、話者モデルとして学習が不十分である状態で音声登録が終了することも回避することが可能となる。
【0081】
また、本発明にかかる話者認証システムによれば、音声入力単位ごとに話者モデルを生成・更新することで、特徴パラメタを保管しておくために必要な記憶領域を小さくしておくことができ、計算機資源の有効利用を図ることが可能となる。
【図面の簡単な説明】
【図1】 従来の話者認証システムの原理図
【図2】 本発明の実施の形態1にかかる話者認証システムの原理図
【図3】 本発明の実施の形態1にかかる話者認証システムの構成図
【図4】 本発明の実施の形態1にかかる話者認証システムにおける話者モデル更新前後の対数尤度差を示す図
【図5】 本発明の実施の形態1にかかる話者認証システムにおける処理の流れ図
【図6】 本発明の実施の形態2にかかる話者認証システムの構成図
【図7】 本発明の実施の形態2にかかる話者認証システムの構成図
【図8】 本発明の実施の形態2にかかる話者認証システムにおける処理の流れ図
【図9】 本発明の実施の形態3にかかる話者認証システムの構成図
【図10】 コンピュータ環境の例示図
【符号の説明】
1、31 音声入力部
2、32 音声分析部
3 RAM領域
4 音声登録量判定部
5、35 話者モデル生成手段選択部
6、36 話者モデル生成部
7、37 話者モデル更新部
8、38 話者モデル評価部
33 RAM
34 特徴パラメタ記憶部
39 再入力促進部
40 話者モデル保存部
41 話者モデルデータベース
61 発声内容提示部
62 発声内容制御部
63 テキストデータベース
71 音声認識部
91 不特定話者モデル
92 話者モデル一時保存部
101 回線先の記憶装置
102 CD−ROMやフレキシブルディスク等の可搬型記録媒体
102−1 CD−ROM
102−2 フレキシブルディスク
103 コンピュータ
104 コンピュータ上のRAM/ハードディスク等の記録媒体

Claims (4)

  1. 任意の発声内容で話者を特定する話者認証システムであって、
    話者の音声を入力する音声入力部と、
    入力された前記話者の音声を分析し、特徴パラメタを抽出して一時保存する特徴パラメタ保存部と、
    前記特徴パラメタに基づいて、前記話者の話者モデルを生成もしくは更新する話者モデル生成・更新部と、
    前記話者モデルの学習が十分であるか否かを所定の判断基準に基づいて判定する話者モデル評価部と、
    前記話者モデルを話者データベースとして保存する話者モデル保存部と
    入力された前記話者の音声を認識する音声認識部と、
    前記音声認識部における認識結果に基づいて、前記話者モデル生成のために不足している発声内容を選択する発声内容選択部とを含み、
    前記話者モデルの学習が不十分であると判定された場合には、前記音声入力部において追加の音声入力を行い、
    前記話者モデルの学習が十分であると判定された場合には、前記話者モデルを前記話者データベースに保存することを特徴とする話者認証システム。
  2. 入力すべき発声内容を前記話者に提示する発声内容提示部をさらに備える請求項1記載の話者認証システム。
  3. 任意の発声内容で話者を特定する話者認証方法であって、
    話者の音声を入力する工程と、
    入力された前記話者の音声を分析し、特徴パラメタを抽出して一時保存する工程と、
    前記特徴パラメタに基づいて、前記話者の話者モデルを生成もしくは更新する工程と、
    前記話者モデルの学習が十分であるか否かを所定の判断基準に基づいて判定する工程と、
    前記話者モデルを話者データベースとして保存する工程と
    入力された前記話者の音声を認識する工程と、
    前記音声を認識する工程における認識結果に基づいて、前記話者モデル生成のために不足している発声内容を選択する工程とを含み、
    前記話者モデルの学習が不十分であると判定された場合には、前記話者の音声を入力する工程において追加の音声入力を行い、
    前記話者モデルの学習が十分であると判定された場合には、前記話者モデルを前記話者データベースに保存することを特徴とする話者認証方法。
  4. 任意の発声内容で話者を特定する話者認証方法を具現化するコンピュータに実行させるプログラムであって、
    話者の音声を入力するステップと、
    入力された前記話者の音声を分析し、特徴パラメタを抽出して一時保存するステップと、
    前記特徴パラメタに基づいて、前記話者の話者モデルを生成もしくは更新するステップと、
    前記話者モデルの学習が十分であるか否かを所定の判断基準に基づいて判定するステップと、
    前記話者モデルを話者データベースとして保存するステップと
    入力された前記話者の音声を認識するステップと、
    前記音声を認識するステップにおける認識結果に基づいて、前記話者モデル生成のために不足している発声内容を選択するステップとを含み、
    前記話者モデルの学習が不十分であると判定された場合には、前記話者の音声を入力するステップにおいて追加の音声入力を行い、
    前記話者モデルの学習が十分であると判定された場合には、前記話者モデルを前記話者データベースに保存することを特徴とするコンピュータに実行させるプログラム。
JP2001264334A 2001-08-31 2001-08-31 話者認証システム及び方法 Expired - Fee Related JP4440502B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001264334A JP4440502B2 (ja) 2001-08-31 2001-08-31 話者認証システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001264334A JP4440502B2 (ja) 2001-08-31 2001-08-31 話者認証システム及び方法

Publications (2)

Publication Number Publication Date
JP2003076390A JP2003076390A (ja) 2003-03-14
JP4440502B2 true JP4440502B2 (ja) 2010-03-24

Family

ID=19090957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001264334A Expired - Fee Related JP4440502B2 (ja) 2001-08-31 2001-08-31 話者認証システム及び方法

Country Status (1)

Country Link
JP (1) JP4440502B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019225892A1 (en) * 2018-05-25 2019-11-28 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method and computer readable medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100063817A1 (en) * 2007-03-14 2010-03-11 Pioneer Corporation Acoustic model registration apparatus, talker recognition apparatus, acoustic model registration method and acoustic model registration processing program
JP4765971B2 (ja) * 2007-03-23 2011-09-07 ヤマハ株式会社 混合モデル生成装置、音処理装置およびプログラム
WO2008126254A1 (ja) * 2007-03-30 2008-10-23 Pioneer Corporation 話者認識装置、音響モデル更新方法及び音響モデル更新処理プログラム
JP5651567B2 (ja) * 2011-10-11 2015-01-14 日本電信電話株式会社 音響モデル適応装置、音響モデル適応方法、およびプログラム
JP5376072B1 (ja) * 2013-01-09 2013-12-25 日本電気株式会社 車載情報システムおよび音声認識適応方法
CN104616655B (zh) * 2015-02-05 2018-01-16 北京得意音通技术有限责任公司 声纹模型自动重建的方法和装置
CN106373575B (zh) 2015-07-23 2020-07-21 阿里巴巴集团控股有限公司 一种用户声纹模型构建方法、装置及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019225892A1 (en) * 2018-05-25 2019-11-28 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method and computer readable medium
US11200904B2 (en) 2018-05-25 2021-12-14 Samsung Electronics Co., Ltd. Electronic apparatus, controlling method and computer readable medium

Also Published As

Publication number Publication date
JP2003076390A (ja) 2003-03-14

Similar Documents

Publication Publication Date Title
US10741170B2 (en) Speech recognition method and apparatus
US11594215B2 (en) Contextual voice user interface
US11830485B2 (en) Multiple speech processing system with synthesized speech styles
US9159319B1 (en) Keyword spotting with competitor models
US7447633B2 (en) Method and apparatus for training a text independent speaker recognition system using speech data with text labels
JP5200712B2 (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
US7634401B2 (en) Speech recognition method for determining missing speech
JP6812843B2 (ja) 音声認識用コンピュータプログラム、音声認識装置及び音声認識方法
KR101014086B1 (ko) 음성 처리 장치 및 방법, 및 기록 매체
WO2021118793A1 (en) Speech processing
JP4440502B2 (ja) 話者認証システム及び方法
JP4074543B2 (ja) 音声処理装置、音声処理方法、音声処理プログラム、および、プログラム記録媒体
JP4700522B2 (ja) 音声認識装置及び音声認識プログラム
JP2004163541A (ja) 音声応答装置
JPH11184491A (ja) 音声認識装置
JP2007078943A (ja) 音響スコア計算プログラム
JP2004251998A (ja) 対話理解装置
JP2871420B2 (ja) 音声対話システム
JP2005250071A (ja) 音声認識方法及び装置及び音声認識プログラム及び音声認識プログラムを格納した記憶媒体
JP2001255887A (ja) 音声認識装置、音声認識方法及び音声認識方法を記録した媒体
JP4163207B2 (ja) 多言語話者適応方法、装置、プログラム
JP5678912B2 (ja) 発声特定装置、プログラム
JP4236502B2 (ja) 音声認識装置
JPH08241096A (ja) 音声認識方法
JP2731133B2 (ja) 連続音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100107

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140115

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees