JP2559506B2 - 話者照合システム - Google Patents

話者照合システム

Info

Publication number
JP2559506B2
JP2559506B2 JP1316072A JP31607289A JP2559506B2 JP 2559506 B2 JP2559506 B2 JP 2559506B2 JP 1316072 A JP1316072 A JP 1316072A JP 31607289 A JP31607289 A JP 31607289A JP 2559506 B2 JP2559506 B2 JP 2559506B2
Authority
JP
Japan
Prior art keywords
speaker
neural network
output
voice
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1316072A
Other languages
English (en)
Other versions
JPH03175498A (ja
Inventor
新吾 西村
雅幸 海野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sekisui Chemical Co Ltd
Original Assignee
Sekisui Chemical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sekisui Chemical Co Ltd filed Critical Sekisui Chemical Co Ltd
Priority to JP1316072A priority Critical patent/JP2559506B2/ja
Publication of JPH03175498A publication Critical patent/JPH03175498A/ja
Application granted granted Critical
Publication of JP2559506B2 publication Critical patent/JP2559506B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は話者照合システムに関する。
[従来の技術] 本出願人は、ニューラルネットワークを用いた話者照
合システムを提案している(音響講論2−6−4、PP.5
3−54、1989.3)。即ち、この話者照合システムにあっ
ては、話者の音声が入力される入力ユニットを備えると
ともに、各登録話者に対応する各出力ユニットを備えて
構成されるニューラルネットワークを用いることとして
いる。
この時、登録話者の音声に対しては対応する出力ユニ
ットの出力値が1、その他の出力ユニットの出力値が0
となり、非登録話者の音声に対してはすべての出力ユニ
ットの出力値が0となるように、ニューラルネットワー
クの重みと変換関数を学習する。
そして、学習済みのニューラルネットワークに音声パ
ターンを入力し、その出力パターン(各出力ユニットの
出力値の組)をしきい値θと比較し、今回話者が登録話
者か否かを判定する。例えば、1つの出力ユニットの出
力値がθ以上であり、その他の出力ユニットの出力値が
(1−θ)以下であれば登録話者、それ以外の場合には
非登録話者と判定するものである。
[発明が解決しようとする課題] 然しながら、従来技術にあっては、例えば話者Aの発
声が不安定で、今回話者がAであるにもかかわらず、A
に対応する出力ユニットの出力値がしきい値θより小さ
く、誤照合する場合がある。
これは、登録話者に共通のしきい値θが話者Aに対し
ては大きすぎるためである。
本発明は、ニューラルネットワークを用いる話者照合
システムにおいて、照合率を向上することを目的とす
る。
[課題を解決するための手段] 請求項1に記載の本発明は、話者照合システムにおい
て、話者の音声が入力される入力ユニットを備えるとと
もに、各登録話者に対応する各出力ユニットを備えて構
成される照合ニューラルネットワークと、照合ニューラ
ルネットワークの出力が入力されるように該照合ニュー
ラルネットワークの各出力ユニットに対応する各入力ユ
ニットを備えるとともに、今回の話者が登録話者群と非
登録話者群のいずれに属するかの判定用出力値を出力す
る出力ユニットを備えて構成される判定ニューラルネッ
トワークとを有してなるようにしたものである。
請求項2に記載の本発明は、前記判定ニューラルネッ
トワークが、登録話者群と非登録話者群のそれぞれに対
応する2つの出力ユニットを備え、それら両出力のいず
れの出力値がより大きいかにより、今回話者が登録話者
か非登録話者かを判定可能とするようにしたものであ
る。
請求項3に記載の本発明は、前記ニューラルネットワ
ークへの入力として、 音声の周波数特性の時間的変化、 音声の平均的な線形予測係数、 音声の平均的なPARCOR係数、 音声の平均的な周波数特性、及びピッチ周波数、 高域強調を施された音声波形の平均的な周波数特性、
並びに 音声の平均的な周波数特性 のうちの1つ以上を使用するようにしたものである。
[作用] 請求項1、2に記載の本発明によれば、下記の作用
効果がある。
判定ニューラルネットワークが話者間の出力パターン
の差異(例えば話者Aの出力パターンの変動が他の話者
に比して大きい等)を反映した構造になるため、照合率
が向上する。
請求項3に記載の本発明によれば、下記の作用があ
る。
照合ニューラルネットワークへの入力として、請求項
3に記載の〜の各要素のうちの1つ以上を用いるか
ら、入力を得るための前処理が単純となり、この前処理
に要する時間が短くて足りるため、話者照合システムを
複雑な処理装置によることなく容易に実時間処理でき
る。
[実施例] 第1図は本発明の話者照合システムの一例を示す模式
図、第2図は前処理部の一例を示す模式図、第3図は入
力音声を示す模式図、第4図はバンドパスフィルタの出
力を示す模式図、第5図はニューラルネットワークを示
す模式図、第6図は階層的なニューラルネットワークを
示す模式図、第7図はユニットの構造を示す模式図であ
る。
本発明の具体的実施例の説明に先立ち、ニューラルネ
ットワークの構成、学習アルゴリズムについて説明す
る。
(1)ニューラルネットワークは、その構造から、第5
図(A)に示す階層的ネットワークと第5図(B)に示
す相互結合ネットワークの2種に大別できる。本発明
は、両ネットワークのいずれを用いて構成するものであ
っても良いが、階層的ネットワークは後述する如くの簡
単な学習アルゴリズムが確率されているためより有用で
ある。
(2)ネットワークの構造 階層的ネットワークは、第6図に示す如く、入力層、
中間層、出力層からなる階層構造をとる。各層は1以上
のユニットから構成される。結合は、入力層→中間層→
出力層という前向きの結合だけで、各層内での結合はな
い。
(3)ユニットの構造 ユニットは第7図に示す如く脳のニューロンのモデル
化であり構造は簡単である。他のユニットから入力を受
け、その総和をとり一定の規則(変換関数)で変換し、
結果を出力する。他のユニットとの結合には、それぞれ
結合の強さを表わす可変の重みを付ける。
(4)学習(バックプロパゲーション) ネットワークの学習とは、実際の出力を目標値(望ま
しい出力)に近づけることであり、一般的には第7図に
示した各ユニットの変換関数及び重みを変化させて学習
を行なう。
又、学習のアルゴリズムとしては、例えば、Rumelhar
t,D.E.,McClelland,J.L.and the PDP Research Group,P
ARALLEL DISTRIBUTED PROCESSING,the MIT Press,1986.
に記載されているバックプロパゲーションを用いること
ができる。
以下、本発明の実施例について説明する。
本発明の話者照合システム1は、第1図に示す如く、
音声入力部10、前処理部20、照合ニュートラルネットワ
ーク30、判定ニューラルネットワーク40の結合からな
る。
(1)前処理部 前処理部20は、入力音声に簡単な前処理を施し、照合
ニューラルネットワーク30の入力を得る。
尚、本発明の実施においては、ニューラルネットワー
クへの入力として、 音声の周波数特性の時間的変化、 音声の平均的な線形予測係数、 音声の平均的なPARCOR係数、 音声の平均的な周波数特性、及びピッチ周波数、 高域強調を施された音声波形の平均的な周波数特性、
並びに 音声の平均的な周波数特性 のうちの1つ以上を使用できる。
そして、上記の要素は「音声の一定時間内における
平均的な周波数特性の時間的変化」、上記の要素は
「音声の一定時間内における平均的な線形予測係数の時
間的変化」、上記の要素は「音声の一定時間内におけ
る平均的なPARCOR係数の時間的変化」、上記の要素は
「音声の一定時間内における平均的な周波数特性、及び
ピッチ周波数はの時間的変化」、上記の要素は、「高
域強調を施された音声波形の一定時間内における平均的
な周波数特性の時間的変化」として用いることができ
る。
尚、上記の線形予測係数は、以下の如く定義され
る。
即ち、音声波形のサンプル値{χ}の間には、一般
に高い近接相関があることが知られている。そこで次の
ような線形予測が可能であると仮定する。
線形予測誤差 ε=χ… (2) ここで、χ:時刻tにおける音声波形のサンプル
値、{a}i=1,…,p):(p次の)線形予測係数 さて、本発明の実施においては、線形予測誤差ε
2乗平均値が最小となるように線形予測係数{a}を
求める。
具体的には(εを求め、その時間平均を▲
と表わして、∂▲▼/∂α=0,i
=1,2,…,pとおくことによって、次の式から{α}が
求められる。
又、上記のPARCOR係数は以下の如く定義される。
即ち、[Kn](n=1,…,p)を(p次の)PARCOR係数
(偏自己相関係数)とする時、PARCOR係数Kn+1は、線形
予測による前向き残差ε (f)と後向き残差εt-(n+1)
(b)間の正規化相関係数として、次の式によって定義さ
れる。
{α}:前向き予測係数、 {β}:後向き予測係数 又、上記の音声のピッチ周波数とは、声帯波の繰り
返し周期(ピッチ周期)の逆数である。尚、ニューラル
ネットワークへの入力として、個人差がある声帯の基本
的なパラメータであるピッチ周波数を付加したから、特
に大人/小人、男性/女性間の話者の認識率を向上する
ことができる。
又、上記の高域強調とは、音声波形のスペクトルの
平均的な傾きを補償して、低域にエネルギが集中するこ
とを防止することである。然るに、音声波形のスペクト
ルの平均的な傾きは話者に共通のものであり、話者の認
識には無関係である。ところが、このスペクトルの平均
的な傾きが補償されていない音声波形をそのままニュー
ラルネットワークへ入力する場合には、ニューラルネッ
トワークが学習する時にスペトクルの平均的とな傾きの
特徴の方を抽出してしまい、話者の認識に必要なスペク
トルの山と谷を抽出するのに時間がかかる。これに対
し、ニューラルネットワークへの入力を高域強調する場
合には、話者に共通で、認識には無関係でありながら、
学習に影響を及ぼすスペクトルの平均的な傾きを補償で
きるため、学習速度が速くなるのである。
(2)照合ニューラルネットワーク 構造 階層的なニューラルネットワークからなる。
入力ユニットには音声入力部10から話者の音声が入力
される。
出力ユニットは各登録話者に対応して設けられる。
学習 目標値は、登録話者については対応する出力ユニッ
トの出力値を1、その他の出力値を0とし、非登録話
者については、全出力ユニットの出力値を0とする。
(a)登録話者の音声に前処理部20による前記処理を施
し、照合ニューラルネットワーク30に入力する。目標値
に近づくように照合ニューラルネットワーク30の重みと
変換関数を修正する。
(b)非登録話者の音声に前処理部20による前処理を施
し、照合ニューラルネットワーク30に入力する。目標値
に近づくように照合ニューラルネットワーク30の重みと
変換関数を修正する。
(a),(b)を目標値と出力ユニットの出力値の誤
差が、十分に小さな値(例えば、1×10-4)になるまで
繰り返す。
(3)判定ニューラルネットワーク 構造 階層的なニューラルネットワークからなり、入力ユニ
ットは、照合ニューラルネットワーク30の出力が入力さ
れ得るように、該照合ニューラルネットワーク30の各出
力ユニットに対応する数だけ設けられる。
出力ユニットは、登録話者群と非登録話者群のそれぞ
れに対応するように2つ設けられ、それら両出力ユニッ
トのいずれの出力値がより大きいかにより、今回話者が
登録話者か非登録話者かを判定可能とする。
学習 目標値は、登録話者については(1,0)、非登録
話者については(0,1)とする。
(a)登録話者の音声に対する照合ニューラルネット
ワーク30の出力パターンを判定ニューラルネットワーク
40に入力する。目標値に近づくように判定ニューラルネ
ットワーク40の重みと変換関数を修正する。
(b)非登録話者の音声に対する照合ニューラルネッ
トワーク30の出力パターンを判定ニューラルネットワー
ク40に入力する。目標値に近づくように判定ニューラル
ネットワーク40の重みと変換関数を修正する。
(a)、(b)を目標値と出力ユニットの出力値の誤
差が、十分に小さな値(例えば、1×10-4)になるまで
繰り返す。
学習終了後の評価 登録話者及び非登録話者の学習に使ったものと同じ単
語を発声してもらい評価した。
判定ニューラルネットワーク40の2つの出力ユニット
のどちらの値が大きいかにより、登録話者かどうかを判
定する。
以下、上記話者照合システム1の具体的実施結果につ
いて説明する。
A.音声試料 音声入力部10に入力する音声を「tadaima」とする。
照合ニューラルネットワーク学習用、判定ニューラル
ネットワーク学習用、評価用としてそれぞれ供した登録
話者数、非登録話者数、各話者のサンプル数(発声回
数)は表1の通りとした。
B.前処理 前処理部20として、第2図に示す如くの、ローパスフ
ィルタ21、バンドパスフィルタ22、平均化回路23の結合
からなるものを用いた。
入力音声の音声信号の高域の雑音成分を、ローパスフ
ィルタ21にカットする。そして、この入力音声を第3図
に示す如く、4つのブロックに時間的に等分割する。
音声波形を、第2図に示す如く、複数(n個)チャン
ネルのバンドパスフィルタ22に通し、各ブロック即ち各
一定時間毎に第4図(A)〜(D)のそれぞれに示す如
くの周波数特性を得る。
この時、バンドパスフィルタ22の出力信号は、平均化
回路23にて、各ブロック毎、即ち一定時間で平均化され
る。
以上の前処理により、「音声の一定時間内における平
均的な周波数特性の時間的変化」が得られる。
尚、バンドパスフィルタ22の作動条件は表2の通りと
した。
C.照合ニューラルネットワーク 3層パーセプトロン型とした。
入力ユニット数は前処理の4ブロック、16チャンネル
に対応する64とした。
中間ユニット数は30とした。出力ユニット数は登録話
者5名に対応する5とした。
学習はバックプロパゲーションにより行なった。
D.判定ニューラルネットワーク 3層パーセプトロン型とした。
入力ユニット数は照合ニューラルネットワーク30の出
力ユニットに対応する5とした。
中間ユニット数は5とした。
出力ユニット数は登録話者群と、非登録話者群のそれ
ぞれに対応する2とした。
学習はバックプロパゲーションにより行なった。
E.実験結果 照合ニューラルネットワークのみによる登録話者の照
合率は、93.1%であった。
これに対し、本発明の如く、照合ニューラルネットワ
ークと判定ニューラルネットワークとを用いた際の、登
録話者の照合率は96.6%であった。
[発明の効果] 以上のように、本発明によれば、ニューラルネットワ
ークを用いる話者照合システムにおいて、照合率を向上
することができる。
【図面の簡単な説明】 第1図は本発明の話者照合システムの一例を示す模式
図、第2図は前処理部の一例を示す模式図、第3図は入
力音声を示す模式図、第4図はバンドパスフィルタの出
力を示す模式図、第5図はニューラルネットワークを示
す模式図、第6図は階層的なニューラルネットワークを
示す模式図、第7図はユニットの構造を示す模式図であ
る。 10…音声入力部、20…前処理部、30…照合ニューラルネ
ットワーク、40…判定ニューラルネットワーク。

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】話者の音声が入力される入力ユニットを備
    えるとともに、各登録話者に対応する各出力ユニットを
    備えて構成される照合ニューラルネットワークと、照合
    ニューラルネットワークの出力が入力されるように該照
    合ニューラルネットワークの各出力ユニットに対応する
    各入力ユニットを備えるとともに、今回の話者が登録話
    者群と非登録話者群のいずれに属するかの判定用出力値
    を出力する出力ユニットを備えて構成される判定ニュー
    ラルネットワークとを有してなる話者照合システム。
  2. 【請求項2】前記判定ニューラルネットワークが、登録
    話者群と非登録話者群のそれぞれに対応する2つの出力
    ユニットを備え、それら両出力のいずれの出力値がより
    大きいかにより、今回の話者が登録話者か非登録話者か
    を判定可能とする請求項1記載の話者照合システム。
  3. 【請求項3】前記照合ニューラルネットワークへの入力
    として、 音声の周波数特性の時間的変化、 音声の平均的な線形予測係数、 音声の平均的なPARCOR係数、 音声の平均的な周波数特性、及びピッチ周波数、 高域強調を施された音声波形の平均的な周波数特性、
    並びに 音声の平均的な周波数特性 のうちの1つ以上を使用する請求項1又は2記載の話者
    照合システム。
JP1316072A 1989-12-04 1989-12-04 話者照合システム Expired - Lifetime JP2559506B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1316072A JP2559506B2 (ja) 1989-12-04 1989-12-04 話者照合システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1316072A JP2559506B2 (ja) 1989-12-04 1989-12-04 話者照合システム

Publications (2)

Publication Number Publication Date
JPH03175498A JPH03175498A (ja) 1991-07-30
JP2559506B2 true JP2559506B2 (ja) 1996-12-04

Family

ID=18072951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1316072A Expired - Lifetime JP2559506B2 (ja) 1989-12-04 1989-12-04 話者照合システム

Country Status (1)

Country Link
JP (1) JP2559506B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9230550B2 (en) * 2013-01-10 2016-01-05 Sensory, Incorporated Speaker verification and identification using artificial neural network-based sub-phonetic unit discrimination

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
テレビジョン学会技術報告(平成元年6月)Vol.13,No.33,P.19〜24

Also Published As

Publication number Publication date
JPH03175498A (ja) 1991-07-30

Similar Documents

Publication Publication Date Title
US5461697A (en) Speaker recognition system using neural network
US5594834A (en) Method and system for recognizing a boundary between sounds in continuous speech
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
CN113221673A (zh) 基于多尺度特征聚集的说话人认证方法及系统
AU685626B2 (en) Speech-recognition system utilizing neural networks and method of using same
CN108538301B (zh) 一种基于神经网络音频技术的智能数码乐器
JP2559506B2 (ja) 話者照合システム
JP2510301B2 (ja) 話者認識システム
JP2518940B2 (ja) 話者照合システム
JP2518939B2 (ja) 話者照合システム
Bharath et al. Development of robust VAD schemes for Voice Operated Switch application in aircrafts: Comparison of real-time VAD schemes which are based on Linear Energy-based Detector, Fuzzy Logic and Artificial Neural Networks
EP0369485B1 (en) Speaker recognition system
JP2543603B2 (ja) 単語認識システム
KR950013117B1 (ko) 시간 지연 신경 회로망을 이용한 한국어 고립 단어 인식 시스템
JPH05143094A (ja) 話者認識システム
JPH03111898A (ja) 音声検出方式
JPH04294445A (ja) パターン認識方式
Hoya et al. Speech extraction based upon a combined subband independent component analysis and neural memory
Pei et al. Speech recognition method based on DNN-LSTM combined with Wiener filtering algorithm
JPH03276199A (ja) 話者認識方法
Ashouri Isolated word recognition using high-order statistics and time-delay neural networks
JPH02289899A (ja) 音声検出方式
JPH0415699A (ja) 話者認識システム
JPH0415695A (ja) 単語認識システム
JPH0415694A (ja) 単語認識システム