JP4960416B2 - 話者クラスタリング装置および話者クラスタリング方法 - Google Patents

話者クラスタリング装置および話者クラスタリング方法 Download PDF

Info

Publication number
JP4960416B2
JP4960416B2 JP2009210499A JP2009210499A JP4960416B2 JP 4960416 B2 JP4960416 B2 JP 4960416B2 JP 2009210499 A JP2009210499 A JP 2009210499A JP 2009210499 A JP2009210499 A JP 2009210499A JP 4960416 B2 JP4960416 B2 JP 4960416B2
Authority
JP
Japan
Prior art keywords
code
similarity
appearance frequency
utterances
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009210499A
Other languages
English (en)
Other versions
JP2011059500A (ja
Inventor
健一 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2009210499A priority Critical patent/JP4960416B2/ja
Publication of JP2011059500A publication Critical patent/JP2011059500A/ja
Application granted granted Critical
Publication of JP4960416B2 publication Critical patent/JP4960416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音声信号中の話者を同定する話者クラスタリング装置および話者クラスタリング方法に関する。
録音音声中に含まれる発話を同一話者ごとにまとめる話者クラスタリング技術は、音声認識精度の改善や、話者単位のスキップ再生などの視聴支援に活用が期待されている。
このようなクラスタリング技術として、例えば、入力された音声から抽出された特徴パターンを共通符号に変換した後、各音声区間における各符号の出現確率をクラスタ分析することにより、同一話者の判定を行う技術が知られている(例えば、特許文献1参照)。
ここで、クラスタ分析(クラスタリング)とは、多次元空間において与えられたデータ集合を個体間の類似度によってクラスタ(塊)化する多変量解析法である。ここでは、各音声区間(発話)同士の類似度によりクラスタ分析を行う。
出現確率をクラスタ分析する際は、クラスタの指標となる出現確率ベクトル間の距離を算出しなければならない。このベクトル間の距離の計算には、一般的に、KL距離(カルバック・ライブラー情報量)やユークリッド距離が用いられる(例えば、非特許文献1参照)。特に、音声信号中の発話間の距離を測るには、各発話の発話特性を示すガウス分布を推定し、該ガウス分布間のKL距離が用いられることが一般的である(例えば、非特許文献2参照)。
特開平6−83384号公報
電子情報通信学会技術報告書 SP−92−45 Ning et al., InterSpeech p.2178-2181, 2006
しかしながら、非特許文献1や非特許文献2で用いられているKL距離やユークリッド距離は、ガウス分布全体の一致度を測る距離尺度であるため、発話の長さが短いときに話者の違いよりも、発話に含まれる音韻の出現頻度の違いに敏感になってしまうことが知られている。すなわち、発話のガウス分布は、話者の特性と発話に含まれる音韻の出現頻度の偏りとの2つに依存しているが、発話が十分に長ければ後者の違いは目立たなくなり、話者の特性を精度良く表現することができる。したがって、発話が十分に長いときにはKL距離やユークリッド距離は話者性に注目して話者クラスタリングを行うのに有効であるが、例えば、討論を録音した音声などの短い発話が多数含まれるような音声の場合には、話者性よりも発話内容(発話に含まれる音韻)を重視したクラスタリングが行われてしまう。
また、特許文献1や非特許文献2のように、発話をガウス分布ではなく、ベクトル量子化の符号出現頻度ベクトルで表した場合にKL距離を用いると、出現頻度が0回の部分で数値的な異常(0の対数)が生じるため発見法的な対処が必要になり、対数は0近傍で大きな値の変化をするため、正確な処理は本質的な困難があると考えられる。
本発明の目的は、音声信号中の話者の同定を精度高く実施できる話者クラスタリング装置および話者クラスタリング方法を提供することである。
本発明の話者クラスタリング装置は、入力された音声信号中の同一話者の発話を同定する話者クラスタリング装置であって、ベクトル量子化を用いて前記音声信号を符号に変換するベクトル量子化手段と、ベクトル量子化を用いて前記音声信号の時系列的な変化量を符号に変換する変化量ベクトル量子化手段と、前記変換された符号中の各発話に対して、前記音声信号の符号の出現回数と、前記変化量の符号の出現回数とを成分とする出現頻度ベクトルを生成する出現頻度生成手段と、前記出現頻度ベクトルに基づいて前記発話間のコサイン距離をそれぞれ算出し、該コサイン距離を発話間の類似度として求める類似度算出手段と、前記発話間の類似度に基づいて前記発話を分類するクラスタリング手段と、を備え、前記出現頻度生成手段は、前記各発話中の連続する符号の組み合わせによる符号列の出現回数を成分とした出現頻度ベクトルを生成し、前記出現頻度ベクトルに対して、前記各発話内における前記符号の出現回数を、当該符号と同一の符号が出現する前記発話の数の逆数で重み付けすることを特徴とする。
本発明は、ベクトル量子化手段により音声信号を符号に変換し、出現頻度生成手段により符号から出現頻度ベクトルを生成し、類似度算出手段により出現頻度ベクトルから発話間のコサイン距離を算出して類似度を求め、クラスタリング手段により類似度に基づくクラスタリングを行う。
コサイン距離による類似度は、符号の出現頻度の分布をベクトルとして、出現頻度ベクトルの間の角度に依存する。また、コサイン距離は、発話間に出現した符号の頻度だけに依存するため、一方の発話で出現頻度が0(ゼロ)の符号が存在した場合に、コサイン距離算出のための分子の和には寄与しない。このため、発話が短い場合の発話間の音韻の出現頻度の偏りが生じる場合に、コサイン距離で算出した類似度を用いてクラスタリングすることにより、発話の話者性を反映し、発話の長さや発話間の音韻の出現頻度の偏りに影響を受けない話者クラスタリングを実現することができる。
また、発話間のコサイン距離の算出において、一方の発話の出現頻度ベクトルがゼロである場合は類似度もゼロとなり、発見法的な処理を行う必要がない。したがって、演算量を大幅に低減させることができるとともに、発話データに特別な処理を施さないことから、より精度の高い話者クラスタリングを行うことができる。
また、本発明では、発話中の符号を用いて算出されたコサイン距離に基づいて類似度が求められるので、発話の長さが短い場合であっても、正確な発話特性を得ることができ、その結果、精度の高い話者クラスタリングを行うことができる。
本発明の話者クラスタリング装置において、前記出現頻度生成手段は、前記出現頻度ベクトルに対して、前記各発話内における前記符号の出現回数を、当該符号と同一の符号が出現する前記発話の数の逆数で重み付けすることを特徴とする。
この発明では、出現頻度ベクトルに重み付けを行う。符号の出現回数を、当該符号と同一の符号が出現する発話の数の逆数で重み付けするということは、該発話における特徴である当該符号が、他の発話に出現しない場合に重み付けされるということである。すなわち、どの発話にも出現するような特徴(符号)は、該発話中の特徴とされるものではなく、他の発話に出現しない特徴(符号)に対して、重み付けを行う。
これによれば、該発話の特徴を正確に捉えることができるため、より精度の高い話者クラスタリングを行うことができる。
本発明の話者クラスタリング装置において、前記出現頻度生成手段は、前記各発話中の連続する符号の組み合わせによる符号列の出現回数を成分とした出現頻度ベクトルとして生成することを特徴とする。
発話中の連続する符号の組み合わせは、当該発話における特徴を表現している。したがって、これらの組み合わせの出現回数を成分とした出現頻度ベクトルは、発話中の特徴をより正確に表現することができるため、その結果、より精度の高い話者クラスタリングを行うことができる。
本発明の話者クラスタリング装置において、ベクトル量子化を用いて前記音声信号の時系列的な変化量を符号に変換する変化量ベクトル量子化手段をさらに備え、前記出現頻度生成手段は、各発話に対して、前記音声信号の符号の出現回数と、前記変化量の符号の出現回数とを成分とする前記出現頻度ベクトルを生成することを特徴とする。
この発明では、前述のベクトル量子化手段のほかに、変化量ベクトル量子化手段を備えている。変化量ベクトル量子化手段は、ベクトル量子化を用いて、音声信号の時系列的な変化量を符号に変換する。発話における時系列的な変化量は、当該発話の特徴を表すので、この変化量を用いることで、発話の特徴をより正確に表現することができる。
特に、本発明において、発話における符号の出現回数と、発話における時系列的な変化量の符号の出現回数とを成分として生成された出現頻度ベクトルは、発話の特徴をより正確に表現することができる。その結果より精度の高い話者クラスタリングを行うことができる。
本発明の話者クラスタリング装置において、前記クラスタリング手段は、前記算出したコサイン距離による発話間の類似度を用いてスペクトラルクラスタリングを行うことが好ましい。
この発明では、コサイン距離による発話間の類似度に基づいてスペクトラルクラスタリングを行う。コサイン距離による発話間の類似度は、発話の特徴をより正確に表現することができるので、この類似度を用いてスペクトラルクラスタリングを行うことで、より精度の高いクラスタリングを行うことができる。すなわち、同一話者の判定の精度を向上させることができる。
本発明の話者クラスタリング装置において、前記類似度算出手段により得られる各発話間の前記類似度を要素とする類似度行列から得られる正方行列の固有値を算出し、連続する固有値間の差分が最大値をとる固有値に基づいて、前記音声信号中の話者数を決定する話者数判定手段をさらに備えたことが好ましい。
この発明では、類似度算出手段により得られた類似度を要素とする類似度行列に基づいて固有値差分により音声信号中の話者数を決定している。前述のように、類似度は発話の特徴を正確に表現しているので、この類似度を要素とする類似度行列を用いることにより、話者数の決定をより正確に行うことができる。
本発明の話者クラスタリング装置において、前記類似度算出手段は、前記算出した各発話間の類似度のうちの最大値にあらかじめ定められた係数を乗じて算出した閾値を下回る類似度を0として前記類似度を求めることが好ましい。
この発明では、類似度の閾値を定め、この閾値を下回る場合には類似度を0(ゼロ)とする処理を行う。類似度の閾値は、各発話間の類似度のうちの最大値にあらかじめ定められた係数を乗じて算出した値であり、適宜調整可能とされている。
これにより、発話間の類似度が明らかに小さい場合は類似度を0とすることができるので、前述した固有値差分による話者数推定の精度を向上させることができる。
演算量を大幅に低減させることができる。
本発明の話者クラスタリング装置において、前記類似度算出手段は、前記算出した各発話間の類似度のうち、類似度が大きい上位所定数以外の類似度を0として前記類似度を求めることが好ましい。
この発明では、類似度が大きい上位所定数以外の類似度を0(ゼロ)とする。すなわち、類似度が小さい場合は、類似度を0(ゼロ)とする処理を行う。類似度の上位所定数は適宜調整可能とされている。
これにより、発話間の類似度が明らかに小さい場合は類似度を0とすることができるので、前述した固有値差分による話者数推定の精度を向上させることができる。
本発明の話者クラスタリング方法は、入力された音声信号中の同一話者の発話を同定する話者クラスタリング方法であって、ベクトル量子化を用いて前記音声信号を符号に変換するベクトル量子化ステップと、ベクトル量子化を用いて前記音声信号の時系列的な変化量を符号に変換する変化量ベクトル量子化ステップと、前記変換された符号中の各発話に対して、前記音声信号の符号の出現回数と、前記変化量の符号の出現回数とを成分とする出現頻度ベクトルを生成する出現頻度生成ステップと、前記出現頻度ベクトルに基づいて前記発話間の類似度を求める類似度算出ステップと、前記発話間の類似度に基づいて前記発話を分類するクラスタリングステップと、を備え、前記出現頻度生成ステップは、前記各発話中の連続する符号の組み合わせによる符号列の出現回数を成分とした出現頻度ベクトルを生成し、前記出現頻度ベクトルに対して、前記各発話内における前記符号の出現回数を、当該符号と同一の符号が出現する前記発話の数の逆数で重み付けすることを特徴とする。
本発明は、音声信号を符号に変換し、変換された符号から出現頻度ベクトルを生成し、生成された出現頻度ベクトルから発話間のコサイン距離を算出して類似度を求め、算出された類似度に基づくクラスタリングを行う。
コサイン距離による類似度は、符号の出現頻度の分布をベクトルとして、出現頻度ベクトルの間の角度に依存する。また、コサイン距離は、発話間に出現した符号の頻度だけに依存するため、一方の発話で出現頻度が0(ゼロ)の符号が存在した場合に、コサイン距離算出のための分子の和には寄与しない。このため、発話が短い場合の発話間の音韻の出現頻度の偏りが生じる場合に、コサイン距離で算出した類似度を用いてクラスタリングすることにより、発話の話者性を反映し、発話の長さや発話間の音韻の出現頻度の偏りに影響を受けない話者クラスタリングを実現することができる。
また、発話間のコサイン距離の算出において、一方の発話の出現頻度ベクトルがゼロである場合は類似度もゼロとなり、発見法的な処理を行う必要がない。したがって、演算量を大幅に低減させることができるとともに、発話データに特別な処理を施さないことから、より精度の高い話者クラスタリングを行うことができる。
また、本発明では、発話中の符号を用いて算出されたコサイン距離に基づいて類似度が求められるので、発話の長さが短い場合であっても、正確な発話特性を得ることができ、その結果、精度の高い話者クラスタリングを行うことができる。
本発明の第1実施形態にかかる話者クラスタリング装置の概略構成を示すブロック図。 第1実施形態における話者クラスタリング装置の動作を示すフローチャート。 第1実施形態において音声信号から特徴ベクトルへの変換を示す説明図。 第1実施形態において特徴ベクトルから特徴空間への変換を示す説明図。 第1実施形態においてベクトル量子化により得られた音声信号の符号列を示す図。 第1実施形態において各発話の出現頻度ベクトルの生成を説明する図。 第1実施形態において発話間の類似度を示すマトリックス図。 第3実施形態においてベクトル量子化により得られた音声信号の符号列を示す図。 第3実施形態において各発話の出現頻度ベクトルの生成を説明する図。 第4実施形態にかかる話者クラスタリング装置の概略構成を示すブロック図。 第4実施形態においてベクトル量子化により得られた音声信号の符号列を示す図。 第4実施形態において各発話の出現頻度ベクトルの生成を説明する図。
以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、入力された音声信号中の発話を同一話者ごとにまとめる話者クラスタリング装置について説明する。
〔1.第1実施形態〕
[1−1.話者クラスタリング装置の構成]
話者クラスタリング装置100は、図1に示すように、音声信号取得手段10と、発話区分手段20と、ベクトル量子化手段30と、出現頻度生成手段40と、類似度算出手段50と、クラスタリング手段60と、話者数判定手段70と、を備えている。また、図示しないが、話者クラスタリング装置100は、音声信号を入力可能な入力手段を備えている。
音声信号取得手段10は、図示しない入力手段によって入力された音声信号を取得する。
発話区分手段20は、入力された音声信号を発話ごとに区分する。具体的には、音声信号中の音声が発生していない部分で区切ることができる。
ベクトル量子化手段30は、入力された音声信号を符号に変換するものであり、特徴ベクトル時系列変換部31、特徴ベクトルクラスタリング部32、および符号列生成部33を備えている。
特徴ベクトル時系列変換部31は、音声信号を一定時間ごとにサンプリングし、各サンプルにおける、例えば、メルケプストラムなどの音声の特徴量(特徴ベクトル)を抽出し、時系列に出力する。すなわち、特徴ベクトルを時系列に生成する。
特徴ベクトルクラスタリング部32は、特徴ベクトルに基づいて各サンプルを特徴空間に並べ、特徴空間におけるサンプルの集合ごとにクラスタリングし、生成された各クラスタに識別可能な番号を付与する。
符号列生成部33は、各クラスタに付与された番号を符合として用い、音声信号を時系列の符号(以下、符号列と表記する。)に変換する。
出現頻度生成手段40は、符号列中の各符号の出現回数を成分とする出現頻度ベクトルを発話ごとに生成する。
類似度算出手段50は、各発話の出現頻度ベクトルを用いて、発話間のコサイン距離を算出し、このコサイン距離を発話間の類似度とする。
クラスタリング手段60は、スペクトラルクラスタリングにより、算出した類似度に基づいて発話のクラスタリングを行う。
ここで、スペクトラルクラスタリングについて説明する。
クラスタリング対象のデータ集合をC={i|i=1、…、N}、データiとjとの類似度wij≧0としたときのデータ集合Cのクラスタへの分割を以下の式(1)で表すとする。
Figure 0004960416
式(1)中、Qはクラスタ数である。
また、クラスタ内の平均類似度Sを以下の式(2)で表し、クラスタ間の平均類似度Sを以下の式(3)で表す。
Figure 0004960416
Figure 0004960416
スペクトラルクラスタリングは、クラスタ内の平均類似度Sを大きくし、クラスタ間の平均類似度Sを小さくするように、データ集合Cをクラスタリングする手法である。
話者数判定手段70は、スペクトラルクラスタリングによる結果に基づいて、音声信号中の話者の数を判定する。
[1−2.話者クラスタリング装置の動作]
次に、話者クラスタリング装置100の具体的な動作を図2のフローチャートに従って説明する。
まず、音声信号取得手段10は、図示しない入力手段によって入力された音声信号Aを取得する(ステップ1、以下ステップを「S」と略す)。
次に、発話区分手段20は、図3に示すように、入力された音声信号Aを、発話a1、a2、a3 …aNに分割する(S2)。ここで、Nは発話数である。
次に、特徴ベクトル時系列変換部31は、図3に示すように、入力された音声信号Aを1/100秒ずつにサンプリングし、各サンプルについて、30次元の特徴ベクトルを時系列に抽出する(S3)。この特徴ベクトルは、音声認識の分野で一般的に用いられているメルケプストラムと呼ばれる特徴パラメータである(各次元の特徴パラメータは図示していない)。
次に、特徴ベクトルクラスタリング部32は、図4に示すように、30次元の特徴ベクトルを30次元の特徴空間に並べ、該特徴空間におけるサンプルの集合ごとにクラスタリングする(S4)。クラスタリングにより生成したクラスタには互いに識別可能な番号を付与する。ここで生成されるクラスタの数は、後述する各発話の出現頻度ベクトルを生成したときの符号帳サイズVに相当する。符号長サイズVは適宜調整可能であるが、本実施形態では、例えば、256個のクラスタを生成し、各クラスタに1〜256の番号を付与する。
次に、符号列生成部33は、図5に示すように、各クラスタに付与された番号を符号として用い、該符号を時系列に並べた符号列を生成する(S5)。
以上のS3〜S5の処理により、音声信号が符号に変換され、ベクトル量子化が完成する。
次に、出現頻度生成手段40は、図6に示すように、発話aiの符号帳をそれぞれ生成し、発話aiにおける各符号の出現回数を成分とする出現頻度ベクトルを生成する(S6)。ここで生成した符号帳の符号帳サイズVは、前述の特徴ベクトルクラスタリング部22により生成されたクラスタの数に相当する。
次に、類似度算出手段50は、発話aiの出現頻度ベクトルに基づいて発話間のコサイン(余弦)距離を算出し、このコサイン距離を類似度とする(S7)。
発話aiと発話ajとの類似度wij (0)は、以下の式(4)で算出することができる。なお、本実施形態では、類似度wij (0)に対して後処理を行い、最終的な類似度wijを算出するため、調整前類似度wij (0)とする。
Figure 0004960416
式(4)中、fivは発話aiにおける符号vの出現頻度、fjvは発話ajにおける符号vの出現頻度、i、jは1〜Nの整数、v、v’は1〜Vの整数、Nは発話数、Vは各発話の出現頻度ベクトルの符号帳サイズである。
ここで、調整前類似度wij (0)に対して調整(後処理)を行う。発話aiの最大類似度wi を以下の式(5)で表したとき、調整前類似度wij (0)が最大類似度wi のε倍より小さい場合は類似度を0にする処理(以下、トリミングと言うこともある。)を行い、以下の式(6)に示すように、発話aiと発話ajとの類似度wijを算出する。ここで、εは類似度トリミング係数と呼ばれる1<ε<0の定数であり、適宜調整することができる。
類似度wij (0)が最大類似度wi のε倍より小さいということは、類似度が明らかに小さいということである。したがって、明らかに類似度が小さい場合に類似度を0と近似することにより、後述のクラスタリングにおいて演算量を低減させることができる。
Figure 0004960416
式(5)中、i、jは1〜Nの整数、Nは発話数である。
Figure 0004960416
式(6)中、i、jは1〜Nの整数、Nは発話数である。
算出された発話間の類似度は、図7に示すようなマトリックス状に表現することができる。図7において、発話a1と発話a3との類似度が「150」と高く、発話a1と発話a2との類似度は「0」で類似していないということが言える。
次に、クラスタリング手段60は、図7に示す類似度に基づいて、スペクトラルクラスタリングを行う(S8)。以下に、具体的な方法を説明する。
まず、S7で算出された類似度wijを要素とする類似度行列Wから、ラプラシアン行列(N次正方行列)Lを以下の式(7)により算出する。
Figure 0004960416
式(7)中、Iは単位行列、Dは対角行列、i、j、kは1〜Nの整数、Nは発話数である。
ラプラシアン行列LのQ個の固有ベクトルviqを以下の式(8)で表す。
Figure 0004960416
式(8)で示す固有ベクトルviqから、yiqを要素とするN行Q列行列Yを以下の式(9)により算出する。
Figure 0004960416
式(9)中、iは1〜Nの整数、qは1〜Qの整数、Nは発話数、Qは固有ベクトルの数である。
式(9)に示すyiqを要素とする行列YのN個の行ベクトルを、以下の式(10)で表されるk−meansクラスタリングにより、Q個のクラスタに分割する。
Figure 0004960416
式(10)中、α、qは1〜Qの整数、iは1〜Nの整数、Qは固有ベクトルの数、Nは発話数である。
このようにして得られたQ個のクラスタには、特徴が類似する発話がそれぞれ分類され、1つのクラスタに属する発話は同一話者による発話であると判定することができる。
次に、話者数判定手段70は、音声信号中で会話をしている話者の数を判定する(S9)。スペクトラルクラスタリングにおいて、上記式(3)で示すクラスタ間の平均類似度Sが0(ゼロ)となるような理想的な場合には、ラプラシアン行列Lの最小固有値0がQ重に縮退することが数学的に示される。また、理想的な場合からの乖離が小さい場合には、摂動論的な解析から、固有値λQ+1−λに大きなギャップが生じることが示される。ここで、Qはスペクトラルクラスタリングにより分類されたクラスタ数である。このような知見に基づいて、クラスタ数Qは以下の式(11)で算出することができる。
Figure 0004960416
式(11)中、λは固有値、iは整数である。
以上の処理終了後、話者クラスタリング装置100は、入力された音声信号中の話者の同定結果および話者数を図示しない出力手段に出力した後、動作を終了する。
[1−3.第1実施形態の作用効果]
上述した第1実施形態では、以下に示す作用効果を奏することができる。
ベクトル量子化手段30により音声信号を符号に変換し(量子化)、出現頻度生成手段40はこの符号に基づいて各符号を成分とする出現頻度ベクトルを発話ごとに生成する。類似度算出手段50は、該出現頻度ベクトルを用いてコサイン距離を算出し、該コサイン距離を類似度とする。
特性の異なる発話の類似度を求める場合、出現頻度ベクトルからKL距離を用いて類似度を求める際は、一方の発話の出現頻度ベクトル中の成分値がゼロの箇所を他の値に変えるなどの処理が必要であり、そのために精度が落ちるという問題があったが、本実施形態では、コサイン距離を用いて類似度を求めるため、一方の発話の出現頻度ベクトル中の成分が0(ゼロ)である場合には類似度への寄与もゼロになり(上記式(1)参照)、特別な処理を行う必要がない。したがって、より精度の高い話者クラスタリングを行うことができる。
また、従来のKL距離やユークリッド距離を用いる方法の場合、発話の長さが短くなると、発話の話者性を十分に得られない場合があった。一方、本実施形態では音声信号を符号に変換し、該符号の出現回数を成分とした出現頻度ベクトルを用いてコサイン距離を算出し、発話間の類似度を求めるので、発話の長さに関係なく正確な話者性を得ることができる。したがって、発話の長さが短い場合であっても、発話の話者性を正確に得ることができ、その結果、精度の高い話者クラスタリングを行うことができる。
さらに、上記実施形態では、話者数判定手段70は、ラプラシアン行列Lの固有値を用いた上記式(11)により音声信号中の話者数を算出することができる。したがって、定量的に話者数を判定することができる。
そして、上記実施形態では、式(4)に示すように、類似度が明らかに小さい場合は類似度を0とする近似を行うので、クラスタリングを行う際の話者数の推定精度を向上させることができる。
〔2.第2実施形態〕
次に、本発明の第2実施形態について説明する。第2実施形態では、出現頻度生成手段の動作が前記第1実施形態の出現頻度生成手段40と相違する。なお、前記第1実施形態と同一の構成および動作については説明を省略する。
出現頻度生成手段は、符号列中の各符号の出現回数に重み付けを行い、この重み付けされた出現回数を成分とする出現頻度ベクトルを発話ごとに生成する。
具体的な重み付けの方法としては、TF/IDF(Term Frequency Inverse/Document Frequency)法が用いられる。具体的には、各発話における符号の出現回数を、当該符号と同一の符号が出現する発話の数の逆数で重み付けする。このように、発話ごとに各符号の出現回数が重み付けされ、出現頻度生成手段は、この重み付けされた出現回数を成分とする出現頻度ベクトルを生成する。
このようにして生成された出現頻度ベクトルを用いて、第1実施形態と同様に、類似度算出手段50は類似度を算出する。
このような第2実施形態によれば、前記第1実施形態の効果に加えて次の効果が得られる。
各発話における各符号の出現回数に対してTF/IDF法による重み付けを行う。本実施形態においては、発話の特徴である符号が、他の発話に出現しない程、重み付けされるようになる。すなわち、どの発話にも出現するような特徴(符号)は、該発話中の特徴とされるものではなく、他の発話に出現しない特徴(符号)に対して、重み付けを行う。
したがって、符号に変換された音声信号の特徴をより正確に抽出でき、より精度の高い話者クラスタリングを行うことができる。
〔3.第3実施形態〕
次に、本発明の第3実施形態について説明する。第3実施形態では、出現頻度生成手段において出現頻度ベクトルの成分が前記第1実施形態の出現頻度生成手段40と相違する。なお、前記第1実施形態と同一の構成については説明を省略する。
出現頻度生成手段は、音声信号から変換された符号中の連続する符号の組み合わせによる符号列の出現回数を成分とする出現頻度ベクトルを発話ごとに生成する。
第3実施形態の出現頻度生成手段による具体的な方法を図8および図9を用いて説明する。
図8に示すように、音声信号から変換された符号列において、連続する2つの符号を1単位とした、単位符号u1、u2、u3、…という符号列が存在する。このとき、同一の符号の組み合わせが存在する場合は、同一の単位符号とみなす。例えば、図8において、符号列の最初の単位符号u1の符号の組み合わせは「5,9」である。したがって、該符号列における「5,9」の符号の並びは全て単位符号u1とする。
出現頻度生成手段は、図9に示すように、発話aiごとに、単位符号uiの出現回数を成分とする出現頻度ベクトルを生成する。ここで、発話aiの符号帳サイズは、単位符号uiの数に相当する。
このようにして生成された出現頻度ベクトルを用いて、第1実施形態と同様に、類似度算出手段50は類似度を算出する。
このような第3実施形態によれば、前記第1実施形態の効果に加えて次の効果が得られる。
出現頻度生成手段は、音声信号から変換された符号における連続する符号の組み合わせを成分とする出現頻度ベクトルを生成する。連続する符号の組み合わせはその発話における特徴を表すものであり、単一の符号よりも発話の特性を特徴的に表す。また、同一の符号の組み合わせは同一の特徴であると判定することができる。したがって、連続する符号の組み合わせの出現回数を成分とする出現頻度ベクトルを用いることで、発話の特徴をより正確に抽出することができ、精度の高い類似度を算出することができる。その結果、より精度の高い話者クラスタリングを行うことができる。
〔4.第4実施形態〕
次に、本発明の第4実施形態について説明する。第4実施形態では、変化量ベクトル量子化手段をさらに備え、この変化量を出現頻度ベクトルの成分として用いる点が、第1実施形態と相違する。なお、前記第1実施形態と同一の構成については説明を省略する。
第4実施形態の話者クラスタリング装置101の構成を図10に示す。
図10に示すように、話者クラスタリング装置101は、音声信号取得手段10と、発話区分手段20と、ベクトル量子化手段30と、変化量ベクトル量子化手段80と、出現頻度生成手段41と、類似度算出手段50と、クラスタリング手段60と、話者数判定手段70と、を備えている。
変化量ベクトル量子化手段80は、ベクトル量子化を用いて、音声信号の時系列的な変化量を符号に変換する。すなわち、変化量符号列とは、図11に示すように、ベクトル量子化手段30によって生成された符号列中の隣接する符号の変化量(差分)が新たな符号列として生成されたものである。
出現頻度生成手段41は、ベクトル量子化手段30によって生成された符号列と、変化量ベクトル量子化手段80によって生成された変化量符号列と、の2つの符号列中の各符号の出現回数を成分とする出現頻度ベクトルを生成する。具体的には、発話aiごとに、符号列中の各符号の出現回数を成分とする出現頻度ベクトルを第1実施形態と同様に生成し、さらに該出現頻度ベクトルの符号帳サイズを拡張し、変化量符号列中の各変化量の出現回数を成分とする出現頻度ベクトルを生成する。図12において、発話aiの符号列中の各符号の出現回数を成分とする出現頻度ベクトルの符号帳サイズは256であり、変化量符号列を成分とする出現頻度ベクトルを257以降に生成する。図12に示す出現頻度ベクトルの257以降の横軸は、変化量を表している。例えば、変化量4の出現頻度ベクトルは、発話a1では3、発話a3では3となる。このときの符号帳サイズは可変であり、変化量の数の分だけ拡張する。
このようにして生成された出現頻度ベクトルを用いて、第1実施形態と同様に、類似度算出手段50は類似度を算出する。
このような第4実施形態によれば、前記第1実施形態の効果に加えて次の効果が得られる。
音声信号の時系列的な変化量は発話の特徴を表すものであるので、発話における同一の変化量は同一の特徴であると判定することができる。第4実施形態では、符号列中の各符号の出現回数のほかにも変化量の出現回数を成分とする出現頻度ベクトルを生成するので、発話の特徴をより正確に抽出することができ、精度の高い類似度を算出することができる。その結果、より精度の高い話者クラスタリングを行うことができる。
〔5.変形例〕
なお、本発明は前記各実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。
例えば、上記実施形態において、類似度wijを算出するために、上記式(4)により調整前類似度wij (0)を算出し、この調整前類似度wij (0)に対して上記式(5)に示す調整を行い、最終的な類似度wijを算出することとしたが、上記式(4)により算出された調整類似度wij (0)をそのまま類似度wijとして用いてもよい。これによれば、類似度がより正確となるので、より精度の高い話者クラスタリングを行うことができる。
また、上記実施形態において、調整前類似度wij (0)に対して調整(後処理)を行う際、調整前類似度wij (0)が最大類似度wi のε倍より小さい場合は類似度を0にする処理(式(6)参照)を行ったが、調整前類似度を0に近似する方法はこれに限られない。例えば、発話間の類似度のうち、類似度が大きい上位所定数を予め決めておき、当該所定数以外の類似度について調整前類似度を0に近似する方法がある。これによれば、クラスタリングを行う際の演算量を低減させることができる。
さらに、第3実施形態において、単位符号uiを連続する2つの符号の組み合わせとしたが、符号の数はこれに限られない。連続する3つの符号の組み合わせ(並び)や連続する4つの符号の並び(並び)を単位符号としてもよい。なお、符号の数が増えるほど類似度の精度は高くなるが、同一の単位符号の出現頻度が低くなり、発話特性を得られなくなる可能性があるので、適宜調整する。
本発明は、音声認識精度の改善や、話者単位のスキップ再生などの視聴支援への活用など、音声認識の分野に利用できる。
10…音声信号取得手段
20…発話区分手段
30…ベクトル量子化手段
40、41…出現頻度生成手段
50…類似度算出手段
60…クラスタリング手段
70…話者数判定手段
80…変化量ベクトル量子化手段
100…話者クラスタリング装置

Claims (6)

  1. 入力された音声信号中の同一話者の発話を同定する話者クラスタリング装置であって、
    ベクトル量子化を用いて前記音声信号を符号に変換するベクトル量子化手段と、
    ベクトル量子化を用いて前記音声信号の時系列的な変化量を符号に変換する変化量ベクトル量子化手段と、
    前記変換された符号中の各発話に対して、前記音声信号の符号の出現回数と、前記変化量の符号の出現回数とを成分とする出現頻度ベクトルを生成する出現頻度生成手段と、
    前記出現頻度ベクトルに基づいて前記発話間のコサイン距離をそれぞれ算出し、該コサイン距離を発話間の類似度として求める類似度算出手段と、
    前記発話間の類似度に基づいて前記発話を分類するクラスタリング手段と、を備え
    前記出現頻度生成手段は、前記各発話中の連続する符号の組み合わせによる符号列の出現回数を成分とした出現頻度ベクトルを生成し、前記出現頻度ベクトルに対して、前記各発話内における前記符号の出現回数を、当該符号と同一の符号が出現する前記発話の数の逆数で重み付けする
    ことを特徴とする話者クラスタリング装置。
  2. 請求項1に記載の話者クラスタリング装置において、
    前記クラスタリング手段は、
    前記算出したコサイン距離による発話間の類似度を用いてスペクトラルクラスタリングを行うことを特徴とする話者クラスタリング装置。
  3. 請求項1または請求項2に記載の話者クラスタリング装置において、
    前記類似度算出手段により得られる各発話間の前記類似度を要素とする類似度行列から得られる正方行列の固有値を算出し、連続する固有値間の差分が最大値をとる固有値に基づいて、前記音声信号中の話者数を決定する話者数判定手段をさらに備えた
    ことを特徴とする話者クラスタリング装置。
  4. 請求項1から請求項のいずれかに記載の話者クラスタリング装置において、
    前記類似度算出手段は、
    前記算出した各発話間の類似度のうちの最大値にあらかじめ定められた係数を乗じて算出した閾値を下回る類似度を0として前記類似度を求めることを特徴とする話者クラスタリング装置。
  5. 請求項1から請求項のいずれかに記載の話者クラスタリング装置において、
    前記類似度算出手段は、
    前記算出した各発話間の類似度のうち、類似度が大きい上位所定数以外の類似度を0として前記類似度を求めることを特徴とする話者クラスタリング装置。
  6. 入力された音声信号中の同一話者の発話を同定する話者クラスタリング方法であって、
    ベクトル量子化を用いて前記音声信号を符号に変換するベクトル量子化ステップと、
    ベクトル量子化を用いて前記音声信号の時系列的な変化量を符号に変換する変化量ベクトル量子化ステップと、
    前記変換された符号中の各発話に対して、前記音声信号の符号の出現回数と、前記変化量の符号の出現回数とを成分とする出現頻度ベクトルを生成する出現頻度生成ステップと、
    前記出現頻度ベクトルに基づいて前記発話間の類似度を求める類似度算出ステップと、
    前記発話間の類似度に基づいて前記発話を分類するクラスタリングステップと、を備え
    前記出現頻度生成ステップは、前記各発話中の連続する符号の組み合わせによる符号列の出現回数を成分とした出現頻度ベクトルを生成し、前記出現頻度ベクトルに対して、前記各発話内における前記符号の出現回数を、当該符号と同一の符号が出現する前記発話の数の逆数で重み付けする
    ことを特徴とする話者クラスタリング方法。
JP2009210499A 2009-09-11 2009-09-11 話者クラスタリング装置および話者クラスタリング方法 Active JP4960416B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009210499A JP4960416B2 (ja) 2009-09-11 2009-09-11 話者クラスタリング装置および話者クラスタリング方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009210499A JP4960416B2 (ja) 2009-09-11 2009-09-11 話者クラスタリング装置および話者クラスタリング方法

Publications (2)

Publication Number Publication Date
JP2011059500A JP2011059500A (ja) 2011-03-24
JP4960416B2 true JP4960416B2 (ja) 2012-06-27

Family

ID=43947177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009210499A Active JP4960416B2 (ja) 2009-09-11 2009-09-11 話者クラスタリング装置および話者クラスタリング方法

Country Status (1)

Country Link
JP (1) JP4960416B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7190946B2 (ja) 2019-03-20 2022-12-16 三菱重工エンジニアリング株式会社 電源装置、自動操舵車両、及び電力供給方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6594839B2 (ja) * 2016-10-12 2019-10-23 日本電信電話株式会社 話者数推定装置、話者数推定方法、およびプログラム
CN108985198A (zh) * 2018-07-02 2018-12-11 四川斐讯信息技术有限公司 一种基于大数据特征向量的余弦距离计算方法
US20210327435A1 (en) * 2018-09-06 2021-10-21 Nec Corporation Voice processing device, voice processing method, and program recording medium
CN111599346B (zh) * 2020-05-19 2024-02-20 科大讯飞股份有限公司 一种说话人聚类方法、装置、设备及存储介质
KR102396136B1 (ko) * 2020-06-02 2022-05-11 네이버 주식회사 멀티디바이스 기반 화자분할 성능 향상을 위한 방법 및 시스템
KR102560019B1 (ko) * 2021-01-15 2023-07-27 네이버 주식회사 화자 식별과 결합된 화자 분리 방법, 시스템, 및 컴퓨터 프로그램
CN113178196B (zh) * 2021-04-20 2023-02-07 平安国际融资租赁有限公司 音频数据提取方法、装置、计算机设备和存储介质
CN113793615B (zh) * 2021-09-15 2024-02-27 北京百度网讯科技有限公司 说话人识别方法、模型训练方法、装置、设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004317845A (ja) * 2003-04-17 2004-11-11 Nagoya Industrial Science Research Inst モデルデータ生成装置、モデルデータ生成方法、およびこれらの方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7190946B2 (ja) 2019-03-20 2022-12-16 三菱重工エンジニアリング株式会社 電源装置、自動操舵車両、及び電力供給方法

Also Published As

Publication number Publication date
JP2011059500A (ja) 2011-03-24

Similar Documents

Publication Publication Date Title
JP4960416B2 (ja) 話者クラスタリング装置および話者クラスタリング方法
Park et al. Auto-tuning spectral clustering for speaker diarization using normalized maximum eigengap
CN107564513B (zh) 语音识别方法及装置
Ittichaichareon et al. Speech recognition using MFCC
JP5662276B2 (ja) 音響信号処理装置および音響信号処理方法
US8271282B2 (en) Voice recognition apparatus, voice recognition method and recording medium
CN103489445B (zh) 一种识别音频中人声的方法及装置
Bharti et al. Real time speaker recognition system using MFCC and vector quantization technique
JP2016006504A (ja) 音声データ処理装置、音声データ処理方法、及び、音声データ処理プログラム
CN104795064A (zh) 低信噪比声场景下声音事件的识别方法
CN111292763B (zh) 重音检测方法及装置、非瞬时性存储介质
Silva et al. Spoken digit recognition in portuguese using line spectral frequencies
CN116824495B (zh) 危险行为识别方法、系统、存储介质及计算机设备
Irfan et al. Implementation of Dynamic Time Warping algorithm on an Android based application to write and pronounce Hijaiyah letters
CN111986699A (zh) 基于全卷积网络的声音事件检测方法
WO2004075074A1 (ja) カオス論的指標値計算システム
KR102241364B1 (ko) 음성 신호를 이용한 사용자 스트레스 판별 장치 및 방법
Yılmaz et al. Noise robust exemplar matching using sparse representations of speech
CN107533672B (zh) 模式识别装置、模式识别方法以及记录介质
Silva et al. A comparative study between MFCC and LSF coefficients in automatic recognition of isolated digits pronounced in Portuguese and English
JP6216809B2 (ja) パラメータ調整システム、パラメータ調整方法、プログラム
Kanisha et al. Speech recognition with advanced feature extraction methods using adaptive particle swarm optimization
JP2011033879A (ja) サンプルを用いずあらゆる言語を識別可能な識別方法
Cipli et al. Multi-class acoustic event classification of hydrophone data
Therese et al. A linear visual assessment tendency based clustering with power normalized cepstral coefficients for audio signal recognition system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4960416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250