JP7473910B2 - 話者認識装置、話者認識方法およびプログラム - Google Patents

話者認識装置、話者認識方法およびプログラム Download PDF

Info

Publication number
JP7473910B2
JP7473910B2 JP2020058067A JP2020058067A JP7473910B2 JP 7473910 B2 JP7473910 B2 JP 7473910B2 JP 2020058067 A JP2020058067 A JP 2020058067A JP 2020058067 A JP2020058067 A JP 2020058067A JP 7473910 B2 JP7473910 B2 JP 7473910B2
Authority
JP
Japan
Prior art keywords
person
registered
speaker
recognition
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020058067A
Other languages
English (en)
Other versions
JP2021157081A (ja
Inventor
浩一 浅野
康孝 浦川
直樹 柴田
俊明 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuetrek Co Ltd
Original Assignee
Fuetrek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuetrek Co Ltd filed Critical Fuetrek Co Ltd
Priority to JP2020058067A priority Critical patent/JP7473910B2/ja
Publication of JP2021157081A publication Critical patent/JP2021157081A/ja
Application granted granted Critical
Publication of JP7473910B2 publication Critical patent/JP7473910B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、取得した音声データに基づいて話者を認識する話者認識装置、話者認識方法およびプログラムに関する。
音声による話者認識には、例えば、以下のような方法がある。まず、多数の話者の音声情報から、標準的な(平均的な)声情報を表す「背景モデル」(GMM-UBM(Gaussian Mixture Model - Universal Background Model)等)を生成しておく。つぎに、登録すべき人物の音声データから、背景モデルを用いて、すなわち背景モデルを登録人物の音声に適応させることで、話者モデルを生成する。話者モデルは、平均的な話者との違いを表現したモデルである。
話者を認識するときは、認識対象者の音声データから、背景モデルを用いて声の特徴量を抽出する。抽出した特徴量と登録人物の話者モデルとの類似度のうち、最大の類似度の話者モデルに対応する登録人物が、認識対象者であると判定する。
特許文献1の話者認識装置は、入力された音声について、不特定多数話者または登録話者の音声又は音声モデルを有する大規模音声データベースを用いて、i-vectorと呼ばれる特徴量を抽出し、類似度計算部は、大規模音声データベースの不特定多数話者の音声モデルおよび登録話者音声モデルと前記入力された音声の特徴量との類似度を計算する。順位計算部は、入力された音声の特徴量と入力話者が主張する登録話者モデルとの類似度が全話者モデルの中で何番目に大きいかを計算し、判定部は、順位計算処理で求められた順位があらかじめ定められた順位内である場合本人であると判定する。
特許文献2では、性別を区分する声紋認証処理モデルを構築することにより、声紋認証の効率及び精度を向上させる。特許文献2の声紋認証処理方法は、性別を混合した深層ニューラルネットワーク声紋ベースラインシステムを利用し、訓練集合における各音声断片の第1特徴ベクトルを抽出するステップと、各音声断片の第1特徴ベクトル及び予め標識された性別タグに基づいて、性別分類器を訓練するステップと、訓練集合における性別が異なる音声データに基づき、性別が異なるDNNモデルをそれぞれ訓練するステップと、性別が異なるDNNモデル及び訓練集合における性別が異なる音声データに基づき、性別が異なる統一背景モデルと、特徴ベクトル抽出モデルと、確率線形判別分析モデルとをそれぞれ訓練するステップと含む。
特許文献3のユーザのアクセスを検証するシステムでは、音声登録サンプル中で話者/ユーザの音声パラメータを見出し、それをデータベースに保存することにより、複数話者/ユーザ其々に関する略固有な初期識別を提供する音声登録部を含む。システムには、複数ユーザの1人のアイデンティティを略完全に検証する音声認証部も備える。音声認証部には、音声認証サンプルを提供し、データベースと動作する認識部を含む。音声認証部にはまた、認識部及びデータベースと動作する判定部も含み、ユーザがシステムに登録したアイデンティティの人物と同じか否かを判定し、それにより複数ユーザの1人のアイデンティティを略完全に検証する。
特開2017-223848号公報 特表2018-508799号公報 特表2008-509432号公報
上記技術では、標準的な声情報から話者モデルを作成するため、登録時の発話時間が短い場合には、精度の高い話者モデルを作成することができず、認識精度が低いという課題があった。例えば、先行研究(辻川美沙貴, 西川剛樹, 松井知子: "i-vectorによる短い発話の話者識別の検討", 信学技報, vol. 115, no. 99, SP2015-12, pp. 65-70, 2015年6月.)には、2秒以下の音声ではi-vectorの性能が急激に劣化することが報告されている。
本発明は、音声で話者を認識する話者認識において、登録時の発話時間長が短い場合でも高い認識精度を得ることを目的とする。
本発明の第1の観点に係る話者認識装置は、
登録人物ごとに、前記登録人物それぞれの音声データから生成された前記登録人物ごとの背景モデルを記憶する背景モデル記憶部と、
前記登録人物ごとに、前記登録人物の音声と、該登録人物の前記背景モデルとから算出された話者モデルを記憶する話者モデル記憶部と、
認識対象者の音声データを取得する音声入力部と、
前記音声入力部で取得した音声データと、前記背景モデルおよび前記話者モデルとから、前記認識対象者が前記登録人物のいずれであるかを判定する認識部と、
を備え
前記認識部は、
前記音声入力部で取得した音声データと、前記背景モデルそれぞれとから、前記背景モデルごとの前記音声データの特徴量である対象特徴量を生成する特徴量生成部と、
前記背景モデルごとの前記対象特徴量と、該背景モデルに対応する前記話者モデルとの類似度を算出する類似度算出部と、
を含み、
前記類似度算出部で算出した類似度の最大値が所定の値以上である場合に、前記認識対象者が、前記最大値の類似度に対応する話者モデルの登録人物であると判定する
本発明によれば、登録人物ごとの背景モデルから生成された話者モデルと、認識対象者の音声データから登録人物ごとの背景モデルで生成された対象特徴量との類似度を算出する。その結果、登録時(および認識対象者)の発話時間長が短い場合でも高い認識精度を得ることができる。
好ましくは、前記認識部において、前記認識対象者が前記登録人物のいずれであるかを判定することは、前記認識対象者が前記登録人物の少なくともいずれか1人以上に該当する可能性が考えられる場合に、前記認識対象者が前記登録人物のいずれかであると判定することを少なくとも含む。
好ましくは、前記認識部において、前記認識対象者が前記登録人物のいずれであるかを判定できない場合に、前記認識対象者が前記登録人物のいずれでもないと判定する。
好ましくは、前記登録人物ごとに、前記登録人物ごとの属性情報を記憶する属性記憶部と、
前記属性情報に基づいて、前記認識対象者が含まれるか否かを判定する前記登録人物の集合を部分集合に限定する限定部と、を備え、
前記認識部は、前記音声入力部で取得した音声データと、前記部分集合に含まれる前記登録人物の前記背景モデルおよび前記話者モデルとから、前記認識対象者が前記部分集合に含まれる前記登録人物のいずれであるかを判定する。
好ましくは、前記属性情報は、前記登録人物ごとの行動様式を含み、
前記限定部は、前記認識対象者の音声データが取得された時刻と、前記登録人物ごとの行動様式とに基づいて、前記認識対象者が含まれるか否かを判定する前記登録人物の集合を部分集合に限定する。
好ましくは、前記認識部は、前記認識対象者が前記部分集合に含まれないと判定した場合に、前記音声入力部で取得した音声データと、前記登録人物の集合における前記部分集合の補集合に含まれる前記登録人物の前記背景モデルおよび前記話者モデルとから、前記認識対象者が前記補集合に含まれる前記登録人物のいずれであるかを判定する。
本発明の第2の観点に係る話者認識方法は、
音声に基づいて認識対象者を認識する話者認識装置が行う話者認識方法であって、
認識対象者の音声データを取得する音声入力ステップと、
登録人物ごとに、前記登録人物それぞれの音声データから生成された前記登録人物ごとの背景モデルを記憶する背景モデル記憶部から、前記登録人物ごとの背景モデルを取得する背景取得ステップと、
前記登録人物ごとに、前記登録人物の音声と、該登録人物の前記背景モデルとから算出された話者モデルを記憶する話者モデル記憶部から、前記登録人物ごとの話者モデルを取得する話者モデル取得ステップと、
前記音声入力ステップで取得した音声データと、前記登録人物ごとの背景モデルおよび前記登録人物ごとの話者モデルとから、前記認識対象者が前記登録人物のいずれであるかを判定する認識ステップと、
を備え
前記認識ステップでは、
前記音声入力ステップで取得した音声データと、前記背景モデルそれぞれとから、前記背景モデルごとの前記音声データの特徴量である対象特徴量を生成し、
前記背景モデルごとの前記対象特徴量と、該背景モデルに対応する前記話者モデルとの類似度を算出し、
前記算出した類似度の最大値が所定の値以上である場合に、前記認識対象者が、前記最大値の類似度に対応する話者モデルの登録人物であると判定する
本発明の第3の観点に係るプログラムは、
コンピュータを
登録人物ごとに、前記登録人物それぞれの音声データから生成された前記登録人物ごとの背景モデルを記憶する背景モデル記憶部、
前記登録人物ごとに、前記登録人物の音声と、該登録人物の前記背景モデルとから算出された話者モデルを記憶する話者モデル記憶部、
認識対象者の音声データを取得する音声入力部、ならびに
前記音声入力部で取得した音声データと、前記背景モデルおよび前記話者モデルとから、前記認識対象者が前記登録人物のいずれであるかを判定する認識部、
として機能させ
前記認識部は、
前記音声入力部で取得した音声データと、前記背景モデルそれぞれとから、前記背景モデルごとの前記音声データの特徴量である対象特徴量を生成する特徴量生成部と、
前記背景モデルごとの前記対象特徴量と、該背景モデルに対応する前記話者モデルとの類似度を算出する類似度算出部と、
を含み、
前記類似度算出部で算出した類似度の最大値が所定の値以上である場合に、前記認識対象者が、前記最大値の類似度に対応する話者モデルの登録人物であると判定する
本発明によれば、多数の話者の平均的な分布を基準にするのではなく、登録人物ごとの背景モデルを基準に話者モデルを作成するので、登録時の発話時間長が短い場合でも高い認識精度を得ることができる。
本発明の実施の形態1に係る話者認識装置の構成を示すブロック図 実施の形態1に係る背景モデルの生成を説明する概念図 実施の形態1に係る話者モデルの生成を説明する概念図 実施の形態1に係る対象特徴量と話者モデルとの類似度を説明する概念図 実施の形態1に係る話者認識処理の動作の一例を示すフローチャート 本発明の実施の形態2に係る話者認識装置の構成を示すブロック図 実施の形態2に係る属性情報の一例を示す図 実施の形態2に係る話者認識処理の動作の一例を示すフローチャート 実施の形態に係る話者認識装置のハードウェア構成の一例を示すブロック図
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。
実施の形態1.
図1は、本発明の実施の形態1に係る話者認識装置の構成を示すブロック図である。話者認識装置1は、マイクロフォン21に入力された認識対象者の音声データから特徴量を生成し、登録されている人物の話者モデルと比較して、認識対象者が登録人物のいずれであるか否かを判定する。
話者認識装置1は、音声入力部10、認識部11、背景モデル記憶部12、および、話者モデル記憶部13を備える。認識部11は、特徴量生成部14および類似度算出部15を含む。背景モデル記憶部12は、音声データから特徴量を生成するための背景モデル16を記憶する。話者モデル記憶部13は、認識対象者の音声データから生成された特徴量と比較する、登録人物の話者モデル17を記憶する。
通常の背景モデルは、一般的な音声の特徴を表し、多数話者の音声からMFCC(Mel Frequency Cepstral Coefficient)として得られる音声特徴量から作成されるGMM-UBM(Gaussian Mixture Model - Universal Background Model)である。通常、話者モデルは、背景モデルを話者の音声データに適応させ、その統計量からi-vector、LDAという手法を用いて作成される。本発明の実施の形態では、登録人物ごとに、登録人物それぞれの音声データから背景モデルを生成する。そして、登録人物ごとに、登録人物の音声と該登録人物の背景モデルとから、話者モデルを算出する。
図2は、実施の形態1に係る背景モデルの生成を説明する概念図である。ここで登録人物がA、B、C、...Nであったとして、例えば登録人物Aの音声から、背景モデルとして前述のGMM-UBMを生成する。登録人物Aの音声には、背景モデルを生成するのに十分な量の音声データを用いる。ここで、登録人物Aのみの音声から生成された背景モデルであることをGMM-UBM|Aと表す。
同様にして、すべての登録人物について、登録人物Bの背景モデル=GMM-UBM|B、登録人物Cの背景モデル=GMM-UBM|C等々、登録人物Nの背景モデル=GMM-UBM|Nまでを生成する。生成した背景モデル=GMM-UBM|X(X∈{A,B,C,...,N})を、背景モデル16として、背景モデル記憶部12に記憶させておく。
図3は、実施の形態1に係る話者モデルの生成を説明する概念図である。実施の形態では、登録人物X(X∈{A,B,C,...,N})ごとの背景モデル=GMM-UBM|Xを、登録人物Xの登録音声データに適応させ、話者モデルを算出する。ここで、登録人物Xの音声モデルを、登録人物Xの背景モデル=GMM-UBM|Xを用いて算出されたモデルとして、話者Xモデル|Xで表す。算出した話者Xモデル|Xを、話者モデル17として、話者モデル記憶部13に記憶させておく。
話者認識装置1の特徴量生成部14は、音声入力部10で取得した認識対象者の音声データと、登録人物X(X∈{A,B,C,...,N})ごとの背景モデル=GMM-UBM|Xとから、背景モデルごとに音声データの特徴量である対象特徴量を生成する。ここで、背景モデル=GMM-UBM|Xから生成された特徴量であることを、対象特徴量|Xで表す。
図4は、実施の形態1に係る対象特徴量と話者モデルとの類似度を説明する概念図である。話者認識装置1の類似度算出部15は、登録人物X(X∈{A,B,C,...,N})ごとの背景モデル=GMM-UBM|Xから生成された対象特徴量|Xと、話者Xモデル|Xとの類似度を算出する。類似度の算出は、例えば、ユークリッド距離、コサイン距離、マハラノビス距離、PLDAなどの方法により行う。対象特徴量|Xと話者Xモデル|Xとの類似度を、類似度|X(X∈{A,B,C,...,N})で表す。
話者認識装置1の認識部11は、類似度|X(X∈{A,B,C,...,N})を用いて、認識対象者が登録人物のいずれであるかを判定する。認識部11は例えば、類似度|Xのうちの最大値Mを選択し、最大値Mと基準の閾値を比較する。最大値Mが閾値以上であれば、認識対象者は、最大値Mの類似度|Xに対応する登録人物Xであると判定する。話者認識装置1は、判定結果を出力する。他の機器は、判定結果を用いて認識対象者に応じた制御を行うことができる。例えば、ドアの施錠/解錠を制御する解錠制御装置は、認識対象者が登録人物のいずれかであればドアを解錠し、認識対象者が登録人物のいずれでもなければドアを施錠したままにする。
このように、例えば、認識対象者が登録人物の少なくともいずれか1人以上に該当する可能性が考えられる場合に、認識対象者が登録人物のいずれかであると判定する(例えば、類似度|Xが閾値以上となるようなXが少なくとも1以上ある場合に、認識対象者がそれらの登録人物Xのいずれかであると判定する)ことによって、認識対象者が登録人物のいずれであるかを判定するようにしてもよい。また、認識対象者が登録人物のいずれであるかを判定できない場合に(例えば、いずれのXについても類似度|Xが閾値未満である場合など)、認識対象者が登録人物のいずれでもないと判定するようにしてもよい。
図5は、実施の形態1に係る話者認識処理の動作の一例を示すフローチャートである。話者認識装置1は、認識対象者が登録人物の集合に含まれる登録人物のいずれであるかの判定を求められたときに、話者認証処理を起動する。例えば、人感知センサでドアの前に人物が居ることを感知したとき、あるいは、認証対象者が解錠するためにスイッチを押下したときに、話者認証処理を起動する。
話者認識装置1の音声入力部10は、マイク21から入力された認証対象者の音声データを取得する(ステップS10)。話者認証装置1の特徴量生成部14は、登録人物を指定する変数iを初期化し(ステップS11)、変数iで指定される登録人物iの背景データGMM-UBM|iを用いて、音声データの対象特徴量|iを生成する(ステップS12)。特徴量算出部15は、対象特徴量|iと話者iモデル|iとの類似度|iを算出する(ステップS13)。
特徴量生成部14は、変数iをインクリメントし(ステップS14)、変数iが登録人物の数Nを超えたか否かを判断する(ステップS15)。変数iが数Nを超えていなければ(ステップS15;N)、すなわち、対象特徴量|Xを生成していない背景データ|Xが残っていれば、ステップS12に戻って、対象特徴量|iの生成から繰り返す。
変数iが数Nを超えていれば(ステップS15;Y)、すなわち、特徴量生成部14がすべての背景データGMM-UBM|Xについて対象特徴量|Xを生成したら、認識部11は、類似度|i(i=1~N)のうちの最大値Mを選択する(ステップS16)。認識部11は、最大値Mが閾値以上であるか否かを判定する(ステップS17)。最大値Mが閾値以上であれば(ステップS17;Y)、認識部11は、認証対象者は最大値Mに対応する背景データおよび話者モデルの登録人物Mであると判定して(ステップS18)、処理を終了する。最大値Mが閾値未満であれば(ステップS17;N)、認識部11は、認証対象者は登録人物の集合に含まれないと判定して(ステップS19)、処理を終了する。
以上説明したように、実施の形態1の話者認識装置1は、登録人物ごとの背景モデルから生成された話者モデルと、認識対象者の音声データから登録人物ごとの背景モデルで生成された対象特徴量との類似度を算出する。話者認識装置1では、認識対象者が登録人物iであった場合の音声データについて、背景データGMM-UBM|iで生成した対象特徴量|iと、背景データGMM-UBM|j(j≠i)で生成した対象特徴量|jとの差が大きく現れる。そして、認識対象者が登録人物の集合に含まれない場合は、いずれの対象特徴量|iも、すべての登録人物Xの話者Xモデル|Xとの差が大きい。すなわちいずれの類似度|iも小さい。その結果、登録時(および認識対象者)の発話時間長が短い場合でも高い認識精度を得ることができる。なお、特定の登録人物のみの音声データから背景モデルを生成する場合に限らず、登録人物の音声データと少量の他の人物の音声データとから背景モデルを生成する場合などにおいても、背景モデルが特定の登録人物の音声の特徴を十分に表現するものである限り、同様の効果が期待できる。
実施の形態2.
図6は、本発明の実施の形態2に係る話者認識装置の構成を示すブロック図である。実施の形態2の話者認識装置1は、実施の形態1の構成に加えて、限定部18および属性記憶部19を備える。限定部18は、属性記憶部19に記憶されている登録人物ごとの属性情報20に基づいて、認識対象者がいずれであるかを判定する登録人物の集合を部分集合に限定する。認証部11は、認識対象者が限定された部分集合に含まれる登録人物のいずれであるかを判定する。その他の構成は、実施の形態1と同様である。
属性記憶部19は、登録人物ごとの属性情報を、属性情報20として記憶する。登録人物の属性情報は、例えば、性別、年代、言語(母語)、身長、体格の類型、顔輪郭の類型、発話音声の基本周波数、などである。話者認識装置1は、例えば、認識対象者の画像または音声から認識対象者の属性を把握し、限定部18は、登録人物の集合から、認識対象者の属性と同じ属性を有する登録人物の部分集合に限定する。
図7は、実施の形態2に係る属性情報の一例を示す図である。実施の形態2では、登録人物ごとの属性情報として、登録人物ごとの行動様式の一種である入場時刻の分布を想定する。図7は、登録人物ごとの行動様式として、周期的な期間、例えば、一日のうちの入場時刻の分布を示す。登録人物ごとの属性情報として、例えば、登録人物の入場時刻の分布の平均値と標準偏差を、属性記憶部19に記憶させておく。
限定部18は、認識対象者の音声データを取得した、すなわち認識対象者が音声を入力した時刻から、登録人物の部分集合に含まれる登録人物を選択する。例えば、音声データ取得時刻が、平均値±標準偏差×n(n=1~3)の範囲に入る登録人物を部分集合に含める。図7では、例えば、登録人物Aと登録人物Bは部分集合に含まれ、登録人物Cおよび登録人物Nは、部分集合に含まれない。
認識部11は、認識対象者が限定部18で限定された部分集合に含まれる登録人物のいずれであるかを判定する。すなわち、認識対象者の音声データから、部分集合に含まれる登録人物Xごとの背景データGMM-UBM|Xで対象特徴量|Xを生成し、登録人物の話者Xデータ|Xとの類似度を算出する。認識部11は、部分集合に含まれる登録人物Xごとの類似度|Xのうちの最大値が閾値以上であれば、認識対象者は、部分集合に含まれる登録人物のうちの最大値に対応する登録人物であると判定する。部分集合に含まれる登録人物Xごとの類似度|Xのうちの最大値が閾値未満であれば、認識部11は、認識対象者が部分集合に含まれないと判定する。
認識部11は、認識対象者が部分集合に含まれないと判定した場合、登録人物の集合における部分集合の補集合に含まれる登録人物を選択し、認識対象者が補集合に含まれる登録人物のいずれであるかを判定する。認識対象者が登録人物である場合、認識対象者が最初に限定した部分集合に含まれる登録人物のいずれかである蓋然性は、認識対象者が補集合に含まれる登録人物のいずれかである蓋然性より大きいので、認識対象者が登録人物であると判定されるまでの演算時間の期待値(平均値)は、実施の形態1の演算時間より短くなる。
属性情報が行動様式の場合、認識対象者が補集合に含まれる登録人物のいずれかである可能性を排除できないので、認識対象者が部分集合に含まれない場合に正しく判定するためには、補集合に関する演算が必要である。属性情報の分類によって、認識対象者が補集合に含まれる登録人物のいずれかである可能性が極めて小さければ、認識対象者が部分集合に含まれないと判定した場合に、補集合に関する演算を省略して、認識対象者は登録人物の集合に含まれないと判定することも可能である。
例えば、性別、または、身長もしくは発話音声の基本周波数の層別では、認識対象者の分類を間違える可能性は極めて小さいと考えられ、補集合に関する演算を省略しても、判定の誤差は極めて小さいことが期待できる。
行動様式としての入場時刻の分布は、日または期間によって変化してもよい。例えば、話者認識装置1がカレンダー機能を備え、曜日および休日によって異なる分布としてもよい。その場合、日によって属性情報で部分集合に限定する場合と、部分集合に限定せず実施の形態1のように登録人物の集合全体で演算する場合を混合してもよい。また、スケジュール管理装置と連動して、または、スケジュール管理装置から予定情報をダウンロードして、登録人物の予定に合わせて、入場時刻の分布を変化させてもよい。
なお、部分集合と補集合の2段階だけでなく、3段階以上に分けて演算してもよい。例えば、属性情報が入場時刻の分布の場合、音声データ取得時刻が平均値±標準偏差の範囲に入る登録人物を第1部分集合に含める。認識対象者が第1部分集合に含まれないと判定した場合、第1部分集合の補集合に含まれる登録人物のうち、音声データ取得時刻が平均値±標準偏差×2の範囲に入る人物を第2部分集合として、認識対象者が第2部分集合に含まれる登録人物のいずれであるかを判定する。さらに、認識対象者が第2部分集合に含まれないと判定した場合に、残りの登録人物のうち、音声データ取得時刻が平均値±標準偏差×3の範囲に入る登録人物を第3部分集合として、認識対象者が第3部分集合に含まれる登録人物のいずれであるかを判定する。そして、認識対象者が第3部分集合にも含まれないと判定した場合に、第1から第3部分集合に含まれない登録人物を補集合として、認識対象者が補集合に含まれる登録人物のいずれであるかを判定する。このようにすれば、認識対象者が登録人物の集合に含まれる場合に、認識対象者が登録人物のいずれかであると判定されるまでの演算時間の期待値(平均値)を、さらに短くできる。
図8は、実施の形態2に係る話者認識処理の動作の一例を示すフローチャートである。実施の形態2の話者認識処理では、登録人物の集合を部分集合に限定することを除いて、部分集合に関する演算および補集合に関する演算は、実施の形態1の登録人物の集合に関する演算とほぼ同じである。
前述のように話者認証処理が起動されると、話者認識装置1の音声入力部10は、マイク21から入力された認証対象者の音声データを取得する(ステップS20)。話者認証装置1の限定部18は、属性記憶部19に記憶されている属性情報20を参照して、登録人物の集合Σ:{A,B,...,N}から部分集合φ:{a,b,...,m}に限定する(ステップS21)。
特徴量生成部14は、部分集合φのうちの登録人物を指定する変数jを初期化し(ステップS22)、変数jで指定される登録人物jの背景データGMM-UBM|jを用いて、音声データの対象特徴量|jを生成する(ステップS23)。特徴量算出部15は、対象特徴量|jと話者jモデル|jとの類似度|jを算出する(ステップS24)。
特徴量生成部14は、変数jをインクリメントし(ステップS25)、変数jが部分集合φに含まれる登録人物の数mを超えたか否かを判断する(ステップS26)。変数jが数mを超えていなければ(ステップS26;N)、すなわち、対象特徴量|Xを生成していない背景データ|Xが残っていれば、ステップS23に戻って、対象特徴量|jの生成から繰り返す。
変数jが数mを超えていれば(ステップS26;Y)、すなわち、特徴量生成部14が部分集合φに含まれるすべての登録人物Xの背景データGMM-UBM|Xについて対象特徴量|Xを生成したら、認識部11は、類似度|j(j=1~m)のうちの最大値Mを選択する(ステップS27)。認識部11は、最大値Mが閾値以上であるか否かを判定する(ステップS28)。最大値Mが閾値以上であれば(ステップS28;Y)、認識部11は、認証対象者は最大値Mに対応する背景データおよび話者モデルの登録人物Mであると判定して(ステップS29)、処理を終了する。
最大値Mが閾値未満であれば(ステップS28;N)、認識部11は、認証対象者は登録人物の部分集合φに含まれないと判定し、集合Σにおける部分集合φの補集合ψ:{p,q,...,w}を選択する(ステップS30)。
特徴量生成部14は、補集合ψのうちの登録人物を指定する変数kを初期化し(ステップS31)、変数kで指定される登録人物kの背景データGMM-UBM|kを用いて、音声データの対象特徴量|kを生成する(ステップS32)。特徴量算出部15は、対象特徴量|kと話者kモデル|kとの類似度|kを算出する(ステップS33)。
特徴量生成部14は、変数kをインクリメントし(ステップS34)、変数kが補集合ψに含まれる登録人物の数nを超えたか否かを判断する(ステップS35)。変数kが数nを超えていなければ(ステップS35;N)、すなわち、対象特徴量|Xを生成していない背景データ|Xが残っていれば、ステップS32に戻って、対象特徴量|kの生成から繰り返す。
変数kが数nを超えていれば(ステップS35;Y)、すなわち、特徴量生成部14が補集合ψに含まれるすべての登録人物Xの背景データGMM-UBM|Xについて対象特徴量|Xを生成したら、認識部11は、類似度|k(j=1~n)のうちの最大値Rを選択する(ステップS36)。認識部11は、最大値Rが閾値以上であるか否かを判定する(ステップS37)。最大値Rが閾値以上であれば(ステップS37;Y)、認識部11は、認証対象者は最大値Rに対応する背景データおよび話者モデルの登録人物Rであると判定して(ステップS38)、処理を終了する。最大値Rが閾値未満であれば(ステップS37;N)、認識部11は、認証対象者は登録人物の集合Σに含まれないと判定して(ステップS39)、処理を終了する。
部分集合と補集合の2段階だけでなく、3段階以上の場合には、第2部分集合および第3部分集合等に関して、ステップS30からステップS38と同様の処理を行う。
以上説明したように、実施の形態2の話者認識装置1は、登録人物ごとの属性情報20に基づいて、認識対象者がいずれであるかを判定する登録人物の集合を部分集合に限定し、認識対象者が部分集合に含まれる登録人物のいずれであるかを判定する。その結果、認識対象者が登録人物である場合に、認識対象者が登録人物であると判定されるまでの演算時間の期待値(平均値)は、実施の形態1の演算時間より短くなる。
図9は、実施の形態に係る話者認識装置のハードウェア構成の一例を示すブロック図である。話者認識装置1は、図9に示すように、制御部41、主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46および送受信部47を備える。主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46および送受信部47はいずれも内部バス40を介して制御部41に接続されている。
制御部41はCPU(Central Processing Unit)等から構成され、外部記憶部43に記憶されている制御プログラム50に従って、話者認識装置1の音声入力部10、認識部11、および限定部18の各処理を実行する。
主記憶部42はRAM(Random-Access Memory)等から構成され、外部記憶部43に記憶されている制御プログラム50をロードし、制御部41の作業領域として用いられる。
外部記憶部43は、フラッシュメモリ、ハードディスク、DVD-RAM(Digital Versatile Disc Random-Access Memory)、DVD-RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、話者認識装置1の処理を制御部41に行わせるためのプログラムならびに背景モデル16、話者モデル17および属性情報20の各データを予め記憶し、また、制御部41の指示に従って、このプログラムが記憶するデータを制御部41に供給し、制御部41から供給されたデータを記憶する。
操作部44はキーボードおよびマウスなどのポインティングデバイス等と、キーボードおよびポインティングデバイス等を内部バス40に接続するインタフェース装置から構成されている。操作部44を介して、背景モデル16、話者モデル17および属性情報20の記憶、記憶された背景モデル16、話者モデル17および属性情報20の表示または消去などが入力され、制御部41に供給される。
表示部45は、LCD(Liquid Crystal Display)または有機ELディスプレイなどから構成され、背景モデル16、話者モデル17および属性情報20を表示する。
入出力部46は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部46にマイク21が接続され、制御部41は入出力部46を介して認識対象者の音声データを取得する。また入出力部46は、撮像装置(図示せず)が接続され、認識対象者の画像データを取得する。
送受信部47は、ネットワークに接続する網終端装置または無線通信装置、およびそれらと接続するシリアルインタフェースまたはLAN(Local Area Network)インタフェースから構成されている。送受信部47は、ネットワークを介して、例えば、背景モデル16、話者モデル17および属性情報20の更新、または、制御プログラムのダウンロードを行う。話者認識装置1は、送受信部47を介して、話者認識処理の判定結果を他の機器に送信する。
図1に示す話者認識装置1の音声入力部10、認識部11、および限定部18の処理は、制御プログラム50が、制御部41、主記憶部42、外部記憶部43、操作部44、表示部45、入出力部46および送受信部47などを資源として用いて処理することによって実行する。
なお、各実施の形態で説明した話者認識装置1の構成は一例であり、任意に変更および修正が可能である。話者認識装置1の構成は、実施の形態で示したものがすべてではなく、これらに限定されるものではない。例えば、スマートフォンまたはタブレット端末を話者認識装置1として用いてもよい。また、ネットワーク上に話者認識装置1を設置して、ネットワークを介して話者認識装置1の機能を提供してもよい。
その他、前記のハードウェア構成やフローチャートは一例であり、任意に変更および修正が可能である。
音声入力部10、認識部11、限定部18、背景モデル記憶部12、話者モデル記憶部13および、属性記憶部19等から構成される話者認識装置1の話者認識処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(USBメモリ、CD-ROM、DVD-ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する話者認識装置1を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで話者認識装置1を構成してもよい。
また、話者認識装置1を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合等には、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
1 話者認識装置
10 音声入力部
11 認識部
12 背景モデル記憶部
13 話者モデル記憶部
14 特徴量生成部
15 類似度算出部
16 背景モデル
17 話者モデル
18 限定部
19 属性記憶部
20 属性情報

Claims (8)

  1. 登録人物ごとに、前記登録人物それぞれの音声データから生成された前記登録人物ごとの背景モデルを記憶する背景モデル記憶部と、
    前記登録人物ごとに、前記登録人物の音声と、該登録人物の前記背景モデルとから算出された話者モデルを記憶する話者モデル記憶部と、
    認識対象者の音声データを取得する音声入力部と、
    前記音声入力部で取得した音声データと、前記背景モデルおよび前記話者モデルとから、前記認識対象者が前記登録人物のいずれであるかを判定する認識部と、
    を備え
    前記認識部は、
    前記音声入力部で取得した音声データと、前記背景モデルそれぞれとから、前記背景モデルごとの前記音声データの特徴量である対象特徴量を生成する特徴量生成部と、
    前記背景モデルごとの前記対象特徴量と、該背景モデルに対応する前記話者モデルとの類似度を算出する類似度算出部と、
    を含み、
    前記類似度算出部で算出した類似度の最大値が所定の値以上である場合に、前記認識対象者が、前記最大値の類似度に対応する話者モデルの登録人物であると判定する、
    話者認識装置。
  2. 前記認識部において、前記認識対象者が前記登録人物のいずれであるかを判定することは、前記認識対象者が前記登録人物の少なくともいずれか1人以上に該当する可能性が考えられる場合に、前記認識対象者が前記登録人物のいずれかであると判定することを少なくとも含む、請求項1に記載の話者認識装置。
  3. 前記認識部において、前記認識対象者が前記登録人物のいずれであるかを判定できない場合に、前記認識対象者が前記登録人物のいずれでもないと判定する、請求項1または2に記載の話者認識装置。
  4. 前記登録人物ごとに、前記登録人物ごとの属性情報を記憶する属性記憶部と、
    前記属性情報に基づいて、前記認識対象者が含まれるか否かを判定する前記登録人物の集合を部分集合に限定する限定部と、を備え、
    前記認識部は、前記音声入力部で取得した音声データと、前記部分集合に含まれる前記登録人物の前記背景モデルおよび前記話者モデルとから、前記認識対象者が前記部分集合に含まれる前記登録人物のいずれであるかを判定する、請求項1からのいずれか1項に記載の話者認識装置。
  5. 前記属性情報は、前記登録人物ごとの行動様式を含み、
    前記限定部は、前記認識対象者の音声データが取得された時刻と、前記登録人物ごとの行動様式とに基づいて、前記認識対象者がいずれであるかを判定する前記登録人物の集合を部分集合に限定する、請求項に記載の話者認識装置。
  6. 前記認識部は、前記認識対象者が前記部分集合に含まれないと判定した場合に、前記音声入力部で取得した音声データと、前記登録人物の集合における前記部分集合の補集合に含まれる前記登録人物の前記背景モデルおよび前記話者モデルとから、前記認識対象者が前記補集合に含まれる前記登録人物のいずれであるかを判定する、請求項4または5に記載の話者認識装置。
  7. 音声に基づいて認識対象者を認識する話者認識装置が行う話者認識方法であって、
    認識対象者の音声データを取得する音声入力ステップと、
    登録人物ごとに、前記登録人物それぞれの音声データから生成された前記登録人物ごとの背景モデルを記憶する背景モデル記憶部から、前記登録人物ごとの背景モデルを取得する背景取得ステップと、
    前記登録人物ごとに、前記登録人物の音声と、該登録人物の前記背景モデルとから算出された話者モデルを記憶する話者モデル記憶部から、前記登録人物ごとの話者モデルを取得する話者モデル取得ステップと、
    前記音声入力ステップで取得した音声データと、前記登録人物ごとの背景モデルおよび前記登録人物ごとの話者モデルとから、前記認識対象者が前記登録人物のいずれであるかを判定する認識ステップと、
    を備え
    前記認識ステップでは、
    前記音声入力ステップで取得した音声データと、前記背景モデルそれぞれとから、前記背景モデルごとの前記音声データの特徴量である対象特徴量を生成し、
    前記背景モデルごとの前記対象特徴量と、該背景モデルに対応する前記話者モデルとの類似度を算出し、
    前記算出した類似度の最大値が所定の値以上である場合に、前記認識対象者が、前記最大値の類似度に対応する話者モデルの登録人物であると判定する、
    話者認識方法。
  8. コンピュータを
    登録人物ごとに、前記登録人物それぞれの音声データから生成された前記登録人物ごとの背景モデルを記憶する背景モデル記憶部、
    前記登録人物ごとに、前記登録人物の音声と、該登録人物の前記背景モデルとから算出された話者モデルを記憶する話者モデル記憶部、
    認識対象者の音声データを取得する音声入力部、ならびに
    前記音声入力部で取得した音声データと、前記背景モデルおよび前記話者モデルとから、前記認識対象者が前記登録人物のいずれであるかを判定する認識部、
    として機能させ
    前記認識部は、
    前記音声入力部で取得した音声データと、前記背景モデルそれぞれとから、前記背景モデルごとの前記音声データの特徴量である対象特徴量を生成する特徴量生成部と、
    前記背景モデルごとの前記対象特徴量と、該背景モデルに対応する前記話者モデルとの類似度を算出する類似度算出部と、
    を含み、
    前記類似度算出部で算出した類似度の最大値が所定の値以上である場合に、前記認識対象者が、前記最大値の類似度に対応する話者モデルの登録人物であると判定する、
    プログラム。
JP2020058067A 2020-03-27 2020-03-27 話者認識装置、話者認識方法およびプログラム Active JP7473910B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020058067A JP7473910B2 (ja) 2020-03-27 2020-03-27 話者認識装置、話者認識方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020058067A JP7473910B2 (ja) 2020-03-27 2020-03-27 話者認識装置、話者認識方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2021157081A JP2021157081A (ja) 2021-10-07
JP7473910B2 true JP7473910B2 (ja) 2024-04-24

Family

ID=77919718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020058067A Active JP7473910B2 (ja) 2020-03-27 2020-03-27 話者認識装置、話者認識方法およびプログラム

Country Status (1)

Country Link
JP (1) JP7473910B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115019804B (zh) * 2022-08-03 2022-11-01 北京惠朗时代科技有限公司 一种多员工密集签到的多重校验式声纹识别方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140707A (ja) 2000-10-31 2002-05-17 Nec Corp バイオメトリックス式個人識別装置における優先処理装置
JP2004053821A (ja) 2002-07-18 2004-02-19 Univ Waseda 話者識別方法およびそのシステム、並びにプログラム
WO2009008051A1 (ja) 2007-07-09 2009-01-15 Fujitsu Limited 利用者認証装置、利用者認証方法および利用者認証プログラム
JP2017097188A (ja) 2015-11-25 2017-06-01 日本電信電話株式会社 話者らしさ評価装置、話者識別装置、話者照合装置、話者らしさ評価方法、プログラム
US20170236520A1 (en) 2016-02-16 2017-08-17 Knuedge Incorporated Generating Models for Text-Dependent Speaker Verification
JP2017223848A (ja) 2016-06-16 2017-12-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 話者認識装置
JP2018508799A (ja) 2015-12-30 2018-03-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 声紋認証処理方法及び装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140707A (ja) 2000-10-31 2002-05-17 Nec Corp バイオメトリックス式個人識別装置における優先処理装置
JP2004053821A (ja) 2002-07-18 2004-02-19 Univ Waseda 話者識別方法およびそのシステム、並びにプログラム
WO2009008051A1 (ja) 2007-07-09 2009-01-15 Fujitsu Limited 利用者認証装置、利用者認証方法および利用者認証プログラム
JP2017097188A (ja) 2015-11-25 2017-06-01 日本電信電話株式会社 話者らしさ評価装置、話者識別装置、話者照合装置、話者らしさ評価方法、プログラム
JP2018508799A (ja) 2015-12-30 2018-03-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 声紋認証処理方法及び装置
US20180293990A1 (en) 2015-12-30 2018-10-11 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for processing voiceprint authentication
US20170236520A1 (en) 2016-02-16 2017-08-17 Knuedge Incorporated Generating Models for Text-Dependent Speaker Verification
JP2017223848A (ja) 2016-06-16 2017-12-21 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 話者認識装置

Also Published As

Publication number Publication date
JP2021157081A (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
CN108564954B (zh) 深度神经网络模型、电子装置、身份验证方法和存储介质
US10140991B2 (en) Using audio characteristics to identify speakers and media items
JP6429945B2 (ja) 音声データを処理するための方法及び装置
US10699716B2 (en) Artificial intelligence-based method and device for voiceprint authentication
WO2017215558A1 (zh) 一种声纹识别方法和装置
Tresadern et al. Mobile biometrics (mobio): Joint face and voice verification for a mobile platform
US8185391B2 (en) Speaker recognition via voice sample based on multiple nearest neighbor classifiers
Dobrišek et al. Towards efficient multi-modal emotion recognition
WO2019179029A1 (zh) 电子装置、身份验证方法和计算机可读存储介质
KR101252454B1 (ko) 대표 지문 템플릿 생성 장치 및 방법
US8659390B2 (en) Method and system for generating a biometric query plan
CN108989349B (zh) 用户账号解锁方法、装置、计算机设备及存储介质
Poh et al. A user-specific and selective multimodal biometric fusion strategy by ranking subjects
Ringeval et al. Emotion recognition in the wild: Incorporating voice and lip activity in multimodal decision-level fusion
US10936705B2 (en) Authentication method, electronic device, and computer-readable program medium
Anzar et al. Efficient online and offline template update mechanisms for speaker recognition
JP7473910B2 (ja) 話者認識装置、話者認識方法およびプログラム
US10970573B2 (en) Method and system for free text keystroke biometric authentication
Szczuko et al. Validating data acquired with experimental multimodal biometric system installed in bank branches
Poh et al. A discriminative parametric approach to video-based score-level fusion for biometric authentication
CN111640438A (zh) 音频数据处理方法、装置、存储介质及电子设备
Punyani et al. A comparison study of face, gait and speech features for age estimation
Sivasankaran et al. Context-aware fusion for continuous biometric authentication
US10235408B1 (en) User enrollment and verification
TWI778234B (zh) 語者驗證系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240404

R150 Certificate of patent or registration of utility model

Ref document number: 7473910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150