JP5201053B2 - 合成音声判別装置、方法及びプログラム - Google Patents

合成音声判別装置、方法及びプログラム Download PDF

Info

Publication number
JP5201053B2
JP5201053B2 JP2009084194A JP2009084194A JP5201053B2 JP 5201053 B2 JP5201053 B2 JP 5201053B2 JP 2009084194 A JP2009084194 A JP 2009084194A JP 2009084194 A JP2009084194 A JP 2009084194A JP 5201053 B2 JP5201053 B2 JP 5201053B2
Authority
JP
Japan
Prior art keywords
voice
speech
synthesized
text
voices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009084194A
Other languages
English (en)
Other versions
JP2010237364A (ja
Inventor
勉 兼安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2009084194A priority Critical patent/JP5201053B2/ja
Publication of JP2010237364A publication Critical patent/JP2010237364A/ja
Application granted granted Critical
Publication of JP5201053B2 publication Critical patent/JP5201053B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、合成音声判別装置、方法及びプログラムに関し、例えば、音声合成装置により合成された合成音声と人間による実際の発声音声とを判別する合成音声判別装置、方法及びプログラムに適用し得るものである。
近年、音声合成技術の進展により、無個性で機械的な合成音声ではなく、個人の特性や感情表現、発話の自然性等といった、より本人性を再現した合成音声を生成することができ、このような音声合成技術は様々な場面において利用されている。
しかしながら、音声合成技術を悪用し、電話などを通じて他人への「なりすまし」が容易に可能となり、例えば、音声での発声者の識別や、照合する話者認識あるいは話者照合技術を意味のないものにしてしまい、声紋分析による犯罪捜査などへも影響を与えることが懸念されるため、合成音声と人間による発生音声とを判別する技術が強く求められている。
従来、このような合成音声判別技術としては、特許文献1及び特許文献2に記載されるような技術がある。
特許文献1の記載技術は、例えば、ある周波数帯域の信号パワーを変更することにより、合成音声であることを示す判別情報を合成音声信号に付加する技術である。
特許文献2の記載技術は、例えば、所定周波数の信号について所定周期のパターンを繰り返した情報信号を合成音声信号に付加する技術である。
特開2002−297199号公報 特開平11−190996号公報
しかしながら、上述した特許文献1及び特許文献2の記載技術は、音声信号の伝送前に、合成音声信号であることを判別するための判別情報等を取り除いた場合、合成音声の判別ができなくなってしまい、上記の問題点が生じてしまう課題がある。
そこで、本発明は、合成音声に判別情報を付加することなく、例えば、電話等の受信側で、受信した音声(肉声か合成音かが不明な音声のこと)から、事前に設定したテキストに対応する複数の音声を取得し、抽出された特徴量を用いて、取得した各音声同士の類似度合いから、合成音声信号であるか肉声であるかを判別することを目的とする。
第1の本発明の合成音声判別装置は、入力された音声信号が合成音声信号であるか否かを判別する合成音声判別装置において、(1)入力された音声信号をテキストに変換する音声認識手段と、(2)音声認識手段により変換されたテキストから、対象テキストに該当する複数の音声を切り出し、この複数の音声間の類似度合いに応じて合成音声信号か否かを判別する合成音声判別手段とを備え、合成音声判別手段が、音声認識手段により変換されたテキストから対象テキストに該当する音声部分を入力音声信号から切り出し、対象テキストに該当する複数の音声を蓄積する音声蓄積部と、音声蓄積部に蓄積されている複数の音声の特徴を抽出する特徴抽出部と、特徴抽出部により抽出された各音声の特徴量の距離を求め、各音声の特徴量の距離に基づきグループ化を行い、このグループの個数に応じて合成音声信号か否かを判別する判別部とを有することを特徴とする。
第2の本発明の合成音声判別方法は、入力された音声信号が合成音声信号であるか否かを判別する合成音声判別装置の合成音声判別方法において、(1)音声認識手段が、入力された音声信号をテキストに変換する音声認識工程と、(2)合成音声判別手段が、音声認識手段により変換されたテキストから、対象テキストに該当する複数の音声を切り出し、この複数の音声間の類似度合いに応じて合成音声信号か否かを判別する合成音声判別工程とを有し、合成音声判別手段が、音声認識手段により変換されたテキストから対象テキストに該当する音声部分を入力音声信号から切り出し、対象テキストに該当する複数の音声を蓄積する音声蓄積工程と、音声蓄積工程で蓄積される複数の音声の特徴を抽出する特徴抽出工程と、特徴抽出工程で抽出された各音声の特徴量の距離を求め、各音声の特徴量の距離に基づきグループ化を行い、このグループの個数に応じて合成音声信号か否かを判別する判別工程とを有することを特徴とする。
第3の本発明の合成音声判別プログラムは、入力された音声信号が合成音声信号であるか否かを判別する合成音声判別プログラムにおいて、コンピュータを、(1)入力された音声信号をテキストに変換する音声認識手段、(2)音声認識手段により変換されたテキストから、対象テキストに該当する複数の音声を切り出し、この複数の音声間の類似度合いに応じて合成音声信号か否かを判別する合成音声判別手段として機能させ、合成音声判別手段が、音声認識手段により変換されたテキストから対象テキストに該当する音声部分を入力音声信号から切り出し、対象テキストに該当する複数の音声を蓄積する音声蓄積部と、音声蓄積部に蓄積されている複数の音声の特徴を抽出する特徴抽出部と、特徴抽出部により抽出された各音声の特徴量の距離を求め、各音声の特徴量の距離に基づきグループ化を行い、このグループの個数に応じて合成音声信号か否かを判別する判別部として機能することを特徴とする。
本発明によれば、合成音声に判別情報を付加することなく、入力音声から、事前に設定したテキストに対応する複数の音声を取得し、抽出された音声の特徴量を用いて各音声同士の類似度合いから、合成音声信号であるか肉声であるかを判別することができる。
第1の実施形態の合成音声判別装置の機能を示す機能ブロック図である。 第1の実施形態の合成音声判別処理の動作を示すフローチャートである。 第1の実施形態の対象テキストに該当する音声を切り出す処理を説明する説明図である。 第1の実施形態の対象テキストに該当する音声を対応付ける対応表を説明する説明図である。 第1の実施形態の音声同士の特徴距離に基づくグループ化を説明する説明図である。 第1の実施形態のグループ個数に基づいて合成音声又は肉声を判別する処理を説明する説明図である。
(A)第1の実施形態
以下では、本発明の合成音声判別装置、方法及びプログラムの第1の実施形態を、図面を参照しながら説明する。
(A−1)第1の実施形態の構成
図1は、第1の実施形態の合成音声判別装置10の機能を示す機能ブロック図である。
ここで、第1の実施形態の合成音声判別装置10は、例えば、電話機(携帯電話機や通話機能を有する携帯端末を含む概念)、いわゆるソフトフォン機能を有するパーソナルコンピュータ等に搭載されるものであり、合成音声判別装置10の機能は、ソフトウェア処理により実現することができ、例えば、CPU、ROM、RAM、EEPROM等のハードウェア構成を備える情報処理装置において、ROMに格納される処理プログラムをCPUが読み出し実行することにより、これらの機能が実現される。
図1において、第1の実施形態の合成音声判別装置10は、音声認識部1、音声蓄積部2、特徴抽出部3、判別部4、音響モデル記憶部5、辞書6、対象テキスト記憶部7を少なくとも有するものである。
音声認識部1は、音響モデル記憶部5及び辞書6を参照しながら、入力された音声信号を認識し、テキストに変換するものである。ここで、音声認識技術は、既存の技術を広く適用することができ、例えば、入力音声信号と音響モデルとを比較しながら、最も特徴の近い言語列を認識する方法を適用することができる。
ここで、音響モデル記憶部5には、音素の周波数特性を示す音響モデルを記憶するものであり、辞書6には、音響モデルに対応する言語列を記憶するものである。音響モデルは、例えば隠れマルコフモデル等の統計的に構築されたものを適用することができる。
入力音声信号が音声認識部1に入力される時点では、合成音声の判別前であるため、合成音声信号又は人間による発声音声信号のいずれかである。また、第1の実施形態では、音声認識部1が漢字仮名テキストに変換する場合を示す。
対象テキスト記憶部7には、予め設定された1又は複数の対象テキストを記憶するものである。第1の実施形態では、対象テキストが漢字仮名テキストの場合を例示するので、音声認識部1において、音声蓄積部2で音声を切り出す際に、対象テキストと対応すべき箇所を検索するために、入力音声をあらかじめ漢字仮名テキストヘ変換する。
音声蓄積部2は、音声認識部1により音声認識されたテキストのうち、対象テキスト記憶部7に事前に記憶されている対象テキストに該当する音声を蓄積するものである。
ここで、音声蓄積部2による対象テキストに該当する部分の音声を蓄積する方法としては、音声蓄積部2が、入力音声波形の周波数特性を利用して有音区間及び無音区間を判別し、音声認識部1が認識した各テキストとこれらに対応する音声部分の位置関係を認識しており、音声認識部1の認識したテキストのうち、対象テキストに該当する音声部分を切り出して蓄積する。
特徴抽出部3は、音声蓄積部2に蓄積されている音声の特徴量を抽出するものである。
ここで、特徴量とは、音声の特性を表すメルケプストラム、声の高さを表す基本周波数、さらに、音の長さを表すための音素の長さをいう。ただし、音素の長さを抽出する際は、音声認識を用いることで自動セグメンテーションを行うことが可能である。
判別部4は、特徴抽出部3が求めた対象テキストに該当する音声の各特徴量の距離を求め、各特徴量の距離に応じたグループを構成し、そのグループの個数に基づいて、入力音声が合成音声信号であるか又は人間による発声音声信号(肉声)であるかを判別するものである。
ここで、第1の実施形態による合成音声信号の判別方法は、以下の動作の項において詳細に説明するが、例えば受信側が受信した音声を使用して、予め設定した対象テキストと一致した複数の音声同士の類似度合いから、合成音声信号であるか又は肉声であるかを判別するというものである。
これは、合成音声に関する技術開発は進んでいるが、限られた情報を用いて合成音声を生成することになるため、肉声に比べて感情やイントネーションなどの特徴のばらつきが小さいものとなる傾向を利用したものである。
つまり、肉声の場合、合成音声に比べて、様々な感情やイントネーションを含んだ発声方法を行うため、切り出した音声同士の特徴距離にばらつきが生じやすい。これに対して、合成音声の場合、上記のように限定された感情やイントネーションを用いて生成されるため、切り出した音声同士の特徴距離にばらつきはあまり生じないという相違点がある。そこで、第1の実施形態では、同じ文字列の音声を切り出し、その音声同士の特徴距離を利用して、切り出した音声が肉声か合成音声かを判別する。
(A−2)第1の実施形態の動作
次に、第1の実施形態の合成音声判別方法の処理の動作について図面を参照しながら詳細に説明する。
図2は、第1の実施形態の合成音声判別処理の動作を示すフローチャートである。
まず、音声信号が音声認識部1に入力されると(ステップS101)、音声認識部1は、不特定多数の音声特徴から統計的に構築された音響モデル記憶部5の音響モデル及び辞書6の言語列を用いて、入力音声信号を漢字仮名テキストに変換する(ステップS102)
音声認識部1が入力音声信号を漢字仮名テキストに変換すると、音声蓄積部2により、音声認識部1からの漢字仮名テキストのうち、対象テキストに該当する音声部分が切り出され、この切り出した音声が音声蓄積部2に蓄積される(ステップS103)。
ここで、対象テキストに該当する音声部分の切り出しについて図3及び図4を参照しながら説明する。
対象テキストは、対象テキスト記憶部7に事前に設定されたテキスト(言語列)である。対象テキストは、例えば、相手と通話中に相手がよく発するキーワードなどの文字列が該当する。
図3(A)に示すように、音声認識部1は、入力音声波形について、音声の無音位置を区切り箇所として音声の有音区間を管理する。図3(A)では、黒く塗りつぶした区間が無音区間である。
音声蓄積部2は、入力音声波形のうち無音区間を位置に基づいて、「s1−e1」の有音区間、「s2−e2」の有音区間、「s3−e3」の有音区間…のように有音区間の位置関係を認識し、音声認識部1からの漢字仮名テキストを構成する各文字列とこれらに対応する有音区間の位置関係を、図4に例示するような対応表を用いて認識しておく。
例えば、図3の例では、音声認識部1からの漢字仮名テキストのうち、最初に出現する「なるほどー。そうですね。」が有音区間「s1−e1」に対応し、「昨日から、…。」が有音区間「s2−e2」に対応し、次に出現する「なるほどー。そうですね。」が有音区間「s3−e3」に対応するものとする。
この場合、音声蓄積部2は、図4に示すように、出現した文字列とこれに対応する入力音声波形の位置関係を、最初に出現した「なるほどー。そうですね。」は「開始(位置)s1:終了(位置)e1」の区間の音声に対応し、「昨日から、…。」は「開始(位置)s2:終了(位置)e2」の区間の音声に対応し、次に出現した「なるほどー。そうですね。」は「開始(位置)s3:終了(位置)e3」の区間の音声に対応付けておく。
次に、音声蓄積部2は、音声認識部1からの漢字仮名テキストから、対象テキストと完全一致するテキストの有無を判断する。そして、対象テキストと一致するテキストが音声認識部1からの漢字仮名テキストに存在する場合、音声蓄積部2は、図4に示す対応表を用いて、対象テキストに該当する有音区間の音声を切り出して蓄積する。
例えば、対象テキストを「なるほど。そうですね。」とする場合、音声蓄積部2は、対象テキスト「なるほど。そうですね。」について、入力音声波形から音声区間「s1:e1」及び音声区間「s3:e3」の音声を切り出して蓄積する。
ここで、音声蓄積部2は、予め設定された所定量の切り出し音声を蓄積した場合、終了フラグを立てるようにする。なお、終了フラグは、対象テキストに該当する音声が、合成音声の判別を行うために充分な量が音声蓄積部2に蓄積された場合に立てられるようにすればよい。そのため、例えば、受話者が電話機を操作することにより、終了フラグを立てられるようにしてもよい。
音声蓄積部2からの終了フラグが特徴抽出部3により検知されると、音声蓄積部2に蓄積される対象テキストに該当する音声は、特徴抽出部3により特徴量が抽出される(ステップS105)。
上述したように、特徴抽出部3は、音声蓄積部2に蓄積される音声の特徴量として、音声の特性を表すメルケプストラム、声の高さを表す基本周波数、さらに、音の長さを表すための音素の長さを抽出する。
そして、判別部4は、特徴抽出部3により抽出された音声の特徴量を用いて、音声の特徴量同士の距離を求める。
ここで、判別部4が特徴抽出部3からの各音声の特徴量の距離を求める方法の一例を説明する。
まず、判別部4は、特徴抽出部3から各音声のメルケプストラムを受け取ると、例えば動的時間伸縮法(DTW:Dynamic Time Warping)等により、音声同士の時間長が同じになるように調整する。
そして、メルケプストラムの距離mel−CDは、式(1)のようにして、ユークリッド距離で求め、全フレームの平均値としても求める。
Figure 0005201053
ここで、tはフレーム、dは次元係数、mcは音声のメルケプストラム、xとyは各音声波形を示す。
また、判別部4は、特徴抽出部3から各音声の基本周波数を受け取ると、メルケプストラムと同様にDTW等により、音声同士の時間長が同じになるように調整する。
そして、基本周波数の距離は、式(2)及び式(3)のようにして、対数変換されたF0の平均値μの差と、分散σの差とをとることで求める。
Figure 0005201053
さらに、判別部4は、特徴抽出部3から各音声の音素の長さを受け取ると、式(4)のようにして、各々の差の平均値により音素の長さの距離dを求める。
Figure 0005201053
ここで、pは音素数、dは音素長、PXとPYは各音素を示す。
そして、判別部4は、各音声のメルケプストラムの距離mel−CD、基本周波数の距離μ及びσ、音素の長さの距離dを用いて、全体の音声の特徴量同士の距離を式(5)のようにして求める。
D=w・mel−CD+w・μ+w・σ+w・d …(5)
ここで、w、w、w、wは重み係数であり、w1+w2+w3+w4=1の関係がある。
次に、判別部4は、式(5)で求めた距離に基づいてグループを構成する(ステップS107)。
ここで、判別部4によるグループの構成方法としては、事前に設定した分割閾値と、上記(5)で求めた距離との比較を用いることでグループ分けを行う。つまり、判別部4は、上記のようにして求めた距離が、分割閾値を超えていれば別グループとして、分割閾値以下であれば同一グループとすることで、各音声のグループ化を行う。
図5は、判別部4によるグループの構成方法を説明する説明図である。図5では、分割閾値をTHとしたときの3個の音声ファイル(音声)a、b、cのグループ化を例示して説明する。
まず、音声ファイルaは距離を求めることができないので、グループAとする(図5(A))。
次に、音声ファイルbの場合、音声ファイルb及び音声ファイルa間の距離を求める。ここで、音声ファイルb及び音声ファイルa間の距離d1が分割閾値THを超えているとすると、音声ファイルbをグループBに含める。
次に、音声ファイルcの場合、音声ファイルc及び音声ファイルa間の距離と、音声ファイルc及び音声ファイルb間の距離とを求める。
このとき、音声ファイルc及び音声ファイルa間の距離d2が分割閾値TH未満であり、かつ、音声ファイルc及び音声ファイルb間の距離d3が分割閾値THを超えているとき、音声ファイルcをグループAに含める。
このようにして、音声蓄積部2に蓄積される対象テキストに該当する各音声同士の特徴量の距離を用いた類似度に基づいてグループ化を行う。
次に、判別部4は、グループ構成後、グループの個数に基づいて、当該入力音声信号が合成音声信号であるか又は発生音声(肉声)であるかの判別を行う(ステップS108)。
この判別部4による判定方法は、事前に設定した判定閾値とグループ個数との比較を行い、グループ個数が、判定閾値以上のとき人間による発声音声であると判定し、判定閾値未満のとき合成音声であると判定する。
図6は、判別部4による合成音声判定を説明する説明図である。上述したように、人間による発声音声(肉声)の場合、様々な感情やイントネーションを含んでいるから、音声同士の特徴距離はばらつき易く、図6(A)に示すように、グループ数が多くなる傾向がある。
一方、合成音声の場合、限定された感情やイントネーションを用いているから、肉声の場合に比べて、音声同士の特徴距離のばらつきが少なく、図6(B)に示すように、グループ数が少なくなる傾向にある。
そのため、判別部4は、グループ個数が、判定閾値以上のとき人間による「発生音声(肉声)」と判定し、判定閾値より少ないとき「合成音声」と判定することができる。
例えば、図6において、判定閾値を「4」とした場合、図6(A)のとき、グループ個数が「5(グループA〜E)」であるから肉声と判定し、図6(B)のとき、グループ個数が「2(グループA、B)」であるから合成音声と判定する。
そして、判別部4は、入力した音声信号が合成音声であるか又は肉声であるかの判別結果を所定の方法により出力する(ステップS109)。この判別結果の出力方法としては、搭載する電話機やコンピュータ等に応じて異なるが、例えば、表示部に音声合成であることを表示するようにしても良いし、合成音声である旨を示す情報を音や音声などで出力するようにしても良い。
(A−3)第1の実施形態の効果
以上のように、第1の実施形態では、音声合成装置による合成音声と人間による実際の発声音声とを判別することが可能なため、音声合成技術を悪用した他人への「なりすまし」を発見できるといった効果がある。
(B)他の実施形態
(B−1)第1の実施形態では、合成音声判別装置10による合成音声判別方法を詳細に説明したが、本発明の合成音声判別装置10を電話端末(例えば電話機やソフトフォン搭載のコンピュータ等)に搭載した場合の実施形態を例示する。
例えば、ユーザAが所持する電話端末に第1の実施形態の合成音声判別装置10を搭載する。このとき、ユーザBからユーザAに対して、電話がかかってきたとする。
この場合、ユーザAはまず、合成音声判別装置10を稼動するためのスイッチを押す(このとき、呼の確立をトリガとして自動的にスイッチが入る構成でもかまわない)。
ユーザBとの通話が開始し、ユーザBからの音声が入力されると、音声合成装置10は、ユーザBが発声している音声を認識しはじめる。
このとき、ユーザAは予め設定した対象テキストを、出来るだけユーザBに発声させるように会話を進める。
ある程度、対象テキストに対応した音声ファイルを蓄積した時点で、ユーザAは終了フラグを発火させる(あらかじめ蓄積する音声ファイル数を設定しておき、その音声ファイル数に達したら自動的に終了フラグが入力される構成でもよい)。
その後、音声合成判別装置10は判定処理を行う。ユーザAは電話を切らずに、音声合成判別装置10からの判定結果を待つ。判定結果は音声合成判別装置10に具備される表示手段(図示せず)に表示する。または受話者のみに聞こえる音声信号等で判定結果を知らせるようにしてもよい。
ここで、肉声か、合成音声か、または、見知らぬ人が合成音声を使用しているかなどを知ることで、事前に心構えをすることができる。
また、判定結果を表示手段に表示する構成の場合は、ユーザAは電話を切った後であってもユーザBが「肉声」であったか「合成音声」であったかを知ることができるようにしてもよい。
(B−2)第1の実施形態では、1つの対象テキスト(例えば「なるほどー。そうですね。)の音声同士の特徴距離に基づくグループ化により、判別する場合を例示したが、複数の対象テキストを用いるようにしても良い。
この場合、同一の対象テキストの音声同士の特徴距離に基づくグループ化を行うことが望ましいので、1つの対象テキストに対して3個以上の音声の切り出すことが望ましい。
また、複数の対象テキストに対するグループ化を行った場合、複数の対象テキストの判別結果のうち、少なくとも1つの対象テキストに合成音声とする判別結果が得られたときに音声合成とするようにしても良いし、また1つの対象テキストだけでなく、所定数以上の対象テキストに関して合成音声とする判別結果が得られた場合に合成音声であると判定するようにしても良い。
(B−3)第1の実施形態では、入力音声が日本語の場合を例示したが、言語は日本語に限定されるものではなく、英語、フランス語、ドイツ語、中国語、韓国語などあらゆる言語にも適用できる。
(B−4)第1の実施形態では、受信側が入力した音声に対して行う場合を例示したが、録音された音声(例えば、留守番電話の音声等)を入力音声として音声解析や声紋解析する場合にも適用できる。
1…音声認識部、2…音声蓄積部、3…特徴抽出部、4…判別部、5…音響モデル記憶部、6…辞書、7…対象テキスト記憶部、10…合成音声判別装置。

Claims (4)

  1. 入力された音声信号が合成音声信号であるか否かを判別する合成音声判別装置において、
    入力された音声信号をテキストに変換する音声認識手段と、
    上記音声認識手段により変換されたテキストから、対象テキストに該当する複数の音声を切り出し、この複数の音声間の類似度合いに応じて合成音声信号か否かを判別する合成音声判別手段と
    を備え
    上記合成音声判別手段が、
    上記音声認識手段により変換されたテキストから上記対象テキストに該当する音声部分を入力音声信号から切り出し、上記対象テキストに該当する複数の音声を蓄積する音声蓄積部と、
    上記音声蓄積部に蓄積されている複数の音声の特徴を抽出する特徴抽出部と、
    上記特徴抽出部により抽出された各音声の特徴量の距離を求め、各音声の特徴量の距離に基づきグループ化を行い、このグループの個数に応じて合成音声信号か否かを判別する判別部と
    を有する
    ことを特徴とする合成音声判別装置。
  2. 上記判別部が、上記各音声間の特徴量の距離と分割閾値との比較により上記グループを構成するものであり、上記グループ個数と判別閾値とを比較することにより合成音声信号か否かを判別するものであることを特徴とする請求項に記載の合成音声判別装置。
  3. 入力された音声信号が合成音声信号であるか否かを判別する合成音声判別装置の合成音声判別方法において、
    音声認識手段が、入力された音声信号をテキストに変換する音声認識工程と、
    合成音声判別手段が、上記音声認識手段により変換されたテキストから、対象テキストに該当する複数の音声を切り出し、この複数の音声間の類似度合いに応じて合成音声信号か否かを判別する合成音声判別工程と
    を有し、
    上記合成音声判別手段が、
    上記音声認識手段により変換されたテキストから上記対象テキストに該当する音声部分を入力音声信号から切り出し、上記対象テキストに該当する複数の音声を蓄積する音声蓄積工程と、
    上記音声蓄積工程で蓄積される複数の音声の特徴を抽出する特徴抽出工程と、
    上記特徴抽出工程で抽出された各音声の特徴量の距離を求め、各音声の特徴量の距離に基づきグループ化を行い、このグループの個数に応じて合成音声信号か否かを判別する判別工程と
    を有する
    ことを特徴とする合成音声判別方法。
  4. 入力された音声信号が合成音声信号であるか否かを判別する合成音声判別プログラムにおいて
    コンピュータを、
    入力された音声信号をテキストに変換する音声認識手段、
    上記音声認識手段により変換されたテキストから、対象テキストに該当する複数の音声を切り出し、この複数の音声間の類似度合いに応じて合成音声信号か否かを判別する合成音声判別手段
    として機能させ
    上記合成音声判別手段が、
    上記音声認識手段により変換されたテキストから上記対象テキストに該当する音声部分を入力音声信号から切り出し、上記対象テキストに該当する複数の音声を蓄積する音声蓄積部と、
    上記音声蓄積部に蓄積されている複数の音声の特徴を抽出する特徴抽出部と、
    上記特徴抽出部により抽出された各音声の特徴量の距離を求め、各音声の特徴量の距離に基づきグループ化を行い、このグループの個数に応じて合成音声信号か否かを判別する判別部と
    して機能する
    ことを特徴とする合成音声判別プログラム。
JP2009084194A 2009-03-31 2009-03-31 合成音声判別装置、方法及びプログラム Expired - Fee Related JP5201053B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009084194A JP5201053B2 (ja) 2009-03-31 2009-03-31 合成音声判別装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009084194A JP5201053B2 (ja) 2009-03-31 2009-03-31 合成音声判別装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010237364A JP2010237364A (ja) 2010-10-21
JP5201053B2 true JP5201053B2 (ja) 2013-06-05

Family

ID=43091754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009084194A Expired - Fee Related JP5201053B2 (ja) 2009-03-31 2009-03-31 合成音声判別装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5201053B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7056340B2 (ja) 2018-04-12 2022-04-19 富士通株式会社 符号化音判定プログラム、符号化音判定方法、及び符号化音判定装置
JP6833216B2 (ja) * 2019-05-09 2021-02-24 国立大学法人千葉大学 音声認証システム
CN110689885B (zh) * 2019-09-18 2023-05-23 平安科技(深圳)有限公司 机器合成语音识别方法、装置、存储介质及电子设备
CN113744724A (zh) * 2021-08-30 2021-12-03 苏州浪潮智能科技有限公司 一种语音转换方法、装置、设备及存储介质
CN115022087B (zh) * 2022-07-20 2024-02-27 中国工商银行股份有限公司 一种语音识别验证处理方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3251460B2 (ja) * 1995-04-12 2002-01-28 株式会社エヌ・ティ・ティ・データ 話者照合方法および装置

Also Published As

Publication number Publication date
JP2010237364A (ja) 2010-10-21

Similar Documents

Publication Publication Date Title
US6470315B1 (en) Enrollment and modeling method and apparatus for robust speaker dependent speech models
JP4085130B2 (ja) 感情認識装置
EP1936606B1 (en) Multi-stage speech recognition
EP2048655B1 (en) Context sensitive multi-stage speech recognition
JP5098613B2 (ja) 音声認識装置及びコンピュータプログラム
JP4914295B2 (ja) 力み音声検出装置
US20020052742A1 (en) Method and apparatus for generating and displaying N-best alternatives in a speech recognition system
Mouaz et al. Speech recognition of moroccan dialect using hidden Markov models
JPH09500223A (ja) 多言語音声認識システム
JP2006215499A (ja) 音声処理装置
CN106548775B (zh) 一种语音识别方法和系统
US20240144933A1 (en) Voice-controlled communication requests and responses
JP6708035B2 (ja) 発話内容認識装置
JP5201053B2 (ja) 合成音声判別装置、方法及びプログラム
JP5040778B2 (ja) 音声合成装置、方法及びプログラム
JP5549506B2 (ja) 音声認識装置及び音声認識方法
CN112466287A (zh) 一种语音分割方法、装置以及计算机可读存储介质
KR102113879B1 (ko) 참조 데이터베이스를 활용한 화자 음성 인식 방법 및 그 장치
Shahin Speaking style authentication using suprasegmental hidden Markov models
CN111145748A (zh) 音频识别置信度确定方法、装置、设备及存储介质
JPH11231895A (ja) 音声認識方法及びその装置
JP2005352151A (ja) 人間の感情状態に応じた音楽出力装置及び音楽出力方法
JP2002189487A (ja) 音声認識装置および音声認識方法
JP2001312293A (ja) 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体
JPS63165900A (ja) 会話音声認識方式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130128

R150 Certificate of patent or registration of utility model

Ref document number: 5201053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees