JP3913770B2 - 音声合成装置および方法 - Google Patents

音声合成装置および方法 Download PDF

Info

Publication number
JP3913770B2
JP3913770B2 JP2006512928A JP2006512928A JP3913770B2 JP 3913770 B2 JP3913770 B2 JP 3913770B2 JP 2006512928 A JP2006512928 A JP 2006512928A JP 2006512928 A JP2006512928 A JP 2006512928A JP 3913770 B2 JP3913770 B2 JP 3913770B2
Authority
JP
Japan
Prior art keywords
speech
unit
voice quality
information
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006512928A
Other languages
English (en)
Other versions
JPWO2005109399A1 (ja
Inventor
良文 廣瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3913770B2 publication Critical patent/JP3913770B2/ja
Publication of JPWO2005109399A1 publication Critical patent/JPWO2005109399A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • G10L21/013Adapting to target pitch
    • G10L2021/0135Voice conversion or morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Telephone Function (AREA)

Description

本発明は、音声合成装置に関し、特に、編集者が指定する声質を再現でき、かつ連続的に声質を変化させた場合に声質が連続的に変化する音声合成装置に関する。
従来、音声を合成し、合成音の声質を変更することが可能な音声合成システムとして、素片選択部により選択された音声素片に対して入力された声質に合うように声質を変換するシステムが提案されている(例えば、特許文献1参照)。
図9は、特許文献1に記載された従来の声質可変音声合成装置の構成図である。従来の声質可変音声合成装置は、テキスト入力部1と、声質変換パラメータ入力部2と、素片記憶部3と、素片選択部4と、声質変換部5と、波形合成部6とを備えている。
テキスト入力部1は、音声合成を行ないたい言葉の内容を示す音素情報とアクセントや発話全体の抑揚を示す韻律情報とを外部より受付け、素片選択部4に出力する処理部である。
声質変換パラメータ入力部2は、編集者が所望する声質への変換に必要な変換パラメータの入力を受付ける処理部である。素片記憶部3は各種音声に対する音声素片を記憶する記憶部である。素片選択部4はテキスト入力部1より出力される音素情報および韻律情報に最も合致する音声素片を素片記憶部3から選択する処理部である。
声質変換部5は、声質変換パラメータ入力部2より入力された変換パラメータを用いて、素片選択部4により選択された音声素片を、編集者が所望する声質へ変換する処理部である。波形合成部6は、声質変換部5により声質変換された音声素片より音声波形を合成する処理部である。
このように、従来の声質可変音声合成装置では、声質変換部5が、声質変換パラメータ入力部2で入力された音声変換パラメータを用いて、素片選択部4で選択された音声素片を変換することにより編集者が所望する声質の合成音を得ることができる。
この他にも、声質ごとに音声素片データベースを複数用意し、入力された声質に最も合致する音声素片データベースを選択して使用することにより、声質可変な音声合成を行う方法も知られている。
特開2003−66982号公報(第1−10頁、図1)
しかしながら、前者の声質可変音声合成装置においては、編集者が所望する声質は素片記憶部3に記憶されている標準的な声質(ニュートラルな声質)の音声素片の声質と大きく異なることがある。このように、素片記憶部3より選択された音声素片の声質が声質変換パラメータ入力部2により指定された声質と大きく異なる場合には、声質変換部5により選択された音声素片を非常に大きく変形する必要が生じる。このため、波形合成部6により合成音を生成した際に音質が著しく低下するという課題を有している。
一方、後者の方法においては、声質変換は、音声素片データベースを切り替えることにより行なわれている。しかしながら、音声素片データベースの個数は有限個数である。このため、声質変換は離散的なものになってしまい、連続的に声質を変化させることができないという課題を有している。
本発明は、上述の課題を解決するためになされたもので、合成音を生成した際に音質が著しく低下することのない音声合成装置を提供することを第1の目的とする。
また、合成音の声質を連続的に変化させることができる音声合成装置を提供することを第2の目的とする。
前記従来の課題を解決するために、本発明に係る音声合成装置は、所望の声質を有する音声を合成する音声合成装置であって、複数の声質の音声素片を記憶する音声素片記憶手段と、音素情報を含む言語情報に基づいて、当該言語情報に対応する音声素片情報を生成する目標素片情報生成手段と、前記音声素片情報に対応する音声素片を、前記音声素片記憶手段から選択する素片選択手段と、合成音の声質の指定を受付ける声質指定手段と、前記素片選択手段により選択された音声素片を、前記声質指定手段により受付けられた声質を有する音声素片に変換する声質変換手段と、前記声質変換手段により変換された変換後の音声素片の歪みを判定する歪み判定手段と、前記歪み判定手段により変換後の音声素片が歪んでいると判断された場合に、前記目標素片情報生成手段により生成された音声素片情報を前記声質変換手段により変換された音声素片に対応する音声素片情報に修正する目標素片情報修正手段とを備え、前記素片選択手段は、前記目標素片情報修正手段より音声素片情報が修正された場合には、修正後の音声素片情報に対応する音声素片を前記音声素片記憶手段から選択することを特徴とする。
歪み判定手段が、声質が変換された音声素片の歪みを判定し、歪みが大きい場合には、目標素片情報修正手段が音声素片情報を修正し、素片選択手段が修正後の音声素片情報に対応する音声素片をさらに選択している。このため、声質変換手段は、声質指定手段で指定される声質に近い音声素片を元にして、声質変換を行なうことができる。このため、合成音を生成した際に音質が著しく低下することのない音声合成装置を提供することができる。また、音声素片記憶手段は複数の声質の音声素片を記憶しており、そのうちのいずれかの音声素片に基づいて声質変換が行なわれる。このため、編集者が声質指定手段を用いて連続的に声質を変化させたとしても、合成音の声質を連続的に変化させることができる。
好ましくは、前記声質変換手段は、さらに、前記修正後の音声素片情報に対応する音声素片を、前記声質指定手段により受付けられた声質を有する音声素片に変換することを特徴とする。
この構成によると、再選択後の音声素片に基づいて、声質指定手段により受け付けられた声質を有する音声素片への変換が再度行われる。このため、音声素片の再選択および再変換を繰り返すことにより、合成音の声質を連続的に変化させることができる。また、このように、連続的に声質を変化させているため、音質を劣化させることなく、声質を大きく変化させることができる。
好ましくは、前記目標素片情報修正手段は、さらに、前記目標素片情報生成手段により生成された音声素片情報を修正する際に、前記声質変換手段により変換された音声素片の声道特徴を修正後の音声素片情報に加えることを特徴とする。
声道特徴を新たに修正後の音声素片情報に加えることにより、素片選択手段は、指定された声質により近い音声素片を選択することができ、より音質の低下が少なく、かつ指定された声質に近い合成音を生成することができる。
さらに好ましくは、前記歪み判定手段は、隣接する音声素片間の接続性に基づいて歪みを判定することを特徴とする。
隣接する音声素片間の接続性により歪みを判定している。このため、再生した際に滑らかに合成音を得ることができる。
さらに好ましくは、前記歪み判定手段は、前記素片選択手段により選択された音声素片から前記声質変換手段により変換された変換後の音声素片への変形率に基づいて歪みを判定することを特徴とする。
変換前と変換後との音声素片の変形率により歪みを判定している。このため、目標とする声質に最も近い音声素片に基づいて声質変換が行なわれる。よって、音質の低下が少ない合成音を生成することができる。
さらに好ましくは、前記素片選択手段は、前記目標素片情報修正手段より音声素片情報が修正された場合には、前記歪み判定手段において歪みを検出した範囲のみについて、修正後の音声素片情報に対応する音声素片を前記音声素片記憶手段から選択することを特徴とする。
歪みを検出した範囲のみを再変換の対象としている。このため、音声合成を高速に行なうことができる。また、歪んでいない部分までをも変換の対象としてしまうと、指定された声質とは異なる合成音が得られる場合があるが、この構成ではそのようなことは起こらず、高精度の合成音を得ることができる。
さらに好ましくは、前記音声素片記憶手段は、標準的な声質の音声素片を記憶する基本音声素片記憶手段と、前記標準的な声質の音声素片とは異なる複数の声質の音声素片を記憶する声質音声素片記憶手段とを有し、前記素片選択手段は、前記目標素片情報生成手段により生成された音声素片情報に対応する音声素片を、前記基本音声素片記憶手段から選択する基本素片選択手段と、前記目標素片情報修正手段により修正された音声素片情報に対応する音声素片を、前記声質音声素片記憶手段から選択する声質素片選択手段とを有することを特徴とする。
1回目に選択される音声素片は常に標準的な声質の音声素片である。このため、1回目の音声素片の選択を高速に行なうことができる。また、種々の声質の合成音を生成した場合であっても、収束が速い。このため、高速に合成音を得ることができる。さらに、必ず標準的な音声素片を出発点として、その後の音声変換および音声素片の選択を行なっている。このため、編集者が意図しないような音声が合成されるおそれがなく、高精度に合成音を生成することができる。
なお、本発明は、このような特徴的な手段を有する音声合成装置として実現することができるだけでなく、音声合成装置に含まれる特徴的な手段をステップとする音声合成方法として実現したり、音声合成装置に含まれる手段としてコンピュータを機能させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc-Read Only Memory)等の記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは言うまでもない。
本発明の音声合成装置によれば、声質変換時の音声素片の歪みに応じて、音声素片を素片データベースから再選択することにより、合成音の品質を劣化させることなく、編集者が所望する連続的でかつ広い範囲の声質に変換することができる。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1における声質可変音声合成装置の構成図である。声質可変音声合成装置100は、編集者が所望する声質を有する音声を合成する装置であり、テキスト解析部101と、目標素片情報生成部102と、素片データベース103と、素片選択部104と、声質指定部105と、声質変換部106と、波形生成部107と、歪み判定部108と、目標素片情報修正部109とを備えている。
テキスト解析部101は、外部より入力されるテキストを言語的に解析し、形態素情報や音素情報を出力する。目標素片情報生成部102は、テキスト解析部101により解析された音素情報を含む言語情報に基づいて、音韻環境、基本周波数、継続時間長、パワーなどの音声素片情報を生成する。素片データベース103は、予め収録された音声を音素などの単位でラベリングした音声素片を記憶する。
素片選択部104は、目標素片情報生成部102により生成された目標の音声素片情報に基づいて、素片データベース103から最適な音声素片を選択する。声質指定部105は、編集者が所望する合成音の声質を指定を受付ける。声質変換部106は、声質指定部105により指定された合成音の声質に合致するように素片選択部104により選択された音声素片を変換する。
波形生成部107は、声質変換部106で変換された後の音声素片系列から音声波形を生成し、合成音を出力する。歪み判定部108は、声質変換部106により声質を変換された音声素片の歪みを判定する。
目標素片情報修正部109は、歪み判定部108により判定された音声素片の歪みが所定の閾値を超えた場合に、素片選択部104が素片選択の際に使用する目標素片の情報を声質変換部106が変換した後の音声素片の情報に修正する。
次に各部の動作について説明する。
<目標素片情報生成部102>
目標素片情報生成部102は、テキスト解析部101から送られる言語情報をもとに、入力されたテキストの韻律情報を予測する。ここで、韻律情報は少なくとも音素単位ごとの継続時間長、基本周波数、パワー情報を含むものである。また、音素単位以外でも、モーラ単位や音節単位ごとに継続時間長、基本周波数、パワー情報を予測するようにしても良い。目標素片情報生成部102は、どのような方式の予測を行っても良い。例えば、数量化I類による方法で、予測を行うようにすればよい。
<素片データベース103>
素片データベース103は、予め収録された音声の素片を記憶する。記憶する形式としては、波形そのものを記憶する方法であっても良いし、音源波情報と声道情報とに分けてそれぞれを記憶する方法であっても良い。また、記憶する音声素片は波形に限られず、再合成可能な分析パラメータを記憶するようにしても良い。
素片データベース103には、音声素片だけではなく、記憶されている素片を選択する際に使用する特徴が素片単位毎に記憶される。素片単位としては音素や音節、モーラ、形態素、単語などがあるが、特に限定するものではない。
素片選択時に使用する特徴としては、基本特徴として、音声素片の前後の音韻環境、基本周波数、継続時間長、パワーなどの情報を記憶する。
また、詳細特徴として、音声素片のスペクトルの特徴であるフォルマントのパターンや、ケプストラムのパターン、基本周波数の時間的パターン、パワーの時間的パターンなどがある。
<素片選択部104>
素片選択部104は、目標素片情報生成部102により生成された情報に基づき素片データベース103より最適な音声素片系列を選択する。素片選択部104の具体的構成については特定するものではないが、その一例の構成を図2に示す。
図1に登場する部分については、その説明を省略する。素片選択部104は、素片候補抽出部301と、探索部302と、コスト計算部303とを備えている。
素片候補抽出部301は、目標素片情報生成部102により生成された音声素片情報の中から音韻に関係する項目(例えば音素など)により音声データベース103より選択の可能性がある候補を抽出する処理部である。探索部302は、素片候補抽出部301が抽出した素片候補の中からコスト計算部303によるコストが最小になる音声素片系列を決定する処理部である。
コスト計算部303は、素片候補と目標素片情報生成部102により生成された音声素片情報との距離を計算する目標コスト計算部304と、2つの素片候補を時間的に接続する時の接続性を評価する接続コスト計算部304とを備えている。
これら目標コストと接続コストとの和で表されるコスト関数を最小にする音声素片系列を探索部302により探索することにより、目標とする音声素片情報に類似し、かつ接続が滑らかな合成音を得ることが可能となる。
<声質指定部105>
声質指定部105は、編集者による所望の合成音の声質を指定を受付ける。指定の具体的指定方法については特に限定するものではないが、その一例を図3に示す。
例えば、図3に示すように声質指定部105をGUI(Graphical User Interface)により構成する。合成音の声質として変更可能な基本軸(例えば、年齢、性別、感情など)に対してスライダーを設け、そのスライダーの位置により各基本軸の制御値を指定する。基本軸の数には特に制限はない。
<声質変換部106>
声質変換部106は、声質指定部105により指定された声質に合うように、素片選択部104により選択された音声素片系列を変換する。変換の方法は特に限定するものではない。
LPC(Linear Predictive Coefficient)分析による音声合成手法の場合にはLPC係数を声質変換ベクトルにより移動させることにより異なる声質の合成音を得る方法がある。例えば声質AのLPC係数と声質BのLPC係数との差分により、移動ベクトルを作成し、その移動ベクトルによってLPC係数を変換することによって声質変換を実現している。
またはフォルマント周波数を伸縮することにより、声質変換する方法であってもよい。
<波形生成部107>
波形生成部107は、声質変換部106により変換された音声素片系列を合成し、音声波形を合成する。合成方法は特に限定するものではない。例えば、素片データベース103が記憶する音声素片が音声波形の場合は波形接続法により合成すればよい。または素片データベースが記憶する情報が音源波情報と声道情報とである場合は、ソースフィルタモデルとして再合成すればよい。
<歪み判定部108>
歪み判定部108は素片探索部104により選択された音声素片と、声質変換部106により声質を変換された後の音声素片とを比較し、声質変換部106の変形による音声素片の歪みを算出する。歪みを判定する際の範囲は、音素、音節、モーラ、形態素、単語、文節、アクセント句、呼気段落、全文のいずれでも良い。
歪みの計算方法は特に限定されるものではないが、音声素片の接続境界での歪みにより計算する方法と、音声素片の変形率により計算する方法とに大別される。その具体例を以下に示す。
1.接続境界の連続性による判定
音声素片の接続境界付近では、声質変換部106の変形により歪みが大きくなる。このような現象は声質変換部106の声質変換を音声素片ごとに独立して行った場合には顕著に表れる。この歪みにより波形生成部107により合成音を合成した場合に素片接続点付近で音質が劣化する。そのため、この素片接続点での歪みを判定する。判定方法としては例えば、以下の方法がある。
1.1ケプストラム距離
素片接続点におけるスペクトルの形状をあらわすケプストラム距離により歪みを判定する。すなわち、接続点の前方素片の最終フレームと接続点の後方素片の先頭フレームとのケプストラム距離を算出する。
1.2フォルマント距離
素片接続点におけるフォルマントの連続性により歪みを判定する。すなわち、接続点の前方素片の最終フレームと、接続点の後方素片の先頭フレームとの各フォルマント周波数の差分を基に距離を算出する。
1.3 ピッチの連続性
素片接続点における基本周波数の連続性により歪みを判定する。すなわち、接続点の前方素片の最終フレームの基本周波数と、接続点の後方素片の先頭フレームの基本周波数との差分を算出する。
1.4パワーの連続性
素片接続点におけるパワーの連続性により歪みを判定する。すなわち、接続点の前方素片の最終フレームのパワーと、接続点の後方素片の先頭フレームのパワーとの差分を算出する。
2.素片変形率による判定
声質変換部106の変形により、素片選択部104で選択された音声素片を変形した際に、声質指定部105により指定された声質が選択時と大きく異なった場合には、声質の変化量が大きくなり、波形生成部107で合成した際に、音声の品質とくに明瞭度が低下する。そこで、素片選択部104で選択した音声素片と、声質変換部106で変換した音声素片とを比較して、その変化量に基づいて歪みを判定する。例えば、以下の方法で判定することが出来る。
2.1ケプストラム距離
声質変換前の音声素片と声質変換後の音声素片とのケプストラム距離により歪みを判定する。
2.2フォルマント距離
声質変換前の音声素片と声質変換後の音声素片とのフォルマント周波数の差分に基づく距離により歪みを判定する。
2.3基本周波数の変形率
声質変換前の音声素片と声質変換後の音声素片との基本周波数の平均値の差分により歪みを判定する。または、基本周波数の時間パターンの差分により歪みを判定する。
2.4パワーの変形率
声質変換前の音声素片と声質変換後の音声素片とのパワーの平均値の差分により歪みを判定する。または、パワーの時間パターンの差分により歪みを判定する。
以上のいずれかの方法により算出された歪みが所定の閾値よりも大きい場合には、歪み判定部108は、素片選択部104と、目標素片情報修正部109とに音声素片の再選択を指示する。
なお、上記の方法を組み合わせることにより歪みを算出し、該歪みが所定の閾値よりも大きい場合は、歪み判定部108は、素片選択部104と、目標素片情報修正部109とに音声素片情報の再選択を指示するようにしてもよい。
<目標素片情報修正部109>
歪み判定部108により音声素片が歪んでいると判定された場合には、目標素片情報修正部109は、歪み判定部108により歪んでいると判断された音声素片を変更するために、目標素片情報生成部102によって生成された目標素片情報を修正する。
例えば、図4の「あらゆる現実を全て自分の方へねじ曲げたのだ。」というテキストに対する歪み判定部108の動作について説明する。図4に示すグラフにおいて、横軸方向に音素系列を示している。音素系列中の“’”はアクセント位置を示している。ここで、“/”は、アクセント句境界を示し、“,”はポーズを示す。縦軸は、歪み判定部108において計算された音声素片の歪みの度合いを示している。
歪み度の算出は音素毎に行なわれる。また、歪み判定は、音素、音節、モーラ、形態素、単語、文節、アクセント句、フレーズ、呼気段落および全文のいずれかの範囲を単位として行なわれる。歪み判定の範囲が音素よりも広い場合は、範囲に含まれる最大の歪み度、または範囲に含まれる歪み度の平均により当該範囲の歪みが判定される。図4の例では、例えば、「自分の方へ(jibuNnoho-e)」というアクセント句を判定の範囲とし、範囲内に含まれる音素の歪み度の最大値が所定の閾値を越えているため、該アクセント句を歪んでいると判断している。この場合には、目標素片情報修正部109は、該当の範囲の目標素片情報を修正する。
具体的には、声質変換部106により変換された音声素片から、その音声素片の基本周波数、継続時間長、パワーを新たな音声素片情報として使用する。
また、声質変換部106により、変換された声質が再現できるように、変換後の音声素片の声道情報であるフォルマントパターンやケプストラムパターンを新たに音声素片情報として追加するようにしても良い。
さらに、変換後の声道情報だけでなく、音源波情報としての基本周波数の時間パターンやパワーの時間パターンを音声素片情報に追加するようにしても良い。
このように、第1回目の素片選択では設定できなかった声質に関する音声素片情報を設定することにより、現在設定している声質に近い音声素片を再選択時に指定することが可能になる。
次に実際に動作する時の様子を入力テキストとして「明日の天気は晴れです。」と入力された場合の動作例を用いて説明する。テキスト解析部101は言語的な解析を行なう。その結果として、例えば「ashitano/teNkiwa/haredesu.」というような音素系列を出力する(スラッシュ記号はアクセント句の区切りを表す。)。
目標素片情報生成部102は、テキスト解析部101の解析結果をもとに各音素の音韻環境、基本周波数、継続時間、パワーなどの目標となる音声素片情報を決定する。例えば、文頭の「a」についての音声素片情報としては、音韻環境は「^−a+sh」(「^−」は、前の音素が文頭であることを示し、「+sh」は、後の音素がshであることを示す。)であり、基本周波数は120Hzであり、継続時間は60msであり、パワーは200であるというような情報を出力する。
素片選択部104は目標素片情報生成部102により出力される目標素片情報に最適な音声素片を素片データベース103より選択する。具体的には素片候補抽出部301が音声データベース103より、音声素片情報の音韻環境が適合する音声素片を素片選択の候補として抽出する。探索部302は素片候補抽出部301が抽出した素片候補からコスト計算部303によるコスト値が最小になる素片候補をビタビアルゴリズムなどを用いて決定する。コスト計算部303は、上述のように目標コスト計算部304と接続コスト計算部305からなる。目標コスト計算部304は、例えば、前述の音声素片情報の「a」と、候補の音声素片情報を比較して、一致度を計算する。例えば、候補素片の音声素片情報が音韻情報が「^−a+k」、基本周波数が110Hz、継続時間が50ms、パワーが200である場合、各音声素片情報についてその一致度を計算しそれぞれの一致度を統合した数値を目標コスト値として出力する。接続コスト計算部305は、隣接する2つの音声素片、前述の例では、「a」と「sh」の2つの音声素片を接続した際の接続性を評価し、接続コスト値として出力する。評価方法としては、例えば「a」の終端部と「sh」の始端部とのケプストラム距離で評価することができる。
編集者は、図3に示されるような声質指定部105のGUIを用いて、所望の声質の指定を行なう。ここでは、年齢がやや老人に近く、性別が女性に近く、性格がやや暗く、機嫌はほぼ普通である声質を指定している。
声質変換部106は、声質指定部105を用いて指定された声質に音声素片の声質を変換する。
このとき、初期選択時に素片選択部104により選択された音声素片の声質と、声質指定部105により指定された声質とが大きく異なる場合には、声質変換部106により修正される音声素片の変化量が大きくなり、声質が所望の声質であっても、合成音の品質、例えば明瞭度などが著しく劣化してしまう。そこで、歪み判定部108は、例えば「a」と「sh」の接続性や、素片データベースから選択された音声素片「a」と、声質変換部106により声質変換された後の音声素片「a」の素片の変形率(例えば素片間のケプストラム距離)によって、合成音の音質劣化が予想される場合には、素片データベース103より声質指定部105により指定されている現在の声質に最適な音声素片を再選択することを行う。なお、歪みの判定方法は、この方法には限られない。
再選択を行う際には、目標素片情報修正部109が、修正後の音声素片「a」の音声素片情報、例えば基本周波数は110Hz、継続時間は85ms、パワーは300というように変更する。また、声質変換後の音声素片「a」の声道特徴を表すケプストラム係数や、フォルマント軌跡を新たに追加する。これにより、入力テキストからは推定不可能な声質の情報を素片選択時に考慮することが可能となる。
素片選択部104は目標素片情報修正部109により修正された音声素片情報に基づき素片データベース103から最適な音声素片系列を再選択する。
このように歪みを検出した素片のみ再選択を行うことにより、再選択を行ったときの音声素片の声質は選択を行う以前の音声素片の声質に近いものを得ることが可能である。したがって、図3のようなGUIを用いて段階的に所望の声質を編集している際には、前記指定した声質の合成音の声質に近い声質の素片を選択できる。したがって、声質を連続的に変化させた編集を行うことが可能となり、編集者の直感にあった合成音を編集することが可能となる。
この時、目標コスト計算部304は初期選択の時には考慮しなかった、声道特徴の一致度も考慮して目標コストを算出する。具体的には、目標素片「a」と素片候補「a」との間のケプストラム距離またはフォルマント距離を算出する。これにより、現在の声質に類似し、かつ、変形量が少なく音質の高い音声素片を選択することが可能になる。
以上のように、声質変換部106での変化量が小さい音声素片を再選択することにより、声質指定部105により、編集者が合成音の声質を逐次変更した場合にも、常に最適な音声素片に基づいて声質変換部106が声質変換を行うことができる。このため、高音質で、かつ声質の変化の幅が大きい声質可変音声合成が可能となる。
次に、編集者が所望の声質の音声を合成する際に声質可変音声合成装置100において実行される処理について説明する。図5は、声質可変音声合成装置100の実行する処理のフローチャートである。
テキスト解析部101は、入力されたテキストを言語的に解析する(S1)。目標素片情報生成部102は、テキスト解析部101において解析された言語情報をもとに、各音声素片の基本周波数や継続時間長といった音声素片情報を生成する(S2)。
素片選択部104は、素片情報生成処理(S2)で生成された音声素片情報に最も合致する音声素片系列を素片データベース103から選択する(S3)。
次に、編集者が図3に示すようなGUIからなる声質指定部105により、声質を指定すると、声質変換部106は、指定された情報に基づいて、音声素片系列選択処理(S3)で選択された音声素片系列の声質を変換する(S4)。
歪み判定部108は、声質変換処理(S4)において声質変換された音声素片系列が歪んでいるか否かを判断する(S5)。具体的には、上述したいずれかの方法により音声素片系列に歪みを計算し、当該ひずみが所定の閾値よりも大きければ、音声素片系列が歪んでいると判断する。
音声素片系列が歪んでいると判断した場合には(S5でYES)、目標素片情報修正部109は、目標素片情報生成部102で生成された音声素片情報を、現在の声質にあわせた音声素片情報に修正する(S6)。次に、素片選択部104は、素片情報修正処理(S6)において修正された音声素片情報を目標とし、素片データベース103から音声素片を再選択する(S7)。
歪みがないと判断された場合(S5でNO)、または音声素片が再選択された後(S7)、波形生成部107は、選択された音声素片により音声を合成する(S8)。
編集者は、合成音声を聴取し、所望の声質であるかどうかを判断する(S9)。所望の声質である場合には(S9でYES)、処理を終了する。所望の声質でなかった場合には(S9でNO)、声質変換処理(S4)に戻る。
声質変換処理(S4)から声質判断処理(S9)までを繰り返すことにより、編集者は所望の声質の音声を合成することが可能となる。
次に、編集者が「あらゆる現実を全て自分の方へねじ曲げたのだ。」というテキストに対する「男性的で明るい声質」の合成音を所望した場合の動作について、図5に示したフローチャートに従い説明する。
テキスト解析部101は形態素解析、読みの決定、文節の決定、係り受け解析などを行なう(S1)。その結果、「arayu’ru/genjitsuo,su’bete/jibuNno/ho’-e,nejimageta’noda」という音素系列が得られる。
目標素片情報生成部102は、各音素「a」,「r」,「a」,「y」などそれぞれに対して、音韻環境や基本周波数、継続時間長、パワーなどといった各音素の特徴を生成する(S2)。
素片選択部104は、素片情報生成処理(S2)で生成された音声素片情報に基づいて素片データベース103から最適な音声素片系列を選択する(S3)。
編集者が、図3に示すような声質指定部105を用いて目標の声質を指定する。例えば、性別の軸を男性側に移動させ、性格の軸を明るい側に移動させたとする。すると、声質変換部106は、声質指定部105に基づいて音声素片系列の声質を変換する(S4)。
歪み判定部108は、声質変換処理(S4)において声質変換された音声素片系列が歪んでいるか否かを判断する(S5)。例えば、歪み判定部108において、図4に示すように歪みが検出された場合には(S5でYES)、音声素片情報修正処理(S6)へ遷移する。または、図4に示すように歪みが所定の閾値を超えなかった場合には(S5でNO)、波形生成処理(S8)へ遷移する。
音声素片情報修正処理(S6)では、目標素片情報修正部109が、声質変換処理(S4)において声質変換された音声素片の音声素片情報を抽出し、音声素片情報を修正する。図4の例では、歪みが閾値を超えたアクセント句である「自分の方へ」が再選択の範囲として指定され、音声素片情報が修正される。
素片選択部104は、音声素片情報修正処理(S6)により修正された目標素片情報に最も合致する音声素片系列を、素片データベース103から再選択する(S7)。その後、波形生成部107は、声質変換された音声素片系列から音声波形を生成する。
編集者は、生成された音声波形を聴取し、目標の声質になっているか否かを判断する(S9)。目標の声質になっていなかった場合(S9でNO)、例えば、「もう少し男性的な声」にしたい場合は、声質変換処理(S4)に遷移し、編集者が、図3に示すような声質指定部105の性別軸をさらに男性側にずらす。
以上の声質変換処理(S4)から声質判断処理(S9)までを繰り返すことにより、編集者が所望する「男性的で明るい声質」の合成音を、合成音の品質を劣化させることなく、かつ連続的な声質変化で徐々に変換することが可能となる。
図6は、本発明における効果のイメージ図を示す。図6は声質空間を表している。声質701は、初期選択時に選択された素片系列の声質を示す。範囲702は、声質701に対応する音声素片をもとに歪み判定部108により歪みが検出されずに声質変換できる声質の範囲を示す。仮に、編集者が声質指定部105を用いて声質703を指定した場合には、歪み判定部108により歪みが検出される。このため、素片選択部104は、声質703に近い音声素片系列を素片データベース103より再選択する。これにより、声質703に近い声質704を持つ音声素片系列を選択することができる。また、声質704を有する音声素片系列から歪み判定部108により歪みを検出せずに声質を変換できる範囲は範囲705の内部である。このため、さらに声質704の音声素片系列をもとに声質を変換することにより、従来歪みなく声質変換できなかった声質706の声質へ声質変換を行うことが可能になる。このように、声質指定部105により指定する声質を段階的に指定していくことにより、編集者が所望する声質の音声を合成することが可能になる。
かかる構成によれば、歪み判定部108で所定の閾値以上の歪みを検出した場合には、目標素片情報修正部109により音声素片情報を修正し、素片選択部104により音声素片を再選択することにより、声質指定部105により指定されている声質に合った音声素片を素片データベース103により再選択することができる。このため、例えば、図6に示す声質空間において、編集者が声質703の音声の合成を所望した場合には、初期選択された声質701の音声素片系列から声質703への声質変換が行われるのではなく、声質703に最も近い声質704の音声素片系列から声質703への声質変換が行われることになる。このように、常に最適な音声素片系列に基づいて声質変換が行われるため、歪みがなく音質が良好な音声合成を行うことができる。
また、編集者が声質指定部105を用いて所望する声質を指定しなおした場合には、図5のフローチャートにおいて、音声素片の初期選択処理(S3)から処理が再開されるのではなく、声質変換処理(S4)から処理が再開される。このため、例えば、図6の声質空間において編集者が所望する声質を声質703から声質706に指定しなおした場合には、再度、声質701の音声素片系列からの声質変換が行われるのではなく、声質703への声質変換時に用いられた声質704の音声素片系列に基づいて、声質変換が行われる。仮に、音声素片の初期選択処理(S3)から処理が再開されるものとすると、編集者が所望する声質を徐々に指定しなおす場合に、指定しなおされた声質が指定しなおされる前の声質と声質空間上で近いにも関わらず、全く異なった声質の音声素片系列から指定しなおされた声質への声質変換が行われる場合がある。このため、編集者が所望する声質の音声がなかなか得られない場合がある。しかし、本実施の形態の手法によると、声質が指定しなおされた場合であっても、声質変換に用いられる音声素片系列は、声質変換後の音声素片系列が歪みを起こすことがなければ、その前の声質変換に用いられた音声素片系列と同じである。このため、合成音の声質を連続的に変化させることができる。また、このように、連続的に声質を変化させているため、音質を劣化させることなく、声質を大きく変化させることができる。
(実施の形態2)
図7は、本発明の実施の形態2における声質可変音声合成装置の構成図である。図7において、図1と同じ構成要素については同じ符号を用い、説明を省略する。
図7に示される声質可変音声合成装置200は、図1に示される声質可変音声合成装置100と異なり、素片データベース103の代わりに、基本素片データベース201および声質素片データベース202を用いたものである。
基本素片データベース201は、声質指定部105により如何なる声質をも指定されなかった場合のニュートラルな声質を合成する為の音声素片を記憶する記憶部である。声質素片データベース202は声質指定部105により指定された声質を合成することが可能な豊富な声質のバリエーショがある音声素片を記憶するように構成している点が実施の形態1と異なる。
本実施の形態では、入力されたテキストに対する最初の音声素片の選択は、目標素片情報生成部102が生成する音声素片情報に基づいて基本素片データベース201より素片選択部104が最適な音声素片を選択する。
声質指定部105により指定された声質に声質変換部106が音声素片の声質を変換することにより、歪み判定部108が歪みを検出し、目標素片情報修正部109が音声素片情報を修正して、素片選択部104が音声素片を再選択する場合には、声質素片データベース202より修正された音声素片情報に最適な音声素片系列を再選択する。
かかる構成によれば、声質指定部105により声質を指定される前のニュートラルな声質の合成音を生成する際には、素片選択部104はニュートラルな声質の音声素片のみから構成される基本素片データベースのみから音声素片を選択するため、素片探索に必要な時間を短縮することができ、かつ精度良くニュートラルの声質の合成音を生成することが可能となる。
以上、本発明に係る声質可変音声合成装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。
例えば、図8に示すように、図7に示した声質可変音声合成装置200に素片保持部801を設け、声質可変音声合成装置800を構成してもよい。素片保持部801は、素片選択部104が選択した素片系列の識別子を保持する。目標素片情報修正部109により修正された音声素片情報に基づいて、素片選択部104が素片データベース103から再選択を行う際には、歪み判定部108により、音声素片が歪んでいると判断された範囲のみを再選択する。すなわち、素片選択部104は、歪んでいないと判断された範囲の音声素片については、素片保持部801により保持されている識別子を用いて前回の素片選択の際に選択された素片と同一の素片を使用するように構成しても良い。
なお、素片保持部801は識別子ではなく、素片そのものを保持しても良い。
また、再選択の範囲は、音素、音節、形態素、単語、文節、アクセント句、呼気段落、全文のいずれでも良い。
本発明にかかる声質可変音声合成装置は、合成音の声質を大きく変化させた場合においても合成音の音質を低下させずに声質変換を行う機能を有し、エンターテイメントや音声対話システムの応答音声を生成する音声合成装置等として有用である。
図1は、本発明の実施の形態1における声質可変音声合成の構成図である。 図2は、素片選択部の一般的な構成図である。 図3は、声質指定部の一例を示す図である。 図4は、歪み判定部の範囲指定の説明図である。 図5は、声質可変音声合成装置の実行する処理のフローチャートである。 図6は、声質空間における声質変換過程の説明図である。 図7は、本発明の実施の形態2における声質可変音声合成の構成図である。 図8は、音声素片再選択時の説明図である。 図9は、従来の声質可変音声合成装置の構成図である。
符号の説明
101 テキスト解析部
102 目標素片情報生成部
103 素片データベース
104 素片選択部
105 声質指定部
106 声質変換部
107 波形生成部
108 歪み判定部
109 目標素片情報修正部
201 基本素片データベース
202 声質素片データベース
301 素片候補抽出部
302 探索部
303 コスト計算部
304 目標コスト計算部
305 接続コスト計算部
801 素片保持部

Claims (16)

  1. 所望の声質を有する音声を合成する音声合成装置であって、
    複数の声質の音声素片を記憶する音声素片記憶手段と、
    音素情報を含む言語情報に基づいて、当該言語情報に対応する音声素片情報を生成する目標素片情報生成手段と、
    前記音声素片情報に対応する音声素片を、前記音声素片記憶手段から選択する素片選択手段と、
    合成音の声質の指定を受付ける声質指定手段と、
    前記素片選択手段により選択された音声素片を、前記声質指定手段により受付けられた声質を有する音声素片に変換する声質変換手段と、
    前記声質変換手段により変換された変換後の音声素片と当該変換前の音声素片との歪みを判定する歪み判定手段と、
    前記歪み判定手段により変換後の音声素片が歪んでいると判断された場合に、前記目標素片情報生成手段により生成された音声素片情報を前記声質変換手段により変換された変換後の音声素片に対応する音声素片情報に修正する目標素片情報修正手段とを備え、
    前記素片選択手段は、前記目標素片情報修正手段より音声素片情報が修正された場合には、修正後の音声素片情報に対応する音声素片を前記音声素片記憶手段から選択する
    ことを特徴とする音声合成装置。
  2. 前記声質変換手段は、さらに、前記修正後の音声素片情報に対応する音声素片を、前記声質指定手段により受付けられた声質を有する音声素片に変換する
    ことを特徴とする請求項1に記載の音声合成装置。
  3. 前記目標素片情報修正手段は、さらに、前記目標素片情報生成手段により生成された音声素片情報を修正する際に、前記声質変換手段により変換された音声素片の声道特徴を修正後の音声素片情報に加える
    ことを特徴とする請求項1に記載の音声合成装置。
  4. 前記声道特徴は、前記声質変換手段により変換された音声素片のケプストラム係数またはケプトラム係数の時間パターンである
    ことを特徴とする請求項3に記載の音声合成装置。
  5. 前記声道特徴は、前記声質変換手段により変換された音声素片のフォルマント周波数またはフォルマント周波数の時間パターンである
    ことを特徴とする請求項3に記載の音声合成装置。
  6. 前記歪み判定手段は、隣接する音声素片間の接続性に基づいて歪みを判定する
    ことを特徴とする請求項1に記載の音声合成装置。
  7. 前記歪み判定手段は、隣接する音声素片間のケプストラム距離、隣接する音声素片間のフォルマント周波数の距離、隣接する音声素片間の基本周波数の差分、または隣接する音声素片間のパワーの差分に基づいて歪みを判定する
    ことを特徴とする請求項6に記載の音声合成装置。
  8. 前記歪み判定手段は、前記素片選択手段により選択された音声素片から前記声質変換手段により変換された変換後の音声素片への変形率に基づいて歪みを判定する
    ことを特徴とする請求項1に記載の音声合成装置。
  9. 前記歪み判定手段は、前記素片選択手段により選択された音声素片と前記変換後の音声素片との間のケプストラム距離、前記素片選択手段により選択された音声素片と前記変換後の音声素片との間のフォルマント周波数の距離、前記素片選択手段により選択された音声素片と前記変換後の音声素片との間の基本周波数の差分、または前記素片選択手段により選択された音声素片と前記変換後の音声素片との間のパワーの差分に基づいて歪みを判定する
    ことを特徴とする請求項8に記載の音声合成装置。
  10. 前記歪み判定手段は、音素、音節、モーラ、形態素、単語、文節、アクセント句、フレーズ、呼気段落および全文のいずれかを単位として歪みを判定する
    ことを特徴とする請求項1に記載の音声合成装置。
  11. 前記素片選択手段は、前記目標素片情報修正手段より音声素片情報が修正された場合には、前記歪み判定手段において歪みを検出した範囲のみについて、修正後の音声素片情報に対応する音声素片を前記音声素片記憶手段から選択する
    ことを特徴とする請求項1に記載の音声合成装置。
  12. さらに、前記素片選択手段により選択された音声素片の識別子を保持する素片保持手段を備え、
    前記素片選択手段は、前記歪み判定手段において歪みが検出されなかった範囲の音声素片については、前記素片保持手段に保持された前記識別子に基づいて前記音声素片を選択する
    ことを特徴とする請求項11に記載の音声合成装置。
  13. 前記音声素片記憶手段は、
    標準的な声質の音声素片を記憶する基本音声素片記憶手段と、
    前記標準的な声質の音声素片とは異なる複数の声質の音声素片を記憶する声質音声素片記憶手段とを有し、
    前記素片選択手段は、
    前記目標素片情報生成手段により生成された音声素片情報に対応する音声素片を、前記基本音声素片記憶手段から選択する基本素片選択手段と、
    前記目標素片情報修正手段により修正された音声素片情報に対応する音声素片を、前記声質音声素片記憶手段から選択する声質素片選択手段とを有する
    ことを特徴とする請求項1に記載の音声合成装置。
  14. 複数の声質の音声素片を記憶する音声素片記憶手段を備える音声合成装置における音声合成方法であって、
    音素情報を含む言語情報に基づいて、当該言語情報に対応する音声素片情報を生成する目標素片情報生成ステップと、
    前記音声素片情報に対応する音声素片を、前記音声素片記憶手段から選択する素片選択ステップと、
    合成音の声質の指定を受付ける声質指定ステップと、
    前記素片選択ステップにおいて選択された音声素片を、前記声質指定ステップにおいて受付けられた声質を有する音声素片に変換する声質変換ステップと、
    前記声質変換ステップにおいて変換された変換後の音声素片と当該変換前の音声素片との歪みを判定する歪み判定ステップと、
    前記歪み判定ステップにおいて変換後の音声素片が歪んでいると判断された場合に、前記目標素片情報生成ステップにおいて生成された音声素片情報を前記声質変換ステップにおいて変換された変換後の音声素片に対応する音声素片情報に修正する目標素片情報修正ステップとを含み、
    前記素片選択ステップでは、前記目標素片情報修正ステップにおいて音声素片情報が修正された場合には、修正後の音声素片情報に対応する音声素片を前記音声素片記憶手段から選択する
    ことを特徴とする音声合成方法。
  15. コンピュータを音声合成装置として機能させるためのプログラムであって、
    前記コンピュータは、複数の声質の音声素片を記憶する音声素片記憶手段を備え、
    前記プログラムは、
    音素情報を含む言語情報に基づいて、当該言語情報に対応する音声素片情報を生成する目標素片情報生成手段と、
    前記音声素片情報に対応する音声素片を、前記音声素片記憶手段から選択する素片選択手段と、
    合成音の声質の指定を受付ける声質指定手段と、
    前記素片選択手段により選択された音声素片を、前記声質指定手段により受付けられた声質を有する音声素片に変換する声質変換手段と、
    前記声質変換手段により変換された変換後の音声素片と当該変換前の音声素片との歪みを判定する歪み判定手段と、
    前記歪み判定手段により変換後の音声素片が歪んでいると判断された場合に、前記目標素片情報生成手段により生成された音声素片情報を前記声質変換手段により変換された変換後の音声素片に対応する音声素片情報に修正する目標素片情報修正手段としてコンピュータを機能させ、
    前記素片選択手段は、前記目標素片情報修正手段より音声素片情報が修正された場合には、修正後の音声素片情報に対応する音声素片を前記音声素片記憶手段から選択する
    ことを特徴とするプログラム。
  16. コンピュータが実行するプログラムを記録したコンピュータ読取可能な記録媒体であって、
    前記コンピュータは、複数の声質の音声素片を記憶する音声素片記憶手段を備え、
    前記プログラムは、
    音素情報を含む言語情報に基づいて、当該言語情報に対応する音声素片情報を生成する目標素片情報生成手段と、
    前記音声素片情報に対応する音声素片を、前記音声素片記憶手段から選択する素片選択手段と、
    合成音の声質の指定を受付ける声質指定手段と、
    前記素片選択手段により選択された音声素片を、前記声質指定手段により受付けられた声質を有する音声素片に変換する声質変換手段と、
    前記声質変換手段により変換された変換後の音声素片と当該変換前の音声素片との歪みを判定する歪み判定手段と、
    前記歪み判定手段により変換後の音声素片が歪んでいると判断された場合に、前記目標素片情報生成手段により生成された音声素片情報を前記声質変換手段により変換された変換後の音声素片に対応する音声素片情報に修正する目標素片情報修正手段としてコンピュータを機能させ、
    前記素片選択手段は、前記目標素片情報修正手段より音声素片情報が修正された場合には、修正後の音声素片情報に対応する音声素片を前記音声素片記憶手段から選択する
    ことを特徴とするコンピュータ読取可能な記録媒体。
JP2006512928A 2004-05-11 2005-04-01 音声合成装置および方法 Expired - Fee Related JP3913770B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004141551 2004-05-11
JP2004141551 2004-05-11
PCT/JP2005/006489 WO2005109399A1 (ja) 2004-05-11 2005-04-01 音声合成装置および方法

Publications (2)

Publication Number Publication Date
JP3913770B2 true JP3913770B2 (ja) 2007-05-09
JPWO2005109399A1 JPWO2005109399A1 (ja) 2007-08-02

Family

ID=35320429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006512928A Expired - Fee Related JP3913770B2 (ja) 2004-05-11 2005-04-01 音声合成装置および方法

Country Status (4)

Country Link
US (1) US7912719B2 (ja)
JP (1) JP3913770B2 (ja)
CN (1) CN1954361B (ja)
WO (1) WO2005109399A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022504002A (ja) * 2019-10-12 2022-01-13 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 音声パッケージの推薦方法、装置、電子機器および記憶媒体

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7809145B2 (en) * 2006-05-04 2010-10-05 Sony Computer Entertainment Inc. Ultra small microphone array
US8947347B2 (en) 2003-08-27 2015-02-03 Sony Computer Entertainment Inc. Controlling actions in a video game unit
US8073157B2 (en) * 2003-08-27 2011-12-06 Sony Computer Entertainment Inc. Methods and apparatus for targeted sound detection and characterization
US7783061B2 (en) 2003-08-27 2010-08-24 Sony Computer Entertainment Inc. Methods and apparatus for the targeted sound detection
US8160269B2 (en) 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US8233642B2 (en) 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
US9174119B2 (en) 2002-07-27 2015-11-03 Sony Computer Entertainement America, LLC Controller for providing inputs to control execution of a program when inputs are combined
US7803050B2 (en) 2002-07-27 2010-09-28 Sony Computer Entertainment Inc. Tracking device with sound emitter for use in obtaining information for controlling game program execution
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8600753B1 (en) * 2005-12-30 2013-12-03 At&T Intellectual Property Ii, L.P. Method and apparatus for combining text to speech and recorded prompts
CN101213589B (zh) * 2006-01-12 2011-04-27 松下电器产业株式会社 对象声音分析装置和对象声音分析方法
CN101004911B (zh) * 2006-01-17 2012-06-27 纽昂斯通讯公司 用于生成频率弯曲函数及进行频率弯曲的方法和装置
JP4757130B2 (ja) * 2006-07-20 2011-08-24 富士通株式会社 ピッチ変換方法及び装置
KR100811226B1 (ko) * 2006-08-14 2008-03-07 주식회사 보이스웨어 악센트구 매칭 사전선택을 이용한 일본어음성합성방법 및시스템
GB2443027B (en) * 2006-10-19 2009-04-01 Sony Comp Entertainment Europe Apparatus and method of audio processing
US20080120115A1 (en) * 2006-11-16 2008-05-22 Xiao Dong Mao Methods and apparatuses for dynamically adjusting an audio signal based on a parameter
WO2008142836A1 (ja) * 2007-05-14 2008-11-27 Panasonic Corporation 声質変換装置および声質変換方法
JP5238205B2 (ja) * 2007-09-07 2013-07-17 ニュアンス コミュニケーションズ,インコーポレイテッド 音声合成システム、プログラム及び方法
JP5218971B2 (ja) * 2008-07-31 2013-06-26 株式会社日立製作所 音声メッセージ作成装置及び方法
US8150695B1 (en) * 2009-06-18 2012-04-03 Amazon Technologies, Inc. Presentation of written works based on character identities and attributes
EP2518723A4 (en) * 2009-12-21 2012-11-28 Fujitsu Ltd VOICE CONTROL DEVICE AND VOICE CONTROL METHOD
KR101201913B1 (ko) * 2010-11-08 2012-11-15 주식회사 보이스웨어 사용자의 후보 합성단위 선택에 의한 음성 합성 방법 및 시스템
US20130030789A1 (en) * 2011-07-29 2013-01-31 Reginald Dalce Universal Language Translator
JP6266372B2 (ja) * 2014-02-10 2018-01-24 株式会社東芝 音声合成辞書生成装置、音声合成辞書生成方法およびプログラム
CN106297765B (zh) * 2015-06-04 2019-10-18 科大讯飞股份有限公司 语音合成方法及系统
EP3625791A4 (en) 2017-05-18 2021-03-03 Telepathy Labs, Inc. TEXT-SPEECH SYSTEM AND PROCESS BASED ON ARTIFICIAL INTELLIGENCE
US10535344B2 (en) * 2017-06-08 2020-01-14 Microsoft Technology Licensing, Llc Conversational system user experience
JP6523423B2 (ja) * 2017-12-18 2019-05-29 株式会社東芝 音声合成装置、音声合成方法およびプログラム
CN108053696A (zh) * 2018-01-04 2018-05-18 广州阿里巴巴文学信息技术有限公司 一种根据阅读内容进行声音播放的方法、装置和终端设备
US10981073B2 (en) * 2018-10-22 2021-04-20 Disney Enterprises, Inc. Localized and standalone semi-randomized character conversations
US11062691B2 (en) * 2019-05-13 2021-07-13 International Business Machines Corporation Voice transformation allowance determination and representation
CN110136687B (zh) * 2019-05-20 2021-06-15 深圳市数字星河科技有限公司 一种基于语音训练克隆口音及声韵方法
CN110503991B (zh) * 2019-08-07 2022-03-18 Oppo广东移动通信有限公司 语音播报方法、装置、电子设备及存储介质
KR20210057569A (ko) * 2019-11-12 2021-05-21 엘지전자 주식회사 음성 신호를 처리하는 방법 및 이를 적용한 장치
CN112133278B (zh) * 2020-11-20 2021-02-05 成都启英泰伦科技有限公司 一种个性化语音合成模型网络训练及个性化语音合成方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319495A (ja) * 1994-05-26 1995-12-08 N T T Data Tsushin Kk 音声合成装置のための合成単位データ生成方式及び方法
JP2770747B2 (ja) * 1994-08-18 1998-07-02 日本電気株式会社 音声合成装置
JP2898568B2 (ja) 1995-03-10 1999-06-02 株式会社エイ・ティ・アール音声翻訳通信研究所 声質変換音声合成装置
JP2880433B2 (ja) * 1995-09-20 1999-04-12 株式会社エイ・ティ・アール音声翻訳通信研究所 音声合成装置
JPH1097267A (ja) * 1996-09-24 1998-04-14 Hitachi Ltd 声質変換方法および装置
US6226614B1 (en) * 1997-05-21 2001-05-01 Nippon Telegraph And Telephone Corporation Method and apparatus for editing/creating synthetic speech message and recording medium with the method recorded thereon
JPH1185194A (ja) * 1997-09-04 1999-03-30 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 声質変換音声合成装置
JP3667950B2 (ja) * 1997-09-16 2005-07-06 株式会社東芝 ピッチパターン生成方法
US6363342B2 (en) * 1998-12-18 2002-03-26 Matsushita Electric Industrial Co., Ltd. System for developing word-pronunciation pairs
US6823309B1 (en) * 1999-03-25 2004-11-23 Matsushita Electric Industrial Co., Ltd. Speech synthesizing system and method for modifying prosody based on match to database
US20030028380A1 (en) * 2000-02-02 2003-02-06 Freeland Warwick Peter Speech system
US7412422B2 (en) * 2000-03-23 2008-08-12 Dekel Shiloh Method and system for securing user identities and creating virtual users to enhance privacy on a communication network
JP2001282278A (ja) 2000-03-31 2001-10-12 Canon Inc 音声情報処理装置及びその方法と記憶媒体
AU2001255787A1 (en) * 2000-05-01 2001-11-12 Lifef/X Networks, Inc. Virtual representatives for use as communications tools
JP2003029774A (ja) 2001-07-19 2003-01-31 Matsushita Electric Ind Co Ltd 音声波形辞書配信システム、音声波形辞書作成装置、及び音声合成端末装置
US6829581B2 (en) * 2001-07-31 2004-12-07 Matsushita Electric Industrial Co., Ltd. Method for prosody generation by unit selection from an imitation speech database
JP4408596B2 (ja) 2001-08-30 2010-02-03 シャープ株式会社 音声合成装置、声質変換装置、音声合成方法、声質変換方法、音声合成処理プログラム、声質変換処理プログラム、および、プログラム記録媒体
JP2003157100A (ja) * 2001-11-22 2003-05-30 Nippon Telegr & Teleph Corp <Ntt> 音声通信方法及び装置、並びに音声通信プログラム
JP2004053833A (ja) 2002-07-18 2004-02-19 Sharp Corp 音声合成装置、音声合成方法、音声合成プログラム、および、プログラム記録媒体
US20040098266A1 (en) * 2002-11-14 2004-05-20 International Business Machines Corporation Personal speech font
US8005677B2 (en) * 2003-05-09 2011-08-23 Cisco Technology, Inc. Source-dependent text-to-speech system
US7640160B2 (en) * 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022504002A (ja) * 2019-10-12 2022-01-13 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 音声パッケージの推薦方法、装置、電子機器および記憶媒体
JP7146961B2 (ja) 2019-10-12 2022-10-04 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 音声パッケージの推薦方法、装置、電子機器および記憶媒体

Also Published As

Publication number Publication date
CN1954361B (zh) 2010-11-03
US7912719B2 (en) 2011-03-22
CN1954361A (zh) 2007-04-25
US20070233489A1 (en) 2007-10-04
JPWO2005109399A1 (ja) 2007-08-02
WO2005109399A1 (ja) 2005-11-17

Similar Documents

Publication Publication Date Title
JP3913770B2 (ja) 音声合成装置および方法
JP4025355B2 (ja) 音声合成装置及び音声合成方法
JP4246792B2 (ja) 声質変換装置および声質変換方法
JP3910628B2 (ja) 音声合成装置、音声合成方法およびプログラム
US9978359B1 (en) Iterative text-to-speech with user feedback
US11763797B2 (en) Text-to-speech (TTS) processing
US20040030555A1 (en) System and method for concatenating acoustic contours for speech synthesis
JP2007249212A (ja) テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ
CN101131818A (zh) 语音合成装置与方法
JP2006309162A (ja) ピッチパターン生成方法、ピッチパターン生成装置及びプログラム
JP6013104B2 (ja) 音声合成方法、装置、及びプログラム
JP2623586B2 (ja) 音声合成におけるピッチ制御方式
JP2003337592A (ja) 音声合成方法及び音声合成装置及び音声合成プログラム
US8478595B2 (en) Fundamental frequency pattern generation apparatus and fundamental frequency pattern generation method
WO2010050103A1 (ja) 音声合成装置
JP2007178686A (ja) 音声変換装置
JP5874639B2 (ja) 音声合成装置、音声合成方法及び音声合成プログラム
JP2004109535A (ja) 音声合成方法、音声合成装置および音声合成プログラム
JP5106274B2 (ja) 音声処理装置、音声処理方法及びプログラム
JP5198200B2 (ja) 音声合成装置及び方法
WO2008056604A1 (fr) Système de collecte de son, procédé de collecte de son et programme de traitement de collecte
JP2007163667A (ja) 音声合成装置および音声合成プログラム
JP2003208188A (ja) 日本語テキスト音声合成方法
JP5275470B2 (ja) 音声合成装置およびプログラム
JP2006084854A (ja) 音声合成装置、音声合成方法および音声合成プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20070124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070131

R150 Certificate of patent or registration of utility model

Ref document number: 3913770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100209

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140209

Year of fee payment: 7

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees