JP4130190B2 - 音声合成システム - Google Patents

音声合成システム Download PDF

Info

Publication number
JP4130190B2
JP4130190B2 JP2004571300A JP2004571300A JP4130190B2 JP 4130190 B2 JP4130190 B2 JP 4130190B2 JP 2004571300 A JP2004571300 A JP 2004571300A JP 2004571300 A JP2004571300 A JP 2004571300A JP 4130190 B2 JP4130190 B2 JP 4130190B2
Authority
JP
Japan
Prior art keywords
speech
unit
combination
data
selection information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004571300A
Other languages
English (en)
Other versions
JPWO2004097792A1 (ja
Inventor
伸之 片江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2004097792A1 publication Critical patent/JPWO2004097792A1/ja
Application granted granted Critical
Publication of JP4130190B2 publication Critical patent/JP4130190B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • G10L13/07Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules

Description

本発明は、蓄積された音声素片データから合成するパラメータに基づいて最適な音声素片データの組み合わせを検索し、これを連結することによって音声波形を生成する音声合成システムに関する。
音声合成技術は、音声ポータルサービスやカーナビゲーションシステムなどの分野で実用化が進んでいる。音声合成技術では、音声波形やこれをパラメータ化した音声素片データと呼ばれるデータを蓄積しておき、これらを適宜連結して加工し所望の合成音声を取得するようにしているのが一般的である。この連結を行う単位を合成単位と呼び、古くからの音声合成技術では、この合成単位として固定長の合成単位を使用する方法が主である。
たとえば、音節を合成単位とする場合には、「山と」という合成文に対する合成単位は、「ヤ」、「マ」、「ト」となる。また、母音−子音−母音の連続(一般にVCVと略す)を合成単位とする場合には、母音中心部で連結することを想定しており、「山と(yamato)」に対する合成単位は、「Qya」、「ama」、「ato」、「oQ」となる。ただし、「Q」は無音であることを示す。
これに対して現在では、人が発音した文章や単語などの音声データを多数蓄積しておき、合成する入力文章に応じてできるだけ長い区間が一致する音声素片データ、また連結したときに不連続が生じ難い音声素片データを検索して、これを連結する方法が主流となっている(たとえば、特許文献1参照)。この場合、合成単位は入力文章と蓄積された音声データに応じて、適切なものが動的に決定されることとなる。このような方式は総称してコーパスベース方式と呼ばれている。
同じ音節であっても、前後の音によってその音響的な性質が異なってくるため、ある音を合成する際に、より広い範囲で前後の音が一致する音声素片データを使用する方が、より自然な合成音声を生成することができる。また、合成単位間の連結を滑らかに接続するために補間区間を設けるのが一般的であるが、このような補間区間では、本来存在しない音声素片データを人工的に作成することから、音質劣化が生じることとなる。合成単位を長くすれば、より適切な音声素片を使用できるようになり、音質劣化の原因となる補間区間を縮小することができ、合成音声の音質向上を図ることが可能となる。しかしながら、長い合成単位のものを全て用意することはデータ数が膨大になることから合成単位を固定長にすることは困難であり、前述したようなコーパスベース方式が用いられることが一般的である。
図1に従来例の構成を示す。
素片蓄積部13には、人間が発声した文章や単語などの音声データが、音声波形あるいはこれをパラメータ化した形式の音声素片データとして多数格納されている。また、素片蓄積部13には、蓄積されている音声素片データを検索するためのインデックス情報も格納されている。
テキストデータなどの文字情報を解析した結果得られる音声単位列(合成音素列)、ピッチ周波数パターン、各音声単位の時間長(音素時間長)、パワー変動パターンなどの合成パラメータが、素片選択部11に入力される。素片選択部11では、入力される合成パラメータに基づいて、素片蓄積部13から最適となる音声素片データの組み合わせを選択する。音声合成部12では、素片選択部11で選択された音声素片データの組み合わせを使用して合成パラメータに対応する音声波形を生成・出力する。
特開平9-123822号公報
前述したようなコーパスベース方式においては、素片蓄積部13に格納されている音声素片データから最適な音声素片データの組み合わせを選択するための評価関数を設定している。
たとえば、合成音素列「山と(yamato)」に対して、これを満足する音声素片データの組み合わせとして、以下の2種類のものが選択することをできたと仮定する。
(1)「yama」+「to」
(2)「ya」+「mato」
この2種類の音声素片データの組み合わせにおいて、(1)は4音素+2音素の組み合わせであり、(2)は2音素+4音素の組み合わせとなっており、合成単位の長さという点では同等である。しかし、(1)の場合、合成単位同士の接続点は、[a]-[t]間であり、(2)の場合、合成単位同士の接続点は、[a]-[m]間である。無声破裂音である[t]には無音部分が存在し、このような無声破裂音を接続点にすると、合成音声の不連続感が生じ難くなる。したがって、この場合、合成単位の接続点に[t]が存在する(1)の組み合わせが適していることとなる。
(1)の「yama」+「to」の音声素片の組み合わせを選択するとき、素片蓄積部13に複数個の「to」の音声素片が存在する場合、直前に「a」の音声素片が存在するようなものを選択する方が合成する音素列に適している。
選択された各音声素片データは、入力された合成パラメータに基づいたピッチ周波数パターン、音素時間長を実現する必要がある。ピッチ周波数変換や音素時間長変換を行う場合、一般的にその変換量が大きいほど音質劣化を生じることから、素片蓄積部13から選択される音声素片データは、ターゲットとするピッチ周波数や音素時間長に近い音声素片データを選択することが好ましい。
このように、選択される音声素片データの長さや音素の性質、前後の音素環境、ピッチ周波数、音素時間長など複数の要素を加味して評価関数は作成されている。しかしながら、すべての合成文字列に適した評価関数を作成することは困難であり、その結果、複数個存在する音声素片データの組み合わせの候補から、必ずしも最適なものが選択されない場合が生じ、合成音声の音質劣化の原因となっている。
本発明では、合成音声単位列に対して最適な音声素片データの組み合わせを選択することで、音質を向上させることが可能な音声合成システムの提供を目的とする。
本発明の請求項1に係る音声合成システムは、音声合成に必要となる合成パラメータを入力として、蓄積された音声素片データから合成パラメータに応じた音声素片データの組み合わせを選択して合成することによって、合成パラメータに対する音声波形を生成・出力する音声合成システムであって、音声素片データを格納する素片蓄積部と、任意の音声単位列に対し、素片蓄積部に蓄積された音声素片データを用いて構成される音声素片データの組み合わせおよびその組み合わせが最適であることを示す情報、または不適切であることを示す情報を含む適否情報を備える素片選択情報を格納する素片選択情報蓄積部と、入力される合成パラメータに含まれる合成音声単位列と一致する音声単位列であってその音声素片データの組み合わせが最適であるような素片選択情報が素片選択情報蓄積部に含まれている場合、該当する音声素片データの組み合わせを選択し、入力される合成パラメータに含まれる合成音声単位列と一致しかつ最適な音声素片データの組み合わせとなる素片選択情報が素片選択情報蓄積部に含まれていない場合、所定の選択手段を用いて素片蓄積部から音声素片データの組み合わせの候補を作成する素片選択部と、素片選択部で作成された音声素片データの組み合わせの候補に対するユーザの適否判定を受け付ける合否判定受付部と、合否判定受付部で受け付けたユーザからの適否判定に基づいて素片選択部で作成された音声素片データの組み合わせとその適否情報とを含む素片選択情報を素片選択情報蓄積部に格納する素片選択情報編集部と、素片選択部で選択された音声素片データの組み合わせに基づいて音声波形データを生成・出力する音声合成部とを備える音声合成システムとを備える。
この場合、合成音声単位列ごとに最適となる音声素片データの組み合わせを素片選択情報として蓄積することにより、素片蓄積部に格納される音声素片データのデータ量を大きくすることなく、音質の良好な合成音声を生成することが可能となる。
また、素片選択情報蓄積部に格納された素片選択情報に基づいて選択される音声素片データの組み合わせにより、該当する合成音声単位列に対して音質の良好な合成音声を生成することが可能になり、素片選択情報蓄積部に格納されていない合成音声単位列に対しては、音声素片データの組み合わせの候補を作成してユーザに最適なものを選択させるように構成できる。
さらに、素片選択部で生成された音声素片データの組み合わせの候補に対してユーザが適切であるか否かの判定を行うように構成することが可能となり、ユーザの好みに応じた合成音声を生成することが可能となる。
本発明の請求項2に係る音声合成方法は、音声合成に必要となる合成パラメータを入力として、蓄積された音声素片データから前記合成パラメータに応じた音声素片データの組み合わせを選択して合成することによって、合成パラメータに対する音声波形を生成する音声合成システムが実行する音声合成方法であって、音声素片データを格納する段階と、任意の音声単位列に対し、蓄積された音声素片データを用いて構成される音声素片データの組み合わせおよびその組み合わせが最適であることを示す情報、または不適切であることを示す情報を含む適否情報を備える素片選択情報を格納する段階と、入力される合成パラメータに含まれる合成音声単位列と一致する音声単位列であってその音声素片データの組み合わせが最適であるような素片選択情報が格納されている素片選択情報に含まれている場合、該当する音声素片データの組み合わせを選択し、入力される合成パラメータに含まれる合成音声単位列と一致しかつ最適な音声素片データの組み合わせとなる素片選択情報が格納されている素片選択情報に含まれていない場合、所定の選択手段を用いて音声素片データの組み合わせの候補を作成する段階と、任意の合成音声単位列に対し、蓄積された音声素片データを用いて構成される音声素片データの組み合わせの候補を作成する段階と、作成された音声素片データの組み合わせに対してユーザの適否判定を受け付ける段階と、ユーザの適否判定に基づいて音声素片データの組み合わせおよびその適否情報を素片選択情報として格納する段階と、音声素片データの組み合わせに基づいて音声波形データを生成する段階とを備える。
この場合、音声単位列ごとに最適となる音声素片データの組み合わせを素片選択情報として蓄積することにより、格納されている音声素片データのデータ量を大きくすることなく、音質の良好な合成音声を生成することが可能となる。
また、格納されている素片選択情報に基づいて選択される音声素片データの組み合わせにより、該当する合成音声単位列に対して音質の良好な合成音声を生成することが可能になり、格納されていない音声単位列に対しては、音声素片データの組み合わせの候補を作成してユーザに最適なものを選択させるように構成できる。
本発明の請求項3に係るプログラムは、音声合成に必要となる合成パラメータを入力として、蓄積された音声素片データから合成パラメータに応じた音声素片データの組み合わせを選択して合成することによって、合成パラメータに対する音声波形を生成する音声合成システムが実行する音声合成方法のプログラムであって、音声素片データを格納するステップと、任意の音声単位列に対し、蓄積された音声素片データを用いて構成される音声素片データの組み合わせおよびその組み合わせが最適であることを示す情報、または不適切であることを示す情報を含む適否情報を備える素片選択情報を格納するステップと、入力される合成パラメータに含まれる合成音声単位列と一致する音声単位列であってその音声素片データの組み合わせが最適であるような素片選択情報が格納されている素片選択情報に含まれている場合、該当する音声素片データの組み合わせを選択し、入力される合成パラメータに含まれる合成音声単位列と一致しかつ最適な音声素片データの組み合わせとなる素片選択情報が格納されている素片選択情報に含まれていない場合、所定の選択手段を用いて音声素片データの組み合わせの候補を作成する段階と、任意の合成音声単位列に対し、蓄積された音声素片データを用いて構成される音声素片データの組み合わせの候補を作成する段階と、作成された音声素片データの組み合わせに対してユーザの適否判定を受け付ける段階と、ユーザの適否判定に基づいて音声素片データの組み合わせおよびその適否情報を素片選択情報として格納する段階と、音声素片データの組み合わせに基づいて音声波形データを生成するステップとを備える音声合成方法をコンピュータに実行させるためのプログラムである。
この場合、音声単位列ごとに最適となる音声素片データの組み合わせを素片選択情報として蓄積することにより、格納されている音声素片データのデータ量を大きくすることなく、音質の良好な合成音声を生成することが可能となり、このプログラムを用いて通常のパーソナルコンピュータやその他のコンピュータシステムを音声合成システムとして機能させることが可能となる。
本発明によれば、人間が発声した文章や単語の音声データから音声素片データを選択し、これを接続する方式の音声合成システムにおいて、音声素片データのデータ量の拡大を抑制し、合成音声の品質向上を図ることができる。
また、ユーザがシステムを使用しながら最適の合成音声を作成する枠組みを提供することができ、システム開発者にとっても、あらゆる場合にあてはまるような評価関数のチューニングを検討する必要がなくなり、開発やメンテナンスの省力化を図ることができる。
〈概要構成〉
(1)本発明の第1の原理に基づく概略構成図を図2に示す。
ここでは、人間が発声した文章や単語などの音声データに基づいて音声波形あるいはこれをパラメータ化した形式の音声素片データが多数格納された素片蓄積部13と、入力される合成パラメータに基づいて素片蓄積部13から音声素片データの組み合わせを選択する素片選択部21と、素片選択部21で選択された音声素片データの組み合わせを使用して合成パラメータに対応する音声波形を生成・出力する音声合成部12とを備えている。
また、任意の音素列に対し、素片蓄積部13に格納されている音声素片データの組み合わせとその適否情報とを含む素片選択情報を格納する素片選択情報蓄積部24を備えている。
下記は適切な素片選択情報のみ存在する場合の説明である。
素片選択部21は、入力される合成パラメータに含まれる合成音素列に基づいて、素片選択情報蓄積部24に同一の音素列の素片選択情報が存在するか否かの検索を実行し、同一の音素列の素片選択情報がある場合にはその音声素片データの組み合わせを選択する。素片選択情報蓄積部24に同一の合成音素列の素片選択情報が含まれていない場合には、従来通りに素片蓄積部13から評価関数を用いて最適となる音声素片データの組み合わせを選択する。不適切な素片選択情報がある場合には、評価関数で不適切でない音声素片の組み合わせの中から最適なものを選択する。
入力された合成パラメータに含まれる合成音素列と一部が一致する音素列の素片選択情報が素片選択情報蓄積部24に格納されている場合には、素片選択部21はその一致する部分についてのみ素片選択情報として格納されている音声素片データの組み合わせを使用し、その他の部分については、従来通りに素片蓄積部13から所定の選択手段を用いて最適な音声素片データの組み合わせを選択する。所定の選択手段には、評価関数や評価テーブルなどが考えられるが、特に限定するものではない。
素片選択情報蓄積部24に格納されている素片選択情報は、たとえば図5に示すような構成となっている。
図5上部は、素片蓄積部13に蓄積されている音声素片データを示しており、X(行)が文章番号、Y(列)が音素番号を示すものとする。たとえば、文章番号1(X=1)は、「山梨と静岡・・・」という文章の音声であることを示し、それを構成する音素列「Q y a m a n a sh i t o Q sh i z u・・・」を先頭から順にY=1〜nで示している。ここで、「Q」は、無音を表している。
素片選択情報蓄積部24に格納されている素片選択情報は、図5下部に示されるように、任意の合成音素列に対して最適となる音声素片データの組み合わせを、素片蓄積部13に蓄積されている音声素片データのXYの値を用いて示している。たとえば、1行目には、「Q y a m a t o Q(山と)」という合成音素列を構成するための音声素片データの組み合わせとして、素片蓄積部13中の[X=1,Y=2][X=1,Y=3][X=1,Y=4][X=1,Y=5][X=3,Y=15][X=3,Y=16]を用いることが最適であることを示している。また、2行目には、「Q y a m a t o w A Q(山とは)」という合成音素列を構成するための音声素片データの組み合わせとして、素片蓄積部13中の[X=1,Y=2][X=1,Y=3][X=1,Y=4][X=1,Y=5][X=2,Y=8][X=2,Y=9][X=2,Y=10][X=2,Y=11]を使用するのが最適であることを示している。
図5に示す1行目および2行目の合成音素列については、「wA(は)」の有無が異なるだけであるが、素片蓄積部13の文章番号2中には「t o w a(とは)」という連続する音素列が存在することから、「t o(と)」の部分についても最適とされる音声素片データが変化していることがわかる。
また、素片選択情報として、合成音素列に対して不適切であるような音声素片データの組み合わせを登録しておき、他の音声素片データの組み合わせを選択すべきであることを示すように構成することができる。たとえば、図5の3行目に示すように、「Q y a m a t o w A Q(山とは)」という合成音素列を構成するための音声素片データの組み合わせとして、素片蓄積部13中の[X=1,Y=2][X=1,Y=3][X=1,Y=4][X=1,Y=5][X=3,Y=15][X=3,Y=16][X=2,Y=10][X=2,Y=11]を使用することが不適切であることを登録しておく。
合成音素列の他に、平均ピッチ周波数、平均音節時間長、平均パワーなどの条件を素片選択情報として登録しておき、入力された合成パラメータがこの条件に合致する場合にその音声素片データの組み合わせを用いるように構成することができる。たとえば、図6に示すように、「Q y a m a t o Q(山と)」という合成音素列であって、平均ピッチ周波数が200Hz、平均音節時間長が120msec、平均パワーが-20dBであるような合成パラメータに対しては、素片蓄積部13中の[X=1,Y=2][X=1,Y=3][X=1,Y=4][X=1,Y=5][X=3,Y=15][X=3,Y=16]という音声素片データの組み合わせを用いることが最適であることを素片選択情報蓄積部24に登録しておく。この場合、入力された合成パラメータが素片選択情報のこれらの条件に完全に一致していなくても、多少の相違であれば音質劣化も許容範囲であることから、所定のしきい値を設定して、著しい隔たりがある場合についてのみこの音声素片データの組み合わせを使用しないように設定することも可能である。
ある合成音素列に対して最適な音声素片データが選択されるように評価関数をチューニングする場合、他の合成音素列に対する音声素片データを選択する際に悪影響を及ぼすおそれがあるが、本発明では、特定の合成音素列に対してのみ有効な素片選択情報を登録しているため、他の合成音素列に対する音声素片データの組み合わせを選択する際の影響がない。
(2)本発明の第2の原理に基づく概略構成図を図3に示す。
第1の原理に基づく概略構成図である図2と比較すると、音声合成部12から出力された合成音声に対するユーザの適否判定を受け付ける合否判定入力部27と、合否判定入力部27で受け付けたユーザの適否判定に基づいて音声素片データの組み合わせについての素片選択情報を素片選択情報蓄積部24に格納する素片選択情報編集部26とがさらに加わっている。
たとえば、入力された合成パラメータに基づいて音声素片データの組み合わせを選択する際に、合成パラメータ中に含まれる合成音素列と一致する素片選択情報がない場合には、素片選択部21では、素片蓄積部13内の音声素片データから組み合わせの候補を作成する。ユーザは、音声合成部12を介して出力される合成音声を聞いて、合否判定入力部27を介して適切であるか否かの適否判定を入力する。素片選択情報編集部26では、合否判定入力部27から入力されたユーザによる適否判定に基づいて、素片選択情報蓄積部24内の素片選択情報を追加する。
このような構成とすることによって、素片選択部21で選択される音声素片データの組み合わせが、ユーザの設定に適合させることができ、より音質の良好な合成音声システムを構築することが可能となる。
〔音声合成システム例〕
本発明の1実施形態が採用される音声合成システムの制御ブロック図を図4に示す。
この音声合成システムはパーソナルコンピュータ、その他のコンピュータシステム上で具現化されるものであり、CPU、ROM、RAM、各種インターフェイスなどを含む制御部31により各機能部の制御が行われる。
多数の音声素片データが格納される素片蓄積部13および素片選択情報が格納される素片選択情報蓄積部24は、コンピュータシステムに内蔵または外付けで構成されるハードディスク(HDD)、光磁気ディスク(MO)、その他記録媒体、ネットワークを介して接続される他のサーバが管理する記録媒体などの所定の領域に設定することができる。
言語解析部33、韻律生成部34、素片選択部21、素片選択情報編集部26などは、コンピュータのメモリ上で展開されるアプリケーションソフトにより各機能部として実現することができる。
また、ユーザインターフェイス部40として、合成文字列入力部32、音声合成部12、合否判定入力部27を備えている。合成文字列入力部32は、文字列情報の入力を受け付けるものであり、たとえば、キーボード、OCR(Optical Character Reader)、その他の入力デバイスから入力されるテキストデータや記録媒体上に記録されているテキストデータの入力を受け付けるものである。音声合成部12は、生成された音声波形を出力するものであり、種々のスピーカおよび音声出力用のソフトウェアによる構成を想定することができる。合否判定入力部27は、音声素片データの組み合わせに対するユーザの適否判定入力を受け付けるものであり、モニタ上に適否選択項目を表示し、キーボード、マウス、その他のポインティングデバイスにより選択される適否情報を取得するように構成できる。
言語解析部33は、合成文字列入力部32から入力された漢字かなテキストに対して、読みやアクセントを付与する処理を実行するものであり、形態素解析や係り受け解析などにより合成する音声単位列(合成音素列)を生成する。
韻律生成部34は、合成音素列に対して合成音声を生成する際のイントネーションやリズムを生成するものであり、たとえば、ピッチ周波数パターン、各音声単位の時間長、パワー変動パターンなどを作成する。
素片選択部21は、前述の概略構成でも説明したように、合成音素列、ピッチ周波数パターン、各音声単位時間長、パワー変動パターンなどの合成パラメータに適した音声素片データを素片蓄積部13から選択する。このとき、合成パラメータに適した音声素片データの組み合わせが素片選択情報蓄積部24に格納されている場合に、この音声素片データの組み合わせを優先して選択するように構成される。合成音素列に対応する適切な素片選択情報が素片選択情報蓄積部24に格納されていない場合には、素片選択部21は、評価関数によって動的に最適と思われる音声素片データの組み合わせを選択する。ただし、ここでは、素片選択情報蓄積部24に不適切な素片選択情報が登録されていない場合を想定している。
音声合成部12では、素片選択部21で選択された音声素片データの組み合わせに基づいて音声波形を生成し出力を行う。
素片選択部21が評価関数に基づいて選択した音声素片データの組み合わせの候補が複数ある場合には、それぞれの音声波形を音声合成部12を介して出力し、合否判定入力部27を介してユーザの適否判定を受け付けるように構成する。合否判定入力部27を介して受け付けたユーザによる適否情報は、素片選択情報編集部26を介して素片選択情報蓄積部24に蓄積された素片選択情報に反映される。
この音声合成システムの動作を図7に示す制御フローチャートに基づいて。素片選択情報蓄積部24に音声素片データの適切な組み合わせのみが登録されている場合いついて説明する。
ステップS11では、合成文字列入力部32を介して入力されるテキストデータを受け付ける。
ステップS12では、入力されたテキストデータを言語解析部33により解析し、合成音素列を生成する。
ステップS13では、生成された合成音素列に対して、韻律生成部34においてピッチ周波数パターン、各音声単位時間長、パワー変動パターンなどの韻律情報を生成する。
ステップS14では、合成音素列に一致する音素列の素片選択情報が素片選択情報蓄積部24に格納されているか否かを判別する。合成音素列に一致する音素列の素片選択情報が存在すると判断した場合にはステップS16に移行し、そうでないと判断した場合にはステップS15に移行する。
ステップS16では、素片選択情報蓄積部24に格納されている素片選択情報に基づいて、素片蓄積部13に格納されている音声素片データの組み合わせを選択し、ステップS28に移行する。
ステップS15では、合成音素列の一部に一致する音素列の素片選択情報が素片選択情報蓄積部24に格納されているか否かを判別する。合成音素列の一部に一致する音素列の素片選択情報が存在すると判断した場合にはステップS17に移行し、そうでないと判断した場合にはステップS18に移行する。
ステップS17では、合成音素列の一部を含む音素列の素片選択情報から、音声素片データの組み合わせの候補をn個選択し、ステップS19に移行する。
ステップS18では、合成音素列を生成するための音声素片データの組み合わせの候補を評価関数(波形辞書)に基づいてn個選択し、ステップS19に移行する。
ステップS19では、選択した音声素片データの組み合わせに対して適否判定を行う際の変数iを初期値1に設定する。
ステップS20では、音声素片データの第i番目の組み合わせによる音声波形を生成する。
ステップS21では、生成された音声波形による合成音声を音声合成部12を介して出力する。
ステップS22では、音声合成部12を介して出力した合成音声の適否判定をユーザから受け付ける。合否判定入力部27を介してユーザが入力する適否判定情報が「適切」である場合にはステップS23に移行し、そうでない場合にはステップS24に移行する。
ステップS23では、現在選択されている第i番目の音声素片データの組み合わせを「最適」として、ステップS27に移行する。
ステップS24では、変数iをインクリメントする。
ステップS25では、変数iの値がnを超えたか否かを判断する。変数iの値がn以下であればステップS20に移行して同様の動作を繰り返し、変数iの値がnを超えたと判断した場合にはステップS26に移行する。
ステップS26では、n個の候補のうちから最良のものを選択する。ここでは、モニタ上にn個の候補を表示しユーザに選択させるように構成することも可能であり、評価関数やその他のパラメータに基づいて最適となる音声素片データの組み合わせを選択するように構成することも可能である。
ステップS27では、最適と判断された音声素片データの組み合わせをその合成音素列の素片選択情報として素片選択情報蓄積部24に格納する。
ステップS28では、選択された音声素片データの組み合わせに基づいて音声波形を生成する。
ステップS29では、合成文字列が終了したか否かを判別する。合成文字列の入力が終了していないと判断した場合にはステップS11に移行して、同様の動作を繰り返し実行し、そうでない場合にはこのルーチンを終了する。
なお、本発明の実施形態に係る音声合成システムおよび音声合成方法を実現するプログラムは、図8に示すように、CD-ROM52やフレキシブルディスク53などの可搬型記録媒体51、通信回線の先に備えられる他の記録装置55、コンピュータ50のハードディスクやRAMなどの記録媒体54のいずれに記録されるものであってもよく、プログラム実行時にはコンピュータ50の主メモリ上にロードされて実行される。
また、本発明に係る音声合成システムにより生成された各種データについても、図8に示すように、CD-ROM52やフレキシブルディスク53などの可搬型記録媒体51だけでなく、通信回線の先に備えられた他の記録装置55、コンピュータ50のハードディスクやRAMなどの記録媒体54のいずれに記憶されるものであってもよく、本発明の音声合成システムを利用する際にコンピュータ50によって読みとられて利用される。
本発明によれば、人間が発声した文章や単語の音声データから音声素片データを選択し、これを接続する方式の音声合成システムにおいて、音声素片データのデータ量の拡大を抑制し、合成音声の品質向上を図ることができる。
また、ユーザがシステムを使用しながら最適の合成音声を作成する枠組みを提供することができ、システム開発者にとっても、あらゆる場合にあてはまるような評価関数のチューニングを検討する必要がなくなり、開発やメンテナンスの省力化を図ることができる。
従来例の概略構成を示す簡略ブロック図である。 本発明の第1の原理を示す概略構成図である。 本発明の第2の原理を示す概略構成図である。 本発明の1実施形態が採用される音声合成システムの制御ブロック図である。 蓄積された音声素片データと素片選択情報の関係を示す説明図である。 素片選択情報の1例を示す説明図である。 本発明の1実施形態の制御フローチャートである。 本発明のプログラムを格納する記録媒体の説明図である。

Claims (3)

  1. 音声合成に必要となる合成パラメータを入力として、蓄積された音声素片データから前記合成パラメータに応じた音声素片データの組み合わせを選択して合成することによって、前記合成パラメータに対する音声波形を生成・出力する音声合成システムであって、
    前記音声素片データを格納する素片蓄積部と、
    任意の音声単位列に対し、前記素片蓄積部に蓄積された音声素片データを用いて構成される音声素片データの組み合わせおよび前記組み合わせが最適であることを示す情報、または不適切であることを示す情報を含む適否情報を備える素片選択情報を格納する素片選択情報蓄積部と、
    入力される合成パラメータに含まれる合成音声単位列と一致する音声単位列であってその音声素片データの組み合わせが最適であるような素片選択情報が前記素片選択情報蓄積部に含まれている場合、該当する音声素片データの組み合わせを選択し、入力される合成パラメータに含まれる合成音声単位列と一致しかつ最適な音声素片データの組み合わせとなる素片選択情報が前記素片選択情報蓄積部に含まれていない場合、所定の選択手段を用いて前記素片蓄積部から音声素片データの組み合わせの候補を作成する素片選択部と、
    前記素片選択部で作成された音声素片データの組み合わせの候補に対するユーザの適否判定を受け付ける合否判定受付部と、
    前記合否判定受付部で受け付けたユーザからの適否判定に基づいて前記素片選択部で作成された音声素片データの組み合わせとその適否情報とを含む素片選択情報を前記素片選択情報蓄積部に格納する素片選択情報編集部と、
    前記素片選択部で選択された音声素片データの組み合わせに基づいて音声波形データを生成・出力する音声合成部と、
    を備える音声合成システム。
  2. 音声合成に必要となる合成パラメータを入力として、蓄積された音声素片データから前記合成パラメータに応じた音声素片データの組み合わせを選択して合成することによって、前記合成パラメータに対する音声波形を生成する音声合成システムが実行する音声合成方法であって、
    音声素片データを格納する段階と、
    任意の音声単位列に対し、前記蓄積された音声素片データを用いて構成される音声素片データの組み合わせおよび前記組み合わせが最適であることを示す情報、または不適切であることを示す情報を含む適否情報を備える素片選択情報を格納する段階と、
    入力される合成パラメータに含まれる合成音声単位列と一致する音声単位列であってその音声素片データの組み合わせが最適であるような素片選択情報が格納されている素片選択情報に含まれている場合、該当する音声素片データの組み合わせを選択し、入力される合成パラメータに含まれる合成音声単位列と一致しかつ最適な音声素片データの組み合わせとなる素片選択情報が格納されている素片選択情報に含まれていない場合、所定の選択手段を用いて音声素片データの組み合わせの候補を作成する段階と、
    任意の合成音声単位列に対し、蓄積された音声素片データを用いて構成される音声素片データの組み合わせの候補を作成する段階と、
    前記作成された音声素片データの組み合わせに対してユーザの適否判定を受け付ける段階と、
    前記ユーザの適否判定に基づいて前記音声素片データの組み合わせおよびその適否情報を素片選択情報として格納する段階と、
    前記音声素片データの組み合わせに基づいて音声波形データを生成する段階と、
    を備える音声合成方法。
  3. 音声合成に必要となる合成パラメータを入力として、蓄積された音声素片データから前記合成パラメータに応じた音声素片データの組み合わせを選択して合成することによって、前記合成パラメータに対する音声波形を生成する音声合成システムが実行する音声合成方法のプログラムであって、
    音声素片データを格納するステップと、
    任意の音声単位列に対し、前記蓄積された音声素片データを用いて構成される音声素片データの組み合わせおよび前記組み合わせが最適であることを示す情報、または不適切であることを示す情報を含む適否情報を備える素片選択情報を格納するステップと、
    入力される合成パラメータに含まれる合成音声単位列と一致する音声単位列であってその音声素片データの組み合わせが最適であるような素片選択情報が格納されている素片選択情報に含まれている場合、該当する音声素片データの組み合わせを選択し、入力される合成パラメータに含まれる合成音声単位列と一致しかつ最適な音声素片データの組み合わせとなる素片選択情報が格納されている素片選択情報に含まれていない場合、所定の選択手段を用いて音声素片データの組み合わせの候補を作成する段階と、
    任意の合成音声単位列に対し、蓄積された音声素片データを用いて構成される音声素片データの組み合わせの候補を作成する段階と、
    前記作成された音声素片データの組み合わせに対してユーザの適否判定を受け付ける段階と、
    前記ユーザの適否判定に基づいて前記音声素片データの組み合わせおよびその適否情報を素片選択情報として格納する段階と、
    前記音声素片データの組み合わせに基づいて音声波形データを生成するステップと、
    を備える音声合成方法をコンピュータに実行させるためのプログラム。
JP2004571300A 2003-04-28 2003-04-28 音声合成システム Expired - Fee Related JP4130190B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2003/005492 WO2004097792A1 (ja) 2003-04-28 2003-04-28 音声合成システム

Publications (2)

Publication Number Publication Date
JPWO2004097792A1 JPWO2004097792A1 (ja) 2006-07-13
JP4130190B2 true JP4130190B2 (ja) 2008-08-06

Family

ID=33398127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004571300A Expired - Fee Related JP4130190B2 (ja) 2003-04-28 2003-04-28 音声合成システム

Country Status (3)

Country Link
US (1) US7143038B2 (ja)
JP (1) JP4130190B2 (ja)
WO (1) WO2004097792A1 (ja)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6192347B1 (en) 1992-10-28 2001-02-20 Graff/Ross Holdings System and methods for computing to support decomposing property into separately valued components
US7505934B1 (en) * 1992-10-28 2009-03-17 Graff/Ross Holdings Llp Computer support for valuing and trading securities that produce mostly tax-exempt income
US20050038734A1 (en) * 1998-09-01 2005-02-17 Graff Richard A. Augmented system and methods for computing to support fractional contingent interests in property
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
JP3895758B2 (ja) * 2004-01-27 2007-03-22 松下電器産業株式会社 音声合成装置
JP2006018133A (ja) * 2004-07-05 2006-01-19 Hitachi Ltd 分散型音声合成システム、端末装置及びコンピュータ・プログラム
WO2006040908A1 (ja) * 2004-10-13 2006-04-20 Matsushita Electric Industrial Co., Ltd. 音声合成装置及び音声合成方法
JP4574333B2 (ja) * 2004-11-17 2010-11-04 株式会社ケンウッド 音声合成装置、音声合成方法及びプログラム
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US8224647B2 (en) * 2005-10-03 2012-07-17 Nuance Communications, Inc. Text-to-speech user's voice cooperative server for instant messaging clients
US8600753B1 (en) * 2005-12-30 2013-12-03 At&T Intellectual Property Ii, L.P. Method and apparatus for combining text to speech and recorded prompts
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080154605A1 (en) * 2006-12-21 2008-06-26 International Business Machines Corporation Adaptive quality adjustments for speech synthesis in a real-time speech processing system based upon load
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
KR101044323B1 (ko) * 2008-02-20 2011-06-29 가부시키가이샤 엔.티.티.도코모 음성 합성용 음성 데이터베이스를 구축하기 위한 통신 시스템, 이를 위한 중계 장치, 및 이를 위한 중계 방법
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8265936B2 (en) * 2008-06-03 2012-09-11 International Business Machines Corporation Methods and system for creating and editing an XML-based speech synthesis document
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US8380508B2 (en) * 2009-06-05 2013-02-19 Microsoft Corporation Local and remote feedback loop for speech synthesis
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
WO2011080855A1 (ja) * 2009-12-28 2011-07-07 三菱電機株式会社 音声信号復元装置および音声信号復元方法
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8401856B2 (en) 2010-05-17 2013-03-19 Avaya Inc. Automatic normalization of spoken syllable duration
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8781836B2 (en) * 2011-02-22 2014-07-15 Apple Inc. Hearing assistance system for providing consistent human speech
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
CN113470640B (zh) 2013-02-07 2022-04-26 苹果公司 数字助理的语音触发器
US20140236602A1 (en) * 2013-02-21 2014-08-21 Utah State University Synthesizing Vowels and Consonants of Speech
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR101809808B1 (ko) 2013-06-13 2017-12-15 애플 인크. 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US8719032B1 (en) 2013-12-11 2014-05-06 Jefferson Audio Video Systems, Inc. Methods for presenting speech blocks from a plurality of audio input data streams to a user in an interface
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN112863496B (zh) * 2019-11-27 2024-04-02 阿里巴巴集团控股有限公司 一种语音端点检测方法以及装置
US11935515B2 (en) * 2020-12-25 2024-03-19 Meca Holdings IP LLC Generating a synthetic voice using neural networks

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59127147A (ja) * 1982-12-29 1984-07-21 Fujitsu Ltd 文章読上げ検査装置
JPH045696A (ja) * 1990-04-23 1992-01-09 Hitachi Ltd 音声辞書編集方法および装置
JPH04167749A (ja) * 1990-10-31 1992-06-15 Toshiba Corp 音声応答装置
JPH04243299A (ja) * 1991-01-18 1992-08-31 Ricoh Co Ltd 音声出力装置
JP3252913B2 (ja) * 1991-07-10 2002-02-04 日本電信電話株式会社 音声規則合成装置
JPH07181995A (ja) 1993-12-22 1995-07-21 Oki Electric Ind Co Ltd 音声合成装置及び音声合成方法
JPH07210186A (ja) * 1994-01-11 1995-08-11 Fujitsu Ltd 音声登録装置
US5864812A (en) * 1994-12-06 1999-01-26 Matsushita Electric Industrial Co., Ltd. Speech synthesizing method and apparatus for combining natural speech segments and synthesized speech segments
US6240384B1 (en) * 1995-12-04 2001-05-29 Kabushiki Kaisha Toshiba Speech synthesis method
JP3050832B2 (ja) 1996-05-15 2000-06-12 株式会社エイ・ティ・アール音声翻訳通信研究所 自然発話音声波形信号接続型音声合成装置
JP2001100777A (ja) * 1999-09-28 2001-04-13 Toshiba Corp 音声合成方法及び装置
EP1256933B1 (en) * 2001-05-11 2007-11-21 Sony France S.A. Method and apparatus for controlling the operation of an emotion synthesising device
US20030093280A1 (en) 2001-07-13 2003-05-15 Pierre-Yves Oudeyer Method and apparatus for synthesising an emotion conveyed on a sound

Also Published As

Publication number Publication date
US7143038B2 (en) 2006-11-28
WO2004097792A1 (ja) 2004-11-11
JPWO2004097792A1 (ja) 2006-07-13
US20050149330A1 (en) 2005-07-07

Similar Documents

Publication Publication Date Title
JP4130190B2 (ja) 音声合成システム
US6778962B1 (en) Speech synthesis with prosodic model data and accent type
US7013278B1 (en) Synthesis-based pre-selection of suitable units for concatenative speech
US7739113B2 (en) Voice synthesizer, voice synthesizing method, and computer program
US7991616B2 (en) Speech synthesizer
US7454343B2 (en) Speech synthesizer, speech synthesizing method, and program
US20080027727A1 (en) Speech synthesis apparatus and method
Lee et al. A text-to-speech platform for variable length optimal unit searching using perception based cost functions
JP4648878B2 (ja) 様式指定型音声合成方法、及び様式指定型音声合成装置とそのプログラムと、その記憶媒体
JP4829605B2 (ja) 音声合成装置および音声合成プログラム
JP4264030B2 (ja) 音声データ選択装置、音声データ選択方法及びプログラム
JP4490818B2 (ja) 定常音響信号のための合成方法
JP3109778B2 (ja) 音声規則合成装置
JP4170819B2 (ja) 音声合成方法及びその装置並びにそのコンピュータプログラム及びそれを記憶した情報記憶媒体
JP5387410B2 (ja) 音声合成装置、音声合成方法および音声合成プログラム
EP1589524B1 (en) Method and device for speech synthesis
JP4209811B2 (ja) 音声選択装置、音声選択方法及びプログラム
KR20100003574A (ko) 음성음원정보 생성 장치 및 시스템, 그리고 이를 이용한음성음원정보 생성 방법
JP3892691B2 (ja) 音声合成方法及びその装置並びに音声合成プログラム
KR100621303B1 (ko) 다단계 합성 단위를 이용한 음성 합성 방법
JP2001249678A (ja) 音声出力装置,音声出力方法および音声出力のためのプログラム記録媒体
JPH11259091A (ja) 音声合成装置及び方法
JP2019168620A (ja) 合成音生成装置、方法、及びプログラム
Breen et al. Using F0 within a Phonologically Motivated Method of Unit Selection
JP2011191634A (ja) 音声合成装置及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080513

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080520

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110530

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120530

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130530

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees