JP7013172B2 - 音声合成辞書配信装置、音声合成配信システムおよびプログラム - Google Patents

音声合成辞書配信装置、音声合成配信システムおよびプログラム Download PDF

Info

Publication number
JP7013172B2
JP7013172B2 JP2017164343A JP2017164343A JP7013172B2 JP 7013172 B2 JP7013172 B2 JP 7013172B2 JP 2017164343 A JP2017164343 A JP 2017164343A JP 2017164343 A JP2017164343 A JP 2017164343A JP 7013172 B2 JP7013172 B2 JP 7013172B2
Authority
JP
Japan
Prior art keywords
dictionary
speaker
voice
identification information
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017164343A
Other languages
English (en)
Other versions
JP2019040166A (ja
Inventor
紘一郎 森
剛 平林
眞弘 森田
大和 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2017164343A priority Critical patent/JP7013172B2/ja
Priority to US16/058,229 priority patent/US10872597B2/en
Priority to CN201810971707.5A priority patent/CN109427325B/zh
Publication of JP2019040166A publication Critical patent/JP2019040166A/ja
Application granted granted Critical
Publication of JP7013172B2 publication Critical patent/JP7013172B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明の実施形態は、音声合成辞書配信装置、音声合成配信システムおよびプログラムに関する。
近年、音声合成技術の発展により、入力したテキストから様々な話者の音声合成音を作成できるようになった。その方法として、(1)対象話者の声を直接モデル化する方法と、(2)パラメータの操作で様々な声を作成可能な方式(後述の固有声、重回帰HSMMなど)で対象話者の声に合うパラメータを算出する方法の、大きく二種類がある。(1)の方法を使用すれば、より対象話者に似た音声合成音を合成可能であり、(2)の方法を使用すれば、1人の話者を表すのに必要なデータサイズが小さく済む。このような音声合成技術の提供形態として、音声合成サービスがある。音声合成サービスとは、音声合成の機能やアプリケーションをWebサービスとして提供するもので、例えば、あるユーザが話者を選択し、その話者に発話させたいテキストを入力すると合成音声が提供されるサービスである。ここで、ユーザとは、音声合成サービスを利用して様々な合成音声を使う側であり、話者とは、音声合成辞書等を生成するために自身の音声を提供し、ユーザに合成音声として使われる側を指す。なお、ユーザが自身の音声を提供すれば、自身を話者として選択することも可能である。
音声合成サービスで多数の話者の音声合成音を提供する場合、(a)ネットワークに接続されたサーバ上で話者を切り替えて作成した音声合成音を端末に送信する方法と、(b)端末で動作する音声合成エンジンに音声合成辞書(以下、辞書)を配信する方法がある。しかし(a)の構成では、端末が常にネットワークに接続していないと音声が合成できない。また(b)の構成では、端末が常時ネットワークに接続している必要はないが、端末のハードウェアスペックにより辞書に対する制約が強くなる。例えば、SNSの読み上げアプリケーションにおいて、端末上で異なる1000人の話者を使いたい場合、各話者の辞書に配信条件(辞書サイズなど)を指定したとしても、結局は1000個の音声合成辞書を端末に配信する必要があり、端末上で1000個の音声合成辞書を保存して管理する必要があった。これだけの数の辞書を端末に配信して管理することはネットワーク帯域や端末の記憶容量を考慮すると非現実的であり、多数の話者を用いるアプリケーションはネットワークに常時接続できない端末上では実現できないという課題があった。
特開2003-29774号公報
本発明が解決しようとする課題は、ハードウェアスペックが限られた端末においても多数の話者の音声合成を可能にする最適な構成の辞書を配信する辞書配信システムを提供することである。
実施形態の音声合成辞書配信装置は、話者の識別情報と前記話者の音響モデルとを関連付けて保存する第1辞書と、複数話者の音声データを利用し作成された汎用的な音響モデルを持つ第2辞書とを記憶すると共に、話者の識別情報と前記第2辞書に用いるための話者のパラメータとを関連付けて記憶する音声合成辞書データベースと、前記第1辞書と前記第2辞書のどちらを使用するか判定する条件判定部と、端末が送信した話者の識別情報を受信し、受信した前記話者の識別情報および前記条件判定部の判定結果に基づき、辞書またはおよびパラメータを配信する送受信部と、を備える。
第一の実施形態に係る音声合成辞書配信システムを表すブロック図。 第一の実施形態に係る辞書配信サーバ100の音声合成辞書DB105に記憶されるデータテーブルの一例。 第一の実施形態に係る端末110の音声合成辞書DB114に記憶されるデータテーブルの一例。 第一の実施形態に係る辞書配信サーバ100の辞書配信の処理フロー。 第一の実施形態に係る辞書配信サーバ100の辞書作成(S401)の処理をより詳細化したフロー。 第一の実施形態に係る端末110の処理フロー。 第一の実施形態に係る端末110の音声合成(S603)の処理をより詳細化した処理フロー。 第二の実施形態における辞書配信サーバ100のブロック図。 第二の実施形態に係る辞書配信サーバ100の辞書配信の処理フロー。 第二の実施形態に係る話者重要度テーブル1001の一例。 第三の実施形態に係る辞書配信サーバ100のブロック図。 第三の実施形態に係る辞書配信サーバ100の辞書配信の処理フロー。 第三の実施形態に係る話者再現度テーブル1401の一例。 第三の実施形態に係る話者再現度の計算方法の一例示す処理フロー。 第四の実施形態に係る音声合成システムを表すブロック図。 第四の実施形態に係る音声合成サーバ1500の処理フロー。 第四の実施形態に係る辞書のロード(S1601)の処理をより詳細化した処理フロー。 第四の実施形態に係る話者リクエスト頻度テーブル1801の一例。
以下、発明を実施するための実施形態について説明する。
(第一の実施形態)
図1は、第一の実施形態に係る音声合成辞書配信システムを表すブロック図である。音声合成辞書配信システムは、辞書配信サーバ100と端末110がネットワーク120を介して接続される。
辞書配信サーバ100は、話者データベース(以下、DB)101と、第1辞書作成部102と、第2辞書作成部103と、条件判定部104と、音声合成辞書DB105と、通信状態測定部106と、送受信部107を備える。端末110は、入力部111と、送受信部112と、辞書管理部113と、音声合成辞書DB114と、合成部115と、出力部116を備える。
話者DB101は、1以上の話者の収録音声と収録テキストが格納されている。この収録音声と収録テキストを用いて第1辞書と第2辞書を作成する。
第1辞書作成部102は、話者DB101に格納された話者の収録音声と当該収録音声の収録テキストから、話者毎の音声合成辞書である第1辞書を作成する。第2辞書作成部103は、話者DB101に格納された1以上の話者の収録音声から第2辞書を作成するとともに、各話者のパラメータを推定する。
第1辞書とはある特定の話者の音声のみを合成できる辞書である。例えば、話者Aの辞書、話者Bの辞書、話者Cの辞書というように話者毎に異なる辞書が存在する。一方、第2辞書とは各話者のパラメータ(N次元ベクトルで表される)を入力することで複数の話者の音声を合成できる汎用的な辞書である。話者Aのパラメータ、話者Bのパラメータ、話者Cのパラメータを第2辞書に入力することで複数の話者の音声を合成できる(詳細は後述する)。
作成した各話者の第1辞書、第2辞書、推定した各話者のパラメータは音声合成辞書DB105に格納する。
音声合成辞書DB105は、例えば図2に示すデータテーブル201を記憶する。データテーブル201は、話者の識別情報である話者ID202、第1辞書のファイル名203、第2辞書で用いる話者パラメータ204を格納する欄を備える。本実施形態では、話者パラメータは0から100の範囲の7次元ベクトルで表され、各数値がその話者の声質の特徴を表す。
条件判定部104は、端末から辞書配信リクエストがあった際に、各話者について第1辞書と第2辞書のどちらを用いるかを判定する。本実施形態では、判定の基準として通信状態測定部106が測定したネットワーク120の通信状態を用いる。送受信部107は、辞書配信サーバ100と端末110間のリクエストの受信や辞書配信を行う。
端末110は、入力部111と、送受信部112と、辞書管理部113と、音声合成辞書DB114と、合成部115と、出力部116を備える。入力部111は、合成するテキストと使用する話者を取得する。送受信部112は、入力部111で取得した話者のリストを辞書配信サーバ100に向けて送信したり、辞書を受信する。
辞書管理部113は、話者リストの話者の第1辞書および第2辞書の話者パラメータが既に辞書配信サーバ100より配信済みか否か、端末の音声合成辞書DB114を参照して判定し、未配信の場合は辞書配信サーバ100に辞書配信リクエストを出す。また、既に第1辞書またはパラメータが辞書配信サーバ100より配信済みの場合は、第1辞書と第2辞書のどちらで音声を合成するか判定する。
端末の音声合成辞書DB114は、例えば図3に示すデータテーブル301を記憶する。データテーブル301は、辞書配信サーバ100へ辞書配信リクエストを出した話者ID302、辞書配信サーバ100から配信された第1辞書のファイル名303、第2辞書で用いる話者パラメータ304を格納する欄を備える。辞書配信サーバ100の音声合成辞書DB108に記憶されたデータテーブル201と異なり、配信されていない第1辞書や話者パラメータの値は空白で表している。辞書管理部113は、音声合成を行う話者IDの第1辞書や話者パラメータが配信済みか否かはデータベースのエントリが空白か否かで判定する。また、音声合成辞書DB114には、データテーブル301とは別に第2辞書も記憶されている。
合成部115は、テキストと、第1辞書あるいは第2辞書とパラメータを用いて音声を合成する。出力部116は合成音を再生する。
図4は、本実施形態に係る辞書配信サーバ100の辞書配信の処理フローである。まず、ユーザが本実施形態に係るシステムを起動したり、ログインした際等に、辞書配信サーバ100の第1辞書作成部102および第2辞書作成部103は、話者DB101を参照し、辞書を作成する(S401)。辞書作成の詳細は、後述する。次に、辞書配信サーバ100の送受信部107は、端末110からの辞書配信リクエストを受信する(S402)。辞書配信のリクエストでは、端末110が音声合成をする話者の話者IDを辞書配信サーバ100に向けて送信する。例えば、端末110で1000人の話者の音声を合成したい場合、辞書配信サーバ100は、1000人分の話者IDを受信する。続いて、通信状態測定部106は、辞書配信サーバ100と端末110との間の通信状態を測定する(S403)。ここで、通信状態とは、条件判定部104における判定で使用される指標であり、例えば、ネットワークの通信速度やネットワーク上の通信量の測定値等を含む。通信状態を判断できるのであれば、どのような指標であっても構わない。
次に、条件判定部104は、S403にて測定した通信状態が閾値以上か未満か判定する(S404)。受信した各話者IDに対して、通信状態が閾値以上で「良い」とされる場合(S404のYes)、送受信部112を通して端末110に第1辞書を配信する。通信状態が閾値未満で「悪い」とされる場合(S404のNo)、送受信部112を通して第1辞書の代わりにパラメータを端末110に配信する。パラメータは辞書に比べてサイズが小さいため通信量を削減することができる。以上により、辞書配信サーバ100の辞書配信の処理フローは終了する。
図5は、本実施形態に係る辞書配信サーバ100の辞書作成(S401)の処理をより詳細化した処理フローである。まず、辞書配信サーバ100の第1辞書作成部102は、各話者の第1辞書を作成するか否か判定する(S501)第1辞書を作成する場合(S501のYes)、例えば、話者DB101に保存された話者のうち第1辞書が作成されていない話者が存在する場合や、あるユーザが本実施形態に係るシステムを初めて使う場合、端末110の入力部111を通して「第1辞書を作り直す」旨の入力があった場合等は、S502へ進む。第1辞書を作成しない場合、例えば、話者が以前にシステムを利用したことがあり、当該話者の第1辞書が既に存在する場合(S501のNo)、第1辞書の作成処理は終了する。
S502では、第1辞書作成部102は、話者DB101を参照し、話者の収録音声と当該音声の収録テキストから当該話者の第1辞書を作成する。ここでは、収録音声から音響特徴量を抽出、収録テキストから言語特徴量を抽出し、言語特徴量から音響特徴量への写像である音響モデルを学習する。そして、1つ以上の音響特徴量(例えば、スペクトル、音高、時間長など)の音響モデルを一つにまとめて第1辞書とする。第1辞書作成方法の詳細は、HMM音声合成(非特許文献1)として一般的に知られているためここでは詳細な説明は省略する。作成した第1辞書は、話者IDと関連付けて音声合成辞書DB105に保存する。
(非特許文献1)K. Tokuda“Speech Synthesis based on Hidden Markov Models,”in Proceedings of the IEEE, vol.101, no.5, pp.1234-1252, 2013.
話者DB101に格納されている話者の収録音声は、例えば、端末110の図示しない表示部に表示した収録テキストを話者が読み上げ、当該話者の読み上げた音声を入力部111より取得し、ネットワーク120を介して辞書配信サーバ100に送信することで、取得した音声と収録テキストを関連付けて話者DB101に保存する。あるいは、辞書配信サーバ100の図示しない入力部より音声を取得しても良い。ここで、収録テキストは予め用意したものを話者DB101あるいは端末110に保存しておいても良いし、話者やシステムの管理者等が端末110の入力部111や辞書配信サーバ100の図示しない入力部より収録テキストを入力しても良い。また、取得した音声を音声認識することでテキスト化し、収録テキストとしても良い。以上により、第1辞書作成処理は終了する。
次に、第2辞書の作成について説明する。まず、ユーザが本実施形態に係るシステムを起動したり、ログインした際に、辞書配信サーバ100の第2辞書作成部103は、第2辞書が存在するか否か判定する(S503)。第2辞書が存在する場合(S503のYes)は、S506へ進む。
第2辞書が存在しない場合(S503のNo)、第2辞書作成部103は、第2辞書を作成する(S504)。ここで、例えば、話者DB105に格納された複数の話者の音響特徴量を用いる。各話者ごとに辞書がある第1辞書と異なり、第2辞書は1つである。第2辞書を作成する方法は固有声(非特許文献2)、重回帰HSMM(非特許文献3)、クラスタ適応学習(非特許文献4)などいくつかの方法が知られているためここでは詳細な説明は省略する。
(非特許文献2)K. Shichiri et al. “Eigenvoices for HMM-based speech synthesis,”in Proceedings ofICSLP-2002.
(非特許文献3)M. Tachibana et al. “A technique for controlling voice quality of synthetic speech using multiple regression HSMM,”in Proceedings of INTERSPEECH 2006.
(非特許文献4)Y. Ohtani et al. “Voice quality control using perceptual expressions for statistical parametric speech synthesis based on cluster adaptive training,”in Proceedings of INTERSPEECH 2016.
第2辞書を作成する際に用いられる話者の音響特徴量は、性別、年齢等バランス良く含まれるのが望ましい。例えば、話者DB101に話者の性別、年齢を含む属性を保存しておき、第2辞書作成部103は、話者DB101に記憶された話者の属性を参照し、属性に偏りがないよう、音響特徴量が使用される話者を選出しても良い。あるいは、話者DB101に記憶された話者の音響特徴量を使用したり、予め用意した話者の音響特徴量を使用することで、システムの管理者等が予め第2辞書を作成しておいても良い。作成した第2辞書は、音声合成辞書DB105に保存する。
続いて、作成した第2辞書を端末110へ送信する(S505)。予め第2辞書を端末110に送信しておくことで、第2辞書を使用する際はパラメータのみ配信すればよい。次に、第2辞書作成部103が話者DB内に保存されている各話者に対して、パラメータが推定済みか否か判定する(S506)。パラメータが推定されている場合(S506のYes)、第2辞書作成処理は終了する。パラメータが推定されていない場合(S506のNo)、第2辞書作成部103は、第2辞書を用いて当該話者のパラメータを推定する(S507)。以上により、第2辞書作成処理は終了する。
パラメータの推定は、第2辞書の作成方法によって詳細が異なるが、公知であるため、詳細な説明は省略する。例えば、第2辞書の作成に固有声を用いた場合は、各固有ベクトルの固有値がパラメータになる。推定したパラメータは、話者IDと関連付けて音声合成辞書DB108に保存する。ここで、第2辞書の作成方法に固有声を用いた場合は、7次元ベクトルの各軸は人が解釈できるような意味は持たないが、例えば重回帰HSMMやクラスタ適応学習を用いた場合は、7次元ベクトルの各軸は声の明るさ、柔らかさなどの人が解釈可能な意味を持たせることができる。つまりパラメータとは、話者の音声の特徴を表す係数である。パラメータは、第2辞書に適用した際に話者の音声の近似が可能であれば、どのようなものであっても構わない。
なお、第2辞書は、話者が一定数増えた場合や、一定期間毎に周期的に更新されても良い。その際、パラメータの再調整が必要となるため、全ての話者のパラメータの再調整を行っても良いし、第2辞書およびパラメータのバージョンを管理することで、パラメータのバージョンに対応する第2辞書を使用し、音声合成を実現しても良い。
このように、第1辞書は話者ごとに専用の音響モデルを学習するため話者再現性が高いという利点がある。しかし、話者一人あたりの辞書サイズが大きく、アプリケーションで多くの話者を使用したい場合はその人数分の辞書をあらかじめ端末に配信しなければならない。一方、第2辞書の特徴は、一つの辞書に対してパラメータを入力するだけで任意の話者の合成音を作れるため話者一人あたりの辞書サイズが小さいという利点がある。さらに、予め端末に第2辞書を送信しておけば、非常にサイズが小さいパラメータのみを配信するだけで端末上で多くの話者の音声を合成できる。しかし、パラメータはあくまで近似であるため第1辞書に比べると話者再現性が低い可能性がある。本実施形態では、第1辞書と第2辞書という特徴の異なる複数の辞書を使い分けることで、端末のハードウェアスペックに依存せず、多数の話者の音声を合成可能にする。
図6は、本実施形態に係る端末110の処理フローである。まず、端末110は、音声合成したい話者について辞書配信サーバ100へ話者IDを送信し、辞書配信のリクエストを行う(S601)。端末110の送受信部112は、現在のネットワークの通信状態の測定結果に基づいて辞書配信サーバ100が送信した第1辞書またはパラメータを受信し、音声合成辞書DB114に保存する(S602)。ここまでの処理は端末がネットワークに接続されている状態で行う必要があるが、ネットワークの通信状態に応じて適切な辞書が配信される。次に、音声合成を行う(S603)。この音声合成処理はすでに第1辞書、第2辞書とパラメータを受信済みであることを想定しているためネットワークに接続していなくても実行できる。
図7は、本実施形態に係る端末110の音声合成(S603)の処理をより詳細化した処理フローである。まず、端末110は、入力部111から合成するテキストを取得する(S701)。ここで、例えば、ユーザが合成したいテキストを入力してもよいし、SNSのようなアプリケーションでは合成したいテキストを選択するだけでもよい。次に、合成したい話者を指定する(S702)。ここでも、例えば、ユーザが話者リストから選択する方式でもよいし、事前にテキストと話者が関連付けられていれば、関連付けられた話者を自動的に指定してもよい。
次に、辞書管理部113は、音声合成辞書DB114を参照し、第1辞書が配信済みであるか否か判定する(S703)。第1辞書が配信済みであれば(S703のYes)、合成部115が第1辞書で音声を合成する(S704)。第1辞書がなく、パラメータのみ配信されていれば(S703のNo)、合成部115は第2辞書とパラメータを用いて音声を合成する(S705)。第1辞書とパラメータのどちらも配信されている場合は、話者再現性が高い第1辞書を優先させる。ただし、端末のハードウェアスペック(たとえば、辞書をロードするメモリ)が不足している場合等はパラメータを優先させてもよい。
この段階では、使いたい話者はすべて第1辞書またはパラメータが配信済みであると仮定しているが、どちらも配信されていない場合は、次回ネットワークに接続したときに自動的に必要な話者をダウンロードするようにキューを用意してもよい。また、通信状態が非常によく常時接続が期待できるときは従来手法と同様に第1辞書を配信せずにサーバ側で音声を合成し、音声のみを配信する構成と組み合わせてもよい。
続いて、出力部116は、合成部115にて合成した音声を再生する(S706)。次に、入力部111は、音声合成を続けるか否かのリクエスト信号を取得する(S707)。例えば、ユーザが合成音声を気に入らなかった場合や、他の話者の合成音声を取得したい場合等、合成を続ける場合、ユーザは入力部111から「合成を続ける」旨のリクエスト信号を入力する(S706のYes)。入力部111は「音声合成を続ける」旨のリクエスト信号を取得し、S701へ進む。合成を終了する場合、ユーザは入力部111から「システムを終了する」旨のリクエスト信号を入力する(S706のNo)。入力部111は「システムの終了する」旨のリクエスト信号を受信し、音声合成処理は終了する。ここで、一定時間以上ユーザの操作がない場合にも、音声合成処理を終了しても良い。また、ユーザがリクエスト信号を入力する際に、例えば、端末110の図示しない表示部に選択ボタンが設けられており、選択ボタンをタップすることによりリクエスト信号の入力を行っても良い。
本実施形態における音声合成辞書配信システムは、サーバと端末をつなぐネットワークの通信状態に基づいて第1辞書(1辞書で1話者のみ合成可能、話者再現性が高い)と第2辞書(1辞書で多数話者合成可能、第1辞書と比較すると話者再現性が低い)を動的に切り替えて端末に辞書を配信するシステムである。これにより、通信状態が良い場合には、話者再現性は高いが1話者あたりの通信量が大きい第1辞書を配信し、通信状態が悪い場合には、話者再現性は低いが通信量が小さい第2辞書の話者パラメータのみを配信することで、話者再現性をなるべく維持したまま多数の話者の音声を端末上で合成できる。
本実施の形態によれば入力部において1000話者をサーバに要求することも可能である。その場合、最初にサイズが小さいパラメータのみを一括でダウンロードして第2辞書を用いて合成し、通信状態がよくなったら順次話者再現性が高い第1辞書で置き換えていくといった使い方も可能である。また本実施の形態の亜種として、ネットワークの通信状態だけでなく、ユーザのネットワーク使用量の制限を考慮してもよい。たとえば、当月のネットワーク使用量を考慮して第1辞書と第2辞書を切り替えることも可能である。
本実施の形態によれば、ネットワークへの接続が制限された端末においても、話者再現性をなるべく維持したまま多数の話者の音声を端末上で合成できる。
(第二の実施形態)
図8は、第二の実施形態における辞書配信サーバ100のブロック図である。第一の実施形態と同じモジュールは同一番号を付与している。本実施形態では、第1の実施形態の通信状態測定部106が話者重要度計算部800に置き換わる。話者重要度計算部800は、端末110が要求した話者と付帯情報から話者の重要度を計算する。
図9は、本実施形態に係る辞書配信サーバ100の辞書配信の処理フローである。辞書作成の処理フロー、端末の処理フロー、音声合成の処理フローは第1の実施形態と同一であるため、ここでは省略する。第一の実施形態と同じステップは、同一のステップ番号を付与している。異なる点は、ユーザの端末110から話者IDだけでなく、重要度を算出するために必要な付帯情報を送受信部107が受信し(S901)、話者重要度計算部800は、受信した付帯情報を用いて、当該ユーザと各話者間との重要度を計算する(S902)点である。計算した話者重要度は、音声合成辞書DB108に保存する。話者重要度はユーザによって異なるため、ユーザ毎に保存する必要がある。そして、条件判定部104が、第1辞書とパラメータのどちらを配信するか否か判定する条件として話者重要度を用いる(S903)。例えば、話者重要度が予め指定した閾値以上であった場合(S903のYes)に第1辞書を配信し(S405)、閾値未満であった場合(S902のNo)パラメータを配信する(S406)。以上により、本実施形態に係る辞書配信サーバ100の辞書配信の処理フローは終了する。
音声合成辞書DB105は、各ユーザの話者重要度を保持したデータテーブルである話者重要度テーブル1001をさらに記憶する。話者重要度テーブル1001の一例を図10に示す。話者重要度テーブル1001は少なくとも、話者ID1002と、各ユーザの話者重要度1003を関連付けて格納する。この例では、話者重要度は0から100の範囲の数値で表され、値が大きいほど当該話者の重要度が高いと判定される。
例えば、ユーザ1にとって話者1、話者2、話者4の話者重要度がそれぞれ100、85、90であり、ユーザ1にとって重要な話者であるが、それ以外の話者はあまり重要でないことを表している。閾値を50とすると話者1、話者2、話者4の音声を合成するときは話者再現性が高い第1辞書を配信し、それ以外の話者を合成するときはパラメータのみを配信し、第2辞書を用いて合成する。
話者重要度の計算方法はアプリケーションによって大きく異なる。ここでは、一例としてSNSのタイムラインの読み上げを考える。前提として当該SNSに登録されているユーザ各々に対し、サーバの音声合成辞書DB105に対応する話者(必ずしも本人の声である必要はない)が登録されていると仮定する。このようなアプリケーションでは、端末は付帯情報としてフォローユーザの情報やタイムライン上に上がるユーザの頻度情報をサーバに送信すればよい。辞書配信サーバでは、当該ユーザがフォローしているユーザの話者重要度が高いと判定したり、タイムライン上によく出現するユーザほど話者重要度が高いと判定したりできる。また、このような付帯情報から自動判定する以外にユーザが重要だと考えるユーザを直接指定できるようにしてもよい。
本実施の形態によれば、ネットワークへの接続が制限された端末においても、ユーザが特に重要だと考える話者の再現性をなるべく維持したまま多数の話者の音声を端末上で合成できる。
本実施形態における音声合成辞書配信システムは、話者の重要度に基づいて第1辞書と第2辞書を動的に切り替えて端末に辞書を配信するシステムである。これにより、重要度の高い話者は辞書サイズは大きいが話者類似性が高い第1辞書でそれ以外の話者は辞書サイズは小さいが話者類似性が低い第2辞書で音声を再生することができ、話者再現性をなるべく維持したまま多数の話者の音声を端末上で合成できる。
(第三の実施形態)
図11は、第三の実施形態に係る辞書配信サーバ100のブロック図である。第一の実施形態と同じモジュールは同一番号を付与している。本実施形態では、第一の実施形態の通信状態測定部106が話者再現度計算部1100に置き換わる。話者再現度計算部1100は、端末が要求した話者の第2辞書を用いて、パラメータから生成した合成音が元の肉声にどれだけ近いかを算出する。
図12は、本実施形態に係る辞書配信サーバ100の辞書配信の処理フローである。辞書作成の処理フロー、端末の処理フロー、音声合成の処理フローは第1の実施形態と同一であるため、ここでは省略する。第一の実施形態と同じステップは、同一のステップ番号を付与している。異なる点は、話者の辞書作成(S401)の後に、話者再現度計算部1102が各話者の話者再現度を計算する点である(S1201)。話者再現度とは、第2辞書を用いてパラメータから生成した合成音が元の肉声にどれだけ近いかを表す指標である。算出した話者再現度は、音声合成辞書DB105に保存する。
図14は、各話者の話者再現度を保持したデータテーブルである話者再現度テーブル1401の一例である。話者再現度テーブル1401には、少なくとも話者ID1402と各ユーザの話者再現度1403が関連づけて格納される。この例では、話者再現度は0から100の範囲の数値で表され、値が大きいほどその話者再現度が高いと判断する。そして、条件判定部104が、第1辞書とパラメータのどちらを配信するか判定する条件として算出した話者再現度を用いる(S1202)。
例えば、話者再現度が予め指定した閾値より小さかった場合(S1202のYes)、第2辞書とパラメータでは十分な話者性を再現できていないため、第1辞書を配信し(S405)、閾値以上であった場合(S1202のNo)、パラメータで話者性を十分近似できているため、パラメータを配信する(S406)。たとえば、図14の例で閾値を70とした場合、話者再現度が閾値より高い話者1、話者5、話者9はパラメータによる再現度が十分高いためパラメータを配信し、それ以外の話者はパラメータで十分な話者再現度が得られなかったため第1辞書を配信すればよい。以上により、本実施形態に係る辞書配信サーバ100の辞書配信の処理フローは終了する。
図13は、S1201における話者再現度の計算方法の一例示す処理フローである。まず、各話者の話者再現度を計算するために話者DB101を参照し、各々の話者が使用した収録テキストに対応する収録音声から、各々の音響特徴量を抽出する(S1301)。音響特徴量は、例えば声色を表すメルLSP、声の高さを表すLF0などがある。次に、第2辞書と各話者のパラメータから、各々の話者が使用した収録テキストの音響特徴量を生成する(S1302)。ここでは、音響特徴量の比較を行いたいため、音響特徴量から合成音を生成する必要はない。続いて、肉声から抽出した音響特徴量と第2辞書から生成した音響特徴量間の距離を求める(S1303)。例えば、ユークリッド距離などが使用される。最後に、全テキストの距離を平均化し、逆数を取ることで距離を類似度(話者再現度)に変換する(S1304)。話者再現度が大きいほど元の話者の肉声と第2辞書から生成した合成音が近く、第2辞書とパラメータによって元話者の肉声が十分再現できたことを意味する。
第2辞書から推定したパラメータは、元話者の声質特徴の近似であるが、話者によってその近似精度が異なることがわかっている。第2辞書を作成するのに用いた話者DB101に声質が類似する話者が多いほどその近似精度は高くなり、第2辞書とパラメータを用いて対象話者の話者性が十分に再現できることが知られている。
本実施の形態によれば、ネットワークへの接続が制限された端末においても、話者再現性が高い話者はパラメータで配信することでネットワークの通信量が抑えられ多数の話者の音声を端末上で合成できる。
本実施形態における音声合成辞書配信システムは、第2辞書で合成した際の話者再現性に基づいて第1辞書と第2辞書を動的に切り替えて端末に辞書を配信するシステムである。これにより、第2辞書での話者再現性の高い話者はサイズが小さいパラメータでそれ以外の話者は第1辞書を用いることで、話者再現性をなるべく維持したまま多数の話者の音声を端末上で合成できる。
(第四の実施形態)
図15は、本実施形態に係る音声合成システムを表すブロック図である。第1の実施形態と同じモジュールは同一番号を付与している。本実施形態では、端末110側にあった合成部115が音声合成サーバ1500側に移動し、条件判定部104が辞書構成部1501に置き換わる。辞書構成部1501は、例えば音声合成サーバ1500のサーバ負荷や話者の重要度に応じて第1辞書と第2辞書のメモリ上への配置や使用を動的に切り替える。音声合成部1502は、第1辞書または第2辞書を使用して合成した音声を送受信部107を通して端末に配信する。本実施形態において端末110には、音声合成部1502がなく、送受信部112が受信した音声を出力部116で再生する。
図16は、本実施形態に係る音声合成サーバ1500の処理フローである。ここで、本実施形態では、予め各話者の第1辞書、第2辞書とパラメータは作成されており、音声合成DB105に保存されているとする。あるいは、後述する辞書のロード(S1601)を開始する前に、第一の実施形態と同じフローにより作成しても良い。
まず、辞書構成部1501は、音声合成辞書DB105の辞書を音声合成サーバ1500のメモリにロードする(S1601)。次に、音声合成サーバ1500の送受信部107は、端末110から音声合成のリクエストを受信する(S1602)。音声合成のリクエストとは、端末110が音声合成を要求している話者の話者IDを音声合成サーバ1500に向けて送信する。続いて、辞書構成部1501が、端末110から要求された話者の第1辞書がメモリにロード済みか否か判定する(S1603)。ロード済みであった場合(S1603のYes)は、音声合成部1502が、第1辞書で音声を合成する(S1608)。もし、メモリ上にロードされていなかった場合(S1603のNo)は、辞書構成部1501が、現在のサーバ負荷を測定する(S1604)。ここで、サーバ負荷とは、辞書構成部150 における判定で使用される指標であり、例えば、音声合成サーバ1500内のメモリの空き容量や、音声合成サーバ1500に接続している端末110の数等に基づいて算出される。サーバ負荷を判断できるのであれば、どのような指標であっても構わない。
サーバ負荷が閾値以上だった場合(S1605のYES)は、第1辞書を用いた音声合成処理はできないと判定し、辞書構成部1502が、端末からリクエストがあった話者のパラメータをロード(S1609)し、第2辞書とパラメータを用いて合成部115が音声を合成する(S1610)。もし、サーバ負荷が閾値より小さかった場合(S1605のNO)は、メモリにこれ以上第1辞書をロードできないため辞書構成部1502が話者リクエスト頻度(後述)のもっとも低い第1辞書をメモリからアンロードする(S1606)。そして、端末からリクエストがあった話者の第1辞書をメモリにロードし(S1607)、合成部115がメモリにロードした第1辞書で音声を合成する(S1608)。第1辞書または第2辞書で合成した音声は送受信部107を通してサーバから端末に配信する(S1611)。以上により、音声合成サーバ1500の処理フローは終了する。
図17は、辞書のロード(S1601)の処理をより詳細化した処理フローである。まず、音声合成サーバ1500内のメモリに第2辞書をロードする(S1701)。次に、話者リクエスト頻度を取得する(S1702)。話者リクエスト頻度とは、話者毎に音声合成のリクエストがあった頻度を示したデータテーブルであり、その一例を図18に示す。図18に示す話者リクエスト頻度テーブル1801は、少なくとも話者IDとリクエスト頻度(端末110から音声合成のリクエストがあった回数)1703を関連づけて保存する。リクエスト頻度1703は、ユーザからの音声合成リクエスト(S1602)を受信するたびにリクエストがあった話者のカウントを増やす。カウントを増やすだけではなく、定期的に頻度をリセットしたり、時間経過によって頻度が徐々に減衰するような工夫を取り入れることもできるが、ここでは省略する。
次に、話者リクエスト頻度の降順に話者IDをソートする(S1703)。そして、話者リクエスト頻度が高い話者からメモリに第1辞書をロードする(S1704)。以上により辞書のロードの処理フローは終了する。ここでは、音声合成辞書DB105に格納されているすべての話者の第1辞書をメモリ上にロードできないと仮定している。そのため、話者リクエスト頻度が高い話者を優先的にメモリにロードすることで音声合成の処理効率を上げられる。
本実施形態における音声合成辞書配信システムは、従来システムと同様にサーバ側で音声を合成し、音声のみを端末に配信する構成である。通常、このような構成ではサーバのレスポンスをよくするためあらかじめ合成に必要な辞書をメモリにロードしておくことが一般的に行われている。しかし、サーバ上で多数の話者を提供する場合、あらかじめすべての話者の辞書をメモリにロードしておくことはハードウェアスペックの観点から困難である。
本実施形態では話者の重要度に応じてメモリ上にロードする第1辞書と第2辞書の使用を動的に切り替えてサーバのレスポンスと話者再現性を両立することで多数の話者の音声合成を可能にする。
尚、上記の実施形態に記載した手法は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、光磁気ディスク(MO)、半導体メモリ等の記憶媒体に格納して頒布することもできる。
ここで、記憶媒体としては、プログラムを記憶でき、且つコンピュータが読み取り可能な記憶媒体であれば、その記憶形式は何れの形態であってもよい。
また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワークソフト等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行しても良い。
さらに、本実施形態における記憶媒体は、コンピュータと独立した媒体に限らず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
また、記憶媒体は1つに限らず、複数の媒体から本実施形態における処理が実行される場合も本実施形態における記憶媒体に含まれ、媒体構成は何れの構成であっても良い。
尚、本実施形態におけるコンピュータとは、記憶媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するものであって、パソコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であっても良い。
また、本実施形態の各記憶装置は1つの記憶装置で実現しても良いし、複数の記憶装置で実現しても良い。
そして、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態の機能を実現することが可能な機器、装置を総称している。
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、説明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100…辞書配信サーバ
101…話者DB
102…第1辞書作成部
103…第2辞書作成部
104…条件判定部
105…音声合成辞書DB
106…通信状態測定部
107…送受信部
110…端末
111…入力部
112…送受信部
113…辞書管理部
114…音声合成辞書DB
115…合成部
116…出力部
120…ネットワーク
201…辞書配信サーバ100の音声合成辞書DB105に記憶されるデータテーブル
202…話者ID欄
203…第1辞書ファイル名欄
204…第2辞書で用いる話者パラメータ欄
301…端末110の音声合成辞書DB114に記憶されるデータテーブル
302…話者ID欄
303…第1辞書ファイル名欄
304…第2辞書で用いる話者パラメータ欄
800…話者重要度計算部
1001…話者重要度テーブル
1002…話者ID欄
1003…ユーザ欄
1100…話者再現度計算部
1401…話者再現度テーブル
1402…話者ID欄
1403…話者再現度欄
1500…音声合成サーバ
1501…辞書構成部
1502…音声合成部
1801…話者リクエスト頻度テーブル
1802…話者ID欄
1803…リクエスト頻度欄

Claims (9)

  1. 音声合成を行うための辞書を端末に配信する音声合成辞書配信装置であって、 話者の
    識別情報と前記話者の音響モデルとを関連付けて保存する第1辞書と、複数話者の音声デ
    ータを利用し作成された汎用的な音響モデルを持つ第2辞書とを記憶すると共に、話者の
    識別情報と前記第2辞書に用いるための話者のパラメータとを関連付けて記憶する音声合
    成辞書データベースと、前記第1辞書と前記第2辞書のどちらを使用するか判定する条件
    判定部と、端末が送信した話者の識別情報を受信し、受信した前記話者の識別情報および
    前記条件判定部の判定結果に基づき、辞書またはおよびパラメータを配信する送受信部と
    、を備える音声合成辞書配信装置。
  2. 複数話者の音声データを利用し作成された汎用的な音響モデルを持つ第2辞書が記憶され
    た端末に、音声合成を行うための辞書を配信する音声合成辞書配信装置であって、 話
    者の識別情報と前記話者の音響モデルとを関連付けて保存する第1辞書を記憶すると共に
    、話者の識別情報と前記第2辞書に用いるための話者のパラメータとを関連付けて保存す
    る音声合成辞書データベースと、前記第1辞書と前記第2辞書のどちらを使用するか判定
    する条件判定部と、端末が送信した話者の識別情報を受信し、受信した前記話者の識別情
    報および前記条件判定部の判定結果に基づき、前記第1辞書またはおよびパラメータを配
    信する送受信部と、を備える音声合成辞書配信装置。
  3. 前記音声合成辞書配信装置は、ネットワークの通信状態を測定する通信状態測定部を備え
    、前記条件判定部は、前記通信状態測定部の測定結果に基づいて、使用する辞書を判定す
    る、請求項1または請求項2に記載の音声合成辞書配信装置。
  4. 前記音声合成配信装置は、話者の重要度を算出する話者重要度計算部を備え、前記条件判
    定部は、前記話者重要度計算部の算出結果に基づいて、使用する辞書を判定する、請求項
    1ないし請求項3いずれかに記載の音声合成辞書配信装置。
  5. 前記音声合成配信装置は、辞書に基づいて合成された音響特徴量と話者の肉声から抽出し
    た音響特徴量とを比較し、再現度を算出する話者再現度計算部を備え、前記条件判定部は
    、前記再現度計算部の算出結果に基づいて、使用する辞書を判定する、請求項1ないし請
    求項4のいずれかに記載の音声合成辞書配信装置。
  6. 合成音声を端末に配信する音声合成辞書配信装置であって、 話者の識別情報と前記話者
    の音響モデルとを関連付けて保存する第1辞書と、複数話者の音声データを利用し作成さ
    れた汎用的な音響モデルを持つ第2辞書とを記憶すると共に、話者の識別情報と前記第2
    辞書に用いるための話者のパラメータとを関連付けて記憶する音声合成辞書データベース
    と、端末が送信した話者の識別情報を受信する送受信部と、前記音声合成辞書データベー
    スを参照し、メモリにロードする辞書またはおよびパラメータを選択する辞書構成部と、
    前記辞書構成部で選択された辞書を利用して音声を合成する音声合成部と、を備え、前記
    送受信部はさらに、前記音声合成部で合成した音声を端末に配信する音声合成辞書配信装
    置。
  7. 音声合成を行うための辞書を端末に配信する音声合成辞書配信装置で実行されるプログラ
    ムであって、 話者の識別情報と前記話者の音響モデルとを関連付けて保存する第1辞書
    と、複数話者の音声データを利用し作成された汎用的な音響モデルを持つ第2辞書とを記
    憶すると共に、話者の識別情報と前記第2辞書に用いるための話者のパラメータとを関連
    付けて記憶する記憶機能と、前記記憶機能によって記憶された辞書を参照し、使用する辞
    書を判定する条件判定機能と、端末が送信した話者の識別情報を受信し、受信した前記話
    者の識別情報および前記条件判定部の判定結果に基づき、辞書またはおよびパラメータを
    配信する送受信機能と、を備えることをコンピュータに実現させる、音声合成辞書配信プ
    ログラム。
  8. 複数話者の音声データを利用し作成された汎用的な音響モデルを持つ第2辞書が記憶され
    た端末に、音声合成を行うための辞書を配信する音声合成辞書配信装置で実行されるプロ
    グラムであって、 話者の識別情報と前記話者の音響モデルとを関連付けて保存する第1
    辞書を記憶すると共に、話者の識別情報と前記第2辞書に用いるための話者のパラメータ
    とを関連付けて記憶する記憶機能と、前記記憶機能によって記憶された辞書を参照し、使
    用する辞書を判定する条件判定機能と、端末が送信した話者の識別情報を受信し、受信し
    た前記話者の識別情報および前記条件判定部の判定結果に基づき、辞書またはおよびパラ
    メータを配信する送受信機能と、を備えることをコンピュータに実現させる、音声合成辞
    書配信プログラム。
  9. 合成音声を端末に配信する音声合成装置で実行されるプログラムであって、 話者の識別
    情報と前記話者の音響モデルとを関連付けて保存する第1辞書と、複数話者の音声データ
    を利用し作成された汎用的な音響モデルを持つ第2辞書とを記憶すると共に、話者の識別
    情報と前記第2辞書に用いるための話者のパラメータとを関連付けて記憶する記憶機能と
    、端末が送信した話者の識別情報を受信する送受信機能と、前記記憶機能によって記憶さ
    れた辞書を参照し、メモリにロードするまたはおよびパラメータを選択する辞書構成機能
    と、前記辞書構成機能で選択された辞書を利用して音声を合成する音声合成機能と、を備
    え、前記送受信機能はさらに、前記音声合成機能で合成した音声を端末に配信することを
    コンピュータに実現させる、音声合成プログラム。
JP2017164343A 2017-08-29 2017-08-29 音声合成辞書配信装置、音声合成配信システムおよびプログラム Active JP7013172B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017164343A JP7013172B2 (ja) 2017-08-29 2017-08-29 音声合成辞書配信装置、音声合成配信システムおよびプログラム
US16/058,229 US10872597B2 (en) 2017-08-29 2018-08-08 Speech synthesis dictionary delivery device, speech synthesis system, and program storage medium
CN201810971707.5A CN109427325B (zh) 2017-08-29 2018-08-24 语音合成字典分发装置、语音合成系统以及程序存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017164343A JP7013172B2 (ja) 2017-08-29 2017-08-29 音声合成辞書配信装置、音声合成配信システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2019040166A JP2019040166A (ja) 2019-03-14
JP7013172B2 true JP7013172B2 (ja) 2022-01-31

Family

ID=65435461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017164343A Active JP7013172B2 (ja) 2017-08-29 2017-08-29 音声合成辞書配信装置、音声合成配信システムおよびプログラム

Country Status (3)

Country Link
US (1) US10872597B2 (ja)
JP (1) JP7013172B2 (ja)
CN (1) CN109427325B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3690875B1 (en) 2018-04-12 2024-03-20 Spotify AB Training and testing utterance-based frameworks
CN110060656B (zh) * 2019-05-05 2021-12-10 标贝(北京)科技有限公司 模型管理和语音合成方法、装置和系统及存储介质
CN110379407B (zh) * 2019-07-22 2021-10-19 出门问问(苏州)信息科技有限公司 自适应语音合成方法、装置、可读存储介质及计算设备
US11373633B2 (en) * 2019-09-27 2022-06-28 Amazon Technologies, Inc. Text-to-speech processing using input voice characteristic data
JP2022061363A (ja) * 2020-10-06 2022-04-18 シャープ株式会社 音声メッセージ付画像の生成制御装置および生成方法
US20220189455A1 (en) * 2020-12-14 2022-06-16 Speech Morphing Systems, Inc Method and system for synthesizing cross-lingual speech

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003029774A (ja) 2001-07-19 2003-01-31 Matsushita Electric Ind Co Ltd 音声波形辞書配信システム、音声波形辞書作成装置、及び音声合成端末装置
JP2013072903A (ja) 2011-09-26 2013-04-22 Toshiba Corp 合成辞書作成装置および合成辞書作成方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5033087A (en) * 1989-03-14 1991-07-16 International Business Machines Corp. Method and apparatus for the automatic determination of phonological rules as for a continuous speech recognition system
US6847931B2 (en) * 2002-01-29 2005-01-25 Lessac Technology, Inc. Expressive parsing in computerized conversion of text to speech
JP2003058180A (ja) * 2001-06-08 2003-02-28 Matsushita Electric Ind Co Ltd 合成音販売システムおよび音素の著作権認定システム
KR100486733B1 (ko) * 2003-02-24 2005-05-03 삼성전자주식회사 음소 결합정보를 이용한 연속 음성인식방법 및 장치
ATE381755T1 (de) * 2003-06-02 2008-01-15 Ibm Sprach-antwortsystem, sprach-antwortverfahren, sprach-server, sprach-datei- verarbeitungsverfahren, programm und aufzeichnungsmedium
WO2006104988A1 (en) * 2005-03-28 2006-10-05 Lessac Technologies, Inc. Hybrid speech synthesizer, method and use
US8180630B2 (en) * 2008-06-06 2012-05-15 Zi Corporation Of Canada, Inc. Systems and methods for an automated personalized dictionary generator for portable devices
KR100998566B1 (ko) * 2008-08-11 2010-12-07 엘지전자 주식회사 음성인식을 이용한 언어 번역 방법 및 장치
JP5334178B2 (ja) * 2009-01-21 2013-11-06 クラリオン株式会社 音声認識装置およびデータ更新方法
US9922641B1 (en) * 2012-10-01 2018-03-20 Google Llc Cross-lingual speaker adaptation for multi-lingual speech synthesis
US9977779B2 (en) * 2013-03-14 2018-05-22 Apple Inc. Automatic supplementation of word correction dictionaries
KR20140120560A (ko) * 2013-04-03 2014-10-14 삼성전자주식회사 통역 장치 제어 방법, 통역 서버의 제어 방법, 통역 시스템의 제어 방법 및 사용자 단말
JP6266372B2 (ja) * 2014-02-10 2018-01-24 株式会社東芝 音声合成辞書生成装置、音声合成辞書生成方法およびプログラム
JP6392012B2 (ja) * 2014-07-14 2018-09-19 株式会社東芝 音声合成辞書作成装置、音声合成装置、音声合成辞書作成方法及び音声合成辞書作成プログラム
JP6052814B2 (ja) * 2014-09-24 2016-12-27 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 音声認識モデルの構築方法、音声認識方法、コンピュータ・システム、音声認識装置、プログラムおよび記録媒体
US10255907B2 (en) * 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
JP6523893B2 (ja) 2015-09-16 2019-06-05 株式会社東芝 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003029774A (ja) 2001-07-19 2003-01-31 Matsushita Electric Ind Co Ltd 音声波形辞書配信システム、音声波形辞書作成装置、及び音声合成端末装置
JP2013072903A (ja) 2011-09-26 2013-04-22 Toshiba Corp 合成辞書作成装置および合成辞書作成方法

Also Published As

Publication number Publication date
US10872597B2 (en) 2020-12-22
CN109427325A (zh) 2019-03-05
CN109427325B (zh) 2022-11-18
JP2019040166A (ja) 2019-03-14
US20190066656A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
JP7013172B2 (ja) 音声合成辞書配信装置、音声合成配信システムおよびプログラム
WO2019101083A1 (zh) 一种语音数据处理方法、语音交互设备及存储介质
JP7121461B2 (ja) コンピュータシステム、音声認識方法及びプログラム
JP4369132B2 (ja) 話者音声のバックグランド学習
US20170140755A1 (en) Interaction assistant
JP7283496B2 (ja) 情報処理方法、情報処理装置およびプログラム
US20090254349A1 (en) Speech synthesizer
US11646026B2 (en) Information processing system, and information processing method
JP2015180966A (ja) 音声処理システム
WO2004047076A1 (ja) 標準モデル作成装置及び標準モデル作成方法
US10224030B1 (en) Dynamic gazetteers for personalized entity recognition
JP2020067658A (ja) 音声を認識する装置及び方法、音声認識モデルをトレーニングする装置及び方法
JP7347217B2 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
US11756571B2 (en) Apparatus that identifies a scene type and method for identifying a scene type
JP2015148701A (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN114528812A (zh) 一种语音识别方法、系统、计算设备及存储介质
JP2014109998A (ja) 対話装置及びコンピュータ対話方法
JP2018138987A (ja) 情報処理装置および情報処理方法
CN111916065B (zh) 用于处理语音的方法和装置
KR102623459B1 (ko) 사용자의 보컬 평가에 기반한 오디션 이벤트 서비스 제공 방법, 장치 및 시스템
WO2023210340A1 (ja) 学習装置および学習方法
US11514920B2 (en) Method and system for determining speaker-user of voice-controllable device
US12020690B1 (en) Adaptive targeting for proactive voice notifications
CN113220913B (zh) 多媒体文件处理方法、装置和交互系统
KR102479899B1 (ko) 음성 합성 서비스를 제공하는 서버, 단말 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220119

R150 Certificate of patent or registration of utility model

Ref document number: 7013172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150