JP2014048443A - 音声合成システム、音声合成方法及び音声合成プログラム - Google Patents

音声合成システム、音声合成方法及び音声合成プログラム Download PDF

Info

Publication number
JP2014048443A
JP2014048443A JP2012190946A JP2012190946A JP2014048443A JP 2014048443 A JP2014048443 A JP 2014048443A JP 2012190946 A JP2012190946 A JP 2012190946A JP 2012190946 A JP2012190946 A JP 2012190946A JP 2014048443 A JP2014048443 A JP 2014048443A
Authority
JP
Japan
Prior art keywords
text
redundant expression
redundant
speech
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012190946A
Other languages
English (en)
Inventor
Tatsuro Ishida
達郎 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012190946A priority Critical patent/JP2014048443A/ja
Publication of JP2014048443A publication Critical patent/JP2014048443A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】音声合成において自然な発話を実現すること。
【解決手段】会話中の冗長的表現を表す冗長表現言語等を音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入して音声出力する。
【選択図】図1

Description

本発明は、音声合成技術に関する。
現在、アニメやゲーム等のエンターテイメント目的、アミューズメント目的等において、テキストを音声に変換して人間の音声を人工的に作り出す音声合成技術が利用されている。
このような音声合成の具体的な実現手法は様々であるが、いずれの場合であっても音声の聞き取りを容易にすることを主なる目的としており、できるだけ自然な発話が行われるような手段や方法が導入されている。
例えば、特許文献1によれば、入力された日本語文章を文節の区切り記号情報やアクセント情報に変換することにより、漢字の読み誤りやアクセント誤りのない高品質な音声メッセージを作成している。
また、特許文献2によれば、ユーザに対する応答音声に変化を与えるためのリアクションモードを決定し、そのモードに基づいて、ユーザの動作に割り込むインタラプト音声やユーザに対する指示音声を生成することにより、人間同士の会話と同様にスムーズで自然な対話を実現している。
また、特許文献3によれば、人間特有の言い回し表現を記憶し、その言い回しタイプを用いて応答文を生成することにより、応答言語表現の機械的印象を削減している。
また、特許文献4によれば、テキスト情報からフィラー部分を抽出し、そのフィラーに対応する音律を用いて合成音声を生成することにより、フィラーの発音を良くし、フィラーの持つ非言語的な意味を適切に表現している。
更に、このような特許文献以外にもいくつかの音声合成方法が検討されており、例えば、非特許文献1によれば、人間が文章を朗読する際に挿入されるポーズに着目し、テキストからの音声合成時に文構造に応じてポーズ長を制御する方法を説明している。
特開平5−143092号公報 特開平11−237971号公報 特開2005−332174号公報 特開2006−17819号公報
土井、外4名、「機能語に着目した文内文脈構造抽出手法(LDG)と音声出力の制御」、人工知能学会研究会、SIG-SLUD-9301-4(5/28)、1993年、p.27-34
すなわち、従来の音声合成技術では、音の響き方やつなぎ目の滑らかさ、ピッチ、アクセント、速度等を調整することにより、自然な発話の実現が試みられていた。
しかしながら、音声合成装置から出力される音声の出し方が人間の声帯によるものと必ずしも同一でないことから、出力音声の響き方に違和感があり、更には合成させる音声間のつなぎ目部分が不自然な接続になるため、従来のように音声成分を調整しても人間が発話しているような自然さを表現することができなかった。
本発明は、上記事情を鑑みてなされたものであり、会話中に使用される冗長的表現をテキストに挿入する手法を採用することにより、音声合成において自然な発話を実現することを課題とする。
請求項1記載の音声合成システムは、会話中の冗長的表現を表す冗長表現データを記憶手段に記憶しておき、前記記憶手段から前記冗長表現データを読み出して、音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入し、音声出力することを特徴とする。
本発明によれば、会話中の冗長的表現を表す冗長表現データを音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入して音声出力するため、音声合成において自然な発話を実現することができる。
請求項2記載の音声合成システムは、請求項1記載の音声合成システムにおいて、前記冗長表現データを当該冗長表現データの挿入ルールに従って挿入することを特徴とする。
本発明によれば、冗長表現データを当該冗長表現データの挿入ルールに従って挿入するため、より自然な発話を実現することができる。
請求項3記載の音声合成システムは、請求項1又は2記載の音声合成システムにおいて、音声認識により得られたテキストデータから冗長表現データを抽出し、新たな冗長表現データとして前記記憶手段に記憶することを特徴とする。
本発明によれば、音声認識により得られたテキストデータから冗長表現データを抽出し、新たな冗長表現データとして記憶手段に記憶するため、人間同士で行われる実会話内の冗長的表現を冗長化時に利用できることから、より更に自然な発話を実現することが可能となる。また、自前で冗長表現データを予め作成しておく前提処理条件を排除することができる。
請求項4記載の音声合成方法は、コンピュータにより、会話中の冗長的表現を表す冗長表現データを記憶手段に記憶しておき、前記記憶手段から前記冗長表現データを読み出して、音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入し、音声出力することを特徴とする。
本発明によれば、会話中の冗長的表現を表す冗長表現データを音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入して音声出力するため、音声合成において自然な発話を実現することができる。
請求項5記載の音声合成方法は、請求項4記載の音声合成方法において、前記冗長表現データを当該冗長表現データの挿入ルールに従って挿入することを特徴とする。
本発明によれば、冗長表現データを当該冗長表現データの挿入ルールに従って挿入するため、より自然な発話を実現することができる。
請求項6記載の音声合成方法は、請求項4又は5記載の音声合成方法において、音声認識により得られたテキストデータから冗長表現データを抽出し、新たな冗長表現データとして前記記憶手段に記憶することを特徴とする。
本発明によれば、会話中の冗長的表現を表す冗長表現データを音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入して音声出力するため、音声合成において自然な発話を実現することができる。
請求項7記載の音声合成プログラムは、請求項4乃至6のいずれかに記載の音声合成方法をコンピュータに実行させることを特徴とする。
本発明によれば、音声合成において自然な発話を実現することができる。
音声合成システムの全体構成を示す図である。 冗長化用辞書データ例を示す図である。 冗長化ルール例を示す図である。 テキストの冗長化処理フローを示す図である。 冗長化用辞書データの生成処理フローを示す図である。
以下、本発明を実施する一実施の形態について図面を用いて説明する。但し、本発明は多くの異なる様態で実施することが可能であり、本実施の形態の記載内容に限定して解釈すべきではない。
本実施の形態に係る音声合成システムの全体構成を図1に示す。この音声合成システムは、テキスト(文章)の文章表現種別を識別するテキスト識別装置100と、そのテキストを話し言葉に変換する話し言葉変換装置200と、そのテキストを音声合成する音声合成装置400とを備え、音声合成を実行する前に当該テキストに冗長表現言語等を挿入又は抽出する冗長化装置300を装置100,200と装置400との間に介在させている。以下、各装置について詳述する。
テキスト識別装置100は、音声合成対象のテキストデータを入力し、入力されたテキストが話し言葉か否かを識別し、その識別結果に応じて当該テキストデータを話し言葉変換装置200又は冗長化装置300に出力する。
話し言葉変換装置200は、テキスト識別装置100からテキストデータを受信し、そのテキストを話し言葉のテキストに変換して、その変換後のテキストデータを冗長化装置300に出力する。
音声合成装置400は、前段に位置する冗長化装置300から冗長化後のテキストデータを受信し、その冗長化されている話し言葉のテキストについて音声合成を行い、音声合成システムの外部に音声出力する。
以上説明した文章表現識別方法や話し言葉変換方法、更に音声合成方法は全て公知技術であり、テキスト識別装置100と、話し言葉変換装置200と、音声合成装置400とは、既存の装置や機器を利用して実現することが可能である。
また、テキスト識別装置100に入力された音声合成対象のテキストが当初から話し言葉であった場合には、音声合成システムの構成要素から話し言葉変換装置200を除外するようにしてもよい。
続いて、冗長化装置300について詳述する。人間同士の会話では、「あー」や「えー」といった発話の合間に挟み込まれるフィラー、「〜ですね」や「〜だそうです」といった語尾冗長語、会話中に適当にとられる言いよどみ(間(ま))、繰り返される同語、言い替えられる類語等が必ず使用されている。
そこで、本実施の形態では、そのような表現によって会話が冗長化されていることに着目し、音声合成対象のテキストに対して会話中に使用される冗長表現言語等を積極的に自動挿入することにより、そのテキスト表現に人間が発話しているような自然さ与えるようにする。
そして、そのような効果を得るため、冗長化装置300は、話し言葉冗長化部31と、冗長化用辞書生成部32と、冗長化用辞書記憶部33と、冗長化ルール記憶部34とを備えている。
話し言葉冗長化部31は、テキスト識別装置100又は話し言葉変換装置200から音声合成対象のテキストデータを受信し、そのテキストデータに含まれる話し言葉のテキストに冗長表現言語等を挿入する機能を有している。
冗長化用辞書生成部32は、受信したテキストデータのテキストが冗長化されている場合、そのテキストに含まれる冗長表現言語等を抽出して冗長化用辞書データを生成する機能を有している。
冗長化用辞書記憶部33は、会話中の冗長的表現を示す冗長表現言語等(冗長表現データ)を記載した冗長化用辞書データを記憶しておく機能を有している。図2に示すように、冗長化用辞書データには、挿入される冗長表現言語等とその属性とが対応付けて記憶されている。例えば、「えー」等のフィラー、「〜ですね」等の語尾冗長語、「まあ」等の間投詞、「(無音)」の言いよどみ、同語辞書データや類語辞書データを利用した同語や類語等が登録されている。
冗長化ルール記憶部34は、挿入される冗長表現言語等の属性に応じた挿入ルールを定めた冗長化ルールデータを記憶しておく機能を有している。図3に示すように、冗長化ルールデータには、挿入される冗長表現言語等の属性とその挿入ルールとが対応付けて記憶されている。例えば、フィラーの場合、発話の合間に挟み込まれる言葉であることから、「文頭の時x%の確率で挿入。それ以外はy%の確率で挿入」と定義された挿入ルールが登録されている。
尚、このような冗長化装置300は、メモリ等の記憶手段やCPU等の計算手段を備えたコンピュータにより実現可能である。この冗長化装置300を構成する各機能部31〜34の処理は、コンピュータ上で動作するプログラムによって実行される。
次に、音声合成システムの動作について説明する。最初に、図4を参照しながら、テキストの冗長化方法について説明する。
まず、テキスト識別装置100が、音声合成対象のテキストデータを自装置に入力し(ステップS101)、文体・文長・語彙・語調・冗長性等に基づいて、そのテキストは話し言葉であるか(Yes)否か(No)を識別する(ステップS102)。
次に、例えばそのテキストが書き言葉であることからステップS102の識別結果がNoの場合、テキスト識別装置100は、入力したテキストデータを話し言葉変換装置200に送信し、その話し言葉変換装置200は、そのテキストを話し言葉のテキストに変換する(ステップS103)。
一方、ステップS102の識別結果がYesの場合、当初から既に話し言葉のテキストであるため、テキスト識別装置100は、話し言葉変換装置200を介することなく、入力したテキストデータを冗長化装置300に直接送信する。
次に、冗長化装置300は、テキスト識別装置100又は話し言葉変換装置200から送信されたテキストデータを受信し、話し言葉冗長化部31は、そのテキストを文頭から読み込んで形態素解析を行う(ステップS104)。尚、ここや後述するステップS202で行う形態素解析処理は、公知技術を利用して実現できる。
続いて、冗長化装置300は、冗長化用辞書記憶部33から冗長化用辞書データを読み出すと共に冗長化ルール記憶部34から冗長化ルールデータを読み出して、冗長化ルール内の挿入ルールに従って冗長化用辞書内の冗長表現言語等を形態素解析されたテキストの各節に挿入する(ステップS105)。
次に、話し言葉冗長化部31は、音声合成対象のテキスト全てについてステップS105の冗長化処理が終了したか否かを判定し(ステップS106)、未終了の場合にはステップS104に戻り、ステップS104及びステップS105の各処理を繰り返し実行する。
最後に、音声合成装置400は、冗長表現言語等の挿入により成る冗長化後のテキストデータを受信し、そのテキストを音声合成して音声合成システムの外部に音声出力する(ステップS107)。
以上の各処理を通じて、例えば「冗長生成器を利用して、合成音声の自然さを増します。」というテキストは、「えー、冗長生成器を利用してですね、合成……音声の自然さを増し……増加させます。」に冗長化される。
この冗長化後のテキストには、「えー」のフィラー、「ですね」の語尾冗長語、「(無音)」の言いよどみ、「増し」の類語として「増加」が挿入されているので、人間による会話表現のような自然な表現で音声出力することができる。
尚、以上説明した冗長表現言語等は例であり、例えば言いかけてやめる等、会話中の表現で使用される他の態様を用いるようにしてもよい。
続いて、図5を参照しながら、冗長化用辞書データの生成方法について説明する。まず、冗長化装置300が、人間同士の会話を音声認識処理することにより得られたテキストデータを自装置に入力する(ステップS201)。
次に、冗長化用辞書生成部32は、そのテキストを文頭から読み込んで形態素解析を行い(ステップS202)、所定の要約技術を用いて冗長表現言語等を取り除く(ステップS203)。
尚、ステップS203の要約処理は公知技術である。例えば「“日本初となる「クチコミ要約技術」採用サービスを、「goo評判検索」にて実証実験開始”、[平成24年8月13日検索]、[online]、インターネット<URL: http://pr.goo.ne.jp/detail/1465/>」に記載されている技術を利用して実現できる。
次に、冗長化用辞書生成部32は、入力したテキスト全てについてステップS103の要約処理が終了したか否かを判定し(ステップS204)、未終了の場合にはステップS202に戻り、ステップS202及びステップS203の各処理を繰り返し実行する。
次に、冗長化用辞書生成部32は、ステップS202による形態素解析処理後のテキストと、ステップS203による要約処理後のテキストとの差分を計算する(ステップS205)。
最後に、冗長化用辞書生成部32は、その差分処理によって抽出された言語等を冗長表現言語等として冗長化用辞書データを新規生成し、更に、その冗長表現言語等を新たな冗長表現言語等として冗長化用辞書記憶部33に新規登録する(ステップS206)。
以上の各処理を通じて、例えば「えー、冗長生成器を利用してですね、合成……音声の自然さを増し……増加させます。」という音声認識処理後のテキストデータから、「えー」のフィラー、「ですね」の語尾冗長語、「(無音)」の言いよどみ等が抽出され、以降実施されるテキスト冗長化処理時に冗長表現言語等として利用される。
以上より、本実施の形態によれば、会話中の冗長的表現を表す冗長表現言語等を音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入して音声出力するので、音声合成において自然な発話を実現し、聞き手に対する理解力を向上させることができる。
また、本実施の形態によれば、冗長表現言語等を各冗長表現言語等の挿入ルールに従って挿入するので、適切な場所に適切な量の冗長表現言語等を挿入できることから、より自然な発話を実現することができる。
また、本実施の形態によれば、音声認識により得られたテキストデータから冗長表現言語等を抽出し、新たな冗長表現言語等として冗長化用辞書記憶部33に登録するので、人間同士で行われる実会話内の冗長的表現を冗長化時に利用できることから、より更に自然な発話を実現することが可能となる。また、自前で冗長表現言語等を予め作成しておき、更にその挿入確率をチューニングしておく前提処理条件を排除することができる。
最後に、本実施の形態で説明した音声合成技術は、背景技術で説明したような音声成分調整による従来の音声合成技術と対立するものではないため、そのようなこれまでの音声合成技術を更に利用することも可能である。
100…テキスト識別装置
200…話し言葉変換装置
300…冗長化装置
31…話し言葉冗長化部
32…冗長化用辞書生成部
33…冗長化用辞書記憶部
34…冗長化ルール記憶部
400…音声合成装置
S…処理ステップ

Claims (7)

  1. 会話中の冗長的表現を表す冗長表現データを記憶手段に記憶しておき、前記記憶手段から前記冗長表現データを読み出して、音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入し、音声出力することを特徴とする音声合成システム。
  2. 前記冗長表現データを当該冗長表現データの挿入ルールに従って挿入することを特徴とする請求項1記載の音声合成システム。
  3. 音声認識により得られたテキストデータから冗長表現データを抽出し、新たな冗長表現データとして前記記憶手段に記憶することを特徴とする請求項1又は2記載の音声合成システム。
  4. コンピュータにより、会話中の冗長的表現を表す冗長表現データを記憶手段に記憶しておき、前記記憶手段から前記冗長表現データを読み出して、音声合成対象のテキストデータに含まれる話し言葉のテキストに挿入し、音声出力することを特徴とする音声合成方法。
  5. 前記冗長表現データを当該冗長表現データの挿入ルールに従って挿入することを特徴とする請求項4記載の音声合成方法。
  6. 音声認識により得られたテキストデータから冗長表現データを抽出し、新たな冗長表現データとして前記記憶手段に記憶することを特徴とする請求項4又は5記載の音声合成方法。
  7. 請求項4乃至6のいずれかに記載の音声合成方法をコンピュータに実行させることを特徴とする音声合成プログラム。
JP2012190946A 2012-08-31 2012-08-31 音声合成システム、音声合成方法及び音声合成プログラム Pending JP2014048443A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012190946A JP2014048443A (ja) 2012-08-31 2012-08-31 音声合成システム、音声合成方法及び音声合成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012190946A JP2014048443A (ja) 2012-08-31 2012-08-31 音声合成システム、音声合成方法及び音声合成プログラム

Publications (1)

Publication Number Publication Date
JP2014048443A true JP2014048443A (ja) 2014-03-17

Family

ID=50608184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012190946A Pending JP2014048443A (ja) 2012-08-31 2012-08-31 音声合成システム、音声合成方法及び音声合成プログラム

Country Status (1)

Country Link
JP (1) JP2014048443A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080981A (ja) * 2014-10-21 2016-05-16 トヨタ自動車株式会社 応答生成装置、応答生成方法及び応答生成プログラム
EP3370230A1 (en) * 2017-03-03 2018-09-05 Kyoto University Voice interaction apparatus, its processing method, and program
CN113468305A (zh) * 2021-06-29 2021-10-01 竹间智能科技(上海)有限公司 一种识别口语冗余成分的方法及装置
WO2022249362A1 (ja) * 2021-05-26 2022-12-01 株式会社KPMG Ignition Tokyo テキストを合成音声に変換する音声合成

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001042883A (ja) * 1999-07-30 2001-02-16 Nec Corp テキスト音声合成装置
JP2002366175A (ja) * 2001-06-08 2002-12-20 Mitsubishi Electric Corp 音声コミュニケーション支援装置およびその方法
JP2004118004A (ja) * 2002-09-27 2004-04-15 Asahi Kasei Corp 音声合成装置
WO2008056590A1 (fr) * 2006-11-08 2008-05-15 Nec Corporation Dispositif de synthèse texte-parole, programme et procédé de synthèse texte-parole
JP2009193448A (ja) * 2008-02-15 2009-08-27 Oki Electric Ind Co Ltd 対話システム、方法及びプログラム
JP2010190995A (ja) * 2009-02-16 2010-09-02 Toshiba Corp 音声処理装置、音声処理方法及び音声処理プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001042883A (ja) * 1999-07-30 2001-02-16 Nec Corp テキスト音声合成装置
JP2002366175A (ja) * 2001-06-08 2002-12-20 Mitsubishi Electric Corp 音声コミュニケーション支援装置およびその方法
JP2004118004A (ja) * 2002-09-27 2004-04-15 Asahi Kasei Corp 音声合成装置
WO2008056590A1 (fr) * 2006-11-08 2008-05-15 Nec Corporation Dispositif de synthèse texte-parole, programme et procédé de synthèse texte-parole
JP2009193448A (ja) * 2008-02-15 2009-08-27 Oki Electric Ind Co Ltd 対話システム、方法及びプログラム
JP2010190995A (ja) * 2009-02-16 2010-09-02 Toshiba Corp 音声処理装置、音声処理方法及び音声処理プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080981A (ja) * 2014-10-21 2016-05-16 トヨタ自動車株式会社 応答生成装置、応答生成方法及び応答生成プログラム
EP3370230A1 (en) * 2017-03-03 2018-09-05 Kyoto University Voice interaction apparatus, its processing method, and program
US20180253280A1 (en) 2017-03-03 2018-09-06 Toyota Jidosha Kabushiki Kaisha Voice interaction apparatus, its processing method, and program
CN108630203A (zh) * 2017-03-03 2018-10-09 国立大学法人京都大学 语音交互设备及其处理方法和程序
US10452352B2 (en) 2017-03-03 2019-10-22 Toyota Jidosha Kabushiki Kaisha Voice interaction apparatus, its processing method, and program
WO2022249362A1 (ja) * 2021-05-26 2022-12-01 株式会社KPMG Ignition Tokyo テキストを合成音声に変換する音声合成
CN113468305A (zh) * 2021-06-29 2021-10-01 竹间智能科技(上海)有限公司 一种识别口语冗余成分的方法及装置

Similar Documents

Publication Publication Date Title
KR102246943B1 (ko) 다중 언어 텍스트-음성 합성 방법
JP7280386B2 (ja) 多言語音声合成およびクロスランゲージボイスクローニング
JP7395792B2 (ja) 2レベル音声韻律転写
JP5066242B2 (ja) 音声翻訳装置、方法、及びプログラム
CN108899009B (zh) 一种基于音素的中文语音合成系统
JP2018146803A (ja) 音声合成装置及びプログラム
KR102062524B1 (ko) 음성 인식과 번역 방법 및 그를 위한 단말 장치와 서버
CN113808571B (zh) 语音合成方法、装置、电子设备以及存储介质
CN111681641B (zh) 基于短语的端对端文本到语音(tts)合成
CN111627420A (zh) 极低资源下的特定发音人情感语音合成方法及装置
JP2014048443A (ja) 音声合成システム、音声合成方法及び音声合成プログラム
JP2016151736A (ja) 音声加工装置、及びプログラム
CN115101046A (zh) 一种特定说话人语音合成方法和装置
US9484014B1 (en) Hybrid unit selection / parametric TTS system
US9218807B2 (en) Calibration of a speech recognition engine using validated text
GB2548356A (en) Multi-stream spectral representation for statistical parametric speech synthesis
JP6436806B2 (ja) 音声合成用データ作成方法、及び音声合成用データ作成装置
CN113948062A (zh) 数据转换方法及计算机存储介质
CN113628609A (zh) 自动音频内容生成
JP7012935B1 (ja) プログラム、情報処理装置、方法
US20230018384A1 (en) Two-Level Text-To-Speech Systems Using Synthetic Training Data
WO2023238341A1 (ja) 音声応答文学習方法、音声応答文生成方法、音声応答文学習装置、音声応答文生成装置及びプログラム
JP6649200B2 (ja) 発話生成装置、方法、及びプログラム
JP6179094B2 (ja) 発話特性付与装置、発話特性付与方法、音声合成装置および音声合成方法
CN116453502A (zh) 基于双说话人嵌入的跨语言语音合成方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160209