JP4311710B2 - Speech synthesis controller - Google Patents
Speech synthesis controller Download PDFInfo
- Publication number
- JP4311710B2 JP4311710B2 JP2003036524A JP2003036524A JP4311710B2 JP 4311710 B2 JP4311710 B2 JP 4311710B2 JP 2003036524 A JP2003036524 A JP 2003036524A JP 2003036524 A JP2003036524 A JP 2003036524A JP 4311710 B2 JP4311710 B2 JP 4311710B2
- Authority
- JP
- Japan
- Prior art keywords
- character string
- speech synthesis
- character
- parameters
- phoneme
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
Description
【0001】
【発明の背景】
テキストデータに基づいて音声合成を行う装置において、与えられたテキストデータを形態素解析した後、各単語についてアクセントを付与して音声合成データを得るようにしている(特許文献1)。しかしながら、形態素解析が必ずしも正確に行われるわけでなく、また、各単語のアクセントが常に正確に付与されるとは限らない。
【0002】
この問題は、音声合成エンジンの辞書に多くの単語を登録したり、アクセントの異なる単語を登録したりすることである程度解決できる。しかし、このような方法では、辞書が肥大化するという他の問題を引き起こしてしまうことになる。
【0003】
また、音声合成エンジンに適切なパラメータを与えて、所望の音声合成データを得る作業は、音声に対する専門知識が必要であり、簡単ではなかった。
【0004】
そこで、この発明では、音声合成データの修正を容易化することにより、上記のような問題点を解決しようとするものである。
【0005】
【特許文献1】
特開2003-005776号公報
【発明の概要および効果】
(1)この発明に係る音声合成制御装置は、音声合成部に対するインターフェイスをとるための音声合成制御装置であって、
音声合成指令を受けると、与えられた文字列を音声合成部に与え、音声合成部から、当該文字列に対応する音声合成データおよび音声合成の際に用いたパラメータを取得し、前記パラメータに基づいて文字列を修飾して表示し、操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成部に与え、音声合成部から修正した音声合成データを取得するものである。
【0006】
したがって、音声合成部の作成したパラメータを利用しつつ、操作者がこれを修正して所望の音声合成データを得ることができる。また、パラメータに基づいて文字列が修飾されて表示されており、この修飾を修正することによりパラメータを修正できるので、修正の操作が容易である。
【0007】
(3)この発明に係る音声合成制御装置は、文字列が、漢字まじり文字列またはかな文字列であることを特徴としている。
【0008】
したがって、漢字まじり文字列またはかな文字列に対して、パラメータに基づいた修飾が施されて表示される。
【0009】
(4)この発明に係る音声合成制御装置は、操作者から与えられる文字列は漢字まじりの文字列であり、音声合成部は、与えられた漢字まじり文字列に対応するかな文字列を生成し、音声合成部から受けたかな文字列に対して、前記修飾を施して表示することを特徴としている。
【0010】
したがって、漢字まじり文字列を入力すれば、対応するかな文字列が生成され、修飾が施されたかな文字列が表示される。
【0011】
(5)この発明に係るインターフェイスプログラムは、コンピュータを用いて音声合成部に対するインターフェイスを実現するためのインターフェイスプログラムであって、
音声合成指令を受けると、与えられた漢字まじり文字列を音声合成部に与え、音声合成部から、当該漢字まじり文字列に対応する音声合成データ、当該漢字まじり文字列に対応するかな文字列および音声合成の際に用いたパラメータを取得し、前記パラメータに基づいて前記かな文字列を修飾して表示し、操作者によって、前記かな文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成部に与え、音声合成部から修正した音声合成データを取得する処理をコンピュータに行わせるものである。
【0012】
したがって、音声合成部の作成したパラメータを利用しつつ、操作者がこれを修正して所望の音声合成データを得ることができる。また、パラメータに基づいて文字列が修飾されて表示されており、この修飾を修正することによりパラメータを修正できるので、修正の操作が容易である。さらに、漢字まじり文字列を入力すれば、対応するかな文字列が生成され、修飾が施されたかな文字列が表示される。
【0013】
(6)この発明に係るインターフェイスプログラムは、操作者によって、表示されたかな文字列が修正され、音声合成指令が与えられると、当該修正されたかな文字列を音声合成部に与え、音声合成部から修正した音声合成データを取得することを特徴としている。
【0014】
したがって、音声合成部によって生成されたかな文字列が誤っている場合、操作者がこれを修正して、音声合成データを得ることができる。
【0015】
(7)この発明に係る音声合成制御装置は、前記パラメータが、文字に対応する音の長さに関するパラメータであることを特徴としている。
【0016】
したがって、音の長さを文字の修飾によって直感的に認識することができ、その修正が容易である。
【0017】
(8)この発明に係る音声合成制御装置は、前記パラメータが、アクセントに関するパラメータであることを特徴としている。
【0018】
したがって、アクセントに関するパラメータを文字の修飾によって直感的に認識することができ、その修正が容易である。
【0019】
(9)この発明に係る音声合成装置は、パラメータがアクセント区切または形態素区切またはその双方であり、文字列の修飾は、前記区切の位置において、表示上の区切が設けられるような修飾であることを特徴としている。
【0020】
したがって、アクセント区切・形態素区切を文字の修飾によって直感的に認識することができる。
【0021】
(10)この発明に係る音声合成装置は、表示上の区切を変更することにより、これに応じてパラメータとしてのアクセント区切・形態素区切が修正されることを特徴としている。
【0022】
したがって、アクセント区切・形態素区切を文字の修飾によって直感的に認識することができ、その修正が容易である。
【0023】
(11)この発明に係る音声合成装置は、パラメータがアクセントの高低であり、文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したような修飾であることを特徴としている。
【0024】
したがって、アクセントの高低を文字の位置によって直感的に認識することができる。
【0025】
(12)この発明に係る音声合成装置は、文字の位置を変更することにより、これに応じてパラメータとしてのアクセントの高低が修正されることを特徴としている。
【0026】
したがって、アクセントの高低を文字の位置によって直感的に認識することができ、その修正が容易である。
【0027】
(13)この発明に係る音声合成装置は、音声合成部が、各文字について音声合成の候補とした複数の音素片の特性情報を出力し、これに応じて、文字について、複数の音素片候補の特性を表示し、操作者によって、用いる音素片が変更され、音声合成指令が与えられると、当該変更された音素片の特性を音声合成部に与え、音声合成部から変更した音声合成データを取得することを特徴としている。
【0028】
したがって、操作者が適切な音素片を選択して、音声合成データを得ることができる。
【0029】
(14)この発明に係る音声合成装置は、音素片の特性が、音声合成部に記録されている当該音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片の時間長またはアクセントの高低であることを特徴としている。
【0030】
したがって、操作者は、この特性に基づいて、適切な音素片を選択することができる。
【0031】
(15)この発明に係る音声合成装置は、保存指令に応じて、音声合成データを音声ファイルとして保存することを特徴としている。
【0032】
したがって、生成された音声合成データをファイルとして保存することができる。
【0033】
(16)この発明に係る音声合成装置は、保存指令に応じて、文字列およびパラメータを音声特性ファイルとして保存することを特徴としている。
【0034】
したがって、音声合成ために必要なデータを保存することができる。
【0035】
(17)この発明に係る音声合成装置は、文字列の一部に、特定の文字列を決定しない差替部分を設け、当該差替部分については、パラメータを生成するための情報を記録することを特徴としている。
【0036】
したがって、差替部分について、文字列を挿入することにより、適切なパラメータにて音声合成を行うことのできる音声特性ファイルを得ることができる。
【0037】
(18)この発明に係る音声特性ファイルは、音声の発話順に並べられた文字列部分と差替部分を備えており、文字列部分には、文字列および各文字に対応するパラメータが記録されており、差替部分には、文字列が挿入された場合に当該文字列の各文字にどのようなパラメータを与えるかを決定するための情報が記録されていることを特徴としている。
【0038】
したがって、差替部分について、文字列を挿入することにより、適切なパラメータにて音声合成を行うことができる。
【0039】
(19)この発明に係るプログラムは、音声特性ファイルに基づいて音声合成部に音声合成を行わせる処理をコンピュータに行わせるためのプログラムであって、
前記音声ファイルには、音声の発話順に並べられた文字列部分と差替部分が設けられており、文字列部分には、文字列および各文字に対応するパラメータが記録されており、差替部分には、文字列が挿入された場合に当該文字列の各文字にどのようなパラメータを与えるかを決定するための情報が記録されており、与えられた音声特性ファイルに基づいて、文字列部分を文字で表示し、差替部分を入力領域として、発話順に表示し、操作者によって、前記入力領域に文字列が挿入されて、音声合成指令が与えられると、文字列部分に対応するパラメータを音声特性ファイルから読み出し、挿入された文字列に対するパラメータを、前記差替部分に対応して記録されている情報を考慮して生成し、音声合成部に与えて音声合成データを得る処理をコンピュータに行わせるためのプログラムである。
【0040】
したがって、差替部分について、文字列を挿入することにより、適切なパラメータにて音声合成を行うことができる。
【0041】
(20)この発明に係る音声合成装置は、文字列を受けてパラメータを算出し、文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、前記パラメータに基づいて文字列を修飾して表示し、操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成データを生成する。
【0042】
したがって、パラメータに基づいて文字列が修飾されて表示されており、この修飾を修正することによりパラメータを修正できるので、修正の操作が容易である。
【0043】
(22)この発明に係る音声合成サーバ装置は、端末装置と通信可能な音声合成サーバ装置であって、
文字列を受けてパラメータを算出し、文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、前記パラメータに基づいて文字列を修飾して表示するためのデータを端末装置に送信し、端末装置の操作者によって、前記文字列の修飾が修正され、音声合成指令が送信されてくると、当該修正された修飾に対応するパラメータに基づいて音声合成データを生成して端末装置に送信する。
【0044】
したがって、端末装置において、パラメータに基づいて文字列を修飾して表示することができ、この修飾を修正することによりサーバ装置において修正した音声合成データを生成できるので、修正の操作が容易である。
【0045】
(24)この発明に係るサーバ装置は、端末装置の要求に応じて、音声特性ファイルを端末装置に送信するものであり、
音声特性ファイルは、音声の発話順に並べられた文字列部分と差替部分を備えており、文字列部分には、文字列および各文字に対応するパラメータが記録されており、差替部分には、文字列が挿入された場合に当該文字列の各文字にどのようなパラメータを与えるかを決定するための情報が記録されている。
【0046】
したがって、端末装置に対して、音声特性ファイルを送信することができる。
【0047】
(20)この発明に係る音声合成方法は、文字列を受けてパラメータを算出し、文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、前記パラメータに基づいて文字列を修飾して表示し、操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成データを生成する。
【0048】
したがって、パラメータに基づいて文字列が修飾されて表示されており、この修飾を修正することによりパラメータを修正できるので、修正の操作が容易である。
【0049】
この発明において、「文字列の修飾」とは、文字列を構成する文字について、その大きさ、色、配置などの視覚的属性を、他の文字との比較において認識可能なように変更することをいう。
【0050】
「漢字まじり文字列」とは、少なくとも一以上の漢字を含む文字列をいう。
【0051】
「パラメータ」とは、文字列を用いて音声合成を行う際に必要な特性データであって、たとえば、アクセントの高低、アクセントの位置、発話長などである。
【0052】
「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。
【0053】
【発明の実施の形態】
1.第1の実施形態
(1)全体構成および概要
図1に、この発明の一実施形態による音声合成制御装置と音声合成部の全体構成を示す。音声合成部4は、文字列を与えることにより、音声合成データを作成するものである。この音声合成部4は、文字列を与えて音声合成のためのパラメータを与えない場合には、自らパラメータを生成して音声合成データを作成する。また、パラメータとともに文字列を与えた場合には、当該パラメータにしたがって音声合成データを作成する。
【0054】
音声合成制御装置2は、この音声合成部4とのインターフェイスをとるための装置である。音声合成制御装置2から文字列を与えると、音声合成部4は、音声合成データとそのパラメータを、音声合成制御装置2に返す。音声合成制御装置2は、文字列をこのパラメータによって修飾して表示する(表示画面6参照)。図1の画面6では、たとえば、かな文字がアクセントの高低に応じて、位置が上下するように表示されている。
【0055】
操作者は、音声合成データに基づく音を聞いて、所望の音でないと感じた場合には、表示された文字列の修飾を変更することによって、パラメータを変更して音声合成をやり直すことができる。このようにして、操作者は、所望の音声合成データを得ることができる。
【0056】
(2)ハードウエア構成
図2に、CPUを用いて実現した場合のハードウエア構成を示す。CPU10には、ディスプレイ12、メモリ14、マウス/キーボード16、ハードディスク(記録装置)18、CD−ROMドライブ20、サウンドカード22が接続されている。
【0057】
ハードディスク18には、WINDOWS(商標)などのオペレーティングシステム(図示せず)の他、音声合成エンジン28(音声合成プログラム)、およびその辞書30、およびインターフェイスプログラム26が格納されている。これらプログラムおよびデータは、CD−ROM32に記録されていたものを、CD−ROM20を介して、ハードディスク18にインストールしたものである。なお、音声合成エンジン28、インターフェイスプログラム26は、オペレーティングシステムと協働してその機能を発揮するものである。なお、音声合成エンジン28の詳細については、たとえば、本出願人による特許3220163号を参照されたし。
【0058】
サウンドカード22は、与えられた音声合成データをアナログ波形に変換してスピーカ24に出力するものである。
【0059】
(3)インターフェイスプログラムの処理
ハードディスク18に記録されたインターフェイスプログラム26のフローチャートを図3に示す。
【0060】
まず、ステップS1において、CPU10は、図8に示す初期画面をディスプレイ12に表示する。操作者は、キーボード16を用いて、テキスト入力領域40に漢字まじり文字列を入力する。図8では、操作者によって、「安楽島町の道」が入力された状態が示されている。
【0061】
次に、操作者が、音声合成指令のボタン42をマウス16によってクリックし、音声合成指令が与えられると(ステップS2)、CPU10は、音声合成エンジン28に、入力された漢字まじり文字列を出力する(ステップS3)。
【0062】
音声合成エンジン28は、これを受けて、音声合成のためのパラメータをCPU10に返す(ステップS3)。CPU10は、このパラメータをメモリ14に一時的に記憶する。ここで、パラメータとは、音声合成のために必要な情報であり、たとえば、文字ごとのアクセントの高低、アクセントの区切、形態素の区切などである。また、与える文字列などもパラメータである。
【0063】
パラメータの一部を図9に示す。与えられた漢字まじり文字列「安楽島町の道」に基づいて、読み「あんらくとーちょーのみち」(かな文字列)が生成されている。また、形態素解析によって、形態素の区切情報46が示されている。また、各形態素について、その品詞情報48が示されている。さらに、アクセントの一塊りを表すアクセント区切情報50も示されている。なお、アクセント区切情報50は、形態素の区切情報46も兼ねている。加えて、各かな文字ごとに、アクセントの高低情報52(HL)が示されている。
【0064】
パラメータを受け取ったCPU10は、このパラメータに基づいて文字列を修飾し、表示を行う(ステップS4)。図10に示すように、この表示は、パラメータ表示欄54に表示される。かな文字列「あんらくとーちょーのみち」は、アクセントの高低情報52に基づいて、その位置が上下して表示されている。つまり、アクセントの高いもの(たとえば「ん」)は上方に表示され、アクセントの低いもの(たとえば「あ」)は下方に表示される。
【0065】
また、漢字まじり文字列「安楽島町の道」は、形態素区切情報46、アクセント区切情報50に基づいて、形態素ごとに、形態素枠56で囲まれて区別可能に表示されている。
【0066】
さらに、アクセント区切情報50に基づいて、かな文字列および漢字まじり文字列の双方が、アクセント枠58によって囲まれて、アクセントの区切りが明確に示されている。
【0067】
次に、CPU10は、ステップS5において、いずれの指令が与えられているかを判断する。ここでは、音声合成指令が与えられているので、ステップS6の音声合成の処理に進む。
【0068】
音声合成処理のフローチャートを図4に示す。CPU10は、現在メモリ14に記憶しているパラメータ(図9参照)を音声合成エンジン28に与える(ステップS61)。音声合成エンジン28は、これを受けて音声合成データを生成し、CPU10に返す。CPU10は、この音声合成データをハードディスク18に一時的に記憶する(ステップS62)。
【0069】
次に、CPU10は、この音声合成データをサウンドカード22に与える(ステップS63)。これによって、スピーカ24から音が出力される。CPU10は、ステップS5に戻って次の指令を待つ。
【0070】
操作者は、スピーカ24からの音を聞いて、これが所望の音でなかった場合には、パラメータの編集を行う。
【0071】
図5に、編集処理のフローチャートを示す。ここでは、まず、読みを変更する場合について説明する。たとえば、音声合成エンジン28が示した「あんらくとーちょーのみち」に対して、「あらしまちょーのみち」が正しい読みであったとする。
【0072】
この場合、操作者は、まず、図10の画面において、読みがなを訂正したい漢字を選択する。ここでは、「安楽」「島」「町」をマウス16によってクリックして選択する。次に、編集メニュー60から、読みがなの編集を選択する。これにより、CPU10は、図11に示すような読みがな編集の画面を表示する(ステップS92)。操作者は、読みがな入力欄62に、正しい読み(かな文字列)を入力する。図では、正しい読みである「あらしまちょー」が入力されている。また、この際に、正しい品詞を品詞選択欄64において選択する。ここでは、「地名」を選択している。
【0073】
音声合成エンジン28は、形態素の品詞によって、その形態素自身のアクセントを適切に選択したり、前後の形態素の品詞との関係により、適切なアクセントを決定することができる。したがって、形態素について正しい品詞を与えることは、所望の合成音を得るために重要なことである。
【0074】
操作者によって編集終了のボタン66がクリックされると、CPU10は、上記編集内容に基づいて、パラメータを修正する(ステップS96)。つまり、メモリ14に記憶しているパラメータを、図12に示すように修正する。なお、この際、読みが変わっているため、元のアクセントの高低情報を用いることができない。したがって、CPU10は、アクセントの高低については、最も一般的である平板型のアクセントを付与する。つまり、「あらしまちょー」について、最初の文字「あ」だけアクセントを低く、2番目以降の文字「らしまちょー」についてはアクセントを高くするようにしている。
【0075】
CPU10は、この編集さらたパラメータに基づいて、図13に示すような、文字列を修飾した表示を行う。図からわかるように、読み、アクセントの高低、形態素の区切が変更されていることを、視覚的に確認することができる。
【0076】
その後、CPU10は、図3のステップS5に戻って次の指令を待つ。図13の画面において、操作者が再生ボタン42をクリックして、音声合成指令が与えられると、CPU10は、ステップS6の音声合成処理を実行する。つまり、メモリ14に記憶している図12のパラメータを、音声合成エンジン28に与える。CPU10は、音声合成エンジン28からの音声合成データを受けてハードディスク18に一次的に記憶する。CPU10は、さらに、この音声合成データをサウンドカード22に与えて音として出力する(図4参照)。その後、CPU10は、図3のステップS5に戻って次の指令を待つ。
【0077】
操作者は、この音を聞いて、所望の音になっているかどうかを判断する。所望の音になっていれば、保存ボタン70をクリックする。CPU10は、これを受けて、図3、ステップS7の音声合成データ保存処理を実行する。
【0078】
音声合成データ保存処理のフローチャートを図6に示す。CPU10は、ハードディスク18に一次的に記憶されている音声合成データを、音声合成データファイルとして記録する(ステップS71)。このようにして、所望の音を、保存することができる。なお、音声合成データファイルは、フレキシブルディスクなどの可搬性記録媒体に記録したり、メールなどに添付して送信することもできる。
【0079】
一方、所望の音になっていない場合には、アクセント区切、形態素区切、アクセントの高低、音素片などの編集を行う(図5参照)。
【0080】
操作者は、次のようにしてアクセント区切の編集を行うことができる(ステップS43)。たとえば、図13の表示画面において、アクセント句「あらしまちょーの」とアクセント句「みち」とを、1つのアクセント句にする場合について説明する。まず、マウス16によって、「あらしまちょーの」のアクセント枠58と、「みち」のアクセント枠58を選択する。この状態で、編集メニュー60の中から、アクセント句結合を選択する。これを受けて、CPU10は、選択されている「あらしまちょーの」と「みち」を結合して、「あらしまちょーのみち」という1つのアクセント句にする。
【0081】
CPU10は、メモリ14に記憶されているパラメータを図14のように修正する。「の」と「みち」との間にあった、アクセント区切が、形態素区切に変更されている。したがって、CPU10は、「あらしまちょーのみち」全体を1つのアクセント枠58で囲って表示する(ステップS96)。なお、アクセントの高低情報52や品詞情報48などは、変更前のものをそのまま用いる。
【0082】
なお、上記では、アクセント句の結合について説明したが、1つのアクセント句を2つのアクセント句に分割するように編集することもできる。この場合、操作者は、分割したいアクセント句をマウス16によって指定した後、編集メニュー60の中から、アクセント句分割を選択する。さらに、マウス16によって、分割したい位置を指定することにより、アクセント句の分割を行うことができる。この場合も、修正後のパラメータがメモリ14に記憶され、表示が修正される(ステップS96)。
【0083】
形態素句の結合や分割についても、上記と同様にして行うことができる。この場合も、修正後のパラメータがメモリ14に記憶され、表示が修正される(ステップS96)。
【0084】
アクセント高低の編集は、以下のようにして行う。操作者は、アクセント高低の編集を行いたいアクセント句をマウス16によって選択する。次に、操作者が、編集メニュー60からアクセント高低編集を選択すると、CPU10は、図15に示すようなアクセント高低の編集画面をディスプレイ12に表示する。図15では、アクセントの高低に対応付けて、各かな文字が上下位置に配置されている。この図では、かな文字「あ」以外のかな文字は、全て高いアクセントが与えられている。
【0085】
ここで、かな文字「ま」についてアクセントを低くしたければ、マウス16を操作して、かな文字枠72を下方向にドラッグする(ステップS94)。これを受けてCPU10は、かな文字「ま」のアクセントを低くするようにメモリ14のパラメータを変更する。また、図16に示すように、かな文字「ま」のかな文字枠72を下方向に移動して表示する(ステップS96)。このようにして、アクセントの高低を編集することができる。
【0086】
なお、音声合成エンジン28は、音声合成の際に、音声辞書30に記録されている多くのサンプル音声から、妥当な音を選択して使用するようにしている。つまり、1つのかな文字に対して、複数の音素片から1つの音素片を選択している。音声合成エンジン28は、選択した音素片の特性情報だけでなく、候補となったが選択されなかった他の音素片の特性情報も、パラメータとしてCPU10に返すようにしている(ステップS3参照)。
【0087】
そこで、この実施形態では、この音素片を変更することが可能なようにしている。音素片の編集は、以下のようにして行う。図16のアクセント高低編集の画面において、操作者は、音素片の編集を行いたいかな文字枠72を、マウス16によってダブルクリックする。たとえば、「し」のかな文字枠72がダブルクリックされると、CPU10は、図17に示すような画面を表示する。
【0088】
図では、かな文字「し」の下に、音素片候補欄90が表示され、5つの音素片の特性が示されている。音素片候補欄90の左端には、音素片を特定するための符号(番号)1〜5が示されている。各音素片の特性は、図18に示すような規則にしたがって示されている。符号「1」のすぐ右隣の「2M」「a」は、辞書30に記録されているサンプル音における当該音素片の直前の音素片を示している。その右隣の「3M」「shi」は、当該音素片を示している。右端の「4M」「b」は、辞書30に記録されているサンプル音における当該音素片の直後の音素片を示している。
【0089】
「2M」「3M」「4M」の先頭の数字「2」「3」「4」は、モーラ位置を示している。また、「M」は、サンプル音におけるアクセントの高さを示している。「H」が高いアクセント、「L」が低いアクセント、「M」が中間のアクセントである。
【0090】
「a」「shi」「b」は、音韻の表記である。つまり、サンプル音における直前の音が「a」であり、直後の音が「b」であることを示している。
【0091】
操作者は、このようにして表記された各音素候補の特性を見て、所望の音素片をマウス16によって選択する(ステップS95)。CPU10は、選択された音素片の符号をメモリ14のパラメータに記憶する。
【0092】
上記のようにして編集を行った後、音声合成ボタン42をクリックすると、CPU10は、編集後のパラメータを音声合成エンジン28に与える。したがって、編集されたパラメータにて生成された音声合成データを得て、その音をスピーカ24から聞くことができる。
【0093】
編集によって所望の音が得られれば、音声合成データ保存ボタン70をクリックして、音声合成データファイルをハードディスク18に記録することができる。
【0094】
また、この実施形態では、音声合成データをそのまま保存するのではなく、テンプレート(音声特性ファイル)として保存することもできる。テンプレートとは、文字列の一部において文字が特定されておらず、音声合成時に文字を指定して使用するものである。迷子の呼び出し放送など、名前の部分だけを変更すれば、他の部分は同じものを繰り返して使用できるような場合に効果的である。
【0095】
図13の画面において、操作者が、テンプレートボタン92をクリックすると、CPU10は、図3のステップS8のテンプレートデータ保存処理を実行する。
【0096】
テンプレートデータ保存処理のフローチャートを図7に示す。まず、CPU10は、図19に示すような、テンプレート編集用の画面をディスプレイ12に表示する。操作者は、文字列を差替えて用いたい部分の形態素を、マウス16によって指定する。ここでは、「安楽島町」の枠56を指定したとする。CPU10は、これを受けて、図20に示すような品詞選択のための表示を行う。操作者は、「安楽島町」の部分に入れられるべき文字列の品詞を選択する(ステップS81)。ここでは、たとえば、地名を選択したものとする。CPU10は、図21に示すような表示を行う。
【0097】
操作者が、保存ボタン94(図19参照)をクリックすると、CPU10は、メモリ14に記憶されているパラメータを読み出す(ステップS82)。CPU10は、このパラメータに基づいて、図22に示すようなテンプレートデータを生成する。
【0098】
「の」「みち」の部分は、具体的文字列が指定された文字列部分である。($地名)の部分は、使用時に差替によって文字列が挿入される差替部分である。差替部分においては、具体的な文字列は指定されず、その品詞が指定されている。品詞を指定しておくことにより、音声合成時に、前後の品詞との関係などによって適切なアクセントの高低などのパラメータを正確に決定することができる。
【0099】
CPU10は、生成した図22のデータを、テンプレートデータとして、ハードディスク8に記録する。なお、テンプレートデータは、フレキシブルディスクなどの可搬性記録媒体に記録したり、メールなどに添付して送信することもできる。
【0100】
上記実施形態では、ステップS1において漢字まじり文字列を与えるようにしているが、かな文字列を与えるようにしてもよい。
【0101】
また、上記実施形態では、一部に差替部分を含むテンプレートを生成する例を示したが、全てが文字列部分であるような音声特性データを生成して記録するようにしてもよい。
【0102】
なお、上記実施形態では、音声合成制御装置2と音声合成部4とが分離したものを示したが、両者が一体となった音声合成装置としてもよい。
【0103】
2.第2の実施形態
次に、上記のテンプレートデータに基づいて、音声合成を行うためのテンプレート処理プログラムについて説明する。ハードウエア構成は、図2と同様である。ただし、ハードディスク18には、インターフェイスプログラムに代えて、テンプレート処理プログラムが格納されている。
【0104】
テンプレート処理プログラムのフローチャートを図23に示す。CPU10は、まず、テンプレートデータを読み込んで、編集画面をディスプレイ12に表示する(ステップS101)。図24に、図22のテンプレートデータを読み込んだ場合の編集画面の表示例を示す。テンプレートデータの差替部分は、文字列入力部120として表示され、文字列部分は、その文字列が表示されている。なお、文字列入力部120の下には、差替部分の品詞が表示されている。これは、操作者に対する入力ガイダンスのためである。
【0105】
操作者は、キーボード16を用いて、文字列入力部120に所望の文字列を入力する。ここでは、「箕面」が入力されたものとする。入力を終えて音声合成指令ボタン(図示せず)をクリックすると、CPU10は、文字列入力部120に入力された文字列について、アクセントの高低や読みなどのパラメータを決定する(ステップS103)。この際、差替部分に与えられている品詞の情報(ここでは地名)を考慮して、これら読みやアクセントなどのパラメータを決定する。
【0106】
次に、CPU10は、音声合成エンジン28に、パラメータを与えて「江坂の道」の音声合成データを得る(ステップS104)。さらに、CPU104は、この音声合成データをサウンドカード22に与え、音声出力を得る(ステップS105)。なお、この音声合成データを保存することもできる。
【0107】
以上のように、テンプレートを用いれば、合成音声の品質を維持しつつ、差替部分における文字列を変更することができる。
【0108】
この実施形態では、パラメータを決定するための情報として品詞情報を用いているが、パラメータを決定するための規則などを用いてもよい。
【0109】
3.第3の実施形態
図25に、上記の音声合成制御装置2と音声合成部4を、サーバ装置204によって運用した実施形態を示す。端末装置200は、インターネット202を介して、サーバ装置204にアクセスすることができる。端末装置200、サーバ装置204のハードウエア構成は、図2と同様である。また、サーバ装置204には、テンプレート処理プログラムも格納されている。
【0110】
端末装置200には、ブラウザプログラムが格納されており、このブラウザプログラムによってサーバ装置204からの情報を表示することができる。操作者は、サーバ装置204にアクセスして、文字列を与えることにより、これに対応する音声合成データを得ることができる。また、パラメータの編集を行うこともできる。
【0111】
図26、図27に、端末装置200の要求に応じて、サーバ装置204が音声合成データを生成してダウンロードする処理のフローチャートを示す。なお、このフローチャートでは、音声合成エンジン28の処理とインターフェイスプログラム26の処理を区別せずに示している。
【0112】
ステップS101において、端末装置200は、サーバ装置204に対して、入力画面を要求する。サーバ装置204は、これに応じて、音声合成のための入力画面を送信する(ステップS201)。端末装置200は、この入力画面を表示する(ステップS102)。
【0113】
端末装置200の操作者は、入力画面において、音声合成を希望する文字列を入力する。文字列が入力された画面を図8に示す。この画面において、端末装置200の操作者が、音声合成指令ボタン42をクリックすると、音声合成指令がサーバ装置204に送信される(ステップS104)。
【0114】
サーバ装置204は、入力された文字列に基づいて、パラメータを生成して音声合成を行う(ステップS202)。サーバ装置204は、音声合成データを端末装置200に送信する。また、サーバ装置204は、生成したパラメータに基づいて、文字列を修飾して表示する画面を端末装置200に送信する(ステップS203)。
【0115】
端末装置200は、音声合成データを音として再生する(ステップS105)。また、サーバ装置204から送られてきた画面を表示する。この画面は、図10に示すように、パラメータによって文字列が修飾されたものとなっている。
【0116】
端末装置20の操作者は、再生した音が所望の音でなければ、読み編集、区切編集、アクセント編集、音素編編集などの編集処理を行う。編集処理による修正指令は、サーバ装置204に送信される(ステップS107)。
【0117】
サーバ装置204は、この修正指令に基づいて文字列の位置などを修正した修正画面を端末装置200に送信する。また、パラメータの修正を行う(ステップS204)。端末装置200は。修正された画面を表示する(ステップS108)。たとえば、図13に示すような画面を表示する。
【0118】
この画面において、操作者が音声合成指令ボタン42をクリックすると、音声合成指令がサーバ装置204に送信される(ステップS109)。サーバ装置204は、これを受けて、修正されたパラメータに基づいて音声合成を行う(ステップS205)。さらに、音声合成データを端末装置200に送信する(ステップS206)。
【0119】
端末装置200は、この音声合成データを音として再生して出力する(ステップS110)。操作者は、所望の音が得られるまで、上記の編集を繰り返す。
【0120】
所望の音が得られれば、操作者は、保存ボタン70をクリックする。これにより、端末装置200は、音声合成データのダウンロード要求を、サーバ装置204に送信する(ステップS111)。
【0121】
サーバ装置204は、これを受けて、音声合成データを端末装置200に記録させる(ステップS207)。これにより、端末装置200は、音声合成データをファイルとして保存することができる。
【0122】
上記では、音声合成データをダウンロードする場合について説明した。所望の音が合成できた後、テンプレートをダウンロードする場合の処理は、図28のようなフローチャートとなる。
【0123】
端末装置200の操作者が、テンプレート作成ボタン92をクリックすると、テンプレート作成画面要求がサーバ装置204に送信される(ステップS121)。これに応じて、サーバ装置204からテンプレート作成画面が送られ(ステップS211)、端末装置200はこの画面を表示する(ステップS122)。この画面は、たとえば、図19のような画面である。
【0124】
端末装置200の操作者は、差替部分の指定や品詞の指定などを入力する(ステップS123)。この入力処理においては、入力されたデータに基づいて、サーバ装置204が変更画面を作成するものであるが、フローチャートでは省略している。データ入力の結果、たとえば、図21のような画面が表示される。
【0125】
端末装置200の操作者が、テンプレート保存ボタン94をクリックすると、テンプレートダウンロード要求がサーバ装置204に送信される(ステップS124)。サーバ装置204は、テンプレートを作成し(ステップS212)、作成したテンプレートデータを端末装置に保存させる(ステップS213)。これにより、端末装置200において、図22に示すような、テンプレートデータを保存することができる(ステップS125)。
【0126】
このようにして得た音声合成データやテンプレートは、インターネット202などを介して、他の人に配布することができる。音声合成データを受けた他人は、サウンドカード22を持っていれば、合成音声を聞くことができる。また、テンプレートを受けた他人は、端末装置206からサーバ装置204にアクセスして、テンプレート処理プログラムを実行し、所望の音声合成データを得ることができる。
【0127】
図29に、テンプレートに基づいて音声合成データを得る場合の処理フローチャートを示す。端末装置206の操作者は、サーバ装置204にアクセスして、テンプレートを送信する(ステップS151)。サーバ装置204は、これに応じて、テンプレート画面を送信する(ステップS251)。たとえば、図24に示すような画面を送信する。端末装置200では、これを表示する。
【0128】
操作者は、このテンプレート画面の差替部分120に、所望の文字列を入力する(ステップS152)。さらに、操作者は、音声合成指令ボタンをクリックし、音声合成指令をサーバ装置204に送信する(ステップS153)。
【0129】
サーバ装置204は、これを受けて、パラメータを生成し(ステップS252)、音声合成を行う(ステップS253)。さらに、生成した音声合成データを、端末装置200に送信する(ステップS254)。端末装置200では、この音声合成データを再生する(ステップS154)。このようにして、音声合成を行うことができる。また、端末装置において、この音声合成データを保存することもできる。
【0130】
上記各実施形態においては、各機能をプログラムによって実現しているが、その一部又は全部を論理回路によって実現してもよい。
【図面の簡単な説明】
【図1】この発明の一実施形態による音声合成制御装置と音声合成部の全体構成を示す図である。
【図2】図1の装置をCPUを用いて実現した場合のハードウエア構成を示す図である。
【図3】インターフェイスプログラムのフローチャートである。
【図4】音声合成処理部分のフローチャートである。
【図5】編集処理部分のフローチャートである。
【図6】音声合成データ保存のフローチャートである。
【図7】テンプレートデータ保存のフローチャートである。
【図8】入力・作業画面の例である。
【図9】生成されたパラメータを示す図である。
【図10】パラメータに基づいて、文字列の形態を修飾して表示した画面の例である。
【図11】読みがなの編集画面を示す図である。
【図12】修正されたパラメータを示す図である。
【図13】修正された入力・作業画面を示す図である。
【図14】修正されたパラメータを示す図である。
【図15】アクセントの編集画面を示す図である。
【図16】アクセントの編集画面を示す図である。
【図17】音素片の編集画面を示す図である。
【図18】音素片の特性の表示例である。
【図19】テンプレート作成画面を示す図である。
【図20】品詞選択のための画面を示す図である。
【図21】テンプレート作成画面を示す図である。
【図22】テンプレートデータを示す図である。
【図23】テンプレート処理プログラムのフローチャートである。
【図24】テンプレートによる音声合成を行う際の画面である。
【図25】端末装置200からサーバ装置204を使って音声合成を行う場合のシステム構成である。
【図26】音声合成処理のフローチャートである。端末装置の側はブラウザプログラムの処理、サーバ装置の側はインターフェイスプログラムおよび音声合成エンジンの処理を示している。
【図27】音声合成処理のフローチャートである。
【図28】テンプレート作成時のフローチャートである。
【図29】テンプレートによる再生処理を示すフローチャートである。
【符号の説明】
2・・・音声合成制御装置
4・・・音声合成部
6・・・インターフェイス画面[0001]
BACKGROUND OF THE INVENTION
In a device that performs speech synthesis based on text data, the given text data is subjected to morphological analysis, and then accentuated for each word to obtain speech synthesis data (Patent Document 1). However, the morphological analysis is not necessarily performed accurately, and the accent of each word is not always accurately given.
[0002]
This problem can be solved to some extent by registering many words in the dictionary of the speech synthesis engine or registering words with different accents. However, this method causes another problem that the dictionary is enlarged.
[0003]
Also, the task of obtaining desired speech synthesis data by giving appropriate parameters to the speech synthesis engine requires specialized knowledge of speech and is not easy.
[0004]
Therefore, the present invention seeks to solve the above-described problems by facilitating correction of speech synthesis data.
[0005]
[Patent Document 1]
JP 2003-005776 A
SUMMARY OF THE INVENTION AND EFFECT
(1) A speech synthesis control device according to the present invention is a speech synthesis control device for taking an interface to a speech synthesis unit,
Upon receiving the speech synthesis command, the given character string is given to the speech synthesizer, and the speech synthesis data corresponding to the character string and the parameters used in speech synthesis are acquired from the speech synthesizer, and based on the parameters When the modification of the character string is corrected and a speech synthesis command is given by the operator, the parameter is modified based on the modified modification and given to the speech synthesizer. The voice synthesis data corrected is obtained from the voice synthesis unit.
[0006]
Therefore, the operator can correct desired parameters by using the parameters created by the speech synthesis unit and obtain desired speech synthesis data. In addition, the character string is displayed in a modified form based on the parameter, and the parameter can be modified by modifying the modification, so that the modification operation is easy.
[0007]
(3) The speech synthesis control device according to the present invention is characterized in that the character string is a kanji character string or a kana character string.
[0008]
Therefore, the kanji character string or kana character string is displayed with the modification based on the parameters.
[0009]
(4) In the speech synthesis control device according to the present invention, the character string given from the operator is a kanji character string, and the speech synthesizer generates a kana character string corresponding to the given kanji character string. The character string received from the speech synthesizer is displayed with the modification applied.
[0010]
Therefore, if a kanji character string is input, a corresponding kana character string is generated, and a kana character string with a modification is displayed.
[0011]
(5) An interface program according to the present invention is an interface program for realizing an interface to a speech synthesis unit using a computer,
Upon receiving the voice synthesis command, the given kanji character string is given to the voice synthesizer, and from the voice synthesizer, the voice synthesis data corresponding to the kanji character string, the kana character string corresponding to the kanji character string, and The parameter used in the speech synthesis is acquired, the kana character string is modified and displayed based on the parameter, and the modification of the kana character string is corrected by the operator, and a speech synthesis command is given. Based on the modified modification, the parameter is corrected and given to the speech synthesizer, and the computer is caused to perform processing for acquiring the modified speech synthesis data from the speech synthesizer.
[0012]
Therefore, the operator can correct desired parameters by using the parameters created by the speech synthesis unit and obtain desired speech synthesis data. In addition, the character string is displayed in a modified form based on the parameter, and the parameter can be modified by modifying the modification, so that the modification operation is easy. Furthermore, if a Kanji character string is input, a corresponding kana character string is generated, and a modified kana character string is displayed.
[0013]
(6) The interface program according to the present invention, when the kana character string displayed by the operator is corrected and a voice synthesis command is given, gives the corrected kana character string to the voice synthesizer, and the voice synthesizer It is characterized by acquiring the speech synthesis data corrected from the above.
[0014]
Therefore, when the kana character string generated by the speech synthesizer is incorrect, the operator can correct it and obtain speech synthesis data.
[0015]
(7) The speech synthesis control device according to the present invention is characterized in that the parameter is a parameter related to a length of a sound corresponding to a character.
[0016]
Therefore, the length of the sound can be intuitively recognized by the modification of the characters, and the correction is easy.
[0017]
(8) The speech synthesis control device according to the present invention is characterized in that the parameter is a parameter related to an accent.
[0018]
Therefore, the parameters regarding the accent can be intuitively recognized by the modification of the characters, and the correction is easy.
[0019]
(9) In the speech synthesizer according to the present invention, the parameter is an accent break or morpheme break or both, and the modification of the character string is a modification in which a display break is provided at the position of the break. It is characterized by.
[0020]
Therefore, it is possible to intuitively recognize accent breaks and morpheme breaks by character modification.
[0021]
(10) The speech synthesizer according to the present invention is characterized in that by changing the display partition, the accent partition and morpheme partition as parameters are modified accordingly.
[0022]
Therefore, accent breaks and morpheme breaks can be intuitively recognized by character modification, and correction thereof is easy.
[0023]
(11) In the speech synthesizer according to the present invention, the parameter is the height of the accent, and the modification of the character string is performed by moving the position of each character in a direction perpendicular to the arrangement direction of the character string in accordance with the height of the accent. It is characterized by such modifications.
[0024]
Therefore, the height of the accent can be intuitively recognized by the position of the character.
[0025]
(12) The speech synthesizer according to the present invention is characterized in that, by changing the position of a character, the height of an accent as a parameter is corrected accordingly.
[0026]
Therefore, the height of the accent can be intuitively recognized by the position of the character, and the correction is easy.
[0027]
(13) In the speech synthesizer according to the present invention, the speech synthesizer outputs characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character, and accordingly, a plurality of phoneme candidates for the character When the phoneme segment to be used is changed and a voice synthesis command is given by the operator, the characteristics of the changed phoneme are given to the voice synthesizer, and the voice synthesis data changed from the voice synthesizer is displayed. It is characterized by acquisition.
[0028]
Therefore, the operator can select appropriate phoneme pieces and obtain speech synthesis data.
[0029]
(14) In the speech synthesizer according to the present invention, the characteristics of the phoneme are set to the time length of the phoneme and the phoneme before and after the phoneme in the series of speech data including the phoneme recorded in the speech synthesizer. It is characterized by high and low accents.
[0030]
Therefore, the operator can select an appropriate phoneme piece based on this characteristic.
[0031]
(15) The speech synthesizer according to the present invention is characterized in that speech synthesis data is saved as a speech file in response to a save command.
[0032]
Therefore, the generated speech synthesis data can be saved as a file.
[0033]
(16) The speech synthesizer according to the present invention is characterized in that a character string and a parameter are stored as a speech characteristic file in response to a storage command.
[0034]
Therefore, data necessary for speech synthesis can be stored.
[0035]
(17) The speech synthesizer according to the present invention includes a replacement part that does not determine a specific character string in a part of the character string, and records information for generating a parameter for the replacement part. It is characterized by.
[0036]
Therefore, by inserting a character string for the replacement part, it is possible to obtain a voice characteristic file that can be synthesized with appropriate parameters.
[0037]
(18) The voice characteristic file according to the present invention includes a character string part and a replacement part arranged in the order of speech utterances, and the character string part stores parameters corresponding to the character string and each character. The replacement portion is characterized in that information for determining what parameters are given to each character of the character string when the character string is inserted is recorded.
[0038]
Therefore, speech synthesis can be performed with appropriate parameters by inserting a character string for the replacement part.
[0039]
(19) A program according to the present invention is a program for causing a computer to perform a process of causing a voice synthesis unit to perform voice synthesis based on a voice characteristic file,
The audio file is provided with a character string portion and a replacement portion arranged in the order of speech utterances, and the character string portion includes a character string and parameters corresponding to each character recorded therein. Contains information for determining what parameters are given to each character of the character string when the character string is inserted, and the character string portion is based on the given voice characteristic file. When the operator inserts a character string into the input area and gives a speech synthesis command, the parameter corresponding to the character string part is displayed. Processing for reading out the voice characteristic file and generating parameters for the inserted character string in consideration of the information recorded corresponding to the replacement part, and providing the generated voice synthesis data to the voice synthesis unit Is a program for causing a computer.
[0040]
Therefore, speech synthesis can be performed with appropriate parameters by inserting a character string for the replacement part.
[0041]
(20) The speech synthesizer according to the present invention receives a character string, calculates a parameter, generates speech synthesis data corresponding to the character string based on the character string and the parameter, and converts the character string based on the parameter. When the modification of the character string is corrected by the operator and a speech synthesis command is given, the parameters are modified based on the modified modification to generate speech synthesis data.
[0042]
Therefore, the character string is modified and displayed based on the parameter, and the parameter can be modified by modifying this modification, so that the modification operation is easy.
[0043]
(22) A speech synthesis server device according to the present invention is a speech synthesis server device capable of communicating with a terminal device,
Receives a character string, calculates a parameter, generates speech synthesis data corresponding to the character string based on the character string and the parameter, and modifies the character string based on the parameter to display data for display on the terminal device And when the modification of the character string is corrected by the operator of the terminal device and a speech synthesis command is transmitted, speech synthesis data is generated based on the parameter corresponding to the modified modification, and the terminal device Send to.
[0044]
Therefore, the character string can be modified and displayed on the terminal device based on the parameter, and the modified voice synthesis data can be generated in the server device by modifying this modification, so that the modification operation is easy.
[0045]
(24) The server device according to the present invention transmits a voice characteristic file to the terminal device in response to a request from the terminal device,
The voice characteristic file includes a character string portion and a replacement portion arranged in the order of speech utterances. The character string portion stores a character string and parameters corresponding to each character, and the replacement portion includes Information for determining what parameters are given to each character of the character string when the character string is inserted is recorded.
[0046]
Therefore, the voice characteristic file can be transmitted to the terminal device.
[0047]
(20) A speech synthesis method according to the present invention receives a character string, calculates a parameter, generates speech synthesis data corresponding to the character string based on the character string and the parameter, and converts the character string based on the parameter. When the modification of the character string is corrected by the operator and a speech synthesis command is given, the parameters are modified based on the modified modification to generate speech synthesis data.
[0048]
Therefore, the character string is modified and displayed based on the parameter, and the parameter can be modified by modifying this modification, so that the modification operation is easy.
[0049]
In this invention, “modification of character string” is to change the visual attributes such as size, color, and arrangement of characters constituting the character string so that they can be recognized in comparison with other characters. Say.
[0050]
The “kanji magic character string” refers to a character string including at least one kanji character.
[0051]
The “parameter” is characteristic data necessary for speech synthesis using a character string, and includes, for example, accent height, accent position, speech length, and the like.
[0052]
The “program” is a concept that includes not only a program that can be directly executed by the CPU, but also a source format program, a compressed program, an encrypted program, and the like.
[0053]
DETAILED DESCRIPTION OF THE INVENTION
1. First embodiment
(1) Overall configuration and overview
FIG. 1 shows the overall configuration of a speech synthesis control device and speech synthesis unit according to an embodiment of the present invention. The
[0054]
The speech
[0055]
When the operator hears a sound based on the speech synthesis data and feels that the sound is not a desired sound, the operator can change the parameter and change the parameter to change the displayed character string and redo the speech synthesis. . In this way, the operator can obtain desired speech synthesis data.
[0056]
(2) Hardware configuration
FIG. 2 shows a hardware configuration when implemented using a CPU. Connected to the
[0057]
In addition to an operating system (not shown) such as WINDOWS (trademark), the
[0058]
The
[0059]
(3) Interface program processing
A flowchart of the
[0060]
First, in step S1, the
[0061]
Next, when the operator clicks the voice
[0062]
In response to this, the
[0063]
Some of the parameters are shown in FIG. Based on the given Kanji character string “Arajimacho no Michi”, the reading “Ankara Tocho no Michi” (kana character string) is generated. Also,
[0064]
CPU10 which received the parameter modifies a character string based on this parameter, and displays it (step S4). As shown in FIG. 10, this display is displayed in the
[0065]
Further, the kanji magic character string “Arajimacho no Michi” is displayed in a distinguishable manner by being surrounded by a
[0066]
Further, based on the
[0067]
Next, the
[0068]
A flowchart of the speech synthesis process is shown in FIG. The
[0069]
Next, the
[0070]
The operator listens to the sound from the
[0071]
FIG. 5 shows a flowchart of the editing process. Here, first, the case of changing the reading will be described. For example, suppose that “Arashimacho no Michi” is the correct reading for “Antarakucho no Michi” indicated by the
[0072]
In this case, the operator first selects a Chinese character whose reading is to be corrected on the screen of FIG. Here, “Easy”, “Island” and “Town” are selected by clicking with the
[0073]
The
[0074]
When the
[0075]
Based on the edited parameters, the
[0076]
Thereafter, the
[0077]
The operator hears this sound and determines whether or not the sound is a desired sound. If the desired sound is obtained, the
[0078]
A flowchart of the speech synthesis data storage process is shown in FIG. The
[0079]
On the other hand, if the desired sound is not obtained, edits such as accent segmentation, morpheme segmentation, accent height and phoneme segment are performed (see FIG. 5).
[0080]
The operator can edit accent breaks as follows (step S43). For example, the case where the accent phrase “Arashima Chono” and the accent phrase “Michi” are combined into one accent phrase on the display screen of FIG. 13 will be described. First, the “Arashima Chono”
[0081]
The
[0082]
In the above description, the combination of accent phrases has been described. However, one accent phrase can be edited so as to be divided into two accent phrases. In this case, the operator specifies an accent phrase to be divided by the
[0083]
Combination and division of morpheme phrases can be performed in the same manner as described above. Also in this case, the corrected parameter is stored in the
[0084]
Edit accent height as follows. The operator uses the
[0085]
Here, if the accent of the kana character “MA” is to be lowered, the
[0086]
Note that the
[0087]
Therefore, in this embodiment, this phoneme piece can be changed. The phoneme is edited as follows. On the accent height editing screen of FIG. 16, the operator double-clicks with the
[0088]
In the figure, a phoneme
[0089]
The numbers “2”, “3”, and “4” at the beginning of “2M”, “3M”, and “4M” indicate mora positions. “M” indicates the height of the accent in the sample sound. “H” is a high accent, “L” is a low accent, and “M” is an intermediate accent.
[0090]
“A”, “shi”, and “b” are notation of phonemes. That is, the immediately preceding sound in the sample sound is “a”, and the immediately following sound is “b”.
[0091]
The operator looks at the characteristics of each phoneme candidate written in this way, and selects a desired phoneme piece with the mouse 16 (step S95). The
[0092]
When the
[0093]
If the desired sound is obtained by editing, the voice synthesis data save
[0094]
In this embodiment, the voice synthesis data can be saved as a template (voice characteristic file) instead of being saved as it is. In the template, characters are not specified in a part of a character string, and characters are specified and used at the time of speech synthesis. This is effective when only the name part is changed, such as a lost call call, and the other part can be used repeatedly.
[0095]
When the operator clicks the
[0096]
A flowchart of the template data storage process is shown in FIG. First, the
[0097]
When the operator clicks the save button 94 (see FIG. 19), the
[0098]
The “no” and “michi” portions are character string portions in which specific character strings are designated. The part of ($ place name) is a replacement part into which a character string is inserted by replacement at the time of use. In the replacement part, a specific character string is not specified, and its part of speech is specified. By specifying the part of speech, it is possible to accurately determine parameters such as the height of an appropriate accent according to the relationship with the preceding and following parts of speech during speech synthesis.
[0099]
The
[0100]
In the above embodiment, a kanji character string is given in step S1, but a kana character string may be given.
[0101]
Moreover, although the example which produces | generates the template which includes a replacement part in one part was shown in the said embodiment, you may make it produce | generate and record the audio | voice characteristic data that all are character string parts.
[0102]
In the above embodiment, the voice
[0103]
2. Second embodiment
Next, a template processing program for performing speech synthesis based on the template data will be described. The hardware configuration is the same as in FIG. However, the
[0104]
A flowchart of the template processing program is shown in FIG. First, the
[0105]
The operator inputs a desired character string into the character
[0106]
Next, the
[0107]
As described above, if a template is used, the character string in the replacement part can be changed while maintaining the quality of the synthesized speech.
[0108]
In this embodiment, part-of-speech information is used as information for determining parameters, but rules for determining parameters may be used.
[0109]
3. Third embodiment
FIG. 25 shows an embodiment in which the voice
[0110]
The
[0111]
FIG. 26 and FIG. 27 show flowcharts of processing in which the
[0112]
In step S <b> 101, the
[0113]
The operator of the
[0114]
The
[0115]
The
[0116]
If the reproduced sound is not a desired sound, the operator of the
[0117]
The
[0118]
When the operator clicks the voice
[0119]
The
[0120]
If the desired sound is obtained, the operator clicks the
[0121]
In response to this, the
[0122]
In the above description, the case of downloading speech synthesis data has been described. The process for downloading a template after synthesizing a desired sound is a flowchart as shown in FIG.
[0123]
When the operator of the
[0124]
The operator of the
[0125]
When the operator of the
[0126]
Speech synthesis data and templates obtained in this way can be distributed to other people via the
[0127]
FIG. 29 shows a processing flowchart for obtaining speech synthesis data based on a template. The operator of the
[0128]
The operator inputs a desired character string in the
[0129]
In response to this, the
[0130]
In each of the above embodiments, each function is realized by a program, but a part or all of the functions may be realized by a logic circuit.
[Brief description of the drawings]
FIG. 1 is a diagram showing an overall configuration of a speech synthesis control device and a speech synthesis unit according to an embodiment of the present invention.
FIG. 2 is a diagram showing a hardware configuration when the apparatus of FIG. 1 is realized using a CPU.
FIG. 3 is a flowchart of an interface program.
FIG. 4 is a flowchart of a speech synthesis processing part.
FIG. 5 is a flowchart of an editing process part.
FIG. 6 is a flowchart of storing voice synthesis data.
FIG. 7 is a flowchart of template data storage.
FIG. 8 is an example of an input / work screen.
FIG. 9 is a diagram showing generated parameters.
FIG. 10 is an example of a screen displayed by modifying the form of a character string based on parameters.
FIG. 11 is a diagram showing an editing screen for reading.
FIG. 12 is a diagram showing corrected parameters.
FIG. 13 is a diagram showing a corrected input / work screen.
FIG. 14 is a diagram showing corrected parameters.
FIG. 15 is a diagram showing an accent editing screen.
FIG. 16 is a diagram showing an accent editing screen.
FIG. 17 is a diagram showing a phoneme piece editing screen;
FIG. 18 is a display example of characteristics of phoneme pieces;
FIG. 19 is a diagram showing a template creation screen.
FIG. 20 is a diagram showing a screen for part-of-speech selection.
FIG. 21 is a diagram showing a template creation screen.
FIG. 22 is a diagram showing template data.
FIG. 23 is a flowchart of a template processing program.
FIG. 24 is a screen when performing speech synthesis using a template.
FIG. 25 shows a system configuration when speech synthesis is performed from the
FIG. 26 is a flowchart of speech synthesis processing. The terminal device side represents browser program processing, and the server device side represents interface program and speech synthesis engine processing.
FIG. 27 is a flowchart of speech synthesis processing.
FIG. 28 is a flowchart for creating a template.
FIG. 29 is a flowchart showing a reproduction process using a template.
[Explanation of symbols]
2. Speech synthesis control device
4. Speech synthesis unit
6 ... Interface screen
Claims (23)
音声合成指令を受けると、与えられた文字列を音声合成部に与え、音声合成部から、当該文字列に対応する音声合成データおよび音声合成の際に用いたパラメータを取得し、
前記パラメータに基づいて文字列を修飾して表示し、
操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成部に与え、音声合成部から修正した音声合成データを取得する音声合成制御装置であって、
前記パラメータはアクセントの高低および各文字について音声合成の候補とした複数の音素片の特性情報を含み、
前記文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したものであるとともに、各文字について、対応する音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片のアクセントの高低による複数の音素片候補の表示の付加であり、
操作者によって、各文字の垂直位置が変更され、あるいは用いる音素片候補が変更されて、音声合成指令が与えられると、当該変更されたアクセントおよび当該変更された音素片候補の特性を音声合成部に与え、音声合成部から変更した音声合成データを取得する音声合成制御装置。 A speech synthesis control device for interfacing with a speech synthesis unit,
Upon receiving a voice synthesis command, the given character string is given to the voice synthesizer, and from the voice synthesizer, the voice synthesis data corresponding to the character string and the parameters used for the voice synthesis are acquired,
Display a modified string based on the parameters,
When the modification of the character string is corrected by the operator and a speech synthesis command is given, the parameters are corrected based on the modified modification and given to the speech synthesizer. A speech synthesis control device to obtain,
The parameters include accent information and characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character.
In the modification of the character string, the position of each character is moved in a direction perpendicular to the arrangement direction of the character string according to the height of the accent, and a series of speech including a corresponding phoneme piece for each character. In the data, addition of a display of a plurality of phoneme candidate candidates by the height of the accent of the phoneme and the phoneme before and after the phoneme,
When the operator changes the vertical position of each character or changes the phoneme candidate to be used and gives a speech synthesis command, the speech synthesizer displays the changed accent and the characteristics of the changed phoneme candidate. A speech synthesis control device that acquires the synthesized speech synthesis data from the speech synthesis unit.
音声合成指令を受けると、与えられた文字列を音声合成部に与え、音声合成部から、当該文字列に対応する音声合成データおよび音声合成の際に用いたパラメータを取得し、
前記パラメータに基づいて文字列を修飾して表示し、
操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成部に与え、音声合成部から修正した音声合成データを取得する処理をコンピュータに行わせるためのプログラムであって、
前記パラメータはアクセントの高低および各文字について音声合成の候補とした複数の音素片の特性情報を含み、
前記文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したものであるとともに、各文字について、対応する音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片のアクセントの高低による複数の音素片候補の表示の付加であり、
操作者によって、各文字の垂直位置が変更され、あるいは用いる音素片候補が変更されて、音声合成指令が与えられると、当該変更されたアクセントおよび当該変更された音素片候補の特性を音声合成部に与え、音声合成部から変更した音声合成データを取得する処理をコンピュータに行わせるためのプログラム。 An interface program for realizing an interface to a speech synthesis unit using a computer,
Upon receiving a voice synthesis command, the given character string is given to the voice synthesizer, and from the voice synthesizer, the voice synthesis data corresponding to the character string and the parameters used for the voice synthesis are acquired,
Display a modified string based on the parameters,
When the modification of the character string is corrected by the operator and a speech synthesis command is given, the parameters are corrected based on the modified modification and given to the speech synthesizer. A program for causing a computer to perform acquisition processing ,
The parameters include accent information and characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character.
In the modification of the character string, the position of each character is moved in a direction perpendicular to the arrangement direction of the character string according to the height of the accent, and a series of speech including a corresponding phoneme piece for each character. In the data, addition of a display of a plurality of phoneme candidate candidates by the height of the accent of the phoneme and the phoneme before and after the phoneme,
When the operator changes the vertical position of each character or changes the phoneme candidate to be used and gives a speech synthesis command, the speech synthesizer displays the changed accent and the characteristics of the changed phoneme candidate. A program for causing a computer to perform processing for obtaining changed speech synthesis data from the speech synthesis unit.
前記文字列は、漢字まじり文字列またはかな文字列であることを特徴とするもの。In the apparatus of claim 1 or the program of claim 2,
The character string is a kanji character string or a kana character string.
操作者から与えられる文字列は漢字まじりの文字列であり、
音声合成部は、与えられた漢字まじり文字列に対応するかな文字列を生成し、
音声合成部から受けたかな文字列に対して、前記修飾を施して表示することを特徴とするもの。In the apparatus or program in any one of Claims 1-3,
The character string given by the operator is a character string of kanji.
The speech synthesizer generates a kana character string corresponding to the given kanji character string,
The character string received from the speech synthesizer is displayed with the modification applied.
音声合成指令を受けると、与えられた漢字まじり文字列を音声合成部に与え、音声合成部から、当該漢字まじり文字列に対応する音声合成データ、当該漢字まじり文字列に対応するかな文字列および音声合成の際に用いたパラメータを取得し、
前記パラメータに基づいて前記かな文字列を修飾して表示し、
操作者によって、前記かな文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成部に与え、音声合成部から修正した音声合成データを取得する処理をコンピュータに行わせるためのプログラムであって、
前記パラメータはアクセントの高低および各文字について音声合成の候補とした複数の音素片の特性情報を含み、
前記文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したものであるとともに、各文字について、対応する音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片のアクセントの高低による複数の音素片候補の表示の付加であり、
操作者によって、各文字の垂直位置が変更され、あるいは用いる音素片候補が変更されて、音声合成指令が与えられると、当該変更されたアクセントおよび当該変更された音素片候補の特性を音声合成部に与え、音声合成部から変更した音声合成データを取得する処理をコンピュータに行わせるためのプログラム。 An interface program for realizing an interface to a speech synthesis unit using a computer,
Upon receiving the speech synthesis command, the given kanji character string is given to the speech synthesizer, and from the speech synthesizer, the speech synthesis data corresponding to the kanji character string, the kana character string corresponding to the kanji character string, and Get the parameters used for speech synthesis,
The kana character string is modified and displayed based on the parameter,
When the modification of the kana character string is corrected by the operator and a speech synthesis command is given, the parameters are modified based on the modified modification and given to the speech synthesizer. the process of acquiring a program for causing a computer,
The parameters include accent information and characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character.
In the modification of the character string, the position of each character is moved in a direction perpendicular to the arrangement direction of the character string according to the height of the accent, and a series of speech including a corresponding phoneme piece for each character. In the data, addition of a display of a plurality of phoneme candidate candidates by the height of the accent of the phoneme and the phoneme before and after the phoneme,
When the operator changes the vertical position of each character or changes the phoneme candidate to be used and gives a speech synthesis command, the speech synthesizer displays the changed accent and the characteristics of the changed phoneme candidate. A program for causing a computer to perform processing for obtaining changed speech synthesis data from the speech synthesis unit.
操作者によって、表示されたかな文字列が修正され、音声合成指令が与えられると、当該修正されたかな文字列を音声合成部に与え、音声合成部から修正した音声合成データを取得することを特徴とするもの。In the program of Claim 5,
When the displayed kana character string is corrected by the operator and a voice synthesis command is given, the corrected kana character string is given to the voice synthesizer, and the corrected voice synthesis data is acquired from the voice synthesizer. Features
前記パラメータは、前記文字に対応する音の長さに関するパラメータを含むことを特徴とするもの。In the apparatus or program in any one of Claims 1-6,
The parameter includes a parameter related to a sound length corresponding to the character.
前記複数の音素片候補は、ユーザによって、各文字がクリックされるまでは表示されないことを特徴とするもの。 In the apparatus or program in any one of Claims 1-6,
The plurality of phoneme candidate candidates are not displayed until each character is clicked by the user.
前記パラメータはアクセント区切または形態素区切またはその双方であり、
前記文字列の修飾は、前記区切の位置において、表示上の区切が設けられるような修飾であることを特徴とするもの。The apparatus or program according to claim 8.
The parameter is an accent break or morpheme break or both,
The character string is modified such that a delimiter on display is provided at the position of the delimiter.
前記表示上の区切を変更することにより、これに応じてパラメータとしてのアクセント区切が修正されることを特徴とするもの。The apparatus or program according to claim 9.
By changing the partition on the display, the accent partition as a parameter is corrected accordingly.
保存指令に応じて、音声合成データを音声ファイルとして保存することを特徴とするもの。 In the apparatus or program in any one of Claims 1-10 ,
According to a save command, the voice synthesis data is saved as a voice file.
保存指令に応じて、文字列およびパラメータを音声特性ファイルとして保存することを特徴とするもの。 In the apparatus or program in any one of Claims 1-11 ,
Character strings and parameters are saved as voice characteristics files in response to a save command.
前記文字列の一部に、特定の文字列を決定しない差替部分を設け、当該差替部分については、パラメータを生成するための情報を記録することを特徴とするもの。 The apparatus or program of claim 12 ,
A replacement part that does not determine a specific character string is provided in a part of the character string, and information for generating a parameter is recorded for the replacement part.
文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、
前記パラメータに基づいて文字列を修飾して表示し、
操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成データを生成する音声合成制御装置であって、
前記パラメータはアクセントの高低および各文字について音声合成の候補とした複数の音素片の特性情報を含み、
前記文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したものであるとともに、各文字について、対応する音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片のアクセントの高低による複数の音素片候補の表示の付加であり、
操作者によって、各文字の垂直位置が変更され、あるいは用いる音素片候補が変更されて、音声合成指令が与えられると、当該変更されたアクセントおよび当該変更された音素片候補の特性に基づいて音声合成データを生成する音声合成制御装置。 Takes a string and calculates the parameters
Generate speech synthesis data corresponding to the character string based on the character string and parameters,
Display a modified string based on the parameters,
When a modification of the character string is corrected by an operator and a speech synthesis command is given, the speech synthesis control device generates speech synthesis data by correcting parameters based on the modified modification .
The parameters include accent information and characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character.
In the modification of the character string, the position of each character is moved in a direction perpendicular to the arrangement direction of the character string according to the height of the accent, and a series of speech including a corresponding phoneme piece for each character. In the data, addition of a display of a plurality of phoneme candidate candidates by the height of the accent of the phoneme and the phoneme before and after the phoneme,
When the operator changes the vertical position of each character or changes the phoneme candidate to be used and gives a speech synthesis command, the voice is based on the changed accent and the characteristics of the changed phoneme candidate. A speech synthesis control device that generates synthesized data.
文字列を受けてパラメータを算出し、
文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、
前記パラメータに基づいて文字列を修飾して表示し、
操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成データを生成する処理をコンピュータに行わせるための音声合成プログラムであって、
前記パラメータはアクセントの高低および各文字について音声合成の候補とした複数の音素片の特性情報を含み、
前記文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したものであるとともに、各文字について、対応する音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片のアクセントの高低による複数の音素片候補の表示の付加であり、
操作者によって、各文字の垂直位置が変更され、あるいは用いる音素片候補が変更されて、音声合成指令が与えられると、当該変更されたアクセントおよび当該変更された音素片候補の特性に基づいて音声合成データを生成する処理をコンピュータに行わせるための音声合成プログラム。 A program for performing speech synthesis processing using a computer,
Takes a string and calculates the parameters
Generate speech synthesis data corresponding to the character string based on the character string and parameters,
Display a modified string based on the parameters,
When the modification of the character string is corrected by the operator and a speech synthesis command is given, the speech synthesis for causing the computer to perform processing for generating the speech synthesis data by correcting the parameters based on the modified modification A program ,
The parameters include accent information and characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character.
In the modification of the character string, the position of each character is moved in a direction perpendicular to the arrangement direction of the character string according to the height of the accent, and a series of speech including a corresponding phoneme piece for each character. In the data, addition of a display of a plurality of phoneme candidate candidates by the height of the accent of the phoneme and the phoneme before and after the phoneme,
When the operator changes the vertical position of each character or changes the phoneme candidate to be used and gives a speech synthesis command, the voice is based on the changed accent and the characteristics of the changed phoneme candidate. A speech synthesis program for causing a computer to perform processing for generating synthesized data.
文字列を受けてパラメータを算出し、
文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、
前記パラメータに基づいて文字列を修飾して表示するためのデータを端末装置に送信し、
端末装置の操作者によって、前記文字列の修飾が修正され、音声合成指令が送信されてくると、当該修正された修飾に対応するパラメータに基づいて音声合成データを生成して端末装置に送信する音声合成サーバ装置であって、
前記パラメータはアクセントの高低および各文字について音声合成の候補とした複数の音素片の特性情報を含み、
前記文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したものであるとともに、各文字について、対応する音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片のアクセントの高低による複数の音素片候補の表示の付加であり、
操作者によって、各文字の垂直位置が変更され、あるいは用いる音素片候補が変更されて、音声合成指令が与えられると、当該変更されたアクセントおよび当該変更された音素片候補の特性に基づいて音声合成データを生成する音声合成サーバ装置。 A speech synthesis server device capable of communicating with a terminal device,
Takes a string and calculates the parameters
Generate speech synthesis data corresponding to the character string based on the character string and parameters,
Sending data for display by modifying the character string based on the parameters to the terminal device,
When the modification of the character string is modified by the operator of the terminal device and a speech synthesis command is transmitted, speech synthesis data is generated based on parameters corresponding to the modified modification and transmitted to the terminal device. A speech synthesis server device ,
The parameters include accent information and characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character.
In the modification of the character string, the position of each character is moved in a direction perpendicular to the arrangement direction of the character string according to the height of the accent, and a series of speech including a corresponding phoneme piece for each character. In the data, addition of a display of a plurality of phoneme candidate candidates by the height of the accent of the phoneme and the phoneme before and after the phoneme,
When the operator changes the vertical position of each character or changes the phoneme candidate to be used and gives a speech synthesis command, the voice is based on the changed accent and the characteristics of the changed phoneme candidate. A speech synthesis server device that generates synthesized data.
文字列を受けてパラメータを算出し、
文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、
前記パラメータに基づいて文字列を修飾して表示するためのデータを端末装置に送信し、
端末装置の操作者によって、前記文字列の修飾が修正され、音声合成指令が送信されてくると、当該修正された修飾に対応するパラメータに基づいて音声合成データを生成して端末装置に送信する処理をコンピュータに行わせるためのプログラムであって、
前記パラメータはアクセントの高低および各文字について音声合成の候補とした複数の音素片の特性情報を含み、
前記文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したものであるとともに、各文字について、対応する音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片のアクセントの高低による複数の音素片候補の表示の付加であり、
操作者によって、各文字の垂直位置が変更され、あるいは用いる音素片候補が変更されて、音声合成指令が与えられると、当該変更されたアクセントおよび当該変更された音素片候補の特性に基づいて音声合成データを生成する処理をコンピュータに行わせるためのプログラム。 A program for realizing a speech synthesis server device capable of communicating with a terminal device by a computer,
Takes a string and calculates the parameters
Generate speech synthesis data corresponding to the character string based on the character string and parameters,
Sending data for display by modifying the character string based on the parameters to the terminal device,
When the modification of the character string is modified by the operator of the terminal device and a speech synthesis command is transmitted, speech synthesis data is generated based on parameters corresponding to the modified modification and transmitted to the terminal device. A program for causing a computer to perform processing ,
The parameters include accent information and characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character.
In the modification of the character string, the position of each character is moved in a direction perpendicular to the arrangement direction of the character string according to the height of the accent, and a series of speech including a corresponding phoneme piece for each character. In the data, addition of a display of a plurality of phoneme candidate candidates by the height of the accent of the phoneme and the phoneme before and after the phoneme,
When the operator changes the vertical position of each character or changes the phoneme candidate to be used and gives a speech synthesis command, the voice is based on the changed accent and the characteristics of the changed phoneme candidate. A program for causing a computer to perform processing for generating composite data.
前記サーバ装置は、端末装置の要求に応じて、音声特性ファイルを端末装置に送信するものであり、
前記音声特性ファイルは、
音声の発話順に並べられた文字列部分と差替部分を備えており、
文字列部分には、文字列および各文字に対応するパラメータが記録されており、
差替部分には、文字列が挿入された場合に当該文字列の各文字にどのようなパラメータを与えるかを決定するための情報が記録されている。 In the server apparatus or program of Claim 16 or Claim 17 ,
The server device transmits a voice characteristic file to the terminal device in response to a request from the terminal device.
The voice characteristic file is
It has a string part and a replacement part arranged in the order of speech utterances,
In the character string part, the character string and the parameters corresponding to each character are recorded.
Information for determining what parameters are to be given to each character of the character string when the character string is inserted is recorded in the replacement portion.
文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、
前記パラメータに基づいて文字列を修飾して表示し、
操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成データを生成する音声合成方法であって、
前記パラメータはアクセントの高低および各文字について音声合成の候補とした複数の音素片の特性情報を含み、
前記文字列の修飾は、アクセントの高低に合わせて、文字列の配列方向に垂直な方向に、各文字の位置を移動したものであるとともに、各文字について、対応する音素片を含む一連の音声データにおける、当該音素片およびその前後の音素片のアクセントの高低による複数の音素片候補の表示の付加であり、
操作者によって、各文字の垂直位置が変更され、あるいは用いる音素片候補が変更されて、音声合成指令が与えられると、当該変更されたアクセントおよび当該変更された音素片候補の特性を音声合成部に与え、音声合成部から変更した音声合成データを取得する音声合成方法。 Takes a string and calculates the parameters
Generate speech synthesis data corresponding to the character string based on the character string and parameters,
Display a modified string based on the parameters,
When the modification of the character string is corrected by an operator and a speech synthesis command is given, the speech synthesis method generates speech synthesis data by correcting parameters based on the modified modification .
The parameters include accent information and characteristic information of a plurality of phonemes that are candidates for speech synthesis for each character.
In the modification of the character string, the position of each character is moved in a direction perpendicular to the arrangement direction of the character string according to the height of the accent, and a series of speech including a corresponding phoneme piece for each character. In the data, addition of a display of a plurality of phoneme candidate candidates by the height of the accent of the phoneme and the phoneme before and after the phoneme,
When the operator changes the vertical position of each character or changes the phoneme candidate to be used and gives a speech synthesis command, the speech synthesizer displays the changed accent and the characteristics of the changed phoneme candidate. A speech synthesis method for obtaining modified speech synthesis data from the speech synthesis unit.
音声合成指令を受けると、与えられた文字列を音声合成部に与え、音声合成部から、当該文字列に対応する音声合成データおよび音声合成の際に用いたパラメータを取得し、 Upon receiving a voice synthesis command, the given character string is given to the voice synthesizer, and from the voice synthesizer, the voice synthesis data corresponding to the character string and the parameters used for the voice synthesis are acquired,
前記パラメータに基づいて文字列を修飾して表示し、 Display a modified string based on the parameters,
操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成部に与え、音声合成部から修正した音声合成データを取得する音声合成制御装置であって、 When the modification of the character string is corrected by the operator and a speech synthesis command is given, the parameters are corrected based on the modified modification and given to the speech synthesizer. A speech synthesis control device to obtain,
保存指令に応じて、文字列およびパラメータを音声特性ファイルとして保存するよう構成されるとともに、 In response to the save command, it is configured to save the character string and parameters as a voice characteristics file,
前記文字列の一部に、特定の文字列を決定しない差替部分を設け、当該差替部分については、パラメータを生成するための情報を記録することを特徴とする音声合成制御装置。 A speech synthesis control device, wherein a replacement part that does not determine a specific character string is provided in a part of the character string, and information for generating a parameter is recorded for the replacement part.
音声合成指令を受けると、与えられた文字列を音声合成部に与え、音声合成部から、当該文字列に対応する音声合成データおよび音声合成の際に用いたパラメータを取得し、 Upon receiving a voice synthesis command, the given character string is given to the voice synthesizer, and from the voice synthesizer, the voice synthesis data corresponding to the character string and the parameters used for the voice synthesis are acquired,
前記パラメータに基づいて文字列を修飾して表示し、 Display a modified string based on the parameters,
操作者によって、前記文字列の修飾が修正され、音声合成指令が与えられると、当該修正された修飾に基づいてパラメータを修正して音声合成部に与え、音声合成部から修正した音声合成データを取得する処理をコンピュータに行わせるためのプログラムであって、 When the modification of the character string is corrected by the operator and a speech synthesis command is given, the parameters are corrected based on the modified modification and given to the speech synthesizer. A program for causing a computer to perform acquisition processing,
保存指令に応じて、文字列およびパラメータを音声特性ファイルとして保存する処理ならびに、 Processing to save character strings and parameters as voice characteristics files according to the save command, and
前記文字列の一部に、特定の文字列を決定しない差替部分を設け、当該差替部分については、パラメータを生成するための情報を記録する処理をコンピュータに行わせるためのプログラム。 A program for providing a replacement part that does not determine a specific character string in a part of the character string, and causing the computer to perform processing for recording information for generating a parameter for the replacement part.
文字列を受けてパラメータを算出し、 Takes a string and calculates the parameters
文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、 Generate speech synthesis data corresponding to the character string based on the character string and parameters,
前記パラメータに基づいて文字列を修飾して表示するためのデータを端末装置に送信し、 Sending data for display by modifying the character string based on the parameters to the terminal device,
端末装置の操作者によって、前記文字列の修飾が修正され、音声合成指令が送信されてくると、当該修正された修飾に対応するパラメータに基づいて音声合成データを生成して端末装置に送信する音声合成サーバ装置であって、 When the modification of the character string is modified by the operator of the terminal device and a speech synthesis command is transmitted, speech synthesis data is generated based on parameters corresponding to the modified modification and transmitted to the terminal device. A speech synthesis server device,
前記サーバ装置は、端末装置の要求に応じて、音声特性ファイルを端末装置に送信するものであり、 The server device transmits a voice characteristic file to the terminal device in response to a request from the terminal device.
前記音声特性ファイルは、 The voice characteristic file is
音声の発話順に並べられた文字列部分と差替部分を備えており、 It has a string part and a replacement part arranged in the order of speech utterances,
文字列部分には、文字列および各文字に対応するパラメータが記録されており、 In the character string part, the character string and the parameters corresponding to each character are recorded.
差替部分には、文字列が挿入された場合に当該文字列の各文字にどのようなパラメータを与えるかを決定するための情報が記録されていることを特徴とする音声合成サーバ装置。 A speech synthesis server device characterized in that information for determining what parameter is to be given to each character of a character string when the character string is inserted is recorded in the replacement part.
文字列を受けてパラメータを算出し、 Takes a string and calculates the parameters
文字列およびパラメータに基づいて、文字列に対応する音声合成データを生成し、 Generate speech synthesis data corresponding to the character string based on the character string and parameters,
前記パラメータに基づいて文字列を修飾して表示するためのデータを端末装置に送信し、 Sending data for display by modifying the character string based on the parameters to the terminal device,
端末装置の操作者によって、前記文字列の修飾が修正され、音声合成指令が送信されてくると、当該修正された修飾に対応するパラメータに基づいて音声合成データを生成して端末装置に送信する処理をコンピュータに行わせるためのプログラムであって、 When the modification of the character string is modified by the operator of the terminal device and a speech synthesis command is transmitted, speech synthesis data is generated based on parameters corresponding to the modified modification and transmitted to the terminal device. A program for causing a computer to perform processing,
前記サーバ装置は、端末装置の要求に応じて、音声特性ファイルを端末装置に送信するものであり、 The server device transmits a voice characteristic file to the terminal device in response to a request from the terminal device.
前記音声特性ファイルは、 The voice characteristic file is
音声の発話順に並べられた文字列部分と差替部分を備えており、 It has a string part and a replacement part arranged in the order of speech utterances,
文字列部分には、文字列および各文字に対応するパラメータが記録されており、 In the character string part, the character string and the parameters corresponding to each character are recorded.
差替部分には、文字列が挿入された場合に当該文字列の各文字にどのようなパラメータを与えるかを決定するための情報が記録されていることを特徴とするプログラム。 A program in which information for determining what parameter is to be given to each character of a character string when the character string is inserted is recorded in the replacement part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003036524A JP4311710B2 (en) | 2003-02-14 | 2003-02-14 | Speech synthesis controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003036524A JP4311710B2 (en) | 2003-02-14 | 2003-02-14 | Speech synthesis controller |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004246129A JP2004246129A (en) | 2004-09-02 |
JP4311710B2 true JP4311710B2 (en) | 2009-08-12 |
Family
ID=33021587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003036524A Expired - Fee Related JP4311710B2 (en) | 2003-02-14 | 2003-02-14 | Speech synthesis controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4311710B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4664194B2 (en) * | 2005-11-29 | 2011-04-06 | パナソニック株式会社 | Voice quality control device and method, and program storage medium |
JP2011180368A (en) * | 2010-03-01 | 2011-09-15 | Fujitsu Ltd | Synthesized voice correction device and synthesized voice correction method |
JP5712818B2 (en) * | 2011-06-30 | 2015-05-07 | 富士通株式会社 | Speech synthesis apparatus, sound quality correction method and program |
WO2015111256A1 (en) * | 2014-01-24 | 2015-07-30 | クラリオン株式会社 | Speech adjustment system, server, and in-vehicle device |
JP6729539B2 (en) * | 2017-11-29 | 2020-07-22 | ヤマハ株式会社 | Speech synthesis method, speech synthesis system and program |
JP7180642B2 (en) * | 2020-07-01 | 2022-11-30 | ヤマハ株式会社 | Speech synthesis method, speech synthesis system and program |
-
2003
- 2003-02-14 JP JP2003036524A patent/JP4311710B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004246129A (en) | 2004-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4237915B2 (en) | A method performed on a computer to allow a user to set the pronunciation of a string | |
EP0216129B1 (en) | Apparatus for making and editing dictionary entries in a text to speech conversion system | |
JP2003295882A (en) | Text structure for speech synthesis, speech synthesizing method, speech synthesizer and computer program therefor | |
JP2007206317A (en) | Authoring method and apparatus, and program | |
WO1999060474A1 (en) | Document read-aloud device, read-aloud control method, and recording medium | |
US20020143549A1 (en) | Method and apparatus for displaying and manipulating account information using the human voice | |
JP2013072957A (en) | Document read-aloud support device, method and program | |
US7099828B2 (en) | Method and apparatus for word pronunciation composition | |
US20090281808A1 (en) | Voice data creation system, program, semiconductor integrated circuit device, and method for producing semiconductor integrated circuit device | |
JP4311710B2 (en) | Speech synthesis controller | |
JP3340581B2 (en) | Text-to-speech device and window system | |
JP2005345699A (en) | Device, method, and program for speech editing | |
JP6003115B2 (en) | Singing sequence data editing apparatus and singing sequence data editing method | |
JP5082971B2 (en) | A speech synthesizer and a reading system using the same. | |
JPH08272388A (en) | Device and method for synthesizing voice | |
JPH09325787A (en) | Voice synthesizing method, voice synthesizing device, method and device for incorporating voice command in sentence | |
JP2580565B2 (en) | Voice information dictionary creation device | |
JP2002268664A (en) | Voice converter and program | |
JP2006349787A (en) | Method and device for synthesizing voices | |
JP2002023781A (en) | Voice synthesizer, correction method for phrase units therein, rhythm pattern editing method therein, sound setting method therein, and computer-readable recording medium with voice synthesis program recorded thereon | |
JP2007127994A (en) | Voice synthesizing method, voice synthesizer, and program | |
JPH11272673A (en) | Method and processor for document processing and record medium where computer program for document processing is recorded | |
JP2004258561A (en) | Program and device for inputting data for singing synthesis | |
JP2007128506A (en) | Document reader, reading control method and recording medium | |
JP3414326B2 (en) | Speech synthesis dictionary registration apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050331 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090507 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090511 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120522 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4311710 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130522 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140522 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |