JP3573889B2 - Audio output device - Google Patents
Audio output device Download PDFInfo
- Publication number
- JP3573889B2 JP3573889B2 JP31876696A JP31876696A JP3573889B2 JP 3573889 B2 JP3573889 B2 JP 3573889B2 JP 31876696 A JP31876696 A JP 31876696A JP 31876696 A JP31876696 A JP 31876696A JP 3573889 B2 JP3573889 B2 JP 3573889B2
- Authority
- JP
- Japan
- Prior art keywords
- character string
- reading
- unregistered
- output device
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、日本語テキストを音声に変換して出力する音声出力装置に関する。
【0002】
【従来の技術】
音声出力装置の一例としてテキスト音声合成システムが知られている。この種のテキスト音声合成システムは、一般に、自然言語で書かれたテキストが入力されるとき、入力されたテキストの文字列に対し、形態素辞書などを参照して形態素候補を生成し、次に一定のアルゴリズムにより形態素候補中から選択した最適解に対して読みを含む音韻を設定し、さらに一定の規則(ルール)に従ってアクセント位置,ポーズ位置を設定して制御記号(発音記号列)に変換し、この制御記号を音声合成器に与えて、制御記号に応じた音声を出力するようになっている。
【0003】
ここで、音韻設定には、通常、形態素辞書に記載された読み情報を用いることが多いが、形態素辞書に未登録の語が入力テキスト中に存在する場合、未登録の語については、適切な読みを付与できず、適切な音韻を設定できないことがあった。
【0004】
このような未登録な語に対して読みを付与するために、従来では、例えば、特開平5−20302号,特開平2−225174号に示されているように、形態素辞書(日本語辞書)を参照して、漢字複合語の中で読みを付与できなかった文字列(未登録文字列)について、その漢字一文字ずつ漢字辞書を用いて読みを付与する方法が提案されている。また、特開平6−282290号には、入力された文字テキストについて字種判定部にて字種を判定し、辞書検索部にて全ての音韻(読み)や単語の区切りなどの仮設候補を列挙し、仮設候補選択部にて最も相応しい候補を選択するときに、仮設候補選択部にて不明語とされた漢字を含む文字について、単独漢字辞書を参照して、各単独漢字ごとに、所定の規則に従い、その音韻を決定する(漢字には複数の読みがあることを踏まえ、単漢字辞書中の読みに優先順位を設けて条件に応じた音韻を与える)方法が提案されている。
【0005】
【発明が解決しようとする課題】
このように、未登録文字列について読みを付与する技術が種々提案されているが、従来では、未登録文字列について適切な読みを付与するには限界があった。すなわち、上述の従来技術によっては、例えば、未登録文字列が漢字かな交じりの文字列である場合に、適切な読みを付与することができないという問題があった。
【0006】
本発明は、未登録文字列について、より適切な尤もらしい読み,音韻を付与し、より適切な音声を出力することの可能な音声出力装置を提供することを目的としている。
【0007】
【課題を解決するための手段】
上記目的を達成するために、請求項1記載の発明は、入力された日本語のテキストを音声に変換して出力する音声出力装置において、入力された日本語のテキストに対して形態素辞書を用いて形態素候補を生成して言語解析する言語解析部と、言語解析部により生成された形態素候補に対して読みを含む音韻を設定する音韻設定部とを有しており、前記言語解析部は、前記テキストから前記形態素辞書を用いて形態素候補を生成する際、形態素辞書に登録されておらず形態素候補が生成できなかった一まとまりの文字列範囲を未登録文字列として前記テキストから抽出し、また、前記音韻設定部は、漢字単独の読み情報が記憶されている単漢字辞書と、漢字以外の文字と発音記号との対応が記憶されている音変換テーブルとを備え、前記言語解析部によって未登録文字列が抽出されたとき、前記音韻設定部は、前記単漢字辞書および音変換テーブルを用いて未登録文字列の読みを推定するようになっており、前記単漢字辞書には、読みの音訓の属性情報とともに、さらに、単独で出現した漢字に付与する単独読みの属性情報が記憶されており、少なくとも対象文字の前および/または後の文字種により、読みの音訓の属性情報あるいは単独読みの属性情報を用いて、未登録文字列の読みを決定するようになっていることを特徴としている。
【0009】
また、請求項2記載の発明は、請求項1記載の音声出力装置において、前記単漢字辞書には、読みの音訓の属性情報とともに、さらに、特定の品詞を構成する場合に限った特定品詞読みの属性情報が記憶されていることを特徴としている。
【0010】
また、請求項3記載の発明は、請求項1記載の音声出力装置において、前記言語解析部または音韻設定部は、抽出した未登録文字列に対し、該未登録文字列全体としての品詞属性を推定するようになっていることを特徴としている。
【0011】
また、請求項4記載の発明は、請求項3記載の音声出力装置において、前記言語解析部または音韻設定部は、未登録文字列の直前,直後の形態素候補を参照して、前記未登録文字列全体としての品詞属性を推定することを特徴としている。
【0012】
また、請求項5記載の発明は、請求項3記載の音声出力装置において、前記言語解析部または音韻設定部は、前記未登録文字列全体としての品詞属性を予め設定された品詞の範囲内で推定することを特徴としている。
【0013】
また、請求項6記載の発明は、請求項3記載の音声出力装置において、前記言語解析部または音韻設定部は、未登録文字列に対して未登録文字列全体としての品詞属性を推定したとき、該未登録文字列に対し、前記推定した品詞属性を持つ形態素候補を生成し、生成した該未登録文字列の形態素候補を形態素辞書に登録されている登録文字列の形態素候補と同様に扱うことを特徴としている。
【0014】
また、請求項7記載の発明は、請求項1記載の音声出力装置において、前記言語解析部または音韻設定部は、未登録文字列が抽出されたときに、該未登録文字列の文字種を判定し、音韻設定部は、未登録文字列中に文字種が漢字の文字列があると判定した場合は、未登録文字列の読みを推定する際、該未登録文字列に対し単漢字辞書を参照して適切な読みを付与し、また、未登録文字列の漢字以外の文字種の文字列については、未登録文字列の読みを推定する際、音変換テーブルを用いて適切な読みを付与するようになっていることを特徴としている。
【0015】
また、請求項8記載の発明は、請求項7記載の音声出力装置において、前記音韻設定部は、未登録文字列中の漢字の文字列に対して読みを付与する際に、単漢字辞書に記憶されている複数の読み情報から適切な読みを選択することを特徴としている。
【0016】
また、請求項9記載の発明は、請求項7記載の音声出力装置において、前記音韻設定部は、未登録文字列中の漢字の文字列に対して読みを付与する際に、当該漢字の文字列の直前,直後の文字列の文字種を利用することにより、単漢字辞書に記憶されている複数の読み情報から適切な読みを選択することを特徴としている。
【0017】
また、請求項10記載の発明は、請求項7記載の音声出力装置において、前記言語解析部または音韻設定部は、抽出した未登録文字列に対し、該未登録文字列全体としての品詞属性を推定するようになっており、前記音韻設定部は、未登録文字列中の漢字の文字列に対して読みを付与する際に、該未登録文字列全体に対して前記推定された品詞属性を用いて単漢字辞書に記憶されている複数の読み情報から適切な読みを選択することを特徴としている。
【0018】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。図1は本発明に係る音声出力装置の構成例を示す図である。図1を参照すると、この音声出力装置は、テキスト入力部1から入力された日本語のテキストに対して、形態素辞書3を用いて形態素候補を生成して言語解析する言語解析部2と、言語解析部2により生成された形態素候補に対して読みを含む音韻を設定し、出力部7に与え、出力部7から音声を出力させる音韻設定部4とを有している。
【0019】
ここで、言語解析部2は、前記テキストから形態素辞書3を用いて形態素候補を生成する際、形態素辞書3に登録されておらず形態素候補が生成できなかった文字列範囲を未登録文字列としてテキストから抽出するようになっている。
【0020】
また、音韻設定部4は、漢字単独の読み情報と読みの音訓の属性情報とが記憶されている単漢字辞書5と、漢字以外の文字と発音記号との対応が記憶されている音変換テーブル6とを備え、言語解析部2によって未登録文字列が抽出されるとき、音韻設定部4は、単漢字辞書5および音変換テーブル6を用いて未登録文字列の読みを推定するようになっている。
【0021】
図2は単漢字辞書5の一例を示す図である。図2を参照すると、単漢字辞書5には、読みの音訓の属性情報(訓読みの属性情報,音読みの属性情報)とともに、さらに、漢字1文字で独立して意味をなす単独読みの属性情報(単独で出現した漢字に付与する単独読みの属性情報)が記憶されている。さらに、図2の例では、単漢字辞書5には、特定の品詞を構成する場合に限った特定品詞読みの属性情報(図2の例では、固有名詞構成する漢字に付与する固有名詞読みの属性情報)が記憶されている。
【0022】
また、図3は音変換テーブル6の一例を示す図である。図3を参照すると、音変換テーブル6には、漢字以外の文字(平仮名,片仮名など)に対して、発音記号(aa,iiなど)が対応させて記憶されている。
【0023】
より具体的に、図1の音声出力装置において、言語解析部2または音韻設定部4は、入力されたテキストから未登録文字列が抽出されたときに、該未登録文字列の文字種を判定し、音韻設定部4は、未登録文字列中に文字種が漢字の文字列があると判定した場合は、未登録文字列の読みを推定する際、該未登録文字列に対し図2のような単漢字辞書5を参照して適切な読みを付与し、また、未登録文字列の漢字以外の文字種の文字列については、図3のような音変換テーブル6を用いて適切な読みを付与するようになっている。
【0024】
この場合、音韻設定部4は、未登録文字列中の漢字の文字列に対して読みを付与する際に、単漢字辞書5に記憶されている複数の読み情報から適切な読みを選択することができる。
【0025】
具体的に、音韻設定部4は、未登録文字列中の漢字の文字列に対して読みを付与する際に、当該漢字の文字列の直前,直後の文字列の文字種を利用することにより、単漢字辞書に記憶されている複数の読み情報から適切な読みを選択することができる。
【0026】
図4,図5は図1の音声出力装置の処理動作例を示すフローチャートである。なお、図4,図5の処理動作例では、言語解析部2から音韻設定部4に未登録文字列を与え、音韻設定部4において未登録文字列の文字種を判定し、読みを付与するようになっている。
【0027】
図4,図5を参照すると、図1の音声出力装置では、テキスト入力部1からテキストが入力されると(ステップS1)、言語処理部2では、入力されたテキストに対し形態素辞書3を参照して形態素候補(形態素候補列)を生成する(ステップS2)。この際、言語処理部2は、形態素辞書3に登録されていない文字列については、未登録文字列として抽出する(ステップS3)。
【0028】
このようにして、言語処理部2で生成された形態素候補,あるいは抽出された未登録文字列は、音韻設定部4へ送られる。音韻設定部4では、言語処理部2から未登録文字列が送られたかを判断する(ステップS4)。この結果、未登録文字列ではなく、形態素候補が送られたと判断したときには、音韻設定部4は、形態素候補のうちから、最適候補を選択し、形態素を確定し、これに読みを付与する(ステップS5)。そして、アクセント位置,ポーズ位置を確定し(ステップS6)、この文字列に対する音韻をアクセント位置,ポーズ位置などの情報とともに制御記号(発音記号列)に変換して出力部7に与え(ステップS7)、出力部7から音声として出力させる(ステップS8)。
【0029】
これに対し、ステップS4において未登録文字列が送られたと判断した場合には、音韻設定部4は、この未登録文字列の字種を判定する(ステップS9)。具体的には、この未登録文字列が漢字か否かを判定する。この判定の結果、字種が漢字であるときには、音韻設定部4は、単漢字辞書5を検索してこの未登録文字列に読みを付与する(ステップS10)。これに対し、ステップS9において、字種が漢字でないときには、音韻設定部4は、音変換テーブル6を検索してこの未登録文字列に読みを付与する(ステップS11)。
【0030】
このようにして、単漢字辞書5あるいは音変換テーブル6を参照して、未登録文字列に対して推定される読みを付与し、未登録文字列の最後尾まで読みを付与し終わったら(ステップS12)、アクセント位置,ポーズ位置を確定し(ステップS6)、未登録文字列に対する音韻をアクセント位置,ポーズ位置などの情報とともに制御記号(発音記号列)に変換して出力部7に与え(ステップS7)、出力部7から音声として出力させる(ステップS8)。
【0031】
このように、図1の音声出力装置によれば、未登録文字列を一まとまりの形態素候補として抽出することが可能となり、文字列全体としての属性付けが可能になり、属性を用いた高度な読み付与が可能になる。さらに、未登録文字列が漢字かな交じりの文字列であっても単漢字辞書5と音変換テーブル6を併用することで先頭から順番に読み,音韻を得ることが可能になる。
【0032】
また、単漢字辞書5に、読みの音訓の属性情報(訓読みの属性情報,音読みの属性情報)とともに、さらに、漢字1文字で独立して意味をなす単独読みの属性情報(単独で出現した漢字に付与する単独読みの属性情報)が記憶されていることで、複合語の構成語でもなく、直後に送り仮名がない単独の読みが付与されるべきであるにもかかわらず、不自然な音読み,訓読みが付与されていた漢字表記に対し、自然な読みを付与することができるため、尤もらしい読み上げが可能になる。
【0033】
また、単漢字辞書5に、特定の品詞を構成する場合に限った特定品詞読みの属性情報(図2の例では、固有名詞構成する漢字に付与する固有名詞読みの属性情報)が記憶されていることで、読みに傾向性のある特定の品詞に属する形態素候補の構成漢字に対して、その傾向を加味した読みを付与することができるため、尤もらしい読み上げが可能になる。
【0034】
また、図1の音声出力装置において、言語解析部2または音韻設定部4は、未登録文字列を抽出したときに、抽出した未登録文字列に対し、該未登録文字列全体としての品詞属性を推定する機能をさらに具備していても良い。
【0035】
この場合、言語解析部2または音韻設定部4は、未登録文字列の直前,直後の形態素候補を参照して、前記未登録文字列全体としての品詞属性を推定することができる。
【0036】
あるいは、言語解析部2または音韻設定部4は、未登録文字列全体としての品詞属性をヒューリスティックに設定した品詞の範囲内で推定することもできる。
【0037】
このように、未登録文字列全体としての品詞属性を推定する機能を具備している場合、言語解析部2または音韻設定部4は、未登録文字列に対して、推定した品詞属性を持つ形態素候補を生成し、生成した該未登録文字列の形態素候補を形態素辞書3に登録されている登録文字列の形態素候補と同様に扱うことができる。
【0038】
図6は言語解析部2または音韻設定部4が未登録文字列全体としての品詞属性を推定する機能を有しているとした場合における未登録文字列に対する品詞推定処理,形態素候補生成処理の一例を示すフローチャートである。なお、図6の処理例では、言語解析部2から音韻設定部4に未登録文字列を与え、音韻設定部4において未登録文字列の品詞を推定するようになっている。
【0039】
図6を参照すると、言語解析部2は、図4の処理例のステップS1〜S8と同様に、入力テキストのうち形態素辞書3に登録されている文字列については、形態素辞書3を参照して形態素候補(形態素候補列)を生成する一方、形態素辞書3に登録されていない未登録文字列については、これを抽出して、音韻設定部4へ送る(ステップS21〜S23)。
【0040】
そして、音韻設定部4では、言語処理部2から未登録文字列が送られたかを判断する(ステップS24)。この結果、未登録文字列ではなく、形態素候補が送られたと判断したときには、音韻設定部4は、形態素候補のうちから、最適候補を選択し、形態素を確定し、これに読みを付与する(ステップS25)。そして、アクセント位置,ポーズ位置を確定し(ステップS26)、この文字列に対する音韻をアクセント位置,ポーズ位置などの情報とともに制御記号(発音記号列)に変換して出力部7に与え(ステップS27)、出力部7から音声として出力させる(ステップS28)。
【0041】
これに対し、ステップS24において未登録文字列が送られたと判断した場合には、音韻設定部4は、この未登録文字列の品詞を推定して(ステップS29)、未登録文字列について形態素候補を生成する(ステップS30)。具体的には、この場合、音韻設定部4は、未登録文字列の直前,直後の形態素候補を参照して、前記未登録文字列全体としての品詞属性を推定することができる。あるいは、音韻設定部4は、未登録文字列全体としての品詞属性をヒューリスティックに設定した品詞の範囲内で推定することもできる。
【0042】
このようにして、未登録文字列について未登録文字列全体としての品詞属性を推定し、推定した品詞属性を持つ形態素候補を生成すると、音韻設定部4は、生成した該未登録文字列の形態素候補を形態素辞書に登録されている登録文字列の形態素候補と同様に扱い、処理を行なう。すなわち、音韻設定部4は、生成した未登録文字列の形態素候補のうちから、最適候補を選択し、形態素を確定し、読みを付与する(ステップS25)。そして、アクセント位置,ポーズ位置を確定し(ステップS26)、この文字列に対する音韻をアクセント位置,ポーズ位置などの情報とともに制御記号(発音記号列)に変換して出力部7に与え(ステップS27)、出力部7から音声として出力させる(ステップS28)。
【0043】
このように、未登録文字列全体としての品詞属性を推定する機能を言語解析部2または音韻設定部4にもたせることにより、抽出した一まとまりの未登録文字列に品詞属性を持たせることができ、高度な読み付与が可能になる。
【0044】
そして、この場合、未登録文字列の直前,直後の形態素候補を参照して、未登録文字列全体としての品詞属性を推定する場合には、未登録文字列に尤もらしい品詞属性を与えることが可能になる。
【0045】
また、未登録文字列全体としての品詞属性をヒューリスティックに設定した品詞の範囲内で推定する場合には、あらかじめ用意された品詞属性に限定した形態素候補しか生成されないので、形態素候補の大量生成を防ぐことができ、最適解の絞り込み処理を効率良く行なうことができる。
【0046】
また、未登録文字列に対して、推定した品詞属性を持つ形態素候補を生成し、該未登録文字列の形態素候補を形態素辞書3に登録されている登録文字列の形態素候補と同様に扱うことができることにより、未登録文字列が含まれたテキストでも、言語解析部2または音韻設定部4において、そこで解析処理が止まることなく、未登録文字列の影響を受けずに最適解を絞り込むことができる。
【0047】
また、図1の音声出力装置において、言語解析部2または音韻設定部4によって未登録文字列全体としての品詞属性を推定しても、この未登録文字列に対して読みが付与されない場合、音韻設定部4は、該未登録文字列全体に対して前記推定された品詞属性を用いて単漢字辞書5に記憶されている複数の読み情報から適切な読みを選択することで、未登録文字列中の漢字の文字列に対して読みを付与することもできる。
【0048】
図7,図8はこのような未登録文字列への読み付与処理の一例を示すフローチャートである。なお、図7,図8の処理例において、図6と同じステップには、同じ符号を付している。図7,図8を参照すると、ステップS24において未登録文字列が送られたと判断した場合には、前述したように、音韻設定部4は、この未登録文字列の品詞を推定して(ステップS29)、未登録文字列について形態素候補を生成する(ステップS30)。
【0049】
このようにして、未登録文字列について未登録文字列全体としての品詞属性を推定し、推定した品詞属性を持つ形態素候補を生成すると、音韻設定部4は、生成した該未登録文字列の形態素候補を形態素辞書に登録されている登録文字列の形態素候補と同様に扱い、処理を行なう。すなわち、音韻設定部4は、生成した未登録文字列の形態素候補のうちから、最適候補を選択し、形態素を確定し、読みを付与する(ステップS25)。
【0050】
しかしながら、このとき、品詞属性は付与されたものの、読みの付与されない場合がある。このような場合を考慮して、ステップS25で最適候補を選択し形態素を確定したとき、この形態素文字列に読みが付与されているか否かを判別する(ステップS41)。この結果、最適解として品詞属性は付されているものの読みの付与されていないときには、この形態素文字列を先頭文字から順に入力させる(ステップS42)。そして、音韻設定部4は、先頭から1文字ずつ入力される未登録文字列(形態素文字列)について、字種を判定し(ステップS43)、この結果、字種が漢字と判定したときには、単漢字辞書5を検索して読みを付与する(ステップS44)。すなわち、単漢字辞書5には複数の読みが記載されているので、音韻設定部4は、字種が漢字と判定したとき、この対象文字列の前後の文字列の文字種から、または、この対象文字列付帯の品詞属性に応じて音読み,訓読み,単独読み,特定品詞読みのいずれかを選択できる。また、字種が漢字以外と判定したときには、音変換テーブル6を検索して読みを付与する(ステップS45)。このようにして、読みが付与されていない未登録文字列(形態素文字列)について1文字ずつ読み付与を実行し、文字列の終わりまできたら(ステップS46)、読みの付与された文字列全体に対して、アクセント位置,ポーズ位置を確定し(ステップS26)、この文字列に対する音韻をアクセント位置,ポーズ位置などの情報とともに制御記号(発音記号列)に変換して出力部7に与え(ステップS27)、出力部7から音声として出力させる(ステップS28)。
【0051】
次に、本発明の音声出力装置の具体的な処理例について説明する。いま例えば、日本語のテキストとして、図9に示すようなテキストが入力すると、言語解析部2では、形態素辞書3を参照して、形態素候補を生成する。その際、言語解析部2は、形態素辞書3に未登録の文字列が存在する場合、これを未登録文字列として抽出する。例えば、図9の入力テキストに対し、図10のような未登録文字列を抽出する。
【0052】
このように、未登録文字列が抽出された場合、言語解析部2または音韻設定部4では、抽出した未登録文字列の品詞を推定する。この推定処理には、この未登録文字列の前後の形態素候補によって、この未登録文字列の品詞を推定をする方法や、ヒューリスティックを利用する方法を用いることができる。
【0053】
具体例を挙げると、未登録文字列の前後の形態素候補によって推定する方法では、例えば、直前の品詞が数詞であれば、未登録文字列の品詞を名詞あるいは助数と推定し、また、直後の品詞が固有名詞接尾辞であれば、未登録文字列の品詞を固有名詞と推定するなどとして行なわれる。また、ヒューリスティックに品詞を推定する方法では、例えば、未登録文字列の品詞候補は一般名詞と固有名詞に限るなどのように、予め設定された品詞の範囲内で推定するとして行なわれる。
【0054】
このようにして、未登録文字列に対して品詞の推定が行なわれる場合、言語解析部2または音韻設定部4は、推定した品詞の数だけ、形態素候補を生成する。図11には、図10の未登録文字列に対して品詞の推定を行なって得られた(推定された)形態素候補の一例が示されている。このようにして未登録文字列に対して形態素候補が推定される場合、言語解析部2または音韻設定部4では、未登録文字列に対して推定された形態素候補を、登録文字列についてのその他の形態素候補と同様に扱い、これらを絞り込みの対象とする。
【0055】
すなわち、言語解析部2または音韻設定部4は、生成した全ての形態素候補から、最長一致法,コスト最小法などによって形態素候補を絞り込み、最適解を得る。図12には、図9の入力テキストに対して得られた最適解の一例が示されている。
【0056】
このようにして最適解が得られたとき、音韻設定部4は、最適解のうち、読みが付されていない形態素文字列に対し、読みを付与する。この場合、例えば、形態素文字列を先頭から1文字ずつ入力し、文字種が漢字であると判断されたときには、単漢字辞書5を検索し、また、漢字以外であると判断されたときには、音変換テーブル6を検索し、読みが付されていない形態素に対し、適切な読みを付与する。
【0057】
ここで、読みを付与する仕方としては、文字列全体としての品詞属性によりどの属性を持つ読みを選択するかを決定する方法と、対象文字の前後の文字種により読みを決定する方法が考えられる。
【0058】
具体例を挙げると、文字列全体としての品詞属性によりどの属性を持つ読みを選択するかを決定する方法では、文字列全体の品詞属性が固有名詞である場合は固有名詞読みを選択する、文字列全体の品詞属性が一般名詞だったら音読みを選択する、などによって、読みを決定することができる。また、対象文字の前後の文字種により読みを決定する方法では、直後の文字が平仮名だったら訓読みを選択する(「煙い」:ケムい)、直後の文字が句読点や閉じ括弧だったら単独読みを選択する(「煙。」:ケムリ)、などによって、読みを決定することができる。
【0059】
図13には、図12の最適解において、読みが付与されていない形態素文字列である「住専」,「擬える」,「山花」について、読みを付与する例が示されている。図13の例によれば、例えば、未登録文字列「住専」において、「住」は、文字列全体が一般名詞であり、後続文字が漢字であることから、音読みを選択し、また、「専」は、文字列全体が一般名詞であり、前接文字が漢字であることから、音読みを選択する。また、未登録文字列「擬える」において、「擬」は、文字列全体が動詞であり、後続文字が平仮名であることより、訓読みを選択する。また、未登録文字列「山花」において、「山」は、文字列全体が固有名詞であることより、固有名詞読みを選択し、また、「花」は、文字列全体が固有名詞であることより、固有名詞読みを選択する。
【0060】
このようにして、未登録文字列について、適切な読みを付与することができ、全ての文字列について読みが付与された段階で、アクセント位置,ポーズ位置を確定して発音記号列に変換して音声出力部7に与え、音声出力部7から適切な音声を出力させることができる。
【0061】
図14には、図9の入力テキストの全ての文字列について、形態素,読みが付与された状態が示されている。図14のような状態で、音韻設定部は、図15に示すような発音記号列を生成することができる。
【0062】
図16は図1の音声出力装置のハードウェア構成例を示す図である。図16を参照すると、この音声出力装置は、例えばパーソナルコンピュータ等で実現され、全体を制御するCPU21と、CPU21の制御プログラム等が記憶されているROM22と、CPU21のワークエリア等として使用されるRAM23と、日本語のテキストを入力するテキスト入力部1と、音声を出力する出力部(例えば、スピーカ)7とを有している。
【0063】
ここで、RAM23には、例えば、図1の形態素辞書3,単漢字辞書5,音変換テーブル6を設定することができる。また、CPU21は、図1の言語解析部2,音韻設定部4の機能を有している。
【0064】
なお、CPU21におけるこのような言語解析部2,音韻設定部4等としての機能は、例えばソフトウェアパッケージ(具体的には、CD−ROM等の情報記録媒体)の形で提供することができ、このため、図16の例では、情報記録媒体30がセットさせるとき、これを駆動する媒体駆動装置31が設けられている。
【0065】
換言すれば、本発明の音声出力装置は、テキスト入力部,音声出力部等を備えた汎用の計算機システムにCD−ROM等の情報記録媒体に記録されたプログラムを読み込ませて、この汎用計算機システムのマイクロプロセッサに音声出力処理を実行させる装置構成においても実施することが可能である。この場合、本発明の音声出力処理を実行するためのプログラム(すなわち、ハードウェアシステムで用いられるプログラム)は、媒体に記録された状態で提供される。プログラムなどが記録される情報記録媒体としては、CD−ROMに限られるものではなく、ROM,RAM,フレキシブルディスク,メモリカード等が用いられても良い。媒体に記録されたプログラムは、ハードウェアシステムに組み込まれている記憶装置、例えばハードディスク装置やRAM23などにインストールされることにより、このプログラムを実行して、本発明の音声出力装置の構築に寄与する。
【0066】
また、本発明の音声出力処理を実現するためのプログラムは、媒体の形で提供されるのみならず、通信によって(例えばサーバによって)提供されるものであっても良い。
【0067】
【発明の効果】
以上に説明したように、請求項1記載の発明によれば、入力された日本語のテキストを音声に変換して出力する音声出力装置において、入力された日本語のテキストに対して形態素辞書を用いて形態素候補を生成して言語解析する言語解析部と、言語解析部により生成された形態素候補に対して読みを含む音韻を設定する音韻設定部とを有しており、前記言語解析部は、前記テキストから前記形態素辞書を用いて形態素候補を生成する際、形態素辞書に登録されておらず形態素候補が生成できなかった一まとまりの文字列範囲を未登録文字列として前記テキストから抽出し、また、前記音韻設定部は、漢字単独の読み情報が記憶されている単漢字辞書と、漢字以外の文字と発音記号との対応が記憶されている音変換テーブルとを備え、前記言語解析部によって未登録文字列が抽出されたとき、前記音韻設定部は、前記単漢字辞書および音変換テーブルを用いて未登録文字列の読みを推定するようになっているので、未登録文字列を一まとまりの形態素候補として抽出することが可能となり、文字列全体としての属性付けが可能になり、属性を用いた高度な読み付与が可能になる。さらに、未登録文字列が漢字かな交じりの文字列であっても単漢字辞書と音変換テーブルを併用することで先頭から順番に音韻を得ることが可能になる。従って、未登録文字列について、より適切な尤もらしい読み,音韻を付与し、より適切な音声を出力することができる。
【0068】
また、請求項1記載の発明によれば、前記単漢字辞書には、読みの音訓の属性情報とともに、さらに、単独で出現した漢字に付与する単独読みの属性情報が記憶されているので、複合語の構成語でもなく、直後に送り仮名がない単独の読みを要するにもかかわらず、不自然な音読み,訓読みが付与されていた漢字表記に対し、自然な読みを付与することができるため、尤もらしい読み上げが可能になる。
【0069】
また、請求項2記載の発明によれば、請求項1記載の音声出力装置において、前記単漢字辞書には、読みの音訓の属性情報とともに、さらに、特定の品詞を構成する場合に限った特定品詞読みの属性情報が記憶されているので、読みに傾向性のある特定の品詞に属する形態素候補の構成漢字に対して、その傾向を加味した読みを付与することができるため、尤もらしい読み上げが可能になる。
【0070】
また、請求項3記載の発明によれば、請求項1記載の音声出力装置において、前記言語解析部または音韻設定部は、抽出した未登録文字列に対し、該未登録文字列全体としての品詞属性を推定するようになっており、言語解析部に品詞推定機能を持たせることにより、抽出した一まとまりの未登録文字列に品詞属性を持たせることができ、高度な読み付与が可能になる。
【0071】
また、請求項4記載の発明によれば、請求項3記載の音声出力装置において、前記言語解析部または音韻設定部は、未登録文字列の直前,直後の形態素候補を参照して、前記未登録文字列全体としての品詞属性を推定するので、直前と直後の形態素候補の品詞との接続関係により、未登録文字列に尤もらしい品詞属性を与えることが可能になる。
【0072】
また、請求項5記載の発明によれば、請求項3記載の音声出力装置において、前記言語解析部または音韻設定部は、前記未登録文字列全体としての品詞属性を予め設定された品詞の範囲内で推定するようにしており、この場合には、あらかじめ用意された品詞属性に限定した形態素候補しか生成されないので、形態素候補の大量生成を防ぐことができ、最適解の絞り込み処理を効率良く行なうことができる。
【0073】
また、請求項6記載の発明によれば、請求項3記載の音声出力装置において、前記言語解析部または音韻設定部は、未登録文字列に対して未登録文字列全体としての品詞属性を推定したとき、該未登録文字列に対し、前記推定した品詞属性を持つ形態素候補を生成し、生成した該未登録文字列の形態素候補を形態素辞書に登録されている登録文字列の形態素候補と同様に扱うようにしているので、未登録文字列が含まれたテキストでも、言語解析部または音韻設定部において、そこで解析処理が止まることなく、未登録文字列の影響を受けずに最適解を絞り込むことができる。
【0074】
また、請求項7記載の発明によれば、請求項1記載の音声出力装置において、前記言語解析部または音韻設定部は、未登録文字列が抽出されたときに、該未登録文字列の文字種を判定し、音韻設定部は、未登録文字列中に文字種が漢字の文字列があると判定した場合は、未登録文字列の読みを推定する際、該未登録文字列に対し単漢字辞書を参照して適切な読みを付与し、また、未登録文字列の漢字以外の文字種の文字列については、未登録文字列の読みを推定する際、音変換テーブルを用いて適切な読みを付与するようになっているので、複雑な処理を経ることなく未登録文字列に読みを付与することが可能になる。
【0075】
また、請求項8記載の発明によれば、請求項7記載の音声出力装置において、前記音韻設定部は、未登録文字列中の漢字の文字列に対して読みを付与する際に、単漢字辞書に記憶されている複数の読み情報から適切な読みを選択するので、対象文字列によって柔軟に適切な読みを選択することができ、尤もらしい読み上げが可能になる。
【0076】
また、請求項9記載の発明によれば、請求項7記載の音声出力装置において、前記音韻設定部は、未登録文字列中の漢字の文字列に対して読みを付与する際に、当該漢字の文字列の直前,直後の文字列の文字種を利用することにより、単漢字辞書に記憶されている複数の読み情報から適切な読みを選択するので、尤もらしい読み上げが可能になる。
【0077】
また、請求項10記載の発明によれば、請求項7記載の音声出力装置において、前記言語解析部または音韻設定部は、抽出した未登録文字列に対し、該未登録文字列全体としての品詞属性を推定するようになっており、前記音韻設定部は、未登録文字列中の漢字の文字列に対して読みを付与する際に、該未登録文字列全体に対して前記推定された品詞属性を用いて単漢字辞書に記憶されている複数の読み情報から適切な読みを選択するので、尤もらしい読み上げが可能になる。
【図面の簡単な説明】
【図1】本発明に係る音声出力装置の構成例を示す図である。
【図2】単漢字辞書の一例を示す図である。
【図3】音変換テーブルの一例を示す図である。
【図4】図1の音声出力装置の処理動作例を示すフローチャートである。
【図5】図1の音声出力装置の処理動作例を示すフローチャートである。
【図6】未登録文字列に対する品詞推定処理,形態素候補生成処理の一例を示すフローチャートである。
【図7】未登録文字列への読み付与処理の一例を示すフローチャートである。
【図8】未登録文字列への読み付与処理の一例を示すフローチャートである。
【図9】本発明の音声出力装置の具体的な処理例を説明するための図である。
【図10】本発明の音声出力装置の具体的な処理例を説明するための図である。
【図11】本発明の音声出力装置の具体的な処理例を説明するための図である。
【図12】本発明の音声出力装置の具体的な処理例を説明するための図である。
【図13】本発明の音声出力装置の具体的な処理例を説明するための図である。
【図14】本発明の音声出力装置の具体的な処理例を説明するための図である。
【図15】本発明の音声出力装置の具体的な処理例を説明するための図である。
【図16】本発明に係る音声出力装置のハードウェア構成例を示す図である。
【符号の説明】
1 入力部
2 言語解析部
3 形態素辞書
4 音韻設定部
5 単漢字辞書
6 音変換テーブル
7 出力部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a voice output device that converts Japanese text into voice and outputs the voice.
[0002]
[Prior art]
A text-to-speech synthesis system is known as an example of a speech output device. Generally, when a text written in a natural language is input, this type of text-to-speech synthesis system generates a morpheme candidate for a character string of the input text by referring to a morpheme dictionary or the like, and then generates a morpheme candidate. According to the algorithm described above, phonemes including readings are set for the optimal solution selected from the morpheme candidates, and accent positions and pause positions are set according to certain rules (rules) and converted into control symbols (phonetic symbol strings). This control symbol is given to a speech synthesizer, and a voice corresponding to the control symbol is output.
[0003]
Here, the phonetic setting usually uses reading information described in the morphological dictionary, but when words that are not registered in the morphological dictionary are present in the input text, appropriate words are registered for the unregistered words. In some cases, reading could not be given, and an appropriate phoneme could not be set.
[0004]
Conventionally, in order to add a reading to such an unregistered word, a morphological dictionary (Japanese dictionary) has been used as disclosed in, for example, JP-A-5-20302 and JP-A-2-225174. With reference to Japanese Patent Application Laid-Open Publication No. 2003-229, there has been proposed a method in which a kanji compound word is provided with a reading using a kanji dictionary for each kanji character that cannot be given a reading (unregistered character string). Japanese Patent Application Laid-Open No. 6-282290 discloses a character type determination unit for input character text, and a dictionary search unit lists all temporary candidates such as phonemes (readings) and word delimiters. Then, when selecting the most suitable candidate in the temporary candidate selection unit, for a character including a kanji that has been determined to be an unknown word in the temporary candidate selection unit, refer to the single kanji dictionary and A method has been proposed in which the phoneme is determined according to rules (based on the fact that there are multiple readings in kanji, priorities are given to readings in a single kanji dictionary and phonemes are given according to conditions).
[0005]
[Problems to be solved by the invention]
As described above, various techniques for giving a reading to an unregistered character string have been proposed. However, conventionally, there is a limit in giving an appropriate reading to an unregistered character string. That is, according to the above-described related art, for example, when an unregistered character string is a character string mixed with kanji or kana, there is a problem that an appropriate reading cannot be given.
[0006]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a voice output device capable of giving a more likely reading and phoneme to an unregistered character string and outputting a more appropriate voice.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, an invention according to
[0009]
Also,
[0010]
Also,
[0011]
Also,
[0012]
According to a fifth aspect of the present invention, in the audio output device according to the third aspect, the language analysis unit or the phoneme setting unit sets a part of speech attribute as the entire unregistered character string. Preset It is characterized in that it is estimated within the part of speech.
[0013]
Also, Claim 6 The described invention,
[0014]
Also,
[0015]
Also,
[0016]
Also, Claim 9 The described invention,
[0017]
Also,
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration example of a sound output device according to the present invention. Referring to FIG. 1, the voice output device includes a
[0019]
Here, when generating a morpheme candidate from the text using the
[0020]
Further, the
[0021]
FIG. 2 is a diagram illustrating an example of the
[0022]
FIG. 3 is a diagram showing an example of the sound conversion table 6. Referring to FIG. 3, phonetic symbols (aa, ii, etc.) are stored in the sound conversion table 6 in correspondence with characters (eg, hiragana, katakana, etc.) other than kanji.
[0023]
More specifically, in the voice output device of FIG. 1, when the unregistered character string is extracted from the input text, the
[0024]
In this case, the
[0025]
Specifically, the
[0026]
4 and 5 are flowcharts showing an example of the processing operation of the audio output device of FIG. In the processing operation examples of FIGS. 4 and 5, the unregistered character string is provided from the
[0027]
Referring to FIGS. 4 and 5, in the voice output device of FIG. 1, when text is input from the text input unit 1 (step S1), the
[0028]
In this way, the morpheme candidate generated by the
[0029]
On the other hand, if it is determined in step S4 that an unregistered character string has been sent, the
[0030]
In this way, referring to the
[0031]
As described above, according to the audio output device of FIG. 1, it is possible to extract an unregistered character string as a group of morpheme candidates, to perform attribute assignment of the entire character string, and to perform advanced attribute using attributes. Reading can be provided. Further, even if the unregistered character string is a character string mixed with kanji or kana, by using the
[0032]
In addition, the
[0033]
In addition, the
[0034]
In addition, in the voice output device of FIG. 1, when the
[0035]
In this case, the
[0036]
Alternatively, the
[0037]
As described above, when a function for estimating the part-of-speech attribute of the entire unregistered character string is provided, the
[0038]
FIG. 6 shows an example of part-of-speech estimation processing and morpheme candidate generation processing for an unregistered character string when the
[0039]
Referring to FIG. 6, the
[0040]
Then, the
[0041]
On the other hand, if it is determined in step S24 that an unregistered character string has been sent, the
[0042]
In this way, the part-of-speech attribute of the entire unregistered character string is estimated for the unregistered character string, and a morpheme candidate having the estimated part-of-speech attribute is generated. The candidates are treated and processed in the same manner as the morpheme candidates of the registered character string registered in the morphological dictionary. That is, the
[0043]
As described above, by providing the function of estimating the part-of-speech attribute of the entire unregistered character string to the
[0044]
In this case, when estimating the part-of-speech attribute of the entire unregistered character string by referring to the morpheme candidates immediately before and after the unregistered character string, a likely part-of-speech attribute is given to the unregistered character string. Will be possible.
[0045]
Further, when the part-of-speech attribute of the entire unregistered character string is estimated within the range of the part-of-speech that is heuristically set, only morpheme candidates limited to the part-of-speech attribute prepared in advance are generated. Therefore, the process of narrowing down the optimal solution can be performed efficiently.
[0046]
In addition, a morpheme candidate having an estimated part-of-speech attribute is generated for an unregistered character string, and the morpheme candidate of the unregistered character string is treated in the same manner as a morpheme candidate of a registered character string registered in the
[0047]
Also, in the voice output device of FIG. 1, if the
[0048]
FIG. 7 and FIG. 8 are flowcharts showing an example of such reading addition processing to an unregistered character string. 7 and 8, the same steps as those in FIG. 6 are denoted by the same reference numerals. Referring to FIGS. 7 and 8, if it is determined in step S24 that an unregistered character string has been sent, as described above, the
[0049]
In this way, the part-of-speech attribute of the entire unregistered character string is estimated for the unregistered character string, and a morpheme candidate having the estimated part-of-speech attribute is generated. The candidates are treated and processed in the same manner as the morpheme candidates of the registered character string registered in the morphological dictionary. That is, the
[0050]
However, at this time, there is a case where the part-of-speech attribute is given but the reading is not given. In consideration of such a case, when the optimal candidate is selected and the morpheme is determined in step S25, it is determined whether or not the morpheme character string is provided with a reading (step S41). As a result, when the part-of-speech attribute is attached but the reading is not given as the optimal solution, the morpheme character strings are sequentially input from the first character (step S42). Then, the
[0051]
Next, a specific processing example of the audio output device of the present invention will be described. Now, for example, when a text as shown in FIG. 9 is input as Japanese text, the
[0052]
Thus, when an unregistered character string is extracted, the
[0053]
To give a specific example, in the method of estimating morpheme candidates before and after an unregistered character string, for example, if the part of speech immediately before is a numerical part, the part of speech of the unregistered character string is estimated as a noun or an auxiliary number, and Is a proper noun suffix, the part of speech of an unregistered character string is estimated as a proper noun. In the method of heuristically estimating the part of speech, for example, the part of speech of an unregistered character string is limited to a general noun and a proper noun. Estimate within a preset part of speech It is performed as.
[0054]
When the part of speech is estimated for an unregistered character string in this way, the
[0055]
That is, the
[0056]
When the optimal solution is obtained in this way, the
[0057]
Here, as a way of giving the reading, a method of deciding which attribute has a reading based on the part-of-speech attribute of the entire character string, and a method of determining the reading based on the character type before and after the target character are considered.
[0058]
As a specific example, in the method of determining which attribute has a part-of-speech attribute based on the part-of-speech attribute of the entire character string, if the part-of-speech attribute of the entire character string is a proper noun, the proper noun reading is selected. If the part-of-speech attribute of the entire column is a general noun, the pronunciation can be determined by selecting a pronunciation. Also, in the method of determining the reading based on the character type before and after the target character, if the character immediately after is a hiragana, select Kunyomi (“smoke”: Chem), and if the character immediately after is a punctuation mark or closing parenthesis, select a single reading ("Smoke.": Kemuri), the reading can be determined.
[0059]
FIG. 13 shows an example in which, in the optimal solution of FIG. 12, readings are given to morpheme character strings to which readings are not given, such as “Sensen”, “Impersonate”, and “Yamahana”. According to the example of FIG. 13, for example, in the unregistered character string “Sumisen”, “Sumi” selects a phonetic reading because the entire character string is a general noun and the succeeding character is a kanji character. "Dedicated" selects on-reading because the entire character string is a general noun and the preceding character is a kanji. In the unregistered character string "mimic", "pseudo" selects Kunyomi because the entire character string is a verb and the succeeding character is a hiragana character. In the unregistered character string "Yamahana", "Yama" selects proper noun reading because the entire character string is a proper noun, and "Hana" specifies that the entire character string is a proper noun More proper noun reading is selected.
[0060]
In this way, an appropriate reading can be given to an unregistered character string, and at the stage where reading has been given to all character strings, the accent position and the pause position are determined and converted to a phonetic symbol string. The sound is output to the
[0061]
FIG. 14 shows a state in which morphemes and readings are given to all the character strings of the input text in FIG. In the state as shown in FIG. 14, the phoneme setting unit can generate a phonetic symbol string as shown in FIG.
[0062]
FIG. 16 is a diagram illustrating a hardware configuration example of the audio output device in FIG. Referring to FIG. 16, this audio output device is realized by, for example, a personal computer or the like, and controls a
[0063]
Here, for example, the
[0064]
The functions of the
[0065]
In other words, the audio output device of the present invention reads a program recorded on an information recording medium such as a CD-ROM into a general-purpose computer system having a text input unit, an audio output unit, and the like. It can also be implemented in an apparatus configuration that causes the microprocessor to execute the audio output processing. In this case, the program for executing the audio output processing of the present invention (that is, the program used in the hardware system) is provided in a state recorded on a medium. The information recording medium on which the program or the like is recorded is not limited to a CD-ROM, but may be a ROM, a RAM, a flexible disk, a memory card, or the like. The program recorded on the medium is installed in a storage device incorporated in the hardware system, for example, a hard disk device or the
[0066]
Further, the program for implementing the audio output processing of the present invention may be provided not only in the form of a medium but also by communication (for example, by a server).
[0067]
【The invention's effect】
As described above, according to the first aspect of the invention, in a voice output device that converts an input Japanese text into a voice and outputs the voice, a morphological dictionary is generated for the input Japanese text. A linguistic analysis unit that generates a morpheme candidate using linguistic analysis, and a phonological setting unit that sets phonemes including readings for the morphological candidate generated by the linguistic analysis unit, wherein the linguistic analysis unit includes When generating morpheme candidates from the text using the morpheme dictionary, extracting from the text a set of character string ranges that are not registered in the morpheme dictionary and for which morpheme candidates could not be generated, as unregistered character strings, The phonological setting unit includes a single kanji dictionary in which reading information of kanji alone is stored, and a sound conversion table in which correspondence between characters other than kanji and pronunciation symbols is stored. When the unregistered character string is extracted by the analysis unit, the phoneme setting unit estimates the reading of the unregistered character string using the single kanji dictionary and the sound conversion table. Can be extracted as a group of morpheme candidates, attributes can be assigned as a whole character string, and advanced reading using attributes can be provided. Furthermore, even if the unregistered character string is a character string mixed with kanji or kana, it is possible to obtain phonemes in order from the top by using both the single kanji dictionary and the sound conversion table. Therefore, more appropriate likely reading and phoneme can be given to the unregistered character string, and more appropriate voice can be output.
[0068]
Also,
[0069]
Also,
[0070]
Also,
[0071]
Also,
[0072]
According to the fifth aspect of the present invention, in the audio output device according to the third aspect, the language analysis unit or the phoneme setting unit sets the part of speech attribute as the entire unregistered character string. Preset In this case, estimation is performed within the range of the part of speech. In this case, only morpheme candidates limited to the part of speech attributes prepared in advance are generated. It can be performed efficiently.
[0073]
Also, Claim 6 According to the described invention,
[0074]
Also,
[0075]
Also,
[0076]
Also, Claim 9 According to the described invention,
[0077]
Also,
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of an audio output device according to the present invention.
FIG. 2 is a diagram illustrating an example of a single kanji dictionary.
FIG. 3 is a diagram illustrating an example of a sound conversion table.
FIG. 4 is a flowchart illustrating an example of a processing operation of the audio output device in FIG. 1;
FIG. 5 is a flowchart illustrating an example of a processing operation of the audio output device in FIG. 1;
FIG. 6 is a flowchart illustrating an example of a part of speech estimation process and a morpheme candidate generation process for an unregistered character string.
FIG. 7 is a flowchart illustrating an example of a process of giving a reading to an unregistered character string.
FIG. 8 is a flowchart illustrating an example of a process of giving a reading to an unregistered character string.
FIG. 9 is a diagram for explaining a specific processing example of the audio output device of the present invention.
FIG. 10 is a diagram for explaining a specific processing example of the audio output device of the present invention.
FIG. 11 is a diagram for explaining a specific processing example of the audio output device of the present invention.
FIG. 12 is a diagram illustrating a specific processing example of the audio output device of the present invention.
FIG. 13 is a diagram illustrating a specific processing example of the audio output device of the present invention.
FIG. 14 is a diagram for explaining a specific processing example of the audio output device of the present invention.
FIG. 15 is a diagram illustrating a specific processing example of the audio output device of the present invention.
FIG. 16 is a diagram illustrating an example of a hardware configuration of an audio output device according to the present invention.
[Explanation of symbols]
1 Input section
2 Language Analysis Department
3 Morphological dictionary
4 Phoneme setting section
5 Simple Kanji dictionary
6 sound conversion table
7 Output section
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31876696A JP3573889B2 (en) | 1996-11-14 | 1996-11-14 | Audio output device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31876696A JP3573889B2 (en) | 1996-11-14 | 1996-11-14 | Audio output device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10143186A JPH10143186A (en) | 1998-05-29 |
JP3573889B2 true JP3573889B2 (en) | 2004-10-06 |
Family
ID=18102713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31876696A Expired - Fee Related JP3573889B2 (en) | 1996-11-14 | 1996-11-14 | Audio output device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3573889B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6221764B2 (en) * | 2014-01-20 | 2017-11-01 | 富士通株式会社 | Reading estimation device, reading estimation method, and reading estimation computer program |
-
1996
- 1996-11-14 JP JP31876696A patent/JP3573889B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10143186A (en) | 1998-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6778962B1 (en) | Speech synthesis with prosodic model data and accent type | |
US20030074196A1 (en) | Text-to-speech conversion system | |
JP5198046B2 (en) | Voice processing apparatus and program thereof | |
JPH05181491A (en) | Speech synthesizing device | |
JPH11249677A (en) | Rhythm control method for voice synthesizer | |
JP5343293B2 (en) | Speech editing / synthesizing apparatus and speech editing / synthesizing method | |
JP2007086309A (en) | Voice synthesizer, voice synthesizing method, and program | |
JP3573889B2 (en) | Audio output device | |
JPH06282290A (en) | Natural language processing device and method thereof | |
JP3371761B2 (en) | Name reading speech synthesizer | |
JP3589972B2 (en) | Speech synthesizer | |
JP3366253B2 (en) | Speech synthesizer | |
JPH07262191A (en) | Word dividing method and voice synthesizer | |
JPH07210185A (en) | Reading information preparing device and reading device | |
JPH08185197A (en) | Japanese analyzing device and japanese text speech synthesizing device | |
JPH0962286A (en) | Voice synthesizer and the method thereof | |
JP3414326B2 (en) | Speech synthesis dictionary registration apparatus and method | |
JP2001343987A (en) | Method and device for voice synthesis | |
JP2002258884A (en) | Method and device for combining voice, and computer- readable recording medium with program recorded thereon | |
JPH1063651A (en) | Chinese language input device | |
JPH06176023A (en) | Speech synthesis system | |
JPH0760378B2 (en) | Text-to-speech device | |
JPH08194494A (en) | Sentence analyzing method and device | |
JP2001166790A (en) | Automatic generating device for initially written text, voice recognition device, and recording medium | |
JP4319851B2 (en) | Reading apparatus, reading method and reading processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040421 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040630 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070709 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080709 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080709 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090709 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090709 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100709 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110709 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120709 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120709 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130709 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |