JPH10228471A - 音声合成システム,音声用テキスト生成システム及び記録媒体 - Google Patents

音声合成システム,音声用テキスト生成システム及び記録媒体

Info

Publication number
JPH10228471A
JPH10228471A JP9194226A JP19422697A JPH10228471A JP H10228471 A JPH10228471 A JP H10228471A JP 9194226 A JP9194226 A JP 9194226A JP 19422697 A JP19422697 A JP 19422697A JP H10228471 A JPH10228471 A JP H10228471A
Authority
JP
Japan
Prior art keywords
text
word
words
speech
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9194226A
Other languages
English (en)
Inventor
Nobuyuki Katae
伸之 片江
Akihiro Kimura
晋太 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP9194226A priority Critical patent/JPH10228471A/ja
Publication of JPH10228471A publication Critical patent/JPH10228471A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Document Processing Apparatus (AREA)
  • Television Systems (AREA)

Abstract

(57)【要約】 【課題】 文字放送受信機等の表示用文字データを音声
に変換する場合、聴取時にユーザが理解しやすい合成音
声または音声合成用テキストを生成する。 【解決手段】 テキスト入力部1を介して入力された文
章テキストに対して、テキスト解析部2にて、単語辞書
6を参照して文章テキスト中の単語を同定した後、同定
した単語と単語との間の適切な位置に、適切な助詞また
は区切りを表す記号(読点,中点)を挿入する。そし
て、これらを挿入した後の読みシーケンスに従って、韻
律生成部3,音声波形生成部4にて合成音声を生成す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、入力された文章テ
キストに応じた音声を生成して出力する音声合成システ
ム、及び、入力された表示用の文章テキストから音声用
の文章テキストを生成する音声用テキスト生成システム
に関する。
【0002】
【従来の技術】文章テキストを音声に変換して出力する
際の一般的な手順は次の通りである。まず、文章テキス
トを入力し、その入力した文章テキストから、単語辞書
を参照して、文章内に含まれる単語を同定する。次に、
同定した単語に応じて、アクセント,音声単位時間長,
ポーズの継続長,発声時の基本周波数等を設定する。そ
して、これらの設定データに基づいて音声波形を生成
し、生成した音声波形に従った音声をユーザに提供す
る。このような処理を行う音声合成システムでは、入力
した文章テキストを忠実に読み上げることが通常であ
る。
【0003】ところで、テレビジョン文字放送,FM多
重放送の受信機等において、文字データを表示するだけ
でなく、その表示される文字データを音声出力する機能
が付与されているものがある。従来の音声合成システム
は、入力されたテキストを忠実に読み上げる機能しか備
えておらず、音声出力機能が付与された上述の受信機に
おいても同様であり、表示される文字データを音声出力
する際、何らの語も補わずに、文字データをそのまま読
み上げていた。
【0004】
【発明が解決しようとする課題】テレビジョン文字放
送,FM多重放送の受信機等では、文字データを表示す
る場合、ユーザが一定時間内に容易に読めるように、一
度に表示する文字の数を少なくしている。例えば、FM
多重放送では、一度に表示できる文字の数が15字×2行
の30字に制限されている。限られた文字数の範囲内で情
報を効率良くユーザに提供するために、文中の冗長な語
句である付属語(助詞,助動詞)は極力省略して、多く
の自立語を連続させた文字データを作成して表示する場
合が多い。
【0005】従来の音声合成システムの技術は、助詞,
助動詞が完全にそろったテキストを忠実に音声に変換す
るように設計されており、助詞,助動詞が省略されたテ
キストでは、読み誤りを起こしやすい。例えば、助詞が
省略されて名詞が連続していれば、それを複合単語と見
なし、区切れを入れず、誤ったアクセント結合をして、
ひと続きに発声する。このような合成音声は、ユーザが
聴取したときに、非常に理解しにくいものになる。
【0006】従って、テレビジョン文字放送,FM多重
放送の受信機等において、文字データをそのまま読み上
げる場合には、ユーザが聴取する際にその内容を理解し
難く、誤った理解をもたらすこともあるという問題があ
る。
【0007】本発明は斯かる事情に鑑みてなされたもの
であり、ユーザが聴取する際に理解しやすい合成音声を
生成することができる音声合成システムを提供すること
を目的とする。
【0008】本発明の他の目的は、ユーザが聴取する際
に理解しやすい音声に変換することが可能な音声合成用
の文章テキストを生成できる音声用テキスト生成システ
ムを提供することにある。
【0009】
【課題を解決するための手段】請求項1に係る音声合成
システムは、入力された文章テキストに応じた音声を生
成する音声合成システムにおいて、単語辞書を参照し
て、入力された前記文章テキストの単語の読みを同定す
る手段と、同定した単語と単語との間に助詞を挿入する
手段と、助詞を挿入した後の単語間のつながりを解析す
る手段と、その解析結果に応じて音声を生成する手段と
を備えることを特徴とする。
【0010】請求項2に係る音声合成システムは、入力
された文章テキストに応じた音声を生成する音声合成シ
ステムにおいて、単語辞書を参照して、入力された前記
文章テキストの単語の読みを同定する手段と、同定した
単語と単語との間に区切りを表す記号を挿入する手段
と、区切りを表す記号を挿入した後の単語間のつながり
を解析する手段と、その解析結果に応じて音声を生成す
る手段とを備えることを特徴とする。
【0011】請求項3に係る音声合成システムは、入力
された文章テキストに応じた音声を生成する音声合成シ
ステムにおいて、単語辞書を参照して、入力された前記
文章テキストの単語の読みを同定する手段と、助詞また
は読点を伴わないで連続する複数の単語に対して、単語
間のアクセント結合を行うか否かを判断するアクセント
結合判断手段と、該アクセント結合判断手段の判断結果
に応じて前記複数の単語のアクセントを設定する手段と
を備えることを特徴とする。
【0012】請求項4に係る音声合成システムは、入力
された文章テキストに応じた音声を生成する音声合成シ
ステムにおいて、単語辞書を参照して、入力された前記
文章テキストの単語の読みを同定する手段と、助詞また
は読点を伴わないで連続する複数の単語に対して、単語
間にポーズを挿入するか否かを判断するポーズ挿入判断
手段と、該ポーズ挿入判断手段の判断結果に応じて単語
間にポーズを設定する手段とを備えることを特徴とす
る。
【0013】請求項5に係る音声用テキスト生成システ
ムは、入力された表示用の文章テキストに応じて、音声
合成時に使用する音声用の文章テキストを生成する音声
用テキスト生成システムであって、入力された前記文章
テキストの単語を同定する手段と、同定した単語と単語
との間に助詞を挿入する手段とを備えることを特徴とす
る。
【0014】請求項6に係る音声用テキスト生成システ
ムは、入力された表示用の文章テキストに応じて、音声
合成時に使用する音声用の文章テキストを生成する音声
用テキスト生成システムであって、入力された前記文章
テキストの単語を同定する手段と、同定した単語と単語
との間に区切りを表す記号を挿入する手段とを備えるこ
とを特徴とする。
【0015】請求項7に係る記録媒体は、入力された文
章テキストに応じた音声を生成するためのコンピュータ
プログラムを記録した記録媒体において、単語辞書を参
照して、入力された前記文章テキストの単語の読みを同
定するステップと、同定した単語と単語との間に助詞及
び/または区切りを表す記号を挿入するステップと、助
詞及び/または区切りを表す記号を挿入した後の単語間
のつながりを解析するステップと、その解析結果に応じ
て音声を生成するステップとを含むコンピュータプログ
ラムを記録したことを特徴とする。
【0016】請求項8に係る記録媒体は、入力された文
章テキストに応じた音声を生成するためのコンピュータ
で読み取り可能であるプログラムコード手段を有する記
録媒体において、単語辞書を参照して、入力された前記
文章テキストの単語の読みを同定することを前記コンピ
ュータにさせるプログラムコード手段と、同定した単語
と単語との間に助詞及び/または区切りを表す記号を挿
入することを前記コンピュータにさせるプログラムコー
ド手段と、助詞及び/または区切りを表す記号を挿入し
た後の単語間のつながりを解析することを前記コンピュ
ータにさせるプログラムコード手段と、その解析結果に
応じて音声を生成することを前記コンピュータにさせる
プログラムコード手段とを有することを特徴とする。
【0017】多くの自立語が連続するような文章(テキ
スト)について、それを合成音声に変換してユーザに提
供する場合、ユーザが内容を良く理解できるようにする
ためには、以下の3つの方法が考えられる。 (1)テキストの単語間に適切な助詞または区切りを表
す記号(読点,中点等)を挿入する。 (2)単語間に適切なポーズを挿入した合成音声を生成
する。 (3)従来連続する名詞に対して施していたアクセント
結合処理を行わない。
【0018】これらの方法について、以下のFM多重放
送における2つの文字データ(テキスト)(a),
(b)を例にして説明する。 (a) 関東の6月雨量は平年大幅下回る 千葉水戸は観測史上最少。 (b) 労働白書「産業構造の変化に対応 専門的人材育成が不可欠」強調。
【0019】(1)の方法によれば、上記2種のテキス
トに対して、以下のように単語と単語との間の適切な位
置に適切な助詞または区切りを表す記号(読点,中点
等)を挿入することにより、音声で聞いたときに理解し
やすいテキストを生成できる。( )を付した箇所が、
挿入した助詞または読点,中点である。 (a)「関東の6月(の)雨量は平年(を)大幅(に)
下回る(、)千葉(・)水戸は観測史上(、)最少。」 (b)「労働白書(は)産業(の)構造の変化に対
応(、)専門的(な)人材(の)育成が不可欠(と)強
調。」
【0020】助詞または区切りを表す記号の挿入位置、
及び、挿入する助詞または区切りを表す記号の種類を決
定する方法としては、(A)規則による方法と、(B)
用例ベースを参照する方法とが考えられる。
【0021】(A)規則による方法 上記の例では「観測史上」「労働白書」等は単語間に助
詞が挿入されていない。「観測史上」は一つの複合単語
として扱われるし、「労働白書」は一つの文書名であっ
て、この単位で単語辞書に格納されており、助詞の挿入
はない。これら以外の名詞の連続、名詞と動詞との連続
には助詞を挿入するという規則が考えられる。「平年大
幅下回る」の場合、「平年」「大幅」「下回る」という
3個の単語の間にそれぞれ目的語,副詞,述語の関係が
考えられるので、目的語のあとには「を」副詞のあとに
は「に」を補うという規則を設定しておけば、「平年を
大幅に下回る」という文を作ることができる。また、
「6月雨量」「産業構造」のように名詞が連続する場合
には「の」を挿入して「6月の雨量」「産業の構造」と
したり、「専門的人材」のように修飾的な意味を持つ
「〜的」と名詞とが連続する場合には「な」を挿入して
「専門的な人材」とするような規則が考えられる。この
ような規則を詳細に定めたものを有しておくことによ
り、適切な位置に適切な助詞を挿入することが可能であ
る。
【0022】(B)用例ベースを参照する方法 助詞または区切りを表す記号を挿入する位置と、挿入す
る助詞または区切りを表す記号の種類とを決定するため
の用例を格納したデータベースを有し、入力テキストの
単語の連続をこのデータベースの用例に照合し、同一ま
たは類似した用例が存在する場合に、その用例と同じ位
置に同じ助詞を挿入するように決定する。上記の例で
は、データベース中に「経済白書」という用例があれ
ば、同様の「労働白書」には助詞を挿入せず、データベ
ース中に「去年をわずかに上回る」という用例があれ
ば、「平年大幅下回る」に対して「平年を大幅に下回
る」というように助詞の挿入を行う。
【0023】次に、(2),(3)の方法について説明
する。従来技術によれば、単語の係り受け,呼気段落の
長さ等を考慮して、例えば上記(a)の文では、「関東
の6月雨量は(ポーズ)平年大幅下回る(ポーズ)千葉
水戸は(ポーズ)観測史上最少。」のようにポーズが挿
入される。しかし「6月雨量」「観測史上最少」と連続
して発声するよりも、(2)の方法によって適切なポー
ズを挿入して、「6月(ポーズ)雨量」「観測史上(ポ
ーズ)最少」と発声するほうが、一つ一つの単語の聞き
取りが良くなる。
【0024】また、例えば上記(b)の文で、従来のよ
うに「専門的人材育成」がひとつの複合名詞として発声
されるとすれば、「専門的」「人材」「育成」間でアク
セント結合が起こるので図10(a)に示すようなアク
セントとなり、音声で聞いても理解しにくい。そこで、
(3)の方法によって「専門的」「人材」「育成」間で
アクセント結合を行わないでアクセント句の境界を入れ
るうようにすれば、図10(b)に示すようなアクセン
トとなって、個々の単語本来のアクセントが保持される
ので、単語が聞き取りやすくなる。
【0025】図1は、本発明の音声合成システムの基本
構成を示すブロック図であり、本システムは、テキスト
入力部1と、テキスト解析部2と、韻律生成部3と、音
声波形生成部4と、音声出力部5とを備えると共に、単
語辞書6を有する。テキスト入力部1は、音声に変換す
るための文章テキストを外部から入力してテキスト解析
部2へ出力する。テキスト解析部2は、単語辞書6を参
照して、文章テキスト内の単語の同定,単語間の係り受
けの解析等を行って、その結果を韻律生成部3へ送る。
韻律生成部3は、アクセント,音声単位時間長,ポーズ
の継続長,発声時の基本周波数等を設定し、その設定デ
ータを音声波形生成部4へ出力する。音声波形生成部4
は、これらの設定データ及びテキスト解析部2での解析
結果に基づいて音声波形を生成し、生成した音声波形を
音声出力部5へ送る。音声出力部5は、入力された音声
波形に従った音声を出力してユーザに提供する。
【0026】図2は、第1発明(請求項1)の原理構成
図であり、図1におけるテキスト解析部2に特徴があ
る。第1発明のテキスト解析部2は、単語辞書6を参照
して単語を同定しその読みを決める単語解析手段21と、
単語間に助詞を挿入する助詞挿入手段22と、各単語間の
係り受けを解析する係り受け解析手段23とを有する。
【0027】単語解析手段21において、単語辞書6を参
照して、文章テキストが単語に分割されて、各単語の読
みが決定する。助詞挿入手段22により読みシーケンス上
の単語間の適切な位置に適切な助詞が挿入される。そし
て、係り受け解析手段23において、助詞が挿入された後
の文における単語間の係り受けの状態が調べられて、単
語同士の接続の仕方が解析される。
【0028】図3は、第2発明(請求項2)の原理構成
図であり、図2におけるテキスト解析部2に特徴があ
る。第2発明のテキスト解析部2は、単語辞書6を参照
して単語を同定しその読みを決める単語解析手段21と、
単語間に読点を挿入する読点挿入手段24と、各単語間の
係り受けを解析する係り受け解析手段23とを有する。
【0029】単語解析手段21において、単語辞書6を参
照して、文章テキストが単語に分割されて、各単語の読
みが決定する。読点挿入手段24により読みシーケンス上
の単語間の適切な位置に読点が挿入される。そして、係
り受け解析手段23において、読点が挿入された後の文に
おける単語間の係り受けの状態が調べられて、単語同士
の接続の仕方が解析される。
【0030】上述した第1発明,第2発明において、助
詞または区切りを表す記号の挿入位置、及び、挿入する
助詞または区切りを表す記号の種類は、前述したよう
に、(A)規則による方法(予め決めておいた挿入の規
則に従ってこれらを挿入する方法)または(B)用例ベ
ースを参照する方法(予め準備しておいた用例ベースの
中から同一または類似する用例を探してその用例に従っ
てこれらを挿入する方法)によって決定する。
【0031】図4は、第3発明(請求項3)の原理構成
図であり、図1における韻律生成部3に特徴がある。第
3発明の韻律生成部3は、単語のアクセントを設定する
アクセント設定手段31と、音声の単位時間長を設定する
音声単位時間長設定手段32と、ポーズの位置及びその時
間長を設定するポーズ設定手段33と、音声波形の基本周
波数パターンを生成する基本周波数パターン生成手段34
と、アクセント結合を行うか否かを判断するアクセント
結合判断手段35とを有する。
【0032】アクセント設定手段31では、単語が接続し
てアクセント句を作るとき、規則的なアクセント結合を
行う。その際に、助詞を伴わない単語の連続に関して
は、アクセント結合判断手段35で、アクセント結合を行
うか否かを判断して、アクセント結合を行わないと判断
した場合は、アクセント設定手段31でアクセント結合を
行わない。例えば、前述の「専門的人材育成」のような
場合には、アクセント結合を行わないと判断する。
【0033】図5は、第4発明(請求項4)の原理構成
図であり、図1における韻律生成部3に特徴がある。第
3発明の韻律生成部3は、単語のアクセントを設定する
アクセント設定手段31と、音声の単位時間長を設定する
音声単位時間長設定手段32と、ポーズの位置及びその時
間長を設定するポーズ設定手段33と、音声波形の基本周
波数パターンを生成する基本周波数パターン生成手段34
と、ポーズを挿入するか否かを判断するポーズ設定判断
手段36とを有する。
【0034】ポーズ設定手段33では、テキスト解析手段
2の係り受け解析の結果,呼気段落の長さ等を考慮して
ポーズの位置と長さとを設定する。この際に、助詞を伴
わない単語の連続に関しては、ポーズ設定判断手段36
で、ポーズを挿入するか否かを判断して、ポーズを挿入
すると判断した場合には、ポーズ設定手段33でポーズを
設定する。
【0035】図6は、第5発明(請求項5)の原理構成
図であり、本システムは、音声に変換するオリジナルの
文章テキストを外部から入力するテキスト入力部1と、
入力されたそのオリジナルの文章テキストを音声合成用
のテキストに変換する音声合成用テキスト生成部7とを
備える。音声合成用テキスト生成部7は、単語辞書6を
参照して文章テキスト内の単語を同定する単語同定手段
71と、単語間に助詞を挿入する助詞挿入手段72とを有す
る。
【0036】単語同定手段71において、単語辞書6を参
照して入力テキストを単語に分割した後、漢字かな表記
のシーケンスを助詞挿入手段72へ出力する。助詞挿入手
段72により、その漢字かな表記のシーケンス上の単語間
の適切な位置に適切な助詞が挿入されて、音声合成用の
文章テキストが生成され、その音声合成用の文章テキス
トはテキスト解析部2へ出力される。
【0037】図7は、第6発明(請求項6)の原理構成
図であり、本システムは、音声に変換するオリジナルの
文章テキストを外部から入力するテキスト入力部1と、
入力されたそのオリジナルの文章テキストを音声合成用
のテキストに変換する音声合成用テキスト生成部7とを
備える。音声合成用テキスト生成部7は、単語辞書6を
参照して文章テキスト内の単語を同定する単語同定手段
71と、単語間に読点を挿入する読点挿入手段73とを有す
る。
【0038】単語同定手段71において、単語辞書6を参
照して入力テキストを単語に分割した後、漢字かな表記
のシーケンスを読点挿入手段73へ出力する。読点挿入手
段73により、その漢字かな表記のシーケンス上の単語間
の適切な位置に読点が挿入されて、音声合成用の文章テ
キストが生成され、その音声合成用の文章テキストはテ
キスト解析部2へ出力される。
【0039】なお、これらの第5発明,第6発明におい
て、助詞または区切りを表す記号の挿入位置、及び、挿
入する助詞または区切りを表す記号の種類は、第1発
明,第2発明と同様に、前述の(A)規則による方法ま
たは(B)用例ベースを参照する方法によって決定す
る。また、この第5,第6発明は、図1のテキスト解析
部2に対する前処理として行われるものである。
【0040】
【発明の実施の形態】以下、本発明をその実施の形態を
示す図面を参照して具体的に説明する。以下に説明する
各実施の形態は、テレビジョン文字放送,FM多重放送
等で文字データを受信し、これを文字表示と合成音声と
で同時にユーザに提供するシステムを表している。
【0041】(第1の実施の形態)図8は、本発明の第
1の実施の形態の構成を示すブロック図である。本シス
テムは、文字データを受信する文字データ受信部8と、
文字データ受信部8において受信すべき文字データを選
択する受信選択部9と、単語の同定,助詞・読点の挿
入,係り受けの解析等を行うテキスト解析部2と、テキ
スト解析部2からの読みシーケンスに基づいてアクセン
ト,音声単位時間長,ポーズの位置及び継続長,発声時
の基本周波数パターン等を設定する韻律生成部3と、韻
律生成部3からのデータに基づいて音声波形を生成する
音声波形生成部4と、表示用の文字データと合成音声デ
ータとを同期させて出力する文字表示・音声出力同期部
10と、文字データに応じた文字情報を表示する文字デー
タ表示部11と、合成音声データに応じた合成音声を出力
する音声出力部5とを備えると共に、単語辞書6を有す
る。
【0042】また、テキスト解析部2は、単語辞書6を
参照して単語を同定しその読みを決める単語解析手段21
と、単語間に助詞を挿入する助詞挿入手段22と、単語間
に読点を挿入する読点挿入手段24と、各単語間の係り受
けを解析する係り受け解析手段23と、助詞を挿入するた
めのルールを格納している助詞挿入ルール格納手段25
と、読点を挿入するためのルールを格納している読点挿
入ルール格納手段26とを有する。
【0043】次に、動作について説明する。受信選択部
9において適切な文字データを選択し、選択した文字デ
ータを文字データ受信部8で受信する。なお、受信選択
部9での文字データ選択を自動化して、新しい文字デー
タが送信されるたびにその文字データを選択するように
設定することも可能である。文字データ受信部8は、受
信した文字データを文字表示・音声出力同期部10とテキ
スト解析部2とへ出力する。なお、文字表示と音声出力
とを同期させる必要がなければ、文字データを直接文字
データ表示部11へ送って、文字データのみを先に表示す
るようにしても良い。
【0044】テキスト解析部2内では、まず、単語解析
手段21において、単語辞書6を参照して単語の同定を行
い、文章テキストが単語に分割されて、各単語の読みが
決定する。次に、助詞挿入手段22では、助詞挿入ルール
格納手段25に予め格納しておいた助詞挿入ルールに従っ
て、読みシーケンス上の単語間の適切な位置に適切な助
詞を挿入する。また、読点挿入手段24では、読点挿入ル
ール格納手段26に予め格納しておいた読点挿入ルールに
従って、適切な位置に読点を挿入する。その後、係り受
け解析手段23では、以上のように挿入された助詞,読点
を含む単語のシーケンスに対して、その係り受けの状態
が調べられて、単語同士の接続の仕方が解析される。そ
して、テキスト解析部2から韻律生成部3へ、音声にす
るための読みのシーケンスが出力される。
【0045】韻律生成部3では、アクセント,音声単位
時間長,ポーズの位置及び継続長,発声時の基本周波数
パターン等を設定し、それらのデータを音声波形生成部
4へ出力する。音声波形生成部4は、これらのデータ及
びテキスト解析部2での解析結果に基づいて音声波形を
生成し、生成した音声波形を文字表示・音声出力同期部
10へ出力する。
【0046】文字表示・音声出力同期部10では、文字デ
ータ受信部8からの表示用文字データと音声波形生成部
4からの音声出力(音声波形)とを同期して、それぞ
れ、文字データ表示部11と音声出力部5とへ出力する。
文字データ表示部11はその文字データを表示し、音声出
力部5はその音声波形に従った合成音声を出力する。こ
のようにして、文字データと合成音声とを同期させてユ
ーザに提供できる。
【0047】(第2の実施の形態)図9は、本発明の第
2の実施の形態の構成を示すブロック図である。本シス
テムは、文字データ受信部8と、受信選択部9と、テキ
スト解析部2と、韻律生成部3と、音声波形生成部4
と、文字表示・音声出力同期部10と、文字データ表示部
11と、音声出力部5とを備えると共に、単語辞書6を有
しているが、テキスト解析部2以外の構成要素は、前述
の第1の実施の形態における各構成要素と同様であるの
で、これらの説明は省略する。
【0048】第2の実施の形態におけるテキスト解析部
2は、単語辞書6を参照して単語を同定しその読みを決
める単語解析手段21と、単語間に助詞を挿入する助詞挿
入手段22と、単語間に読点を挿入する読点挿入手段24
と、各単語間の係り受けを解析する係り受け解析手段23
と、助詞を挿入する際に参照すべき多数の用例を格納し
ている助詞用例データ格納手段27と、読点を挿入する際
に参照すべき多数の用例を格納している読点用例データ
格納手段28とを有する。
【0049】テキスト解析部2以外の動作は前述の第1
の実施の形態の場合と同様であるのでその説明は省略
し、テキスト解析部2での動作のみを以下に説明する。
テキスト解析部2内では、まず、単語解析手段21におい
て、単語辞書6を参照して単語の同定を行い、文章テキ
ストが単語に分割されて、各単語の読みが決定する。次
に、助詞挿入手段22では、助詞用例データ格納手段27に
同一または類似した単語連接の用例がないかを参照し、
もし存在すれば、その用例に従って助詞を挿入する。ま
た、読点挿入手段24では、読点用例データ格納手段28に
同一または類似した単語連接の用例がないかを参照し、
もし存在すれば、その用例に従って読点を挿入する。そ
の後、係り受け解析手段23では、以上のように挿入され
た助詞,読点を含む単語のシーケンスに対して、その係
り受けの状態が調べられて、単語同士の接続の仕方が解
析される。そして、テキスト解析部2から韻律生成部3
へ、音声にするための読みのシーケンスが出力される。
【0050】図11は、本発明のシステムを実現するため
のハードウェア構成を示す模式図である。本ハードウェ
アは、処理装置としてのパーソナルコンピュータ81と、
文字データ等を表示するディスプレイ82と、入力装置と
してのキーボード83及びマウス84とを備える。パーソナ
ルコンピュータ81は、上述したような処理を行うための
プログラムを、磁気ディスク,CD−ROM等の可搬型
記録媒体85、パーソナルコンピュータ81と無線または有
線にてプログラム通信が可能である、例えばセンタに備
えられた回線先メモリ86、或いは、パーソナルコンピュ
ータ81に備え付けられたRAM,ハードディスク等の処
理装置側メモリ87等の記録媒体からロードする。
【0051】
【発明の効果】以上のように本発明の音声合成システム
では、文章テキストの適切な位置に適切な助詞または区
切りを表す記号(読点,中点)を挿入して合成音声を生
成するようにしたので、特に、テレビジョン文字放送,
FM多重放送の受信機等において表示用文字データを音
声出力する際に、ユーザが理解しやすい合成音声を生成
することが可能である。
【0052】また、本発明の音声合成システムでは、不
必要なアクセント結合を行わない、または、必要な位置
にポーズを設定するようにしたので、特に、テレビジョ
ン文字放送,FM多重放送の受信機等において表示用文
字データを音声出力する際に、ユーザが理解しやすい合
成音声を生成することが可能である。
【0053】更に、本発明の音声用テキスト生成システ
ムでは、元の文章テキストの適切な位置に適切な助詞ま
たは区切りを表す記号(読点,中点)を挿入して新しい
音声合成用の文章テキストを生成するようにしたので、
この音声合成用の文章テキストに従って合成音声を生成
することにより、聴取時にユーザが理解しやすい音声に
変換することが可能である。
【図面の簡単な説明】
【図1】本発明の音声合成システムの基本構成を示すブ
ロック図である。
【図2】第1発明(請求項1の音声合成システム)の原
理構成図である。
【図3】第2発明(請求項2の音声合成システム)の原
理構成図である。
【図4】第3発明(請求項3の音声合成システム)の原
理構成図である。
【図5】第4発明(請求項4の音声合成システム)の原
理構成図である。
【図6】第5発明(請求項5の音声用テキスト生成シス
テム)の原理構成図である。
【図7】第6発明(請求項6の音声用テキスト生成シス
テム)の原理構成図である。
【図8】本発明の第1の実施の形態の構成を示すブロッ
ク図である。
【図9】本発明の第2の実施の形態の構成を示すブロッ
ク図である。
【図10】アクセント結合の有無に伴うアクセント状態
を示す図である。
【図11】本発明のシステムを実現するためのハードウ
ェア構成を示す模式図である。
【符号の説明】
1 テキスト入力部 2 テキスト解析部 3 韻律生成部 4 音声波形生成部 5 音声出力部 6 単語辞書 7 音声合成用テキスト生成部 21 単語解析手段 22 助詞挿入手段 23 係り受け解析手段 24 読点挿入手段 25 助詞挿入ルール格納手段 26 読点挿入ルール格納手段 27 助詞用例データ格納手段 28 読点用例データ格納手段 31 アクセント設定手段 32 音声単位時間長設定手段 33 ポーズ設定手段 34 基本周波数パターン生成手段 35 アクセント結合判断手段 36 ポーズ設定判断手段 71 単語同定手段 72 助詞挿入手段 73 読点挿入手段 81 パーソナルコンピュータ 85 可搬型記録媒体 86 回線先メモリ 87 処理装置側メモリ
フロントページの続き (51)Int.Cl.6 識別記号 FI H04N 7/035

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 入力された文章テキストに応じた音声を
    生成する音声合成システムにおいて、単語辞書を参照し
    て、入力された前記文章テキストの単語の読みを同定す
    る手段と、同定した単語と単語との間に助詞を挿入する
    手段と、助詞を挿入した後の単語間のつながりを解析す
    る手段と、その解析結果に応じて音声を生成する手段と
    を備えることを特徴とする音声合成システム。
  2. 【請求項2】 入力された文章テキストに応じた音声を
    生成する音声合成システムにおいて、単語辞書を参照し
    て、入力された前記文章テキストの単語の読みを同定す
    る手段と、同定した単語と単語との間に区切りを表す記
    号を挿入する手段と、区切りを表す記号を挿入した後の
    単語間のつながりを解析する手段と、その解析結果に応
    じて音声を生成する手段とを備えることを特徴とする音
    声合成システム。
  3. 【請求項3】 入力された文章テキストに応じた音声を
    生成する音声合成システムにおいて、単語辞書を参照し
    て、入力された前記文章テキストの単語の読みを同定す
    る手段と、助詞または読点を伴わないで連続する複数の
    単語に対して、単語間のアクセント結合を行うか否かを
    判断するアクセント結合判断手段と、該アクセント結合
    判断手段の判断結果に応じて前記複数の単語のアクセン
    トを設定する手段とを備えることを特徴とする音声合成
    システム。
  4. 【請求項4】 入力された文章テキストに応じた音声を
    生成する音声合成システムにおいて、単語辞書を参照し
    て、入力された前記文章テキストの単語の読みを同定す
    る手段と、助詞または読点を伴わないで連続する複数の
    単語に対して、単語間にポーズを挿入するか否かを判断
    するポーズ挿入判断手段と、該ポーズ挿入判断手段の判
    断結果に応じて単語間にポーズを設定する手段とを備え
    ることを特徴とする音声合成システム。
  5. 【請求項5】 入力された表示用の文章テキストに応じ
    て、音声合成時に使用する音声用の文章テキストを生成
    する音声用テキスト生成システムであって、入力された
    前記文章テキストの単語を同定する手段と、同定した単
    語と単語との間に助詞を挿入する手段とを備えることを
    特徴とする音声用テキスト生成システム。
  6. 【請求項6】 入力された表示用の文章テキストに応じ
    て、音声合成時に使用する音声用の文章テキストを生成
    する音声用テキスト生成システムであって、入力された
    前記文章テキストの単語を同定する手段と、同定した単
    語と単語との間に区切りを表す記号を挿入する手段とを
    備えることを特徴とする音声用テキスト生成システム。
  7. 【請求項7】 入力された文章テキストに応じた音声を
    生成するためのコンピュータプログラムを記録した記録
    媒体において、単語辞書を参照して、入力された前記文
    章テキストの単語の読みを同定するステップと、同定し
    た単語と単語との間に助詞及び/または区切りを表す記
    号を挿入するステップと、助詞及び/または区切りを表
    す記号を挿入した後の単語間のつながりを解析するステ
    ップと、その解析結果に応じて音声を生成するステップ
    とを含むコンピュータプログラムを記録したことを特徴
    とするコンピュータ読み取り可能な記録媒体。
  8. 【請求項8】 入力された文章テキストに応じた音声を
    生成するためのコンピュータで読み取り可能であるプロ
    グラムコード手段を有する記録媒体において、単語辞書
    を参照して、入力された前記文章テキストの単語の読み
    を同定することを前記コンピュータにさせるプログラム
    コード手段と、同定した単語と単語との間に助詞及び/
    または区切りを表す記号を挿入することを前記コンピュ
    ータにさせるプログラムコード手段と、助詞及び/また
    は区切りを表す記号を挿入した後の単語間のつながりを
    解析することを前記コンピュータにさせるプログラムコ
    ード手段と、その解析結果に応じて音声を生成すること
    を前記コンピュータにさせるプログラムコード手段とを
    有することを特徴とするコンピュータ読み取り可能な記
    録媒体。
JP9194226A 1996-12-10 1997-07-18 音声合成システム,音声用テキスト生成システム及び記録媒体 Withdrawn JPH10228471A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9194226A JPH10228471A (ja) 1996-12-10 1997-07-18 音声合成システム,音声用テキスト生成システム及び記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP33004696 1996-12-10
JP8-330046 1996-12-10
JP9194226A JPH10228471A (ja) 1996-12-10 1997-07-18 音声合成システム,音声用テキスト生成システム及び記録媒体

Publications (1)

Publication Number Publication Date
JPH10228471A true JPH10228471A (ja) 1998-08-25

Family

ID=26508380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9194226A Withdrawn JPH10228471A (ja) 1996-12-10 1997-07-18 音声合成システム,音声用テキスト生成システム及び記録媒体

Country Status (1)

Country Link
JP (1) JPH10228471A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172289A (ja) * 1998-12-02 2000-06-23 Matsushita Electric Ind Co Ltd 自然言語処理方法,自然言語処理用記録媒体および音声合成装置
JP2002149180A (ja) * 2000-11-16 2002-05-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法
JP2004525412A (ja) * 2001-03-08 2004-08-19 松下電器産業株式会社 合成された音声の了解度を改善するためのランタイム合成装置適合方法およびシステム
JPWO2008062529A1 (ja) * 2006-11-24 2010-03-04 富士通株式会社 文書読上げ装置、文書読上げ装置を制御する制御方法及び文書読上げ装置を制御する制御プログラム
JP2016186709A (ja) * 2015-03-27 2016-10-27 株式会社ナカヨ 文書作成支援装置、プログラムおよび文書作成支援方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000172289A (ja) * 1998-12-02 2000-06-23 Matsushita Electric Ind Co Ltd 自然言語処理方法,自然言語処理用記録媒体および音声合成装置
JP2002149180A (ja) * 2000-11-16 2002-05-24 Matsushita Electric Ind Co Ltd 音声合成装置および音声合成方法
JP2004525412A (ja) * 2001-03-08 2004-08-19 松下電器産業株式会社 合成された音声の了解度を改善するためのランタイム合成装置適合方法およびシステム
JPWO2008062529A1 (ja) * 2006-11-24 2010-03-04 富士通株式会社 文書読上げ装置、文書読上げ装置を制御する制御方法及び文書読上げ装置を制御する制御プログラム
JP4973664B2 (ja) * 2006-11-24 2012-07-11 富士通株式会社 文書読上げ装置、文書読上げ装置を制御する制御方法及び文書読上げ装置を制御する制御プログラム
US8315873B2 (en) 2006-11-24 2012-11-20 Fujitsu Limited Sentence reading aloud apparatus, control method for controlling the same, and control program for controlling the same
JP2016186709A (ja) * 2015-03-27 2016-10-27 株式会社ナカヨ 文書作成支援装置、プログラムおよび文書作成支援方法

Similar Documents

Publication Publication Date Title
KR100403293B1 (ko) 음성합성방법, 음성합성장치 및 음성합성프로그램을기록한 컴퓨터판독 가능한 매체
JP2000081892A (ja) 効果音付加装置および効果音付加方法
JP4038211B2 (ja) 音声合成装置,音声合成方法および音声合成システム
EP1473707B1 (en) Text-to-speech conversion system and method having function of providing additional information
US6188977B1 (en) Natural language processing apparatus and method for converting word notation grammar description data
JP3270356B2 (ja) 発話文書作成装置,発話文書作成方法および発話文書作成手順をコンピュータに実行させるプログラムを格納したコンピュータ読み取り可能な記録媒体
JP3071804B2 (ja) 音声合成装置
JPH10228471A (ja) 音声合成システム,音声用テキスト生成システム及び記録媒体
CN113409761B (zh) 语音合成方法、装置、电子设备以及计算机可读存储介质
JP2005031259A (ja) 自然言語処理方法
US20030018473A1 (en) Speech synthesizer and telephone set
JP3371761B2 (ja) 氏名読み音声合成装置
JP2002132282A (ja) 電子テキスト読み上げ装置
JPH08272388A (ja) 音声合成装置及びその方法
KR101777141B1 (ko) 한글 입력 키보드를 이용한 훈민정음 기반 중국어 및 외국어 입력 장치 및 방법
JP2011180368A (ja) 合成音声修正装置および合成音声修正方法
JP3414326B2 (ja) 音声合成用辞書登録装置及び方法
JPH08185197A (ja) 日本語解析装置、及び日本語テキスト音声合成装置
JP2801622B2 (ja) テキスト音声合成方法
JP2003173335A (ja) 自然言語対話装置及び方法並びに記憶媒体
JP2008083410A (ja) 音声認識装置及びその方法
JP2006039461A (ja) 音声合成支援システム、音声合成支援方法および音声合成支援プログラム
JPH03214197A (ja) 音声合成装置
JP6172491B2 (ja) テキスト整形プログラム、方法及び装置
JP2006047866A (ja) 電子辞書装置およびその制御方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20041005