JP5533377B2 - 音声合成装置、音声合成プログラムおよび音声合成方法 - Google Patents

音声合成装置、音声合成プログラムおよび音声合成方法 Download PDF

Info

Publication number
JP5533377B2
JP5533377B2 JP2010158842A JP2010158842A JP5533377B2 JP 5533377 B2 JP5533377 B2 JP 5533377B2 JP 2010158842 A JP2010158842 A JP 2010158842A JP 2010158842 A JP2010158842 A JP 2010158842A JP 5533377 B2 JP5533377 B2 JP 5533377B2
Authority
JP
Japan
Prior art keywords
text
word
analysis result
analysis
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010158842A
Other languages
English (en)
Other versions
JP2012022447A (ja
Inventor
伸之 片江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010158842A priority Critical patent/JP5533377B2/ja
Publication of JP2012022447A publication Critical patent/JP2012022447A/ja
Application granted granted Critical
Publication of JP5533377B2 publication Critical patent/JP5533377B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、テキストに基づいて音声を合成する、音声合成装置、音声合成プログラムおよび音声合成方法に関する。
ユニバーサルデザインの一環として、各種テキストデータに基づく音声を合成してユーザに提供するサービスが一般化されてきている。例えば、放送分野において広く普及している電子番組表(EPG:Electronic Program Guide)に含まれるテキストデータに基づいて形態素解析等を行い、この解析結果に基づいて音声合成を行うことにより、番組情報を合成音声によって読み上げるサービスが可能である。また、インターネット上のニュースコンテンツ等に含まれる見出し記事のテキストデータに基づいて形態素解析等を行うことにより、各見出し記事を合成音声によって読み上げるサービスが可能である。
上記のようなサービスにおいては、テキストデータを形態素解析して、当該テキストデータを構成する単語または形態素を特定することにより、テキストデータの読みとアクセントを決定して音声合成を行っている。
なお、番組の特徴を表現するのに最適なキーワードを効率良く抽出するために、電子番組表のテキスト情報を形態素解析して、そのジャンルを抽出し、所定の番組のジャンルと関連性のある属性の単語を、形態素解析結果から抽出する技術が知られている(例えば、特許文献1参照。)。
また、番組の特徴を表現するのに最適なキーワードを効率良く抽出するために、電子番組表のテキストデータを抽出して形態素解析したのち、形態素解析結果と、複数の所定の出演者名の羅列パターンとを比較して、出演者名を抽出する技術が知られている(例えば、特許文献2参照。)。
さらに、電子番組表から番組のジャンル情報と番組内容を抽出し、抽出した番組内容を形態素解析することによって番組特定単語を抽出し、抽出したジャンル情報と番組特定単語とを組合せてジャンル付単語を生成し、ジャンル付単語によってユーザの視聴履歴を解析することによって嗜好ベクトルを生成して、ユーザに推薦番組を出力する技術が知られている(例えば、特許文献3参照。)。
特開2009−59335号公報 特開2009−60567号公報 特開2009−21307号公報
現在、テレビ受信装置や各種メディアによる記録再生装置等において普及している電子番組表(EPG)においては、ユーザにとって見やすく、かつ、ユーザに対して訴求できるような状態で、番組情報を示すテキストを小さなスペースに収めて表示している。図13は、一般的な電子番組表(EPG)の表示例である。図13の時間枠130に示すように、5チャンネルの19時からの番組情報として、番組タイトル「バラエティ」131とともに番組概要「小心者夫が逆襲!」132が表示されている。このように番組概要においては、一般的な正書法によるテキスト(記事、論文、説明書など)とは異なり、例えば、助詞や助動詞等を省略したり、固有名詞等を略称で表記したりすることが数多く行われている。
上記のような番組情報において、助詞や助動詞等を省略したり、固有名詞等を略称で表記したりすることによって作成されたテキストを、本願では概要テキストと称する。このような概要テキストについて、正書法によるテキストにしか適応できない音声合成装置等を使用して読み上げ処理を行うと、言語解析の誤りによって読みやアクセントが不適切になるという問題が生じる。また、助詞や助動詞等が省略されて名詞等の単語が連続している場合には、各単語が複合単語として扱われるため、アクセント結合された状態で音声合成され音声が聞き取り難くなるという問題が生じる。これらの問題について、以下に具体的に説明する。
図14Aは、上記のような音声合成装置における言語処理部の概略機能ブロック図の一例を示す図である。また、図14Bは、単語辞書データ保持部142の一例を示す図である。音声合成装置は、漢字かな混じりの読み上げテキストである概要テキストを入力すると、形態素解析部141において、単語辞書データ142を参照して概要テキストの形態素解析を行い、概要テキストを構成する各単語または各形態素を特定する。
このような形態素解析において、一般的に音声合成装置は、概要テキストと部分一致する単語辞書データ保持部142のテキスト表記を全て抽出して、抽出した中から品詞の並びが最適となる単語または形態素の組合せを特定する。
また、音声合成装置は、表音文字列生成部143において、特定した単語の読みとアクセントとを単語辞書データ保持部142から得た後、各単語の読みを連結し、一般的なルールや各単語に付与された属性に基づいて、各単語のアクセントを変形しながら連結して入力テキストのアクセントを生成し(アクセント結合)、フレーズやポーズなどの境界を設定する処理を行うことによって、入力テキストに対する表音文字列を生成する。
ここで、表音文字列とは、テキストの読み方を表す文字列であり、読みを表すカタカナ、アクセントを示す記号、フレーズやポーズ等の境界を示す記号から構成される文字列である。このような表音文字列を用いれば、合成音声装置は、一般的な処理により合成音声を出力することができる。
図15Aは、言語解析の誤りによって読みが不適切になる場合の例を示す図である。図15Bは、言語解析の誤りによってアクセントが不適切になる場合の例を示す図である。図15Cは、助詞や助動詞等が省略されて名詞等の単語が連続している場合に、各単語が複合単語として扱われたことにより、アクセント結合された状態で音声合成されて、音声が聞き取り難くなる場合の例を示す図である。
図15Aの例は、概要テキスト「小心者夫が逆襲!」において、助詞が省略されたために、「夫」部分に対して読み誤りが発生した場合を示すものである。本例において、読み上げ対象となる概要テキスト「小心者夫が逆襲!」の形態素解析結果は、
普通名詞「小心者(ショーションモノ)」
接尾語「夫(フ)」
格助詞「が(ガ)」
普通名詞「逆襲(ギャクシュー)」
句読点「!(.)」である。なお、()内は、各単語の読みとアクセントを示している。
次に、各単語の読みを繋ぎ合わせることにより、本テキストの表音文字列「ショーシンモノ’フガ ギャクシュー.」が生成される。ここで、「’」はアクセントの位置を、「 」はアクセント句(=アクセントのまとまり)の境界を、それぞれ示している。この場合、「ショーシンモノ’フ」という読みは不適切である。これは「夫」が、単語辞書データ保持部142(図14B)のレコード144に示す普通名詞「夫(オット)」ではなく、単語辞書データ保持部142(図14B)のレコード145に示す接尾語「夫(フ)」と判定されたことが原因であると考えられる。つまり、図14Bの単語辞書142には普通名詞「夫(オット)」も同時に格納されているところ、普通名詞「小心者」に続く単語として、普通名詞「夫(オット)」よりも接尾語「夫(フ)」のほうが尤もらしいと判定されたことが原因であると考えられる。
図15Bの例は、概要テキスト「大爆笑!チョート・ブルマヨ・エンジャ!」において、固有名詞の省略形が使われたために、「チョート・ブルマヨ・エンジャ!」部分に対してアクセントが不適切になる場合を示すものである。本例では、例えば、固有名詞「チョートリアル」の省略形「チョート」、固有名詞「ブルーマヨネーズ」の省略形「ブルマヨ」、固有名詞「エンジャッシュ」の省略形「エンジャ」がそれぞれ用いられている。
この場合、「ダイバ’クショー.チョートブルマヨエ’ンジャ」という表音文字列が生成されるため、「チョート」、「ブルマヨ」および「エンジャ」についてのアクセント句の境界が存在せず、そのアクセントが不適切になってしまう。
単語辞書データ保持部142では、本来の表記である「チョートリアル」、「ブルーマヨネーズ」および「エンジャッシュ」の表記で各単語が登録されていたとしても、これらの単語の省略形は登録されていないことが多い。このため、本例では、「チョート」、「ブルマヨ」、および「エンジャ」の部分が、単語辞書にないために解析できない単語である未知語と判断され、その部分のアクセントが不適切になっている。なお、本例はカタカナで表記された単語であるため、さしあたり読みは正しくなっているが、漢字の省略形の場合には読みを誤る場合もあり得る。
図15Cの例は、概要テキスト「世界終末予言と奇妙な一致徹底追跡」において、助詞が省略されたために、普通名詞の連続が複合単語であると判断され、アクセント結合して不自然な読みとなる場合を示すものである。ここで、アクセント結合とは、複数の単語の連続において、一般的なルールや各単語に付与された属性に基づいて、単語の個々のアクセントの位置が変わり、アクセントのまとまり(=アクセント句)を生成する現象である。本例では、「世界」、「終末」および「予言」の連続が複合単語と見なされたことにより、次に示すように、アクセント結合が発生している。
例えば、「世界」、「終末」および「予言」の連続により、下記のようにアクセント結合が生じる。
普通名詞「世界(セ’カイ)」
普通名詞「終末(シューマツ)」
普通名詞「予言(ヨゲン)」
→「世界終末予言(セカイシューマツヨ’ゲン)」
同様に、「一致」、「徹底」および「追跡」の連続も以下のようなアクセント結合が生じる。
普通名詞「一致(イッチ)」
普通名詞「徹底(テッテー)」
普通名詞「追跡(ツイセキ)」
→「一致徹底追跡(イッチテッテーツ’イセキ)」
これらの単語の並びに関しては、「世界」と「終末予言」をそれぞれ別のアクセント句とし、「一致」と「徹底追跡」をそれぞれ別のアクセント句とすると、自然な読み上げ音声となるところ、本例では、「世界終末予言(セカイシューマツヨ’ゲン)」および、「一致徹底追跡(イッチテッテーツ’イセキ)」に示すように、アクセント結合によって同一のアクセント句と判断されている場合には、自然な読み上げ音声とはならない。
本発明は、上記のような点に鑑みてなされたものであり、助詞や助動詞等を省略したり、固有名詞等を略称で表記したりすることによって作成されたテキストに関して、読み上げ精度を向上させ、聞き手が判りやすい自然な読み上げ音声を生成することのできる音声合成装置、音声合成プログラムおよび音声合成方法を提供することを目的とする。
上記の目的を達成するために、以下に開示する音声合成装置は、任意の対象についての情報を示す第1のテキストを形態素解析して第1の解析結果を出力する第1解析部と、前記第1のテキストが示す情報と同一の対象について表現が異なる情報を示す第2のテキストを形態素解析し、前記第1の解析結果を参照して第2の解析結果を出力する第2解析部と、前記第2の解析結果に基づいて、前記第2のテキストに関する合成音声を生成するための表音文字列を生成する表音文字列生成部とを備える。
本願明細書の開示によれば、助詞や助動詞等を省略したり、固有名詞等を略称で表記したりすることによって作成されたテキストに関して、読み上げ精度を向上させ、聞き手が判りやすい自然な読み上げ音声を生成することが可能となる。
音声合成装置における各機能部の関係の一例を示す図である。 EPG(電子番組表)データの一例を示す図である。 本願における電子番組表(EPG)の表示例である。 図1に示した音声合成装置を、CPU等を用いて実現した場合におけるハードウェア構成の一例を示す図である。 音声合成装置1のCPU32で実行される音声合成プログラム25aに基づく音声合成処理のオペレーションチャートの一例を示す図である。 詳細テキストを形態素解析した結果の一例を示す模式図である。 概要テキストを解析する場合の模式図の一例を示す模式図である。 単語辞書データの一例を示す図である。 概要テキスト用バッファの一例を示す図である。 生成された表音文字列の一例を示す図である。 概要テキストの読み特定処理のオペレーションチャートの一例を示す図である。 原型特定処理のオペレーションチャートの一例を示す図である。 詳細テキストを形態素解析した結果の一例を示す模式図である。 概要テキスト解析する場合の模式図の一例を示す模式図である。 単語辞書データの一例を示す図である。 概要テキスト用バッファの一例を示す図である。 生成された表音文字列の一例を示す図である。 アクセント結合判定処理のオペレーションチャートの一例を示す図である。 詳細テキストを形態素解析した結果の一例を示す模式図である。 概要テキスト解析する場合の模式図の一例を示す模式図である。 概要テキスト用バッファの一例を示す図である。 ニュース一覧の一例を示す図である。 記事テキストの一例を示す図である。 音声合成装置1のCPU32で実行される音声合成プログラム25aに基づく音声合成処理のオペレーションチャートの一例を示す図である。 一般的な電子番組表(EPG)の表示例である。 音声合成装置における言語処理部の概略機能ブロック図の一例を示す図である。 単語辞書122の一例を示す図である。 言語解析の誤りによって読みが不適切になる場合の例を示す図である。 言語解析の誤りによってアクセントが不適切になる場合の例を示す図である。 助詞や助動詞等が省略されて名詞等の単語が連続している場合に、各単語が複合単語として扱われたことにより、アクセント結合された状態で音声合成されて、音声が聞き取り難くなる場合の例を示す図である。
以下においては、本発明の実施形態について図面を用いて具体的に説明する。
[1.第1の実施形態]
以下、本実施形態にかかる音声合成装置を、コンピュータ装置を用いて構成する場合の例について説明する。なお、本実施形態にかかる音声合成装置を、例えば、各種メディアを用いた録画再生装置、携帯電話またはPDA(Personal Digital Assistance)等の装置を用いて構成してもよい。
また、本実施形態にかかる音声合成装置1を、例えば、テレビ受像機や録画再生機等に組込めば、番組選択時や録画予約時等において、番組表データの概要テキストまたは詳細テキストに基づく合成音声を出力することができる。
本実施形態においては、番組表データの一例としてEPGデータを用いる場合について説明する。なお、概要テキストおよび詳細テキストを有するデータであれば、EPGデータ以外の番組表データを用いてもよい。
[1−1.システム構成]
図1は、本実施形態にかかる音声合成装置1における各機能部の関係の一例を示す図である。図1に示す音声合成装置1は、EPGデータ受信部2、詳細テキスト取得部3、概要テキスト取得部4、第1解析部5、第2解析部6、単語辞書データ保持部7、表音文字生成部8および音声合成部9を備える。
EPGデータ受信部2は、外部からEPG(電子番組表)データを受信する。例えば、EPGデータは、デジタル/アナログ放送またはインターネットを介して受信することができる。図2Aは、EPG(電子番組表)データの一例を示す図である。EPGデータには、番組毎に、チャンネル、開始時間、終了時間、番組タイトルに加えて、概要テキスト21および詳細テキスト22が少なくとも含まれている。
図2Bは、EPGデータに基づく電子番組表(EPG)の表示例である。例えば、図2Aに示す番組レコード23は、図2Bの時間枠210(「5チャンネル」の「19時」からの番組タイトル211「バラエティ」についての番組概要212「小心者夫が逆襲!」)に対応する。例えば、図2Aに示す番組レコード24は、図2Bの時間枠213(「4チャンネル」の「20時」からの番組タイトル「お笑い」についての番組概要「大爆笑!チョート・ブルマヨ・エンジャ!」)に対応する。例えば、図2Aに示す番組レコード25は、図2Bの時間枠214(「1チャンネル」の「21時」からの番組タイトル「ドキュメント」についての番組概要「世界終末予言と奇妙な一致徹底追跡」)に対応する。その他の番組についても番組概要等が存在するが、図2Bにおいてはその表示を省略している。なお、EPGデータのフォーマットは任意であり、EPGデータの提供業者毎に異なっていてもよい。
上述したように、番組情報において助詞や助動詞等を省略したり、固有名詞等を略称で表記したりすることによって作成されたテキストを、本願では概要テキストと称する。また、概要テキストと同一対象を示すテキストであって、助詞や助動詞等を省略したり、固有名詞等を略称で表記したりすることなく作成されたテキストを、本願では詳細テキストと称する。ここで、詳細テキストは、概要テキストが示す情報と同一の番組について表現が異なる情報を含むものである。つまり、概要テキストと詳細テキストとの関係は、詳細テキストを参照すれば、概要テキストの内容が把握できる関係にある。
詳細テキスト取得部3は、受信したEPGデータに含まれる番組情報の詳細テキストを取得する。例えば、図2に示す番組レコード23に基づいて、詳細テキスト22として「小心者の夫が鬼嫁に逆襲!」を取得する。
概要テキスト取得部4は、受信したEPGデータに含まれる番組情報の概要テキストを取得する。例えば、図2に示す番組レコード23に基づいて、概要テキスト21として「小心者夫が逆襲!」を取得する。
第1解析部5は、任意の対象についての情報を示す第1のテキストを形態素解析して第1の解析結果を出力する。すなわち、第1解析部5は、EPGデータに含まれる番組についての情報を示す詳細テキストを形態素解析して第1の解析結果を出力する。例えば、第1解析部5は、詳細テキスト22として取得した「小心者の夫が鬼嫁に逆襲!」を形態素解析して第1の解析結果を出力する。
第2解析部6は、前記第1のテキストが示す情報と同一の対象について表現が異なる情報を示す第2のテキストを形態素解析し、前記第1の解析結果を参照して第2の解析結果を出力する。すなわち、第2解析部6は、詳細テキストが示す情報と同一の番組について表現が異なる情報を示す概要テキストを形態素解析し、詳細テキストにかかる第1の解析結果を参照して第2の解析結果を出力する。例えば、第2解析部6は、概要テキスト21として取得した「小心者夫が逆襲!」を形態素解析し、詳細テキスト22として取得した「小心者の夫が鬼嫁に逆襲!」を形態素解析して得た第1の解析結果を参照して第2の解析結果を出力する。
表音文字生成部8は、前記第2の解析結果に基づいて、前記第2のテキストに関する合成音声を生成するための表音文字列を生成する。すなわち、表音文字生成部8は、前記第2の解析結果に基づいて、前記概要テキストに関する合成音声を生成するための表音文字列を生成する。例えば、概要テキスト21として取得した「小心者夫が逆襲!」の形態素解析の結果に基づいて、概要テキスト21「小心者夫が逆襲!」に関する合成音声を生成するための表音文字列を生成する。
音声合成部9は、表音文字生成部8において生成された表音文字列に基づいて音声合成処理を行い、合成音声を出力する。例えば、概要テキスト21「小心者夫が逆襲!」についての表音文字列に基づいて合成音声をスピーカから出力する。
なお、図1の音声合成装置1において示した各機能部は、プログラムによって実現されるCPUの機能を含む概念である。ここで、プログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。
[1−2.ハードウェア構成]
図3は、図1に示した音声合成装置1を、CPUを用いて実現したハードウェア構成の例を示す図である。上記音声合成装置1は、ディスプレイ31、CPU32、メモリ33、キーボード/マウス34、ハードディスク35、通信回路36およびスピーカ37を少なくとも備える。
ハードディスク35には、OS(オペレーティング・システム、図示せず。)の他、音声合成プログラム35aおよび単語辞書データ35b等が記録される。音声合成プログラム35aは、例えば、インターネット等のネットワークを介してダウンロードされたプログラムを読み出してインストールされたものであってもよい。CPU32は、OSおよび音声合成プログラム35a等に基づく処理を実行する。
図1に示した音声合成装置1を構成する単語辞書データ保持部7は、メモリ33に記録された単語辞書データ35bに該当する。また、図1に示した音声合成装置1を構成する、EPGデータ受信部2、概要テキスト取得部3、詳細テキスト取得部4、第1解析部5、第2解析部6、表音文字生成部8および音声合成部9は、CPU32上において音声合成プログラム35aを実行することによって実現される。
[1−3.音声合成処理]
上述の図1〜図3に加え、図4〜図10Cを用いて、上記音声合成装置1における音声合成プログラム35aの処理内容について説明する。図4は、音声合成装置1のCPU32で実行される音声合成プログラム35aに基づく音声合成処理のオペレーションチャートの一例を示す図である。
図4の音声合成処理において、先ずCPU32は、上述したEPGデータを受信する(Op401)。EPGデータの受信は、例えばデジタル/アナログ放送またはインターネット等を介して所定期間毎に自動的に行えばよい。なお、ユーザ操作に基づいてEPGデータの受信を行ってもよい。例えば、CPU32は、図2Aに示したようなEPGデータを受信する。
続いてCPU32は、受信したEPGデータに基づいて、電子番組表の表示画面を生成して、これをディスプレイ31に表示する(Op402)。例えば、CPU32は、図2Bに示した電子番組表をディスプレイ31に表示する。
電子番組表においては、番組毎の時間枠内に番組情報(番組タイトルおよび番組概要)に加えて、ユーザが音声合成装置1に番組情報の読み上げ指示を行うためのスピーカボタンが表示される。例えば、図2Bの時間枠210(「5チャンネル」の「19時」)内には、番組タイトル211「バラエティ」および番組概要212「小心者夫が逆襲!」を含む番組情報の読み上げ指示を行うためのスピーカボタン215が表示される。
ユーザがキーボード/マウス34を用いて、電子番組表の時間枠内に表示されたスピーカボタンを押下すると、CPU32は、番組情報の読み上げ指示があったと判断し(Op403、Yes)、押下されたスピーカボタンに対応する番組についての番組タイトル、概要テキストおよび詳細テキストをEPGデータから取得する(Op404)。例えば、番組概要212「小心者夫が逆襲!」の読み上げ指示を行うためのスピーカボタン215がユーザ操作により押下された場合、CPU32は、図2Aに示したEPGデータから、この番組に対応する番組タイトル「バラエティ」、概要テキスト21「小心者夫が逆襲!」および詳細テキスト22「小心者の夫が鬼嫁に逆襲!」を取得する。
なお、上記の読み上げ指示の判断は、スピーカボタンの押下以外の方法で行うようにしてよい。例えば、CPU32は、電子番組表の時間枠上にマウスカーソルが存在するようになった場合に読み上げ指示がされたと判断してもよい。また、電子番組表の各番組を、自動的に順番に読み上げるようにしてもよい。
対応する詳細テキストが存在しない場合(Op405、No)には、CPU32は、取得した番組タイトルおよび概要テキストを形態素解析し(Op406)、従来技術と同様に、所定ルールに基づいて番組タイトルおよび概要テキストのアクセント位置を決定し(Op407)、番組タイトルおよび概要テキストについての表音文字列を出力して(Op408)、合成音声をスピーカ37から出力する(Op409)。
一方、対応する詳細テキストが存在する場合(Op405、Yes)、CPU32は、取得した番組タイトルおよび詳細テキストを形態素解析する(Op410)。図5Aは、詳細テキスト22「小心者の夫が鬼嫁に逆襲!…」を形態素解析した結果の一例を示す模式図である。CPU32は、この形態素解析の結果をメモリ33内に設けた詳細テキスト用バッファに格納する(Op411)。なお、このように詳細テキスト用バッファに格納するのは、後の処理においてこの形態素解析の結果を参照するためである。
[1−3−1.概要テキストの読み特定処理]
次に、CPU32は、概要テキストの読み特定処理をサブルーチンで実行する(Op412)。図6は、概要テキストの読み特定処理のオペレーションチャートの一例を示す図である。CPU32は、単語辞書データ35bから、概要テキストを構成する文字列と表記が部分一致する単語を全て抽出する(Op601)。
図5Cは、単語辞書データの一例を示す図である。図5Bは、図5Cに示す単語辞書データから、概要テキスト21「小心者夫が逆襲!」を構成する文字列と表記が部分一致する単語を全て抽出した場合の結果の一例を示す模式図である。例えば、概要テキスト21「小心者夫が逆襲!」の場合、CPU32は、図5Cに示す単語辞書データから「小心者」、「夫」、「が」、「逆襲」および「!」を抽出して、メモリ33内に設けた概要テキスト用バッファに格納する。図5Dは、概要テキスト用バッファの一例を示す図である。なお、図5Bおよび図5Dに示すように、単語「夫」については、品詞が接尾語の「夫(フ)」と普通名詞の「夫(オット)」の2つが抽出される。
CPU32は、Op601にて抽出した各単語について順番に、各単語が詳細テキストの形態素解析結果において適切な位置に存在するか否かを判定する(Op603)。この判定は、以下のようにして行われる。
例えば、概要テキストの単語「小心者」は、普通名詞として、詳細テキストの形態素解析結果に存在している。このため、単語「小心者」に加点される(1点)(図5D)。
例えば、単語「夫」について抽出された、普通名詞「夫(オット)」と接尾語「夫(フ)」は、いずれも概要テキストの形態素解析結果の候補となりうる。しかし、図5Aに示す詳細テキスト(詳細テキスト用バッファ)においては、普通名詞「小心者」の後に続く格助詞「の」に対して、接尾語「夫(フ)」が続くのは品詞の並びとして不適切である。このため、普通名詞「夫(オット)」のほうが、格助詞「の」に続く品詞として適切であると判断される。このことから、概要テキストについての形態素解析において普通名詞「夫(オット)」に加点され(1点)、接尾語「夫(フ)」には加点されない(0点)(図5D)。
CPU32は、Op601において抽出した単語の数だけOp603〜605の処理を繰り返す(Op606、Yes)。その後(Op606、No)、隣接する単語の品詞を組合せるとともに、単語の文字数や加点を評価して、最適な単語の組合せを決定する(Op607)。
図5Eは、概要テキスト21「小心者夫が逆襲!」を形態素解析した結果の一例を示す模式図である。この場合、「ショーシンモノ オットガ ギャクシュー.」という表音文字列が生成される。このため、従来のように「ショーシンモノフガ ギャクシュー.」という表音文字列が生成されることを防止して、より聞き手に分かりやすい合成音声を生成することが可能となる。
概要テキストの読み特定処理(Op412)を終えると、CPU32は、図4のOp413において概要テキストに未知語があるか否かを判断し、未知語が存在すれば(Op413、Yes)、概要テキストの原形特定処理を実行する(Op414)。概要テキストの原形特定処理では、概要テキストの形態素解析の結果、未知語となった区間について、原形を示す単語を特定するための解析を行う。ここで、未知語とは、単語辞書35b中に存在しない単語である。
[1−3−2.概要テキストの原形特定処理]
図7は、概要テキストの原形特定処理のオペレーションチャートの一例を示す図である。概要テキストの原形特定処理は、図2Bの時間枠213(「4チャンネル」の「20時」からの番組タイトル「お笑い」についての番組概要「大爆笑!チョート・ブルマヨ・エンジャ!」、図2Aに示す番組レコード24)の例を用いて説明する。
図8Aは、詳細テキスト22「出演は、チョートリアル・ブルーマヨネーズ・エンジャッシュ!…」を形態素解析した結果の一例を示す模式図である。つまり、図8Aは、上述した詳細テキスト用バッファに格納されている情報である。ここで、図8Aに示す固有名詞「チョートリアル」、固有名詞「ブルーマヨネーズ」および固有名詞「エンジャッシュ」は、図8Cの単語辞書データに存在しているため、正しく形態素解析がなされている。
一方、図8Bは、概要テキスト21「大爆笑!チョート・ブルマヨ・エンジャ!」について、上述した概要テキストの読み特定処理を実行した結果の一例を示す模式図である。つまり、図8Bは、上述した概要テキスト用バッファに格納されている情報である。
CPU32は、概要テキスト用バッファに格納された単語Nについて、変数Nを初期化した後(Op701)、単語Nが未知語であるか否かを判定する(Op702)。なお、Nは上記単語の順序を示す識別番号である。
CPU32は、単語Nが未知語でなければ、Nをインクリメントして次の単語について判断し(Op708)、単語Nが未知語であれば、変数Mを初期化した後(Op703)、単語Nが詳細テキストの形態素解析結果に含まれる単語Mの省略形であるか否かを判定する(Op704)。 具体的には、単語Nが図8Bに示す未知語「チョート」である場合、図8Aの詳細テキストに含まれる各単語の中から、単語N(未知語「チョート」)の文字列と部分一致する表記を探索する。ここでは、概要テキスト中の未知語「チョート」は、詳細テキスト中の「チョートリアル」の先頭4文字と一致していることから、未知語「チョート」は、「チョートリアル」の省略形であると判断する。すなわち、未知語「チョート」の原形は、「チョートリアル」であると判断する。
詳細テキストの形態素解析結果から省略形の原形が特定できた場合(Op704、Yes)、CPU32は、概要テキストの未知語を原形の単語に置換する(Op705)。例えば、図8Bに示すように、未知語「チョート」を、原形である固有名詞「チョートリアル」で置換する。
一方、詳細テキストの形態素解析結果から省略形の原形が特定できない場合(Op704、No)、CPU32は、Mをインクリメントして、Mが詳細テキストの形態素解析結果に含まれる単語数だけOp704を繰り返す(Op706、Op708)。
Op704を繰り返す結果、図8Bに示す概要テキスト中の未知語「ブルマヨ」は、詳細テキスト中の「ブルマヨ」と先頭の2文字と中間の2文字とを連結した文字列と一致することから、「ブルーマヨネーズ」の省略形であると判断する。すなわち、未知語「ブルマヨ」の原形は、「ブルーマヨネーズ」であると判断する。この結果、例えば、図8Bに示すように、未知語「ブルマヨ」を、原形である固有名詞「ブルーマヨネーズ」で置換する。
なお、省略形は、原形の先頭n文字(3〜4モーラに相当する長さ)または、原形の先頭n文字と途中のn文字を結合した文字列(あわせて3〜4モーラに相当)であることが多く、このような判断基準で省略形と原形を対応づけることが可能である。
さらに、Op704を繰り返す結果、図8Bに示す概要テキスト中の「エンジャ」についても同様の処理により、未知語「エンジャ」は「エンジャッシュ」の省略形であると判断する。すなわち、未知語「エンジャ」の原形は、「エンジャッシュ」であると判断する。この結果、例えば、図8Bに示すように、未知語「エンジャ」を、原形である固有名詞「エンジャッシュ」で置換する。
図8Dは、上述した概要テキスト用バッファに格納されている情報を、Op705において置換した結果を示す模式図である。そして、図8Eは、概要テキスト21「大爆笑!チョート・ブルマヨ・エンジャ!」について解析した結果の一例を示す模式図である。この場合、「ダイバ’クショー.チョート’リアル ブルーマヨネ’ーズ エンジャ’ッシュ.」という表音文字列が生成される。このため、従来のように「ダイバ’クショー.チョートブルマヨエ’ンジャ」という表音文字列が生成されることを防止して、より聞き手に分かりやすい合成音声を生成することが可能となる。
CPU32は、原形特定処理(Op414)を終えた場合、または、図4のOp413において概要テキストに未知語が存在しないと判断した場合(Op413、No)、概要テキストのアクセント結合判定処理を実行する(Op415)。ここで、アクセント結合とは、個々のアクセントを持つ複数の単語が連結して一個のアクセント句を形成することをいう。なお、アクセント句とは日本語において一個のアクセントのまとまりを形成する語句の単位である。
概要テキストのアクセント結合判定処理においては、普通名詞などの連続を複合単語と判断してアクセント結合を行う際に、詳細テキストにおいても同様の単語の連続がある場合には複合単語と見なしてアクセント結合を行い、同様の単語の連続がない場合には複合単語ではないと見なしてアクセント結合をしないように処理を行う。
[1−3−3.概要テキストのアクセント結合判定処理]
図9は、概要テキストのアクセント結合判定処理のオペレーションチャートの一例を示す図である。概要テキストのアクセント結合判定処理(Op415)は、図2Bの時間枠214(「1チャンネル」の「21時」からの番組タイトル「ドキュメント」についての番組概要「世界終末予言と奇妙な一致徹底追跡」、図2Aに示す番組レコード25)の例を用いて説明する。
図10Aは、詳細テキスト22「世界の終末予言と奇妙な一致!今夜その謎を徹底追跡!…」を形態素解析した結果の一例を示す模式図である。つまり、図10Aは、上述した詳細テキスト用バッファに格納されている情報である。
一方、図10Bは、概要テキスト21「世界終末予言と奇妙な一致徹底追跡」について、上述した概要テキストの読み特定処理を実行した結果の一例を示す模式図である。つまり、図10Bは、上述した概要テキスト用バッファに格納されている情報である。
CPU32は、概要テキスト用バッファに格納された単語Nについて、変数Nを初期化した後(Op901)、単語N+1(つまり、単語Nに連続する次の単語)が付属語であるか否かを判定する(Op902)。なお、Nは上記単語の順序を示す識別番号である。
例えば、図10Bにおいて、普通名詞「世界」に連続する普通名詞「終末」は、単独で文節を構成できる名詞であるので、付属語でないと判定されてOp904に進む。一方、図10Bにおいて、普通名詞「予言」に連続する格助詞「と」は、単独で文節を構成できない助詞であるので、付属語と判定されてOp903に進み、普通名詞「予言」と格助詞「と」はアクセント結合すると判断される(Op903)。
また、普通名詞「世界」と普通名詞「終末」は、両方とも名詞であるので(Op904、Yes)、詳細テキストにおいてもこれらの単語が連続して出現しているか否かが判断される(Op905)。例えば、図10Aに示すように、普通名詞「世界」と普通名詞「終末」との間には格助詞「の」が存在しているため(Op905、No)、普通名詞「世界」と普通名詞「終末」とはアクセント結合しないと判断する(Op907)。一方、図10Aに示すように、普通名詞「終末」と普通名詞「予言」とは連続して出現しているため(Op905、Yes)、普通名詞「終末」と普通名詞「予言」とはアクセント結合すると判断する(Op908)。
さらに、Op904において、連続する単語同士のいずれかが名詞でない場合には(Op904、No)、これらの単語はアクセント結合しないと判断される(Op906)。例えば、格助詞「と」と形容動詞の語幹である「奇妙」とは、両方とも名詞でないのでアクセント結合しないと判断される。
CPU32は、Nをインクリメント(Op909)して、Nが概要テキストの形態素解析結果に含まれる単語数だけOp902〜Op910を繰り返す。
図10Cは、上述した概要テキスト用バッファに格納されている「世界終末予言と奇妙な一致徹底追跡」について、上記において説明した概要テキストのアクセント結合判定処理を実行した結果の一例を示す模式図である。この場合、後述するOp408において「セ’カイ シューマツヨ’ゲント キ’ミョーナ イッチ テッテーツ’イセキ.」という表音文字列が生成される。このため、従来のように、「世界終末予言」に対して、「セカイシューマツヨ’ゲン」、または、「一致徹底追跡」に対して「イッチテッテーツ’イセキ」というように、聞き取りにくいアクセント結合を含む表音文字列が生成されることを防止して、より聞き手に分かりやすい合成音声を生成することが可能となる。
図4に戻り、概要テキストのアクセント結合判定処理(Op415)を終えると、CPU32は、Op410において形態素解析した番組タイトルおよびOp412,Op414またはOp415において解析した概要テキストについての表音文字列を出力して(Op408)、合成音声をスピーカ37から出力する(Op409)。
[1−4.まとめ]
以上に説明したとおり、上記の音声合成装置1においては、詳細テキストを形態素解析した第1の解析結果と、当該詳細テキストが示す情報と同一の番組について表現が異なる情報を示す概要テキストを形態素解析し、前記第1の解析結果を参照して第2の解析結果を出力して概要テキストに関する合成音声を生成するための表音文字列を生成する。このため、前記概要テキストが、助詞や助動詞等を省略したり、固有名詞等を略称で表記したりすることによって作成されたテキストであっても、読み上げ精度を向上させ、聞き手が判りやすい自然な読み上げ音声を生成することが可能となる。
この実施形態において、EPGデータ受信部2は、一例として、図4のOp401の処理機能を含む。詳細テキスト取得部3は、一例として、図4のOp404の処理機能を含む。概要テキスト取得部4は、一例として、図4のOp404の処理機能を含む。第1解析部5は、一例として、図4のOp410〜Op411の処理機能を含む。第2解析部6は、一例として、図4のOp412〜Op415の処理機能を含む。表音文字列生成部8は、一例として、図4のOp408の処理機能を含む。音声合成部9は、一例として、図4のOp409の処理機能を含む。
[2.第2の実施形態]
本実施形態にかかる音声合成装置も、第1の実施形態と同様に、パーソナルコンピュータ、各種メディアを用いた録画再生装置、携帯電話またはPDA等の装置を用いて構成可能である。本実施形態においては、音声読み上げ機能つきウェブブラウザの例について説明する。
概要テキストとこれに対応する詳細テキストが存在するデータとしては、図11Aに示すようなニュース記事の見出しデータ(ニュース一覧)および、図11Bに示すような前記ニュース記事の本文データ(記事テキスト)の内容が考えられる。例えば、ニュース一覧のタイトル「◇日本代表カメルーンに勝利!」111に対応する記事テキストは、「サッカーの第19回ワールドカップ南アフリカ大会で日本代表がカメルーン代表と対戦し、日本代表が1対0でカメルーン代表に勝利した。…」112である。
このようなニュース記事のタイトル(ニュース一覧)には、上記第1の実施形態において説明した番組表の概要テキストと同様に、助詞や助動詞の省略や固有名詞の略称が多用されている。このため、音声読み上げ機能のあるウェブブラウザにおいて、これを読み上げると読みやアクセントの誤りが頻出する。しかし、タイトルを読み上げる際に、そのタイトルにリンクされている記事の内容を参照して、第1の実施形態において説明した各種処理を実行することにより、このようなタイトルの読み上げ精度を向上させることができる。
[2−1.システム構成]
本実施形態の音声合成装置1における各機能部の関係の一例は、図1と基本的に同様である。本実施形態の音声合成装置1は、図1のEPGデータ受信部2に代えて、ニュース一覧データおよび記事テキストを受信するニュースデータ受信部を備えている。例えば、ニュースデータ受信部は、ウェブブラウザを用いて所定のニュースサイト(URL)にアクセスすることによって実現可能である。
[2−2.ハードウェア構成]
本実施形態の音声合成装置1におけるハードウェア構成の例は、図2と基本的に同様である。本実施形態の音声合成装置1においては、ハードディスク35にブラウザプログラムが記録される。ニュースデータ受信部は、CPU32上において音声合成プログラム35aおよびウェブブラウザプログラムを実行することによって実現される。例えば、音声合成プログラム35aをウェブブラウザプログラムのプラグインとしてインストールしてもよい。
[2−3.音声合成処理]
図12は、音声合成装置1のCPU32で実行される音声合成プログラム35aに基づく音声合成処理のオペレーションチャートの一例を示す図である。図12の音声合成処理において、先ずCPU32は、ニュースサイトにアクセスしてニュース一覧データを取得する(Op1201)。続いてCPU32は、受信したニュース一覧データに基づいて、図11Aに示したニュース一覧画面を生成して、これをディスプレイ31に表示する(Op1202)。ニュース一覧画面においては、URLリンクとしてのニュースタイトルがニュース毎に表示される。
ユーザがキーボード/マウス34を用いて、ニュース一覧画面のニュースタイトルにマウスカーソル113を重ねると(マウスオン)、CPU32は、ニュースタイトルの読み上げ指示があったと判断し(Op1203、Yes)、マウスカーソル113が重ねられたニュースタイトルに対応する番組についてのニュースタイトルおよび記事テキストをニュースデータから取得する(Op1204)。例えば、ニュースタイトル「日本代表カメルーンに勝利!」111に、マウスカーソル113が重ねられた場合、CPU32は、ニュースデータから、概要テキストとしてのニュースタイトル「日本代表カメルーンに勝利!」を取得し、そのURLリンク先にアクセスして、詳細テキストとしての「サッカーの第19回ワールドカップ南アフリカ大会で日本代表がカメルーン代表と対戦し、日本代表が1対0でカメルーン代表に勝利した。…」を取得する。
なお、上記の読み上げ指示の判断は、マウスオン以外の方法で行うようにしてよい。例えば、CPU32は、ニュース一覧画面の表示後において、上から順に各ニュースタイトルを読み上げるようにしてよい。
Op1205〜Op1215の各処理については、第1の実施形態に示したOp405〜Op415の各処理と同様である。すなわち、上記概要テキストとしてのニュースタイトル「日本代表カメルーンに勝利!」、詳細テキストとしての「サッカーの第19回ワールドカップ南アフリカ大会で日本代表がカメルーン代表と対戦し、日本代表が1対0でカメルーン代表に勝利した。…」を用いて、形態素解析処理(Op1206)、概要テキストの読み特定処理(Op1212)、概要テキストの原形特定処理(Op1214)および概要テキストのアクセント結合判定処理(Op1215)を実行することにより、ニュースタイトルについての表音文字列を出力して(Op1208)、その合成音声をスピーカ37から出力する(Op1209)。
[2−4.まとめ]
以上に説明したとおり、上記の音声合成装置1は、ウェブブラウザのニュース記事タイトルを読み上げる際に、そのタイトルにリンクされている記事テキストの内容を参照して、タイトルの読み上げ精度を向上させることができる。
[3.その他の実施形態]
[3−1.実施形態の組合せ]
上記第1および第2の実施形態において説明した構成の一部または全部を、2以上組合せた構成としてもよい。
[3−2.EPGデータ]
上記第1の実施形態においては、図1のEPGデータ受信部2において受信したデータ(図2A)に基づいて、詳細テキストおよび概要テキストを取得する例について説明した。しかし、詳細テキストおよび概要テキストをそれぞれ別のデータに基づいて取得してもよい。
例えば、詳細テキストを取得する先のデータと、概要テキストを取得する先のデータとが異なっていてもよい。また、詳細テキストを取得する先の装置と概要テキストを取得する先の装置とが異なっていてもよい。例えば、概要テキストをEPGデータから取得して、詳細テキストを別のインターネット上のデータから取得するようにしてもよい。
[3−3.各機能ブロックの実現方法]
上記実施形態においては、図1に示す各機能ブロックを、ソフトウェアを実行するCPUの処理によって実現している。しかし、その一部もしくは全てを、ロジック回路等のハードウェアによって実現してもよい。なお、プログラムの一部の処理をさらに、オペレーティング・システム(OS)にさせるようにしてもよい。
1 音声合成装置
2 EPGデータ受信部
3 詳細テキスト取得部
4 概要テキスト取得部
5 第1解析部
6 第2解析部
7 単語辞書データ保持部
8 表音文字生成部
9 音声合成部

Claims (9)

  1. 任意の対象についての情報を示す第1のテキストを形態素解析して第1の解析結果を出力する第1解析部と、
    前記第1のテキストが示す情報と同一の対象について表現が異なる情報を示す第2のテキストを形態素解析し、前記第1の解析結果を参照して第2の解析結果を出力する第2解析部と、
    前記第2の解析結果に基づいて、前記第2のテキストに関する合成音声を生成するための表音文字列を生成する表音文字列生成部とを備え
    前記第2解析部は、前記第1のテキストに含まれる第1の単語と前記第2のテキストに含まれる第2の単語が一致または部分一致するとき、前記第2の単語の解析結果として前記第1の単語の解析結果を優先して採用することを特徴とする音声合成装置。
  2. 前記第2解析部は、前記第2の単語に対して複数の解析結果の候補が出力され、その一個が前記第1の単語と一致した場合に、前記第2の単語の解析結果として前記第1の単語の解析結果を出力する、請求項1に記載の音声合成装置。
  3. 前記第2解析部は、前記第2の単語が解析不能な単語であり、前記第2の単語が前記第1の単語に部分一致する場合、前記第1の単語の解析結果を前記第2の単語の解析結果として出力する、請求項1または2に記載の音声合成装置。
  4. 前記第2解析部は、前記第2のテキスト中に複合単語が含まれており、かつ、前記複合単語が前記第1のテキスト中にも含まれている場合には、前記複合単語を一つのアクセント句として前記複合単語を構成する単語についての解析結果を出力する、請求項1〜3のいずれか一項に記載の音声合成装置。
  5. 前記表音文字列は、前記第2のテキストについての読み、アクセントまたは境界情報を含む、請求項1〜4のいずれか一項に記載の音声合成装置。
  6. 前記第1のテキストは、番組表データに基づく番組情報の詳細テキストであり、
    前記第2のテキストは、番組表データに基づく番組情報の概要テキストであり、
    前記表音文字列生成部は、前記概要テキストに関する合成音声を生成するための表音文字列を生成する、請求項1〜5のいずれか一項に記載の音声合成装置。
  7. 前記第のテキストは、ニュース記事の見出しデータに基づくテキストであり、
    前記第のテキストは、前記ニュース記事の本文データに基づくテキストであり、
    前記表音文字列生成部は、前記見出しデータに関する合成音声を生成するための表音文字列を生成する、請求項1〜5のいずれか一項に記載の音声合成装置。
  8. 音声合成装置をコンピュータを用いて実現するための音声合成プログラムであって、
    任意の対象についての情報を示す第1のテキストを形態素解析して第1の解析結果を出力する第1解析処理と、
    前記第1のテキストが示す情報と同一の対象について表現が異なる情報を示す第2のテキストを形態素解析し、前記第1の解析結果を参照して第2の解析結果を出力する第2解析処理と、
    前記第2の解析結果に基づいて、前記第2のテキストに関する合成音声を生成するための表音文字列を生成する表音文字列生成処理とをコンピュータに実行させ
    前記第2解析処理は、前記第1のテキストに含まれる第1の単語と前記第2のテキストに含まれる第2の単語が一致または部分一致するとき、前記第2の単語の解析結果として前記第1の単語の解析結果を優先して採用することを特徴とする音声合成プログラム。
  9. 任意の対象についての情報を示す第1のテキストを形態素解析して第1の解析結果を出力する第1解析工程と、
    前記第1のテキストが示す情報と同一の対象について表現が異なる情報を示す第2のテキストを形態素解析し、前記第1の解析結果を参照して第2の解析結果を出力する第2解析工程と、
    前記第2の解析結果に基づいて、前記第2のテキストに関する合成音声を生成するための表音文字列を生成する表音文字列生成工程とを含み、
    前記第2解析工程は、前記第1のテキストに含まれる第1の単語と前記第2のテキストに含まれる第2の単語が一致または部分一致するとき、前記第2の単語の解析結果として前記第1の単語の解析結果を優先して採用することを特徴とする音声合成方法。
JP2010158842A 2010-07-13 2010-07-13 音声合成装置、音声合成プログラムおよび音声合成方法 Expired - Fee Related JP5533377B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010158842A JP5533377B2 (ja) 2010-07-13 2010-07-13 音声合成装置、音声合成プログラムおよび音声合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010158842A JP5533377B2 (ja) 2010-07-13 2010-07-13 音声合成装置、音声合成プログラムおよび音声合成方法

Publications (2)

Publication Number Publication Date
JP2012022447A JP2012022447A (ja) 2012-02-02
JP5533377B2 true JP5533377B2 (ja) 2014-06-25

Family

ID=45776708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010158842A Expired - Fee Related JP5533377B2 (ja) 2010-07-13 2010-07-13 音声合成装置、音声合成プログラムおよび音声合成方法

Country Status (1)

Country Link
JP (1) JP5533377B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6232724B2 (ja) * 2013-03-29 2017-11-22 富士通株式会社 音声合成装置及び言語辞書登録方法
MY188845A (en) 2014-07-14 2022-01-09 Sony Corp Transmission device, transmission method, reception device, and reception method
CA2958531C (en) * 2014-10-03 2019-02-26 Sharp Kabushiki Kaisha Methods for phonetic information signaling

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2643363B2 (ja) * 1988-09-29 1997-08-20 国際電信電話株式会社 複合語のアクセント句境界付与方式
JPH04130578A (ja) * 1990-09-20 1992-05-01 Fujitsu Ltd 未登録語検索方法および装置
JPH06168265A (ja) * 1992-11-30 1994-06-14 Matsushita Electric Ind Co Ltd 言語処理装置および音声合成装置
JP2855409B2 (ja) * 1994-11-17 1999-02-10 日本アイ・ビー・エム株式会社 自然言語処理方法及びシステム
JP3580760B2 (ja) * 2000-05-26 2004-10-27 シャープ株式会社 自動編集装置及び方法並びにこれに利用される記憶媒体
JP5029167B2 (ja) * 2007-06-25 2012-09-19 富士通株式会社 音声読み上げのための装置、プログラム及び方法

Also Published As

Publication number Publication date
JP2012022447A (ja) 2012-02-02

Similar Documents

Publication Publication Date Title
US8355919B2 (en) Systems and methods for text normalization for text to speech synthesis
US8712776B2 (en) Systems and methods for selective text to speech synthesis
US8396714B2 (en) Systems and methods for concatenation of words in text to speech synthesis
US8352268B2 (en) Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US8583418B2 (en) Systems and methods of detecting language and natural language strings for text to speech synthesis
US8352272B2 (en) Systems and methods for text to speech synthesis
US20100082328A1 (en) Systems and methods for speech preprocessing in text to speech synthesis
US20100082327A1 (en) Systems and methods for mapping phonemes for text to speech synthesis
JP4923604B2 (ja) 情報処理装置および方法、並びにプログラム
US8793133B2 (en) Systems and methods document narration
US8359202B2 (en) Character models for document narration
US20140289226A1 (en) System and Method For Search and Display of Content in the Form of Audio, Video or Audio-Video
US20080005656A1 (en) Apparatus, method, and file format for text with synchronized audio
JP2013072957A (ja) 文書読み上げ支援装置、方法及びプログラム
JP2009080579A (ja) 検索装置、方法及びプログラム
JP5106608B2 (ja) 読み上げ支援装置、方法、およびプログラム
JP5533377B2 (ja) 音声合成装置、音声合成プログラムおよび音声合成方法
JP2004334409A (ja) データ閲覧支援装置、データ閲覧方法及びデータ閲覧プログラム
US20110022378A1 (en) Translation system using phonetic symbol input and method and interface thereof
JP4200874B2 (ja) 感性情報推定方法および文字アニメーション作成方法、これらの方法を用いたプログラム、記憶媒体、感性情報推定装置、文字アニメーション作成装置
JP2005038014A (ja) 情報提示装置及び情報提示方法
WO2019069997A1 (ja) 情報処理装置、画面出力方法及びプログラム
JP5125404B2 (ja) 省略語判定装置、コンピュータプログラム、テキスト解析装置及び音声合成装置
JP3414326B2 (ja) 音声合成用辞書登録装置及び方法
JP6567372B2 (ja) 編集支援装置、編集支援方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130507

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130701

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5533377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140414

LAPS Cancellation because of no payment of annual fees