JP2010039277A - 音声合成装置 - Google Patents
音声合成装置 Download PDFInfo
- Publication number
- JP2010039277A JP2010039277A JP2008203082A JP2008203082A JP2010039277A JP 2010039277 A JP2010039277 A JP 2010039277A JP 2008203082 A JP2008203082 A JP 2008203082A JP 2008203082 A JP2008203082 A JP 2008203082A JP 2010039277 A JP2010039277 A JP 2010039277A
- Authority
- JP
- Japan
- Prior art keywords
- accent
- information
- speech
- reading
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Navigation (AREA)
Abstract
【課題】ユーザが期待した通りの読みおよびアクセントで音声を出力できる音声合成装置を提供する。
【解決手段】語を表記するための表記情報および読み方を示す読み情報に、該語の読みのアクセントを規定するアクセント情報を対応付けて格納したアクセント辞書11と、外部から入力された表記情報および読み情報に対応するアクセント情報をアクセント辞書から検索し、該検索されたアクセント情報が付された読み情報であるアクセント付読み情報を取得するアクセント辞書検索部12と、アクセント辞書検索部で取得されたアクセント付読み情報に基づき音声波形を合成する音声合成部13と、音声合成部で合成された音声波形に基づき音声を再生する音声再生部14を備えている。
【選択図】図1
【解決手段】語を表記するための表記情報および読み方を示す読み情報に、該語の読みのアクセントを規定するアクセント情報を対応付けて格納したアクセント辞書11と、外部から入力された表記情報および読み情報に対応するアクセント情報をアクセント辞書から検索し、該検索されたアクセント情報が付された読み情報であるアクセント付読み情報を取得するアクセント辞書検索部12と、アクセント辞書検索部で取得されたアクセント付読み情報に基づき音声波形を合成する音声合成部13と、音声合成部で合成された音声波形に基づき音声を再生する音声再生部14を備えている。
【選択図】図1
Description
この発明は、例えばカーナビゲーション装置などにおいて案内音声などを出力する音声合成装置に関し、特に、出力される音声のアクセントを制御する技術に関する。
従来、日本語の漢字と仮名が交じった和漢混淆文の読みとアクセントを推定して読み上げるTTS(Text-to-Speech;テキスト音声変換)と呼ばれる技術が知られている。この技術を利用した装置として、特許文献1は、受信した電子メールを、テキスト音声変換によって、読み誤ることなく正確に読み上げることができる電子メール端末装置を開示している。
この電子メール端末装置は、個人情報適応変換部で、電子メールのメールアドレスと、姓名等の個人情報とを用いて、受信した電子メール情報の修正、補足情報の追加を、個人情報に適応して行う。そして、この情報加工された電子メールを、報知手段のテキスト音声変換部でテキスト音声変換して報知する。
しかしながら、上述した従来の技術では、例えば、「三田」という表記に対して「サンダ」または「ミタ」といった複数通りの読み方がある単語に関しては、必ずしもユーザが期待した通りの読み上げができず、読み誤る可能性がある。
一方、読み誤りを防止するために、アクセント情報を含まない「読み」だけから成る読み情報を用いて読み上げを行う方法が知られているが、この方法によれば、アクセントのない平坦な読み上げとなってしまい、聞き取り難いという問題がある。
この発明は、上述した問題を解消するためになされたものであり、ユーザが期待した通りの読みおよびアクセントで音声を出力できる音声合成装置を提供することにある。
上記課題を解決するために、この発明に係る音声合成装置は、語を表記する表記情報および読み方を示す読み情報に、該語の読みのアクセントを規定するアクセント情報を対応付けて格納したアクセント辞書と、外部から入力された表記情報および読み情報に対応するアクセント情報をアクセント辞書から検索し、該検索されたアクセント情報が付された読み情報であるアクセント付読み情報を取得するアクセント辞書検索部と、アクセント辞書検索部で取得されたアクセント付読み情報に基づき音声波形を合成する音声合成部と、音声合成部で合成された音声波形に基づき音声を再生する音声再生部を備えている。
この発明に係る音声合成装置によれば、外部から入力された表記情報および読み情報に対応するアクセント付読み情報をアクセント辞書から読み出し、この読み出したアクセント付読み情報に基づき音声を発生するように構成したので、読み上げを誤ることなく、しかも、ユーザが期待した通りのアクセントで音声を出力できる。
以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る音声合成装置1の構成を示すブロック図である。この音声合成装置1は、アクセント辞書11、アクセント辞書検索部12、音声合成部13および音声再生部14を備えている。
実施の形態1.
図1は、この発明の実施の形態1に係る音声合成装置1の構成を示すブロック図である。この音声合成装置1は、アクセント辞書11、アクセント辞書検索部12、音声合成部13および音声再生部14を備えている。
アクセント辞書11は、語を表記するための表記情報および読み方を示す読み情報に、この語の読みのアクセントを規定するアクセント情報を対応付けて格納している。このアクセント辞書11は、アクセント辞書検索部12によってアクセスされる。
アクセント辞書検索部12は、外部から入力された表記情報および読み情報をアクセント辞書11に送ってこれらに対応するアクセント情報をアクセント辞書11から検索し、この検索されたアクセント情報が付された読み情報(以下、「アクセント付読み情報」という)を取得する。このアクセント辞書検索部12で取得されたアクセント付読み情報は、音声合成部13に送られる。
音声合成部13は、アクセント辞書検索部12から送られてくるアクセント付読み情報に基づき音声波形を合成する。この音声合成部13で合成された音声波形は、音声再生部14に送られる。
音声再生部14は、例えばスピーカから構成されており、音声合成部13から送られてくる音声波形に基づき音声を出力する。
図2は、上述した実施の形態1に係る音声合成装置1が適用されたカーナビゲーション装置の構成を示すブロック図である。このカーナビゲーション装置は、音声合成装置1、登録地情報編集部21および登録地案内処理部22を備えている。
登録地情報編集部21は、図3に示すような登録地情報編集画面を、図示しない表示装置に出力する。ユーザは、この登録地情報編集画面を用いて、登録地の表記と読みを入力できる。図3は、登録地の表記として「自宅」が入力され、登録地の読みとして「ジタク」が入力された例を示している。登録地情報編集部21は、この登録地情報編集画面を用いて入力された登録地の表記および読みを、それぞれ登録地の表記情報および読み情報として記憶する。この登録地情報編集部21に記憶されている表記情報および読み情報は、登録地案内処理部22によって読み出される。
登録地案内処理部22は、図示しない現在位置検出装置から取得した現在位置データによって示される現在位置が登録地に接近したことを検知した場合に、この登録地に対応する表記情報および読み情報を登録地情報編集部21から読み出して音声合成装置1に送る。これにより、上述したように、音声合成装置1で音声が合成されて出力される。
次に、上述したカーナビゲーション装置に適用された実施の形態1に係る音声合成装置1の動作を、アクセント辞書検索部12で実行される処理を中心に、図4に示すフローチャートおよび図2に示すカーナビゲーション装置のブロック図を参照しながら説明する。
今、登録地情報編集部21の処理によって図3に示すような登録地情報が登録されているものとする。登録地案内処理部22は、登録地に接近したことを検知すると、登録地情報編集部21から、この登録地の表記情報として記憶されている「自宅」および読み情報として記憶されている「ジタク」を読み出し、音声合成装置1のアクセント辞書検索部12に送る。
アクセント辞書検索部12は、まず、登録地案内処理部22から表記情報「自宅」と読み情報「ジタク」を受け取る(ステップST11)。次いで、アクセント辞書検索部12は、アクセント辞書11から、表記情報「自宅」および読み情報「ジタク」に対応するアクセント情報を検索する(ステップST12)。このステップST12において、対応するアクセント情報が検索されると、アクセント辞書検索部12は、アクセント辞書11からアクセント付読み情報「ジ’タク」を取得する。アクセント付読み情報のアクセント位置は「’」の記号で表している。
次いで、アクセント辞書検索部12は、ステップST12においてアクセント辞書11から取得したアクセント付読み情報「ジ’タク」を、音声合成部13に送る(ステップST13)。その後、音声合成部13は、アクセント辞書検索部12から送られてくるアクセント付読み情報「ジ’タク」に基づき音声波形を合成し音声再生部14に送る。音声再生部14は、音声合成部13から送られてくる音声波形に基づき音声を出力する。これにより、図5に示すように、現在位置(自車位置)が登録地に接近した時に、読み誤ることなく、しかも適切なアクセントで「ジタク」という合成音声が出力される。
以上説明したように、この発明の実施の形態1に係る音声合成装置によれば、外部から入力される表記情報および読み情報に対応するアクセント付読み情報をアクセント辞書11から読み出して音声を発生するように構成したので、読み上げを誤ることなく、しかも、ユーザが期待した通りのアクセントで音声を出力できる。
実施の形態2.
図6は、この発明の実施の形態2に係る音声合成装置1aの構成を示すブロック図である。この音声合成装置1aは、図1に示した実施の形態1に係る音声合成装置1のアクセント辞書検索部12にアクセント検索失敗処理部15が追加されることにより新たなアクセント辞書検索部12aに変更されて構成されている。
図6は、この発明の実施の形態2に係る音声合成装置1aの構成を示すブロック図である。この音声合成装置1aは、図1に示した実施の形態1に係る音声合成装置1のアクセント辞書検索部12にアクセント検索失敗処理部15が追加されることにより新たなアクセント辞書検索部12aに変更されて構成されている。
アクセント検索失敗処理部15は、アクセント辞書検索部12aにおいてアクセント辞書11からアクセント情報を検索できなかった場合に、外部から入力された、アクセント情報が付されていない読み情報を音声合成部13に送る。
図7は、上述した実施の形態2に係る音声合成装置1aが適用されたカーナビゲーション装置の構成を示すブロック図である。このカーナビゲーション装置は、音声合成装置1が音声合成装置1aに変更されている点のみが、実施の形態1に係るカーナビゲーション装置と異なる。
ここで、ユーザは、図8に示すような登録地情報編集画面を用いて、登録地の表記として「自宅」を入力し、登録地の読みとして登録地の表記と異なる「ツキマシタ」を入力し、登録地情報編集部21は、これら入力された登録地の表記および読みを、それぞれ登録地の表記情報および読み情報として記憶しているものとする。この場合、アクセント辞書11には、表記情報「自宅」および読み情報「ジタク」に対して、「ジ’タク」というアクセント情報が格納されており、「ツキマシタ」に対応するアクセント情報は存在しないものとする。
次に、上述したカーナビゲーション装置に適用された実施の形態2に係る音声合成装置1aの動作を、アクセント辞書検索部12aで実行される処理を中心に、図9に示すフローチャートおよび図7に示すカーナビゲーション装置のブロック図を参照しながら説明する。
図8に示すような登録地情報が登録されている状態において、登録地案内処理部22は、登録地に接近したことを検知すると、登録地情報編集部21から、該登録地の表記情報として記憶されている「自宅」および読み情報として記憶されている「ツキマシタ」を読み出し、音声合成装置1aのアクセント辞書検索部12aに送る。
アクセント辞書検索部12aは、まず、登録地案内処理部22から表記情報「自宅」と読み情報「ツキマシタ」を受け取る(ステップST21)。次いで、アクセント辞書検索部12aは、アクセント辞書11から、表記情報「自宅」および読み情報「ツキマシタ」に対応するアクセント情報を検索する(ステップST22)。
次いで、アクセント辞書検索部12aは、表記情報および読み情報に対応するアクセント情報がアクセント辞書11に存在するかどうかを調べる(ステップST23)。このステップST23において、表記情報および読み情報に対応するアクセント情報が存在することを判断すると、上述した実施の形態1に係る音声合成装置の動作で説明したのと同様に、つまり、登録地情報が表記情報「自宅」および読み情報「ジタク」である場合と同様に、アクセント辞書検索部12aは、アクセント辞書11からアクセント付読み情報を取得する。
次いで、アクセント辞書検索部12aは、ステップST22においてアクセント辞書11から取得したアクセント付読み情報を、音声合成部13に送る(ステップST24)。その後、音声合成部13は、アクセント辞書検索部12から送られてくるアクセント付読み情報に基づき音声波形を合成し音声再生部14に送る。音声再生部14は、音声合成部13から送られてくる音声波形に基づき音声を出力する。これにより、上述した実施の形態1に係る音声合成装置1と同様に、現在位置(自車位置)が登録地に接近した時に、読み上げを誤ることなく、しかも、ユーザが期待した通りのアクセントで合成音声が出力される。
上記ステップST23において、表記情報および読み情報に対応するアクセント情報がアクセント辞書11に存在しないことが判断されると、アクセント辞書検索部12aのアクセント検索失敗処理部15は、ステップST21で入力された読み情報「ツキマシタ」を音声合成部13に送る(ステップST25)。その後、音声合成部13は、アクセント辞書検索部12から送られてくるアクセント情報が付されていない読み情報「ツキマシタ」に基づき音声波形を合成し音声再生部14に送る。音声再生部14は、音声合成部13から送られてくる音声波形に基づき音声を出力する。これにより、図10に示すように、現在位置(自車位置)が登録地に接近した時に、ユーザが期待した通りのアクセントではないが、読み誤ることなく、「ツキマシタ」という合成音声が出力される。
以上説明したように、この発明の実施の形態2に係る音声合成装置によれば、外部から入力される表記情報および読み情報に対応するアクセント情報がアクセント辞書11に存在しない場合であっても、アクセントがない音声を発生するように構成したので、ユーザが期待した通りのアクセントではないが、読み上げを誤ることなく合成音声を出力できる。
なお、上述した実施の形態1および実施の形態2に係る音声合成装置は、日本語の和漢混淆文を音声合成の対象としたが、中国語に適用することもできる。中国語の「読み」に相当するピンイン(pinyin)には、四声というアクセント情報が含まれている。したがって、基本的には、ピンインのみで読み上げが誤ることなく正しいアクセントで音声合成することが可能である。しかしながら、四声が含まれていないピンインと漢字とからアクセントは容易に理解できるため、通常は、四声を入力することは少ない。
そこで、表記情報として「漢字」、読み情報として「四声なしのピンイン」、アクセント情報として「四声ありのピンイン」を用いれば、この発明は、中国語にも適用可能である。
1、1a 音声合成装置、11 アクセント辞書、12、12a、アクセント辞書検索部、13 音声合成部、14 音声再生部、15 アクセント検索失敗処理部。
Claims (2)
- 語を表記する表記情報および読み方を示す読み情報に、該語の読みのアクセントを規定するアクセント情報を対応付けて格納したアクセント辞書と、
外部から入力された表記情報および読み情報に対応するアクセント情報を前記アクセント辞書から検索し、該検索されたアクセント情報が付された読み情報であるアクセント付読み情報を取得するアクセント辞書検索部と、
前記アクセント辞書検索部で取得されたアクセント付読み情報に基づき音声波形を合成する音声合成部と、
前記音声合成部で合成された音声波形に基づき音声を再生する音声再生部
とを備えた音声合成装置。 - アクセント辞書検索部は、アクセント辞書からアクセント情報を検索できなかった場合に、外部から入力されたアクセント情報が付されていない読み情報を音声合成部に送るアクセント検索失敗処理部を備え、
音声合成部は、前記アクセント検索失敗処理部から送られてくるアクセント情報が付されていない読み情報に基づき音声波形を合成する
ことを特徴とする請求項1記載の音声合成装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008203082A JP2010039277A (ja) | 2008-08-06 | 2008-08-06 | 音声合成装置 |
CN200910159280XA CN101645266B (zh) | 2008-08-06 | 2009-08-05 | 声音合成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008203082A JP2010039277A (ja) | 2008-08-06 | 2008-08-06 | 音声合成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010039277A true JP2010039277A (ja) | 2010-02-18 |
Family
ID=41657119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008203082A Pending JP2010039277A (ja) | 2008-08-06 | 2008-08-06 | 音声合成装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2010039277A (ja) |
CN (1) | CN101645266B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6520108B2 (ja) * | 2014-12-22 | 2019-05-29 | カシオ計算機株式会社 | 音声合成装置、方法、およびプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03174596A (ja) * | 1989-12-02 | 1991-07-29 | Toshiba Corp | 音声応答装置 |
JPH05189194A (ja) * | 1992-01-10 | 1993-07-30 | Toshiba Corp | 文書読み上げ装置 |
JPH096378A (ja) * | 1995-06-21 | 1997-01-10 | Oki Electric Ind Co Ltd | テキスト音声変換装置 |
JPH0934491A (ja) * | 1995-07-20 | 1997-02-07 | Sony Corp | 音声合成装置および音声合成方法、並びにナビゲーションシステム |
JP2005309327A (ja) * | 2004-04-26 | 2005-11-04 | Mitsubishi Electric Corp | 音声合成装置 |
JP2006094126A (ja) * | 2004-09-24 | 2006-04-06 | Canon Inc | 音声合成装置 |
-
2008
- 2008-08-06 JP JP2008203082A patent/JP2010039277A/ja active Pending
-
2009
- 2009-08-05 CN CN200910159280XA patent/CN101645266B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03174596A (ja) * | 1989-12-02 | 1991-07-29 | Toshiba Corp | 音声応答装置 |
JPH05189194A (ja) * | 1992-01-10 | 1993-07-30 | Toshiba Corp | 文書読み上げ装置 |
JPH096378A (ja) * | 1995-06-21 | 1997-01-10 | Oki Electric Ind Co Ltd | テキスト音声変換装置 |
JPH0934491A (ja) * | 1995-07-20 | 1997-02-07 | Sony Corp | 音声合成装置および音声合成方法、並びにナビゲーションシステム |
JP2005309327A (ja) * | 2004-04-26 | 2005-11-04 | Mitsubishi Electric Corp | 音声合成装置 |
JP2006094126A (ja) * | 2004-09-24 | 2006-04-06 | Canon Inc | 音声合成装置 |
Also Published As
Publication number | Publication date |
---|---|
CN101645266A (zh) | 2010-02-10 |
CN101645266B (zh) | 2011-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7983912B2 (en) | Apparatus, method, and computer program product for correcting a misrecognized utterance using a whole or a partial re-utterance | |
JP2007206317A (ja) | オーサリング方法、オーサリング装置およびプログラム | |
JP2004526197A (ja) | 入力された音声のトランスクリプションおよび表示 | |
JP2009258293A (ja) | 音声認識語彙辞書作成装置 | |
JPWO2020036195A1 (ja) | 話し終わり判定装置、話し終わり判定方法およびプログラム | |
JP2020027132A (ja) | 情報処理装置およびプログラム | |
JP2012003090A (ja) | 音声認識装置および音声認識方法 | |
JP2010117528A (ja) | 声質変化判定装置、声質変化判定方法、声質変化判定プログラム | |
JP2010039277A (ja) | 音声合成装置 | |
US20070219799A1 (en) | Text to speech synthesis system using syllables as concatenative units | |
JPH08335096A (ja) | テキスト音声合成装置 | |
JP6411015B2 (ja) | 音声合成装置、音声合成方法、およびプログラム | |
JP2011180416A (ja) | 音声合成装置、音声合成方法およびカーナビゲーションシステム | |
JP2010175717A (ja) | 音声合成装置 | |
JP2005321520A (ja) | 音声合成装置及びそのプログラム | |
JP4026512B2 (ja) | 歌唱合成用データ入力プログラムおよび歌唱合成用データ入力装置 | |
JP6727477B1 (ja) | ピッチパターン補正装置、プログラム及びピッチパターン補正方法 | |
JP3414326B2 (ja) | 音声合成用辞書登録装置及び方法 | |
JP2002123281A (ja) | 音声合成装置 | |
JP2007127994A (ja) | 音声合成方法及び音声合成装置並びにプログラム | |
JP2006098552A (ja) | 音声情報生成装置、音声情報生成プログラム及び音声情報生成方法 | |
JPH11212586A (ja) | 音声合成装置 | |
JP2008191492A (ja) | 原稿校正システム | |
JP5142920B2 (ja) | 読み上げ情報生成装置、読み上げ情報生成方法及びプログラム | |
JP6340839B2 (ja) | 音声合成装置、合成音声編集方法及び合成音声編集用コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120626 |