JP2005215411A - 音声合成装置および音声合成方法 - Google Patents
音声合成装置および音声合成方法 Download PDFInfo
- Publication number
- JP2005215411A JP2005215411A JP2004022977A JP2004022977A JP2005215411A JP 2005215411 A JP2005215411 A JP 2005215411A JP 2004022977 A JP2004022977 A JP 2004022977A JP 2004022977 A JP2004022977 A JP 2004022977A JP 2005215411 A JP2005215411 A JP 2005215411A
- Authority
- JP
- Japan
- Prior art keywords
- particle
- data
- speech
- speech data
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
【課題】 膨大な音声データを要することなく、聴き心地の良好な音声を合成し得る音声合成装置および音声合成方法を提供する。
【解決手段】 音声合成装置では、入力されたテキストデータを解析して助詞を検出し(S101)、テキストデータにおいて検出された当該助詞の付く単語のモーラ数・アクセント型に対応する助詞の助詞音声データを決定すると(S105)、この決定された助詞の助詞音声データを音声データベースから選択し(S107)、この選択された助詞の助詞音声データを含むテキストデータに対応する音声データをにより構成し音声出力装置により出力する(S109)。これにより、助詞の直前に付く単語のモーラ数・アクセント型に対応する助詞の助詞音声データを決定し、これを「助詞の直前に付く単語のモーラ数・アクセント型により分類された助詞の助詞音声データを記憶する音声データベース」から選択する。
【選択図】 図3
【解決手段】 音声合成装置では、入力されたテキストデータを解析して助詞を検出し(S101)、テキストデータにおいて検出された当該助詞の付く単語のモーラ数・アクセント型に対応する助詞の助詞音声データを決定すると(S105)、この決定された助詞の助詞音声データを音声データベースから選択し(S107)、この選択された助詞の助詞音声データを含むテキストデータに対応する音声データをにより構成し音声出力装置により出力する(S109)。これにより、助詞の直前に付く単語のモーラ数・アクセント型に対応する助詞の助詞音声データを決定し、これを「助詞の直前に付く単語のモーラ数・アクセント型により分類された助詞の助詞音声データを記憶する音声データベース」から選択する。
【選択図】 図3
Description
本発明は、音声合成装置および音声合成方法に関するものである。
従来の音声合成装置として、例えば、下記、特許文献1に開示される「音声合成方法および装置」がある。この開示技術では、単語や文節や文を想起して単音節を連続的に発声した音声から韻律成分を抽出してテンプレートとして事前に格納しておき、合成しようとする音声中の単語とモーラ数およびアクセント型が同じテンプレートを選択し、このテンプレートのリズムパターン、ピッチ周波数パターン、パワーパターンに合わせて合成音声を作成するように構成している。これによりテンプレートの韻律に合うように音声素片を修正し接続して音声合成をするので、より自然な韻律の音声を合成できるとしている。
このように従来の音声合成装置では、入力テキストに対してテキスト解析およびアクセント解析を行ったうえで、音声素片(以下「音素」という。)単位で音声データを割り当てたり、音声波形単位で音声波形データを割り当てて音声合成を行っている。
特開平11−85192号公報(第2頁〜第7頁、図1〜5)
しかしながら、上述したような従来の音声合成装置によると、音声合成を行う単位を音素単位や音声波形単位としている。そのため、人の発話音声と比較すると、出力された合成音声には不自然さが残ってしまうことから、これにより作成された台詞(例えば、ナビゲーション装置の音声ガイダンス)の聴き心地も悪化するという技術的な課題がある。
また、音声合成を行う単位を音素単位や音声波形単位とするのではなく、例えば、単語単位で録音された音声データを割り当てることにより、多様化したあらゆる台詞のバリエーションに対しても、人の発話音声のような自然なアクセントをもたせることが理論的には可能であると考えられる。ところが、膨大な音声データをデータベース等に蓄積しなければ実現できないという課題がある。
さらに、通常、同じ助詞にも3段階以上の音調(音の高低)が存在する。そのため、このような単語単位で録音された名詞等の音声データに、助詞の音声データを合成しようとした場合、助詞の直前に付く単語のアクセントに最適な音調を助詞に設定するには、同一の助詞について3段階以上の予め用意された音調の異なる音声データの中から、利用者が手動により適宜選択するといった煩雑な操作が必要となる。
また、このような助詞とその直前の単語とを組み合わせた発話音声を録音して音声データとした場合には、前述の、多様化したあらゆる台詞のバリエーションに対して対応する場合と同様に、膨大な音声データをデータベース等に蓄積しなければ実現できないという課題が発生する。
本発明は、上述した課題を解決するためになされたものであり、その目的とするところは、膨大な音声データを要することなく、聴き心地の良好な音声を合成し得る音声合成装置および音声合成方法を提供することにある。
上記目的を達成するため、特許請求の範囲に記載された請求項1の音声合成装置では、助詞の直前に付く単語のモーラ数およびアクセント型により分類された前記助詞の音声データを記憶する助詞音声データ記憶手段と、入力されたテキストデータを解析し助詞を検出する助詞検出手段と、前記テキストデータにおいて、前記検出された助詞の直前に付く単語のモーラ数およびアクセント型に対応する前記助詞の音声データを決定する助詞決定手段と、前記決定された助詞の音声データを前記助詞音声データ記憶手段から選択する助詞音声データ選択手段と、前記選択された助詞の音声データを含む前記テキストデータに対応する音声データを構成し出力する音声データ出力手段と、を備えることを技術的特徴とする。
また、特許請求の範囲に記載された請求項2の音声合成装置では、請求項1において、人の音声を音声データとして取得する音声データ取得手段と、前記取得された音声データを解析し当該音声データから、助詞の音声データおよびこの助詞の直前に付く単語の音声データを抽出する助詞音声データ抽出手段と、前記抽出した助詞の直前に付く単語の音声データに基づいて当該単語のモーラ数およびアクセント型を解析するモーラ数アクセント型解析手段と、前記解析した助詞の直前に付く単語のモーラ数およびアクセント型に基づいて前記助詞の音声データを分類することにより助詞の音声データを生成する助詞音声データ生成手段と、を備える音声データ生成装置により、前記生成した助詞の音声データを前記音声合成装置の助詞音声データ記憶手段に記憶させることを技術的特徴とする。
上記目的を達成するため、特許請求の範囲に記載された請求項3の音声合成方法では、入力されたテキストデータを解析し助詞を検出する助詞検出ステップと、前記テキストデータにおいて、前記検出された助詞の直前に付く単語のモーラ数およびアクセント型に対応する前記助詞の音声データを決定する助詞決定ステップと、前記決定された助詞の音声データを、助詞の直前に付く単語のモーラ数およびアクセント型により分類された前記助詞の音声データを記憶する助詞音声データ記憶手段から選択する助詞音声データ選択ステップと、前記選択された助詞の音声データを含む前記テキストデータに対応する音声データを構成し出力する音声データ出力ステップと、を備えることを技術的特徴とする。
また、特許請求の範囲に記載された請求項4の音声合成方法では、請求項3において、人の音声を音声データとして取得する音声データ取得ステップと、前記取得された音声データを解析し当該音声データから、助詞の音声データおよびこの助詞の直前に付く単語の音声データを抽出する助詞音声データ抽出ステップと、前記抽出した助詞の直前に付く単語の音声データに基づいて当該単語のモーラ数およびアクセント型を解析するモーラ数アクセント型解析ステップと、前記解析した助詞の直前に付く単語のモーラ数およびアクセント型に基づいて前記助詞の音声データを分類することにより助詞の音声データを生成する助詞音声データ生成ステップと、を含む音声データ生成方法により、前記生成した助詞の音声データを前記音声合成方法の助詞音声データ記憶手段に記憶させることを技術的特徴とする。
請求項1の発明では、助詞音声データ記憶手段により、助詞の直前に付く単語のモーラ数およびアクセント型により分類された助詞の音声データを記憶する。そして、入力されたテキストデータを助詞検出手段により解析し助詞を検出し、テキストデータにおいて検出された助詞の直前に付く単語のモーラ数およびアクセント型に対応する助詞の音声データを助詞決定手段により決定すると、この決定された助詞の音声データを助詞音声データ記憶手段から助詞音声データ選択手段により選択し、この選択された助詞の音声データを含むテキストデータに対応する音声データを音声データ出力手段により構成し出力する。
また、請求項3の発明では、入力されたテキストデータを助詞検出ステップにより解析し助詞を検出し、テキストデータにおいて検出された助詞の直前に付く単語のモーラ数およびアクセント型に対応する助詞の音声データを助詞決定ステップにより決定すると、この決定された助詞の音声データを助詞の直前に付く単語のモーラ数およびアクセント型により分類された助詞の音声データを記憶する助詞音声データ記憶手段から助詞音声データ選択ステップにより選択し、この選択された助詞の音声データを含むテキストデータに対応する音声データを音声データ出力ステップにより構成し出力する。
これにより、請求項1および請求項3の発明では、助詞の直前に付く単語のモーラ数およびアクセント型に対応する助詞の音声データを決定して、この決定された助詞の音声データを、助詞の直前に付く単語のモーラ数およびアクセント型により分類された助詞の音声データを記憶する助詞音声データ記憶手段から選択するので、このように選択された助詞の音声データを含むことで、聴き心地の良好な音声を合成することができる。
また、助詞は、その種類(格助詞、副助詞、係助詞、終助詞、間投助詞、接続助詞)の全てに対応したとしても、「は」、「が」、「の」、「を」、「に」等々、数十種類に限られていることから、助詞の直前に付く単語のモーラ数およびアクセント型により分類された助詞の音声データを助詞音声データ記憶手段に記憶しても、それほどデータ量にはならない。その一方で、名詞等の助詞以外の単語は、その種類も数十万種類というように、助詞に比べて桁違いに多いことから、これらの単語とその後に付く助詞との組み合わせを当該助詞の音調に合わせて録音し音声データ化した場合には、膨大なデータ量にならざるを得ない。したがって、膨大な音声データを要することなく、聴き心地の良好な音声を合成することができる。
請求項2の発明では、音声データ取得手段により人の音声を音声データとして取得し、助詞音声データ抽出手段により、取得された音声データを解析し当該音声データから助詞の音声データおよびこの助詞の直前に付く単語の音声データを抽出し、モーラ数アクセント型解析手段により、抽出した助詞の直前に付く単語の音声データに基づいて当該単語のモーラ数およびアクセント型を解析し、この解析した助詞の直前に付く単語のモーラ数およびアクセント型に基づいて助詞の音声データを分類することにより助詞の音声データを生成する。そして、この生成した助詞の音声データを請求項1に記載の音声合成装置の助詞音声データ記憶手段に記憶させる。
また、請求項4の発明では、音声データ取得ステップにより人の音声を音声データとして取得し、助詞音声データ抽出ステップにより、取得された音声データを解析し当該音声データから助詞の音声データおよびこの助詞の直前に付く単語の音声データを抽出し、モーラ数アクセント型解析ステップにより、抽出した助詞の直前に付く単語の音声データに基づいて当該単語のモーラ数およびアクセント型を解析し、この解析した助詞の直前に付く単語のモーラ数およびアクセント型に基づいて助詞の音声データを分類することにより助詞の音声データを生成する。そして、この生成した助詞の音声データを請求項3に記載の音声合成方法の助詞音声データ記憶手段に記憶させる。
これにより、請求項2および請求項4の発明では、人の音声データを解析した助詞の直前に付く単語のモーラ数およびアクセント型に基づいて、当該人の音声データから抽出された助詞の音声データを分類することにより助詞の音声データを生成する。そして、この生成された助詞の音声データを助詞音声データ記憶手段に記憶させる。したがって、これにより助詞音声データ記憶手段に記憶されている助詞の音声データは、助詞の直前に付く単語のモーラ数およびアクセント型に基づいて分類されているので、請求項1の音声合成装置および請求項3の音声合成方法において利用可能な助詞音声データ記憶手段を実現することができ、ひいては聴き心地の良好な音声の合成に資することができる。
以下、本発明の音声合成装置および音声合成方法の実施形態について図を参照して説明する。まず、本実施形態に係る音声合成装置20の構成を図1に基づいて説明する。
図1に示すように、音声合成装置20は、主に、CPU21、メモリ22、辞書データベース23、台詞データベース24、音声データベース25、入出力インタフェース26、入力装置27、表示装置28、音声入力装置31、音声出力装置33、通信装置35等から構成されており、例えば、パーソナルコンピュータをベースにしている。この音声合成装置20は、入力されたテキストに対応する音声を合成して出力する音声合成機能のほかに、入力された音声データから助詞に相当する音声データ(以下「助詞音声データ」という)を抽出して音声データベース25に記憶する助詞音声データ生成機能も有するものである。以下、音声合成機能を実現するためのCPU21による制御処理を「音声合成処理」と称し、また助詞音声データ生成機能を実現するためのCPU21による制御処理を「助詞音声データ生成処理」と称する。
図1に示すように、音声合成装置20は、主に、CPU21、メモリ22、辞書データベース23、台詞データベース24、音声データベース25、入出力インタフェース26、入力装置27、表示装置28、音声入力装置31、音声出力装置33、通信装置35等から構成されており、例えば、パーソナルコンピュータをベースにしている。この音声合成装置20は、入力されたテキストに対応する音声を合成して出力する音声合成機能のほかに、入力された音声データから助詞に相当する音声データ(以下「助詞音声データ」という)を抽出して音声データベース25に記憶する助詞音声データ生成機能も有するものである。以下、音声合成機能を実現するためのCPU21による制御処理を「音声合成処理」と称し、また助詞音声データ生成機能を実現するためのCPU21による制御処理を「助詞音声データ生成処理」と称する。
CPU21は、音声合成装置20を制御する中央演算処理装置で、システムバスを介してメモリ22、辞書データベース23、台詞データベース24、音声データベース25、入出力インタフェース26等と接続されている。CPU21を制御するシステムプログラム22aはメモリ22に格納されており、CPU21がこれを実行することによりメモリ22の管理や辞書データベース23等へのアクセス制御等といった基本システムの制御が行われている。また、このメモリ22には、このほかに音声合成処理を可能にする各種制御プログラム22b、22c、22d、22e、22f、22gや、助詞音声データ生成処理を可能にする22p、22q、22r等も格納されている。CPU21はこれらのプログラムをメモリ22から読み出して逐次実行することにより、後述する音声合成処理を可能にしている。なお、このCPU21は、特許請求の範囲に記載の「助詞検出手段」、「助詞決定手段」、「助詞音声データ選択手段」、「音声データ出力手段」、「音声データ取得手段」、「助詞音声データ抽出手段」、「モーラ数アクセント型解析手段」および「助詞音声データ生成手段」に相当し得るものである。
メモリ22は、システムバスに接続されている記憶装置であり、CPU21が使用する主記憶空間を構成するものである。このメモリ22には、システムプログラム22aを始めとして入力制御プログラム22b、テキスト解析プログラム22c、アクセント解析プログラム22d、助詞決定プログラム22e、音声データ取得プログラム22f、出力制御プログラム22g、音声データ採取プログラム22p、音声データ抽出プログラム22q、アクセント型別音声データ生成プログラム22r等が予め書き込まれている。
辞書データベース23は、CPU21が使用する補助記憶空間を構成するハードディスク、DVD(Digital Versatile Disc)、CD−ROM、不揮発性半導体メモリ(EEPROM等)等で、システムバスを介してCPU21に接続されている。この辞書データベース23には、テキスト解析辞書23aやアクセント解析辞書23bが格納されている。
テキスト解析辞書23aは、入力装置27等から入力されたテキスト(文字列のこと)データを形態素解析するときに参照される辞書で、単語や文法に関する情報によって構成されている。なお、このテキスト解析辞書23aは、後述する助詞音声データ生成処理によるテキスト解析プログラム22cとともに特許請求の範囲に記載の「助詞検出手段」および「モーラ数アクセント型解析手段」に相当し得るものである。
一方、アクセント解析辞書23bは、後述するように、形態素解析された単語等についてアクセント解析するときに参照される辞書で、テキスト単語アクセント辞書からなる。これは単語のアクセントに関する情報によって構成されている。なお、このアクセント解析辞書23bは、後述する助詞音声データ生成処理によるアクセント解析プログラム22dとともに特許請求の範囲に記載の「モーラ数アクセント型解析手段」に相当し得るものである。
台詞データベース24も、辞書データベース23と同様に、ハードディスク、DVD等からなり、システムバスを介してCPU21に接続され、CPU21が使用する補助記憶空間を構成している。この台詞データベース24には、台詞データ24aが格納されており、その構成例が図2(A) に示されているので、ここでは図2を参照して説明する。
図2(A) に示すように、台詞データ24aは、アクセント解析された単語について名詞、動詞、助動詞等の助詞以外の音声データ(以下「名詞等音声データ」という。)25a等を検索する際等に参照されるもので、例えば、表記文字、読み、音声コード、種別、○M△型、コメントにより分類された項目をもっている。例えば『今日』という漢字2文字を表すテキストデータに対応するものとして、表記文字「今日」、読み「キョウ」、音声コード「10」、種別「名詞」、○M△型「2M1」のものと、表記文字「今日」、読み「コンニチ」、音声コード「11」、種別「名詞」、○M△型「4M1」のものとが登録されている。なお、「○M△型」とは、モーラ数およびアクセント型のことで、○モーラ△型と称されることもある。また、図2では○M△型を「○M△」と略記する。また、以下、「モーラ数およびアクセント型」を「モーラ数・アクセント型」と表記する。
音声データベース25も、辞書データベース23と同様に、ハードディスク、DVD等からなり、システムバスを介してCPU21に接続され、CPU21が使用する補助記憶空間を構成している。この音声データベース25には、名詞等音声データ25aや助詞の音声データ(以下「助詞音声データ」という。)25bが格納されており、その構成例が図2(B) 、図2(C) に示されているので、引き続き図2を参照して説明する。なお、この音声データベース25は、特許請求の範囲に記載の「助詞音声データ記憶手段」に相当し得るものである。
図2(B) に示すように、名詞等音声データ25aは、人の発話音声(人が発声した単語の音声)の録音データから、名詞、動詞、助動詞等の助詞を除いた単語の読みに相当する音声データを抽出したもので、実際の音声波形に対応して量子化等された波形データが格納されている。この名詞等音声データ25aは、アクセント解析された単語について名詞等音声データ25aを検索する際等に参照されるため、音声コードをキーとして前述した台詞データベース24の台詞データ24aに関連付けられている。そのため、各名詞等音声データ25aには、音声コードが付与されており、例えば、前述の『今日』に対応するものとしては、音声コード「10」、「11」が付けられている。
一方、助詞音声データ25bは、前述の録音データから、助詞の読みに相当する音声データを抽出したもので、名詞等音声データ25aと同様、波形データが格納されている。この助詞音声データ25bは、後述するように、「助詞音声データ生成処理」等により生成されるもので、同一の助詞について3段階以上の音調の異なる音声データが含まれている。そのため、助詞音声データ25bには、○M△型、表記、読み等が付与され、表記および読みが同じ助詞であっても、○M△型の違いによって選択可能に構成されている。
即ち、同じ助詞であっても、その助詞が付く単語(入力テキストにおいて当該助詞の直前に付く単語のことで、以下「前語」という。)のモーラ数・アクセント型の違いにより、当該助詞の音調(音の高低)が異なる。その一方で、当該前語の読み等にかかわりなく、その単語のモーラ数・アクセント型に基づいて当該助詞の音調を決定できるため、本実施形態ではこの性質に着目して図2(C) に示すように、助詞音声データ25bを構成している。なお、この助詞音声データ25bの詳細については図3に図示される「音声合成処理」の流れや、図5に図示される「助詞音声データ生成処理」の流れを説明するときに詳述する。
図1に戻って、入出力インタフェース26は、入力装置27、表示装置28、音声入力装置31、音声出力装置33、通信装置35等の入出力装置とCPU21等とのデータのやり取りを仲介する装置で、システムバスに接続されている。
入力装置27は、音声合成装置20に対する操作コマンドや前述したテキストデータ等を入力し得るもので、例えば、キーボードやペン入力デバイスあるいはマウス等のポインティングデバイス等がこれに相当する。表示装置28は、音声合成装置20に入力した操作コマンドに対する応答表示や前述したテキストデータのエコーバック表示等を出力し得るもので、例えば、CRT表示装置、液晶ディスプレィ装置等がこれに相当する。
音声入力装置31は、音声合成装置20の利用者の発話音声を集音しアナログデータとして音声合成装置20に入力し得るもので、例えば、マイクロフォンがこれに相当する。また集音したアナログデータをAD変換してディジタル化された音声データを出力するものや、ディジタル化された音声データと併せて、発話音声に対応したテキストデータを音声認識処理を介して出力するものもある。なお、この音声入力装置31は、特許請求の範囲に記載の「音声データ取得手段」に相当し得るものである。また、音声入力装置31により音声認識処理を行う場合や、音声入力装置31から入力された音声データに基づいて別途用意された音声認識プログラム等によりCPU21による音声認識処理を行う場合には、入力装置27によりテキストデータの入力は不要となる。
音声出力装置33は、後述する音声合成処理により合成された音声を出力し得るもので、例えば、DA変換器を備えたオーディオアンプとスピーカとを組み合わせた音響装置がこれに相当する。なお、この音声出力装置33は特許請求の範囲に記載の「音声データ出力手段」に相当し得るものである。
通信装置35は、他の情報端末装置(例えばパーソナルコンピュータ)との間で有線通信回線によるデータの送受信を行うための有線データ通信機器で、例えば、公衆回線に対応した公衆回線モデムや所定のネットワーク形態に対応したLANアダプタ等がこれに相当する。なお、通信装置35は、有線通信に限られず、無線通信回線に対応した無線データ通信機器(携帯電話、PHSや無線LAN等)であっても良い。
ここで、メモリ22に格納されている、入力制御プログラム22b、テキスト解析プログラム22c、アクセント解析プログラム22d、助詞決定プログラム22e、音声データ取得プログラム22f、出力制御プログラム22g、音声データ採取プログラム22p、音声データ抽出プログラム22q、アクセント型別音声データ生成プログラム22rの概要を説明する。
なお、これらの各プログラムのうち、入力制御プログラム22b、テキスト解析プログラム22c、アクセント解析プログラム22d、助詞決定プログラム22e、音声データ取得プログラム22f、出力制御プログラム22gは、図3に示す「音声データ生成処理」を実現するためのものである。また、入力制御プログラム22b、テキスト解析プログラム22c、アクセント解析プログラム22d、出力制御プログラム22g、音声データ採取プログラム22p、音声データ抽出プログラム22q、アクセント型別音声データ生成プログラム22rは、図5に示す「助詞音声データ生成処理」を実現するためのものである。
入力制御プログラム22bは、入力装置27等を介して利用者により入力されたテキストデータをテキスト解析プログラム22cに、また音声入力装置31等を介して利用者により入力された音声データ25αを音声データ採取プログラム22pに、受け渡す処理等を行うプログラムで、主に、入力装置27、音声入力装置31や通信装置35等の低速データ入力装置とCPU21との間のデータの受渡機能を有する。なお、音声入力装置31に音声認識機能があり入力された音声データ25αをテキストデータに変換可能な場合には、当該テキストデータは入力制御プログラム22bを介してテキスト解析プログラム22cに受け渡される。
テキスト解析プログラム22cは、入力装置27等により入力されたテキストデータの形態素解析を行うプログラムで、具体的には、入力されたテキストデータを辞書データベース23のテキスト解析辞書23aに基づいて形態素解析することによって、単語ごとの、読み、モーラ数や文法情報等を与える機能を有する。このテキスト解析プログラム22cは、特許請求の範囲に記載の「助詞検出手段」および「モーラ数アクセント型解析手段」に相当し得るものである。なお、助詞や助動詞は、単語とは区別して「接辞」として分類されることもあるが、本実施形態では、助詞や助動詞も「単語」の概念に含めている。
アクセント解析プログラム22dは、テキスト解析プログラム22cにより解析された入力テキスト中の単語に対しアクセント解析を行うプログラムで、具体的には、当該単語をアクセント解析辞書23bのテキスト単語アクセント辞書に基づいてアクセント解析し単語単位のアクセント型を求める機能を有する。このアクセント解析プログラム22dは、特許請求の範囲に記載の「モーラ数アクセント型解析手段」に相当し得るものである。
助詞決定プログラム22eは、入力されたテキストデータにおいて、テキスト解析プログラム22cにより検出された前語のモーラ数・アクセント型に対応する当該助詞の助詞音声データ25bを決定するプログラムで、具体的には、図2(C) に示す音声データベース25の助詞音声データ25bから選択すべきものを、当該前語のモーラ数・アクセント型(○M△型)に基づいて決定する機能を有する。この助詞決定プログラム22eは、特許請求の範囲に記載の「助詞決定手段」に相当し得るものである。
音声データ取得プログラム22fは、テキスト解析プログラム22cにより形態素解析された形態素(単語)に対応する名詞等音声データ25aを音声データベース25から検索して取得したり、また助詞決定プログラム22eにより決定された助詞音声データ25bを音声データベース25から検索して取得するプログラムで、特許請求の範囲に記載の「助詞音声データ選択手段」に相当し得るものである。
具体的には、名詞等音声データ25aについては、形態素(単語)に該当する表記文字とその読みを台詞データベース24の台詞データ24aから検索し、ヒットした台詞データ24aの音声コードに基づいて音声データベース25から取得する。例えば、前述の『今日』に対応するもので、その読みが「キョウ」の場合、その音声コードは「10」になるので、当該音声コード「10」に該当する音声データ25aを音声データベース25から取得する(図2(A) 、図2(B) 参照)。
一方、助詞音声データ25bについては、助詞のモーラ数・アクセント型、表記および読みから検索しヒットした助詞音声データ25bを音声データベース25から取得する。例えば、入力テキストが『今日は、…』である場合には、助詞「は」が付く単語「今日」は2モーラ1型(2M1)で、当該助詞の表記「は」とその読み「ワ」とから、助詞音声データ25b-2が検索されるので、これを音声データベース25から取得する(図2(C) 参照)。
出力制御プログラム22gは、入力テキストに対応する音声データを名詞等音声データ25aや助詞音声データ25bをにより構成して表示装置28や音声出力装置33等に受け渡す処理等を行うプログラムで、主に、表示装置28、音声出力装置33や通信装置35等の低速データ出力装置とCPU21との間のデータの受渡機能を有する。なお、この出力制御プログラム22hは、特許請求の範囲に記載の「音声データ出力手段」に相当し得るものである。
音声データ採取プログラム22pは、音声入力装置31等から入力制御プログラム22bを介して入力された人の音声を、音声データ25αとして取得するプログラムで、特許請求の範囲に記載の「音声データ取得手段」に相当し得るものである。これにより取得された音声データ25αは、音声データ抽出プログラム22qに受け渡される。また、この音声データ採取プログラム22pは、音声データ25αに対する読みが音声入力装置31等によって認識されず、当該読みがテキストデータとして出力されない場合には、利用者に対し入力装置27による当該音声データ25αの読みを入力する必要のある旨を表示装置28に出力する機能も有する。
音声データ抽出プログラム22qは、音声データ採取プログラム22pにより取得された音声データ25αを解析し当該音声データ25αから、当該助詞の助詞音声データ25bおよびこの助詞の前語の名詞等音声データ25aを抽出するプログラムで、特許請求の範囲に記載の「助詞音声データ抽出手段」に相当し得るものである。
アクセント型別音声データ生成プログラム22rは、テキスト解析プログラム22cおよびアクセント解析プログラム22dにより解析された前語のモーラ数・アクセント型に基づいて当該助詞の助詞音声データ25bを分類することによりアクセント型別の助詞音声データ25bを生成するプログラムである。このアクセント型別音声データ生成プログラム22rは、特許請求の範囲に記載の「助詞音声データ生成手段」に相当し得るものである。
続いて、音声合成装置20による音声合成処理の流れ等を図3および図4に基づいて説明する。なお、この音声合成処理は、例えば、入力装置27から入力テキストの内容を音声合成する旨の命令入力があった等の所定の起動条件が整った場合に、図略のメインプログラムにより起動されるもので、また以下説明する各処理は、前述した入力制御プログラム22b、テキスト解析プログラム22c、アクセント解析プログラム22d、助詞決定プログラム22e、音声データ取得プログラム22f、出力制御プログラム22gをそれぞれCPU21が実行することによって処理されるものである。
図3に示すように、音声合成装置20による音声合成処理では、所定の初期化処理の後、まずステップS101によりテキスト解析処理が行われる。この処理は、入力装置27や音声入力装置31等によって入力されたテキストデータを各単語ごとに分解して解析し、助詞を検出するもので、テキスト解析プログラム22cの実行により行われる。このステップS101は、特許請求の範囲に記載の「助詞検出ステップ」に相当し得るものである。具体的には、『今日は、…』というテキストデータが入力された場合の処理を例に、図4を参照して説明した方がわかり易いので、ここからは、図4も参照しながら当該音声合成処理の流れを説明する。なお、『今日は、…』の「…」部分は、任意の文章が当てはまる旨を示しており、本実施形態では、助詞の「は」とその前語の名詞「今日」を題材に説明する意を間接的に表現している。
図4に示すように、『今日は、…』というテキストデータが入力されると、ステップS101により辞書データベース23のテキスト解析辞書23aに基づいて形態素を解析する処理が行われる。これにより、『今日は、…』というテキストデータは、『今日』、『は』、『…』という単語の集まりとして解析され、さらに「は」という係助詞の存在と、その前語として「今日」が検出される。これにより、単語ごとの、読み、モーラ数や文法情報等が与えられる。図4の例では、「今日」は読みが「キョウ」でモーラ数が2の名詞、また「は」は読みが「ワ」でモーラ数が1の助詞、等々の情報が付与される。
次のステップS103では、アクセント解析処理が行われる。この処理は、ステップS101により解析された単語のアクセント型を解析するもので、アクセント解析プログラム22dの実行により行われる。具体的には、アクセント解析辞書23bのテキスト単語アクセント辞書に基づいて当該単語のアクセント型を解析する。図4の例では、「今日」という名詞は2モーラ1型で、「は」という助詞はアクセント型がないこと、等々が解析される。
続くステップS105では、助詞決定処理が行われる。この処理は、前語のモーラ数・アクセント型に対応する助詞の助詞音声データ25bを決定するもので、助詞決定プログラム22eの実行により行われる。このステップS105は、特許請求の範囲に記載の「助詞決定ステップ」に相当し得るものである。図4に示す例では、助詞「は」の前語である「今日」は、そのモーラ数・アクセント型が2M1型になることから、図2(C) に示すように同一の助詞「は」の助詞音声データ25b-1、25b-2、25b-3、…から、前語が2モーラ1型である場合に適合する助詞音声データ25b-2が決定される。
次のステップS107では、助詞音声データ選択処理が行われる。この処理は、ステップS105により決定された助詞の助詞音声データ25b-2を音声データベース25から選択するもので、音声データ取得プログラム22fの実行により行われる。このステップS107は、特許請求の範囲に記載の「助詞音声データ選択」に相当し得るものである。図4に示す例では、音声データベース25の助詞音声データ25bのうち、網掛けされた助詞音声データ25b-2が選択されている。
ステップS109では、音声データ出力処理が行われる。この処理は、ステップS107により選択された助詞の助詞音声データ25b-2を含む入力テキストデータに対応する音声データを構成し音声出力装置33により出力させるもので、出力制御プログラム22gの実行により行われる。このステップS109は、特許請求の範囲に記載の「音声データ出力ステップ」に相当し得るものである。図4に示す例では、ステップS107によって、前語である「今日」のモーラ数・アクセント型(2モーラ1型)に適合した助詞「は」として、2モーラ1型の名詞の後の助詞「は」の助詞音声データ25b-2が選択されているので、これを含めて『今日は、…』という入力テキストデータに対応する音声データを構成する。これにより、音声出力装置33から当該音声データが出力されるので、聴き心地の良好な音声を合成することができる。
このように、音声合成装置20による音声合成処理では、入力されたテキストデータをテキスト解析プログラム22c(S101)により解析し助詞を検出し、テキストデータにおいて検出された前語のモーラ数・アクセント型に対応する助詞の助詞音声データ25bを助詞決定プログラム22e(S105)により決定すると、この決定された助詞の助詞音声データ25bを音声データベース25から音声データ取得プログラム22f(S107)により選択し、この選択された助詞の助詞音声データ25bを含むテキストデータに対応する音声データを出力制御プログラム22g(S109)により構成し音声出力装置33により出力する。これにより、助詞の直前に付く前語のモーラ数・アクセント型に対応する助詞の助詞音声データ25bを決定し、これを「前語のモーラ数・アクセント型により分類された助詞の助詞音声データ25bを記憶する音声データベース25」から選択するので、前語のモーラ数・アクセント型によって当該助詞の音調が異なるという日本語の性質に適した助詞音声データ25bを選択することができる。したがって、このような助詞音声データ25bを含むことで、聴き心地の良好な音声を合成することができる。
また、助詞は、その種類(格助詞、副助詞、係助詞、終助詞、間投助詞、接続助詞)の全てに対応したとしても、「は」、「が」、「の」、「を」、「に」等々、数十種類に限られていることから、前語のモーラ数・アクセント型により分類された助詞の助詞音声データ25bを音声データベース25に記憶しても、それほどデータ量にはならない。その一方で、名詞等の助詞以外の単語は、その種類も数十万種類というように、助詞に比べて桁違いに多いことから、これらの単語とその後に付く助詞との組み合わせ(例えば「今日は」)を当該助詞の音調に合わせて録音し音声データ化した場合には、膨大なデータ量にならざるを得ない。したがって、音声合成装置20による音声合成処理(図3)によると、膨大な音声データを要することなく、聴き心地の良好な音声を合成することができる。
次に、音声合成装置20による助詞音声データ生成処理の流れ等を図5および図6に基づいて説明する。なお、この助詞音声データ生成処理は、例えば、入力装置27から助詞音声データを生成する旨の命令入力があった等の所定の起動条件が整った場合に、図略のメインプログラムにより起動されるもので、また以下説明する各処理は、前述した入力制御プログラム22b、テキスト解析プログラム22c、アクセント解析プログラム22d、出力制御プログラム22g、音声データ採取プログラム22p、音声データ抽出プログラム22q、アクセント型別音声データ生成プログラム22rをそれぞれCPU21が実行することによって処理されるものである。
図5に示すように、音声合成装置20による助詞音声データ生成処理では、所定の初期化処理の後、まずステップS501により音声データ取得処理が行われる。この処理は、音声入力装置31等から入力制御プログラム22bを介して入力された人の音声を音声データ25αとして取得するもので、音声データ採取プログラム22pの実行により行われる。このステップS501は、特許請求の範囲に記載の「音声データ取得ステップ」に相当し得るものである。
具体的には、図6に示すように、2モーラ1型の「秋」という名詞に助詞「が」を付けた『秋が』(アキガ)、また「秋」に助詞「の」を付けた『秋の』(アキノ)、さらに「秋」に助詞「は」を付けた『秋は』(アキワ)…、というように、「前語+助詞」の組み合わせにおいて、モーラ数・アクセント型のわかっている前語を固定し、これに付く助詞を「が」、「の」、「は」…に取り替えていくような録音用の台詞を予め用意しておく。そして、この録音用の台詞を表示装置28に出力して、それを話者に読ませて発音させることによって、特定のモーラ数・アクセント型の前語に付いた場合の助詞の音調(音の高低)を得ることができる。また前語のモーラ数・アクセント型を他のものに変えた場合も、同様に、これに付く助詞を「が」、「の」、「は」…に取り替えていくような録音用の台詞を用意することで、例えば、他のモーラ数・アクセント型の名詞「味」(2モーラ0型)、「麻」(2モーラ2型)についても、『味が』(アジガ)、『味の』(アジノ)、『味は』(アジワ)…、『麻が』(アサガ)、『麻の』(アサノ)、『麻は』(アサワ)…、というように、他のモーラ数・アクセント型の前語に付いた場合の助詞の音調(音の高低)を得ることができる。これにより、所定のモーラ数・アクセント型の名詞に、各助詞(「が」、「の」、「は」、「を」…)を付けた文節を当該モーラ数・アクセント型の録音語として音声データ25αを取得することができる。
なお、本実施形態では、録音用の台詞を予め用意しておき、それを表示装置28に表示させて話者に読ませる方法を採用したが、例えば、人の日常会話等から、発話音声を無作為に録音して、音声認識装置によりその録音データから会話内容のテキストデータを解析することによって「録音用の台詞」を不要にする構成を採っても良い。これにより、予め録音用の台詞を用意する手間が省け、また人による自然な日常会話から音声データ25αを採取することができるので、より自然な発話音声を容易に得ることができる。
続くステップS503では、ステップS501により取得された音声データαを解析し当該音声データ25αから、当該助詞の助詞音声データ25bおよびこの助詞の前語の名詞等音声データ25aを抽出する処理が行われる。この処理は、音声データ抽出プログラム22qの実行により行われるもので、特許請求の範囲に記載の「助詞音声データ抽出ステップ」に相当し得るものである。図6に示す例では、ステップS501により、『秋が』(アキガ)、『秋の』(アキノ)、『秋は』(アキワ)…が録音され取得されているので、これから助詞の助詞音声データ25bとその前語の名詞等音声データ25aとが抽出される。これにより、『秋が』は「秋」と「が」に、『秋の』は「秋」と「の」に、『秋は』は「秋」と「は」に、それぞれ分解され、前語部分の名詞等音声データ25aと助詞部分の助詞音声データ25bとがそれぞれ抽出される。
次のステップS505では、モーラ数・アクセント型解析処理が行われる。この処理はステップS503により抽出した前語の名詞等音声データ25aに基づいて当該単語のモーラ数・アクセント型を解析する処理が行われる。この処理は、テキスト解析プログラム22cおよびアクセント解析プログラム22dの実行により行われるもので、特許請求の範囲に記載の「モーラ数アクセント型解析ステップ」に相当し得るものである。図6に示す例では、前語の「アキ」は、その録音用の台詞データあるいは音声認識装置により認識されて出力されるテキストデータから、「秋」であることがわかる。そのため、当該前語「秋」のモーラ数・アクセント型は、テキスト解析辞書23aやアクセント解析辞書23bから、2モーラ1型であることが判明する。
続くステップS507では、ステップS505により解析された前語のモーラ数・アクセント型に基づいて当該前語に付く助詞の助詞音声データ25bを分類することによりアクセント型別の助詞音声データ25b-1、25b-2等を生成する処理が行われる。この処理は、アクセント型別音声データ生成プログラム22rの実行により行われるもので、特許請求の範囲に記載の「助詞音声データ生成ステップ」に相当し得るものである。図6に示す例では、「秋」のように前語が2モーラ1型である場合には、当該前語(2モーラ1型)に付く助詞として、他のモーラ数・アクセント型の前語に付く助詞とは分類することによりアクセント型別の助詞音声データ25b-1、25b-2等が生成される(図6に示すアクセント型別助詞音声データの生成)。これにより、例えば、同じ助詞「が」であっても、2モーラ0型の前語(例えば「味」)に付く助詞「が」と、2モーラ1型の前語(例えば「秋」)に付く助詞「が」と、2モーラ2型の前語(例えば「麻」)に付く助詞「が」と、ではそれぞれ異なった助詞音声データ25b-1、25b-2等として生成される。これは、同じ助詞であっても、前語のモーラ数・アクセント型によって当該助詞の音調(音の高低)が異なるという日本語の性質に着目して分類したものである。
続くステップS509では、ステップS507により生成されたアクセント型別の助詞音声データ25b-1、25b-2等を音声データベース25に記憶させる処理が行われる。この処理は、出力制御プログラム22gの実行により行われるもので、特許請求の範囲に記載の「生成した助詞の音声データを助詞音声データ記憶手段に記憶させること」に相当し得るものである。これにより、図2(C) に示すように、音声データベース25に記憶された助詞音声データ25bは、例えば、助詞「は」の場合、この「は」が付く前語のモーラ数・アクセント型の違いによって、2モーラ0型のときの助詞音声データ25b-1、2モーラ1型の助詞音声データ25b-2、2モーラ2型の助詞音声データ25b-3、…というようにそれぞれ異なった助詞音声データ25bとして記憶される。したがって、前述した入力テキスト『今日は、…』の例では、助詞「は」の付く前語「今日」のモーラ数・アクセント型が2モーラ1型(2M1)、当該助詞の表記「は」およびその読み「ワ」から、助詞音声データ25b-2を検索することができるので、前語のモーラ数・アクセント型によって当該助詞の音調が異なるという日本語の性質に適した助詞音声データ25bを得ることが可能となる。
このように、音声合成装置20による助詞音声データ生成処理では、音声データ採取プログラム22p(S501)により人の音声を音声データ25αとして取得し、音声データ抽出プログラム22q(S503)により、取得された音声データ25αを解析し当該音声データ25αから助詞の助詞音声データ25bおよび前語の名詞等音声データ25aを抽出し、テキスト解析プログラム22cおよびアクセント解析プログラム22d(S505)により、抽出した前語の名詞等音声データ25aに基づいて当該前語のモーラ数・アクセント型を解析し、アクセント型別音声データ生成プログラム22r(S507)により、この解析した前語のモーラ数・アクセント型に基づいて助詞の助詞音声データ25bを分類することでアクセント型別の助詞音声データ25b-1、25b-2等を生成する。そして、この生成したアクセント型別の助詞音声データ25b-1、25b-2等を音声データベース25に記憶させる。これにより、音声データベース25に記憶されている助詞音声データ25bは、助詞の前語のモーラ数・アクセント型に基づいて助詞音声データ25b-1、25b-2等に分類されているので、音声合成装置20において利用可能な音声データベース25を実現することができる。したがって、音声合成装置20による聴き心地の良好な音声の合成に資することができる。
20…音声合成装置
21…CPU(助詞検出手段、助詞決定手段、助詞音声データ選択手段、音声データ出力手段、音声データ取得手段、助詞音声データ抽出手段、モーラ数アクセント型解析手段、助詞音声データ生成手段)
22…メモリ
22a…システムプログラム
22b…入力制御プログラム
22c…テキスト解析プログラム(助詞検出手段、モーラ数アクセント型解析手段)
22d…アクセント解析プログラム(モーラ数アクセント型解析手段)
22e…助詞決定プログラム(助詞決定手段)
22f…音声データ取得プログラム(助詞音声データ選択手段)
22g…出力制御プログラム(音声データ出力手段)
22p…音声データ採取プログラム(音声データ取得手段)
22q…音声データ抽出プログラム(助詞音声データ抽出手段)
22r…アクセント型別音声データ生成プログラム(助詞音声データ生成手段)
23…辞書データベース
23a…テキスト解析辞書(助詞検出手段、モーラ数アクセント型解析手段)
23b…アクセント解析辞書(モーラ数アクセント型解析手段)
24…台詞データベース
24a…台詞データ
25…音声データベース(助詞音声データ記憶手段)
25a…名詞等音声データ(音声データ)
25b…助詞音声データ(助詞の音声データ)
25b-1、25b-2、25b-3…アクセント型別の助詞音声データ(生成した助詞の音声データ)
25α…音声データ(人の音声データ)
27…入力装置
28…表示装置
31…音声入力装置(音声データ取得手段)
33…音声出力装置(音声データ出力手段)
S101(助詞検出ステップ)
S105(助詞決定ステップ)
S107(助詞音声データ選択ステップ)
S109(音声データ出力ステップ)
S501(音声データ取得ステップ)
S503(助詞音声データ抽出ステップ)
S505(モーラ数アクセント型解析ステップ)
S507(助詞音声データ生成ステップ)
21…CPU(助詞検出手段、助詞決定手段、助詞音声データ選択手段、音声データ出力手段、音声データ取得手段、助詞音声データ抽出手段、モーラ数アクセント型解析手段、助詞音声データ生成手段)
22…メモリ
22a…システムプログラム
22b…入力制御プログラム
22c…テキスト解析プログラム(助詞検出手段、モーラ数アクセント型解析手段)
22d…アクセント解析プログラム(モーラ数アクセント型解析手段)
22e…助詞決定プログラム(助詞決定手段)
22f…音声データ取得プログラム(助詞音声データ選択手段)
22g…出力制御プログラム(音声データ出力手段)
22p…音声データ採取プログラム(音声データ取得手段)
22q…音声データ抽出プログラム(助詞音声データ抽出手段)
22r…アクセント型別音声データ生成プログラム(助詞音声データ生成手段)
23…辞書データベース
23a…テキスト解析辞書(助詞検出手段、モーラ数アクセント型解析手段)
23b…アクセント解析辞書(モーラ数アクセント型解析手段)
24…台詞データベース
24a…台詞データ
25…音声データベース(助詞音声データ記憶手段)
25a…名詞等音声データ(音声データ)
25b…助詞音声データ(助詞の音声データ)
25b-1、25b-2、25b-3…アクセント型別の助詞音声データ(生成した助詞の音声データ)
25α…音声データ(人の音声データ)
27…入力装置
28…表示装置
31…音声入力装置(音声データ取得手段)
33…音声出力装置(音声データ出力手段)
S101(助詞検出ステップ)
S105(助詞決定ステップ)
S107(助詞音声データ選択ステップ)
S109(音声データ出力ステップ)
S501(音声データ取得ステップ)
S503(助詞音声データ抽出ステップ)
S505(モーラ数アクセント型解析ステップ)
S507(助詞音声データ生成ステップ)
Claims (4)
- 助詞の直前に付く単語のモーラ数およびアクセント型により分類された前記助詞の音声データを記憶する助詞音声データ記憶手段と、
入力されたテキストデータを解析し助詞を検出する助詞検出手段と、
前記テキストデータにおいて、前記検出された助詞の直前に付く単語のモーラ数およびアクセント型に対応する前記助詞の音声データを決定する助詞決定手段と、
前記決定された助詞の音声データを前記助詞音声データ記憶手段から選択する助詞音声データ選択手段と、
前記選択された助詞の音声データを含む前記テキストデータに対応する音声データを構成し出力する音声データ出力手段と、
を備えることを特徴とする音声合成装置。 - 人の音声を音声データとして取得する音声データ取得手段と、
前記取得された音声データを解析し当該音声データから、助詞の音声データおよびこの助詞の直前に付く単語の音声データを抽出する助詞音声データ抽出手段と、
前記抽出した助詞の直前に付く単語の音声データに基づいて当該単語のモーラ数およびアクセント型を解析するモーラ数アクセント型解析手段と、
前記解析した助詞の直前に付く単語のモーラ数およびアクセント型に基づいて前記助詞の音声データを分類することにより助詞の音声データを生成する助詞音声データ生成手段と、を備える音声データ生成装置により、
前記生成した助詞の音声データを前記音声合成装置の助詞音声データ記憶手段に記憶させることを特徴とする請求項1記載の音声合成装置。 - 入力されたテキストデータを解析し助詞を検出する助詞検出ステップと、
前記テキストデータにおいて、前記検出された助詞の直前に付く単語のモーラ数およびアクセント型に対応する前記助詞の音声データを決定する助詞決定ステップと、
前記決定された助詞の音声データを、助詞の直前に付く単語のモーラ数およびアクセント型により分類された前記助詞の音声データを記憶する助詞音声データ記憶手段から選択する助詞音声データ選択ステップと、
前記選択された助詞の音声データを含む前記テキストデータに対応する音声データを構成し出力する音声データ出力ステップと、
を備えることを特徴とする音声合成装置。 - 人の音声を音声データとして取得する音声データ取得ステップと、
前記取得された音声データを解析し当該音声データから、助詞の音声データおよびこの助詞の直前に付く単語の音声データを抽出する助詞音声データ抽出ステップと、
前記抽出した助詞の直前に付く単語の音声データに基づいて当該単語のモーラ数およびアクセント型を解析するモーラ数アクセント型解析ステップと、
前記解析した助詞の直前に付く単語のモーラ数およびアクセント型に基づいて前記助詞の音声データを分類することにより助詞の音声データを生成する助詞音声データ生成ステップと、を含む音声データ生成方法により、
前記生成した助詞の音声データを前記音声合成方法の助詞音声データ記憶手段に記憶させることを特徴とする請求項3記載の音声合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004022977A JP2005215411A (ja) | 2004-01-30 | 2004-01-30 | 音声合成装置および音声合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004022977A JP2005215411A (ja) | 2004-01-30 | 2004-01-30 | 音声合成装置および音声合成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005215411A true JP2005215411A (ja) | 2005-08-11 |
Family
ID=34906149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004022977A Withdrawn JP2005215411A (ja) | 2004-01-30 | 2004-01-30 | 音声合成装置および音声合成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005215411A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032356A (zh) * | 2019-03-29 | 2019-07-19 | 联想(北京)有限公司 | 信息处理方法以及电子设备 |
-
2004
- 2004-01-30 JP JP2004022977A patent/JP2005215411A/ja not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032356A (zh) * | 2019-03-29 | 2019-07-19 | 联想(北京)有限公司 | 信息处理方法以及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7496498B2 (en) | Front-end architecture for a multi-lingual text-to-speech system | |
US6778962B1 (en) | Speech synthesis with prosodic model data and accent type | |
US20070192105A1 (en) | Multi-unit approach to text-to-speech synthesis | |
US20090259475A1 (en) | Voice quality change portion locating apparatus | |
JP2007024960A (ja) | システム、プログラムおよび制御方法 | |
JPH05333900A (ja) | 音声合成方法および装置 | |
JP5198046B2 (ja) | 音声処理装置及びそのプログラム | |
WO2004066271A1 (ja) | 音声合成装置,音声合成方法および音声合成システム | |
JP2006293026A (ja) | 音声合成装置,音声合成方法およびコンピュータプログラム | |
Kayte et al. | A text-to-speech synthesis for Marathi language using festival and Festvox | |
JP2020060642A (ja) | 音声合成システム、及び音声合成装置 | |
JP2014062970A (ja) | 音声合成方法、装置、及びプログラム | |
JP2007086309A (ja) | 音声合成装置、音声合成方法および音声合成プログラム | |
JP5819147B2 (ja) | 音声合成装置、音声合成方法およびプログラム | |
Mukherjee et al. | A Bengali speech synthesizer on Android OS | |
JP2010117528A (ja) | 声質変化判定装置、声質変化判定方法、声質変化判定プログラム | |
JP3706758B2 (ja) | 自然言語処理方法,自然言語処理用記録媒体および音声合成装置 | |
JPH08335096A (ja) | テキスト音声合成装置 | |
JP2009020264A (ja) | 音声合成装置及び音声合成方法並びにプログラム | |
JP2008015424A (ja) | 様式指定型音声合成方法、及び様式指定型音声合成装置とそのプログラムと、その記憶媒体 | |
JP2005215411A (ja) | 音声合成装置および音声合成方法 | |
JP3821131B2 (ja) | 音声合成装置および音声合成方法 | |
JPH05281984A (ja) | 音声合成方法および装置 | |
JP2004294577A (ja) | 文字情報音声変換方法 | |
JP3414326B2 (ja) | 音声合成用辞書登録装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050908 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061225 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20080602 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090728 |