JP2004151527A - 音声合成装置、スタイル判定装置、音声合成方法、スタイル判定方法、およびプログラム - Google Patents

音声合成装置、スタイル判定装置、音声合成方法、スタイル判定方法、およびプログラム Download PDF

Info

Publication number
JP2004151527A
JP2004151527A JP2002318341A JP2002318341A JP2004151527A JP 2004151527 A JP2004151527 A JP 2004151527A JP 2002318341 A JP2002318341 A JP 2002318341A JP 2002318341 A JP2002318341 A JP 2002318341A JP 2004151527 A JP2004151527 A JP 2004151527A
Authority
JP
Japan
Prior art keywords
style
text
learning
statistical information
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2002318341A
Other languages
English (en)
Inventor
Yoichi Fujii
洋一 藤井
Yasushi Ishikawa
泰 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2002318341A priority Critical patent/JP2004151527A/ja
Publication of JP2004151527A publication Critical patent/JP2004151527A/ja
Abandoned legal-status Critical Current

Links

Images

Abstract

【課題】入力テキストに含まれるフォーマルな文章、砕けた文章、楽しそうな文章等の多様なスタイルを自動的に判別して、スタイルに相応しい合成音声を生成する。
【解決手段】スタイル情報付きの学習テキストセットから文抽出手段1で文を抽出し、各文を形態素解析手段2で形態素解析辞書11を用いて解析して形態素列を作成し、スタイル学習手段3にて個々の文の形態素毎の発生頻度と当該文のスタイルとの相関関係を学習してスタイル判定情報記憶部13に格納する。その後、この学習結果をスタイル判定手段4にて任意の処理対象テキストに適用してスタイルを自動判別し、文毎のスタイルの相違を、アクセント句決定手段5、韻律制御手段6、合成音作成手段7、音声出力手段8による合成音の生成過程に反映させて、各文のスタイルに相応しい合成音声を出力する。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
この発明は、音声合成装置、スタイル判定装置、音声合成方法、スタイル判定方法、およびプログラムに関するものである。
【0002】
【従来の技術】
従来の音声合成装置における読み上げスタイルの指定として、特許文献1に開示された「テキスト音声変換装置」では、あらかじめ読み上げのスタイル(通常スタイル、朗読調、会話調など)を利用者が指定することで、指定されたスタイルに応じた合成音を出力する方法が開示されている。
【0003】
また、音声合成を対象とはしていないが、文章のスタイルを判定する方法として、特許文献2に開示された「自然言語解析方式」では、あらかじめ、文体を判定するための(条件、結論)の組を記述した文体判定規則を用意しておき、テキスト中に出現する単語や、品詞の割合などを条件とし、条件が一致した場合に結論に記述された確信度に基づき文体を判定する方法が開示されている。
【0004】
上記従来技術のうち、特許文献2に開示された「自然言語解析方式」について詳細に説明する。ただし、特許文献2の技術は、文体判定についてのみの従来技術であるため、文体判定の方法についてのみ説明する。
【0005】
まず、構成を以下に示す。図16は従来方式の概略図である。従来の文体判定方式は、形態素解析手段101、文体判定手段102、形態素解析辞書111、文体判定規則記憶部112からなる。テキストを解析するための形態素解析辞書111は、見出し、品詞を格納している。また、文体判定規則記憶部112は、形態素列から文体を判定するための判定規則を格納している。
形態素解析手段101は、形態素解析辞書111を利用してテキストを形態素に分割する動作を行う。文体判定手段102は、形態素解析手段101で分割した形態素列と、文体判定規則記憶部112に格納された文体判定規則から文体を判定する動作を行う。
【0006】
図17は、文体判定規則記憶部112に格納された文体判定規則の例を示すもので、規則番号20で示される判定規則121は、条件部に「自立語の数に占める動詞もしくはサ変名詞の割合が10%以下」、結論部に「見出し文体[確信度0.8]」と記載されており、自立語の数に占める動詞もしくはサ変名詞の割合が10%以下ならば、見出し文体である可能性が0.8であると判断することを示している。規則番号21、規則番号35でそれぞれ示される判定規則122、判定規則123も同様である。
【0007】
次に、処理の流れを説明する。
文体判定対象のテキストとして『○○電機、「××」最上位機種、170、85メガバイトの2種』が入力された場合、形態素解析手段101によって『○○電機(名詞)/「(記号)/××(名詞)/」(記号)/最上位(名詞)/機種(名詞)/170(数詞)/85(数詞)/メガバイト(名詞)/の(助詞)/2(数詞)/種(名詞)』と解析される。ただし、ここで、「()」は品詞を示し、「/」は形態素の切れ目を示すものとする。次に文体判定手段102によって、解析された形態素列に対して、文体判定規則記憶部112に格納された判定規則を順番にチェックする。
【0008】
図17の文体判定規則の例では、規則番号20の判定規則121と、規則番号21の判定規則122の条件部を満足するため、それぞれ見出し文体に対する確信度が0.8、0.7となり、全体で1.5の確信度となる。したがって、『○○電機、「××」最上位機種、170、85メガバイトの2種』は見出し文体と判定される。
【0009】
【特許文献1】
特開平10−011083号公報
【特許文献2】
特開平3−125261号公報
【0010】
【発明が解決しようとする課題】
以上のように、先行事例では、あらかじめ文体を判定するための条件部と結論部の記述を用意して、その条件に一致するものに対して、結論部の文体とその確信度を抽出して、それらの確信度を合計することで文体を決定する。文体として、見出し、箇条書き、普通の文といったテキスト中の文の形態として明らかな文体を抽出しようとする場合には、テキストの形態上の明らかな特徴として、品詞や、個別の形態素および形態素列に関係する条件を条件部に設定することで記述できるが、条件部での閾値や、結論部での確信度をどれくらいに設定すればよいかといったことを判断することが経験則に頼らざるをえず、最適な値を決定することが難しい。
【0011】
また、見出し、箇条書き、普通の文といったテキストの構造による文体でなく、文章全体、または段落のような部分的なテキストにおける文章に特有の表現形式としての文体(たとえば、フォーマルな文章、砕けた文章、楽しそうな文章。以下では、テキストの構造による文体と区別するため、スタイルと呼ぶ)を決定する場合には、条件を品詞レベルで記述することは困難であり、個別の単語、および単語が持つ属性を考慮して記述する必要があるという課題があった。
【0012】
さらに、別の先行技術として、上述の「テキスト音声変換装置」(特許文献1)では、文章のスタイルを利用者が指定せねばならず、わずらわしいという課題があった。
【0013】
この発明は、上記のような課題を解決するためになされたもので、個別の単語および単語が持つ属性を考慮してスタイル決定のための条件を記述する等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章のスタイルを自動的に決定して、それらのスタイルに基づき合成音声を生成することを目的とする。
【0014】
また、この発明は、文章のスタイルを利用者に指定させる等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章の多様なスタイルを自動的に判別して、それらのスタイルに基づき合成音声を生成することを目的とする。
【0015】
また、この発明は、個別の単語および単語が持つ属性を考慮してスタイル決定のための条件を記述する等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章のスタイルを自動的に決定することを目的とする。
【0016】
【課題を解決するための手段】
この発明に係る音声合成装置は、音声合成の処理対象テキストを形態素解析辞書に基づいて形態素列に分割する形態素解析手段と、前記処理対象テキストに対する前記形態素解析手段の出力と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段と、判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う音声合成手段とを含むものである。
【0017】
この発明に係るスタイル判定装置は、処理対象テキストを形態素解析辞書に基づいて形態素列に分割する形態素解析手段と、前記処理対象テキストに対する前記形態素解析手段の出力と予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段とを含むものである。
【0018】
この発明に係る音声合成方法は、スタイルが未知の処理対象テキストの形態素列の統計情報と、予め記憶手段に蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定ステップと、判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う合成音作成ステップとを含むものである。
【0019】
この発明に係るスタイル判定方法は、スタイルが未知の処理対象テキストの形態素列の統計情報と、予め記憶手段に蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定ステップを含むものである。
【0020】
この発明に係るプログラムは、コンピュータを、入力された処理対象テキストを形態素列に分割する形態素解析手段と、スタイルが既知の学習テキストの形態素列の統計情報と当該既知のスタイルとの関係の学習結果と処理対象テキストの前記形態素列の統計情報とから当該処理対象テキストのスタイルを判定するスタイル判定手段と、判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う音声合成手段として機能させるものである。
【0021】
この発明に係るプログラムは、コンピュータを、入力された処理対象テキストを形態素列に分割する形態素解析手段と、スタイルが既知の学習テキストの形態素列の統計情報と当該既知のスタイルとの関係の学習結果と、処理対象テキストの前記形態素列の統計情報とから当該処理対象テキストのスタイルを判定するスタイル判定手段として機能させるものである。
【0022】
【発明の実施の形態】
以下、この発明の実施の形態を説明する。
実施の形態1.
図1は、本発明の一実施の形態である音声合成方法を実施する音声合成装置の構成の一例を示す概念図である。
この図1に例示される本実施の形態の音声合成装置は、文抽出手段1、形態素解析手段2、スタイル学習手段3、スタイル判定手段4、アクセント句決定手段(音声合成手段)5、韻律制御手段(音声合成手段)6、合成音作成手段(音声合成手段)7、音声出力手段(音声合成手段)8、形態素解析辞書11、音響辞書12、スタイル判定情報記憶部13からなる。
テキストを解析するための形態素解析辞書11には、単語の見だし、品詞、モーラ数、アクセント型が格納されている。音響辞書12には、音声合成の処理対象テキストを解析した結果得られた読み、アクセント、韻律パラメータを元に合成音を作成するための音素片が格納されている。スタイル判定情報記憶部13には、処理対象テキストを解析した形態素列に対してテキストのスタイルを判定するための情報が格納される。
【0023】
国文法では、単語は、自立語と付属語に大別され、さらに自立語は、名詞、連体詞、副詞、接続詞、感動詞等の活用しない単語と、動詞、形容詞、形容動詞等の活用する単語(用言)に分かれる。また付属語は、活用しない助詞と、活用する助動詞に分かれる。本実施の形態では、形態素は単語を指している。
【0024】
文抽出手段1は、スタイル情報付きの学習テキストと、音声合成の処理対象テキストの各々から文を抽出し、文ごとに次の手段にデータを送る動作を行う。文抽出の方法としては、従来行われている句点による分割などの既知の分割手段を用いる。
【0025】
形態素解析手段2は、文抽出手段1から出力された文を入力とし、形態素解析辞書11を用いて解析し、形態素列を作成する動作を行う。この形態素解析手段2としては、最長一致、文節数最小法、およびコスト最小法などの既知の形態素解析アルゴリズムを用いて処理するものである(たとえば、首藤公昭,吉村賢治「日本語の構造とその解析」、情報処理 Vol.27,No.8,pp.947〜954,1986)。
【0026】
スタイル学習手段3は、学習テキストを形態素解析手段2にて切り出した形態素列と、学習テキストに与えられたスタイルから、スタイルと形態素の重み付け情報を学習し、スタイル判定情報記憶部13に記憶させる動作を行う。スタイルと形態素の重み付けの方法としては、たとえば、形態素を横軸、スタイルを縦軸とした2次元の表に出現した頻度を加算していき、その頻度を元に重み付けを行う方法がある。
【0027】
スタイル判定手段4は、処理対象テキストを、同様に形態素解析手段2で処理した形態素列に対して、各形態素の頻度を集計し、スタイル判定情報記憶部13に格納された重み付け情報との演算処理を行うことで、最も適当と判断されるスタイルを決定する動作を行う。アクセント句決定手段5は、形態素解析手段2で解析された形態素列を元に、アクセント句の決定と、アクセント型の決定を行う。韻律制御手段6は、アクセント句決定手段5で決定されたアクセント句とアクセント型の情報と、スタイル判定手段4で決定されたスタイルに基づき、韻律パラメータを決定する動作を行う。
【0028】
合成音作成手段7は、スタイル判定手段4で決定したスタイルに従って、韻律パラメータを選択し、音響辞書12の音素片を接続して合成音を作成する動作を行う。さらに、音声出力手段8は、合成音作成手段7によって作成された合成音を出力する動作を行う。
【0029】
なお、図1に例示される音声合成装置および後述の各ステップの処理は、図示しないコンピュータシステムおよび当該コンピュータシステムを動作させるプログラムで実現でき、このプログラムは、当該コンピュータシステムにて読み取り可能な記録媒体に記録され、この記録媒体から読出して実装および実行が可能である。
【0030】
すなわち、特に図示しないが一例として、コンピュータシステムが入出力装置と、マイクロプロセッサ等のCPUと、主記憶装置と、外部記憶装置とを含む場合、文抽出手段1、形態素解析手段2、スタイル学習手段3、スタイル判定手段4、アクセント句決定手段5、韻律制御手段6、合成音作成手段7の各手段は、主記憶装置に格納された前記プログラムをCPUに実行させることによって実現され、音声出力手段8は、スピーカ等の音響出力装置で実現される。また、形態素解析辞書11、音響辞書12、スタイル判定情報記憶部13は、外部記憶装置あるいは主記憶装置上にファイル等のデータとして格納することができる。学習テキストセットや処理対象テキストは、キーボード等の入力装置や、外部記憶装置に格納されたファイルから入力することができる。
【0031】
図2は、本実施の形態の音声合成装置における合成方法の処理の一例を示すフロー図である。各ステップは、図1の構成図の各手段に対応し、文抽出手段1から音声出力手段8の各々の手段が、文抽出ステップST1から音声出力ステップST8の各々に対応した処理を実行する。
【0032】
図3は、本実施の形態の音声合成装置におけるスタイル判定情報学習処理の具体的な処理フローである。ステップST21〜ST23が文抽出ステップST1での処理に対応し、ステップST24が形態素解析ステップST2での処理に対応する。さらにステップST25とステップST26がスタイル学習ステップST3に対応する。
【0033】
図4は、本発明の音声合成装置におけるスタイル判定機能付きテキスト音声合成処理の処理対象テキストが入力され、処理対象テキストに対してスタイルが決定されるまでのスタイル判定処理の具体的な処理フローである。ステップST31とステップST32が文抽出ステップST1での処理に対応し、ステップST33が形態素解析ステップST2での処理に対応する。さらに、ステップST34とステップST35がスタイル判定ステップST4に対応する。
【0034】
図5は、本発明の音声合成装置の実施例における学習テキスト例T1を示した図であり、21の<>で囲まれた部分は、学習テキスト例T1のスタイル例である。また、22、23は、学習テキスト例T1の文例を示している。図6も同様に学習テキスト例T2であり、26は学習テキスト例T2のスタイル例である。また、27は、学習テキスト例T2の文例を示している。
【0035】
図7は、図5の学習テキスト例T1を形態素解析手段2で解析した形態素列の例を示しており、31は、学習テキスト例T1の文例解析結果例を示している。また、図8は、同様に図6の学習テキスト例T2を形態素解析手段2で解析した形態素列の例を示しており、36は、学習テキスト例T2の文例解析結果例を示している。
なお、以下で示すタームは、実施の形態1においては形態素を示している。
【0036】
図9は、本実施の形態でのスタイル学習手段3によって集計され、スタイル判定情報記憶部13に格納されたスタイル判定学習データの頻度集計結果の例を示す頻度学習テーブル40であり、文章のスタイル40aの種別毎にターム40bの各々の出現頻度が記録される。たとえば、この頻度学習テーブル40において、41は、ターム「え(感動詞)」のスタイル<砕けた文章>に対する頻度であるスタイル学習情報頻度例である。
【0037】
また、図10は、頻度学習テーブル40に例示されたスタイル判定学習データの頻度集計結果例に対して重み付けを行い、スタイルごとに長さ1のベクトルとして正規化したスタイル学習データの重み付け学習結果テーブル50(統計情報)の例であり、文章のスタイル50aの種別毎にターム50bの各々の発生頻度に重み付けをした結果が記録される。たとえば、この重み付け学習結果テーブル50において、51は、ターム「え(感動詞)」のスタイル<砕けた文章>に対する重みであるスタイル学習情報重み付け例、52は、スタイル<砕けた文章>のスタイルベクトル例である。
【0038】
図11は、処理対象テキスト60の例であり、61、62はともに処理対象テキスト文例である。図12は処理対象テキスト60を形態素解析した結果の例であり、それぞれ、71は処理対象テキスト文例61の形態素解析結果である処理対象テキスト文解析結果例、72は処理対象テキスト文例62の形態素解析結果である処理対象テキスト文解析結果例を示している。
【0039】
図13は、図11の処理対象テキスト60から形態素解析結果に基づき頻度集計した結果を示しており、81は処理対象テキスト頻度ベクトル例、82は長さ1のベクトルとして正規化した処理対象テキストベクトル例である。また83は、スタイルとの類似度を示すスタイル類似度計算結果例である。
【0040】
次に動作について説明する。
まず、スタイル判定情報学習処理について説明する。
図5の学習テキスト例T1、図6の学習テキスト例T2を含む学習テキストセットが文抽出ステップST1に渡されると、ステップST21で、全てのテキストセットが処理されたかを判断し、未処理のテキストセットが存在するならばステップST22に処理を移す。最初に処理される時点では、学習テキストセットには、学習テキスト例T1、学習テキスト例T2が未処理のテキストとして残っているので、ステップST23に処理が移り、たとえば、学習テキスト例T1が選択され、学習テキスト例T1の文例22が抽出され、ステップST24に渡す。
【0041】
次に、ステップST24では、学習テキスト例T1の文例22を形態素解析し、図7の学習テキスト例T1の文解析結果例31を生成する。ここで「/」は形態素の区切り、「()」の中が品詞を表している。なお、一般には、フィラーは、話し言葉で起こるあいづちや挿入的な音声ことばを総称するが、本形態素解析では、話し言葉で現れる語末、語中の母音の引き伸ばしなどを解析するための形態素と定義する。
【0042】
ステップST24での形態素解析処理が終了すると、学習テキスト例T1の文解析結果例31はステップST25に渡される。ステップST25では、形態素解析結果から、学習対象となる形態素を抽出して(形態素:品詞,スタイル,頻度)の組を作成する。ここでは、すべての形態素を対象として頻度集計することにし、「見出し(品詞)」を処理単位のタームとする。したがって、形態素結果と、学習テキスト例T1のスタイル例21から、(え:感動詞,<砕けた文章>,1)、(〜:フィラー,<砕けた文章>,2)、(いい:形容詞,<砕けた文章>,1)、(な:終助詞,<砕けた文章>,1)が抽出され、図9の頻度学習テーブル40で対応する(ターム,スタイル)の位置の頻度をカウントアップする。
【0043】
すなわち、スタイル学習情報頻度例41の(え:感動詞,<砕けた文章>)の頻度を1加算する。さらに、他の形態素に対しても同様に頻度を追加する。
【0044】
ステップST25で頻度の追加が終わると、処理はステップST22に戻り、全てのテキストを処理したかを判断する。学習テキスト例T1の文例22が終了した時点では、学習テキスト例T1の文例23以降が残っており、ステップST23に処理を移す。ステップST23では、学習テキスト例T1の文例23を抽出し、ステップST24に送る。ステップST24では、学習テキスト例T2の文解析結果例36を生成し、ステップST25で、頻度を加算する。このように、順次ステップST22からステップST25までの処理を繰り返し、学習テキストセットに文が無くなるとステップST21に処理を戻す。ステップST21で、図6の学習テキスト例T2が選択され、学習テキスト例T2の文例27に対して、学習テキスト例T2の文解析結果例36を生成し頻度を加算するというステップST22〜ST25の処理を繰り返す。最終的にステップST21で、処理すべきテキストが学習テキストセット中になくなった時点で、処理はステップST26に移り、重み付けの処理を行う。
【0045】
ステップST26での重み付けの処理は、タームの出現頻度を元に、統計的な手法でスタイルへのタームの重みを計算する既知の手法(たとえば、徳永健伸、岩山真「重み付きIDFを用いたテキストの自動分類について」情報処理学会自然言語処理研究会資料,NL−100−5,p.33−40(1994)で従来手法として示されているtf・idf(term freqency inverse document freqency)による重み付け)を使う。
【0046】
式(1)に、tf・idfの計算式を示す。
【数1】
Figure 2004151527
【0047】
さらに、スタイルsごとにw(t,s)の値を並べたベクトルを式(2)によって長さ1に正規化する。
【数2】
Figure 2004151527
【0048】
図10は、式(1)および式(2)によって、w’(t,s)の値を計算したもので、スタイル学習情報重み付け例51はw’(え(感動詞),<砕けた文章>)=0.049であることを示している。また、スタイルベクトル例52は、スタイル<砕けた文章>のスタイルベクトルである。
【0049】
次に、スタイル判定機能付きテキスト音声合成処理について説明する。
【0050】
図11に例示された処理対象テキスト60を入力した場合を考える。まず、ステップST31で全ての文が処理されたかどうかを判断し、テキスト中に未処理の文が存在するので、ステップST32に処理を移す。ステップST32では、処理対象テキスト文例61を取り出し、ステップST33に処理を移す。ステップST33では、処理対象テキスト文例61を形態素解析した結果として、処理対象テキスト文解析結果例71を得る。処理対象テキスト文解析結果例71は、ステップST34に渡され、(ターム,頻度)の組として(今日(名詞),1)、(から(格助詞),1)、(夏休み(名詞),1)、(ー(フィラー),1)の4つを保持する。
【0051】
次に、処理はステップST31に戻り、テキスト中に未処理の文が存在するので、ステップST32で、処理対象テキスト文例62が抽出され、ステップST33に渡す。ステップST33では、形態素解析を行い、処理対象テキスト文解析結果例72を生成し、ステップST34に渡す。ステップST34では、(ま(副詞),1)、(ー(フィラー),1)、(宿題(名詞),1)、(やだ(形容動詞),1)、(けど(接続助詞),1)を加算し、(今日(名詞),1)、(から(格助詞),1)、(夏休み(名詞),1)、(ー(フィラー),2)(ま(副詞),1)、(宿題(名詞),1)、(やだ(形容動詞),1)、(けど(接続助詞),1)となる。
【0052】
ステップST31〜ST34までの処理は処理対象テキスト60中の文がなくなるまで繰り返され、文がなくなった時点で、処理をステップST35に移す。ステップST35では、ステップST34で加算した頻度をベクトルと考え、ベクトルの長さを1に正規化(ベクトルV)した後で、式(3)を用いて各スタイルsとの類似度を計算する。
【数3】
Figure 2004151527
【0053】
図13の処理対象テキスト頻度ベクトル例81は、図11の処理対象テキスト60の例での形態素の出現頻度を集計したもので、図10の形態素の順番に頻度をベクトルの要素として並べたものである。さらに長さ1に正規化したものが処理対象テキストベクトル例82のベクトルVである。
【0054】
スタイル判定手段4では、最後に各スタイルベクトルと処理対象テキストベクトルVとの内積をとることで、スタイル類似度計算結果例83を得る。
【0055】
結果として、sim(処理対象テキスト,<砕けた文章>)=0.521が類似度最大となり、処理対象テキスト60のスタイルは<砕けた文章>として、形態素列とともにアクセント句決定ステップST5に渡される。アクセント句決定ステップST5では、形態素列からアクセント句を決定し、各アクセント句のアクセント型を決定して、スタイルとともに、韻律制御ステップST6に渡す。韻律制御ステップST6では、決定したスタイルに合わせた継続時間長、ポーズ長、パワーや基本周波数といった韻律パラメータを決定し、合成音作成ステップST7に、読み、アクセント句、アクセント位置の情報とともに、韻律パラメータを渡す。合成音作成ステップST7では、韻律制御ステップST6から受け取った情報と、音響辞書12に格納された音素片から合成音を生成し、音声出力ステップST8に渡すことで、合成音が出力される。
【0056】
上記実施の形態の説明では、スタイル学習手段3やスタイル判定手段4にて用いられるスタイル判定情報のタームの単位として、全ての形態素を用いて頻度集計を行ったが、形態素として大多数を占める名詞を頻度集計の対象としないことも可能である。さらに助詞、助動詞からなる付属語のみを頻度集計の対象としても良い。また、重み付けを計算する場合に、自立語と付属語を別々に重み付け計算し、類似度計算においても同様に自立語と付属語で別々に計算して、自立語類似度と、付属語類似度を一定の割合で加算したものを全体の類似度とし、最も類似度が高いスタイルを選択しても良い。
【0057】
すなわち、「砕けた文章」と「フォーマルな文章」では使われる助詞、助動詞が異なる傾向がある。また、「尊敬」や「謙譲」といった気持ちを表す用語は、名詞でなく、動詞、形容詞などの用言に端的に現れる。さらに、感情などは、形容詞や形容動詞などの用言性の単語に現れる。したがって、上述のように、品詞を限定して頻度集計を行うこと、あるいは、自立語と付属語で別々に類似度を計算することは、本実施の形態のようなスタイル判定を行う場合に有効である。
【0058】
たとえば、言葉のうちの大多数は名詞なので、形態素から名詞を除外してスタイル判定を行うことで、実装メモリの削減効果が期待できる。また、自立語と付属語で別々に類似度を計算することでスタイルの学習精度や判定精度の向上が期待できる。
【0059】
また、上記実施の形態では、形態素を直接タームとして扱ったが、名詞、動詞に対しては、これらの単語の属性として、あらかじめ辞書に敬語かどうかの情報を付与しておくことで、敬語、敬語でないといった属性レベルで頻度集計を行うことも可能である。
【0060】
さらに、上記実施の形態では、単独の形態素に対して頻度集計を行ったが、複数形態素連続(たとえば、2連続形態素)をタームとして頻度集計を行って、スタイル判定情報を作成してもよい。また、助詞、助動詞の割合、漢字、ひらがなの割合の統計情報を用いてスタイルの判定を行ってもよい。
【0061】
また、上記実施の形態では、テキスト全体に対してスタイルの推定を行ったが、段落ごとの形態素出現頻度を基にしたタームの頻度からスタイルの決定を行ってもよい。また、‘’“”()〔〕[]{}〈〉《》「」『』等の対をなす記号で囲まれた文章や、先頭に箇条書きを示す記号が付いた文章をテキスト内の他の部分と区別してスタイルを判別してもよい。
【0062】
さらに、上記実施の形態では、スタイル判定を最も類似度が高い1つに決めたが、一定の類似度以上のものが決定されたスタイルであるとして、複数のスタイルが合わさったものと判定して、韻律処理以降の処理を行っても良い。
【0063】
加えて、上記実施の形態では、スタイル判定情報の重み付けとして、tf・idfを用いたが、情報検索の分野で用いられるカイ二乗検定を応用した重み付けや、Bayesianモデルによる確率を利用することも可能である。
【0064】
以上説明したとおり、本発明の実施の形態の音声合成技術によれば、予め、スタイルが既知の学習テキストから自動的に当該学習テキストを構成する個々の文を構成する形態素列とスタイルとの関係を学習し、その学習結果を用いて、未知の処理対象テキスト60のスタイルを決定して合成音声を生成するので、従来例のように人手でルールを記述して、それを元にスタイルを決定したり、スタイルを人手で指定したりといった、煩雑な手間をかけずに文章のスタイルに相応しい合成音声を作成することができる。
【0065】
また、形態素列とスタイルとの関係の学習処理において、頻度集計単位から、名詞を削除したり、少ない属性で表現したりすることで、スタイル決定のための頻度学習テーブル40や重み付け学習結果テーブル50等の学習データサイズを小さくすることが可能であり、携帯端末のような少ないメモリの情報機器でも実装が可能である。
【0066】
実施の形態2.
図14は、この発明の実施の形態2を示す概念図である。なお、上述の実施の形態1と同一の機能を有する構成要素には同一符号を付している。
【0067】
この実施の形態2では、スタイルが既知の学習テキストセットを入力して形態素列とスタイル情報との関係を学習して学習結果の判定情報をスタイル判定情報記憶部13に記憶させる情報処理装置90と、その学習結果を用いる音声合成機能を備えた音声合成装置91とを分離した構成例を示す。
【0068】
すなわち情報処理装置90は、文抽出手段1、形態素解析辞書11、形態素解析手段2、スタイル学習手段3、スタイル判定情報記憶部13を備えている。
【0069】
また、音声合成装置91は、文抽出手段1、形態素解析辞書11、形態素解析手段2、スタイル判定手段4、アクセント句決定手段5、韻律制御手段6、音響辞書12、合成音作成手段7、音声出力手段8、スタイル判定情報記憶部13aを備えている。
【0070】
音声合成装置91のスタイル判定情報記憶部13aの内容は、情報処理装置90のスタイル判定情報記憶部13に得られた内容がデータ複写されたものが格納される。
【0071】
このように、スタイルを学習する情報処理装置90と、学習結果を利用する音声合成装置91を分離することで、情報処理装置90として高速なコンピュータシステムを用いて大量の学習テキストセットの入力による精度の高いスタイル判定情報を迅速に収集できるとともに、その学習結果を利用する音声合成装置91では、構成の簡素化および精度の高いスタイル判定情報の利用によるスタイル判定精度の向上等を実現できる。
【0072】
実施の形態3.
図15は、この発明の実施の形態3であるスタイル判定装置の構成の一例を示す概念図である。なお、上述の実施の形態1と同一の機能を有する構成要素には同一符号を付している。
【0073】
この実施の形態3のスタイル判定装置92は、文抽出手段1、形態素解析辞書11、形態素解析手段2、スタイル学習手段3、スタイル判定手段4、スタイル判定情報記憶部13を備えており、学習テキストからのスタイルの学習機能と、その学習結果を用いた、任意の処理対象テキストのスタイル判定機能を備えている。
【0074】
スタイル判定手段4から出力されるスタイル判定結果4aは、たとえば、処理対象テキストの作成や編集等に用いられる図示しない文書作成装置や編集支援処理装置等に入力されて活用される。
【0075】
これにより、文書作成装置や編集支援処理装置では、処理対象テキストの的確なスタイル判定による効率的な処理が可能になる。
なお、図15において、図14の場合と同様に、スタイル学習手段をスタイル判定手段と独立な構成にしてもよい。
【0076】
【発明の効果】
以上のように、この発明の音声合成装置によれば、音声合成の処理対象テキストの形態素列の統計情報と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段と、判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う音声合成手段とを備えたことにより、個別の単語および単語が持つ属性を考慮してスタイル決定のための条件を記述する等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章のスタイルを自動的に決定して、それらのスタイルに基づき合成音を生成することができるという効果が得られる。
【0077】
この発明の音声合成装置によれば、音声合成の処理対象テキストの形態素列の統計情報と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段と、判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う音声合成手段とを備えたことにより、文章のスタイルを利用者に指定させる等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章の多様なスタイルを自動的に判別して、それらのスタイルに基づき合成音を生成することができるという効果が得られる。
【0078】
この発明のスタイル判定装置によれば、スタイル判定の処理対象テキストの形態素列の統計情報と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段を備えたことにより、個別の単語および単語が持つ属性を考慮してスタイル決定のための条件を記述する等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章のスタイルを自動的に決定することができるという効果が得られる。
【0079】
この発明のプログラムによれば、音声合成の処理対象テキストの形態素列の統計情報と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段と、判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う音声合成手段としてコンピュータを機能させることにより、個別の単語および単語が持つ属性を考慮してスタイル決定のための条件を記述する等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章のスタイルを自動的に決定して、それらのスタイルに基づき合成音を生成することができるという効果が得られる。
【0080】
この発明のプログラムによれば、音声合成の処理対象テキストの形態素列の統計情報と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段と、判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う音声合成手段としてコンピュータを機能させることにより、文章のスタイルを利用者に指定させる等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章の多様なスタイルを自動的に判別して、それらのスタイルに基づき合成音を生成することができるという効果が得られる。
【0081】
この発明のプログラムによれば、スタイル判定の処理対象テキストの形態素列の統計情報と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段としてコンピュータを機能させることにより、個別の単語および単語が持つ属性を考慮してスタイル決定のための条件を記述する等の煩雑な処理を必要とすることなく、処理対象テキストから、フォーマルな文章、砕けた文章、楽しそうな文章などといった文章のスタイルを自動的に決定することができるという効果が得られる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における音声合成装置の構成を示す概念図である。
【図2】本発明の実施の形態1における音声合成装置の処理のフローチャートである。
【図3】本発明の実施の形態1におけるスタイル学習処理の具体的フローチャートである。
【図4】本発明の実施の形態1におけるスタイル判定処理の具体的フローチャートである。
【図5】本発明の実施の形態1における学習テキスト例を示す説明図である。
【図6】本発明の実施の形態1における学習テキスト例を示す説明図である。
【図7】本発明の実施の形態1における学習テキスト例の解析結果を示す説明図である。
【図8】本発明の実施の形態1における学習テキスト例の解析結果を示す説明図である。
【図9】本発明の実施の形態1における頻度学習例を示す説明図である。
【図10】本発明の実施の形態1における重み付け学習例を示す説明図である。
【図11】本発明の実施の形態1における処理対象テキスト例を示す説明図である。
【図12】本発明の実施の形態1における処理対象テキスト例解析結果を示す説明図である。
【図13】本発明の実施の形態1における処理対象テキストの頻度集計結果とテキストベクトルの例を示す説明図である。
【図14】本発明の実施の形態2における装置構成を示す概念図である。
【図15】本発明の実施の形態3における装置構成を示す概念図である。
【図16】従来例の構成を示す説明図である。
【図17】従来例の条件例を示す説明図である。
【符号の説明】
1 文抽出手段、2 形態素解析手段、3 スタイル学習手段、4 スタイル判定手段、5 アクセント句決定手段、6 韻律制御手段、7 合成音作成手段、8 音声出力手段、11 形態素解析辞書、12 音響辞書、13 スタイル判定情報記憶部、21 学習テキスト例T1のスタイル例、22 学習テキスト例T1の文例、23 学習テキスト例T1の文例、26 学習テキスト例T2のスタイル例、27 学習テキスト例T2の文例、31 学習テキスト例T1の文解析結果例、36 学習テキスト例T2の文解析結果例、40 頻度学習テーブル、41 スタイル学習情報頻度例、50 重み付け学習結果テーブル、51 スタイル学習情報重み付け例、52 スタイルベクトル例、60 処理対象テキスト、61 処理対象テキスト文例、62 処理対象テキスト文例、71 処理対象テキスト文解析結果例、72 処理対象テキスト文解析結果例、81 処理対象テキスト頻度ベクトル例、82 処理対象テキストベクトル例、83 スタイル類似度計算結果例、90 情報処理装置、91 音声合成装置、92 スタイル判定装置、T1,T2 学習テキスト例。

Claims (19)

  1. 音声合成の処理対象テキストを形態素解析辞書に基づいて形態素列に分割する形態素解析手段と、
    前記処理対象テキストに対する前記形態素解析手段の出力と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段と、
    判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う音声合成手段と
    を含むことを特徴とする音声合成装置。
  2. 前記スタイル判定手段は、助詞、助動詞などの付属語に関する前記統計情報を用いるか、または前記付属語に加えて自立語に関する前記統計情報を用いることでスタイルを決定することを特徴とする請求項1記載の音声合成装置。
  3. 前記スタイル判定手段は、前記自立語のうち、名詞を除いた自立語に関する前記統計情報を用いてスタイルを決定することを特徴とする請求項2記載の音声合成装置。
  4. 前記スタイル判定手段は、前記自立語としての単語が持つ属性を前記統計情報として用いてスタイルを決定することを特徴とする請求項2または請求項3記載の音声合成装置。
  5. 前記スタイル判定手段は、前記付属語の類似度と、前記自立語の類似度を別々に計算して、前記統計情報として用いることで、前記スタイルを決定することを特徴とする請求項2から請求項4のうちのいずれか1項記載の音声合成装置。
  6. 前記スタイル判定手段は、前記形態素の前記統計情報とともに、助詞、助動詞の割合、漢字、ひらがなの割合の統計情報を用いて前記スタイルの判定を行うことを特徴とする請求項1から請求項5のうちのいずれか1項記載の音声合成装置。
  7. 前記スタイル判定手段は、テキスト全体、または、段落単位、または対をなす記号で囲まれた文単位、または先頭に箇条書きを示す記号が付いた文単位でスタイル判定を行うことを特徴とする請求項1から請求項6のうちのいずれか1項記載の音声合成装置。
  8. スタイルが既知の学習テキストから前記形態素解析手段によって得られた形態素列の統計情報と前記スタイルとの関係を学習して前記スタイル判定情報を生成するスタイル学習手段を含むことを特徴とする請求項1記載の音声合成装置。
  9. 処理対象テキストを形態素解析辞書に基づいて形態素列に分割する形態素解析手段と、
    前記処理対象テキストに対する前記形態素解析手段の出力と、予め蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定手段と
    を含むことを特徴とするスタイル判定装置。
  10. スタイルが既知の学習テキストから前記形態素解析手段によって得られた形態素列の統計情報と前記スタイルとの関係を学習して前記スタイル判定情報を生成するスタイル学習手段を含むことを特徴とする請求項9記載のスタイル判定装置。
  11. 前記スタイル判定手段は、前記形態素として助詞、助動詞などの付属語もしくは前記付属語に加えて自立語を用いること、または、前記形態素として前記自立語のうち名詞を除いた自立語のみを用いること、または、前記形態素として前記自立語を用いる場合には当該自立語としての単語が持つ属性を前記統計情報として用いることを特徴とする請求項9記載のスタイル判定装置。
  12. スタイルが未知の処理対象テキストの形態素列の統計情報と、予め記憶手段に蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定ステップと、
    判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う合成音作成ステップと
    を含むことを特徴とする音声合成方法。
  13. スタイルが既知の学習テキストの形態素列の統計情報と当該既知のスタイルとの関係を学習し、前記スタイル判定情報として前記記憶手段に記憶するスタイル学習ステップを含むことを特徴とする請求項12記載の音声合成方法。
  14. 助詞、助動詞などの付属語に関する前記統計情報を用いるか、または前記付属語に加えて自立語に関する前記統計情報を用いる方法、
    前記自立語のうち、名詞を除いた自立語に関する前記統計情報を用いる方法、
    前記自立語としての単語が持つ属性を前記統計情報として用いる方法、
    前記付属語の類似度と、前記自立語の類似度を別々に計算して、前記統計情報として用いる方法
    のいずれかの方法にて前記スタイルの学習および判定を行うことを特徴とする請求項12記載の音声合成方法。
  15. スタイルが未知の処理対象テキストの形態素列の統計情報と、予め記憶手段に蓄積された形態素列の統計情報と当該形態素列を有するテキストのスタイルとの関係を示すスタイル判定情報とから前記処理対象テキストのスタイルを判定するスタイル判定ステップを含むことを特徴とするスタイル判定方法。
  16. スタイルが既知の学習テキストの形態素列の統計情報と当該既知のスタイルとの関係を学習し、前記スタイル判定情報として前記記憶手段に記憶するスタイル学習ステップを含むことを特徴とする請求項15記載のスタイル判定方法。
  17. 助詞、助動詞などの付属語に関する前記統計情報を選択的に用いるか、または前記付属語に加えて自立語に関する前記統計情報を用いる方法、
    前記自立語のうち、名詞を除いた自立語に関する前記統計情報を選択的に用いる方法、
    前記自立語としての単語が持つ属性を前記統計情報として用いる方法、
    前記付属語の類似度と、前記自立語の類似度を別々に計算して、前記統計情報として用いる方法
    のいずれかの方法にて前記スタイルの学習および判定を行うことを特徴とする請求項15記載のスタイル判定方法。
  18. コンピュータを、
    入力された処理対象テキストを形態素列に分割する形態素解析手段と、
    スタイルが既知の学習テキストの形態素列の統計情報と当該既知のスタイルとの関係の学習結果と、処理対象テキストの前記形態素列の統計情報とから当該処理対象テキストのスタイルを判定するスタイル判定手段と、
    判定された前記スタイルが反映するように前記処理対象テキストの音声合成を行う音声合成手段と
    して機能させるプログラム。
  19. コンピュータを、
    入力された処理対象テキストを形態素列に分割する形態素解析手段と、
    スタイルが既知の学習テキストの形態素列の統計情報と当該既知のスタイルとの関係の学習結果と、前記処理対象テキストの前記形態素列の統計情報とから当該処理対象テキストのスタイルを判定するスタイル判定手段と
    して機能させるプログラム。
JP2002318341A 2002-10-31 2002-10-31 音声合成装置、スタイル判定装置、音声合成方法、スタイル判定方法、およびプログラム Abandoned JP2004151527A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002318341A JP2004151527A (ja) 2002-10-31 2002-10-31 音声合成装置、スタイル判定装置、音声合成方法、スタイル判定方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002318341A JP2004151527A (ja) 2002-10-31 2002-10-31 音声合成装置、スタイル判定装置、音声合成方法、スタイル判定方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2004151527A true JP2004151527A (ja) 2004-05-27

Family

ID=32461494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002318341A Abandoned JP2004151527A (ja) 2002-10-31 2002-10-31 音声合成装置、スタイル判定装置、音声合成方法、スタイル判定方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2004151527A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215109A (ja) * 2005-02-01 2006-08-17 Nippon Hoso Kyokai <Nhk> 音声合成装置及び音声合成プログラム
JP2007011308A (ja) * 2005-05-30 2007-01-18 Kyocera Corp 文書表示装置及び文書読み上げ方法
US8065157B2 (en) 2005-05-30 2011-11-22 Kyocera Corporation Audio output apparatus, document reading method, and mobile terminal
JP2019090945A (ja) * 2017-11-15 2019-06-13 トヨタ自動車株式会社 情報処理装置
CN111724765A (zh) * 2020-06-30 2020-09-29 上海优扬新媒信息技术有限公司 一种文本转语音的方法、装置及计算机设备
CN113327572A (zh) * 2021-06-02 2021-08-31 清华大学深圳国际研究生院 基于情感类别标签的可控情感语音合成方法及系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215109A (ja) * 2005-02-01 2006-08-17 Nippon Hoso Kyokai <Nhk> 音声合成装置及び音声合成プログラム
JP4575798B2 (ja) * 2005-02-01 2010-11-04 日本放送協会 音声合成装置及び音声合成プログラム
JP2007011308A (ja) * 2005-05-30 2007-01-18 Kyocera Corp 文書表示装置及び文書読み上げ方法
US8065157B2 (en) 2005-05-30 2011-11-22 Kyocera Corporation Audio output apparatus, document reading method, and mobile terminal
JP2019090945A (ja) * 2017-11-15 2019-06-13 トヨタ自動車株式会社 情報処理装置
CN111724765A (zh) * 2020-06-30 2020-09-29 上海优扬新媒信息技术有限公司 一种文本转语音的方法、装置及计算机设备
CN111724765B (zh) * 2020-06-30 2023-07-25 度小满科技(北京)有限公司 一种文本转语音的方法、装置及计算机设备
CN113327572A (zh) * 2021-06-02 2021-08-31 清华大学深圳国际研究生院 基于情感类别标签的可控情感语音合成方法及系统
CN113327572B (zh) * 2021-06-02 2024-02-09 清华大学深圳国际研究生院 基于情感类别标签的可控情感语音合成方法及系统

Similar Documents

Publication Publication Date Title
US8027837B2 (en) Using non-speech sounds during text-to-speech synthesis
US7263488B2 (en) Method and apparatus for identifying prosodic word boundaries
US5878386A (en) Natural language parser with dictionary-based part-of-speech probabilities
JP5403696B2 (ja) 言語モデル生成装置、その方法及びそのプログラム
US20070192105A1 (en) Multi-unit approach to text-to-speech synthesis
JP4038211B2 (ja) 音声合成装置,音声合成方法および音声合成システム
JPH1145241A (ja) かな漢字変換システムおよびそのシステムの各手段としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4861375B2 (ja) 文書処理装置、文書処理プログラムおよび記録媒体
JP4811557B2 (ja) 音声再生装置及び発話支援装置
JP4758758B2 (ja) 辞書作成装置および辞書作成プログラム
JP2004151527A (ja) 音声合成装置、スタイル判定装置、音声合成方法、スタイル判定方法、およびプログラム
KR101097186B1 (ko) 대화체 앞뒤 문장정보를 이용한 다국어 음성합성 시스템 및 방법
JP3706758B2 (ja) 自然言語処理方法,自然言語処理用記録媒体および音声合成装置
JP4004376B2 (ja) 音声合成装置、音声合成プログラム
JP2006004366A (ja) 機械翻訳システム及びそのためのコンピュータプログラム
JP3836607B2 (ja) 音声認識のための統計的言語モデル作成装置
CN114444491A (zh) 新词识别方法和装置
JP2001060199A (ja) 文書分類装置、文書分類方法および文書分類プログラムを格納したコンピュータ読取り可能な記録媒体
JP2000339310A (ja) 文書分類方法、文書分類装置、およびプログラムを記録する記録媒体
JP4083400B2 (ja) アクセント句境界決定装置、音声合成装置及び方法並びにプログラム
JP3690502B2 (ja) 韻律情報設定方法及び装置並びにプログラム及び記録媒体
JP2008257116A (ja) 音声合成システム
JPH11249678A (ja) 音声合成装置およびそのテキスト解析方法
JP2004138661A (ja) 音声素片データベース作成方法、音声合成方法、音声素片データベース作成装置、音声合成装置、音声データベース作成プログラム、音声合成プログラム
JP2001265792A (ja) 自動要約文生成装置、自動要約文生成方法及び自動要約文生成方法を記録した媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20071026

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071026

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20080605