JP2001282279A - 音声情報処理方法及び装置及び記憶媒体 - Google Patents
音声情報処理方法及び装置及び記憶媒体Info
- Publication number
- JP2001282279A JP2001282279A JP2000099535A JP2000099535A JP2001282279A JP 2001282279 A JP2001282279 A JP 2001282279A JP 2000099535 A JP2000099535 A JP 2000099535A JP 2000099535 A JP2000099535 A JP 2000099535A JP 2001282279 A JP2001282279 A JP 2001282279A
- Authority
- JP
- Japan
- Prior art keywords
- duration
- phoneme
- model
- segment
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 38
- 230000010365 information processing Effects 0.000 claims description 12
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 238000003672 processing method Methods 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000001755 vocal effect Effects 0.000 abstract 9
- 230000006870 function Effects 0.000 description 9
- BTCSSZJGUNDROE-UHFFFAOYSA-N gamma-aminobutyric acid Chemical compound NCCCC(O)=O BTCSSZJGUNDROE-UHFFFAOYSA-N 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000008602 contraction Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 241001417093 Moridae Species 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 229940035564 duration Drugs 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Telephone Function (AREA)
Abstract
し、音韻・言語環境に応じた自然な音韻時間長を与え
る。 【解決手段】 大局的セグメントの継続時間長モデルに
基づいて、所定単位の音韻系列の継続時間長を求める
(S302)。局所的セグメントの継続時間長モデルに
基づいて、その音韻系列を構成する各音韻の継続時間長
を求める(S303)。音韻系列の継続時間長と各音韻
の継続時間長とに基づいて、各音韻の継続時間長を設定
する(S304)。
Description
実施される音韻の継続時間長を設定する音声情報処理方
法及びその装置、及び、前記音声合成方法を実施するプ
ログラムを記憶した、コンピュータにより読取り可能な
記憶媒体に関するものである。
し、その音韻系列を所定の音声規則合成方式に従って合
成音声に変換する音声合成装置が開発されている。
ら出力される合成音声は、人間が発声する自然音声と比
較すると不自然で機械的なものであった。
い」という文字系列を構成する音韻系列「o,X,s,
e,i」において、各音韻の継続時間長を生成する音韻
継続時間長の制御規則の精度が挙げられる。精度が悪い
場合、各音韻に対して適正に、継続時間長が付与されな
いため、合成される音声は不自然で機械的なものとな
る。
で、音韻系列の継続時間長を精度良く設定することを可
能とし、音韻・言語環境に応じた自然な音韻時間長を与
える音声情報処理方法及びその装置を提供することを目
的とする。
に本発明の音声情報処理装置は以下のような構成を備え
る。即ち、大局的セグメントの継続時間長モデルに基づ
いて、所定単位の音韻系列の継続時間長を求める手段
と、局所的セグメントの継続時間長モデルに基づいて、
前記音韻系列を構成する各音韻の継続時間長を求める手
段と、前記音韻系列の継続時間長と前記各音韻の継続時
間長とに基づいて、前記各音韻の継続時間長を設定する
設定手段と、前記設定手段により設定された前記各音韻
の継続時間長に基づいて音声を合成する音声合成手段
と、を有することを特徴とする。
報処理方法は以下のような工程を備える。即ち、大局的
セグメントの継続時間長モデルに基づいて、所定単位の
音韻系列の継続時間長を求める工程と、局所的セグメン
トの継続時間長モデルに基づいて、前記音韻系列を構成
する各音韻の継続時間長を求める工程と、前記音韻系列
の継続時間長と前記各音韻の継続時間長とに基づいて、
前記各音韻の継続時間長を設定する設定工程と、前記設
定工程により設定された前記各音韻の継続時間長に基づ
いて音声を合成する音声合成工程と、を有することを特
徴とする。
の好適な実施の形態を詳細に説明する。
形態1に係る音声合成装置の構成を示すブロック図であ
る。
102に記憶された制御プログラム、或いは外部記憶装
置104からRAM103にロードされた制御プログラ
ムに従って、本実施の形態の音声合成装置における各種
制御を行う。ROM102は、各種パラメータやCPU
101が実行する制御プログラムなどを格納している。
RAM103は、CPU101による各種制御の実行時
に作業領域を提供するとともに、CPU101により実
行される制御プログラムを記憶する。104はハードデ
ィスク、フロッピー(登録商標)ディスク、CD−RO
M等の外部記憶装置で、この外部記憶装置がハードディ
スクの場合には、CD−ROMやフロッピィディスク等
からインストールされた各種プログラムが記憶されてい
る。105は入力部で、キーボード、マウス等のポイン
ティングデバイスを有している。又、この入力部105
は、例えば通信回線等を介してインターネット等からの
データを入力しても良い。106は液晶やCRT等の表
示部で、CPU101の制御により各種データの表示を
行う。107はスピーカで、音声信号(電気信号)を可
聴音である音声に変換して出力する。108は上記各部
を接続するバスである。109は音声合成ユニットであ
る。
ニット109の動作を示すフローチャートである。以下
に示される各ステップは、ROM102に格納された制
御プログラム、或いは外部記憶装置104からRAM1
03にロードされた制御プログラムをCPU101が実
行することによって実現される。
の日本語テキストデータが入力部105から入力される
とステップS202に進み、この入力されたテキストデ
ータを、言語解析辞書201を用いて解析し、入力テキ
ストデータに対する音韻系列(読み)やアクセントなど
の情報を抽出する。次にステップS203に進み、これ
らの情報を用いて、ステップS202で求めた音韻系列
を構成する各音韻の継続時間長、基本周波数(ピッチパ
ターン)、パワー等のプロソディ(韻律情報という)を
生成する。この際、音韻の継続時間長は継続時間長モデ
ル202を用いて、基本周波数、パワー等は韻律制御モ
デル203を用いて決定される。
202で解析して抽出された音韻系列、及びステップS
203で生成されたプロソディに基づいて、音声素片辞
書204から、その音韻系列に対応する合成音声を生成
するための音声素片(波形もしくは特徴パラメータ)を
複数個選択する。次にステップS205に進み、それら
選択された音声素片を用いて合成音声信号を生成し、ス
テップS206において、その生成された合成音声信号
に基づいて音声をスピーカ107から出力する。最後に
ステップS207において、入力されたテキストデータ
に対する処理が全て終了したか否かの判断を行い、終了
していない場合はステップS201に戻り、前述の処理
が続けられる。
ディ生成処理の一部を詳細に説明するフローチャートで
ある。図3では、継続的時間長モデル202を用いて、
所定単位の音韻系列(以下、大局的セグメントと称す
る)の継続時間長とこの音韻系列を構成する各音韻(以
下、局所的セグメントと称する)の継続時間長とを設定
する手順を示す。ここで、継続時間長モデル202は、
大局的セグメントに対する継続時間長モデル(大局的継
続時間長モデルともいう)301と局所的セグメントに
対する継続時間長モデル(局所的継続時間長モデルとも
いう)302とを含む。
テップS202のテキスト処理によって得られる入力テ
キストデータに対する解析結果を入力する。ここで、こ
の解析結果としては、音素などの音韻情報から得た音韻
環境、モーラ数、アクセント句数、品詞などの言語情報
から得た言語環境に関する情報などがある。次にステッ
プS302に進み、まず大局的なセグメントに対する継
続時間長を大局的セグメントに対する大局的継続時間長
モデル301に基づいて設定する。ここで、大局的なセ
グメントは、アクセント句、単語、フレーズ、文など
の、発話上ひとまとまりにして処理できる(発話単位と
いう)からなる。
グメントに対する継続時間長を、局所的セグメントに対
する局所的継続時間長モデル302に基づいて設定す
る。ここで、局所的なセグメントは、音素、音節、モー
ラなどの発話単位を構成する音韻単位からなる。
テップS303で得られる局所的なセグメントの継続時
間長の和によって得られる大局的なセグメントに対する
継続時間長と、ステップS302で設定される大局的な
セグメントに対する継続時間長との差分を、ステップS
302で設定される大局的継続時間長となるように、局
所的なセグメントの継続時間長を局所的継続時間伸縮モ
デル303を用いて伸縮することにより、各音韻の局所
的継続時間長を決定する。
「花が」が入力された場合、個の文字列から解析された
音韻系列を大局的セグメントとし、これをモーラを音韻
単位とする局所的セグメントに分割すると「ha」「na」
「ga」となる。ここで各モーラの平均継続時間長(durat
ion)を、例えば100ミリ秒とし、実際の測定されたこ
の大局的セグメントの時間長が600ミリ秒であったと
すると、大局的セグメントの時間長が600ミリ秒に対
して、局所的なセグメントの継続時間長の和によって得
られる大局的継続時間長は300ミリ秒となり、300
ミリ秒の差が生じることになる。
大局的継続時間長モデル301の作成方法と、ステップ
S302の大局的なセグメントに対する継続時間長の設
定処理を図4のフローチャートを参照して説明する。
的継続時間長モデル301の作成方法を示すフローチャ
ートである。
セグメントに対する大局的継続時間長モデルを作成する
ための複数個の学習サンプルを有する音声ファイル40
1と、音素や音節などの開始、終了時間情報等の継続時
間長の抽出に必要な情報を有するサイド情報ファイル4
02とを用いて、大局的継続時間長を抽出する。次にス
テップS402に進み、音素などの音韻情報から得た音
韻環境、モーラ数、アクセント句数、品詞などの言語情
報から得た言語環境に関する情報を有する音韻・言語環
境ファイル403と、ステップS401で抽出した大局
的継続時間長の情報とを用いて、所定の言語環境を考慮
した大局的継続時間長モデル301を作成する。
局的セグメントの継続時間長モデル301を作成するた
めの音声ファイル401中の学習サンプル数をKとし、
この内のk番目の学習サンプルにおける大局的セグメン
トの継続時間長をdkとする。本実施の形態では、大局
的継続時間長dkを直接予測するモデルを作成するので
はなく、K個の学習サンプルから求めた大局的セグメン
トの平均継続時間長~dを用いて、大局的セグメントの
継続時間長dkを、 sk=dk/~d …式(1) と正規化したskを予測するモデルを作成する。ここ
で、大局的セグメントの平均継続時間長~dは、様々な
方法で求めることができるが、例えば、dkを平均モー
ラ継続時間長(1モーラ当りの平均継続時間長)とした
場合、 ~d=(1/K)Σ(dk/Nk) (Σはk=1〜Kの総和) …式(2) として求めることができる。ここでNkは、k番目の学
習サンプルにおけるモーラ数である。
したskの予測値^skは、線形重回帰分析法を用いれ
ば、次式のようにして求めることができる。
は要因i(例えば、音素種類やアクセント句数)に対す
るカテゴリ数を表す。また、xk,i,jは、サンプルkの
要因iのカテゴリj(例えば音素セットやアクセントタ
イプ等)における説明変数、ai,jは、要因iのカテゴ
リjに対する回帰係数、a0は定数項である。この予測
値^skを用いて、k番目のサンプルに対する大局的なセ
グメントの大局的継続時間長^dkは、式(1)より、 ^dk=^sk×~d …式(4) として求めることができる。この式(4)が大局的時間
長モデル301となる
考えられるが、例えば、要因iとして大局的セグメント
内の音素種類とアクセント句数を選び、それぞれのカテ
ゴリjとして26種類の音素セットと大局的セグメント
内のアクセント句数(1,2,3,4以上)を選んだ場
合、I=2,J1=26,J2=4となる。
継続時間長モデル302の作成方法と、ステップS30
3の局所的なセグメントに対する局所的継続時間長の設
定処理を図5のフローチャートを参照して説明する。こ
れらの処理は、大局的なセグメントと同様に以下のよう
に行う。
的継続時間長モデル302の作成方法を示すフローチャ
ートである。
セグメントに対する継続時間長モデルを作成するための
複数個の学習サンプルを有する音声ファイル501と、
音素や音節などの開始、終了時間情報等のような継続時
間長の抽出に必要な情報を有するサイド情報ファイル5
02とを用いて、局所的継続時間長を抽出する。次にス
テップS502に進み、音素などの音韻情報から得た音
韻環境、モーラ数、アクセント句数、品詞などの言語情
報から得た言語環境に関する情報を有する音韻・言語環
境ファイル503と、ステップS501で抽出した局所
的継続時間長の情報とを用いて、所定の音韻環境を考慮
した局所的セグメント継続時間長モデル302を作成す
る。
メントの大局的継続時間長モデル301と同様の方法を
用いてもよい。つまり、K個の学習サンプルから求めた
局所的セグメントの平均継続時間長を用いて局所的継続
時間長を正規化したモデルを作成し、このモデルに基づ
いて局所的継続時間長モデル302を作成しても良い。
的なセグメントに対する大局的継続時間長と、ステップ
S303で得られる複数の局所的なセグメントに対する
局所的継続時間長との和から求まる大局的なセグメント
に対する大局的継続時間長との差(例えば前述の具体例
では(600-300=)300ミリ秒)を、音韻の継続時間長に
関する統計量(平均値、分散)を用いて、大局的なセグ
メントに対する大局的継続時間長に等しくするように、
ステップS304において伸縮処理を行う。この具体的
な方法としては、例えば、特開平11−259095号
公報で示されるような、音韻の継続時間長に関する統計
量を用いた伸縮方法などの手段を用いることによって実
現できる。
定の一例として、音韻時間長の平均値、標準偏差、最小
値を、音韻の種類(αi)毎に求め、これらをメモリに
格納しておき、これらの値を用いて音韻αiに関する音
韻時間長diの初期値dαiを決定する。そして、これに
基づいて、音韻時間長diが決定される。
韻時間長の標準偏差を示す。またΣはi=1〜N(サン
プル数)の総和を示す。
大局的セグメントの継続時間長dkを大局的セグメント
の平均継続時間長~dで除した式(1)を推定するモデルを
学習し、このモデルから得られる大局的継続時間長を用
いて局所的な継続時間長を再設定したが、実施の形態2
では、大局的セグメントの継続時間長と平均継続時間長
の差分値に基づいて大局的時間長モデルを構成する。な
お、実施の形態2によるハードウェア構成、手順は第1
の実施の形態(図1〜図5)と同様であるので、それら
の説明を省略する。
る式(1)を sk=dk−~d …式(5) と変更し、学習サンプルごとの大局的なセグメントの継
続時間長から平均継続時間長~dを差し引くことによっ
て、継続時間長dkを正規化したskを求める。このよう
にして得られたskを用いて、前述の実施の形態1と同
様に、線形重回帰分析法を用いて、式(3)と同様にskの
予測モデルを作成することができる。このモデルから得
られる大局的なセグメントの継続時間長の予測値^skを
用いれば、k番目のサンプルに対する大局的なセグメン
トの継続時間長^dkは、式(5)より、 d^k=^sk+~d …式(6) として求めることができる。この式(6)が実施の形態
2における大局的継続時間長モデルとなる。局所的継続
時間長モデルも同様の方法を用いてモデリングすること
ができる。
発明の一実施の形態を示したものであり、各種変形が可
能である。変形例を示せば以下の通りである。
グメントの平均継続時間長~dとして平均モーラ継続時
間長を用いたが、平均を求める際にモーラを単位として
いるのは一例であり、音節や音素といったこれ以外の音
韻単位を用いることができる。また、本発明は日本語以
外の言語にも適用可能である。
グメントの線形重回帰モデルの要因とカテゴリは一例を
示すものであり、他の要因やカテゴリを用いてもよい。
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(又はCPUや
MPU)が記憶媒体に格納されたプログラムコードを読
出し実行することによっても達成される。この場合、記
憶媒体から読出されたプログラムコード自体が前述した
実施の形態の機能を実現することになり、そのプログラ
ムコードを記憶した記憶媒体は本発明を構成することに
なる。このようなプログラムコードを供給するための記
憶媒体としては、例えば、フロッピィディスク、ハード
ディスク、光ディスク、光磁気ディスク、CD−RO
M、CD−R、DVD、磁気テープ、不揮発性のメモリ
カード、ROMなどを用いることができる。
コードを実行することにより、前述した実施の形態の機
能が実現されるだけでなく、そのプログラムコードの指
示に基づき、コンピュータ上で稼働しているOS(オペ
レーティングシステム)などが実際の処理の一部又は全
部を行い、その処理によって前述した実施の形態の機能
が実現される場合も含まれる。
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部又は全部を行い、その
処理によって前述した実施の形態の機能が実現される場
合も含まれる。
ば、高精度に大局的及び局所的なセグメントの継続時間
長を設定する手段を用いることにより、より高精度に継
続時間長をモデル化できるようになり、音声合成装置に
おける合成音声の自然性の向上が可能になるという効果
がある。
韻系列の継続時間長を精度良く設定することを可能と
し、音韻・言語環境に応じた自然な音韻時間長を与える
ことができる。
ドウェア構成を示すブロック図である。
る音声合成の処理手順を示したフローチャートである。
における、継続時間長モデルを用いた音韻系列の継続時
間長の設定手順を示すフローチャートである。
大局的継続時間長モデルの作成方法を示すフローチャー
トである。
る局所的継続時間長モデルの作成方法を示すフローチャ
ートである。
Claims (11)
- 【請求項1】 大局的セグメントの継続時間長モデルに
基づいて、所定単位の音韻系列の継続時間長を求める工
程と、 局所的セグメントの継続時間長モデルに基づいて、前記
音韻系列を構成する各音韻の継続時間長を求める工程
と、 前記音韻系列の継続時間長と前記各音韻の継続時間長と
に基づいて、前記各音韻の継続時間長を設定する設定工
程と、 前記設定工程により設定された前記各音韻の継続時間長
に基づいて音声を合成する音声合成工程と、を有するこ
とを特徴とする音声情報処理方法。 - 【請求項2】 前記局所的セグメントは音素或いは音節
やモーラの少なくともいずれかからなり、前記大局的セ
グメントはアクセント句、単語、フレーズ、文の少なく
ともいずれかからなることを特徴とする請求項1に記載
の音声情報処理方法。 - 【請求項3】 前記大局的セグメントの継続時間長モデ
ルは、前記大局的セグメントの継続時間長と前記大局的
セグメントの平均継続時間長との比に基づいてモデリン
グされたモデルであることを特徴とする請求項1に記載
の音声情報処理方法。 - 【請求項4】 前記大局的セグメントの継続時間長モデ
ルは、前記大局的セグメントの継続時間長と前記大局的
セグメントの平均継続時間長との差に基づいてモデリン
グされたモデルであることを特徴とする請求項1に記載
の音声情報処理方法。 - 【請求項5】 前記大局的セグメントの継続時間長モデ
ルは、線形重回帰モデルによってモデリングされたモデ
ルであることを特徴とする請求項1乃至4のいずれか1
項に記載の音声情報処理方法。 - 【請求項6】 請求項1乃至5のいずれか1項に記載の
音声情報処理方法を実行するプログラムを記憶したこと
を特徴とする、コンピュータにより読取り可能な記憶媒
体。 - 【請求項7】 大局的セグメントの継続時間長モデルに
基づいて、所定単位の音韻系列の継続時間長を求める手
段と、 局所的セグメントの継続時間長モデルに基づいて、前記
音韻系列を構成する各音韻の継続時間長を求める手段
と、 前記音韻系列の継続時間長と前記各音韻の継続時間長と
に基づいて、前記各音韻の継続時間長を設定する設定手
段と、 前記設定手段により設定された前記各音韻の継続時間長
に基づいて音声を合成する音声合成手段と、を有するこ
とを特徴とする音声情報処理装置。 - 【請求項8】 前記局所的セグメントは音素或いは音節
やモーラの少なくともいずれかからなり、前記大局的セ
グメントはアクセント句、単語、フレーズ、文の少なく
ともいずれかからなることを特徴とする請求項7に記載
の音声情報処理装置。 - 【請求項9】 前記大局的セグメントの継続時間長モデ
ルは、前記大局的セグメントの継続時間長と前記大局的
セグメントの平均継続時間長との比に基づいてモデリン
グされたモデルであることを特徴とする請求項7に記載
の音声情報処理装置。 - 【請求項10】 前記大局的セグメントの継続時間長モ
デルは、前記大局的セグメントの継続時間長と前記大局
的セグメントの平均継続時間長との差に基づいてモデリ
ングされたモデルであることを特徴とする請求項7に記
載の音声情報処理装置。 - 【請求項11】 前記大局的セグメントの継続時間長モ
デルは、線形重回帰モデルによってモデリングされたモ
デルであることを特徴とする請求項7乃至10のいずれ
か1項に記載の音声情報処理装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000099535A JP2001282279A (ja) | 2000-03-31 | 2000-03-31 | 音声情報処理方法及び装置及び記憶媒体 |
US09/818,626 US6778960B2 (en) | 2000-03-31 | 2001-03-28 | Speech information processing method and apparatus and storage medium |
US10/852,139 US7089186B2 (en) | 2000-03-31 | 2004-05-25 | Speech information processing method, apparatus and storage medium performing speech synthesis based on durations of phonemes |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000099535A JP2001282279A (ja) | 2000-03-31 | 2000-03-31 | 音声情報処理方法及び装置及び記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001282279A true JP2001282279A (ja) | 2001-10-12 |
JP2001282279A5 JP2001282279A5 (ja) | 2007-05-10 |
Family
ID=18613875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000099535A Pending JP2001282279A (ja) | 2000-03-31 | 2000-03-31 | 音声情報処理方法及び装置及び記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (2) | US6778960B2 (ja) |
JP (1) | JP2001282279A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015108667A (ja) * | 2013-12-03 | 2015-06-11 | 日本電信電話株式会社 | 基本周波数予測装置、基本周波数予測方法、プログラム |
WO2020166359A1 (ja) * | 2019-02-12 | 2020-08-20 | 日本電信電話株式会社 | 推定装置、推定方法、及びプログラム |
Families Citing this family (128)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
JP2001282279A (ja) * | 2000-03-31 | 2001-10-12 | Canon Inc | 音声情報処理方法及び装置及び記憶媒体 |
JP4054507B2 (ja) * | 2000-03-31 | 2008-02-27 | キヤノン株式会社 | 音声情報処理方法および装置および記憶媒体 |
ITTO20010179A1 (it) * | 2001-02-28 | 2002-08-28 | Cselt Centro Studi Lab Telecom | Sistema e metodo per l'accesso a strutture multimediali. |
JP2003295882A (ja) * | 2002-04-02 | 2003-10-15 | Canon Inc | 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム |
US8103505B1 (en) * | 2003-11-19 | 2012-01-24 | Apple Inc. | Method and apparatus for speech synthesis using paralinguistic variation |
JP4587160B2 (ja) * | 2004-03-26 | 2010-11-24 | キヤノン株式会社 | 信号処理装置および方法 |
US20060229877A1 (en) * | 2005-04-06 | 2006-10-12 | Jilei Tian | Memory usage in a text-to-speech system |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
CN1953052B (zh) * | 2005-10-20 | 2010-09-08 | 株式会社东芝 | 训练时长预测模型、时长预测和语音合成的方法及装置 |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
WO2008126209A1 (ja) * | 2007-03-27 | 2008-10-23 | Fujitsu Limited | 重回帰分析による予測モデルの作成方法、作成装置、作成プログラム |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
KR20110006004A (ko) * | 2009-07-13 | 2011-01-20 | 삼성전자주식회사 | 결합인식단위 최적화 장치 및 그 방법 |
RU2421827C2 (ru) * | 2009-08-07 | 2011-06-20 | Общество с ограниченной ответственностью "Центр речевых технологий" | Способ синтеза речи |
JP5482042B2 (ja) * | 2009-09-10 | 2014-04-23 | 富士通株式会社 | 合成音声テキスト入力装置及びプログラム |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US9798653B1 (en) * | 2010-05-05 | 2017-10-24 | Nuance Communications, Inc. | Methods, apparatus and data structure for cross-language speech adaptation |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
EP3809407A1 (en) | 2013-02-07 | 2021-04-21 | Apple Inc. | Voice trigger for a digital assistant |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
JP2016521948A (ja) | 2013-06-13 | 2016-07-25 | アップル インコーポレイテッド | 音声コマンドによって開始される緊急電話のためのシステム及び方法 |
AU2014306221B2 (en) | 2013-08-06 | 2017-04-06 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
CN113421548B (zh) * | 2021-06-30 | 2024-02-06 | 平安科技(深圳)有限公司 | 语音合成方法、装置、计算机设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6346498A (ja) * | 1986-04-18 | 1988-02-27 | 株式会社リコー | 韻律生成方式及びタイミング点パターン生成方式 |
JPH0318899A (ja) * | 1989-06-15 | 1991-01-28 | Ricoh Co Ltd | 音韻継続時間長制御方式 |
JPH05108084A (ja) * | 1991-10-17 | 1993-04-30 | Ricoh Co Ltd | 音声合成装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0573100A (ja) | 1991-09-11 | 1993-03-26 | Canon Inc | 音声合成方法及びその装置 |
JP3450411B2 (ja) | 1994-03-22 | 2003-09-22 | キヤノン株式会社 | 音声情報処理方法及び装置 |
JP3559588B2 (ja) | 1994-05-30 | 2004-09-02 | キヤノン株式会社 | 音声合成方法及び装置 |
JP3548230B2 (ja) | 1994-05-30 | 2004-07-28 | キヤノン株式会社 | 音声合成方法及び装置 |
JP3854713B2 (ja) | 1998-03-10 | 2006-12-06 | キヤノン株式会社 | 音声合成方法および装置および記憶媒体 |
JP2001282279A (ja) * | 2000-03-31 | 2001-10-12 | Canon Inc | 音声情報処理方法及び装置及び記憶媒体 |
JP4054507B2 (ja) * | 2000-03-31 | 2008-02-27 | キヤノン株式会社 | 音声情報処理方法および装置および記憶媒体 |
-
2000
- 2000-03-31 JP JP2000099535A patent/JP2001282279A/ja active Pending
-
2001
- 2001-03-28 US US09/818,626 patent/US6778960B2/en not_active Expired - Lifetime
-
2004
- 2004-05-25 US US10/852,139 patent/US7089186B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6346498A (ja) * | 1986-04-18 | 1988-02-27 | 株式会社リコー | 韻律生成方式及びタイミング点パターン生成方式 |
JPH0318899A (ja) * | 1989-06-15 | 1991-01-28 | Ricoh Co Ltd | 音韻継続時間長制御方式 |
JPH05108084A (ja) * | 1991-10-17 | 1993-04-30 | Ricoh Co Ltd | 音声合成装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015108667A (ja) * | 2013-12-03 | 2015-06-11 | 日本電信電話株式会社 | 基本周波数予測装置、基本周波数予測方法、プログラム |
WO2020166359A1 (ja) * | 2019-02-12 | 2020-08-20 | 日本電信電話株式会社 | 推定装置、推定方法、及びプログラム |
JP2020129099A (ja) * | 2019-02-12 | 2020-08-27 | 日本電信電話株式会社 | 推定装置、推定方法、及びプログラム |
JP7197786B2 (ja) | 2019-02-12 | 2022-12-28 | 日本電信電話株式会社 | 推定装置、推定方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US7089186B2 (en) | 2006-08-08 |
US20040215459A1 (en) | 2004-10-28 |
US20010032080A1 (en) | 2001-10-18 |
US6778960B2 (en) | 2004-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001282279A (ja) | 音声情報処理方法及び装置及び記憶媒体 | |
JP4054507B2 (ja) | 音声情報処理方法および装置および記憶媒体 | |
US8015011B2 (en) | Generating objectively evaluated sufficiently natural synthetic speech from text by using selective paraphrases | |
US5758320A (en) | Method and apparatus for text-to-voice audio output with accent control and improved phrase control | |
JP4455610B2 (ja) | 韻律パタン生成装置、音声合成装置、プログラムおよび韻律パタン生成方法 | |
US7010489B1 (en) | Method for guiding text-to-speech output timing using speech recognition markers | |
US11763797B2 (en) | Text-to-speech (TTS) processing | |
JPH10116089A (ja) | 音声合成用の基本周波数テンプレートを収容する韻律データベース | |
JPH11259095A (ja) | 音声合成方法および装置および記憶媒体 | |
US20090157408A1 (en) | Speech synthesizing method and apparatus | |
Lobanov et al. | Language-and speaker specific implementation of intonation contours in multilingual TTS synthesis | |
JP5874639B2 (ja) | 音声合成装置、音声合成方法及び音声合成プログラム | |
JP6436806B2 (ja) | 音声合成用データ作成方法、及び音声合成用データ作成装置 | |
Maia et al. | An HMM-based Brazilian Portuguese speech synthesizer and its characteristics | |
Houidhek et al. | Statistical modelling of speech units in HMM-based speech synthesis for Arabic | |
Lobanov et al. | Development of multi-voice and multi-language TTS synthesizer (languages: Belarussian, Polish, Russian) | |
JP3234371B2 (ja) | 音声合成用音声持続時間処理方法及びその装置 | |
Sherpa et al. | Pioneering Dzongkha text-to-speech synthesis | |
Cahyaningtyas et al. | Under-Resourced Natural Bahasa Indonesia HMM-based Text-To-Speech System | |
JP2004054063A (ja) | 基本周波数パターン生成方法、基本周波数パターン生成装置、音声合成装置、基本周波数パターン生成プログラムおよび音声合成プログラム | |
Klabbers | Text-to-Speech Synthesis | |
KR100608643B1 (ko) | 음성 합성 시스템의 억양 모델링 장치 및 방법 | |
JP2002297175A (ja) | テキスト音声合成装置、テキスト音声合成方法及びプログラム並びにプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
CN114694627A (zh) | 语音合成相关方法、语流音变模型的训练方法及相关装置 | |
Burileanu et al. | Prosody modeling for an embedded TTS system implementation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070319 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070319 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20070319 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080813 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100205 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100604 |