JPS63285598A - 音素接続形パラメ−タ規則合成方式 - Google Patents
音素接続形パラメ−タ規則合成方式Info
- Publication number
- JPS63285598A JPS63285598A JP62119122A JP11912287A JPS63285598A JP S63285598 A JPS63285598 A JP S63285598A JP 62119122 A JP62119122 A JP 62119122A JP 11912287 A JP11912287 A JP 11912287A JP S63285598 A JPS63285598 A JP S63285598A
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- duration
- change pattern
- formant
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 26
- 230000002123 temporal effect Effects 0.000 claims description 16
- 238000001308 synthesis method Methods 0.000 claims description 13
- 230000008602 contraction Effects 0.000 claims description 12
- 230000007704 transition Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 description 22
- 230000015572 biosynthetic process Effects 0.000 description 21
- 238000003786 synthesis reaction Methods 0.000 description 21
- 238000006243 chemical reaction Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 7
- 235000016496 Panda oleosa Nutrition 0.000 description 4
- 240000000220 Panda oleosa Species 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
- G10L13/07—Concatenation rules
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は、規則による音声合成方式に関し、特にかな文
字列とそれに付加されたアクセント、イントネーション
等の韻律記号列を入力することによシ高品質な音声を合
成する規則による音素接続形パラメータ規則合成方式に
関する。
字列とそれに付加されたアクセント、イントネーション
等の韻律記号列を入力することによシ高品質な音声を合
成する規則による音素接続形パラメータ規則合成方式に
関する。
(従来の技術)
従来、規則によシ音声を合成する際、各音素を特徴づけ
る複数個のホルマント周波数及びホルマント帯域幅等の
特徴ベクトルと隣接音素間の音素変化を表わす特徴ベク
トル係数の時系列を蓄積し、隣接音素間の過渡部は、線
形補間法を用いて各音素の特徴ベクトルおよび特徴ベク
トル係数の線形結合によシ作成する方法等がある。これ
らの方法では前後の音素、発話速度等姉より定まる各音
素の持続時間に応じて定常部分を表示している特徴ベク
トル部分を伸縮する方法が用いられる。しかし、このよ
うな方法では発話速度が異なっても過渡部分は同じであ
るという粗い近似であシ、これによシ得られる合成音は
発話速度によっては不自然な感じとなるのを免れない。
る複数個のホルマント周波数及びホルマント帯域幅等の
特徴ベクトルと隣接音素間の音素変化を表わす特徴ベク
トル係数の時系列を蓄積し、隣接音素間の過渡部は、線
形補間法を用いて各音素の特徴ベクトルおよび特徴ベク
トル係数の線形結合によシ作成する方法等がある。これ
らの方法では前後の音素、発話速度等姉より定まる各音
素の持続時間に応じて定常部分を表示している特徴ベク
トル部分を伸縮する方法が用いられる。しかし、このよ
うな方法では発話速度が異なっても過渡部分は同じであ
るという粗い近似であシ、これによシ得られる合成音は
発話速度によっては不自然な感じとなるのを免れない。
(発明が解決しようとする問題点)
本発明の目的は、このような従来の欠点を改善するため
、人間の実音声の分析によシ抽出されるホルマント周波
数等の音声合成パラメータの時間的変化パターンと極め
てよく一致する時間的変化パターンを人工的に発生させ
、任意の文章を種々。
、人間の実音声の分析によシ抽出されるホルマント周波
数等の音声合成パラメータの時間的変化パターンと極め
てよく一致する時間的変化パターンを人工的に発生させ
、任意の文章を種々。
の発話速度で高品質な音声に変換する規則による音声合
成方式を提供することである。
成方式を提供することである。
(問題点を解決するための手段)
本発明による規則による音声合成方式は、かな文字列若
しくはローマ字表現されたかな文字列とそれに付加され
たアクセント、イントネーション等の韻律記号列を入力
することにより、音素持続時間、ピッチ周波数の時間的
変化パターン、ホルマント周波数及びホルマント帯域幅
の時間的°変化パターン及び音源強度の時間的変化パタ
ーンを予め定めた規則を用いて決定し、音声波形を合成
する規則による音声合成方式において、各音素のホルマ
ント周波数等の時間的変化パターンを、当該音素の持続
長円の2つの位置(以下、ターゲット位置という)での
値(以下、ターゲツト値という)とそれらの間の接続方
法を規定し、それらの値を用いて逐次算出する規則によ
る音素接続形パラメータ規則合成方式である。
しくはローマ字表現されたかな文字列とそれに付加され
たアクセント、イントネーション等の韻律記号列を入力
することにより、音素持続時間、ピッチ周波数の時間的
変化パターン、ホルマント周波数及びホルマント帯域幅
の時間的°変化パターン及び音源強度の時間的変化パタ
ーンを予め定めた規則を用いて決定し、音声波形を合成
する規則による音声合成方式において、各音素のホルマ
ント周波数等の時間的変化パターンを、当該音素の持続
長円の2つの位置(以下、ターゲット位置という)での
値(以下、ターゲツト値という)とそれらの間の接続方
法を規定し、それらの値を用いて逐次算出する規則によ
る音素接続形パラメータ規則合成方式である。
このような規則による音声合成方式において、各規則は
人間の発話を出来る限シ忠実に再現することによQ1高
品質な音声を合成し得るように定められる。この際、ホ
ルマント周波数等の各音声合成パラメータは、人間の発
声機能の生理学的な制限等によシ、定常とみなされる部
分の開始点及び終了点が同じ位置に存在するとは限らな
い。また、各音声合成パラメータの定常とみなす部分の
開始点及び終了点を同一として規則を作ることは、規則
化ひbではその規則による制御を困難にする。
人間の発話を出来る限シ忠実に再現することによQ1高
品質な音声を合成し得るように定められる。この際、ホ
ルマント周波数等の各音声合成パラメータは、人間の発
声機能の生理学的な制限等によシ、定常とみなされる部
分の開始点及び終了点が同じ位置に存在するとは限らな
い。また、各音声合成パラメータの定常とみなす部分の
開始点及び終了点を同一として規則を作ることは、規則
化ひbではその規則による制御を困難にする。
このため、各音声合成パラメータの定常とみなす部分の
開始点及び終了点は、各音声合成パラメータ毎に異なり
ていることが望ましい。このことは、隣接する音素及び
発話速度の差異によって音素の持続時間内の一部が伸縮
する際にもあてはまる。
開始点及び終了点は、各音声合成パラメータ毎に異なり
ていることが望ましい。このことは、隣接する音素及び
発話速度の差異によって音素の持続時間内の一部が伸縮
する際にもあてはまる。
本発明による規則による音声合成方式は、上記のような
規則を有する音声合成方式にbいて、予め定めた時間間
隔毎の合成パラメータ値を求めるに際し、各音素毎の持
続時間の伸縮方法に応じて時間間隔毎の当該音素の持続
時間内の相対位置を定めるテーブルを作成し、これを用
いて予め定めた時間間隔毎の値を求めることを特徴とす
る。
規則を有する音声合成方式にbいて、予め定めた時間間
隔毎の合成パラメータ値を求めるに際し、各音素毎の持
続時間の伸縮方法に応じて時間間隔毎の当該音素の持続
時間内の相対位置を定めるテーブルを作成し、これを用
いて予め定めた時間間隔毎の値を求めることを特徴とす
る。
(実施例)
本発明による規則による音声合成方式においては、各音
素を特徴づける音声合成パラメータとして、ホルマント
周波数、ホルマント帯域幅、音源強度等を用いてお)、
これらの時間的変化パターンを2つの点(ターゲット位
置)における値(ターゲツト値)とその間の接続方法を
規定し、更に、音素持続時間についても2つの点(ター
ゲット位置)の間の伸縮を規定する方法により、合成音
牢記の関係をホルマント周波数について示した図で相対
位置を示しておシ、左側の縦軸はホルマント周波数を、
右側の縦軸は時間長を示している。1は第1ホルマント
のある音素の相対位置に対する時間的変化パターンを示
している。すなわち、ある音素の相対位置の前から20
%の所(ターゲット位置)である値をとシ、80%の所
(ターゲット位置)で規定されている値へと線形に変化
している例を示している。2は第2ホルマント、3は第
3ホルマントに関する同様の時間的変化パターンを示し
ている。4は音素の時間伸縮の例を示しておシ、音素の
持続時間の内先頭の40%と後方の20%の部分につい
ては時間伸縮はないが、真中の40%については持続時
間が150俤伸びている例を示している。
素を特徴づける音声合成パラメータとして、ホルマント
周波数、ホルマント帯域幅、音源強度等を用いてお)、
これらの時間的変化パターンを2つの点(ターゲット位
置)における値(ターゲツト値)とその間の接続方法を
規定し、更に、音素持続時間についても2つの点(ター
ゲット位置)の間の伸縮を規定する方法により、合成音
牢記の関係をホルマント周波数について示した図で相対
位置を示しておシ、左側の縦軸はホルマント周波数を、
右側の縦軸は時間長を示している。1は第1ホルマント
のある音素の相対位置に対する時間的変化パターンを示
している。すなわち、ある音素の相対位置の前から20
%の所(ターゲット位置)である値をとシ、80%の所
(ターゲット位置)で規定されている値へと線形に変化
している例を示している。2は第2ホルマント、3は第
3ホルマントに関する同様の時間的変化パターンを示し
ている。4は音素の時間伸縮の例を示しておシ、音素の
持続時間の内先頭の40%と後方の20%の部分につい
ては時間伸縮はないが、真中の40%については持続時
間が150俤伸びている例を示している。
第1図に示したような構成で予め定めた時間間隔毎の音
声合成パラメータは、各音声合成パラメータのターゲッ
ト位置と音素持続時間に関するターゲット位置とを比較
し、音素持続時間が伸縮している範囲に入っている場合
には、その補正を行った上で、予め定めた時間間隔毎の
音声合成パラメータを定めることができる。しかし、こ
の方法は予め定めた時間間隔毎に、多数の比較演算及び
乗除演算等を実行する必要があシ、音声合成のように実
時間処理が必要なものには必ずしも適さない。これに対
し、本発明は各音素毎の時間伸縮に対応するテーブルを
作成することにより、実時間処理に適した構成方法を提
供することである。
声合成パラメータは、各音声合成パラメータのターゲッ
ト位置と音素持続時間に関するターゲット位置とを比較
し、音素持続時間が伸縮している範囲に入っている場合
には、その補正を行った上で、予め定めた時間間隔毎の
音声合成パラメータを定めることができる。しかし、こ
の方法は予め定めた時間間隔毎に、多数の比較演算及び
乗除演算等を実行する必要があシ、音声合成のように実
時間処理が必要なものには必ずしも適さない。これに対
し、本発明は各音素毎の時間伸縮に対応するテーブルを
作成することにより、実時間処理に適した構成方法を提
供することである。
第2図に、本発明によるテーブルの作成の方法の説明図
を示す。第2図において、横軸はある音素の絶対時間を
示しておシ、上側の縦軸はホルマント周波数を、下側の
縦軸はある時間長で正規化された相対時間を示している
。1は第1ホルマントの相対時間に対する時間的変化パ
ターンを示している。2,3は各々第1ホルマントのタ
ーゲット、4は音素の時間伸縮を示している。γ1.γ
2はターゲット1及び2の相対位置、pl、p2はγ1
.γ2からの垂線が折れ線4と交わる点、tlyt2は
pt + p2からの垂線が絶対時間軸と交わる点であ
シ、すなわち、ターゲット1及び2の時間伸縮後の位置
を示している。nt、 、 nt2は時間伸縮後の位置
pi * p2でのターゲツト値を示している。5は時
間伸縮後の第1ホルマントの時間的変化パターンである
。
を示す。第2図において、横軸はある音素の絶対時間を
示しておシ、上側の縦軸はホルマント周波数を、下側の
縦軸はある時間長で正規化された相対時間を示している
。1は第1ホルマントの相対時間に対する時間的変化パ
ターンを示している。2,3は各々第1ホルマントのタ
ーゲット、4は音素の時間伸縮を示している。γ1.γ
2はターゲット1及び2の相対位置、pl、p2はγ1
.γ2からの垂線が折れ線4と交わる点、tlyt2は
pt + p2からの垂線が絶対時間軸と交わる点であ
シ、すなわち、ターゲット1及び2の時間伸縮後の位置
を示している。nt、 、 nt2は時間伸縮後の位置
pi * p2でのターゲツト値を示している。5は時
間伸縮後の第1ホルマントの時間的変化パターンである
。
vl + v2 z・・・+ v6 は予め定めた時間
間隔毎に描いた垂線を示し、hl、・・・、h6は垂線
vI+・・・r v6が折れ線4と交差した点から引い
た水平線を示している。
間隔毎に描いた垂線を示し、hl、・・・、h6は垂線
vI+・・・r v6が折れ線4と交差した点から引い
た水平線を示している。
即ち、予め定めた時間間隔に対する相対時間上の間隔は
、時間伸縮を示す折れ線4が決まれば一意的に決定でき
るので、これをテーブルとして有しておれば、その位置
に対するホルマント周波数等の値を、このテーブルを検
索してその位置に対して決定することができる。なお、
隣接音素とのずれによる初期値のずれを考慮してテーブ
ルを計算することは当然である。
、時間伸縮を示す折れ線4が決まれば一意的に決定でき
るので、これをテーブルとして有しておれば、その位置
に対するホルマント周波数等の値を、このテーブルを検
索してその位置に対して決定することができる。なお、
隣接音素とのずれによる初期値のずれを考慮してテーブ
ルを計算することは当然である。
第3図は、本発明の実施態様の一例を示す構成図である
。図中、1は韻律記号が付与されたかな文字列が入力さ
れる入力端子、2はかな文字列の各音素を前後の音素や
韻律記号を参照して音韻記号に変化させる音韻記号変換
回路、3は各音韻の特徴ベクトルを4の音韻特徴ベクト
ルテーブルから取り出すための音韻特徴ベクトル選定回
路、4は各音韻毎に持続時間長、ホルマント周波数等の
音声合成パラメータのターゲット位置とターゲツト値及
びその接続方法等の情報を記憶している音韻特徴ベクト
ルテーブル、5は予め定めた時間間隔を相対位置に対応
づけるテーブルを作成する変換テーブル作成回路、6は
作成された変換テーブルを記憶する変換テーブル、7は
予め定めた時間間隔毎の音声合成パラメータを算出する
音声合成パラメータ演算回路、8はホルマント形音声合
成器、9は合成された音声波形を出力する出力端子であ
る。
。図中、1は韻律記号が付与されたかな文字列が入力さ
れる入力端子、2はかな文字列の各音素を前後の音素や
韻律記号を参照して音韻記号に変化させる音韻記号変換
回路、3は各音韻の特徴ベクトルを4の音韻特徴ベクト
ルテーブルから取り出すための音韻特徴ベクトル選定回
路、4は各音韻毎に持続時間長、ホルマント周波数等の
音声合成パラメータのターゲット位置とターゲツト値及
びその接続方法等の情報を記憶している音韻特徴ベクト
ルテーブル、5は予め定めた時間間隔を相対位置に対応
づけるテーブルを作成する変換テーブル作成回路、6は
作成された変換テーブルを記憶する変換テーブル、7は
予め定めた時間間隔毎の音声合成パラメータを算出する
音声合成パラメータ演算回路、8はホルマント形音声合
成器、9は合成された音声波形を出力する出力端子であ
る。
以下、図にそってその動作を説明する。入力端子1よ多
入力された韻律記号が付加されたかな文字列は、音韻記
号変換回路2によシ、各音素とそれぞれの音素に韻律記
号の付された音韻記号の列に変換される。音韻記号は3
の音韻特徴ベクトル選定回路へ入力される。音韻特徴ベ
クトル選定回路は1種のインデックスファイルであシ、
入力された各音韻毎の特徴ベクトルが記憶されている音
韻特徴ベクトルテーブル4内のアドレスを、各音韻毎に
記憶している。音韻特徴ベクトルテーブル4に記憶され
ている特徴ベクトルとしては、持続時間長とその伸縮方
法、ホルマント周波数、ホルマント帯域幅、音源強度の
時間的変化パターンに関するターゲット位置、ターゲツ
ト値及びその接続方法、及びピッチパターン情報がある
。ピッチパターン情報としては、例えば、アクセント核
の位置と戸車て成分の位置を使用する方法は公知である
。(例えば、藤崎、須藤:“日本語単語アクセントの基
本周波数パターンとその生成機構モデル“、日本音響学
会誌、27,445−453(1971))。
入力された韻律記号が付加されたかな文字列は、音韻記
号変換回路2によシ、各音素とそれぞれの音素に韻律記
号の付された音韻記号の列に変換される。音韻記号は3
の音韻特徴ベクトル選定回路へ入力される。音韻特徴ベ
クトル選定回路は1種のインデックスファイルであシ、
入力された各音韻毎の特徴ベクトルが記憶されている音
韻特徴ベクトルテーブル4内のアドレスを、各音韻毎に
記憶している。音韻特徴ベクトルテーブル4に記憶され
ている特徴ベクトルとしては、持続時間長とその伸縮方
法、ホルマント周波数、ホルマント帯域幅、音源強度の
時間的変化パターンに関するターゲット位置、ターゲツ
ト値及びその接続方法、及びピッチパターン情報がある
。ピッチパターン情報としては、例えば、アクセント核
の位置と戸車て成分の位置を使用する方法は公知である
。(例えば、藤崎、須藤:“日本語単語アクセントの基
本周波数パターンとその生成機構モデル“、日本音響学
会誌、27,445−453(1971))。
これらの特徴ベクトルの内、持続時間長とその伸縮方法
は変換テーブル作成回路5に入力され、前述した変換テ
ーブルが作成され、その結果は変換テーブル6に記憶さ
れる。変換テーブル作成回路5は前述したように、折れ
線で示される関数の子め定めた間隔毎の値を算出するも
のであるため、演算機能を有するマイクロコンピュータ
で構成可能である。音韻特徴ベクトルテーブル4内の他
の情報は、音声合成パラメータ演算回路7に入力される
。音声合成パラメータ演算回路7は、これらの特徴ベク
トルと変換テーブル6を用いて、予め定めた時間間隔例
えば5 m5ec 毎の音声合成パラメータを算出す
る。変換テーブル6内には予め定めた時間間隔に対応す
る相対位置を示すテーブルが記憶されているため、当該
相対位置が2つのターゲット位置の中間に位置するのか
、又はその外側に位置しているのかを確認し、その位置
に応じてターゲツト値の接続方法によシ定められる。例
えば、線形接続であれば、両側のターゲット位置との差
に応じて両側のターゲツト値が荷重平均された値となる
。2つのターゲツト値の接続方法は線形接続だけでなく
、正弦・余弦関数を初め、その関数が一意の関数として
規定できるものであれば全て可能であることは当然であ
る。このため、音声合成パラメータ演算回路7は、演算
機能を有スルマイクロコンピュータで構成可能である。
は変換テーブル作成回路5に入力され、前述した変換テ
ーブルが作成され、その結果は変換テーブル6に記憶さ
れる。変換テーブル作成回路5は前述したように、折れ
線で示される関数の子め定めた間隔毎の値を算出するも
のであるため、演算機能を有するマイクロコンピュータ
で構成可能である。音韻特徴ベクトルテーブル4内の他
の情報は、音声合成パラメータ演算回路7に入力される
。音声合成パラメータ演算回路7は、これらの特徴ベク
トルと変換テーブル6を用いて、予め定めた時間間隔例
えば5 m5ec 毎の音声合成パラメータを算出す
る。変換テーブル6内には予め定めた時間間隔に対応す
る相対位置を示すテーブルが記憶されているため、当該
相対位置が2つのターゲット位置の中間に位置するのか
、又はその外側に位置しているのかを確認し、その位置
に応じてターゲツト値の接続方法によシ定められる。例
えば、線形接続であれば、両側のターゲット位置との差
に応じて両側のターゲツト値が荷重平均された値となる
。2つのターゲツト値の接続方法は線形接続だけでなく
、正弦・余弦関数を初め、その関数が一意の関数として
規定できるものであれば全て可能であることは当然であ
る。このため、音声合成パラメータ演算回路7は、演算
機能を有スルマイクロコンピュータで構成可能である。
予め定めた時間間隔毎の音声合成パラメータはホルマン
ト形音声合成器8に入力される。ホルマント形音声合成
器8は公知(例えば、1)J(、Klatt :@So
ftware for a cascade / pa
rallel formantsynthesizer
’ 、 J、 Acoust、 Am、、 67−3
(1980))であシ、上記信号を用いて音声波形を合
成し、出力端子9へ出力する。
ト形音声合成器8に入力される。ホルマント形音声合成
器8は公知(例えば、1)J(、Klatt :@So
ftware for a cascade / pa
rallel formantsynthesizer
’ 、 J、 Acoust、 Am、、 67−3
(1980))であシ、上記信号を用いて音声波形を合
成し、出力端子9へ出力する。
(発明の効果)
以上説明したように、本発明によれば、任意の文章を極
めて自然性の高い音声に変換する音声合成器を記憶容量
を増大させず、かつ短時間の演算時間で、極めて簡単な
構成で実現でき、専用の高速ハードウェアを用いずに汎
用プロセッサにより実現できる。
めて自然性の高い音声に変換する音声合成器を記憶容量
を増大させず、かつ短時間の演算時間で、極めて簡単な
構成で実現でき、専用の高速ハードウェアを用いずに汎
用プロセッサにより実現できる。
第1図は、本発明の前提となる規則による音声合成シス
テムの構成原理を示した図、第2図は本発明によるテー
ブルの作成方法を説明した図、第3図は本発明の実施例
の構成を示す図である。 1;入力端子、 2;音韻記号変換回路、3;
音韻特定ベクトル選定回路、 4;音韻特徴ベクトルテーブル、 5;変換テーブル作成回路、6;変換テーブル、7;音
声合成パラメータ演算回路、 8;音声合成器、 9;出力端子。
テムの構成原理を示した図、第2図は本発明によるテー
ブルの作成方法を説明した図、第3図は本発明の実施例
の構成を示す図である。 1;入力端子、 2;音韻記号変換回路、3;
音韻特定ベクトル選定回路、 4;音韻特徴ベクトルテーブル、 5;変換テーブル作成回路、6;変換テーブル、7;音
声合成パラメータ演算回路、 8;音声合成器、 9;出力端子。
Claims (1)
- 【特許請求の範囲】 文字列とそれに付加されたアクセント、イントネーショ
ンをふくむ韻律記号列を入力することにより、音素持続
時間、ピッチ周波数の時間的変化パターン、ホルマント
周波数及びホルマント帯域幅の時間的変化パターン及び
音源強度の時間的変化パターンを予め定めた規則を用い
て決定し、音声波形を合成する規則による音声合成方式
において、 各音素のホルマント周波数及びホルマント帯域幅の時間
的変化パターン及び音源強度の時間的変化パターンを、
当該音素の持続時間内の2ケ所の位置とその位置での値
、その位置間の遷移方法及び前後の音素の当該位置との
間の遷移方法を用いて規定するテーブルと、当該音素の
持続時間の伸縮方法を登録しているテーブルを検索し、
それらの値を用いて予め定める時間間隔毎の値を求める
に際し、各音素毎の持続時間の伸縮方法に応じて時間間
隔毎の当該音素の持続時間内の相対位置を定めるテーブ
ルを作成し、これを用いて予め定めた時間間隔毎の値を
求めることを特徴とする音素接続形パラメータ規則合成
方式。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62119122A JPS63285598A (ja) | 1987-05-18 | 1987-05-18 | 音素接続形パラメ−タ規則合成方式 |
US07/196,169 US4896359A (en) | 1987-05-18 | 1988-05-17 | Speech synthesis system by rule using phonemes as systhesis units |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62119122A JPS63285598A (ja) | 1987-05-18 | 1987-05-18 | 音素接続形パラメ−タ規則合成方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63285598A true JPS63285598A (ja) | 1988-11-22 |
Family
ID=14753481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62119122A Pending JPS63285598A (ja) | 1987-05-18 | 1987-05-18 | 音素接続形パラメ−タ規則合成方式 |
Country Status (2)
Country | Link |
---|---|
US (1) | US4896359A (ja) |
JP (1) | JPS63285598A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04116599A (ja) * | 1990-09-07 | 1992-04-17 | Sumitomo Electric Ind Ltd | 音声規則合成装置 |
Families Citing this family (130)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5220629A (en) * | 1989-11-06 | 1993-06-15 | Canon Kabushiki Kaisha | Speech synthesis apparatus and method |
KR920008259B1 (ko) * | 1990-03-31 | 1992-09-25 | 주식회사 금성사 | 포만트의 선형전이구간 분할에 의한 한국어 합성방법 |
US5163110A (en) * | 1990-08-13 | 1992-11-10 | First Byte | Pitch control in artificial speech |
SE9200817L (sv) * | 1992-03-17 | 1993-07-26 | Televerket | Foerfarande och anordning foer talsyntes |
JP3083640B2 (ja) * | 1992-05-28 | 2000-09-04 | 株式会社東芝 | 音声合成方法および装置 |
US5325462A (en) * | 1992-08-03 | 1994-06-28 | International Business Machines Corporation | System and method for speech synthesis employing improved formant composition |
US5384893A (en) * | 1992-09-23 | 1995-01-24 | Emerson & Stern Associates, Inc. | Method and apparatus for speech synthesis based on prosodic analysis |
US5636325A (en) * | 1992-11-13 | 1997-06-03 | International Business Machines Corporation | Speech synthesis and analysis of dialects |
CA2119397C (en) * | 1993-03-19 | 2007-10-02 | Kim E.A. Silverman | Improved automated voice synthesis employing enhanced prosodic treatment of text, spelling of text and rate of annunciation |
SE516521C2 (sv) * | 1993-11-25 | 2002-01-22 | Telia Ab | Anordning och förfarande vid talsyntes |
US5704007A (en) * | 1994-03-11 | 1997-12-30 | Apple Computer, Inc. | Utilization of multiple voice sources in a speech synthesizer |
CN1103485C (zh) * | 1995-01-27 | 2003-03-19 | 联华电子股份有限公司 | 高级语言指令解码的语音合成装置 |
US5761640A (en) * | 1995-12-18 | 1998-06-02 | Nynex Science & Technology, Inc. | Name and address processor |
US5832433A (en) * | 1996-06-24 | 1998-11-03 | Nynex Science And Technology, Inc. | Speech synthesis method for operator assistance telecommunications calls comprising a plurality of text-to-speech (TTS) devices |
JPH10153998A (ja) * | 1996-09-24 | 1998-06-09 | Nippon Telegr & Teleph Corp <Ntt> | 補助情報利用型音声合成方法、この方法を実施する手順を記録した記録媒体、およびこの方法を実施する装置 |
US6064960A (en) | 1997-12-18 | 2000-05-16 | Apple Computer, Inc. | Method and apparatus for improved duration modeling of phonemes |
US7076426B1 (en) * | 1998-01-30 | 2006-07-11 | At&T Corp. | Advance TTS for facial animation |
US6725190B1 (en) * | 1999-11-02 | 2004-04-20 | International Business Machines Corporation | Method and system for speech reconstruction from speech recognition features, pitch and voicing with resampled basis functions providing reconstruction of the spectral envelope |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US7209882B1 (en) * | 2002-05-10 | 2007-04-24 | At&T Corp. | System and method for triphone-based unit selection for visual speech synthesis |
US20060136215A1 (en) * | 2004-12-21 | 2006-06-22 | Jong Jin Kim | Method of speaking rate conversion in text-to-speech system |
JP2007024960A (ja) * | 2005-07-12 | 2007-02-01 | Internatl Business Mach Corp <Ibm> | システム、プログラムおよび制御方法 |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8983832B2 (en) * | 2008-07-03 | 2015-03-17 | The Board Of Trustees Of The University Of Illinois | Systems and methods for identifying speech sound features |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
WO2011089450A2 (en) | 2010-01-25 | 2011-07-28 | Andrew Peter Nelson Jerram | Apparatuses, methods and systems for a digital conversation management platform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
EP3809407A1 (en) | 2013-02-07 | 2021-04-21 | Apple Inc. | Voice trigger for a digital assistant |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
JP2016521948A (ja) | 2013-06-13 | 2016-07-25 | アップル インコーポレイテッド | 音声コマンドによって開始される緊急電話のためのシステム及び方法 |
AU2014306221B2 (en) | 2013-08-06 | 2017-04-06 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BG24190A1 (en) * | 1976-09-08 | 1978-01-10 | Antonov | Method of synthesis of speech and device for effecting same |
US4685135A (en) * | 1981-03-05 | 1987-08-04 | Texas Instruments Incorporated | Text-to-speech synthesis system |
US4692941A (en) * | 1984-04-10 | 1987-09-08 | First Byte | Real-time text-to-speech conversion system |
-
1987
- 1987-05-18 JP JP62119122A patent/JPS63285598A/ja active Pending
-
1988
- 1988-05-17 US US07/196,169 patent/US4896359A/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04116599A (ja) * | 1990-09-07 | 1992-04-17 | Sumitomo Electric Ind Ltd | 音声規則合成装置 |
Also Published As
Publication number | Publication date |
---|---|
US4896359A (en) | 1990-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPS63285598A (ja) | 音素接続形パラメ−タ規則合成方式 | |
JP3985814B2 (ja) | 歌唱合成装置 | |
JPH031200A (ja) | 規則型音声合成装置 | |
JP2000172285A (ja) | フィルタパラメ―タとソ―ス領域において独立にクロスフェ―ドを行う半音節結合型のフォルマントベ―スのスピ―チシンセサイザ | |
JP2009047837A (ja) | 音声合成方法及びその装置 | |
JP2003255974A (ja) | 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム | |
JP4194656B2 (ja) | 波形の合成 | |
JPH08254993A (ja) | 音声合成装置 | |
JP3732793B2 (ja) | 音声合成方法、音声合成装置及び記録媒体 | |
JP3966074B2 (ja) | ピッチ変換装置、ピッチ変換方法及びプログラム | |
US20010029454A1 (en) | Speech synthesizing method and apparatus | |
JPH11259066A (ja) | 音楽音響信号分離方法、その装置およびそのプログラム記録媒体 | |
Meron et al. | Synthesis of vibrato singing | |
JPH09319391A (ja) | 音声合成方法 | |
JP3468337B2 (ja) | 補間音色合成方法 | |
JP5393546B2 (ja) | 韻律作成装置及び韻律作成方法 | |
JP3344487B2 (ja) | 音声基本周波数パターン生成装置 | |
JP4468506B2 (ja) | 音声データ作成装置および声質変換方法 | |
JP3727885B2 (ja) | 音声素片生成方法と装置及びプログラム、並びに音声合成方法と装置 | |
JPS63285597A (ja) | 音素接続形パラメ−タ規則合成方式 | |
JPS63285596A (ja) | 音声合成における発話速度変更方式 | |
JPH07261798A (ja) | 音声分析合成装置 | |
JP2001282273A (ja) | 音声情報処理装置とその方法と記憶媒体 | |
JP2586040B2 (ja) | 音声編集合成装置 | |
Rajan | Singing Voice Synthesis System for Carnatic Music |