JPH07319490A - 音声合成方法及び装置 - Google Patents
音声合成方法及び装置Info
- Publication number
- JPH07319490A JPH07319490A JP6116720A JP11672094A JPH07319490A JP H07319490 A JPH07319490 A JP H07319490A JP 6116720 A JP6116720 A JP 6116720A JP 11672094 A JP11672094 A JP 11672094A JP H07319490 A JPH07319490 A JP H07319490A
- Authority
- JP
- Japan
- Prior art keywords
- pitch
- waveform
- voice
- parameter
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001308 synthesis method Methods 0.000 title claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 73
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 73
- 239000011159 matrix material Substances 0.000 claims abstract description 48
- 238000001228 spectrum Methods 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims description 44
- 230000004044 response Effects 0.000 claims description 19
- 230000002194 synthesizing effect Effects 0.000 claims description 10
- 238000009795 derivation Methods 0.000 claims 1
- 239000011295 pitch Substances 0.000 abstract description 427
- 238000010586 diagram Methods 0.000 description 38
- 238000010606 normalization Methods 0.000 description 37
- 238000005070 sampling Methods 0.000 description 33
- 238000004364 calculation method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000013500 data storage Methods 0.000 description 16
- 230000003595 spectral effect Effects 0.000 description 10
- 238000007796 conventional method Methods 0.000 description 5
- 230000010363 phase shift Effects 0.000 description 5
- 239000011318 synthetic pitch Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000002131 composite material Substances 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
波数領域でのパラメータ操作を可能とすること。 【構成】 表音テキストとしての文字系列を入力する文
字系列入力部(1)と、この文字系列からパワスペクト
ル包絡をパラメータとして生成するパラメータ生成部
(3)と、声の高さをパラメータからピッチ波形を生成
する波形生成部(9)を備える。
Description
声合成方法および装置に関する。
の生成方法として、合成フィルタ方式(PARCOR、
LSP、MLSA)、波形編集方式、インパルス応答波
形の重ね合わせ方式を用いるものがあった。
上述した従来技術においては、合成フィルタ方式では音
声波形の生成に要する計算量が多く、波形編集方式では
合成音声の声の高さに合わせる波形編集処理が複雑であ
り、合成音声の音質が劣化する。また、インパルス応答
波形の重ね合わせ方式では波形の重なり合う部分で音質
が劣化する、というように、各方法共問題があった。
の整数倍にならないピッチ周期をもつ音声波形を生成す
る処理が難しく、そのため、正確なピッチの合成音声が
得られないという問題があった。
リング周波数を変換するときに、サンプリング速度を上
昇・下降させる処理と低域フィルタの処理を行わなけれ
ばならず、処理が複雑で計算量が多い、という問題があ
る。
ラメータ操作ができず、操作者にとって感覚的にわかり
にくいものであった。
変える為にはパラメータそのものを操作しなければなら
ず、処理が非常に複雑になるという問題があった。
声波形を上述の合成フィルタ方式、波形編集方式、イン
パルス応答波形の重ね合わせ方式で生成しなければなら
ず、計算量が多大になるという問題があった。
に鑑みてなされたものであり、合成音声の音質劣化を防
止し、音声波形の生成に要する計算量を低減する音声合
成方法および装置を提供することを目的とする。また、
正確なピッチの合成音声が得られる音声合成方法および
装置を提供することを目的とする。また、合成音声のサ
ンプリング周波数の変換に要する計算量を低減する音声
合成方法および装置を提供することを目的とする。
音声合成装置は合成音声の声の高さとパラメータからピ
ッチ波形を生成して接続することにより音声波形を生成
する生成手段を備える。
から無声波形を生成して接続することにより音声波形を
生成する生成手段を備える。
いては、ピッチ毎にあらかじめ求めた行列とパラメータ
との積を計算する。
ては、あらかじめ求めた行列とパラメータとの積を計算
する。
いては、ピッチ周期ポイント数の小数部を表すために、
位相のずれたピッチ波形を生成して接続する。
ては、あるサンプリング周波数で求めたパラメータ(イ
ンパルス応答波形)を用いて、任意のサンプリング周波
数のピッチ波形を生成して接続する。
ては、周波数特性を決定する関数を持ち、ピッチ周波数
の整数倍における関数値を掛けることにより、パラメー
タから求めたスペクトル包絡のサンプル値を変換し、変
換されたサンプル値をフーリエ変換することによりピッ
チ波形を生成する。
いては、波形の対称性を利用する。
による音声合成方法は、合成音声の声の高さとパラメー
タからピッチ波形を生成して接続することにより音声波
形を生成する生成工程を備える。
から無声波形を生成して接続することにより音声波形を
生成する生成工程を備える。
いては、ピッチ毎にあらかじめ求めた行列とパラメータ
との積を計算する。
ては、あらかじめ求めた行列とパラメータとの積を計算
する。
いては、ピッチ周期ポイント数の小数部を表すために、
位相のずれたピッチ波形を生成して接続する。
ては、あるサンプリング周波数で求めたパラメータ(イ
ンパルス応答波形)を用いて、任意のサンプリング周波
数のピッチ波形を生成して接続する。
いては、周波数特性を決定する関数を持ち、ピッチ周波
数の整数倍における関数値を掛けることにより、パラメ
ータから求めたスペクトル包絡のサンプル値を変換し、
変換されたサンプル値をフーリエ変換することによりピ
ッチ波形を生成する。
ては、波形の対称性を利用する。
すブロック図である。
ド等を入力する為のキーボード(K.B)、102は表
示器108の表示画面上の所望の位置を入力し得るポイ
ンティングデバイスであり、これによりアイコンを指示
することで所望の制御コマンド等を入力することができ
る。103は本装置により実行される、後述する実施例
中の各種処理を制御する中央処理装置(CPU)であ
り、ROM105に格納されている制御プログラムに従
って処理を実行する。104は通信インターフェイス
(I/F)であり、各種通信機関を利用したデータの送
受信を制御する。105はリードオンリーメモリ(RO
M)であり、実施例に示すフローチャートに示す処理の
制御プログラムを格納する。106はランダムアクセス
メモリ(RAM)であり、実施例中の各種処理で生じる
データを格納する手段として用いる。107はスピーカ
であり、合成音声やオペレータへのメッセージ等の音声
を出力する。108はLCDやCRT等の表示器であ
り、キーボードから入力されるテキストや処理途中のデ
ータ表示を行う。109はバスであり、各構成間のデー
タ、コマンド等の伝送を行う。
を示すブロック図である。これらの各機能は、図25の
CPU103の制御により実行される。1は文字系列入
力部であり、合成すべき音声の文字系列を入力する。例
えば合成すべき音声が「あいうえお」であるときには、
「AIUEO」というような表音テキストの文字系列を
入力する。また、この文字系列入力部1より入力する文
字系列中には、表音テキストの他に発声速度や声の高さ
などを設定するための制御シーケンスなどを意味する文
字系列が含まれることもある。文字系列入力部1は、入
力した文字系列が表音テキストであるか制御シーケンス
であるか判断する。2は制御データ格納部であり、文字
系列入力部1で制御シーケンスと判断され、送られてき
た文字系列や、ユーザインタフェースより入力される発
声速度や声の高さなどの制御データを内部レジスタに格
納する。3はパラメータ生成部であり、文字系列入力部
1で入力され、表音テキストであると判断された文字系
列に対応して、あらかじめ記憶してあるパラメータ系列
をROM105よの読み出し、生成する。4はパラメー
タ格納部であり、パラメータ生成部3で生成されたパラ
メータ系列から処理対象とするフレームのパラメータを
取り出して内部レジスタに格納する。5はフレーム時間
長設定部であり、制御データ格納部2に格納された発声
速度に関する制御データとパラメータ格納部4に格納さ
れた発声速度係数K(発声速度に応じてフレーム時間長
を決めるために使用するパラメータ)から、各フレーム
の時間長Niを計算する。6は波形ポイント数格納部で
あり、1フレームの波形ポイント数nW を計算して内部
レジスタに格納する。7は合成パラメータ補間部であ
り、パラメータ格納部4に格納されている合成パラメー
タを、フレーム時間長設定部5で設定されたフレーム時
間長Niと波形ポイント数格納部6に格納された波形ポ
イント数nW で補間する。8はピッチスケール補間部で
あり、パラメータ格納部4に格納されているピッチスケ
ールを、フレーム時間長設定部5で設定されたフレーム
時間Niと波形ポイント数格納部6に格納された波形ポ
イント数nWで補間する。9は波形生成部であり、合成
パラメータ補間部7で補間された合成パラメータとピッ
チスケール補間部8で補間されたピッチスケールからピ
ッチ波形を生成し、ピッチ波形を接続して合成音声を出
力する。
について、図2、図3、図4、図5、図6を参照して説
明する。
について説明する。図2において、フーリエ変換の次数
をN、合成パラメータの次数をMとする。ここでN、M
はN>2Mを満たすようにする。音声の対数パワスペク
トル包絡を
線形に戻し、逆フーリエ変換して求めたインパルス応答
は、
対的に2倍することにより得られる。すなわち、r≠0
として、 p(0)=rh(0) p(m)=2rh(m)(1<m<M) とする。
ント数を整数で量子化して Np (f)=[Np (f)] とする。ピッチ周期を角度2πに対応させたときの1ポ
イントごとの角度をθとすると、
の値は
して
て
生成される(図4)。
重ね合わせて
生成される(図5)。
の尺度とする。式(1)、(2)の演算を直接行う代わ
りに、以下のように計算を高速化することもできる。ピ
ッチスケールsに対応するピッチ周期ポイント数をNp
(s)とし、
(s),0<m<M) とする。さらに、ピッチスケールsに対応するピッチ周
期ポイント数Np (s)、パワ正規化係数C(s)をテ
ーブルに記憶しておく。
7より出力された合成パラメータp(m)(0<m<
M)とピッチスケール補間部8より出力されたピッチス
ケールsを入力として、ピッチ周期ポイント数Np
(s)、パワ正規化係数C(s)、波形生成行列WGM
(s)=(ckm(s))をテーブルから読み出し、
を生成するまでの動作を、図7のフローチャートを参照
して説明する。
音テキストを入力する。
タ(発声速度、声の高さ)と入力された表音テキスト中
の制御データを制御データ格納部2に格納する。
力された表音テキストからパラメータ生成部3において
パラメータ系列を生成する。
タ1フレーム分のデータ構造例を示す。
内部レジスタを0に初期化する。波形ポイント数をnW
で表すと nW =0 となる。
iを0に初期化する。
第iフレームと第i+1フレームのパラメータをパラメ
ータ格納部4の内部レジスタに取り込む。
り、発声速度をフレーム時間長設定部5に取り込む。
において、パラメータ格納部4に取り込まれたパラメー
タの発声速度係数と、制御データ格納部2より取り込ま
れた発声速度を用いて、フレーム時間長Niを設定す
る。
レーム時間長Ni未満か否かを判別することにより、第
iフレームの処理が終了していないか否かを判断し、n
W >Niの場合は第iフレームの処理が終了したと判断
してステップS14へ進み、nW <Niの場合は第iフ
レームの処理途中であると判断してステップS10へ進
み、処理が続けられる。
7において、パラメータ格納部4に取り込まれた合成パ
メータと、フレーム時間長設定部5で設定されたフレー
ム時間長と、波形ポイント数格納部6に格納された波形
ポイント数を用いて、合成パラメータの補間を行う。図
9は、合成パラメータの補間についての説明図である。
第iフレームの合成パラメータをpi [m](0<m<
M)、第i+1フレームの合成パラメータをpi+1
[m](0<m<M)、第iフレームの時間長をNi ポ
イントとする。このとき、1ポイント当たりの合成パラ
メータの差分Δp [m](0<m<M)は、
ータp[m](0<m<M)を更新する。
8において、パラメータ格納部4に取り込まれたピッチ
スケールと、フレーム時間長設定部5で設定されたフレ
ーム時間長と波形ポイント数格納部6に格納された波形
ポイント数を用いて、ピッチスケールの補間を行う。図
10はピッチスケールの補間についての説明図である。
第iフレームのピッチスケールをsi 、第i+1フレー
ムのピッチスケールをsi+1 、第iフレームのフレーム
時間長をNi ポイントとする。このとき、1ポイント当
たりのピッチスケールの差分Δs は、
ールsを更新する。
れた合成パラメータp[m](0<m<M)と式(4)
によって得られたピッチスケールsを用いて波形生成部
9においてピッチ波形を生成する。ピッチスケールsに
対応するピッチ周期ポイント数Np (s)とパワ正規化
係数C(s)と波形生成行列WGM(s)=(c
km(s))(0<k<Np (s),0<m<M)をテー
ブルから読み出し、ピッチ波形を
いての説明図である。波形生成部9から合成音声として
出力される音声波形を W(n) (0<n) とする。ピッチ波形の接続は、第jフレームのフレーム
時間をNj として W(nW +k)=w(k) (i=0,0<k<Np
(s))
6で波形ポイント数nW を nW =nW +Np (s) のように更新し、ステップS9に戻り、処理を続ける。
ップS14に進む。
了したか否かを判別し、終了していない場合はステップ
S16に進む。
ータ(発声速度、声の高さ)を制御データ格納部2に格
納し、ステップS17でパラメータ系列カウンタiを i=i+1 のように更新し、ステップS6に戻り、処理を続ける。
したと判断される場合は処理を終了する。
成および機能構成を示すブロック図は、実施例1と同じ
く図25および図1である。
数部分を表現すべく、位相のずれたピッチ波形を生成
し、接続する例について説明する。
について、図12を参照して説明する。
を p(m) (0<m<M) とする。サンプリング周波数を fS とする。サンプリング周期は
ずれたピッチ波形を接続することで表す。周波数fに対
応するピッチ波形の個数を、位相数 np (f) とする。図12はnp (f)=3としたときのピッチ波
形の例を示したものである。さらに、拡張ピッチ周期ポ
イント数を
させたときの1ポイントごとの角度をθ1 とすると、
の値は
ときの1ポイントごとの角度をθ2 とすると、
して
せて
が生成される。
重ね合わせて
を生成する。
する位相角を
て、 r(f,ip )=ip N(f)modnp (f) と定義する。位相インデックスip に対応するピッチ波
形のピッチ波形ポイント数は
ピッチ波形は
角を φp =φ(f,ip ) と計算する。さらに、次のピッチ波形を生成するときに
ピッチ周波数がf′に変更されるときは、φp に最も近
い位相角を得るために
の尺度とする。式(5)、(6)の演算を直接行う代わ
りに、以下のように計算を高速化することもできる。ピ
ッチスケールs∈S(Sはピッチスケールの集合)に対
応する位相数をnp (s)、位相インデックスをip
(0<ip <np (s))、拡張ピッチ周期ポイント数
をN(s)、ピッチ周期ポイント数をNp (s)、ピッ
チ波形ポイント数をP(s,ip )とし、
応する位相角
位相角φp (∈{φ(s,ip )|s∈S,0<i<n
p (s)})に対して
ールsと位相インデックスip に対応する位相数np
(s)、ピッチ波形ポイント数P(s,ip )、パワ正
規化係数C(s)をテーブルに記憶しておく。
れている位相インデックスをip 、位相角をφp とし、
合成パラメータ補間部7より出力された合成パラメータ
p(m)(0<m<M)とピッチスケール補間部8より
出力されたピッチスケールsを入力として、位相インデ
ックスを ip =I(s,φp ) により決定し、ピッチ波形ポイント数P(s,ip )、
パワ正規化係数C(s)、波形生成行列WGM(s,i
p )=(ckm(s,ip )をテーブルから読み出し、
後、位相インデックスを ip =(ip +1)modnp (s) のように更新し、更新された位相インデックスを用いて
位相角を φp =φ(s,ip ) のように更新する。
参照して説明する。
り表音テキストを入力する。
データ(発声速度、声の高さ)と入力された表音テキス
ト中の制御データを制御データ格納部2に格納する。
り入力された表音テキストからパラメータ生成部3にお
いてパラメータ系列を生成する。
1フレームのデータ構造は実施例1と同じであり、図8
に示されている。
部6の内部レジスタを0に初期化する。波形ポイント数
をnw で表すと nw =0 となる。
ンタiを0に初期化する。
p を0に、位相角φp を0に初期化する。
から第iフレームと第i+1フレームのパラメータをパ
ラメータ格納部4に取り込む。
より、発声速度をフレーム時間長設定部5に取り込む。
部5において、パラメータ格納部4に取り込まれたパラ
メータの発声速度係数と、制御データ格納部2より取り
込まれた発声速度を用いて、フレーム時間長Ni を設定
する。
がフレーム時間長Ni 未満か否かを判別し、nw >Ni
の場合はステップS217へ進み、nw <Ni の場合は
ステップS211へ進み、処理を続ける。
部7において、パラメータ格納部4に取り込まれた合成
パラメータと、フレーム時間長設定部5で設定されたフ
レーム時間長と、波形ポイント数格納部6に格納された
波形ポイント数を用いて、合成パラメータの補間を行
う。パラメータの補間は実施例1のステップS10と同
じである。
部8において、パラメータ格納部4に取り込まれたピッ
チスケールと、フレーム時間長設定部5で設定されたフ
レーム時間長と波形ポイント数格納部6に格納された波
形ポイント数を用いて、ピッチスケールの補間を行う。
ピッチスケールの補間は実施例1のステップS11と同
じである。
られたピッチスケールsと位相角φp から ip =I(s,φp ) によって位相インデックスを決定する。
られた合成パラメータp[m](0<m<M)と式
(4)によって得られたピッチスケールsを用いて波形
生成部9においてピッチ波形を生成する。ピッチスケー
ルsに対応するピッチ波形ポイント数P(s,ip )と
パワ正規化係数C(s)と波形生成行列WGM(s,i
p)=(ckm(s,ip ))(0<k<P(s,i
p ),0<m<M)をテーブルから読み出し、ピッチ波
形を
る音声波形を W(n)(0<n) とする。ピッチ波形の接続は実施例1と同様であり、第
jフレームのフレーム時間長をNj として W(nW +k)=wp (k) (i=0,0<k<P
(s,ip ))
いて、位相角を φp =φ(s,ip ) のように更新する。
部6で波形ポイント数nw を nw =nw +P(s,ip ) のように更新し、ステップS210に戻り、処理を続け
る。
ステップS217へ進む。
を nw =nw −Ni のように初期化する。
終了したか否かを判別し、終了していない場合はステッ
プS219に進む。
データ(発声速度、声の高さ)を制御データ格納部2に
格納し、ステップS220でパラメータ系列カウンタi
を i=i+1 のように更新し、ステップS207に戻り、処理を続け
る。
了したと判断される場合は処理を終了する。
けるピッチ波形生成の方法に加え、無声波形の生成につ
いて説明する。
構成を示すブロック図である。これらの各機能は、図2
5のCPU103の制御により実行される。301は文
字系列入力部であり、合成すべき音声の文字系列を入力
する。例えば合成すべき音声が「音声」であるときに
は、「OnSEI」というような表音テキストの文字系
列を入力する。また、この文字系列入力部301より入
力する文字系列中には、表音テキストの他に発声速度や
声の高さなどを設定するための制御シーケンスを意味す
る文字系列などが含まれることもある。文字系列入力部
301は、入力した文字系列が表音テキストであるか制
御シーケンスであるか判断する。302は制御データ格
納部であり、文字系列入力部301で制御シーケンスと
判断され、送られてきた文字系列や、ユーザインタフェ
ースより入力される発声速度や声の高さなどの制御デー
タを内部レジスタに格納する。303はパラメータ生成
部であり、文字系列入力部301で入力された、表音テ
キストであると判断された文字系列に対応して予め記憶
してあるパラメータ系列をROM105より読み出し、
生成する。304はパラメータ格納部であり、パラメー
タ生成部303で生成されたパラメータ系列から処理対
象とするフレームのパラメータを取り出して内部レジス
タに格納する。305はフレーム時間長設定部であり、
制御データ格納部302に格納された発声速度に関する
制御データとパラメータ格納部304に格納された発声
速度係数K(発声速度に応じてフレーム時間長を決める
ために使用するパラメータ)から、各フレームの時間長
Ni を計算する。306は波形ポイント数格納部であ
り、1フレームの波形ポイント数nw を計算して内部レ
ジスタに格納する。307は合成パラメータ補間部であ
り、パラメータ格納部304に格納されている合成パラ
メータを、フレーム時間長設定部305で設定されたフ
レーム時間長Ni と波形ポイント数格納部306に格納
された波形ポイント数nw で補間する。308はピッチ
スケール補間部であり、パラメータ格納部304に格納
されているピッチスケールを、フレーム時間長設定部3
05で設定されたフレーム時間長Ni と波形ポイント数
格納部306に格納された波形ポイント数nw で補間す
る。309は波形生成部であり、合成パラメータ補間部
307で補間された合成パラメータとピッチスケール補
間部308で補間されたピッチスケールからピッチ波形
を生成し、ピッチ波形を接続して合成音声を出力する。
また、波形生成部309は、合成パラメータ補間部30
7より出力された合成パラメータから無声波形を生成
し、無声波形を接続して合成音声を出力する。
生成は実施例1における波形生成部9と同じである。
るピッチ波形の生成の他に更なる無声波形の生成につい
て説明する。
数を f とする。fは、可聴周波数帯域よりも低い周波数に設定
される。
ント数は
きの1ポイントごとの角度をθとすると、
絡の値は
して
るパワ正規化係数を Cuv=C(f) とする。
をランダムにずらして重ね合わせることにより無声波形
を生成する。位相のずれをαl (1<l<[Nuv/
2])とする。αl は −π<αl <π を満たすランダムな値に設定される。
れる。
のように計算を高速化することもできる。無声波形イン
デックスを iuv(0<iuv<Nuv) として、
を UVWGM(iuv)=(c(iuv,m))(0<iuv<
Nuv,0<m<M) とする。さらに、ピッチ周期ポイント数Nuv、パワ正規
化係数Cuvをテーブルに記憶しておく。
納されている無声波形インデックスをiuv、合成パラメ
ータ補間部7より出力された合成パラメータp(m)
(0<m<M)を入力として、パワ正規化係数Cuv、無
声波形生成行列UVWGM(iuv)=(c(iuv,
m))がテーブルから読み出され、
成された後、ピッチ周期ポイント数Nuvがテーブルから
読み出され、無声波形インデックスiuvを iuv=(iuv+1)modNuv のように更新し、波形ポイント数格納部306に格納さ
れている波形ポイント数nw を nw =nw +1 のように更新する。
参照して説明する。
1より表音テキストを入力する。
データ(発声速度、声の高さ)と入力された表音テキス
ト中の制御データを制御データ格納部302に格納す
る。
1より入力された表音テキストからパラメータ生成部3
03においてパラメータ系列を生成する。
パラメータ1フレームのデータ構造を示す。
部306の内部レジスタを0に初期化する。波形ポイン
ト数をnw で表すと nw =0 となる。
ンタiを0に初期化する。
スiuvを0に初期化する。
03から第iフレームと第i+1フレームのパラメータ
をパラメータ格納部304に取り込む。
02より、発生速度をフレーム時間長設定部305に取
り込む。
部305において、パラメータ格納部304に取り込ま
れた発声速度係数と、制御データ格納部302より取り
込まれた発声速度を用いて、フレーム時間長Ni を設定
する。
04に取り込まれた有声・無声情報を用いて第iフレー
ムのパラメータが無声であるか否かを判断し、無声の場
合はステップS311に進み、有声の場合はステップS
317に進む。
がフレーム時間長Ni 未満か否かを判別し、nw >Ni
の場合はステップS315へ進み、nw <Ni の場合は
ステップS312へ進み、処理を続ける。
部307より入力された第iフレームの合成パラメータ
pi [m](0<m<M)を用いて波形生成部309に
おいて無声波形を生成する。パワ正規化係数Cuvをテー
ブルから読み出し、さらに、無声波形インデックスiuv
に対応する無声波形生成行列UVWGM(iuv)=(c
(iuv,m))(0<m<M)をテーブルから読み出し
を、無声波形が
される音声波形を W(n)(0<n) とする。無声波形の接続は、第jフレームのフレーム時
間長をNj として W(nw +1)=wuv(iuv)(i=0)
Nuvをテーブルから読み出し、無声波形インデックスを iuv=(iuv+1)modNuv のように更新する。
部306で波形ポイント数nw を nw =nw +1 のように更新し、ステップS311に戻り、処理を続け
る。
の場合、ステップS317に進み、第iフレームのピッ
チ波形を生成・接続する。ここで行われる処理は実施例
1のステップS9、S10、S11、S12、S13で
行われる処理に同じである。
テップS315へ進み、波形ポイント数nw を nw =nw −Ni のように初期化する。
終了したか否かを判別し、終了していない場合はステッ
プS318に進む。
データ(発声速度、声の高さ)を制御データ格納部30
2に格納し、ステップS319でパラメータ系列カウン
タiを i=i+1 のように更新し、ステップS307に戻り、処理を続け
る。
了したと判断される場合は処理を終了する。
時で異なるサンプリング周波数で処理を可能とする例に
ついて説明する。
成を示すブロック図は、実施例1と同じく図25及び図
1である。
について説明する。
を p(m)(0<m<M) とする。合成パラメータであるインパルス応答波形のサ
ンプリング周波数を分析サンプリング周波数 fs1 とする。分析サンプリング周期は
周期ポイント数を整数で量子化して Np1(f)=[Np1(f)] とする。
プリング周波数 fs2 とする。合成ピッチ周期ポイント数は
応させたときの1ポイントごとの角度をθ1 とすると、
の値は
ときの1ポイントごとの角度をθ2 とすると、
して
せて
生成する。
重ね合わせて
生成する。
の尺度とする。式(8)、(9)の演算を直接行う代わ
りに、以下のように計算を高速化することもできる。ピ
ッチスケールs∈S(Sはピッチスケールの集合)に対
応する分析ピッチ周期ポイント数をNP1(s)、合成ピ
ッチ周期ポイント数をNP2(s)とし、
0<m<M) とする。さらに、ピッチスケールsに対応する合成ピッ
チ周期ポイント数NP2(s)、パワ正規化係数C(s)
をテーブルに記憶しておく。
7より出力された合成パラメータp(m)(0<m<
M)とピッチスケール補間部8より出力されたピッチス
ケールsを入力として、合成ピッチ周期ポイント数NP2
(s)、パワ正規化係数C(s)、波形生成行列WGM
(s)=(ckm(s))をテーブルから読み出し、
照して説明する。
S6、S7、S8、S9、S10、S11は実施例1と
同じである。
いて、本実施例における処理を説明する。式(3)によ
って得られた合成パラメータp[m](0<m<M)と
式(4)によって得られたピッチスケールsを用いて波
形生成部9においてピッチ波形が生成される。ピッチス
ケールsに対応する合成ピッチ周期ポイント数N
p2(s)とパワ正規化係数C(s)と波形生成行列WG
M(s)=(ckm(s))(0<k<Np2,0<m<
M)がテーブルから読み出され、ピッチ波形を
る音声波形を W(n)(0<n) とする。ピッチ波形の接続は、第jフレームのフレーム
時間長をNj として W(nw +k)=w(k)(i=0,0<k<N
p2(s))
6で波形ポイント数nw を nw =nw +Np2(s) のように更新する。
は実施例1と同じである。
ル包絡からピッチ波形を生成することにより、パワスペ
クトル包絡を利用した周波数領域でのパラメータ操作を
可能とする例について説明する。
成を示すブロック図は、実施例1と同じく図25及び図
1である。
について説明する。
メータについて説明する。図17において、フーリエ変
換の次数をN、ピッチ波形の生成に用いるインパルス応
答波形の次数をMとする。ここでN、MはN>2Mを満
たすようにする。音声の対数パワスペクトル包絡を
線形に戻し、逆フーリエ変換して求めたインパルス応答
は、
波形 h′(m)(0<m<M) は、インパルス応答の0次の値と1次以降の値の比を相
対的に2倍することにより得られる。すなわち、r≠0
として、 h′(0)=rh(0) h′(m)=2rh(m)(1<m<M) とする。
ント数を整数で量子化して Np (f)=[Np (f)] とする。ピッチ周期を角度2πに対応させたときの1ポ
イントごとの角度をθとすると、
の値は
して
て
生成する。
重ね合わせて
生成する。
の尺度とする。式(10)、(11)の演算を直接行う
代わりに、以下のように計算を高速化することもでき
る。ピッチスケールsに対応するピッチ周期ポイント数
をNp (s)とし、
期ポイント数Np (s)、パワ正規化係数C(s)をテ
ーブルに記憶しておく。
7より出力された合成パラメータp(n)(0<n<
N)とピッチスケール補間部8より出力されたピッチス
ケールsを入力として、ピッチ周期ポイント数Np
(s)、パワ正規化係数C(s)、波形生成行列WGM
(s)=(ckn(s))をテーブルから読み出し、
照して説明する。
じである。
メータ1フレームのデータ構造を示す。
S9は実施例1と同じである。
7において、パラメータ格納部4に取り込まれた合成パ
ラメータと、フレーム時間長設定部5で設定されたフレ
ーム時間長と、波形ポイント数格納部6に格納された波
形ポイント数を用いて、合成パラメータの補間が行われ
る。図20は、合成パラメータの補間についての説明図
である。第iフレームの合成パラメータをpi [n]
(0<n<N)、第i+1フレームの合成パラメータを
pi+1 [n](0<n<N)、第iフレームの時間長を
Ni ポイントとする。このとき、1ポイント当たりの合
成パラメータの差分Δp [n](0<n<N)は、
ータp[n](0<n<N)を更新する。
る。
られた合成パラメータp[n](0<n<N)と式
(4)によって得られたピッチスケールsを用いて波形
生成部9においてピッチ波形を生成する。ピッチスケー
ルsに対応するピッチ周期ポイント数Np (s)とパワ
正規化係数C(s)と波形生成行列WGM(s)=(c
kn(s))(0<k<Np (s),0<n<N)をテー
ブルから読み出し、ピッチ波形を
ついての説明図である。波形生成部9から合成音声とし
て出力される音声波形を W(n)(0<n) とする。ピッチ波形の接続は、第jフレームのフレーム
時間長をNj として W(nw +k)=w(k)(i=0,0<k<Np
(s))
6、S17は実施例1と同じである。
決定する関数を用いてスペクトル包絡を変換する例につ
いて説明する。
成を示すブロック図は、実施例1と同じく図25及び図
1である。
について説明する。
を p(m)(0<m<M) とする。サンプリング周波数を fs とする。サンプリング周期は
ント数を整数で量子化して Np (f)=[Np (f)] とする。ピッチ周期を角度2πに対応させたときの1ポ
イントごとの角度をθとすると、
の値は
を r(x)(0<x<fs /2) とする。図21は、f1 以上の周波数の高調波の振幅を
2倍にする例である。r(x)を変えることによって、
スペクトル包絡を操作することができる。この関数を用
いて、ピッチ周波数の整数倍におけるスペクトル包絡の
値を
して
て
生成する。
重ね合わせて
生成する。
の尺度とする。式(13)、(14)の演算を直接行う
代わりに、以下のように計算を高速化することもでき
る。ピッチスケールsに対応するピッチ周波数をf、ピ
ッチ周期ポイント数をNp (s)とし、
0<m<M) とする。さらに、ピッチスケールsに対応するピッチ周
期ポイント数Np (s)、パワ正規化係数C(s)をテ
ーブルに記憶しておく。
7より出力された合成パラメータp(m)(0<m<
M)とピッチスケール補間部8より出力されたピッチス
ケールsを入力として、ピッチ周期ポイント数Np
(s)、パワ正規化係数C(s)、波形生成行列WGM
(s)=(ckm(s))をテーブルから読み出し、
る。
S6、S7、S8、S9、S10、S11は実施例1と
同じである。
れた合成パラメータp[m](0<m<M)と式(4)
によって得られたピッチスケールsを用いて波形生成部
9においてピッチ波形を生成する。ピッチスケールsに
対応するピッチ周期ポイント数Np (s)とパワ正規化
係数C(s)と波形生成行列WGM(s)=(c
km(s))(0<k<Np (s),0<m<M)をテー
ブルから読み出し、ピッチ波形を
ついての説明図である。波形生成部9から合成音声とし
て出力される音声波形を W(n)(0<n) とする。ピッチ波形の接続は、第jフレームのフレーム
時間長をNj として W(nw +k)=w(k)(i=0,0<k<Np
(s))
6、S17は実施例1と同じである。
ける正弦関数に変えて余弦関数を用いる例について説明
する。
成を示すブロック図は、実施例1と同じく図25及び図
1である。
について説明する。
を p(m)(0<m<M) とする。
ント数を整数で量子化して Np (f)=[Np (f)] とする。ピッチ周期を角度2πに対応させたときの1ポ
イントごとの角度をθとすると、
の値は
して
て
とすると、次のピッチ波形の0次の値は
生成する(図22)。
重ね合わせて
生成する(図23)。
の尺度とする。式(15)、(16)の演算を直接行う
代わりに、以下のように計算を高速化することもでき
る。ピッチスケールsに対応するピッチ周期ポイント数
をNp (s)とし
0<m<M) とする。さらに、ピッチスケールsに対応するピッチ周
期ポイント数Np (s)、パワ正規化係数C(s)をテ
ーブルに記憶しておく。
7より出力された合成パラメータp(m)(0<m<
M)とピッチスケール補間部8より出力されたピッチス
ケールsを入力として、ピッチ周期ポイント数Np
(s)、パワ正規化係数C(s)、波形生成行列WGM
(s)=(ckm(s))をテーブルから読み出し、
って波形生成行列を計算した場合、次のピッチ波形のピ
ッチスケールをs′として
照して説明する。
S6、S7、S8、S9、S10、S11は実施例1と
同じである。
れた合成パラメータp[m](0<m<M)と式(4)
によって得られたピッチスケールsを用いて波形生成部
9においてピッチ波形を生成する。ピッチスケールsに
対応するピッチ周期ポイント数Np (s)とパワ正規化
係数C(s)と波形生成行列WGM(s)=c
km(s))(0<k<Np (s),0<m<M)をテー
ブルから読み出し、ピッチ波形を
成行列を計算した場合、ピッチスケール補間部8から1
ポイント当たりのピッチスケールの差分Δs を読み出し
て、次のピッチ波形のピッチスケールを s′=s+Np (s)Δs のように計算する。このs′を用いて
ついての説明図である。波形生成部9から合成音声とし
て出力される音声波形を W(n)(0<n) とする。ピッチ波形の接続は、第jフレームのフレーム
時間長をNj として W(nw +k)=w(k)(i=0,0<k<Np
(s))
6、S17は実施例1と同じである。
対象性を利用して、半周期のピッチ波形を1周期分に用
いる例について説明する。
成を示すブロック図は、実施例1と同じく図25及び図
1である。
について説明する。
を p(m)(0<m<M) とする。
ント数を整数で量子化して Np (f)=[Np (f)] とする。ピッチ周期を角度2πに対応させたときの1ポ
イントごとの角度をθとすると、
絡の値は
して
て
(f)/2])が生成される。
重ね合わせて
(f)/2])が生成される。
の尺度とする。式(18)、(19)の演算を直接行う
代わりに、以下のように計算を高速化することもでき
る。ピッチスケールsに対応するピッチ周期ポイント数
をNp (s)とし、
期ポイント数Np (s)、パワ正規化係数C(s)をテ
ーブルに記憶しておく。
7より出力された合成パラメータp(m)(0<m<
M)とピッチスケール補間部8より出力されたピッチス
ケールsを入力として、ピッチ周期ポイント数Np
(s)、パワ正規化係数C(s)、波形生成行列WGM
(s)=(ckm(s))をテーブルから読み出し、
照して説明する。
S6、S7、S8、S9、S10、S11は実施例1と
同じである。
れた合成パラメータp[m](0<m<M)と式(4)
によって得られたピッチスケールsを用いて波形生成部
9において半周期ピッチ波形を生成する。ピッチスケー
ルsに対応するピッチ周期ポイント数Np (s)とパワ
正規化係数C(s)と波形生成行列WGM(s)=(c
km(s))(0<k<[Np (s)/2],0<m<
M)をテーブルから読み出し、半周期ピッチ波形を
て説明する。波形生成部9から合成音声として出力され
る音声波形を W(n)(0<n) とする。半周期ピッチ波形の接続は、第jフレームのフ
レーム時間長をNj として
6、S17は実施例1と同じである。
ント数に小数点部分があるピッチ波形における波形の連
続性を利用して繰り返し用いる例について説明する。
成を示すブロック図は、実施例1と同じく図25及び図
1である。
について、図24を参照して説明する。
を p(m)(0<m<M) とする。サンプリング周波数を fs とする。サンプリング周期は
ずれたピッチ波形を接続することで表す。周波数fに対
応するピッチ波形の個数を、位相数 np (f) とする。図24はnp (f)=3のときのピッチ波形の
例を示したものである。さらに、拡張ピッチ周期ポイン
ト数を
させたときの1ポイントごとの角度をθ1 とすると、
の値は
ときの1ポイントごとの角度をθ2 とすると、
して、拡張ピッチ波形ポイント数を
して
せて、
ex(f))を生成する。
重ね合わせて
ex(f))を生成する。
する位相角を
形のピッチ波形ポイント数は
ピッチ波形は
角を φp =φ(f,ip ) と計算する。さらに、次のピッチ波形を生成するときに
ピッチ周波数がf′に変更されるときは、φp に最も近
い位相角を得るために
の尺度とする。式(20)、(21)の演算を直接行う
代わりに、以下のように計算を高速化することもでき
る。ピッチスケールs∈S(Sはピッチスケールの集
合)に対応する位相数をnp (s)、位相インデックス
をip (0<ip <np (s))、拡張ピッチ周期ポイ
ント数をN(s)、ピッチ周期ポイント数をNp
(s)、ピッチ波形ポイント数をP(s,ip )とし、
応する位相角
位相角φp (∈{φ(s,ip )|s∈S,0<i<n
p (s)})に対して
ールsと位相インデックスip に対応する位相数np
(s)、ピッチ波形ポイント数P(s,ip )、パワ正
規化係数C(s)をテーブルに記憶しておく。
れている位相インデックスをip 、位相角をφp とし、
合成パラメータ補間部7より出力された合成パラメータ
p(m)(0<m<M)とピッチスケール補間部8より
出力されたピッチスケールsを入力として、位相インデ
ックスを ip =I(s,φp ) により決定し、ピッチ波形ポイント数P(s,ip )、
パワ正規化係数C(s)をテーブルから読み出す。そし
て、
km(s,ip ))をテーブルから読み出し、
k<P(s,ip )) として、波形生成行列WGM(s,ip )=(ck ′m
(s,np (s)−1−ip ))をテーブルから読み出
し、
後、位相インデックスを ip =(ip +1)mod np (s) のように更新し、更新された位相インデックスを用いて
位相角を φp =φ(s,ip ) のように更新する。
参照して説明する。
S204、S205、S206、S207、S208、
S209、S210、S211、S212、S213は
実施例2と同じである。
られた合成パラメータp[m](0<m<M)と式
(4)によって得られたピッチスケールsを用いて波形
生成部9においてピッチ波形を生成する。ピッチスケー
ルsに対応するピッチ波形ポイント数P(s,ip )と
パワ正規化係数C(s)をテーブルから読み出す。そし
て、
km(s,ip ))をテーブルから読み出し、
k<P(s,ip )) として、波形生成行列WGM(s,ip )=(Ck ′m
(s,np (s)−1−ip ))をテーブルから読み出
し、
る音声波形を W(n)(0<n) とする。ピッチ波形の接続は実施例1と同様であり、第
jフレームのフレーム時間長をNj として W(nw +k)=wp (k)(i=0,0<k<P
(s,ip ))
S218、S219、S220は実施例2と同じであ
る。
合成音声の声の高さ(ピッチ)とパラメータからピッチ
波形および無声波形を生成して接続することにより音声
波形を生成するようにしたことにより、合成音声の音質
劣化を防止する効果がある。
ッチ波形および無声波形の生成において、あらかじめ求
めた行列とパラメータとの積を計算するようにしたこと
により、音声波形の生成に要する計算量を低減する効果
がある。
ッチ波形の生成において、ピッチ周期ポイント数の小数
部を表すために、位相のずれたピッチ波形を生成して接
続するようにしたことにより、正確なピッチの合成音声
が得られる効果がある。
ッチ波形生成において、あるサンプリング周波数で求め
たパラメータ(インパルス応答波形)を用いて、任意の
サンプリング周波数でピッチ波形を生成して接続するよ
うにしたことにより、任意のサンプリング周波数の合成
音声が簡単な方法で生成することができる効果がある。
ラメータとして、音声のパワスペクトル包絡を使用し、
このパワスペクトル包絡からピッチ波形を生成するよう
にしたことにより、周波数領域のパラメータから音声波
形を生成でき、周波数領域でのパラメータ操作が可能と
なる効果がある。
ッチ波形の生成において、周波数特性を決定する関数を
持ち、ピッチ周波数の整数倍における関数値を掛けるこ
とにより、パラメータから求めたスペクトル包絡のサン
プル値を変換し、変換されたサンプル値をフーリエ変換
することによりピッチ波形を生成するようにしたことに
より、パラメータを操作せずに合成音声の音色を変える
ことが可能となる効果がある。
ッチ波形の生成において、波形の対称性を利用するよう
にしたことにより、音声波形の生成に要する計算量を低
減する効果がある。
を示すブロック図。
の説明図。
の説明図。
図。
図。
ロック図。
Claims (12)
- 【請求項1】 入力された文字系列に従い音声波形のパ
ラメータとしてパワスペクトル包絡を生成するパラメー
タ生成手段と、 入力された合成音声の声の高さ情報と前記生成されたパ
ラメータとしてのパワスペクトル包絡から合成音声のピ
ッチ周期を1周期とするピッチ波形を生成するピッチ波
形生成手段と、 前記生成されたピッチ波形を接続して得た音声波形を出
力する音声波形出力手段とを備えることを特徴とする音
声合成装置。 - 【請求項2】 前記ピッチ波形生成手段は、パワスペク
トル包絡をピッチ波形に変換する行列を導出する行列導
出手段を備え、前記導出された行列と前記パワスペクト
ル包絡との積を求めることによりピッチ波形を生成する
事を特徴とする請求項1に記載の音声合成装置。 - 【請求項3】 入力された文字系列に従い音声波形のパ
ラメータとしてのパワスペクトル包絡を生成するパラメ
ータ手段と、 入力された合成音声の声の高さ情報と前記生成されたパ
ラメータとしてのパワスペクトル包絡のサンプル値を余
弦級数の係数とし、余弦級数との積和とから、ピッチ波
形を生成するピッチ波形生成手段と、 前記生成されたピッチ波形を接続して得た音声波形を出
力する音声波形出力手段とを備えることを特徴とする音
声合成装置。 - 【請求項4】 前記ピッチ波形生成手段は、合成音声の
ピッチ周期を1周期とするピッチ波形を生成する事を特
徴とする請求項3に記載の音声合成装置。 - 【請求項5】 前記余弦級数において、位相を半周期ず
つずらした余弦級数を使うことを特徴とする請求項3に
記載の音声合成装置。 - 【請求項6】 前記ピッチ波形生成手段は、前記音声の
対数パワスペクトル包絡から求めたインパルス応答波形
から、前記インパルス応答波形を係数とする余弦関数と
前記スペクトル包絡のサンプル値を係数とする余弦関数
との積和を、行列としてピッチ毎に導出する行列導出手
段を更に備え、前記導出された行列と前記インパルス応
答波形との積を求めることを特徴とする請求項3に記載
の音声合成装置。 - 【請求項7】 入力された文字系列に従い音声波形のパ
ラメータとしてのパワスペクトル包絡を生成するパラメ
ータ生成工程と、 入力された合成音声の声の高さ情報と前記生成されたパ
ラメータとしてのパワスペクトル包絡からピッチ周期を
1周期とするピッチ波形を生成するピッチ波形生成工程
と、 前記生成されたピッチ波形を接続して得た音声波形を出
力する音声波形出力工程とを備えることを特徴とする音
声合成方法。 - 【請求項8】 パワスペクトル包絡をピッチ波形に変換
する行列を導出する行列導出工程と、 前記導出された行列と前記パワスペクトル包絡との積を
求めることによりピッチ波形を生成することを特徴とす
る請求項7に記載の音声合成方法。 - 【請求項9】 入力された文字系列に従い音声波形のパ
ラメータとしてのパワスペクトル包絡を生成するパラメ
ータ生成工程と、 入力された合成音声の声の高さ情報と前記生成されたパ
ラメータとしてのパワスペクトル包絡のサンプル値を余
弦級数の係数とし、余弦級数との積和とから、ピッチ波
形を生成するピッチ波形生成工程と、 前記生成されたピッチ波形を接続して得た音声波形を出
力する音声波形出力工程とを備えることを特徴とする音
声合成方法。 - 【請求項10】 前記ピッチ波形生成工程は、合成音声
のピッチ周期を1周期とするピッチ波形を生成すること
を特徴とする請求項9に記載の音声合成方法。 - 【請求項11】 前記余弦級数において、位相を半周期
ずつずらした余弦級数を使うことを特徴とする請求項9
に記載の音声合成方法。 - 【請求項12】 前記ピッチ波形生成工程は、前記音声
の対数パワスペクトル包絡から求めたインパルス応答波
形から、 前記インパルス応答波形を係数とする余弦関数と前記ス
ペクトル包絡のサンプル値を係数とする余弦関数との積
和を、行列としてピッチ毎に導出する行列導出工程を更
に備え、その行列と前記インパルス応答波形との積を求
めることによりピッチ波形を生成することを特徴とする
請求項9に記載の音声合成方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11672094A JP3548230B2 (ja) | 1994-05-30 | 1994-05-30 | 音声合成方法及び装置 |
US08/448,982 US5745650A (en) | 1994-05-30 | 1995-05-24 | Speech synthesis apparatus and method for synthesizing speech from a character series comprising a text and pitch information |
DE69523998T DE69523998T2 (de) | 1994-05-30 | 1995-05-25 | Verfahren und Vorrichtung zur Sprachsynthese |
EP95303570A EP0694905B1 (en) | 1994-05-30 | 1995-05-25 | Speech synthesis method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11672094A JP3548230B2 (ja) | 1994-05-30 | 1994-05-30 | 音声合成方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07319490A true JPH07319490A (ja) | 1995-12-08 |
JP3548230B2 JP3548230B2 (ja) | 2004-07-28 |
Family
ID=14694147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11672094A Expired - Fee Related JP3548230B2 (ja) | 1994-05-30 | 1994-05-30 | 音声合成方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US5745650A (ja) |
EP (1) | EP0694905B1 (ja) |
JP (1) | JP3548230B2 (ja) |
DE (1) | DE69523998T2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2011118207A1 (ja) * | 2010-03-25 | 2013-07-04 | 日本電気株式会社 | 音声合成装置、音声合成方法および音声合成プログラム |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6081781A (en) * | 1996-09-11 | 2000-06-27 | Nippon Telegragh And Telephone Corporation | Method and apparatus for speech synthesis and program recorded medium |
JP3349905B2 (ja) * | 1996-12-10 | 2002-11-25 | 松下電器産業株式会社 | 音声合成方法および装置 |
JPH10187195A (ja) * | 1996-12-26 | 1998-07-14 | Canon Inc | 音声合成方法および装置 |
JP3910702B2 (ja) * | 1997-01-20 | 2007-04-25 | ローランド株式会社 | 波形発生装置 |
JP4170458B2 (ja) | 1998-08-27 | 2008-10-22 | ローランド株式会社 | 波形信号の時間軸圧縮伸長装置 |
US6323797B1 (en) | 1998-10-06 | 2001-11-27 | Roland Corporation | Waveform reproduction apparatus |
JP2001075565A (ja) | 1999-09-07 | 2001-03-23 | Roland Corp | 電子楽器 |
JP2001084000A (ja) | 1999-09-08 | 2001-03-30 | Roland Corp | 波形再生装置 |
JP4293712B2 (ja) | 1999-10-18 | 2009-07-08 | ローランド株式会社 | オーディオ波形再生装置 |
JP2001125568A (ja) | 1999-10-28 | 2001-05-11 | Roland Corp | 電子楽器 |
US7010491B1 (en) | 1999-12-09 | 2006-03-07 | Roland Corporation | Method and system for waveform compression and expansion with time axis |
JP2001282279A (ja) | 2000-03-31 | 2001-10-12 | Canon Inc | 音声情報処理方法及び装置及び記憶媒体 |
JP4632384B2 (ja) * | 2000-03-31 | 2011-02-16 | キヤノン株式会社 | 音声情報処理装置及びその方法と記憶媒体 |
JP4054507B2 (ja) * | 2000-03-31 | 2008-02-27 | キヤノン株式会社 | 音声情報処理方法および装置および記憶媒体 |
GB0013241D0 (en) * | 2000-05-30 | 2000-07-19 | 20 20 Speech Limited | Voice synthesis |
JP2002132287A (ja) * | 2000-10-20 | 2002-05-09 | Canon Inc | 音声収録方法および音声収録装置および記憶媒体 |
CN1240048C (zh) * | 2001-04-18 | 2006-02-01 | 皇家菲利浦电子有限公司 | 音频编码 |
US6681208B2 (en) | 2001-09-25 | 2004-01-20 | Motorola, Inc. | Text-to-speech native coding in a communication system |
JP2003295882A (ja) * | 2002-04-02 | 2003-10-15 | Canon Inc | 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム |
US7546241B2 (en) * | 2002-06-05 | 2009-06-09 | Canon Kabushiki Kaisha | Speech synthesis method and apparatus, and dictionary generation method and apparatus |
JP4585759B2 (ja) * | 2003-12-02 | 2010-11-24 | キヤノン株式会社 | 音声合成装置、音声合成方法、プログラム、及び記録媒体 |
JP4587160B2 (ja) * | 2004-03-26 | 2010-11-24 | キヤノン株式会社 | 信号処理装置および方法 |
US10607386B2 (en) | 2016-06-12 | 2020-03-31 | Apple Inc. | Customized avatars and associated framework |
US10861210B2 (en) * | 2017-05-16 | 2020-12-08 | Apple Inc. | Techniques for providing audio and video effects |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4384169A (en) * | 1977-01-21 | 1983-05-17 | Forrest S. Mozer | Method and apparatus for speech synthesizing |
JPS6050600A (ja) * | 1983-08-31 | 1985-03-20 | 株式会社東芝 | 規則合成方式 |
JPH0754440B2 (ja) * | 1986-06-09 | 1995-06-07 | 日本電気株式会社 | 音声分析合成装置 |
US5048088A (en) * | 1988-03-28 | 1991-09-10 | Nec Corporation | Linear predictive speech analysis-synthesis apparatus |
JP2763322B2 (ja) * | 1989-03-13 | 1998-06-11 | キヤノン株式会社 | 音声処理方法 |
JPH02239292A (ja) * | 1989-03-13 | 1990-09-21 | Canon Inc | 音声合成装置 |
DE69028072T2 (de) * | 1989-11-06 | 1997-01-09 | Canon Kk | Verfahren und Einrichtung zur Sprachsynthese |
JP3559588B2 (ja) * | 1994-05-30 | 2004-09-02 | キヤノン株式会社 | 音声合成方法及び装置 |
-
1994
- 1994-05-30 JP JP11672094A patent/JP3548230B2/ja not_active Expired - Fee Related
-
1995
- 1995-05-24 US US08/448,982 patent/US5745650A/en not_active Expired - Lifetime
- 1995-05-25 EP EP95303570A patent/EP0694905B1/en not_active Expired - Lifetime
- 1995-05-25 DE DE69523998T patent/DE69523998T2/de not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2011118207A1 (ja) * | 2010-03-25 | 2013-07-04 | 日本電気株式会社 | 音声合成装置、音声合成方法および音声合成プログラム |
Also Published As
Publication number | Publication date |
---|---|
EP0694905B1 (en) | 2001-11-21 |
EP0694905A3 (en) | 1997-07-16 |
DE69523998T2 (de) | 2002-04-11 |
EP0694905A2 (en) | 1996-01-31 |
US5745650A (en) | 1998-04-28 |
DE69523998D1 (de) | 2002-01-03 |
JP3548230B2 (ja) | 2004-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3548230B2 (ja) | 音声合成方法及び装置 | |
JP3559588B2 (ja) | 音声合成方法及び装置 | |
US3982070A (en) | Phase vocoder speech synthesis system | |
WO2018084305A1 (ja) | 音声合成方法 | |
JP2002202790A (ja) | 歌唱合成装置 | |
EP3739571A1 (en) | Speech synthesis method, speech synthesis device, and program | |
JPH1097287A (ja) | 周期信号変換方法、音変換方法および信号分析方法 | |
EP1381028A1 (en) | Singing voice synthesizing apparatus, singing voice synthesizing method and program for synthesizing singing voice | |
US7135636B2 (en) | Singing voice synthesizing apparatus, singing voice synthesizing method and program for singing voice synthesizing | |
JPH11133995A (ja) | 音声変換装置 | |
JPH10187195A (ja) | 音声合成方法および装置 | |
Bonada et al. | Sample-based singing voice synthesizer by spectral concatenation | |
JPH08254993A (ja) | 音声合成装置 | |
JP2018077283A (ja) | 音声合成方法 | |
US6253172B1 (en) | Spectral transformation of acoustic signals | |
JP4455701B2 (ja) | 音声信号処理装置および音声信号処理方法 | |
JP3468337B2 (ja) | 補間音色合成方法 | |
CN100508025C (zh) | 合成语音的方法和设备及分析语音的方法和设备 | |
CN112086085A (zh) | 音频信号的和声处理方法、装置、电子设备和存储介质 | |
CN112820257B (zh) | 一种基于matlab的gui声音合成装置 | |
Wakefield | Chromagram visualization of the singing voice. | |
JP2018077281A (ja) | 音声合成方法 | |
JPH09179576A (ja) | 音声合成方法 | |
JPH06250691A (ja) | 音声合成装置 | |
JP2703253B2 (ja) | 音声合成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040305 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20040310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040416 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090423 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090423 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100423 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110423 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130423 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130423 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140423 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |