JPS6240720B2 - - Google Patents
Info
- Publication number
- JPS6240720B2 JPS6240720B2 JP56202981A JP20298181A JPS6240720B2 JP S6240720 B2 JPS6240720 B2 JP S6240720B2 JP 56202981 A JP56202981 A JP 56202981A JP 20298181 A JP20298181 A JP 20298181A JP S6240720 B2 JPS6240720 B2 JP S6240720B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- information
- speech
- output method
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired
Links
- 238000000034 method Methods 0.000 claims description 11
- 230000005236 sound signal Effects 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 4
- 238000001228 spectrum Methods 0.000 claims description 4
- 238000013139 quantization Methods 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000001308 synthesis method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Description
【発明の詳細な説明】
本発明は、音声分析合成法による音声出力方式
に関する。
に関する。
音声信号をサンプリングおよび分析して音声の
スペクトル情報と、音源情報つまり音声の強さ、
高さ、音質、雑音等の情報とを第1図に示すよう
にメモリ10に記憶しておき、出力音声指定信号
INにより制御部12を介して該メモリから該当
するものを読出し、音声合成部14に加えて
PCMデータとし、D/A変換器を持つ出力部1
6により信号INにより指定された音声を出力す
る、音声分析合成法による合成音声出力方式で
は、音声信号のサンプリング10msなどの短時
間々隔で行なうので、メモリ容量が相当に大にな
る。サンプリング周期は小にする程出力合成音声
の質はよくなるが、当然ながらそれではメモリ容
量が益々大になる。
スペクトル情報と、音源情報つまり音声の強さ、
高さ、音質、雑音等の情報とを第1図に示すよう
にメモリ10に記憶しておき、出力音声指定信号
INにより制御部12を介して該メモリから該当
するものを読出し、音声合成部14に加えて
PCMデータとし、D/A変換器を持つ出力部1
6により信号INにより指定された音声を出力す
る、音声分析合成法による合成音声出力方式で
は、音声信号のサンプリング10msなどの短時
間々隔で行なうので、メモリ容量が相当に大にな
る。サンプリング周期は小にする程出力合成音声
の質はよくなるが、当然ながらそれではメモリ容
量が益々大になる。
音声スペクトル情報つまり音声の特徴パラメー
タはなだらかに変る部分もあれば急速に変る部分
もある。そこでパラメータの急変部分ではサンプ
リング周期を小に、変動が少ない部分ではサンプ
リング周期を大にして、全体としては少ない標本
数でしかも忠実な音声分析結果が得られる方式を
本出願人は先に開発した(特開昭53−128905)。
タはなだらかに変る部分もあれば急速に変る部分
もある。そこでパラメータの急変部分ではサンプ
リング周期を小に、変動が少ない部分ではサンプ
リング周期を大にして、全体としては少ない標本
数でしかも忠実な音声分析結果が得られる方式を
本出願人は先に開発した(特開昭53−128905)。
しかしこの方式でもメモリに格納するのは音声
分析結果そのものであるので、情報量としては可
成り多い。それ故本発明は更にメモリ容量を低減
可能な分析合成方式を提供しようとするものであ
る。
分析結果そのものであるので、情報量としては可
成り多い。それ故本発明は更にメモリ容量を低減
可能な分析合成方式を提供しようとするものであ
る。
音声データを分析して得られる特徴パラメータ
は比較的連続的な変化をするから、該パラメータ
を信号とみなし、音声波形符号化の概念を用いて
パラメータを合成するとができる。
は比較的連続的な変化をするから、該パラメータ
を信号とみなし、音声波形符号化の概念を用いて
パラメータを合成するとができる。
この場合のメモリ格納情報は予測係数と誤差信
号で、これらは情報量が少なく、メモリ容量をそ
れ程必要としない。
号で、これらは情報量が少なく、メモリ容量をそ
れ程必要としない。
また音声信号は特徴が変化するので一定の予測
係数を用いていると誤差が大になつてくるから、
適宜これを変更するのがよい。この変更にも前記
の特徴パラメータ抽出と同じ手法を使つて急変部
分では頻繁に、緩変部分では時折り変更して常に
誤差が小になるようにすれば、メモリ容量は一層
低減できる。
係数を用いていると誤差が大になつてくるから、
適宜これを変更するのがよい。この変更にも前記
の特徴パラメータ抽出と同じ手法を使つて急変部
分では頻繁に、緩変部分では時折り変更して常に
誤差が小になるようにすれば、メモリ容量は一層
低減できる。
本発明はかゝる着想に基ずくもので、特徴とす
る所は音声信号をサンプリングして分析して、音
源情報と音声スペクトル情報を抽出してこれらを
メモリに格納しておき、音声指定信号に従つて該
情報を撰択して音声信号を合成する音声出力方式
において、 記憶すべき音声スペクトル情報を、音声特徴パ
ラメータの時系列に対する予測係数と誤差信号と
し、該予測係数を音声特徴の変化に応じた時間々
隔で切換えて変更することにある。次に実施例を
参照しながらこれを詳細に説明する。
る所は音声信号をサンプリングして分析して、音
源情報と音声スペクトル情報を抽出してこれらを
メモリに格納しておき、音声指定信号に従つて該
情報を撰択して音声信号を合成する音声出力方式
において、 記憶すべき音声スペクトル情報を、音声特徴パ
ラメータの時系列に対する予測係数と誤差信号と
し、該予測係数を音声特徴の変化に応じた時間々
隔で切換えて変更することにある。次に実施例を
参照しながらこれを詳細に説明する。
第2図は本発明の実施例を示し、第1図と同じ
部分には同じ符号が付してある。本発明は、特徴
パラメータをメモリに格納しておいてこれを使用
するのではなく、メモリに格納するのはパラメー
タ合成要素である予測係数、その更新情報(更新
のタイミングを指示する情報)および誤差情報で
あり、これらを基にして合成部18で特徴パラメ
ータを合成する。この合成で特徴パラメータが得
られたら、該パラメータと音源情報を用いて音声
を合成し出力するのは従来方式と同じである。パ
ラメータ合成要領を説明するに、特徴パラメータ
時系列をP(n)、予測係数をβi、誤差をδ
(n)とすると、 で表わされる。この(1)式右辺第2項はP(n)の
予測式でNはその次数を示すが、これに量子化誤
差δ(n)を加えたものがP(n)である。予測
係数βiは誤差δ(n)の2乗の和を最少にする
条件から決定できる。一般式で示すと B=Γ-1Σ ……(2) である。こゝでβT=(β1,β2……BN)であ
り、ΣT=(C1,C2……CN)は与えられた時間区
間のP(n)から定まる相関ベクトル、Γは相関
マトリクス(Cij)で下式で表わされる。こゝで
i,j=0〜(N―1)である。
部分には同じ符号が付してある。本発明は、特徴
パラメータをメモリに格納しておいてこれを使用
するのではなく、メモリに格納するのはパラメー
タ合成要素である予測係数、その更新情報(更新
のタイミングを指示する情報)および誤差情報で
あり、これらを基にして合成部18で特徴パラメ
ータを合成する。この合成で特徴パラメータが得
られたら、該パラメータと音源情報を用いて音声
を合成し出力するのは従来方式と同じである。パ
ラメータ合成要領を説明するに、特徴パラメータ
時系列をP(n)、予測係数をβi、誤差をδ
(n)とすると、 で表わされる。この(1)式右辺第2項はP(n)の
予測式でNはその次数を示すが、これに量子化誤
差δ(n)を加えたものがP(n)である。予測
係数βiは誤差δ(n)の2乗の和を最少にする
条件から決定できる。一般式で示すと B=Γ-1Σ ……(2) である。こゝでβT=(β1,β2……BN)であ
り、ΣT=(C1,C2……CN)は与えられた時間区
間のP(n)から定まる相関ベクトル、Γは相関
マトリクス(Cij)で下式で表わされる。こゝで
i,j=0〜(N―1)である。
但し、Tk=nk+1−nkで、与えられた時間区
間長。
間長。
予測係数βiを計算し直す区間長の決定には特
徴パラメータ時系列における累積変動量または誤
差信号時系列を利用する。即ち前者の場合は次式
で表わされる累積変動量AV(tok) が閾値を越えた時点tok(こゝで累積変動量は0
にリセツトする)を区間境界とする。また後者の
場合は種々の区間(nk〜nk+1)に対して誤差の
パワーの総和 を求め、これが最小になる区間を求める。区間n
=nkからn=nk+1−1までのδ(n)は、初期
値をδ(nk)=δ(nk+1)=0として(1)式より
求める。各区間に対するP(nk),P(nk+
1)の初期値、Bik(i=1〜N)と(1)式によつ
て求まるδ(n)(n=nk+2〜nk+1−1)、ま
たはβik(i=1−N)と(1)式によつて求まる
δ(n)(n=nk+2〜nk+1−1)とβik-1と
(1)式によつて定まるδ(nk),δ(nk+1)及
び初期値P(no),P(no+1)はメモリに記憶
させておき、それを読出して使用する。
徴パラメータ時系列における累積変動量または誤
差信号時系列を利用する。即ち前者の場合は次式
で表わされる累積変動量AV(tok) が閾値を越えた時点tok(こゝで累積変動量は0
にリセツトする)を区間境界とする。また後者の
場合は種々の区間(nk〜nk+1)に対して誤差の
パワーの総和 を求め、これが最小になる区間を求める。区間n
=nkからn=nk+1−1までのδ(n)は、初期
値をδ(nk)=δ(nk+1)=0として(1)式より
求める。各区間に対するP(nk),P(nk+
1)の初期値、Bik(i=1〜N)と(1)式によつ
て求まるδ(n)(n=nk+2〜nk+1−1)、ま
たはβik(i=1−N)と(1)式によつて求まる
δ(n)(n=nk+2〜nk+1−1)とβik-1と
(1)式によつて定まるδ(nk),δ(nk+1)及
び初期値P(no),P(no+1)はメモリに記憶
させておき、それを読出して使用する。
第3図は特徴パラメータを演算するハードウエ
アを示す。本例では(1)式のNを2としており、従
つて、 P(n)=δo+β1P(n−1)
+β2P(n−2) ……(1)′ で特徴パラメータP(n)を算出する。この図の
22は加算器、24,26は乗算器、DLは1時
間区間分の遅延を与える遅延器である。β1,β
2はメモリ10の予測係数部10aより取出す
が、その切換タイミング信号は該メモリ10の更
新情報部10bより出力させる。
アを示す。本例では(1)式のNを2としており、従
つて、 P(n)=δo+β1P(n−1)
+β2P(n−2) ……(1)′ で特徴パラメータP(n)を算出する。この図の
22は加算器、24,26は乗算器、DLは1時
間区間分の遅延を与える遅延器である。β1,β
2はメモリ10の予測係数部10aより取出す
が、その切換タイミング信号は該メモリ10の更
新情報部10bより出力させる。
以上説明したように本発明では音声特徴パラメ
ータをそのまゝ記憶するのではなく、該パラメー
タ合成の要素となる予測係数と誤差信号とするの
で、そして該予測係数の変更をその累積変動量の
総和が予定の閾値に達する毎に或いは残差のパワ
ーの総和が最小となる如く予め求めたタイミング
で行なうので、記憶情報を著しく低減でき、メモ
リ容量低減あるいは高精度音声分析合成が可能に
なる。
ータをそのまゝ記憶するのではなく、該パラメー
タ合成の要素となる予測係数と誤差信号とするの
で、そして該予測係数の変更をその累積変動量の
総和が予定の閾値に達する毎に或いは残差のパワ
ーの総和が最小となる如く予め求めたタイミング
で行なうので、記憶情報を著しく低減でき、メモ
リ容量低減あるいは高精度音声分析合成が可能に
なる。
第1図は従来方式の説明図、第2図および第3
図は本発明の実施例を示すブロツク図である。 図面で10はメモリ、INは音声指定信号、
OUTは出力合成音声信号である。
図は本発明の実施例を示すブロツク図である。 図面で10はメモリ、INは音声指定信号、
OUTは出力合成音声信号である。
Claims (1)
- 【特許請求の範囲】 1 音声信号をサンプリングし分析して、音源情
報と音声スペクトル情報を抽出してこれらをメモ
リに格納しておき、音声指定信号に従つて該情報
を選択して音声信号を合成する音声出力方式にお
いて、 記憶すべき音声スペクトル情報を、音声特徴パ
ラメータの時系列に対する予測係数と誤差信号と
し、該予測係数を音声特徴の変化に応じた時間間
隔で切換えて変更することを特徴とする音声出力
方式。 2 時間間隔が、音声特徴パラメータの累積変動
量が一定の閾値を越える時点で区切られることを
特徴とする特許請求の範囲第1項記載の音声出力
方式。 3 時間間隔が、種々に与えた区間数および量子
化ビツト割当においてそれぞれ得られた各誤差信
号のパワーの総和のうち最小であるものとして予
め決定されることを特徴とした特許請求の範囲第
1項記載の音声出力方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56202981A JPS58103000A (ja) | 1981-12-16 | 1981-12-16 | 音声出力方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56202981A JPS58103000A (ja) | 1981-12-16 | 1981-12-16 | 音声出力方式 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS58103000A JPS58103000A (ja) | 1983-06-18 |
JPS6240720B2 true JPS6240720B2 (ja) | 1987-08-29 |
Family
ID=16466349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP56202981A Granted JPS58103000A (ja) | 1981-12-16 | 1981-12-16 | 音声出力方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS58103000A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04127052U (ja) * | 1991-05-14 | 1992-11-19 | 市光工業株式会社 | 車両用灯具のリード線引き込み用のグロメツト |
-
1981
- 1981-12-16 JP JP56202981A patent/JPS58103000A/ja active Granted
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04127052U (ja) * | 1991-05-14 | 1992-11-19 | 市光工業株式会社 | 車両用灯具のリード線引き込み用のグロメツト |
Also Published As
Publication number | Publication date |
---|---|
JPS58103000A (ja) | 1983-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4301329A (en) | Speech analysis and synthesis apparatus | |
EP0409239B1 (en) | Speech coding/decoding method | |
US5717824A (en) | Adaptive speech coder having code excited linear predictor with multiple codebook searches | |
JP3481251B2 (ja) | 代数的符号励振線形予測音声符号化方法 | |
US4544919A (en) | Method and means of determining coefficients for linear predictive coding | |
JPH0395600A (ja) | 音声コーディング装置及び音声エンコーディング方法 | |
JPH06222797A (ja) | 音声符号化方式 | |
WO1992016930A1 (en) | Speech coder and method having spectral interpolation and fast codebook search | |
US3909533A (en) | Method and apparatus for the analysis and synthesis of speech signals | |
EP0477960A2 (en) | Linear prediction speech coding with high-frequency preemphasis | |
US5522009A (en) | Quantization process for a predictor filter for vocoder of very low bit rate | |
JPH06161498A (ja) | 音声信号のディジタルコード化方法およびこの方法を実現するためのエンコーダならびにデコーダ | |
JP2645465B2 (ja) | 低遅延低ビツトレート音声コーダ | |
CA2131956C (en) | Vector quantization of a time sequential signal by quantizing an error between subframe and interpolated feature vectors | |
JPH09258795A (ja) | ディジタルフィルタおよび音響符号化/復号化装置 | |
JP3684751B2 (ja) | 信号符号化方法及び装置 | |
JPH0944195A (ja) | 音声符号化装置 | |
KR100465316B1 (ko) | 음성 부호화기 및 이를 이용한 음성 부호화 방법 | |
JP3531780B2 (ja) | 音声符号化方法および復号化方法 | |
KR100416363B1 (ko) | 선형 예측 분석 대 합성 엔코딩 방법 및 엔코더 | |
JPS6240720B2 (ja) | ||
JP3122540B2 (ja) | ピッチ検出装置 | |
JP3089967B2 (ja) | 音声符号化装置 | |
JP3192051B2 (ja) | 音声符号化装置 | |
JP3471889B2 (ja) | 音声符号化方法及び装置 |