JPS6135499A - Voice analysis/synthesization system - Google Patents

Voice analysis/synthesization system

Info

Publication number
JPS6135499A
JPS6135499A JP15682884A JP15682884A JPS6135499A JP S6135499 A JPS6135499 A JP S6135499A JP 15682884 A JP15682884 A JP 15682884A JP 15682884 A JP15682884 A JP 15682884A JP S6135499 A JPS6135499 A JP S6135499A
Authority
JP
Japan
Prior art keywords
speech
acoustic
smoothing
parameters
synthesis method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15682884A
Other languages
Japanese (ja)
Inventor
松尾 則子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP15682884A priority Critical patent/JPS6135499A/en
Publication of JPS6135499A publication Critical patent/JPS6135499A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔技術分野〕 本発明は、音声分析合成方式に関し、特にスペクトル符
号化による、主として線スペクトル対(Line Sp
ectrum Psir +以下、LSP、!:いう)
方式、偏自己相関係数(pBrtiBl−Buto−C
orr611tioncoefficients 、以
下、PARCORという)方式の音声分析合成方式に関
する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field] The present invention relates to a speech analysis and synthesis method, and in particular to a speech analysis and synthesis method that mainly uses line spectrum pairs (Line Sp) by spectral coding.
ectrum Psir + below, LSP,! :say)
method, partial autocorrelation coefficient (pBrtiBl-Buto-C
The present invention relates to a speech analysis and synthesis method using PARCOR (hereinafter referred to as PARCOR) method.

〔従来技術〕[Prior art]

従来、PARCOR、LSP方式の音声分析合成方式は
原音声をいくつかのパラメータに圧縮して代表させてい
るため1合成音声に原音声にない異常音が含まれてしま
うことがあった。
Conventionally, in the speech analysis and synthesis methods such as PARCOR and LSP, the original speech is compressed into several parameters to represent it, so that one synthesized speech may contain abnormal sounds that are not in the original speech.

〔発明の目的〕[Purpose of the invention]

本発明の目的は異常音の発生を防止もしくは小さくする
ことができるようにした音声分析合成方式を提供するこ
とにある。
An object of the present invention is to provide a speech analysis and synthesis method that can prevent or reduce the occurrence of abnormal sounds.

〔発明の構成〕[Structure of the invention]

本発明は、上記の音声分析合成方式において異電音が発
生するときはL8P係数wi 、PARCOR係数ki
等の音響パラメータがフレーム周期間で急変した場合と
よく一致することに着目し、LSP係数wi、PARc
OR係数kiの平滑化を行うことにより異常音の発生を
防止ないし小さくするようにしたものである。
In the present invention, when an abnormal electric sound occurs in the above speech analysis and synthesis method, the L8P coefficient wi, the PARCOR coefficient ki
Focusing on the fact that the acoustic parameters such as
By smoothing the OR coefficient ki, the occurrence of abnormal noise is prevented or reduced.

すなわち本発明の音声分析合成方式は、原音声又はすで
に求められている変換可能な他の特徴パラメータからフ
レーム周期毎に音響パラメータを形成する音響パラメー
タ分析処理手段と、各フレーム周期において、当該フレ
ーム周期の音響パラメータの値とその前および後のフレ
ームの音響パラメータとの差の絶対値が所定の値より大
きいかどうか判断し、少なくとも一方が大きいときに該
音響パラメータをそのフレームおよび前後のフレームで
の音響パラメータの重み付は平均により平滑化する平滑
処理手段とを含むことを特徴とする。
That is, the speech analysis and synthesis method of the present invention includes an acoustic parameter analysis processing means that forms acoustic parameters for each frame period from the original speech or other convertible characteristic parameters that have already been obtained; It is determined whether the absolute value of the difference between the value of the acoustic parameter and the acoustic parameters of the previous and subsequent frames is larger than a predetermined value, and when at least one of the values is larger, the acoustic parameter is The weighting of the acoustic parameters is characterized by including a smoothing processing means for smoothing by averaging.

〔実施例〕〔Example〕

以下、図面を参照して本発明の詳細な説明する。第1図
は本発明をLSP方式に適用した音声分析合成方式の一
実施例を示すブロック図で、置8,9、平滑処理装置1
0、音声合成器12からなる。
Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a speech analysis and synthesis method in which the present invention is applied to an LSP method.
0 and a speech synthesizer 12.

次ニ各ブロックの機能を説明する。Next, the functions of each block will be explained.

原音声はAろ変換器1によりデジタル信号に変換される
。窓処理装置2においてデータ窓処理と線形予測係数の
計算が行なわれる。データ処理装置3は、窓処理装置2
においてデータ窓処理されたデジタル信号を受けて、ピ
ッチ抽出、有声/無声、有音/無音判定のデータ処理を
行う。一方、窓処理装置2において求められた線形予測
係数は変換処理装置4によりLSP係数に変換される。
The original audio is converted into a digital signal by an A-filter converter 1. The window processing device 2 performs data window processing and calculation of linear prediction coefficients. The data processing device 3 is the window processing device 2
The data processing unit receives the digital signal subjected to data window processing and performs data processing such as pitch extraction, voiced/unvoiced, and voiced/silent determination. On the other hand, the linear prediction coefficients obtained by the window processing device 2 are converted into LSP coefficients by the conversion processing device 4.

データ処理装置3で形成されたピッチ、有声/無声、有
音/無音信号と変換処理装置4で計算されたLSP係数
は、メそり5に書込まれる。同時に前回フレームでの処
理内容がメモリ5からメモリ6へ、また前々回フレーム
での処理内容がメモリ6からメモリ7へ書込まれる。減
算処理装置8により、メモリ5とメモリ6のLSP係数
の差を減算処理、装置9によりメモリ6とメモリ7のL
SP係数の差をそれぞれ演算し、平滑処理装置10へ出
力する。平滑処理装置10(音声分析装置または音声合
成装置に設けられる)では、減算処理装より大きい場合
にのみメモリ5,7に格納されている前後のフレームで
のLSP係数を用いて重み付は平均をとることによりL
SP係数を求める。
The pitch, voiced/unvoiced, and voiced/silent signals formed by the data processing device 3 and the LSP coefficients calculated by the conversion processing device 4 are written into the mesh 5. At the same time, the processing contents of the previous frame are written from the memory 5 to the memory 6, and the processing contents of the frame before the previous one are written from the memory 6 to the memory 7. The subtraction processing device 8 subtracts the difference between the LSP coefficients of the memories 5 and 6, and the device 9 subtracts the difference between the LSP coefficients of the memories 6 and 7.
The difference between the SP coefficients is calculated and output to the smoothing processing device 10. In the smoothing processing device 10 (provided in the speech analysis device or speech synthesis device), weighting is performed using the LSP coefficients of the previous and subsequent frames stored in the memories 5 and 7 only when the coefficients are larger than the subtraction processing device. By taking L
Find the SP coefficient.

すなわち、平滑処理装[10は、減算処理装置8.9か
ら出力された値(LSP係数の差)が同符号か異符号か
によってi−1の重み付は係数α1゜α2.α3を用い
て次式(1)により平滑化する。
That is, the smoothing processing unit [10] weights i-1 by coefficients α1°α2, . Smoothing is performed using α3 according to the following equation (1).

以/#:余1・白 、−1 ムであることを示す。Less/#: Margin 1/White , -1 Indicates that it is a system.

ととで、Wn+ 1はメモリ7に記憶されているLSP
係数、Wnはメモリ6に記憶されているLSP  係数
、−+1はメモリ5に記憶されているLSP係数、Wn
′はメモリ6に記憶されているLSP係数wBを平滑処
理したものである。
In this case, Wn+1 is the LSP stored in memory 7.
The coefficient, Wn is the LSP coefficient stored in memory 6, -+1 is the LSP coefficient stored in memory 5, Wn
' is obtained by smoothing the LSP coefficient wB stored in the memory 6.

このように平滑化されたLSP係数wn′およびメモリ
6に記憶されているピッチ、有声/無声、有音/無音信
号がメモ1711に書込まれる。平滑化を行なう必要が
ない場合、メモリ6の内容がそのままメモリ11に書込
まれる。
The thus smoothed LSP coefficient wn' and the pitch, voiced/unvoiced, and voiced/silent signals stored in the memory 6 are written in the memo 1711. If smoothing is not necessary, the contents of memory 6 are written to memory 11 as they are.

音声合成装置12はメモリ11より出力されたピッチ、
有声/無声、有音/無音信号、LSP係数により合成音
声を形成する。この合成音声は不図示のスピーカーを通
して発音される。
The speech synthesizer 12 uses the pitch output from the memory 11,
Synthesized speech is formed using voiced/unvoiced, voiced/unvoiced signals, and LSP coefficients. This synthesized voice is pronounced through a speaker (not shown).

このようにLSP係数の急変が抑えられているので、異
常音の発生が防止ないし大幅に低減される。
Since sudden changes in the LSP coefficients are suppressed in this way, the occurrence of abnormal sounds is prevented or significantly reduced.

本実施例はL8P方式の場合であるが、本発明はPAR
COR方式、その他の音響バラメータの方式についても
適用可能である。
This embodiment is for the L8P method, but the present invention is based on the PAR
It is also applicable to the COR method and other acoustic parameter methods.

〔発明の効果〕〔Effect of the invention〕

本発明は、以上説明したようにLSF係数、PARCO
R係数などの音響パラメータがフレーム間で急激に変化
した場合にのみ音響パラメータを平滑化するので、フレ
ーム間での音響パラメータの急激な変化が抑えられ、異
常音の発生を防止ないし大幅に低減させることができる
As explained above, the present invention utilizes LSF coefficients, PARCO
Since acoustic parameters such as R coefficients are smoothed only when they change rapidly between frames, sudden changes in acoustic parameters between frames are suppressed, preventing or significantly reducing the occurrence of abnormal sounds. be able to.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明のLSP方式による音声分析合成方式の
一実施例な示すブロック図である。 1:A/l)変換器、  2:窓処理装置、3:データ
処理装置、 4!変換処理装置、5.6,7,11:メ
モリ、 8.9:減算処理装置、1o!平滑処理装置、12−音
声金成器。
FIG. 1 is a block diagram showing an embodiment of the speech analysis and synthesis method using the LSP method of the present invention. 1: A/l) converter, 2: window processing device, 3: data processing device, 4! Conversion processing device, 5.6, 7, 11: Memory, 8.9: Subtraction processing device, 1o! Smoothing processing device, 12-Speech metallization device.

Claims (1)

【特許請求の範囲】 1、原音声またはすでに求められている変換可能な他の
特徴パラメータからフレーム周期毎に音響パラメータを
形成する音響パラメータ分析処理手段と、各フレーム周
期において、当該フレーム周期の音響パラメータの値と
その前および後のフレームの音響パラメータのとの差の
絶対値が所定の値より大きいかどうか判断し、少なくと
も一方が大きいときに該音響パラメータをそのフレーム
および前後のフレームでの音響パラメータの重み付け平
均により平滑化する平滑処理手段を有することを特徴と
する音声分析合成方式。 2、平滑処理手段が音声分析装置に設けられている特許
請求の範囲第1項記載の音声分析合成方式。 3、平滑処理手段が音声合成装置に設けられている特許
請求の範囲第1項記載の音声分析合成方式。
[Scope of Claims] 1. Acoustic parameter analysis processing means for forming acoustic parameters for each frame period from the original speech or other transformable feature parameters that have already been obtained; Determine whether the absolute value of the difference between the value of the parameter and the acoustic parameters of the previous and subsequent frames is larger than a predetermined value, and when at least one of the values is larger, the acoustic parameter is used as the acoustic parameter of that frame and the previous and subsequent frames. A speech analysis and synthesis method characterized by having a smoothing processing means for smoothing by a weighted average of parameters. 2. The speech analysis and synthesis method according to claim 1, wherein the smoothing processing means is provided in the speech analysis device. 3. The speech analysis and synthesis method according to claim 1, wherein the smoothing processing means is provided in the speech synthesis device.
JP15682884A 1984-07-27 1984-07-27 Voice analysis/synthesization system Pending JPS6135499A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15682884A JPS6135499A (en) 1984-07-27 1984-07-27 Voice analysis/synthesization system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15682884A JPS6135499A (en) 1984-07-27 1984-07-27 Voice analysis/synthesization system

Publications (1)

Publication Number Publication Date
JPS6135499A true JPS6135499A (en) 1986-02-19

Family

ID=15636238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15682884A Pending JPS6135499A (en) 1984-07-27 1984-07-27 Voice analysis/synthesization system

Country Status (1)

Country Link
JP (1) JPS6135499A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62245300A (en) * 1986-04-18 1987-10-26 株式会社リコー Soundless section generating system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62245300A (en) * 1986-04-18 1987-10-26 株式会社リコー Soundless section generating system

Similar Documents

Publication Publication Date Title
JP2964879B2 (en) Post filter
JPH08251030A (en) System for providing high-speed and low-speed reproducibility memory and retrieving system as well as method of providing high-speed and low-speed reproducibility
US6678650B2 (en) Apparatus and method for converting reproducing speed
JPS6135499A (en) Voice analysis/synthesization system
JPH07199997A (en) Processing method of sound signal in processing system of sound signal and shortening method of processing time in itsprocessing
JPS63118200A (en) Multi-pulse encoding method and apparatus
JPH05303399A (en) Audio time axis companding device
JP3510168B2 (en) Audio encoding method and audio decoding method
JP3163206B2 (en) Acoustic signal coding device
JPH0318720B2 (en)
JPS60262200A (en) Expolation of spectrum parameter
JPS62102300A (en) Voice synthesizer
JP2629762B2 (en) Pitch extraction device
JPS61278900A (en) Voice synthesizer
JPS5853349B2 (en) Speech analysis and synthesis method
JPH0122640B2 (en)
JPH0738119B2 (en) Speech waveform coding / decoding device
JPS62235996A (en) Variation of synthetic sound quality
JPS62159198A (en) Voice synthesization system
JPS58181097A (en) Voice analysis/synthesization system
JPS61128299A (en) Voice analysis/analytic synthesization system
JPH01197793A (en) Speech synthesizer
JPS61125000A (en) Voice synthesizer
JPS62100027A (en) Voice coding system
JPS6039700A (en) Detection of voice section