JPH0954600A - Voice-coding communication device - Google Patents
Voice-coding communication deviceInfo
- Publication number
- JPH0954600A JPH0954600A JP7207154A JP20715495A JPH0954600A JP H0954600 A JPH0954600 A JP H0954600A JP 7207154 A JP7207154 A JP 7207154A JP 20715495 A JP20715495 A JP 20715495A JP H0954600 A JPH0954600 A JP H0954600A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- frame
- voice
- level
- communication device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Analogue/Digital Conversion (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、ディジタル自動
車・携帯電話装置やディジタルコードレス電話機、ディ
ジタル有線電話装置等のように音声信号を符号化して伝
送する音声符号化通信装置に係わり、特に背景雑音の大
きい環境下で使用する場合に好適な装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice coding communication device for coding and transmitting a voice signal such as a digital automobile / portable telephone device, a digital cordless telephone device, a digital cable telephone device, and the like, and particularly to background noise. The present invention relates to a device suitable for use in a large environment.
【0002】[0002]
【従来の技術】ディジタル携帯電話装置などの通信装置
では、一般にCELP(Code ExcitedLinear Predictio
n)方式などの低ビットレートの音声符号化方式が使用
されている。この種の符号化方式を使用すると、背景雑
音が比較的大きい環境下でも良好な音声通話を行なうこ
とが可能である。なお、CELP方式の詳細な点につい
ては、M.R.Schroeder 氏とB.S.Atal氏の“Code-Excited
Linear Prediction(CELP):High-Quality Speech At Ve
ry Low Bit Rates”in Proc.ICASSP,1985.pp.937-939に
述べられている。2. Description of the Related Art In communication devices such as digital mobile phone devices, CELP (Code Excited Linear Predictio) is generally used.
n) Low bit rate audio coding method such as the method is used. By using this type of coding method, it is possible to make a good voice call even in an environment where the background noise is relatively large. For details on the CELP method, please refer to “Code-Excited” by MR Schroeder and BSAtal.
Linear Prediction (CELP): High-Quality Speech At Ve
ry Low Bit Rates ”in Proc. ICASSP, 1985.pp.937-939.
【0003】しかし、バスや通勤電車内等のような高雑
音環境下では雑音部分の歪みが大きく品質が劣化するた
め、雑音感を和らげる技術が種々研究させている。その
一つとして、「雑音重畳音声に対する符号化」(山崎泰
他、平成6年10月、日本音響学会講演1−P−7)
について説明する。However, in a high noise environment such as in a bus or a commuter train, noise is greatly distorted and the quality is deteriorated. Therefore, various techniques for reducing the feeling of noise have been studied. As one of them, "encoding for noise-superimposed speech" (Yasuyuki Yamazaki et al., October 1994, Acoustical Society of Japan Lecture 1-P-7)
Will be described.
【0004】従来のCELP方式を採用した復号器は、
例えば受信された音声符号化信号を一定長ごとに区切っ
てフレーム化し、雑音区間検出部においてこれらのフレ
ームが音声フレームであるか雑音フレームであるかを判
定する。そして、雑音フレームであれば、この雑音フレ
ームの音声符号化信号の中の線形予測分析(LPC:li
near predictive coding)係数ai を ai ′=ai *gi (i=1,…,n) のように補正する。ただし0<gi <iである。次に、
適応符号帳と雑音符号帳から励起信号を作成し、LPC
係数を用いて合成フィルタを通すことにより再生音声を
得ている。A decoder adopting the conventional CELP system is
For example, the received voice coded signal is divided into frames each having a certain length and framed, and the noise section detection unit determines whether these frames are voice frames or noise frames. If it is a noise frame, the linear prediction analysis (LPC: li) in the speech coded signal of this noise frame is performed.
near predictive coding) The coefficient ai is corrected as ai '= ai * gi (i = 1, ..., N). However, 0 <gi <i. next,
Generate excitation signal from adaptive codebook and noise codebook
The reproduced voice is obtained by passing the synthesis filter using the coefficient.
【0005】[0005]
【発明が解決しようとする課題】ところが、この様な従
来のCELP復号器では、雑音フレームのLPC係数の
補正が行なわれるが、補正がフレームごとに個々に行な
われるため、高雑音レベルにおいて発生しやすいフレー
ム間の歪みが解消されにくい。また、音声の性質に合わ
せて作られている雑音符号帳をそのまま用いているた
め、符号帳が原因となる歪みが解消されない。However, in such a conventional CELP decoder, the LPC coefficient of a noise frame is corrected. However, since the correction is performed for each frame individually, it occurs at a high noise level. Easy distortion between frames is difficult to eliminate. Further, since the noise codebook created according to the nature of the voice is used as it is, the distortion caused by the codebook cannot be eliminated.
【0006】この発明は上記事情に着目してなされたも
ので、その第1の目的は、雑音フレーム間の歪みを低減
して雑音特性向上を図り、これにより高雑音環境下にお
ける通話品質をさらに高め得る音声符号化通信装置を提
供することである。またこの発明の第2の目的は、より
自然感の高い雑音を再生することができる音声符号化通
信装置を提供することである。The present invention has been made in view of the above circumstances. A first object of the present invention is to reduce distortion between noise frames to improve noise characteristics, thereby further improving speech quality in a high noise environment. An object of the present invention is to provide a voice coding communication device that can be enhanced. A second object of the present invention is to provide a voice coding communication device capable of reproducing noise that is more natural.
【0007】[0007]
【課題を解決するための手段】上記第1の目的を達成す
るためにこの発明の音声符号化通信装置は、送信側にお
いて、音声/雑音判定手段により雑音フレームと判定さ
れたフレームについて、それぞれ雑音レベルを表わす情
報、または雑音のスペクトル分析パラメータを推定し、
上記音声/雑音判定手段により雑音フレームと判定され
たフレームを符号化する際に、過去の複数の雑音フレー
ムについて各々推定された上記雑音レベルを表わす情報
または上記雑音のスペクトル分析パラメータを参照する
ようにしたものである。In order to achieve the first object, the speech-coded communication device of the present invention is such that, on the transmitting side, noise is detected for each frame determined to be a noise frame by the speech / noise determination means. Estimate the information representing the level, or the spectrum analysis parameter of noise,
When coding a frame determined to be a noise frame by the voice / noise determination means, reference is made to information indicating the noise level estimated for each of a plurality of past noise frames or a spectrum analysis parameter of the noise. It was done.
【0008】また、受信側において、音声/雑音判定手
段により雑音フレームと判定されたフレームについて、
それぞれ雑音レベルを表わす情報を推定し、上記音声/
雑音判定手段により雑音フレームと判定されたフレーム
の信号を再生する際に、過去の複数の雑音フレームにつ
いて各々推定された雑音レベルを表わす情報に基づいて
レベル調整するようにしたものである。[0008] Further, on the receiving side, regarding the frame judged to be a noise frame by the voice / noise judging means,
Estimating the information indicating the noise level,
When the signal of the frame determined to be the noise frame by the noise determination means is reproduced, the level is adjusted based on the information indicating the noise level estimated for each of the plurality of past noise frames.
【0009】このような構成により、送信信号の雑音フ
レームを符号化する際、あるいは受信信号の雑音フレー
ムを再生する際に、過去の複数の雑音フレームにおいて
推定された雑音レベル情報または雑音スペクトル分析パ
ラメータが参照されることになる。すなわち、雑音部分
の長期的なレベルまたはスペクトル分析パラメータをも
とに雑音フレームの符号化または復号処理が行なわれる
ことになる。このため、雑音フレームごとに単独に補正
を行なう場合に比べて、フレーム間の歪みを効果的に除
去することが可能となり、これにより雑音の歪みは低減
されて通話品質を高めることが可能となる。With such a configuration, when coding a noise frame of a transmission signal or reproducing a noise frame of a reception signal, noise level information or noise spectrum analysis parameters estimated in a plurality of past noise frames. Will be referred to. That is, the noise frame is encoded or decoded based on the long-term level of the noise portion or the spectrum analysis parameter. Therefore, it is possible to effectively remove the distortion between the frames, as compared with the case where the correction is performed for each noise frame independently, and thus the distortion of the noise is reduced and the communication quality can be improved. .
【0010】一方、上記第2の目的を達成するためにこ
の発明の音声符号化通信装置は、音声/雑音判定手段に
より雑音フレームと判定されたフレームについてそれぞ
れ雑音レベルを表わす情報または雑音スペクトル分析パ
ラメータを推定し、この推定結果をもとに合成雑音を生
成して、この合成雑音を現行雑音フレームの受信復号信
号に置換、重畳または重み付け加算して出力するように
したものである。On the other hand, in order to achieve the above-mentioned second object, the speech-coded communication device of the present invention is such that information indicating a noise level or a noise spectrum analysis parameter for each frame judged as a noise frame by the speech / noise judgment means. Is generated, synthetic noise is generated based on this estimation result, and the synthetic noise is replaced, superposed, or weighted and added to the received decoded signal of the current noise frame and output.
【0011】また、上記のように生成された合成音声を
音声フレームの受信復号信号に重畳または重み付け加算
して出力することも特徴としている。このような構成に
より、パルス波形が含まれる雑音符号帳を用いずに白色
雑音に近い合成雑音を生成することが可能となり、これ
によってより自然感のある雑音を出力することが可能と
なる。Further, it is also characterized in that the synthesized speech generated as described above is superimposed or weighted and added to the received decoded signal of the speech frame and then outputted. With such a configuration, it is possible to generate synthetic noise close to white noise without using a noise codebook including pulse waveforms, and thereby to output more natural noise.
【0012】また、雑音フレームの励起信号に符号帳の
コードを用いる場合でも、復号後の音声信号に白色雑音
をもとに生成した合成音声が重畳または重み付け加算さ
れて出力されることになる。このため、歪みが少なくよ
り自然感の優れた雑音を背景にした、聞き易く品質の良
好な通話を行なうことが可能となる。Further, even when the codebook code is used for the excitation signal of the noise frame, the synthesized speech generated based on the white noise is superposed or weighted and added to the decoded speech signal to be output. For this reason, it becomes possible to make a call that is easy to hear and has a good quality against the background of noise with less distortion and a more natural feeling.
【0013】[0013]
(第1の実施の形態)図1は、この発明の第1の実施の
形態に係わる音声符号化通信装置の送信系の要部構成を
示す回路ブロック図である。(First Embodiment) FIG. 1 is a circuit block diagram showing a main configuration of a transmission system of a speech coding communication apparatus according to a first embodiment of the present invention.
【0014】同図において、マイクロホン11に入力さ
れた背景雑音を含む送話音声信号は、図示しないアナロ
グ/ディジタル変換器で所定のサンプリング周波数でデ
ィジタル信号に変換され、さらにフレーム分割部12で
一定長ずつ区切られてフレーム化されたのち、符号化部
17に入力されるとともに雑音レベル推定部13および
音声/雑音判定部14にそれぞれ入力される。なお、1
フレーム長は例えば160サンプルに設定される。In the figure, a transmission voice signal including background noise input to the microphone 11 is converted into a digital signal at a predetermined sampling frequency by an analog / digital converter (not shown), and further, by the frame dividing section 12 with a constant length. After being divided into frames, they are input into the coding unit 17 and the noise level estimation unit 13 and the voice / noise determination unit 14, respectively. In addition, 1
The frame length is set to 160 samples, for example.
【0015】雑音レベル推定部13は、上記フレームご
とにその信号中に含まれる雑音のレベルNを推定するも
ので、推定方法としては例えばフレーム内の分散値の対
数値を用いる方法が採用される。図2はその推定計算の
手順および内容を示すフローチャートである。The noise level estimation unit 13 estimates the noise level N contained in the signal for each frame, and the method of using the logarithmic value of the variance value within the frame is adopted as the estimation method. . FIG. 2 is a flowchart showing the procedure and contents of the estimation calculation.
【0016】すなわち、雑音レベル推定部13はまずス
テップ2aにおいて、雑音レベルN、フレームカウンタ
のカウント値C、フレームパワーの最小値M1 および二
番目に小さい値M2 をそれぞれN0 、C0 、M0 に初期
設定する。例えば、N0 =20、C0 =95、M0 =6
2に設定する。That is, the noise level estimation unit 13 first initializes the noise level N, the count value C of the frame counter, the minimum value M1 of the frame power and the second smallest value M2 in steps 2a to N0, C0 and M0, respectively. To do. For example, N0 = 20, C0 = 95, M0 = 6
Set to 2.
【0017】この状態でフレーム信号が入力されると、
雑音レベル推定部13はステップ2bにおいてフレーム
パワーRを計算する。例えば、フレームを前半のサブフ
レームと後半のサブフレームとに分けて各々のパワーを
算出し、その平均値をフレームパワーRとする。パワー
Rの計算式は、 R=5* log(x1 2 +…+xNF2 )/NF) xi ;入力信号値 NF;フレーム長またはサブフレーム長 で表わされる。When a frame signal is input in this state,
The noise level estimation unit 13 calculates the frame power R in step 2b. For example, a frame is divided into a first half subframe and a second half subframe, the respective powers are calculated, and the average value thereof is set as the frame power R. The calculation formula of the power R is represented by R = 5 * log (x1 2 + ... + xNF 2 ) / NF) xi; input signal value NF; frame length or subframe length.
【0018】フレームパワーRが算出されると、雑音レ
ベル推定部13は次にステップ2cおよび2dでそれぞ
れR<M2 およびR<M1 を判定し、M2 >R>M1 で
あればステップ2gに移行してM2 =M2 とし、R<M
1 ,M2 であればステップ2eに移行してここでM2 =
M1 ,M1 =Rとする。なお、R>M1 ,M2 であれば
M1 ,M2 の変更は行なわない。そして、これらの変更
処理が終了すると、ステップ2fに移行してここでフレ
ームカウンタCをインクリメントする。すなわち、Rと
M1 ,M2 とを比較し、M1 ,M2 がそれぞれ常にフレ
ームパワーの最小値および二番目に小さい値となるよう
に更新を行なう。When the frame power R is calculated, the noise level estimation unit 13 next determines R <M2 and R <M1 in steps 2c and 2d, respectively, and if M2>R> M1, moves to step 2g. And M2 = M2, and R <M
If 1, M2, move to step 2e, where M2 =
Let M1, M1 = R. If R> M1 and M2, M1 and M2 are not changed. When these changing processes are completed, the process proceeds to step 2f, where the frame counter C is incremented. That is, R is compared with M1 and M2, and updating is performed so that M1 and M2 are always the minimum value and the second smallest value of the frame power, respectively.
【0019】そうしてM1 ,M2 の更新が終わると、ス
テップ2hでフレームカウンタのカウント値Cが定数L
(例えば100)に達したか否かを判定し、まだ達して
いなければステップ2jに移行してここで従来の雑音レ
ベルNをそのまま出力し、しかるのちステップ2bに戻
って次のフレーム信号について以上の探索処理を繰り返
す。これに対しフレームカウンタのカウント値Cが定数
Lに達すると、ステップ2iに移行してここで雑音レベ
ルNをM2 に更新し、さらにM1 およびM2 を初期値に
戻すとともにフレームカウンタのカウント値Cをリセッ
トしたのち、ステップ2jを経てステップ2bに戻る。
そして、上記ステップ2b〜2jにより、再びLフレー
ムの期間にわたってフレームパワーRの最小値M1 およ
び二番目に小さい値M2 の探索を行なう。なお、以上の
説明ではフレームパワーRの二番目に小さい値M2 を雑
音レベルNとしたが、最小値M1 を雑音レベルとしても
よい。When the updating of M1 and M2 is completed, the count value C of the frame counter is a constant L in step 2h.
(For example, 100) is determined, and if not reached, the process proceeds to step 2j, where the conventional noise level N is output as it is, and then the process returns to step 2b and the above is performed for the next frame signal. The search process of is repeated. On the other hand, when the count value C of the frame counter reaches the constant L, the process proceeds to step 2i, where the noise level N is updated to M2, M1 and M2 are returned to the initial values, and the count value C of the frame counter is changed. After resetting, the process returns to step 2b through step 2j.
Then, through steps 2b to 2j, the minimum value M1 and the second smallest value M2 of the frame power R are searched again for the period of L frames. Although the noise level N is the second smallest value M2 of the frame power R in the above description, the minimum value M1 may be the noise level.
【0020】音声/雑音判定部14は、上記雑音レベル
推定部13において得られた雑音レベルの推定値Nをも
とに、現行フレームが音声フレームであるか雑音フレー
ムであるか判定する。図3はその判定処理の手順および
内容の一例を示すフローチャートである。The voice / noise determining unit 14 determines whether the current frame is a voice frame or a noise frame based on the noise level estimation value N obtained by the noise level estimating unit 13. FIG. 3 is a flowchart showing an example of the procedure and contents of the determination processing.
【0021】すなわち、音声/雑音判定部14はまずス
テップ3aで雑音の自己相関係数aa、重み付け係数m
および前サブフレームの判定結果(モード)Preを、そ
れぞれaa=a0 、m=m0 、Pre=0に初期設定す
る。このうち雑音の自己相関係数aaについては例えば
a0 =0.5に設定する。That is, the voice / noise determining unit 14 firstly, in step 3a, the noise autocorrelation coefficient aa and the weighting coefficient m.
And the determination result (mode) Pre of the previous subframe are initialized to aa = a0, m = m0, and Pre = 0, respectively. Of these, the noise autocorrelation coefficient aa is set to, for example, a0 = 0.5.
【0022】この状態でステップ3bでフレーム信号が
入力されると、音声/雑音判定部14はステップ3cで
フレームを前半と後半とに分けて、それぞれのパワーP
1 ,P2 を算出する。このパワーの計算式は先に述べた
雑音レベル推定部13の計算式が使用される。またそれ
とともに音声/雑音判定部14は、上記フレームの前半
および後半の各々について一次自己相関係数a1 ,a2
を算出する。そして、これらの計算が終了すると続いて
ステップ3dにおいて、上記雑音レベル推定部13で算
出された雑音レベルNを用いて補正パワーpを p=pi −N により算出するとともに、上記雑音の自己相関係数aa
を用いて補正自己相関係数aを a=abs(ai −aa) を算出する。In this state, when the frame signal is input in step 3b, the voice / noise determining section 14 divides the frame into the first half and the second half in step 3c, and the power P of each is divided.
Calculate 1 and P2. The calculation formula of the noise level estimation unit 13 described above is used as the calculation formula of this power. Along with this, the voice / noise determining unit 14 causes the primary autocorrelation coefficients a1 and a2 for each of the first half and the second half of the frame.
Is calculated. When these calculations are completed, subsequently, in step 3d, the correction power p is calculated by p = pi-N using the noise level N calculated by the noise level estimating unit 13, and the self-phase relationship of the noise is calculated. Number aa
The corrected autocorrelation coefficient a is calculated by using a = abs (ai-aa).
【0023】また、ステップ3eにおいて現在設定中の
モードが雑音モード“0”であるか音声モード“1”で
あるかを判定し、雑音モード0”であればステップ3f
で重み付け係数nをn0 に、また音声モード“1”であ
ればステップ3gで重み付け係数nをn1 にそれぞれ設
定する。そして、この重み付け係数nおよび先に初期設
定した重み付け係数mを用いて、ステップ3hにおいて
判定係数kを計算する。その計算式を次に示す。 k=na+mp−nm なお、n0 およびn1 は例えばn0 =13、n1 =5に
設定され、またmは変数でもよいが定数0.6に設定さ
れる。In step 3e, it is determined whether the currently set mode is the noise mode "0" or the voice mode "1". If the noise mode is "0", the step 3f is executed.
In step 3g, the weighting coefficient n is set to n0, and in the voice mode "1", the weighting coefficient n is set to n1. Then, using this weighting coefficient n and the previously set weighting coefficient m, the determination coefficient k is calculated in step 3h. The calculation formula is shown below. k = na + mp-nm Note that n0 and n1 are set, for example, to n0 = 13 and n1 = 5, and m may be a variable but is set to a constant 0.6.
【0024】音声/雑音判定部14は、次にステップ3
iに移行してここで上記判定係数kがk<0であるか否
かを判定する。そして、k<0であれば音声モードと判
定してステップ3jでFi =0とし、一方k<0でなけ
れば雑音モードと判定してステップ3kでFi =1とす
る。そして、ステップ3l〜3mによりフレームの前半
および後半がともに雑音モードであると判定されれば、
ステップ3oで現行フレームのモードを雑音モード(M
ode=0)と決定し、雑音自己相関係数aaを更新す
る。これに対しフレームの前半および後半のうちのいず
れか一方でも音声モードであれば、ステップ3pに移行
してここで現行フレームのモードを音声モード(Mod
e=1)と決定する。The voice / noise determining unit 14 then proceeds to step 3
Then, the process shifts to i, where it is determined whether or not the determination coefficient k is k <0. If k <0, it is determined to be the voice mode and Fi = 0 is set in step 3j. On the other hand, if k <0 is not set, the noise mode is determined and Fi = 1 is set in step 3k. Then, if it is determined in steps 3l to 3m that both the first half and the second half of the frame are in the noise mode,
In step 3o, the mode of the current frame is changed to the noise mode (M
ode = 0), and the noise autocorrelation coefficient aa is updated. On the other hand, if either one of the first half and the latter half of the frame is in the voice mode, the process proceeds to step 3p and the mode of the current frame is set to the voice mode (Mod
e = 1).
【0025】なお、上記雑音の自己相関係数aaは、雑
音モードと判定されたフレームの自己相関係数値をリー
ク積分した値とする。また、自己相関は一次相関に限ら
ずさらに高次の相関であってもよい。The autocorrelation coefficient aa of the noise is a leak-integrated value of the autocorrelation coefficient value of the frame determined to be the noise mode. Further, the autocorrelation is not limited to the first-order correlation and may be a higher-order correlation.
【0026】雑音パワー計算部15では、上記音声/雑
音判定部14により判定された現行フレームのモードに
応じて、現行フレームの雑音パワーの算出が行なわれ
る。図4(a),(b)はその計算方法の2つの例を示
すものである。The noise power calculation unit 15 calculates the noise power of the current frame according to the mode of the current frame determined by the voice / noise determination unit 14. 4 (a) and 4 (b) show two examples of the calculation method.
【0027】先ず図4(a)に示す方法は、上記雑音レ
ベル推定部13により求められた雑音レベルの推定値N
をもとに雑音パワーPを算出するものである。すなわ
ち、まずステップ4aにおいてカウントフラグhにh0
を初期設定する。例えばh=−22とする。この状態で
ステップ4bにて雑音レベル推定値Nおよび現行フレー
ムのモードModeが入力されると、h<h1 (例えば
h1 =−2)であるか否かの判定(ステップ4c)と、
モードが雑音モードであるか否かの判定(ステップ4
d)と、h>h1 であるか否かの判定(ステップ4e)
とを行なう。そして、モードフレームが雑音モードでか
つh>h1 であればhを1デクリメントし、音声モード
であればh=h2 に設定する。またh<h1 であればモ
ードに関係なくhを2インクリメントしてモードを雑音
モードに変更する。そして、ステップ4iでh<0であ
るか否かを判定し、hが負であればステップ4jで雑音
パワーPを P=N+h とし、hが正であれば雑音パワーPを P=N とする。すなわち、雑音フレームが一定数続いた場合に
は雑音パワーPを雑音レベルNよりも小さい値に設定す
る。First, in the method shown in FIG. 4A, the estimated value N of the noise level obtained by the noise level estimation unit 13 is used.
The noise power P is calculated based on That is, first, in step 4a, the count flag h is set to h0.
Is initialized. For example, h = −22. In this state, when the noise level estimation value N and the mode Mode of the current frame are input in step 4b, it is determined whether or not h <h1 (for example, h1 = -2) (step 4c),
Judge whether the mode is the noise mode (step 4
d) and judgment whether h> h1 (step 4e)
And. Then, if the mode frame is in the noise mode and h> h1, h is decremented by 1, and in the voice mode, h = h2 is set. If h <h1, the mode is changed to the noise mode by incrementing h by 2 regardless of the mode. Then, in step 4i, it is determined whether or not h <0. If h is negative, the noise power P is set to P = N + h in step 4j, and if h is positive, the noise power P is set to P = N. . That is, when a certain number of noise frames continue, the noise power P is set to a value smaller than the noise level N.
【0028】一方、図4(b)に示す方法は、符号化部
17のフレームパワー計算部71において計算されるフ
レームパワーPowerをもとに雑音パワーPを算出するも
のである。すなわち、先ずステップ4mで雑音パワーP
をP0 に初期設定する。例えばP=0に設定する。この
状態で、ステップ4nにてフレームパワーPowerおよび
現行フレームのモードが入力されると、ステップ4oに
移行してここで現行フレームモードが雑音モードである
ときのみ雑音パワーPを P=P*0.9+Power*0.1 とする。すなわち、雑音フレームのフレームパワーPow
erをリーク積分してこれを雑音パワーPとする。On the other hand, the method shown in FIG. 4B is to calculate the noise power P based on the frame power Power calculated by the frame power calculator 71 of the encoder 17. That is, first, at step 4m, the noise power P
Is initialized to P0. For example, set P = 0. In this state, when the frame power Power and the mode of the current frame are input in step 4n, the process proceeds to step 4o and the noise power P is set to P = P * 0. 9 + Power * 0.1 That is, the frame power Pow of the noise frame
The er is leak-integrated to obtain a noise power P.
【0029】雑音LPC推定部16では、現行フレーム
のモードに応じて、符号化部17のLPC係数分析部7
2により得られるLPC係数をもとに雑音LPCの計算
が行なわれる。図5(a),(b)はその計算方法の2
つの例を示すものである。In the noise LPC estimation section 16, the LPC coefficient analysis section 7 of the encoding section 17 is selected according to the mode of the current frame.
The noise LPC is calculated based on the LPC coefficient obtained by 2. 5 (a) and 5 (b) show the calculation method 2
Two examples are shown.
【0030】先ず図5(a)に示す方法は、ステップ5
aにて雑音LSPLi をLi0(i=1,…,NP)に初
期設定する。例えば、雑音LPC係数Ai (i=1,
…,10)をAi =0.9i としたときのLSP変換値
をLi とする。そして、この状態でステップ5bにより
フレームモードModeおよびフレームのLSP係数l
i (i=1,…,NP)が入力されると、ステップ5c
において現行フレームが雑音モードであるとき、雑音L
SPLi を Li =Li *0.9+li *0.1 (i=1,…,NP) としてステップ5dにて出力する。すなわち、現行フレ
ームが雑音モードであるときのみ、雑音LSPLi をフ
レームLSPのリーク積分値に変更し、これをLPC係
数に変換して出力する。First, in the method shown in FIG.
At a, the noise LSPLi is initialized to Li0 (i = 1, ..., NP). For example, the noise LPC coefficient Ai (i = 1,
..., the LSP conversion value when the 10) was Ai = 0.9 i and Li. Then, in this state, in step 5b, the frame mode Mode and the LSP coefficient l of the frame are
When i (i = 1, ..., NP) is input, step 5c
, When the current frame is in noise mode, noise L
SPLi is output as Li = Li * 0.9 + li * 0.1 (i = 1, ..., NP) in step 5d. That is, only when the current frame is in the noise mode, the noise LSPLi is changed to the leak integral value of the frame LSP, which is converted into the LPC coefficient and output.
【0031】一方、図5(b)に示す方法は、LPC係
数を前記雑音レベル推定部13で計算された雑音自己相
関係数aaのべき乗で表わすものである。すなわち、先
ずステップ5eで雑音LPC係数Ai (i=1,…,1
0)の初期値を例えばAi =0.9i とする。そして、
この状態でステップ5fで現行フレームのモードMod
eおよび雑音自己相関係数aaが入力されると、ステッ
プ5gで雑音モードのときのみ雑音LPC係数Ai を Ai =aai (i=1,…,10) とし、このAi を出力する。On the other hand, the method shown in FIG. 5B represents the LPC coefficient by the power of the noise autocorrelation coefficient aa calculated by the noise level estimating unit 13. That is, first, at step 5e, the noise LPC coefficient Ai (i = 1, ..., 1)
The initial value of 0) for example, and Ai = 0.9 i. And
In this state, in step 5f, the mode Mod of the current frame
When e and the noise autocorrelation coefficient aa are input, the noise LPC coefficient Ai is set to Ai = aa i (i = 1, ..., 10) only in the noise mode in step 5g, and this Ai is output.
【0032】符号化部17は、フレームパワー計算部7
1と、LPC係数分析部72とを備えている。フレーム
パワー計算部71では、前記フレーム分割部12から出
力された現行フレームの信号のフレームパワーが算出さ
れ符号化される。また雑音LPC分析部72では、上記
現行フレームの信号のLPC係数またはLSP係数が計
算され符号化される。これらのフレームパワーの算出値
およびLPC係数またはLSP係数の算出値は、それぞ
れ雑音パワーの計算および雑音LPC係数の計算のため
に先に述べた雑音パワー計算部15および雑音LPC推
定部16に供給される。The coding unit 17 includes a frame power calculation unit 7
1 and an LPC coefficient analysis unit 72. In the frame power calculation unit 71, the frame power of the signal of the current frame output from the frame division unit 12 is calculated and encoded. Further, the noise LPC analysis unit 72 calculates and encodes the LPC coefficient or LSP coefficient of the signal of the current frame. The calculated value of the frame power and the calculated value of the LPC coefficient or the LSP coefficient are supplied to the noise power calculation unit 15 and the noise LPC estimation unit 16 described above for the calculation of the noise power and the calculation of the noise LPC coefficient, respectively. It
【0033】また符号化部17は、一対の切替スイッチ
73,74と、励起信号コードサーチ部75と、ピッチ
分析部76と、ローカルデコーダ77とを備えている。
切替スイッチ73,74は、前記音声/雑音判定部14
の判定結果に応じて、現行フレームが音声フレームであ
ればそれぞれフレームパワー計算部71およびLPC係
数分析部72側に切替わり、これによりその出力である
フレームパワーの計算値およびLPC係数の計算値をそ
れぞれ上記励起信号コードサーチ部75、ピッチ分析部
76およびローカルでコーダ77に供給する。一方、現
行フレームが雑音フレームになると、それぞれ雑音パワ
ー計算部15および雑音LPC推定部16側に切替わ
り、これによりその出力である雑音パワーの計算値およ
び雑音LPC係数の計算値をそれぞれ上記励起信号コー
ドサーチ部75、ピッチ分析部76およびローカルでコ
ーダ77に供給する。The encoding unit 17 also includes a pair of changeover switches 73 and 74, an excitation signal code search unit 75, a pitch analysis unit 76, and a local decoder 77.
The changeover switches 73 and 74 are for the voice / noise determination unit 14
If the current frame is a voice frame, the frame power calculation unit 71 and the LPC coefficient analysis unit 72 are switched to each other according to the result of the determination, and the calculated frame power calculation value and LPC coefficient calculation value are output. The excitation signal code search unit 75, the pitch analysis unit 76, and the coder 77 are supplied locally. On the other hand, when the current frame becomes a noise frame, the noise power calculation unit 15 and the noise LPC estimation unit 16 are switched to the noise power calculation unit 15 and the noise LPC coefficient calculation value, which are outputs thereof, respectively. It is supplied to the code search unit 75, the pitch analysis unit 76 and the coder 77 locally.
【0034】上記励起信号コードサーチ部75およびピ
ッチ分析部76では、それぞれ上記パワーの計算値およ
びLPC係数の計算値をもとに励起信号のコードサーチ
および送話信号フレームのピッチ分析が行なわれ、その
結果が符号化データとして図示しない送信回路へ出力さ
れる。またローカルでコーダ77では、励起信号の合成
が行なわれて、その結果が次のフレームの符号化に使用
される。すなわち、CELP方式による符号化が行なわ
れる。In the excitation signal code search unit 75 and the pitch analysis unit 76, the excitation signal code search and the transmission signal frame pitch analysis are performed based on the calculated power value and the calculated LPC coefficient, respectively. The result is output as encoded data to a transmission circuit (not shown). Also, locally in coder 77, the excitation signals are combined and the result is used for the encoding of the next frame. That is, the encoding by the CELP method is performed.
【0035】このような構成であるから、送話信号はフ
レーム化されたのち雑音レベル推定部13に入力され、
ここで雑音フレームのレベル推定が行なわれ、さらにこ
のレベル推定値をもとに雑音パワー計算部15において
雑音パワーの算出が行なわれる。このとき、上記雑音レ
ベルの計算では、Lフレームの期間にわたってフレーム
パワーRの最小値M1 および二番目に小さい値M2 の探
索が行なわれるので、1フレーム期間のみではなく長期
間にわたる雑音レベル値が推定されることになる。この
ため雑音パワーの計算値も長期間にわたる値が得られ
る。With this configuration, the transmission signal is framed and then input to the noise level estimation unit 13,
Here, the noise frame level is estimated, and the noise power calculation unit 15 calculates the noise power based on the level estimation value. At this time, in the calculation of the noise level, the minimum value M1 and the second smallest value M2 of the frame power R are searched over the period of L frames, so that the noise level value over a long period is estimated not only in one frame period. Will be done. Therefore, the calculated value of noise power can be obtained over a long period of time.
【0036】一方、雑音LPC推定部16においては、
符号化部17のLPC係数分析部72により得られるL
PC係数をもとに雑音LPCの計算が行なわれる。この
とき、雑音LPC係数は、雑音LSPLi をフレームL
SPのリーク積分値に変更し、これをLPC係数に変換
したものであるため、この雑音LPC係数についても1
フレーム期間のみではなく長期間にわたる値が得られ
る。On the other hand, in the noise LPC estimation section 16,
L obtained by the LPC coefficient analysis unit 72 of the encoding unit 17
The noise LPC is calculated based on the PC coefficient. At this time, the noise LPC coefficient is calculated by adding the noise LSPLi to the frame L
Since the leak integral value of SP is changed and converted to the LPC coefficient, this noise LPC coefficient is also 1
It is possible to obtain values over a long period of time as well as the frame period.
【0037】符号化部17においては、音声/雑音判定
部14の判定結果に応じて、現行フレームが音声フレー
ムであれば切替スイッチ73,74がそれぞれフレーム
パワー計算部71およびLPC係数分析部72に切替わ
る。このため、フレームパワー計算部71およびLPC
係数分析部72において算出されたフレームパワーおよ
びLPC係数をもとに、励起信号コードサーチ部75お
よびピッチ分析部76において励起信号のコードサーチ
とピッチ分析が行なわれて、その結果が符号化データと
して送信に供される。In the coding unit 17, if the current frame is a voice frame, the changeover switches 73 and 74 are assigned to the frame power calculation unit 71 and the LPC coefficient analysis unit 72, respectively, according to the determination result of the voice / noise determination unit 14. Switch. Therefore, the frame power calculation unit 71 and the LPC
Based on the frame power and the LPC coefficient calculated by the coefficient analysis unit 72, the excitation signal code search unit 75 and the pitch analysis unit 76 perform code search and pitch analysis of the excitation signal, and the result is encoded data. Used for transmission.
【0038】一方、現行フレームが雑音フレームだった
とすると、切替スイッチ73,74がそれぞれ雑音パワ
ー計算部15および雑音LPC推定部16に切替わる。
このため、このときには上記雑音パワー計算部15およ
び雑音LPC推定部16により先に求められた雑音パワ
ーおよび雑音LPC係数をもとに、上記励起信号コード
サーチ部75およびピッチ分析部76で励起信号のコー
ドサーチとピッチ分析が行なわれて、その結果が符号化
データとして送信に供されることになる。On the other hand, if the current frame is a noise frame, the changeover switches 73 and 74 are switched to the noise power calculation unit 15 and the noise LPC estimation unit 16, respectively.
Therefore, at this time, based on the noise power and the noise LPC coefficient previously obtained by the noise power calculation unit 15 and the noise LPC estimation unit 16, the excitation signal code search unit 75 and the pitch analysis unit 76 detect the excitation signal. Code search and pitch analysis are performed, and the result is sent as encoded data for transmission.
【0039】したがって、雑音フレームについては過去
の複数の雑音フレームにわたって推定された長期的な雑
音パワーおよび雑音LPC係数をもとに符号化されて送
信されることになる。このため、雑音フレームごとに単
独に補正を行なう場合に比べて、雑音フレーム間の歪み
を効果的に除去することができ、これにより雑音の歪み
は低減されてフレーム間で違和感のない通話を行なうこ
とができる。Therefore, the noise frame is encoded and transmitted based on the long-term noise power and the noise LPC coefficient estimated over a plurality of past noise frames. Therefore, distortion between noise frames can be effectively removed, as compared with the case where correction is performed individually for each noise frame, whereby distortion of noise is reduced and conversation is performed without discomfort between frames. be able to.
【0040】なお、以上の説明では、雑音レベル推定部
13による雑音レベルの推定値をもとに雑音パワー計算
部15で雑音パワーを計算し、この雑音パワー計算値を
符号化部17に供するようにしたが、雑音レベル推定部
13による雑音レベル推定値をそのまま符号化部17に
供するようにしてもよい。In the above description, the noise power calculation unit 15 calculates the noise power based on the noise level estimation value by the noise level estimation unit 13, and the noise power calculation value is supplied to the encoding unit 17. However, the noise level estimation value by the noise level estimation unit 13 may be provided to the encoding unit 17 as it is.
【0041】また、上記説明では雑音LPC推定部16
で自己相関係数aaをもとに雑音フレームのLPC係数
を推定し、この推定値を符号化部17に供するようにし
たが、雑音フレームのLPC係数を自己相関係数aaを
用いずに固定値(例えばaa=0.8)にしてもよい。
また、雑音パワーおよび雑音LPC係数のリーク積分値
を算出するのではなく、平均値を算出するようにしても
よい。In the above description, the noise LPC estimation unit 16
In the above, the LPC coefficient of the noise frame is estimated based on the autocorrelation coefficient aa, and this estimated value is supplied to the encoding unit 17. However, the LPC coefficient of the noise frame is fixed without using the autocorrelation coefficient aa. It may be a value (for example, aa = 0.8).
Further, the average value may be calculated instead of calculating the leak integral value of the noise power and the noise LPC coefficient.
【0042】さらに、図6に示すごとくフレーム分割部
12と符号化部17との間にノイズキャンセラ18を設
け、このノイズキャンセラ18において送話信号中の雑
音成分をキャンセル処理した後に前記雑音レベル推定部
13、音声/雑音判定部14および符号化部17に供給
するようにしてもよい。なお、ノイズキャンセルの方式
としては、例えば1993年電子情報通信学会秋季大会
B−287「移動通信における背景雑音軽減法の検討」
(三木 他)で発表された方式などを使用することがで
きる。Further, as shown in FIG. 6, a noise canceller 18 is provided between the frame dividing unit 12 and the coding unit 17, and the noise canceller 18 cancels the noise component in the transmission signal and then the noise level estimating unit 13 is provided. It may be supplied to the voice / noise determination unit 14 and the encoding unit 17. As a method of noise cancellation, for example, 1993 Autumn Meeting of the Institute of Electronics, Information and Communication Engineers B-287 "Study on Background Noise Reduction Method in Mobile Communication"
The method announced in (Miki et al.) Can be used.
【0043】このようにすることで、雑音歪みをさらに
低減して通話特性をさらに向上させることができる。ま
た、ノイズキャンセラ18の性能によっては、雑音フレ
ームのパワーが一定もしくは零に抑圧されて、雑音パワ
ーを雑音レベルと一致させることが可能となる。したが
って、この場合には雑音パワー計算部を不要にすること
ができる。By doing so, noise distortion can be further reduced and the call characteristics can be further improved. Further, depending on the performance of the noise canceller 18, the power of the noise frame can be suppressed to a constant value or zero, and the noise power can be matched with the noise level. Therefore, in this case, the noise power calculation unit can be omitted.
【0044】また、CELP方式において、スペクトル
分析パラメータとしてLPC係数を用いるほかにLSP
係数や反射係数を使用してもよい。これらのパラメータ
はLPC係数を変換することにより得ることができる。In addition, in the CELP method, in addition to using LPC coefficients as spectrum analysis parameters, LSP
A coefficient or a reflection coefficient may be used. These parameters can be obtained by converting the LPC coefficients.
【0045】さらに、第1の実施の形態では1種類の符
号化方式を用いて符号化を行なう装置を例にとって説明
したが、複数の符号化方式を持ち、これらを音声フレー
ムと雑音フレームとで切り替えて動作させるようにして
もよい。図7にその構成の一例を示す。すなわち、符号
化部として雑音部符号化部21と音声部符号化部22と
が設けてあり、これらの符号化部21,22に対し送話
信号を切替スイッチ20を介して切り分けて供給する。
切替スイッチ20の切り替えは、音声/雑音判定部14
の判定結果に応じて行なう。Further, although the first embodiment has been described by taking as an example a device which performs encoding using one type of encoding method, it has a plurality of encoding methods and these are used as a voice frame and a noise frame. You may make it switch and operate. FIG. 7 shows an example of the configuration. That is, a noise part coding part 21 and a voice part coding part 22 are provided as coding parts, and a transmission signal is divided and supplied to these coding parts 21 and 22 via the changeover switch 20.
The changeover switch 20 is switched by the voice / noise determination unit 14
It is performed according to the judgment result of.
【0046】(第2の実施の形態)図8は、この発明の
第2の実施の形態に係わる音声符号化通信装置の受信系
の要部構成を示す回路ブロック図である。(Second Embodiment) FIG. 8 is a circuit block diagram showing a main configuration of a receiving system of a voice coding communication apparatus according to a second embodiment of the present invention.
【0047】CELP方式などにより符号化された送信
符号化信号は、図示しない受信回路で受信されたのち復
号部3に入力される。復号部30は、パワー復号部31
と、LPC係数復号部32と、ピッチ復号部33と、励
起信号復号部34と、合成フィルタ35とを備えてい
る。そして、上記パワー復号部31、LPC係数復号部
32、ピッチ復号部33および励起信号復号部34でそ
れぞれ復号された信号が、合成フィルタ35においてL
PCフィルタリング処理されるとともにパワー調整され
て受話信号が再生される。The transmission coded signal coded by the CELP method or the like is input to the decoding unit 3 after being received by a receiving circuit (not shown). The decoding unit 30 includes a power decoding unit 31.
The LPC coefficient decoding unit 32, the pitch decoding unit 33, the excitation signal decoding unit 34, and the synthesis filter 35. Then, the signals decoded by the power decoding unit 31, the LPC coefficient decoding unit 32, the pitch decoding unit 33, and the excitation signal decoding unit 34 are L in the synthesis filter 35.
The received signal is reproduced by the PC filtering process and the power adjustment.
【0048】上記合成フィルタ35から出力された受話
信号は、雑音レベル推定部41および雑音重畳部47に
それぞれ入力される。雑音レベル推定部41では、上記
受話信号の雑音レベルが推定され、その推定値は雑音パ
ワー計算部44に入力される。雑音パワー計算部44で
は、上記雑音レベルの推定値をもとに雑音フレームのパ
ワーが計算され、この雑音フレームのパワー値は合成フ
ィルタ46に入力される。なお、雑音レベルの推定方式
としては図2に示したものと同じ方式が使用され、また
雑音パワーの計算方式としては図4に示したものと同じ
方式が使用される。また、雑音レベル推定部44におい
て計算されるパワーは、受話信号をフレーム分割したう
えで計算してもよいが、復号部30のパワー復号部31
の復号結果をそのまま使用してもよい。The received signal output from the synthesis filter 35 is input to the noise level estimation unit 41 and the noise superposition unit 47, respectively. The noise level estimation unit 41 estimates the noise level of the received signal, and the estimated value is input to the noise power calculation unit 44. The noise power calculation unit 44 calculates the power of the noise frame based on the estimated value of the noise level, and the power value of the noise frame is input to the synthesis filter 46. Note that the same method as that shown in FIG. 2 is used as the noise level estimation method, and the same method as that shown in FIG. 4 is used as the noise power calculation method. The power calculated by the noise level estimation unit 44 may be calculated after dividing the received signal into frames, but the power decoding unit 31 of the decoding unit 30 may be used.
The decryption result of may be used as it is.
【0049】一方、上記復号部30のLPC係数復号部
32で復号されたLPC係数は、音声/雑音判定部42
および雑音LPC推定部43にそれぞれ入力される。こ
のうち音声/雑音判定部42では、上記雑音レベル推定
部41で求められた雑音レベルの推定値をもとに音声フ
レームと雑音フレームとの判定が行なわれる。その判定
方式には、前記図3に示した方式と同じ方式が使用され
る。なお、判定において使用される自己相関関数には、
LPC復号部32の復号結果が反射係数であればその第
1係数が一次自己相関係数と等しいのでこれを流用でき
る。LPC係数復号部32の復号結果がLSP係数また
はLPC係数であれば、これらの係数を変換して一次自
己相関係数値を算出すればよい。On the other hand, the LPC coefficient decoded by the LPC coefficient decoding section 32 of the decoding section 30 is the voice / noise determination section 42.
And noise LPC estimation section 43, respectively. Among these, the voice / noise determination unit 42 determines a voice frame and a noise frame based on the estimated value of the noise level obtained by the noise level estimation unit 41. As the determination method, the same method as the method shown in FIG. 3 is used. The autocorrelation function used in the determination is
If the decoding result of the LPC decoding unit 32 is a reflection coefficient, the first coefficient is equal to the first-order autocorrelation coefficient and can be used. If the decoding result of the LPC coefficient decoding unit 32 is the LSP coefficient or the LPC coefficient, these coefficients may be converted to calculate the primary autocorrelation coefficient value.
【0050】雑音LPC推定部43では、上記復号部3
のLPC係数復号部32の復号結果をもとに、雑音LP
C係数が推定される。その推定計算方式としては図5に
示した方法と同じものが使用される。In the noise LPC estimation section 43, the decoding section 3
Based on the decoding result of the LPC coefficient decoding unit 32 of
The C coefficient is estimated. The same estimation calculation method as that shown in FIG. 5 is used.
【0051】白色雑音生成部45では、励起信号の代わ
りとなる白色雑音が生成され、この白色雑音は合成フィ
ルタ46に入力される。合成フィルタ46では、雑音パ
ワー計算部44により算出された雑音パワーおよび雑音
LPC推定部43により推定された雑音LPC係数を用
いて、上記白色雑音に対しLPCフィルタリング処理が
行なわれるとともにパワーが調整されて合成雑音が生成
される。なお、白色雑音の生成方法としては、例えばM
系列を用いた方法や、割り算を行なって余りをランダム
列として出力する方法などが使用される。The white noise generating section 45 generates white noise as a substitute for the excitation signal, and this white noise is input to the synthesis filter 46. The synthesis filter 46 uses the noise power calculated by the noise power calculation unit 44 and the noise LPC coefficient estimated by the noise LPC estimation unit 43 to perform LPC filtering processing on the white noise and adjust the power. Synthetic noise is generated. As a method of generating white noise, for example, M
A method using a series or a method of performing division and outputting the remainder as a random sequence is used.
【0052】雑音重畳部47は、上記音声/雑音判定部
42の判定結果に応じて、上記復号部30の合成フィル
タ35で生成された受話信号と、上記合成フィルタ46
で生成された合成雑音とを選択的に出力する。図9
(a)は上記雑音重畳部47の構成の一例を示したもの
で、この例は切替スイッチにより受話信号と合成雑音と
を択一的に切り替えて出力するものである。The noise superimposing section 47 receives the received signal generated by the synthesizing filter 35 of the decoding section 30 and the synthesizing filter 46 according to the decision result of the speech / noise deciding section 42.
And the synthesized noise generated in step (4) is selectively output. FIG.
(A) shows an example of the configuration of the noise superimposing unit 47. In this example, the reception signal and the synthetic noise are selectively switched by the changeover switch and output.
【0053】このような構成であるから、雑音レベル推
定部41により複数の雑音フレームの期間にわたって雑
音レベルが推定されてその推定値をもとに雑音フレーム
のパワーが均一化されるとともに、雑音LPC推定部4
3により複数の雑音フレームの期間にわたって雑音LP
C係数が推定されてその推定値をもとにLPC係数が平
均化され、さらに白色雑音生成部45により励起信号に
代わって白色雑音が生成され、この白色雑音が上記雑音
フレームのパワーおよび雑音LPC係数もとにフィルタ
リングおよびパワー調整されて合成雑音が生成される。
そして、この合成音声が受話信号の雑音フレームに置換
されて受話出力される。With such a configuration, the noise level estimation unit 41 estimates the noise level over a plurality of noise frame periods, and the noise frame power is equalized based on the estimated values, and the noise LPC Estimator 4
3 by the noise LP over the period of multiple noise frames
The C coefficient is estimated, the LPC coefficient is averaged based on the estimated value, and white noise is generated by the white noise generation unit 45 in place of the excitation signal. The white noise is the power of the noise frame and the noise LPC. Filtering and power adjustment are performed based on the coefficients to generate synthetic noise.
Then, this synthesized voice is replaced with the noise frame of the reception signal and is received and output.
【0054】すなわち、励起信号として白色雑音が使用
され、さらに過去の複数の雑音フレームにわたって推定
された長期的な雑音パワーおよび雑音LPC係数をもと
に合成音声が生成され、この合成雑音が受話音声の背景
雑音として出力されることになる。That is, white noise is used as the excitation signal, and synthetic speech is generated based on the long-term noise power estimated over a plurality of past noise frames and the noise LPC coefficient, and this synthetic noise is received speech. Will be output as background noise.
【0055】したがって、音声に適応した符号帳から雑
音用の励起信号を生成することによって発生していた雑
音歪みは解消され、また雑音フレーム間の雑音の変動は
抑制されてフレーム間で違和感が少なく聞き易く、より
自然な背景雑音を再生することができる。Therefore, the noise distortion generated by generating the excitation signal for noise from the codebook adapted to speech is eliminated, and the fluctuation of noise between noise frames is suppressed so that there is less discomfort between frames. It is easy to hear, and more natural background noise can be reproduced.
【0056】なお、雑音重畳部47は次のような各種変
形が考えられる。すなわち、図9(b)に示す構成は、
雑音フレームの期間には切替スイッチ81で合成雑音を
選択して出力し、音声フレームの期間には加算器82に
おいて合成音声が加算された受話再生信号を選択して出
力するものである。また図9(c)に示すものは、重み
付けのための乗算器83,84を設け、雑音フレーム/
音声フレームの判定結果に応じて、異なる重み付け係数
r1 ,r2 を合成雑音および受話再生信号に与え、その
出力信号を加算器85で合成して出力するようにしたも
のである。The noise superimposing section 47 may be modified in various ways as follows. That is, the configuration shown in FIG.
During the noise frame period, the changeover switch 81 selects and outputs the synthesized noise, and during the voice frame period, the adder 82 selects and outputs the reception reproduction signal to which the synthesized voice is added. Further, the one shown in FIG. 9C is provided with multipliers 83 and 84 for weighting, and noise frames /
Different weighting factors r1 and r2 are given to the synthetic noise and the received voice reproduction signal in accordance with the result of the voice frame determination, and the output signal is synthesized by the adder 85 and output.
【0057】なお、この本発明は上記各実施の形態に限
定されるものではない。例えば、上記第1の実施の形態
では送信側のみで雑音対策を行ない、一方第2の実施の
形態では受信側のみで雑音対策を行なった場合について
説明したが、送信側および受信側でそれぞれ上記各実施
の形態で述べた雑音対策を実行するようにしてもよい。The present invention is not limited to the above embodiments. For example, in the above-described first embodiment, the noise countermeasure is performed only on the transmitting side, while in the second embodiment, the noise countermeasure is performed only on the receiving side. The noise countermeasure described in each embodiment may be executed.
【0058】[0058]
【発明の効果】以上詳述したようにこの発明では、送信
側において、音声/雑音判定手段により雑音フレームと
判定されたフレームについて、それぞれ雑音レベルを表
わす情報、または雑音のスペクトル分析パラメータを推
定し、上記音声/雑音判定手段により雑音フレームと判
定されたフレームを符号化する際に、過去の複数の雑音
フレームについて各々推定された上記雑音レベルを表わ
す情報または上記雑音のスペクトル分析パラメータを参
照するようにしている。As described above in detail, according to the present invention, the transmitting side estimates the information indicating the noise level or the noise spectrum analysis parameter for each frame determined to be a noise frame by the voice / noise determining means. When encoding a frame determined to be a noise frame by the voice / noise determination means, reference is made to information indicating the noise level estimated for each of a plurality of past noise frames or a spectrum analysis parameter of the noise. I have to.
【0059】また、受信側において、音声/雑音判定手
段により雑音フレームと判定されたフレームについて、
それぞれ雑音レベルを表わす情報を推定し、上記音声/
雑音判定手段により雑音フレームと判定されたフレーム
の信号を再生する際に、過去の複数の雑音フレームにつ
いて各々推定された雑音レベルを表わす情報に基づいて
レベル調整するようにしている。Further, regarding the frame judged to be a noise frame by the voice / noise judgment means on the receiving side,
Estimating the information indicating the noise level,
When the signal of the frame determined to be the noise frame by the noise determination means is reproduced, the level is adjusted based on the information indicating the noise level estimated for each of the plurality of past noise frames.
【0060】したがってこの発明によれば、フレーム間
の歪みを低減して雑音特性向上を図り、これにより高雑
音環境下における通話品質をさらに高め得る音声符号化
通信装置を提供することができる。Therefore, according to the present invention, it is possible to provide a voice coding communication device capable of reducing distortion between frames and improving noise characteristics, thereby further improving the call quality in a high noise environment.
【0061】一方、他の発明では、音声/雑音判定手段
により雑音フレームと判定されたフレームについてそれ
ぞれ雑音レベルを表わす情報または雑音スペクトル分析
パラメータを推定し、この推定結果をもとに合成雑音を
生成して、この合成雑音を現行雑音フレームの受信復号
信号に置換、重畳または重み付け加算して出力するよう
にしたり、また上記合成音声を音声フレームの受信復号
信号に重畳または重み付け加算して出力するようにして
いる。したがってこの発明によれば、より自然感の高い
雑音および音声を再生することができる音声符号化通信
装置を提供することができる。On the other hand, in another invention, the information indicating the noise level or the noise spectrum analysis parameter is estimated for each frame determined to be a noise frame by the voice / noise determination means, and synthetic noise is generated based on this estimation result. Then, the synthesized noise is replaced with the received decoded signal of the current noise frame, superimposed or weighted and added, and the synthesized speech is outputted after being superimposed or weighted with the received decoded signal of the speech frame. I have to. Therefore, according to the present invention, it is possible to provide a voice coding communication device capable of reproducing noise and voice having a more natural feeling.
【図1】この発明の第1の実施の形態に係わる音声符号
化通信装置の送信系の要部構成を示す回路ブロック図。FIG. 1 is a circuit block diagram showing a main configuration of a transmission system of a voice coding communication device according to a first embodiment of the present invention.
【図2】図1に示した装置の雑音レベル推定部における
推定計算手順およびその内容を示すフローチャート。FIG. 2 is a flowchart showing an estimation calculation procedure and its contents in a noise level estimation unit of the apparatus shown in FIG.
【図3】図1に示した装置の音声/雑音判定部における
判定処理手順およびその内容を示すフローチャート。FIG. 3 is a flowchart showing a determination processing procedure and its contents in a voice / noise determination unit of the apparatus shown in FIG.
【図4】図1に示した装置の雑音パワー計算部における
雑音パワーの計算手順およびその内容を示すフローチャ
ート。4 is a flowchart showing a noise power calculation procedure and its contents in a noise power calculation unit of the apparatus shown in FIG.
【図5】図1に示した装置の雑音LPC推定部における
雑音LPCの計算手順およびその内容を示すフローチャ
ート。5 is a flowchart showing a noise LPC calculation procedure and its contents in a noise LPC estimation unit of the apparatus shown in FIG.
【図6】第1の実施の形態の変形例を示す音声符号化通
信装置の回路ブロック図。FIG. 6 is a circuit block diagram of a voice coding communication device showing a modification of the first embodiment.
【図7】第1の実施の形態の他の変形例を示す音声符号
化通信装置の回路ブロック図。FIG. 7 is a circuit block diagram of a voice coding communication device showing another modification of the first embodiment.
【図8】この発明の第2の実施の形態に係わる音声符号
化通信装置の受信系の要部構成を示す回路ブロック図。FIG. 8 is a circuit block diagram showing a main configuration of a reception system of a voice coding communication device according to a second embodiment of the present invention.
【図9】図8に示した装置の雑音重畳部の構成例を示す
図。9 is a diagram showing a configuration example of a noise superimposing unit of the device shown in FIG.
11…マイクロホン 12…フレーム分割部 13…雑音レベル推定部 14…音声/雑音判定部 15…雑音パワー計算部 16,19…雑音LPC推定部 17…符号化部 18…ノイズキャンセラ 20…符号化部の切替スイッチ 21…雑音部符号化部 22…音声部符号化部 30…復号部 31…パワー復号部 32…LPC係数復号部 33…ピッチ復号部 34…励起信号復号部 35…合成フィルタ 41…雑音レベル推定部 42…音声/雑音判定部 43…雑音LPC推定部 44…雑音パワー計算部 45…白色雑音生成部 46…合成フィルタ 47…雑音重畳部 71…フレームパワー計算部 72…LPC係数分析部 73,74…切替スイッチ 75…励起信号コードサーチ部 76…ピッチ分析部 77…ローカルデコーダ 81…切替スイッチ 82,85…加算器 83,84…重み付け用乗算器 11 ... Microphone 12 ... Frame division unit 13 ... Noise level estimation unit 14 ... Voice / noise determination unit 15 ... Noise power calculation unit 16, 19 ... Noise LPC estimation unit 17 ... Encoding unit 18 ... Noise canceller 20 ... Switching of encoding unit Switch 21 ... Noise part coding part 22 ... Speech part coding part 30 ... Decoding part 31 ... Power decoding part 32 ... LPC coefficient decoding part 33 ... Pitch decoding part 34 ... Excitation signal decoding part 35 ... Synthesis filter 41 ... Noise level estimation Part 42 ... Speech / noise determination part 43 ... Noise LPC estimation part 44 ... Noise power calculation part 45 ... White noise generation part 46 ... Synthesis filter 47 ... Noise superposition part 71 ... Frame power calculation part 72 ... LPC coefficient analysis part 73, 74 ... Changeover switch 75 ... Excitation signal code search unit 76 ... Pitch analysis unit 77 ... Local decoder 81 ... Changeover switch 8 2, 85 ... Adder 83, 84 ... Weighting multiplier
Claims (17)
するフレーム分割手段と、 このフレーム分割手段により分割された各フレームごと
に、当該フレームが音声フレームであるか雑音フレーム
であるかを判定するための音声/雑音判定手段と、 この音声/雑音判定手段により雑音フレームと判定され
たフレームについて、雑音レベルを表わす情報を推定す
るための雑音レベル推定手段と、 前記音声/雑音判定手段により雑音フレームと判定され
たフレームを、過去の複数の雑音フレームについて前記
雑音レベル推定手段により各々推定された雑音レベルを
表わす情報に基づいて符号化するための符号化手段とを
具備したことを特徴とする音声符号化通信装置。1. A frame dividing unit that divides a transmission input signal into frames each having a constant length, and for each frame divided by the frame dividing unit, determines whether the frame is a voice frame or a noise frame. And a noise level estimating means for estimating information indicating a noise level of a frame determined to be a noise frame by the voice / noise determining means, and noise by the voice / noise determining means. Coding means for coding a frame determined to be a frame on the basis of information representing the noise level estimated by the noise level estimating means for a plurality of noise frames in the past is provided. Speech coding communication device.
により雑音フレームと判定されたフレームを、過去の複
数の雑音フレームについて前記雑音レベル推定手段によ
り各々推定された雑音レベルを表わす情報の平均値およ
びリーク積分値のいずれか一方に基づいて符号化するこ
とを特徴とする請求項1記載の音声符号化通信装置。2. The encoding means averages the information indicating the noise level of each of the plurality of noise frames of the past frames determined as the noise frame by the voice / noise determination means, the noise level being estimated by the noise level estimation means. The voice coding communication device according to claim 1, wherein the voice coding communication device is coded on the basis of one of a value and a leak integration value.
により雑音フレームと判定されたフレームを、過去の複
数の雑音フレームについて前記雑音レベル推定手段によ
り各々推定された雑音レベルを表わす値およびこの値か
ら所定値を引いた値のいずれか一方に調整して符号化す
ることを特徴とする請求項1記載の音声符号化通信装
置。3. The encoding means determines the noise level estimated by the noise level estimating means for each of a plurality of noise frames in the past, and a value representing the noise level of the frame determined by the voice / noise determining means. The voice coding communication device according to claim 1, wherein the voice coding communication device is adjusted to one of a value obtained by subtracting a predetermined value from the value and then coded.
により雑音フレームと判定されたフレームが所定数以上
連続した場合に、現行フレームのレベルを雑音レベル推
定手段による雑音レベルの推定値から所定値を引いたレ
ベルに調整すること特徴とする請求項3記載の音声符号
化通信装置。4. The encoding means determines the level of the current frame from the noise level estimation value by the noise level estimation means when the number of frames determined to be noise frames by the voice / noise determination means continues for a predetermined number or more. The voice coding communication device according to claim 3, wherein the level is adjusted to a level minus the value.
するフレーム分割手段と、 このフレーム分割手段により分割された各フレームごと
に、当該フレームが音声フレームであるか雑音フレーム
であるかを判定するための音声/雑音判定手段と、 この音声/雑音判定手段により雑音フレームと判定され
たフレームについて、雑音のスペクトル分析パラメータ
を推定するための雑音スペクトル推定手段と、 前記音声/雑音判定手段により雑音フレームと判定され
たフレームを、過去の複数の雑音フレームについて前記
雑音スペクトル推定手段により各々推定された雑音のス
ペクトル分析パラメータに基づいて符号化する符号化手
段とを具備したことを特徴とする音声符号化通信装置。5. A frame dividing unit that divides a transmission input signal into frames each having a fixed length, and for each frame divided by the frame dividing unit, determines whether the frame is a voice frame or a noise frame. And a noise spectrum estimating unit for estimating a spectrum analysis parameter of noise with respect to a frame determined to be a noise frame by the voice / noise determining unit, and noise by the voice / noise determining unit. A speech code including a coding unit that codes a frame determined to be a frame based on a spectrum analysis parameter of noise estimated by the noise spectrum estimating unit for a plurality of past noise frames. Communication device.
により雑音フレームと判定されたフレームを、過去の複
数の雑音フレームについて前記雑音スペクトル推定手段
により各々推定された雑音スペクトル分析パラメータの
平均値およびリーク積分値のいずれか一方に基づいて符
号化することを特徴とする請求項5記載の音声符号化通
信装置。6. The coding means includes an average value of noise spectrum analysis parameters estimated by the noise spectrum estimating means for each of a plurality of past noise frames of the frame determined to be the noise frame by the voice / noise determining means. 6. The voice coding communication device according to claim 5, wherein the voice coding communication device performs coding based on either one of the leak integration value and the leak integration value.
号して受信復号信号を出力するための復号手段と、 この復号手段から出力された受信復号信号を一定長ごと
にフレーム化するフレーム分割手段と、 このフレーム分割手段により分割された各フレームごと
に、当該フレームが音声フレームであるか雑音フレーム
であるかを判定するための音声/雑音判定手段と、 この音声/雑音判定手段により雑音フレームと判定され
たフレームについて、雑音レベルを表わす情報を推定す
るための雑音レベル推定手段と、 前記音声/雑音判定手段により雑音フレームと判定され
たフレームを、過去の複数の雑音フレームについて前記
雑音レベル推定手段により各々推定された雑音レベルを
表わす情報に基づいてレベル調整して出力する雑音再生
手段とを具備したことを特徴とする音声符号化通信装
置。7. Decoding means for decoding a reception code transmitted through a transmission path and outputting a reception decoded signal, and a frame for framing the reception decoded signal output from this decoding means for each fixed length. Dividing means, voice / noise determining means for determining, for each frame divided by the frame dividing means, whether the frame is a voice frame or a noise frame, and noise by the voice / noise determining means Noise level estimating means for estimating information indicating a noise level for a frame determined to be a frame; and a frame determined to be a noise frame by the voice / noise determining means, for the plurality of past noise frames, the noise level Noise reproducing means for adjusting and outputting the level based on the information representing the noise level estimated by the estimating means, and Speech coding communication apparatus characterized by comprising.
号して受信復号信号を出力するための復号手段と、 この復号手段から出力された受信復号信号を一定長ごと
にフレーム化するフレーム分割手段と、 このフレーム分割手段により分割された各フレームごと
に、当該フレームが音声フレームであるか雑音フレーム
であるかを判定するための音声/雑音判定手段と、 この音声/雑音判定手段により雑音フレームと判定され
たフレームについて、雑音レベルを表わす情報を推定す
るための雑音レベル推定手段と、 前記雑音レベル推定手段により過去の複数の雑音フレー
ムについて各々推定された雑音レベルを表わす情報に基
づいてレベル調整した合成雑音を生成するための合成雑
音生成手段と、 この合成雑音生成手段により生成された合成雑音を基
に、前記音声/雑音判定手段により雑音フレームと判定
された現行フレームの受信復号信号を可変して出力する
雑音再生手段とを具備したことを特徴とする音声符号化
通信装置。8. Decoding means for decoding a reception code transmitted through a transmission path and outputting a reception decoded signal, and a frame for framing the reception decoded signal output from this decoding means at fixed length intervals. Dividing means, voice / noise determining means for determining, for each frame divided by the frame dividing means, whether the frame is a voice frame or a noise frame, and noise by the voice / noise determining means For a frame determined to be a frame, a noise level estimating means for estimating information indicating a noise level, and a level based on information indicating a noise level estimated for each of a plurality of past noise frames by the noise level estimating means. Synthetic noise generating means for generating adjusted synthetic noise, and the synthetic noise generated by the synthetic noise generating means. To group, the voice / noise decision unit speech coding communication apparatus characterized by comprising a noise reproduction means to receive decoded signal of the current frame is determined as a noise frame variable and output by.
号して受信復号信号を出力するための復号手段と、 この復号手段から出力された受信復号信号を一定長ごと
にフレーム化するフレーム分割手段と、 このフレーム分割手段により分割された各フレームごと
に、当該フレームが音声フレームであるか雑音フレーム
であるかを判定するための音声/雑音判定手段と、 この音声/雑音判定手段により雑音フレームと判定され
たフレームについて、雑音のスペクトル分析パラメータ
を推定するための雑音スペクトル推定手段と、 この雑音スペクトル推定手段により過去の複数の雑音フ
レームについて各々推定された雑音スペクトル分析パラ
メータに基づいて合成雑音を生成するための合成雑音生
成手段と、 この合成雑音生成手段により生成された合成雑音を基
に、前記音声/雑音判定手段により雑音フレームと判定
された現行フレームの受信復号信号を可変して出力する
雑音再生手段とを具備したことを特徴とする音声符号化
通信装置。9. Decoding means for decoding a reception code transmitted through a transmission path and outputting a reception decoded signal, and a frame for framing the reception decoded signal output from this decoding means for each fixed length. Dividing means, voice / noise determining means for determining, for each frame divided by the frame dividing means, whether the frame is a voice frame or a noise frame, and noise by the voice / noise determining means For a frame determined to be a frame, noise spectrum estimation means for estimating a spectrum analysis parameter of noise, and synthetic noise based on the noise spectrum analysis parameter estimated for each of a plurality of past noise frames by this noise spectrum estimation means. And a synthetic noise generation means for generating Based on synthetic noise, the speech / noise determination unit speech coding communication apparatus characterized by comprising a noise reproduction means to receive decoded signal of the current frame is determined as a noise frame variable and output by.
フレームの受信復号信号に置換して出力することを特徴
とする請求項8または9記載の音声符号化通信装置。10. The voice coding communication device according to claim 8, wherein the noise reproducing means replaces the synthesized noise with the received decoded signal of the current frame and outputs the signal.
フレームの受信復号信号に重畳して出力することを特徴
とする請求項8または9記載の音声符号化通信装置。11. The voice coding communication device according to claim 8, wherein the noise reproducing means superimposes the synthesized noise on the received decoded signal of the current frame and outputs the superimposed signal.
フレームの受信復号信号に重み付け加算して出力するこ
とを特徴とする請求項8または9記載の音声符号化通信
装置。12. The speech coded communication device according to claim 8, wherein the noise reproduction means weights and adds the synthesized speech to the received decoded signal of the current frame and outputs the synthesized speech.
段を有し、この白色雑音発生手段により発生された白色
雑音に、前記雑音スペクトル推定手段で推定された雑音
スペクトル分析パラメータを与えることにより、合成雑
音を生成することを特徴とする請求項9記載の音声符号
化通信装置。13. The synthetic noise generating means has a white noise generating means, and gives the noise spectrum analysis parameter estimated by the noise spectrum estimating means to the white noise generated by the white noise generating means, The speech-coded communication device according to claim 9, wherein synthetic speech is generated.
た合成雑音を基に、前記音声/雑音判定手段により音声
フレームと判定された現行フレームの受信復号信号を可
変して出力するための音声再生手段を備えたことを特徴
とする請求項8または9記載の音声符号化通信装置。14. A voice reproduction means for variably outputting a received decoded signal of a current frame determined to be a voice frame by the voice / noise determination means on the basis of the synthesized noise generated by the synthesized noise generation means. 10. The voice coding communication device according to claim 8, further comprising:
フレームの受信復号信号に重畳して出力することを特徴
とする請求項14記載の音声符号化通信装置。15. The voice coded communication apparatus according to claim 14, wherein the voice reproduction means superimposes the synthesized noise on the received decoded signal of the current frame and outputs the superimposed signal.
フレームの受信復号信号に重み付け加算して出力するこ
とを特徴とする請求項14記載の音声符号化通信装置。16. The voice coding communication device according to claim 14, wherein the voice reproducing means weights and adds the synthesized voice to the received decoded signal of the current frame and outputs the weighted decoded signal.
出値とのレベル差分を求める手段と、 前記雑音フレームの自己相関係数の推定値と現行フレー
ムの自己相関係数の検出値との自己相関差分の絶対値を
求める手段と、 前記レベル差分および自己相関差分の絶対値の少なくと
も一方を用いて、現行フレームが音声フレームであるか
雑音フレームであるかを判定する手段を備えたことを特
徴とする請求項1、5、7、8または9のいずれかに記
載の音声符号化通信装置。17. The speech / noise determining means includes means for obtaining a level difference between a level estimation value of a noise frame and a level detection value of a current frame; an estimation value of an autocorrelation coefficient of the noise frame and a self level of the current frame. A means for determining the absolute value of the autocorrelation difference with the detected value of the correlation coefficient, and at least one of the absolute values of the level difference and the autocorrelation difference are used to determine whether the current frame is a speech frame or a noise frame. 10. The voice coding communication device according to claim 1, further comprising a determining unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7207154A JPH0954600A (en) | 1995-08-14 | 1995-08-14 | Voice-coding communication device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7207154A JPH0954600A (en) | 1995-08-14 | 1995-08-14 | Voice-coding communication device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0954600A true JPH0954600A (en) | 1997-02-25 |
Family
ID=16535125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7207154A Pending JPH0954600A (en) | 1995-08-14 | 1995-08-14 | Voice-coding communication device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0954600A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001242896A (en) * | 2000-02-29 | 2001-09-07 | Matsushita Electric Ind Co Ltd | Speech coding/decoding apparatus and its method |
JP2003504669A (en) * | 1999-07-02 | 2003-02-04 | テラブス オペレーションズ,インコーポレイティド | Coding domain noise control |
US7024354B2 (en) | 2000-11-06 | 2006-04-04 | Nec Corporation | Speech decoder capable of decoding background noise signal with high quality |
US7478042B2 (en) | 2000-11-30 | 2009-01-13 | Panasonic Corporation | Speech decoder that detects stationary noise signal regions |
WO2014034697A1 (en) * | 2012-08-29 | 2014-03-06 | 日本電信電話株式会社 | Decoding method, decoding device, program, and recording method thereof |
JP2016505873A (en) * | 2013-01-11 | 2016-02-25 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Audio signal encoding and decoding method and audio signal encoding and decoding apparatus |
-
1995
- 1995-08-14 JP JP7207154A patent/JPH0954600A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003504669A (en) * | 1999-07-02 | 2003-02-04 | テラブス オペレーションズ,インコーポレイティド | Coding domain noise control |
JP2001242896A (en) * | 2000-02-29 | 2001-09-07 | Matsushita Electric Ind Co Ltd | Speech coding/decoding apparatus and its method |
US7024354B2 (en) | 2000-11-06 | 2006-04-04 | Nec Corporation | Speech decoder capable of decoding background noise signal with high quality |
US7478042B2 (en) | 2000-11-30 | 2009-01-13 | Panasonic Corporation | Speech decoder that detects stationary noise signal regions |
US9640190B2 (en) | 2012-08-29 | 2017-05-02 | Nippon Telegraph And Telephone Corporation | Decoding method, decoding apparatus, program, and recording medium therefor |
CN104584123A (en) * | 2012-08-29 | 2015-04-29 | 日本电信电话株式会社 | Decoding method, decoding device, program, and recording method thereof |
EP2869299A4 (en) * | 2012-08-29 | 2016-06-01 | Nippon Telegraph & Telephone | Decoding method, decoding device, program, and recording method thereof |
JPWO2014034697A1 (en) * | 2012-08-29 | 2016-08-08 | 日本電信電話株式会社 | Decoding method, decoding device, program, and recording medium thereof |
WO2014034697A1 (en) * | 2012-08-29 | 2014-03-06 | 日本電信電話株式会社 | Decoding method, decoding device, program, and recording method thereof |
CN108053830A (en) * | 2012-08-29 | 2018-05-18 | 日本电信电话株式会社 | Coding/decoding method, decoding apparatus, program and recording medium |
CN108053830B (en) * | 2012-08-29 | 2021-12-07 | 日本电信电话株式会社 | Decoding method, decoding device, and computer-readable recording medium |
JP2016505873A (en) * | 2013-01-11 | 2016-02-25 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Audio signal encoding and decoding method and audio signal encoding and decoding apparatus |
JP2017138616A (en) * | 2013-01-11 | 2017-08-10 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Audio signal encoding and decoding method and audio signal encoding and decoding apparatus |
US9805736B2 (en) | 2013-01-11 | 2017-10-31 | Huawei Technologies Co., Ltd. | Audio signal encoding and decoding method, and audio signal encoding and decoding apparatus |
US10373629B2 (en) | 2013-01-11 | 2019-08-06 | Huawei Technologies Co., Ltd. | Audio signal encoding and decoding method, and audio signal encoding and decoding apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6539355B1 (en) | Signal band expanding method and apparatus and signal synthesis method and apparatus | |
US5774835A (en) | Method and apparatus of postfiltering using a first spectrum parameter of an encoded sound signal and a second spectrum parameter of a lesser degree than the first spectrum parameter | |
JP3963850B2 (en) | Voice segment detection device | |
JP3522012B2 (en) | Code Excited Linear Prediction Encoder | |
US5794199A (en) | Method and system for improved discontinuous speech transmission | |
EP0911807B1 (en) | Sound synthesizing method and apparatus, and sound band expanding method and apparatus | |
JP2746033B2 (en) | Audio decoding device | |
JPH0635500A (en) | Voice compressor using celp | |
US20070232257A1 (en) | Noise suppressor | |
WO2001059766A1 (en) | Background noise reduction in sinusoidal based speech coding systems | |
JPH0713600A (en) | Vocoder ane method for encoding of drive synchronizing time | |
US6424942B1 (en) | Methods and arrangements in a telecommunications system | |
JPH0946233A (en) | Sound encoding method/device and sound decoding method/ device | |
JP2004138756A (en) | Voice coding device, voice decoding device, and voice signal transmitting method and program | |
JPH10340097A (en) | Comfortable noise generator, voice encoder including its component and decoder | |
JPH0954600A (en) | Voice-coding communication device | |
CN116052700B (en) | Voice coding and decoding method, and related device and system | |
JP3472279B2 (en) | Speech coding parameter coding method and apparatus | |
JPH0758687A (en) | Sound suppression device | |
JP3095340B2 (en) | Audio decoding device | |
JP6713424B2 (en) | Audio decoding device, audio decoding method, program, and recording medium | |
JPH09319397A (en) | Digital signal processor | |
JP2002132300A (en) | Speech encoding method, speech decoding method and electronic apparatus | |
JPH06130998A (en) | Compressed voice decoding device | |
JP3580906B2 (en) | Voice decoding device |