JP3583550B2 - Interpolator - Google Patents

Interpolator Download PDF

Info

Publication number
JP3583550B2
JP3583550B2 JP17148196A JP17148196A JP3583550B2 JP 3583550 B2 JP3583550 B2 JP 3583550B2 JP 17148196 A JP17148196 A JP 17148196A JP 17148196 A JP17148196 A JP 17148196A JP 3583550 B2 JP3583550 B2 JP 3583550B2
Authority
JP
Japan
Prior art keywords
parameter
power
feature parameter
past
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17148196A
Other languages
Japanese (ja)
Other versions
JPH1022936A (en
Inventor
田 博 昭 竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP17148196A priority Critical patent/JP3583550B2/en
Publication of JPH1022936A publication Critical patent/JPH1022936A/en
Application granted granted Critical
Publication of JP3583550B2 publication Critical patent/JP3583550B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、伝送路において誤りが付加された音声符号化信号をフレーム単位でパラメータ補間して出力音声信号を算出する補間装置に関する。
【0002】
【従来の技術】
従来、伝送路において誤りが付加された音声符号化信号を過去のフレームのパラメータを用いて補間する補間装置は、”Channel Coding For Digital Speech Transmission In The Japanese Digital Cellular System (by M.J.McLaughlin, 電子情報通信学会、無線通信システム研究会、RCS90−27)に記載されたものが知られている。
【0003】
図3は従来の補間装置の構成例を示すブロック図である。図3において、この例では、データアンパッキング部1と、特徴パラメータ補間部2と、過去特徴パラメータ格納部3と、音声復号化部4とが設けられている。また、1aは受信信号、1bは特徴パラメータ、1cは誤り判定信号、1dは過去特徴パラメータ、1eは補正特徴パラメータ、1jは復号化音声信号である。
【0004】
以上のように構成された補間装置について以下にその動作について説明する。まずデータアンパッキング部1において、受信信号1aを特徴パラメータ1bと誤り判定信号1cに分離し、それらを特徴パラメータ補間部2に伝送する。特徴パラメータ補間部2では、補正特徴パラメータ1eを算出する。特徴パラメータ1bが、特徴パラメータ補間部2に伝送されてきた誤り判定信号1cにより誤っていると判定された場合は、過去特徴パラメータ格納部3内に格納されている過去特徴パラメータ1dを補正特徴パラメータ1eとして音声復号化部7に出力する。特徴パラメータ1bが、特徴パラメータ補間部2に伝送されてきた誤り判定信号1cにより誤っていないと判定された場合は、特徴パラメータ1bを補正特徴パラメータ1eとして音声復号化部7に出力する。また、補正特徴パラメータ1eは、次フレームの処理に用いるために過去パラメータ補間部3に格納される。音声復号化部7は、補正特徴パラメータ1eから復号化音声信号1jを算出する。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来の補間装置においては、特徴パラメータを一括して誤っているか否かを判定するため、たとえ誤っていない特徴パラメータが部分的に存在しても、それを用いずに過去の特徴パラメータを用いるため、特徴パラメータの誤っていない部分を有効に活用していないという問題点が存在した。
【0006】
本発明は、上記従来の問題を解決するもので、音声の特徴パラメータ内の一部が伝送路誤りにより誤った場合でも、特徴パラメータ内の誤っていない部分を有効に活用し、復号化音声信号の歪を小さくすることのできる優れた補間装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
上記目的を達成するために、本発明の補間装置は、有声無声判定部において音声の特徴を示す補正特徴パラメータを用いて現在復号化を行っているフレームの音声が有声か無声かを判定し、その判定結果によってパワ補間部における補間方法を切り替えることにより、無声部分の振幅情報が誤っていても無声部分の振幅を有声部分の振幅を用いて復号化しないことにより、復号化音声信号に歪が発生しないようにしたものであり、音声の特徴パラメータ内の要素の一部が伝送路誤りにより誤った場合でも、復号化音声信号の歪を小さくすることができる。
【0008】
【発明の実施の形態】
本発明の請求項1に記載の発明は、音声符号化信号が伝送路誤りにより誤った場合にフレーム単位でパラメータを補間する補間装置において、伝送路から送られてきた受信信号を音声信号の特徴を示す特徴パラメータと音声信号の振幅情報であるパワパラメータと特徴パラメータおよびパワパラメータが誤っているか否かを個別に判定する誤り判定信号とに分離するデータアンパッキング手段と、過去のフレームの特徴パラメータを格納する過去特徴パラメータ格納手段と、前記データアンパッキング手段が出力した特徴パラメータと誤り判定信号と前記過去特徴パラメータ格納手段の出力である過去特徴パラメータから補正特徴パラメータを算出する特徴パラメータ補間手段と、前記特徴パラメータ補間手段が出力した補正特徴パラメータからそのフレームが有声か無声かを判定する有声無声判定手段と、過去のフレームのパワパラメータを格納する過去パワパラメータ格納手段と、前記データアンパッキング手段からの出力であるパワパラメータと前記有声無声判定手段で算出した有声無声フラグと前記過去パワパラメータ格納手段が出力した過去パワパラメータから復号化音声信号のパワを決定するパワ補正手段と、前記パラメータ補間手段からの出力である補正特徴パラメータと前記パワ補正手段で算出した補正パワパラメータを用いて復号化音声信号を算出する音声復号化手段とを備えたものであり、音声の特徴パラメータ内の一部が伝送路誤りにより誤った場合でも、特徴パラメータ内の誤っていない部分を有効に活用し、特に音声の特徴パラメータ内の要素の一部である音声の振幅情報が伝送路誤りにより誤った場合でも、復号化音声信号の歪を小さくできるという作用を有する。
【0010】
以下、本発明の実施の形態について、図を参照しながら説明する。
(実施の形態1)
図1は本発明の第1の実施の形態における補間装置の構成を示すブロック図である。図1において、1は入力信号列を複数の信号に分離するデータアンパッキング部、2は符号化音声信号を必要に応じて補間する特徴パラメータ補間部、3は過去のフレームの符号化音声信号を格納する過去特徴パラメータ格納部、4は現在復号化しようとしているフレームの音声が有声か無声かを判定する有声無声判定部、5は振幅情報を必要に応じて補間するパワ補間部、6は過去のフレームの振幅情報を格納する過去パワ格納部、7は音声を復号化する音声復号化部である。
【0011】
また、1aは受信信号、1bは特徴パラメータ、1cは誤り判定信号、1dは過去特徴パラメータ、1eは補正特徴パラメータ、1fは有声無声フラグ、1gはパワパラメータ、1hは過去パワパラメータ、1iは補正パワーパラメータ、1jは復号化音声信号である。
【0012】
以上のように構成された補間装置について、以下、その動作を説明する。まず、データアンパッキング部1において、受信信号1aを特徴パラメータ1b、誤り判定信号1c、パワパラメータ1gに分離する。図4に示すように、特徴パラメータ1bは複数の要素の集合体であり、誤り判定信号1cは特徴パラメータ1b内の個々の要素が誤っているかいないかを示す信号の集合体である。
【0013】
特徴パラメータ補間部2においては、補正特徴パラメータ1eを算出する。このとき、特徴パラメータ補間部2に伝送されてきた誤り判定信号1cにより誤っていると判定された特徴パラメータ1b内の要素は、過去特徴パラメータ格納部3内に格納されている過去特徴パラメータ1dの対応しているそれぞれの要素に置換される。誤り判定信号1cによって誤っていないと判断された特徴パラメータ1bの各要素は、そのまま補正特徴パラメータ1eとして出力される。また、補正特徴パラメータ1eは、次フレームの処理に用いるために過去パラメータ補間部3に格納される。
【0014】
有声無声判定部4においては、現在復号化中のフレームの音声信号が有声か無声かを判定し、有声無声フラグ1fを算出する。判定は補正特徴パラメータ1eを用いて、例えば、補正特徴パラメータ1e内に音声のピッチあるいはそれに類する情報があるならば、現在復号化しているフレームのピッチが定常的であるかどうか、また周波数応答に関する情報があるならば、現在復号化しているフレームの周波数が雑音に近いものかどうか、という方法で行う。
【0015】
パワ補間部5においては、パワパラメータ1gの補間を行う。誤り判定信号1cにおいてパワパラメータ1gが誤っていないと判定された場合、パワパラメータ1gを補間パワパラメータ1iとして出力する。誤り判定信号1cにおいてパワパラメータ1gが誤っていると判定され、かつ有声無声フラグ1fが有声を示した場合、パワ補間部5は過去パワ格納部6に格納されている過去パワパラメータ1hを補正パワパラメータ1iとして出力する。誤り判定信号1cにおいてパワパラメータ1gが誤っていると判定され、かつ有声無声フラグ1fが無声を示した場合、パワ補間部5は無音に非常に近い振幅値を補正パワパラメータ1iとして出力する。また、補正パワパラメータ1iは次フレームの処理に用いるために過去パワ格納部6に格納される。
【0016】
音声符号化部7は、補正特徴パラメータ1eおよび補正パワパラメータ1iを用いて復号化音声信号1jを算出する。
【0017】
以上の処理を行うことにより、特徴パラメータ内の誤っていない部分を有効に活用し、特に音声信号の無声部分の振幅情報が伝送路誤りで失われた場合でも、無声部分を増幅して復号化しないことにより、波形情報が歪まない復号化音声信号を得ることができる。
【0018】
(実施の形態2)
図2は本発明の第2の実施の形態における補間装置構成を示すブロック図である。図2において、1は入力信号列を複数の信号に分離するデータアンパッキング部、2は符号化音声信号を必要に応じて補間する特徴パラメータ補間部、3は過去のフレームの符号化音声信号を格納する過去特徴パラメータ格納部、7は音声を復号化する音声復号化部、8は長期予測遅延を補間する長期予測遅延補間部、9は過去のフレームの長期予測遅延を格納する過去長期予測遅延格納部である。
【0019】
また、1aは受信信号、1bは特徴パラメータ、1cは誤り判定信号、1dは過去特徴パラメータ、1eは補正特徴パラメータ、1jは復号化音声信号、1kは長期予測遅延パラメータ、1lは過去長期予測遅延パラメータ群、1mは補正長期予測遅延パラメータである。
【0020】
以上のように構成された補間装置について、以下、その動作を説明する。まず、データアンパッキング部1において、受信信号1aを特徴パラメータ1b、誤り判定信号1c、長期予測遅延パラメータ1kに分離する。図4に示すように、特徴パラメータ1bは複数の要素の集合体であり、誤り判定信号1cは特徴パラメータ1b内の個々の要素が誤っているかいないかを示す信号の集合体である。
【0021】
特徴パラメータ補間部2においては、補正特徴パラメータ1eを算出する。このとき、特徴パラメータ補間部2に伝送されてきた誤り判定信号1cにより誤っていると判定された特徴パラメータ1b内の要素は、過去特徴パラメータ格納部3内に格納されている過去特徴パラメータ1dの対応しているそれぞれの要素に置換される。誤り判定信号1cによって誤っていないと判断された特徴パラメータ1bの各要素は、そのまま補正特徴パラメータ1eとして出力される。また、補正特徴パラメータ1eは、次フレームの処理に用いるために過去パラメータ補間部3に格納される。
【0022】
長期予測遅延補間部8においては、長期予測遅延1kの補間を行う。誤り判定信号1cにおいて長期予測遅延1kが誤っていないと判定された場合、長期予測遅延パラメータ1kを補間長期予測遅延パラメータ1mとして出力する。誤り判定信号1cにおいて長期予測遅延パラメータ1kが誤っていると判定された場合、長期予測遅延補間部8は、過去長期予測遅延格納部9に格納されている複数個の過去長期予測遅延パラメータ群1lの平均値を求め、その平均値に最も近い長期予測遅延パラメータ群1l内の1つの数値を補正長期予測遅延パラメータ1mとして出力する。また、補正長期予測遅延パラメータ1mは、次フレームの処理に用いるために過去長期予測遅延格納部9に格納され、過去長期予測遅延パラメータ群のうち最も時間的に古いデータを廃棄する。
【0023】
音声符号化部7は、補正特徴パラメータ1eおよび補正長期予測遅延パラメータ1mを用いて復号化音声信号1jを算出する。
【0024】
以上の処理を行うことにより、特徴パラメータ内の誤っていない部分を有効に活用し、特に長期予測遅延パラメータが伝送路誤りで失われた場合でも、半ピッチや倍ピッチのデータで補間しないことにより、波形情報が歪まない復号化音声信号を得ることができる。
【0025】
【発明の効果】
以上のように本発明は、伝送路により音声の特徴パラメータが部分的に誤っていても、誤っていない部分を有効に活用し、特に音声の振幅情報が誤っている場合に、音声の特徴パラメータから有声か無声かを判定し、その結果により振幅情報の補間方法を切り替える手段を設けることにより、音声信号の無声部分の振幅情報が伝送路誤りで失われた場合でも、無声部分を増幅して復号化しないことにより、波形情報が歪まない復号化音声信号が得られる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における補間装置の構成を示すブロック図
【図2】本発明の実施の形態2における補間装置の構成を示すブロック図
【図3】従来の実施の形態における補間装置の構成を示すブロック図
【図4】特徴パラメータおよび誤り判定情報の概念図
【符号の説明】
1 データアンパッキング部
2 特徴パラメータ補間部
3 過去特徴パラメータ格納部
4 有声無声判定部
5 パワ補間部
6 過去パワ格納部
7 音声復号化部
8 長期予測遅延補間部
9 過去長期予測遅延格納部
1a 受信信号
1b 特徴パラメータ
1c 誤り判定信号
1d 過去特徴パラメータ
1e 補正特徴パラメータ
1f 有声無声フラグ
1g パワパラメータ
1h 過去パワパラメータ
1i 補正パワパラメータ
1j 復号化音声信号
1k 長期予測遅延パラメータ
1l 過去長期予測遅延パラメータ群
1m 補正長期予測遅延パラメータ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an interpolation device that calculates an output audio signal by performing parameter interpolation on a frame-by-frame basis for an audio encoded signal to which an error has been added in a transmission path.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an interpolation apparatus that interpolates a speech coded signal to which an error has been added in a transmission path by using a parameter of a past frame has been disclosed in “Channel Coding For Digital Speech Transmission In The Japan Digital Cellular System, J.L.M. Those described in the Institute of Electronics, Information and Communication Engineers, Research Group on Wireless Communication Systems, RCS90-27) are known.
[0003]
FIG. 3 is a block diagram showing a configuration example of a conventional interpolation device. 3, in this example, a data unpacking unit 1, a feature parameter interpolation unit 2, a past feature parameter storage unit 3, and a speech decoding unit 4 are provided. 1a is a received signal, 1b is a feature parameter, 1c is an error determination signal, 1d is a past feature parameter, 1e is a correction feature parameter, and 1j is a decoded speech signal.
[0004]
The operation of the interpolation device configured as described above will be described below. First, the data unpacking unit 1 separates the received signal 1a into a characteristic parameter 1b and an error determination signal 1c, and transmits them to the characteristic parameter interpolating unit 2. The feature parameter interpolation unit 2 calculates a corrected feature parameter 1e. When it is determined that the feature parameter 1b is erroneous by the error determination signal 1c transmitted to the feature parameter interpolation unit 2, the past feature parameter 1d stored in the past feature parameter storage unit 3 is corrected. The signal is output to the audio decoding unit 7 as 1e. If the feature parameter 1b is determined not to be erroneous by the error determination signal 1c transmitted to the feature parameter interpolating unit 2, the feature parameter 1b is output to the speech decoding unit 7 as the corrected feature parameter 1e. Further, the correction feature parameter 1e is stored in the past parameter interpolation unit 3 for use in processing of the next frame. The audio decoding unit 7 calculates a decoded audio signal 1j from the correction feature parameter 1e.
[0005]
[Problems to be solved by the invention]
However, in the above-described conventional interpolation device, since it is determined whether or not the feature parameters are collectively incorrect, even if some non-erroneous feature parameters partially exist, the past feature parameters are not used. Therefore, there is a problem that a portion where a feature parameter is not erroneous is not effectively used.
[0006]
The present invention solves the above-described conventional problem. Even when a part of a feature parameter of speech is erroneous due to a transmission path error, a part of the feature parameter that is not erroneous is effectively used, and a decoded speech signal is It is an object of the present invention to provide an excellent interpolating device capable of reducing the distortion of the signal.
[0007]
[Means for Solving the Problems]
In order to achieve the above object, the interpolation device of the present invention determines whether the voice of the frame currently being decoded is voiced or unvoiced using a correction feature parameter indicating a voice feature in a voiced / unvoiced determination unit, By switching the interpolation method in the power interpolation unit according to the determination result, even if the amplitude information of the unvoiced part is wrong, the amplitude of the unvoiced part is not decoded using the amplitude of the voiced part, so that the distortion in the decoded voice signal is reduced. This does not occur, and the distortion of the decoded speech signal can be reduced even when some of the elements in the speech feature parameters are erroneous due to transmission path errors.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
The invention according to claim 1 of the present invention is directed to an interpolation apparatus for interpolating parameters in units of frames when a speech coded signal is erroneous due to a transmission path error. Data unpacking means for separating into a power parameter, which is the amplitude parameter of the audio signal, and a power parameter which is the amplitude information of the audio signal, and an error determination signal for individually determining whether or not the power parameter is incorrect. A feature parameter interpolating means for calculating a corrected feature parameter from a feature parameter output from the data unpacking means, an error determination signal, and a past feature parameter output from the past feature parameter storing means. The corrected feature parameter output by the feature parameter interpolation means. Voiced unvoiced determination means for determining whether the frame is voiced or unvoiced, past power parameter storage means for storing power parameters of a past frame, power parameters output from the data unpacking means, and the voiced unvoiced determination. Power correction means for determining the power of the decoded speech signal from the voiced / unvoiced flag calculated by the means and the past power parameters output by the past power parameter storage means; a correction feature parameter output from the parameter interpolation means; and the power Audio decoding means for calculating a decoded audio signal using the correction power parameter calculated by the correction means, wherein even if some of the audio characteristic parameters are erroneous due to a transmission path error, the characteristic parameters To make good use of the parts that are not mistaken, especially for some of the elements in the speech feature parameters. Even if the amplitude information of the sound that is wrong by the transmission path errors, such an action can be reduced distortion of the decoded speech signal.
[0010]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 is a block diagram showing the configuration of the interpolation device according to the first embodiment of the present invention. In FIG. 1, 1 is a data unpacking unit that separates an input signal sequence into a plurality of signals, 2 is a feature parameter interpolation unit that interpolates an encoded audio signal as needed, and 3 is an encoded audio signal of a past frame. A past feature parameter storage unit 4 to be stored is a voiced / unvoiced determination unit that determines whether the voice of the frame currently being decoded is voiced or unvoiced, 5 is a power interpolation unit that interpolates amplitude information as necessary, and 6 is a past interpolation unit. Is a past power storage unit for storing the amplitude information of the frame, and 7 is an audio decoding unit for decoding audio.
[0011]
1a is a received signal, 1b is a feature parameter, 1c is an error determination signal, 1d is a past feature parameter, 1e is a voiced and unvoiced flag, 1g is a power parameter, 1h is a past power parameter, and 1i is a corrected power parameter. The power parameter 1j is the decoded audio signal.
[0012]
The operation of the interpolation device configured as described above will be described below. First, the data unpacking unit 1 separates the received signal 1a into a characteristic parameter 1b, an error determination signal 1c, and a power parameter 1g. As shown in FIG. 4, the feature parameter 1b is a set of a plurality of elements, and the error determination signal 1c is a set of signals indicating whether each element in the feature parameter 1b is erroneous.
[0013]
The feature parameter interpolation unit 2 calculates a corrected feature parameter 1e. At this time, the element in the feature parameter 1b determined to be erroneous by the error determination signal 1c transmitted to the feature parameter interpolating unit 2 is the element of the past feature parameter 1d stored in the past feature parameter storage unit 3. Replaced by each corresponding element. Each element of the feature parameter 1b determined not to be erroneous by the error determination signal 1c is output as it is as the corrected feature parameter 1e. Further, the correction feature parameter 1e is stored in the past parameter interpolation unit 3 for use in processing of the next frame.
[0014]
The voiced / unvoiced determination unit 4 determines whether the audio signal of the frame currently being decoded is voiced or unvoiced, and calculates a voiced / unvoiced flag 1f. The determination is made by using the correction feature parameter 1e. For example, if the speech pitch or similar information is included in the correction feature parameter 1e, whether or not the pitch of the frame currently being decoded is stationary, and the frequency response If there is information, the method is used to determine whether the frequency of the frame currently being decoded is close to noise.
[0015]
The power interpolation unit 5 performs interpolation of the power parameter 1g. When it is determined in the error determination signal 1c that the power parameter 1g is not incorrect, the power parameter 1g is output as the interpolation power parameter 1i. When it is determined in the error determination signal 1c that the power parameter 1g is erroneous and the voiced / unvoiced flag 1f indicates voiced, the power interpolation unit 5 corrects the past power parameter 1h stored in the past power storage unit 6 to correct the power. Output as parameter 1i. When it is determined in the error determination signal 1c that the power parameter 1g is erroneous and the voiced / unvoiced flag 1f indicates unvoiced, the power interpolation unit 5 outputs an amplitude value very close to no sound as the corrected power parameter 1i. Further, the corrected power parameter 1i is stored in the past power storage unit 6 for use in processing of the next frame.
[0016]
The audio encoding unit 7 calculates a decoded audio signal 1j using the correction feature parameter 1e and the correction power parameter 1i.
[0017]
By performing the above-described processing, a part that is not erroneous in the feature parameter is effectively utilized, and even when the amplitude information of the unvoiced part of the audio signal is lost due to a transmission path error, the unvoiced part is amplified and decoded. By not doing so, it is possible to obtain a decoded audio signal whose waveform information is not distorted.
[0018]
(Embodiment 2)
FIG. 2 is a block diagram showing the configuration of an interpolation device according to the second embodiment of the present invention. In FIG. 2, 1 is a data unpacking unit that separates an input signal sequence into a plurality of signals, 2 is a feature parameter interpolation unit that interpolates an encoded audio signal as needed, and 3 is an encoded audio signal of a past frame. A past feature parameter storage unit for storing, 7 a speech decoding unit for decoding speech, 8 a long-term prediction delay interpolation unit for interpolating a long-term prediction delay, 9 a past long-term prediction delay for storing a long-term prediction delay of a past frame It is a storage unit.
[0019]
1a is a received signal, 1b is a feature parameter, 1c is an error determination signal, 1d is a past feature parameter, 1e is a decoded speech signal, 1j is a decoded speech signal, 1k is a long-term prediction delay parameter, and 1l is a past long-term prediction delay. The parameter group 1m is a corrected long-term prediction delay parameter.
[0020]
The operation of the interpolation device configured as described above will be described below. First, the data unpacking unit 1 separates the received signal 1a into a characteristic parameter 1b, an error determination signal 1c, and a long-term prediction delay parameter 1k. As shown in FIG. 4, the feature parameter 1b is a set of a plurality of elements, and the error determination signal 1c is a set of signals indicating whether each element in the feature parameter 1b is erroneous.
[0021]
The feature parameter interpolation unit 2 calculates a corrected feature parameter 1e. At this time, the element in the feature parameter 1b determined to be erroneous by the error determination signal 1c transmitted to the feature parameter interpolating unit 2 is the element of the past feature parameter 1d stored in the past feature parameter storage unit 3. Replaced by each corresponding element. Each element of the feature parameter 1b determined not to be erroneous by the error determination signal 1c is output as it is as the corrected feature parameter 1e. Further, the correction feature parameter 1e is stored in the past parameter interpolation unit 3 for use in processing of the next frame.
[0022]
The long-term prediction delay interpolation unit 8 performs interpolation of a long-term prediction delay 1k. If it is determined in the error determination signal 1c that the long-term prediction delay 1k is not incorrect, the long-term prediction delay parameter 1k is output as the interpolated long-term prediction delay parameter 1m. When it is determined that the long-term prediction delay parameter 1k is incorrect in the error determination signal 1c, the long-term prediction delay interpolation unit 8 performs the plurality of past long-term prediction delay parameter groups 11 stored in the past long-term prediction delay storage unit 9. , And one numerical value in the long-term prediction delay parameter group 11 closest to the average value is output as the corrected long-term prediction delay parameter 1m. The corrected long-term prediction delay parameter 1m is stored in the past long-term prediction delay storage unit 9 for use in processing of the next frame, and discards the oldest data in the past long-term prediction delay parameter group.
[0023]
The speech encoding unit 7 calculates a decoded speech signal 1j using the corrected feature parameter 1e and the corrected long-term prediction delay parameter 1m.
[0024]
By performing the above processing, it is possible to make effective use of the part that is not erroneous in the feature parameter, and not to interpolate with half pitch or double pitch data even if the long-term prediction delay parameter is lost due to a transmission path error. As a result, it is possible to obtain a decoded audio signal whose waveform information is not distorted.
[0025]
【The invention's effect】
As described above, the present invention makes effective use of a part that is not erroneous even if the characteristic parameter of the audio is partially incorrect due to the transmission path, and particularly, when the amplitude information of the audio is incorrect, the characteristic parameter of the audio is used. By judging whether it is voiced or unvoiced, and by providing a means for switching the interpolation method of the amplitude information according to the result, even if the amplitude information of the unvoiced portion of the audio signal is lost due to a transmission path error, the unvoiced portion is amplified. By not decoding, a decoded audio signal whose waveform information is not distorted can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an interpolation device according to a first embodiment of the present invention; FIG. 2 is a block diagram showing a configuration of an interpolation device according to a second embodiment of the present invention; FIG. FIG. 4 is a block diagram showing a configuration of an interpolation device. FIG. 4 is a conceptual diagram of feature parameters and error determination information.
REFERENCE SIGNS LIST 1 data unpacking unit 2 feature parameter interpolation unit 3 past feature parameter storage unit 4 voiced / unvoiced determination unit 5 power interpolation unit 6 past power storage unit 7 speech decoding unit 8 long-term prediction delay interpolation unit 9 past long-term prediction delay storage unit 1a reception Signal 1b Feature parameter 1c Error determination signal 1d Past feature parameter 1e Correction feature parameter 1f Voiced unvoiced flag 1g Power parameter 1h Past power parameter 1i Correction power parameter 1j Decoded speech signal 1k Long-term prediction delay parameter 1l Past long-term prediction delay parameter group 1m Long-term forecast delay parameter

Claims (1)

音声符号化信号が伝送路誤りにより誤った場合にフレーム単位でパラメータを補間する補間装置において、伝送路から送られてきた受信信号を音声信号の特徴を示す特徴パラメータと音声信号の振幅情報であるパワパラメータと特徴パラメータおよびパワパラメータが誤っているか否かを個別に判定する誤り判定信号とに分離するデータアンパッキング手段と、過去のフレームの特徴パラメータを格納する過去特徴パラメータ格納手段と、前記データアンパッキング手段が出力した特徴パラメータと誤り判定信号と前記過去特徴パラメータ格納手段の出力である過去特徴パラメータから補正特徴パラメータを算出する特徴パラメータ補間手段と、前記特徴パラメータ補間手段が出力した補正特徴パラメータからそのフレームが有声か無声かを判定する有声無声判定手段と、過去のフレームのパワパラメータを格納する過去パワパラメータ格納手段と、前記データアンパッキング手段からの出力であるパワパラメータと前記有声無声判定手段で算出した有声無声フラグと前記過去パワパラメータ格納手段が出力した過去パワパラメータから復号化音声信号のパワを決定するパワ補正手段と、前記パラメータ補間手段からの出力である補正特徴パラメータと前記パワ補正手段で算出した補正パワパラメータを用いて復号化音声信号を算出する音声復号化手段とを備えたことを特徴とする補間装置。In an interpolator for interpolating parameters on a frame basis when a speech coded signal is erroneous due to a transmission path error, a received signal sent from a transmission path is a characteristic parameter indicating a characteristic of a speech signal and amplitude information of the speech signal. Data unpacking means for separating a power parameter and a feature parameter and an error determination signal for individually determining whether or not the power parameter is incorrect; past feature parameter storage means for storing feature parameters of a past frame; A feature parameter interpolating means for calculating a corrected feature parameter from the feature parameter output from the unpacking means, an error determination signal, and a past feature parameter output from the past feature parameter storage means, and a corrected feature parameter output from the feature parameter interpolating means Whether the frame is voiced or unvoiced Voiced / unvoiced determining means, power parameter of a past frame, a power parameter output from the data unpacking means, and a voiced / unvoiced flag calculated by the voiced / unvoiced determining means. A power correction unit that determines the power of the decoded audio signal from the past power parameters output by the past power parameter storage unit; and a correction feature parameter output from the parameter interpolation unit and a correction power parameter calculated by the power correction unit. An audio decoding means for calculating a decoded audio signal by using the interpolation apparatus.
JP17148196A 1996-07-01 1996-07-01 Interpolator Expired - Fee Related JP3583550B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17148196A JP3583550B2 (en) 1996-07-01 1996-07-01 Interpolator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17148196A JP3583550B2 (en) 1996-07-01 1996-07-01 Interpolator

Publications (2)

Publication Number Publication Date
JPH1022936A JPH1022936A (en) 1998-01-23
JP3583550B2 true JP3583550B2 (en) 2004-11-04

Family

ID=15923912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17148196A Expired - Fee Related JP3583550B2 (en) 1996-07-01 1996-07-01 Interpolator

Country Status (1)

Country Link
JP (1) JP3583550B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7047190B1 (en) 1999-04-19 2006-05-16 At&Tcorp. Method and apparatus for performing packet loss or frame erasure concealment
US7117156B1 (en) 1999-04-19 2006-10-03 At&T Corp. Method and apparatus for performing packet loss or frame erasure concealment
DE60016532T2 (en) * 1999-04-19 2005-10-13 At & T Corp. METHOD FOR WEARING FRAME FAILURE
US7031926B2 (en) 2000-10-23 2006-04-18 Nokia Corporation Spectral parameter substitution for the frame error concealment in a speech decoder
US7831421B2 (en) * 2005-05-31 2010-11-09 Microsoft Corporation Robust decoder

Also Published As

Publication number Publication date
JPH1022936A (en) 1998-01-23

Similar Documents

Publication Publication Date Title
JP4199281B2 (en) Soft error correction in TDMA wireless systems
JP2746033B2 (en) Audio decoding device
RU2722510C1 (en) Audio encoding device, an audio encoding method, an audio encoding program, an audio decoding device, an audio decoding method and an audio decoding program
JPH0430200A (en) Sound decoding system
JPH02288520A (en) Voice encoding/decoding system with background sound reproducing function
JP3583550B2 (en) Interpolator
JP3265339B2 (en) Audio decoding device
JP3583551B2 (en) Error compensator
KR100329875B1 (en) A transmission system for continuously transmitting signal samples, transmitters, receivers, coders, decoders, and interpolation means for reconstructing signal samples, how to add redundancy to signal samples, and how to reconstruct signal samples
JP4449108B2 (en) Speech decoder
JP2001156692A (en) Wireless relay system
JPH11261534A (en) Communications device, communications method and communications signal system
JP4572755B2 (en) Decoding device, decoding method, and digital audio communication system
JPH07271391A (en) Audio decoder
JP3368443B2 (en) Voice coded transmission system and receiving device
JPH0612095A (en) Voice decoding method
JP3942831B2 (en) Voice communication terminal and voice communication system
JP2001339368A (en) Error compensation circuit and decoder provided with error compensation function
AU2023208191B2 (en) Audio coding device, audio coding method, audio coding program, audio decoding device, audio decoding method, and audio decoding program
JP3079894B2 (en) Audio decoding device
JP2002252644A (en) Apparatus and method for communicating voice packet
KR20010113780A (en) Error correction method with pitch change detection
JP2538111B2 (en) Speech decoding device
JP3251576B2 (en) Error compensation method
JP2529447B2 (en) Data interpolation method and apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070806

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees