WO1996037964A1 - Sound decoding device - Google Patents

Sound decoding device Download PDF

Info

Publication number
WO1996037964A1
WO1996037964A1 PCT/JP1996/001323 JP9601323W WO9637964A1 WO 1996037964 A1 WO1996037964 A1 WO 1996037964A1 JP 9601323 W JP9601323 W JP 9601323W WO 9637964 A1 WO9637964 A1 WO 9637964A1
Authority
WO
WIPO (PCT)
Prior art keywords
error
code string
code
detected
decoding
Prior art date
Application number
PCT/JP1996/001323
Other languages
English (en)
French (fr)
Inventor
Nobuhiko Naka
Tomoyuki Ohya
Original Assignee
Ntt Mobile Communications Network Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ntt Mobile Communications Network Inc. filed Critical Ntt Mobile Communications Network Inc.
Priority to EP96915190A priority Critical patent/EP0773630B1/en
Priority to US08/776,171 priority patent/US6085158A/en
Priority to JP53555196A priority patent/JP3155952B2/ja
Priority to DE69633164T priority patent/DE69633164T2/de
Publication of WO1996037964A1 publication Critical patent/WO1996037964A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/18Error detection or correction; Testing, e.g. of drop-outs
    • G11B20/1806Pulse code modulation systems for audio signals
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control

Definitions

  • the present invention relates to a voice decoding device suitable for use in digital voice communication.
  • Technology Background CELP Code Excited Linear Prediction Coding
  • LD-CELP ITU-T / G.728, VSE LP and PSI-CELP (RCR / STD27-C)
  • a coding scheme based on the base is widely used.
  • the internal states of the encoder and decoder must be completely the same. Must-have.
  • the internal state corresponds to the output signal sequence y (t-1),..., Y (t-n) up to the previous time, for example, assuming an IIR filter shown in FIG. That is, when the current decoding is performed using the past decoding result as in the case of speech coding, the past decoding result corresponds to the internal state, and for example, the adaptive codebook is a typical example.
  • decoding may be performed with an incorrect code at the decoder due to a code error occurring on the transmission line, and in this case, an internal state mismatch occurs between the decoder and the encoder. If this internal state mismatch occurs, correct decoding cannot be performed even if the correct code is used, and even after the code error is recovered, the distortion of the decoded speech continues for a while, resulting in a large deterioration in quality.
  • reference numeral 1 denotes an input code sequence processing unit, which comprises an input code sequence processing unit 11 and an input code sequence storage unit 12.
  • 2 is decryption processing unit It is composed of a decryption processing unit 21, an internal state processing unit 22, and an internal state storage unit 23.
  • the error detection unit 3 When detecting an error in the input code sequence I n (i), the error detection unit 3 outputs an error detection signal E to the input code sequence processing unit 11 and the decoding processing unit 21.
  • the input code sequence processing unit 11 removes redundant bits from the input code sequence I n (i) when there is no error in the input code sequence I n (i) and the error detection unit 3 does not output the error detection signal E. It is output to the decoding processing unit 21 as a code string C (i). The code string C (i) is also output to the input code string storage unit 12 and stored in the storage unit 12.
  • the decoding processing unit 21 decodes the code string C (i) based on the internal state information S 0 (i) supplied from the internal state processing unit 22 and outputs a decoded voice SP (i),
  • the internal state information S i (i) at the time when the decoding process ends is output to the internal state processing unit 22.
  • the internal state processing unit 22 reads out the internal state information S o (i) pathologically stored in the internal state storage unit 23, outputs this to the decryption processing unit 21, and processes the information in the decryption processing unit 21.
  • the internal state information S o (i + 1) is created based on the internal state information S i (i) supplied from the processing section 21, and this is written to the internal state storage section 23.
  • the storage content of the internal state storage unit 23 is updated from S o (i) to S o (HI) when the decoding process at time i ends.
  • the input code sequence processing unit 11 When an error occurs in the input code sequence In (t) at time t and the error detection unit 3 outputs the error detection signal E, the input code sequence processing unit 11
  • the LSP ie, the linear prediction indicating the spectrum envelope of the speech
  • the LAG ie, the amount of delay in the adaptive codebook indicating the pitch period of the speech
  • the input code sequence processing unit 11 The LSP (ie, the linear prediction indicating the spectrum envelope of the speech) and the LAG (ie, the amount of delay in the adaptive codebook indicating the pitch period of the speech) included in the column C (t) are included. Is replaced by the corresponding part of the code string C (t-1 1) stored in the input code string storage unit 12, and the replaced code string C ′ (t) is output. Also, at this time, the content of the input code string storage unit 12 is not updated with the code string C (t-1).
  • the decoding processing unit 21 performs the decoding processing and the update of the internal state using the code string C ′ (t
  • LSPs and LAGs subject to the above replacement have high correlation before and after time, and Since there is no sudden change, the values of LSP and LAG calculated for each section are close to each other if they are temporally adjacent. Therefore, the distortion of the decoded speech SP (t) is smaller when the decoding process is performed based on the code received immediately before, as described above, than when the decoding process is performed based on the erroneous code. As a result, it is possible to reduce quality degradation at the time when an error occurs.
  • the code string C ′ (t) after the replacement rarely matches the code string C (t) assuming that there is no error. It is. Therefore, when a code error occurs, the internal state information S 0 (i + 1) stored in the internal state storage unit 23 does not match the internal state on the encoder side. Therefore, for example, even if an error is no longer detected at time t + s and a correct code string C (t + s) can be obtained, the decoded speech SP (t + s ) Is deteriorated.
  • the present invention has been made under the above-mentioned background, and provides a speech decoding apparatus capable of improving decoded speech quality after recovery from a code error.
  • the audio decoding apparatus detects an error in detecting a code error in a code sequence obtained by receiving a code sequence transmitted by compressing the audio signal in a predetermined encoding format with digital information.
  • a correct code string is estimated based on the received code string before the error power S is detected, and the estimated code string is calculated.
  • First estimating means for outputting, decoding means for decoding based on internal state information holding the estimated code string therein, and converting to an audio signal, updating the internal state information based on a decoding result of the decoding means It is assumed that the updating means is provided.
  • the speech decoding device detects an error in the received code string by the error detection means, and after a predetermined time elapses, when no error is detected, based on the code string received after the error is no longer detected.
  • An error was detected
  • the second estimating means re-estimates a correct code string in a period in which the error was detected based on the code string received after the error is no longer detected, and outputs the estimated code string.
  • Decoding means decodes the estimated code string, and updating means updates internal state information again based on the decoding result. Therefore, the deviation of the internal state information from the encoder side enlarged during the occurrence of the code error is compensated. .
  • the second estimating means when an error is detected in the received code string by the error detecting means, and when no error is detected after a predetermined time has elapsed, the code string received before the error is detected. Based on the code string received after the error is no longer detected, the correct code string during the period in which the error was detected may be re-estimated, and the estimated code string may be output.
  • the second estimating means is configured to correct a code sequence during a period during which an error is detected, based on a code sequence immediately after the error is no longer detected among the code sequences received after the error is no longer detected. May be re-estimated, and the estimated code sequence may be output. Further, the second estimating means re-estimates a correct code sequence in a period in which an error has been detected based on a plurality of code sequences received after the error is no longer detected, and outputs an estimated code sequence. Is also good.
  • the second estimating unit may estimate a correct code sequence based on a code sequence immediately before error detection among code sequences received before the error is detected. Good.
  • the first estimating unit determines a correct code sequence based on a code sequence immediately before error detection among code sequences received before the error is detected. It may be estimated.
  • the second estimating means may estimate a correct code string based on a plurality of code strings received before the error is detected.
  • the first estimating unit estimates a correct code sequence based on a plurality of code sequences received before the error is detected. Good.
  • the audio decoding apparatus may include switch means for blocking output of the audio signal to the outside while decoding the estimated code string output by the second estimating means. In this case, it is possible to prevent the decoded speech generated during the renewal of the internal state information from being output to the outside as a delay component, thereby further improving the decoded speech quality when recovering from a code error. Can be.
  • FIG. 1 is a block diagram showing a configuration of a speech decoding device according to an embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a relationship between an error in an input code string and a processing operation mode of the speech decoding device illustrated in FIG.
  • FIG. 3 is a diagram showing a state transition of a processing operation in the speech decoding device shown in FIG.
  • FIG. 4 is a diagram showing a specific example of a processing operation in the speech decoding device shown in FIG.
  • FIG. 5 is a diagram showing a measurement result of a segment signal SNR in an experiment using the speech decoding device shown in FIG.
  • FIG. 6 is a diagram illustrating an IIR filter to explain the internal state.
  • FIG. 7 is a block diagram showing a configuration example of a conventional speech decoding device. BEST MODE FOR CARRYING OUT THE INVENTION
  • embodiments of the present invention will be described with reference to the drawings.
  • FIG. 1 is a block diagram showing a configuration of a speech decoding device according to an embodiment of the present invention.
  • an input code sequence processing unit 1 ′ includes an input code sequence processing unit 11 ′ and an input code sequence processing unit 12 ′
  • a decoding processing unit 2 ′ includes a decoding processing unit 2 ′. 1 ′, an internal state processing section 2 2 ′ and an internal state storage section 2 3 ′.
  • the input code string processing unit 1 1 ′ has a selection circuit 110, 150, which switches processing operations, a normal processing unit 120, which performs normal processing, and performs processing when an error occurs. It comprises an error processing unit 140 and an error recovery processing unit 140 that performs error recovery processing.
  • Reference numeral 3 denotes an error detection unit
  • reference numeral 4 denotes a switch.
  • the error detection unit 3 has the same configuration as that shown in FIG. 3, performs error detection on an input code sequence I n (i) transmitted via a transmission path (not shown), and i), when an error is detected, the error detection signal E is set to “1”, and when no error is detected, the error detection signal E is set to “0”. , The decoding processing unit 2 1 ′ and the switch 4.
  • the processing operations in the present embodiment include normal processing, error processing, and error recovery processing, and these processing operations are selected according to the state of an error occurring in the input code string.
  • the processing operation is performed in the order of “normal processing ⁇ error processing ⁇ error recovery processing and normal processing ⁇ error processing”.
  • the processing operation is represented by a state transition, it is as shown in FIG. In FIG. 3, the error recovery processing and the normal processing are performed when the error detection signal E indicates “0” after the error processing is performed.
  • this operation is performed only when the state of the input code string changes from "error” to "no error".
  • there is no error in the input code string between time 0 and time and there is an error in the input code string between time t + 1 and time t + s-1. Assuming that there is no error, the above processing operation will be specifically described with reference to FIGS.
  • the normal processing will be described.
  • the error detection signal E indicates “0”.
  • normal processing is performed at time t-1.
  • the selection circuit 110 selects the terminal A 1 and converts the input code sequence I n (t) to a normal value. It is supplied to the processing unit 120. Thereafter, the normal processing unit 120 removes the redundant bits of the input code string I n (t) and outputs it to the selection circuit 150 as a code string C (t).
  • the sequence C (t) is output to the decoding processing unit 21 '.
  • the code string C (t) is also output to the input code string storage unit 12 'and is added to the storage unit 12' (that is, the storage contents are added instead of being updated).
  • the decoding processing unit 21 ′ performs a decoding process on the code string C (t) based on the internal state information S 0 (t) supplied from the internal state processing unit 22 ′. At this time, the switch 4 is turned on, and the decoded voice SP (t) is output to the next stage. Further, the decryption processing unit 21 'outputs the internal state information S i (t) at the time when the decryption processing is completed to the internal state processing unit 22'. The internal state processing unit 22 ′ reads the internal state information S o (t) stored in the internal state storage unit 23 ′, outputs this to the decryption processing unit 21 ′, and outputs the information to the decryption processing unit 21 ′.
  • internal state information S 0 (t + 1) is created based on the internal state information S i (t) supplied from the processing section 21 ′, and this is newly stored in the internal state storage section 23 ′. Write down. Thus, when the decoding process at time t ends, the internal state information read from the internal state storage unit 23 'changes from S 0 (t) to S o (t + 1).
  • the error detection signal E indicates “1” in the period from the time t + 1 to the time t + s ⁇ 1. In this case, there is no error at time t, an error occurs at time I, and the error detection signal E indicates “1”. For this reason, according to the above-described state transition (see FIG. 3), at time t + 1, the normal processing leads to the error processing via the path of “1”.
  • the selection circuit 110 selects the terminal B1.
  • the code sequence C (t) is read from the input code storage unit 12 'and supplied to the error processing unit 130 via the selection circuit 110.
  • the error processing unit 130 calculates the estimated code sequence based on the code sequence C (t). Calculate C (t + 1) and output it.
  • the estimated code sequence C ′ (i) is, for example, a code having a large temporal correlation, such as the above-mentioned LSP or LAG, in the code sequence C (i ⁇ 1) before an error occurs.
  • the selection circuit 150 selects the terminal B5, and outputs the estimated code sequence C ′ (t + 1) from the error processing unit 130 to the decoding processing unit 21 ′.
  • the decoding processing unit 21 ' performs the above-described decoding processing and addition of the internal state using the estimated code sequence C' (1) supplied from the input code sequence processing unit 11 '. Also, after time t + 1, during the period from time 2 to time t + s-1 as shown in Fig. 4, the estimated code sequence C '(t + 2) is based on the code sequence C (t). ,... (: '(T + s-1) are generated, and the decoding process and the internal state are added based on these.
  • error recovery processing After time t + s, there is no error, so error detection signal E at time s indicates “0”. In this case, according to the above-described state transition (see FIG. 3), error recovery processing and normal processing are performed from the error processing via the “0” path.
  • switch 4 is turned off.
  • the selection circuits 110 and 150 select the terminals C1 and C5, respectively, and operate the error recovery processing unit 140.
  • the error recovery processing unit 140 stores the correct code string C (t) before the error, which is the storage content of the input code string storage unit 12 ', and the input code string I n (t + s) Using the new correct code sequence C (t + s) generated from, the code sequence C "(t), ......, C" (s-1) in the error section is recalculated, and this result is Output as the estimated code sequence of 2.
  • the decoding unit 21 ′ performs a decoding process based on the internal state information S o (t) of the internal state storage unit 23 ′ and the second estimated code string C ′′ (t),
  • the processing unit 22 ′ uses the internal state information S i ′ (t) based on the result 1) is created, and the internal state information S o (t + 1) in the internal state storage section 23 ′ is rewritten to S o ′ (t + 1) (that is, updated again).
  • S o ′ t + 1
  • switch 4 is turned on, and based on the internal state information S o' (t + s) and the code string C (t + s), Start the normal processing described above. That is, at time t + s, decoding is performed at time..., T + s ⁇ 1 based on the code string C ”(t),. Assuming that the contents of 'have been added, the decryption processing at time t + s and the addition of the contents of the internal state storage unit 23' are performed.
  • the internal state storage unit at time t + 1,... 'Is updated using the code string C "(t + 1), ......, C" (t + s-1), and the contents of the internal state storage unit 23' are stored inside the encoder. It can be close to the contents of the state storage unit (not shown). As a result, the distortion after time t + s can be reduced, and since the switch 4 is turned off at time t + s, no delay component of the decoded speech is output.
  • the speech decoding apparatus was applied to an AC ELP adaptive codebook, and an experiment was performed in which an error was added to LAG, which is a parameter of the adaptive codebook.
  • LAG which is a parameter of the adaptive codebook.
  • the decoding process and the internal state were re-updated in subframe units, errors were added in the fifth and sixth subframes, and the segmental SNR was measured.
  • the white squares are the segmental SNR when no interpolation processing is performed when a code error occurs
  • the white circles are the segmental SNR when the interpolation processing is performed when a code error occurs.
  • the black square indicates the case where error recovery processing is performed in the error recovery frame (the seventh subframe) and interpolation processing is performed. Is the segmental SNR. That is, the measurement results indicated by black squares correspond to the case where the speech decoding device according to the present embodiment is applied.
  • error recovery processing and interpolation processing are 4 dB compared with interpolation processing, and 9 dB segmental SNR compared with no interpolation processing. Can be improved. In this way, it was confirmed that the error recovery processing can significantly improve the segmental SNR after a code error has occurred.
  • the estimated code sequence C ′ (t + 1),..., C ′ (t + s ⁇ 1) is not limited to replacement by LSP or LAG, but may be performed by other codes having a large correlation over time. It may be replaced, or it may be calculated by another method. Also, the estimation may be performed using not only the code string C (t) immediately before the error occurs but also the previous correct code strings C (t-1), C (t-2),. Good. In this case, the error recovery processing unit 140 determines that the correct code string C (t-1), C (t-2),... Before the error, which is the storage content of the input code string storage unit 12 ′, occurs. , Using the new correct code sequence C (t + s) generated from the input code sequence I n (t + s), the code sequence C "(t + 1),..., C” ( Recalculate t + s- 1) and output this result.
  • the second estimated code sequence C "(t + 1), ..., C" (t + s-1) for re-updating the internal state information is obtained from the correct code sequence and the error before the error occurred.
  • the previous correct code sequence can be used. Sequences C (t-1), C (t-2),... May be used.
  • the second estimated code sequence C "(t + 1), ..., C" (t + s-1) for re-updating the internal state information is obtained only from the correct code sequence after the error recovery. It may be estimated.
  • the correct code sequence after recovery from the error can be obtained by using only the code sequence C (t + s) immediately after recovery from the error, and further by using the correct code sequences C (s) and C (t + s + 1), « may be used.
  • the second estimated code sequence C "(t + 1), ..., C" (t + s-1) does not necessarily need to be calculated for all periods in which an error has occurred. Calculated only for parts, Thus, the internal state may be updated.
  • switch 4 may be turned on at time s to output decoded speech.
  • an adaptive codebook as a typical example of speech coding, but it is not necessarily limited to this.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)

Description

明 細 書 音声復号装置 技 術 分 野 この発明は、 ディジタル音声通信に用いて好適な音声復号装置に関する。 技 術 背 景 低ビットレート音声符号化においては、 LD-CELP (ITU-T/G.728), VSE LP及び P S I -CELP (RCR/STD27-C)等の CELP (Code Excited Linear Prediction Coding)を基にした符号化方式が広く用いられている。 こうした CE L P系の音声符号化方式に限らず、 符号器と復号器に内部状態を持つ符号化方式 において正しく復号を行うためには、 その内部状態が符号器と復号器で完全に一 致していなくてはならない。 ここで、 内部状態とは、 例えば図 6に示す I I Rフ ィル夕を想定した場合、 前回までの出力信号系列 y (t-1),…… , y (t-n)に相当す る。 すなわち、 音声符号化のように過去の復号結果を用いて現在の復号を行う場 合、 その過去の復号結果が内部状態に相当し、 例えば、 適応符号帳がその代表的 なものである。
しかしながら、 伝送路上で起こる符号誤りにより復号器では誤つた符号で復号 を行うことがあり、 この場合、 符号器側との間で内部状態の不一致が生じてしま う。 この内部状態の不一致が生じた場合、 正しい符号を用いても正しい復号がで きず、 符号誤りが回復した後においても暫くは復号音声の歪みが継続し、 品質の 大きな劣化を招くことになる。
このような品質劣化の低減を図るものとして、 図 7に示す P DC (Personal Di gital Cellular telecommunication system)フルレート方式に採用されている音 声復号装置が知られている。 図 7において、 1は入力符号列処理ユニットであり、 入力符号列処理部 1 1と入力符号列記憶部 12で構成される。 2は復号処理ュニ ットであり、 復号処理部 2 1、 内部状態処理部 2 2および内部状態記億部 2 3で 構成される。 3は誤り検出部であり、 C R C (Cycl ic Redundancy Code)を用いて 受信した入力符号列 I n (i) (iは時刻を示し、 i = 0 , 1 , 2 , ……という値をと る。 ) の誤りを検出する。
誤り検出部 3は、 入力符号列 I n (i)の誤りを検出した場合、 誤り検出信号 Eを 入力符号列処理部 1 1および復号処理部 2 1に出力する。
入力符号列処理部 1 1は、 入力符号列 I n (i)に誤りがなく誤り検出部 3から誤 り検出信号 Eが出力されない場合、 入力符号列 I n (i)から冗長ビットを取り除き、 符号列 C (i)として復号処理部 2 1に出力する。 また、 この符号列 C (i)は、 入力 符号列記憶部 1 2にも出力され、 該記憶部 1 2に記憶される。
復号処理部 2 1は、 内部状態処理部 2 2から供給される内部状態情報 S 0 (i)に 基づき上記符号列 C (i)を復号処理し、 復号音声 S P (i)を出力するとともに、 復 号処理が終了した時点の内部状態情報 S i (i)を内部状態処理部 2 2に出力する。 内部状態処理部 2 2は、 内部状態記憶部 2 3に記愴された内部状態情報 S o (i)を 読み出し、 これを復号処理部 2 1に出力するとともに、 復号処理部 2 1での処理 が終了した後、 該処理部 2 1から供給される内部状態情報 S i (i)に基づき内部状 態情報 S o (i+1)を作成し、 これを内部状態記憶部 2 3に書き込む。 これにより、 内部状態記億部 2 3の記憶内容は、 時刻 iにおける復号処理が終了すると S o (i) から S o (HI)に更新される。
ここで、 時刻 tにおける入力符号列 I n (t)に誤りが生じ、 誤り検出部 3から誤 り検出信号 Eが出力されると、 入力符号列処理部 1 1は、 冗長ビットを除去した 符号列 C (t)に含まれる L S P (すなわち、 音声のスぺクトル包絡を示す線形予測 •合成フィル夕のパラメ一夕) や L A G (すなわち、 音声のピッチ周期を示す適 応符号帳の遅延量) に相当する部分を入力符号列記憶部 1 2に記憶された符号列 C (t一 1)の対応する部分によって置換し、 置換後の符号列 C ' (t)を出力する。 ま た、 このとき入力符号列記憶部 1 2の内容は符号列 C (t一 1)のまま更新されない。 復号処理部 2 1は、 入力符号列処理部 1 1から供給される符号列 C ' (t)を用いて 上記復号処理および内部状態の更新を行う。
• 上記置換の対象となる L S Pや L A Gは、 時間の前後で相関が高く、 経時的に 急激な変化をしないため、 ある区間毎に算出される L S Pや L A Gの値は時間的 に隣り合つたものでは互いに近い値となる。 したがって、 誤りのある符号に基づ き復号処理を行うより、 上述したように直前に正しく受信された符号に基づいて 復号処理を行った方が復号音声 S P (t)の歪みが小さくなる。 この結果、 誤りが生 じた時点での品質劣化を低減することが可能となる。
しかしながら、 上記従来技術のように、 L S Pや L A Gの置換を行った場合、 置換後の符号列 C ' (t)が誤りが無いと仮定した場合の符号列 C (t)と一致すること は希である。 このため、 符号の誤りが生じることによって、 内部状態記憶部 2 3 に記憶されている内部状態情報 S 0 (i + 1)は、 符号器側の内部状態と一致しなく なる。 したがって、 例えば時刻 t + sの時点で誤りが検出されなくなり、 正しい符 号列 C (t + s)が得られるようになった場合でも、 上記内部状態の不一致により復 号音声 S P (t + s)の劣化を招いてしまう。 特に、 符号の誤りが生じていた時間 sが 長いほど上記 L S Pや L A Gの相関が小さくなるため、 内部状態の不一致はさら に拡大し、 復号音声 S P (t + s)の劣化も大きくなるという問題が生じる。 発明の開示 本発明は、 上記した背景の下になされたもので、 符号誤りから回復した後の復 号音声品質を向上させることができる音声復号装置を提供する。
本発明によれば、 音声復号化装置は、 音声信号を所定の符号化方式でディジ夕 ル情報圧縮して送信される符号列を受信して得られる符号列の符号誤りの有無を 検出する誤り検出手段と、 前記誤り検出手段によ όて、 受信した符号列に誤りが 検出された場合、 誤り力 S検出される前に受信した符号列に基づき正しい符号列を 推定し、 推定符号列を出力する第 1の推定手段と、 前記推定符号列を内部に保持 する内部状態情報に基づき復号し、 音声信号に変換する復号手段と、 前記復号手 段の復号結果に基づき前記内部状態情報を更新する更新手段とを具備することを 前提とする。 この前提において、 音声復号装置は、 前記誤り検出手段によって受 信符号列に誤りが検出され、 所定時間経過後、 誤りが検出されなくなった場合、 誤りが検出されなくなった後に受信した符号列に基づき、 誤りが検出されていた 期間の正しい符号列を推定し直し、 推定符号列を出力する第 2の推定手段を備え、 前記第 2の推定手段によって出力される推定符号列を復号処理して得られる復号 結果に基づき前記内部状態情報を再更新することを特徴としている。 この場合、 第 2の推定手段は、 誤りが検出されなくなった後に受信した符号列に基づき、 誤 りが検出されていた期間の正しい符号列を推定し直し、 推定符号列を出力する。 復号手段は、 この推定符号列を復号し、 更新手段は、 この復号結果に基づき内部 状態情報を再更新する。 したがって、 符号誤りが生じている間に拡大した符号器 側との内部状態情報のずれが補償される。.
ここで、 前記第 2の推定手段は、 前記誤り検出手段によって受信符号列に誤り が検出され、 所定時間経過後、 誤りが検出されなくなった場合、 誤りが検出され る前に受信した符号列と誤りが検出されなくなった後に受信した符号列に基づき、 誤りが検出されていた期間の正しい符号列を推定し直し、 推定符号列を出力する ものであってもよい。
また、 前記第 2の推定手段は、 前記誤りが検出されなくなった後に受信した符 号列のうち誤りが検出されなくなつた直後の符号列に基づき、 誤りが検出されて いた期間の正しい符号列を推定し直し、 推定符号列を出力してもよい。 さらに、 前記第 2の推定手段は、 前記誤りが検出されなくなった後に受信した複数の符号 列に基づき、 誤りが検出されていた期間の正しい符号列を推定し直し、 推定符号 列を出力してもよい。
また、 音声復号化装置において、 前記第 2の推定手段は、 前記誤りが検出さ れる前に受信した符号列のうち誤り検出直前の符号列に基づき、 正しい符号列を 推定するものであってもよい。 この場合に、 前記第 1の推定手段が、 前記第 2の 推定手段と同様に、 前記誤りが検出される前に受信した符号列のうち誤り検出直 前の符号列に基づき、 正しい符号列を推定するものであってもよい。
また、 音声復号化装置において、 前記第 2の推定手段は、 前記誤りが検出され る前に受信した複数の符号列に基づき、 正しい符号列を推定するものであっても よい。 この場合に、 前記第 1の推定手段が、 前記第 2の推定手段と同様に、 前記 誤りが検出される前に受信した複数の符号列に基づき、 正しい符号列を推定する ものであってもよい。 これらの音声復号装置は、 精度の高い符号列の推定が可能 となるため、 符号誤りが生じている間と符号誤りから回復した後の復号音声品質 をさらに向上させることができる。
また、 音声復号化装置は、 前記第 2の推定手段によって出力される推定符号列 を復号処理する間、 音声信号の外部への出力を遮断するスィツチ手段を具備する ものであってもよい。 この場合には、 内部状態情報を再更新する間に生成される 復号音声が遅延成分として外部に出力されるのを回避できので、 符号誤りから回 復したときの復号音声品質をさらに向上させることができる。
なお、 前記内部状態情報は適応符号帳であってもよい。 図面の簡単な説明 図 1は、 この発明の一実施形態に係わる音声復号装置の構成を示すブロック図 である。
図 2は、 入力符号列の誤りと図 1に示す音声復号装置の処理動作の態様との関 係を示す図である。
図 3は、 図 1に示す音声復号装置における処理動作の状態遷移を示す図である。 図 4は、 図 1に示す音声復号装置における処理動作の具体例を示す図である。 図 5は、 図 1に示す音声復号装置を用い 実験におけるセグメン夕ル S N Rの 測定結果を示す図である。
図 6は、 内部状態を説明するため I I Rフィルタを例示した図である。
図 7は、 從来の音声復号装置の構成例を示すブロック図である。 発明を実施するための最良の形態 以下、 図面を参照して、 この発明の実施形態について説明する。
1 . 実施形態の構成
図 1は、 この発明の一実施形態による音声復号装置の構成を示すブロック図で ある。 図 1において、 入力符号列処理ュニット 1 ' は、 入力符号列処理部 1 1 ' と入力符号列処理部 1 2 ' で構成され、 復号処理ユニット 2 ' は、 復号処理部 2 1 ' 、 内部状態処理部 2 2 ' および内部状態記憶部 2 3 ' で構成される。 また、 入力符号列処理部 1 1 ' は、 処理動作の切換を行う選択回路 1 1 0 , 1 5 0、 通 常の処理を行う通常処理部 1 2 0、 誤りが生じた際に処理を行う誤り処理部 1 3 0および誤りの回復の処理を行う誤り回復処理部 1 4 0から構成される。 また、 3は誤り検出部であり、 4はスィッチである。
誤り検出部 3は、 図 3に示したものと同一構成であって、 図示しない伝送路を 介して送信されてくる入力符号列 I n (i)の誤り検出を行い、 入力符号列 I n (i) に誤りが検出された場合に 「1」 となり、 誤りが檢出されなかった場合に 「0」 となる誤り検出信号 Eを生成し、 この誤り検出信号 Eを入力符号列処理部 1 1 ' 、 復号処理部 2 1 ' およびスィッチ 4に出力するようになっている。
2 . 実施形態の動作
2— 1 :実施形態の全体動作
以下、 上記構成からなる実施形態の全体動作を説明する。
本実施形態における処理動作には、 通常処理、 誤り処理および誤り回復処理の 態様があり、 これらの処理動作は、 入力符号列に生ずる誤りの状態によって、 選 択される。 まず、 この点について図 2を参照しつつ説明する。 いま、 図 2に示す るように、 入力符号列が 「誤りなし→誤りあり—誤りなし—誤りなし」 と変化す るならば、 誤り検出信号 Eは 「0— 1→0→0」 と変化する。 この場合、 「通常 処理→誤り処理→誤り回復処理および通常処理→誤り処理」 の順に処理動作が行 われる。 処理動作を状態遷移で表すと、 図 3に示すようになる。 図 3において、 誤り回復処理および通常処理が行われるのは、 誤り処理が われた後、 誤り検出 信号 Eが 「0」 を示す場合である。 すなわち、 この動作は、 入力符号列の状態が 「誤りあり」 から 「誤りなし」 に変化した場合にのみ行われる。 以下、 時刻 0から 時刻ほでの期間に入力符号列に誤りがなく、 時刻 t + 1から時刻 t+s-1までの期間に 入力符号列に誤りがあり、 時刻 s以降において入力符号列に誤りがないものとし て、 上記処理動作を図 1および図 4を参照しつつ具体的に説明する。
2 - 2 :通常処理
まず、 通常処理について説明する。 時刻 0から時刻 tの期間においては、 誤り検 出信号 Eは 「0」 を指示する。 この場合には、 時刻 t-1において通常処理がなされ、 時刻 tにおいても誤りがない。 このため、 上述した状態遷移 (図 3参照) によれば、 通常処理から 「0」 の経路を介して再び通常処理に至る。
図 1において、 入力符号列処理部 1 1 ' に入力符号列 I n (t)が供給されると、 選択回路 110は、 端子 A 1を選択して、 入力符号列 I n (t)を通常処理部 120 に供給する。 この後、 通常処理部 120が入力符号列 I n (t)の冗長ビットを取り 除き、 符号列 C (t)として選択回路 150に出力すると、 選択回路 150は端子 A 5を選択して、 符号列 C(t)を復号処理部 21 ' に出力する。 また、 この符号列 C (t)は、 入力符号列記憶部 12' にも出力され、 該記憶部 12' に書き加えられる (すなわち、 記憶内容を更新するのではなく追加される) 。
復号処理部 21 ' は、 内部状態処理部 22 ' から供給される内部状態情報 S 0 (t)に基づき、 上記符号列 C (t)の復号処理を行う。 このとき、 スィッチ 4はオン とされており、 復号音声 SP (t)が次段へ出力される。 また、 復号処理部 21 ' は、 復号処理が終了した時点の内部状態情報 S i (t)を内部状態処理部 22' に出力す る。 内部状態処理部 22' は、 内部状態記億部 23' に記憶された内部状態情報 S o (t)を読み出し、 これを復号処理部 21 ' に出力するとともに、 復号処理部 2 1 ' での処理が終了した後、 該処理部 21 ' から供給される内部状態情報 S i (t) に基づき内部状態情報 S 0 (t+1)を作成し、 これを内部状態記憶部 23 ' に新たに 書き加える。 これにより、 時刻 tにおける復号処理が終了すると、 内部状態記憶部 23 ' から読み出される内部状態情報は S 0 (t)から S o (t+1)に変わる。
2-3 :誤り処理
次に、 誤り処理について説明する。 この例にあっては、 時刻 t+1から時刻 t+s-1 までの期間において、 誤り検出信号 Eは 「1」 を指示する。 この場合、 時刻 tでは 誤りがなく、 時刻 Iにおいて誤りが発生し、 誤り検出信号 Eは 「1」 を指示する。 このため、 上述した状態遷移 (図 3参照) によれば、 時刻 t + 1の時点で、 通常処理 から 「1」 の経路を介して誤り処理に至る。
時刻 t + 1において、 入力符号列 I n (t + 1)が入力符号列処理部 11 ' に供給され ると、 選択回路 1 10は、 端子 B 1を選択する。 この際、 入力符号記憶部 12' から符号列 C (t)が読み出され、 これが選択回路 1 10を介して誤り処理部 130 に供給される。 この後、 誤り処理部 130は、 符号列 C (t)に基づいて推定符号列 C (t+1)を算出しこれを出力する。 ここで、 推定符号列 C' (i)とは、 例えば、 誤 りが生ずる前の符号列 C (i-1)のうち前述の LS Pや LAGのように時間的に相関 が大きい符号によって C (i)の対応部分を置換して得られる符号列のことである。 そして、 選択回路 150は、 端子 B 5を選択し、 誤り処理部 130からの推定 符号列 C' (t+1)を復号処理部 21 ' に出力する。 これにより、 復号処理部 21 ' は、 入力符号列処理部 11 ' から供給される推定符号列 C' ( 1)を用いて上述し た復号処理および内部状態の追加を行う。 また、 時刻 t+1に引き続き、 時刻 2か ら時刻 t+s- 1の期間においても、 図 4に示すように符号列 C (t)に基づいて推定符 号列 C' (t+2), …(: ' (t+s- 1)を生成し、 これらに基づく復号処理および内部状態 の追加が行われる。
このように推定符号列 C' (t+1)を誤り処理で用いるのは、 音声には時間的な相 関があるため、 誤りが生じた符号に基づいて復号処理を行うより、 誤りが生ずる 前の正しい符号列により推定した符号列に基づいて復号処理を行う方が復号音声 S P (t+1)の聴感上の歪みを低減できるからである。
2-3 :誤り回復処理
次に、 誤り回復処理について説明する。 時刻 t+s以降は、 誤りがなくなるため、 時刻 sにおける誤り検出信号 Eは 「0」 を指示する。 この場合、 上述した状態遷 移 (図 3参照) によれば、 誤り処理から 「0」 の経路を介して誤り回復処理およ び通常処理に至る。
時刻 t+sにおいて、 スィッチ 4はオフ状態となる。 この際、 入力符号列処理部 1 1 ' にあっては、 選択回路 110, 150が端子 C l, C 5をそれぞれ選択して、 誤り回復処理部 140を動作させる。 誤り回復処理部 140は、 図 4に示すよう に入力符号列記憶部 12' の記憶内容である誤りが発生する以前の正しい符号列 C (t)と、 入力符号列 I n (t+s)から生成される新たな正しい符号列 C (t+s)とを用 いて、 誤り区間の符号列 C" (t),……, C" ( s- 1)を計算し直し、 この結果を第 2 の推定符号列として出力する。
復号処理ュニット 2 ' においては、 復号処理部 21 ' が内部状態記憶部 23 ' の内部状態情報 S o (t)と第 2の推定符号列 C" (t)に基づき復号処理を行い、 内部 状態処理部 22' が上記復号結果に基づく内部状態情報 S i ' (t)により S o' (t+ 1)を作成し、 内部状態記憶部 23' の内部状態情報 S o (t+1)を S o' (t + 1)に書き 換える (すなわち、 再更新する) 。 ただし、 このときスィッチ 4はオフ状態であ るので、 復号音声は出力されず、 内部状態の更新のみが行われる。 次いで、 新た に書き換えられた内部状態情報 S o' (t+1)と符号列 C" (t+1)に基づき上記と同様 の動作を行う。 こうした動作を符号列 C" (t+s-1)まで繰り返す。 この結果、 内部 状態記憶部 23 ' の内部状態情報は、 図 4に示すように S o' (t+1), 〜S o' (t+ s - 1)に更新される。
そして、 内部状態情報が S o' U+s)まで再更新されると、 スィッチ 4をオンに 切り替え、 内部状態情報 S o' (t+s)と符号列 C (t+s)に基づき、 前述の通常処理を 開始する。 すなわち、 時刻 t+sにおいては、 時刻 ……, t+s-1で符号列 C" (t),… C" (t+s-1)に基づき復号処理が行われかつ内部状態記憶部 23 ' の内容が追加 されたものとして、 時刻 t+sにおける復号処理と内部状態記憶部 23 ' の内容の追 加が行われる。
このように、 本実施形態によれば、 誤りが検出されなくなる時刻 t+sの時点にお いて、 誤りが生じていた時刻 t+1,……, t+s-1における内部状態記憶部 23' の内 容を符号列 C" (t+1),……, C" (t+s-1)を用いて更新し直すことにより、 内部状態 記憶部 23 ' の内容を符号器側の内部状態記憶部 (図示略) の内容に近づけるこ とができる。 この結果、 時刻 t+s以後の歪みを低減することが可能になるとともに、 時刻 t+sにおいてスィツチ 4をオフにしていることから復号音声の遅延成分が出力 されることもない。
3. 実験例
次に、 本実施形態に係わる音声復号装置を、 AC E LPの適応符号帳に適用し、 適応符号帳のパラメ一夕である LAGに、 誤りを加える実験を行った。 この実験 では、 サブフレーム単位で復号処理と内部状態の再更新を行ない、 第 5サブフレ —ムと第 6サブフレームで誤りを加え、 セグメンタル SNRを測定したところ、 図 5に示すような測定結果を得た。 図において、 白四角は、 符号誤り時に補間処 理を行わない場合のセグメンタル SNRであり、 白丸は、 符号誤り時に補間処理 を行う場合のセグメンタル SNRである。 一方、 黒四角は、 誤り回復フレーム (第 7サブフレーム) において誤り回復処理を行い、 かつ補間処理を行った場合 のセグメンタル SNRである。 すなわち、 黒四角で示す測定結果が、 本実施形態 に係わる音声復号装置を適用した場合に対応する。
例えば、 第 1 1サブフレームにあっては、 誤り回復処理と補間処理を行うと、 補間処理を行った場合と比較して 4 dB、 補間処理を行わない場合と比較して 9 dBセグメンタル SNRを改善することができる。 このようにして、 誤り回復処 理が、 符号誤りが生じた後のセグメンタル SNRを大幅に改善できることが確か められた。
4. 変更例
上述した実施形態において、 推定符号列 C' (t+1),……, C' (t+s-1)は、 LSP や LAGによる置換に限らず、 経時的に相関の大きい他の符号によって置換して もよく、 また、 他の方法で算出してもよい。 また、 誤りが生ずる直前の符号列 C (t)に限らず、 さらに以前の正しい符号列 C (t-1), C (t-2),……をも用いて推定を 行うようにしてもよい。 この場合には、 誤り回復処理部 140は、 入力符号列記 憶部 12 ' の記憶内容である誤りが発生する以前の正しい符号列 C (t-1), C (t-2), ……と、 入力符号列 I n (t+s)から生成される新たな正しい符号列 C (t+s)とを用 いて、 誤り区間の符号列 C" (t+1),……, C" (t+s- 1)を計算し直し、 この結果を出 力する。
また、 内部状態情報を再更新するための第 2の推定符号列 C" (t+1),…… , C" (t+s-1)は、 誤りが生ずる以前の正しい符号列と誤りから回復した後の正しい符号 列の両方を用いて推定する場合には、 誤りから回復した後の正しい符号列と誤り が生ずる直前の符号列 C (t)のみを用いても、 さらに以前の正しい符号列 C (t-1), C (t-2),……を用いてもよい。
また、 内部状態情報を再更新するための第 2の推定符号列 C" (t+1),……, C" (t+s- 1)は、 誤りの回復した後の正しい符号列のみから推定してもよい。 また、 誤 りの回復した後の正しい符号列は、 誤りから回復した直後の符号列 C (t+s)のみを 用いても、 さらに、 それ以後の正しい符号列 C ( s), C (t+s+1),……を用いても よい。
また、 上記第 2の推定符号列 C" (t+1),…… , C" (t+s- 1)は、 必ずしも誤りが生 じていた全ての期間について算出する必要はなく、 その一部についてのみ算出し、 これにより内部状態を更新するようにしてもよい。
また、 遅延が許される系においては、 時刻 sにおいてスィッチ 4をオンにし、 復号音声の出力を行うようにしてもよい。
また、 内部状態としては、 音声符号化の代表的なものとして適応符号帳を採用 することが好ましいが、 必ずしもこれに限定されない。

Claims

請 求 の 範 囲
1 . 音声信号を所定の符号化方式でディジタル情報圧縮して送信される符号列 を受信して得られる符号列の符号誤りの有無を検出する誤り検出手段と、 前記誤り検出手段によって、 受信した符号列に誤りが検出された場合、 誤りが 検出される前に受信した符号列に基づき正しい符号列を推定し、 推定符号列を出 力する第 1の推定手段と、
前記推定符号列を内部に保持する内部状態情報に基づき復号し、 音声信号に変 換する復号手段と、
前記復号手段の復号結果に基づき前記内部状態情報を更新する更新手段と を具備してなる音声復号装置において、
前記誤り検出手段によって受信符号列に誤りが検出され、 所定時間経過後、 誤 りが検出されなくなった場合、 誤りが検出されなくなつた後に受信した符号列に 基づき、 誤りが検出されていた期間の正しい符号列を推定し直し、 推定符号列を 出力する第 2の推定手段を備え、
前記第 2の推定手段によつて出力される推定符号列を復号処理して得られる復 号結果に基づき前記内部状態情報を再更新することを特徴とする音声復号装置。
2 . 前記第 2の推定手段は、 前記誤り検出手段によって受信符号列に誤りが検 出され、 所定時間経過後、 誤りが検出されなくなった場合、 誤りが検出される前 に受信した符号列と誤りが検出されなくなつた後に受信した符号列に基づき、 誤 りが検出されていた期間の正しい符号列を推定し直し、 推定符号列を出力するこ とを特徴とする請求項 1記載の音声復号装置。
3 . 前記第 2の推定手段は、 前記誤りが検出されなくなった後に受信した符号 列のうち誤りが検出されなくなつた直後の符号列に基づき、 誤りが検出されてい た期間の芷しい符号列を推定し直し、 推定符号列を出力することを特徴とする請 求項 1または 2に記載の音声復号装置。
4. 前記第 2の推定手段は、 前記誤りが検出されなくなった後に受信した複数 の符号列に基づき、 誤りが検出されていた期間の正しい符号列を推定し直し、 推 定符号列を出力することを特徴とする請求項 1または 2に記載の音声復号装置。
5 . 前記第 2の推定手段は、 前記誤りが検出される前に受信した符号列のうち 誤り検出直前の符号列に基づき、 正しい符号列を推定することを特徴とする請求 項 2記載の音声復号装置。
6 . 前記第 2の推定手段は、 前記誤りが検出される前に受信した複数の符号列 に基づき、 正しい符号列を推定することを特徴とする請求項 2記載の音声復号装
7 . 前記第 2の推定手段によって出力される推定符号列を復号処理する間、 音 声信号の外部への出力を遮断するスィッチ手段を具備することを特徴とする請求 項 1乃至 6のいずれかに記載の音声復号装置。
8 . 前記内部状態情報は適応符号帳であることを特徴とする請求項 1乃至 7の いずれかに記載の音声復号装置。
PCT/JP1996/001323 1995-05-22 1996-05-20 Sound decoding device WO1996037964A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP96915190A EP0773630B1 (en) 1995-05-22 1996-05-20 Sound decoding device
US08/776,171 US6085158A (en) 1995-05-22 1996-05-20 Updating internal states of a speech decoder after errors have occurred
JP53555196A JP3155952B2 (ja) 1995-05-22 1996-05-20 音声復号装置
DE69633164T DE69633164T2 (de) 1995-05-22 1996-05-20 Tondekoder

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP7/122585 1995-05-22
JP12258595 1995-05-22

Publications (1)

Publication Number Publication Date
WO1996037964A1 true WO1996037964A1 (en) 1996-11-28

Family

ID=14839562

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/001323 WO1996037964A1 (en) 1995-05-22 1996-05-20 Sound decoding device

Country Status (6)

Country Link
US (1) US6085158A (ja)
EP (1) EP0773630B1 (ja)
JP (1) JP3155952B2 (ja)
CN (1) CN1100396C (ja)
DE (1) DE69633164T2 (ja)
WO (1) WO1996037964A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002196795A (ja) * 2000-12-26 2002-07-12 Matsushita Electric Ind Co Ltd 音声復号装置及び音声符号化・復号装置
US8185386B2 (en) 1999-04-19 2012-05-22 At&T Intellectual Property Ii, L.P. Method and apparatus for performing packet loss or frame erasure concealment
US8731908B2 (en) 1999-04-19 2014-05-20 At&T Intellectual Property Ii, L.P. Method and apparatus for performing packet loss or frame erasure concealment
JP2017509006A (ja) * 2014-02-28 2017-03-30 グーグル インコーポレイテッド 欠落データにわたる正弦波内挿

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI963870A (fi) * 1996-09-27 1998-03-28 Nokia Oy Ab Virheiden piilottaminen digitaalisessa audiovastaanottimessa
US6385195B2 (en) 1997-07-21 2002-05-07 Telefonaktiebolaget L M Ericsson (Publ) Enhanced interworking function for interfacing digital cellular voice and fax protocols and internet protocols
EP1001541B1 (en) * 1998-05-27 2010-08-11 Ntt Mobile Communications Network Inc. Sound decoder and sound decoding method
DE69943234D1 (de) * 1998-05-27 2011-04-14 Nippon Telegraph & Telephone Vorrichtung und verfahren zur sprachdekodierung
SE519563C2 (sv) * 1998-09-16 2003-03-11 Ericsson Telefon Ab L M Förfarande och kodare för linjär prediktiv analys-genom- synteskodning
JP2001154699A (ja) * 1999-11-23 2001-06-08 Texas Instr Inc <Ti> フレーム消去の隠蔽及びその方法
ATE439666T1 (de) 2001-02-27 2009-08-15 Texas Instruments Inc Verschleierungsverfahren bei verlust von sprachrahmen und dekoder dafer
KR100591350B1 (ko) * 2001-03-06 2006-06-19 가부시키가이샤 엔.티.티.도코모 오디오 데이터 보간장치 및 방법, 오디오 데이터관련 정보작성장치 및 방법, 오디오 데이터 보간 정보 송신장치 및방법, 및 그 프로그램 및 기록 매체
US7590525B2 (en) * 2001-08-17 2009-09-15 Broadcom Corporation Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
WO2003023763A1 (en) * 2001-08-17 2003-03-20 Broadcom Corporation Improved frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
DE60118631T2 (de) * 2001-11-30 2007-02-15 Telefonaktiebolaget Lm Ericsson (Publ) Verfahren zum ersetzen verfälschter audiodaten
US20050049853A1 (en) * 2003-09-01 2005-03-03 Mi-Suk Lee Frame loss concealment method and device for VoIP system
US7146309B1 (en) 2003-09-02 2006-12-05 Mindspeed Technologies, Inc. Deriving seed values to generate excitation values in a speech coder
US7447983B2 (en) * 2005-05-13 2008-11-04 Verizon Services Corp. Systems and methods for decoding forward error correcting codes
US7930176B2 (en) * 2005-05-20 2011-04-19 Broadcom Corporation Packet loss concealment for block-independent speech codecs
KR100723409B1 (ko) 2005-07-27 2007-05-30 삼성전자주식회사 프레임 소거 은닉장치 및 방법, 및 이를 이용한 음성복호화 방법 및 장치
US7805297B2 (en) * 2005-11-23 2010-09-28 Broadcom Corporation Classification-based frame loss concealment for audio signals
US7877253B2 (en) * 2006-10-06 2011-01-25 Qualcomm Incorporated Systems, methods, and apparatus for frame erasure recovery
EP2506253A4 (en) * 2009-11-24 2014-01-01 Lg Electronics Inc METHOD AND DEVICE FOR PROCESSING AUDIO SIGNAL

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05175940A (ja) * 1991-12-25 1993-07-13 Toshiba Corp 誤り訂正方式
JPH05199124A (ja) * 1992-01-21 1993-08-06 Nec Corp 音声通信方式

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3028066A1 (de) * 1980-07-24 1982-02-18 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt Schaltungsanordnung zur korrektur gestoerter abtastwerte bei einer pcm-uebertragungseinrichtung, insbesondere einer digital-tonplatte
JP3102015B2 (ja) * 1990-05-28 2000-10-23 日本電気株式会社 音声復号化方法
FI90477C (fi) * 1992-03-23 1994-02-10 Nokia Mobile Phones Ltd Puhesignaalin laadun parannusmenetelmä lineaarista ennustusta käyttävään koodausjärjestelmään
JP2962053B2 (ja) * 1992-06-25 1999-10-12 松下電器産業株式会社 信号処理装置
JP2746033B2 (ja) * 1992-12-24 1998-04-28 日本電気株式会社 音声復号化装置
SE503547C2 (sv) * 1993-06-11 1996-07-01 Ericsson Telefon Ab L M Anordning och förfarande för döljande av förlorade ramar
US5574825A (en) * 1994-03-14 1996-11-12 Lucent Technologies Inc. Linear prediction coefficient generation during frame erasure or packet loss
US5615298A (en) * 1994-03-14 1997-03-25 Lucent Technologies Inc. Excitation signal synthesis during frame erasure or packet loss
KR100419545B1 (ko) * 1994-10-06 2004-06-04 코닌클리케 필립스 일렉트로닉스 엔.브이. 다른코딩원리들을이용한전송시스템
FI97182C (fi) * 1994-12-05 1996-10-25 Nokia Telecommunications Oy Menetelmä vastaanotettujen huonojen puhekehysten korvaamiseksi digitaalisessa vastaanottimessa sekä digitaalisen tietoliikennejärjestelmän vastaanotin

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05175940A (ja) * 1991-12-25 1993-07-13 Toshiba Corp 誤り訂正方式
JPH05199124A (ja) * 1992-01-21 1993-08-06 Nec Corp 音声通信方式

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0773630A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8185386B2 (en) 1999-04-19 2012-05-22 At&T Intellectual Property Ii, L.P. Method and apparatus for performing packet loss or frame erasure concealment
US8423358B2 (en) 1999-04-19 2013-04-16 At&T Intellectual Property Ii, L.P. Method and apparatus for performing packet loss or frame erasure concealment
US8612241B2 (en) 1999-04-19 2013-12-17 At&T Intellectual Property Ii, L.P. Method and apparatus for performing packet loss or frame erasure concealment
US8731908B2 (en) 1999-04-19 2014-05-20 At&T Intellectual Property Ii, L.P. Method and apparatus for performing packet loss or frame erasure concealment
US9336783B2 (en) 1999-04-19 2016-05-10 At&T Intellectual Property Ii, L.P. Method and apparatus for performing packet loss or frame erasure concealment
JP2002196795A (ja) * 2000-12-26 2002-07-12 Matsushita Electric Ind Co Ltd 音声復号装置及び音声符号化・復号装置
JP2017509006A (ja) * 2014-02-28 2017-03-30 グーグル インコーポレイテッド 欠落データにわたる正弦波内挿

Also Published As

Publication number Publication date
US6085158A (en) 2000-07-04
DE69633164D1 (de) 2004-09-23
EP0773630A1 (en) 1997-05-14
CN1159260A (zh) 1997-09-10
EP0773630B1 (en) 2004-08-18
EP0773630A4 (en) 2000-11-08
JP3155952B2 (ja) 2001-04-16
CN1100396C (zh) 2003-01-29
DE69633164T2 (de) 2005-08-11

Similar Documents

Publication Publication Date Title
WO1996037964A1 (en) Sound decoding device
KR100563293B1 (ko) 음성 복호화에서 음성 프레임 오류 은폐를 위한 방법 및시스템
US5142582A (en) Speech coding and decoding system with background sound reproducing function
JPH0226898B2 (ja)
JP2008065344A (ja) 受信器に於ける音声フレームの処理方法、及びこの方法を用いたデジタル通信システムの受信器
JP2876497B2 (ja) 誤り訂正符復号化方法およびその装置
JPH06202696A (ja) 音声復号化装置
JP2023145493A (ja) マルチモードチャンネル符号化
JP3756525B2 (ja) 固定長デシジョンウィンドウを使用するデータ信号の復号方法
JP3265339B2 (ja) 音声復号化装置
JP3583551B2 (ja) 誤り補償装置
JP2715398B2 (ja) 誤り訂正符復号化装置
KR101032805B1 (ko) 음성 데이터 복호 장치 및 음성 데이터 복호 방법
JPH0612095A (ja) 音声復号化方法
JPH09152899A (ja) 音声符号化切替えシステム
JPH07271391A (ja) 音声復号装置
JP2591332B2 (ja) 誤り訂正復号装置
JP3445279B6 (ja) データ伝送方法,データ伝送システムおよび送信装置,受信装置
JP2001177481A (ja) 復号化装置
JPH0690207A (ja) Adpcm受信機
KR100190291B1 (ko) 비터비 디코더의 트레이스백 제어 장치
WO2007072819A1 (ja) 符号変換装置及びそれに用いる符号変換方法並びにそのプログラム
JPH0865275A (ja) 音声信号の受信方法
JPH08251143A (ja) ブロック符号の復号装置
JPH03245199A (ja) エラー補償方式

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 96190740.1

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 08776171

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1996915190

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1996915190

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1996915190

Country of ref document: EP