JP2002196795A - Speech decoder, and speech coding and decoding device - Google Patents

Speech decoder, and speech coding and decoding device

Info

Publication number
JP2002196795A
JP2002196795A JP2000395644A JP2000395644A JP2002196795A JP 2002196795 A JP2002196795 A JP 2002196795A JP 2000395644 A JP2000395644 A JP 2000395644A JP 2000395644 A JP2000395644 A JP 2000395644A JP 2002196795 A JP2002196795 A JP 2002196795A
Authority
JP
Japan
Prior art keywords
frame
decoding
encoded data
speech
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000395644A
Other languages
Japanese (ja)
Other versions
JP4597360B2 (en
Inventor
Koji Yoshida
幸司 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000395644A priority Critical patent/JP4597360B2/en
Publication of JP2002196795A publication Critical patent/JP2002196795A/en
Application granted granted Critical
Publication of JP4597360B2 publication Critical patent/JP4597360B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a speech decoder and a speech coding and decoding device, with which more improved decoded speech quality can be realized in the frame where the frame loss is detected. SOLUTION: When the preceding frame is the loss frame and the coded data of the loss frame is received behind time by the receiver buffer 101 in the present time, the preceding frame coded data and the correctly received present frame coded data of the present time are inputted into a loss frame decoding part 105. In the loss frame decoding part 105, the speech is decoded using the inputted preceding frame and the present frame coded data one by one, and the decoded speech signal to the present frame coded data is outputted. Moreover, state data required of the decoding is updated and held in a state data holding part 103. In a changeover part 106, the changeover according to the frame loss information is performed, and the decoded speech signal of the frame is outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声信号を符号化
して伝送する移動通信や有線通信システム等の用途に用
いられる音声復号装置に関し、特に音声復号時の符号化
データが損失した際に復号音声品質の劣化を抑えるフレ
ーム補償機能を備えた音声復号装置及び音声符号化・復
号装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech decoding apparatus used for applications such as a mobile communication system or a wired communication system which encodes and transmits a speech signal, and more particularly to a speech decoding apparatus which decodes coded data when coded data is lost. The present invention relates to an audio decoding device and an audio encoding / decoding device having a frame compensation function for suppressing deterioration of audio quality.

【0002】[0002]

【従来の技術】従来、ディジタル移動通信や有線通信の
分野においては、電波や有線回線の有効利用のために音
声情報を圧縮し、低いビットレートで符号化する音声符
号化装置が用いられている。そして、そのような通信シ
ステムにおいて、特にパケット単位で伝送を行うシステ
ムでは、受信側(音声復号側)で受信するパケットが損
失したり、時間的に遅れて到着して、音声復号を行うの
に必要なデータが得られないこと(フレーム損失)があ
り、その際に復号音声品質の劣化を抑えるためのフレー
ム補償が行われる。
2. Description of the Related Art Conventionally, in the field of digital mobile communication and wire communication, a voice coding device for compressing voice information and coding at a low bit rate has been used for effective use of radio waves and wire lines. . In such a communication system, especially in a system that performs transmission on a packet-by-packet basis, a packet received on the receiving side (speech decoding side) may be lost or may arrive with a delay in time to perform speech decoding. In some cases, necessary data cannot be obtained (frame loss), and at that time, frame compensation is performed to suppress deterioration of decoded voice quality.

【0003】そのような従来の技術として、ITU−T
勧告G.729("Coding of speech at 8kbit/s using
conjugate-structure algebraic-code-excited linear
-prediction(CS-ACELP)")のCS−ACELP符号化方
式に記載された誤り補償方法がある。
[0003] As such a conventional technique, ITU-T
Recommendation G. 729 ("Coding of speech at 8kbit / s using
conjugate-structure algebraic-code-excited linear
-prediction (CS-ACELP) "), there is an error compensation method described in the CS-ACELP encoding method.

【0004】図11は、CS−ACELP符号化方式の
フレーム補償機能を備えた音声復号装置の構成を示すブ
ロック図である。この図において、音声復号は10ms
のフレーム単位で行われ、そのフレーム単位でフレーム
損失の有無が音声復号器に通知されるものとする。
FIG. 11 is a block diagram showing a configuration of a speech decoding apparatus having a frame compensation function of the CS-ACELP coding system. In this figure, audio decoding is 10 ms.
Is performed in frame units, and the presence / absence of frame loss is notified to the speech decoder in frame units.

【0005】まず、フレーム損失が検出されないフレー
ムにおいては、データ分離部1101において、復号に
必要な各パラメータに分離される。そして、ラグパラメ
ータ復号部1102により復号されたラグパラメータを
用いて適応音源符号帳部1103により適応音源が、ま
た固定音源符号帳部1104により固定音源が生成さ
れ、ゲインパラメータ復号部1105により復号された
ゲインを用いて、乗算部1106による乗算および加算
部1107による加算により駆動音源が生成され、LP
Cパラメータ復号部1108により復号されたLPCパ
ラメータを用いてLPC合成フィルタ1109およびポ
ストフィルタ1110を経由して復号音声が生成され
る。
[0005] First, a frame in which no frame loss is detected is separated by a data separation unit 1101 into parameters necessary for decoding. An adaptive excitation is generated by adaptive excitation codebook section 1103 and a fixed excitation is generated by fixed excitation codebook section 1104 using the lag parameters decoded by lag parameter decoding section 1102, and decoded by gain parameter decoding section 1105. A driving sound source is generated by the multiplication by the multiplication unit 1106 and the addition by the addition unit 1107 using the gain.
A decoded speech is generated via the LPC synthesis filter 1109 and the post filter 1110 using the LPC parameters decoded by the C parameter decoding unit 1108.

【0006】一方、フレーム損失が検出されたフレーム
に対しては、ラグパラメータとして、誤りが検出されな
かった前フレームのラグパラメータを用いて適応音源を
生成し、また、固定音源符号帳部1104に対してラン
ダムな固定音源符号を与えることで固定音源を生成し、
ゲインパラメータとして、前フレームの適応音源ゲイン
および固定音源ゲインを減衰させた値を用いて駆動音源
を生成し、LPCパラメータとして、前フレームLPC
パラメータを用いてLPC合成およびポストフィルタ処
理を行い復号音声を得る。このように、フレーム損失時
にフレーム補償処理を行う。
On the other hand, for a frame in which a frame loss is detected, an adaptive excitation is generated using a lag parameter of a previous frame in which no error is detected as a lag parameter. Generate a fixed excitation by giving a random fixed excitation code to the
A driving sound source is generated using a value obtained by attenuating the adaptive sound source gain and the fixed sound source gain of the previous frame as a gain parameter, and the LPC parameter of the previous frame LPC is used as an LPC parameter.
LPC synthesis and post-filter processing are performed using the parameters to obtain decoded speech. Thus, the frame compensation processing is performed when the frame is lost.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記従
来の音声復号装置においては、次のような問題がある。
すなわち、損失フレームより過去のパラメータを用いて
フレーム補償処理を行っているため、損失フレームの次
の正常フレームにおける復号において、その復号に必要
な過去の状態データ(適応符号帳やLSPパラメータや
ゲインパラメータのMA予測フィルタ状態など)が、本
来の(フレーム損失がない場合の)値との相違が大きく
なることがあり、それにより復号音声の品質が劣化す
る。
However, the above conventional speech decoding apparatus has the following problems.
That is, since the frame compensation processing is performed using the past parameters from the lost frame, the past state data (the adaptive codebook, the LSP parameter, the gain parameter, etc.) necessary for the decoding in the next normal frame after the lost frame are decoded. MA prediction filter state) may differ greatly from the original value (when there is no frame loss), thereby deteriorating the quality of decoded speech.

【0008】また、損失フレームが音声の立ち上がりな
ど過渡的な区間を含む場合には、その区間の再生が行わ
れないことになり、復号音声の品質劣化が生じる。この
ように、フレーム補償時の復号音声品質劣化の改善に限
界がある。
If the lost frame includes a transitional section such as a rising edge of the speech, the section is not reproduced, and the quality of the decoded speech deteriorates. As described above, there is a limit to the improvement of the decoded voice quality degradation at the time of frame compensation.

【0009】本発明はかかる点に鑑みてなされたもので
あり、フレーム損失が検出されたフレームにおいて、よ
り改善された復号音声品質を実現することのできる音声
復号装置及び音声符号化・復号装置を提供することを目
的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and an object of the present invention is to provide a speech decoding apparatus and a speech encoding / decoding apparatus capable of realizing improved decoded speech quality in a frame in which a frame loss is detected. The purpose is to provide.

【0010】[0010]

【課題を解決するための手段】本発明の音声復号装置
は、フレーム単位の符号化データを受け取り蓄積する受
信バッファと、現フレームの符号化データを正しく受信
した場合にその符号化データを用いて通常の音声復号を
行う音声復号手段と、現フレームの符号化データが損失
により受信できなかった場合に損失フレーム補償を行う
損失フレーム補償手段と、前記受信バッファが符号化デ
ータを時間的に遅れて受信した場合にその符号化データ
と現フレームの符号化データとを用いて音声復号を行う
と共に前記音声復号手段で復号に必要な状態データを更
新する損失フレーム復号手段と、を具備する構成を採
る。
SUMMARY OF THE INVENTION A speech decoding apparatus according to the present invention uses a reception buffer for receiving and storing coded data in frame units, and using the coded data when the coded data of the current frame is correctly received. Speech decoding means for performing normal speech decoding, loss frame compensation means for performing loss frame compensation when encoded data of the current frame cannot be received due to loss, and the reception buffer delays the encoded data in time. And a lossy frame decoding unit for performing speech decoding using the encoded data and the encoded data of the current frame when receiving, and updating state data necessary for decoding by the speech decoding unit. .

【0011】この構成によれば、損失フレームの符号化
データが時間的に遅れて受信された場合に、フレーム補
償で復号音声を出力後、その符号化データを用いて過去
の損失フレームに相当する区間の音声復号を行って音声
復号のために必要な状態データを更新し、その後現在の
正常フレームの音声復号を行うことにより、より本来の
値に近い状態データを用いた復号が可能となり、復号音
声品質の劣化を抑えることが可能となる。
According to this configuration, when encoded data of a lost frame is received with a time delay, after outputting a decoded speech by frame compensation, the encoded data is used to correspond to a past lost frame. By performing audio decoding of the section and updating the state data necessary for audio decoding, and then performing audio decoding of the current normal frame, decoding using state data closer to the original value becomes possible. It is possible to suppress the deterioration of the voice quality.

【0012】また、本発明の音声復号装置は、フレーム
単位の符号化データを受け取り蓄積する受信バッファ
と、現フレームの符号化データを正しく受信した場合に
その符号化データを用いて通常の音声復号を行う音声復
号手段と、現フレームの符号化データが損失により受信
できなかった場合に損失フレーム補償を行う損失フレー
ム補償手段と、前記受信バッファが符号化データを時間
的に遅れて受信した場合にその符号化データと現フレー
ムの符号化データを用いて音声復号を行うと共に前記音
声復号手段で復号に必要な状態データを更新する損失フ
レーム復号手段と、前記損失フレーム復号手段が復号し
た現フレームの復号音声信号と前記音声復号手段が復号
した現フレームの復号音声信号とを用いて窓かけ加算を
行う窓かけ加算手段と、を具備する構成を採る。
A speech decoding apparatus according to the present invention comprises a receiving buffer for receiving and storing coded data in frame units, and a normal speech decoding apparatus using coded data when coded data of the current frame is correctly received. Voice decoding means for performing loss-frame compensation when the encoded data of the current frame cannot be received due to loss, and when the reception buffer receives the encoded data with a time delay. Loss frame decoding means for performing speech decoding using the encoded data and the encoded data of the current frame and updating state data necessary for decoding by the speech decoding means, and a current frame decoded by the lost frame decoding means. Windowing addition means for performing windowing addition using a decoded audio signal and a decoded audio signal of the current frame decoded by the audio decoding means. Employs a configuration having a.

【0013】この構成によれば、損失フレームの符号化
データが時間的に遅れて受信された場合、フレーム補償
で復号音声を出力後、その符号化データを用いて過去の
損失フレームに相当する区間の音声復号を行って状態デ
ータを更新し、その後、現在の正常フレームの音声復号
を行って得られた復号音声信号と、損失フレームのフレ
ーム補償処理により状態データを更新した後に音声復号
を行って得られた現在の正常フレームの復号音声信号と
を用いて、窓かけ加算を行うことにより、より滑らかな
復号を行うことが可能となる。
According to this configuration, when the encoded data of the lost frame is received with a time delay, after outputting the decoded speech by frame compensation, the section corresponding to the past lost frame is used by using the encoded data. To update the state data by performing audio decoding, and then perform the audio decoding after updating the state data by the frame compensation processing of the lost frame and the decoded audio signal obtained by performing the audio decoding of the current normal frame. By performing windowed addition using the obtained decoded audio signal of the current normal frame, smoother decoding can be performed.

【0014】本発明の音声符号化・復号装置は、フレー
ム単位の入力音声の特性を表す音声モードを判定する音
声モード判定手段と、フレーム単位の入力音声に対して
音声符号化を行い前記音声モード判定手段で得られた音
声モード情報と共に符号化データを出力する音声符号化
手段と、フレーム単位の符号化データを受け取り蓄積す
る受信バッファと、現フレームの符号化データを正しく
受信した場合にその符号化データを用いて通常の音声復
号を行う音声復号手段と、現フレームの符号化データが
損失により受信できなかった場合に損失フレーム補償を
行う損失フレーム補償手段と、前記受信バッファが符号
化データを時間的に遅れて受信した場合にその符号化デ
ータと現フレームの符号化データを用いて音声復号を行
うと共に前記音声復号手段で復号に必要な状態データを
更新する損失フレーム復号手段と、前記損失フレーム復
号手段が復号した損失フレームと現フレームの復号音声
信号に対して時間軸圧縮する時間軸圧縮手段と、前記音
声モード判定手段で得られた音声モードに応じて前記時
間軸圧縮手段で得られた復号音声信号又は前記損失フレ
ーム復号手段で得られた現フレームの復号音声信号のい
ずれかを選択し、選択した復号音声信号と前記音声復号
手段が復号した現フレームの復号音声信号とを用いて窓
かけ加算を行う窓かけ加算手段と、を具備する構成を採
る。
A speech encoding / decoding device according to the present invention comprises: a speech mode determining means for determining a speech mode representing characteristics of an input speech on a frame basis; Audio encoding means for outputting encoded data together with the audio mode information obtained by the judging means, a reception buffer for receiving and storing encoded data in frame units, and a code when the encoded data of the current frame is correctly received. Speech decoding means for performing normal speech decoding using encoded data, loss frame compensation means for performing lost frame compensation when encoded data of the current frame cannot be received due to loss, and the reception buffer converts encoded data. When receiving with a time delay, speech decoding is performed using the encoded data and the encoded data of the current frame. Loss frame decoding means for updating state data necessary for decoding by the decoding means, time axis compression means for time axis compressing the loss frame decoded by the loss frame decoding means and the decoded audio signal of the current frame, According to the audio mode obtained by the mode determination means, either the decoded audio signal obtained by the time axis compression means or the decoded audio signal of the current frame obtained by the lost frame decoding means is selected, and the selected decoding is performed. A window adding means for performing window adding using the audio signal and the decoded audio signal of the current frame decoded by the audio decoding means is adopted.

【0015】この構成によれば、損失フレームの符号化
データが時間的に遅れて受信された場合、フレーム補償
で復号音声を出力後、その符号化データおよび現在の正
常フレームの符号化データを用いて過去の損失フレーム
および現在の正常フレームの区間の音声復号を行い、符
号化側で判定されたモード情報が過渡的区間であること
を示す場合には、得られた復号信号を時間軸圧縮して正
常フレームの復号音声として用いることにより、過渡区
間でのフレーム損失に伴う復号音声品質の劣化を抑える
ことが可能となる。
According to this configuration, when the encoded data of the lost frame is received with a time delay, after outputting the decoded speech by frame compensation, the encoded data and the encoded data of the current normal frame are used. If the mode information determined by the encoding side indicates a transient section, the obtained decoded signal is compressed in the time domain by performing speech decoding of the section between the past lost frame and the current normal frame. As a result, it is possible to suppress the deterioration of the decoded voice quality due to the frame loss in the transient section.

【0016】本発明の基地局装置は、上記音声復号装置
又は音声復号装置又は音声符号化・復号装置のいずれか
を具備する構成を採る。
A base station apparatus according to the present invention employs a configuration including any one of the above-described speech decoding device, speech decoding device, and speech encoding / decoding device.

【0017】本発明の通信端末装置は、上記音声復号装
置又は音声復号装置又は音声符号化・復号装置のいずれ
かを具備する構成を採る。
The communication terminal device of the present invention employs a configuration including any of the above-described speech decoding device, speech decoding device, or speech encoding / decoding device.

【0018】本発明の音声復号方法は、フレーム単位の
符号化データを受け取り蓄積する受信バッフリング工程
と、現フレームの符号化データを正しく受信した場合に
その符号化データを用いて通常の音声復号を行う音声復
号工程と、現フレームの符号化データが損失により受信
できなかった場合に損失フレーム補償を行う損失フレー
ム補償工程と、前記受信バッファが符号化データを時間
的に遅れて受信した場合にその符号化データと現フレー
ムの符号化データを用いて音声復号を行うと共に前記音
声復号工程で復号に必要な状態データを更新する損失フ
レーム復号工程と、を具備する。
A speech decoding method according to the present invention comprises a receiving buffering step of receiving and storing encoded data in units of frames, and a normal speech decoding using encoded data when the encoded data of the current frame is correctly received. A voice decoding step of performing, and a lost frame compensation step of performing lost frame compensation when the encoded data of the current frame cannot be received due to loss, and when the reception buffer receives the encoded data with a time delay. A lost frame decoding step of performing speech decoding using the encoded data and the encoded data of the current frame and updating state data necessary for decoding in the speech decoding step.

【0019】この方法によれば、損失フレームの符号化
データが時間的に遅れて受信された場合、フレーム補償
で復号音声を出力後、その符号化データを用いて過去の
損失フレームに相当する区間の音声復号を行って音声復
号のために必要な状態データを更新し、その後、現在の
正常フレームの音声復号を行うことにより、より本来の
値に近い状態データを用いた復号が可能となり、復号音
声品質の劣化を抑えることが可能となる。
According to this method, when encoded data of a lost frame is received with a time delay, a decoded speech is output by frame compensation, and a section corresponding to a past lost frame is used by using the encoded data. Then, the state data necessary for the sound decoding is updated, and then, by performing the sound decoding of the current normal frame, decoding using the state data closer to the original value becomes possible. It is possible to suppress the deterioration of the voice quality.

【0020】本発明の記録媒体は、音声復号プログラム
を格納し、コンピュータにより読み取り可能な記録媒体
であって、前記音声復号プログラムは、フレーム単位の
符号化データを受け取り蓄積する手順と、現フレームの
符号化データを正しく受信した場合にその符号化データ
を用いて通常の音声復号を行う手順と、現フレーム符号
化データが損失により受信できなかった場合に損失フレ
ーム補償を行う手順と、符号化データを時間的に遅れて
受信した場合にその符号化データと現フレーム符号化デ
ータを用いて音声復号を行うと共に復号に必要な状態デ
ータを更新する手順と、を実行させるためのプログラム
を記録した機械読み取り可能なものである。
A recording medium according to the present invention is a computer-readable recording medium storing an audio decoding program, the audio decoding program receiving and storing encoded data in frame units, A procedure for performing normal speech decoding using the encoded data when the encoded data is correctly received; a procedure for performing loss frame compensation when the current frame encoded data cannot be received due to loss; And a procedure for performing speech decoding using the encoded data and the current frame encoded data when receiving the data with a time delay and updating state data necessary for decoding, and a program for executing the program. It is readable.

【0021】[0021]

【発明の実施の形態】本発明の骨子は、損失フレームの
符号化データが時間的に遅れて受信された場合に、フレ
ーム補償で復号音声を出力後、その符号化データを用い
て過去の損失フレームに相当する区間の音声復号を行っ
て音声復号のために必要な状態データを更新し、その後
現在の正常フレームの音声復号を行うことである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The essence of the present invention is that when encoded data of a lost frame is received with a time delay, a decoded speech is output by frame compensation, and the past loss is output using the encoded data. That is, speech decoding is performed for a section corresponding to a frame to update state data necessary for speech decoding, and then speech decoding for a current normal frame is performed.

【0022】以下、本発明の実施の形態について、図面
を参照して詳細に説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0023】(実施の形態1)図1は、本発明の実施の
形態1に係る音声復号装置の構成を示すブロック図であ
る。この図において、本実施の形態の音声復号装置は、
受信バッファ101と、音声復号部102と、状態デー
タ保持部103と、損失フレーム補償部104と、損失
フレーム復号部105と、切替え部106とを備えて構
成される。
(Embodiment 1) FIG. 1 is a block diagram showing a configuration of a speech decoding apparatus according to Embodiment 1 of the present invention. In this figure, the speech decoding device of the present embodiment
It comprises a reception buffer 101, a speech decoding unit 102, a state data holding unit 103, a lost frame compensation unit 104, a lost frame decoding unit 105, and a switching unit 106.

【0024】受信バッファ101は、送信側でフレーム
単位で符号化されてパケット単位で伝送された符号化デ
ータを受信し、受信した符号化データを出力するととも
に、受信したパケット単位のデータをフレーム単位の符
号化データに分解してフレーム損失が生じたか否かの情
報(フレーム損失情報)を出力する。
The receiving buffer 101 receives encoded data that has been encoded in frame units on the transmission side and transmitted in packet units, outputs the received encoded data, and converts the received packet-based data in frame units. And outputs information (frame loss information) as to whether or not a frame loss has occurred.

【0025】音声復号部102は、現フレーム符号化デ
ータを正しく受信した場合にその符号化データを用いて
通常の音声復号を行う。状態データ保持部103は、音
声復号部102及び損失フレーム復号部105で使用さ
れる状態データを保持するものである。この状態データ
は、音声復号部102の具体構成に依存するが、CEL
P型の復号器の場合には、適応符号帳やLSP・ゲイン
パラメータのMA予測フィルタ状態などがある。
When the current frame coded data is correctly received, the voice decoding section 102 performs normal voice decoding using the coded data. The state data holding unit 103 holds state data used by the audio decoding unit 102 and the lost frame decoding unit 105. This state data depends on the specific configuration of the audio decoding unit 102.
In the case of a P-type decoder, there are an adaptive codebook, an LSP / gain parameter MA prediction filter state, and the like.

【0026】損失フレーム補償部104は、現フレーム
符号化データが損失により受信できなかった場合に損失
フレーム補償を行う。損失フレーム復号部105は、受
信バッファ101が符号化データを時間的に遅れて受信
した場合に、その符号化データと現フレーム符号化デー
タを用いて音声復号を行うと共に、音声復号部102で
復号に必要な状態データを更新する。切替え部106
は、フレーム損失情報に応じて、音声復号部102の出
力と、損失フレーム補償部104と、損失フレーム復号
部105との切り替えを行う。
The lost frame compensator 104 performs lost frame compensation when the current frame coded data cannot be received due to loss. When the reception buffer 101 receives the encoded data with a time delay, the lost frame decoding unit 105 performs the audio decoding using the encoded data and the current frame encoded data, and performs the decoding in the audio decoding unit 102. Update the necessary status data. Switching unit 106
Performs switching between the output of the audio decoding unit 102, the lost frame compensation unit 104, and the lost frame decoding unit 105 according to the frame loss information.

【0027】このような構成の音声復号装置において
は、現時刻のフレームに対するフレーム損失情報によっ
て異なる動作を行う。まず、現時点のフレームに対する
符号化データが損失や遅延なく正しく受信された場合に
は、音声復号部102にてその符号化データを用いて通
常の音声復号を行い復号音声信号として出力する。その
際、復号に必要な状態データが更新されて状態データ保
持部103で保持される。
The speech decoding apparatus having such a configuration performs different operations depending on the frame loss information for the current frame. First, when the encoded data for the current frame is correctly received without loss or delay, the audio decoding unit 102 performs normal audio decoding using the encoded data, and outputs the decoded audio signal. At this time, state data necessary for decoding is updated and held in the state data holding unit 103.

【0028】次に、現時点のフレームに対する符号化デ
ータを損失フレーム即ち損失または遅延のため正しく受
信できない場合には、損失フレーム補償部104にて損
失フレーム補償を行い、それにより得られた復号音声信
号を出力する。この補償処理は任意であり、従来の方法
による過去の符号化パラメータや復号データを用いた補
償処理を行ってもよい。
Next, if the encoded data for the current frame cannot be received correctly due to a lost frame, ie, loss or delay, the lost frame compensator 104 performs lost frame compensation, and the resulting decoded speech signal Is output. This compensation processing is optional, and compensation processing using past encoding parameters and decoded data according to a conventional method may be performed.

【0029】次に、前フレームが損失フレームであり、
かつ現時点においてその損失フレームの符号化データが
時間的に遅れて受信された場合は、その前フレーム符号
化データと現時点の正しく受信された現フレームの符号
化データを損失フレーム復号部105に入力する。
Next, the previous frame is a lost frame,
If the coded data of the lost frame is received with a time delay at the present time, the coded data of the previous frame and the coded data of the current frame correctly received at the current time are input to the lost frame decoding unit 105. .

【0030】損失フレーム復号部105では、入力され
た前フレーム及び現フレームの符号化データを順次用い
て音声復号を行い(図2の(a)および(b))、現フ
レームの符号化データに対する復号音声信号(図2の
(b))を出力する。また復号に必要な状態データが更
新されて、状態データ保持部103で保持される。損失
フレーム復号部105における音声復号処理は、音声復
号部102と基本的には同じ処理でよい。切替え部10
6では、以上のフレーム損失情報に応じた切り替えを行
って当該フレームの復号音声信号を出力する。
The lost frame decoding unit 105 performs speech decoding by sequentially using the input encoded data of the previous frame and the current frame ((a) and (b) of FIG. 2), and performs the decoding on the encoded data of the current frame. The decoded audio signal ((b) in FIG. 2) is output. The state data necessary for decoding is updated and held in the state data holding unit 103. The speech decoding process in the lost frame decoding unit 105 may be basically the same process as the speech decoding unit 102. Switching unit 10
In 6, the switching according to the above-mentioned frame loss information is performed, and the decoded audio signal of the frame is output.

【0031】次に、図3のフローチャートを参照して、
本実施の形態に係る音声復号装置の動作を説明する。
Next, referring to the flowchart of FIG.
The operation of the speech decoding device according to the present embodiment will be described.

【0032】まず、ステップ101において、送信側で
フレーム単位で符号化されてパケット単位で伝送された
符号化データを受信して蓄積し、さらに蓄積したパケッ
ト単位のデータをフレーム単位の符号化データに分解
し、フレーム損失が生じたか否かを示す情報(フレーム
損失情報)と共に出力する。
First, in step 101, the transmitting side receives and stores encoded data that has been encoded in frames and transmitted in units of packets, and further converts the accumulated data in units of packets into encoded data in units of frames. The frame is decomposed and output together with information indicating whether a frame loss has occurred (frame loss information).

【0033】次いで、ステップ102において、現時点
のフレームに対するフレーム損失情報を判定する。この
判定において、現時点のフレームに対する符号化データ
が損失や遅延なく正しく受信できたと判断すると、ステ
ップ103に進み、その符号化データを用いて通常の音
声復号を行い、復号音声信号として出力する。これに対
して、現時点のフレームに対する符号化データが損失フ
レーム即ち損失または遅延のため正しく受信できないと
判断すると、ステップ104に進み、損失フレーム補償
を行い、それにより得られた復号音声信号を出力する。
Next, in step 102, frame loss information for the current frame is determined. In this determination, if it is determined that the coded data for the current frame has been correctly received without loss or delay, the process proceeds to step 103, where normal voice decoding is performed using the coded data, and output as a decoded voice signal. On the other hand, if it is determined that the coded data for the current frame cannot be correctly received due to a lost frame, that is, a loss or delay, the process proceeds to step 104, where lost frame compensation is performed, and a decoded speech signal obtained thereby is output. .

【0034】また、前フレームが損失フレームであり、
かつ現時刻においてその損失フレームの符号化データが
時間的に遅れて受信したと判断すると、ステップ105
に進み、前フレームの符号化データと現時点の正しく受
信された現フレームの符号化データを順次用いて音声復
号を行い、現フレーム符号化データに対する復号音声信
号を出力する。この復号音声信号を出力した後は、ステ
ップ106で復号に必要な状態データを更新する。ステ
ップ103、ステップ104又はステップ106の処理
を行った後、ステップ107で復号音声信号を出力信号
として出力する。
The previous frame is a lost frame,
If it is determined that the encoded data of the lost frame has been received with a time delay at the current time, step 105
To perform speech decoding by sequentially using the encoded data of the previous frame and the encoded data of the current frame correctly received at the present time, and output a decoded audio signal for the encoded data of the current frame. After outputting the decoded audio signal, the state data necessary for decoding is updated in step 106. After performing the processing of step 103, step 104, or step 106, the decoded audio signal is output as an output signal in step 107.

【0035】このように、本実施の形態に係る音声復号
装置によれば、損失フレームの符号化データが時間的に
遅れて受信された場合には、フレーム補償で復号音声を
出力した後、その符号化データを用いて過去の損失フレ
ームに相当する区間の音声復号を行って音声復号のため
に必要な状態データを更新し、その後現在の正常フレー
ムの音声復号を行うようにしたので、より本来の値に近
い状態データを用いた復号が可能となり、復号音声品質
の劣化を抑えることが可能となる。
As described above, according to the speech decoding apparatus according to the present embodiment, when the encoded data of the lost frame is received with a time delay, the decoded speech is output by frame compensation, and then the decoded speech is output. Speech decoding of the section corresponding to the past lost frame is performed using the encoded data to update the state data necessary for speech decoding, and then the speech decoding of the current normal frame is performed. Can be decoded using state data close to the value of, and it is possible to suppress deterioration of the decoded voice quality.

【0036】(実施の形態2)図4は、本発明の実施の
形態2に係る音声復号装置の構成を示すブロック図であ
る。なお、この図において前述した図1と共通する部分
には同一の符号を付けている。
(Embodiment 2) FIG. 4 is a block diagram showing a configuration of a speech decoding apparatus according to Embodiment 2 of the present invention. In this figure, the same parts as those in FIG. 1 described above are denoted by the same reference numerals.

【0037】この図において、本実施の形態の音声復号
装置は、実施の形態1の音声復号装置と同一の構成に加
えて、窓かけ加算部107を備えている。受信バッファ
101において、送信側でフレーム単位で符号化され、
パケット単位で伝送された符号化データを受信する。そ
して、パケット単位のデータをフレーム単位の符号化デ
ータに分解して、フレーム損失が生じたか否かの情報
(フレーム損失情報)と共に出力する。そして、以降の
動作は現時刻のフレームに対するフレーム損失情報によ
って異なる。
In this figure, the speech decoding apparatus according to the present embodiment includes a window adding section 107 in addition to the same configuration as the speech decoding apparatus according to the first embodiment. In the receiving buffer 101, the data is encoded in frame units on the transmission side,
Receives encoded data transmitted in packet units. Then, the packet data is decomposed into coded data in frame units and output together with information on whether or not a frame loss has occurred (frame loss information). The subsequent operation differs depending on the frame loss information for the frame at the current time.

【0038】まず、現時点のフレームに対する符号化デ
ータが損失や遅延なく正しく受信された場合には、音声
復号部102において、その符号化データを用いて通常
の音声復号を行い、復号音声信号として出力する。その
際、復号に必要な状態データが更新されて状態データ保
持部103で保持される。
First, when the encoded data for the current frame is correctly received without any loss or delay, the audio decoding section 102 performs normal audio decoding using the encoded data and outputs the decoded audio signal as a decoded audio signal. I do. At this time, state data necessary for decoding is updated and held in the state data holding unit 103.

【0039】次に、現時点のフレームに対する符号化デ
ータが損失フレーム即ち損失または遅延のため正しく受
信できない場合には、損失フレーム補償部104におい
て損失フレーム補償を行い、それにより得られた復号音
声信号を出力する。なお、この補償処理は任意であり、
従来の方法による過去の符号化パラメータや復号データ
を用いた補償処理を行ってもよい。
Next, if the coded data for the current frame cannot be received correctly due to a lost frame, ie, loss or delay, loss frame compensation is performed in the loss frame compensator 104, and the resulting decoded speech signal is Output. This compensation process is optional,
Compensation processing using past encoding parameters and decoded data according to a conventional method may be performed.

【0040】次に、前フレームが損失フレームであり、
かつ現時刻においてその損失フレームの符号化データが
時間的に遅れて受信された場合には、その前フレーム符
号化データと現時刻の正しく受信された現フレーム符号
化データを損失フレーム復号部105に入力する。
Next, the previous frame is a lost frame,
If the coded data of the lost frame is received with a time delay at the current time, the previous frame coded data and the correctly received current frame coded data of the current time are sent to the lost frame decoding unit 105. input.

【0041】損失フレーム復号部105では、入力され
た前フレーム及び現フレーム符号化データを順次用いて
音声復号を行い(図5の(a)および(b))、現フレ
ーム符号化データに対する復号音声信号(図5の
(b))を出力する。また、復号に必要な状態データが
更新されて状態データ保持部103で保持される。損失
フレーム復号部105における音声復号処理は音声復号
部102と基本的には同じ処理でよい。また、現時点の
正しく受信された現フレーム符号化データを用いて、音
声復号部102において音声復号を行い、復号音声信号
(図5の(c))を出力する。
The lost frame decoding unit 105 performs speech decoding by sequentially using the input previous frame and the current frame encoded data (FIGS. 5A and 5B), and decodes the decoded speech for the current frame encoded data. A signal ((b) in FIG. 5) is output. Further, the state data necessary for decoding is updated and held in the state data holding unit 103. The speech decoding process in the lost frame decoding unit 105 may be basically the same as the speech decoding unit 102. Also, the audio decoding unit 102 performs audio decoding using the current frame coded data correctly received at the present time, and outputs a decoded audio signal ((c) in FIG. 5).

【0042】窓かけ加算部107では、損失フレーム復
号部105からの出力信号(図5の(b))および音声
復号部102からの出力信号(図5の(c))を用い
て、当該フレームの開始端では音声復号部102の出力
が、終了端では損失フレーム復号部105の出力が支配
的になるような窓かけ加算を行い、復号音声信号として
出力する。そして、切替え部106において、以上のフ
レーム損失情報に応じた切り替えが行われて、当該フレ
ームの復号音声信号が出力される。
The window adding section 107 uses the output signal from the lost frame decoding section 105 (FIG. 5B) and the output signal from the speech decoding section 102 (FIG. 5C) to obtain the frame. At the start end, the output of the audio decoding unit 102 is subjected to windowing addition such that the output of the lost frame decoding unit 105 becomes dominant at the end end, and the resultant is output as a decoded audio signal. Then, the switching unit 106 performs switching according to the above-described frame loss information, and outputs a decoded audio signal of the frame.

【0043】次に、図6のフローチャートを参照して、
本実施の形態に係る音声復号装置の動作を説明する。
Next, referring to the flowchart of FIG.
The operation of the speech decoding device according to the present embodiment will be described.

【0044】まず、ステップ201において、送信側で
フレーム単位で符号化されパケット単位で伝送された符
号化データを受信し、さらに受信したパケット単位のデ
ータをフレーム単位の符号化データに分解して、フレー
ム損失が生じたか否かを示す情報(フレーム損失情報)
と共に出力する。次いで、ステップ202において、現
時刻のフレームに対するフレーム損失情報を判定する。
First, in step 201, the transmitting side receives encoded data encoded in frames and transmitted in packet units, and further decomposes the received packet-based data into encoded data in frame units. Information indicating whether a frame loss has occurred (frame loss information)
Output with Next, in step 202, frame loss information for the current time frame is determined.

【0045】この判定において、現時点のフレームに対
する符号化データを損失や遅延なく正しく受信できたと
判断すると、ステップ203に進み、その符号化データ
を用いて通常の音声復号を行い、復号音声信号として出
力する。これに対して、現時点のフレームに対する符号
化データが損失フレーム即ち損失または遅延のため正し
く受信できないと判断すると、ステップ204に進み、
損失フレーム補償を行い、それにより得られた復号音声
信号を出力する。
In this determination, if it is determined that the coded data for the current frame has been correctly received without any loss or delay, the process proceeds to step 203, where normal voice decoding is performed using the coded data and output as a decoded voice signal. I do. On the other hand, if it is determined that the encoded data for the current frame cannot be correctly received due to a lost frame, that is, a loss or delay, the process proceeds to step 204,
Loss frame compensation is performed, and the resulting decoded speech signal is output.

【0046】また、前フレームが損失フレームであり、
かつ現時刻においてその損失フレームの符号化データを
時間的に遅れて受信したと判断すると、ステップ205
に進み、前フレームの符号化データと現時点の正しく受
信された現フレームの符号化データを順次用いて音声復
号を行い、現フレームの符号化データに対する復号音声
信号を出力する。そして、ステップ206で復号に必要
な状態データを更新する。
The previous frame is a lost frame,
If it is determined that the encoded data of the lost frame has been received with a time delay at the current time, step 205
To perform speech decoding by sequentially using the encoded data of the previous frame and the encoded data of the current frame correctly received at the present time, and output a decoded audio signal for the encoded data of the current frame. Then, in step 206, state data necessary for decoding is updated.

【0047】データの更新を行った後、ステップ207
において、現時点の正しく受信された現フレームの符号
化データを用いて通常の音声復号を行い、復号音声信号
を出力する。次いで、ステップ208において、ステッ
プ204における出力信号およびステップ205におけ
る出力信号を用いて窓かけ加算を行い、復号音声信号と
して出力する。ステップ203、ステップ204又はス
テップ208の処理を行った後、ステップ209で復号
音声信号を出力信号として出力する。
After updating the data, step 207
, Normal speech decoding is performed using the coded data of the current frame correctly received at the present time, and a decoded speech signal is output. Next, in step 208, window addition is performed using the output signal in step 204 and the output signal in step 205, and the resultant signal is output as a decoded speech signal. After performing the processing of step 203, step 204, or step 208, the decoded audio signal is output as an output signal in step 209.

【0048】このように、本実施の形態に係る音声復号
装置によれば、損失フレームの符号化データが時間的に
遅れて受信された場合には、フレーム補償で復号音声を
出力した後、そのときの符号化データを用いて過去の損
失フレームに相当する区間の音声復号を行って状態デー
タを更新し、その後、現在の正常フレームの音声復号を
行って得られた復号音声信号と損失フレームのフレーム
補償処理により状態データを更新した後に音声復号を行
って得られた現在の正常フレームの復号音声信号とを用
いて、窓かけ加算を行うようにしたので、より滑らかな
復号を行うことが可能となる。
As described above, according to the speech decoding apparatus according to the present embodiment, when encoded data of a lost frame is received with a time delay, a decoded speech is output by frame compensation, and The state data is updated by performing speech decoding of a section corresponding to a past lost frame using the encoded data at the time, and thereafter, a decoded speech signal obtained by performing speech decoding of a current normal frame and a lost frame of a lost frame are obtained. Windowed addition is performed using the decoded audio signal of the current normal frame obtained by performing audio decoding after updating the state data by frame compensation processing, so that smoother decoding can be performed. Becomes

【0049】(実施の形態3)図7は、本発明の実施の
形態3に係る音声符号化・復号装置の構成を示すブロッ
ク図である。なお、この図において前述した図1又は図
4と共通する部分には同一の符号を付けている。
(Embodiment 3) FIG. 7 is a block diagram showing a configuration of a speech encoding / decoding apparatus according to Embodiment 3 of the present invention. Note that, in this figure, the same reference numerals are given to portions common to FIG. 1 or FIG. 4 described above.

【0050】この図において、本実施の形態の音声符号
化・復号装置の符号化側は、音声モード判定部110
と、音声符号化部111と、多重化部112とを備えて
構成され、復号側は、受信バッファ101と、分離部1
13と、音声復号部102と、状態データ保持部103
と、損失フレーム補償部104と、損失フレーム復号部
105と、時間軸圧縮部114と、切替え部115と、
切替え部106と、窓かけ加算部107とを備えて構成
される。
In this figure, the encoding side of the speech encoding / decoding apparatus of the present embodiment is
, An audio encoding unit 111, and a multiplexing unit 112, and the decoding side includes a reception buffer 101, a demultiplexing unit 1
13, the audio decoding unit 102, and the state data holding unit 103
A lost frame compensating unit 104, a lost frame decoding unit 105, a time axis compressing unit 114, a switching unit 115,
A switching unit 106 and a window adding unit 107 are provided.

【0051】音声符号化部111では、フレーム単位の
入力音声に対して音声符号化を行い、符号化データを出
力する。音声モード判定部110では、フレーム単位の
入力音声の音声モードを判定する。ここで、音声モード
とは、フレーム単位の入力音声が定常的区間か立ち上が
り等の過渡的な区間かという特性を表すものである。多
重化部112は、音声符号化部111から出力される符
号化データと音声モード判定部110で得られた音声モ
ードを多重化して音声モード情報込みの符号化データと
して出力する。
The voice coding unit 111 performs voice coding on input voice in frame units and outputs coded data. The audio mode determination unit 110 determines the audio mode of the input audio in frame units. Here, the audio mode indicates a characteristic that the input audio in a frame unit is a stationary section or a transient section such as a rising section. The multiplexing unit 112 multiplexes the encoded data output from the audio encoding unit 111 and the audio mode obtained by the audio mode determination unit 110, and outputs the multiplexed data as encoded data including audio mode information.

【0052】受信バッファ101では、送信側でフレー
ム単位で符号化され、パケット単位で伝送された符号化
データを受信する。さらに、受信したパケット単位のデ
ータをフレーム単位の符号化データに分解して、フレー
ム損失が生じたか否かの情報(フレーム損失情報)と共
に出力する。分離部113では、音声モード情報込みの
符号化データから音声モード情報と音声符号化データに
分離する。そして、以降の動作は、現時刻のフレームに
対するフレーム損失情報によって異なる動作となる。
The receiving buffer 101 receives encoded data that has been encoded in frame units on the transmitting side and transmitted in packet units. Further, the received data is decomposed into encoded data in frame units and output together with information (frame loss information) indicating whether or not a frame loss has occurred. The separation unit 113 separates the encoded data including the audio mode information into audio mode information and encoded audio data. The subsequent operation differs depending on the frame loss information for the current frame.

【0053】現時点のフレームに対する符号化データ
が、損失や遅延なく正しく受信された場合には、音声復
号部102において、その符号化データを用いて通常の
音声復号を行い、復号音声信号として出力する。その
際、復号に必要な状態データが更新されて状態データ保
持部103で保持される。
If the encoded data for the current frame is correctly received without any loss or delay, the speech decoding section 102 performs normal speech decoding using the encoded data and outputs the decoded speech signal. . At this time, state data necessary for decoding is updated and held in the state data holding unit 103.

【0054】ここで、状態データとは音声復号部102
の具体構成に依存するが、CELP型の復号器の場合に
は、適応符号帳やLSP・ゲインパラメータのMA予測
フィルタ状態などがある。
Here, the state data is the speech decoding unit 102
However, in the case of a CELP type decoder, there are an adaptive codebook, an LSP / gain parameter MA prediction filter state, and the like.

【0055】一方、現時点のフレームに対する符号化デ
ータが、損失フレーム即ち損失または遅延のため正しく
受信できない場合には、損失フレーム補償部104にお
いて損失フレーム補償を行い、それにより得られた復号
音声信号を出力する。この補償処理は任意であり、従来
の方法による過去の符号化パラメータや復号データを用
いた補償処理を行ってもよい。
On the other hand, if the coded data for the current frame cannot be correctly received due to a lost frame, that is, a loss or delay, the lost frame compensator 104 performs loss frame compensation, and obtains the decoded speech signal obtained thereby. Output. This compensation processing is optional, and compensation processing using past encoding parameters and decoded data according to a conventional method may be performed.

【0056】また、前フレームが損失フレームであり、
かつ現時点においてその損失フレームの符号化データが
時間的に遅れて受信された場合は、その前フレーム符号
化データと現時刻の正しく受信された現フレーム符号化
データを損失フレーム復号部105に入力する。
The previous frame is a lost frame,
If the coded data of the lost frame is received with a time delay at the present time, the coded data of the previous frame and the coded data of the current frame correctly received at the current time are input to the lost frame decoding unit 105. .

【0057】損失フレーム復号部105では、入力され
た前フレーム及び現フレームの符号化データを順次用い
て音声復号を行い(図8の(a)および(b))、現フ
レーム符号化データに対する復号音声信号(図8の
(b))を切替え部115に、前フレーム及び現フレー
ムの符号化データに対する復号音声信号(図8の(a)
と(b))を時間軸圧縮部114に出力する。また、復
号に必要な状態データが更新され状態データ保持部10
3で保持される。この損失フレーム復号部105におけ
る音声復号処理は、音声復号部102と基本的には同じ
処理で良い。
The lost frame decoding unit 105 performs speech decoding by sequentially using the input encoded data of the previous frame and the current frame ((a) and (b) of FIG. 8), and decodes the encoded data of the current frame. The audio signal ((b) in FIG. 8) is supplied to the switching unit 115, and the decoded audio signal ((a) in FIG. 8) for the encoded data of the previous frame and the current frame.
And (b)) to the time axis compression unit 114. Also, the state data necessary for decryption is updated and the state data holding unit 10
3 is held. The speech decoding process in the lost frame decoding unit 105 may be basically the same process as the speech decoding unit 102.

【0058】時間軸圧縮部114では、前フレーム及び
現フレームの符号化データに対する復号音声信号(図8
の(a)と(b))を1フレームの区間の信号となるよ
うに時間軸圧縮を行い、圧縮後の信号(図8の(d))
を切替え部115に出力する。また、現時点の正しく受
信された現フレームの符号化データを用いて、音声復号
部102において音声復号を行い復号音声信号(図8の
(c))を出力する。そして、切替え部115におい
て、分離部113から得られた損失フレームである前フ
レームの音声モード情報が過渡的モードを示す場合に
は、時間軸圧縮部114の出力を、そうでない場合即ち
定常モード場合には、損失フレーム復号部105の出力
を窓かけ加算部107に出力する。
The time axis compression section 114 decodes the decoded audio signal (see FIG.
(A) and (b)) are subjected to time axis compression so as to be a signal of one frame section, and the compressed signal ((d) in FIG. 8)
Is output to the switching unit 115. Also, the audio decoding unit 102 performs audio decoding using the coded data of the current frame correctly received at the current time point, and outputs a decoded audio signal ((c) in FIG. 8). When the sound mode information of the previous frame, which is the lost frame obtained from the separating unit 113, indicates the transient mode, the switching unit 115 outputs the output of the time axis compressing unit 114, , The output of the lost frame decoding unit 105 is output to the window adding unit 107.

【0059】窓かけ加算部107では、切替え部115
を通過した出力信号(図8の(b)または(d))およ
び音声復号部102における出力信号(図8の(c))
を用いて、当該フレームの開始端では音声復号部102
の出力が、終了端では切替え部115を通過した出力信
号が支配的になるような窓かけ加算を行い、復号音声信
号として出力する。そして、切替え部106において、
以上のフレーム損失情報に応じた切り替えが行われ当該
フレームの復号音声信号が出力される。
The window addition unit 107 includes a switching unit 115
(B) or (d) of FIG. 8 and the output signal ((c) of FIG. 8) of the audio decoding unit 102
At the start of the frame,
Is added at the end end so that the output signal that has passed through the switching unit 115 becomes dominant, and is output as a decoded audio signal. Then, in the switching unit 106,
Switching according to the above-described frame loss information is performed, and a decoded audio signal of the frame is output.

【0060】次に、本実施の形態に係る音声復号装置の
動作を説明する。図9は、符号化側の動作を示すフロー
チャートである。ステップ301において、フレーム単
位の入力音声に対して音声符号化を行い符号化データを
出力する。次いで、ステップ302においてフレーム単
位の入力音声の音声モードを判定する。そして、ステッ
プ303においてステップ301で得られる符号化デー
タとステップ302で得られた音声モードを多重化して
音声モード情報込みの符号化データとして出力する。
Next, the operation of the speech decoding apparatus according to the present embodiment will be described. FIG. 9 is a flowchart showing the operation on the encoding side. In step 301, speech encoding is performed on input speech in frame units, and encoded data is output. Next, in step 302, the sound mode of the input sound for each frame is determined. Then, in step 303, the encoded data obtained in step 301 and the audio mode obtained in step 302 are multiplexed and output as encoded data including audio mode information.

【0061】図10は、復号側の動作を示すフローチャ
ートである。まず。ステップ304において、送信側で
フレーム単位で符号化され、パケット単位で伝送された
符号化データを受信する。さらに受信したパケット単位
のデータをフレーム単位の符号化データに分解して、フ
レーム損失が生じたか否かの情報(フレーム損失情報)
と共に出力する。次いで、ステップ305において音声
モード情報込みの符号化データから音声モード情報と音
声符号化データに分離する。
FIG. 10 is a flowchart showing the operation on the decoding side. First. In step 304, the transmitting side receives the encoded data that is encoded in frame units and transmitted in packet units. Further, the received packet-based data is decomposed into frame-based encoded data, and information indicating whether or not a frame loss has occurred (frame loss information).
Output with Next, in step 305, the coded data including the voice mode information is separated into voice mode information and voice coded data.

【0062】次いで、ステップ306において、現時点
のフレームに対するフレーム損失情報を判定する。ま
ず、現時刻のフレームに対する符号化データが損失や遅
延なく正しく受信できたと判断すると、ステップ307
に進み、その符号化データを用いて通常の音声復号を行
い、復号音声信号として出力する。
Next, in step 306, frame loss information for the current frame is determined. First, if it is determined that the encoded data for the current time frame has been correctly received without loss or delay, step 307 is executed.
To perform normal speech decoding using the encoded data, and output the decoded speech signal.

【0063】一方、現時点のフレームに対する符号化デ
ータが損失フレーム即ち損失または遅延のため正しく受
信できないと判断すると、ステップ308に進み、損失
フレーム補償を行い、それにより得られた復号音声信号
を出力する。
On the other hand, if it is determined that the coded data for the current frame cannot be correctly received due to a lost frame, that is, a loss or delay, the process proceeds to step 308, where loss frame compensation is performed, and a decoded speech signal obtained thereby is output. .

【0064】また、前フレームが損失フレームであり、
かつ現時刻においてその損失フレームの符号化データが
時間的に遅れて受信したと判断すると、ステップ309
に進み、前フレームの符号化データと現時点の正しく受
信された現フレームの符号化データを順次用いて音声復
号を行い、前フレーム及び現フレーム符号化データに対
する復号音声信号を出力する。次いで、ステップ310
において、復号に必要な状態データを更新する。
The previous frame is a lost frame,
If it is determined that the encoded data of the lost frame has been received with a time delay at the current time, step 309 is executed.
To perform speech decoding using the encoded data of the previous frame and the encoded data of the current frame correctly received at the current time, and output a decoded audio signal for the encoded data of the previous frame and the current frame. Then, step 310
, The state data necessary for decryption is updated.

【0065】次いで、ステップ311において、ステッ
プ309で得られた前フレーム及び現フレームの符号化
データに対する復号音声信号を1フレームの区間の信号
となるように時間軸圧縮を行い、圧縮後の信号を出力す
る。次いで、ステップ312において、現時点の正しく
受信された現フレームの符号化データを用いて通常の音
声復号を行い復号音声信号を出力する。
Next, in step 311, the decoded speech signal corresponding to the encoded data of the previous frame and the current frame obtained in step 309 is subjected to time axis compression so as to be a signal of a section of one frame. Output. Next, in step 312, normal speech decoding is performed using the coded data of the current frame correctly received at the present time, and a decoded speech signal is output.

【0066】次いで、ステップ313において、ステッ
プ305で得られた、損失フレームである前フレームの
音声モード情報を判定する。この判定において、音声モ
ード情報が過渡的モードであると判断すると、ステップ
314に進み、ステップ311の処理の出力とステップ
312の処理の出力を用いた窓かけ加算を行い、復号音
声信号として出力する。一方、音声モード情報が過渡的
モードでないと判断すると、ステップ315に進み、ス
テップ309の処理で得られた現フレームの符号化デー
タに対する復号音声信号とステップ312の処理の出力
を用いた窓かけ加算を行い、復号音声信号として出力す
る。ステップ307、ステップ308、ステップ314
又はステップ315の処理を行った後、ステップ316
で復号音声信号を出力信号として出力する。
Next, in step 313, the voice mode information of the previous frame, which is the lost frame, obtained in step 305 is determined. If it is determined in this determination that the audio mode information is in the transient mode, the process proceeds to step 314, where windowing addition using the output of the process of step 311 and the output of the process of step 312 is performed, and the resultant is output as a decoded audio signal. . On the other hand, if it is determined that the voice mode information is not in the transient mode, the process proceeds to step 315, where windowing addition using the decoded voice signal for the encoded data of the current frame obtained in the process of step 309 and the output of the process of step 312 is performed. And outputs it as a decoded audio signal. Step 307, Step 308, Step 314
Alternatively, after performing the processing of step 315, step 316
Outputs the decoded audio signal as an output signal.

【0067】このように、本実施の形態に係る音声復号
装置によれば、損失フレームの符号化データが時間的に
遅れて受信した場合に、フレーム補償で復号音声を出力
後、その符号化データおよび現在の正常フレームの符号
化データを用いて、過去の損失フレームおよび現在の正
常フレームの区間の音声復号を行い、符号化側で判定さ
れたモード情報が過渡的区間であることを示す場合に
は、得られた復号信号を時間軸圧縮して正常フレームの
復号音声として用いるので、過渡区間でのフレーム損失
に伴う復号音声品質の劣化を抑えることができる。
As described above, according to the speech decoding apparatus according to the present embodiment, when encoded data of a lost frame is received with a time delay, after outputting decoded speech by frame compensation, the encoded And using the encoded data of the current normal frame, perform speech decoding of the section of the past lost frame and the current normal frame, and when the mode information determined on the encoding side indicates that it is a transient section Since the obtained decoded signal is time-axis-compressed and used as decoded speech of a normal frame, it is possible to suppress deterioration of decoded speech quality due to frame loss in a transient section.

【0068】[0068]

【発明の効果】以上説明したように、本発明の音声復号
装置によれば、損失フレームの符号化データが時間的に
遅れて受信された場合に、フレーム補償で復号音声を出
力後、その符号化データを用いて、過去の損失フレーム
に相当する区間の音声復号を行って音声復号のために必
要な状態データを更新した後に、現在の正常フレームの
音声復号を行うことにより、より本来の値に近い状態デ
ータを用いた復号が可能となり、復号音声品質の劣化を
抑えることができる。
As described above, according to the speech decoding apparatus of the present invention, when coded data of a lost frame is received with a time delay, the decoded speech is output by frame compensation, and After performing speech decoding for the section corresponding to the past lost frame and updating the state data necessary for speech decoding using the encoded data, the speech decoding of the current normal frame is performed to obtain a more original value. Thus, decoding using state data close to the above can be performed, and deterioration of decoded speech quality can be suppressed.

【0069】また、本発明の音声復号装置によれば、損
失フレームの符号化データが時間的に遅れて受信された
場合に、フレーム補償で復号音声を出力後、その符号化
データを用いて、過去の損失フレームに相当する区間の
音声復号を行って状態データを更新した後に、現在の正
常フレームの音声復号を行って得られた復号音声信号
と、損失フレームのフレーム補償処理により状態データ
を更新した後に音声復号を行って得られた現在の正常フ
レームの復号音声信号とを用いて、窓かけ加算を行うこ
とにより、より滑らかな復号を行うことができる。
According to the speech decoding apparatus of the present invention, when encoded data of a lost frame is received with a time delay, a decoded speech is output by frame compensation, and then the encoded data is used. After updating the state data by performing speech decoding for the section corresponding to the past lost frame, the decoded speech signal obtained by performing the speech decoding of the current normal frame and the state data are updated by the frame compensation processing of the lost frame. Then, windowed addition is performed using the decoded audio signal of the current normal frame obtained by performing audio decoding after the decoding, so that smoother decoding can be performed.

【0070】また、本発明の音声符号化・復号装置によ
れば、損失フレームの符号化データが時間的に遅れて受
信された場合に、フレーム補償で復号音声を出力後、そ
の符号化データおよび現在の正常フレームの符号化デー
タを用いて、過去の損失フレームおよび現在の正常フレ
ームの区間の音声復号を行い、符号化側で判定されたモ
ード情報が過渡的区間であることを示す場合には、得ら
れた復号信号を時間軸圧縮して正常フレームの復号音声
として用いることにより、過渡区間でのフレーム損失に
伴う復号音声品質の劣化を抑えることができる。
Further, according to the speech encoding / decoding apparatus of the present invention, when encoded data of a lost frame is received with a time delay, after outputting decoded speech by frame compensation, the encoded data and Using the encoded data of the current normal frame, perform speech decoding of the section of the past lost frame and the current normal frame, and when the mode information determined on the encoding side indicates that it is a transient section By compressing the obtained decoded signal on the time axis and using it as decoded speech of a normal frame, it is possible to suppress degradation of decoded speech quality due to frame loss in a transient section.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1に係る音声復号装置の構
成を示すブロック図
FIG. 1 is a block diagram showing a configuration of a speech decoding device according to Embodiment 1 of the present invention.

【図2】実施の形態1に係る音声復号装置において損失
フレームの符号化データが遅延して受信された場合の処
理を説明する図
FIG. 2 is a view for explaining processing when encoded data of a lost frame is received with a delay in the speech decoding apparatus according to the first embodiment.

【図3】実施の形態1に係る音声復号装置の動作を示す
フローチャート
FIG. 3 is a flowchart showing the operation of the speech decoding apparatus according to the first embodiment.

【図4】本発明の実施の形態2に係る音声復号装置の構
成を示すブロック図
FIG. 4 is a block diagram showing a configuration of a speech decoding apparatus according to Embodiment 2 of the present invention.

【図5】実施の形態2に係る音声復号装置において損失
フレームの符号化データが遅延して受信された場合の処
理を説明する図
FIG. 5 is a view for explaining processing when encoded data of a lost frame is received with a delay in the speech decoding apparatus according to the second embodiment.

【図6】実施の形態2に係る音声復号装置の動作を示す
フローチャート
FIG. 6 is a flowchart showing the operation of the speech decoding apparatus according to the second embodiment.

【図7】本発明の実施の形態3に係る音声符号化・復号
装置の構成を示すブロック図
FIG. 7 is a block diagram showing a configuration of a speech encoding / decoding device according to Embodiment 3 of the present invention.

【図8】実施の形態3に係る音声符号化・復号装置にお
ける損失フレームの符号化データが遅延して受信された
場合の処理を説明する図
FIG. 8 is a view for explaining processing when encoded data of a lost frame is received with a delay in the speech encoding / decoding apparatus according to Embodiment 3.

【図9】実施の形態3に係る音声符号化・復号装置の動
作を示すフローチャート
FIG. 9 is a flowchart showing the operation of the speech encoding / decoding device according to the third embodiment.

【図10】実施の形態3に係る音声符号化・復号装置の
動作を示すフローチャート
FIG. 10 is a flowchart showing the operation of the speech encoding / decoding device according to the third embodiment;

【図11】従来の音声復号装置の構成を示すブロック図FIG. 11 is a block diagram showing a configuration of a conventional speech decoding device.

【符号の説明】[Explanation of symbols]

101 受信バッファ 102 音声復号部 103 状態データ保持部 104 損失フレーム補償部 105 損失フレーム復号部 106、115 切替え部 107 窓かけ加算部 110 音声モード判定部 111 音声符号化部 112 多重化部 113 分離部 114 時間軸圧縮部 Reference Signs List 101 reception buffer 102 audio decoding unit 103 state data holding unit 104 lost frame compensation unit 105 lost frame decoding unit 106, 115 switching unit 107 windowed addition unit 110 audio mode determination unit 111 audio encoding unit 112 multiplexing unit 113 separation unit 114 Time axis compression unit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 フレーム単位の符号化データを受け取り
蓄積する受信バッファと、現フレームの符号化データを
正しく受信した場合にその符号化データを用いて通常の
音声復号を行う音声復号手段と、現フレームの符号化デ
ータが損失により受信できなかった場合に損失フレーム
補償を行う損失フレーム補償手段と、前記受信バッファ
が符号化データを時間的に遅れて受信した場合にその符
号化データと現フレームの符号化データとを用いて音声
復号を行うと共に前記音声復号手段で復号に必要な状態
データを更新する損失フレーム復号手段と、を具備する
ことを特徴とする音声復号装置。
1. A receiving buffer for receiving and storing coded data in frame units, a voice decoding means for performing normal voice decoding using the coded data when the coded data of the current frame is correctly received, Loss frame compensating means for performing loss frame compensation when encoded data of a frame cannot be received due to loss; and when the reception buffer receives encoded data with a time delay, the encoded data and the current frame are compared. A speech decoding apparatus comprising: speech decoding using encoded data; and a lost frame decoding unit that updates state data necessary for decoding by the speech decoding unit.
【請求項2】 フレーム単位の符号化データを受け取り
蓄積する受信バッファと、現フレームの符号化データを
正しく受信した場合にその符号化データを用いて通常の
音声復号を行う音声復号手段と、現フレームの符号化デ
ータが損失により受信できなかった場合に損失フレーム
補償を行う損失フレーム補償手段と、前記受信バッファ
が符号化データを時間的に遅れて受信した場合にその符
号化データと現フレームの符号化データを用いて音声復
号を行うと共に前記音声復号手段で復号に必要な状態デ
ータを更新する損失フレーム復号手段と、前記損失フレ
ーム復号手段が復号した現フレームの復号音声信号と前
記音声復号手段が復号した現フレームの復号音声信号と
を用いて窓かけ加算を行う窓かけ加算手段と、を具備す
ることを特徴とする音声復号装置。
2. A receiving buffer for receiving and storing coded data in frame units, a voice decoding means for performing normal voice decoding using the coded data when the coded data of the current frame is correctly received, Loss frame compensating means for performing loss frame compensation when encoded data of a frame cannot be received due to loss; and when the reception buffer receives encoded data with a time delay, the encoded data and the current frame are compared. A lost frame decoding unit for performing audio decoding using the encoded data and updating state data required for decoding by the audio decoding unit; a decoded audio signal of the current frame decoded by the lost frame decoding unit; and the audio decoding unit And windowing addition means for performing windowing addition using the decoded audio signal of the current frame decoded by Voice decoding device.
【請求項3】 フレーム単位の入力音声の特性を表す音
声モードを判定する音声モード判定手段と、フレーム単
位の入力音声に対して音声符号化を行い前記音声モード
判定手段で得られた音声モード情報と共に符号化データ
を出力する音声符号化手段と、フレーム単位の符号化デ
ータを受け取り蓄積する受信バッファと、現フレームの
符号化データを正しく受信した場合にその符号化データ
を用いて通常の音声復号を行う音声復号手段と、現フレ
ームの符号化データが損失により受信できなかった場合
に損失フレーム補償を行う損失フレーム補償手段と、前
記受信バッファが符号化データを時間的に遅れて受信し
た場合にその符号化データと現フレームの符号化データ
を用いて音声復号を行うと共に前記音声復号手段で復号
に必要な状態データを更新する損失フレーム復号手段
と、前記損失フレーム復号手段が復号した損失フレーム
と現フレームの復号音声信号に対して時間軸圧縮する時
間軸圧縮手段と、前記音声モード判定手段で得られた音
声モードに応じて前記時間軸圧縮手段で得られた復号音
声信号又は前記損失フレーム復号手段で得られた現フレ
ームの復号音声信号のいずれかを選択し、選択した復号
音声信号と前記音声復号手段が復号した現フレームの復
号音声信号とを用いて窓かけ加算を行う窓かけ加算手段
と、を具備することを特徴とする音声符号化・復号装
置。
3. A voice mode determining means for determining a voice mode representing characteristics of an input voice on a frame basis, and voice mode information obtained by performing voice coding on the input voice on a frame basis and obtaining said voice mode determining means. And a receiving buffer for receiving and storing coded data in frame units, and a normal voice decoding using the coded data when the coded data of the current frame is correctly received. Voice decoding means for performing loss-frame compensation when the encoded data of the current frame cannot be received due to loss, and when the reception buffer receives the encoded data with a time delay. Speech decoding is performed using the encoded data and the encoded data of the current frame, and state data necessary for decoding by the audio decoding means. Frame decoding means for updating the lost frame decoding means, a time axis compression means for time axis compressing the lost frame decoded by the lost frame decoding means and the decoded audio signal of the current frame, and a voice mode obtained by the voice mode determination means. And selecting either the decoded audio signal obtained by the time axis compression means or the decoded audio signal of the current frame obtained by the lost frame decoding means, and the selected decoded audio signal and the audio decoding means And a window addition means for performing window addition using the decoded speech signal of the current frame.
【請求項4】 請求項1記載の音声復号装置又は請求項
2記載の音声復号装置又は請求項3記載の音声符号化・
復号装置のいずれかを具備することを特徴とする基地局
装置。
4. The speech decoding device according to claim 1, the speech decoding device according to claim 2, or the speech encoding / decoding device according to claim 3.
A base station device comprising any one of the decoding devices.
【請求項5】 請求項1記載の音声復号装置又は請求項
2記載の音声復号装置又は請求項3記載の音声符号化・
復号装置のいずれかを具備することを特徴とする通信端
末装置。
5. The speech decoding device according to claim 1, the speech decoding device according to claim 2, or the speech encoding / coding device according to claim 3.
A communication terminal device comprising any one of the decoding devices.
【請求項6】 フレーム単位の符号化データを受け取り
蓄積する受信バッフリング工程と、現フレームの符号化
データを正しく受信した場合にその符号化データを用い
て通常の音声復号を行う音声復号工程と、現フレームの
符号化データが損失により受信できなかった場合に損失
フレーム補償を行う損失フレーム補償工程と、前記受信
バッファが符号化データを時間的に遅れて受信した場合
にその符号化データと現フレームの符号化データを用い
て音声復号を行うと共に前記音声復号工程で復号に必要
な状態データを更新する損失フレーム復号工程と、を具
備することを特徴とする音声復号方法。
6. A reception buffering step of receiving and storing encoded data in frame units, and a speech decoding step of performing normal audio decoding using the encoded data when the encoded data of the current frame is correctly received. A lost frame compensation step of performing lost frame compensation when the encoded data of the current frame cannot be received due to loss; and, when the reception buffer receives the encoded data with a time delay, the encoded data and the current A voice decoding method for performing voice decoding using encoded data of the frame and updating state data necessary for decoding in the voice decoding step.
【請求項7】 音声復号プログラムを格納し、コンピュ
ータにより読み取り可能な記録媒体であって、前記音声
復号プログラムは、フレーム単位の符号化データを受け
取り蓄積する手順と、現フレームの符号化データを正し
く受信した場合にその符号化データを用いて通常の音声
復号を行う手順と、現フレーム符号化データが損失によ
り受信できなかった場合に損失フレーム補償を行う手順
と、符号化データを時間的に遅れて受信した場合にその
符号化データと現フレーム符号化データを用いて音声復
号を行うと共に復号に必要な状態データを更新する手順
と、を具備することを特徴とする記録媒体。
7. A recording medium which stores an audio decoding program and is readable by a computer, wherein the audio decoding program receives and accumulates encoded data in units of frames, and corrects the encoded data of the current frame. A procedure for performing normal speech decoding using the encoded data when received, a procedure for compensating for a lost frame when the encoded data of the current frame cannot be received due to loss, and a time delay for the encoded data. A step of performing speech decoding using the encoded data and the current frame encoded data and updating state data necessary for decoding when the received data is received.
JP2000395644A 2000-12-26 2000-12-26 Speech decoding apparatus and speech decoding method Expired - Lifetime JP4597360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000395644A JP4597360B2 (en) 2000-12-26 2000-12-26 Speech decoding apparatus and speech decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000395644A JP4597360B2 (en) 2000-12-26 2000-12-26 Speech decoding apparatus and speech decoding method

Publications (2)

Publication Number Publication Date
JP2002196795A true JP2002196795A (en) 2002-07-12
JP4597360B2 JP4597360B2 (en) 2010-12-15

Family

ID=18861074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000395644A Expired - Lifetime JP4597360B2 (en) 2000-12-26 2000-12-26 Speech decoding apparatus and speech decoding method

Country Status (1)

Country Link
JP (1) JP4597360B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101321033B (en) * 2007-06-10 2011-08-10 华为技术有限公司 Frame compensation process and system
CN102271024B (en) * 2007-06-10 2014-04-30 华为技术有限公司 Frame compensation method and system
JP2017142542A (en) * 2010-11-22 2017-08-17 株式会社Nttドコモ Voice encoder and voice encoding method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334191A (en) * 1994-06-06 1995-12-22 Nippon Telegr & Teleph Corp <Ntt> Method of decoding packet sound
WO1996037964A1 (en) * 1995-05-22 1996-11-28 Ntt Mobile Communications Network Inc. Sound decoding device
WO1999059282A2 (en) * 1998-05-14 1999-11-18 Telefonaktiebolaget Lm Ericsson Delayed packet concealment method and apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334191A (en) * 1994-06-06 1995-12-22 Nippon Telegr & Teleph Corp <Ntt> Method of decoding packet sound
WO1996037964A1 (en) * 1995-05-22 1996-11-28 Ntt Mobile Communications Network Inc. Sound decoding device
WO1999059282A2 (en) * 1998-05-14 1999-11-18 Telefonaktiebolaget Lm Ericsson Delayed packet concealment method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101321033B (en) * 2007-06-10 2011-08-10 华为技术有限公司 Frame compensation process and system
CN102271024B (en) * 2007-06-10 2014-04-30 华为技术有限公司 Frame compensation method and system
JP2017142542A (en) * 2010-11-22 2017-08-17 株式会社Nttドコモ Voice encoder and voice encoding method

Also Published As

Publication number Publication date
JP4597360B2 (en) 2010-12-15

Similar Documents

Publication Publication Date Title
JP4518714B2 (en) Speech code conversion method
US6985856B2 (en) Method and device for compressed-domain packet loss concealment
US7835912B2 (en) Signal processing method, processing apparatus and voice decoder
JP2746033B2 (en) Audio decoding device
JPH07311598A (en) Generation method of linear prediction coefficient signal
US9123328B2 (en) Apparatus and method for audio frame loss recovery
WO2005119950A1 (en) Audio data transmitting/receiving apparatus and audio data transmitting/receiving method
KR20160111550A (en) Audio coding device, audio coding method, audio coding program, audio decoding device, audio decoding method, and audio decoding program
JPH0730496A (en) Sound signal decoding device
US20110040557A1 (en) Transmitter and receiver for speech coding and decoding by using additional bit allocation method
JP2004138756A (en) Voice coding device, voice decoding device, and voice signal transmitting method and program
US20020065648A1 (en) Voice encoding apparatus and method therefor
US8279968B2 (en) Method of transmitting data in a communication system
JPH0946233A (en) Sound encoding method/device and sound decoding method/ device
US7502735B2 (en) Speech signal transmission apparatus and method that multiplex and packetize coded information
JP2002221994A (en) Method and apparatus for assembling packet of code string of voice signal, method and apparatus for disassembling packet, program for executing these methods, and recording medium for recording program thereon
JP2004102074A (en) Speech encoding device, speech decoding device, speech signal transmitting method, and program
JP4597360B2 (en) Speech decoding apparatus and speech decoding method
JP4437052B2 (en) Speech decoding apparatus and speech decoding method
JP4236675B2 (en) Speech code conversion method and apparatus
KR100542435B1 (en) Method and apparatus for frame loss concealment for packet network
JP2002252644A (en) Apparatus and method for communicating voice packet
JP4065383B2 (en) Audio signal transmitting apparatus, audio signal receiving apparatus, and audio signal transmission system
JPH0588697A (en) Absent speech interpolation system
JPH08279811A (en) Voice data converter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100922

R150 Certificate of patent or registration of utility model

Ref document number: 4597360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term