JP3567750B2 - Compressed audio reproduction method and compressed audio reproduction device - Google Patents

Compressed audio reproduction method and compressed audio reproduction device Download PDF

Info

Publication number
JP3567750B2
JP3567750B2 JP22560998A JP22560998A JP3567750B2 JP 3567750 B2 JP3567750 B2 JP 3567750B2 JP 22560998 A JP22560998 A JP 22560998A JP 22560998 A JP22560998 A JP 22560998A JP 3567750 B2 JP3567750 B2 JP 3567750B2
Authority
JP
Japan
Prior art keywords
compressed
frame
audio
compressed audio
audio frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22560998A
Other languages
Japanese (ja)
Other versions
JP2000059231A (en
Inventor
信一 小畑
藤井  由紀夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP22560998A priority Critical patent/JP3567750B2/en
Publication of JP2000059231A publication Critical patent/JP2000059231A/en
Application granted granted Critical
Publication of JP3567750B2 publication Critical patent/JP3567750B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の属する技術分野】
ディジタルオーディオ再生装置、圧縮音声デコード処理装置( MPEG−1 audio , MPEG−2 audio )等、特に、圧縮音声データにエラーが生じたときの、エラーデータ補償方法及び装置に関する。
【従来の技術】
従来の圧縮音声再生方法においては、圧縮音声ストリーム中にエラーが検出された場合の対処法としてのエラー補償処理は、圧縮の基本単位であるフレームについて、前のデータを繰り返す、或いはエラー部分をミュートするという処理を行っている。この一例としては、「1992年電子情報通信学会秋季大会、B−571、MPEG/Audio 符号化方式における伝送エラー補償法のハードウェアによる評価:北畠 他3, NEC 」に発表がされており、近年でもエラー補償法についてはあまり変化がない。
【発明が解決しようとする課題】
例えば、ISO/IEC 11172−3 に示された MPEG−1 audio layer2で Fs= 48 kHz の場合には、圧縮の基本単位である1フレームは 1152 サンプル分で 24 ms 、1フレームは更に細かなブロック( 384 サンプル分 : 8 ms )に分かれており、時間軸データから圧縮データ(周波数軸データ)への変換の最短変換長は1ブロックとなっている。誤り検出ワードはこの1フレームを単位につけられており、エラーが発生した場合は、それが圧縮データであるが故に、エラーの影響は大抵の場合1フレーム全体におよび、1部に抑えこむことはできない。この区間を前フレームの繰り返しや、エラー補償処理(レベル0化)を行ってしまうと、音源データの特性によっては違和感が知覚される。しかし、エラー補償値の算出のために細かな聴覚特性を利用した演算を導入すると、デコード処理ハードウェアの規模やソフト演算処理量の大幅な増大を招いてしまう。
【課題を解決するための手段】
圧縮音声の1フレームの最後のブロックの振幅係数データを記憶しておき、エラーが発生したフレームの次のフレームの最初のブロックの振幅係数と比較する。この両端の振幅係数になだらかにつながるようにエラーフレームの各ブロックに対する振幅係数を設定する。振幅係数などに代表される信号レベルに影響を与えるデータ以外は前フレームの同ブロックを繰り返しとする。
【発明の実施の形態】
以下に本発明の実施形態の一例を示す。
図1は圧縮音声再生処理方法の処理手順の一例である。
この圧縮音声再生処理に入力される圧縮音声ストリームとしては図2の(1)に示したようなものがある。図2の(1)の圧縮音声ストリームは、圧縮音声の圧縮基本単位であるフレーム101を単位に形成されており、フレームの時間長さは32msでオーディオブロックはフレームの時間長さの1/6である。
フレーム101内はフレーム101の先頭を示すSYNC102、ストリーム補助情報であるBSI103、1フレーム時間内を6分割したオーディオブロックABLK(0)104、ABLK(1)105、ABLK(2)106、ABLK(3)107、ABLK(4)108、ABLK(5)109、さらに誤りを検出するための誤り検出コードEDC110とで構成されている。オーディオブロックABLK(bn)内は更にオーディオブロック情報ABI112、振幅値データEXP113、正規化サンプル値MANT114とで構成されている(bnはブロック番号)。
この圧縮音声フレーム101を再生処理すると再生後データ115となり、ABLK(0)104に対するデコード部分は第0再生データ区分116に、ABLK(1)105に対するデコード部分は第1再生データ区分117に、ABLK(2)106に対するデコード部分は第2再生データ区分118に、ABLK(3)107に対するデコード部分は第3再生データ区分119に、ABLK(4)108に対するデコード部分は第4再生データ区分120に、ABLK(5)109に対するデコード部分は第5再生データ区分121になる。
図1の説明に戻ると、ステップ1の再生処理開始から再生処理が始まり、まずステップ2の音声ストリームAFLM(fn+1)入力で圧縮音声ストリームの(fn+1)番目フレームを入力する(fnは整数)。ステップ3のフレームエラー検出及び検出結果保存により、誤り検出コードEDC110などを使い誤りの有無を検出し、その結果を何番目が誤りのあるフレームかがわかる形で保存する。ステップ4のAFLM(fn)エラー有無確認で(fn)番目のフレームがエラーだったかどうかを確認し、エラーなしならばステップ5へ、エラーありならばステップ10へ進む。ステップ5のAFLM(fn)の振幅データ再現ではAFLM(fn)内に含まれた情報から振幅データに関連するデータEXP113をもとに振幅値を再現する。
ステップ6のサンプル逆量子化では上記EXP113をもとに再現された振幅値とAFLM(fn)内に含まれたMANT114からサンプル値RECON_SAMPを再現する。EXP113、MANT114、サンプル値RECON_SAMPの関係の一例としては下記数式3などがあり、(BASE)の(EXP)乗にMANTを掛け合わせるという形で表現される。下記数式4は数式3での(BASE)が2の場合の具体例で、(BASE)が少数や負の数の例も考えられる。
【数3】
RECON_SAMP=(BASE)^(EXP)*MANT
【数4】
RECON_SAMP=2^(EXP)*MANT
ステップ6に続いてステップ7のフレーム内最終ブロックデータ保存で(fn)番目のフレーム内の最終ブロックABLK(5)が保存される。ステップ8のデコード継続判断でデコードを続けるかどうかが判断され、続ける場合にはステップ2から処理を続け、終了する場合にはステップ9の再生処理終了で再生を終了する。
ステップ4において(fn)番目のフレームがエラーだった場合はステップ10の補償用データ呼び戻しで、既に過去に通ったステップ7によって保存されている(fn−1)番目フレームの最終ブロックデータABLK(5)を呼び戻す。ステップ11の振幅データ補償値の算出で、(fn−1)番目フレームの最終ブロックデータABLK(5)と(fn+1)番目フレームの先頭ブロックデータABLK(0)とからエラーフレームである(fn)番目のフレーム内の各ブロックデータABLK(bn)を作り出す。この作り出されたブロックデータABLK(bn)をもとにステップ6以降の処理を続ける。
ステップ11内を更に詳しく示したのが図2の処理フローで、ステップ10からの処理の続きはステップ12のAFLM(fn−1)内のABLK(5)の振幅データ入力で(fn−1)番目フレームの最終ブロックデータABLK(5)の振幅データEXP(fn+1,0,band)を入力する(bandは帯域番号)。続いてステップ13のAFLM(fn+1)内のABLK(0)の振幅データ入力で(fn+1)番目フレームの先頭ブロックデータABLK(0)の振幅データEXP(fn+1,0,band)を入力する。ステップ14のブロック内振幅値補償データ生成で、エラーフレームであるAFLM(fn)内のABLK(bn)内の補償値を各帯域ごとに生成する。
ステップ14に続いてはステップ15の全ブロック終了判断で、最終ブロックまで処理が終わったかどうかを判断し、まだ終わっていなければステップ14の処理を次のブロックABLKに対して行い、全部終わっていれば、ステップ16の振幅値補償データ保存で、所定の場所に振幅値補償データを置く。続いてステップ6へと処理を進め以下、上記の説明と同様である。
【数5】

Figure 0003567750
【数6】
Figure 0003567750
ステップ14内での補償値の生成の仕方に関しては、更に具体的に数式5にその一例が示してある。これは振幅データEXP(fn,bn,band)を振幅データEXP(fn−1,5,band)と振幅データEXP(fn+1,0,band)から作り出す式で、AFLM(fn)内のABLK(bn)内の振幅データEXP各帯域ごとにそれぞれなだらかに隣のフレームの振幅データEXPへとつながるように加重平均が取られている。
ここで、例えば具体的に、ブロック2については、数式5は数式6と等価になる。
この効果を図で示したのが図5であり、ブロック内のある決まった帯域に対する振幅データEXPに着目して表現してある。従って、例えば圧縮処理時に帯域分割処理で32個の帯域に分けられて、その1帯域に対して1つの振幅データEXPが決められているのならば、図5のような処理が32の各帯域ごとに行われることとなる。
図5の(1)に補償値生成前、図5の(2)に補償値生成後を示している。図5の(1)において、(fn−1)番目フレームのABLK(bn)内のある決まった帯域bandの振幅データはEXP(fn−1,0,band)126、EXP(fn−1,1,band)127、EXP(fn−1,2,band)128、EXP(fn−3,0,band)129、EXP(fn−1,4、band)130、EXP(fn−1,5,band)131で、(fn+1)番目フレームのABLK(bn)内のある決まった帯域bandの振幅データはEXP(fn+1,0,band)132、EXP(fn+1,1,band)133、EXP(fn+1,2,band)134、EXP(fn+1,3,band)135、EXP(fn+1,4,band)136、EXP(fn+1,5,band)137である。
エラーフレームである(fn)番目フレームの振幅データについては数式3の処理を行った結果、図5(2)に示したように(fn)番目フレームのABLK(bn)内のある決まった帯域bandの振幅データEXP(fn,0,band)138、EXP(fn,1,band)139、EXP(fn,2,band)140、EXP(fn,0,band)141、EXP(fn,4,band)142、EXP(fn,5,band)143は、なだらかにEXP(fn−1,5,band)131やEXP(fn+1,0,band)132につながるように生成される。
このようにして、エラーフレームに対するエラー補償処理が行われる。これにより、エラー区間と有効フレーム区間とのつながりがよりスムーズになる。また扱うデータはエラーの生じているフレームの長さより、かなり短い区間に対するデータで且つ、更にサンプルを再現する前の部分データで済むため、処理規模の大幅な増大とはならない。またサンプルを再現する前の部分データであるため直行逆変換をする前の周波数領域でのエラー補償となり、時間域での滑らかなつながりだけでなく、周波数域でのスペクトル分布の滑らかなつながりが実現できる。
ここで従来型のフレーム繰り返しの例である図6、従来型のミュートの例である図7と図5(2)を比較すれば効果は明らかで、図6の例ではスペクトル変動の状況によってはEXP131からEXP(fn,0,band)146への分布の急変が違和感を生み出しかねない状態であり、図7の例では明らかにスペクトル分布の急変が生じている。
もちろん時間域では窓がけ及びオーバーラップ処理によって滑らかにつなぐことはできるが、そこから更に聴感を向上させるには、波形のみならずスペクトル分布も滑らかにつなぐことが有効である。
次に、エラーが2フレーム以上連続した場合の、実施例の効果を図8,図9に示す。
まず、図8は過去のAFLM(fn−1)が有効データフレームであり、AFLM(fn)とAFLM(fn+1)がエラーフレームであるときの例である。この場合にも、本発明はその威力を発揮する。つまり、エラーフレームであるAFLM(fn+1)内の振幅データEXP(fn+1,0,band)150を暫定的に0と解釈すれば、図8の例のように滑らかにミュートさせることができる。また、この減衰のさせかたが緩やかすぎると判断されるならば、数式5の代わりに数式7のような処理で補償データを作ることも可能である。数式5ではブロックがすすむごとに前フレームからの影響部分が1/2のべき乗で減っていくものとなる。振幅データEXP(fn,3,band)の場合の具体例が数式8である。この場合、減衰の仕方が線形ではなく、対数的になるので聴感特性との親和性が高くなる。
【数7】
Figure 0003567750
【数8】
Figure 0003567750
また図9では、過去のAFLM(fn−1)とAFLM(fn)がエラーフレームであり、AFLM(fn+1)が有効データフレームエラーフレームであるときの例である。これも図8の例と同様に、エラーフレームであるAFLM(fn−1)内の振幅データEXP(fn+1,5,band)151を0と解釈すれば、図8の例のように滑らかなフェードインをさせることができる。
図10は図1の処理方法を実現する圧縮音声再生装置の一例で、音声ストリーム200を入力し、ストリーム中の同期ワードSYNC102を検出して音声フレーム101の同期処理を行い、音声フレーム202内の誤り検出ワードEDC110を利用して誤り検出をし、誤りがあるかないかを示すフレームエラーフラグ205を出力するフレーム同期検出及び回路誤り検出201と、同期処理誤り検出後の音声フレームデータ202からデコード処理のために必要な情報を抜き出して保持するフレーム内情報抜き出し回路203と、フレーム内情報抜き出し回路203から振幅値コード208を入力してデータ振幅値をデコードする振幅値デコード回路209と、振幅値デコード回路209から出力されるデコードされた振幅値210を入力し、上記フレーム内情報抜き出し回路203から正規化サンプル値204を入力して、逆量子化処理を行う逆量子化回路214と、逆量子化回路214から出力されるサンプル再構成値216を各帯域について入力し、帯域合成して、最終的な時間領域信号218に変換して出力する帯域合成回路217とで構成されており、
更に本発明の特徴部分として、フレーム同期および誤り検出回路201からのフレームエラーフラグ205を入力して保持する誤り履歴保持回路206と、振幅値デコード回路209でデコードされた振幅値のうち、圧縮音声フレーム内での最終オーディオデータブロックに対応する振幅値224を入力して保持する過去フレーム最終ブロック保持回路220と、 ( fn ) 番目圧縮音声フレームに対する逆量子化を行うときに( fn は整数 ) 、( fn − 1 ) 番目圧縮音声フレームの最終オーディオデータブロックに対応する振幅値211を過去フレーム最終ブロック保持回路220から入力し、また上記振幅値デコード手段から( fn + 1 ) 番目圧縮音声フレームの先頭オーディオデータブロックに対応する振幅値226を入力して、振幅値補償データ213を生成して出力する補償値生成回路211と、誤り履歴保持回路206から( fn ) 番目圧縮音声フレームに対するフレームエラーフラグ219を入力して、
フレームエラーフラグ219がエラーでないことを示す場合は、上記振幅値デコード回路209が出力する( fn ) 番目圧縮音声フレームの各オーディオデータブロックに対応する振幅値210を、上記フレームエラーフラグがエラーであることを示す場合は補償値生成回路211が出力する補償値としての各オーディオデータブロックに対応する振幅値213を選び、逆量子化回路214の入力207として出力する。
この装置における振幅値補償データの生成に関連したデータ変化タイミングの一例が図11に示してある。同期検出、誤り検出、情報抜き出し用フレームデータ152と、保持最終ブロックデータ155と、サンプル逆量子化、帯域合成用フレーム156とが示してあり、エラーフレームAFLM(fn)内の振幅値EXPをAFLM(fn−1)内の振幅データEXP(fn−1,5,band)153とAFLM(fn+1)内の振幅データEXP(fn+1,0,band)154から生成する場合のタイミングの一例である。
このタイミングにより補償値が算出でき、AFLM(fn−1)内の振幅データEXP(fn−1,5,band)153とAFLM(fn)内の補償後振幅データEXP(fn,0,band)158、またAFLM(fn)内の補償後振幅データEXP(fn,5,band)159とAFLM(fn−1)内の振幅データEXP(fn−1,0,band)160が滑らかにつながる。
この構成により、図1の例で示した補償方法を圧縮音声再生装置において実現する事ができる。
このようにして、エラーフレームに対するエラー補償処理が行われ、時間域での滑らかなつながりだけでなく、周波数域でのスペクトル分布の滑らかなつながりが実現できるため、聴感上の劣化を抑制できる。
【発明の効果】
エラーの検出された圧縮音声フレームのエラー補償処理が、より細やかに行われ、フレーム全体が訂正不能な状態なのに対して、フレーム内のブロックごとのデータ補償を行うことができる。これにより、1フレームのみ(2フレーム以上連続しない)のエラーの場合には、前フレーム完全繰り返しよりもエラー補償フレームからの復帰部分が周波数軸上で滑らかにつながる。また、1フレーム完全ミュートに比べて、エラー部分の音圧レベルの抑えすぎにならないので、データ補償処理発生時の聴感の劣化の抑制が期待できる。また、この処理のために保持するべきデータは1ブロック分の振幅係数で済むため、ハードウェアの増加も少ない。
【図面の簡単な説明】
【図1】本発明を適用した圧縮音声エラー補償処理方法の一実施例を示すフローチャート。
【図2】本発明のエラー補償処理詳細部分の一例を示すフローチャート。
【図3】本発明を適用した圧縮音声エラー補償処理方法に対する入力としての圧縮音声ストリームの構造とデコード結果音声の一例を示す図。
【図4】本発明を適用した圧縮音声エラー補償処理方法がエラー補償処理を行う状況の圧縮音声フレームとデコード結果音声の一例を示す図。
【図5】本発明を適用した圧縮音声エラー補償処理方法で生成される補償値の、隣接フレーム内のデータとの関連を示した一例を示す図。
【図6】従来の補償処理であるフレーム全体繰り返しの一例を示す図。
【図7】従来の補償処理であるフレーム全体ミュートの一例を示す図。
【図8】本発明を適用した圧縮音声エラー補償処理方法で生成される補償値の別の一例で、有効フレームからエラーフレームが2つ以上連続する場合の例を示す図。
【図9】本発明を適用した圧縮音声エラー補償処理方法で生成される補償値の別の一例で、エラーフレームが2つ以上連続した後に有効フレームが来た場合の例を示す図。
【図10】本発明を適用した圧縮音声エラー補償処理装置の一実施例を示すフローチャート。
【図11】本発明を適用した圧縮音声エラー補償処理装置における補償値生成のためのタイミング。
【符号の説明】
2…音声フレーム入力、3…フレームエラー検出,結果保存、4…逆量子化用フレームエラー有無確認、5…振幅値データ再現、6…サンプル逆量子化、7…最終ブロックデータ保存、10…( fn − 1 )番フレーム最終ブロック呼び戻し、11…振幅データ補償値の算出。TECHNICAL FIELD OF THE INVENTION
The present invention relates to a digital audio reproducing device, a compressed audio decoding device (MPEG-1 audio, MPEG-2 audio), and the like, and particularly to an error data compensation method and device when an error occurs in compressed audio data.
[Prior art]
In the conventional compressed audio reproduction method, the error compensation processing as a measure to cope with an error detected in the compressed audio stream is to repeat the previous data or mute the error part for a frame which is a basic unit of compression. Is performed. An example of this is described in "1992 Autumn Meeting of the Institute of Electronics, Information and Communication Engineers, B-571, Evaluation of Hardware for Transmission Error Compensation Method in MPEG / Audio Coding System: Kitabatake et al. 3, NEC". However, there is not much change in the error compensation method.
[Problems to be solved by the invention]
For example, when Fs = 48 kHz in MPEG-1 audio layer 2 shown in ISO / IEC 11172-3, one frame as a basic unit of compression is 24 ms for 1152 samples, and one frame is a finer block. (384 samples: 8 ms), and the shortest conversion length of conversion from time axis data to compressed data (frequency axis data) is one block. The error detection word is attached in units of one frame, and when an error occurs, it is compressed data, so that the effect of the error is usually limited to one whole frame and one part. Can not. If this section is subjected to repetition of the previous frame or error compensation processing (level conversion to level 0), a sense of discomfort is perceived depending on the characteristics of the sound source data. However, introduction of a calculation using fine auditory characteristics for calculating the error compensation value leads to a significant increase in the scale of decoding processing hardware and the amount of software calculation processing.
[Means for Solving the Problems]
The amplitude coefficient data of the last block of one frame of the compressed voice is stored and compared with the amplitude coefficient of the first block of the frame next to the frame in which the error has occurred. The amplitude coefficient for each block of the error frame is set so as to smoothly connect to the amplitude coefficients at both ends. The same block in the previous frame is repeated except for data affecting the signal level represented by the amplitude coefficient and the like.
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an example of an embodiment of the present invention will be described.
FIG. 1 is an example of a processing procedure of a compressed audio reproduction processing method.
As a compressed audio stream input to the compressed audio reproduction process, there is a stream shown in (1) of FIG. The compressed audio stream of (1) in FIG. 2 is formed in units of a frame 101 which is a basic compression unit of the compressed audio, and the time length of the frame is 32 ms, and the audio block is 1/6 of the time length of the frame. It is.
In the frame 101, a SYNC 102 indicating the head of the frame 101, BSI 103 which is stream auxiliary information, audio blocks ABLK (0) 104, ABLK (1) 105, ABLK (2) 106, ABLK (3 ) 107, ABLK (4) 108, ABLK (5) 109, and an error detection code EDC110 for detecting an error. The audio block ABLK (bn) further includes audio block information ABI112, amplitude value data EXP113, and normalized sample value MANT114 (bn is a block number).
When the compressed audio frame 101 is reproduced, the data becomes post-reproduction data 115. The decoded part for ABLK (0) 104 is in the 0th reproduced data section 116, the decoded part for ABLK (1) 105 is in the first reproduced data section 117, and ABLK (1) 105. (2) The decoded part for 106 is in the second reproduced data section 118, the decoded part for ABLK (3) 107 is in the third reproduced data section 119, the decoded part for ABLK (4) 108 is in the fourth reproduced data section 120, The decoded part for ABLK (5) 109 is the fifth reproduced data section 121.
Returning to the description of FIG. 1, the reproduction processing starts from the start of the reproduction processing in step 1, and first, the (fn + 1) th frame of the compressed audio stream is input by the audio stream AFLM (fn + 1) input in step 2 (fn is an integer). By detecting the frame error in step 3 and storing the detection result, the presence / absence of an error is detected by using the error detection code EDC110 or the like, and the result is stored in such a form that the number of the erroneous frame can be recognized. It is checked whether or not the (fn) -th frame has an error in the AFLM (fn) error check in step 4. If there is no error, the process proceeds to step 5. If there is an error, the process proceeds to step 10. In the amplitude data reproduction of AFLM (fn) in step 5, an amplitude value is reproduced from information included in AFLM (fn) based on data EXP113 related to the amplitude data.
In the sample inverse quantization of step 6, the sample value RECON_SAMP is reproduced from the amplitude value reproduced based on the EXP 113 and the MANT 114 included in the AFLM (fn). An example of the relationship between the EXP 113, the MANT 114, and the sample value RECON_SAMP is shown in the following Expression 3, and is expressed by multiplying (BASE) to the (EXP) power by MANT. Equation 4 below is a specific example in the case where (BASE) in Equation 3 is 2, and an example in which (BASE) is a small number or a negative number is also conceivable.
(Equation 3)
RECON_SAMP = (BASE) ^ (EXP) * MANT
(Equation 4)
RECON_SAMP = 2 ^ (EXP) * MANT
Subsequent to step 6, the last block ABLK (5) in the (fn) th frame is stored in the last block data storage in frame in step 7. It is determined whether or not to continue decoding in the decoding continuation determination in step 8, and if so, the processing is continued from step 2, and if it is to be ended, the reproduction is ended at the end of the reproduction processing in step 9.
If the (fn) -th frame has an error in step 4, the last block data ABLK (5) of the (fn-1) -th frame stored in step 7 which has been passed in the past by the recall of the compensation data in step 10 Call back). In the calculation of the amplitude data compensation value in step 11, the (fn) -th error frame is obtained from the last block data ABLK (5) of the (fn-1) -th frame and the first block data ABLK (0) of the (fn + 1) -th frame. Creates each block data ABLK (bn) in the frame of. Based on the created block data ABLK (bn), the processing after step 6 is continued.
FIG. 2 shows the processing flow of step 11 in more detail. The processing from step 10 is continued by inputting the amplitude data of ABLK (5) in AFLM (fn-1) of step 12 to (fn-1). The amplitude data EXP (fn + 1, 0, band) of the last block data ABLK (5) of the second frame is input (band is a band number). Subsequently, the amplitude data EXP (fn + 1, 0, band) of the first block data ABLK (0) of the (fn + 1) -th frame is input by the amplitude data input of ABLK (0) in AFLM (fn + 1) in step 13. In the generation of the in-block amplitude value compensation data in step 14, a compensation value in ABLK (bn) in AFLM (fn), which is an error frame, is generated for each band.
Subsequent to step 14, it is determined whether or not the processing has been completed up to the last block in the all block end determination in step 15, and if not completed, the processing in step 14 is performed for the next block ABLK. For example, the amplitude value compensation data is placed at a predetermined location in the storage of the amplitude value compensation data in step 16. Subsequently, the process proceeds to step S6, and is the same as that described above.
(Equation 5)
Figure 0003567750
(Equation 6)
Figure 0003567750
An example of the method of generating the compensation value in step 14 is more specifically shown in Expression 5. This is a formula for generating the amplitude data EXP (fn, bn, band) from the amplitude data EXP (fn-1, 5, band) and the amplitude data EXP (fn + 1, 0, band), and ABLK (bn) in AFLM (fn). The weighted average is calculated so that the amplitude data EXP in the parentheses) is smoothly connected to the amplitude data EXP of the adjacent frame for each band.
Here, for example, specifically, for Block 2, Equation 5 is equivalent to Equation 6.
FIG. 5 shows this effect, and the effect is expressed by focusing on amplitude data EXP for a certain band in the block. Therefore, for example, if the compression processing is divided into 32 bands by band division processing and one amplitude data EXP is determined for one band, the processing as shown in FIG. Will be performed every time.
FIG. 5A shows the state before the compensation value is generated, and FIG. 5B shows the state after the generation of the compensation value. In (1) of FIG. 5, the amplitude data of a predetermined band in the ABLK (bn) of the (fn-1) th frame is represented by EXP (fn-1, 0, band) 126 and EXP (fn-1, 1). , Band) 127, EXP (fn-1, 2, band) 128, EXP (fn-3, 0, band) 129, EXP (fn-1, 4, band) 130, EXP (fn-1, 5, band) ) 131, the amplitude data of a certain band in the ABLK (bn) of the (fn + 1) th frame is EXP (fn + 1, 0, band) 132, EXP (fn + 1, 1, band) 133, EXP (fn + 1, 2) , Band) 134, EXP (fn + 1, 3, band) 135, EXP (fn + 1, 4, band) 136, EXP (fn + 1, 5, band) 1 It is 7.
As a result of performing the processing of Expression 3 on the amplitude data of the (fn) -th frame, which is an error frame, as shown in FIG. 5B, a certain band band in ABLK (bn) of the (fn) -th frame is obtained. (Fn, 0, band) 138, EXP (fn, 1, band) 139, EXP (fn, 2, band) 140, EXP (fn, 0, band) 141, EXP (fn, 4, band) ) 142 and EXP (fn, 5, band) 143 are generated so as to be smoothly connected to EXP (fn-1, 5, band) 131 and EXP (fn + 1, 0, band) 132.
In this way, the error compensation processing for the error frame is performed. Thereby, the connection between the error section and the valid frame section becomes smoother. Further, the data to be handled is data for a section considerably shorter than the length of the frame in which an error has occurred, and further requires only partial data before the sample is reproduced, so that the processing scale is not significantly increased. Also, since it is partial data before reproducing the sample, error compensation in the frequency domain before performing the orthogonal inverse transformation, not only smooth connection in the time domain but also smooth connection of the spectral distribution in the frequency domain it can.
Here, the effect is clear by comparing FIG. 6 which is an example of the conventional frame repetition and FIG. 7 and FIG. 5 (2) which is an example of the conventional mute. In the example of FIG. A sudden change in the distribution from EXP 131 to EXP (fn, 0, band) 146 may create a sense of incongruity, and in the example of FIG. 7, a sharp change in the spectral distribution is apparent.
Of course, in the time domain, smooth connection can be achieved by windowing and overlap processing, but in order to further improve the audibility, it is effective to smoothly connect not only the waveform but also the spectrum distribution.
Next, FIGS. 8 and 9 show the effects of the embodiment when the error continues for two or more frames.
First, FIG. 8 shows an example in which AFLM (fn-1) in the past is a valid data frame, and AFLM (fn) and AFLM (fn + 1) are error frames. Also in this case, the present invention exerts its power. That is, if the amplitude data EXP (fn + 1, 0, band) 150 in the AFLM (fn + 1), which is an error frame, is provisionally interpreted as 0, the mute can be smoothly muted as in the example of FIG. If it is determined that the attenuation is too gentle, compensation data can be created by processing as shown in Expression 7 instead of Expression 5. In Expression 5, the influence part from the previous frame decreases by a power of 1 / every time the block progresses. Equation 8 is a specific example in the case of the amplitude data EXP (fn, 3, band). In this case, since the attenuation method is not linear but logarithmic, the affinity with the auditory characteristics is enhanced.
(Equation 7)
Figure 0003567750
(Equation 8)
Figure 0003567750
FIG. 9 shows an example in which the past AFLM (fn-1) and AFLM (fn) are error frames, and AFLM (fn + 1) is a valid data frame error frame. 8, if the amplitude data EXP (fn + 1,5, band) 151 in the error frame AFLM (fn-1) is interpreted as 0, as in the example of FIG. In.
FIG. 10 is an example of a compressed audio reproducing apparatus that realizes the processing method of FIG. 1. The audio stream 200 is input, a synchronization word SYNC 102 in the stream is detected, the audio frame 101 is synchronized, and An error detection is performed using the error detection word EDC110, and a frame synchronization detection and circuit error detection 201 for outputting a frame error flag 205 indicating whether or not there is an error, and a decoding process from the audio frame data 202 after the synchronization processing error detection. Information extracting circuit 203 for extracting and holding information necessary for the operation, an amplitude value decoding circuit 209 for inputting the amplitude value code 208 from the intra-frame information extracting circuit 203 and decoding the data amplitude value, The decoded amplitude value 210 output from the circuit 209 is input. Then, the normalized sample value 204 is input from the intra-frame information extracting circuit 203, and an inverse quantization circuit 214 for performing an inverse quantization process, and a sample reconstruction value 216 output from the inverse quantization circuit 214 are converted into each band. And a band synthesizing circuit 217 for inputting, band-synthesizing, converting to a final time-domain signal 218, and outputting the signal.
Further, as characteristic features of the present invention, an error history holding circuit 206 for inputting and holding the frame error flag 205 from the frame synchronization and error detection circuit 201, and a compressed audio signal among the amplitude values decoded by the amplitude value decoding circuit 209 A past frame last block holding circuit 220 for inputting and holding an amplitude value 224 corresponding to the last audio data block in the frame; and performing inverse quantization on the (fn) -th compressed audio frame (fn is an integer). The amplitude value 211 corresponding to the final audio data block of the (fn-1) th compressed audio frame is input from the past frame last block holding circuit 220, and the amplitude value decoding means starts the (fn + 1) th compressed audio frame. Input amplitude value 226 corresponding to audio data block Te, the compensation value generating circuit 211 for generating and outputting an amplitude value compensation data 213, enter the frame error flag 219 for the error history holding circuit 206 (fn) th compressed audio frames,
If the frame error flag 219 indicates that there is no error, the amplitude value decoding circuit 209 outputs the amplitude value 210 corresponding to each audio data block of the (fn) -th compressed audio frame, and the frame error flag indicates an error. In this case, the amplitude value 213 corresponding to each audio data block as a compensation value output from the compensation value generation circuit 211 is selected and output as the input 207 of the inverse quantization circuit 214.
FIG. 11 shows an example of the data change timing related to the generation of the amplitude value compensation data in this device. Frame data 152 for synchronization detection, error detection, and information extraction, held final block data 155, sample dequantization and band synthesis frame 156 are shown, and the amplitude value EXP in the error frame AFLM (fn) is represented by AFLM. This is an example of timing when the amplitude data EXP (fn-1, 5, band) 153 in (fn-1) and the amplitude data EXP (fn + 1, 0, band) 154 in AFLM (fn + 1) are generated.
At this timing, a compensation value can be calculated, and the amplitude data EXP (fn-1,5, band) 153 in AFLM (fn-1) and the compensated amplitude data EXP (fn, 0, band) 158 in AFLM (fn). Further, the compensated amplitude data EXP (fn, 5, band) 159 in AFLM (fn) and the amplitude data EXP (fn-1,0, band) 160 in AFLM (fn-1) are smoothly connected.
With this configuration, the compensation method shown in the example of FIG. 1 can be realized in the compressed audio reproduction device.
In this way, the error compensation processing for the error frame is performed, and not only the smooth connection in the time domain but also the smooth connection of the spectrum distribution in the frequency domain can be realized, so that the deterioration in audibility can be suppressed.
【The invention's effect】
The error compensation processing of the compressed voice frame in which the error is detected is performed more finely, and the data compensation for each block in the frame can be performed while the entire frame is in an uncorrectable state. Thus, in the case of an error of only one frame (not continuous for two or more frames), a return portion from the error compensation frame is more smoothly connected on the frequency axis than in the complete repetition of the previous frame. In addition, the sound pressure level of the error portion is not excessively suppressed as compared with the case where one frame is completely muted. Therefore, it is expected that the deterioration of the audibility at the time of occurrence of the data compensation processing is suppressed. Also, since the data to be held for this processing only needs to be the amplitude coefficient for one block, the increase in hardware is small.
[Brief description of the drawings]
FIG. 1 is a flowchart showing an embodiment of a compressed speech error compensation processing method to which the present invention is applied.
FIG. 2 is a flowchart illustrating an example of a detailed portion of an error compensation process according to the present invention.
FIG. 3 is a diagram showing an example of a structure of a compressed audio stream as an input to a compressed audio error compensation processing method to which the present invention is applied, and an example of decoded audio.
FIG. 4 is a diagram showing an example of a compressed audio frame and a decoding result audio in a situation where the compressed audio error compensation processing method to which the present invention is applied performs error compensation processing.
FIG. 5 is a diagram showing an example showing a relation between a compensation value generated by a compressed speech error compensation processing method to which the present invention is applied and data in an adjacent frame.
FIG. 6 is a diagram showing an example of repetition of an entire frame, which is a conventional compensation process.
FIG. 7 is a diagram showing an example of a whole frame mute which is a conventional compensation process.
FIG. 8 is a diagram showing another example of a compensation value generated by the compressed speech error compensation processing method to which the present invention is applied, in a case where two or more error frames continue from a valid frame.
FIG. 9 is a diagram showing another example of a compensation value generated by the compressed speech error compensation processing method to which the present invention is applied, in which an effective frame comes after two or more error frames continue.
FIG. 10 is a flowchart showing an embodiment of a compressed speech error compensation processing apparatus to which the present invention is applied.
FIG. 11 shows a timing for generating a compensation value in the compressed speech error compensation processing apparatus to which the present invention is applied.
[Explanation of symbols]
2: Voice frame input, 3: Frame error detection, result storage, 4: Confirmation of presence / absence of frame error for inverse quantization, 5: Amplitude value data reproduction, 6: Sample inverse quantization, 7: Final block data storage, 10: ( fn-1) Recall of the last block of the #th frame, 11 ... Calculation of amplitude data compensation value.

Claims (6)

圧縮の基本単位である圧縮音声フレームの先頭を示す同期ワードと、上記圧縮音声フレームがエラーを含んでいるかどうかを検出するための誤り検出ワードと、音声情報を保持している複数の音声情報ブロックとで構成される上記圧縮音声フレームを入力し、上記圧縮音声フレーム内に含まれる上記同期ワードによって上記圧縮音声フレームの先頭を判別し、上記圧縮音声フレーム内に含まれる上記誤り検出ワードにより上記圧縮音声フレームがエラーを含んでいるかどうかを判別し、上記圧縮音声フレーム内に含まれる上記音声情報ブロックの中に含まれる振幅値と正規化サンプル値によりサンプル値を逆量子化して音声信号を出力する圧縮音声再生方法において、
上記圧縮音声フレームの履歴を保持し、(fn)番目圧縮音声フレーム(fnは整数)にエラーが検出されている場合に、(fn−1)番目圧縮音声フレームの最後の音声情報ブロックと、(fn+1)番目圧縮音声フレームの最初の音声情報ブロックとから(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成し、
上記(fn−1)番目圧縮音声フレームの最後の音声情報ブロックの振幅値と、上記(fn+1)番目圧縮音声フレームの最初の音声情報ブロックの振幅値とから(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成し、
上記(fn+1)番目圧縮音声フレームにも欠陥がある場合には、(fn+1)番目圧縮音声フレームの最初の音声情報ブロックの振幅値をゼロとして(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成することを特徴とした圧縮音声再生方法。
A synchronization word indicating the beginning of a compressed audio frame, which is a basic unit of compression, an error detection word for detecting whether the compressed audio frame contains an error, and a plurality of audio information blocks holding audio information The compressed voice frame is input, and the head of the compressed voice frame is determined by the synchronization word included in the compressed voice frame, and the compression is performed by the error detection word included in the compressed voice frame. Determining whether the audio frame contains an error, dequantizing the sample value by the amplitude value and the normalized sample value included in the audio information block included in the compressed audio frame, and outputting an audio signal; In the compressed audio reproduction method,
The history of the compressed audio frame is retained, and when an error is detected in the (fn) th compressed audio frame (fn is an integer), the last audio information block of the (fn-1) th compressed audio frame and ( generating error compensation information for the audio information block of the (fn) th compressed audio frame from the first audio information block of the (fn + 1) th compressed audio frame ;
From the amplitude value of the last audio information block of the (fn-1) th compressed audio frame and the amplitude value of the first audio information block of the (fn + 1) th compressed audio frame, the audio information of the (fn) th compressed audio frame Generate error compensation information for the block,
If the (fn + 1) th compressed audio frame also has a defect, the amplitude value of the first audio information block of the (fn + 1) th compressed audio frame is set to zero, and error compensation for the audio information block of the (fn) th compressed audio frame is performed. A compressed sound reproduction method characterized by generating information .
圧縮の基本単位である圧縮音声フレームの先頭を示す同期ワードと、上記圧縮音声フレームがエラーを含んでいるかどうかを検出するための誤り検出ワードと、音声情報を保持している複数の音声情報ブロックとで構成される上記圧縮音声フレームを入力し、上記圧縮音声フレーム内に含まれる上記同期ワードによって上記圧縮音声フレームの先頭を判別し、上記圧縮音声フレーム内に含まれる上記誤り検出ワードにより上記圧縮音声フレームがエラーを含んでいるかどうかを判別し、上記圧縮音声フレーム内に含まれる上記音声情報ブロックの中に含まれる振幅値と正規化サンプル値によりサンプル値を逆量子化して音声信号を出力する圧縮音声再生方法において、
上記圧縮音声フレームの履歴を保持し、(fn)番目圧縮音声フレーム(fnは整数)にエラーが検出されている場合に、(fn−1)番目圧縮音声フレームの最後の音声情報ブロックと、(fn+1)番目圧縮音声フレームの最初の音声情報ブロックとから(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成し、
上記(fn−1)番目圧縮音声フレームの最後の音声情報ブロックの振幅値と、上記(fn+1)番目圧縮音声フレームの最初の音声情報ブロックの振幅値とから(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成し、
上記(fn−1)番目圧縮音声フレームにも欠陥がある場合には、(fn−1)番目圧縮音声フレームの最後の音声情報ブロックの振幅値をゼロとして(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成することを特徴とした圧縮音声再生方法。
A synchronization word indicating the beginning of a compressed audio frame, which is a basic unit of compression, an error detection word for detecting whether the compressed audio frame contains an error, and a plurality of audio information blocks holding audio information The compressed voice frame is input, and the head of the compressed voice frame is determined by the synchronization word included in the compressed voice frame, and the compression is performed by the error detection word included in the compressed voice frame. Determining whether the audio frame contains an error, dequantizing the sample value by the amplitude value and the normalized sample value included in the audio information block included in the compressed audio frame, and outputting an audio signal; In the compressed audio reproduction method,
The history of the compressed audio frame is retained, and when an error is detected in the (fn) th compressed audio frame (fn is an integer), the last audio information block of the (fn-1) th compressed audio frame and ( generating error compensation information for the audio information block of the (fn) th compressed audio frame from the first audio information block of the (fn + 1) th compressed audio frame;
From the amplitude value of the last audio information block of the (fn-1) th compressed audio frame and the amplitude value of the first audio information block of the (fn + 1) th compressed audio frame, the audio information of the (fn) th compressed audio frame Generate error compensation information for the block,
If the (fn-1) th compressed audio frame also has a defect, the amplitude value of the last audio information block of the (fn-1) th compressed audio frame is set to zero, and the audio information of the (fn) th compressed audio frame is set. A compressed sound reproduction method characterized by generating error compensation information for a block.
請求項1又は2に記載の圧縮音声再生方法であって、
時間的に上記(fn+1)番目圧縮音声フレームに近づくほど、上記エラー補償情報の音声情報ブロックの振幅値は、上記(fn+1)番目圧縮音声フレームの最初の音声情報ブロックの振幅値に近づくことを特徴とした圧縮音声再生方法。
The compressed audio reproduction method according to claim 1 or 2,
The temporally approaching the (fn + 1) th compressed audio frame, the amplitude value of the audio information block of the error compensation information approaches the amplitude value of the first audio information block of the (fn + 1) th compressed audio frame. Compressed audio playback method.
圧縮の基本単位である圧縮音声フレームの先頭を示す同期ワードと、上記圧縮音声フレームがエラーを含んでいるかどうかを検出するための誤り検出ワードと、音声情報を保持している複数の音声情報ブロックとで構成される上記圧縮音声フレームが入力する圧縮音声フレーム入力部と、上記圧縮音声フレーム内に含まれる上記誤り検出ワードにより上記圧縮音声フレームがエラーを含んでいるかどうかを判別するエラー判別部と、上記圧縮音声フレーム内に含まれる上記音声情報ブロックの中に含まれる振幅値と正規化サンプル値によりサンプル値を逆量子化して音声信号を出力する音声信号出力部とを有する圧縮音声再生装置において、
圧縮音声フレーム入力部から入力された上記圧縮音声フレームの履歴を保持しする圧縮音声フレーム保持部と、上記エラー判別部により(fn)番目圧縮音声フレーム(fnは整数)にエラーが検出されている場合に、(fn−1)番目圧縮音声フレームの最後の音声情報ブロックと、(fn+1)番目圧縮音声フレームの最初の音声情報ブロックとから(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成するエラー補償情報生成部とを有し、
上記エラー補償情報生成部は、上記(fn−1)番目圧縮音声フレームの最後の音声情報ブロックの振幅値と、上記(fn+1)番目圧縮音声フレームの最初の音声情報ブロックの振幅値とから(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成し、
上記エラー補償情報生成部は、上記(fn+1)番目圧縮音声フレームにも欠陥がある場合には、(fn+1)番目圧縮音声フレームの最初の音声情報ブロックの振幅値をゼロとして(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成することを特徴とした圧縮音声再生装置。
A synchronization word indicating the beginning of a compressed audio frame, which is a basic unit of compression, an error detection word for detecting whether the compressed audio frame contains an error, and a plurality of audio information blocks holding audio information A compressed voice frame input unit configured to receive the compressed voice frame, and an error determination unit that determines whether the compressed voice frame contains an error by the error detection word included in the compressed voice frame. A sound signal output unit that outputs an audio signal by dequantizing a sample value using an amplitude value and a normalized sample value included in the audio information block included in the compressed audio frame. ,
An error is detected in the (fn) th compressed audio frame (fn is an integer) by the compressed audio frame holding unit that holds the history of the compressed audio frame input from the compressed audio frame input unit and the error determination unit. In this case, error compensation information for the audio information block of the (fn) th compressed audio frame from the last audio information block of the (fn-1) th compressed audio frame and the first audio information block of the (fn + 1) th compressed audio frame And an error compensation information generation unit that generates
The error compensation information generation unit calculates (fn) the amplitude value of the last audio information block of the (fn-1) th compressed audio frame and the amplitude value of the first audio information block of the (fn + 1) th compressed audio frame. Generating error compensation information for the audio information block of the) th compressed audio frame;
If the (fn + 1) th compressed audio frame also has a defect, the error compensation information generation unit sets the amplitude value of the first audio information block of the (fn + 1) th compressed audio frame to zero, and sets the (fn) th compressed audio frame to zero. A compressed audio reproducing apparatus for generating error compensation information for an audio information block of a frame.
圧縮の基本単位である圧縮音声フレームの先頭を示す同期ワードと、上記圧縮音声フレームがエラーを含んでいるかどうかを検出するための誤り検出ワードと、音声情報を保持している複数の音声情報ブロックとで構成される上記圧縮音声フレームが入力する圧縮音声フレーム入力部と、上記圧縮音声フレーム内に含まれる上記誤り検出ワードにより上記圧縮音声フレームがエラーを含んでいるかどうかを判別するエラー判別部と、上記圧縮音声フレーム内に含まれる上記音声情報ブロックの中に含まれる振幅値と正規化サンプル値によりサンプル値を逆量子化して音声信号を出力する音声信号出力部とを有する圧縮音声再生装置において、
圧縮音声フレーム入力部から入力された上記圧縮音声フレームの履歴を保持しする圧縮音声フレーム保持部と、上記エラー判別部により(fn)番目圧縮音声フレーム(fnは整数)にエラーが検出されている場合に、(fn−1)番目圧縮音声フレームの最後の音声情報ブロックと、(fn+1)番目圧縮音声フレームの最初の音声情報ブロックとから(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成するエラー補償情報生成部とを有し、
上記エラー補償情報生成部は、上記(fn−1)番目圧縮音声フレームの最後の音声情報ブロックの振幅値と、上記(fn+1)番目圧縮音声フレームの最初の音声情報ブロックの振幅値とから(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成し、
上記エラー補償情報生成部は、上記(fn−1)番目圧縮音声フレームにも欠陥がある場合には、(fn−1)番目圧縮音声フレームの最後の音声情報ブロックの振幅値をゼロとして(fn)番目圧縮音声フレームの音声情報ブロックに対するエラー補償情報を生成することを特徴とした圧縮音声再生装置。
A synchronization word indicating the beginning of a compressed audio frame, which is a basic unit of compression, an error detection word for detecting whether the compressed audio frame contains an error, and a plurality of audio information blocks holding audio information A compressed voice frame input unit configured to receive the compressed voice frame, and an error determination unit that determines whether the compressed voice frame contains an error by the error detection word included in the compressed voice frame. A sound signal output unit that outputs an audio signal by dequantizing a sample value using an amplitude value and a normalized sample value included in the audio information block included in the compressed audio frame. ,
An error is detected in the (fn) th compressed audio frame (fn is an integer) by the compressed audio frame holding unit that holds the history of the compressed audio frame input from the compressed audio frame input unit and the error determination unit. In this case, error compensation information for the audio information block of the (fn) th compressed audio frame from the last audio information block of the (fn-1) th compressed audio frame and the first audio information block of the (fn + 1) th compressed audio frame And an error compensation information generation unit that generates
The error compensation information generation unit calculates (fn) the amplitude value of the last audio information block of the (fn-1) th compressed audio frame and the amplitude value of the first audio information block of the (fn + 1) th compressed audio frame. Generating error compensation information for the audio information block of the) th compressed audio frame;
If the (fn-1) th compressed audio frame also has a defect, the error compensation information generation unit sets the amplitude value of the last audio information block of the (fn-1) th compressed audio frame to zero (fn A) a compressed audio reproducing apparatus for generating error compensation information for an audio information block of a compressed audio frame;
請求項4又は5に記載の圧縮音声再生装置であって、
時間的に上記(fn+1)番目圧縮音声フレームに近づくほど、上記エラー補償情報の音声情報ブロックの振幅値は、上記(fn+1)番目圧縮音声フレームの最初の音声情報ブロックの振幅値に近づくことを特徴とした圧縮音声再生装置。
The compressed audio reproduction device according to claim 4 or 5,
The temporally approaching the (fn + 1) th compressed audio frame, the amplitude value of the audio information block of the error compensation information approaches the amplitude value of the first audio information block of the (fn + 1) th compressed audio frame. Compressed audio playback device.
JP22560998A 1998-08-10 1998-08-10 Compressed audio reproduction method and compressed audio reproduction device Expired - Fee Related JP3567750B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22560998A JP3567750B2 (en) 1998-08-10 1998-08-10 Compressed audio reproduction method and compressed audio reproduction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22560998A JP3567750B2 (en) 1998-08-10 1998-08-10 Compressed audio reproduction method and compressed audio reproduction device

Publications (2)

Publication Number Publication Date
JP2000059231A JP2000059231A (en) 2000-02-25
JP3567750B2 true JP3567750B2 (en) 2004-09-22

Family

ID=16832013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22560998A Expired - Fee Related JP3567750B2 (en) 1998-08-10 1998-08-10 Compressed audio reproduction method and compressed audio reproduction device

Country Status (1)

Country Link
JP (1) JP3567750B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE527866C2 (en) * 2003-12-19 2006-06-27 Ericsson Telefon Ab L M Channel signal masking in multi-channel audio system
US7835916B2 (en) 2003-12-19 2010-11-16 Telefonaktiebolaget Lm Ericsson (Publ) Channel signal concealment in multi-channel audio systems
US8620644B2 (en) * 2005-10-26 2013-12-31 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
CN101207665B (en) * 2007-11-05 2010-12-08 华为技术有限公司 Method for obtaining attenuation factor
SG10201700846UA (en) * 2013-02-05 2017-03-30 Ericsson Telefon Ab L M Method and apparatus for controlling audio frame loss concealment

Also Published As

Publication number Publication date
JP2000059231A (en) 2000-02-25

Similar Documents

Publication Publication Date Title
JP4413257B2 (en) Apparatus and method for processing multi-channel signals
JP5266234B2 (en) Information signal encoding
JP3186412B2 (en) Information encoding method, information decoding method, and information transmission method
KR100882771B1 (en) Perceptually Improved Enhancement of Encoded Acoustic Signals
JP2005202248A (en) Audio encoding device and frame region allocating circuit of audio encoding device
US6278387B1 (en) Audio encoder and decoder utilizing time scaling for variable playback
JPH11194796A (en) Speech reproducing device
JP2006048043A (en) Method and apparatus to restore high frequency component of audio data
JP2011507050A (en) Audio signal processing method and apparatus
JP2000515266A (en) How to signal noise replacement during audio signal coding
JP5326465B2 (en) Audio decoding method, apparatus, and program
JP2008519990A (en) Signal coding method
US20090180531A1 (en) codec with plc capabilities
KR20020002241A (en) Digital audio system
JP2004198485A (en) Device and program for decoding sound encoded signal
JP4359499B2 (en) Editing audio signals
JP2003005797A (en) Method and device for encoding audio signal, and system for encoding and decoding audio signal
JP2004519741A (en) Audio encoding
JP3567750B2 (en) Compressed audio reproduction method and compressed audio reproduction device
JP3092652B2 (en) Audio playback device
JP2013073230A (en) Audio encoding device
JP3390897B2 (en) Voice processing apparatus and method
KR20070011100A (en) Methods for energy compensation for multi-channel audio coding and methods for generating encoded audio signal for the compensation
JP2007505346A (en) Coding of audio signal component of transition
KR100584282B1 (en) Audio signal coding device and coding method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040506

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040607

LAPS Cancellation because of no payment of annual fees