JP2004094090A - System and method for compressing and expanding audio signal - Google Patents
System and method for compressing and expanding audio signal Download PDFInfo
- Publication number
- JP2004094090A JP2004094090A JP2002257649A JP2002257649A JP2004094090A JP 2004094090 A JP2004094090 A JP 2004094090A JP 2002257649 A JP2002257649 A JP 2002257649A JP 2002257649 A JP2002257649 A JP 2002257649A JP 2004094090 A JP2004094090 A JP 2004094090A
- Authority
- JP
- Japan
- Prior art keywords
- data
- compression
- parameters
- audio data
- encoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は所定の方式で圧縮されたオーディオデータと伸長に必要なパラメータとを多重化する方法および装置に関し、特に一度圧縮したオ−ディオデータを再度異なるもしくは同じ圧縮方式で圧縮し直す方法および装置に関する。
【0002】
【従来の技術】
オーディオデータを記録したCD等の光ディスクや磁気テープ等の記録媒体から再生装置でデータを読み出し、記録装置へデータを転送し、そのデータを記録装置で別の記録媒体へ記録するダビング操作は一般的に行われている。例えば、読み出したオーディオデータをデジタル化した後にMPEG(Moving Picture Experts Coding Group)やATRAC(Adaptive Transform Acoustic Coding)などのような圧縮処理を施し、圧縮データの形式で記録媒体に記録する方法も一般的になっている。
【0003】
データ圧縮を行うと、同じ時間の音楽や画像データが数分の1から10数分の1のデータ量に圧縮できるため記録媒体の使用量を少なくすることができ、また記録媒体のサイズを小さく出来るため、録音、録画、再生機器の大きさを小さくすることが可能となる。また通信回線を介したオーディオデータの配信においても圧縮したデータを用いることで通信コストを小さくすることが可能となる。
【0004】
多くのオーディオデータ圧縮方式は、例えば、人間の聴覚特性を利用して人間には聞こえにくい信号成分を圧縮したり、可変長符号化方法や変換テーブルを用いて頻繁に現れる符号パターンには短い符号パターンに置きかえるエントロピー符号化等符号化時に冗長な部分を圧縮する方法を用いて、再生時の音質の劣化を最小限に抑えながら圧縮率を高める工夫がなされている。図4を用いて、オーディオデータの圧縮方法を簡単に説明する。
【0005】
アナログオーディオデータ400をサンプリング周波数44.1kHzのA/Dコンバータ401によってデジタルオーディオデータ409に変換される。この512ワードのデジタルオーディオデータ409を1フレームとして処理が行われる。
【0006】
デジタルオーディオデータ409は直交変換装置402によって512ワードのスペクトルデータ410に変換される。絶対値最大スペクトルデータ抽出装置403では、これらのスペクトルデータ410を所定のワード単位でユニットと呼ばれるグループに分けられ、ユニット毎に最大の絶対値を持つスペクトルデータを検出し、正規化基準データ414を出力する。量子化ビット割り当て装置408は、正規化基準データ414を用いて各グループに割り当てる量子化ビット数データ415を算出する。使用できる量子化ビット数は限られており、残りビット数記憶装置408に記憶されている残りビット数417を参照しながら量子化ビット数データを決めていく。正規化装置405では、正規化基準データ414を用いて、各ユニット毎にスペクトルデータ411に正規化を施して正規化スペクトルデータ412を生成する。量子化装置406は量子化ビット数データ415を用いて、各ユニット毎に正規化スペクトルデータ412を量子化し、符号化オーディオデータ413を生成する。多重化装置407は符号化オーディオデータ413と、伸長処理に必要な量子化ビット数データ415と正規化基準データ414とを、圧縮方式によってあらかじめ決められた形式に従って多重化データ418を生成し、出力する。
【0007】
人間の聴覚にはある信号レベル以下になると信号そのものがあっても検知できなくなる境界が存在し、周波数によってそのレベルが変化する。この周波数特性を最小可聴限と言い、各グループの最大の絶対値を持つスペクトルデータの大きさが最小可聴限のレベル以下の場合には、人間には検知できない信号とみなすことができ量子化ビットを割り当てる必要がない。また、スペクトルデータの量子化の際には量子化ノイズが発生するが、量子化ノイズが残存していてもそのレベルが最小可聴限のレベル以下ならば人間が検知出来なければ聴感上問題がないため、信号レベルが大きくても最小可聴限のレベルが大きければ、量子化ビットを多く割り当てる必要がなくなる。このようにして、人間の聴覚特性を用いることで、割り当てる量子化ビットを減らすことが可能となる。
【0008】
各グループのスペクトルデータは該当グループの最大スペクトルデータによって正規化され、先に決められた量子化ビット数によって量子化される。
【0009】
この量子化オーディオデータ、割り当てビット数データと正規化基準データを一定のフォーマットに従って多重化される。この多重化データの1フレームあたりのデータ数は決まっており、通常は量子化ビットが足りない場合が多い。この時に、制限されたデータ量に収まるようにどのスペクトルデータのグループにどれだけ量子化ビットを割り振るかを明確に規定している圧縮フォーマットはほとんどなく、基本的には各圧縮装置によって異なる。
【0010】
【発明が解決しようとする課題】
これまでは、前述のようにコンパクトディスクなど非圧縮のオーディオデータを入力としてその機器で対応している圧縮方式によって圧縮し、記録媒体に記録して音楽を楽しむことが多かったが、最近ではあらかじめ圧縮された音楽データが入力となる機会が増えてきている。例えば、電子配信によって配信された圧縮データをユーザが受信して記録媒体に記録する、というものである。配信された圧縮データの圧縮方式がユーザの保有する再生機器の対応する圧縮方式と同じならばそのままその機器で再生が可能であるが、圧縮データの圧縮方式とユーザが保有している機器が対応している圧縮方式とが異なる場合がある。
【0011】
このような場合、例えば配信された圧縮データをコンピュータ等でその圧縮方式に準じて伸長し、更に機器が対応している圧縮方式で圧縮しなおさなければならない。
【0012】
また圧縮方式には、同じ方式で複数の異なる圧縮率に対応しているものもあり、同じ時間のオーディオデータをより小さいデータ量で記録しなおしたい場合には上記と同様に一旦伸長処理を行った後、より圧縮率の高いモードで圧縮を行って記録する場合もある。
【0013】
オーディオデータを圧縮する際には、前述のように所定の圧縮率を達成するために限定された量子化ビット数をより聴感上有効とみなされるデータに割り当てるが、このビット割り当て方法は圧縮する方式ではもちろんのこと、同じ方式でも実行する機器やソフトウェア等によって異なる。
【0014】
例えば、ある入力信号に対して聴覚モデル等を用いて量子化ビット数を計算した結果、図5の501のような量子化ビットの分布になったが、多重化データの規定ワード数より多いために割り当てた量子化ビットを減らさなければならない。
第一の圧縮方式では図5の502のように全帯域から一様に量子化ビットを減らす方法をとっている。この場合、空白の升目分が量子化ノイズに相当する。一方、第二の圧縮方式では、図5の503のように高域のユニットから順に割当ビットを減らす方法をとっている。
【0015】
第一の圧縮方式で圧縮した後に一旦伸長し、再度第二の圧縮方式で圧縮した場合、中低域の信号に多く量子化ビットを割り当てても、第一の圧縮時に既に量子化ノイズを含んでいるので、元にはもどらない。更に、第一の圧縮方式では残っていた高域部の信号が第二の圧縮方式によって量子化ビットが割り当てられなくなり、音質が劣化することになる。
【0016】
本発明は上記の問題点を解決することを目的とするものであり、圧縮されたオーディオデータを伸長し、再び圧縮する場合に、再圧縮する際に起こる音質劣化を最小限に抑えることが可能なオーディオ信号圧縮伸長装置及び方法を提供することを目的とする。
【0017】
【課題を解決するための手段】
本発明に係るオーディオ信号圧縮伸長装置及び方法は、次のような手段を講じることにより、上記の課題を解決するものである。すなわち、オーディオデータを第一の圧縮方式で圧縮し、伸長処理に必要なパラメータと共に多重化された多重化データを、逆多重化によって量子化オーディオデータと伸長処理に必要なパラメータとに分離する。その符号化オーディオデータとパラメータデータをそれぞれ第二の圧縮方式でのフォーマットに準ずるデータに変換し、そのまま多重化させて第二の圧縮方式のフォーマットに準じた多重化データを生成する。
また、パラメータ保持装置によって逆多重化の際に得られたパラメータデータを保持しておき、第一の圧縮方式で圧縮された符号化データを伸長した後、第二の圧縮方式での再圧縮時に保持したパラメータを参照しながら各ユニットに割り当てる量子化ビット数を決定する。
【0018】
本発明では、圧縮されたオーディオデータを一旦伸長してオーディオデータを生成した後、他の圧縮方式、もしくは同じ圧縮方式で再度オーディオデータを圧縮する際に、最初の圧縮処理で残された成分を伸長されたパラメータや量子化オーディオデータ自身から取り出し、保持し、再圧縮時にそれらを利用することによって、再圧縮時に通常起こりうる音質劣化を低減させることが可能となる。
【0019】
【発明の実施の形態】
以下、本発明に係るオーディオ信号圧縮伸長装置及び方法の具体的な実施の形態について図面を用いて詳細に説明する。
【0020】
(実施の形態1)
実施の形態1は、第一の圧縮処理によって生成された多重化データを逆多重化して量子化オーディオデータとパラメータデータとに分離し、それぞれのデータを第二の圧縮方式に適合するように変換し、多重化することで、従来伸長処理、再圧縮処理を連続して行うことによって発生していた音質劣化を低減させるものである。
【0021】
以下、図1、図3を用いて第1の実施の形態に係るオーディオ信号圧縮伸長装置を説明する。図1は本発明の実施の形態1におけるオーディオ信号圧縮伸長装置の構成を示すブロック図である。図3は各データ変換手段で使用するテーブルである。
【0022】
逆多重化手段101は多重化データ106から、第一の圧縮処理方式によって圧縮された符号化オーディオデータ107と各ユニットの正規化基準データ109と、各ユニットに割り当てられた量子化ビット数データ111とに分離する。
【0023】
第一のデータ変換手段105は、量子化ビット数データ111から第二の圧縮方式に準じた量子化ビット数データ112に変換する。まず、量子化ビット数データ変換テーブル301を用いて、第一の圧縮方式の量子化データに対応する第二の圧縮方式の量子化ビット数データを検索し、変換する。更に、ユニット変換テーブル300によって、第一の圧縮方式のユニットが第二の圧縮方式においてどのユニットに含まれるかを確認し、ユニットがまたがる場合には、その複数ユニットの量子化ビット数データの中で最小値を採用する。
【0024】
更新した量子化ビット数データから全割当ビット数を算出し、第二の圧縮方式による多重化データのワード数より大きいかどうかをチェックする。第一の圧縮方式による全割当ビット数の方が大きい場合には、第一の圧縮方式による全割当ビット数の方が小さくなるまで最も高域にあるユニットから順に割当ビット数を1つずつ減らして行く。
【0025】
第二のデータ変換手段104では、第一の圧縮方式に準じた正規化基準データ109を第二の圧縮方式に準じた正規化基準データ110に変換する。まず、正規化基準データ変換テーブル302を用いて、第一の圧縮方式の正規化基準データに対応する第二の圧縮方式の正規化基準データを検索し、変換する。更に、ユニット変換テーブル200によって、第一の圧縮方式のユニットが第二の圧縮方式においてどのユニットに含まれるかを確認し、複数のグループにまたがる場合には、その複数グループの正規化データの中で最大値を採用する。正規化データがここで変更した場合には、
第三のデータ変換手段102は、符号化データ107を第二の圧縮方式に準拠した符号化データ108に変換する。その際、第一のデータ変換手段105及び第二のデータ変換手段104で正規化データ110や量子化ビット数データ111が変更された場合には、変更前のデータを用いて逆量子化を行った後、変更後のデータによって量子化を行い、量子化データを生成する。
【0026】
多重化手段103は第二の圧縮方式に準拠したオーディオ符号化データ108、正規化データ110、量子化ビット数データ111を多重化し、第二の圧縮方式に準拠した伸長装置によって伸長可能な多重化データ113を生成する。
【0027】
このように実施の形態1では、ある圧縮方式で圧縮したオーディオデータを伸長し再度圧縮する際に、実際には伸長せずに符号化データとパラメータを再圧縮方式にあわせて変換することによって、最初の圧縮処理時の割当情報をほとんどそのまま用いることができ、再圧縮時に発生する音質劣化を軽減することができる。
【0028】
(実施の形態2)
実施の形態2は、伸長処理で使用したパラメータを別途保持しておき、再圧縮時にそのデータを参照することによって音質劣化を軽減するものである。
【0029】
以下、図2を用いて実施の形態2におけるオーディオ信号圧縮伸長装置を説明する。図2は本発明の実施の形態2におけるオーディオ信号圧縮伸長装置の構成を示すブロック図である。
【0030】
逆多重化手段201は多重化データ211から、第一の圧縮処理方式によって圧縮された符号化オーディオデータ及び全ユニットの正規化データ212と、全ユニットの量子化ビット数データ219とに分離する。
【0031】
伸長装置202は量子化オーディオデータ及び正規化基準データ212と量子化ビット数データ219によって伸長処理を行い、デジタルオーディオデータ213を生成する。これで、第一の圧縮方式に準じた伸長処理が終了する。
【0032】
直交変換装置203で第二の圧縮方式に準じた方式でデジタルオーディオデータ213をスペクトルデータ214に変換する。
【0033】
スペクトルデータ214を所定のワード単位でユニットに分けられ、絶対値最大スペクトルデータ抽出装置204によってユニット毎に最大の絶対値を持つスペクトルデータを検出し、最大絶対値のスペクトルデータから正規化基準データ220を算出し、スペクトルデータ216とを出力する。
【0034】
正規化装置205は各ユニット毎に正規化基準データ220を用いてスペクトルデータ216の正規化を行い正規化スペクトルデータ216を出力する。
【0035】
一方、データ変換装置208は逆多重化装置201から出力された量子化ビット数データ219からビット割当情報221を算出する。まず、量子化ビット数データ219から各スペクトルデータに割り当てられる割り当てビット数とその総計である全割り当てビット数を算出する。次に、各スペクトルデータが第二の圧縮方式で規定されたどのユニットに含まれるかを確認しながら該当するスペクトルデータに割り当てられる量子化ビット数を算出する。各ユニットに割り当てられる量子化ビット数を全割り当てビット数で割ることで、各ユニットに割り当てられた量子化ビット数の比を求め、これをビット割り当て情報221として出力する。
【0036】
量子化ビット割り当て装置209は、通常ならば絶対値最大スペクトルデータ抽出装置204から出力される正規化基準データ220と、あらかじめ決められた算出ルールに従って各ユニットのスペクトルデータに割り当てる量子化割り当てビット数を算出する。しかし、データ変換装置208にビット割当情報221がある場合、各ユニットのビット割当情報221と残りビット数記憶装置210に初期値として保持している全割り当てビット数とを掛けることによって各ユニットへの最初の割り当てビット数を算出する。その後、各ユニットに含まれるスペクトルデータの数等を考慮して調整を行って、各ユニットに割り当てる量子化割り当てビット数データ224を出力する。
【0037】
量子化装置206は正規化スペクトルデータ216をユニット毎に量子化割当ビットデータ224をもとにして量子化を行い、符号化オーディオデータ217を出力する。
【0038】
多重化装置207は、符号化オーディオデータ217、量子化割当ビットデータ224、正規化基準データ220を第二の圧縮方式に準じた形で多重化し、多重化データ218を出力する。
【0039】
このように実施の形態2では、通常行われる伸長処理と再圧縮処理との連続処理において、伸長処理の際に得られる量子化ビットの割当情報を保持しておき、再圧縮処理時に圧縮装置固有の量子化ビット割当アルゴリズムを用いずに先の割当情報を用いて圧縮処理を行うために、最初の圧縮処理時の割当情報をほぼそのまま用いることができ、再圧縮時に発生する音質劣化を軽減することができる。
【0040】
(実施の形態3)
実施の形態3は、第一の圧縮処理によって生成された多重化データを逆多重化して量子化オーディオデータとパラメータデータとに分離し、それぞれのデータを第二の圧縮方式に適合するように変換し、多重化することで、従来伸長処理、再圧縮処理を連続して行うことによって発生していた音質劣化を低減させるものである。
【0041】
以下、図6、図7、図8、図9、図10、図11を用いて実施の形態3におけるオーディオ信号圧縮伸長方法を説明する。図6は本発明の実施の形態3におけるオーディオ信号圧縮伸長方法の処理順序を示すフローチャートである。 図7はオーディオ信号圧縮伸長方法の処理の一部である、第一のデータ変換処理の処理内容を示すフローチャートである。図8は同じくオーディオ信号圧縮伸長方法の処理の一部である、第二のデータ変換処理の処理内容を示すフローチャートである。図9は同じくオーディオ信号圧縮伸長方法の処理の一部である、第三のデータ変換処理の処理内容を示すフローチャートである。図10は第一の圧縮処理による多重化データを示す図である。
【0042】
逆多重化処理S602は、多重化データ1000から多重化されているデータを取り出す処理である。ユニット数を表すユニット数データ1001、各ユニットの符号化スペクトルデータに割り当てられる量子化ビット数を表す量子化ビット数データ1002、各ユニットのスペクトルデータが正規化された際に用いた正規化データ1003、そして正規化、量子化された符号化オーディオデータ1104を第一の圧縮フォーマットに従ってそれぞれ抽出し、保持する。
【0043】
第一のデータ変換処理S903は、逆多重化処理S902によって取り出した量子化ビット数データ1102を第二の圧縮方式に準じたデータ形式に変換する処理である。最初に、多重化データ1100の総データビット数から、ユニット数データ1101、量子化ビット数データ1102、正規化データ1103に使用したビット数を引いた、符号化オーディオデータ1104に割当可能な量子化ビット数の総数(SUM1)を算出する。次の処理S1003は、第二の圧縮方式で符号化オーディオデータに用いることのできる量子化ビット数の総数SUM2を求める。
【0044】
次に、SUM1とSUM2の大きさを比較し、SUM1が大きい場合、すなわち今のままでは第二の圧縮方式では量子化ビット数が不足してしまう場合には、高域のユニットの量子化ビット数を1減らし、SUM1からそのユニットに含まれるスペクトルの本数を引くことによって再計算する。これを、SUM1がSUM2以下になるまで繰り返す。量子化ビット数を1減らしたユニットに対しては、割当ビット更新フラグをつけ、量子化ビット数データをこの処理で変更したユニットがこのフラグでわかるようにする。
【0045】
SUM1がSUM2以下になった時点で、それぞれの量子化ビット数データを第二の圧縮方式に準拠した形に変換する。第一の圧縮方式では、量子化ビット数データはそのユニットに割り当てるビット数をそのままデータにしていたが、第二の圧縮方式では、実際に割り当てるビット数に1を足したものをデータとしているため、ここでは各データに1を足して変換を行う。
【0046】
第二のデータ変換処理S904は、逆多重化処理S902によって取り出した正規化基準データ1103を第二の圧縮方式に準拠したデータ形式に変換する処理である。図11は第二のデータ変換処理S904を詳細に説明したフローチャートである。
【0047】
あらかじめ、第二の圧縮方式における正規化基準データの最大値(MAX#SF2)と最小値(MIN#SF2)とを保持しておく。逆多重化処理S902によって多重化データから抽出した各ユニットの正規化基準データをMAX#SF2と比較する。MAX#SF2より大きい場合、該当の正規化基準データは第二の圧縮方式でのデータとして扱うことができないため、MAX#SF2に置き換える。同様にMIN#SF2と比較して、MIN#SF2よりも小さい場合にはMIN#SF2に置き換える。このような置き換え処理が発生したユニットに対しては、正規化基準データ更新フラグをつけ、データをこの処理で変更したユニットがこのフラグでわかるようにする。この後、正規化基準データを第二の圧縮フォーマットに準じた形式に変換する。これを全ユニット行って終了となる。
【0048】
第三のデータ変換処理S905は、符号化オーディオデータ1104を第二の圧縮方式に準拠したデータ形式に変換する処理である。図12は第三のデータ変換処理S905を詳細に説明したフローチャートである。
【0049】
各ユニットに対して、第一のデータ変換方法S903及び第二のデータ変換方法S904でデータの変更を行った際につけたデータ更新フラグ(SFFi, BITFi)を読み出し、1かどうかを確認する。割当ビットデータか正規化基準データのどちらかが変更されていた場合、そのユニットに含まれる符号化オーディオデータを変更前の割当ビットデータと正規化基準データで一旦逆量子化してオーディオスペクトルデータに戻した後、変更後の割当ビットデータ及び正規化基準データで再度量子化を行う。しかし、SFFi, BITFiの両方とも0の場合は何も行わない。そして、符号化データを第二の圧縮方式に準じた形式に変換する。ここでは、該当するユニットの量子化ビット数データ、正規化基準データ、符号化データから求める符号化データが得られるようなテーブルを用意しておき、テーブル引きで変換できるようにする。
【0050】
多重化処理S906は、逆多重化処理S902、第一のデータ変換処理S903、第二のデータ変換処理S904、第三のデータ変換処理S905から得られたパラメータによって第二の圧縮方式に準じた多重化データを生成し、圧縮処理を終了する。
【0051】
このように実施の形態3では、ある圧縮方式で圧縮したオーディオデータを伸長し再度圧縮する際に、実際には伸長せずに符号化データとパラメータを再圧縮方式にあわせて変換することによって、最初の圧縮処理時の割当情報をほとんどそのまま用いることができ、再圧縮時に発生する音質劣化を軽減することができる。
(実施の形態4)
実施の形態4は、伸長処理で使用したパラメータを別途保持しておき、再圧縮時にそのデータを参照することによって音質劣化を軽減するものである。
【0052】
以下、図12、図13、図14、図11を用いて実施の形態4におけるオーディオ信号圧縮伸長方法を説明する。図12は本発明の実施の形態4におけるオーディオ信号圧縮伸長方法の処理順序を示すフローチャートである。 図13はオーディオ信号圧縮伸長方法の処理の一部である、データ変換処理の処理内容を示すフローチャートである。図14は同じくオーディオ信号圧縮伸長方法の処理の一部である、量子化ビット割当処理の処理内容を示すフローチャートである。図11は第一の圧縮処理による多重化データを示す図である。
【0053】
逆多重化処理S1202は、図9の逆多重化処理S902と同様の処理を行い、多重化データ1400からユニット数を表すユニット数データ1401、各ユニットのスペクトルデータに割り当てられる量子化ビット数を表す量子化ビット数データ1402、各ユニットのスペクトルデータが正規化された際に用いた正規化基準データ1403、そして正規化、量子化された符号化オーディオデータ1404を分離する。
【0054】
伸長処理S1203は、逆多重化処理S1202で得た量子化ビット数データ1402、正規化基準データ1403を用いて、符号化オーディオデータ1404を逆量子化、逆正規化、逆直交変換処理を行って、デジタルオーディオデータを生成する。これで、第一の圧縮方式によって圧縮されたオーディオデータの伸長処理が完了する。
【0055】
直交変換S1204は、伸長処理S1203によって得られたデジタルオーディオデータに直交変換処理を施し、スペクトルオーディオデータを得る。
【0056】
絶対値最大スペクトルデータ抽出処理S1205は、スペクトルオーディオデータを第二の圧縮方式で規定されているユニット毎にグループ分けし、各ユニットに含まれるスペクトルデータの中で最大の絶対値を算出する。
【0057】
データ変換処理S1206は、逆多重化処理S1202によって得られた量子化ビットデータ1402からビット割当情報を出力する処理である。図13はデータ変換処理S1206を詳細に説明したフローチャートである。まず、第一の圧縮処理においてオーディオデータに割り当てられた量子化ビット数の総和を求めておく。次に、スペクトルデータの本数分のメモリエリアを確保し、第一の圧縮処理におけるユニット毎に、該当するユニットに含まれるスペクトルデータの番号のメモリエリアに割当ビット数を書き込む。次に、第二の圧縮処理におけるユニット毎に、該当するユニットに含まれるスペクトルデータ番号のデータエリアに書き込まれたビット数を合計して、該当するユニットに与えられた量子化ビット数の総和を求める。各ユニットの量子化ビット数を、スペクトルデータに与えられた量子化ビットの総数で割って、総量子化ビット数に対する割合を算出し、これを保持しておく。
【0058】
量子化ビット割当処理S1207は、データ変換処理S1206で得られた総量子化ビット数に対する割合データをもとに量子化ビット数を算出する。図14は量子化ビット割当処理の詳細なフローチャートである。あらかじめ、第二の圧縮方式でスペクトルオーディオデータに割当可能な総割当ビット数を算出しておく。第二の圧縮方式における各ユニット毎に、まず総量子化ビット数に対する割合データを読み出し、先の総割当ビット数を掛けることで該当するユニットに割り当てる量子化ビット数を算出する。算出結果が、該当するユニットに含まれるスペクトルの本数の倍数かどうかを調べ、そうでなければ算出結果よりも大きな倍数に置き換える。
【0059】
全てのユニットで計算を行った後、全ユニットに割り当てたビット数の総和を求め、割当可能な総ビット数と大きさを比較する。もし割当可能総ビット数の方が小さい場合、高域のユニットから各スペクトルデータに割り当てるビット数を1つ減らす。これを割当可能総ビット数の方が大きくなるまで繰り返す。これによって各ユニットに割り当てる量子化ビット数データを算出する。
【0060】
正規化処理S1208は絶対値最大スペクトルデータ抽出処理S1205で算出した正規化基準データをもとにスペクトルオーディオデータを正規化し、正規化オーディオデータを算出する。
【0061】
量子化処理S1209は量子化ビット割当処理S1207で算出した量子化ビット数データから、正規化オーディオデータを量子化して符号化オーディオデータを算出する。
【0062】
多重化処理S1210は、量子化ビット数データ、正規化基準データ、符号化オーディオデータを第二の圧縮フォーマットに従って多重化処理を行い、多重化データを生成する。
【0063】
このように実施の形態4では、通常行われる伸長処理と再圧縮処理との連続処理において、伸長処理の際に得られる量子化ビットの割当情報を保持しておき、再圧縮処理時に圧縮装置固有の量子化ビット割当アルゴリズムを用いずに先の割当情報を用いて圧縮処理を行うために、最初の圧縮処理時の割当情報をほとんどそのまま用いることができ、再圧縮時に発生する音質劣化を軽減することができる。
【0064】
【発明の効果】
以上説明したように本発明によれば、一度オーディオデータに圧縮処理を施して得られた圧縮データを伸長して再圧縮を行う場合に、逆多重化によって得られた最初の圧縮処理時に各スペクトルデータに割り当てられた量子化ビット数等の情報を再圧縮処理時に利用することで、最初の圧縮処理で量子化ビットを割り当てた帯域に再圧縮時でも優先的に割り振ることができ、従来通り伸長処理後に再圧縮を行う場合よりも音質劣化を低減することが出来る。
【0065】
最初の圧縮方式と再圧縮時の圧縮方式とで、圧縮処理の過程が比較的似ている場合や、同じ場合で圧縮率を変換するだけの場合には、伸長処理時に必要となるパラメータを再圧縮時に適用する圧縮方式に適合する形に変換し、多重化することで最初の圧縮処理の情報を使用することができ、再圧縮時の音質劣化を低減することができる。
【0066】
また、二つの圧縮方式の間に類似性が少なくパラメータ変換などが困難な場合には、従来通り伸長処理を行った後、最圧縮処理を行うが、逆多重化で得られる前の圧縮処理でのパラメータを保持しておき、再圧縮時に参照することにより最初の圧縮処理で量子化ビットが割り当てられた帯域に量子化ビットを割り当てることができ、パラメータを参照しない場合に比較して音質劣化を低減することができる。
【0067】
以上、本発明の内容は装置として実施が可能であり、一方で計算機のプログラムででも実行が可能である。
【図面の簡単な説明】
【図1】第1の実施の形態であるオーディオ信号圧縮伸長装置のブロック図
【図2】第2の実施の形態であるオーディオ信号圧縮伸長装置のブロック図
【図3】第一の圧縮方式のデータを第二の圧縮方式のデータに変換するためのテーブルを示す図
【図4】従来例のオーディオ信号圧縮装置のブロック図
【図5】各ユニットに割り当てられる理想的な量子化ビット数と、圧縮装置によって割り当て方法が異なることを示した図
【図6】第3の実施の形態であるオーディオ信号圧縮伸長方法の処理の手順を示したフローチャート
【図7】第3の実施の形態であるオーディオ信号圧縮伸長方法の第一のデータ変換処理の処理手順を示したフローチャート
【図8】第3の実施の形態であるオーディオ信号圧縮伸長方法の第二のデータ変換処理の処理手順を示したフローチャート
【図9】第3の実施の形態であるオーディオ信号圧縮伸長方法の第三のデータ変換処理の処理手順を示したフローチャート
【図10】逆多重化処理を処理手順を示したフローチャート
【図11】多重化データの構成を示す図
【図12】第4の実施の形態であるオーディオ信号圧縮伸長方法の処理の手順を示したフローチャート
【図13】第4の実施の形態であるオーディオ信号圧縮伸長方法のデータ変換処理の処理手順を示したフローチャート
【図14】第4の実施の形態であるオーディオ信号圧縮伸長方法の量子化ビット割当処理の処理手順を示したフローチャート
【符号の説明】
101 逆多重化手段
102 第3のデータ変換手段
103 多重化手段
104 第2のデータ変換手段
105 第1のデータ変換手段[0001]
TECHNICAL FIELD OF THE INVENTION
BACKGROUND OF THE
[0002]
[Prior art]
A dubbing operation of reading data from a recording medium such as a CD or a magnetic tape or the like on which audio data is recorded by a reproducing device, transferring the data to the recording device, and recording the data on another recording medium by the recording device is common. Has been done. For example, a method of digitizing read audio data and then performing compression processing such as MPEG (Moving Picture Experts Coding Group) or ATRAC (Adaptive Transform Acoustic Coding) and recording the data on a recording medium in the form of compressed data is also common. It has become.
[0003]
When data compression is performed, music and image data of the same time can be compressed to several tenths to one tenth of a data amount, so that the amount of recording media used can be reduced, and the size of recording media can be reduced. Therefore, it is possible to reduce the size of the recording, recording, and playback devices. Also, in the distribution of audio data via a communication line, communication costs can be reduced by using compressed data.
[0004]
Many audio data compression methods use, for example, the human auditory characteristics to compress signal components that are difficult for humans to hear, and use short-length codes for code patterns that frequently appear using variable-length coding methods or conversion tables. By using a method of compressing a redundant portion at the time of encoding such as entropy encoding that replaces a pattern, a scheme has been devised to increase the compression ratio while minimizing deterioration of sound quality during reproduction. A compression method of audio data will be briefly described with reference to FIG.
[0005]
The
[0006]
The
[0007]
In human hearing, when the signal level falls below a certain signal level, there is a boundary that cannot be detected even if the signal itself exists, and the level changes depending on the frequency. This frequency characteristic is called minimum audibility, and when the magnitude of the spectrum data having the maximum absolute value of each group is equal to or less than the minimum audibility level, it can be regarded as a signal that cannot be detected by humans and the quantization bit No need to assign. In addition, quantization noise is generated when the spectrum data is quantized. However, even if the quantization noise remains, if its level is equal to or lower than the minimum audible level, there is no problem in the sense of hearing unless a human can detect it. Therefore, even if the signal level is large, if the minimum audible level is large, it is not necessary to allocate many quantization bits. In this way, by using the human auditory characteristics, it is possible to reduce the number of quantization bits to be allocated.
[0008]
The spectral data of each group is normalized by the maximum spectral data of the group, and is quantized by the previously determined number of quantization bits.
[0009]
The quantized audio data, the allocated bit number data and the normalized reference data are multiplexed according to a certain format. The number of data per frame of the multiplexed data is determined, and the number of quantization bits is usually insufficient in many cases. At this time, there is hardly any compression format clearly defining how many quantization bits are allocated to which spectral data group so as to fit in the limited data amount, and basically differs depending on each compression device.
[0010]
[Problems to be solved by the invention]
Until now, as described above, uncompressed audio data such as a compact disc was input and compressed by the compression method supported by the device, and it was often recorded on a recording medium to enjoy music. Opportunities for inputting compressed music data are increasing. For example, a user receives compressed data distributed by electronic distribution and records it on a recording medium. If the compression method of the distributed compressed data is the same as the corresponding compression method of the playback device owned by the user, playback can be performed on that device as it is, but the compression method of the compressed data and the device owned by the user correspond The compression method used may be different.
[0011]
In such a case, for example, the distributed compressed data must be decompressed by a computer or the like in accordance with the compression method, and further compressed again by a compression method supported by the device.
[0012]
Some compression methods use the same method and support a plurality of different compression ratios. If you want to re-record audio data of the same time with a smaller data amount, perform the decompression process once as described above. After recording, the data may be compressed and recorded in a mode having a higher compression rate.
[0013]
When compressing audio data, as described above, a limited number of quantization bits is allocated to data considered to be more perceptually effective in order to achieve a predetermined compression ratio. However, it goes without saying that the same method differs depending on a device or software to be executed.
[0014]
For example, as a result of calculating the number of quantization bits for a certain input signal using an auditory model or the like, a distribution of quantization bits as shown in 501 in FIG. 5 is obtained. Must be reduced.
The first compression method employs a method of uniformly reducing the number of quantization bits from the entire band as indicated by 502 in FIG. In this case, the blank cells correspond to the quantization noise. On the other hand, the second compression method employs a method of decreasing the number of bits to be allocated in order from the higher frequency unit as indicated by 503 in FIG.
[0015]
If the image is temporarily expanded after being compressed by the first compression method and then compressed again by the second compression method, even if a large number of quantization bits are assigned to the middle and low band signals, quantization noise is already included in the first compression. , So it does not return. Further, the remaining high-frequency signal in the first compression method is not assigned a quantization bit by the second compression method, and the sound quality is degraded.
[0016]
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-described problems, and it is possible to minimize the sound quality deterioration that occurs when recompressing when expanding and recompressing compressed audio data. It is an object of the present invention to provide an audio signal compression / decompression apparatus and method.
[0017]
[Means for Solving the Problems]
An audio signal compression / decompression apparatus and method according to the present invention solves the above-described problem by taking the following means. That is, the audio data is compressed by the first compression method, and the multiplexed data multiplexed together with the parameters required for the decompression process are separated into quantized audio data and the parameters required for the decompression process by demultiplexing. The encoded audio data and the parameter data are respectively converted into data conforming to the format of the second compression method, and are multiplexed as they are to generate multiplexed data conforming to the format of the second compression method.
Further, the parameter holding device holds the parameter data obtained at the time of demultiplexing, expands the coded data compressed by the first compression method, and then re-compresses the data by the second compression method. The number of quantization bits to be allocated to each unit is determined with reference to the stored parameters.
[0018]
According to the present invention, after audio data is generated by temporarily expanding compressed audio data, when the audio data is compressed again by another compression method or the same compression method, the components remaining in the first compression processing are removed. By extracting and storing the decompressed parameters and the quantized audio data itself, and using them at the time of recompression, it is possible to reduce sound quality degradation that normally occurs at the time of recompression.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, specific embodiments of an audio signal compression / decompression apparatus and method according to the present invention will be described in detail with reference to the drawings.
[0020]
(Embodiment 1)
In the first embodiment, the multiplexed data generated by the first compression processing is demultiplexed and separated into quantized audio data and parameter data, and each data is converted so as to be compatible with the second compression method. The multiplexing reduces the sound quality deterioration that has conventionally been caused by continuously performing the decompression processing and the recompression processing.
[0021]
The audio signal compression / decompression device according to the first embodiment will be described below with reference to FIGS. FIG. 1 is a block diagram showing a configuration of an audio signal compression / decompression device according to
[0022]
The demultiplexing means 101 converts the multiplexed
[0023]
The
[0024]
The total number of allocated bits is calculated from the updated quantized bit number data, and it is checked whether it is larger than the number of words of the multiplexed data according to the second compression method. If the total number of allocated bits by the first compression method is larger, the number of allocated bits is reduced by one from the highest band unit until the total number of allocated bits by the first compression method becomes smaller. Go.
[0025]
The second
The third data conversion means 102 converts the encoded
[0026]
The multiplexing means 103 multiplexes the audio encoded
[0027]
As described above, in the first embodiment, when audio data compressed by a certain compression method is decompressed and re-compressed, the encoded data and parameters are converted according to the re-compression method without actually decompressing. Allocation information at the time of the first compression process can be used almost as it is, and sound quality degradation that occurs at the time of recompression can be reduced.
[0028]
(Embodiment 2)
In the second embodiment, the parameters used in the decompression process are separately stored, and the data is referred to at the time of recompression to reduce the sound quality deterioration.
[0029]
Hereinafter, the audio signal compression / decompression device according to the second embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration of an audio signal compression / decompression apparatus according to
[0030]
The demultiplexing means 201 separates the multiplexed
[0031]
The
[0032]
The
[0033]
The
[0034]
The
[0035]
On the other hand, the
[0036]
The quantization
[0037]
The
[0038]
The
[0039]
As described above, in the second embodiment, in the continuous processing of the decompression processing and the recompression processing which are normally performed, the allocation information of the quantization bits obtained at the time of the decompression processing is held, and the compression apparatus specific information is stored at the time of the recompression processing. Since the compression processing is performed using the previous allocation information without using the quantization bit allocation algorithm, the allocation information at the time of the first compression processing can be used almost as it is, and the sound quality deterioration occurring at the time of recompression is reduced. be able to.
[0040]
(Embodiment 3)
In the third embodiment, the multiplexed data generated by the first compression processing is demultiplexed and separated into quantized audio data and parameter data, and each data is converted so as to be compatible with the second compression method. The multiplexing reduces the sound quality deterioration that has conventionally been caused by continuously performing the decompression processing and the recompression processing.
[0041]
Hereinafter, an audio signal compression / decompression method according to the third embodiment will be described with reference to FIGS. 6, 7, 8, 9, 10, and 11. FIG. 6 is a flowchart showing the processing order of the audio signal compression / decompression method according to
[0042]
The demultiplexing process S602 is a process for extracting multiplexed data from the multiplexed data 1000.
[0043]
The first data conversion process S903 is a process of converting the quantized bit number data 1102 extracted in the demultiplexing process S902 into a data format according to the second compression method. First, the number of bits used for the
[0044]
Next, the sizes of SUM1 and SUM2 are compared, and if SUM1 is large, that is, if the number of quantization bits is insufficient in the second compression method as it is, quantization bits of the high-frequency unit are Recalculate by reducing the number by 1 and subtracting the number of spectra contained in the unit from SUM1. This is repeated until SUM1 becomes equal to or less than SUM2. An allocation bit update flag is attached to a unit in which the number of quantization bits has been reduced by 1, so that the unit whose quantization bit number data has been changed in this process can be identified by this flag.
[0045]
When SUM1 becomes equal to or less than SUM2, each quantized bit number data is converted into a form conforming to the second compression method. In the first compression method, the quantization bit number data is the data of the number of bits allocated to the unit as it is, but in the second compression method, the data is obtained by adding 1 to the actually allocated bit number. Here, conversion is performed by adding 1 to each data.
[0046]
The second data conversion processing S904 is processing for converting the normalized
[0047]
The maximum value (MAX # SF2) and the minimum value (MIN # SF2) of the normalized reference data in the second compression method are stored in advance. The normalized reference data of each unit extracted from the multiplexed data in the demultiplexing process S902 is compared with MAX # SF2. If it is larger than MAX # SF2, the corresponding normalized reference data cannot be treated as data in the second compression method, and is therefore replaced with MAX # SF2. Similarly, if it is smaller than MIN # SF2 compared to MIN # SF2, it is replaced with MIN # SF2. A unit for which such replacement processing has occurred is provided with a normalization reference data update flag so that the unit whose data has been changed by this processing can be identified by this flag. Thereafter, the normalized reference data is converted into a format according to the second compression format. This is performed for all units, and the process ends.
[0048]
The third data conversion processing S905 is processing for converting the encoded
[0049]
For each unit, a data update flag (SFFi, BITFi) attached when the data is changed by the first data conversion method S903 and the second data conversion method S904 is read, and whether it is 1 or not is checked. If either the assigned bit data or the normalized reference data has been changed, the coded audio data contained in that unit is once dequantized with the assigned bit data and the normalized reference data before the change and returned to the audio spectrum data. After that, the quantization is performed again using the changed assigned bit data and the normalized reference data. However, when both SFFi and BITFi are 0, nothing is performed. Then, the encoded data is converted into a format according to the second compression method. Here, a table is prepared so that the coded data obtained from the quantization bit number data, the normalized reference data, and the coded data of the corresponding unit is prepared, and conversion can be performed by table lookup.
[0050]
The multiplexing processing S906 is based on the parameters obtained from the demultiplexing processing S902, the first data conversion processing S903, the second data conversion processing S904, and the third data conversion processing S905. The compressed data is generated, and the compression process ends.
[0051]
As described above, in the third embodiment, when audio data compressed by a certain compression method is decompressed and re-compressed, the encoded data and parameters are converted according to the re-compression method without actually decompressing. Allocation information at the time of the first compression process can be used almost as it is, and sound quality degradation that occurs at the time of recompression can be reduced.
(Embodiment 4)
In the fourth embodiment, the parameters used in the decompression process are separately stored, and the sound quality is reduced by referring to the data at the time of recompression.
[0052]
Hereinafter, the audio signal compression / decompression method according to the fourth embodiment will be described with reference to FIGS. 12, 13, 14, and 11. FIG. 12 is a flowchart showing the processing order of the audio signal compression / decompression method according to
[0053]
The demultiplexing process S1202 performs the same process as the demultiplexing process S902 in FIG. 9 and indicates the number of
[0054]
The decompression process S1203 performs inverse quantization, inverse normalization, and inverse orthogonal transform on the encoded audio data 1404 using the quantization
[0055]
In the orthogonal transform S1204, the digital audio data obtained in the decompression process S1203 is subjected to an orthogonal transform to obtain spectral audio data.
[0056]
The absolute value maximum spectrum data extraction processing S1205 divides the spectrum audio data into groups defined by the second compression method, and calculates the maximum absolute value among the spectrum data included in each unit.
[0057]
The data conversion processing S1206 is processing for outputting bit allocation information from the quantized
[0058]
The quantization bit allocation processing S1207 calculates the number of quantization bits based on the ratio data to the total number of quantization bits obtained in the data conversion processing S1206. FIG. 14 is a detailed flowchart of the quantization bit allocation process. The total number of allocated bits that can be allocated to spectrum audio data by the second compression method is calculated in advance. For each unit in the second compression method, first, ratio data with respect to the total number of quantization bits is read, and the number of quantization bits to be allocated to the corresponding unit is calculated by multiplying the data by the total number of allocated bits. It is checked whether the calculation result is a multiple of the number of spectra included in the corresponding unit, and if not, it is replaced with a multiple that is larger than the calculation result.
[0059]
After calculation is performed for all units, the total number of bits allocated to all units is calculated, and the total number of bits that can be allocated is compared with the size. If the total number of bits that can be allocated is smaller, the number of bits allocated to each spectrum data from the high-band unit is reduced by one. This is repeated until the total number of assignable bits becomes larger. Thereby, quantization bit number data to be allocated to each unit is calculated.
[0060]
The normalization processing S1208 normalizes the spectrum audio data based on the normalization reference data calculated in the absolute value maximum spectrum data extraction processing S1205, and calculates normalized audio data.
[0061]
A quantization process S1209 quantizes the normalized audio data from the quantization bit number data calculated in the quantization bit allocation process S1207 to calculate encoded audio data.
[0062]
The multiplexing processing S1210 performs multiplexing processing on the quantization bit number data, the normalization reference data, and the encoded audio data according to the second compression format to generate multiplexed data.
[0063]
As described above, in the fourth embodiment, in the continuous processing of the decompression processing and the recompression processing that are normally performed, the allocation information of the quantization bits obtained at the time of the decompression processing is held, and the compression apparatus unique Since the compression processing is performed using the previous allocation information without using the quantization bit allocation algorithm, the allocation information at the time of the first compression processing can be used almost as it is, and the sound quality deterioration occurring at the time of recompression is reduced. be able to.
[0064]
【The invention's effect】
As described above, according to the present invention, when decompressing and recompressing compressed data obtained by once performing compression processing on audio data, each spectrum is decompressed at the first compression processing obtained by demultiplexing. By using information such as the number of quantization bits assigned to data at the time of recompression processing, it is possible to preferentially allocate to the band to which quantization bits were assigned in the first compression processing even at the time of recompression, and expand as before Sound quality deterioration can be reduced as compared with the case where recompression is performed after the processing.
[0065]
If the compression process is relatively similar between the initial compression method and the compression method at the time of recompression, or if only the compression ratio is converted when the compression method is the same, the parameters necessary for the decompression process are reset. By converting the data into a form suitable for the compression method applied at the time of compression and multiplexing, the information of the first compression processing can be used, and the sound quality deterioration at the time of recompression can be reduced.
[0066]
If the two compression methods have little similarity and it is difficult to perform parameter conversion, etc., the decompression process is performed as before, and the re-compression process is performed, but the compression process before demultiplexing is performed. By holding the parameters and referencing them at the time of recompression, the quantization bits can be assigned to the band to which the quantization bits have been assigned in the first compression processing. Can be reduced.
[0067]
As described above, the contents of the present invention can be implemented as an apparatus, and can also be executed by a computer program.
[Brief description of the drawings]
FIG. 1 is a block diagram of an audio signal compression / decompression device according to a first embodiment;
FIG. 2 is a block diagram of an audio signal compression / decompression device according to a second embodiment;
FIG. 3 is a diagram showing a table for converting data of a first compression method into data of a second compression method;
FIG. 4 is a block diagram of a conventional audio signal compression device.
FIG. 5 is a diagram showing an ideal number of quantization bits allocated to each unit and a different allocation method depending on a compression device.
FIG. 6 is a flowchart showing the processing procedure of an audio signal compression / decompression method according to a third embodiment;
FIG. 7 is a flowchart showing a processing procedure of a first data conversion process of the audio signal compression / decompression method according to the third embodiment;
FIG. 8 is a flowchart showing a processing procedure of a second data conversion process of the audio signal compression / decompression method according to the third embodiment;
FIG. 9 is a flowchart showing a processing procedure of a third data conversion process of the audio signal compression / expansion method according to the third embodiment;
FIG. 10 is a flowchart showing a processing procedure of demultiplexing processing;
FIG. 11 is a diagram showing a configuration of multiplexed data.
FIG. 12 is a flowchart showing a procedure of processing of an audio signal compression / expansion method according to a fourth embodiment;
FIG. 13 is a flowchart showing a processing procedure of data conversion processing of an audio signal compression / expansion method according to a fourth embodiment;
FIG. 14 is a flowchart showing a procedure of a quantization bit allocation process in the audio signal compression / decompression method according to the fourth embodiment;
[Explanation of symbols]
101 demultiplexing means
102 Third data conversion means
103 multiplexing means
104 second data conversion means
105 First data conversion means
Claims (5)
逆多重化手段によって生成された第一の圧縮方式によって圧縮、量子化された第一の符号化オーディオデータを第二の圧縮方式に適合する符号化オーディオデータに変換する符号化オーディオデータ変換手段と、
前記逆多重化手段によって生成された前記第一の符号化オーディオデータを伸長するために必要な複数のパラメータを前記第二の圧縮方式に適合するパラメータに変換するパラメータ変換手段と、
を具備することを特徴とするオーディオ信号圧縮伸長装置。The digital audio signal on the time axis is converted into a spectrum signal on the frequency axis for each predetermined time frame, and the generated spectrum signal for each frame is divided into a plurality of units, and each unit is included in the unit. The spectral signal of the maximum level is detected from the spectral signals to be detected, and the spectral signal contained in each unit is compressed, encoded and expanded by allocating a predetermined number of quantization bits based on the auditory characteristics according to the maximum level. The multiplexed data obtained by multiplexing with the necessary parameters is transmitted or recorded on the recording medium, and the multiplexed data read or transmitted from the recording medium is demultiplexed to obtain the necessary parameters and codes at the time of decompression. Separates the encoded data, dequantizes the encoded data using parameters, and To generate a signal, an audio signal decompression apparatus for generating audio data in the time domain by an inverse transform,
Encoding audio data converting means for converting the first encoded audio data compressed and quantized by the first compression method generated by the demultiplexing means into encoded audio data conforming to the second compression method; ,
Parameter conversion means for converting a plurality of parameters required to decompress the first encoded audio data generated by the demultiplexing means into parameters compatible with the second compression method,
An audio signal compression / decompression device comprising:
前記第一の複数のパラメータを保持するパラメータ保持手段と、
前記パラメータ保持手段に保持されている前記第一の複数のパラメータを参照して、量子化ビットの割当を決める量子化ビット割当手段と、
を具備することを特徴とするオーディオ信号圧縮伸長装置。After expanding the first encoded audio data into an audio signal using the plurality of parameters, when re-compressing by the second compression method,
Parameter holding means for holding the first plurality of parameters,
With reference to the first plurality of parameters held in the parameter holding means, quantization bit allocation means to determine the allocation of quantization bits,
An audio signal compression / decompression device comprising:
逆多重化手段によって生成された第一の圧縮方式によって圧縮、量子化された第一の符号化オーディオデータを第二の圧縮方式に適合する符号化オーディオデータに変換する符号化オーディオデータ変換ステップと、
前記逆多重化手段によって生成された前記第一の符号化オーディオデータを伸長するために必要な複数のパラメータを前記第二の圧縮方式に適合するパラメータに変換するパラメータ変換ステップと、
を具備することを特徴とする、オーディオ信号圧縮伸長方法。The digital audio signal on the time axis is converted into a spectrum signal on the frequency axis for each predetermined time frame, and the generated spectrum signal for each frame is divided into a plurality of units, and each unit is included in the unit. The spectrum signal of the maximum level is detected from the spectrum signals to be detected, and the spectrum signal included in each unit is compressed, encoded and expanded by allocating a predetermined number of quantization bits based on the auditory characteristics according to the maximum level. The multiplexed data obtained by multiplexing with the necessary parameters is transmitted or recorded on the recording medium, and the multiplexed data read or transmitted from the recording medium is demultiplexed to encode the necessary parameters at the time of decompression. Separate the data and dequantize the encoded data using the parameters to obtain the spectrum It generates No., an audio signal decompression method for generating audio data in the time domain by an inverse transform,
An encoded audio data converting step of converting the first encoded audio data compressed and quantized by the first compression method generated by the demultiplexing means into encoded audio data conforming to the second compression method; ,
A parameter conversion step of converting a plurality of parameters necessary for decompressing the first encoded audio data generated by the demultiplexing means into parameters compatible with the second compression method;
An audio signal compression / expansion method characterized by comprising:
前記第一の複数のパラメータを保持するパラメータ保持ステップと、
前記パラメータ保持手段に保持されている前記第一の複数のパラメータを参照して、各ユニットに割り当てる量子化ビット数を決める量子化ビット割当ステップとを具備することを特徴とするオーディオ信号圧縮伸長方法。After expanding the first encoded audio data into an audio signal using the plurality of parameters, when re-compressing by the second compression method,
A parameter holding step of holding the first plurality of parameters,
An audio signal compression / expansion method, comprising: a quantization bit allocation step of determining the number of quantization bits allocated to each unit by referring to the first plurality of parameters held in the parameter holding means. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002257649A JP2004094090A (en) | 2002-09-03 | 2002-09-03 | System and method for compressing and expanding audio signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002257649A JP2004094090A (en) | 2002-09-03 | 2002-09-03 | System and method for compressing and expanding audio signal |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004094090A true JP2004094090A (en) | 2004-03-25 |
Family
ID=32062499
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002257649A Pending JP2004094090A (en) | 2002-09-03 | 2002-09-03 | System and method for compressing and expanding audio signal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004094090A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014068995A1 (en) * | 2012-11-05 | 2014-05-08 | パナソニック株式会社 | Speech audio encoding device, speech audio decoding device, speech audio encoding method, and speech audio decoding method |
-
2002
- 2002-09-03 JP JP2002257649A patent/JP2004094090A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014068995A1 (en) * | 2012-11-05 | 2014-05-08 | パナソニック株式会社 | Speech audio encoding device, speech audio decoding device, speech audio encoding method, and speech audio decoding method |
CN104737227A (en) * | 2012-11-05 | 2015-06-24 | 松下电器(美国)知识产权公司 | Speech audio encoding device, speech audio decoding device, speech audio encoding method, and speech audio decoding method |
JPWO2014068995A1 (en) * | 2012-11-05 | 2016-09-08 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Speech acoustic encoding apparatus, speech acoustic decoding apparatus, speech acoustic encoding method, and speech acoustic decoding method |
US9679576B2 (en) | 2012-11-05 | 2017-06-13 | Panasonic Intellectual Property Corporation Of America | Speech audio encoding device, speech audio decoding device, speech audio encoding method, and speech audio decoding method |
US9892740B2 (en) | 2012-11-05 | 2018-02-13 | Panasonic Intellectual Property Corporation Of America | Speech audio encoding device, speech audio decoding device, speech audio encoding method, and speech audio decoding method |
RU2648629C2 (en) * | 2012-11-05 | 2018-03-26 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Speech audio encoding device, speech audio decoding device, speech audio encoding method and speech audio decoding method |
RU2678657C1 (en) * | 2012-11-05 | 2019-01-30 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Speech audio encoding device, speech audio decoding device, speech audio encoding method and speech audio decoding method |
US10210877B2 (en) | 2012-11-05 | 2019-02-19 | Panasonic Intellectual Property Corporation Of America | Speech audio encoding device, speech audio decoding device, speech audio encoding method, and speech audio decoding method |
RU2701065C1 (en) * | 2012-11-05 | 2019-09-24 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Speech-audio encoding device, speech-audio decoding device, speech-audio encoding method and speech-audio decoding method |
US10510354B2 (en) | 2012-11-05 | 2019-12-17 | Panasonic Intellectual Property Corporation Of America | Speech audio encoding device, speech audio decoding device, speech audio encoding method, and speech audio decoding method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3926726B2 (en) | Encoding device and decoding device | |
JP5048697B2 (en) | Encoding device, decoding device, encoding method, decoding method, program, and recording medium | |
JP3336617B2 (en) | Signal encoding or decoding apparatus, signal encoding or decoding method, and recording medium | |
JP5048680B2 (en) | Audio signal encoding and decoding method, audio signal encoding and decoding apparatus | |
KR100310214B1 (en) | Signal encoding or decoding device and recording medium | |
JP5175028B2 (en) | Digital signal encoding method and apparatus, and decoding method and apparatus | |
JP2006011456A (en) | Method and device for coding/decoding low-bit rate and computer-readable medium | |
USRE46082E1 (en) | Method and apparatus for low bit rate encoding and decoding | |
JP4628861B2 (en) | Digital signal encoding method using a plurality of lookup tables, digital signal encoding apparatus, and a plurality of lookup table generation methods | |
JP2006126826A (en) | Audio signal coding/decoding method and its device | |
WO1995032499A1 (en) | Encoding method, decoding method, encoding-decoding method, encoder, decoder, and encoder-decoder | |
US7835915B2 (en) | Scalable stereo audio coding/decoding method and apparatus | |
JP4308229B2 (en) | Encoding device and decoding device | |
US20020169601A1 (en) | Encoding device, decoding device, and broadcast system | |
JP2000059227A (en) | Encoding and decoding device and its method | |
JP2005328533A (en) | Method and apparatus for encoding/decoding digital signal utilizing linear quantization by blocks | |
JPH0846516A (en) | Device and method for information coding, device and method for information decoding and recording medium | |
US20130085762A1 (en) | Audio encoding device | |
JP3304750B2 (en) | Lossless encoder, lossless recording medium, lossless decoder, and lossless code decoder | |
JP4627737B2 (en) | Digital data decoding device | |
JP2004094090A (en) | System and method for compressing and expanding audio signal | |
JP4649351B2 (en) | Digital data decoding device | |
JPH1083623A (en) | Signal recording method, signal recorder, recording medium and signal processing method | |
JPH0863901A (en) | Method and device for recording signal, signal reproducing device and recording medium | |
KR100433984B1 (en) | Method and Apparatus for Encoding/decoding of digital audio |