JPH11109994A - Device and method for encoding musical sound and storage medium recording musical sound encoding program - Google Patents

Device and method for encoding musical sound and storage medium recording musical sound encoding program

Info

Publication number
JPH11109994A
JPH11109994A JP9266119A JP26611997A JPH11109994A JP H11109994 A JPH11109994 A JP H11109994A JP 9266119 A JP9266119 A JP 9266119A JP 26611997 A JP26611997 A JP 26611997A JP H11109994 A JPH11109994 A JP H11109994A
Authority
JP
Japan
Prior art keywords
quantization
unit
frequency
tone
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9266119A
Other languages
Japanese (ja)
Other versions
JP3437421B2 (en
Inventor
Nobuyoshi Umiki
延佳 海木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP26611997A priority Critical patent/JP3437421B2/en
Publication of JPH11109994A publication Critical patent/JPH11109994A/en
Application granted granted Critical
Publication of JP3437421B2 publication Critical patent/JP3437421B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve quality and a compression rate by resetting a quantization width of a parameter of a frequency band based on information related to the quantization error of the parameter of the frequency band from a quantization part and outputting it to the quantization part. SOLUTION: The quantization part 16 calculates the quantization encoding data from the parameters of respective frequencies calculated by a time-frequency conversion part 12 based on precision of quantization bits in respective frequency components for quantization calculated by an auditory sense model calculation part 18. A minimum error selection part 17 selects one with less errors between error amounts of quantization of a frequency parameter pair affecting each other from the error amount of the quantization of the parameters of respective frequencies inputted from the quantization part 16 to output quantization error information to the quantization part 16. Then, the quantization part 16 sets again the quantization encoding data such as respective frequency components, the size of the parameter of a band, quantization precision, the quantization data, etc., based on the selected quantization error information to output them to an encoding line generation part 19.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】任意の入力楽音を分析、圧縮
し符号化する楽音符号化装置及び楽音符号化方法並びに
楽音符号化プログラムを記録した記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a tone encoding apparatus, a tone encoding method, and a recording medium storing a tone encoding program for analyzing, compressing and encoding an arbitrary input tone.

【0002】[0002]

【従来の技術】楽音の符合化による楽音符号化復号化装
置では、1)聴覚的に符号化再生後の再現性が高く、
2)処理量が少なく、3)圧縮率の高い方式が望まれて
いる。このため楽音圧縮にあたっては、楽音データを時
間領域から周波数領域に変換し、周波数領域において用
いられていない周波数帯域の成分を伝送しないと同時
に、人間の聴覚モデルに従い主に、1)同時マスキン
グ、2)最少可聴限のモデル等に基づき各周波数帯域に
おける伝送ビット幅を制限することにより高圧縮率を実
現している。
2. Description of the Related Art A musical sound encoding / decoding apparatus which encodes musical sounds 1) has a high reproducibility after encoding and reproduction.
There is a demand for 2) a system with a small amount of processing and 3) a system with a high compression ratio. For this reason, when compressing a musical tone, the musical tone data is converted from the time domain to the frequency domain, and components in a frequency band not used in the frequency domain are not transmitted, and at the same time, mainly 1) simultaneous masking, 2 3.) A high compression rate is realized by limiting the transmission bit width in each frequency band based on the model of the minimum audibility.

【0003】時間領域から周波数領域への変換の1手法
としてサブバンドコーディング(SBC)による方式が
ある。本方式は信号に対して、バンドパスフィルタを通
し希望とする周波数帯域のみを通過させることにより、
周波数帯域に分割するものである。この際、演算量・デ
ータ量を減少させるためダウンサンプリングするが、フ
ィルタのサイドロープによる影響のためエイリアシング
が生じる。エイリアシングの影響を最小限にするために
は演算量は多くなるが次数の高いフィルタを構成する必
要がある。この問題を解決するため、QMFフィルタを
構成し、合成時にこのエイリアシングの影響を除去する
方法が多く取られてきた。
[0003] As one method of conversion from the time domain to the frequency domain, there is a method using sub-band coding (SBC). This method allows a signal to pass through only a desired frequency band through a band-pass filter,
It is divided into frequency bands. At this time, downsampling is performed to reduce the amount of calculation and the amount of data, but aliasing occurs due to the influence of the side rope of the filter. In order to minimize the effect of aliasing, the amount of calculation is large, but it is necessary to construct a high-order filter. In order to solve this problem, many methods have been adopted to construct a QMF filter and remove the influence of the aliasing at the time of synthesis.

【0004】また、時間領域から周波数領域への変換へ
の一般的な手法としてMDCTのようなトランスフォー
ムコーディング(TFC)による方法がある。このTF
CとSBCを組み合わせ、各周波数帯域で信号の定常性
を調べ、定常的な場合は分析窓を長くして周波数分解能
を上げ、非定常な場合は分析窓を短くすることによって
時間分解能を上げることによって、より圧縮率が高く再
現性の良い楽音符号化を実現している。
As a general method for converting from the time domain to the frequency domain, there is a method using transform coding (TFC) such as MDCT. This TF
Combine C and SBC to check the continuity of the signal in each frequency band. If stationary, increase the analysis window to increase the frequency resolution, and if non-stationary, shorten the analysis window to increase the time resolution. As a result, tone encoding with higher compression ratio and good reproducibility is realized.

【0005】これらSBCとTFCを組み合わせた楽音
圧縮手法の代表的なものとしては、MDに使われている
ATRAC方式、MPEG1、2のLayer3が良く
知られている。MPEGのLayer3(JIS規格
X4323、及び ISO/IEC11172―3参
照)では、SBCにQMFフィルタを用い、その後TF
CにMDCT分析を用いて楽音を符号化復号化してい
る。ここでは符号化時の量子化誤差によりエイリアシン
グの影響が十分に取り除けない問題を解決するための折
り返し歪み削減器の構成が示してあり、この構成を用い
ることによりQMFフィルタの悪影響をある程度防ぐこ
とが可能となっている。
[0005] As a typical tone compression method combining SBC and TFC, the ATRAC system used in MD and the Layer 3 of MPEG1 and MPEG2 are well known. MPEG Layer 3 (JIS standard)
X4323 and ISO / IEC11172-3), a QMF filter is used for SBC, and then TF
The musical tone is encoded and decoded using the MDCT analysis for C. Here, the configuration of the aliasing distortion reducer for solving the problem that the effects of aliasing cannot be sufficiently removed due to the quantization error at the time of encoding is shown. By using this configuration, it is possible to prevent the adverse effect of the QMF filter to some extent. It is possible.

【0006】図6は、従来の楽音圧縮符号化装置の構成
を概略的に示したブロック図である。図6の楽音符号化
装置は、楽音入力部10′、周波数帯域分割(QMFフ
ィルタ)部11′、時間−周波数変換部12′、量子化
部16′、聴覚モデル算出部18′、符号化列生成部1
9′により構成されている。以下、上記の楽音符号化の
構成要素の動作を説明する。まず、楽音入力部10′は
楽音を入力して、分析フレーム単位に楽音波形を切り出
し、周波数帯域分割(QMFフィルタ)部11′及び聴
覚モデル算出部18′に出力する。
FIG. 6 is a block diagram schematically showing a configuration of a conventional tone compression encoding apparatus. The musical sound encoding device shown in FIG. 6 includes a musical sound input unit 10 ', a frequency band division (QMF filter) unit 11', a time-frequency conversion unit 12 ', a quantization unit 16', an auditory model calculation unit 18 ', and a coded sequence. Generator 1
9 '. Hereinafter, the operation of the above-described musical tone encoding components will be described. First, the musical sound input unit 10 'inputs a musical sound, cuts out a musical sound waveform in analysis frame units, and outputs it to a frequency band dividing (QMF filter) unit 11' and an auditory model calculating unit 18 '.

【0007】周波数帯域分割(QMFフィルタ)部1
1′は、楽音入力部10′から出力された楽音波形をQ
MFフィルタを通し希望とする周波数帯域のみを通過さ
せることにより、特定の周波数帯域のみを含む時間波形
データにいくつか分割した後、ダウンサンプリングを施
しサンプリング変換を施した後、時間−周波数変換部1
2′に出力する。時間−周波数変換部12′は、幾つか
に分割されたの特定の周波数帯域のみを含む時間波形デ
ータを、MDCTなどの手法を用いて、各々周波数帯域
毎に周波数領域のパラメータに変換し、量子化部16′
に出力する。
Frequency band division (QMF filter) section 1
1 'represents the tone waveform output from the tone input unit 10' as Q
By passing only a desired frequency band through an MF filter, the data is divided into several pieces of time waveform data including only a specific frequency band, down-sampled and subjected to sampling conversion, and then the time-frequency conversion unit 1
Output to 2 '. The time-frequency conversion unit 12 'converts time waveform data including only a specific frequency band divided into several parts into frequency-domain parameters for each frequency band by using a method such as MDCT. Transformation part 16 '
Output to

【0008】聴覚モデル算出部18′は、楽音入力部1
0′から出力された楽音波形をFFT等を用いて周波数
分析を行い、同時マスキング・最小可聴限などの聴覚モ
デルに従い、量子化のための周波数帯域における量子化
ビットの精度を決定し、量子化部16′に出力する。量
子化部16′は、聴覚モデル算出部18′によって算出
された量子化のための各周波数帯域における量子化ビッ
トの精度に基づいて、時間−周波数変換部12′によっ
て変換された各周波数の周波数領域の特徴パラメータの
精度を打ち切り、各周波数のパラメータの大きさ、量子
化精度、量子化データ等の量子化符号化データを符号化
列生成部19′に出力する。
[0008] The auditory model calculating section 18 'is provided with the musical sound input section 1
The tone waveform output from 0 'is subjected to frequency analysis using FFT or the like, and the precision of quantization bits in a frequency band for quantization is determined in accordance with an auditory model such as simultaneous masking and minimum audibility. Output to the unit 16 '. The quantization unit 16 ′ converts the frequency of each frequency converted by the time-frequency conversion unit 12 ′ based on the precision of the quantization bit in each frequency band for quantization calculated by the auditory model calculation unit 18 ′. The precision of the feature parameter of the region is cut off, and the quantized coded data such as the magnitude of the parameter of each frequency, the quantization precision, and the quantized data are output to the coded sequence generation unit 19 '.

【0009】最後に符号化列生成部19′では、楽音符
号化部16′によって生成された各周波数のパラメータ
の大きさ・量子化精度・量子化データ等の量子化符号化
データを伝送/蓄積し圧縮率が高くなるように符号化列
に変換し、符号列出力部20′により伝送/蓄積され
る。ここで周波数帯域分割部(QMFフィルタ)1
1′、時間−周波数変換部12′、量子化部16′、符
号化列生成部19′、聴覚モデル算出部18′の構成要
素(図4の点線で囲んだ部分)は符号化制御部21′に
より制御を行うことも可能である。この場合、符号化制
御部21′を計算機で構成し、上述の図4中の点線で囲
んだ範囲の構成要素をプログラムにより実現することが
可能である。
Finally, a coded sequence generator 19 'transmits / accumulates quantized coded data such as parameter size, quantization accuracy, and quantized data of each frequency generated by the musical sound coder 16'. Then, it is converted into a coded sequence so as to increase the compression rate, and transmitted / stored by the coded sequence output unit 20 '. Here, a frequency band division unit (QMF filter) 1
1 ', a time-frequency conversion unit 12', a quantization unit 16 ', a coded sequence generation unit 19', and components of the auditory model calculation unit 18 '(portions surrounded by dotted lines in FIG. 4) are a coding control unit 21. ′ Can be used for control. In this case, it is possible to configure the encoding control unit 21 'with a computer, and realize the components in the range surrounded by the dotted line in FIG. 4 by a program.

【0010】[0010]

【発明が解決しようとする課題】QMFフィルタを利用
することにより、合成時にエイリアシング成分を原理的
に完全に削除することが可能である。しかしながら、符
号化時に圧縮率を高めるため、荒い量子化を行いデータ
量の削減を行っているため、合成時にエイリアシング成
分を十分に削減できず、その量子化誤差が聴覚的に知覚
されてしまうという問題があった。
By using a QMF filter, it is possible in principle to completely eliminate aliasing components during synthesis. However, since the amount of data is reduced by performing rough quantization in order to increase the compression rate during encoding, aliasing components cannot be reduced sufficiently during synthesis, and the quantization error is perceptually perceived. There was a problem.

【0011】これに対して上記、MPEGのLayer
3の折り返し歪み削減器では、MDCT分析を行って算
出した周波数成分(MDCT係数)に対して折り返し歪
みを取り除くことによって問題を解決しようとしてい
る。この場合、合成時にQMFフィルタを用いているた
め、折り返し歪み成分を推定し、周波数成分に加算した
周波数成分(MDCT係数)を合成した後、時間成分に
変換している。しかしながら、符号化時に量子化を行っ
ているため、折り返し歪みを加算した周波数成分(MD
CT係数)の量子化誤差は、聴覚的に知覚可能な場合が
あるという問題があった。
On the other hand, the MPEG Layer
The aliasing distortion reducer of No. 3 attempts to solve the problem by removing aliasing from the frequency component (MDCT coefficient) calculated by performing the MDCT analysis. In this case, since the QMF filter is used at the time of synthesis, the aliasing component is estimated, the frequency component (MDCT coefficient) added to the frequency component is synthesized, and then the time component is converted. However, since quantization is performed at the time of encoding, the frequency component (MD
There is a problem that the quantization error of the (CT coefficient) may be audibly perceptible.

【0012】そこで本発明の目的は、上述の折り返し歪
みが与える影響を実用上充分な、すなわち聴覚的に判別
できない程度に削減することである。このためには、影
響しあう周波数データ対の量子化を、エイリアシング成
分を含んでいることを前提に、折り返し歪みを聴覚的に
判別できない程度の精度に量子化の大きさを決定すれば
良い。
An object of the present invention is to reduce the influence of the aliasing described above to a practically sufficient level, that is, to such an extent that it cannot be discriminated aurally. For this purpose, the magnitude of quantization may be determined to such an accuracy that aliasing components cannot be discriminated audibly, assuming that the frequency data pairs that influence each other include an aliasing component.

【0013】この課題を解決する方法は、折り返し歪み
として影響しあう周波数成分の量子化誤差をも考慮し、
双方の量子化誤差が同一になるように誤差の少ない方を
採用するように双方の量子化方法を決定することであ
る。この場合はMPEGのLayer3と比較して、符
号化時に折り返し歪みを推定し削減することや復号化時
に折り返し歪みを推定し加算する必要がなくなり処理構
成が簡略化される。
The method for solving this problem also takes into account quantization errors of frequency components that affect each other as aliasing distortion.
That is, both quantization methods are determined so as to adopt a smaller error so that both quantization errors become the same. In this case, compared with Layer 3 of MPEG, it is not necessary to estimate and reduce aliasing distortion at the time of encoding, and it is not necessary to estimate and add aliasing distortion at the time of decoding, thereby simplifying the processing configuration.

【0014】さらに圧縮率を高めるためには、周波数成
分の量子化誤差から折り返し歪みの誤差が推定できる
が、この推定される折り返し歪みの誤差が聴覚的に判別
できないようにすると同時に、従来通りその周波数成分
の量子化誤差が聴覚的に判別できないように、周波数成
分の量子化誤差を決定すればよい。この場合、MPEG
のLayer3と比較して、先ほどと同様に符号化時に
折り返し歪みを推定し削減したり復号化時に折り返し歪
みを推定し加算しなくてもよい。またMPEGのLay
er3と同様に符号化時に折り返し歪みを推定し削減し
たり復号化時に折り返し歪みを推定し加算しても良い。
In order to further increase the compression ratio, it is possible to estimate the aliasing error from the quantization error of the frequency component. The quantization error of the frequency component may be determined so that the quantization error of the frequency component cannot be discriminated aurally. In this case, MPEG
As compared with Layer 3 of the above, the aliasing distortion may be estimated and reduced at the time of encoding as in the previous case, or the aliasing distortion may be estimated at the time of decoding and not added. Also, MPEG Layer
Similar to er3, the aliasing distortion may be estimated and reduced at the time of encoding, or the aliasing distortion may be estimated and added at the time of decoding.

【0015】[0015]

【課題を解決するための手段】請求項1に記載の本発明
の楽音符号化装置は、上記課題を解決するために、楽音
を入力する楽音入力部と、上記楽音入力部に入力された
楽音を、QMFフィルタを用いて周波数帯域別に分割す
る周波数帯域分割部及び、聴覚モデルを用いて量子化幅
を算出する聴覚モデル算出部と、上記周波数帯域分割部
で処理された時間波形データを周波数領域のパラメータ
に変換する時間−周波数変換部と、上記時間−周波数変
換部からの周波数領域のパラメータを上記、聴覚モデル
算出部からの量子化幅に基づいて量子化する量子化部
と、上記量子化部からの各種情報に基づいて符号化列を
生成する符号化生成部とを、備えた楽音符号化装置にお
いて、上記量子化部からの周波数領域のパラメータの量
子化誤差に関する情報に基づき、周波数領域のパラメー
タの量子化幅を再設定し、量子化部に量子化幅を出力す
る最小誤差選択部を設けたことを特徴とする。
According to a first aspect of the present invention, there is provided a musical sound encoding apparatus according to the present invention, wherein a musical sound input unit for inputting a musical sound and a musical sound input to the musical sound input unit are provided. , A frequency band division unit that divides each of the frequency bands by using a QMF filter, an auditory model calculation unit that calculates a quantization width by using an auditory model, and time waveform data processed by the frequency band division unit in the frequency domain. A time-frequency conversion unit that converts the parameters into the following parameters; a quantization unit that quantizes the frequency domain parameters from the time-frequency conversion unit based on the quantization width from the auditory model calculation unit; And a coding generation unit for generating a coded sequence based on various information from the coding unit. Based on, resetting the quantization width of a frequency domain parameter, characterized in that a minimum error selector for outputting the quantization width to the quantization unit.

【0016】請求項2に記載の本発明の楽音符号化装置
は、上記課題を解決するために、楽音を入力する楽音入
力部と、上記楽音入力部に入力された楽音を、QMFフ
ィルタを用いて周波数帯域別に分割する周波数帯域分割
部及び、聴覚モデルを用いて量子化幅を算出する聴覚モ
デル算出部と、上記周波数帯域分割部で処理された時間
波形データを周波数領域のパラメータに変換する時間−
周波数変換部と、上記時間−周波数変換部からの周波数
領域のパラメータを上記、聴覚モデル算出部からの量子
化幅に基づいて量子化する量子化部と、上記量子化部か
らの各種情報に基づいて符号化列を生成する符号化生成
部とを、備えた楽音符号化装置において、上記量子化部
からの周波数領域のパラメータからQMFフィルタの折
り返し歪みの量子化誤差を算出する折り返し歪み量子化
誤差推定部と、上記折り返し歪み量子化誤差推定部から
の折り返し歪み量子化誤差に基づき、周波数領域のパラ
メータの量子化幅を再設定し、量子化部に量子化幅を出
力する誤差幅決定部を設けたことを特徴とする。
According to a second aspect of the present invention, in order to solve the above-mentioned problems, a tone input device for inputting a tone and a tone input to the tone input unit using a QMF filter. A frequency band dividing unit that divides the time waveform data processed by the frequency band dividing unit into a parameter in the frequency domain. −
A frequency conversion unit, a quantization unit that quantizes the frequency-domain parameters from the time-frequency conversion unit based on the quantization width from the auditory model calculation unit, and a variety of information from the quantization unit. Distortion encoding apparatus for producing a coded sequence by generating a coded sequence by using a frequency domain parameter from the quantization unit to calculate a quantization error of a folded distortion of a QMF filter. The estimation unit, based on the aliasing quantization error from the aliasing quantization error estimation unit, resets the quantization width of the parameter in the frequency domain, and outputs an error width determination unit that outputs the quantization width to the quantization unit. It is characterized by having been provided.

【0017】請求項3に記載の本発明の楽音符号化方法
は、上記課題を解決するために、楽音を入力する楽音入
力工程と、上記楽音入力工程に入力された楽音を、QM
Fフィルタを用いて周波数帯域別に分割する周波数帯域
分割工程及び、聴覚モデルを用いて量子化幅を算出する
聴覚モデル算出する工程と、上記周波数帯域分割工程で
処理された時間波形データを周波数領域のパラメータに
変換する時間−周波数変換工程と、上記時間−周波数変
換工程からの周波数領域のパラメータを上記、聴覚モデ
ル算出部からの量子化幅に基づいて量子化する量子化工
程と、上記量子化工程からの各種情報に基づいて符号化
列を生成する符号化生成工程とを、備えた楽音符号化す
る方法において、上記量子化工程からの周波数領域のパ
ラメータの量子化誤差に関する情報に基づき、周波数領
域のパラメータの量子化幅を再設定し、量子化部に量子
化幅を出力する最小誤差選択工程を含むことを特徴とす
る。
According to a third aspect of the present invention, in order to solve the above-mentioned problems, a tone input step of inputting a tone and a tone input to the tone input step are performed by QM.
A frequency band dividing step of dividing the frequency band using an F filter, a step of calculating an auditory model for calculating a quantization width using an auditory model, and a step of dividing the time waveform data processed in the frequency band dividing step into a frequency domain. A time-frequency conversion step of converting the parameters into parameters, a quantization step of quantizing the frequency-domain parameters from the time-frequency conversion step based on the quantization width from the auditory model calculation unit, and a quantization step. And a coding generation step of generating a coded sequence based on various information from the information processing apparatus. The method of performing tone coding, comprising the steps of: And a minimum error selecting step of resetting the quantization width of the parameter (i) and outputting the quantization width to the quantization unit.

【0018】請求項4に記載の本発明の楽音符号化方法
は、上記課題を解決するために、楽音を入力する楽音入
力工程と、上記楽音入力工程に入力された楽音を、QM
Fフィルタを用いて周波数帯域別に分割する周波数帯域
分割工程及び、聴覚モデルを用いて量子化幅を算出する
聴覚モデル算出工程と、上記周波数帯域分割工程で処理
された時間波形データを周波数領域のパラメータに変換
する時間−周波数変換工程と、上記時間−周波数変換工
程からの周波数領域のパラメータを上記、聴覚モデル算
出部からの量子化幅に基づいて量子化する量子化工程
と、上記量子化工程からの各種情報に基づいて符号化列
を生成する符号化生成工程とを、備えた楽音符号化方法
において、上記量子化工程からの周波数領域のパラメー
タからQMFフィルタの折り返し歪みの量子化誤差を算
出する折り返し歪み量子化誤差推定工程と、上記折り返
し歪み量子化誤差推定工程からの折り返し歪み量子化誤
差に基づき、周波数領域のパラメータの量子化幅を再設
定し、量子化部に量子化幅を出力する誤差幅決定工程を
含むことを特徴とする。
According to a fourth aspect of the present invention, in order to solve the above-mentioned problems, a tone input step of inputting a tone and a tone input to the tone input step are performed by QM.
A frequency band dividing step of dividing the frequency band by using an F filter, an auditory model calculating step of calculating a quantization width using an auditory model, and a time domain data processed in the frequency band dividing step as a parameter in a frequency domain. To the time-frequency conversion step, the quantization step of quantizing the frequency domain parameters from the time-frequency conversion step, based on the quantization width from the auditory model calculation unit, from the quantization step And a coding generation step of generating a coded sequence based on the various types of information described above, wherein the quantization error of the aliasing distortion of the QMF filter is calculated from the frequency domain parameters from the quantization step. The aliasing quantization error estimation step, based on the aliasing quantization error from the aliasing quantization error estimation step, the frequency Reset the quantization scale parameter of frequency, characterized in that it comprises an error width determining step of outputting the quantization width to the quantization unit.

【0019】[0019]

【発明の実施の形態】以下、この発明の実施形態を図面
に基づいて詳細に説明する。 [実施形態1]図1は、本発明の実施形態1の構成を概
略的に示すブロック図である。図1の楽音符号化装置
は、従来の楽音符号化装置(図6)に対し、最小誤差選
択部17が付加されている。以下、追加された構成の動
作を説明する。ここで周波数帯域分割部11(QMFフ
ィルタ)は、全体を簡単に説明するために周波数帯域を
2分割にしているが、2分割以外の構成にしても良い。
Embodiments of the present invention will be described below in detail with reference to the drawings. [First Embodiment] FIG. 1 is a block diagram schematically showing a configuration of a first embodiment of the present invention. The tone encoding device of FIG. 1 is different from the conventional tone encoding device (FIG. 6) in that a minimum error selector 17 is added. Hereinafter, the operation of the added configuration will be described. Here, the frequency band dividing unit 11 (QMF filter) divides the frequency band into two for simple description, but may have a configuration other than the two.

【0020】量子化部16は、聴覚モデル算出部18に
よって算出された量子化のための各周波数成分における
量子化ビットの精度に基づいて、時間−周波数変換部1
2によって算出された各周波数のパラメータから、各周
波数成分・帯域のパラメータの大きさ・量子化精度・量
子化誤差・量子化データ等の量子化符号化データを算出
する。
The time-frequency conversion unit 1 performs quantization based on the precision of quantization bits in each frequency component for quantization calculated by the auditory model calculation unit 18.
From the parameters of each frequency calculated in step 2, quantized coded data such as the size of each frequency component / band parameter / quantization accuracy / quantization error / quantized data is calculated.

【0021】最小誤差選択部17は本実施形態の特徴を
構成するものであり、量子化部16から入力される各周
波数のパラメータの量子化の誤差量から、影響しあう周
波数パラメータ対の量子化の誤差量を誤差が少ない方を
選択し、量子化誤差その情報を量子化部16に出力す
る。量子化器16は、選択された量子化誤差情報に基づ
き、再度、各周波数成分・帯域のパラメータの大きさ・
量子化精度・量子化データ等の量子化符号化データを設
定し、符号化列生成部19に出力する。
The minimum error selecting section 17 constitutes a feature of the present embodiment. The minimum error selecting section 17 quantizes the frequency parameter pair affecting each other based on the quantization error amount of the parameter of each frequency input from the quantization section 16. Is selected, and the information of the quantization error is output to the quantization unit 16. Based on the selected quantization error information, the quantizer 16 again calculates the magnitude of the parameter of each frequency component / band,
Quantized coded data such as quantization accuracy / quantized data is set and output to the coded sequence generation unit 19.

【0022】図2を用いてさらに本実施形態について説
明する。影響しあう周波数データ対とは、遮断周波数に
対称に位置する周波数データのことである。最小誤差選
択部17の動作は、図2に示しているように中心線Cに
一番近い低域部の周波数の誤差幅GL1と、高域部で中
心線Cに近い周波数の誤差幅GH1とを比較し、低域部
の誤差は場GL1の方が少ないので、この2つの周波数
成分の量子化誤差幅としてGL1を選択し、高域部の量
子化幅をRH1から、RH1’に修正する。
This embodiment will be further described with reference to FIG. The influencing frequency data pairs are frequency data located symmetrically with respect to the cutoff frequency. The operation of the minimum error selection unit 17 is as follows: as shown in FIG. 2, the frequency error width GL1 of the low frequency part closest to the center line C and the error width GH1 of the frequency near the center line C in the high frequency part. And the field GL1 has a smaller error in the low-frequency part. Therefore, GL1 is selected as the quantization error width of the two frequency components, and the quantization width of the high-frequency part is corrected from RH1 to RH1 ′. .

【0023】同様に中心線Cに2番目に近い低域部の誤
差幅GL2と、高域部の周波数の誤差は場GH2とを比
較し、高域部の誤差幅GH2が少ないので、この2つの
周波数成分の量子化誤差幅としてGH2を選択し、低域
部の周波数の量子化幅をRL2からRL2’に修正す
る。そして、この2つの周波数成分の量子化誤差幅が少
ない方を選択する。さらにこの2つの周波数成分の量子
化誤差幅が同一になるように、2つの周波数成分の量子
化幅を決定し、量子化部16へ出力する。
Similarly, the error width GL2 of the low frequency part closest to the center line C and the frequency error of the high frequency part are compared with the field GH2, and the error width GH2 of the high frequency part is small. GH2 is selected as the quantization error width of the two frequency components, and the quantization width of the low-band frequency is corrected from RL2 to RL2 '. Then, the one having the smaller quantization error width of the two frequency components is selected. Further, the quantization widths of the two frequency components are determined so that the quantization error widths of the two frequency components become the same, and output to the quantization unit 16.

【0024】図6と同様に、周波数帯域分割部(QMF
フィルタ)11、時間−周波数変換部12、量子化部1
6、符号化列生成部19、聴覚モデル算出部18、最小
誤差推定部17の構成要素(図1の点線で囲んだ部分)
は符号化制御部21により制御を行うことも可能であ
る。この場合、符号化制御部21を計算機で構成し、上
述の図1中の点線で囲んだ範囲の構成要素をプログラム
により実現することが可能であり、図1の点線で囲んだ
ハードの構成要素の代わりに、図4に示す各工程により
実現することができる。
As in FIG. 6, the frequency band dividing section (QMF
Filter) 11, time-frequency conversion unit 12, quantization unit 1
6. Components of the coded sequence generator 19, the auditory model calculator 18, and the minimum error estimator 17 (portion surrounded by a dotted line in FIG. 1)
Can be controlled by the encoding control unit 21. In this case, it is possible to configure the encoding control unit 21 by a computer, and realize the components in the range enclosed by the dotted line in FIG. 1 by a program, and to implement the hardware components enclosed by the dotted line in FIG. Can be realized by the respective steps shown in FIG.

【0025】以下、図4の各工程を説明する。まず、最
初の処理工程ステップS0により処理が開始され、楽音
入力処理工程ステップS1で楽音を入力して、分析フレ
ーム単位に楽音波形を切り出し、周波数帯域分割(帯域
フィルタ)工程ステップS2及び、聴覚モデル算出工程
ステップS4にデータを出力する。
Hereinafter, each step of FIG. 4 will be described. First, the processing is started in the first processing step S0, a musical sound is input in a musical sound input processing step S1, a musical sound waveform is cut out in analysis frame units, a frequency band division (band filter) processing step S2, and an auditory model. The data is output to the calculating step S4.

【0026】周波数帯域分割(帯域フィルタ)工程ステ
ップS2は、入力された楽音波形をバンドパス(ハイパ
ス、ローパスを含む)フィルタを通し希望とする周波数
帯域のみを通過させることにより、特定の周波数帯域の
みを含む時間波形データにいくつか分割した後、ダウン
サンプリングしサンプリング周波数変換を行う。
The frequency band division (band filter) process step S2 is to pass only the desired frequency band by passing the input musical sound waveform through a band pass (including high pass and low pass) filter. Are divided into several pieces of time waveform data, and then down-sampled to perform sampling frequency conversion.

【0027】時間−周波数変換工程ステップS3は、幾
つかに分割されたの特定の周波数帯域のみを含む時間波
形データを、MDCTなどの手法を用いて、各々周波数
帯域毎に周波数領域のパラメータに変換する。聴覚モデ
ル算出工程S4は、入力された楽音波形をFFT等を用
いて周波数分析を行い、同時マスキング・最小可聴限な
どの聴覚モデルに従い、量子化のための周波数帯域にお
ける量子化ビットの精度を決定する。
In the time-frequency conversion step S3, time waveform data including only a specific frequency band divided into several parts is converted into frequency domain parameters for each frequency band using a method such as MDCT. I do. In the auditory model calculation step S4, the input musical sound waveform is subjected to frequency analysis using FFT or the like, and the precision of quantization bits in a frequency band for quantization is determined according to an auditory model such as simultaneous masking and minimum audibility. I do.

【0028】量子化工程ステップS5は、聴覚モデル算
出工程ステップS4によって算出された量子化のための
各周波数帯域における量子化ビットの精度に基づいて、
時間−周波数変換工程ステップS3によって算出された
周波数領域のパラメータの精度を打ち切り、各周波数帯
域のパラメータの大きさ、量子化精度、量子化データ等
の量子化符号化データと各周波数帯域のパラメータの量
子化誤差を算出する。最小誤差選択工程ステップS6
は、量子化工程ステップS5によって算出された各周波
数帯域のパラメータの量子化誤差に基づき、遮断周波数
に対して対称となる周波数のパラメータの量子化誤差対
の内、小さい方を選択し、量子化工程ステップS7に出
力する。量子化工程ステップS7では、この周波数成分
の量子化誤差情報に基づき、各周波数成分の量子化精度
を算出し直し、再度各周波数成分のパラメータの大きさ
・量子化精度・量子化データ等の量子化符号化データを
設定し、符号化列生成工程ステップS8に出力する。
The quantization step S5 is based on the precision of the quantization bits in each frequency band for quantization calculated in the auditory model calculation step S4.
The accuracy of the parameters in the frequency domain calculated in the time-frequency conversion step S3 is cut off, and the size of the parameter in each frequency band, quantization accuracy, quantized encoded data such as quantized data, and the parameter of each frequency band are Calculate the quantization error. Minimum error selection step S6
Is based on the quantization error of the parameter of each frequency band calculated in the quantization step S5, selects a smaller one of a pair of quantization error of a parameter of a frequency symmetric with respect to a cutoff frequency, and performs quantization. Output to the process step S7. In the quantization step S7, the quantization accuracy of each frequency component is recalculated based on the quantization error information of the frequency component, and the magnitude of the parameter of each frequency component, the quantization accuracy, the quantization of the quantized data, and the like are again calculated. The coded data is set and output to the coded sequence generation step S8.

【0029】符号化列生成工程ステップS8では、量子
化工程ステップS7によって生成された各周波数のパラ
メータの大きさ、量子化精度、量子化データ等の量子化
符号化データを伝送・蓄積し圧縮率が高くなるように符
号化列に変換し、最後に符号化データ出力工程ステップ
S9により符号化データが作成される。また、これらの
処理手順は、図1の符号化制御部21を計算機で構成
し、プログラムにより実現することが可能であり記録媒
体としても提供できる。
In the coded sequence generation step S8, quantized coded data such as the magnitude of each frequency parameter, quantization precision, and quantized data generated in the quantization step S7 are transmitted and stored, and the compression rate is calculated. Is converted to a coded sequence so as to become higher, and finally coded data is created in a coded data output step S9. In addition, these processing procedures can be realized by configuring the encoding control unit 21 of FIG. 1 by a computer and realizing it by a program, and can also be provided as a recording medium.

【0030】[実施形態2]図3は、本発明の実施形態
2の構成を概略的に示すブロック図である。図3に示す
楽音符号化装置は、図4の従来の楽音符号化装置に対
し、折返歪み量子化誤差推定部15および誤差幅決定部
17が付加されている。以下、追加された折返歪み量子
化誤差推定部15および誤差幅決定部17の動作を説明
する。以下、MPEG1、2 Layer3の例で説明
をする。以下の式(1)は、MPEG1、2 Layer
3で、折り返し歪みを削減し、折り返し歪みを削減した
周波数成分からQMFフィルタに入力する周波数パラメ
ータを復元する式である。
[Second Embodiment] FIG. 3 is a block diagram schematically showing a configuration of a second embodiment of the present invention. The tone encoding device shown in FIG. 3 is different from the conventional tone encoding device of FIG. 4 in that an aliasing distortion quantization error estimating unit 15 and an error width determining unit 17 are added. Hereinafter, operations of the added aliasing quantization error estimation unit 15 and error width determination unit 17 will be described. Hereinafter, description will be made using an example of MPEG1, Layer3. The following equation (1) is used for MPEG1, 2 Layer
3 is an equation for reducing aliasing distortion and restoring a frequency parameter to be input to the QMF filter from a frequency component in which aliasing distortion has been reduced.

【0031】[0031]

【数1】 (Equation 1)

【0032】この式より聴覚的に量子化誤差の影響を取
り除く場合は、Cs[i]*xr[18*sb―1―
i]とCa[i]*xr[18*sb+i]の量子化誤
差歪みがxar[18*sb−1−i]の聴覚モデル算
出部18によって算出された量子化のための周波数帯域
における量子化ビットの量子化誤差より小さくすれば良
いことが分かる。
In order to remove the effect of the quantization error acoustically from this equation, Cs [i] * xr [18 * sb-1-
i] and the quantization error distortion of Ca [i] * xr [18 * sb + i] in the frequency band for quantization calculated by the auditory model calculation unit 18 of xar [18 * sb-1-i]. It can be seen that the quantization error should be smaller than the bit quantization error.

【0033】このように、折返歪み量子化誤差推定部1
5では、MPEG1、2 Layer3の例のように、
QMFフィルタの折り返し歪みの特性に基づき、周波数
成分の量子化誤差から折り返し歪みの誤差が推定する。
さらに誤差幅決定部16では、パラメータの周波数成分
の量子化時にこの折り返し歪みの量子化誤差が聴覚的に
判別できないように、折り返し歪み量子化誤差が量子化
誤差よりも小さくなるように量子化誤差幅を決定し、量
子化部16に出力すればよい。この際、図2では、周波
数データについて折り返し歪みを削減せずに量子化を行
っている。このように折り返し歪みを削減しなくても良
いし、また折り返し歪みを削減する折り返し歪み削減部
を時間―周波数変換部12と量子化部16の間に挿入し
て構成しても良い。
As described above, the aliasing distortion quantization error estimating unit 1
5, in the case of MPEG1, 2 Layer3,
Based on the aliasing characteristic of the QMF filter, an aliasing error is estimated from the quantization error of the frequency component.
Further, the error width determination unit 16 sets the quantization error such that the aliasing distortion quantization error is smaller than the quantization error so that the quantization error of the aliasing distortion cannot be discriminated auditory when quantizing the frequency component of the parameter. The width may be determined and output to the quantization unit 16. At this time, in FIG. 2, quantization is performed on the frequency data without reducing aliasing distortion. As described above, it is not necessary to reduce the aliasing distortion, and the aliasing distortion reducing unit for reducing the aliasing distortion may be inserted between the time-frequency conversion unit 12 and the quantization unit 16.

【0034】また図6と同様に、周波数帯域分割部(Q
MFフィルタ)11、時間−周波数変換部12、量子化
部16、符号化列生成部19、聴覚モデル算出部18、
折り返し歪み量子化誤差推定部16、誤差幅決定部17
の構成要素(図3の点線で囲んだ部分)は符号化制御部
21により制御を行うことも可能である。この場合、符
号化制御部21を計算機で構成し、上述の図3中の点線
で囲んだ範囲の構成要素をプログラムにより実現するこ
とが可能であり、図3の点線で囲んだハードの構成要素
の代わりに、図6に示す各工程により実現することがで
きる。
As in FIG. 6, the frequency band dividing unit (Q
MF filter) 11, a time-frequency converter 12, a quantizer 16, a coded sequence generator 19, an auditory model calculator 18,
Aliasing quantization error estimator 16, error width determiner 17
Can be controlled by the encoding control unit 21 (the part surrounded by a dotted line in FIG. 3). In this case, it is possible to configure the encoding control unit 21 by a computer, and realize the components in the range enclosed by the dotted line in FIG. 3 by a program, and to implement the hardware components enclosed by the dotted line in FIG. Can be realized by the respective steps shown in FIG.

【0035】以下、図5の各工程を説明する。まず、最
初の処理工程ステップS20により処理が開始され、楽
音入力処理工程ステップS21で楽音を入力して、分析
フレーム単位に楽音波形を切り出し、周波数帯域分割
(帯域フィルタ)工程ステップS22及び聴覚モデル算
出工程ステップS24にデータを出力する。
Hereinafter, each step of FIG. 5 will be described. First, the processing is started in the first processing step S20, a musical sound is input in a musical sound input processing step S21, a musical sound waveform is cut out in analysis frame units, a frequency band division (band filter) processing step S22 and an auditory model calculation The data is output to the process step S24.

【0036】周波数帯域分割(帯域フィルタ)工程ステ
ップS22は、入力された楽音波形を帯域(ハイパス、
ローパスを含む)フィルタを通し希望とする周波数帯域
のみを通過させることにより、特定の周波数帯域のみを
含む時間波形データにいくつか分割した後、ダウンサン
プリングしサンプリング周波数変換を行う。時間−周波
数変換工程ステップS23は、幾つかに分割されたの特
定の周波数帯域のみを含む時間波形データを、MDCT
などの手法を用いて、各々周波数帯域毎に周波数領域の
パラメータに変換する。
In the frequency band division (band filter) process step S22, the input musical tone waveform is converted into a band (high-pass,
By passing only a desired frequency band through a filter (including a low-pass), the signal is divided into several pieces of time waveform data including only a specific frequency band, and then down-sampled to perform sampling frequency conversion. The time-frequency conversion step S23 converts the time waveform data including only a specific frequency band divided into
By using such a technique as above, the parameters are converted into frequency domain parameters for each frequency band.

【0037】聴覚モデル算出工程ステップS24は、入
力された楽音波形をFFT等を用いて周波数分析を行
い、同時マスキング・最小可聴限などの聴覚モデルに従
い、量子化のための周波数帯域における量子化ビットの
精度を決定する。量子化工程ステップS25は、聴覚モ
デル算出工程ステップS24によって算出された量子化
のための各周波数帯域における量子化ビットの精度に基
づいて、時間−周波数変換工程ステップS23によって
算出された周波数領域のパラメータの精度を打ち切り、
各周波数帯域のパラメータの大きさ、量子化精度、量子
化データ等の量子化符号化データと各周波数帯域のパラ
メータの量子化誤差を算出する。
In the auditory model calculation step S24, the input musical sound waveform is subjected to frequency analysis using FFT or the like, and quantized bits in a frequency band for quantization are quantized in accordance with an auditory model such as simultaneous masking and minimum audibility. Determine the accuracy of The quantization step S25 includes a frequency domain parameter calculated in the time-frequency conversion step S23 based on the precision of the quantization bit in each frequency band for quantization calculated in the auditory model calculation step S24. Abort the accuracy of
The quantization error of the parameter of each frequency band and the quantized coded data such as the size of the parameter of each frequency band, quantization accuracy, and quantized data are calculated.

【0038】折り返し歪み量子化誤差推定工程ステップ
S26は、量子化工程ステップS25によって算出され
た各周波数帯域のエイリアス成分を式(1)によって算
出する。次に誤差幅決定工程ステップS27では、パラ
メータの周波数成分の量子化時にこの折り返し歪みの量
子化誤差が聴覚的に判別できないように、折り返し歪み
量子化誤差が量子化誤差よりも小さくなるように量子化
誤差幅を決定し、量子化工程ステップS28に出力す
る。
In the aliasing quantization error estimation step S26, the alias component of each frequency band calculated in the quantization step S25 is calculated by equation (1). Next, in the error width determination step S27, the quantization error of the aliasing distortion is set to be smaller than the quantization error so that the quantization error of the aliasing distortion cannot be discriminated auditory when quantizing the frequency component of the parameter. The quantization error width is determined and output to the quantization step S28.

【0039】量子化工程ステップS28では、この周波
数成分の量子化誤差情報に基づき、各周波数成分の量子
化精度を算出し直し、再度各周波数成分のパラメータの
大きさ・量子化精度・量子化データ等の量子化符号化デ
ータを設定し、符号化列生成工程ステップS29に出力
する。符号化列生成工程ステップS29では、量子化工
程ステップS28によって生成された各周波数のパラメ
ータの大きさ、量子化精度、量子化データ等の量子化符
号化データを伝送・蓄積し圧縮率が高くなるように符号
化列に変換し、最後に符号化データ出力工程ステップS
30により符号化データが作成される。
In the quantization step S28, the quantization accuracy of each frequency component is recalculated based on the quantization error information of the frequency component, and the magnitude of the parameter of each frequency component, the quantization accuracy, and the quantization data are again calculated. And the like, and outputs the result to the coded sequence generation step S29. In the coded sequence generation step S29, quantized coded data such as the magnitude, quantization precision, and quantized data of each frequency generated in the quantization step S28 are transmitted and stored, and the compression ratio is increased. Into a coded sequence, and finally the coded data output step S
30 creates encoded data.

【0040】またこれらの処理手順は、図4の符号化制
御部21を計算機で構成し、プログラムにより実現する
ことが可能であり記録媒体としても提供できる。このよ
うに、楽音波形を符号化する、折り返し歪み量子化誤差
推定部15、最小誤差選択部17の構成要素を設けるこ
とにより、従来の符号化手法に比べ、圧縮率が高く、高
音質の符号化復号化楽音を生成することができる。
Further, these processing procedures can be realized by configuring the encoding control unit 21 of FIG. 4 with a computer and realizing it by a program, and can also be provided as a recording medium. As described above, by providing the components of the aliasing distortion quantization error estimating unit 15 and the minimum error selecting unit 17 for encoding the musical sound waveform, a code having a higher compression rate and a higher sound quality can be obtained as compared with the conventional encoding method. A decrypted tone can be generated.

【0041】[0041]

【発明の効果】以上より明らかなように、本発明では、
QMFフィルタの過渡域の周波数特性による折り返し歪
みの量子化誤差の影響を考慮して量子化するため、より
高品質、あるいは圧縮率を高くすることが可能な楽音の
符号化装置及び方法並びに楽音符号化プログラムを記録
した記録媒体を提供することができる。さらに本発明で
は、復号化側では従来の方式をなんら変更することな
く、符号化側を変更することにより、より高品質の楽音
を復号化することが出来る利点がある。
As is clear from the above, according to the present invention,
A musical tone encoding apparatus and method and musical tone code capable of achieving higher quality or a higher compression ratio because quantization is performed in consideration of the influence of the quantization error of aliasing distortion due to the frequency characteristics of the transient region of the QMF filter. A recording medium on which an encrypted program is recorded can be provided. Further, in the present invention, there is an advantage that a higher quality musical sound can be decoded by changing the encoding side without changing the conventional method at the decoding side.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の楽音符号化装置の実施形態1の構成を
示すブロック図。
FIG. 1 is a block diagram showing a configuration of a first embodiment of a musical sound encoding device of the present invention.

【図2】本発明の楽音符号化装置の実施形態1に係る最
小誤差選択部の動作例を示す図。
FIG. 2 is a diagram showing an operation example of a minimum error selection unit according to the first embodiment of the musical sound encoding device of the present invention.

【図3】本発明の楽音符号化装置の実施形態2の構成を
示すブロック図。
FIG. 3 is a block diagram showing a configuration of a second embodiment of the musical sound encoding device of the present invention.

【図4】本発明の楽音符号化装置及び方法に係る楽音符
号化処理手順。
FIG. 4 is a flowchart showing a tone encoding process according to the tone encoding apparatus and method of the present invention.

【図5】本発明の楽音符号化装置及び方法に係る楽音符
号化処理手順。
FIG. 5 is a musical sound encoding processing procedure according to the musical sound encoding apparatus and method of the present invention.

【図6】従来の楽音符号化装置の構成を示すブロック
図。
FIG. 6 is a block diagram showing a configuration of a conventional tone encoding device.

【符号の説明】[Explanation of symbols]

10 楽音入力部 11 周波数帯域分割部 12 時間−周波数変換部 15 折返歪み量子化誤差推定部 16 量子化部 17 誤差幅決定部 18 聴覚モデル算出部 19 符号化列生成部 20 符号化列出力部 21 符号化制御部 Reference Signs List 10 Music input unit 11 Frequency band division unit 12 Time-frequency conversion unit 15 Aliasing distortion quantization error estimation unit 16 Quantization unit 17 Error width determination unit 18 Auditory model calculation unit 19 Code sequence generation unit 20 Code sequence output unit 21 Coding control unit

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 楽音を入力する楽音入力部と、 上記楽音入力部に入力された楽音を、QMFフィルタを
用いて周波数帯域別に分割する周波数帯域分割部及び、
聴覚モデルを用いて量子化幅を算出する聴覚モデル算出
部と、 上記周波数帯域分割部で処理された時間波形データを周
波数領域のパラメータに変換する時間−周波数変換部
と、 上記時間−周波数変換部からの周波数領域のパラメータ
を上記、聴覚モデル算出部からの量子化幅に基づいて量
子化する量子化部と、 上記量子化部からの各種情報に基づいて符号化列を生成
する符号化生成部とを、備えた楽音符号化装置におい
て、 上記量子化部からの周波数領域のパラメータの量子化誤
差に関する情報に基づき、周波数領域のパラメータの量
子化幅を再設定し、量子化部に量子化幅を出力する最小
誤差選択部を設けたことを特徴とする楽音符号化装置。
A tone input unit for inputting a tone; a frequency band dividing unit for dividing the tone input to the tone input unit into frequency bands using a QMF filter;
An auditory model calculating unit that calculates a quantization width using an auditory model, a time-frequency converting unit that converts time waveform data processed by the frequency band dividing unit into frequency domain parameters, and a time-frequency converting unit. A quantization unit that quantizes the frequency domain parameters from the above based on the quantization width from the auditory model calculation unit, and an encoding generation unit that generates an encoded sequence based on various information from the quantization unit In the tone encoding device, the quantization width of the parameter in the frequency domain is reset based on the information on the quantization error of the parameter in the frequency domain from the quantization unit, and the quantization width is set in the quantization unit. A tone encoding device comprising a minimum error selection unit for outputting a tone signal.
【請求項2】 楽音を入力する楽音入力部と、 上記楽音入力部に入力された楽音を、QMFフィルタを
用いて周波数帯域別に分割する周波数帯域分割部及び、
聴覚モデルを用いて量子化幅を算出する聴覚モデル算出
部と、 上記周波数帯域分割部で処理された時間波形データを周
波数領域のパラメータに変換する時間−周波数変換部
と、 上記時間−周波数変換部からの周波数領域のパラメータ
を上記、聴覚モデル算出部からの量子化幅に基づいて量
子化する量子化部と、 上記量子化部からの各種情報に基づいて符号化列を生成
する符号化生成部とを、備えた楽音符号化装置におい
て、 上記量子化部からの周波数領域のパラメータからQMF
フィルタの折り返し歪みの量子化誤差を算出する折り返
し歪み量子化誤差推定部と、 上記折り返し歪み量子化誤差推定部からの折り返し歪み
量子化誤差に基づき、周波数領域のパラメータの量子化
幅を再設定し、量子化部に量子化幅を出力する誤差幅決
定部を設けたことを特徴とする楽音符号化装置。
2. A tone input unit for inputting a tone, a frequency band dividing unit for dividing a tone input to the tone input unit into frequency bands by using a QMF filter,
An auditory model calculating unit that calculates a quantization width using an auditory model, a time-frequency converting unit that converts time waveform data processed by the frequency band dividing unit into frequency domain parameters, and a time-frequency converting unit. A quantization unit that quantizes the frequency domain parameters from the above based on the quantization width from the auditory model calculation unit, and an encoding generation unit that generates an encoded sequence based on various information from the quantization unit And a QMF based on the frequency domain parameter from the quantization unit.
A folding distortion quantization error estimating unit that calculates a quantization error of the aliasing of the filter; and a quantization width of a frequency domain parameter is reset based on the aliasing quantization error from the aliasing quantization error estimation unit. And a quantizing section provided with an error width determining section for outputting a quantization width.
【請求項3】 楽音を入力する楽音入力工程と、 上記楽音入力工程に入力された楽音を、QMFフィルタ
を用いて周波数帯域別に分割する周波数帯域分割工程及
び、聴覚モデルを用いて量子化幅を算出する聴覚モデル
算出する工程と、 上記周波数帯域分割工程で処理された時間波形データを
周波数領域のパラメータに変換する時間−周波数変換工
程と、 上記時間−周波数変換工程からの周波数領域のパラメー
タを上記、聴覚モデル算出部からの量子化幅に基づいて
量子化する量子化工程と、 上記量子化工程からの各種情報に基づいて符号化列を生
成する符号化生成工程とを、備えた楽音符号化する方法
において、 上記量子化工程からの周波数領域のパラメータの量子化
誤差に関する情報に基づき、周波数領域のパラメータの
量子化幅を再設定し、量子化部に量子化幅を出力する最
小誤差選択工程を含むことを特徴とする楽音符号化方
法。
3. A tone input step of inputting a tone, a frequency band dividing step of dividing the tone input in the tone input step into frequency bands using a QMF filter, and a quantization width using an auditory model. Calculating an auditory model to be calculated; a time-frequency conversion step of converting the time waveform data processed in the frequency band division step into a frequency domain parameter; and a frequency domain parameter from the time-frequency conversion step. A tone encoding step comprising: a quantization step of quantizing based on a quantization width from the auditory model calculation unit; and an encoding generation step of generating an encoded sequence based on various information from the quantization step. In the method, the quantization width of the parameter in the frequency domain is reset based on information on the quantization error of the parameter in the frequency domain from the quantization step. And musical sound encoding method, which comprises a minimum error selection step of outputting the quantization width to the quantization unit.
【請求項4】 楽音を入力する楽音入力工程と、 上記楽音入力工程に入力された楽音を、QMFフィルタ
を用いて周波数帯域別に分割する周波数帯域分割工程及
び、聴覚モデルを用いて量子化幅を算出する聴覚モデル
算出工程と、 上記周波数帯域分割工程で処理された時間波形データを
周波数領域のパラメータに変換する時間−周波数変換工
程と、 上記時間−周波数変換工程からの周波数領域のパラメー
タを上記、聴覚モデル算出部からの量子化幅に基づいて
量子化する量子化工程と、 上記量子化工程からの各種情報に基づいて符号化列を生
成する符号化生成工程とを、備えた楽音符号化方法にお
いて、 上記量子化工程からの周波数領域のパラメータからQM
Fフィルタの折り返し歪みの量子化誤差を算出する折り
返し歪み量子化誤差推定工程と、 上記折り返し歪み量子化誤差推定工程からの折り返し歪
み量子化誤差に基づき、周波数領域のパラメータの量子
化幅を再設定し、量子化部に量子化幅を出力する誤差幅
決定工程を含むことを特徴とする楽音符号化方法。
4. A tone input step of inputting a tone, a frequency band dividing step of dividing the tone input in the tone input step into frequency bands by using a QMF filter, and a quantization width by using an auditory model. An auditory model calculation step to calculate, a time-frequency conversion step of converting the time waveform data processed in the frequency band division step into frequency domain parameters, and a frequency domain parameter from the time-frequency conversion step. A musical sound encoding method comprising: a quantization step of performing quantization based on a quantization width from an auditory model calculation unit; and an encoding generation step of generating an encoded sequence based on various information from the quantization step. In the above, the QM is calculated from the frequency domain parameters obtained from the quantization step.
An aliasing distortion quantization error estimating step of calculating an aliasing distortion quantization error of the F filter; and a quantization width of a frequency domain parameter is reset based on the aliasing distortion quantization error from the aliasing distortion quantization error estimation step. And an error width determining step of outputting a quantization width to a quantization unit.
【請求項5】 楽音を入力する楽音入力手段と、 上記楽音入力部に入力された楽音を、QMFフィルタを
用いて周波数帯域別に分割する周波数帯域分割手段及
び、聴覚モデルを用いて量子化幅を算出する聴覚モデル
算出手段と、 上記周波数帯域分割部で処理された時間波形データを周
波数領域のパラメータに変換する時間−周波数変換手段
と、 上記時間−周波数変換手段からの周波数領域のパラメー
タを上記、聴覚モデル算出手段からの量子化幅に基づい
て量子化する量子化手段と、 上記量子化手段からの各種情報に基づいて符号化列を算
出する符号化列算出手段とを、備えた楽音符号化するた
めのプログラムを記録した記録媒体であって、 上記量子化手段からの周波数領域のパラメータの量子化
誤差に関する情報に基づき、周波数領域のパラメータの
量子化幅を算出し、算出された量子化幅に基づいて量子
化手段でパラメータの量子化を行う楽音符号化プログラ
ムを記録した記録媒体。
5. A tone input means for inputting a tone, a frequency band dividing means for dividing the tone input to the tone input section into frequency bands by using a QMF filter, and a quantization width by using an auditory model. Auditory model calculating means for calculating, time-frequency converting means for converting the time waveform data processed by the frequency band dividing unit into frequency domain parameters, and the frequency domain parameters from the time-frequency converting means A tone encoding device comprising: a quantization unit that performs quantization based on a quantization width from an auditory model calculation unit; and a coding sequence calculation unit that calculates a coding sequence based on various types of information from the quantization unit. A recording medium for recording a program for performing frequency domain parameter quantization information from the quantization means based on the information on the quantization error of the frequency domain parameter from the quantization means. Calculates the quantization width of the parameters, the calculated recording medium recording audio coding program for quantization parameters in the quantization means based on the quantization width.
【請求項6】 楽音を入力する楽音入力手段と、 上記楽音入力手段に入力された楽音を、QMFフィルタ
を用いて周波数帯域別に分割する周波数帯域分割部手段
および、聴覚モデルを用いて量子化幅を算出する聴覚モ
デル算出手段と、 上記周波数帯域分割手段で処理された時間波形データを
周波数領域のパラメータに変換する時間−周波数変換手
段と、 上記時間−周波数変換手段からの周波数領域のパラメー
タを上記、聴覚モデル算出手段からの量子化幅に基づい
て量子化する量子化手段と、 上記量子化手段からの各種情報に基づいて符号化列を生
成する符号化生成手段とを、備えた楽音符号化するため
のプログラムを記録した記録媒体であって、 上記量子化手段からの周波数領域のパラメータからQM
Fフィルタの折り返し歪みの量子化誤差を算出する折り
返し歪み量子化誤差推定手段と、 上記折り返し歪み量子化誤差推定手段からの折り返し歪
み量子化誤差に基づき、周波数領域のパラメータの量子
化幅を算出し、算出された量子化幅に基づいて量子化手
段でパラメータの量子化を行う楽音符号化のためのプロ
グラムを記録する記録媒体。
6. A tone input unit for inputting a tone, a frequency band dividing unit for dividing a tone input to the tone input unit into frequency bands using a QMF filter, and a quantization width using an auditory model. Auditory model calculating means for calculating the time-domain data processed by the frequency band dividing means into a frequency-domain parameter; and a frequency-domain parameter from the time-frequency converting means. A tone encoding device comprising: a quantization unit that performs quantization based on a quantization width from an auditory model calculation unit; and an encoding generation unit that generates an encoded sequence based on various types of information from the quantization unit. Recording medium for recording a program for performing a QM from a parameter in the frequency domain from the quantization means.
An aliasing distortion quantization error estimating means for calculating a quantization error of aliasing distortion of the F filter; and a quantization width of a frequency domain parameter is calculated based on the aliasing distortion quantization error from the aliasing distortion quantization error estimating means. And a recording medium for recording a program for tone encoding in which a parameter is quantized by quantization means based on the calculated quantization width.
JP26611997A 1997-09-30 1997-09-30 Tone encoding apparatus, tone encoding method, and recording medium recording tone encoding program Expired - Fee Related JP3437421B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26611997A JP3437421B2 (en) 1997-09-30 1997-09-30 Tone encoding apparatus, tone encoding method, and recording medium recording tone encoding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26611997A JP3437421B2 (en) 1997-09-30 1997-09-30 Tone encoding apparatus, tone encoding method, and recording medium recording tone encoding program

Publications (2)

Publication Number Publication Date
JPH11109994A true JPH11109994A (en) 1999-04-23
JP3437421B2 JP3437421B2 (en) 2003-08-18

Family

ID=17426594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26611997A Expired - Fee Related JP3437421B2 (en) 1997-09-30 1997-09-30 Tone encoding apparatus, tone encoding method, and recording medium recording tone encoding program

Country Status (1)

Country Link
JP (1) JP3437421B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182698A (en) * 2000-12-14 2002-06-26 Sony Corp Method and device for encoding and recording medium
JP2004515808A (en) * 2000-12-05 2004-05-27 アミューズテック カンパニー リミテッド Music analysis method using sound information of musical instruments
JP2004533016A (en) * 2001-05-21 2004-10-28 アミューズテック カンパニー リミテッド Music score tracking method and apparatus
JP2005514666A (en) * 2001-12-18 2005-05-19 アミューズテック カンパニー リミテッド Music analyzer using sound information of musical instruments
US7058571B2 (en) 2002-08-01 2006-06-06 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method for band expansion with aliasing suppression
US7069212B2 (en) 2002-09-19 2006-06-27 Matsushita Elecric Industrial Co., Ltd. Audio decoding apparatus and method for band expansion with aliasing adjustment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004515808A (en) * 2000-12-05 2004-05-27 アミューズテック カンパニー リミテッド Music analysis method using sound information of musical instruments
JP2002182698A (en) * 2000-12-14 2002-06-26 Sony Corp Method and device for encoding and recording medium
JP4649735B2 (en) * 2000-12-14 2011-03-16 ソニー株式会社 Encoding apparatus and method, and recording medium
JP2004533016A (en) * 2001-05-21 2004-10-28 アミューズテック カンパニー リミテッド Music score tracking method and apparatus
JP2005514666A (en) * 2001-12-18 2005-05-19 アミューズテック カンパニー リミテッド Music analyzer using sound information of musical instruments
US7058571B2 (en) 2002-08-01 2006-06-06 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method for band expansion with aliasing suppression
US7069212B2 (en) 2002-09-19 2006-06-27 Matsushita Elecric Industrial Co., Ltd. Audio decoding apparatus and method for band expansion with aliasing adjustment

Also Published As

Publication number Publication date
JP3437421B2 (en) 2003-08-18

Similar Documents

Publication Publication Date Title
JP4934427B2 (en) Speech signal decoding apparatus and speech signal encoding apparatus
KR100427753B1 (en) Method and apparatus for reproducing voice signal, method and apparatus for voice decoding, method and apparatus for voice synthesis and portable wireless terminal apparatus
US8321229B2 (en) Apparatus, medium and method to encode and decode high frequency signal
KR100986153B1 (en) Audio coding system using characteristics of a decoded signal to adapt synthesized spectral components
CN103765509B (en) Code device and method, decoding device and method
KR100913987B1 (en) Multi-channel synthesizer and method for generating a multi-channel output signal
US10255928B2 (en) Apparatus, medium and method to encode and decode high frequency signal
JP4777918B2 (en) Audio processing apparatus and audio processing method
KR100882771B1 (en) Perceptually Improved Enhancement of Encoded Acoustic Signals
US20060122828A1 (en) Highband speech coding apparatus and method for wideband speech coding system
WO1994028633A1 (en) Apparatus and method for coding or decoding signals, and recording medium
WO2006075563A1 (en) Audio encoding device, audio encoding method, and audio encoding program
CA2489443C (en) Audio coding system using characteristics of a decoded signal to adapt synthesized spectral components
US7596490B2 (en) Low bit-rate audio encoding
KR20060135699A (en) Signal decoding apparatus and signal decoding method
JPH06337699A (en) Coded vocoder for pitch-epock synchronized linearity estimation and method thereof
JP5323295B2 (en) Masked threshold expression method, reconstruction method, and system thereof
WO2001061686A1 (en) Method of and apparatus for converting an audio signal between data compression formats
JPH10268898A (en) Voice/music sound coding and decoding device
JP3437421B2 (en) Tone encoding apparatus, tone encoding method, and recording medium recording tone encoding program
JP2000132193A (en) Signal encoding device and method therefor, and signal decoding device and method therefor
JPH09101799A (en) Signal coding method and device therefor
US20100145712A1 (en) Coding of digital audio signals
JP3504485B2 (en) Tone encoding device, tone decoding device, tone encoding / decoding device, and program storage medium
JP2001148632A (en) Encoding device, encoding method and recording medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030527

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090606

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees