JP2001195094A - Voice coding method and voice decoding method - Google Patents

Voice coding method and voice decoding method

Info

Publication number
JP2001195094A
JP2001195094A JP2000321507A JP2000321507A JP2001195094A JP 2001195094 A JP2001195094 A JP 2001195094A JP 2000321507 A JP2000321507 A JP 2000321507A JP 2000321507 A JP2000321507 A JP 2000321507A JP 2001195094 A JP2001195094 A JP 2001195094A
Authority
JP
Japan
Prior art keywords
prediction
value
signal
residual
linear prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000321507A
Other languages
Japanese (ja)
Other versions
JP3387093B2 (en
Inventor
Norihiko Fuchigami
徳彦 渕上
Shoji Ueno
昭治 植野
Takao Yamabe
孝朗 山辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2000321507A priority Critical patent/JP3387093B2/en
Publication of JP2001195094A publication Critical patent/JP2001195094A/en
Application granted granted Critical
Publication of JP3387093B2 publication Critical patent/JP3387093B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a voice coding method and a voice decoding method in which no band dividing scheme is used, the constitution/process is made simpler and the cost is reduced. SOLUTION: When the coding of voice signals is conducted, a plurality of predictors 12-1, 12-2,...12-n having respectively different characteristics with respect to the voice signals obtain the linear prediction values and predictive residuals of present signals from the past signals in the time region, select a predictor in which predictive residual is minimum among the output signals of the predictors and the output signals of the selected predictor are outputted with the signals that specify the predictor. During decoding, an appropriate predictor is selected using the signals that specify the predictor.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声信号の符号化
に関し、特にデジタルオーディオ信号のデータ量を圧縮
して符号化する音声符号化方法及び音声復号方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to audio signal encoding, and more particularly, to an audio encoding method and an audio decoding method for compressing and encoding the data amount of a digital audio signal.

【0002】[0002]

【従来の技術】音声信号(オーディオ信号)のデータ量
を圧縮して記録したり伝送する、いわゆる高能率符号化
技術として様々なものが開発されている。一般的に、標
本化・一様量子化されたオーディオ信号には冗長度があ
り、高能率な符号化を行えば、より少ない情報量で効率
的な伝送が可能となる。高能率符号化には大きく分けて
2つのタイプがある。一つは非可逆符号化(ロスあり符
号化)であり、データの劣化が聴感上検知されないよう
に制御する「聴覚的符号化」が良く用いられる。他方は
可逆符号化(ロスレス符号化)であり、符号化・復号化
後のデータは元データと完全に一致する。ロスレス符号
化はコンピュータデータの圧縮では常識的に用いられる
が、オーディオ符号化においては、大きな圧縮率が得ら
れないためにあまり利用されない。しかし、最近注目さ
れているハイサンプリング・オーディオなどは、従来よ
りも冗長度の大きい信号であり、ロスレス符号化は有効
であると考えられる。
2. Description of the Related Art Various types of so-called high-efficiency encoding techniques for compressing, recording, and transmitting a data amount of an audio signal (audio signal) have been developed. Generally, sampled and uniformly quantized audio signals have redundancy, and if highly efficient encoding is performed, efficient transmission can be achieved with a smaller amount of information. There are roughly two types of high efficiency coding. One is irreversible coding (lossy coding), and "auditory coding" that controls so that data deterioration is not detected audibly is often used. The other is lossless encoding (lossless encoding), and the encoded / decoded data completely matches the original data. Lossless coding is commonly used in computer data compression, but is not often used in audio coding because a large compression ratio cannot be obtained. However, high-sampling audio, etc., which have recently attracted attention, are signals having greater redundancy than before, and lossless coding is considered to be effective.

【0003】ところで、出願人会社による先願にかかる
特開平9−46234号公報記載の従来技術では、デジ
タル音声信号を帯域分割した後、個々の帯域について求
めたエネルギー値を、情報量に応じたビット配分により
量子化されたサンプル値を周波数領域の情報として符号
化し量子化後のサンプル値を逆量子化し、これを時間領
域信号へ再変換するために帯域合成を行われた後の信号
と元信号との残差信号を時間領域の情報として符号化
し、この両者を多重化することにより、可逆圧縮の符号
化を行っている。
In the prior art described in Japanese Patent Application Laid-Open No. 9-46234, filed by the applicant company, after dividing a digital audio signal into bands, the energy value obtained for each band is determined according to the amount of information. The sample value quantized by bit allocation is encoded as frequency domain information, the quantized sample value is inversely quantized, and the original signal is subjected to band synthesis in order to reconvert it into a time domain signal. The residual signal from the signal is encoded as information in the time domain, and the two are multiplexed to perform encoding for lossless compression.

【0004】[0004]

【発明が解決しようとする課題】しかし、上記従来の技
術では、前述のように入力信号を帯域分割するための構
成・処理が複雑であり、演算量が極めて多くコスト増の
原因となっていた。
However, in the above-mentioned prior art, as described above, the configuration and processing for dividing the input signal into bands are complicated, and the amount of calculation is extremely large, causing an increase in cost. .

【0005】したがって、本発明は帯域分割の手法を用
いることなく、構成・処理がより単純でコストを低く抑
えることが可能な音声符号化方法及び音声復号方法を提
供することを目的とする。
Accordingly, it is an object of the present invention to provide a speech encoding method and a speech decoding method which are simpler in configuration and processing and can reduce costs without using a band division technique.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するた
め、本発明では以下の1)〜3)に記載の手段よりな
る。すなわち、
In order to achieve the above object, the present invention comprises the following means (1) to (3). That is,

【0007】1)入力されるデジタル音声信号に応答し
て、基準サンプル値を得るとともに、前記デジタル音声
信号に応答して所定の線形予測方法により時間領域の過
去の信号から現在の信号の線形予測値を得て、前記デジ
タル音声信号と前記予測値とから予測残差を得て、前記
デジタル音声信号に応答して前記予測残差が最小値であ
る線形予測方法を選択し、前記基準サンプル値と、前記
選択された予測残差と、前記選択された予測値の線形予
測方法を特定する情報を所定フォーマットで多重化して
生成された信号から、元のデジタル信号を復号する音声
復号方法であって、前記多重化された信号を分離し、前
記基準サンプル値と、前記選択された予測残差と、前記
選択された予測値の線形予測方法を特定する情報を抽出
するステップと、前記選択された予測残差に対応する単
一の予測器であって異なる予測係数を設定可能な予測器
で演算するステップと、前記選択された予測値の線形予
測方法を特定する情報を用いて復号時に前記単一の予測
器の予測係数を設定するステップと、からなる音声復号
方法。 2)入力されるデジタル音声信号に応答し、基準サンプ
ル値を所定時間のフレーム単位で得るステップと、前記
デジタル音声信号に応答し、時間領域の過去から予測さ
れる現在の信号の予測値の中でその予測残差が最小とな
るような線形予測方法を、前記フレームを更に分割した
サブフレーム単位に選択するステップと、前記基準サン
プル値と、前記選択された予測値の線形予測方法を特定
する情報と、前記選択された予測値からの予測残差と、
を前記選択された予測値からの予測残差がサブフレーム
単位でパッキングされる所定のフォーマットで多重化す
るステップと、からなる音声符号化方法により符号化さ
れたデータから元のデジタル信号を復号する音声復号方
法であって、前記多重化された信号を分離し、前記基準
サンプル値と、前記選択された予測残差と、前記選択さ
れた予測値の線形予測方法を特定する情報を抽出するス
テップと、前記抽出された基準サンプル値と、予測残差
と、線形予測方法とから予測値を算出するステップと、
この算出された予測値から元の音声信号を復元するステ
ップと、からなる音声復号方法。 3)入力される2系統のデジタル音声信号に応答し、基
準サンプル値を所定時間のフレーム単位で得るステップ
と、前記デジタル音声信号に応答し、時間領域の過去か
ら予測される現在の信号の予測値の中でその予測残差が
最小となるような線形予測方法を、前記フレームを更に
分割したサブフレーム単位に選択するステップと、前記
基準サンプル値と、前記選択された予測値の線形予測方
法を特定する情報と、前記選択された予測値からの予測
残差と、を1つのヘッダと前記予測残差に応じたビット
数情報とを含む所定のフォーマットで多重化すると共
に、前記予測残差に応じたビット数情報に基づいて前記
予測残差をパッキングするステップと、からなる音声符
号化方法。
1) A reference sample value is obtained in response to an input digital audio signal, and a linear prediction of a current signal is performed from a past signal in a time domain by a predetermined linear prediction method in response to the digital audio signal. Obtaining a prediction residual from the digital audio signal and the predicted value, selecting a linear prediction method in which the prediction residual is a minimum value in response to the digital audio signal, And an audio decoding method for decoding an original digital signal from a signal generated by multiplexing, in a predetermined format, the selected prediction residual and information specifying a linear prediction method of the selected prediction value. Separating the multiplexed signal, extracting the reference sample value, the selected prediction residual, and information identifying a linear prediction method of the selected prediction value; Using a single predictor corresponding to the selected prediction residual and calculating with a predictor capable of setting different prediction coefficients, and using information for specifying a linear prediction method of the selected prediction value. Setting a prediction coefficient of the single predictor at the time of decoding. 2) responding to the input digital audio signal and obtaining a reference sample value in frame units of a predetermined time; and responding to the digital audio signal, among the predicted values of the current signal predicted from the past in the time domain. Selecting a linear prediction method that minimizes the prediction residual in subframe units obtained by further dividing the frame, specifying the reference sample value, and a linear prediction method of the selected prediction value. Information, a prediction residual from the selected prediction value,
Multiplexing in a predetermined format in which prediction residuals from the selected prediction value are packed in subframe units, and decoding the original digital signal from the data encoded by the audio encoding method. Separating the multiplexed signal and extracting information identifying the reference sample value, the selected prediction residual, and a linear prediction method for the selected prediction value. Calculating a predicted value from the extracted reference sample value, the prediction residual, and a linear prediction method;
Restoring the original audio signal from the calculated predicted value. 3) responding to the two input digital audio signals and obtaining a reference sample value in frame units of a predetermined time; predicting a current signal predicted from the past in the time domain in response to the digital audio signals; Selecting a linear prediction method that minimizes the prediction residual among the values in subframe units obtained by further dividing the frame; the reference sample value; and a linear prediction method of the selected prediction value. And a prediction residual from the selected prediction value are multiplexed in a predetermined format including one header and bit number information according to the prediction residual, and the prediction residual is And packing the prediction residual based on the bit number information according to.

【0008】[0008]

【発明の実施の形態】以下、図面を参照して本発明の好
ましい実施の形態について説明する。図1は本発明を適
用した音声符号化装置(エンコーダ)の好ましい実施の
形態のブロック図である。入力音声信号としてはPCM
データが送られ、1フレームバッファ10は、まず基準
サンプル取得手段として動作し、各フレームの先頭サン
プル値をマルチプレクサ22に送出する。1フレームバ
ッファ10は、さらに複数の異なる特性の予測器12−
1、12−2、・・・12−nに1フレーム単位の入力
データを送る。1フレームは図2に示すようにサンプリ
ング周波数fsにより決まり、800サンプル又は16
00サンプルのデータを得る。ここで、異なる特性と
は、予測係数が異なることである。各予測器12−1、
12−2、・・・12−nの出力信号は、1フレームバ
ッファ10と共に対応する減算器14−1、14−2、
・・・14−nに与えられ、ここで残差(差分)が検出
される。すなわち、減算器14−1、14−2、・・・
14−nは予測残差検出手段として動作する。この残差
データはバッファ・選択器16に与えられる。本実施の
形態では、バッファ・選択器16は1フレームを細分化
したサブフレーム毎に予測残差を得る機能を有してい
る。サブフレームの時間長は、図2に示すとおり1フレ
ームの数十分の1であり、具体的には、0.1〜0.5
ms程度である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram of a preferred embodiment of a speech encoding device (encoder) to which the present invention is applied. PCM as input audio signal
The data is sent, and the one-frame buffer 10 first operates as a reference sample acquiring unit, and sends the first sample value of each frame to the multiplexer 22. One frame buffer 10 further includes a plurality of predictors 12- having different characteristics.
1, 12-2,..., 12-n are sent in units of one frame. One frame is determined by the sampling frequency fs as shown in FIG.
Obtain 00 sample data. Here, the different characteristics are different prediction coefficients. Each predictor 12-1,
The output signals of 12-2,..., 12-n are output to the corresponding subtracters 14-1, 14-2,
.. 14-n, where a residual (difference) is detected. That is, the subtracters 14-1, 14-2,...
14-n operates as prediction residual detection means. This residual data is provided to the buffer / selector 16. In the present embodiment, the buffer / selector 16 has a function of obtaining a prediction residual for each subframe obtained by subdividing one frame. The time length of the subframe is one-tenth of one frame as shown in FIG. 2, and specifically, 0.1 to 0.5
ms.

【0009】バッファ・選択器16に接続された選択信
号生成器18は、これらの残差データ中、残差が最小で
ある予測器の出力信号を選択するための選択信号をサブ
生成タ中、残差が最小である予測器の出力信号を選択す
るための選択信号をサブフレーム毎に生成して、バッフ
ァ・選択器16に送る。すなわち、選択信号生成器18
は、バッファ・選択器16に一時的に保持される、各減
算器からの残差信号を順次スキャンし、サブフレーム毎
に最も残差の少ない信号を見出し、次に対応する予測器
に応答する減算器の出力信号を選択するのである。バッ
ファ・選択器16は選択された信号のみをパッキング回
路20に送出する。また、選択信号生成器18は、各サ
ブフレームのビット数フラグを生成してパッキング回路
20に送り、パッキング回路20は、選択された残差信
号をこのビット数フラグにより指定されたビット数でパ
ッキングする。
A selection signal generator 18 connected to the buffer / selector 16 sub-generates a selection signal for selecting an output signal of a predictor having the minimum residual among these residual data. A selection signal for selecting an output signal of the predictor having the smallest residual is generated for each subframe, and is sent to the buffer / selector 16. That is, the selection signal generator 18
Sequentially scans the residual signal from each subtractor temporarily stored in the buffer / selector 16, finds the signal with the smallest residual for each subframe, and responds to the corresponding predictor next. The output signal of the subtractor is selected. The buffer / selector 16 sends only the selected signal to the packing circuit 20. Further, the selection signal generator 18 generates a bit number flag of each subframe and sends it to the packing circuit 20. The packing circuit 20 packs the selected residual signal with the number of bits specified by the bit number flag. I do.

【0010】パッキング回路20の出力信号はマルチプ
レクサ22に送られ、ここで、1フレームバッファ10
で得た基準サンプル値であるフレーム先頭サンプル値
(20ビット)、選択信号生成器18で得たビット数フ
ラグ(サブフレーム当たり5ビット)と予測器選択フラ
グ(サブフレーム当たり3ビット)、マルチプレクサで
発生するヘッダ(40ビット)と共に所定フォーマット
のビットストリームとされる。予測器選択フラグは上記
残差が最小である予測器を特定するための信号であり、
符号化(エンコード)された音声信号を復号(デコー
ド)する際に用いられる。復号を行うための音声復号装
置については図13と共に後述する。なお、図14はパ
ッキング後の1フレーム分のデータ配列を示すフォーマ
ット図である。この例では、左右(L、R)の2チャン
ネル(ch)のオーディオ信号信号を圧縮記録する場合
を示し、1フレームのサンプル数はチャンネル当たり1
600、1フレーム内のサブフレーム数はチャンネル当
たり80である。図2及び図14における”Qb”は当
初の量子化ビット数である。
[0010] The output signal of the packing circuit 20 is sent to a multiplexer 22, where the output signal of one frame buffer 10
, The number of bits flag (5 bits per subframe) and the predictor selection flag (3 bits per subframe) obtained by the selection signal generator 18, A bit stream of a predetermined format is generated together with the generated header (40 bits). The predictor selection flag is a signal for specifying the predictor having the minimum residual,
It is used when decoding an encoded audio signal. An audio decoding device for performing decoding will be described later with reference to FIG. FIG. 14 is a format diagram showing a data array for one frame after packing. This example shows a case where two channels (ch) of left and right (L, R) audio signals are compressed and recorded, and the number of samples in one frame is 1 per channel.
600, the number of subframes in one frame is 80 per channel. “Qb” in FIGS. 2 and 14 is the initial number of quantization bits.

【0011】ここで本発明におけるロスレス音声(オー
ディオ信号)符号化の原理について説明する。もし、符
号化すべきオーディオ信号がホワイトノイズの様な信号
であれば、そこには冗長度はなく、ロスレス符号化も効
力を発揮しない。しかし、現実のオーディオ信号には冗
長度をもたらすいくつかの性質がある。以下に代表的な
2つを挙げる。
Here, the principle of lossless speech (audio signal) encoding in the present invention will be described. If the audio signal to be encoded is a signal such as white noise, there is no redundancy, and lossless encoding does not work. However, real audio signals have several properties that lead to redundancy. The following are two typical examples.

【0012】1) 図9に示すように、オーディオ信号
は再生周波数帯域に対してエネルギーが低域側に偏って
いることが多い。また図10に示すように、時間領域で
みれば、サンプリング点の間隔に対して波形が滑らか
で、近接したサンプル間には大きな相関があり、予測が
可能である。 2) 図11に示すように、オーディオ信号の区間毎の
信号振幅には偏りがある。また、図12に示すように、
区間内の振幅出現確率にも偏りがあり、一般的には小振
幅ほど出現確率が高い。当然ながら、図11と図12の
内容には相関がある。
1) As shown in FIG. 9, an audio signal often has energy deviated to a lower frequency side with respect to a reproduction frequency band. Further, as shown in FIG. 10, when viewed in the time domain, the waveform is smooth with respect to the interval between sampling points, and there is a large correlation between adjacent samples, so that prediction is possible. 2) As shown in FIG. 11, the signal amplitude of each section of the audio signal has a bias. Also, as shown in FIG.
There is also a bias in the amplitude appearance probability in the section, and generally, the smaller the amplitude, the higher the appearance probability. Naturally, there is a correlation between the contents of FIG. 11 and FIG.

【0013】図9、図10で説明した性質(第1の性
質)を利用して高効率化する方法としては、信号を周波
数領域に変換して帯域毎に正規化する方法と、時間領域
で過去の信号から見た現在の信号の線形予測値を算出
し、予測値と実測値との残差を符号化する方法が考えら
れる(予測が適切であれば予測残差振幅は実測値よりも
大幅に減少する)。前者と後者を比較した場合、得られ
る効果には大きな差がなく、演算量は前者の方が数倍大
きいので、時間領域の手法を用いる方が有利である。聴
覚的符号化では信号を周波数帯域毎に制御するために周
波数領域の手法を用いることが多い。
As a method for improving the efficiency by using the property (first property) described with reference to FIGS. 9 and 10, there are a method of converting a signal into a frequency domain and normalizing the signal for each band, and a method of converting the signal into a time domain. A method is conceivable in which a linear prediction value of a current signal viewed from a past signal is calculated, and a residual between the prediction value and the actual measurement value is encoded (if the prediction is appropriate, the prediction residual amplitude is larger than the actual measurement value). Greatly reduced). When comparing the former and the latter, there is no great difference in the obtained effects, and the amount of calculation is several times larger in the former, so that it is more advantageous to use the time domain method. In audio coding, a frequency domain technique is often used to control a signal for each frequency band.

【0014】図11の性質(第2の性質)を利用するに
は、信号を一定の長さの区間に分割し、区間毎の最大値
で正規化することが考えられる。図12の性質を利用す
るには、一般的にはハフマン符号に代表されるエントロ
ピー符号化を施し、データに割り当てられる符号長を最
適化することが考えられる。ここで、図11の区間長を
短くすれば区間内での振幅の偏り、図12の出現確立の
偏りは減少し、エントロピー符号化の効果も減少する。
In order to use the property (second property) shown in FIG. 11, it is conceivable to divide the signal into sections of a fixed length and normalize the section with the maximum value for each section. In order to utilize the property of FIG. 12, entropy coding represented by Huffman coding is generally performed to optimize the code length allocated to data. Here, if the section length in FIG. 11 is shortened, the bias in the amplitude in the section and the bias in the appearance establishment in FIG. 12 are reduced, and the effect of entropy coding is also reduced.

【0015】本発明では、時間領域の線形予測符号化を
基本とし、特性の異なる複数の予測器を入力信号に応じ
て選択的に使用すること(第1の性質の利用)と、信号
を比較的短い区間に分割し、区間毎に上記処理を行うこ
と(第2の性質利用)を特徴とする線形予測ロスレスオ
ーディオ符号化方式を確立したものである。
According to the present invention, based on linear prediction coding in the time domain, a plurality of predictors having different characteristics are selectively used in accordance with an input signal (using the first property), and signals are compared. A linear predictive lossless audio encoding system characterized by dividing the data into short sections and performing the above-described processing for each section (using the second property) is established.

【0016】本発明における線形予測ロスレスオーディ
オ符号化を実現する図1の実施の形態の動作について図
2の主な仕様と共に更に説明する。符号化回路、すなわ
ちエンコーダでは複数の予測器で線形予測値・予測残差
を算出し、サブフレーム毎に残差最小となる予測器を選
択して結果のビット数でパッキングする。さらに、フレ
ーム毎に主情報と補助情報を合わせて所定フォーマット
で多重し、ビットストリーム化する。ここでは、比較的
短いサブフレーム毎に処理を行うことで、図11、図1
2で説明した冗長度を効果的に削減している。また、圧
縮後の各フレームのトータルビット数は一般に信号の冗
長度に依存して変化するので、本質的に可変伝送レート
(可変ビットレート)による運用となる。本実施の形態
で符号化された信号、すなわちマルチプレクサ22の出
力信号をCD−ROMやDVD(デジタル・バーサタイ
ル・ディスク)などの光記録媒体に記録することができ
る。なお、図示省略しているが、本発明の符号化装置で
生成されたビットストリームを復号するデコーダでは、
独立したフレーム毎にデコードが可能である。このデコ
ードに当たって、上記補助情報中の予測器選択フラグを
用いて、エンコード時と等価な予測を行うことができ
る。
The operation of the embodiment shown in FIG. 1 for realizing the linear prediction lossless audio encoding according to the present invention will be further described together with the main specifications shown in FIG. In an encoding circuit, that is, an encoder, a plurality of predictors calculate linear prediction values / prediction residuals, select a predictor having the minimum residual for each subframe, and pack the result with the number of bits. Further, the main information and the auxiliary information are combined and multiplexed in a predetermined format for each frame to form a bit stream. Here, by performing the processing for each relatively short subframe, FIG.
The redundancy described in item 2 is effectively reduced. Further, since the total number of bits of each frame after compression generally changes depending on the redundancy of the signal, the operation is essentially performed at a variable transmission rate (variable bit rate). The signal encoded in the present embodiment, that is, the output signal of the multiplexer 22 can be recorded on an optical recording medium such as a CD-ROM or a DVD (digital versatile disk). Although not shown, a decoder for decoding a bit stream generated by the encoding device of the present invention includes:
Decoding can be performed for each independent frame. In this decoding, a prediction equivalent to that at the time of encoding can be performed using the predictor selection flag in the auxiliary information.

【0017】ここで、図1における予測器12−1、1
2−2、12−nに線形予測器を用いた場合について検
討する。すなわち、線形予測を用いて図9、図10の冗
長度を削減する場合について検討する。ある入力系列x
iに対するn次線形予測値Piは次式で計算される。
Here, the predictors 12-1, 1 in FIG.
Consider the case where a linear predictor is used for 2-2 and 12-n. That is, consider the case of reducing the redundancy in FIGS. 9 and 10 using linear prediction. An input sequence x
The n-order linear prediction value Pi for i is calculated by the following equation.

【0018】[0018]

【数1】 (Equation 1)

【0019】ただし、ak(k=1,2,・・・,n) は予測係数で
ある。予測値と実測値との差分である予測残差diは
Here, ak (k = 1, 2,..., N) is a prediction coefficient. The prediction residual di, which is the difference between the predicted value and the measured value, is

【0020】[0020]

【数2】 (Equation 2)

【0021】となり、diはxi系列に対する線形フィ
ルタ出力であることが分かる。符号化においては、di
が最小となる様に予測フィルタの次数nと係数akを決
定する必要がある。係数akは整数とする場合と非整数
とする場合がある。整数係数を用いる典型的な予測器の
周波数特性を図3に示す。係数を非整数にすれば、より
柔軟なフィルタ特性の制御が可能である。しかし、非整
数化により係数ビット長が長くなれば予測器の演算語長
も増大し、エンコーダ・デコーダの演算精度の管理にも
注意を要するようになる。本実施の形態では、整数係数
による1次、2次、3次予測器と、整数係数を1ビット
拡張した非整数係数(0.5刻み)の4次予測器3種、合
計6種類を用意し、選択使用した。今回用いた非整数係
数の一例は下記のとおりである。
It can be seen that di is a linear filter output for the xi series. In encoding, di
It is necessary to determine the order n and coefficient ak of the prediction filter so that is minimized. The coefficient ak may be an integer or a non-integer. FIG. 3 shows the frequency characteristics of a typical predictor using integer coefficients. If the coefficients are non-integer, more flexible control of the filter characteristics is possible. However, if the coefficient bit length becomes longer due to non-integerization, the operation word length of the predictor also increases, and care must be taken in managing the operation accuracy of the encoder / decoder. In the present embodiment, a total of six types of primary, secondary, and tertiary predictors based on integer coefficients and three types of fourth-order predictors of non-integer coefficients (in increments of 0.5) obtained by extending the integer coefficients by one bit are prepared. Selected used. An example of the non-integer coefficient used this time is as follows.

【0022】 4次:a1=3.5 a2=-5.0 a3=3.5 a4=-1.0Fourth order: a1 = 3.5 a2 = −5.0 a3 = 3.5 a4 = −1.0

【0023】次に本実施の形態における圧縮率の評価に
ついて説明する。先に説明した符号化方式を用いて、複
数のオーディオソースの圧縮率を評価した。評価用のソ
ースの概要を図4に示す。従来のサンプリング周波数
(fs=44.1kHz)の20曲、及びハイビット・ハイサン
プリングソースの11曲である(各ソースとも3〜5分
程度の長さ)。図4ではソース・スペックとジャンルに
応じてソース番号を設定している。まず、各フレームに
おけるサンプル当り平均ビット数(ビットレート)の時
間推移の例を図5(ソース番号NP6)、及び図6(ソー
ス番号UC1)に示す。図の様に、ビットレートは曲調に
依存して時々刻々と変化する。また、図5の様な従来fs
のソースでは、ピークでの圧縮効果は小さい場合が多
い。
Next, evaluation of the compression ratio in the present embodiment will be described. The compression ratio of a plurality of audio sources was evaluated using the above-described encoding method. FIG. 4 shows an outline of the evaluation source. There are 20 songs of the conventional sampling frequency (fs = 44.1 kHz) and 11 songs of high bit / high sampling sources (each source has a length of about 3 to 5 minutes). In FIG. 4, source numbers are set according to source specifications and genres. First, FIG. 5 (source number NP6) and FIG. 6 (source number UC1) show an example of a temporal transition of the average number of bits per sample (bit rate) in each frame. As shown in the figure, the bit rate changes every moment depending on the tune. In addition, the conventional fs
In many sources, the compression effect at the peak is often small.

【0024】次に、各ソースの圧縮率=(圧縮後のデー
タサイズ)/(ソースのデータサイズ)×100[%]
を示す。図7はfs=44.1kHz/Qb=16ビットソース、図8は
fs=88.2kHz,96kHz/Qb=20ビットソースの圧縮率である。
一般に、ロスレス符号化で冗長度削減に寄与するのは上
位ビット側であり、LSB側にビット拡張した20ビット
量子化では付加分(4ビット)はほとんど圧縮されない。
したがって20ビットの場合の方が圧縮率が劣化する(大
きくなる)ことを前提にして考察する必要がある。
Next, the compression ratio of each source = (data size after compression) / (data size of source) × 100 [%]
Is shown. Figure 7 shows fs = 44.1kHz / Qb = 16 bit source, Figure 8 shows
fs = 88.2kHz, 96kHz / Qb = Compression rate of 20-bit source.
In general, it is the upper bits that contribute to the reduction of redundancy in lossless coding, and the additional bits (4 bits) are hardly compressed by 20-bit quantization with bits extended to the LSB side.
Therefore, it is necessary to consider the assumption that the compression ratio is deteriorated (increased) in the case of 20 bits.

【0025】図を見ると、従来のfs=44.1kHz/Qb=16ビッ
トソースの場合、圧縮率は約44%〜83%であり、特にポッ
プス・ロック(NP*)での圧縮効果は小さい。これらのソ
ースでビット数を20ビットに拡張することを仮定する
と、圧縮率は約55%〜86%と推測される。一方fs=88.2kH
z,96kHzのハイサンプリング・ソースではfs/4以上の高
域のエネルギーが小さく、その分冗長度が大きいと予想
される。今回の例でも圧縮率は約44%〜62%と比較的良好
であり、50%前後の圧縮率(20ビットの場合)が見込めれ
ば実用化の可能性が考えられる。なお、ソースUJ1〜UJ3
は古いアナログマスターのためS/Nが悪く、圧縮率が劣
化している。ハイサンプリング・ソースに関しては、今
回検討できなかったポップス・ロック系における可能性
は未知数であるものの、ロスレス符号化は有効であると
考えられる。
Referring to the figure, in the case of the conventional fs = 44.1 kHz / Qb = 16 bit source, the compression ratio is about 44% to 83%, and the compression effect particularly in pop rock (NP *) is small. Assuming that these sources extend the number of bits to 20 bits, the compression ratio is estimated to be about 55% to 86%. Fs = 88.2kH
In the high sampling source of z, 96kHz, the energy in the high frequency range above fs / 4 is small, and the redundancy is expected to be large accordingly. In this example, the compression ratio is relatively good, about 44% to 62%. If a compression ratio of about 50% (in the case of 20 bits) can be expected, practical application is possible. Source UJ1 to UJ3
Has a poor S / N ratio due to the old analog master, and the compression ratio is degraded. Regarding the high-sampling source, although the possibility in the pop / rock system that could not be considered this time is unknown, lossless coding is considered to be effective.

【0026】次に本発明の符号化により生成された可変
レートビットストリームに応答して、デコードする音声
復号装置の好ましい実施の形態について図13に沿って
説明する。図13の音声復号装置は図1のマルチプレク
サ22の出力信号(あるいはこの出力信号を記録媒体に
記録して再生した信号)である可変レートビットストリ
ームを各信号成分に分解するデマルチプレクサ24を有
している。デマルチプレクサ24の出力信号中、フレー
ム先頭サンプル値はPCMデータの一部として出力され
る。デマルチプレクサ24の出力信号中、ビット数フラ
グは音声信号をアンパックするアンパッキング回路26
に与えられる。
Next, a preferred embodiment of a speech decoding apparatus for decoding in response to a variable rate bit stream generated by encoding according to the present invention will be described with reference to FIG. The audio decoding apparatus of FIG. 13 has a demultiplexer 24 for decomposing a variable rate bit stream which is an output signal of the multiplexer 22 of FIG. 1 (or a signal obtained by recording this output signal on a recording medium and reproducing) into signal components. ing. In the output signal of the demultiplexer 24, the frame head sample value is output as a part of the PCM data. In the output signal of the demultiplexer 24, the bit number flag indicates an unpacking circuit 26 for unpacking the audio signal.
Given to.

【0027】デマルチプレクサ24の出力信号中、予測
器選択フラグは複数の予測器30−1、30−2、・・
・30−nの1つを選択するために用いられる。選択さ
れた予測器の出力信号は加算器28に与えられ、アンパ
ッキング回路26の出力信号と加算されてPCMデータ
として出力される。なお、予測器選択フラグは符号化の
ところで説明したように、サブフレーム毎に変化するの
で、サブフレーム毎に予測器30−1、30−2、・・
・30−nの1つが選択されることとなる。よって、符
号化と逆の手順により復号することができ、元のPCM
データをロスレスで得ることができる。
In the output signal of the demultiplexer 24, the predictor selection flag indicates a plurality of predictors 30-1, 30-2,.
Used to select one of 30-n. The output signal of the selected predictor is supplied to the adder 28, added to the output signal of the unpacking circuit 26, and output as PCM data. Since the predictor selection flag changes for each sub-frame as described in the description of the encoding, the predictors 30-1, 30-2,.
One of 30-n will be selected. Therefore, decoding can be performed in a procedure reverse to the encoding, and the original PCM
Data can be obtained without loss.

【0028】上記図13の構成では、図1の音声符号化
装置同様、複数の予測器を用いているが、デコード時に
は、エンコード程の速度は要求されないので、単一の予
測器で予測係数が可変なものを使用し、予測器選択フラ
グにより所望の予測係数を設定するようにしてもよい。
In the configuration shown in FIG. 13, a plurality of predictors are used, as in the speech coding apparatus of FIG. 1. However, at the time of decoding, the speed of encoding is not required. It is also possible to use a variable one and set a desired prediction coefficient by a predictor selection flag.

【0029】[0029]

【発明の効果】以上説明したように本発明によれば、特
に、音声信号予測符号化する場合に圧縮効率を改善する
と共に、帯域分割の手法を用いておらず、構成処理がよ
り単純でコストが低く押さえられる方法を提供できる。
As described above, according to the present invention, the compression efficiency is improved especially in the case of predictive coding of an audio signal, and the band division method is not used, so that the configuration processing is simpler and the cost is reduced. Can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した音声符号化装置の好ましい実
施の形態のブロック図である。
FIG. 1 is a block diagram of a preferred embodiment of a speech encoding device to which the present invention has been applied.

【図2】図1の実施の形態における符号化の仕様を示す
図表である。
FIG. 2 is a table showing coding specifications in the embodiment of FIG. 1;

【図3】典型的な予測器の周波数特性を示すグラフであ
る。
FIG. 3 is a graph showing frequency characteristics of a typical predictor.

【図4】本発明による符号化の圧縮効率を評価するため
に用いたテストソースの一覧図表である。
FIG. 4 is a list of test sources used for evaluating the compression efficiency of encoding according to the present invention.

【図5】本発明による符号化の圧縮効率の評価結果の一
例である。
FIG. 5 is an example of an evaluation result of compression efficiency of encoding according to the present invention.

【図6】本発明による符号化の圧縮効率の評価結果の他
の例である。
FIG. 6 is another example of the evaluation result of the compression efficiency of encoding according to the present invention.

【図7】本発明による符号化の圧縮率をサンプリング周
波数が44.1kHzのソース別に示したグラフであ
る。
FIG. 7 is a graph showing a compression rate of encoding according to the present invention for each source having a sampling frequency of 44.1 kHz.

【図8】本発明による符号化の圧縮率をサンプリング周
波数が88.2kHzと96kHzのソース別に示した
グラフである。
FIG. 8 is a graph showing a compression rate of encoding according to the present invention for each of sources having a sampling frequency of 88.2 kHz and 96 kHz.

【図9】オーディオ信号の周波数分布を示すグラフであ
る。
FIG. 9 is a graph showing a frequency distribution of an audio signal.

【図10】オーディオ信号の時間に対する振幅変化を示
す波形図である。
FIG. 10 is a waveform diagram showing a change in amplitude of an audio signal with respect to time.

【図11】オーディオ信号の振幅変化を区間(セグメン
ト)毎に示した図である。
FIG. 11 is a diagram showing a change in amplitude of an audio signal for each section (segment);

【図12】オーディオ信号の振幅と出現確率の関係を示
したグラフである。
FIG. 12 is a graph showing a relationship between an amplitude of an audio signal and an appearance probability.

【図13】本発明の音声復号方法を適用した音声復号装
置の好ましい実施の形態を示すブロック図である。
FIG. 13 is a block diagram showing a preferred embodiment of a speech decoding device to which the speech decoding method of the present invention is applied.

【図14】パッキング後の1フレーム分のデータ配列を
示すフォーマット図である。
FIG. 14 is a format diagram showing a data array for one frame after packing.

【符号の説明】[Explanation of symbols]

10 1フレームバッファ(基準サンプル値取得手段) 12−1、12−2、・・・12−n 予測器 14−1、14−2、・・・14−n 減算器(予測残
差検出手段) 16 バッファ・選択器 18 選択信号生成器(予測器を選択する手段・予測器
特定する情報を生成する手段) 20 パッキング回路(パッキング手段) 22 マルチプレクサ(多重化する手段) 24 デマルチプレクサ(抽出する手段) 26 アンパッキング回路 28 加算器 30−1、30−2、・・・30−n 予測器
10 1 frame buffer (reference sample value acquisition means) 12-1, 12-2,..., 12-n predictor 14-1, 14-2,. Reference Signs List 16 buffer / selector 18 selection signal generator (means for selecting a predictor / means for generating information specifying a predictor) 20 packing circuit (packing means) 22 multiplexer (means for multiplexing) 24 demultiplexer (means for extracting 26 unpacking circuit 28 adder 30-1, 30-2,... 30-n predictor

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成13年2月7日(2001.2.7)[Submission date] February 7, 2001 (2001.2.7)

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】特許請求の範囲[Correction target item name] Claims

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【特許請求の範囲】[Claims]

【手続補正2】[Procedure amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0007[Correction target item name] 0007

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【0007】1)入力されるデジタル音声信号に応答し
て、基準サンプル値を得るとともに、前記デジタル音声
信号に応答して特性が異なる複数の線形予測方法により
時間領域の過去の信号から現在の信号の線形予測値を
れぞれ得て、前記デジタル音声信号と前記線形予測値と
から予測残差を得て、前記デジタル音声信号に応答して
前記予測残差が最小値である線形予測方法を選択し、前
記基準サンプル値と、前記選択された予測残差と、前記
選択された予測値の線形予測方法を特定する情報を所定
フォーマットで多重化して生成された信号から、元のデ
ジタル信号を復号する音声復号方法であって、前記多重
化された信号を分離し、前記基準サンプル値と、前記選
択された予測残差と、前記選択された予測値の線形予測
方法を特定する情報を抽出するステップと、前記選択さ
れた予測残差に対応する単一の予測器であって異なる予
測係数を設定可能な予測器で演算するステップと、前記
選択された予測値の線形予測方法を特定する情報を用い
て復号時に前記単一の予測器の予測係数を設定するステ
ップと、からなる音声復号方法。 2)入力されるデジタル音声信号に応答し、基準サンプ
ル値を所定時間のフレーム単位で得るステップと、前記
デジタル音声信号に応答し、特性が異なる複数の線形予
測方法により時間領域の過去から現在の信号の線形予測
値がそれぞれ予測され、その予測される線形予測値と前
記音声信号とから得られる予測残差が最小となるような
線形予測方法を、前記フレームを更に分割したサブフレ
ーム単位に選択するステップと、前記基準サンプル値
と、前記選択された予測値の線形予測方法を特定する情
報と、前記選択された予測値からの予測残差と、を前記
選択された予測値からの予測残差がサブフレーム単位で
パッキングされる所定のフォーマットで多重化するステ
ップと、からなる音声符号化方法により符号化されたデ
ータから元のデジタル信号を復号する音声復号方法であ
って、前記多重化された信号を分離し、前記基準サンプ
ル値と、前記選択された予測残差と、前記選択された予
測値の線形予測方法を特定する情報を抽出するステップ
と、前記抽出された基準サンプル値と、予測残差と、線
形予測方法とから予測値を算出するステップと、この算
出された予測値から元の音声信号を復元するステップ
と、からなる音声復号方法。 3)入力される2系統のデジタル音声信号に応答し、基
準サンプル値を所定時間のフレーム単位で得るステップ
と、前記デジタル音声信号に応答し、特性が異なる複数
の線形予測方法により時間領域の過去から現在の信号の
線形予測値がそれぞれ予測され、その予測される線形予
測値と前記音声信号とから得られる予測残差が最小とな
るような線形予測方法を、前記フレームを更に分割した
サブフレーム単位に選択するステップと、前記基準サン
プル値と、前記選択された予測値の線形予測方法を特定
する情報と、前記選択された予測値からの予測残差と、
を1つのヘッダと前記予測残差に応じたビット数情報と
を含む所定のフォーマットで多重化すると共に、前記予
測残差に応じたビット数情報に基づいて前記予測残差を
パッキングするステップと、からなる音声符号化方法。
1) A reference sample value is obtained in response to an input digital audio signal, and a current signal is converted from a past signal in the time domain by a plurality of linear prediction methods having different characteristics in response to the digital audio signal. its linear prediction value of
Respectively, obtaining a prediction residual from the digital audio signal and the linear prediction value, selecting a linear prediction method in which the prediction residual is a minimum value in response to the digital audio signal, A speech decoding method for decoding an original digital signal from a signal generated by multiplexing a sample value, the selected prediction residual, and information specifying a linear prediction method of the selected prediction value in a predetermined format. Separating the multiplexed signal, extracting the reference sample value, the selected prediction residual, and information identifying a linear prediction method of the selected prediction value; Calculating by a single predictor corresponding to the selected prediction residual and a predictor capable of setting different prediction coefficients, and decoding by using information specifying a linear prediction method of the selected prediction value Sometimes said simple Step a speech decoding method comprising setting a prediction coefficient of the predictor. 2) obtaining a reference sample value in units of frames of a predetermined time in response to the input digital audio signal; and a plurality of linear processors having different characteristics in response to the digital audio signal.
Linear prediction of current signal from past in time domain by measurement method
Each value is predicted, its predicted linear prediction value and the previous
Selecting a linear prediction method such that a prediction residual obtained from the speech signal is minimized in units of sub-frames obtained by further dividing the frame; and a step of selecting the linearity of the reference sample value and the selected prediction value. Multiplexing information specifying a prediction method and a prediction residual from the selected prediction value in a predetermined format in which prediction residuals from the selected prediction value are packed in subframe units; A speech decoding method for decoding an original digital signal from data encoded by a speech encoding method comprising: separating the multiplexed signal, the reference sample value, and the selected prediction residue. Extracting information that specifies a difference, a method of linearly predicting the selected predicted value, and predicting from the extracted reference sample value, the prediction residual, and the linear prediction method. Steps and, and restoring the original audio signal from the calculated prediction value, voice decoding method consists of calculating the value. 3) in response to the digital audio signals of two channels inputted, obtaining a reference sample value in frames of a predetermined time, in response to said digital audio signal, a plurality of different properties
Of the current signal from the past in the time domain by the linear prediction method
Each linear prediction is predicted and its predicted linear prediction
Selecting a linear prediction method such that a prediction residual obtained from the measured value and the audio signal is minimized in subframe units obtained by further dividing the frame; and the reference sample value and the selected prediction. Information identifying a linear prediction method of the value, a prediction residual from the selected prediction value,
In a predetermined format including one header and bit number information according to the prediction residual, and packing the prediction residual based on the bit number information according to the prediction residual; An audio coding method comprising:

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】入力されるデジタル音声信号に応答して、
基準サンプル値を得るとともに、前記デジタル音声信号
に応答して所定の線形予測方法により時間領域の過去の
信号から現在の信号の線形予測値を得て、前記デジタル
音声信号と前記予測値とから予測残差を得て、前記デジ
タル音声信号に応答して前記予測残差が最小値である線
形予測方法を選択し、前記基準サンプル値と、前記選択
された予測残差と、前記選択された予測値の線形予測方
法を特定する情報を所定フォーマットで多重化して生成
された信号から、元のデジタル信号を復号する音声復号
方法であって、 前記多重化された信号を分離し、前記基準サンプル値
と、前記選択された予測残差と、前記選択された予測値
の線形予測方法を特定する情報を抽出するステップと、 前記選択された予測残差に対応する単一の予測器であっ
て異なる予測係数を設定可能な予測器で演算するステッ
プと、 前記選択された予測値の線形予測方法を特定する情報を
用いて復号時に前記単一の予測器の予測係数を設定する
ステップと、 からなる音声復号方法。
1. In response to an input digital audio signal,
Obtaining a reference sample value, and obtaining a linear prediction value of a current signal from a past signal in a time domain by a predetermined linear prediction method in response to the digital audio signal, and predicting the linear prediction value from the digital audio signal and the prediction value. Obtaining a residual, and selecting a linear prediction method in which the prediction residual is a minimum value in response to the digital audio signal, the reference sample value, the selected prediction residual, and the selected prediction A speech decoding method for decoding an original digital signal from a signal generated by multiplexing information specifying a linear prediction method of a value in a predetermined format, comprising: separating the multiplexed signal; Extracting the selected prediction residual and information specifying a linear prediction method of the selected prediction value; and a single predictor corresponding to the selected prediction residual. Calculating with a predictor capable of setting a prediction coefficient, and setting a prediction coefficient of the single predictor at the time of decoding using information specifying a linear prediction method of the selected prediction value, Voice decoding method.
【請求項2】入力されるデジタル音声信号に応答し、基
準サンプル値を所定時間のフレーム単位で得るステップ
と、 前記デジタル音声信号に応答し、時間領域の過去から予
測される現在の信号の予測値の中でその予測残差が最小
となるような線形予測方法を、前記フレームを更に分割
したサブフレーム単位に選択するステップと、 前記基準サンプル値と、前記選択された予測値の線形予
測方法を特定する情報と、前記選択された予測値からの
予測残差と、を前記選択された予測値からの予測残差が
サブフレーム単位でパッキングされる所定のフォーマッ
トで多重化するステップと、からなる音声符号化方法に
より符号化されたデータから元のデジタル信号を復号す
る音声復号方法であって、 前記多重化された信号を分離し、前記基準サンプル値
と、前記選択された予測残差と、前記選択された予測値
の線形予測方法を特定する情報を抽出するステップと、 前記抽出された基準サンプル値と、予測残差と、線形予
測方法とから予測値を算出するステップと、 この算出された予測値から元の音声信号を復元するステ
ップと、 からなる音声復号方法。
2. A step of obtaining a reference sample value in units of a predetermined time frame in response to an input digital audio signal, and a step of predicting a current signal predicted from a past in a time domain in response to the digital audio signal. Selecting a linear prediction method that minimizes the prediction residual among the values in subframe units obtained by further dividing the frame; the reference sample value; and a linear prediction method of the selected prediction value Multiplexing the information identifying and the prediction residual from the selected prediction value in a predetermined format in which the prediction residual from the selected prediction value is packed in subframe units. A speech decoding method for decoding an original digital signal from data encoded by a speech encoding method, comprising: separating the multiplexed signal; Extracting the value, the selected prediction residual, and information specifying a linear prediction method of the selected prediction value; and the extracted reference sample value, the prediction residual, and the linear prediction method. A speech decoding method, comprising: calculating a predicted value from, and restoring an original audio signal from the calculated predicted value.
【請求項3】入力される2系統のデジタル音声信号に応
答し、基準サンプル値を所定時間のフレーム単位で得る
ステップと、 前記デジタル音声信号に応答し、時間領域の過去から予
測される現在の信号の予測値の中でその予測残差が最小
となるような線形予測方法を、前記フレームを更に分割
したサブフレーム単位に選択するステップと、 前記基準サンプル値と、前記選択された予測値の線形予
測方法を特定する情報と、前記選択された予測値からの
予測残差と、を1つのヘッダと前記予測残差に応じたビ
ット数情報とを含む所定のフォーマットで多重化すると
共に、前記予測残差に応じたビット数情報に基づいて前
記予測残差をパッキングするステップと、からなる音声
符号化方法。
3. A step of responding to two input digital audio signals and obtaining a reference sample value in a frame unit of a predetermined time, and a step of responding to the digital audio signals and predicting a current time predicted from a past in a time domain. Selecting a linear prediction method in which the prediction residual is minimized among the prediction values of the signal in subframe units obtained by further dividing the frame; and the reference sample value and the selected prediction value. While multiplexing information specifying a linear prediction method and a prediction residual from the selected prediction value in a predetermined format including one header and bit number information according to the prediction residual, Packing the prediction residual based on bit number information corresponding to the prediction residual.
JP2000321507A 2000-10-20 2000-10-20 Audio coding method Expired - Lifetime JP3387093B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000321507A JP3387093B2 (en) 2000-10-20 2000-10-20 Audio coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000321507A JP3387093B2 (en) 2000-10-20 2000-10-20 Audio coding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP9289159A Division JPH11109996A (en) 1997-10-06 1997-10-06 Voice coding device, voice coding method and optical recording medium recorded with voice coding information and voice decoding device

Publications (2)

Publication Number Publication Date
JP2001195094A true JP2001195094A (en) 2001-07-19
JP3387093B2 JP3387093B2 (en) 2003-03-17

Family

ID=18799623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000321507A Expired - Lifetime JP3387093B2 (en) 2000-10-20 2000-10-20 Audio coding method

Country Status (1)

Country Link
JP (1) JP3387093B2 (en)

Also Published As

Publication number Publication date
JP3387093B2 (en) 2003-03-17

Similar Documents

Publication Publication Date Title
EP1764923B1 (en) Multi-channel signal encoding method, decoding method, device thereof, program, and recording medium thereof
US6675148B2 (en) Lossless audio coder
RU2387023C2 (en) Lossless multichannel audio codec
TWI474316B (en) Lossless multi-channel audio codec using adaptive segmentation with random access point (rap) and multiple prediction parameter set (mpps) capability
EP2270774A2 (en) Lossless multi-channel audio codec
KR20060084440A (en) A fast codebook selection method in audio encoding
JPH11109996A (en) Voice coding device, voice coding method and optical recording medium recorded with voice coding information and voice decoding device
JP3387092B2 (en) Audio coding device
JP3387094B2 (en) Audio coding method
JP3387093B2 (en) Audio coding method
JP4848049B2 (en) Encoding method, decoding method, apparatus thereof, program, and recording medium
JP2004258059A (en) Compression analyzing device and converting device for time-series signal
JP2006235643A (en) Digital signal coding and decoding methods and apparatuses and programs therefor
JP2004266587A (en) Time-sequential signal encoding apparatus and recording medium
JP4195598B2 (en) Encoding method, decoding method, encoding device, decoding device, encoding program, decoding program
JP4249540B2 (en) Time-series signal encoding apparatus and recording medium
JPH05289700A (en) Voice encoding device
JP2004198559A (en) Encoding method and decoding method for time-series signal
JP4244222B2 (en) Speech encoding method and speech decoding method
JP4151033B2 (en) Speech encoding method and speech decoding method
JP4151031B2 (en) Speech encoding method and speech decoding method
JP4587084B2 (en) Speech coding method, speech decoding method, and speech signal transmission method
JP4151032B2 (en) Speech encoding method and speech decoding method
JP2005208670A (en) Voice encoding method and voice decoding method
JP2005208668A (en) Voice encoding method and voice decoding method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100110

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110110

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120110

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120110

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20180110

Year of fee payment: 15

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20180110

Year of fee payment: 15

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20180110

Year of fee payment: 15

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term