JP4293005B2 - Speech and music signal encoding apparatus and decoding apparatus - Google Patents
Speech and music signal encoding apparatus and decoding apparatus Download PDFInfo
- Publication number
- JP4293005B2 JP4293005B2 JP2004027981A JP2004027981A JP4293005B2 JP 4293005 B2 JP4293005 B2 JP 4293005B2 JP 2004027981 A JP2004027981 A JP 2004027981A JP 2004027981 A JP2004027981 A JP 2004027981A JP 4293005 B2 JP4293005 B2 JP 4293005B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- linear prediction
- prediction coefficient
- circuit
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
Description
本発明は、音声音楽信号を低ビットレートで伝送するための符号化装置および復号装置に関するものである。 The present invention relates to an encoding device and a decoding device for transmitting a voice music signal at a low bit rate.
音声信号を中低ビットレートで高能率に符号化する方法として、音声信号を線形予測フィルタとその駆動音源信号(音源信号)に分離して符号化する方法が広く用いられている。 As a method of encoding an audio signal at a medium to low bit rate with high efficiency, a method of encoding an audio signal by separating it into a linear prediction filter and its driving excitation signal (excitation signal) is widely used.
その代表的な方法の一つにCELP(Code Excited Linear Prediction)がある。CELPでは、入力音声を線形予測分析して求めた線形予測係数が設定された線形予測フィルタを、音声のピッチ周期を表す信号と雑音的な信号との和で表される音源信号により駆動することで、合成音声信号(再生信号)が得られる。CELPに関してはM. Schroederらによる「Code excited linear prediction:High quality speech at very low bit rates」(Proc. ICASSP, pp.937-940, 1985 )(非特許文献1)を参照できる。また、前記CELPを帯域分割構成とすることで、音楽信号に対する符号化性能を改善できる。この構成では、各帯域に対応する音源信号を加算して得られる励振信号で、線形予測合成フィルタを駆動することによって、再生信号を生成する。 One typical method is CELP (Code Excited Linear Prediction). In CELP, a linear prediction filter in which a linear prediction coefficient obtained by linear prediction analysis of input speech is set is driven by a sound source signal represented by the sum of a speech pitch period signal and a noisy signal. Thus, a synthesized voice signal (reproduced signal) is obtained. Regarding CELP, reference can be made to “Code excited linear prediction: High quality speech at very low bit rates” (Proc. ICASSP, pp. 937-940, 1985) (Non-Patent Document 1). Also, the coding performance for the music signal can be improved by adopting a band division configuration for the CELP. In this configuration, a reproduction signal is generated by driving a linear prediction synthesis filter with an excitation signal obtained by adding sound source signals corresponding to each band.
帯域分割構成のCELPに関しては、A. Ubaleらによる「Multi-band CELP Coding of Speech and Music」(IEEE Workshop on Speech Coding for Telec
ommunications, pp.101-102, 1997)(非特許文献2)を参照できる。
Regarding CELP in band division configuration, “Multi-band CELP Coding of Speech and Music” by A. Ubale et al. (IEEE Workshop on Speech Coding for Telec
ommunications, pp. 101-102, 1997) (Non-Patent Document 2).
図31は従来の音声音楽信号符号化装置の一例を示すブロック図である。ここでは簡単のため、帯域数を2とする。音声または音楽信号をサンプリングし、この複数サンプルを1フレームとして一つのベクトルにまとめて生成した入力信号(入力ベクトル)は、入力端子10から入力される。
FIG. 31 is a block diagram showing an example of a conventional speech and music signal encoding apparatus. Here, for simplicity, the number of bands is 2. An input signal (input vector) generated by sampling a voice or music signal and combining the plurality of samples into one vector as one frame is input from the
線形予測係数計算回路170は、入力端子10から入力ベクトルを入力し、前記入力ベクトルに対して線形予測分析を行い、線形予測係数を求め、さらに前記線形予測係数を量子化し、量子化線形予測係数を求める。そして前記線形予測係数を重みづけフィルタ140と重みづけフィルタ141へ出力し、量子化線形予測係数に対応するインデックスを線形予測合成フィルタ130と線形予測合成フィルタ131および符号出力回路190へ出力する。
The linear prediction
第1の音源生成回路110は、第1の最小化回路150から出力されるインデックスを入力し、前記インデックスに対応する第1の音源ベクトルを、複数個の音源ベクトルが格納されたテーブルより読み出し、第1のゲイン回路160へ出力する。
The first sound
第2の音源生成回路111は、第2の最小化回路151から出力されるインデックスを入力し、前記インデックスに対応する第2の音源ベクトルを、複数個の音源ベクトルが格納されたテーブルより読み出し、第2のゲイン回路161へ出力する。
The second sound source generation circuit 111 receives the index output from the
第1のゲイン回路160は、第1の最小化回路150から出力されるインデックスと第1の音源生成回路110から出力される第1の音源ベクトルとを入力し、前記インデックスに対応する第1のゲインを、ゲインの値が複数個格納されたテーブルより読み出し、前記第1のゲインと前記第1の音源ベクトルとを乗算し、第3の音源ベクトルを生成し、前記第3の音源ベクトルを第1の帯域通過フィルタ120へ出力する。
The
第2のゲイン回路161は、第2の最小化回路151から出力されるインデックスと第2の音源生成回路111から出力される第2の音源ベクトルとを入力し、前記インデックスに対応する第2のゲインを、ゲインの値が複数個格納されたテーブルより読み出し、前記第2のゲインと前記第2の音源ベクトルとを乗算し、第4の音源ベクトルを生成し、前記第4の音源ベクトルを第2の帯域通過フィルタ121へ出力する。
The
第1の帯域通過フィルタ120は、第1のゲイン回路160から出力される第3の音源ベクトルを入力する。前記第3の音源ベクトルは、このフィルタにより第1の帯域に帯域制限され、第1の励振ベクトルを得る。第1の帯域通過フィルタ120は、前記第1の励振ベクトルを線形予測合成フィルタ130へ出力する。
The first
第2の帯域通過フィルタ121は、第2のゲイン回路161から出力される第4の音源ベクトルを入力する。前記第4の音源ベクトルは、このフィルタにより第2の帯域に帯域制限され、第2の励振ベクトルを得る。第2の帯域通過フィルタ121は、前記第2の励振ベクトルを線形予測合成フィルタ131へ出力する。
The second
線形予測合成フィルタ130は、第1の帯域通過フィルタ120から出力される第1の励振ベクトルと線形予測係数計算回路170から出力される量子化線形予測係数に対応するインデックスとを入力し、前記インデックスに対応する量子化線形予測係数を、量子化線形予測係数が複数個格納されたテーブルより読み出し、この量子化線形予測係数が設定されたフィルタを、前記第1の励振ベクトルにより駆動することで、第1の再生信号(再生ベクトル)を得る。そして前記第1の再生ベクトルを第1の差分器180へ出力する。
The linear
線形予測合成フィルタ131は、第2の帯域通過フィルタ121から出力される第2の励振ベクトルと線形予測係数計算回路170から出力される量子化線形予測係数に対応するインデックスとを入力し、前記インデックスに対応する量子化線形予測係数を、量子化線形予測係数が複数個格納されたテーブルより読み出し、この量子化線形予測係数が設定されたフィルタを、前記第2の励振ベクトルにより駆動することで、第2の再生ベクトルを得る。そして前記第2の再生ベクトルを第2の差分器181へ出力する。
The linear
第1の差分器180は、入力端子10を介して入力ベクトルを入力し、線形予測合成フィルタ130から出力される第1の再生ベクトルを入力し、それらの差分を計算し、これを第1の差分ベクトルとして、重みづけフィルタ140と第2の差分器181へ出力する。
The
第2の差分器181は、第1の差分器180から第1の差分ベクトルを入力し、線形予測合成フィルタ131から出力される第2の再生ベクトルを入力し、それらの差分を計算し、これを第2の差分ベクトルとして、重みづけフィルタ141へ出力する。
The
重みづけフィルタ140は、第1の差分器180から出力される第1の差分ベクトルと線形予測係数計算回路170から出力される線形予測係数を入力し、前記線形予測係数を用いて、人間の聴覚特性に対応した重みづけフィルタを生成し、前記重みづけフィルタを前記第1の差分ベクトルで駆動することで、第1の重
みづけ差分ベクトルを得る。そして前記第1の重みづけ差分ベクトルを第1の最小化回路150へ出力する。
The
重みづけフィルタ141は、第2の差分器181から出力される第2の差分ベクトルと線形予測係数計算回路170から出力される線形予測係数を入力し、前記線形予測係数を用いて、人間の聴覚特性に対応した重みづけフィルタを生成し、前記重みづけフィルタを前記第2の差分ベクトルで駆動することで、第2の重みづけ差分ベクトルを得る。そして前記第2の重みづけ差分ベクトルを第2の最小化回路151へ出力する。
The
第1の最小化回路150は、第1の音源生成回路110に格納されている第1の音源ベクトル全てに対応するインデックスを、前記第1の音源生成回路110へ順次出力し、第1のゲイン回路160に格納されている第1のゲイン全てに対応するインデックスを、前記第1のゲイン回路160へ順次出力する。また、重みづけフィルタ140から出力される第1の重みづけ差分ベクトルを順次入力し、そのノルムを計算し、前記ノルムが最小となるような、前記第1の音源ベクトルおよび前記第1のゲインを選択し、これらに対応するインデックスを符号出力回路190へ出力する。
The first minimizing
第2の最小化回路151は、第2の音源生成回路111に格納されている第2の音源ベクトル全てに対応するインデックスを、前記第2の音源生成回路111へ順次出力し、第2のゲイン回路161に格納されている第2のゲイン全てに対応するインデックスを、前記第2のゲイン回路161へ順次出力する。また、重みづけフィルタ141から出力される第2の重みづけ差分ベクトルを順次入力し、そのノルムを計算し、前記ノルムが最小となるような、前記第2の音源ベクトルおよび前記第2のゲインを選択し、これらに対応するインデックスを符号出力回路190へ出力する。
The second minimizing
符号出力回路190は、線形予測係数計算回路170から出力される量子化線形予測係数に対応するインデックスを入力する。また、第1の最小化回路150から出力される、第1の音源ベクトルおよび第1のゲインの各々に対応するインデックスを入力し、第2の最小化回路151から出力される、第2の音源ベクトルおよび第2のゲインの各々に対応するインデックスを入力する。そして各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The
図32は、従来の音声音楽信号復号装置の一例を示すブロック図である。入力端子30からビット系列の符号を入力する。
FIG. 32 is a block diagram showing an example of a conventional speech and music signal decoding apparatus. A bit sequence code is input from the
符号入力回路310は、入力端子30から入力したビット系列の符号をインデックスに変換する。第1の音源ベクトルに対応するインデックスは、第1の音源生成回路110へ出力される。第2の音源ベクトルに対応するインデックスは、第2の音源生成回路111へ出力される。第1のゲインに対応するインデックスは、第1のゲイン回路160へ出力される。第2のゲインに対応するインデックスは、第2のゲイン回路161へ出力される。量子化線形予測係数に対応するインデックスは、線形予測合成フィルタ130および線形予測合成フィルタ131へ出力される。
The
第1の音源生成回路110は、符号入力回路310から出力されるインデックスを入力し、前記インデックスに対応する第1の音源ベクトルを、複数個の音源ベクトルが格納されたテーブルより読み出し、第1のゲイン回路160へ出力する。
The
第2の音源生成回路111は、符号入力回路310から出力されるインデックスを入力し、前記インデックスに対応する第2の音源ベクトルを、複数個の音源ベクトルが格納されたテーブルより読み出し、第2のゲイン回路161へ出力する。
The second sound source generation circuit 111 receives the index output from the
第1のゲイン回路160は、符号入力回路310から出力されるインデックスと第1の音源生成回路110から出力される第1の音源ベクトルとを入力し、前記インデックスに対応する第1のゲインを、ゲインの値が複数個格納されたテーブルより読み出し、前記第1のゲインと前記第1の音源ベクトルとを乗算し、第3の音源ベクトルを生成し、前記第3の音源ベクトルを第1の帯域通過フィルタ120へ出力する。
The
第2のゲイン回路161は、符号入力回路310から出力されるインデックスと第2の音源生成回路111から出力される第2の音源ベクトルとを入力し、前記インデックスに対応する第2のゲインを、ゲインの値が複数個格納されたテーブルより読み出し、前記第2のゲインと前記第2の音源ベクトルとを乗算し、第4の音源ベクトルを生成し、前記第4の音源ベクトルを第2の帯域通過フィルタ121へ出力する。
The
第1の帯域通過フィルタ120は、第1のゲイン回路160から出力される第3の音源ベクトルを入力する。前記第3の音源ベクトルは、このフィルタにより第1の帯域に帯域制限され、第1の励振ベクトルを得る。第1の帯域通過フィルタ120は、前記第1の励振ベクトルを線形予測合成フィルタ130へ出力する。
The first
第2の帯域通過フィルタ121は、第2のゲイン回路161から出力される第4の音源ベクトルを入力する。前記第4の音源ベクトルは、このフィルタにより第2の帯域に帯域制限され、第2の励振ベクトルを得る。第2の帯域通過フィルタ121は、前記第2の励振ベクトルを線形予測合成フィルタ131へ出力する。
The second
線形予測合成フィルタ130は、第1の帯域通過フィルタ120から出力される第1の励振ベクトルと符号入力回路310から出力される量子化線形予測係数に対応するインデックスとを入力し、前記インデックスに対応する量子化線形予測係数を、量子化線形予測係数が複数個格納されたテーブルより読み出し、この量子化線形予測係数が設定されたフィルタを、前記第1の励振ベクトルにより駆動することで、第1の再生ベクトルを得る。そして前記第1の再生ベクトルを加算器182へ出力する。
The linear
線形予測合成フィルタ131は、第2の帯域通過フィルタ121から出力される第2の励振ベクトルと符号入力回路310から出力される量子化線形予測係数に対応するインデックスとを入力し、前記インデックスに対応する量子化線形予測係数を、量子化線形予測係数が複数個格納されたテーブルより読み出し、この量子化線形予測係数が設定されたフィルタを、前記第2の励振ベクトルにより駆動することで、第2の再生ベクトルを得る。そして前記第2の再生ベクトルを加算器182へ出力する。
The linear
加算器182は、線形予測合成フィルタ130から出力される第1の再生ベクトルと、線形予測合成フィルタ131から出力される第2の再生ベクトルを入力し、これらの和を計算し、これを第3の再生ベクトルとして、出力端子40を介して、出力する。
問題点は、上述した従来の音声音楽信号符号化装置では、入力信号の低域に対応する帯域特性を有する励振信号と、前記入力信号の高域に対応する帯域特性を有する励振信号とを加算して得られる励振信号により、前記入力信号から求めた線形予測合成フィルタを駆動することで再生信号を生成する構成であることから、高周波数域に属する帯域においてCELPに基づく符号化を行うため、高周波数域に属する帯域において符号化性能が低下することにより、全帯域における音声音楽信号の符号化品質が劣化することである。 The problem is that, in the above-described conventional speech and music signal encoding apparatus, an excitation signal having a band characteristic corresponding to the low frequency of the input signal and an excitation signal having a band characteristic corresponding to the high frequency of the input signal are added. Since the reproduction signal is generated by driving the linear prediction synthesis filter obtained from the input signal by the excitation signal obtained as described above, in order to perform encoding based on CELP in the band belonging to the high frequency range, A decrease in encoding performance in a band belonging to a high frequency range results in a deterioration in the encoding quality of a speech and music signal in all bands.
その理由は、高周波数域に属する帯域における信号は、音声とは大きく異なる性質を有しているため、音声の生成過程をモデル化しているCELPでは高周波数域に属する帯域における信号を高精度に生成できないからである。本発明の目的は、上述の問題を解決し、音声音楽信号を全帯域にわたって良好に符号化できる音声音楽信号符号化装置を提供することである。 The reason for this is that signals in a band belonging to the high frequency range have properties that are significantly different from those of speech, so CELP modeling the speech generation process can accurately signal signals in the band belonging to the high frequency range. This is because it cannot be generated. An object of the present invention is to solve the above-described problems and provide a speech and music signal encoding apparatus that can satisfactorily encode speech and music signals over the entire band.
本発明の第1の装置は、第1の帯域に対応する励振信号により入力信号から求めた線形予測合成フィルタを駆動することで第1の再生信号を生成し、入力信号と前記第1の再生信号との差分信号により前記線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号における第2の帯域に対応する成分を、直交変換後に符号化する。
具体的には、第1の帯域に対応する励振信号により前記線形予測合成フィルタを駆動することで第1の再生信号を生成する手段(図1の110、160、120、130)と、入力信号と前記第1の再生信号との差分信号により前記線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成する手段(図1の180、230)と、前記残差信号における第2の帯域に対応する成分を直交変換後に符号化する手段(図1の240、250、260)とを有する。
The first apparatus of the present invention generates a first reproduction signal by driving a linear prediction synthesis filter obtained from an input signal by an excitation signal corresponding to a first band, and the input signal and the first reproduction signal are generated. A residual signal is generated by driving an inverse filter of the linear prediction synthesis filter with a difference signal from the signal, and a component corresponding to the second band in the residual signal is encoded after orthogonal transformation.
Specifically, a unit (110, 160, 120, 130 in FIG. 1) for generating a first reproduction signal by driving the linear prediction synthesis filter with an excitation signal corresponding to the first band, and an
本発明の第2の装置は、第1と第2の帯域に対応する励振信号により、入力信号から求めた線形予測合成フィルタを駆動することで第1と第2の再生信号を生成し、前記第1と第2の再生信号を加算した信号と前記入力信号との差分信号により前記線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号における第3の帯域に対応する成分を、直交変換後に符号化する。具体的には、第1と第2の帯域に対応する励振信号により前記線形予測合成フィルタを駆動することで第1と第2の再生信号を生成する手段(図8の1001,1002)と、前記第1と第2の再生信号を加算した信号と前記入力信号との差分信号により前記線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号における第3の帯域に対応する成分を直交変換後に符号化する手段(図8の1003)とを有する。 The second device of the present invention generates the first and second reproduction signals by driving the linear prediction synthesis filter obtained from the input signal by the excitation signals corresponding to the first and second bands, A residual signal is generated by driving an inverse filter of the linear prediction synthesis filter using a difference signal between a signal obtained by adding the first and second reproduction signals and the input signal, and a third band in the residual signal is generated. The component corresponding to is encoded after orthogonal transformation. Specifically, means (1001, 1002 in FIG. 8) for generating the first and second reproduction signals by driving the linear prediction synthesis filter by the excitation signals corresponding to the first and second bands, A residual signal is generated by driving an inverse filter of the linear prediction synthesis filter using a difference signal between the input signal and a signal obtained by adding the first and second reproduction signals, and a third signal in the residual signal is generated. Means (1003 in FIG. 8) for encoding the component corresponding to the band after orthogonal transformation.
本発明の第3の装置は、第1から第N−1の帯域に対応する励振信号により、入力信号から求めた線形予測合成フィルタを駆動することで第1から第N−1の再生信号を生成し、前記第1から第N−1の再生信号を加算した信号と前記入力信号との差分信号により前記線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号における第Nの帯域に対応する成分を、直交変換後に符号化する。具体的には、第1から第N−1の帯域に対応する励振信号により前記線形予測合成フィルタを駆動することで第1から第N−1の再生信号を生成する手段(図9の1001、1004)と、前記第1から第N−1の再生信号を加算した信号と前記入力信号との差分信号により前記線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号における第Nの帯域に対応する成分を直交変換後に符号化する手段(図9の1005)とを有する。 The third device of the present invention drives the linear prediction synthesis filter obtained from the input signal by the excitation signals corresponding to the first to (N-1) th bands, thereby generating the first to (N-1) th reproduced signals. Generating a residual signal by driving an inverse filter of the linear prediction synthesis filter with a difference signal between the input signal and a signal obtained by adding the first to (N-1) th reproduced signals, and generating the residual signal The component corresponding to the Nth band in the signal is encoded after orthogonal transformation. Specifically, means for generating the first to (N-1) th reproduced signals by driving the linear prediction synthesis filter with the excitation signals corresponding to the first to (N-1) th bands (1001, 1001 in FIG. 9). 1004) and a signal obtained by adding the first to (N-1) th reproduced signals and the input signal to drive an inverse filter of the linear prediction synthesis filter to generate a residual signal, and Means (1005 in FIG. 9) for encoding the component corresponding to the Nth band in the difference signal after orthogonal transformation.
本発明の第4の装置は、第2の符号化において、第1の符号化復号信号と入力信号との差分信号により、入力信号から求めた線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号における任意の帯域に対応する成分を直交変換後に符号化する。具体的には、第1の符号化復号信号と入力信号との差分を計算する手段(図11の180)と、入力信号から求めた線形予測合成フィルタの逆フィルタを前記差分信号で駆動することにより残差信号を生成し、前記残差信号における任意の帯域に対応する成分を直交変換後に符号化する手段(図11の1002)とを有する。 The fourth device of the present invention, in the second encoding, drives the inverse filter of the linear prediction synthesis filter obtained from the input signal by the difference signal between the first encoded decoded signal and the input signal. A difference signal is generated, and a component corresponding to an arbitrary band in the residual signal is encoded after orthogonal transformation. Specifically, the means for calculating the difference between the first encoded decoded signal and the input signal (180 in FIG. 11) and the inverse filter of the linear prediction synthesis filter obtained from the input signal are driven by the difference signal. Means for generating a residual signal and encoding a component corresponding to an arbitrary band in the residual signal after orthogonal transformation (1002 in FIG. 11).
本発明の第5の装置は、第3の符号化において、第1と第2の符号化復号信号を加算した信号と入力信号との差分信号により、入力信号から求めた線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号における任意の帯域に対応する成分を直交変換後に符号化する。具体的には、第1と第2の符号化復号信号を加算した信号と入力信号との差分信号を計算する手段(図12の1801、1802)と、入力信号から求めた線形予測合成フィルタの逆フィルタを前記差分信号で駆動することにより残差信号を生成し、前記残差信号における任意の帯域に対応する成分を直交変換後に符号化する手段(図12の1003)とを有する。 The fifth device of the present invention is the inverse of the linear prediction synthesis filter obtained from the input signal by the difference signal between the input signal and the signal obtained by adding the first and second encoded decoded signals in the third encoding. A residual signal is generated by driving a filter, and a component corresponding to an arbitrary band in the residual signal is encoded after orthogonal transformation. Specifically, means (1801, 1802 in FIG. 12) for calculating a difference signal between the signal obtained by adding the first and second encoded decoded signals and the input signal, and the linear prediction synthesis filter obtained from the input signal Means (1003 in FIG. 12) which generates a residual signal by driving an inverse filter with the differential signal and encodes a component corresponding to an arbitrary band in the residual signal after orthogonal transformation.
本発明の第6の装置は、第Nの符号化において、第1から第N−1の符号化復号信号を加算した信号と入力信号との差分信号により、入力信号から求めた線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号における任意の帯域に対応する成分を直交変換後に符号化する。具体的には、第1から第N−1の符号化復号信号を加算した信号と入力信号との差分信号を計算する手段(図13の1801、1802)と、入力信号から求めた線形予測合成フィルタの逆フィルタを前記差分信号で駆動することにより残差信号を生成し、前記残差信号における任意の帯域に対応する成分を直交変換後に符号化する手段(図13の1005)とを有する。 In a sixth apparatus of the present invention, a linear prediction synthesis filter obtained from an input signal based on a difference signal between an input signal and a signal obtained by adding the first to (N-1) th encoded decoding signals in the Nth encoding A residual signal is generated by driving the inverse filter, and a component corresponding to an arbitrary band in the residual signal is encoded after orthogonal transformation. Specifically, means (1801 and 1802 in FIG. 13) for calculating a difference signal between a signal obtained by adding the first to (N-1) th encoded decoding signals and the input signal, and linear prediction synthesis obtained from the input signal Means for generating a residual signal by driving an inverse filter of the filter with the differential signal, and encoding a component corresponding to an arbitrary band in the residual signal after orthogonal transformation (1005 in FIG. 13).
本発明の第7の装置は、入力信号の第1の帯域に対応する励振信号を生成する際にピッチ予測フィルタを用いる。具体的には、ピッチ予測手段(図14の112、162、184、510)を有する。 The seventh apparatus of the present invention uses the pitch prediction filter when generating the excitation signal corresponding to the first band of the input signal. Specifically, it has pitch prediction means (112, 162, 184, 510 in FIG. 14).
本発明の第8の装置は、第1のサンプリング周波数でサンプリングされた第1の入力信号を第2のサンプリング周波数にダウンサンプリングして第2の入力信号を生成し、前記第2の入力信号から求めた第1の線形予測係数が設定された合成フィルタを励振信号により駆動することで、第1の再生信号を生成し、前記第1の再生信号を前記第1のサンプリング周波数にアップサンプリングすることにより第2の再生信号を生成し、さらに、前記第1の入力信号から求めた線形予測係数と前記第1の線形予測係数を第1のサンプリング周波数にサンプリング周波数変換して得られる第2の線形予測係数との差分から第3の線形予測係数を計算し、前記第2の線形予測係数と前記第3の線形予測係数との和から第4の線形予測係数を計算し、前記第1の入力信号と前記第2の再生信号との差分信号により前記第4の線形予測係数が設定された逆フィルタを駆動することで残差信号を生成し、前記残差信号における任意の帯域に対応する成分を、直交変換後に符号化する。具体的には、第1のサンプリング周波数でサンプリングされた第1の入力信号を第2のサンプリング周波数にダウンサンプリングして第2の入力信号を生成する手段(図15の780)と、前記第2の入力信号から求めた第1の線形予測係数が設定された合成フィルタを励振信号により駆動することで、第1の再生信号を生成する手段(図15の770、132)と、前記第1の再生信号を前記第1のサンプリング周波数にアップサンプリングすることにより第2の再生信号を生成する手段(図15の781)と、前記第1の入力信号から求めた線形予測係数と前記第1の線形予測係数と第1のサンプリング周波数にサンプリング周波数変換して得られる第2の線形予測係数との差分から第3の線形予測係数を計算する手段(図15の771、772)と、前記第2の線形予測係数と前記第3の線形予測係数との和から第4の線形予測係数を計算し、前記第1の入力信号と前記第2の再生信号との差分信号により前記第4の線形予測係数が設定された逆フィルタを駆動することで残差信号を生成する手段(図15の180、730)と、前記残差信号における任意の帯域に対応する成分を、直交変換後に符号化する手段(図15の240、250、260)とを有する。 The eighth device of the present invention downsamples the first input signal sampled at the first sampling frequency to the second sampling frequency to generate a second input signal, and generates the second input signal from the second input signal. Driving a synthesis filter in which the obtained first linear prediction coefficient is set with an excitation signal to generate a first reproduction signal and up-sampling the first reproduction signal to the first sampling frequency And a second linear signal obtained by sampling frequency conversion of the linear prediction coefficient obtained from the first input signal and the first linear prediction coefficient into a first sampling frequency. Calculating a third linear prediction coefficient from the difference from the prediction coefficient, calculating a fourth linear prediction coefficient from the sum of the second linear prediction coefficient and the third linear prediction coefficient, A residual signal is generated by driving an inverse filter in which the fourth linear prediction coefficient is set by a difference signal between the input signal of 1 and the second reproduction signal, and is set to an arbitrary band in the residual signal. Corresponding components are encoded after orthogonal transformation. Specifically, the first input signal sampled at the first sampling frequency is down-sampled to the second sampling frequency to generate a second input signal (780 in FIG. 15), and the second Means for generating a first reproduction signal by driving a synthesis filter in which a first linear prediction coefficient obtained from the input signal is set by an excitation signal (770 and 132 in FIG. 15); Means (781 in FIG. 15) for generating a second reproduction signal by up-sampling the reproduction signal to the first sampling frequency, the linear prediction coefficient obtained from the first input signal, and the first linear Means for calculating the third linear prediction coefficient from the difference between the prediction coefficient and the second linear prediction coefficient obtained by converting the sampling frequency to the first sampling frequency (771 in FIG. 15) 772), a fourth linear prediction coefficient is calculated from the sum of the second linear prediction coefficient and the third linear prediction coefficient, and a difference signal between the first input signal and the second reproduced signal is calculated. Means for generating a residual signal by driving an inverse filter in which the fourth linear prediction coefficient is set (180, 730 in FIG. 15), and a component corresponding to an arbitrary band in the residual signal, Means for encoding after orthogonal transformation (240, 250, 260 in FIG. 15).
本発明の第9の装置は、復号した直交変換係数を直交逆変換することにより、第2の帯域に対応する励振信号を生成し、前記励振信号により線形予測合成フィルタを駆動することで第2の再生信号を生成し、さらに、復号した第1の帯域に対応する励振信号により前記線形予測フィルタを駆動することで第1の再生信号を生成し、前記第1の再生信号と前記第2の再生信号を加算することで復号音声音楽を生成する。具体的には、復号信号と直交変換係数を直交逆変換することにより、第2の帯域に対応する励振信号を生成する手段(図16の440、460)と、線形予測合成フィルタを前記励振信号で駆動することにより第2の再生信号を生成する手段(図16の131)と、第1の帯域に対応する励振信号により前記線形予測フィルタを駆動することで第1の再生信号を生成する手段(図16の110、120、130、160)と、前記第1の再生信号と前記第2の再生信号とを加算することで復号音声音楽を生成する手段(図16の182)とを有する。 The ninth apparatus of the present invention generates an excitation signal corresponding to the second band by performing orthogonal inverse transform on the decoded orthogonal transform coefficient, and drives the linear prediction synthesis filter by the excitation signal to generate the second signal. Further, the first reproduction signal is generated by driving the linear prediction filter with the excitation signal corresponding to the decoded first band, and the first reproduction signal and the second reproduction signal are generated. Decoded speech music is generated by adding the reproduction signals. Specifically, a unit (440, 460 in FIG. 16) that generates an excitation signal corresponding to the second band by performing orthogonal inverse transform on the decoded signal and the orthogonal transform coefficient, and a linear prediction synthesis filter include the excitation signal. Means for generating a second reproduction signal by driving with (131 in FIG. 16) and means for generating the first reproduction signal by driving the linear prediction filter with an excitation signal corresponding to the first band (110, 120, 130, 160 in FIG. 16) and means (182 in FIG. 16) for generating decoded speech music by adding the first reproduction signal and the second reproduction signal.
本発明の第10の装置は、復号した直交変換係数を直交逆変換することにより、第3の帯域に対応する励振信号を生成し、前記励振信号により線形予測合成フィルタを駆動することで第3の再生信号を生成し、さらに、復号した第1と第2の帯域に対応する励振信号により前記線形予測フィルタを駆動することで第1と第2の再生信号を生成し、前記第1から第3の再生信号を加算することで復号音声音楽を生成する。具体的には、復号した直交変換係数を直交逆変換することにより、第3の帯域に対応する励振信号を生成し、線形予測合成フィルタを前記励振信号で駆動することより第3の再生信号を生成する手段(図22の1053)と、第1と第2の帯域に対応する励振信号により前記線形予測フィルタを駆動することで第1と第2の再生信号を生成する手段(図22の1051、1052)と、前記第1から第3の再生信号を加算することで復号音声音楽を生成する手段(図22の1821、1822)とを有する。 The tenth device of the present invention generates an excitation signal corresponding to the third band by performing orthogonal inverse transform on the decoded orthogonal transform coefficient, and drives the linear prediction synthesis filter by the excitation signal to generate the third signal. And the first and second reproduction signals are generated by driving the linear prediction filter with the excitation signals corresponding to the decoded first and second bands, and the first to second reproduction signals are generated. 3 is added to the reproduced signal to generate decoded speech music. Specifically, an orthogonal inverse transform is performed on the decoded orthogonal transform coefficient to generate an excitation signal corresponding to the third band, and a linear prediction synthesis filter is driven by the excitation signal to thereby generate a third reproduction signal. Means for generating (1053 in FIG. 22) and means for generating the first and second reproduction signals by driving the linear prediction filter with excitation signals corresponding to the first and second bands (1051 in FIG. 22). , 1052) and means for generating decoded speech music by adding the first to third reproduction signals (1821, 1822 in FIG. 22).
本発明の第11の装置は、復号した直交変換係数を直交逆変換することにより、第Nの帯域に対応する励振信号を生成し、前記励振信号により線形予測合成フィルタを駆動することで第Nの再生信号を生成し、さらに、復号した第1から第N−1の帯域に対応する励振信号により前記線形予測フィルタを駆動することで第
1から第Nn−1の再生信号を生成し、前記第1から第Nの再生信号を加算することで復号音声音楽を生成する。具体的には、復号した直交変換係数を直交逆変換することにより、第Nの帯域に対応する励振信号を生成し、線形予測合成フィルタを前記励振信号で駆動することより第Nの再生信号を生成する手段(図23の1055)と、第1から第N−1の帯域に対応する励振信号により前記線形予測フィルタを駆動することで第1から第N−1の再生信号を生成する手段(図23の1051、1054)と、前記第1から第Nの再生信号を加算することで復号音声音楽を生成する手段(図23の1821、1822)とを有する。
The eleventh device of the present invention generates an excitation signal corresponding to the Nth band by performing orthogonal inverse transform on the decoded orthogonal transform coefficient, and drives the linear prediction synthesis filter by the excitation signal to generate the Nth filter. And the first to Nn−1 regenerated signals are generated by driving the linear prediction filter with the excitation signals corresponding to the decoded first to (N−1) th bands, Decoded speech music is generated by adding the first to Nth reproduction signals. Specifically, an orthogonal inverse transform is performed on the decoded orthogonal transform coefficient to generate an excitation signal corresponding to the Nth band, and a linear prediction synthesis filter is driven by the excitation signal to thereby convert the Nth reproduction signal. Means for generating (1055 in FIG. 23) and means for generating the first to (N−1) th reproduced signals by driving the linear prediction filter with the excitation signals corresponding to the first to (N−1) th bands. 23, 1051, 1054) in FIG. 23, and means (1821, 1822 in FIG. 23) for generating decoded speech music by adding the first to Nth reproduction signals.
本発明の第12の装置は、第2の復号において、復号した直交変換係数を直交逆変換することにより、励振信号を生成し、線形予測合成フィルタを前記励振信号で駆動することにより再生信号を生成し、前記再生信号と第1の復号信号とを加算することで復号音声音楽を生成する。具体的には、復号した直交変換係数を直交逆変換することにより、励振信号を生成し、線形予測合成フィルタを前記励振信号で駆動することにより再生信号を生成する手段(図24の1052)と、前記再生信号と第1の復号信号とを加算することで復号音声音楽を生成する手段(図24の182)とを有する。 The twelfth device of the present invention generates an excitation signal by performing orthogonal inverse transform on the decoded orthogonal transform coefficient in the second decoding, and driving a linear prediction synthesis filter with the excitation signal to generate a reproduction signal. Generating decoded speech music by adding the reproduction signal and the first decoded signal. Specifically, means (1052 in FIG. 24) generates an excitation signal by performing orthogonal inverse transform on the decoded orthogonal transform coefficient, and generates a reproduction signal by driving a linear prediction synthesis filter with the excitation signal. And means (182 in FIG. 24) for generating decoded speech music by adding the reproduction signal and the first decoded signal.
本発明の第13の装置は、第3の復号において、復号した直交変換係数を直交逆変換することにより、励振信号を生成し、線形予測合成フィルタを前記励振信号で駆動することにより再生信号を生成し、前記再生信号と第1および第2の復号信号とを加算することで復号音声音楽を生成する。具体的には、復号した直交変換係数を直交逆変換することにより、励振信号を生成し、線形予測合成フィルタを前記励振信号で駆動することにより再生信号を生成する手段(図25の1053)と、前記再生信号と第1および第2の復号信号とを加算することで復号音声音楽を生成する手段(図25の1821、1822)とを有する。 In the third decoding, the thirteenth device of the present invention generates an excitation signal by performing orthogonal inverse transform on the decoded orthogonal transform coefficient, and drives a linear prediction synthesis filter with the excitation signal to generate a reproduction signal. And generating the decoded speech music by adding the reproduction signal and the first and second decoded signals. Specifically, means for generating an excitation signal by orthogonally transforming the decoded orthogonal transform coefficient and generating a reproduction signal by driving a linear prediction synthesis filter with the excitation signal (1053 in FIG. 25); And means for generating decoded speech music by adding the reproduction signal and the first and second decoded signals (1821 and 1822 in FIG. 25).
本発明の第14の装置は、第Nの復号において、復号した直交変換係数を直交逆変換することにより、励振信号を生成し、線形予測合成フィルタを前記励振信号で駆動することにより再生信号を生成し、前記再生信号と第1から第N−1の復号信号とを加算することで復号音声音楽を生成する。具体的には、復号した直交変換係数を直交逆変換することにより、励振信号を生成し、線形予測合成フィルタを前記励振信号で駆動することにより再生信号を生成する手段(図26の1055)と、前記再生信号と第1から第N−1の復号信号とを加算することで復号音声音楽を生成する手段(図26の1821、1822)とを有する。 The fourteenth device of the present invention generates an excitation signal by performing orthogonal inverse transform on the decoded orthogonal transform coefficient in the Nth decoding, and drives a linear prediction synthesis filter with the excitation signal to generate a reproduction signal. Generating decoded speech music by adding the reproduction signal and the first to (N-1) th decoded signals. Specifically, means (1055 in FIG. 26) for generating an excitation signal by performing orthogonal inverse transform on the decoded orthogonal transform coefficient and generating a reproduction signal by driving a linear prediction synthesis filter with the excitation signal. Means for generating decoded speech music by adding the reproduction signal and the first to (N-1) th decoded signals (1821 and 1822 in FIG. 26).
本発明の第15の装置は、第1の帯域に対応する励振信号を生成する際にピッチ予測フに係るルタを用いる。具体的には、ピッチ予測手段(図27の112、162、184、510)を有する。 The fifteenth device of the present invention uses the filter relating to the pitch prediction filter when generating the excitation signal corresponding to the first band. Specifically, it has pitch prediction means (112, 162, 184, 510 in FIG. 27).
本発明の第16の装置は、第1の帯域に対る第1の励振信号により第1の線形予測合成フィルタを駆動して得られる信号を、第1のサンプリング周波数にアップサンプリングして第1の再生信号を生成し、復号した直交変換係数を直交逆変換することにより、第2の帯域に対応する第2の励振信号を生成し、前記第2の励振信号により第2の線形予測合成フィルタを駆動することで第2の再生信号を生成し、前記第1の再生信号と前記第2の再生信号とを加算することで復号音声音楽を生成する。具体的には、第1の帯域に対応する第1の励振信号により第1の線形予測合成フィルタを駆動して得られる信号を、第1のサンプリング周波数にアップサンプリングして第1の再生信号を生成する手段(図28の132、781)と、復号した直交変換係数を直交逆変換することにより、第2の帯域に対応する第2の励振信号を生成し、前記第2の励振信号により第2の線形予測合成フィルタを駆動することで第2の再生信号を生成する手段(図28の440、831)と、前記第1の再生信号と前記第2の再生信号とを加算することで復号音声音楽を生成する手段(図28の182)とを有する。 According to a sixteenth device of the present invention, a signal obtained by driving a first linear prediction synthesis filter with a first excitation signal for the first band is up-sampled to a first sampling frequency to obtain a first And a second excitation signal corresponding to the second band is generated by performing orthogonal inverse transform on the decoded orthogonal transform coefficient, and a second linear prediction synthesis filter is generated by the second excitation signal. The second reproduction signal is generated by driving and the decoded reproduction music is generated by adding the first reproduction signal and the second reproduction signal. Specifically, a signal obtained by driving the first linear prediction synthesis filter with the first excitation signal corresponding to the first band is up-sampled to the first sampling frequency to obtain the first reproduction signal. A second excitation signal corresponding to the second band is generated by performing orthogonal inverse transformation on the generated orthogonal transform coefficients (132 and 781 in FIG. 28) and the second excitation signal. Means for generating a second reproduction signal by driving the second linear prediction synthesis filter (440 and 831 in FIG. 28), and decoding by adding the first reproduction signal and the second reproduction signal Means for generating voice music (182 in FIG. 28).
本発明17の装置は、本発明1の装置から出力される符号を、本発明9の装置で復号する。具体的には、音声音楽信号符号化手段(図1)と、音声音楽信号復号手段(図16)とを有する。
The device of the present invention 17 decodes the code output from the device of the
本発明18の装置は、本発明2の装置から出力される符号を、本発明10の装置で復号する。具体的には、音声音楽信号符号化手段(図8)と、音声音楽信号復号手段(図22)とを有する。
The apparatus of the
本発明19の装置は、本発明3の装置から出力される符号を、本発明11の装置で復号する。具体的には、音声音楽信号符号化手段(図9)と、音声音楽信号復号手段(図23)とを有する。 The device according to the nineteenth aspect of the present invention decodes the code output from the device according to the third aspect of the present invention by the device according to the present invention 11. Specifically, it has a voice music signal encoding means (FIG. 9) and a voice music signal decoding means (FIG. 23).
本発明20の装置は、本発明4の装置から出力される符号を、本発明12の装置で復号する。具体的には、音声音楽信号符号化手段(図11)と、音声音楽信号復号手段(図24)とを有する。
The device of the
本発明21の装置は、本発明5の装置から出力される符号を、本発明13の装置で復号する。具体的には、音声音楽信号符号化手段(図12)と、音声音楽信号復号手段(図25)とを有する。
The device of the
本発明22の装置は、本発明6の装置から出力される符号を、本発明14の装置で復号する。具体的には、音声音楽信号符号化手段(図13)と、音声音楽信号復号手段(図26)とを有する。 The device of the present invention 22 decodes the code output from the device of the present invention 6 by the device of the present invention 14. Specifically, it has speech and music signal encoding means (FIG. 13) and speech and music signal decoding means (FIG. 26).
本発明23の装置は、本発明7の装置から出力される符号を、本発明15の装置で復号する。具体的には、音声音楽信号符号化手段(図14)と、音声音楽信号復号手段(図27)とを有する。 The device of the present invention 23 decodes the code output from the device of the present invention 7 by the device of the present invention 15. Specifically, it has a voice music signal encoding means (FIG. 14) and a voice music signal decoding means (FIG. 27).
本発明24の装置は、本発明8の装置から出力される符号を、本発明16の装置で復号する。具体的には、音声音楽信号符号化手段(図15)と、音声音楽信号復号手段(図28)とを有する。
(作用)
本発明では、入力信号の低域に対応する帯域特性を有する励振信号により入力信号から求めた線形予測合成フィルタを駆動することで第1の再生信号を生成し、前記入力信号と前記第1の再生信号との差分信号により前記線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号の高域成分を、直交変換に基づく符号化方式を用いて符号化する。すなわち、高周波数域に属する帯域における、音声とは異なる性質を有する信号に対しては、CELPに代わり、直交変換に基づく符号化を行う。前記直交変換に基づく符号化は、音声と異なる性質を有する信号に対する符号化性能がCELPに比べて高い。このため、前記入力信号の高域成分に対する符号化性能が改善される。その結果、音声音楽信号を全帯域にわたって良好に符号化することが可能となる。
The device of the present invention 24 decodes the code output from the device of the present invention 8 by the device of the present invention 16. Specifically, the audio / music signal encoding means (FIG. 15) and the audio / music signal decoding means (FIG. 28) are included.
(Function)
In the present invention, a first reproduction signal is generated by driving a linear prediction synthesis filter obtained from an input signal by an excitation signal having a band characteristic corresponding to a low frequency of the input signal, and the input signal and the first signal are generated. A residual signal is generated by driving an inverse filter of the linear prediction synthesis filter with a difference signal from the reproduction signal, and a high frequency component of the residual signal is encoded using an encoding method based on orthogonal transform. . That is, for a signal having a property different from that of speech in a band belonging to a high frequency range, encoding based on orthogonal transformation is performed instead of CELP. The coding based on the orthogonal transform has higher coding performance for signals having properties different from those of speech compared to CELP. For this reason, the encoding performance with respect to the high frequency component of the input signal is improved. As a result, it is possible to encode the audio music signal satisfactorily over the entire band.
本発明による効果は、音声音楽信号を全帯域にわたって良好に符号化できることである。その理由は、入力信号の低域に対応する帯域特性を有する音源信号により前記入力信号から求めた線形予測合成フィルタを駆動することで第1の再生信号を生成し、前記入力信号と前記第1の再生信号との差分信号により前記線形予測合成フィルタの逆フィルタを駆動することで残差信号を生成し、前記残差信号の高域成分を、直交変換に基づく符号化方式を用いて符号化するため、前記入力信号の高域成分に対する符号化性能が改善されるからである。 The effect of the present invention is that the audio music signal can be encoded well over the entire band. The reason is that a first reproduction signal is generated by driving a linear prediction synthesis filter obtained from the input signal by a sound source signal having a band characteristic corresponding to a low frequency of the input signal, and the input signal and the first signal are generated. A residual signal is generated by driving an inverse filter of the linear prediction synthesis filter using a difference signal from the reproduced signal of the above-described reproduction signal, and a high frequency component of the residual signal is encoded using an encoding method based on orthogonal transform This is because the coding performance for the high frequency component of the input signal is improved.
図1は、本発明の第1の実施例による音声音楽信号符号化装置の構成を示すブロック図である。ここでは、帯域数を2として説明する。音声または音楽信号をサンプリングし、この複数サンプルを1フレームとして一つのベクトルにまとめて生成した入力信号(入力ベクトル)は、入力端子10から入力される。
入力ベクトルは、x(n),n=0,…,L−1と表される。ただし、Lは、ベクトル長である。また、入力信号はFs0[Hz]からFe0[Hz]に帯域制限される。例えば、サンプリング周波数を16[kHz]として、Fs0=50[Hz]、Fe0=7000[Hz]とする。
FIG. 1 is a block diagram showing a configuration of a speech and music signal encoding apparatus according to a first embodiment of the present invention. Here, the number of bands is assumed to be two. An input signal (input vector) generated by sampling a voice or music signal and combining the plurality of samples into one vector as one frame is input from the
The input vector is represented as x (n), n = 0,. However, L is a vector length. The input signal is band-limited from F s0 [Hz] to F e0 [Hz]. For example, assuming that the sampling frequency is 16 [kHz], F s0 = 50 [Hz] and F e0 = 7000 [Hz].
線形予測係数計算回路170は、入力端子10から入力ベクトルを入力し、前記入力ベクトルに対して線形予測分析を行い、線形予測係数αi ,i=1,…,Npを求め、さらに前記線形予測係数を量子化し、量子化線形予測係数αi ′,i=1,…,Npを求める。ここで、Npは、線形予測次数であり、例えば、16である。また、線形予測係数計算回路170は、前記線形予測係数を重みづけフィルタ140へ出力し、前記量子化線形予測係数に対応するインデックスを線形予測合成フィルタ130と線形予測逆フィルタ230および符号出力回路290へ出力する。線形予測係数の量子化に関しては、例えば、線スペクトル対(Line Spectrum Pair, LSP )へ変換し、量子化する方法がある。線形予測係数のLSPへの変換に関しては、菅村らによる「線スペクトル対(LSP)音声分析合成方式による音声情報圧縮」(電子情報通信学会論文誌A,Vol.J64-A, No.8, pp.599-606, 1981 )(文献3)を、LSPの量子化に関しては、大室らによる「移動平均型フレーム間予測を用いるLSPパラメータのベクトル量子化」(電子情
報通信学会論文誌A,Vol.J77-A, No.3, pp.303-312, 1994 )(文献4)を参照できる。
Linear prediction
第1の音源生成回路110は、第1の最小化回路150から出力されるインデックスを入力し、前記インデックスに対応する第1の音源ベクトルを、複数個の音源信号(音源ベクトル)が格納されたテーブルより読み出し、第1のゲイン回路160へ出力する。ここで、第1の音源生成回路110の構成について図2を用いて補足する。第1の音源生成回路110が備えているテーブル1101には、Ne 個の音源ベクトルが格納されている。例えば、Ne は256である。スイッチ1102は入力端子1103を介して、第1の最小化回路150から出力されるインデックスiを入力し、前記インデックスに対応する音源ベクトルを前記テーブルより選択し、これを第1の音源ベクトルとして出力端子1104を介して、第1のゲイン回路160へ出力する。また、音源信号の符号化については、複数のパルスから成り、パルスの位置とパルスの振幅により規定される、マルチパルス信号により音源信号を効率的に表現する方法を用いることができる。マルチパルス信号を用いた音源信号の符号化に関しては、小澤らによる「マルチパルスベクトル量子化音源と高速探索に基づくMP−CELP音声符号化」(電子情報通信学会論文誌A,pp.1655-1663, 1996)(文献5)を参照できる。以上で、第1の音源生成回路110の説明を終え、図1の説明に戻る。
The first sound
第1のゲイン回路160は、ゲインの値が格納されたテーブルを備えている。第1のゲイン回路160は、第1の最小化回路150から出力されるインデックスと第1の音源生成回路110から出力される第1の音源ベクトルとを入力し、前記インデックスに対応する第1のゲインを前記テーブルより読み出し、前記第1のゲインと前記第1の音源ベクトルとを乗算し、第2の音源ベクトルを生成し、生成した前記第2の音源ベクトルを第1の帯域通過フィルタ120へ出力する。
The
第1の帯域通過フィルタ120は、第1のゲイン回路160から出力される第2の音源ベクトルを入力する。前記第2の音源ベクトルは、このフィルタにより第1の帯域に帯域制限され、第1の励振ベクトルを得る。第1の帯域通過フィルタ120は、前記第1の励振ベクトルを線形予測合成フィルタ130へ出力する。ここで、第1の帯域は、Fs1[Hz]からFe1[Hz]とする。ただし、Fs0≦Fs1≦Fe1≦Fe0である。例えば、Fs1=50[Hz]、Fe1=4000[Hz]である。また、第1の帯域通過フィルタ120は、第1の帯域に帯域制限する特性をもち、かつ100次程度の線形予測次数をもつことを特徴とする高次線形予測フィルタ1/B(z)で実現することもできる。ここで、Nphを線形予測次数、線形予測係数をβi,i=1,…,Nphとすると高次線形予測フィルタの伝達関数1/B(z)は、
The first
と表される。前記高次線形予測フィルタに関しては(文献2)を参照できる。
It is expressed. Regarding the high-order linear prediction filter,
線形予測合成フィルタ130は、量子化線形予測係数が格納されたテーブルを備えている。線形予測合成フィルタ130は、第1の帯域通過フィルタ120から出力される第1の励振ベクトルと線形予測係数計算回路170から出力される量子化線形予測係数に対応するインデックスとを入力する。また、前記インデックスに対応する量子化線形予測係数を、前記テーブルより読み出し、この量子化線形予測係数が設定された合成フィルタ1/A(z)を、前記第1の励振ベクトルにより駆動することで、第1の再生信号(再生ベクトル)を得る。そして前記第1の再生ベクトルを第1の差分器180へ出力する。ここで、合成フィルタの伝達関数1/A(z)は、
The linear
と表される。 It is expressed.
第1の差分器180は、入力端子10を介して入力ベクトルを入力し、線形予測合成フィルタ130から出力される第1の再生ベクトルを入力し、それらの差分を計算し、これを第1の差分ベクトルとして、重みづけフィルタ140と線形予測逆フィルタ230へ出力する。
The
第1の重みづけフィルタ140は、第1の差分器180から出力される第1の差分ベクトルと線形予測係数計算回路170から出力される線形予測係数を入力し、前記線形予測係数を用いて、人間の聴覚特性に対応した重みづけフィルタW(z)を生成し、前記重みづけフィルタを前記第1の差分ベクトルで駆動することで、第1の重みづけ差分ベクトルを得る。そして前記第1の重みづけ差分ベクトルを第1の最小化回路150へ出力する。ここで、重みづけフィルタの伝達関数W(z)は、W(z)=Q(z/γ1 )/Q(z/γ2 )と表される。ただし、
The
である。γ1およびγ2は定数であり、例えば、γ1=0.9、γ2=0.6である。また、重みづけフィルタの詳細に関しては、(文献1)を参照できる。
It is. γ 1 and γ 2 are constants, for example, γ 1 = 0.9 and γ 2 = 0.6. For details of the weighting filter,
第1の最小化回路150は、第1の音源生成回路110に格納されている第1の音源ベクトル全てに対応するインデックスを、前記第1の音源生成回路110へ順次出力し、第1のゲイン回路160に格納されている第1のゲイン全てに対応するインデックスを、前記第1のゲイン回路160へ順次出力する。また、重みづけフィルタ140から出力される第1の重みづけ差分ベクトルを順次入力し、そのノルムを計算し、前記ノルムが最小となるような、前記第1の音源ベクトルおよび前記第1のゲインを選択し、これらに対応するインデックスを符号出力回路290へ出力する。
The first minimizing
線形予測逆フィルタ230は、量子化線形予測係数が格納されたテーブルを備えている。線形予測逆フィルタ230は、線形予測係数計算回路170から出力される量子化線形予測係数に対応するインデックスと第1の差分器180から出力される第1の差分ベクトルとを入力する。また、前記インデックスに対応する量子化線形予測係数を、前記テーブルより読み出し、この量子化線形予測係数が設定された逆フィルタA(z)を、前記第1の差分ベクトルにより駆動することで、第1の残差ベクトルを得る。そして前記第1の残差ベクトルを直交変換回路240へ出力する。ここで、逆フィルタの伝達関数A(z)は、
The linear prediction
と表される。 It is expressed.
直交変換回路240は、線形予測逆フィルタ230から出力される第1の残差ベクトルを入力し、前記第1の残差ベクトルを直交変換し、第2の残差ベクトルを得る。そして前記第2の残差ベクトルを帯域選択回路250へ出力する。ここで直交変換としては、離散コサイン変換(Discrete Cosine Transform, DCT)を用いることができる。
The
帯域選択回路250は、直交変換回路240から出力される第2の残差ベクトルを入力し、図3に示すように、前記第2の残差ベクトルにおいて、第2の帯域に含まれる成分を用いてNsbv 個のサブベクトルを生成する。第2の帯域としては、任意の帯域が設定できるが、ここではFs2[Hz]からFe2[Hz]とする。
ただし、Fs0≦Fs2≦Fe2≦Fe0である。ここでは、第1の帯域と第2の帯域が重ならない、すなわち、Fe1≦Fs2とする。例えば、Fs2=4000[Hz]、Fe2=7000[Hz]である。帯域選択回路250は、前記Nsbv 個のサブベクトルを直交変換係数量子化回路260へ出力する。
The
However, F s0 ≦ F s2 ≦ F e2 ≦ F e0 . Here, the first band and the second band do not overlap, that is, F e1 ≦ F s2 . For example, F s2 = 4000 [Hz] and F e2 = 7000 [Hz]. The band selection circuit 250 outputs the N sbv subvectors to the orthogonal transform
直交変換係数量子化回路260は、帯域選択回路250から出力されるNsbv個のサブベクトルを入力する。直交変換係数量子化回路260は、前記サブベクトルの形状に対する量子化値(形状コードベクトル)が格納されたテーブルと、前記サブベクトルのゲインに対する量子化値(量子化ゲイン)が格納されたテーブルとを備えており、入力された前記Nsbv 個のサブベクトル各々に対して、量子化誤差が最小となる、形状の量子化値とゲインの量子化値とを、前記テーブルより選択し、対応するインデックスを符号出力回路290へ出力する。ここで、直交変換係数量子化回路260の構成について図4を用いて補足する。図4において、点線で囲まれたブロックはNsbv 個あり、その各ブロックで前記Nsbv 個のサブベクトルが量子化される。前記Nsbv 個のサブベクトルを
The orthogonal transform
と表す。各サブベクトルに対する処理は共通であるので、esb,0(n),n=0,…,L−1に対する処理について説明する。 It expresses. Since the processing for each subvector is common, the processing for e sb , 0 (n), n = 0,..., L−1 will be described.
サブベクトルesb,0(n),n=0,…,L−1は、入力端子2650を介して入力される。テーブル2610には、形状コードベクトルc0 [j](n),n=0,…,L−1,j=0,…,Nc,0 −1がNc,0 個格納されている。ここで、Lはベクトル長を表し、jはインデックスを表す。テーブル2610は、最小化回路2630から出力されるインデックスを入力し、前記インデックスに対応する前記形状コードベクトルc0 [j](n),n=0,…,L−1をゲイン回路2620へ出力する。ゲイン回路2620が備えているテーブルには、量子化ゲインg0 [k],k=0,…,Ng,0 −1がNg,0 個格納されている。ここで、kはインデックスを表す。ゲイン回路2620は、テーブル2610から出力される前記形状コードベクトルc0 [j](n),n=0,…,L−1を入力し、最小化回路2630から出力されるインデックスを入力し、前記インデックスに対応する量子化ゲインg0 [k]を前記テーブルより読み出し、前記量子化ゲインg0 [k]と前記形状コードベクトルc0 [j](n),n=0,…,L−1とを乗算して得られる量子化サブベクトルe′sb,0(n),n=0,…,L−1を差分器2640へ出力する。差分器2640は、入力端子2650を介して入力される前記サブベクトルesb,0(n),n=0,…,L−1とゲイン回路2620から入力される前記量子化サブベクトルe′sb,0(n),n=0,…,L−1との差分を計算し、これを差分ベクトルとして最小化回路2630へ出力する。最小化回路2630は、テーブル2610に格納されている前記形状コードベクトルc0 [j](n),n=0,…,L−1,j=0,…,Nc,0 −1全てに対応するインデックスを、前記テーブル2610へ順次出力し、ゲイン回路2620に格納されている前記量子化ゲインg0 [k],k=0,…,Ng,0 −1全てに対応するインデックスを、ゲイン回路2620へ順次出力する。また、差分器2640から前記差分ベクトルを順次入力し、そのノルムD0 を計算し、前記ノルムD0 が最小となる前記形状コードベクトルc0 [j](n),n=0,…,L−1および前記量子化ゲインg0 [k]を選択し、これらに対応するインデックスをインデックス出力回路2660へ出力する。サブベクトル
The subvector e sb , 0 (n), n = 0,..., L−1 is input via the
に対しても同様の処理を行う。インデックス出力回路2660は、Nsbv 個の最小化回路から出力されるインデックスを入力し、これらをまとめたインデックスのセットを出力端子2670を介して符号出力回路290へ出力する。また、ノルムD0 が最小となる前記形状コードベクトルc0 [j](n),n=0,…,L−
1および前記量子化ゲインg0 [k]の決定については、以下の方法を用いることもできる。ノルムD0 は、
The same processing is performed for. The
1 and the quantization gain g 0 [k] can be determined by the following method. Norm D 0 is
と表される。ここで、最適なゲインg′0 を It is expressed. Where the optimal gain g ′ 0
と設定すると、ノルムD0 は、 And norm D 0 is
と変形できる。したがって、D0 が最小となるc0 [j](n),n=0,…,L−1,j=0,…,Nc,0 −1を求めることは、(式3)の第2項が最大と
なるc0 [j](n),n=0,…,L−1,j=0,…,Nc,0 −1を求めることと等価である。そこで、(式3)の第2項が最大となるc0 [j](n),n=0,…,L−1,j=jopt を求めた後、このc0 [j](n),n=0,…,L−1,j=jopt について(式1)が最小となるg0 [k],k=kopt を求める。ここで、c0 [j] (n),n=0,…,L−1,j=jopt としては、(式3)の第2項の値が大きいものから順に複数個の候補を選んでおき、その各々に対して(式1)が最小となるg0 [k],k=kopt を求め、それらの中からノルムD0 が最小となるc0 [j](n),n=0,…,L−1,j=jopt とg0 [k],k=kopt を最終的に選択することもできる。サブベクトル
And can be transformed. Therefore, c D 0 is minimum 0 [j] (n), n = 0, ..., L-1, j = 0, ..., to obtain the N c, 0 -1, the first of (Equation 3) 2 term is the maximum c 0 [j] (n) , n = 0, ..., L-1, j = 0, ..., is equivalent to finding the n c, 0 -1. Therefore, after obtaining c 0 [j] (n), n = 0,..., L−1, j = j opt that maximizes the second term of (Equation 3), this c 0 [j] (n ), N = 0,..., L−1, j = j opt , g 0 [k] and k = k opt that minimize (Equation 1) are obtained. Here, as c 0 [j] (n), n = 0,..., L−1, j = j opt , a plurality of candidates are selected in descending order of the value of the second term in (Equation 3). And g 0 [k] and k = k opt that minimize (Equation 1) are obtained for each of them, and c 0 [j] (n), n that minimizes the norm D 0 among them. = 0,..., L-1, j = j opt and g 0 [k] , k = k opt can be finally selected. Subvector
に対しても同様の方法を適用できる。以上で図4を用いた直交変換係数量子化回路260の説明を終え、図1の説明に戻る。
The same method can be applied to. This is the end of the description of the orthogonal transform
符号出力回路290は、線形予測係数計算回路170から出力される量子化線形予測係数に対応するインデックスを入力する。また、第1の最小化回路150から出力される、第1の音源ベクトルおよび第1のゲインの各々に対応するインデックスを入力し、直交変換係数量子化回路260から出力される、Nsbv 個のサブベクトルに対する形状コードベクトルおよび量子化ゲインのインデックスから構成されるインデックスのセットを入力する。そして、図29に模式的に示すように各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The
図1を用いて説明した第1の実施例は、帯域数が2の場合であるが、帯域数を3以上に拡張した場合について以下で説明する。 The first embodiment described with reference to FIG. 1 is a case where the number of bands is 2, but a case where the number of bands is expanded to 3 or more will be described below.
図1は、図5のように書き直すことができる。ここで、図5の第1の符号化回路1001は、図6と等価であり、図5の第2の符号化回路1002は、図7と等価であり、図6、図7を構成する各ブロックは、図1で説明した各ブロックと同じである。
FIG. 1 can be rewritten as shown in FIG. Here, the
本発明の第2の実施例は、第1の実施例において帯域数を3に拡張することで実現される。本発明の第2の実施例による音声音楽信号符号化装置の構成は、図8に示すブロック図で表すことができる。ここで、第1の符号化回路1001は図6と等価であり、第2の符号化回路1002は図6と等価であり、第3の符
号化回路1003は図7と等価である。符号出力回路2901は、線形予測係数計算回路170から出力されるインデックスを入力し、第1の符号化回路1001から出力されるインデックスを入力し、第2の符号化回路1002から出力されるインデックスを入力し、第3の符号化回路1003から出力されるインデックスのセットを入力する。そして、各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The second embodiment of the present invention is realized by expanding the number of bands to 3 in the first embodiment. The configuration of the speech and music signal encoding apparatus according to the second embodiment of the present invention can be represented by the block diagram shown in FIG. Here, the
本発明の第3の実施例は、第1の実施例において帯域数をNに拡張することで実現される。本発明の第3の実施例による音声音楽信号符号化装置の構成
は、図9に示すブロック図で表すことができる。ここで、第1の符号化回路1001から第N−1の符号化回路1004は図6と等価であり、第Nの符号化回路1005は図7と等価である。符号出力回路2902は、線形予測係数計算回路170から出力されるインデックスを入力し、第1の符号化回路1001から第N−1の符号化回路1004の各々より出力されるインデックスを入力し、第Nの符号化回路1005から出力されるインデックスのセットを入力する。そして、各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The third embodiment of the present invention is realized by extending the number of bands to N in the first embodiment. The configuration of the speech and music signal encoding apparatus according to the third embodiment of the present invention can be represented by the block diagram shown in FIG. Here, the
第1の実施例では、図5における第1の符号化回路1001がA−b−S(Analysis-by-Synthesis )法を用いた符号化方式に基づいているが、第1の符号化回路1001に対して、A−b−S法以外の符号化方式を適用することもできる。以下では、A−b−S法以外の符号化方式として時間周波数変換を用いた符号化方式を第1の符号化回路1001に対して適用した場合について説明する。
In the first embodiment, the
本発明の第4の実施例は、第1の実施例において時間周波数変換を用いた符号化方式を適用することで実現される。本発明の第4の実施例による音声音楽信号符号化装置の構成は、図11に示すブロック図で表すことができる。ここで、第1の符号化回路1011は図10と等価であり、第2の符号化回路1002は図7と等価である。図10を構成するブロックのうち、線形予測逆フィルタ230、直交変換回路240、帯域選択回路250および直交変換係数量子化回路260は、図1で説明した各ブロックと同じである。また、直交変換係数逆量子化回路460、直交逆変換回路440および線形予測合成フィルタ131は、後述する第9の実施例による、第1の実施例に対応する音声音楽復号装置を構成するブロックと同じである。直交変換係数逆量子化回路460、直交逆変換回路440および線形予測合成フィルタ131の説明は、図13を用いた第9の実施例の説明において行うのでここでは割愛する。符号出力回路2903は、線形予測係数計算回路170から出力されるインデックスを入力し、第1の符号化回路1011から出力されるインデックスのセットを入力し、第2の符号化回路1002から出力されるインデックスのセットを入力する。そして、各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The fourth embodiment of the present invention is realized by applying an encoding method using time-frequency conversion in the first embodiment. The configuration of the speech and music signal encoding apparatus according to the fourth embodiment of the present invention can be represented by the block diagram shown in FIG. Here, the
本発明の第5の実施例は、第4の実施例において帯域数を3に拡張することで実現される。本発明の第5の実施例による音声音楽信号符号化装置の構成は、図12に示すブロック図で表すことができる。ここで、第1の符号化回路1011は図10と等価であり、第2の符号化回路1012は図10と等価であり、第3の符号化回路1003は図7と等価である。符号出力回路2904は、線形予測係数計算回路170から出力されるインデックスを入力し、第1の符号化回路1011から出力されるインデックスのセットを入力し、第2の符号化回路1012から出力されるインデックスのセットを入力し、第3の符号化回路1003から出力されるインデックスのセットを入力する。そして、各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The fifth embodiment of the present invention is realized by expanding the number of bands to 3 in the fourth embodiment. The configuration of the speech and music signal encoding apparatus according to the fifth embodiment of the present invention can be represented by the block diagram shown in FIG. Here, the
本発明の第6の実施例は、第4の実施例において帯域数をNに拡張することで実現される。本発明の第6の実施例による音声音楽信号符号化装置の構成は、図13に示すブロック図で表すことができる。ここで、第1の符号化回路1011から第N−1の符号化回路1014の各々は図10と等価であり、第Nの符号化回路1005は図7と等価である。符号出力回路2905は、線形予測係数計算回路170から出力されるインデックスを入力し、第1の符号化回路1011から第N−1の符号化回路1014の各々より出力されるインデックスのセットを入力し、第Nの符号化回路1005から出力されるインデックスのセットを入力する。そして、各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The sixth embodiment of the present invention is realized by expanding the number of bands to N in the fourth embodiment. The configuration of the speech and music signal encoding apparatus according to the sixth embodiment of the present invention can be represented by the block diagram shown in FIG. Here, each of the first to N-
図14は、本発明の第7の実施例による音声音楽信号符号化装置の構成を示すブロック図である。図中の点線で囲まれたブロックをピッチ予測フィルタといい、図1にピッチ予測フィルタを付加することで図14が得られる。以下では、図1と異なるブロックである、記憶回路510、ピッチ信号生成回路112、第3のゲイン回路162、加算器184、第1の最小化回路550、符号出力回路590について説明する。
FIG. 14 is a block diagram showing the configuration of a speech and music signal encoding apparatus according to the seventh embodiment of the present invention. A block surrounded by a dotted line in the figure is called a pitch prediction filter, and FIG. 14 is obtained by adding the pitch prediction filter to FIG. Hereinafter, the
記憶回路510は、加算器184から第5の音源信号を入力し、保持する。記憶回路510は、過去に入力されて保持されている前記第5の音源信号をピッチ信号生成回路112へ出力する。
The
ピッチ信号生成回路112は、記憶回路510に保持されている過去の第5の音源信号と第1の最小化回路550から出力されるインデックスとを入力する。前記インデックスは、遅延dを指定する。そして、図30に示すように、前記過去の第5の音源信号において、現フレームの始点よりdサンプル過去の点から、ベクトル長に相当するLサンプル分の信号を切り出し、第1のピッチベクトルを生成する。ここで、d<Lの場合にはdサンプル分の信号を切り出し、この切り出したdサンプルを繰り返し接続して、ベクトル長がLサンプルである第1のピッチベクトルを生成する。ピッチ信号生成回路112は、前記第1のピッチベクトルを第3のゲイン回路162へ出力する。
The pitch
第3のゲイン回路162は、ゲインの値が格納されたテーブルを備えている。第3のゲイン回路162は、第1の最小化回路550から出力されるインデックスとピッチ信号生成回路112から出力される第1のピッチベクトルとを入力し、前記インデックスに対応する第3のゲインを前記テーブルより読み出し、前記第3のゲインと前記第1のピッチベクトルとを乗算し、第2のピッチベクトルを生成し、生成した前記第2のピッチベクトルを加算器184へ出力する。
The
加算器184は、第1のゲイン回路160から出力される第2の音源ベクトルと、第3のゲイン回路162から出力される第2のピッチベクトルを入力し、これらの和を計算し、これを第5の音源ベクトルとして、第1の帯域通過フィルタ120へ出力する。
The
第1の最小化回路550は、第1の音源生成回路110に格納されている第1の音源ベクトル全てに対応するインデックスを、前記第1の音源生成回路110へ順次出力し、ピッチ信号生成回路112において規定された範囲内の遅延d全てに対応するインデックスを、前記ピッチ信号生成回路112へ順次出力し、第1のゲイン回路160に格納されている第1のゲイン全てに対応するインデックスを、前記第1のゲイン回路160へ順次出力し、第3のゲイン回路162に格納されている第3のゲイン全てに対応するインデックスを、前記第3のゲイン回路162へ順次出力する。また、重みづけフィルタ140から出力される第1の重みづけ差分ベクトルを順次入力し、そのノルムを計算し、前記ノルムが最小となるような、前記第1の音源ベクトル、前記遅延d、前記第1のゲインおよび前記第3のゲインを選択し、これらに対応するインデックスをまとめて符号出力回路590へ出力する。
The first minimizing
符号出力回路590は、線形予測係数計算回路170から出力される量子化線形予測係数に対応するインデックスを入力する。また、第1の最小化回路550から出力される、第1の音源ベクトル、遅延d、第1のゲインおよび第3のゲインの各々に対応するインデックスを入力し、直交変換係数量子化回路260から出力される、Nsbv 個のサブベクトルに対する形状コードベクトルおよび量子化ゲインのインデックスから構成されるインデックスのセットを入力する。そして、各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The
図15は、本発明の第8の実施例による音声音楽信号符号化装置の構成を示すブロック図である。以下では、図14と異なるブロックである、ダウンサンプル回路780、第1の線形予測係数計算回路770、第1の線形予測合成フィルタ132、第3の差分器183、アップサンプル回路781、第1の差分器180、
第2の線形予測係数計算回路771、第3の線形予測係数計算回路772、線形予測逆フィルタ730、符号出力回路790について説明する。
FIG. 15 is a block diagram showing the configuration of a speech and music signal encoding apparatus according to the eighth embodiment of the present invention. In the following, the
The second linear prediction
ダウンサンプル回路780は、入力端子10から入力ベクトルを入力し、これをダウンサンプルして得られる、第1の帯域を有する第2の入力ベクトルを第1の線形予測係数計算回路770および第3の差分器183へ出力する。ここで、第1の帯域は、第1の実施例と同様にFs1[Hz]からFe1[Hz]とし、入力ベクトルの帯域はFs0[Hz]からFe0[Hz](第3の帯域)とする。ダウンサンプル回路の構成については、P. P. Vaidyanathanによる「Multirate Systems and Filter Banks」と題した文献(文献6)の4.1.1節を参照できる。
The down-
第1の線形予測係数計算回路770は、ダウンサンプル回路780から第2の入力ベクトルを入力し、前記第2の入力ベクトルに対して線形予測分析を行い、第1の帯域を有する第1の線形予測係数を求め、さらに前記第1の線形予測係数を量子化し、第1の量子化線形予測係数を求める。第1の線形予測係数計算回路770は、前記第1の線形予測係数を第1の重みづけフィルタ140へ出力し、第1の量子化線形予測係数に対応するインデックスを第1の線形予測合成フィルタ132と線形予測逆フィルタ730と第3の線形予測係数計算回路772および符号出力回路790へ出力する。
The first linear prediction
第1の線形予測合成フィルタ132は、第1の量子化線形予測係数が格納されたテーブルを備えている。第1の線形予測合成フィルタ132は、加算器184から出力される第5の音源ベクトルと第1の線形予測係数計算回路770から出力される第1の量子化線形予測係数に対応するインデックスとを入力する。また、前記インデックスに対応する第1の量子化線形予測係数を、前記テーブルより読み出し、前記第1の量子化線形予測係数が設定された合成フィルタを、前記第5の音源ベクトルにより駆動することで、第1の帯域を有する第1の再生ベクトルを得る。そして前記第1の再生ベクトルを第3の差分器183とアップサンプル回路781へ出力する。
The first linear
第3の差分器183は、第1の線形予測合成フィルタ132から出力される第1の再生ベクトルとダウンサンプル回路780から出力される第2の入力ベクトルとを入力し、それらの差分を計算し、これを第2の差分ベクトルとして重みづけフィルタ140へ出力する。
The
アップサンプル回路781は、第1の線形予測合成フィルタ132から出力される第1の再生ベクトルを入力し、これをアップサンプルして第3の帯域を有する第3の再生ベクトルを得る。ここで、第3の帯域はFs0[Hz]からFe0[Hz]である。アップサンプル回路781は、前記第3の再生ベクトルを第1の差分器180へ出力する。アップサンプル回路の構成については、P. P. Vaidyanathanによる「Multirate Systems and Filter Banks」と題した文献(文献6)の4.1.1節を参照できる。
The
第1の差分器180は、入力端子10を介して入力ベクトルを入力し、アップサンプル回路781から出力される第3の再生ベクトルを入力し、それらの差分を計算し、これを第1の差分ベクトルとして、線形予測逆フィルタ730へ出力する。
The
第2の線形予測係数計算回路771は、入力端子10から入力ベクトルを入力し、前記入力ベクトルに対して線形予測分析を行い、第3の帯域を有する第2の線形予測係数を求め、前記第2の線形予測係数を第3の線形予測係数計算回路772へ出力する。
The second linear prediction
第3の線形予測係数計算回路772は、第1の量子化線形予測係数が格納されたテーブルを備えている。第3の線形予測係数計算回路772は、第2の線形予測係数計算回路771から出力される第2の線形予測係数と、第1の線形予測係数計算回路770から出力される第1の量子化線形予測係数に対応するインデックスとを入力する。そして前記インデックスに対応する第1の量子化線形予測係数を、前記テーブルより読み出し、前記第1の量子化線形予測係数をLSPに変換し、さらに、これをサンプリング周波数変換することで、入力信号のサンプリング周波数に対応する第1のLSPを得る。また、前記第2の線形予測係数をLSPに変換し、第2のLSPを得る。前記第2のLSPと前記第1のLSPとの差分を計算し、これを第3のLSPとする。ここで、LSPのサンプリング周波数変換については、特願平9−202475号(文献7)を参照できる。前記第3のLSPを量子化し、これを線形予測係数に変換し、第3の帯域を有する第3の量子化線形予測係数を得る。そして前記第3の量子化線形予測係数に対応するインデックスを線形予測逆フィルタ730および符号出力回路790へ出力する。
The third linear prediction
線形予測逆フィルタ730は、第1の量子化線形予測係数が格納された第1のテーブルと第3の量子化線形予測係数が格納された第2のテーブルとを備えている。線形予測逆フィルタ730は、第1の線形予測係数計算回路770から出力される第1の量子化線形予測係数に対応する第1のインデックスと第3の線形予測係数計算回路772から出力される第3の量子化線形予測係数に対応する第2のインデックスと第1の差分器180から出力される第1の差分ベクトルとを入力する。線形予測逆フィルタ730は、前記第1のインデックスに対応する第1の量子化線形予測係数を前記第1のテーブルより読み出し、LSPに変換し、さらに、これをサンプリング周波数変換することで、入力信号のサンプリング周波数に対応する第1のLSPを得る。そして前記第2のインデックスに対応する第3の量子化線形予測係数を、前記第2のテーブルより読み出し、LSPに変換
し、第3のLSPを得る。次に、前記第1のLSPと前記第3のLSPとを加算し、第2のLSPを得る。線形予測逆フィルタ730は、前記第2のLSPを線形予測係数に変換し、第2の量子化線形予測係数を得、前記第2の量子化線形予測係数が設定された逆フィルタを、前記第1の差分ベクトルにより駆動することで、第1の残差ベクトルを得る。そして前記第1の残差ベクトルを直交変換回路240へ出力する。
The linear prediction
符号出力回路790は、第1の線形予測係数計算回路770から出力される第1の量子化線形予測係数に対応するインデックスを入力し、第3の線形予測係数計算回路772から出力される第3の量子化線形予測係数に対応するインデックスを入力し、第1の最小化回路550から出力される、第1の音源ベクトル、遅延d、第1のゲインおよび第3のゲインの各々に対応するインデックスを入力し、直交変換係数量子化回路260から出力される、Nsbv 個のサブベクトルに対する形状コードベクトルおよび量子化ゲインのインデックスから構成されるインデックスのセットを入力する。そして各インデックスをビット系列の符号に変換し、出力端子20を介して出力する。
The
図16は、本発明の第9の実施例による、第1の実施例に対応する音声音楽信号復号装置の構成を示すブロック図である。本復号装置は、入力端子30からビット系列の符号を入力する。
FIG. 16 is a block diagram showing a configuration of a speech and music signal decoding apparatus corresponding to the first embodiment according to the ninth embodiment of the present invention. The decoding apparatus inputs a bit sequence code from an
符号入力回路410は、入力端子30から入力したビット系列の符号をインデックスに変換する。第1の音源ベクトルに対応するインデックスは、第1の音源生成回路110へ出力される。第1のゲインに対応するインデックスは、第1のゲイン回路160へ出力される。量子化線形予測係数に対応するインデックスは、線形予測合成フィルタ130および線形予測合成フィルタ131へ出力される。サブベクトルに対する形状コードベクトルおよび量子化ゲインの各々に対応するインデックスNsbv を個のサブベクトル分まとめたインデックスのセットは、直交変換係数逆量子化回路460へ出力される。
The
第1の音源生成回路110は、符号入力回路410から出力されるインデックスを入力し、前記インデックスに対応する第1の音源ベクトルを、複数個の音源ベクトルが格納されたテーブルより読み出し、第1のゲイン回路160へ出力する。
The
第1のゲイン回路160は、量子化ゲイン
格納されたテーブルを備えている。第1のゲイン回路160は、符号入力回路410から出力されるインデックスと第1の音源生成回路110から出力される第1の音源ベクトルとを入力し、前記インデックスに対応する第1のゲインを前記テーブルより読み出し、前記第1のゲインと前記第1の音源ベクトルとを乗算し、第2の音源ベクトルを生成し、生成した前記第2の音源ベクトルを第1の帯域通過フィルタ120へ出力する。
The
第1の帯域通過フィルタ120は、第1のゲイン回路160から出力される第2の音源ベクトルを入力する。前記第2の音源ベクトルは、このフィルタにより第1の帯域に帯域制限され、第1の励振ベクトルを得る。第1の帯域通過フィルタ120は、前記第1の励振ベクトルを線形予測合成フィルタ130へ出力する。
The first
直交変換係数逆量子化回路460の構成について図18を用いて説明する。図18において、点線で囲まれたブロックはNsbv 個ある。その各ブロックで図1の帯域選択回路250において規定されるNsbv 個の量子化サブベクトル
The configuration of the orthogonal transform coefficient
が復号される。各量子化サブベクトルに対する復号処理は共通であるので、e′sb,0(n),n=0,…,L−1に対する処理について説明する。量子化サブベクトルe′sb,0(n),n=0,…,L−1は、図1における直交変換係数量子化回路260での処理と同様に、形状コードベクトルc0 [j](n),n=0,…,L−1と量子化ゲインg0 [k]との積で表される。ここで、j,kはインデックスを表す。インデックス入力回路4630は、入力端子4650を介して、符号入力回路410から出力されるNsbv 個の量子化サブベクトルに対する形状コードベクトルおよび量子化ゲインのインデックスから構成されるインデックスのセットifを入力する。そして前記インデックスのセットifから、形状コードベクトルc0 [j](n),n=0,…,L−1を指定するインデックスisbs,0 と量子化ゲインg0[k]を指定するインデックスisbg,0 とを取り出し、isbs,0 をテーブル4610へ出力し、isbg,0 をゲイン回路4620へ出力する。テーブル4610には、c0 [j](n),n=0,…,L−1,j=0,…,Nc,0 −1が格納されている。テーブル4610は、インデックス入力回路4630から出されるインデックスisbs,0 を入力し、isbs,0 に対応する形状コードベクトルc0 [j](n),n=0,…,L−1,j=isbs,0 をゲイン回路4620へ出力する。ゲイン回路4620が備えているテーブルには、g0 [k],k=0,…,Ng,0 −1が格納されている。ゲイン回路4620は、テーブル4610から出力されるc0 [j](n),n=0,…,L−1,j=isbs,0 を入力し、インデックス入力回路4630から出力されるインデックスisbg,0 を入力し、isbg,0 に対応する量子化ゲインg0 [k],k=isbg,0 を前記テーブルより読み出し、c0 [j](n),n=0,…,L−1,j=isbg,0 とg0 [k],k=isbg,0 とを乗算して得られる量子化サブベクトルe′sb,0(n),n=0,…,L−1を全帯域ベクトル生成回路4640へ出力する。全帯域ベクトル生成回路4640は、ゲイン回路4620から出力される量子化サブベクトルe′sb,0(n),n=0,…,L−1を入力する。また、全帯域ベクトル生成回路4640は、e′sb,0(n),n=0,…,L−1と同様の処理で得られる、
Is decrypted. Since the decoding process for each quantization subvector is common, the process for e ′ sb , 0 (n), n = 0,..., L−1 will be described. Quantization subvector e 'sb, 0 (n) , n = 0, ..., L-1 , as well as the processing of the orthogonal transform
を入力する。そして図17に示すように、
前記Nsbv 個の量子化サブベクトル
Enter. And as shown in FIG.
The N sbv quantization subvectors
を、図1の帯域選択回路250において規定される第2の帯域に配置し、前記第2の帯域以外には零ベクトルを配置することにより、全帯域(例えば、再生信号のサンプリング周波数が16kHzのときは、8kHz帯域)に相当する第2の励振ベクトルを生成し、これを出力端子4660を介して直交逆変換回路440へ出力する。
1 is arranged in the second band defined by the
直交逆変換回路440は、直交変換係数逆量子化回路460から出力される第2の励振ベクトルを入力し、前記第2の励振ベクトルを直交逆変換し、第3の励振ベクトルを得る。そして前記第3の励振ベクトルを線形予測合成フィルタ131へ出力する。ここで、直交逆変換としては、離散コサイン逆変換(Inverse Discrete Cosine Transform, IDCT )を用いることができる。
The orthogonal
線形予測合成フィルタ130は、量子化線形予測係数が格納されたテーブルを備えている。線形予測合成フィルタ130は、第1の帯域通過フィルタ120から出力される第1の励振ベクトルと符号入力回路410から出力される量子化線形予測係数に対応するインデックスとを入力する。また、前記インデックスに対応する量子化線形予測係数を、前記テーブルより読み出し、この量子化線形予測係数が設定された合成フィルタ1/A(z)を、前記第1の励振ベクトルにより駆動することで、第1の再生ベクトルを得る。そして前記第1の再生ベクトルを加算器182へ出力する。
The linear
線形予測合成フィルタ131は、量子化線形予測係数が格納されたテーブルを備えている。線形予測合成フィルタ131は、直交逆変換回路440から出力される第3の励振ベクトルと符号入力回路410から出力される量子化線形予測係数に対応するインデックスとを入力する。また、前記インデックスに対応する量子化線形予測係数を、前記テーブルより読み出し、この量子化線形予測係数が設定された合成フィルタ1/A(z)を、前記第3の励振ベクトルにより駆動することで、第2の再生ベクトルを得る。そして前記第2の再生ベクトルを加算器182へ出力する。
The linear
加算器182は、線形予測合成フィルタ130から出力される第1の再生ベクトルと、線形予測合成フィルタ131から出力される第2の再生ベクトルとを入力し、これらの和を計算し、これを第3の再生ベクトルとして、出力端子40を介して、出力する。
The
図16を用いて説明した第9の実施例は、帯域数が2の場合であるが、帯域数を3以上に拡張した場合について以下で説明する。 The ninth embodiment described with reference to FIG. 16 is a case where the number of bands is 2, but a case where the number of bands is expanded to 3 or more will be described below.
図16は、図19のように書き直すことができる。ここで、図19の第1の復号回路1051は、図20と等価であり、図19の第2の復号回路1052は、図21と等価であり、図20、図21を構成する各ブロックは、図16で説明した各ブロックと同じである。
FIG. 16 can be rewritten as shown in FIG. Here, the
本発明の第10の実施例は、第9の実施例において帯域数を3に拡張することで実現される。本発明の第10の実施例による音声音楽信号復号装置の構成は、図22に示すブロック図で表すことができる。ここで、第1の復号回路1051は図20と等価であり、第2の復号回路1052は図20と等価であり、第3の復号回路1053は図21と等価である。符号入力回路4101は、入力端子30から入力したビット系列の符号をインデックスに変換し、量子化線形予測係数に対応するインデックスを第1の復号回路1051、第2の復号回路1052および第3の復号回路1053へ出力し、音源ベクトルとゲインに対応するインデックスを第1の復号回路1051および第2の復号回路1052へ出力し、サブベクトルに対する形状コードベクトルおよび量子化ゲインに対応するインデックスのセットを第3の復号回路1053へ出力する。
The tenth embodiment of the present invention is realized by extending the number of bands to 3 in the ninth embodiment. The configuration of the speech and music signal decoding apparatus according to the tenth embodiment of the present invention can be represented by the block diagram shown in FIG. Here, the
本発明の第11の実施例は、第9の実施例において帯域数をNに拡張することで実現される。本発明の第11の実施例による音声音楽信号復号装置の構成は、図23に示すブロック図で表すことができる。ここで、第1の復号回路1051から第N−1の復号回路1054の各々は図20と等価であり、第Nの復号回路1055は図21と等価である。符号入力回路4102は、入力端子30から入力したビット系列の符号をインデックスに変換し量子化線形予測係数に対応するインデックスを第1の復号回路1051から第N−1の復号回路1054および第Nの復号回路1055の各々へ出力し、音源ベクトルとゲインに対応するインデックスを第1の復号回路1051から第N−1の復号回路1054の各々へ出力し、サブベクトルに対する形状コードベクトルおよび量子化ゲインに対応するインデックスのセットを第Nの復号回路1055へ出力する。
The eleventh embodiment of the present invention is realized by expanding the number of bands to N in the ninth embodiment. The configuration of the speech and music signal decoding apparatus according to the eleventh embodiment of the present invention can be represented by the block diagram shown in FIG. Here, each of the
第9の実施例では、図19における第1の復号回路1051がA−b−S法を用いた符号化方式に対応する復号方式に基づいているが、第1の復号回路1051に対して、A−b−S法以外の符号化方式に対応する復号方式を適用することもできる。以下では、時間周波数変換を用いた符号化方式に対応する復号方式を第1の復号回路1051に対して適用した場合について説明する。
In the ninth embodiment, the
本発明の第12の実施例は、第9の実施例において時間周波数変換を用いた符号化方式に対応する復号方式を適用することで実現される。本発明の第12の実施例による音声音楽信号復号装置の構成は、図24に示すブロック図で表すことができる。ここで、第1の復号回路1061は図21と等価であり、第2の復号回路1052は図21と等価である。符号入力回路4103は、入力端子30から入力したビット系列の符号をインデックスに変換し、量子化線形予測係数に対応するインデックスを第1の復号回路1061および第2の復号
回路1052へ出力し、サブベクトルに対する形状コードベクトルおよび量子化ゲインに対応するインデックスのセットを第1の復号回路1061および第2の復号回路1052へ出力する。
The twelfth embodiment of the present invention is realized by applying a decoding scheme corresponding to the encoding scheme using time-frequency conversion in the ninth embodiment. The configuration of the speech and music signal decoding apparatus according to the twelfth embodiment of the present invention can be represented by the block diagram shown in FIG. Here, the
本発明の第13の実施例は、第12の実施例において帯域数を3に拡張することで実現される。本発明の第13の実施例による音声音楽信号復号装置の構成は、図25に示すブロック図で表すことができる。ここで、第1の復号回路1061は図21と等価であり、第2の復号回路1062は図21と等価であり、第3の復号回路1053は図21と等価である。符号入力回路4104は、入力端子30から入力したビット系列の符号をインデックスに変換し、量子化線形予測係数に対応するインデックスを第1の復号回路1061、第2の復号回路1062および第3の復号回路1053へ出力し、サブベクトルに対する形状コードベクトルおよび量子化ゲインに対応するインデックスのセットを第1の復号回路1061、第2の復号回路1062および第3の復号回路1053へ出力する。
The thirteenth embodiment of the present invention is realized by expanding the number of bands to three in the twelfth embodiment. The configuration of the speech and music signal decoding apparatus according to the thirteenth embodiment of the present invention can be represented by the block diagram shown in FIG. Here, the
本発明の第14の実施例は、第12の実施例において帯域数をNに拡張することで実現される。本発明の第14の実施例による音声音楽信号復号装置の構成は、図26に示すブロック図で表すことができる。ここで、第1の復号回路1061から第N−1の復号回路1064の各々は図21と等価であり、第Nの復号回路1055は図21と等価である。符号入力回路4105は、入力端子30から入力したビット系列の符号をインデックスに変換し、量子化線形予測係数に対応するインデックスを第1の復号回路1061から第N−1の復号回路1064および第Nの復号回路1055の各々へ出力し、サブベクトルに対する形状コードベクトルおよび量子化ゲインに対応するインデックスのセットを第1の復号回路1061から第N−1の復号回路1064および第Nの復号回路1055の各々へ出力する。
The fourteenth embodiment of the present invention is realized by extending the number of bands to N in the twelfth embodiment. The configuration of the speech and music signal decoding apparatus according to the fourteenth embodiment of the present invention can be represented by the block diagram shown in FIG. Here, each of the
図27は、本発明の第15の実施例による、第7の実施例に対応する音声音楽信号復号装置の構成を示すブロック図である。図27において、図16の第9の実施例と異なるブロックは、記憶回路510、ピッチ信号生成回路112、第3のゲイン回路162、加算器184および符号入力回路610であるが、記憶回路510、ピッチ信号生成回路112、第3のゲイン回路162および加算器184は、図14と同様であるので説明を省略し、符号入力回路610について説明する。
FIG. 27 is a block diagram showing a configuration of a speech and music signal decoding apparatus corresponding to the seventh embodiment according to the fifteenth embodiment of the present invention. 27, the blocks different from the ninth embodiment of FIG. 16 are a
符号入力回路610は、入力端子30から入力したビット系列の符号をインデックスに変換する。第1の音源ベクトルに対応するインデックスは、第1の音源生成回路110へ出力される。遅延dに対応するインデックスは、ピッチ信号生成回路112へ出力される。第1のゲインに対応するインデックスは、第1のゲイン回路160へ出力される。第3のゲインに対応するインデックスは、第3のゲイン回路162へ出力される。量子化線形予測係数に対応するインデックスは、線形予測合成フィルタ130および線形予測合成フィルタ131へ出力される。サブベクトルに対する形状コードベクトルおよび量子化ゲインの各々に対応するインデックスをNsbv 個のサブベクトル分まとめたインデックスのセットは、直交変換係数逆量子化回路460へ出力される。
The
図28は、本発明の第16の実施例による、第8の実施例に対応する音声音楽信号復号装置の構成を示すブロック図である。以下では、図27と異なるブロックである、符号入力回路810、第1の線形予測係数合成フィルタ132、アップサンプル回路781および第2の線形予測合成フィルタ831について説明する。
FIG. 28 is a block diagram showing a configuration of a speech and music signal decoding apparatus corresponding to the eighth embodiment according to the sixteenth embodiment of the present invention. Hereinafter, the
符号入力回路810は、入力端子30から入力したビット系列の符号をインデックスに変換する。第1の音源ベクトルに対応するインデックスは、第1の音源生成回路110へ出力される。遅延dに対応するインデックスは、ピッチ信号生成回路112へ出力される。第1のゲインに対応するインデックスは、第1のゲイン回路160へ出力される。第3のゲインに対応するインデックスは、第3のゲイン回路162へ出力される。第1の量子化線形予測係数に対応するインデックスは、第1の線形予測合成フィルタ132および第2の線形予測合成フィルタ831へ出力される。第3の量子化線形予測係数に対応するインデックスは、第2の線形予測合成フィルタ831へ出力される。サブベクトルに対する形状コードベクトルおよび量子化ゲインの各々に対応するインデックスをNsbv 個のサブベクトル分まとめたインデックスのセットは、直交変換係数逆量子化回路
460へ出力される。
The
第1の線形予測合成フィルタ132は、第1の量子化線形予測係数が格納されたテーブルを備えている。第1の線形予測合成フィルタ132は、加算器184から出力される第5の音源ベクトルと符号入力回路810から出力される第1の量子化線形予測係数に対応するインデックスとを入力する。また、前記インデックスに対応する第1の量子化線形予測係数を、前記テーブルより読み出し、前記第1の量子化線形予測係数が設定された合成フィルタを、前記第5の音源ベクトルにより駆動することで、第1の帯域を有する第1の再生ベクトルを得る。そして前記第1の再生ベクトルをアップサンプル回路781へ出力する。
The first linear
アップサンプル回路781は、第1の線形予測合成フィルタ132から出力される第1の再生ベクトルを入力し、これをアップサンプルして第3の帯域を有する第3の再生ベクトルを得る。そして前記第3の再生ベクトルを第1の加算器182へ出力する。
The
第2の線形予測合成フィルタ831は、第1の帯域を有する第1の量子化線形予測係数が格納された第1のテーブルと、第3の帯域を有する第3の量子化線形予測係数が格納された第2のテーブルとを備えている。第2の線形予測合成フィルタ831は、直交逆変換回路440から出力される第3の励振ベクトルと、符号入力回路810から出力される第1の量子化線形予測係数に対応する第1のインデックスと、第3の量子化線形予測係数に対応する第2のインデックスとを入力する。第2の線形予測合成フィルタ831は、前記第1のインデックスに対応する第1の量子化線形予測係数を前記第1のテーブルより読み出し、これをLSPに変換し、さらに、これをサンプリング周波数変換することで、第3の再生ベクトルのサンプリング周波数に対応する第1のLSPを得る。次に、前記第2のインデックスに対応する第3の量子化線形予測係数を、前記第2のテーブルより読み出し、これをLSPに変換し、第3のLSPを得る。そして前記第1のLSPと前記第3のLSPとを加算して得られる第2のLSPを、線形予測係数に変換し、第2の線形予測係数を得る。第2の線形予測合成フィルタ831は、前記第2の線形予測係数が設定された合成フィルタを、前記第3の励振ベクトルにより駆動することで、第3の帯域を有する第2の再生ベクトルを得る。そして前記第2の再生ベクトルを加算器182へ出力する。
The second linear
加算器182は、アップサンプル回路781から出力される第3の再生ベクトルと、第2の線形予測合成フィルタ831から出力される第2の再生ベクトルを入力し、これらの和を計算し、これを第4の再生ベクトルとして、出力端子40を介して、出力する。
The
10,30 入力端子
20,40 出力端子
110 第1の音源生成回路
111 第2の音源生成回路
160 第1のゲイン回路
161 第2のゲイン回路
120 第1の帯域通過フィルタ
121 第2の帯域通過フィルタ
182,184 加算器
180 第1の差分器
181 第2の差分器
183 第3の差分器
170 線形予測係数計算回路
770 第1の線形予測係数計算回路
771 第2の線形予測係数計算回路
772 第3の線形予測係数計算回路
130 線形予測合成フィルタ
131 線形予測合成フィルタ
132 第1の線形予測合成フィルタ
831 第2の線形予測合成フィルタ
140 重みづけフィルタ
141 重みづけフィルタ
150,550 第1の最小化回路
151 第2の最小化回路
230,730 線形予測逆フィルタ
240 直交変換回路
250 帯域選択回路
260 直交変換係数量子化回路
440 直交逆変換回路
460 直交変換係数逆量子化回路
190,290,590,790 符号出力回路
310,410,610,810 符号入力回路
780 ダウンサンプル回路
781 アップサンプル回路
510 記憶回路
112 ピッチ信号生成回路
162 第3のゲイン回路
1101 テーブル
1102 スイッチ
1103 入力端子
1104 出力端子
2650,2651 入力端子
2610,2611 テーブル
2620,2621 ゲイン回路
2630,2631 最小化回路
2640,2641 差分器
2660 インデックス出力回路
2670 出力端子
1001,1011 第1の符号化回路
1002,1012 第2の符号化回路
1003 第3の符号化回路
1004,1014 第N−1の符号化回路
1005 第Nの符号化回路
2901,2902,2903,2904,2905 符号出力回路
1801,1802 差分器
4610,4611 テーブル
4620,4621 ゲイン回路
4630 インデックス入力回路
4640 全帯域ベクトル生成回路
4650 入力端子
4660 出力端子
1051,1061 第1の復号回路
1052,1062 第2の復号回路
1053 第3の復号回路
1054,1064 第N−1の復号回路
1055 第Nの復号回路
4101,4102,4103,4104,4105 符号入力回路
1821,1822 加算器
10, 30 Input terminal 20, 40 Output terminal 110 First sound generator circuit 111 Second sound generator circuit 160 First gain circuit 161 Second gain circuit 120 First band pass filter 121 Second band pass filter 182, 184 Adder 180 First differencer 181 Second differencer 183 Third differencer 170 Linear prediction coefficient calculation circuit 770 First linear prediction coefficient calculation circuit 771 Second linear prediction coefficient calculation circuit 772 Third Linear prediction coefficient calculation circuit 130 linear prediction synthesis filter 131 linear prediction synthesis filter 132 first linear prediction synthesis filter 831 second linear prediction synthesis filter 140 weighting filter 141 weighting filters 150 and 550 first minimizing circuit 151 Second minimizing circuits 230 and 730 linear prediction inverse filter 240 orthogonal transform circuit 250 Area selection circuit 260 Orthogonal transform coefficient quantization circuit 440 Orthogonal inverse transform circuit 460 Orthogonal transform coefficient inverse quantization circuit 190, 290, 590, 790 Code output circuit 310, 410, 610, 810 Code input circuit 780 Downsample circuit 781 Upsample Circuit 510 Memory circuit 112 Pitch signal generation circuit 162 Third gain circuit 1101 Table 1102 Switch 1103 Input terminal 1104 Output terminal 2650, 2651 Input terminal 2610, 2611 Table 2620, 2621 Gain circuit 2630, 2631 Minimization circuit 2640, 2641 Differentiator 2660 Index output circuit 2670 Output terminals 1001 and 1011 First encoding circuit 1002 and 1012 Second encoding circuit 1003 Third encoding circuit 1004 and 1014 N-1th encoding time 1005 Nth encoding circuit 2901, 2902, 2903, 2904, 2905 Code output circuit 1801, 1802 Differentiator 4610, 4611 Table 4620, 4621 Gain circuit 4630 Index input circuit 4640 Full-band vector generation circuit 4650 Input terminal 4660 Output terminal 1051 , 1061 First decoding circuit 1052, 1062 Second decoding circuit 1053 Third decoding circuit 1054, 1064 N-1 decoding circuit 1055 Nth decoding circuit 4101, 4102, 4103, 4104, 4105 Code input circuit 1821 , 1822 Adder
Claims (6)
前記第1の入力信号を第2のサンプリング周波数にダウンサンプリングして第2の入力信号を生成し、
前記第2の入力信号から第2のサンプリング周波数の第1の線形予測係数を求め、
前記第1の線形予測係数が設定された合成フィルタを駆動して前記第2の入力信号に対応する第1の再生信号を生成するための前記第2のサンプリング周波数の第1の励振信号を求め、
前記第1の再生信号を前記第1のサンプリング周波数にアップサンプリングすることにより第2の再生信号を生成し、
前記第1の入力信号から求めた線形予測係数に対応する周波数領域パラメータと前記第1の線形予測係数を第1のサンプリング周波数にサンプリング周波数変換して得られる第2の線形予測係数に対応する周波数領域パラメータとの差分から第3の線形予測係数を求め、
前記第2の線形予測係数に対応する周波数領域パラメータと前記第3の線形予測係数に対応する周波数領域パラメータとの和から第4の線形予測係数を求め、
前記第1の入力信号と前記第2の再生信号との差分信号により前記第4の線形予測係数が設定された逆フィルタを駆動することで残差信号を生成し、
前記残差信号を直交変換し、
前記直交変換された残差信号の少なくとも一部の帯域に対応する成分と前記第1の線形予測係数と前記第3の線形予測係数と前記励振信号とを出力することを特徴とする音声音楽信号符号化装置。 Receiving a first input signal sampled at a first sampling frequency;
Down-sampling the first input signal to a second sampling frequency to generate a second input signal;
Obtaining a first linear prediction coefficient of a second sampling frequency from the second input signal;
A first excitation signal having the second sampling frequency for generating a first reproduction signal corresponding to the second input signal by driving a synthesis filter in which the first linear prediction coefficient is set is obtained. ,
Generating a second reproduction signal by up-sampling the first reproduction signal to the first sampling frequency;
A frequency domain parameter corresponding to a linear prediction coefficient obtained from the first input signal and a frequency corresponding to a second linear prediction coefficient obtained by converting the first linear prediction coefficient into a first sampling frequency by sampling frequency conversion. A third linear prediction coefficient is obtained from the difference from the region parameter,
Obtaining a fourth linear prediction coefficient from a sum of a frequency domain parameter corresponding to the second linear prediction coefficient and a frequency domain parameter corresponding to the third linear prediction coefficient;
A residual signal is generated by driving an inverse filter in which the fourth linear prediction coefficient is set by a difference signal between the first input signal and the second reproduction signal;
Orthogonally transform the residual signal;
A speech music signal characterized by outputting a component corresponding to at least a part of a band of the orthogonally transformed residual signal, the first linear prediction coefficient, the third linear prediction coefficient, and the excitation signal. Encoding device.
前記第1の励振信号により第1の線形予測合成フィルタを駆動して得られる信号を前記第1のサンプリング周波数にアップサンプリングして第1の再生信号を生成し、
直交変換後残差信号の少なくとも一部の帯域に対応する成分を直交逆変換することにより第1のサンプリング周波数の第2の励振信号を生成し、
前記第1の線形予測係数に対応する周波数領域パラメータと前記第3の線形予測係数に対応する周波数領域パラメータとを加算して得られる信号が設定された第2の線形予測合成フィルタを前記第2の励振信号により駆動することで第2の再生信号を生成し、
前記第1の再生信号と前記第2の再生信号とを加算することで音声音楽信号を生成することを特徴とする音声音楽信号復号装置。 A first linear prediction coefficient of a second sampling frequency obtained from a second input signal generated by down-sampling the first input signal sampled at a first sampling frequency to a second sampling frequency; The first sampling frequency of the second sampling frequency obtained for driving the synthesis filter in which the first linear prediction coefficient is set to generate the first reproduction signal corresponding to the second input signal. A second linear prediction obtained by sampling frequency conversion of the excitation signal, the frequency domain parameter corresponding to the linear prediction coefficient obtained from the first input signal, and the first linear prediction coefficient into a first sampling frequency A third linear prediction coefficient obtained from the difference from the frequency domain parameter corresponding to the coefficient, and the first reproduction signal as the first sampling frequency. A frequency domain parameter corresponding to the second linear prediction coefficient and the third linear prediction coefficient based on a difference signal between the second reproduction signal generated by up-sampling to a number and the first input signal. Of the residual signal after orthogonal transformation obtained by orthogonal transformation of the residual signal generated by driving the inverse filter in which the fourth linear prediction coefficient obtained from the sum with the corresponding frequency domain parameter is set Receiving a signal including a component corresponding to at least a part of the band;
A first reproduction signal is generated by up-sampling a signal obtained by driving a first linear prediction synthesis filter with the first excitation signal to the first sampling frequency;
Generating a second excitation signal having a first sampling frequency by performing orthogonal inverse transformation on a component corresponding to at least a part of the band of the residual signal after orthogonal transformation;
A second linear prediction synthesis filter in which a signal obtained by adding a frequency domain parameter corresponding to the first linear prediction coefficient and a frequency domain parameter corresponding to the third linear prediction coefficient is set; A second reproduction signal is generated by driving with the excitation signal of
A speech and music signal decoding apparatus, wherein a speech and music signal is generated by adding the first reproduction signal and the second reproduction signal.
前記第1の励振信号により第1の線形予測合成フィルタを駆動して得られる信号を前記第1のサンプリング周波数にアップサンプリングして第1の再生信号を生成し、
直交変換後残差信号の少なくとも一部の帯域に対応する成分を直交逆変換することにより第1のサンプリング周波数の第2の励振信号を生成し、
前記第1の線形予測係数に対応する周波数領域パラメータと前記第3の線形予測係数に対応する周波数領域パラメータとを加算して得られる信号が設定された第2の線形予測合成フィルタを前記第2の励振信号により駆動することで第2の再生信号を生成し、
前記第1の再生信号と前記第2の再生信号とを加算することで音声音楽信号を生成することを特徴とする音声音楽信号復号装置。 The component corresponding to at least a part of the band of the orthogonally transformed residual signal, the first linear prediction coefficient of the second sampling frequency, the third linear prediction coefficient of the first sampling frequency, and the second sampling frequency Receiving a signal including a first excitation signal;
A first reproduction signal is generated by up-sampling a signal obtained by driving a first linear prediction synthesis filter with the first excitation signal to the first sampling frequency;
Generating a second excitation signal having a first sampling frequency by performing orthogonal inverse transformation on a component corresponding to at least a part of the band of the residual signal after orthogonal transformation;
A second linear prediction synthesis filter in which a signal obtained by adding a frequency domain parameter corresponding to the first linear prediction coefficient and a frequency domain parameter corresponding to the third linear prediction coefficient is set; A second reproduction signal is generated by driving with the excitation signal of
A speech and music signal decoding apparatus, wherein a speech and music signal is generated by adding the first reproduction signal and the second reproduction signal.
前記第1の入力信号を第2のサンプリング周波数にダウンサンプリングして第2の入力信号を生成し、
前記第2の入力信号から第2のサンプリング周波数の第1の線形予測係数を求め、
前記第1の線形予測係数が設定された合成フィルタを駆動して前記第2の入力信号に対応する第1の再生信号を生成するための前記第2のサンプリング周波数の第1の励振信号を求め、
前記第1の再生信号を前記第1のサンプリング周波数にアップサンプリングすることにより第2の再生信号を生成し、
前記第1の入力信号から求めた線形予測係数に対応する周波数領域パラメータと前記第1の線形予測係数を第1のサンプリング周波数にサンプリング周波数変換して得られる第2の線形予測係数に対応する周波数領域パラメータとの差分から第3の線形予測係数を求め、
前記第2の線形予測係数に対応する周波数領域パラメータと前記第3の線形予測係数に対応する周波数領域パラメータとの和から第4の線形予測係数を求め、
前記第1の入力信号と前記第2の再生信号との差分信号により前記第4の線形予測係数が設定された逆フィルタを駆動することで残差信号を生成し、
前記残差信号を直交変換し、
前記直交変換された残差信号の少なくとも一部の帯域に対応する成分と前記第1の線形予測係数と前記第3の線形予測係数と前記励振信号とを出力することを特徴とする音声音楽信号符号化方法。 Receiving a first input signal sampled at a first sampling frequency;
Down-sampling the first input signal to a second sampling frequency to generate a second input signal;
Obtaining a first linear prediction coefficient of a second sampling frequency from the second input signal;
A first excitation signal having the second sampling frequency for generating a first reproduction signal corresponding to the second input signal by driving a synthesis filter in which the first linear prediction coefficient is set is obtained. ,
Generating a second reproduction signal by up-sampling the first reproduction signal to the first sampling frequency;
A frequency domain parameter corresponding to a linear prediction coefficient obtained from the first input signal and a frequency corresponding to a second linear prediction coefficient obtained by converting the first linear prediction coefficient into a first sampling frequency by sampling frequency conversion. A third linear prediction coefficient is obtained from the difference from the region parameter,
Obtaining a fourth linear prediction coefficient from a sum of a frequency domain parameter corresponding to the second linear prediction coefficient and a frequency domain parameter corresponding to the third linear prediction coefficient;
A residual signal is generated by driving an inverse filter in which the fourth linear prediction coefficient is set by a difference signal between the first input signal and the second reproduction signal;
Orthogonally transform the residual signal;
A speech music signal characterized by outputting a component corresponding to at least a part of a band of the orthogonally transformed residual signal, the first linear prediction coefficient, the third linear prediction coefficient, and the excitation signal. Encoding method.
前記第1の励振信号により第1の線形予測合成フィルタを駆動して得られる信号を前記第1のサンプリング周波数にアップサンプリングして第1の再生信号を生成し、
直交変換後残差信号の少なくとも一部の帯域に対応する成分を直交逆変換することにより第1のサンプリング周波数の第2の励振信号を生成し、
前記第1の線形予測係数に対応する周波数領域パラメータと前記第3の線形予測係数に対応する周波数領域パラメータとを加算して得られる信号が設定された第2の線形予測合成フィルタを前記第2の励振信号により駆動することで第2の再生信号を生成し、
前記第1の再生信号と前記第2の再生信号とを加算することで音声音楽信号を生成することを特徴とする音声音楽信号復号方法。 A first linear prediction coefficient of a second sampling frequency obtained from a second input signal generated by down-sampling the first input signal sampled at a first sampling frequency to a second sampling frequency; The first sampling frequency of the second sampling frequency obtained for driving the synthesis filter in which the first linear prediction coefficient is set to generate the first reproduction signal corresponding to the second input signal. A second linear prediction obtained by sampling frequency conversion of the excitation signal, the frequency domain parameter corresponding to the linear prediction coefficient obtained from the first input signal, and the first linear prediction coefficient into a first sampling frequency A third linear prediction coefficient obtained from the difference from the frequency domain parameter corresponding to the coefficient, and the first reproduction signal as the first sampling frequency. A frequency domain parameter corresponding to the second linear prediction coefficient and the third linear prediction coefficient based on a difference signal between the second reproduction signal generated by up-sampling to a number and the first input signal. Of the residual signal after orthogonal transformation obtained by orthogonal transformation of the residual signal generated by driving the inverse filter in which the fourth linear prediction coefficient obtained from the sum with the corresponding frequency domain parameter is set Receiving a signal including a component corresponding to at least a part of the band;
A first reproduction signal is generated by up-sampling a signal obtained by driving a first linear prediction synthesis filter with the first excitation signal to the first sampling frequency;
Generating a second excitation signal having a first sampling frequency by performing orthogonal inverse transformation on a component corresponding to at least a part of the band of the residual signal after orthogonal transformation;
A second linear prediction synthesis filter in which a signal obtained by adding a frequency domain parameter corresponding to the first linear prediction coefficient and a frequency domain parameter corresponding to the third linear prediction coefficient is set; A second reproduction signal is generated by driving with the excitation signal of
A speech and music signal decoding method, wherein a speech and music signal is generated by adding the first reproduction signal and the second reproduction signal.
前記第1の励振信号により第1の線形予測合成フィルタを駆動して得られる信号を前記第1のサンプリング周波数にアップサンプリングして第1の再生信号を生成し、
直交変換後残差信号の少なくとも一部の帯域に対応する成分を直交逆変換することにより第1のサンプリング周波数の第2の励振信号を生成し、
前記第1の線形予測係数に対応する周波数領域パラメータと前記第3の線形予測係数に対応する周波数領域パラメータとを加算して得られる信号が設定された第2の線形予測合成フィルタを前記第2の励振信号により駆動することで第2の再生信号を生成し、
前記第1の再生信号と前記第2の再生信号とを加算することで音声音楽信号を生成することを特徴とする音声音楽信号復号方法。 The component corresponding to at least a part of the band of the orthogonally transformed residual signal, the first linear prediction coefficient of the second sampling frequency, the third linear prediction coefficient of the first sampling frequency, and the second sampling frequency Receiving a signal including a first excitation signal;
A first reproduction signal is generated by up-sampling a signal obtained by driving a first linear prediction synthesis filter with the first excitation signal to the first sampling frequency;
Generating a second excitation signal having a first sampling frequency by performing orthogonal inverse transformation on a component corresponding to at least a part of the band of the residual signal after orthogonal transformation;
A second linear prediction synthesis filter in which a signal obtained by adding a frequency domain parameter corresponding to the first linear prediction coefficient and a frequency domain parameter corresponding to the third linear prediction coefficient is set; A second reproduction signal is generated by driving with the excitation signal of
A speech and music signal decoding method, wherein a speech and music signal is generated by adding the first reproduction signal and the second reproduction signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004027981A JP4293005B2 (en) | 2004-02-04 | 2004-02-04 | Speech and music signal encoding apparatus and decoding apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004027981A JP4293005B2 (en) | 2004-02-04 | 2004-02-04 | Speech and music signal encoding apparatus and decoding apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP16657398A Division JP3541680B2 (en) | 1998-06-15 | 1998-06-15 | Audio music signal encoding device and decoding device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004177982A JP2004177982A (en) | 2004-06-24 |
JP4293005B2 true JP4293005B2 (en) | 2009-07-08 |
Family
ID=32709481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004027981A Expired - Fee Related JP4293005B2 (en) | 2004-02-04 | 2004-02-04 | Speech and music signal encoding apparatus and decoding apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4293005B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1852849A1 (en) | 2006-05-05 | 2007-11-07 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream |
-
2004
- 2004-02-04 JP JP2004027981A patent/JP4293005B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004177982A (en) | 2004-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3199020B2 (en) | Audio music signal encoding device and decoding device | |
JP3134817B2 (en) | Audio encoding / decoding device | |
US20210375296A1 (en) | Methods, Encoder And Decoder For Linear Predictive Encoding And Decoding Of Sound Signals Upon Transition Between Frames Having Different Sampling Rates | |
JP3541680B2 (en) | Audio music signal encoding device and decoding device | |
US7805314B2 (en) | Method and apparatus to quantize/dequantize frequency amplitude data and method and apparatus to audio encode/decode using the method and apparatus to quantize/dequantize frequency amplitude data | |
WO1990013112A1 (en) | Voice encoder | |
JP2010244078A (en) | Spectrum envelope information quantization device, spectrum envelope information decoding device, spectrum envelope information quantizatization method, and spectrum envelope information decoding method | |
JPH08123495A (en) | Wide-band speech restoring device | |
US20040111257A1 (en) | Transcoding apparatus and method between CELP-based codecs using bandwidth extension | |
JP3582589B2 (en) | Speech coding apparatus and speech decoding apparatus | |
JP2003150200A (en) | Method and device for converting code, program and storage medium | |
JP3147807B2 (en) | Signal encoding device | |
JP4293005B2 (en) | Speech and music signal encoding apparatus and decoding apparatus | |
JP3268750B2 (en) | Speech synthesis method and system | |
JPH09127987A (en) | Signal coding method and device therefor | |
KR100682966B1 (en) | Method and apparatus for quantizing/dequantizing frequency amplitude, and method and apparatus for encoding/decoding audio signal using it | |
JP3063087B2 (en) | Audio encoding / decoding device, audio encoding device, and audio decoding device | |
EP1717796B1 (en) | Method for converting code and code conversion apparatus therefor | |
WO2000003385A1 (en) | Voice encoding/decoding device | |
JP2615862B2 (en) | Voice encoding / decoding method and apparatus | |
JPH04301900A (en) | Audio encoding device | |
JP3773509B2 (en) | Broadband speech restoration apparatus and broadband speech restoration method | |
JPH01293400A (en) | Speech encoding and decoding method and speech encoding device and speech decoding device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20050316 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050518 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20070118 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080331 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20080606 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090317 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090330 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120417 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130417 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140417 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |