JP2009003078A - Speech encoding device, speech decoding device, speech encoding method, speech decoding method, and program - Google Patents

Speech encoding device, speech decoding device, speech encoding method, speech decoding method, and program Download PDF

Info

Publication number
JP2009003078A
JP2009003078A JP2007162359A JP2007162359A JP2009003078A JP 2009003078 A JP2009003078 A JP 2009003078A JP 2007162359 A JP2007162359 A JP 2007162359A JP 2007162359 A JP2007162359 A JP 2007162359A JP 2009003078 A JP2009003078 A JP 2009003078A
Authority
JP
Japan
Prior art keywords
index
frame
vector
unit
vector quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007162359A
Other languages
Japanese (ja)
Other versions
JP5098458B2 (en
Inventor
Hiroyasu Ide
博康 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007162359A priority Critical patent/JP5098458B2/en
Publication of JP2009003078A publication Critical patent/JP2009003078A/en
Application granted granted Critical
Publication of JP5098458B2 publication Critical patent/JP5098458B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To effectively encode and decode a speech signal which is digitalized with a sampling frequency suitable for recording conversation etc. for language learning. <P>SOLUTION: A vector quantization section 5 performs vector quantization on a spectrum handed over from a spectrum perfection section 31 by using a sorted vector quantization (VQ) table 41 or 43 in which a representative vector sorted in order of energy is stored, and an index attached to the representative vector used for approximation is handed over to an index difference calculation section 45 etc.. The index difference calculation section 45 hands over an index difference which is a value calculated by subtracting the index just before the time from the index handed over from the vector quantization section 5, to an entropy encoding section 35. The entropy encoding section 35 performs entropy encoding on the index difference. When decoding speech, the index difference is added to the index just before the time. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、音声信号圧縮及び復元を実行する際に必要となる、音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラムに関する。   The present invention relates to a voice encoding device, a voice decoding device, a voice encoding method, a voice decoding method, and a program that are required when executing voice signal compression and decompression.

携帯電話機やデジタルオーディオプレイヤー等に利用される音声信号圧縮のための符号化方式として、これまでに、μ−law、ADPCM(Adaptive Differential Pulse Code Modulation)、MP3(MPEG Audio Layer - 3)、VSELP(Vector Sum Excited Linear Prediction)、ITU−T勧告G.729に代表されるCELP(Code-Excited Linear Prediction)系の圧縮方式等が実用化されている。特許文献1には、音声信号圧縮技術として、ベクトル量子化を用いた技術が開示されている。
特開平10−63299号公報
As encoding methods for audio signal compression used in cellular phones, digital audio players, etc., so far, μ-law, ADPCM (Adaptive Differential Pulse Code Modulation), MP3 (MPEG Audio Layer-3), VSELP ( Vector Sum Excited Linear Prediction), ITU-T Recommendation G. A CELP (Code-Excited Linear Prediction) type compression method represented by 729 has been put into practical use. Patent Document 1 discloses a technique using vector quantization as an audio signal compression technique.
Japanese Patent Laid-Open No. 10-63299

外国語の学習に用いるための音声をデジタル化する場合は、該音声を、16kHz程度のサンプリング周波数でサンプリングすることが妥当であると考えられている。この程度のサンプリング周波数であれば諸言語の特徴を保つことが可能であるためであり、かつ、学習に必要な音質を確保するという観点からは、これ以上サンプリング周波数を高くしてもデータ量を増加させる割には効果が薄いためである。   In the case of digitizing speech for use in learning a foreign language, it is considered appropriate to sample the speech at a sampling frequency of about 16 kHz. This is because it is possible to maintain the characteristics of various languages at this level of sampling frequency, and from the viewpoint of ensuring the sound quality necessary for learning, the amount of data can be reduced even if the sampling frequency is increased further. This is because the effect is small for the increase.

しかしながら、CELP系の圧縮方式に現れる圧縮ノイズは、同じ母語を話す者同士が会話により意思疎通を図るに際しては差し支えないものの、語学学習には適切ではないという問題があった。また、μ−lawやADPCMは、語学学習に十分な音質での音声再生を可能とするものの、符号化レートが高いために、記憶装置の記憶容量に制約がある携帯機器でこれらの圧縮方式を利用する場合、記憶容量が圧迫されて録音時間が短くなってしまうという問題があった。また、MP3は、音楽鑑賞目的等の、語学学習目的以上に高品質の音声再生が要求される場合における音声信号の圧縮を対象としており、上述の16kHz程度のサンプリング周波数では、効果的に圧縮を行うことができないという問題があった。   However, the compression noise that appears in the CELP compression method has a problem that it is not appropriate for language learning, although it does not interfere with communication between two speakers of the same native language through conversation. In addition, although μ-law and ADPCM enable voice reproduction with sound quality sufficient for language learning, since the encoding rate is high, these compression methods are used in portable devices where the storage capacity of the storage device is limited. When used, there is a problem that the recording capacity is reduced and the recording time is shortened. MP3 is intended for audio signal compression when higher quality audio reproduction is required than for language learning purposes, such as music appreciation purposes, and is effective at the above sampling frequency of about 16 kHz. There was a problem that could not be done.

本発明は上記実情に鑑みてなされたものであり、語学学習用会話等の録音に適切なサンプリング周波数でデジタル化された音声信号の低ビットレート符号化に適した符号化及び復号を可能とする音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and enables encoding and decoding suitable for low bit rate encoding of an audio signal digitized at a sampling frequency appropriate for recording such as language learning conversation. An object is to provide a speech encoding device, a speech decoding device, a speech encoding method, a speech decoding method, and a program.

上記目的を達成するために、この発明の第1の観点に係る音声符号化装置は、
デジタル音声信号を、所定の時間区間であるフレーム毎のデジタル音声信号であるフレーム化デジタル音声信号に分割するフレーム化部と、
前記フレーム化デジタル音声信号を周波数変換して、前記フレーム毎にデジタルスペクトルを生成する周波数変換部と、
付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルと、
前記ベクトル量子化テーブルを用いて前記デジタルスペクトルをベクトル量子化することにより、該デジタルスペクトルに対応する前記インデックスを求めるベクトル量子化部と、
前記ベクトル量子化部により求められたインデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶部と、
前記ベクトル量子化部により求められたインデックスを前記ベクトル量子化部から取得するとともに、該インデックスに対応する前記フレームよりも時間的に過去の前記フレームに関連付けられて前記インデックス記憶部に記憶されているインデックスを前記インデックス記憶部から取得し、取得した両インデックスの差分を算出するインデックス差分算出部と、
前記インデックス差分算出部により算出された差分をエントロピ符号化することにより符号を生成する符号化部と、
を備える。
In order to achieve the above object, a speech encoding apparatus according to the first aspect of the present invention provides:
A framing unit that divides the digital audio signal into framed digital audio signals that are digital audio signals for each frame that is a predetermined time interval;
A frequency converter that converts the frequency of the framed digital audio signal and generates a digital spectrum for each frame;
A vector quantization table composed of representative vectors identified by the attached index and having a large absolute value in ascending or descending order of the index;
A vector quantization unit that obtains the index corresponding to the digital spectrum by vector-quantizing the digital spectrum using the vector quantization table;
An index storage unit that stores the index obtained by the vector quantization unit in association with the frame corresponding to the index;
The index obtained by the vector quantization unit is acquired from the vector quantization unit, and is stored in the index storage unit in association with the frame that is temporally earlier than the frame corresponding to the index. An index difference calculation unit that acquires an index from the index storage unit and calculates a difference between the acquired indexes;
An encoding unit that generates a code by entropy encoding the difference calculated by the index difference calculation unit;
Is provided.

音声信号の連続性及び定常性ゆえに、かかる差分の値には偏りが生じるため、エントロピ符号化により効率良く符号化することができる。   Due to the continuity and stationarity of the audio signal, the difference value is biased, and therefore can be efficiently encoded by entropy encoding.

前記インデックス差分算出部は、例えば、前記ベクトル量子化部により求められたインデックスを前記ベクトル量子化部から取得するとともに、該インデックスに対応する前記フレームの時間的に直前の前記フレームに関連付けられて前記インデックス記憶部に記憶されているインデックスを前記インデックス記憶部から取得し、取得した両インデックスの差分を算出する。   The index difference calculation unit obtains, for example, the index obtained by the vector quantization unit from the vector quantization unit, and is associated with the frame temporally immediately preceding the frame corresponding to the index. An index stored in the index storage unit is acquired from the index storage unit, and a difference between the acquired indexes is calculated.

前記ベクトル量子化テーブルは、大小が周波数の高低に対応する要素番号が付された座標軸を用い多次元空間の1点として表現される代表ベクトルから構成され、絶対値が等しい複数の代表ベクトルには、該複数の代表ベクトルを前記インデックスの昇順又は降順に並べた場合に、各代表ベクトルの前記座標軸に対応する成分のうち絶対値が最大の成分に対応する前記座標軸に付された前記要素番号が単調に増加するように、前記インデックスが付されている、ことが望ましい。   The vector quantization table is composed of representative vectors expressed as one point in a multi-dimensional space using coordinate axes with element numbers corresponding to high and low frequencies, and there are a plurality of representative vectors having the same absolute value. When the plurality of representative vectors are arranged in ascending or descending order of the index, the element number assigned to the coordinate axis corresponding to the component having the maximum absolute value among the components corresponding to the coordinate axis of each representative vector is It is desirable that the index is attached so as to increase monotonously.

このようにインデックスが付された代表ベクトルによれば、音声信号のエネルギーがほぼ一定である時間帯においてインデックスの値に偏りが生じやすくなるので、符号化の効率がいっそう向上する。   According to the representative vector to which the index is attached in this way, since the index value is likely to be biased in the time zone in which the energy of the audio signal is substantially constant, the encoding efficiency is further improved.

前記ベクトル量子化テーブルは、複数の帯域別テーブルを備え、前記帯域別テーブルは、それぞれが特定の帯域であるテーブル用帯域に関連付けられるとともに該テーブル用帯域における典型的な音声スペクトルパターンと整合する代表ベクトルから構成される、ことを特徴とし、前記ベクトル量子化部は、前記デジタルスペクトルを前記テーブル用帯域と同じ又はより細分された帯域である量子化用帯域毎にベクトル量子化するとともに、前記量子化用帯域毎にベクトル量子化するに際して該量子化帯域が含まれる前記テーブル用帯域に対応する前記帯域別テーブルを用いてもよい。   The vector quantization table includes a plurality of band-specific tables, and the band-specific table is associated with a table band, each of which is a specific band, and matches a typical speech spectrum pattern in the table band. The vector quantization unit vector-quantizes the digital spectrum for each quantization band that is the same as or more subdivided than the table band. When performing vector quantization for each quantization band, the band-specific table corresponding to the table band including the quantization band may be used.

音声信号は帯域毎に特性が異なるため、帯域毎に異なるベクトル量子化テーブルを参照するようにすれば、ベクトル量子化を効率的に行うことができる場合がある。   Since the audio signal has different characteristics for each band, it may be possible to efficiently perform vector quantization by referring to a different vector quantization table for each band.

前記符号化部が生成した符号の符号長を求め、該符号長が予め設定された目標符号長以下であるか否かを判別する符号長監視部をさらに備え、前記符号化部は、前記符号長監視部により前記符号長が前記目標符号長より長いと判別された場合には、所定の削除用帯域に区分された前記デジタルスペクトルのうち相対的にエネルギーの低い削除用帯域に対応する部分をエントロピ符号化の対象から除外した後に再びエントロピ符号化する、ことが望ましい。   A code length monitoring unit that obtains the code length of the code generated by the encoding unit and determines whether the code length is equal to or less than a preset target code length, and the encoding unit includes the code If it is determined by the length monitoring unit that the code length is longer than the target code length, a portion corresponding to a relatively low energy deletion band of the digital spectrum divided into predetermined deletion bands It is desirable to perform entropy coding again after being excluded from the target of entropy coding.

記憶情報量や伝達情報量に制約がある場合、音声復号に重要と考えられる帯域についてだけでも符号化すれば、再生音声の劣化を最小限に抑えることができる。   When there is a restriction on the amount of stored information and the amount of transmitted information, it is possible to minimize degradation of reproduced speech by encoding only the band considered to be important for speech decoding.

前記周波数変換部は、例えば、前記フレーム化デジタル信号を変形離散コサイン変換して、前記フレーム毎に前記デジタルスペクトルを生成する。     For example, the frequency conversion unit performs a modified discrete cosine transform on the framed digital signal to generate the digital spectrum for each frame.

上記目的を達成するために、この発明の第2の観点に係る音声復号装置は、
所定の時間区間であるフレームのうちのひとつである現フレームに属しデジタル音声信号から生成されたデジタルスペクトルと該現フレームよりも時間的に過去のフレームに属するデジタルスペクトルとに、付されたインデックスにより相互に識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いたベクトル量子化が施された結果、それぞれのデジタルスペクトルを特徴付ける値として得られた前記インデックスから算出されるインデックス同士の差分が該現フレームに対応する量としてエントロピ符号化されたデータから、該差分を復号する復号部と、
前記インデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶部と、
前記フレームに対応する前記インデックスを、前記復号部により該フレームに対応する量として復号された前記差分を該フレームよりも時間的に過去のフレームに関連付けられて前記インデックス記憶部に記憶されているインデックスに加算することにより求めるインデックス算出部と、
前記ベクトル量子化テーブルと、
前記インデックス算出部により求められたインデックスに対応する前記代表ベクトルを前記ベクトル量子化テーブルから検索し検索した代表ベクトルを用いて前記デジタルスペクトルを近似的に復元する逆ベクトル量子化部と、
前記逆ベクトル量子化部が復元したデジタルスペクトルを周波数逆変換して該デジタルスペクトルが属する前記フレームに属するデジタル音声信号を復元する周波数逆変換部と、
を備える。
In order to achieve the above object, a speech decoding apparatus according to the second aspect of the present invention provides:
According to an index attached to a digital spectrum belonging to a current frame that is one of frames in a predetermined time interval and generated from a digital audio signal and to a digital spectrum belonging to a frame that is earlier in time than the current frame As a result of performing vector quantization using a vector quantization table composed of representative vectors that are distinguished from each other and that have a large absolute value in ascending or descending order of the index, the values obtained as values that characterize each digital spectrum are obtained. A decoding unit that decodes the difference from data entropy-encoded as an amount corresponding to the current frame in which the difference between the indexes calculated from the index is;
An index storage unit for storing the index in association with the frame corresponding to the index;
The index corresponding to the frame, the difference decoded as an amount corresponding to the frame by the decoding unit, the index stored in the index storage unit in association with a frame that is temporally earlier than the frame An index calculation unit obtained by adding to
The vector quantization table;
An inverse vector quantization unit that approximately restores the digital spectrum by using the representative vector retrieved from the vector quantization table by searching the representative vector corresponding to the index obtained by the index calculation unit;
A frequency inverse transform unit for performing frequency inverse transform on the digital spectrum restored by the inverse vector quantization unit to restore a digital audio signal belonging to the frame to which the digital spectrum belongs;
Is provided.

上記目的を達成するために、この発明の第3の観点に係る音声符号化方法は、
デジタル音声信号を、所定の時間区間であるフレーム毎のデジタル音声信号であるフレーム化デジタル音声信号に分割するフレーム化ステップと、
前記フレーム化デジタル音声信号を周波数変換して、前記フレーム毎にデジタルスペクトルを生成する周波数変換ステップと、
付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いて前記デジタルスペクトルをベクトル量子化することにより、該デジタルスペクトルに対応する前記インデックスを求めるベクトル量子化ステップと、
前記ベクトル量子ステップにより求められたインデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶ステップと、
前記ベクトル量子化ステップにより求められたインデックスを前記ベクトル量子化ステップから取得するとともに、該インデックスに対応する前記フレームよりも時間的に過去の前記フレームに関連付けられて過去の前記インデックス記憶ステップで記憶したインデックスを取得し、取得した両インデックスの差分を算出するインデックス差分算出ステップと、
前記インデックス差分算出ステップにより算出された差分をエントロピ符号化することにより符号を生成する符号化ステップと、
から構成される。
In order to achieve the above object, a speech encoding method according to a third aspect of the present invention includes:
A framing step of dividing the digital audio signal into framed digital audio signals that are digital audio signals for each frame that is a predetermined time interval;
A frequency conversion step of frequency-converting the framed digital audio signal to generate a digital spectrum for each frame;
The digital spectrum is vector-quantized using a vector quantization table that is configured by a representative vector that is identified by the attached index and that has a large absolute value in ascending or descending order of the index, thereby corresponding to the digital spectrum. A vector quantization step to find the index;
An index storing step for storing the index obtained by the vector quantum step in association with the frame corresponding to the index;
The index obtained by the vector quantization step is acquired from the vector quantization step and stored in the past index storing step in association with the previous frame in time than the frame corresponding to the index. An index difference calculating step for acquiring an index and calculating a difference between the acquired indexes;
An encoding step for generating a code by entropy encoding the difference calculated by the index difference calculating step;
Consists of

上記目的を達成するために、この発明の第4の観点に係る音声復号方法は、
所定の時間区間であるフレームのうちのひとつである現フレームに属しデジタル音声信号から生成されたデジタルスペクトルと該現フレームよりも時間的に過去のフレームに属するデジタルスペクトルとに、付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いたベクトル量子化が施された結果、それぞれのデジタルスペクトルを特徴付ける値として得られた前記インデックスから算出されるインデックス同士の差分が該現フレームに対応する量としてエントロピ符号化されたデータから、該差分を復号する復号ステップと、
前記インデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶ステップと、
前記フレームに対応する前記インデックスを、前記復号ステップにより該フレームに対応する量として復号された前記差分を該フレームよりも時間的に過去のフレームに関連付けられて過去の前記インデックス記憶ステップで記憶したインデックスに加算することにより求めるインデックス算出ステップと、
前記インデックス算出ステップにより求められたインデックスに対応する前記代表ベクトルを前記ベクトル量子化テーブルから検索し検索した代表ベクトルを用いて前記デジタルスペクトルを近似的に復元する逆ベクトル量子化ステップと、
前記逆ベクトル量子化ステップで復元したデジタルスペクトルを周波数逆変換して該デジタルスペクトルが属する前記フレームに属するデジタル音声信号を復元する周波数逆変換ステップと、
を備える。
In order to achieve the above object, a speech decoding method according to the fourth aspect of the present invention provides:
According to an index attached to a digital spectrum belonging to a current frame that is one of frames in a predetermined time interval and generated from a digital audio signal and to a digital spectrum belonging to a frame that is earlier in time than the current frame From the index obtained as a value that characterizes each digital spectrum as a result of vector quantization using a vector quantization table that is identified and composed of representative vectors having a large absolute value in ascending or descending order of the index A decoding step of decoding the difference from the data entropy-encoded as an amount corresponding to the current frame in which the difference between the calculated indexes is;
An index storing step of storing the index in association with the frame corresponding to the index;
The index corresponding to the frame is stored in the past index storing step in which the difference decoded as an amount corresponding to the frame by the decoding step is correlated with a past frame in time than the frame. An index calculation step to be obtained by adding to
An inverse vector quantization step of approximately restoring the digital spectrum by using the representative vector searched from the vector quantization table for the representative vector corresponding to the index obtained by the index calculation step;
Frequency inverse transform step for restoring the digital audio signal belonging to the frame to which the digital spectrum belongs by performing frequency inverse transform on the digital spectrum restored in the inverse vector quantization step;
Is provided.

上記目的を達成するために、この発明の第5の観点に係るプログラムは、
コンピュータに、
デジタル音声信号を、所定の時間区間であるフレーム毎のデジタル音声信号であるフレーム化デジタル音声信号に分割するフレーム化ステップと、
前記フレーム化デジタル音声信号を周波数変換して、前記フレーム毎にデジタルスペクトルを生成する周波数変換ステップと、
付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いて前記デジタルスペクトルをベクトル量子化することにより、該デジタルスペクトルに対応する前記インデックスを求めるベクトル量子化ステップと、
前記ベクトル量子ステップにより求められたインデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶ステップと、
前記ベクトル量子化ステップにより求められたインデックスを前記ベクトル量子化ステップから取得するとともに、該インデックスに対応する前記フレームよりも時間的に過去の前記フレームに関連付けられて過去の前記インデックス記憶ステップで記憶したインデックスを取得し、取得した両インデックスの差分を算出するインデックス差分算出ステップと、
前記インデックス差分算出ステップにより算出された差分をエントロピ符号化することにより符号を生成する符号化ステップと、
を実行させる。
In order to achieve the above object, a program according to the fifth aspect of the present invention provides:
On the computer,
A framing step of dividing the digital audio signal into framed digital audio signals that are digital audio signals for each frame that is a predetermined time interval;
A frequency conversion step of frequency-converting the framed digital audio signal to generate a digital spectrum for each frame;
The digital spectrum is vector-quantized using a vector quantization table that is configured by a representative vector that is identified by the attached index and that has a large absolute value in ascending or descending order of the index, thereby corresponding to the digital spectrum. A vector quantization step to find the index;
An index storing step for storing the index obtained by the vector quantum step in association with the frame corresponding to the index;
The index obtained by the vector quantization step is acquired from the vector quantization step and stored in the past index storing step in association with the previous frame in time than the frame corresponding to the index. An index difference calculating step for acquiring an index and calculating a difference between the acquired indexes;
An encoding step for generating a code by entropy encoding the difference calculated by the index difference calculating step;
Is executed.

上記目的を達成するために、この発明の第6の観点に係るプログラムは、
コンピュータに、
所定の時間区間であるフレームのうちのひとつである現フレームに属しデジタル音声信号から生成されたデジタルスペクトルと該現フレームよりも時間的に過去のフレームに属するデジタルスペクトルとに、付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いたベクトル量子化が施された結果、それぞれのデジタルスペクトルを特徴付ける値として得られた前記インデックスから算出されるインデックス同士の差分が該現フレームに対応する量としてエントロピ符号化されたデータから、該差分を復号する復号ステップと、
前記インデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶ステップと、
前記フレームに対応する前記インデックスを、前記復号ステップにより該フレームに対応する量として復号された前記差分を該フレームよりも時間的に過去のフレームに関連付けられて過去の前記インデックス記憶ステップで記憶したインデックスに加算することにより求めるインデックス算出ステップと、
前記インデックス算出ステップにより求められたインデックスに対応する前記代表ベクトルを前記ベクトル量子化テーブルから検索し検索した代表ベクトルを用いて前記デジタルスペクトルを近似的に復元する逆ベクトル量子化ステップと、
前記逆ベクトル量子化ステップで復元したデジタルスペクトルを周波数逆変換して該デジタルスペクトルが属する前記フレームに属するデジタル音声信号を復元する周波数逆変換ステップと、
を実行させる。
In order to achieve the above object, a program according to the sixth aspect of the present invention provides:
On the computer,
According to an index attached to a digital spectrum belonging to a current frame that is one of frames in a predetermined time interval and generated from a digital audio signal and to a digital spectrum belonging to a frame that is earlier in time than the current frame From the index obtained as a value that characterizes each digital spectrum as a result of vector quantization using a vector quantization table that is identified and composed of representative vectors having a large absolute value in ascending or descending order of the index A decoding step of decoding the difference from the data entropy-encoded as an amount corresponding to the current frame in which the difference between the calculated indexes is;
An index storing step of storing the index in association with the frame corresponding to the index;
The index corresponding to the frame is stored in the past index storing step in which the difference decoded as an amount corresponding to the frame by the decoding step is correlated with a past frame in time than the frame. An index calculation step to be obtained by adding to
An inverse vector quantization step of approximately restoring the digital spectrum by using the representative vector searched from the vector quantization table for the representative vector corresponding to the index obtained by the index calculation step;
Frequency inverse transform step for restoring the digital audio signal belonging to the frame to which the digital spectrum belongs by performing frequency inverse transform on the digital spectrum restored in the inverse vector quantization step;
Is executed.

本発明によれば、語学学習用会話等の録音に適切なサンプリング周波数でデジタル化された音声信号の圧縮及び復元に際して扱われる符号を、符号化レートの低いものにすることができる。   ADVANTAGE OF THE INVENTION According to this invention, the code | cord | chord handled at the time of compression and decompression | restoration of the audio | voice signal digitized with the sampling frequency appropriate for recording of language learning conversation etc. can be made into a thing with a low encoding rate.

以下、図面を参照して、本発明の実施形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施形態1)
まず、時間領域の信号としての音声信号と、周波数領域の信号としての音声信号すなわちスペクトルと、の対応関係について説明する。なお、以下では原則として、単に音声信号というときは実時間領域の信号としての音声信号を指すものとする。
(Embodiment 1)
First, a correspondence relationship between an audio signal as a time domain signal and an audio signal, ie, a spectrum, as a frequency domain signal will be described. In the following description, as a general rule, simply referring to an audio signal indicates an audio signal as a signal in the real time domain.

時間の関数である音声信号は、基本的には、各時間帯の周波数特性を表現するスペクトルの時系列と等価である。時間軸をどのような時間帯に区切るか、さらには、ある時間帯を代表するスペクトルを音声信号からどのように求めるか、については、様々な方針があり、本発明はかかる様々な方針に適用することができる。一例として、本実施形態では、時間軸を区切るための概念としてフレーム及びブロックという概念を導入するとともに、スペクトルを音声信号から求めるにあたっては前記ブロック単位でのMDCT(Modified Discrete Cosine Transform:変形離散コサイン変換)と前記フレーム単位でのMDCT係数の集積処理とを組み合わせた手法を採用する。   An audio signal, which is a function of time, is basically equivalent to a spectrum time series representing the frequency characteristics of each time zone. There are various policies regarding what time zone the time axis is divided into, and how to obtain a spectrum representative of a certain time zone from an audio signal, and the present invention is applied to such various policies. can do. As an example, in the present embodiment, the concept of frame and block is introduced as a concept for dividing the time axis, and when obtaining the spectrum from the audio signal, MDCT (Modified Discrete Cosine Transform) in units of the block is used. ) And the above-described MDCT coefficient accumulation processing in units of frames are employed.

図1に、フレーム同士の関係、ブロック同士の関係、及び、フレームとブロックとの関係を示す。紙面の横方向が時間軸であるとする。図示するように、時間軸は、まずフレームという所定の時間長を有する単位に区切られ、各フレームがさらに、ブロックというより短い時間長を有する単位に区切られる。ただし、フレーム同士は、ブロックの半分の長さに相当する重複部分を有するとともに、ブロック同士も、ブロックの半分の長さに相当する重複部分を有する。1個のフレームにはブロック0からブロックL-1までのL個のブロックが含まれる。Lは後述のようにベクトル量子化に要する処理時間やVQテーブルの容量等を勘案した上で、例えばL=4と決定される。2個の隣接フレームの開始時刻間又は終了時刻間に相当する時間をΔtとすると、図示するように、各フレームは時刻t-2Δt、時刻t-Δt、時刻t、時刻t+Δtといった時間間隔Δt毎の各時刻に対応する。本実施形態においてはフレーム1個にスペクトル1個を割り当てることにするので、スペクトルは、時刻t-2Δtにおけるスペクトル、時刻t-Δtにおけるスペクトル、時刻tにおけるスペクトル、時刻t+Δtにおけるスペクトル、というように、時間間隔がΔtであるような時系列をなす。   FIG. 1 shows the relationship between frames, the relationship between blocks, and the relationship between frames and blocks. It is assumed that the horizontal direction of the paper is the time axis. As shown in the figure, the time axis is first divided into units having a predetermined time length called frames, and each frame is further divided into units having a shorter time length called blocks. However, the frames have overlapping portions corresponding to half the length of the blocks, and the blocks also have overlapping portions corresponding to the half length of the blocks. One frame includes L blocks from block 0 to block L-1. L is determined to be L = 4, for example, in consideration of the processing time required for vector quantization and the capacity of the VQ table, as will be described later. As shown in the figure, each frame has a time interval such as time t-2Δt, time t-Δt, time t, and time t + Δt, where Δt is the time corresponding to the start time or end time of two adjacent frames. Corresponds to each time for each Δt. In the present embodiment, since one spectrum is allocated to one frame, the spectrum is a spectrum at time t-2Δt, a spectrum at time t-Δt, a spectrum at time t, a spectrum at time t + Δt, and so on. In addition, a time series in which the time interval is Δt is formed.

図2に、時刻tに対応するフレームにおけるスペクトルの求め方を模式的に示す。1ブロックは、1回のMDCTを行う単位であり、1ブロックに含まれる音声信号サンプル数をMとすると、MDCTの結果、0次から(M/2-1)次までの合計M/2個のMDCT係数が求まる。なお、16kHz程度のサンプリング周波数でデジタル化した音声信号の場合、Mは例えば256であることが好適である。MDCT係数の次数は周波数に対応する。つまり、高次のMDCT係数は、音声信号の高周波成分に対応する。よって、縦軸をMDCT係数として横軸を次数としたグラフは、図示するように、いわばブロック毎のスペクトルに相当するといえる。   FIG. 2 schematically shows how to obtain the spectrum in the frame corresponding to time t. One block is a unit for performing one MDCT. Assuming that the number of audio signal samples included in one block is M, the result of MDCT is a total of M / 2 from the 0th order to the (M / 2-1) th order. The MDCT coefficient is obtained. In the case of an audio signal digitized at a sampling frequency of about 16 kHz, M is preferably 256, for example. The order of the MDCT coefficient corresponds to the frequency. That is, the higher-order MDCT coefficient corresponds to the high-frequency component of the audio signal. Therefore, it can be said that the graph in which the vertical axis is the MDCT coefficient and the horizontal axis is the order corresponds to the spectrum for each block, as shown in the figure.

時刻tに対応するフレームに含まれるブロックk(0≦k≦L-1)で行われたMDCTの結果求まったj(0≦j≦M/2-1)次のMDCT係数をXt、j、kと記すことにする。すると、jは周波数に相当する量であることになる。すなわち、jの大小は、周波数の高低に対応する。そこで、以下では、「周波数j」と表記することがある。 The j (0 ≦ j ≦ M / 2-1) -th MDCT coefficient obtained as a result of MDCT performed in the block k (0 ≦ k ≦ L−1) included in the frame corresponding to the time t is expressed as X t, j , K. Then, j is an amount corresponding to the frequency. That is, the magnitude of j corresponds to the frequency level. Therefore, hereinafter, it may be expressed as “frequency j”.

また、時刻tに対応するフレームにおいては、ブロック毎のスペクトルが、L個求まる。すなわち、ブロック0について、Xt、0、0、Xt、1、0、・・・、Xt、M/2-1、0により表されるスペクトルが求まり、ブロック1について、Xt、0、1、Xt、1、1、・・・、Xt、M/2-1、1により表されるスペクトルが求まり、・・・、ブロックL-1について、Xt、0、L-1、Xt、1、L-1、・・・、Xt、M/2-1、L-1により表されるスペクトルが求まる。 In the frame corresponding to time t, L spectra for each block are obtained. That is, the block 0, X t, 0,0, X t, 1,0, ···, X t, Motomari spectral represented by M / 2-1,0, for block 1, X t, 0 , 1 , X t, 1, 1 ,..., X t, M / 2-1 , 1 are obtained, and, for block L-1, X t, 0, L-1 , Xt, 1, L-1 ,..., Xt, M / 2-1, L-1 are obtained.

これらL個の、ブロック毎のスペクトルに対して、図2の点線矢印で示されるような集積処理を施すことにより、最終的に、時刻tに対応する1個のスペクトルを完成させる。すなわち、MDCT係数を、Xt、0、0、Xt、0、1、・・・、Xt、0、L-1、Xt、1、0、Xt、1、1、・・・、Xt、1、L-1、Xt、2、0、・・・、Xt、M/2-2、L-1、Xt、M/2-1、0、Xt、M/2-1、1、・・・、Xt、M/2-1、L-1のように並べることにより、時刻tに対応するスペクトルを完成させる。 The L spectrums for each block are subjected to an integration process as indicated by a dotted arrow in FIG. 2 to finally complete one spectrum corresponding to time t. That is, the MDCT coefficients are represented by Xt , 0, 0 , Xt, 0 , 1 , ..., Xt, 0, L-1 , Xt, 1 , 0 , Xt, 1 , 1 , ... , X t, 1, L-1 , X t, 2, 0 , ..., X t, M / 2-2, L-1 , X t, M / 2-1 , 0 , X t, M / The spectrum corresponding to the time t is completed by arranging like 2-1, 1 ,..., Xt , M / 2-1, L-1 .

時刻tに対応するスペクトルのうちj次のMDCT係数に対応する成分をブロックの時系列順に並べてベクトルとして表現したものをFt、jとする。すなわち、Ft、j ={Xt、j、0、Xt、j、1、・・・、Xt、j、L-1}である。また、時刻tに対応するスペクトルは、図2に示すとおり、ベクトルFt、jをFt、0、Ft、1、・・・、Ft、M/2-1の順に並べたものであるともいえる。 Of the spectrum corresponding to the time t, the component corresponding to the j-th order MDCT coefficient is arranged in the time-series order of the blocks and expressed as a vector, and F t, j . That is, Ft, j = { Xt, j, 0 , Xt, j, 1 ,..., Xt, j, L-1 }. Further, the spectrum corresponding to time t is obtained by arranging vectors F t, j in the order of F t, 0 , F t, 1 ,..., F t, M / 2-1 as shown in FIG. It can be said that there is.

このようにベクトルFt、jは、時刻tに対応するスペクトルの一部である周波数jに対応している。以下では、スペクトルのうち、このように周波数jに対応する部分を、部分スペクトルと呼ぶ。 Thus, the vector F t, j corresponds to the frequency j which is a part of the spectrum corresponding to the time t. Hereinafter, the portion of the spectrum corresponding to the frequency j is referred to as a partial spectrum.

以上で、音声信号とスペクトルとの対応関係について明らかにした。続いて、本実施形態に係る音声符号化装置及び音声復号装置の構成について説明する。なお、ユーザにとっての利便性を確保する観点から、本実施形態においては、音声符号化装置と音声復号装置とは、音声符号化兼復号装置として、単一の装置に統合されているものとする。   The correspondence between the audio signal and the spectrum has been clarified. Next, configurations of the speech encoding device and the speech decoding device according to the present embodiment will be described. From the viewpoint of ensuring convenience for the user, in this embodiment, the speech encoding device and speech decoding device are integrated as a speech encoding / decoding device into a single device. .

図3に、本実施形態に係る音声符号化兼復号装置3の物理的な構成を示す。音声符号化兼復号装置3は、例えば、携帯電話機である。   FIG. 3 shows a physical configuration of the speech encoding / decoding device 3 according to this embodiment. The voice encoding / decoding device 3 is, for example, a mobile phone.

音声符号化兼復号装置3は、CPU121と、ROM(Read Only Memory)123と、記憶部125と、音声処理部141と、無線通信部161と、操作キー入力内容処理部171と、を備え、これらは、システムバス181で相互に接続されている。システムバス181は、命令やデータを転送するための伝送経路である。   The speech encoding / decoding device 3 includes a CPU 121, a ROM (Read Only Memory) 123, a storage unit 125, a speech processing unit 141, a wireless communication unit 161, and an operation key input content processing unit 171. These are connected to each other via a system bus 181. The system bus 181 is a transmission path for transferring commands and data.

ROM123には、音声符号化及び復号のための動作プログラム、ベクトル量子化に必要な代表ベクトル、等が格納されている。   The ROM 123 stores operation programs for speech encoding and decoding, representative vectors necessary for vector quantization, and the like.

記憶部125は、RAM(Random Access Memory)131と、ハードディスク133と、から構成されて、デジタル音声信号、MDCT係数、等を記憶する。特に本実施形態においては、音声符号化兼復号装置111は、音声符号化と音声復号のいずれの場合にも、ある時刻における処理のために直前の時刻の音声信号に基づく情報を必要とするので、記憶部125は、かかる情報を少なくとも一時的に格納しておく遅延処理用バッファメモリとして、重要な役割を果たす。   The storage unit 125 includes a RAM (Random Access Memory) 131 and a hard disk 133, and stores digital audio signals, MDCT coefficients, and the like. In particular, in this embodiment, the speech encoding / decoding device 111 requires information based on the speech signal of the immediately preceding time for processing at a certain time in both speech encoding and speech decoding. The storage unit 125 plays an important role as a delay processing buffer memory that stores such information at least temporarily.

音声符号化兼復号装置3は、マイクロフォン151と、スピーカ153と、アンテナ163と、操作キー173と、をさらに備える。   The audio encoding / decoding device 3 further includes a microphone 151, a speaker 153, an antenna 163, and operation keys 173.

マイクロフォン151は、送信側すなわち符号化側のユーザの音声を収集し、音声処理部141に引き渡す。スピーカ153は、音声処理部141から引き渡された復元音声を、受信側すなわち復号側のユーザに対して、発する。アンテナ163は、無線通信部161から引き渡された符号を受信側すなわち復号側の音声符号化兼復号装置3に無線信号として送信したり、送信側すなわち符号化側の装置3から送信された無線信号を受信して無線通信部161に引き渡したりする。操作キー173は、あらかじめ与えられている各種初期設定値をユーザが自らの判断により変更するときや、送信側すなわち符号化側のユーザが、通話の相手方である受信側すなわち復号側の装置3を特定したりするときに、ユーザの意図を装置3に伝達するために用いられる。かかる特定は、例えば携帯電話機であれば、各携帯電話機に割り当てられた電話番号を利用して行われる。   The microphone 151 collects the user's voice on the transmission side, that is, the encoding side, and delivers it to the voice processing unit 141. The speaker 153 issues the restored voice delivered from the voice processing unit 141 to the user on the receiving side, that is, the decoding side. The antenna 163 transmits the code delivered from the wireless communication unit 161 to the receiving side, that is, the decoding side speech encoding / decoding device 3 as a wireless signal, or the transmitting side, that is, the wireless signal transmitted from the encoding side device 3. Is received and delivered to the wireless communication unit 161. The operation key 173 is used when the user changes various initial setting values given in advance by his / her own judgment, or when the user on the transmission side, that is, the encoding side, selects the device 3 on the reception side, that is, the decoding side, which is the other party of the call. It is used to transmit the user's intention to the device 3 when specifying. For example, in the case of a mobile phone, this specification is performed using a telephone number assigned to each mobile phone.

音声処理部141、無線通信部161、操作キー入力内容処理部171は、システムバス181を介してCPU121の制御下にある。   The voice processing unit 141, the wireless communication unit 161, and the operation key input content processing unit 171 are under the control of the CPU 121 via the system bus 181.

図4は、本実施形態に係る音声符号化兼復号装置3が音声符号化装置として機能する場合の機能構成を示すブロック図である。音声符号化兼復号装置3は、音声符号化装置としては、図示するように、A/D変換部4、DC(Direct Current)除去部23、フレーム化部25 、レベル調整部27、周波数変換部29、スペクトル完成部31、ベクトル量子化関連処理部33、エントロピ符号化部35、符号長監視部37、帯域データ削除部39、低域用ソート済VQテーブル41、及び、高域用ソート済VQテーブル43を備える。   FIG. 4 is a block diagram showing a functional configuration when the speech encoding / decoding device 3 according to the present embodiment functions as a speech encoding device. As shown in the figure, the speech encoding / decoding device 3 includes an A / D conversion unit 4, a DC (Direct Current) removal unit 23, a framing unit 25, a level adjustment unit 27, and a frequency conversion unit. 29, spectrum completion unit 31, vector quantization related processing unit 33, entropy encoding unit 35, code length monitoring unit 37, band data deletion unit 39, low band sorted VQ table 41, and high band sorted VQ A table 43 is provided.

図3のCPU121は、ROM123に書き込まれた動作プログラムに従い音声処理部141及び記憶部125と協同して動作することにより、図4のA/D変換部4として機能する。CPU121はまた、ROM123に書き込まれた動作プログラムに従い記憶部125と協同して動作することにより、DC除去部23、フレーム化部25、レベル調整部27、周波数変換部29、スペクトル完成部31、ベクトル量子化関連処理部33、エントロピ符号化部35、符号長監視部37、及び、帯域データ削除部39として機能する。ROM123は、ベクトル量子化に必要な代表ベクトルをデータベースとして格納しており、低域用ソート済VQテーブル41及び高域用ソート済VQテーブル43として機能する。   The CPU 121 in FIG. 3 functions as the A / D conversion unit 4 in FIG. 4 by operating in cooperation with the audio processing unit 141 and the storage unit 125 in accordance with the operation program written in the ROM 123. The CPU 121 also operates in cooperation with the storage unit 125 in accordance with the operation program written in the ROM 123, so that the DC removal unit 23, the framing unit 25, the level adjustment unit 27, the frequency conversion unit 29, the spectrum completion unit 31, the vector It functions as a quantization-related processing unit 33, an entropy encoding unit 35, a code length monitoring unit 37, and a band data deletion unit 39. The ROM 123 stores representative vectors necessary for vector quantization as a database, and functions as the low-frequency sorted VQ table 41 and the high-frequency sorted VQ table 43.

図4のA/D変換部4は、入力されたアナログ音声信号をデジタル音声信号に変換し、DC除去部23に出力する。サンプリング周波数は、16kHz程度であることが望ましいが、11.025kHz、22.05kHz等であってもかまわない。   The A / D converter 4 in FIG. 4 converts the input analog audio signal into a digital audio signal and outputs the digital audio signal to the DC removing unit 23. The sampling frequency is preferably about 16 kHz, but may be 11.025 kHz, 22.05 kHz, or the like.

DC除去部23は、A/D変換部4から入力されたデジタル音声信号の直流成分を除去し、フレーム化部25に出力する。音声信号の直流成分を除去するのは、直流成分が音質にほとんど無関係であることによる。直流成分は、例えば、既知の高域通過フィルタにより除去することができる。   The DC removal unit 23 removes the direct current component of the digital audio signal input from the A / D conversion unit 4 and outputs it to the framing unit 25. The reason why the DC component of the audio signal is removed is that the DC component is almost irrelevant to the sound quality. The direct current component can be removed by, for example, a known high-pass filter.

フレーム化部25は、DC除去部23から入力された信号を、図1及び図2を参照して説明したフレームに分割し、レベル調整部27に出力する。基本的にはフレーム1個が音声信号圧縮の処理単位である。ただし、本実施形態においては、後述のように、あるフレームにおける処理には、時間的に直前のフレームにおける処理の結果が必要となるので、この意味では、フレーム2個が音声信号圧縮の処理単位となる。   The framing unit 25 divides the signal input from the DC removal unit 23 into frames described with reference to FIGS. 1 and 2 and outputs the frame to the level adjustment unit 27. Basically, one frame is a processing unit for audio signal compression. However, in this embodiment, as will be described later, the processing in a certain frame requires the result of the processing in the immediately preceding frame in time, so in this sense, two frames are processing units for audio signal compression. It becomes.

レベル調整部27は、フレーム毎に、入力された音声信号のレベル調整を行い、レベル調整された信号を周波数変換部29に出力する。レベル調整とは、1フレーム中に含まれる信号の振幅の最大値を、指定されたビット( 以下、制圧目標ビット)数に収まるようにすることである。レベル調整は、例えば、1フレーム中の信号の最大振幅をnビット、制圧目標ビットをNビットとすると、フレーム中の信号を全て、次式を満たすshift_bit数分LSB(Least Significant Bit:最下位ビット)側にシフトすることによって実現できる。
shift_bit=0(n≦Nの場合)、shift_bit=n-N(n>Nの場合)
The level adjustment unit 27 adjusts the level of the input audio signal for each frame, and outputs the level-adjusted signal to the frequency conversion unit 29. Level adjustment is to make the maximum value of the amplitude of a signal included in one frame fall within a specified number of bits (hereinafter referred to as suppression target bits). For example, if the maximum amplitude of a signal in one frame is n bits and the suppression target bit is N bits, the level adjustment is performed for all the signals in the frame by LSB (Least Significant Bit: least significant bit) for the number of shift_bits that satisfy the following equation: ) Can be realized by shifting to the side.
shift_bit = 0 (when n ≦ N), shift_bit = nN (when n> N)

音声再生時には、振幅が制圧目標ビット以下に制圧された信号を元に戻す必要があるため、shift_bitを表す信号を、音声圧縮信号の一部として出力する必要がある。よって、レベル調整部27は、レベル調整済の信号を周波数変換部29に引き渡すとともに、shift_bitを、符号化の対象に含めるためにエントロピ符号化部35に引き渡す。   At the time of audio reproduction, since it is necessary to restore the signal whose amplitude is suppressed to the suppression target bit or less, it is necessary to output a signal representing shift_bit as a part of the audio compression signal. Therefore, the level adjustment unit 27 delivers the level-adjusted signal to the frequency conversion unit 29 and delivers the shift_bit to the entropy coding unit 35 for inclusion in the encoding target.

周波数変換部29は、レベル調整部27から入力された信号に対し周波数変換を施し、スペクトル完成部31に出力する。本実施形態では、上述のように、周波数変換としてMDCTを用いる。周波数変換部29は、上述のブロック毎にMDCTを実行し図2に示したブロック毎のスペクトルを生成して、スペクトル完成部31に引き渡す。   The frequency conversion unit 29 performs frequency conversion on the signal input from the level adjustment unit 27 and outputs the signal to the spectrum completion unit 31. In the present embodiment, as described above, MDCT is used for frequency conversion. The frequency conversion unit 29 executes MDCT for each block described above, generates a spectrum for each block shown in FIG. 2, and delivers it to the spectrum completion unit 31.

図4のスペクトル完成部31は、まず、周波数変換部29から入力されたMDCT係数を周波数毎に並べ替える。これは、図2の点線矢印で示した、ブロック毎のスペクトルを集積してフレームに対応するスペクトルを完成させる操作である。スペクトル完成部31は続いて、同一周波数帯域の係数をまとめてベクトル化し、ベクトル量子化関連処理部33に出力する。ここで、ベクトル化の結果生成されるベクトルは、既に図2を参照して説明したベクトルFt、j={Xt、j、k|k=0、1、・・・、L-1}である。 The spectrum completion unit 31 in FIG. 4 first sorts the MDCT coefficients input from the frequency conversion unit 29 for each frequency. This is an operation for accumulating the spectrum for each block, as indicated by the dotted arrow in FIG. 2, to complete the spectrum corresponding to the frame. Subsequently, the spectrum completion unit 31 collectively vectorizes the coefficients in the same frequency band and outputs them to the vector quantization related processing unit 33. Here, the vector generated as a result of vectorization is the vector F t, j = {X t, j, k | k = 0, 1,..., L−1} already described with reference to FIG. It is.

このように、同一周波数帯域の信号をまとめてベクトル化すると、例えば、定常信号を多く含む場合、後のベクトル量子化の精度が向上する。   As described above, when signals in the same frequency band are collectively vectorized, for example, when many stationary signals are included, the accuracy of subsequent vector quantization is improved.

ベクトル量子化関連処理部33は、スペクトル完成部31で作成されたベクトルFt、jを受け取り、低域用ソート済VQテーブル41及び高域用ソート済VQテーブル43を参照して後述の処理によりインデックス差分を算出し、算出したインデックス差分をエントロピ符号化部35に引き渡す。 The vector quantization related processing unit 33 receives the vector F t, j created by the spectrum completion unit 31, and performs the processing described later with reference to the low-frequency sorted VQ table 41 and the high-frequency sorted VQ table 43. An index difference is calculated, and the calculated index difference is delivered to the entropy encoding unit 35.

ベクトル量子化関連処理部33は、図5に示すように、ベクトル量子化部5と、代表ベクトルインデックス記憶部47と、インデックス差分算出部45と、を備える。   As shown in FIG. 5, the vector quantization related processing unit 33 includes a vector quantization unit 5, a representative vector index storage unit 47, and an index difference calculation unit 45.

ベクトル量子化部5は、複数の音声パターンを示す代表ベクトルを格納したVQ(Vector Quantization)テーブルを参照し、スペクトル完成部31で作成されたベクトルFt、jと、VQテーブルに格納された各代表ベクトルを比較し、最も類似した代表ベクトルを選択し、該代表ベクトルに付されたインデックスiを、インデックス差分算出部45及び代表ベクトルインデックス記憶部47に出力する。 The vector quantization unit 5 refers to a VQ (Vector Quantization) table that stores representative vectors representing a plurality of speech patterns, and the vectors F t, j created by the spectrum completion unit 31 and each of the vectors stored in the VQ table. The representative vectors are compared, the most similar representative vector is selected, and the index i attached to the representative vector is output to the index difference calculation unit 45 and the representative vector index storage unit 47.

ベクトル符号化の対象であるベクトルと類似した代表ベクトルを選択するにあたっての基準には、様々なものが考えられる。本実施形態においては、次のように代表ベクトルを選択する。すなわち、VQテーブルに格納されたiMAX個の代表ベクトルを{Vi|i=1、・・・、iMAX}、Vi={vi、k|k=0、・・・、L-1}とすると、符号化対象のベクトルFt、jの各要素Xt、j、kと、VQテーブルに格納されたi番目の代表ベクトルViの各要素vi、kと、を比較し、ベクトルFt、jとベクトルViとの差eiが最小となるようなViを、代表ベクトルとして選択する。差eiの算出は次式により行う。
ei=(Xt、j、0- vi、0)^2+(Xt、j、1- vi、1)^2+・・・+(Xt、j、k- vi、k)^2
ただし、記号「^」は、累乗を表す。
Various criteria can be considered for selecting a representative vector similar to a vector to be vector-encoded. In the present embodiment, the representative vector is selected as follows. That is, i MAX representative vectors stored in the VQ table are represented as {V i | i = 1,..., I MAX }, V i = {v i, k | k = 0,. 1}, the elements X t, j, k of the vector F t, j to be encoded are compared with the elements v i, k of the i-th representative vector V i stored in the VQ table. the vector F t, j and V i as the difference e i is minimized between the vector V i, is selected as the representative vector. The difference e i is calculated by the following equation.
e i = (X t, j, 0 -v i, 0 ) ^ 2 + (X t, j, 1 -v i, 1 ) ^ 2 + ... + (X t, j, k -v i, k ) ^ 2
However, the symbol “^” represents a power.

代表ベクトルの数imaxと、1フレームあたりのブロック数すなわちベクトル長Lは、ベクトル量子化に要する処理時間やVQテーブルの容量等を勘案して決定される。例えば、ベクトル長Lを2にして代表ベクトル数を256にしたり、ベクトル長Lを4にして代表ベクトル数を8192(=213)にしたりする等、自由な組み合わせが考えられる。 The number of representative vectors i max and the number of blocks per frame, that is, the vector length L are determined in consideration of the processing time required for vector quantization, the capacity of the VQ table, and the like. For example, a free combination is conceivable, for example, the vector length L is 2 and the number of representative vectors is 256, or the vector length L is 4 and the number of representative vectors is 8192 (= 2 13 ).

本実施形態においては、VQテーブルに格納されている代表ベクトルには、エネルギーの昇順にインデックスが付されている。つまり、代表ベクトルはエネルギー順にソートされているのであり、代表ベクトルViのエネルギーをE(Vi)とすると、
E(V1)≦E(V2)≦・・・≦E(ViMAX)
である。ここで、エネルギーE(Vi)は、
E(Vi)=|Vi|^2=vi、0 ^2+vi、1 ^2+・・・+vi、L-1 ^2
のように定義する。本実施形態においては、このようにソート済の代表ベクトルを格納したVQテーブルを用いることにする。
In the present embodiment, the representative vectors stored in the VQ table are indexed in ascending energy order. In other words, the representative vectors are sorted in order of energy, and if the energy of the representative vector V i is E (V i ),
E (V 1 ) ≦ E (V 2 ) ≦ ・ ・ ・ ≦ E (V iMAX )
It is. Where energy E (V i ) is
E (V i ) = | V i | ^ 2 = v i, 0 ^ 2 + v i, 1 ^ 2 + ... + v i, L-1 ^ 2
Define as follows. In this embodiment, the VQ table storing the sorted representative vectors is used.

また、音声は、高域周波数部分と低域周波数部分とで特性が異なる場合が多いため、本実施形態においては、高域と低域で異なるVQテーブルを用いることにする。   In addition, since the sound often has different characteristics between the high frequency part and the low frequency part, in this embodiment, different VQ tables are used for the high frequency and the low frequency.

そこで、本実施形態においては、VQテーブルとして、低域のベクトル量子化に用いるための、ソート済の代表ベクトルが格納されたVQテーブルである低域用ソート済VQテーブル41と、高域のベクトル量子化に用いるための、ソート済の代表ベクトルが格納されたVQテーブルである高域用ソート済VQテーブル43と、を用いる。   Therefore, in the present embodiment, as the VQ table, the low-frequency sorted VQ table 41, which is a VQ table storing sorted representative vectors for use in low-frequency vector quantization, and the high-frequency vector. A high-frequency sorted VQ table 43, which is a VQ table storing sorted representative vectors for use in quantization, is used.

スペクトル完成部31で作成されたベクトルFt、j={Xt、j、k|k=0、1、・・・、L-1}(j=0、1、・・・、M/2-1)において、高域と低域の境界は、例えば、周波数帯域を示すjを単純に半分に分けたところにすればよい。すなわち、Ft、0、Ft、1、・・・、Ft、M/4-1を低域、Ft、M/4、Ft、M/4+1、・・・、Ft、M/2-1を高域とすればよい。したがって、ベクトル量子化部5において、低域のベクトルFt、0、Ft、1、・・・、Ft、M/4-1は、低域用ソート済VQテーブル41に格納された各代表ベクトルと比較され、最も類似した代表ベクトルに付されたインデックスiが出力される。同様に、高域のベクトルFt、M/4、Ft、M/4+1、・・・、Ft、M/2-1は、高域用ソート済VQテーブル43に格納された各代表ベクトルと比較され、最も類似した代表ベクトルに付されたインデックスiが出力される。 Vector F t, j = {X t, j, k | k = 0, 1,..., L−1} (j = 0, 1,..., M / 2) created by the spectrum completion unit 31 In (-1), the boundary between the high frequency band and the low frequency band may be, for example, a place where j indicating the frequency band is simply divided in half. That is, F t, 0 , F t, 1 ,..., F t, M / 4-1 are low frequencies, F t, M / 4 , F t, M / 4 + 1 ,. , M / 2-1 should be high. Therefore, in the vector quantization unit 5, the low-frequency vectors F t, 0 , F t, 1 ,..., F t, M / 4-1 are stored in the low-frequency sorted VQ table 41. Compared with the representative vector, the index i attached to the most similar representative vector is output. Similarly, the high-frequency vectors F t, M / 4 , F t, M / 4 + 1 ,..., F t, M / 2-1 are stored in the high frequency sorted VQ table 43. Compared with the representative vector, the index i attached to the most similar representative vector is output.

これ以降のベクトル量子化関連処理部33が行う処理は、時間的に直前のフレームにおけるベクトル量子化の結果を利用する等、ある種の遅延処理を含む。そこで、理解を容易にするために、図6を参照してかかる処理を一段階ずつ説明する。   Subsequent processing performed by the vector quantization related processing unit 33 includes some kind of delay processing such as using the result of vector quantization in the immediately preceding frame in terms of time. Therefore, in order to facilitate understanding, such processing will be described step by step with reference to FIG.

代表ベクトルインデックス記憶部47は、ベクトル量子化部5からインデックスiを受け取り、記憶する。代表ベクトルインデックス記憶部47は、遅延処理を行うためのバッファメモリとして機能する。ベクトル量子化関連処理部33が時刻tにおける処理を開始する時点で、図6(a)に示すように、代表ベクトルインデックス記憶部47は、直前のフレームに対応する時刻t-Δtにおける処理の結果として、時刻t-Δtにおける周波数jに対応したベクトルFt-Δt、jに最も類似した代表ベクトルのインデックスであるi(t-Δt、j)を記憶している。また、時刻tにおける処理は、ベクトル量子化部5に、ベクトルFt、jが入力されることにより開始される。 The representative vector index storage unit 47 receives the index i from the vector quantization unit 5 and stores it. The representative vector index storage unit 47 functions as a buffer memory for performing delay processing. When the vector quantization related processing unit 33 starts processing at time t, as shown in FIG. 6A, the representative vector index storage unit 47 obtains the result of processing at time t−Δt corresponding to the immediately preceding frame. As i (t-Δt, j) which is the index of the representative vector most similar to the vector F t-Δt, j corresponding to the frequency j at time t-Δt. The process at time t is started when the vector Ft , j is input to the vector quantization unit 5.

図6(b)に示すように、ベクトル量子化部5は、入力されたベクトルFt、jに最も類似した代表ベクトルのインデックスであるi(t、j)を求める。 As shown in FIG. 6B, the vector quantization unit 5 obtains i (t, j) which is the index of the representative vector most similar to the input vector F t, j .

次に、図6(c)に示すように、ベクトル量子化部5は、求めたi(t、j)を、インデックス差分算出部45及び代表ベクトルインデックス記憶部47に引き渡す。代表ベクトルインデックス記憶部47は、ベクトル量子化部5からi(t、j)を受け取って記憶するとともに、それまで記憶していたi(t-Δt、j)をインデックス差分算出部45に引き渡す。   Next, as illustrated in FIG. 6C, the vector quantization unit 5 delivers the obtained i (t, j) to the index difference calculation unit 45 and the representative vector index storage unit 47. The representative vector index storage unit 47 receives and stores i (t, j) from the vector quantization unit 5, and passes i (t−Δt, j) stored so far to the index difference calculation unit 45.

続いて、図6(d)に示すように、ベクトル量子化部5からi(t、j)を受け取るとともに代表ベクトルインデックス記憶部47からi(t-Δt、j)を受け取ったインデックス差分算出部45は、インデックス差分Δi(t、j)を、
Δi(t、j)=i(t、j)-i(t-Δt、j)
により求める。そして、インデックス差分算出部45は、図6(e)に示すように、求めたインデックス差分Δi(t、j)を出力する。出力先は、図4及び図5に示すとおり、エントロピ符号化部35である。
Subsequently, as shown in FIG. 6D, an index difference calculation unit that receives i (t, j) from the vector quantization unit 5 and i (t−Δt, j) from the representative vector index storage unit 47. 45 is the index difference Δi (t, j),
Δi (t, j) = i (t, j) -i (t-Δt, j)
Ask for. Then, the index difference calculation unit 45 outputs the obtained index difference Δi (t, j) as shown in FIG. The output destination is the entropy encoding unit 35 as shown in FIGS.

時刻tにおける処理が終わった段階で、図6(e)に示すように、代表ベクトルインデックス記憶部47には、時刻tにおける周波数jに対応するインデックスi(t、j)が格納されている。つまり、時刻を表す変数がt-Δtからtに変化したことを除けば、図6(a)に示す状態に戻っている。したがって、時間的に後の、時刻t+Δt以降に対応する各フレームについては、図6(a)から図6(e)までの処理と同様の処理を繰り返せばよい。   At the stage when the processing at time t is completed, as shown in FIG. 6E, the representative vector index storage unit 47 stores an index i (t, j) corresponding to the frequency j at time t. That is, except for the fact that the variable representing the time has changed from t-Δt to t, the state shown in FIG. Therefore, the processing similar to the processing from FIG. 6A to FIG. 6E may be repeated for each frame corresponding to time t + Δt and later after time.

図4及び図5に示すように、エントロピ符号化部35は、レベル調整部27からshift_bitを受け取るとともに、ベクトル量子化関連処理部33の中のインデックス差分算出部45からインデックス差分Δi(t、j)を受け取り、受け取ったこれらの量をエントロピ符号化して符号を生成し、生成した符号を音声圧縮信号として出力する。かかる出力は、図3のCPU121がROM123に格納された動作プログラムに基づいて無線通信部161に送信命令を発し、それに応じて無線通信部161がアンテナ163を介して前記符号を無線通信により受信側すなわち音声復号側の音声符号化兼復号装置3に向けて送信することにより、行われる。また、エントロピ符号化部35は、生成した符号を、符号長監視部37に対しても出力する。これは後述のように、生成された符号の符号長が所定の制限を満たしているか否かが判別される必要があるためである。   As shown in FIGS. 4 and 5, the entropy encoding unit 35 receives the shift_bit from the level adjustment unit 27 and the index difference Δi (t, j from the index difference calculation unit 45 in the vector quantization related processing unit 33. ), Entropy-encode these received quantities to generate a code, and output the generated code as an audio compression signal. The CPU 121 shown in FIG. 3 issues a transmission command to the wireless communication unit 161 based on the operation program stored in the ROM 123, and the wireless communication unit 161 accordingly receives the code via the antenna 163 by wireless communication. That is, it is performed by transmitting it to the speech encoding / decoding device 3 on the speech decoding side. The entropy encoding unit 35 also outputs the generated code to the code length monitoring unit 37. This is because it is necessary to determine whether or not the code length of the generated code satisfies a predetermined limit, as will be described later.

エントロピ符号化とは、信号の統計的性質を利用して、符号をより短い符号へと変換する符号化方式であり、ハフマン(Huffman)符号化、算術符号化、レンジコーダ(Range Coder)による符号化等が知られている。エントロピ符号化方法の特徴として、情報圧縮精度が一定であっても、圧縮率が一定ではない点が挙げられる。すなわち、同一長であるが内容の異なる複数のデータに対して、エントロピ符号化を施した場合、一般に、元のデータ中のデータ要素の出現頻度の偏り具合の違いのために、符号化後の符号長はまちまちになる。一般に、符号化する前に圧縮率を予測することは困難であり、高い圧縮率が得られるか否かは、実際にエントロピ符号化を行ってみるまで分からない。一方で、本発明は低いビットレートでの符号化を目的とするものであり、音声符号化兼復号装置3が例えば携帯電話機であれば、符号長には、通信インフラ等に起因する制限がある。エントロピ符号化部35は、原則としては、音声品質の劣化を最小限に抑制するために、レベル調整部27とベクトル量子化関連処理部33から受け取った情報を全てエントロピ符号化するのであるが、エントロピ符号化部35が実際にエントロピ符号化を行ってみたところ、圧縮率が結果的にたまたま符号長に係る上述の制限を満たさない程度に低かった場合には、符号化対象とする情報を適宜間引いて、符号化し直す必要がある。   Entropy coding is a coding method that uses the statistical properties of a signal to convert a code into a shorter code. Huffman coding, arithmetic coding, and range coder coding Is known. A feature of the entropy encoding method is that the compression rate is not constant even if the information compression accuracy is constant. That is, when entropy encoding is applied to a plurality of pieces of data having the same length but different contents, in general, due to the difference in the appearance frequency of data elements in the original data, The code length varies. In general, it is difficult to predict the compression rate before encoding, and it is not known until entropy encoding is actually performed whether or not a high compression rate can be obtained. On the other hand, the present invention aims at encoding at a low bit rate, and if the speech encoding / decoding device 3 is, for example, a mobile phone, the code length is limited due to communication infrastructure or the like. . In principle, the entropy encoding unit 35 entropy-encodes all the information received from the level adjustment unit 27 and the vector quantization related processing unit 33 in order to minimize degradation of speech quality. When the entropy encoding unit 35 actually performs entropy encoding, if the compression rate happens to be low enough not to satisfy the above-mentioned restriction on the code length, the information to be encoded is appropriately selected. It is necessary to thin out and re-encode.

そこで、本実施形態においては、符号長監視部37及び帯域データ削除部39が設けられている。符号長監視部37は、エントロピ符号化部35が生成した符号を受け取りその符号長を測定するとともに、該符号長が所定の目標符号長以下に収まっているか否かを監視する。符号長監視部37は、かかる監視の結果、目標符号長を超えてしまっていると判別した場合には、その旨を帯域データ削除部39に伝える。帯域データ削除部39は、符号長が長すぎるとの連絡を受け取った場合、符号化対象から除外する周波数帯域、具体的には周波数jのうちからjにおけるMDCT係数を削除しても音質維持の点で比較的影響が少ないと考えられるようなjを決定し、決定結果をエントロピ符号化部35に通知する。かかる通知を受けたエントロピ符号化部35は、帯域データ削除部39が決定した削除すべき帯域を符号化対象から除外してエントロピ符号化をやり直す。再度生成された符号は再び符号長監視部37による監視を受け、なおも符号長が長すぎる場合には、符号化対象から除外されるべきさらに多くの帯域が帯域データ削除部39により決定され、エントロピ符号化部35にフィードバックされる。かかるループ処理は、エントロピ符号化部35が生成した符号の符号長が前記目標符号長以下になるまで繰り返される。   Therefore, in this embodiment, a code length monitoring unit 37 and a band data deleting unit 39 are provided. The code length monitoring unit 37 receives the code generated by the entropy encoding unit 35, measures the code length, and monitors whether the code length is within a predetermined target code length. If the code length monitoring unit 37 determines that the target code length has been exceeded as a result of such monitoring, the code length monitoring unit 37 notifies the band data deletion unit 39 to that effect. When the band data deleting unit 39 receives a notification that the code length is too long, the band data deleting unit 39 maintains the sound quality even if the MDCT coefficient at j is deleted from the frequency band excluded from the encoding target, specifically, the frequency j. J that is considered to have relatively little influence on the point is determined, and the determination result is notified to the entropy encoding unit 35. Upon receiving such notification, the entropy encoding unit 35 excludes the band to be deleted determined by the band data deletion unit 39 from the encoding target, and redoes the entropy encoding. The code generated again is monitored again by the code length monitoring unit 37. If the code length is still too long, more band to be excluded from the encoding target is determined by the band data deleting unit 39, This is fed back to the entropy encoding unit 35. Such loop processing is repeated until the code length of the code generated by the entropy encoding unit 35 becomes equal to or less than the target code length.

帯域データ削除部39は、上述のように、各周波数jに対応する各帯域のうちから音声品質劣化防止の点で削除しても影響の少ない帯域を選択する。削除しても影響の少ない帯域を決定するための基準には様々なものが考えられるが、本実施形態においては、エネルギーの小さい帯域を削除することにする。このようにすれば、比較的簡易に、削除すべき帯域を決定することができる。すなわち、周波数jにおけるエネルギーとして、エネルギーE(Ft、j)を、
E(Ft、j)=|Ft、j|^2=Xt、j、0 ^2+Xt、j、1 ^2+・・・+Xt、j、L-1 ^2
のように定義し、エネルギーE(Ft、j)が小さい周波数jに対応する帯域を優先して削除することにする。なお、周波数jに対応する帯域の削除は、具体的には、例えば、ベクトルFt、jの全ての成分を0に置換することによって行う。
As described above, the band data deleting unit 39 selects a band that has little influence even if it is deleted in terms of preventing voice quality deterioration from among the bands corresponding to each frequency j. Various criteria can be considered for determining a band that has little influence even if it is deleted. In the present embodiment, a band having a small energy is deleted. In this way, the band to be deleted can be determined relatively easily. That is, as energy at frequency j, energy E (F t, j ) is
E (F t, j ) = | F t, j | ^ 2 = X t, j, 0 ^ 2 + X t, j, 1 ^ 2 + ... + X t, j, L-1 ^ 2
The band corresponding to the frequency j having a small energy E (F t, j ) is preferentially deleted. Note that the deletion of the band corresponding to the frequency j is specifically performed by replacing all components of the vector Ft, j with 0, for example.

情報量監視部37及び帯域データ削除部39が行う以上の動作の手順は、図7に示すフローチャートにまとめられている。物理的には、上述のように、CPU121が、ROM123に書き込まれた動作プログラムに従い記憶部125と協同して動作することによって、情報量監視部37及び帯域データ削除部39として機能する。   The procedure of the above operations performed by the information amount monitoring unit 37 and the band data deleting unit 39 is summarized in the flowchart shown in FIG. Physically, as described above, the CPU 121 functions as the information amount monitoring unit 37 and the band data deleting unit 39 by operating in cooperation with the storage unit 125 according to the operation program written in the ROM 123.

時刻tに対応するフレームにおけるMDCTが終了し、記憶部125には、既にベクトルFt、j(0≦j≦M/2-1)が格納されているとする。 It is assumed that MDCT in the frame corresponding to time t is completed, and the vector F t, j (0 ≦ j ≦ M / 2-1) is already stored in the storage unit 125.

CPU121は、記憶部125からベクトルFt、j(0≦j≦M/2-1)をCPUの内部レジスタ(図示せず)にロードし、周波数jにおけるエネルギーE(Ft、j)を計算し、計算したE(Ft、j)に基づいてソートを行って、エネルギーの低い帯域が優先的に削除対象となるように、各周波数jに優先順位を割り当てる(ステップS7)。もっとも、最初は、スペクトルの全帯域が符号化の対象になる(ステップS11)。CPU121は続いて、符号化の対象となっているデータをエントロピ符号化することにより、符号を生成してから(ステップS13)、符号長を求める(ステップS15)。CPU121はさらに、求めた符号長が所定の目標符号長以下であるか否かを判別し(ステップS17)、目標符号長以下であると判別された場合(ステップS17;Yes)は処理を終了し、目標符号長を超えていると判別された場合(ステップS17;No)はステップS19に進む。ステップS19では、CPU121は、直前のエントロピ符号化(ステップS13)の際に符号化対象となっていた帯域のうち、削除の優先順位が最上位のものを除いた残りを、新たな符号化対象として設定した上で(ステップS19)、ステップS13に戻ってエントロピ符号化をやり直す。 The CPU 121 loads the vector F t, j (0 ≦ j ≦ M / 2-1) from the storage unit 125 to an internal register (not shown) of the CPU, and calculates the energy E (F t, j ) at the frequency j. Then, sorting is performed based on the calculated E (F t, j ), and a priority is assigned to each frequency j so that a band with low energy is preferentially deleted (step S7). However, at first, the entire spectrum band is to be encoded (step S11). Subsequently, the CPU 121 entropy-encodes data to be encoded to generate a code (step S13), and obtains a code length (step S15). Further, the CPU 121 determines whether or not the obtained code length is equal to or smaller than a predetermined target code length (step S17). When it is determined that the calculated code length is equal to or smaller than the target code length (step S17; Yes), the process is terminated. When it is determined that the target code length is exceeded (step S17; No), the process proceeds to step S19. In step S19, the CPU 121 sets the remaining band except for the band with the highest deletion priority among the bands that have been encoded at the time of the previous entropy encoding (step S13) as a new encoding target. (Step S19), the process returns to step S13 to perform entropy encoding again.

このようにすれば、やむを得ず一部の帯域を符号化の対象から除外せざるを得ない場合でも、相対的にエネルギーが高いゆえに再生音声品質への影響が大きいと思われる帯域は符号化対象として残ることが期待される。よって、帯域削除による再生音声品質の低下を最小限度に抑制することができる。   In this way, even if it is unavoidable to exclude some bands from the encoding target, the bands that are considered to have a large impact on the reproduced speech quality due to their relatively high energy are considered as encoding targets. Expected to remain. Therefore, it is possible to suppress the deterioration of the reproduced voice quality due to the band deletion to the minimum.

時刻tを固定した上で様々な周波数jに渡るE(Ft、j)の値を考慮するにせよ、周波数jを固定した上で十分に長い時間に渡るE(Ft、j)の値を考慮するにせよ、E(Ft、j)自体の値としては、大小様々な値が出現する。しかし、隣接時刻間のエネルギー差分であるE(Ft、j)-E(Ft-Δt、j)の値としては、様々な周波数jに渡って考慮するにせよ、十分に長い時間に渡って考慮するにせよ、比較的小さい値が高い頻度で出現する。これは、音声信号には連続性があることと、さらに、音声信号にはしばしば定常状態が出現することと、による。 Even if the value of E (F t, j ) over various frequencies j is considered after fixing time t, the value of E (F t, j ) over a sufficiently long time with frequency j fixed However, E (F t, j ) itself has various values, large and small. However, the value of E (F t, j ) -E (F t-Δt, j ), which is the energy difference between adjacent times, is sufficient for a sufficiently long time, even if considered over various frequencies j. However, relatively small values appear frequently. This is due to the fact that the audio signal is continuous and that a steady state often appears in the audio signal.

図6等に示したように、ベクトル量子化部5により、ベクトルFt、jは代表ベクトルVi(t、j)に、ベクトルFt-Δt、jは代表ベクトルVi(t-Δt、j)に、それぞれ近似される。上述のように、代表ベクトルはエネルギー順にソートされているために、代表ベクトルに付されたインデックスはそれ自体が既に該代表ベクトルのエネルギーの指標としての意味を有していることと、E(Ft、j)-E(Ft-Δt、j)の値としては、比較的小さい値が高い頻度で出現することと、を考え合わせると、時系列上で隣接する2個の代表ベクトルに付されたインデックスの差分つまりインデックス差分算出部45から出力されるインデックス差分Δi(t,j)(=i(t、j)-i(t-Δt、j))の値としては、比較的小さい値が高い頻度で出現すると結論される。 As shown in FIG. 6 and the like, the vector quantization unit 5 causes the vector F t, j to be the representative vector V i (t, j) , the vector F t-Δt, j is the representative vector V i (t-Δt, j) , respectively. As described above, since the representative vectors are sorted in order of energy, the index assigned to the representative vector already has a meaning as an index of energy of the representative vector, and E (F As the value of t, j ) -E (F t-Δt, j ), considering that a relatively small value appears frequently, it is attached to two representative vectors adjacent in time series. The index difference Δi (t, j) (= i (t, j) −i (t−Δt, j)) output from the index difference calculation unit 45 is a relatively small value. It is concluded that appears frequently.

一般に、符号化の対象となる値に偏りが生じると、エントロピ符号化の圧縮効率が向上する。したがって、本実施形態によれば、高い頻度で比較的小さい値となるような量であるインデックス差分Δi(t,j)がエントロピ符号化されるので、符号化の効率が高く、符号長の短い符号で高品質の音声信号を伝達することができる。   In general, when the value to be encoded is biased, the compression efficiency of entropy encoding is improved. Therefore, according to the present embodiment, the index difference Δi (t, j), which is an amount that becomes a relatively small value with high frequency, is entropy-encoded, so that the encoding efficiency is high and the code length is short. A high-quality audio signal can be transmitted with a code.

よって、本実施形態によれば、語学学習用会話等の録音に適切なサンプリング周波数を採用しつつ、符号化レートを低減させることができる。例えば、本実施形態に係る音声符号化兼復号装置111により、16kHz程度のサンプリング周波数の音声信号を16kbps程度のレートに圧縮することが可能になる。   Therefore, according to the present embodiment, it is possible to reduce the encoding rate while adopting a sampling frequency suitable for recording such as language learning conversation. For example, the audio encoding / decoding device 111 according to the present embodiment can compress an audio signal having a sampling frequency of about 16 kHz to a rate of about 16 kbps.

なお、以上では、時刻tと時刻t-Δtとの間での代表ベクトルに付されたインデックスの差分の値が音声符号化装置から音声復号装置に送られる処理を記述した。かかる処理により音声再生が可能になるためには、当然のことながら、少なくとも、符号化対象となる最初のフレームについては、インデックス自体の値が初期値として前者の装置から後者の装置に送られる必要がある。そこで本実施形態においては、音声符号化装置のユーザが発話を開始した時刻に対応するフレームについては、かかる初期値が音声復号装置に送られることとする。さらに、差分のみを送られ続けると音声復号側において受信時の電気的エラー等に起因する誤差が蓄積して音声が正しく再生されなくなる可能性があることに鑑み、所定のリフレッシュレートでインデックス自体の値が送られることとする。   In the above description, the process is described in which the difference value of the index added to the representative vector between time t and time t−Δt is sent from the speech coding apparatus to the speech decoding apparatus. In order to enable audio reproduction by such processing, it is natural that, at least for the first frame to be encoded, the value of the index itself must be sent as an initial value from the former device to the latter device. There is. Therefore, in the present embodiment, for a frame corresponding to the time when the user of the speech coding apparatus starts speaking, such an initial value is sent to the speech decoding apparatus. Furthermore, if only the difference is kept sent, errors due to electrical errors at the time of reception may accumulate on the audio decoding side, and the audio may not be reproduced correctly. A value is to be sent.

図8は、本実施形態に係る音声符号化兼復号装置3が音声復号装置として機能する場合の機能構成を示すブロック図である。音声符号化兼復号装置3は、音声復号装置としては、図示するように、エントロピ復号部8、ベクトル逆量子化関連処理部49、時間順並べ替え部51、周波数逆変換部53、レベル再現部55、フレーム合成部57 、及び、D/A変換部59を備え、さらに、音声符号化装置として機能する場合と同じ低域用ソート済VQテーブル41及び高域用ソート済VQテーブル43を備える。   FIG. 8 is a block diagram showing a functional configuration when the speech encoding / decoding device 3 according to the present embodiment functions as a speech decoding device. As shown in the figure, the speech encoding / decoding device 3 includes an entropy decoding unit 8, a vector inverse quantization related processing unit 49, a time order rearrangement unit 51, a frequency inverse transformation unit 53, and a level reproduction unit. 55, a frame synthesizing unit 57, and a D / A converting unit 59, and further includes a low-frequency sorted VQ table 41 and a high-frequency sorted VQ table 43 that function as a speech encoding device.

図3のCPU121は、ROM123に書き込まれた動作プログラムに従い記憶部125と協同して動作することにより、図8のエントロピ復号部8、ベクトル逆量子化関連処理部49、時間順並べ替え部51、周波数逆変換部53、レベル再現部55、及び、フレーム合成部57として機能する。CPU121はまた、ROM123に書き込まれた動作プログラムに従い音声処理部141及び記憶部125と協同して動作することにより、図8のD/A変換部59として機能する。   3 operates in cooperation with the storage unit 125 in accordance with the operation program written in the ROM 123, so that the entropy decoding unit 8, the vector inverse quantization related processing unit 49, the time order rearrangement unit 51 in FIG. It functions as a frequency inverse transform unit 53, a level reproduction unit 55, and a frame synthesis unit 57. The CPU 121 also functions as the D / A conversion unit 59 of FIG. 8 by operating in cooperation with the audio processing unit 141 and the storage unit 125 according to the operation program written in the ROM 123.

本実施形態に係る音声符号化兼復号装置3は、音声復号装置として動作する場合は、別の音声符号化兼復号装置3が音声符号化装置として動作した結果無線通信等の手段により送信した情報である音声圧縮信号を、アンテナ163により収集する。無線通信部161は、CPU121がROM123に格納された動作プログラムに基づいて発する命令に従い、アンテナ163が収集した情報を、記憶部125に格納する。   When the speech encoding / decoding device 3 according to the present embodiment operates as a speech decoding device, information transmitted by means such as wireless communication as a result of another speech encoding / decoding device 3 operating as the speech encoding device. Are compressed by the antenna 163. The wireless communication unit 161 stores information collected by the antenna 163 in the storage unit 125 in accordance with an instruction issued by the CPU 121 based on an operation program stored in the ROM 123.

エントロピ復号部8は、エントロピ符号化により符号化された信号である音声圧縮信号を復号する。エントロピ復号部8は続いて、復号した結果得られた情報のうち、インデックス差分Δi(t、j)をベクトル逆量子化関連処理部49に出力するとともに、該情報のうち、shift_bitをレベル再現部55に出力する。ベクトル逆量子化関連処理部49は、エントロピ復号部8からインデックス差分Δi(t、j)を受け取り、低域用ソート済VQテーブル41及び高域用ソート済VQテーブル43を参照して後述の処理により適切な代表ベクトルを選択し、選択した代表ベクトルを、スペクトルの近似的な復元に用いる量として時間順並べ替え部51に引き渡す。   The entropy decoding unit 8 decodes an audio compression signal that is a signal encoded by entropy encoding. Subsequently, the entropy decoding unit 8 outputs the index difference Δi (t, j) of the information obtained as a result of the decoding to the vector inverse quantization related processing unit 49, and among the information, shift_bit is converted to the level reproduction unit. To 55. The vector inverse quantization related processing unit 49 receives the index difference Δi (t, j) from the entropy decoding unit 8 and refers to the low frequency sorted VQ table 41 and the high frequency sorted VQ table 43 to be described later. Thus, an appropriate representative vector is selected, and the selected representative vector is delivered to the time order rearrangement unit 51 as an amount used for approximate restoration of the spectrum.

ベクトル逆量子化関連処理部49は、図9に示すように、インデックス算出部9と、代表ベクトルインデックス記憶部61と、ベクトル逆量子化部63と、を備える。   As shown in FIG. 9, the vector inverse quantization related processing unit 49 includes an index calculation unit 9, a representative vector index storage unit 61, and a vector inverse quantization unit 63.

インデックス算出部9は、後述のように代表ベクトルインデックス記憶部61との間で情報の授受を行うことにより、音声符号化装置としての音声符号化兼復号装置3が周波数jにおけるベクトル量子化により求めた代表ベクトルに付されたインデックスを算出し、ベクトル逆量子化部63に引き渡す。   The index calculation unit 9 exchanges information with the representative vector index storage unit 61 as will be described later, so that the speech encoding / decoding device 3 as the speech encoding device is obtained by vector quantization at the frequency j. The index attached to the representative vector is calculated and delivered to the vector inverse quantization unit 63.

ベクトル逆量子化部63は、インデックス算出部から引き渡されたインデックスが付された代表ベクトルを、低域用ソート済VQテーブル41又は高域用ソート済VQテーブル43の中から検索することにより取得する。この処理の対象となっている周波数jが先に定義した低域に対応している場合には低域用ソート済VQテーブル41の中が、また、周波数jが高域に対応している場合には高域用ソート済VQテーブル43の中が、それぞれ検索される。ベクトル逆量子化部63は、検索した代表ベクトルを、フレーム毎のスペクトルのうち周波数jに対応する帯域の部分を近似した結果として、時間順並べ替え部51に出力する。   The vector inverse quantization unit 63 acquires the representative vector with the index delivered from the index calculation unit by searching the low-frequency sorted VQ table 41 or the high-frequency sorted VQ table 43. . When the frequency j to be processed corresponds to the previously defined low frequency, the low frequency sorted VQ table 41 corresponds to the frequency j, and the frequency j corresponds to the high frequency. Are searched in the high frequency sorted VQ table 43. The vector inverse quantization unit 63 outputs the retrieved representative vector to the time order rearrangement unit 51 as a result of approximating the portion of the band corresponding to the frequency j in the spectrum for each frame.

音声符号化装置としての音声符号化兼復号装置3がある時刻tの周波数jにおけるベクトル量子化により求めた代表ベクトルに付されたインデックスを、インデックス算出部9が代表ベクトルインデックス記憶部61との間で情報の授受を行うことにより算出するに際しては、時間的に直前のフレームにおけるベクトル量子化の結果を利用する等、ある種の遅延処理がなされる。そこで、理解を容易にするために、図10及び図11を参照しつつ、かかる処理を一段階ずつ説明する。   The index calculation unit 9 and the representative vector index storage unit 61 store the index attached to the representative vector obtained by the vector quantization at the frequency j at the time t by the speech encoding / decoding device 3 as the speech encoding device. When the calculation is performed by exchanging information in (3), some kind of delay processing is performed, such as using the result of vector quantization in the immediately preceding frame in terms of time. Therefore, in order to facilitate understanding, such processing will be described step by step with reference to FIGS. 10 and 11.

代表ベクトルインデックス記憶部61は、インデックス算出部9からインデックスiを受け取り、記憶する。代表ベクトルインデックス記憶部61は、遅延処理を行うためのバッファメモリとして機能する。ベクトル逆量子化関連処理部49が時刻tにおける処理を開始する時点で、図10(a)に示すように、代表ベクトルインデックス記憶部61は、直前のフレームに対応する時刻t-Δtにおける処理の結果として、時刻t-Δtにおける周波数jに対応したベクトルFt-Δt、jに最も類似した代表ベクトルのインデックスであるi(t-Δt、j)を記憶している。また、時刻tにおける処理は、インデックス算出部9に、インデックス差分Δi(t、j)が入力されることにより開始される。 The representative vector index storage unit 61 receives the index i from the index calculation unit 9 and stores it. The representative vector index storage unit 61 functions as a buffer memory for performing delay processing. When the vector inverse quantization related processing unit 49 starts processing at time t, as shown in FIG. 10A, the representative vector index storage unit 61 performs processing at time t−Δt corresponding to the immediately preceding frame. As a result, i (t-Δt, j) which is the index of the representative vector most similar to the vector F t-Δt, j corresponding to the frequency j at time t-Δt is stored. The processing at time t is started when the index difference Δi (t, j) is input to the index calculation unit 9.

図10(b)に示すように、代表ベクトルインデックス記憶部61は、記憶していたインデックスi(t-Δt、j)をインデックス算出部9に引き渡す。次に、インデックス算出部9は、図10(c)に示すように、エントロピ復号部8から入力されたインデックス差分Δi(t、j)を、代表ベクトルインデックス記憶部61から引き渡されたインデックスi(t-Δt、j)に加えることにより、時刻tにおけるインデックスi(t、j)を求める。つまり、インデックス算出部9は、i(t、j)=i(t-Δt、j)+Δi(t、j)という演算を行う。インデックス算出部9は続いて、図11(a)に示すように、求めたインデックスi(t、j)を、ベクトル逆量子化部63と代表ベクトルインデックス記憶部61とに引き渡す。この後、図11(b)に示すように、ベクトル逆量子化部63は、受け取ったインデックスi(t、j)が付された代表ベクトルをVQテーブルの中から検索し、一方、代表ベクトルインデックス記憶部61は、受け取ったインデックスi(t、j)自体を記憶する。最終的に、図11(c)に示すように、ベクトル逆量子化部63は、検索した代表ベクトルVi(t、j)を時間順並べ替え部51に向けて出力する。この段階で、代表ベクトルインデックス記憶部61には、時刻tにおける周波数jに対応するインデックスi(t、j)が格納されている。つまり、時刻を表す変数がt-Δtからtに変化したことを除けば、図10(a)に示す状態に戻っている。したがって、時間的に後の、時刻t+Δt以降に対応する各フレームについては、図10(a)から図11(c)までの処理と同様の処理を繰り返せばよい。 As shown in FIG. 10B, the representative vector index storage unit 61 delivers the stored index i (t−Δt, j) to the index calculation unit 9. Next, as shown in FIG. 10C, the index calculation unit 9 uses the index difference Δi (t, j) input from the entropy decoding unit 8 as the index i ( By adding to t−Δt, j), an index i (t, j) at time t is obtained. That is, the index calculation unit 9 performs an operation of i (t, j) = i (t−Δt, j) + Δi (t, j). Subsequently, as shown in FIG. 11A, the index calculation unit 9 delivers the obtained index i (t, j) to the vector inverse quantization unit 63 and the representative vector index storage unit 61. Thereafter, as shown in FIG. 11B, the vector inverse quantization unit 63 searches the VQ table for the representative vector to which the received index i (t, j) is attached, while the representative vector index. The storage unit 61 stores the received index i (t, j) itself. Finally, as shown in FIG. 11C, the vector inverse quantization unit 63 outputs the retrieved representative vector V i (t, j) to the time order rearrangement unit 51. At this stage, the representative vector index storage unit 61 stores an index i (t, j) corresponding to the frequency j at time t. That is, except for the fact that the variable representing the time has changed from t-Δt to t, the state shown in FIG. Therefore, the processing similar to the processing from FIG. 10A to FIG. 11C may be repeated for each frame corresponding to time t + Δt and later after time.

図8及び図9の時間順並べ替え部51は、ベクトル逆量子化関連処理部49の中のベクトル逆量子化部63から各周波数jに対応する代表ベクトルを集めることによりスペクトルを近似的に再現し、その成分に対して図2の点線矢印を逆向きにたどるような並べ替えを行うことによりブロック毎のスペクトルを近似的に再現する。続いて、時間順並べ替え部51は、かかるブロック毎のスペクトルを図8の周波数逆変換部53に引き渡す。周波数逆変換部53は、時間順並べ替え部51から入力されたブロック毎のスペクトルに対し、逆MDCTを施し、レベル再現部55に出力する。レベル再現部55は、周波数逆変換部53から入力された信号に対して、エントロピ復号部8から入力されたshift_bitを参照することによりレベル調節を施して元のレベルに戻し、フレーム合成部57に出力する。フレーム合成部57は、符号化及び復号の処理単位であったフレームを合成し、合成後の信号をD/A変換部59に出力する。D/A変換部59は、フレーム合成部57から入力されたデジタル信号をアナログ信号に変換し、音声再生信号として出力する。   The time order rearrangement unit 51 in FIGS. 8 and 9 approximately reproduces the spectrum by collecting representative vectors corresponding to each frequency j from the vector inverse quantization unit 63 in the vector inverse quantization related processing unit 49. Then, the spectrum for each block is approximately reproduced by rearranging the components so as to follow the dotted arrow in FIG. 2 in the reverse direction. Subsequently, the time-order rearranging unit 51 delivers the spectrum for each block to the frequency inverse transform unit 53 in FIG. The frequency inverse transform unit 53 performs inverse MDCT on the spectrum for each block input from the time order rearrangement unit 51 and outputs the result to the level reproduction unit 55. The level reproduction unit 55 adjusts the level of the signal input from the frequency inverse conversion unit 53 by referring to the shift_bit input from the entropy decoding unit 8 to return to the original level. Output. The frame synthesizing unit 57 synthesizes frames that are processing units of encoding and decoding, and outputs the synthesized signal to the D / A conversion unit 59. The D / A converter 59 converts the digital signal input from the frame synthesizer 57 into an analog signal and outputs it as an audio reproduction signal.

(実施形態2)
以下では、本発明の実施形態2に係る音声符号化兼復号装置について述べる。本実施形態は、実施形態1に係る音声符号化兼復号装置3のROM123にデータベースとして格納されている低域用ソート済VQテーブル41及び高域用ソート済VQテーブル43を、符号化の効率がさらに向上するよう改良した他は、実施形態1と同じである。
(Embodiment 2)
Hereinafter, a speech encoding / decoding device according to Embodiment 2 of the present invention will be described. In this embodiment, the low frequency sorted VQ table 41 and the high frequency sorted VQ table 43 stored as a database in the ROM 123 of the speech encoding and decoding apparatus 3 according to the first embodiment are encoded efficiently. It is the same as that of Embodiment 1 except for further improvements.

実施形態1においては、低域用ソート済VQテーブル41及び高域用ソート済VQテーブル43に格納された代表ベクトルに付されたインデックスi(1≦i≦iMAX)について、代表ベクトルViのエネルギーE(Vi)に
E(V1)≦E(V2)≦・・・≦E(ViMAX)
という関係が成立することが課されていた。しかし、複数の代表ベクトルがたまたま同じエネルギーを有している場合に、かかる複数の代表ベクトルにそれぞれどのようにインデックスを付すかについては、特に制限は存在しなかった。
In the first embodiment, for the index i (1 ≦ i ≦ i MAX ) attached to the representative vectors stored in the low frequency sorted VQ table 41 and the high frequency sorted VQ table 43, the representative vector V i Energy E (V i )
E (V 1 ) ≦ E (V 2 ) ≦ ・ ・ ・ ≦ E (V iMAX )
It was imposed that the relationship was established. However, when a plurality of representative vectors happen to have the same energy, there is no particular limitation on how to index each of the plurality of representative vectors.

それに対して本実施形態では、符号化の効率がさらに向上するよう、複数の代表ベクトルがたまたま同じエネルギーを有している場合についても、音声信号の連続性を考慮した所定の方針に従って、かかる複数の代表ベクトルにインデックスが付されている。   On the other hand, in the present embodiment, even when a plurality of representative vectors happen to have the same energy so as to further improve the encoding efficiency, the plurality of such vectors are determined according to a predetermined policy in consideration of the continuity of the audio signal. Are indexed.

すなわち、エネルギーの等しいp個の代表ベクトル
Vi1={vi1、0、vi1、1、・・・、vi1、k[i1、MAX]、・・・、vi1、L-1}、
Vi2={vi2、0、vi2、1、・・・、vi2、k[i2、MAX]、・・・、vi2、L-1}、
・・・、
Vip={vip、0、vip、1、・・・、vip、k[ip、MAX]、・・・、vip、L-1}
(ただし、vi、k[i、MAX]は、Viの成分のうちの、絶対値が最大の成分を表す。)
に、i1<i2<・・・<ipとなるようなインデックスを付す場合は、
k[i1、MAX]≦k[i2、MAX]≦・・・≦k[ip、MAX]
が成立するようにする。
That is, p representative vectors with equal energy
V i1 = {v i1,0, v i1,1, ···, v i1, k [i1, MAX], ···, v i1, L-1},
V i2 = {v i2,0, v i2,1, ···, v i2, k [i2, MAX], ···, v i2, L-1},
...
V ip = {v ip, 0 , v ip, 1 , ..., v ip, k [ip, MAX] , ..., v ip, L-1 }
(Where v i, k [i, MAX] represent the component having the maximum absolute value among the components of V i )
When attaching an index such that i1 <i2 <... <ip,
k [i1, MAX] ≦ k [i2, MAX] ≦ ・ ・ ・ ≦ k [ip, MAX]
Is established.

以下では理解を容易にするために、前記所定の方針がいかなるものであるかを、例を挙げて説明する。   Hereinafter, in order to facilitate understanding, what the predetermined policy is is described with an example.

例えば、前記制約E(V1)≦E(V2)≦・・・≦E(ViMAX)に基づいて、代表ベクトルのうち最小のエネルギーを有するものからエネルギーの昇順に14番目までのものについては、付すべきインデックスが確定したとする。すなわち、
E(V1)<E(V2)<・・・<E(V14)
かつ、E(V14)がV1、V2、・・・、V14以外のどの代表ベクトルのエネルギーよりも小さい、とする。さらに、同じくエネルギーの昇順に19番目の代表ベクトルから最大のエネルギーを有する代表ベクトルまでについても、前記制約に基づき、付すべきインデックスが確定したとする。すなわち、
E(V19)<E(V20)<・・・<E(ViMAX)
かつ、E(V19)がV19、V20、・・・、ViMAX以外のどの代表ベクトルのエネルギーよりも大きい、とする。さらに、全ての代表ベクトルからV1、V2、・・・、V14、V19、V20、・・・、ViMAXを除いた場合に残る4個の代表ベクトルが、等しいエネルギーを有するものとする。すると、該4個の代表ベクトルには、15から18までの4個のインデックスを付すべきことは確定するものの、どの代表ベクトルにインデックスとして15を付し、どの代表ベクトルに16を付し、・・・、どの代表ベクトルに18を付すかについては、実施形態1においては、任意であった。前記制約が不等号による制約であるために、該4個の代表ベクトルにどのようにインデックスを付しても、E(V15)=E(V16)=E(V17)=E(V18)となって前記制約を満たすからである。
For example, based on the constraint E (V 1 ) ≦ E (V 2 ) ≦ ・ ・ ・ ≦ E (V iMAX ), the representative vector having the smallest energy to the 14th in ascending order of energy Suppose that the index to be attached is fixed. That is,
E (V 1 ) <E (V 2 ) <・ ・ ・ <E (V 14 )
And, E (V 14) is V 1, V 2, ···, smaller than the energy of any representative vectors than V 14, to. Furthermore, it is also assumed that the index to be assigned is determined based on the above-mentioned restrictions for the 19th representative vector to the representative vector having the maximum energy in ascending order of energy. That is,
E (V 19 ) <E (V 20 ) <・ ・ ・ <E (V iMAX )
It is also assumed that E (V 19 ) is larger than the energy of any representative vector other than V 19 , V 20 ,. In addition, the four representative vectors remaining when V 1 , V 2 ,..., V 14 , V 19 , V 20 ,. And Then, although it is determined that the four representative vectors from 15 to 18 should be assigned to the four representative vectors, 15 is assigned as an index to which representative vector, 16 is assigned to which representative vector, In the first embodiment, which representative vector is assigned 18 is arbitrary. Since the constraint is due to an inequality sign, no matter how the four representative vectors are indexed, E (V 15 ) = E (V 16 ) = E (V 17 ) = E (V 18 This is because the above constraints are satisfied.

これに対して本実施形態においては、このように等しいエネルギーを有する複数の代表ベクトルに対しても、上述の方針にしたがってインデックスが付される。   On the other hand, in this embodiment, an index is attached | subjected according to the above-mentioned policy also with respect to several representative vectors which have such an equal energy.

以下では、例として、1フレームあたりのブロック数LがL=5であるとする。すると、各代表ベクトルはL個すなわち5個の成分を有する。   Hereinafter, as an example, it is assumed that the number L of blocks per frame is L = 5. Then, each representative vector has L, that is, five components.

よって、図12に示すように、|V15|2=|V16|2=|V17|2=|V18|2のように等しいエネルギーを有する4個の代表ベクトルV15、V16、V17、V18は、第0軸から第4軸までの5個の座標軸が設けられた5次元空間内に表現することができる。第0軸はブロック0に、第1軸はブロック1に、第2軸はブロック2に、第3軸はブロック3に、第4軸はブロック4に、それぞれ対応している。Rを上述の4個の代表ベクトルの絶対値に等しい値、すなわち、R=|V15|=|V16|=|V17|=|V18|とすると、該代表ベクトルの先端は、5次元空間において原点を中心とした半径Rの球面上に存在する。 Therefore, as shown in FIG. 12, | V 15 | 2 = | V 16 | 2 = | V 17 | 2 = | V 18 | 4 pieces of representative vectors V 15, V 16 with equal energy as 2, V 17 and V 18 can be expressed in a five-dimensional space provided with five coordinate axes from the 0th axis to the 4th axis. The zeroth axis corresponds to block 0, the first axis corresponds to block 1, the second axis corresponds to block 2, the third axis corresponds to block 3, and the fourth axis corresponds to block 4. When R is equal to the absolute value of the above four representative vectors, that is, R = | V 15 | = | V 16 | = | V 17 | = | V 18 |, the tip of the representative vector is 5 It exists on a spherical surface with a radius R centered on the origin in the dimensional space.

以下では、例として、代表ベクトルV15の成分v15、0、v15、1、v15、2、v15、3、v15、4のうちで絶対値が最大の成分がv15、0であり、代表ベクトルV16の成分v16、0、v16、1、v16、2、v16、3、v16、4のうちで絶対値が最大の成分がv16、1であり、代表ベクトルV17の成分v17、0、v17、1、v17、2、v17、3、v17、4のうちで絶対値が最大の成分がv17、2であり、代表ベクトルV18の成分v18、0、v18、1、v18、2、v18、3、v18、4のうちで絶対値が最大の成分がv18、3であるとする。 In the following, as an example, the component v 15 , 0 , v 15 , 1 , v 15 , 2 , v 15 , 3 , v 15 , 4 of the representative vector V 15 has the largest absolute value v 15 , 0 , and the component v 16, 0 representative vectors V 16, v 16,1, v 16,2 , v 16,3, absolute value of v 16,4 is v 16,1 up components, components v 17, 0 representative vectors V 17, v 17,1, v 17,2 , v 17,3, absolute value of v 17,4 biggest component is v 17,2, representative vector V 18 components v 18,0, v 18,1, v 18,2 , v 18,3, absolute value of v 18,4 biggest component is assumed to be v 18,3.

各代表ベクトルにこのようにインデックスを付すことは、本実施形態において導入された上述の所定の方針に合致している。また、MDCT係数で表されるスペクトルとの関係という観点からは、座標軸に付された番号の大小が、周波数の高低に対応しているといえる。さらに、図12に即すと、定性的には、V15は第0軸と小さな角度をなし、V16は第1軸と小さな角度をなし、V17は第2軸と小さな角度をなし、V18は第3軸と小さな角度をなす、といえる。 This indexing of each representative vector is consistent with the above-described predetermined policy introduced in the present embodiment. Also, from the viewpoint of the relationship with the spectrum represented by the MDCT coefficient, it can be said that the number assigned to the coordinate axis corresponds to the frequency level. Furthermore, according to FIG. 12, qualitatively, V 15 makes a small angle with the 0th axis, V 16 makes a small angle with the first axis, V 17 makes a small angle with the second axis, V 18 makes a small angle with the third axis.

以下では、例として、各代表ベクトルを部分スペクトルとして表示した場合に、それぞれのベクトルが、具体的には、図13に示す形状になるとする。すなわち、図13(a)、(c)、(d)、(e)の実線で描かれた棒グラフが、それぞれ、代表ベクトルV16、V15、V17、V18に対応する部分スペクトルである。上述のとおりV16の成分v16、0、v16、1、v16、2、v16、3、v16、4のうちで絶対値が最大の成分はv16、1であるので、図13(a)に示すように、V16に対応する部分スペクトルにおいては、ブロック1に相当する周波数がピーク周波数となる。 Hereinafter, as an example, when each representative vector is displayed as a partial spectrum, each vector is assumed to have a shape shown in FIG. That is, the bar graphs drawn with solid lines in FIGS. 13A, 13C, 13D, and 13E are partial spectra corresponding to the representative vectors V 16 , V 15 , V 17 , and V 18 , respectively. . Components v 16, 0 of as V 16 above, v 16,1, v 16,2, v 16,3, since the absolute value of v 16,4 biggest component is the v 16,1, FIG as shown in 13 (a), in the partial spectrum corresponding to V 16, the frequency corresponding to the block 1 reaches a peak frequency.

なお、図13(b)〜(e)においては、参考のため、代表ベクトルV16に対応する部分スペクトルが、点線で示されている。 In FIG. 13 (b) ~ (e) , for reference, partial spectrum corresponding to the representative vector V 16 is shown in dotted lines.

ここで、理解に際しての混乱を防ぐために、用語について整理する。前述のとおり、部分スペクトルとは、スペクトル全体のうちの周波数jに対応する部分のことである。そして、ここでいうピーク周波数とは、周波数jの帯域をさらに細分した周波数のうちの、部分スペクトルにピークをもたらす周波数を指す。   Here, in order to prevent confusion in understanding, terms are organized. As described above, the partial spectrum is a portion corresponding to the frequency j in the entire spectrum. The peak frequency here refers to a frequency that causes a peak in the partial spectrum, among frequencies obtained by further subdividing the frequency j band.

なお、図2を参照すれば明らかなように、本実施形態においては、厳密には、部分スペクトルにおけるMDCT係数の並び方は、ブロック順つまり時間順になっているのであって、周波数順ではない。しかし、図2に点線矢印で示したとおり、時間順を周波数順に見立てて部分スペクトルを構成し、そのような部分スペクトルを周波数jの順に並べることによりフレーム1個に対応するスペクトルを完成させているから、代表ベクトルによる近似を論じる際には、部分スペクトル内のMDCT係数の並び方は周波数順であるとみなすことにする。このようにみなすのは、単に、本実施形態においては、フレームとブロックという複数の時間区分が導入された上で周波数変換としてブロック単位でのMDCTが採用されたからである。例えば、フレーム1個にブロック1個が対応すなわちフレーム全体の音声信号に一括してMDCTを施したり、または、フレームやブロックとは異なる時間区分の概念を導入したり別の周波数変換を採用したりすれば、周波数変換係数の並び方から経時的要素が排除されることもある。ベクトル量子化を行うための単位である部分スペクトル内でのMDCT係数の並び方は、本実施形態の場合のように時間順であってもさしつかえない。本実施形態は音声信号の時間軸上及び周波数軸上の連続性を有効に利用するものであるため、スペクトルの生成過程の一部において時系列が扱われていたとしても、一貫した方針に基づいて生成されたスペクトルを扱う限りは、本発明の効果が生じるからである。   As is clear from FIG. 2, in the present embodiment, strictly, the arrangement of the MDCT coefficients in the partial spectrum is in block order, that is, in time order, not in frequency order. However, as shown by the dotted arrows in FIG. 2, a partial spectrum is constructed by considering the time order as the frequency order, and the spectrum corresponding to one frame is completed by arranging such partial spectra in the order of the frequency j. Therefore, when discussing the approximation by the representative vector, it is assumed that the arrangement of the MDCT coefficients in the partial spectrum is in order of frequency. This is simply because, in this embodiment, MDCT in units of blocks is adopted as frequency conversion after introducing a plurality of time sections of frames and blocks. For example, one block corresponds to one frame, that is, MDCT is applied to the audio signal of the entire frame, or the concept of time division different from that of the frame or block is introduced, or another frequency conversion is adopted. In this case, temporal elements may be excluded from the arrangement of the frequency conversion coefficients. The arrangement of the MDCT coefficients in the partial spectrum, which is a unit for performing vector quantization, may be in time order as in the present embodiment. Since this embodiment effectively uses the continuity of the audio signal on the time axis and the frequency axis, even if the time series is handled in part of the spectrum generation process, it is based on a consistent policy. This is because the effect of the present invention is produced as long as the spectrum generated in this way is handled.

前述のように代表ベクトルV16に対応する部分スペクトルは図13(a)である。他の代表ベクトルについては、V15のピーク周波数はブロック0に相当する周波数がピーク周波数となり、V17のピーク周波数はブロック2に相当する周波数がピーク周波数となり、V18のピーク周波数はブロック3に相当する周波数がピーク周波数となる。このようにインデックスの昇順にピーク周波数が高くなるから、以下では理解を容易にするために、図13(c)、(d)、(e)に示すように、代表ベクトルV15、V17、V18は、たまたま、代表ベクトルV16に対応する部分スペクトルをインデックスの差分のぶんだけ周波数軸方向にずらしたものに対応しているとする。例えば、V17に対応する部分スペクトルは、V16に対応する部分スペクトルを、高周波方向に1ブロックぶんずらしたものであるとする。このとき元々V16の最高周波数すなわちブロック4に対応していたMDCT係数は、V17においては、最低周波数すなわちブロック0に対応させるようにする。このような場合だけを考えても、ピーク周波数とインデックスの差分とは整合するので、本実施形態の特徴を記述するにあたりなんら問題ない。また、本実施形態においては複数の代表ベクトルが等しいエネルギーを有する場合を問題としており、この点に鑑みれば、上述のように各代表ベクトルが相互に周波数軸方向についての平行移動により得られる場合、全ての代表ベクトルのエネルギーが等しいことは自明なので、理解の上で好都合である。 As described above, the partial spectrum corresponding to the representative vector V 16 is shown in FIG. For other representative vectors, the peak frequency of the V 15 is the frequency corresponding to the block 0 is a peak frequency, the peak frequency of the V 17 is the frequency corresponding to the block 2 becomes the peak frequency, the peak frequency of V 18 to block 3 The corresponding frequency becomes the peak frequency. Since the peak frequency becomes higher in the ascending order of the index in this way, in order to facilitate understanding, in the following, as shown in FIGS. 13 (c), (d), and (e), representative vectors V 15 , V 17 , V 18 happens to correspond to a partial spectrum corresponding to the representative vector V 16 that is shifted in the frequency axis direction by the index difference. For example, it is assumed that the partial spectrum corresponding to V 17 is obtained by shifting the partial spectrum corresponding to V 16 by one block in the high frequency direction. At this time, the MDCT coefficient originally corresponding to the highest frequency of V 16 , that is, the block 4 is made to correspond to the lowest frequency, that is, the block 0 in V 17 . Considering only such a case, there is no problem in describing the features of the present embodiment because the difference between the peak frequency and the index matches. Further, in the present embodiment, there is a problem when a plurality of representative vectors have the same energy, and in view of this point, when each representative vector is obtained by parallel movement in the frequency axis direction as described above, Since it is obvious that the energy of all the representative vectors is equal, it is convenient for understanding.

以下では、ある周波数jについて、時刻tと時刻t+Δtとで行われるベクトル量子化について述べる。時刻tにおいて、部分スペクトルを表すベクトルFt、jに最も類似した代表ベクトルとして、代表ベクトルV16が選択されたとする。つまり、Ft、jをV16で近似したとする。次の時刻の部分スペクトルを表すベクトルFt+Δt、jがいかなる代表ベクトルで近似されるかについては、様々な場合が考えられる。例えば、代表ベクトルV15、V16、V17、V18より高いエネルギーを有する代表ベクトルで近似されるかもしれないし、より低いエネルギーを有する代表ベクトルで近似されるかもしれない。このように直前の時刻で近似に用いられた代表ベクトルとはエネルギーの異なる代表ベクトルで近似される場合には、本実施形態に特有の効果は生じず、実施形態1と同じ効果が生じるにとどまる。 Hereinafter, vector quantization performed at time t and time t + Δt for a certain frequency j will be described. Assume that the representative vector V 16 is selected as the representative vector most similar to the vector F t, j representing the partial spectrum at time t. That is, assume that F t, j is approximated by V 16 . Various cases can be considered as to which representative vector the vector F t + Δt, j representing the partial spectrum at the next time is approximated. For example, it may be approximated by a representative vector having higher energy than the representative vectors V 15 , V 16 , V 17 and V 18 , or may be approximated by a representative vector having lower energy. As described above, when approximated by a representative vector having energy different from that of the representative vector used for approximation at the immediately preceding time, an effect specific to the present embodiment does not occur, and only the same effect as in the first embodiment occurs. .

一方、次の時刻の部分スペクトルを表すベクトルFt+Δt、jが、代表ベクトルV15、V16、V17、V18のいずれかで近似される場合も考えられる。このような事態は、音声信号の連続性と、定常性、すなわち音声信号にはしばしば定常状態の時間帯があるという性質と、のために、決してまれな事態ではなく、むしろ頻繁に生じる事態である。そして、そのうちでも、直前の時刻である時刻tにおいて選択された代表ベクトルと同じ代表ベクトルであるV16が再び選択される可能性が高い。つまり、Ft+Δt、jがFt、jと同じ又はほとんど同じとなり、近似のための代表ベクトルとして同じものが選択される可能性が高い。これは、上述の連続性及び定常性のためである。かかる場合、インデックスの差分は、16-16により、0となる。 On the other hand, the vector F t + Δt, j representing the partial spectrum at the next time may be approximated by any of the representative vectors V 15 , V 16 , V 17 , V 18 . This is not a rare situation, but rather a frequent occurrence, due to the continuity of the audio signal and the continuity, ie the nature of the audio signal often having a steady-state time zone. is there. Then, among them, there is a high possibility that V 16 is the same representative vector the representative vector that has been selected at time t is the time of the immediately preceding is selected again. That is, F t + Δt, j is the same as or almost the same as F t, j, and there is a high possibility that the same vector is selected as the representative vector for approximation. This is due to the continuity and stationarity described above. In such a case, the index difference becomes 0 due to 16-16.

次に可能性が高いのは、Ft+Δt、jが、V15又はV17により近似されることである。上述の連続性及び定常性ゆえに、Ft+Δt、jに対応する部分スペクトルは、Ft、jに対応する部分スペクトルがわずかに変化したものである場合の方が、大きく変化したものである場合よりも多いためである。図13を参照して説明すると、V15又はV17に対応する部分スペクトルは、V16に対応する部分スペクトルと比べてブロック1個に相当する周波数ぶんだけピークが移動したものであるから、V16がわずかに変化したものであるといえる。一方、V18に対応する部分スペクトルは、V16に対応する部分スペクトルと比べてブロック2個に相当する周波数ぶんだけピークが移動したものであるから、相対的には、V16が大きく変化したものであるといえる。したがって、Ft+Δt、jがV15又はV17で近似される可能性は、V18で近似される可能性よりも高い。Ft+Δt、jがV15で近似される場合、インデックスの差分は、15-16により、-1となる。Ft+Δt、jがV17で近似される場合、インデックスの差分は、17-16により、1となる。Ft+Δt、jがV18で近似される場合、インデックスの差分は、18-16により、2となる。 The next most likely is that F t + Δt, j is approximated by V 15 or V 17 . Because of the continuity and stationarity described above, the partial spectrum corresponding to F t + Δt, j changes more significantly when the partial spectrum corresponding to F t, j is slightly changed. This is because there are more cases. Referring to FIG. 13, partial spectrum corresponding to V 15 or V 17, since the frequency Bundake peak corresponding to one block in comparison with the partial spectrum corresponding to V 16 are obtained by moving, V 16 can be said to have changed slightly. On the other hand, since the partial spectrum corresponding to V 18 has a peak shifted by the frequency corresponding to two blocks compared to the partial spectrum corresponding to V 16 , relatively, V 16 changed greatly. It can be said that it is a thing. Therefore, the possibility that F t + Δt, j is approximated by V 15 or V 17 is higher than the possibility that F t + Δt, j is approximated by V 18 . If F t + Δt, j is approximated by V 15, the index of the difference, by 15-16, -1. When F t + Δt, j is approximated by V 17 , the index difference becomes 1 due to 17-16. When F t + Δt, j is approximated by V 18 , the index difference is 2 due to 18-16.

以上から明らかなように、時刻t+Δtにおいて近似に用いられる代表ベクトルのエネルギーが、時刻tにおいて近似に用いられた代表ベクトルのエネルギーと等しい場合、両代表ベクトルのインデックスの差分は、本実施形態において新たに導入された上述の制約に従ってインデックスが代表ベクトルに付されている限り、0になる確率が最も高く、続いて+1になる確率と-1になる確率とが高く、続いて+2になる確率と-2になる確率とが高くなり、以下同様である。つまり、インデックス差分には、絶対値が小さい値ほど出現頻度が高い、という偏りが生じている。かかる偏りの存在ゆえに、エントロピ符号化による符号化の効率が高くなる。   As is clear from the above, when the energy of the representative vector used for approximation at time t + Δt is equal to the energy of the representative vector used for approximation at time t, the difference between the indexes of both representative vectors is the present embodiment. As long as the index is attached to the representative vector according to the above-mentioned constraints newly introduced in, the probability of becoming 0 is the highest, followed by the probability of becoming +1 and the probability of becoming -1, followed by +2. And the probability of becoming -2, and so on. That is, the index difference is biased such that the smaller the absolute value, the higher the appearance frequency. Due to the presence of such bias, the efficiency of encoding by entropy encoding is increased.

このように、本実施形態によれば、実施形態1の場合と同様の理由から符号化の効率が高くなるのに加えて、複数の連続するフレームにわたってスペクトルのエネルギーがほぼ一定である場合には符号化の効率がいっそう高くなることが期待できる。そして、音声信号の連続性及び定常性ゆえに、そのように複数の連続するフレームにわたってスペクトルのエネルギーがほぼ一定である場合は頻繁に生じるので、本実施形態に特有の効果が生じる場合は多い。   Thus, according to the present embodiment, in the case where the energy of the spectrum is substantially constant over a plurality of consecutive frames, in addition to the high efficiency of encoding for the same reason as in the first embodiment. It can be expected that the encoding efficiency is further increased. In addition, because of the continuity and continuity of the audio signal, it frequently occurs when the energy of the spectrum is almost constant over a plurality of consecutive frames. Therefore, there are many cases where an effect peculiar to the present embodiment occurs.

なお、この発明は、上記実施形態に限定されず、種々の変形及び応用が可能である。上述のハードウェア構成やブロック構成、フローチャートは例示であって、限定されるものではない。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation and application are possible. The above-described hardware configuration, block configuration, and flowchart are examples, and are not limited.

例えば、図1に示される音声符号化兼復号装置3として携帯電話機を想定して説明したが、PHS(Personal Handyphone System)や、PDA(Personal Digital Assistants)、あるいは一般的なパーソナルコンピュータには、本発明を容易に適用することができる。すなわち、上記実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。   For example, a mobile phone has been described as the speech encoding / decoding device 3 shown in FIG. 1, but the PHS (Personal Handyphone System), the PDA (Personal Digital Assistants), or a general personal computer has The invention can be easily applied. That is, the said embodiment is for description and does not restrict | limit the scope of the present invention.

また、上述の実施形態では、ベクトル量子化の際、高域周波数と低域周波数で異なるVQテーブルを用いるようにしたが、音声の全ての周波数帯域で同一のV Qテーブルを用いるようにしてもよい。また、周波数帯域を更に細かく分け、周波数帯域毎に異なるVQテーブルを用いるようにしてもよい。   In the above-described embodiment, different VQ tables are used for high frequency and low frequency in vector quantization. However, the same V Q table may be used for all frequency bands of speech. Good. Further, the frequency band may be further divided and a different VQ table may be used for each frequency band.

また、しばしばエネルギーの昇順、降順に言及したが、どちらか一方しか言及していない場合であっても、全体として一貫した方針が採用される限りは、昇順であっても降順であってもよい。   Also, although energy is often mentioned in ascending or descending order, even if only one of them is mentioned, it may be in ascending or descending order as long as a consistent policy is adopted as a whole. .

入力音声信号のフレーム分割と、1フレームと各ブロックとの関係と、を示す図である。It is a figure which shows the frame division | segmentation of an input audio | voice signal, and the relationship between 1 frame and each block. 本発明の実施形態1における、ブロック毎のMDCTとフレーム単位でのスペクトルとの関係を模式的に示す図である。It is a figure which shows typically the relationship between the MDCT for every block and the spectrum in a frame unit in Embodiment 1 of this invention. 本発明の実施形態1に係る音声符号化兼復号装置の物理的な構成を示す図である。It is a figure which shows the physical structure of the audio | voice encoding and decoding apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る音声符号化兼復号装置が音声符号化装置として機能する際の信号処理の流れを示す図である。It is a figure which shows the flow of the signal processing at the time of the audio | voice encoding and decoding apparatus which concerns on Embodiment 1 of this invention functions as an audio | voice encoding apparatus. 本発明の実施形態1に係るベクトル量子化関連処理部の詳細を示す図である。It is a figure which shows the detail of the vector quantization related process part which concerns on Embodiment 1 of this invention. 本発明の実施形態1において符号化側でインデックス差分を求める流れを示す図である。It is a figure which shows the flow which calculates | requires an index difference in the encoding side in Embodiment 1 of this invention. 本発明の実施形態1における、符号長監視の流れを示す図である。It is a figure which shows the flow of code length monitoring in Embodiment 1 of this invention. 本発明の実施形態1に係る音声符号化兼復号装置が音声復号装置として機能する際の信号処理の流れを示す図である。It is a figure which shows the flow of the signal processing when the audio | voice encoding / decoding apparatus which concerns on Embodiment 1 of this invention functions as an audio | voice decoding apparatus. 本発明の実施形態1に係るベクトル逆量子化関連処理部の詳細を示す図である。It is a figure which shows the detail of the vector inverse quantization related process part which concerns on Embodiment 1 of this invention. 本発明の実施形態1において復号側で代表ベクトルを求める流れの前半を示す図である。It is a figure which shows the first half of the flow which calculates | requires a representative vector in the decoding side in Embodiment 1 of this invention. 本発明の実施形態1において復号側で代表ベクトルを求める流れの後半を示す図である。It is a figure which shows the second half of the flow which calculates | requires a representative vector in the decoding side in Embodiment 1 of this invention. 本発明の実施形態2における、等エネルギーの複数の代表ベクトルを、模式的に多次元空間に表した図である。It is the figure which represented typically the several representative vector of equal energy in Embodiment 2 of this invention in multidimensional space. 本発明の実施形態2における、所定の時間間隔の前後でのベクトル量子化の様子を模式的に表した図である。It is the figure which represented typically the mode of the vector quantization before and behind a predetermined time interval in Embodiment 2 of this invention.

符号の説明Explanation of symbols

3・・・音声符号化兼復号装置、4・・・A/D変換部、5・・・ベクトル量子化部、8・・・エントロピ復号部、9・・・インデックス算出部、23・・・DC除去部、25・・・フレーム化部、27・・・レベル調整部、29・・・周波数変換部、31・・・スペクトル完成部、33・・・ベクトル量子化関連処理部、35・・・エントロピ符号化部、37・・・符号長監視部、39・・・帯域データ削除部、41・・・低域用ソート済VQテーブル、43・・・高域用ソート済VQテーブル、45・・・インデックス差分算出部、47・・・ベクトル量子化関連処理部の代表ベクトルインデックス記憶部、49・・・ベクトル逆量子化関連処理部、51・・・時間順並べ替え部、53・・・周波数逆変換部、55・・・レベル再現部、57・・・フレーム合成部、59・・・D/A変換部、61・・・ベクトル逆量子化関連処理部の代表ベクトルインデックス記憶部、63・・・ベクトル逆量子化部、121・・・CPU、123・・・ROM、125・・・記憶部、131・・・RAM、133・・・ハードディスク、141・・・音声処理部、151・・・マイクロフォン、153・・・スピーカ、161・・・無線通信部、163・・・アンテナ、171・・・操作キー入力内容処理部、173・・・操作キー、181・・・システムバス   DESCRIPTION OF SYMBOLS 3 ... Speech encoding and decoding apparatus, 4 ... A / D conversion part, 5 ... Vector quantization part, 8 ... Entropy decoding part, 9 ... Index calculation part, 23 ... DC removal unit, 25 ... framing unit, 27 ... level adjustment unit, 29 ... frequency conversion unit, 31 ... spectrum completion unit, 33 ... vector quantization related processing unit, 35 ... Entropy encoding unit, 37... Code length monitoring unit, 39... Band data deletion unit, 41... Low band sorted VQ table, 43. .. Index difference calculation unit, 47... Representative vector index storage unit of vector quantization related processing unit, 49... Vector dequantization related processing unit, 51. Frequency inverse conversion unit, 55... Level reproduction unit, 7... Frame synthesis unit, 59... D / A conversion unit, 61... Representative vector index storage unit of vector inverse quantization related processing unit, 63... Vector dequantization unit, 121. CPU, 123 ... ROM, 125 ... storage unit, 131 ... RAM, 133 ... hard disk, 141 ... audio processing unit, 151 ... microphone, 153 ... speaker, 161 ...・ Wireless communication unit, 163... Antenna, 171... Operation key input content processing unit, 173... Operation key, 181.

Claims (11)

デジタル音声信号を、所定の時間区間であるフレーム毎のデジタル音声信号であるフレーム化デジタル音声信号に分割するフレーム化部と、
前記フレーム化デジタル音声信号を周波数変換して、前記フレーム毎にデジタルスペクトルを生成する周波数変換部と、
付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルと、
前記ベクトル量子化テーブルを用いて前記デジタルスペクトルをベクトル量子化することにより、該デジタルスペクトルに対応する前記インデックスを求めるベクトル量子化部と、
前記ベクトル量子化部により求められたインデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶部と、
前記ベクトル量子化部により求められたインデックスを前記ベクトル量子化部から取得するとともに、該インデックスに対応する前記フレームよりも時間的に過去の前記フレームに関連付けられて前記インデックス記憶部に記憶されているインデックスを前記インデックス記憶部から取得し、取得した両インデックスの差分を算出するインデックス差分算出部と、
前記インデックス差分算出部により算出された差分をエントロピ符号化することにより符号を生成する符号化部と、
を備える音声符号化装置。
A framing unit that divides the digital audio signal into framed digital audio signals that are digital audio signals for each frame that is a predetermined time interval;
A frequency converter that converts the frequency of the framed digital audio signal and generates a digital spectrum for each frame;
A vector quantization table composed of representative vectors identified by the attached index and having a large absolute value in ascending or descending order of the index;
A vector quantization unit that obtains the index corresponding to the digital spectrum by vector-quantizing the digital spectrum using the vector quantization table;
An index storage unit that stores the index obtained by the vector quantization unit in association with the frame corresponding to the index;
The index obtained by the vector quantization unit is acquired from the vector quantization unit, and is stored in the index storage unit in association with the frame that is temporally earlier than the frame corresponding to the index. An index difference calculation unit that acquires an index from the index storage unit and calculates a difference between the acquired indexes;
An encoding unit that generates a code by entropy encoding the difference calculated by the index difference calculation unit;
A speech encoding device comprising:
前記インデックス差分算出部は、
前記ベクトル量子化部により求められたインデックスを前記ベクトル量子化部から取得するとともに、該インデックスに対応する前記フレームの時間的に直前の前記フレームに関連付けられて前記インデックス記憶部に記憶されているインデックスを前記インデックス記憶部から取得し、取得した両インデックスの差分を算出する、
ことを特徴とする請求項1に記載の音声符号化装置。
The index difference calculation unit
The index obtained by the vector quantization unit is acquired from the vector quantization unit, and the index stored in the index storage unit in association with the frame immediately preceding the frame corresponding to the index Is calculated from the index storage unit, and the difference between the two acquired indexes is calculated.
The speech coding apparatus according to claim 1.
前記ベクトル量子化テーブルは、
大小が周波数の高低に対応する要素番号が付された座標軸を用い多次元空間の1点として表現される代表ベクトルから構成され、絶対値が等しい複数の代表ベクトルには、該複数の代表ベクトルを前記インデックスの昇順又は降順に並べた場合に、各代表ベクトルの前記座標軸に対応する成分のうち絶対値が最大の成分に対応する前記座標軸に付された前記要素番号が単調に増加するように、前記インデックスが付されている、
ことを特徴とする請求項1又は2に記載の音声符号化装置。
The vector quantization table is:
It consists of representative vectors that are expressed as one point in a multidimensional space using coordinate axes with element numbers corresponding to high and low frequencies, and for a plurality of representative vectors having the same absolute value, When arranged in ascending or descending order of the index, the element number assigned to the coordinate axis corresponding to the component having the maximum absolute value among the components corresponding to the coordinate axis of each representative vector is monotonously increased. The index is attached,
The speech encoding apparatus according to claim 1 or 2, characterized in that
前記ベクトル量子化テーブルは、
複数の帯域別テーブルを備え、
前記帯域別テーブルは、
それぞれが特定の帯域であるテーブル用帯域に関連付けられるとともに該テーブル用帯域における典型的な音声スペクトルパターンと整合する代表ベクトルから構成される、
ことを特徴とし、
前記ベクトル量子化部は、
前記デジタルスペクトルを前記テーブル用帯域と同じ又はより細分された帯域である量子化用帯域毎にベクトル量子化するとともに、前記量子化用帯域毎にベクトル量子化するに際して該量子化帯域が含まれる前記テーブル用帯域に対応する前記帯域別テーブルを用いる、
ことを特徴とする請求項1乃至3の何れか1項に記載の音声符号化装置。
The vector quantization table is:
With multiple bandwidth tables,
The band-specific table is
Each consisting of a representative vector that is associated with a table band that is a particular band and matches a typical speech spectrum pattern in the table band;
It is characterized by
The vector quantization unit includes:
The digital spectrum is vector-quantized for each quantization band that is the same as or more subdivided with the table band, and the quantization band is included when vector quantization is performed for each quantization band. Using the band-specific table corresponding to the table band,
The speech coding apparatus according to any one of claims 1 to 3, wherein
前記符号化部が生成した符号の符号長を求め、該符号長が予め設定された目標符号長以下であるか否かを判別する符号長監視部をさらに備え、
前記符号化部は、
前記符号長監視部により前記符号長が前記目標符号長より長いと判別された場合には、所定の削除用帯域に区分された前記デジタルスペクトルのうち相対的にエネルギーの低い削除用帯域に対応する部分をエントロピ符号化の対象から除外した後に再びエントロピ符号化する、
ことを特徴とする請求項1乃至4の何れか1項に記載の音声符号化装置。
A code length monitoring unit for obtaining a code length of the code generated by the encoding unit and determining whether the code length is equal to or less than a preset target code length;
The encoding unit includes:
When the code length monitoring unit determines that the code length is longer than the target code length, it corresponds to a deletion band with relatively low energy in the digital spectrum divided into predetermined deletion bands. Entropy coding again after excluding the part from entropy coding,
The speech coding apparatus according to any one of claims 1 to 4, wherein the speech coding apparatus is characterized in that:
前記周波数変換部は、
前記フレーム化デジタル信号を変形離散コサイン変換して、前記フレーム毎に前記デジタルスペクトルを生成する、
ことを特徴とする請求項1乃至5の何れか1項に記載の音声符号化装置。
The frequency converter is
Transforming the framed digital signal into a modified discrete cosine transform to generate the digital spectrum for each frame;
The speech encoding apparatus according to claim 1, wherein the speech encoding apparatus is a part of the speech encoding apparatus.
所定の時間区間であるフレームのうちのひとつである現フレームに属しデジタル音声信号から生成されたデジタルスペクトルと該現フレームよりも時間的に過去のフレームに属するデジタルスペクトルとに、付されたインデックスにより相互に識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いたベクトル量子化が施された結果、それぞれのデジタルスペクトルを特徴付ける値として得られた前記インデックスから算出されるインデックス同士の差分が該現フレームに対応する量としてエントロピ符号化されたデータから、該差分を復号する復号部と、
前記インデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶部と、
前記フレームに対応する前記インデックスを、前記復号部により該フレームに対応する量として復号された前記差分を該フレームよりも時間的に過去のフレームに関連付けられて前記インデックス記憶部に記憶されているインデックスに加算することにより求めるインデックス算出部と、
前記ベクトル量子化テーブルと、
前記インデックス算出部により求められたインデックスに対応する前記代表ベクトルを前記ベクトル量子化テーブルから検索し検索した代表ベクトルを用いて前記デジタルスペクトルを近似的に復元する逆ベクトル量子化部と、
前記逆ベクトル量子化部が復元したデジタルスペクトルを周波数逆変換して該デジタルスペクトルが属する前記フレームに属するデジタル音声信号を復元する周波数逆変換部と、
を備える音声復号装置。
According to an index attached to a digital spectrum belonging to a current frame that is one of frames in a predetermined time interval and generated from a digital audio signal and to a digital spectrum belonging to a frame that is earlier in time than the current frame As a result of performing vector quantization using a vector quantization table composed of representative vectors that are distinguished from each other and that have a large absolute value in ascending or descending order of the index, the values obtained as values that characterize each digital spectrum are obtained. A decoding unit that decodes the difference from data entropy-encoded as an amount corresponding to the current frame in which the difference between the indexes calculated from the index is;
An index storage unit for storing the index in association with the frame corresponding to the index;
The index corresponding to the frame, the difference decoded as an amount corresponding to the frame by the decoding unit, the index stored in the index storage unit in association with a frame that is temporally earlier than the frame An index calculation unit obtained by adding to
The vector quantization table;
An inverse vector quantization unit that approximately restores the digital spectrum by using the representative vector retrieved from the vector quantization table by searching the representative vector corresponding to the index obtained by the index calculation unit;
A frequency inverse transform unit for performing frequency inverse transform on the digital spectrum restored by the inverse vector quantization unit to restore a digital audio signal belonging to the frame to which the digital spectrum belongs;
A speech decoding apparatus comprising:
デジタル音声信号を、所定の時間区間であるフレーム毎のデジタル音声信号であるフレーム化デジタル音声信号に分割するフレーム化ステップと、
前記フレーム化デジタル音声信号を周波数変換して、前記フレーム毎にデジタルスペクトルを生成する周波数変換ステップと、
付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いて前記デジタルスペクトルをベクトル量子化することにより、該デジタルスペクトルに対応する前記インデックスを求めるベクトル量子化ステップと、
前記ベクトル量子ステップにより求められたインデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶ステップと、
前記ベクトル量子化ステップにより求められたインデックスを前記ベクトル量子化ステップから取得するとともに、該インデックスに対応する前記フレームよりも時間的に過去の前記フレームに関連付けられて過去の前記インデックス記憶ステップで記憶したインデックスを取得し、取得した両インデックスの差分を算出するインデックス差分算出ステップと、
前記インデックス差分算出ステップにより算出された差分をエントロピ符号化することにより符号を生成する符号化ステップと、
から構成される音声符号化方法。
A framing step of dividing the digital audio signal into framed digital audio signals that are digital audio signals for each frame that is a predetermined time interval;
A frequency conversion step of frequency-converting the framed digital audio signal to generate a digital spectrum for each frame;
The digital spectrum is vector-quantized using a vector quantization table that is configured by a representative vector that is identified by the attached index and that has a large absolute value in ascending or descending order of the index, thereby corresponding to the digital spectrum. A vector quantization step to find the index;
An index storing step for storing the index obtained by the vector quantum step in association with the frame corresponding to the index;
The index obtained by the vector quantization step is acquired from the vector quantization step and stored in the past index storing step in association with the previous frame in time than the frame corresponding to the index. An index difference calculating step for acquiring an index and calculating a difference between the acquired indexes;
An encoding step for generating a code by entropy encoding the difference calculated by the index difference calculating step;
A speech encoding method comprising:
所定の時間区間であるフレームのうちのひとつである現フレームに属しデジタル音声信号から生成されたデジタルスペクトルと該現フレームよりも時間的に過去のフレームに属するデジタルスペクトルとに、付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いたベクトル量子化が施された結果、それぞれのデジタルスペクトルを特徴付ける値として得られた前記インデックスから算出されるインデックス同士の差分が該現フレームに対応する量としてエントロピ符号化されたデータから、該差分を復号する復号ステップと、
前記インデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶ステップと、
前記フレームに対応する前記インデックスを、前記復号ステップにより該フレームに対応する量として復号された前記差分を該フレームよりも時間的に過去のフレームに関連付けられて過去の前記インデックス記憶ステップで記憶したインデックスに加算することにより求めるインデックス算出ステップと、
前記インデックス算出ステップにより求められたインデックスに対応する前記代表ベクトルを前記ベクトル量子化テーブルから検索し検索した代表ベクトルを用いて前記デジタルスペクトルを近似的に復元する逆ベクトル量子化ステップと、
前記逆ベクトル量子化ステップで復元したデジタルスペクトルを周波数逆変換して該デジタルスペクトルが属する前記フレームに属するデジタル音声信号を復元する周波数逆変換ステップと、
を備える音声復号方法。
According to an index attached to a digital spectrum belonging to a current frame that is one of frames in a predetermined time interval and generated from a digital audio signal and to a digital spectrum belonging to a frame that is earlier in time than the current frame From the index obtained as a value that characterizes each digital spectrum as a result of vector quantization using a vector quantization table that is identified and composed of representative vectors having a large absolute value in ascending or descending order of the index A decoding step of decoding the difference from the data entropy-encoded as an amount corresponding to the current frame in which the difference between the calculated indexes is;
An index storing step of storing the index in association with the frame corresponding to the index;
The index corresponding to the frame is stored in the past index storing step in which the difference decoded as an amount corresponding to the frame by the decoding step is correlated with a past frame in time than the frame. An index calculation step to be obtained by adding to
An inverse vector quantization step of approximately restoring the digital spectrum by using the representative vector searched from the vector quantization table for the representative vector corresponding to the index obtained by the index calculation step;
Frequency inverse transform step for restoring the digital audio signal belonging to the frame to which the digital spectrum belongs by performing frequency inverse transform on the digital spectrum restored in the inverse vector quantization step;
A speech decoding method comprising:
コンピュータに、
デジタル音声信号を、所定の時間区間であるフレーム毎のデジタル音声信号であるフレーム化デジタル音声信号に分割するフレーム化ステップと、
前記フレーム化デジタル音声信号を周波数変換して、前記フレーム毎にデジタルスペクトルを生成する周波数変換ステップと、
付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いて前記デジタルスペクトルをベクトル量子化することにより、該デジタルスペクトルに対応する前記インデックスを求めるベクトル量子化ステップと、
前記ベクトル量子ステップにより求められたインデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶ステップと、
前記ベクトル量子化ステップにより求められたインデックスを前記ベクトル量子化ステップから取得するとともに、該インデックスに対応する前記フレームよりも時間的に過去の前記フレームに関連付けられて過去の前記インデックス記憶ステップで記憶したインデックスを取得し、取得した両インデックスの差分を算出するインデックス差分算出ステップと、
前記インデックス差分算出ステップにより算出された差分をエントロピ符号化することにより符号を生成する符号化ステップと、
を実行させるプログラム。
On the computer,
A framing step of dividing the digital audio signal into framed digital audio signals that are digital audio signals for each frame that is a predetermined time interval;
A frequency conversion step of frequency-converting the framed digital audio signal to generate a digital spectrum for each frame;
The digital spectrum is vector-quantized using a vector quantization table that is configured by a representative vector that is identified by the attached index and that has a large absolute value in ascending or descending order of the index, thereby corresponding to the digital spectrum. A vector quantization step to find the index;
An index storing step for storing the index obtained by the vector quantum step in association with the frame corresponding to the index;
The index obtained by the vector quantization step is acquired from the vector quantization step and stored in the past index storing step in association with the previous frame in time than the frame corresponding to the index. An index difference calculating step for acquiring an index and calculating a difference between the acquired indexes;
An encoding step for generating a code by entropy encoding the difference calculated by the index difference calculating step;
A program that executes
コンピュータに、
所定の時間区間であるフレームのうちのひとつである現フレームに属しデジタル音声信号から生成されたデジタルスペクトルと該現フレームよりも時間的に過去のフレームに属するデジタルスペクトルとに、付されたインデックスにより識別されかつ該インデックスの昇順又は降順に絶対値が大きい代表ベクトルから構成されるベクトル量子化テーブルを用いたベクトル量子化が施された結果、それぞれのデジタルスペクトルを特徴付ける値として得られた前記インデックスから算出されるインデックス同士の差分が該現フレームに対応する量としてエントロピ符号化されたデータから、該差分を復号する復号ステップと、
前記インデックスを、該インデックスに対応する前記フレームに関連付けて記憶するインデックス記憶ステップと、
前記フレームに対応する前記インデックスを、前記復号ステップにより該フレームに対応する量として復号された前記差分を該フレームよりも時間的に過去のフレームに関連付けられて過去の前記インデックス記憶ステップで記憶したインデックスに加算することにより求めるインデックス算出ステップと、
前記インデックス算出ステップにより求められたインデックスに対応する前記代表ベクトルを前記ベクトル量子化テーブルから検索し検索した代表ベクトルを用いて前記デジタルスペクトルを近似的に復元する逆ベクトル量子化ステップと、
前記逆ベクトル量子化ステップで復元したデジタルスペクトルを周波数逆変換して該デジタルスペクトルが属する前記フレームに属するデジタル音声信号を復元する周波数逆変換ステップと、
を実行させるプログラム。
On the computer,
According to an index attached to a digital spectrum belonging to a current frame that is one of frames in a predetermined time interval and generated from a digital audio signal and to a digital spectrum belonging to a frame that is earlier in time than the current frame From the index obtained as a value that characterizes each digital spectrum as a result of vector quantization using a vector quantization table that is identified and composed of representative vectors having a large absolute value in ascending or descending order of the index A decoding step of decoding the difference from the data entropy-encoded as an amount corresponding to the current frame in which the difference between the calculated indexes is;
An index storing step of storing the index in association with the frame corresponding to the index;
The index corresponding to the frame is stored in the past index storing step in which the difference decoded as an amount corresponding to the frame by the decoding step is correlated with a past frame in time than the frame. An index calculation step to be obtained by adding to
An inverse vector quantization step of approximately restoring the digital spectrum by using the representative vector searched from the vector quantization table for the representative vector corresponding to the index obtained by the index calculation step;
Frequency inverse transform step for restoring the digital audio signal belonging to the frame to which the digital spectrum belongs by performing frequency inverse transform on the digital spectrum restored in the inverse vector quantization step;
A program that executes
JP2007162359A 2007-06-20 2007-06-20 Speech coding apparatus, speech coding method, and program Expired - Fee Related JP5098458B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007162359A JP5098458B2 (en) 2007-06-20 2007-06-20 Speech coding apparatus, speech coding method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007162359A JP5098458B2 (en) 2007-06-20 2007-06-20 Speech coding apparatus, speech coding method, and program

Publications (2)

Publication Number Publication Date
JP2009003078A true JP2009003078A (en) 2009-01-08
JP5098458B2 JP5098458B2 (en) 2012-12-12

Family

ID=40319556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007162359A Expired - Fee Related JP5098458B2 (en) 2007-06-20 2007-06-20 Speech coding apparatus, speech coding method, and program

Country Status (1)

Country Link
JP (1) JP5098458B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130260A (en) * 1995-10-26 1997-05-16 Victor Co Of Japan Ltd Encoding device and decoding device for acoustic signal
JPH10200890A (en) * 1997-01-09 1998-07-31 Matsushita Electric Ind Co Ltd Image encoding method
JP2001249690A (en) * 2000-03-02 2001-09-14 Oki Electric Ind Co Ltd Speech recording and reproducing device
WO2002052732A1 (en) * 2000-12-22 2002-07-04 Sony Corporation Encoder and decoder
JP2005128404A (en) * 2003-10-27 2005-05-19 Casio Comput Co Ltd Speech processor and speech encoding method
WO2007011157A1 (en) * 2005-07-19 2007-01-25 Electronics And Telecommunications Research Institute Virtual source location information based channel level difference quantization and dequantization method
JP2009502086A (en) * 2005-07-19 2009-01-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Interchannel level difference quantization and inverse quantization method based on virtual sound source position information

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09130260A (en) * 1995-10-26 1997-05-16 Victor Co Of Japan Ltd Encoding device and decoding device for acoustic signal
JPH10200890A (en) * 1997-01-09 1998-07-31 Matsushita Electric Ind Co Ltd Image encoding method
JP2001249690A (en) * 2000-03-02 2001-09-14 Oki Electric Ind Co Ltd Speech recording and reproducing device
WO2002052732A1 (en) * 2000-12-22 2002-07-04 Sony Corporation Encoder and decoder
JP2005128404A (en) * 2003-10-27 2005-05-19 Casio Comput Co Ltd Speech processor and speech encoding method
WO2007011157A1 (en) * 2005-07-19 2007-01-25 Electronics And Telecommunications Research Institute Virtual source location information based channel level difference quantization and dequantization method
JP2009502086A (en) * 2005-07-19 2009-01-22 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Interchannel level difference quantization and inverse quantization method based on virtual sound source position information

Also Published As

Publication number Publication date
JP5098458B2 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
CN1942928B (en) Module and method for processing audio signals
JP6951536B2 (en) Voice coding device and method
EP2272062B1 (en) An audio signal classifier
JP4731775B2 (en) LPC harmonic vocoder with super frame structure
US7599833B2 (en) Apparatus and method for coding residual signals of audio signals into a frequency domain and apparatus and method for decoding the same
JP4606418B2 (en) Scalable encoding device, scalable decoding device, and scalable encoding method
JP6574820B2 (en) Method, encoding device, and decoding device for predicting high frequency band signals
US9830920B2 (en) Method and apparatus for polyphonic audio signal prediction in coding and networking systems
MXPA05006664A (en) Method and device for robust predictive vector quantization of linear prediction parameters in variable bit rate speech coding.
KR20070070189A (en) Sound encoder and sound encoding method
JP4978539B2 (en) Encoding apparatus, encoding method, and program.
JP3344944B2 (en) Audio signal encoding device, audio signal decoding device, audio signal encoding method, and audio signal decoding method
US20090210219A1 (en) Apparatus and method for coding and decoding residual signal
JP2001507822A (en) Encoding method of speech signal
EP1121686B1 (en) Speech parameter compression
JP5098458B2 (en) Speech coding apparatus, speech coding method, and program
Raad et al. Scalable to lossless audio compression based on perceptual set partitioning in hierarchical trees (PSPIHT)
JPH05265499A (en) High-efficiency encoding method
JP4009781B2 (en) Speech processing apparatus and speech coding method
JPH05265487A (en) High-efficiency encoding method
JP2002091497A (en) Audio signal encoding method and decoding methods, and storage medium stored with program to execute these methods
JP2712925B2 (en) Audio processing device
JP3453116B2 (en) Audio encoding method and apparatus
JP2005128401A (en) Speech processor and speech encoding method
JP2006126592A (en) Voice coding device and method, and voice decoding device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5098458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees