JP2007529021A - Fidelity optimized variable frame length coding - Google Patents
Fidelity optimized variable frame length coding Download PDFInfo
- Publication number
- JP2007529021A JP2007529021A JP2006518596A JP2006518596A JP2007529021A JP 2007529021 A JP2007529021 A JP 2007529021A JP 2006518596 A JP2006518596 A JP 2006518596A JP 2006518596 A JP2006518596 A JP 2006518596A JP 2007529021 A JP2007529021 A JP 2007529021A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- encoding
- sub
- mono
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 84
- 230000005236 sound signal Effects 0.000 claims abstract description 15
- 230000003595 spectral effect Effects 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 8
- 230000002159 abnormal effect Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000003090 exacerbative effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 1
- 229920002554 vinyl polymer Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
Abstract
Description
本発明は、オーディオ信号の符号化に関し、特に、マルチチャネル・オーディオ信号の符号化に関する。 The present invention relates to encoding audio signals, and more particularly to encoding multi-channel audio signals.
高いオーディオ品質を維持しつつ低ビットレートでオーディオ信号を送信あるいは記憶することは、市場の高い要求である。具体的には、送信リソースや記憶装置に制約がある場合、低ビットレート動作が本質的なコスト要因となる。これは、たとえば、GSM、UMTS、CDMAなどのモバイル通信システムにおけるストリーミングおよびメッセージングの応用分野では一般的な認識である。 There is a high market demand for transmitting or storing audio signals at a low bit rate while maintaining high audio quality. Specifically, when there are restrictions on transmission resources and storage devices, low bit rate operation is an essential cost factor. This is a common recognition in streaming and messaging applications in mobile communication systems such as GSM, UMTS, CDMA, for example.
現在のところ、モバイル通信システムに利用されうる標準化されたコーデックで、経済的に関心を引くビットレートにてステレオの高いオーディオ品質を提供するものは存在しない。いまあるコーデックで可能なのは、オーディオ信号のモノラル送信である。ステレオ送信もある程度までは利用可能である。しかしビットレートの制約により、非常に限定されたステレオ表現をせざるをえないのが現状である。 At present, there are no standardized codecs that can be used in mobile communication systems that provide high stereo audio quality at economically interesting bit rates. What is possible with the current codec is mono transmission of audio signals. Stereo transmission is also available to some extent. However, due to bit rate restrictions, the current situation is that very limited stereo representations are unavoidable.
オーディオ信号のステレオ符号化またはマルチチャネル符号化の最も簡単な方式は、異なるチャネルの信号を個々の独立な信号として別々に符号化することである。ステレオFM無線送信において使用され、従来からのモノラル無線受信機との共存を図った他の基本的な方式は、2チャネルの和信号および差信号を送信するというものである。 The simplest method of stereo encoding or multi-channel encoding of an audio signal is to separately encode signals of different channels as individual independent signals. Another basic method used in stereo FM radio transmission and coexisting with a conventional monaural radio receiver is to transmit two-channel sum and difference signals.
MPEG−1/2レイヤIIIおよびMPEG−2/4 AACなどの現在のオーディオコーデックは、いわゆるジョイント・ステレオ符号化(joint stereo coding)を使用する。この方法によれば、異なるチャネルの信号は、別々および個々にではなく、共同して処理される。2つの最も一般的に使用されるジョイント・ステレオ符号化方法は、「Mid/Side」(M/S)ステレオ符号化("Mid/Side" (M/S) stereo coding)およびインテンシティ・ステレオ符号化(intensity stereo coding)として知られ、これらは一般に、符号化されるステレオ信号またはマルチチャネル信号のサブバンドに対して適用される。 Current audio codecs such as MPEG-1 / 2 Layer III and MPEG-2 / 4 AAC use so-called joint stereo coding. According to this method, the signals of different channels are processed jointly rather than separately and individually. The two most commonly used joint stereo coding methods are “Mid / Side” (M / S) stereo coding and intensity stereo coding. Known as intensity stereo coding, these are generally applied to the subbands of the stereo signal or multichannel signal to be encoded.
M/Sステレオ符号化は、チャネル・サブバンドの和信号と差信号を符号化して送信し、それにより、チャネル・サブバンド間の冗長性を利用するという意味では、ステレオFM無線において記述される手順と同様である。M/Sステレオ符号化に基づくエンコーダの構造および動作は、たとえば J. D. ジョンストン(Johnston)による米国特許第5285498号に記載されている。 M / S stereo coding is described in stereo FM radio in the sense that it encodes and transmits the sum and difference signals of the channel sub-bands, thereby exploiting the redundancy between the channel and sub-bands. The procedure is the same. The structure and operation of an encoder based on M / S stereo coding is described, for example, in US Pat. No. 5,285,498 by J. D. Johnston.
一方、インテンシティ・ステレオは、ステレオの非関連性を利用することができる。これは、強度がチャネルの中にどのように分布しているかを示すいくつかの位置情報と共に、(異なるサブバンドの)チャネルの結合強度を伝送する。インテンシティ・ステレオは、チャネルのスペクトル振幅情報のみを出力する。位相情報は、伝達されない。この理由および、時間チャネル間情報(より具体的にはチャネル間時間差)がとりわけ低い周波数において主要な音響心理学的関連性を呈するという理由により、インテンシティ・ステレオは、たとえば2kHzより高い周波数においてのみ使用することができる。インテンシティ・ステレオ符号化法は、たとえば、R. ヴェルデュイ(Veldhuis)らによる欧州特許第0497413号に記載されている。 On the other hand, intensity stereo can take advantage of stereo independence. This transmits the combined strength of the channels (in different subbands) along with some position information indicating how the strength is distributed in the channel. Intensity stereo outputs only the spectral amplitude information of the channel. Phase information is not transmitted. For this reason and because time-channel information (more specifically, channel-to-channel time difference) exhibits a major psychoacoustic relevance especially at low frequencies, intensity stereo is only at frequencies above 2 kHz, for example. Can be used. Intensity stereo coding is described, for example, in European Patent No. 0497413 by R. Veldhuis et al.
最近開発されたステレオ符号化法が、たとえば、C. フォーラー (Faller) らによる名称「Binaural cue coding applied to stereo and multi channel audio compression」(第112回AES会議、2002年5月、ドイツ、ミュンヘンの会議文献)に記載されている。この方法は、パラメトリック・マルチチャネル・オーディオ符号化法である。基本的な原理は、符号化側において、Nチャネルc1、c2、・・・、cNからの入力信号が、単一のモノラル信号(mono signal)mに組み合わされるものである。モノラル信号は、任意の従来のモノラル・オーディオ・コーデックを使用してオーディオ符号化される。並行して、パラメータが、マルチチャネル像を記述するチャネル信号から導出される。パラメータは符号化され、オーディオ・ビット・ストリームと共に復号化器に送信される。復号化器は、まず、モノラル信号m’を復号化し、次いで、マルチチャネル像のパラメータ記述に基づいてチャネル信号c1’、c2’、・・・、cN’を再生成する。 A recently developed stereo coding method is, for example, the name “Binaural cue coding applied to stereo and multi channel audio compression” by C. Faller et al. (Conference Literature). This method is a parametric multi-channel audio coding method. The basic principle is that on the encoding side, the input signals from the N channels c1, c2,..., CN are combined into a single mono signal m. The mono signal is audio encoded using any conventional mono audio codec. In parallel, parameters are derived from the channel signal that describes the multi-channel image. The parameters are encoded and sent to the decoder along with the audio bit stream. The decoder first decodes the monaural signal m 'and then regenerates the channel signals c1', c2 ', ..., cN' based on the parameter description of the multichannel image.
バイノーラル・キュー符号化(BCC)方法の原理は、符号化されたモノラル信号およびいわゆるBCCパラメータを送信する。BCCパラメータは、元のマルチチャネル入力信号のサブバンドについて、コード化されたチャネル間レベル差およびチャネル間時間差の情報を有する。復号化器は、BCCパラメータに基づいてモノラル信号のサブバンド・レベルおよび位相調節を適用することによって、差チャネル信号を再生成する。M/Sまたはインテンシティ・ステレオなどに対する利点は、時間チャネル間情報を備えるステレオ情報が、はるかにより低いビットレートで送信されることである。しかし、この技法は、符号化器および復号化器の両方において、チャネルの各々について計算が厄介な時間周波数変換を必要とする。 The principle of the binaural cue coding (BCC) method transmits an encoded mono signal and so-called BCC parameters. The BCC parameters have coded inter-channel level difference and inter-channel time difference information for the subbands of the original multi-channel input signal. The decoder regenerates the difference channel signal by applying the subband level and phase adjustment of the mono signal based on the BCC parameters. An advantage over M / S or intensity stereo etc. is that stereo information with time channel information is transmitted at a much lower bit rate. However, this technique requires a time-frequency transform that is cumbersome to compute for each of the channels in both the encoder and the decoder.
さらに、BCCは、特に低周波数において多くのステレオ情報が拡散する、すなわち、任意の特定の方向からは来ないということに対処していない。ステレオ記録の両チャネルには拡散音場が存在するが、互いに関して位相は大きくずれている。BCCなどのアルゴリズムが、大量の拡散音場を有する記録の影響下にある場合、再生成されたステレオ像は混信し、BCCアルゴリズムは特定の周波数帯域の信号を左または右のみにしかパンすることができないので、左から右にジャンプする。 Furthermore, BCC does not deal with the fact that a lot of stereo information is spread, i.e. not coming from any particular direction, especially at low frequencies. A diffuse sound field exists in both channels of stereo recording, but the phases are greatly shifted with respect to each other. If an algorithm such as BCC is under the influence of a recording with a large amount of diffuse sound field, the regenerated stereo image will interfere and the BCC algorithm will only pan a signal in a particular frequency band to the left or right Jump from left to right.
ステレオ信号を符号化し、かつ拡散音場の良好な再生成を図った一手段としては、FMステレオ放送において使用される技法と非常に類似な符号化方式を使用する、すなわち、モノ(左+右)信号および差(左−右)信号を別々に符号化するものがある。 One way to encode a stereo signal and to achieve a good reproduction of the diffuse sound field is to use a coding scheme very similar to the technique used in FM stereo broadcasting, ie mono (left + right) Some encode the signal and the difference (left-right) signal separately.
C. E. ホルト(Holt)らによる米国特許第5434948号に記載されている技法は、モノラル信号および副情報を符号化するために、BCCと同様の技法を使用する。この場合、副情報は、予測フィルタおよびオプションで残差信号からなる。予測フィルタでは、Least-Mean-Squareアルゴリズムによって評価が行われ、モノラル信号に適用される場合にはマルチチャネル・オーディオ信号の予測が可能である。この技法により、マルチチャネル音源に対して非常に低いビットレート符号化を実現することができるが、以下でさらに議論されるように、品質の低下を伴うことになる。 The technique described in US Pat. No. 5,434,948 by C. E. Holt et al. Uses a technique similar to BCC to encode mono signals and side information. In this case, the sub information consists of a prediction filter and optionally a residual signal. In the prediction filter, evaluation is performed by a Least-Mean-Square algorithm, and when applied to a monaural signal, a multi-channel audio signal can be predicted. This technique can achieve very low bit rate coding for multi-channel sound sources, but with a loss of quality, as discussed further below.
最後に、完全を期すべく、3Dオーディオについて使用される技法について説明しておく。この技法は、いわゆるヘッド関係フィルタ (head-related filters) で音源信号をフィルタリングすることによって、右チャネル信号と左チャネル信号とを合成する。しかし、この技法は、異なる音源信号が分離されることを必要とし、したがって一般に、ステレオまたはマルチチャネル符号化に適用することができない。 Finally, for completeness, the techniques used for 3D audio are described. This technique combines a right channel signal and a left channel signal by filtering the sound source signal with so-called head-related filters. However, this technique requires that different sound source signals be separated and is therefore generally not applicable to stereo or multi-channel coding.
(概要)
具体的には主信号および1または2以上の副信号である信号のフレームの符号化に基づく既存の符号化方式に付随する問題は、オーディオ情報をフレームに分割することにより、不快な異音(perceptual artefacts)が生じる可能性があることである。比較的長い持続時間のフレームに情報を分割することにより、一般には、平均ビットレートが低減される。これは、たとえば、大量の拡散音を含む音楽には有益であろう。しかし、一時的な音量豊かな音楽や音声では、細かな時間変化はフレーム持続時間にわたって不鮮明になるので、ゴースト性の音、さらにはプリエコーの問題が生じる。フレーム長を短くして符号化すれば、逆に、音をより精密に表現でき、エネルギを最小限に抑えるが、送信ビットレートが高くなり、かつ、演算量も多くなってしまう。したがって、フレーム長を非常に短くしても、符号化効率は低下する可能性がある。また、フレーム境界が増加することにより符号化パラメータの不連続性が生じる可能性もあり、これが異音として知覚される可能性がある。
(Overview)
Specifically, problems associated with existing coding schemes based on the coding of a main signal and one or more sub-signal signals are the division of audio information into frames, resulting in unpleasant noise ( perceptual artefacts) can occur. By dividing the information into frames of relatively long duration, the average bit rate is generally reduced. This may be useful, for example, for music that contains a large amount of diffuse sound. However, in temporary music and voice with a high volume, fine temporal changes become unclear over the frame duration, resulting in ghostly sound and pre-echo problems. If encoding is performed with a shorter frame length, on the contrary, sound can be expressed more precisely and energy is minimized, but the transmission bit rate is increased and the amount of calculation is increased. Therefore, even if the frame length is very short, the encoding efficiency may be reduced. In addition, the discontinuity of the encoding parameter may occur due to an increase in the frame boundary, and this may be perceived as an abnormal sound.
主信号および1または2以上の副信号の符号化に基づく方式に付随する他の問題は、演算量の増大を招くことである。具体的には、短いフレームが使用される場合に、フレームごとにパラメータの不連続性に対処することは複雑なタスクである。長いフレームが使用される場兄は、一時的な音の評価誤差により、非常に大きな副信号が生じる可能性があり、これは、送信レートに対する要求を増大させることになる。 Another problem associated with schemes based on the encoding of the main signal and one or more sub-signals is an increase in computational complexity. Specifically, when short frames are used, dealing with parameter discontinuities from frame to frame is a complex task. If a long frame is used, a very large sub-signal may be generated due to a temporary sound evaluation error, which increases the demand for transmission rate.
したがって、本発明の目的は、マルチチャネル・オーディオ信号の聴感品質を向上させることができる符号化方法および装置を提供することであり、特に、プリエコー、ゴースト音、あるいはフレーム不連続などによる異音を回避することである。本発明の他の目的は、必要な処理電力がより小さく、かつより一定な送信ビットレートを有する符号化方法および装置を提供することである。 Accordingly, an object of the present invention is to provide an encoding method and apparatus capable of improving the audible quality of a multi-channel audio signal. It is to avoid. Another object of the present invention is to provide an encoding method and apparatus that requires less processing power and has a more constant transmission bit rate.
上記の目的は、添付の特許請求の範囲による方法および装置によって達成される。一般的には、ポリフォニック信号(polyphonic signals)が、典型的にはモノラル信号である主信号、および副信号を生成するために使用される。主信号は、従来技術の符号化原理に従って符号化される。副信号を符号化するいくつかの方式が提供される。各符号化方式は、異なる長さの1セットのサブフレームを特徴とする。サブフレームの全長は、符号化方式の符号化フレームの長さに対応する。サブフレームのセットは、少なくとも1つのサブフレームを有する。副信号について使用される符号化方式は、ポリフォニック信号の現在の信号内容に少なくとも部分的に依存して選択される。 The above objective is accomplished by a method and device according to the appended claims. In general, polyphonic signals are used to generate a main signal and a sub-signal, which are typically monaural signals. The main signal is encoded according to the encoding principle of the prior art. Several schemes are provided for encoding the side signals. Each coding scheme is characterized by a set of subframes of different lengths. The total length of the subframe corresponds to the length of the encoding frame of the encoding scheme. The set of subframes has at least one subframe. The coding scheme used for the sub-signal is selected depending at least in part on the current signal content of the polyphonic signal.
一実施形態では、その選択は、信号特徴分析に基づいて、符号化の前に行われる。他の実施形態では、副信号は、符号化方式の各々によって符号化され、符号化の品質の測定に基づいて、最適な符号化方式が選択される。 In one embodiment, the selection is made prior to encoding based on signal feature analysis. In other embodiments, the sub-signal is encoded by each of the encoding schemes, and an optimal encoding scheme is selected based on a measurement of the encoding quality.
好適な実施形態では、副残差信号が、バランス係数でスケーリングされた副信号と主信号との差として生成される。バランス係数は、副残差信号を最小にすように選択される。最適化された副残差信号およびバランス係数は符号化され、副信号を表すパラメータとして提供される。復号化器側においては、バランス係数、副残差信号、および主信号を用いて、副信号を回復する。 In the preferred embodiment, the sub-residual signal is generated as the difference between the sub-signal scaled by the balance factor and the main signal. The balance factor is selected to minimize the secondary residual signal. The optimized sub-residual signal and balance factor are encoded and provided as parameters representing the sub-signal. On the decoder side, the sub-signal is recovered using the balance coefficient, the sub-residual signal, and the main signal.
他の好適な実施形態では、副信号の符号化は、プリエコーの影響を回避するために、等エネルギ曲線スケーリングを有する。さらに、異なる符号化方式は、別々のサブフレームについて異なる符号化手順を有することが可能である。 In other preferred embodiments, the sub-signal encoding has iso-energy curve scaling to avoid pre-echo effects. Furthermore, different coding schemes can have different coding procedures for different subframes.
本発明の主な利点は、オーディオ信号の聴感上の品質が改善されることである。さらに、本発明により、非常に低いビットレートにおけるマルチチャネル信号送信が可能となる。 The main advantage of the present invention is that the audible quality of the audio signal is improved. Furthermore, the present invention enables multi-channel signal transmission at very low bit rates.
(詳細な説明)
図1は、本発明の好適な実施形態に係る典型的なシステム1を示す図である。送信機10は、無線信号5を受信機20に送信することができるように、関連するハードウエアおよびソフトウエアを含むアンテナ12を備える。送信機10は、とりわけマルチチャネル符号化器14を備え、これは、いくつかの入力チャネル16の信号を無線送信に適切な出力信号に変換する。適切なマルチチャネル符号化器14の例については、後ほど詳細に説明する。入力チャネル16の信号は、たとえば、録音に係るディジタル表現のデータファイル、磁気テープ、あるいはオーディオのビニル・ディスク記録など、オーディオ信号記憶装置18から提供を受けることが可能である。入力チャネル16の信号は、たとえば、1セットのマクロフォン19から「ライブ」で提供されてもよい。オーディオ信号がすでにディジタル形式ではない場合には、マルチチャネル符号化器14に入る前にディジタル化される。
(Detailed explanation)
FIG. 1 is a diagram illustrating an
受信機20側では、関連するハードウエアおよびソフトウエアを有するアンテナ22が、ポリフォニック・オーディオ信号を表す無線信号5の実際の受信に対処する。ここでは、たとえばエラー訂正などの通常の機能が実施される。復号化器24が、受信された無線信号5を復号化し、それにより、搬送されたオーディオデータをいくつかの出力チャネル26の信号に変換する。出力信号は、たとえば、直ちに出力するためにスピーカ29に提供することができ、あるいは、任意の種類のオーディオ信号記憶装置28に記憶することができる。
On the
システム1は、たとえば、電話会議システム、音声サービスあるいはその他のオーディオアプリケーションを提供するためのシステムでありうる。たとえば電話会議システムなどのいくつかのシステムでは、通信は、二重伝送方式でなければならず、一方、サービス・プロバイダから加入者への楽音の配信などは、基本的には一方向性伝送方式でよい。送信機10から受信機20への信号の送信は、異なる種類の電磁波、ケーブル、またはファイバ、あるいはその組合せによってなど、任意の他の手段によって実施することもできる。
The
図2aは、本発明による符号化器の一実施形態を示す。この実施形態では、ポリフォニック信号は、入力16Aおよび16Bにおいてそれぞれ受信される2つのチャネルaおよびbを備えるステレオ信号である。チャネルaおよびbの信号は、前処理部32に出力され、そこで異なる信号調整処理を適用することが可能である。前処理部32の出力からの(おそらくは修正された)信号は、加算器34において加算される。この加算器34は、2で加算結果を除算することも行う。このように生成される信号Xmonoは、ステレオ信号の主信号であるが、その理由は、これは、両チャネルからのすべてのデータを基本的に有するからである。したがって、本実施形態では、主信号は純粋な「モノラル」信号を表す。主信号Xmonoは、任意の適切な符号化原理に従って主信号を符号化する主信号符号化部38に提供される。その原理については従来技術を適用可能であるから、本明細書では説明を省略する。主信号符号化部38は、主信号を表す符号化パラメータである出力信号pmonoを出力する。
FIG. 2a shows an embodiment of an encoder according to the invention. In this embodiment, the polyphonic signal is a stereo signal with two channels a and b received at
減算器36において、チャネル信号の差(2で除算される)が、副信号xsideとして提供される。本実施形態では、副信号はステレオ信号の2チャネル間の差を表す。副信号xsideは、副信号符号化部30に提供される。副信号符号化部30の好適な実施形態を以下でさらに説明する。以下で詳しく説明する副信号符号化手順によれば、副信号xsideは、副信号xsideを表す符号化パラメータpsideに変換される。ある実施形態では、この符号化は主信号xmonoの情報も使用して行われる。矢印42は、そのような提供を示し、元の符号化されていない主信号xmonoが使用される。他の実施形態では、副信号符号化部30において使用される主信号情報は、破線44によって示されるように、主信号を表す符号化パラメータpmonoから推測することができる。
In the
主信号xmonoを表す符号化パラメータpmonoは第1出力信号であり、副信号xsideを表す符号化パラメータpsideは第2出力信号である。通常の場合、これら2つの出力信号pmono、psideは、共に完全ステレオ音を表し、マルチプレクサ40で1つの送信信号52に多重化される。しかし、他の実施形態では、第1出力信号pmonoおよび第2出力信号psideの送信は、別々に行われることが可能である。
Encoding parameters p mono representing the main signal x mono is a first output signal, encoded parameters p side representing the side signal x side is a second output signal. In a normal case, these two output signals p mono and p side both represent perfect stereo sound and are multiplexed into one
図2bには、本発明による復号化器24の一実施形態が、ブロック図にて示されている。受信信号54は、主信号情報および副信号情報を表す符号化パラメータを含み、第1入力信号および第2入力信号をそれぞれ分離するデマルチプレクサ56に出力される。第1入力信号は、主信号の符号化パラメータpmonoに対応し、主信号復号化部64に提供される。従来方式では、主信号を表す符号化パラメータpmonoは、符号化器14(図2a)の主信号xmono(図2a)と可能な限り同様であるように復号された主信号x"monoを生成するために使用される。
In FIG. 2b, an embodiment of a
同様に、副信号に対応する第2入力信号は、副信号復号化部60に供給される。ここで、副信号を表す符号化パラメータpsideは、復号された副信号x"sideを回復するために使用される。いくつかの実施形態では、符号化手順は、矢印65によって示されるように、主信号x"monoに関する情報を使用する。
Similarly, the second input signal corresponding to the sub signal is supplied to the sub
復号された主信号x"monoおよび復号された副信号x"sideは、加算器70に供給される。加算器70は、チャネルaの元の信号の表示である出力信号を出力する。同様に、減算器68によって供給される差が、チャネルbの元の信号の表示である出力信号を出力する。これらのチャネル信号は、従来技術の信号処理手順に従って、後処理部74において後処理されることが可能である。最後に、チャネル信号aおよびbは、復号化器の信号出力26Aおよび26Bより出力される。
The decoded main signal x ″ mono and the decoded sub signal x ″ side are supplied to the
概要において述べたように、符号化は基本的に1フレームごとに実行される。フレームは所定時間のオーディオサンプルを有する。図3aの下方部分において、持続時間LのフレームSF2が示されている。ハッチなし部分内のオーディオサンプルは、一緒に符号化される。その先行サンプルおよび後続サンプルは、他のフレームにおいて符号化される。サンプルをフレームに分割することにより、あらゆる場合において、いくつかの不連続性がフレーム境界に生じることになる。音が変化すれば符号化パラメータも変化する。この符号化パラメータの変化は基本的には各フレーム境界ですることになる。これにより、聴感エラーが生じる。これをある程度補償する1つの方式は、符号化されるサンプルだけでなく、ハッチ部分によって示されるように、フレームの境界近傍にあるサンプルにも基づいて符号化することである。そうすることで、異なるフレーム間の移行がより柔軟になる。その代わりに、あるいはその補完として、フレーム境界によって生じる異音を低減するために、補間手法が使用されることもある。しかし、それらの処理はいずれも、大量の追加的な演算量を必要とし、符号化方式によっては、いかなるリソースをもってしても実現困難である可能性もある。 As described in the overview, encoding is basically performed frame by frame. A frame has audio samples for a predetermined time. In the lower part of FIG. 3a, a frame SF2 of duration L is shown. Audio samples within the unhatched part are encoded together. The preceding and subsequent samples are encoded in other frames. By dividing the sample into frames, in some cases, some discontinuities will occur at the frame boundaries. If the sound changes, the encoding parameter also changes. The change of the encoding parameter is basically at each frame boundary. This causes an auditory error. One way to compensate for this to some extent is to encode based not only on the samples to be encoded, but also on samples near the boundaries of the frame, as indicated by the hatched portion. By doing so, the transition between different frames becomes more flexible. Alternatively, or as a complement to it, interpolation techniques may be used to reduce abnormal noise caused by frame boundaries. However, each of these processes requires a large amount of additional calculation, and depending on the encoding method, it may be difficult to realize with any resource.
この観点からは、なるべく長いフレームを使用することが望ましいといえる。その理由は、フレーム境界の数が少なくなるからである。また、一般には符号化効率が高くなり、必要な送信ビットレートが最小限になる。しかし、フレーム長を長くすると、プリエコーによる異音やゴースト音が知覚されるという問題が生じる。 From this point of view, it is desirable to use a frame that is as long as possible. The reason is that the number of frame boundaries is reduced. In general, the coding efficiency is increased and the required transmission bit rate is minimized. However, when the frame length is increased, there arises a problem that abnormal sound or ghost sound due to pre-echo is perceived.
代わりに、L/2およびL/4の持続時間をそれぞれ有するSF1またはさらにはSF0などのより短いフレームを使用すると、符号化効率が低下し送信ビットレートが大きくなる可能性があり、しかも、フレーム境界異音の問題が増大することは、当業者には理解されよう。しかし、フレーム長を短くすれば、たとえばゴースト音やプリエコーによる異音による悪影響は小さくなる。符号化誤差を可能な限り最小限に抑えられるように、なるべく短いフレーム長を使用するべきである。 Instead, using shorter frames such as SF1 or even SF0 with durations of L / 2 and L / 4, respectively, can reduce coding efficiency and increase the transmission bit rate, and Those skilled in the art will appreciate that the problem of boundary noise increases. However, if the frame length is shortened, for example, an adverse effect due to abnormal sound due to ghost sound or pre-echo is reduced. As short a frame length as possible should be used so that coding errors are minimized as much as possible.
本発明によれば、現在の信号内容に依存した、副信号を符号化するフレーム長を使用することによって、オーディオ聴感品質が改善される。フレーム長が異なることのオーディオ聴感品質への影響は符号化される音の性質に応じて異なるので、信号自体の性質が使用フレーム長に影響を与えるようにすることによって改善することができる。主信号の符号化は、本発明の目的ではないので、詳細な説明は省略する。しかし、主信号に使用されるフレーム長は、副信号に使用されるフレーム長と等しくしてもよいし、等しくしなくてもよい。 According to the present invention, the audio audibility quality is improved by using the frame length for encoding the sub-signal depending on the current signal content. Since the influence of the frame length on the audio audibility quality differs depending on the nature of the sound to be encoded, it can be improved by making the nature of the signal itself affect the frame length used. Since the encoding of the main signal is not the object of the present invention, a detailed description is omitted. However, the frame length used for the main signal may or may not be equal to the frame length used for the sub-signal.
いくつかのケースでは、時間変化が小さいために比較的長いフレームを使用して副信号を符号化することが有益な場合がある。コンサートの録音など、大量の拡散音場を有する記録がこのケースにあたる。ステレオのスピーチ会話などの場合には、短いフレームが好ましいであろう。どのフレーム長が好ましいかは、2つの基本的な方式で決定することができる。 In some cases, it may be beneficial to encode the sub-signal using a relatively long frame because of the small temporal variation. This is the case for recordings with a large amount of diffuse sound field, such as recordings of concerts. For frames such as stereo speech, a short frame may be preferred. Which frame length is preferred can be determined in two basic ways.
本発明による副信号符号化部30の一実施形態が、図3bに示されており、閉ループ決定が使用される。ここでは、長さLの基本的な符号化フレームが使用される。サブフレーム90のセット80を特徴とするいくつかの符号化方式81が提供される。サブフレーム90のセット80のそれぞれは、等しいまたは異なる長さの1または2以上のサブフレーム90を有する。しかし、サブフレーム90のセット80の全長は、基本的な符号化フレーム長Lに常に等しい。図3bを参照すると、一番上の符号化方式は、長さLの1つのサブフレームのみを備える1セットのサブフレームを特徴とする。次のサブフレームのセットは、長さL/2の2つのフレームを備える。第3のセットは、長さL/4の2つのフレームを備え、これにL/2のフレームが続く。
One embodiment of the
副信号符号化部30に供給される信号xsideは、すべての符号化方式81によって符号化される。一番上の符号化方式では、基本符号化フレーム全体が符号化される。しかし、他の符号化方式では、信号xsideは、各サブフレームにおいて別々に符号化される。各符号化方式の結果は、セレクタ85に供給される。忠実度測定手段83は、符号化信号のそれぞれについて忠実度尺度を計算する。忠実度尺度は客観的品質値であり、信号対雑音尺度あるいは重み付け信号対雑音比であることが好ましい。各符号化方式に関連付けられる忠実度尺度が比較され、その結果に応じてスイッチング手段87を制御して、最適な忠実度尺度が得られる符号化方式からの副信号を表す符号化パラメータを、副信号符号化部30から出力信号psideとして選択する。
The signal x side supplied to the sub
とりうるフレーム長のすべての組み合せを試して、信号対雑音比など、最適な客観的品質が得られるサブフレームのセットを選択することが好ましい。 It is preferable to try all combinations of possible frame lengths and select a set of subframes that provide the best objective quality, such as signal-to-noise ratio.
本実施形態では、使用されるサブフレームの長さは、次式に従い選択される。 In the present embodiment, the length of the subframe to be used is selected according to the following equation.
lsf=lf/2n l sf = l f / 2 n
ただし、lsfはサブフレームの長さ、lfは符号化フレームの長さ、nは整数である。本実施形態では、nは、0から3の間において選択される。しかし、セットの全長が一定に維持される限り、任意のフレームの長を使用することが可能である。 Here, l sf is the length of the subframe, l f is the length of the encoded frame, and n is an integer. In the present embodiment, n is selected between 0 and 3. However, any frame length can be used as long as the total length of the set is kept constant.
図3cにおいて、本発明による副信号符号化部30の他の実施形態が示されている。ここで、フレーム長の決定は、信号の統計に基づく開ループ決定である。すなわち、副信号のスペクトル特性は、どの符号化方式が使用されるかを決定する基礎として使用される。先述と同様に、異なるサブフレームのセットによって特徴付けられる異なる符号化方式が利用可能である。しかし、この実施形態では、セレクタ85は、実際の符号化の前に配置される。入力副信号xsideは、セレクタ85および信号分析部84に入力される。分析の結果はスイッチ86の入力となり、符号化方式81の1つのみが使用される。その符号化方式からの出力は、副信号符号化部30からの出力信号psideでもある。
In FIG. 3c, another embodiment of the
開ループ決定の利点は、唯一の実際の符号化が実施されることである。しかし、欠点は、信号特性の分析が非常に複雑となる可能性があり、また、スイッチ86において適切な選択肢を与えることができるようになる前に、とりうる振る舞いを予測することが困難である可能性があることである。信号分析部84は多くの音声統計分析を実行する必要がある。符号化方式のあらゆる些少な変化が、統計的振る舞いを混乱させる可能性がある。
The advantage of an open loop decision is that only one actual encoding is performed. However, the disadvantage is that the analysis of signal characteristics can be very complex and it is difficult to predict possible behavior before the
閉ループ選択を使用することによって(図3b)、後続のユニットに変化を与えずに符号化方式を変更することが可能である。一方、多くの符号化方式が調査される場合には、演算量が多くなる。 By using closed loop selection (FIG. 3b), it is possible to change the coding scheme without changing the subsequent units. On the other hand, when many encoding methods are investigated, the amount of calculation increases.
以上のような副信号の可変フレーム長符号化の利点は、微細な時間分解能かつ粗い周波数分解能を選択できる一方、粗い時間分解能かつ微細な周波数分解能を選択することもできる点である。上記の実施形態は、最適にステレオ像を維持できる。 The advantage of the variable frame length encoding of the sub-signal as described above is that a fine time resolution and a coarse frequency resolution can be selected, while a coarse time resolution and a fine frequency resolution can be selected. The above embodiment can maintain a stereo image optimally.
異なる符号化方式において使用される実際の符号化について、いくつかの要件も存在する。具体的には閉ループ選択が使用されるとき、いくつかのある程度の同時符号化を実行する計算リソースは、大きくなければならない。符号化プロセスが複雑になると、より高い計算能力が必要とされる。さらに、送信における低ビットレートも好ましい。 There are also several requirements for the actual coding used in different coding schemes. Specifically, when closed loop selection is used, the computational resources to perform some degree of simultaneous encoding must be large. As the encoding process becomes more complex, higher computational power is required. Furthermore, a low bit rate in transmission is also preferred.
米国特許第5434948号において開示される方法は、フィルタリングされたモノラル信号(主信号)を使用して、副信号または差信号を近似する。フィルタ・パラメータを時間とともに変化させて最適化することが可能である。次いで、副信号の符号化を表すフィルタ・パラメータが送信される。一実施形態では、副残差信号も送信される。多くの場合、そのような手法は、本発明の範囲内において副信号符号化として使用することが可能である。しかし、この手法は、いくつかの欠点を有する。フィルタ係数の量子化およびあらゆる副残差信号は、送信について比較的高いビットレートをしばしば必要とする。その理由は、フィルタの次数が、精確な副信号評価を提供するために高くする必要があるからである。フィルタ自体の評価は、具体的には一過性の大量の音楽の場合、問題である可能性がある。評価誤差は、未修正信号より大きさが大きいことがある修正副信号を与える。これにより、ビットレートに対する要求はより高くなる。さらに、フィルタ係数の新しいセットがNサンプルごとに計算される場合、フィルタ係数は、上述したように、1セットのフィルタ係数から他への移行が滑らかになるように補間する必要がある。フィルタ係数の補間は複雑なタスクであり、補間の誤差が、大きな誤差副信号において出現し、これにより、より高いビットレートが、異なる誤差信号符号化器について必要になる。 The method disclosed in US Pat. No. 5,434,948 uses a filtered monaural signal (main signal) to approximate a sub-signal or difference signal. Filter parameters can be optimized over time. A filter parameter representing the encoding of the side signal is then transmitted. In one embodiment, a secondary residual signal is also transmitted. In many cases, such an approach can be used as sub-signal coding within the scope of the present invention. However, this approach has several drawbacks. Filter coefficient quantization and any sub-residual signals often require relatively high bit rates for transmission. The reason is that the order of the filter needs to be high to provide an accurate side signal estimate. The evaluation of the filter itself can be a problem, especially for a large amount of transient music. The evaluation error provides a modified sub-signal that can be larger than the uncorrected signal. This increases the demand for bit rate. Furthermore, if a new set of filter coefficients is calculated every N samples, the filter coefficients need to be interpolated so that the transition from one set of filter coefficients to another is smooth as described above. Interpolating filter coefficients is a complex task, and interpolation errors appear in large error sub-signals, which requires higher bit rates for different error signal encoders.
補間の必要性を回避する手段は、サンプルごとにフィルタ係数を更新して、バックワード・アダプティブ分析に依拠するものである。これがうまく機能するためには、残りの符号化器のビットレートがかなり高いことが必要である。したがって、これは、低ビットレートステレオ符号化の良好な代替物でとはいえない。 A means of avoiding the need for interpolation is to rely on backward adaptive analysis, updating the filter coefficients for each sample. In order for this to work well, the bit rate of the remaining encoders needs to be quite high. This is therefore not a good alternative to low bit rate stereo coding.
たとえば音楽では非常に一般的である、モノラル信号および差信号がほとんど無相関である場合が存在する。したがって、フィルタの評価、異なる誤差信号符号化器について状況を単に悪化させるさらなる危険性により、非常に厄介になる。 For example, there are cases where the monaural signal and the difference signal are almost uncorrelated, which is very common in music. Thus, the evaluation of the filter, the additional risk of simply exacerbating the situation for different error signal encoders, is very cumbersome.
米国第5434948号による解決法は、会議電話システムなど、フィルタ係数が時間について非常に緩慢に変化する場合に、きわめてよく作用する可能性がある。音楽信号の場合には、この手法は非常によくは機能しない。その理由は、ステレオ像を追跡するためにフィルタを非常に迅速に変化させる必要があるからである。これは大きく異なる大きさのサブフレーム長を使用する必要があることを意味し、これは、試験される組合せの数が迅速に増大することを意味する。これは、すべての可能な符号化方式を計算する要件が、非実際的に高くなることを意味する。 The solution according to US Pat. No. 5,434,948 can work very well when the filter coefficients change very slowly over time, such as in conference phone systems. In the case of music signals, this technique does not work very well. The reason is that it is necessary to change the filter very quickly in order to track the stereo image. This means that subframe lengths of very different sizes need to be used, which means that the number of combinations tested increases rapidly. This means that the requirement to calculate all possible coding schemes is impractically high.
したがって、好適な実施形態では、副信号の符号化は、複雑なビットレートを消費する予測フィルタの代わりに、簡単なバランス係数を使用することによって、モノラル信号と副信号との間の冗長性を低減する概念に基づく。したがって、この演算の残差が符号化される。そのような残差の大きさは比較的小さく、その伝送に高いビットレートは必要ではない。この概念は、上述した可変フレーム・セット手法と実際に組み合わされるのに好適である。その理由は、計算の複雑さが軽度であるからである。 Thus, in the preferred embodiment, the sub-signal encoding reduces the redundancy between the monaural signal and the sub-signal by using a simple balance factor instead of a predictive filter that consumes a complex bit rate. Based on the concept of reducing. Therefore, the residual of this operation is encoded. The magnitude of such a residual is relatively small and a high bit rate is not necessary for its transmission. This concept is suitable for practical combination with the variable frame set approach described above. The reason is that the computational complexity is mild.
可変フレーム長の手法と組み合わされたバランス係数の使用によって、複雑な補間の必要性および、補間により生じる可能性がある関連する問題が解消する。さらに、複雑なフィルタの代わりに簡単なバランス係数を使用することにより、評価に付随する問題がより少なくなる。その理由は、バランス係数の可能な評価誤差の影響がより小さくなるからである。好ましい解決法は、良好な品質を有し、かつ限定されたビットレート要件および計算リソースを有して、パンされた信号および拡散音場を再生成することができる。 The use of a balance factor combined with a variable frame length approach eliminates the need for complex interpolation and related problems that may arise from interpolation. Furthermore, by using a simple balance factor instead of a complex filter, there are fewer problems associated with the evaluation. This is because the influence of possible evaluation errors on the balance coefficient is smaller. The preferred solution can regenerate the panned signal and diffuse sound field with good quality and with limited bit rate requirements and computational resources.
図4は、本発明によるステレオ符号化器の好適な実施形態を示す。この実施形態は、図2aに示された実施形態と非常に類似しているが、副信号符号化部30の詳細が明らかにされている。この実施形態の符号化器14は、前処理部を有さず、入力信号は加算器34および減算器36に直接供給される。モノラル信号xmonoは、マルチプレクサ33で、バランス係数gsmで乗算される。乗算されたモノラル信号は、減算器35において、副信号xside、すなわち本質的には2チャネル間の差から減算されて、副残差信号が生成される。バランス係数gsmは、品質基準に従い副残差信号が最小となるよう、最適化部37によってモノラル信号および副信号の内容に基づいて決定される。品質基準は、Least-Mean-Square (LMS) 法に基づくものであることが好ましい。副残差信号は、任意の符号化手順に従って副残差符号化器39において符号化される。副残差符号化器39は、低ビットレート変換符号化器またはCELP(コードブック駆動線形予測)符号化器であることが好ましい。したがって、副信号を表す符号化パラメータpsideは、副残差信号および最適化バランス係数49を表す符号化パラメータpside residualを含む。
FIG. 4 shows a preferred embodiment of a stereo encoder according to the invention. This embodiment is very similar to the embodiment shown in FIG. 2a, but details of the
図4の実施形態では、副信号の合成に使用されるモノラル信号42は、モノラル符号化器38の対象信号xmonoである。上述したように(図2aと関連して)、モノラル符号化器38の局所合成信号を使用することもできる。後者の場合、全体の符号化遅延が増大する可能性があり、副信号の計算の複雑さも増大する可能性がある。一方、品質は良好となる可能性がある。その理由は、モノラル符号化器生じる符号化誤差を修復することが可能であるからである。
In the embodiment of FIG. 4, the
数学的には、基本的な符号化方式は、以下のように記述することができる。ステレオの左チャネルおよび右チャネルをそれぞれ、チャネル信号aおよびbと表記する。チャネル信号は、加算によってモノラル信号とされ、減算によって副信号とされる。その演算は、以下のように記述される。 Mathematically, the basic coding scheme can be described as follows: The stereo left channel and right channel are denoted as channel signals a and b, respectively. The channel signal is converted into a monaural signal by addition, and is sub-signaled by subtraction. The operation is described as follows.
xmono(n)=0.5 (a(n) + b(n))
xside(n)=0.5 (a(n) - b(n))
x mono (n) = 0.5 (a (n) + b (n))
x side (n) = 0.5 (a (n)-b (n))
xmonoおよびxside信号を2でスケーリングすることが有益である。ここで、xmonoおよびxsideを生成する他の方式が存在することを示す。たとえば、以下を使用することができる。 It is beneficial to scale the x mono and x side signals by 2. Here we show that there are other ways to generate x mono and x side . For example, the following can be used:
xmono(n)=γa(n) + (1 - γ)b(n)
xside(n)=γa(n) - (1 - γ)b(n)
0≦γ≦1.0
x mono (n) = γa (n) + (1-γ) b (n)
x side (n) = γa (n)-(1-γ) b (n)
0 ≦ γ ≦ 1.0
入力信号のブロックにおいて、修正または副残差信号が、下式に従って計算される。 In the block of input signals, the modified or sub-residual signal is calculated according to the following equation:
xside residual(n)=xside(n) - f(xmono, xside)xmono(n) x side residual (n) = x side (n)-f (x mono , x side ) x mono (n)
上式で、f(xmono, xside) は、副信号およびモノラル信号からのNサンプルのブロック、すなわちサブフレームに基づいて、副信号から可能な限り除去しようとするバランス係数関数である。すなわち、バランス係数は、副残差信号を最小とするために使用される。副残差信号がLMSにより最小に抑えられる特別な場合では、これは、副残差信号xside residualのエネルギを最小とすることと等価である。 In the above equation, f (x mono , x side ) is a balance coefficient function to be removed from the sub signal as much as possible based on a block of N samples from the sub signal and the monaural signal, that is, a subframe. That is, the balance factor is used to minimize the secondary residual signal. In the special case where the secondary residual signal is minimized by the LMS, this is equivalent to minimizing the energy of the secondary residual signal x side residual .
上述した特別な場合、f(xmono,xside) は、以下のように表される。 In the special case described above, f (x mono , x side ) is expressed as follows.
ただし、xsideは副信号、xmonoはモノラル信号である。関数は、「frame start」において開始され、「frame end」において終了するブロックに基づくことに留意されたい。 However, x side is a sub signal and x mono is a monaural signal. Note that the function is based on a block that starts at "frame start" and ends at "frame end".
周波数領域の重み付けをバランス係数の計算に追加することが可能である。これは、xside信号およびxmono信号を重み付けフィルタのインパルス応答でたたみ込むことによって実行される。次いで、評価誤差を聞くことが困難な周波数範囲に移動させることが可能である。これは、聴感重み付けと呼ばれる。 Frequency domain weighting can be added to the calculation of the balance factor. This is done by convolving the x side signal and the x mono signal with the impulse response of the weighting filter. It is then possible to move to a frequency range where it is difficult to hear the evaluation error. This is called auditory weighting.
関数f(xmono,xside)によって与えられるバランス係数値の量子化バージョンが復号化器に送信される。修正副信号が生成されている場合には、量子化を考慮することが好ましい。したがって、以下の式が達成される。 A quantized version of the balance coefficient value given by the function f (x mono , x side ) is sent to the decoder. If a modified sub-signal is generated, it is preferable to consider quantization. Thus, the following equation is achieved:
Qg(..)は、関数f(xmono,xside)によって与えられるバランス係数に適用される量子化関数である。バランス係数は、送信チャネル上において送信される。通常の左右パン信号では、バランス係数は、[-1.0, 1.0]の間に限定される。一方、チャネルが互いに関して位相がずれている場合には、バランス係数は、これらの限界を超えて拡張してもよい。 Q g (..) is a quantization function applied to the balance coefficient given by the function f (x mono , x side ). The balance factor is transmitted on the transmission channel. In a normal left / right pan signal, the balance coefficient is limited to [−1.0, 1.0]. On the other hand, if the channels are out of phase with respect to each other, the balance factor may extend beyond these limits.
ステレオ像を安定させるオプション手段として、モノラル信号と副信号との間の正規化相互相関が以下の式によって与えられるように不十分である場合、バランス係数を限定することができる。 As an optional means of stabilizing the stereo image, the balance factor can be limited if the normalized cross-correlation between the monaural signal and the sub-signal is insufficient as given by:
ただし、
However,
これらの状況は、たとえば大量の拡散音を有するクラシック音楽やスタジオ音楽では非常に頻繁に生じ、いくつかの場合、aチャネルおよびbチャネルは、モノラル信号が生成されるとき、時には互いにほとんど消去する可能性がある。バランス係数に対する影響は、迅速にジャンプすることがあることであり、これにより、ステレオ像が混信する。上記の修正により、この問題は軽減される。 These situations occur very often, for example in classical music or studio music with a large amount of diffused sound, and in some cases the a and b channels can sometimes be almost erased from each other when a mono signal is generated There is sex. The effect on the balance factor is that it can jump quickly, which causes stereo images to interfere. The above correction alleviates this problem.
米国第5434948号のフィルタ・ベースの手法は、同様の問題を有するが、この場合、解決はそれほど簡単ではない。 The filter-based approach of US Pat. No. 5,434,948 has similar problems, but in this case the solution is not so simple.
Esが副残差信号の符号化関数(たとえば、変換符号化器)であり、Emがモノラル信号の符号化関数である場合、復号化器側における復号されたa"信号およびb"信号は、以下のように記述することができる(ここでは、γ=0.5と想定する)。 E s is the encoding function of the sub residual signal (e.g., transcoder), and when E m is the encoding function of the mono signal is decoded in the decoder side a "signal and b" signals Can be written as follows (assuming γ = 0.5):
各フレームについてバランス係数を計算することに由来する1つの重要な利点は、補間の使用が回避されることである。代わりに、通常は、上記で記述されたように、フレーム処理は、重なりフレームで実施される。 One important advantage derived from calculating the balance factor for each frame is that the use of interpolation is avoided. Instead, typically, as described above, frame processing is performed on overlapping frames.
バランス係数を使用する符号化原理は、ステレオ像を追跡するために迅速な変化が通常必要とされる楽音信号の場合に特によく動作する。 Coding principles that use balance factors work particularly well in the case of musical signals that usually require rapid changes to track a stereo image.
最近、マルチチャネル符号化が一般的になっている。一例が、DVD映画の5.1チャネル・サラウンド音声である。この場合、チャネルは、前左、前中心、前右、後左、後右、およびサブウーファとして構成される。図5において、本発明によるチャネル間冗長を利用するような構成の3つのフロント・チャネルを符号化する符号化器の実施形態が示されている。 Recently, multi-channel coding has become common. An example is 5.1 channel surround sound of a DVD movie. In this case, the channel is configured as front left, front center, front right, back left, back right, and subwoofer. In FIG. 5, an embodiment of an encoder for encoding three front channels configured to take advantage of inter-channel redundancy according to the present invention is shown.
3つのチャネル信号L、C、Rが、3つの入力16A〜Cに供給され、モノラル信号xmonoは、すべての3つの信号の和によって生成される。中心信号xcentreを受信する中心信号符号化部130が追加される。モノラル信号42は、この実施形態では、符号化され、復号されたモノラル信号x"monoであり、マルチプレクサ133においてあるバランス係数gQで乗算される。減算器135において、乗算されたモノラル信号は、中心残差信号を生成するために、中心信号xcentreから減算される。バランス係数gQは、品質基準に従って中心残差信号を最小にするために、最適化部137によってモノラル信号および中心信号の内容に基づいて決定される。中心残差信号は、任意の符号化器手順に従って、中心残差符号化器139において符号化される。中心残差符号化器139は、低ビットレート変換符号化器またはCELP符号化器であることが好ましい。したがって、中心信号を表す符号化パラメータpcentreは、中心残差信号および最適化バランス係数149を表す符号化パラメータpcentre residualを含む。中心残差信号およびスケーリングされたモノラル信号は、加算器235において加算されて、符号化誤差について補償される修正中心信号142を生成する。
Three channel signals L, C, R are supplied to the three
副信号xside、すなわち、左Lチャネルと右Rチャネルとの差は、上述の実施形態と同様に、副信号符号化部30に供給される。しかし、ここでは、最適化部37は、中心信号符号化部130によって供給される修正中心信号142にも依存する。したがって、副残差信号は、減算器35において、モノラル信号42、修正中心信号142、および副信号の最適線形組合せとして生成される。
The sub signal x side , that is, the difference between the left L channel and the right R channel is supplied to the sub
上記で記述された可変フレーム長の概念は、副信号および中心信号のどちらか、または両方に適用することができる。 The variable frame length concept described above can be applied to either or both of the side signal and the center signal.
図6は、図5の符号化部から符号化オーディオ信号を受信するのに適切な復号化器を示す。受信信号54は、主信号を表す符号化パラメータpmono、中心信号を表す符号化パラメータpcentre、および副信号を表す符号化パラメータpsideに分割される。復号化器64において、主信号を表す符号化パラメータpmonoは、主信号x"monoを生成するために使用される。復号化器160において、中心信号を表す符号化パラメータpcentreは、主信号x"monoに基づいてx"centreを生成するために使用される。復号化器60において、副信号を表す符号化パラメータpsideは復号され、主信号x"monoおよび中心信号x"centreに基づいて、副信号x"sideを生成する。
FIG. 6 shows a decoder suitable for receiving an encoded audio signal from the encoder of FIG. The received
手順は、数学的には以下のように表すことができる。 The procedure can be expressed mathematically as follows:
入力信号xleft, xright, xcentreは、以下に従ってモノラル・チャネルに組み合わされる。 Input signals x left , x right , x center are combined into a mono channel according to the following.
α、β、χは、残りのセクションにおいて、簡単化のために1.0に設定されるが、任意の値に設定することができる。α、β、χの値は、最適品質を達成するために、1つまたは2つのチャネルを強調するように、一定とする、または信号内容に依存するとすることができる。 α, β, and χ are set to 1.0 in the remaining sections for simplicity, but can be set to arbitrary values. The values of α, β, χ can be constant or dependent on the signal content to emphasize one or two channels in order to achieve optimal quality.
モノラル信号と中心信号との間の正規化相互相関は、以下のように計算される。 The normalized cross-correlation between the monaural signal and the center signal is calculated as follows:
ただし、
However,
xcentreは中心信号、xmonoはモノラル信号である。モノラル信号は、モノラル対象信号から来るが、モノラル符号化器の局所合成を使用することも同様に可能である。 x center is the center signal and x mono is the monaural signal. The monaural signal comes from the monaural target signal, but it is equally possible to use local synthesis of a monaural encoder.
中心残差信号は、以下のように符号化される。 The center residual signal is encoded as follows.
Qg(..)は、バランス係数に適用される量子化関数である。バランス係数は、送信チャネル上で送信される。 Q g (..) is a quantization function applied to the balance coefficient. The balance factor is transmitted on the transmission channel.
Ecが中心残差信号の符号化関数(たとえば変換符号化器)であり、Emがモノラル信号の符号化関数である場合、復号化器側の復号されたx"centre信号は、以下のように記述することができる。 If E c is the encoding function of the center residual signal (eg, transform encoder) and E m is the encoding function of the monaural signal, the decoded x " center signal on the decoder side is Can be described as:
符号化される副残差信号は、以下のようになる。 The sub residual signal to be encoded is as follows.
ただし、gQsmおよびgQscは、下式を最小にするパラメータgsmおよびgscの量子化された値である。 Here, g Qsm and g Qsc are quantized values of the parameters g sm and g sc that minimize the following equation.
ηは、エラーのLMS最小化のために、たとえば2に等しいとすることができる。gsmおよびgscパラメータは、共同してまたは別々に量子化することができる。 η can be equal to, for example, 2 for LMS minimization of errors. The g sm and g sc parameters can be quantized jointly or separately.
Esが副残差信号の符号化関数である場合、復号されたx"leftおよびx"rightのチャネル信号は、以下のように与えられる。 If E s is the coding function of the sub-residual signal, the decoded x " left and x" right channel signals are given as follows:
最も厄介である異音の1つは、プリエコー効果である。図7a、bに、そのような異音を示す。曲線100によって示されるような時間進行を有する信号成分を想定する。t0からの開始時、オーディオサンプルに信号成分は存在しない。t1とt2との間の時間tで、信号成分が突然出現する。信号成分が、t2-t1のフレーム長を使用して符号化される場合、信号成分の出現は、曲線101において示されるように、全フレームにわたって「不鮮明」になる。復号が曲線101について行われる場合、信号成分は、信号成分の意図した出現よりΔt前の時間において出現し、「プリエコー」が知覚される。
One of the most troublesome noises is the pre-echo effect. Such abnormal noise is shown in FIGS. Assume a signal component having a time progression as shown by
プリエコー異音は、長い符号化フレームが使用される場合により強調される。短いフレームを使用することによって、異音はいくらか軽減される。上述したプリエコーの問題に対処する他の方式は、モノラル信号が符号化器側および復号化器側の両方において利用可能であるということを利用する。これにより、モノラル信号の等エネルギ曲線に従って副信号をスケーリングすることが可能になる。復号化器側において、逆スケーリングが実施され、したがって、プリエコーの問題はいくらか軽減されることが可能である。 Pre-echo noise is accentuated when long encoded frames are used. By using a short frame, the noise is somewhat reduced. Another scheme that addresses the above-mentioned pre-echo problem takes advantage of the fact that monaural signals are available on both the encoder side and the decoder side. This makes it possible to scale the sub-signal according to the isoenergy curve of the monaural signal. On the decoder side, inverse scaling is performed, so the pre-echo problem can be somewhat mitigated.
モノラル信号の等エネルギ曲線が、以下のように、フレームにわたって計算される。 The isoenergy curve of the monaural signal is calculated over the frame as follows:
ただし、w(n)は窓関数である。最も簡単な窓関数は矩形窓であるが、ハミング窓などの他の窓タイプがより好ましい場合がある。 However, w (n) is a window function. The simplest window function is a rectangular window, but other window types such as a Hamming window may be more preferred.
次いで、副残差信号が、以下のようにスケーリングされる。 The sub-residual signal is then scaled as follows:
より一般的な形態では、上記の式は、以下のように書くことができる。 In a more general form, the above equation can be written as:
上式で、f(・・・)は、単調連続関数である。復号化器において、等エネルギ曲線は、復号モノラル信号について計算され、以下のように復号副信号に適用される。 In the above equation, f (...) is a monotone continuous function. In the decoder, an isoenergy curve is calculated for the decoded monaural signal and applied to the decoded sub-signal as follows:
ある意味ではこの等エネルギ曲線スケーリングは、より短いフレーム長の使用の代替であるので、この概念は、上記でさらに記述されているように、可変フレーム長の概念と組み合わされるのに特によく適している。等エネルギ曲線スケーリングを適用するいくつかの符号化方式、適用しないいくつかの符号化方式、および等エネルギ曲線スケーリングをあるサブフレーム中にのみ適用するいくつかの符号化方式を有することによって、符号化方式のより柔軟なセットを供給することが可能である。図8において、本発明による信号符号化ユニット30の実施形態が示されている。ここでは、異なる符号化方式81は、等エネルギ曲線スケーリングを適用する符号化を表すハッチングされたサブフレーム91、および等エネルギ曲線スケーリングを適用しない符号化手順を表すハッチングされていないサブフレーム92を有する。このようにして、異なる長さのサブフレームだけでなく、異なる符号化原理のサブフレームの組合せも、利用可能である。本説明例では、等エネルギ曲線スケーリングの適用は、異なる符号化方式間において異なる。より一般的な場合、任意の符号化原理を類似の方式で可変長概念と組み合わせることができる。
In a sense, this isoenergetic curve scaling is an alternative to the use of shorter frame lengths, so this concept is particularly well suited to be combined with the variable frame length concept, as further described above. Yes. Encoding by having some coding schemes that apply iso-energy curve scaling, some coding schemes that do not apply, and some coding schemes that apply iso-energy curve scaling only during certain subframes It is possible to supply a more flexible set of schemes. In FIG. 8, an embodiment of a
図8の符号化方式のセットは、異なる方式でプリエコー異音などに対処する方式を備える。いくつかの方式では、等エネルギ曲線原理によるプリエコー最小化を有するより長いサブフレームが使用される。他の方式では、等エネルギ曲線スケーリングを有さないより短いサブフレームが使用される。信号内容に応じて、代替物の1つが、より有利である可能性がある。非常に深刻なプリエコーの場合、等エネルギ曲線スケーリングを有する短いサブフレームを使用する符号化方式が必要である可能性がある。 The set of encoding schemes in FIG. 8 includes schemes that deal with pre-echo abnormal noise and the like using different schemes. In some schemes, longer subframes with pre-echo minimization according to the isoenergy curve principle are used. In other schemes, shorter subframes without isoenergy curve scaling are used. Depending on the signal content, one of the alternatives may be more advantageous. For very severe pre-echo, an encoding scheme that uses short subframes with iso-energy curve scaling may be necessary.
提案した解決法は、全周波数帯域において、あるいは1または2以上の個別サブバンドにおいて使用することができる。サブバンドの使用は、主信号および副信号の両方について、またはそれらの一方について別々に、適用することができる。好適な実施形態では、いくつかの周波数帯域にて副信号を分割する。この理由は、単に、周波数帯域全体においてより、隔離された周波数帯域において可能な冗長性を除去することが容易であるからである。これは、大量のスペクトル内容を有する楽音信号を符号化するとき、特に重要である。 The proposed solution can be used in the whole frequency band or in one or more individual subbands. The use of subbands can be applied for both main and subsignals or separately for one of them. In the preferred embodiment, the sub-signal is divided in several frequency bands. This is simply because it is easier to remove the possible redundancy in the isolated frequency band than in the entire frequency band. This is particularly important when encoding musical signals having a large amount of spectral content.
1つの可能な使用は、周波数帯域を上記の方法で所定の閾値より下において符号化する。所定の閾値は、2kHz、または、さらにより好ましくは1kHzとすることが好ましい。対象周波数範囲の残りの部分については、上記の方法で、またはまったく異なる方法で、他の追加の周波数帯域を符号化することができる。 One possible use is to encode the frequency band below a predetermined threshold in the manner described above. The predetermined threshold is preferably 2 kHz, or even more preferably 1 kHz. For the rest of the frequency range of interest, other additional frequency bands can be encoded in the manner described above or in a completely different manner.
好ましくは低周波数について上記の方法を使用する1つの動機は、一般に、拡散音場が、高周波数においてわずかなエネルギ内容を有するからである。当然の理由は、音吸収が、周波数と共に通常増大するからである。また、拡散音場成分は、より高い周波数では人の聴覚システムについて重要性の劣る役割を果たすようである。したがって、この解決法を(1kHzあるいは2kHzより低い)低周波数において使用し、より高い周波数では、他のより多くのビット効率のよい符号化方式に依拠することが有益である。この方式が低周波数においてのみ適用されるということにより、ビットレートが大きく節約されるが、その理由は、提案された方法に関して必要なビットレートは、必要な帯域幅に比例するからである。ほとんどの場合、モノラル符号化器は、周波数帯域全体を符号化することができ、一方、提案された副信号符号化は、図9に概略的に示されるように、周波数帯域のより低い部分においてのみ実施されることが示唆される。参照符号301は、副信号の本発明による符号化方式を指し、参照符号302は、副信号のあらゆる他の符号化方式を指し、参照符号303は、副信号の符号化方式を指す。
One motivation for using the above method, preferably for low frequencies, is because the diffuse sound field generally has a low energy content at high frequencies. The reason for this is that sound absorption usually increases with frequency. Also, diffuse sound field components seem to play a less important role for human hearing systems at higher frequencies. It is therefore beneficial to use this solution at low frequencies (below 1 kHz or 2 kHz) and rely on other more bit efficient coding schemes at higher frequencies. By applying this scheme only at low frequencies, the bit rate is greatly saved because the required bit rate for the proposed method is proportional to the required bandwidth. In most cases, the mono encoder can encode the entire frequency band, while the proposed sub-signal encoding is in the lower part of the frequency band, as shown schematically in FIG. It is suggested that only be implemented.
また、いくつかの個別の周波数帯域について提案された方法を使用する可能性も存在する。 There is also the possibility to use the proposed method for several individual frequency bands.
図10において、本発明による符号化方法の実施形態の主要ステップが、フローチャートとして示されている。手順は、ステップ200において開始される。ステップ210において、ポリフォニック信号から推測される主信号が符号化される。ステップ212において、異なる長さおよび/または順序のサブフレームを備える符号化方式が提供される。ポリフォニック信号からステップ214において推測される副信号が、存在するポリフォニック信号の実際の信号内容に少なくとも部分的に依存して選択された符号化方式によって符号化される。手順は、ステップ299において終了する。
In FIG. 10, the main steps of an embodiment of the encoding method according to the invention are shown as a flowchart. The procedure begins at
図11において、本発明による符号化方法の実施形態の主要ステップが、フローチャートとして示されている。手順は、ステップ200において開始される。ステップ220において、受信符号化主信号が復号される。ステップ222において、異なる長さおよび/または順序のサブフレームを備える復号方式が提供される。受信副信号が、選択された符号化方式によってステップ224において復号される。ステップ226において、復号された主信号および副信号は、ポリフォニック信号に組み合わされる。手順は、ステップ299において終了する。
In FIG. 11, the main steps of an embodiment of the encoding method according to the invention are shown as a flowchart. The procedure begins at
上述した実施形態は、本発明のいくつかの例示として理解されるべきである。当業者であれば、上述の実施形態に対して様々な修正、組合せ、変更を、本発明の範囲から逸脱することなく行うことが可能であろう。具体的には、異なる実施形態の異なる部分的解決法を、技術的に可能であれば、他の構成において組み合わせることができる。いずれにせよ、本発明の範囲は添付の特許請求の範囲によって定義される。 The above-described embodiments should be understood as some examples of the invention. Those skilled in the art will be able to make various modifications, combinations and changes to the above-described embodiments without departing from the scope of the present invention. In particular, different partial solutions of different embodiments can be combined in other configurations where technically possible. In any case, the scope of the present invention is defined by the appended claims.
Claims (26)
符号化フレーム (80) 内において少なくとも前記第1チャネルおよび前記第2チャネル (a, b; L, R) の信号に基づいて、副信号を表す符号化パラメータである第2出力信号 (pside) を生成するステップ (214) と
を有する、ポリフォニック信号を符号化する方法であって、
符号化フレーム (80) が少なくとも1つのサブフレーム (90) を含むサブフレーム (90) のセットによって構成されており、前記サブフレーム (90) の長さの和が前記符号化フレーム (80) の長さに等しい、少なくとも2つの符号化方式 (81) を提供するステップ (212) を更に有し、
前記第2出力信号 (pside) を生成する前記ステップ (214) は、現在の副信号 (xside) の信号内容に少なくとも一部依存する符号化方式 (81) を選択するステップを含み、
前記第2出力信号 (pside) は、選択されたサブフレーム (90) のセットの各々のサブフレーム (90) について別々に符号化される
ことを特徴とする方法。 Generating a first output signal (p mono ), which is an encoding parameter representing a main signal, based on at least the signals of the first channel and the second channel (a, b; L, R);
A second output signal (p side ) that is an encoding parameter representing a sub-signal based on at least the signals of the first channel and the second channel (a, b; L, R) in the encoded frame (80). A method for encoding a polyphonic signal, comprising:
The encoded frame (80) is constituted by a set of subframes (90) including at least one subframe (90), and the sum of the lengths of the subframes (90) is the length of the encoded frame (80). Further comprising the step (212) of providing at least two encoding schemes (81) equal to the length;
The step (214) of generating the second output signal (p side ) includes the step of selecting an encoding scheme (81) that depends at least in part on the signal content of the current sub-signal (x side ),
The second output signal (p side ) is encoded separately for each subframe (90) of a set of selected subframes (90).
サブフレーム (90) の少なくとも2つのセットの各々のすべてのサブフレーム (90) 内において、少なくとも前記第1および第2チャネル (a, b; L, R) の信号の第1の線形結合である副信号 (xside) を表す符号化パラメータを別々に生成するステップと、
前記少なくとも2つの符号化方式 (81) の各々について、忠実度尺度を計算するステップと、
最適な前記忠実度尺度を有する前記符号化方式 (81) から、前記副信号を表す前記符号化パラメータ (pside) として符号化された信号を選択するステップと
を含むことを特徴とする請求項1に記載の方法。 The step (214) of generating the second output signal (p side ) includes:
A first linear combination of signals of at least the first and second channels (a, b; L, R) within every subframe (90) of each of at least two sets of subframes (90) Separately generating encoding parameters representing the side signal (x side );
Calculating a fidelity measure for each of the at least two encoding schemes (81);
Selecting a signal encoded as the encoding parameter (p side ) representing the sub-signal from the encoding scheme (81) having the optimal fidelity measure. The method according to 1.
lsf=lf/2n
で表されることを特徴とする請求項1から3までのいずれかに記載の方法。 If l f is the length of the coded frame (80) and n is an integer, the length l sf of the subframe (90) is
l sf = l f / 2 n
The method according to claim 1, wherein the method is represented by:
少なくとも前記第1および第2チャネル (a, b; L, R) の信号の第2の線形結合として主信号 (xmono) を生成するステップと、
前記主信号を、前記主信号を表す符号化パラメータ (pmono) に符号化するステップと
を含み、
前記副信号を符号化するステップは、
前記副信号とバランス係数 (gsm) によってスケーリングされた前記主信号 (xmono) との差として副残差信号 (xside residual) を生成するステップと、
前記副残差信号および前記バランス係数 (gsm) を、前記副信号を表す前記符号化パラメータ (pside) に符号化するステップと
を含み、
前記バランス係数 (gsm) は、品質基準に従って前記副残差信号を最小にする係数として決定されることを特徴とする請求項1から6までのいずれかに記載の方法。 The step (210) of generating a coding parameter (p mono ) representing the main signal is:
Generating a main signal (x mono ) as a second linear combination of signals of at least the first and second channels (a, b; L, R);
Encoding the main signal into an encoding parameter (p mono ) representing the main signal;
The step of encoding the sub-signal includes:
Generating a side residual signal (x side residual ) as a difference between the side signal and the main signal (x mono ) scaled by a balance factor (g sm );
Encoding the sub-residual signal and the balance factor (g sm ) into the encoding parameter (p side ) representing the sub-signal,
The method according to any of the preceding claims, wherein the balance factor (g sm ) is determined as a factor that minimizes the sub-residual signal according to a quality criterion.
ただし、Lは任意の係数、nは和の指標、mは前記サブフレーム内のサンプル、w(n) は窓関数である。 Wherein such energy curve E c of said main signal (x mono) The method of claim 10 or 11, characterized in that it is computed over a sub-frame according to the following equation.
Here, L is an arbitrary coefficient, n is a sum index, m is a sample in the subframe, and w (n) is a window function.
少なくとも前記第1および第2チャネル (a, b; L, R) の信号の第1線形結合である副信号 (xside) のスペクトル特性を分析するステップと、
前記分析されたスペクトル特性に基づいてサブフレーム (90) のセットを選択するステップと、
前記選択されたサブフレーム (90) のセットにおけるすべてのサブフレーム (90) の前記副信号 (xside) をそれぞれ符号化するステップと
を含むことを特徴とする請求項1に記載の方法。 The step (214) of generating the second output signal (p side ) includes:
Analyzing a spectral characteristic of a side signal (x side ) that is a first linear combination of signals of at least the first and second channels (a, b; L, R);
Selecting a set of subframes (90) based on the analyzed spectral characteristics;
The method of claim 1, comprising: encoding each of said sub-signals (x side ) of all sub-frames (90) in said selected set of sub-frames (90).
符号化フレーム (80) 内において副信号を表す符号化パラメータ (pside) を復号するステップ (224) と、
少なくとも復号された前記主信号 (x"mono) と復号された前記副信号 (x"side) とを組み合わせて、少なくとも第1および第2チャネル (a, b; L, R) の信号にするステップ (226) と
を有する、ポリフォニック信号を復号する方法であって、
符号化フレーム (80) が少なくとも1つのサブフレーム (90) を含むサブフレーム (90) のセットによって構成されており、前記サブフレーム (90) の長さの和が前記符号化フレーム (80) の長さに等しい、少なくとも2つの符号化方式 (81) を提供するステップ (222) を有し、
前記副信号を表す前記符号化パラメータ (pside) を復号する前記ステップ (224) は、前記少なくとも2つの符号化方式 (81) のいずれかの前記サブフレーム (90) において前記副信号を表す前記符号化パラメータ (pside) を復号するステップを含む
ことを特徴とする方法。 Decoding a coding parameter (p mono ) representing the main signal (220);
A step (224) of decoding a coding parameter (p side ) representing a sub-signal in the coded frame (80);
Combining at least the decoded main signal (x " mono ) and the decoded sub signal (x" side ) into signals of at least first and second channels (a, b; L, R) (226) A method for decoding a polyphonic signal comprising:
The encoded frame (80) is composed of a set of subframes (90) including at least one subframe (90), and the sum of the lengths of the subframes (90) is the length of the encoded frame (80). Providing (222) providing at least two encoding schemes (81) equal to the length;
The step (224) of decoding the coding parameter (p side ) representing the sub-signal includes the step of representing the sub-signal in the sub-frame (90) of any of the at least two coding schemes (81). A method comprising the step of decoding an encoding parameter (p side ).
少なくとも前記第1および第2チャネル (a, b; L, R) の信号に基づいて、主信号を表す符号化パラメータである第1出力信号 (pmono) を生成する手段 (38) と、
符号化フレーム (80) 内において、少なくとも前記第1および第2チャネル (a, b; L, R) の信号に基づいて、副信号を表す符号化パラメータである第2出力信号 (pside) を生成する手段 (30) と、
出力手段 (52) と
を有する符号化装置 (14) であって、
符号化フレーム (80) が少なくとも1つのサブフレーム (90) を含むサブフレーム (90) のセットによって構成されており、前記サブフレーム (90) の長さの和が前記符号化フレーム (80) の長さに等しい、少なくとも2つの符号化方式 (81) を提供する手段を有し、
前記第2出力信号 (pside) を生成する前記手段 (30) は、現在の副信号 (xside) の信号内容に少なくとも一部依存する符号化方式を選択する手段 (86; 87) を含み、
選択された前記符号化方式のサブフレーム (90) の各々における前記副信号 (xside) を別々に符号化する手段を更に有する
ことを特徴とする符号化装置。 Input means (16; 16A-C) for inputting a polyphonic signal (a, b; L, R, C) having at least first and second channels (a, b; L, R);
Means (38) for generating a first output signal (p mono ), which is a coding parameter representing a main signal, based on at least the signals of the first and second channels (a, b; L, R);
In the encoded frame (80), a second output signal (p side ), which is an encoding parameter representing a sub-signal, is generated based on at least the signals of the first and second channels (a, b; L, R). Means for generating (30);
An encoding device (14) having output means (52),
The encoded frame (80) is constituted by a set of subframes (90) including at least one subframe (90), and the sum of the lengths of the subframes (90) is the length of the encoded frame (80). Means for providing at least two encoding schemes (81) equal to length,
The means (30) for generating the second output signal (p side ) includes means (86; 87) for selecting an encoding method depending at least in part on the signal content of the current sub signal (x side ). ,
The encoding apparatus further comprising means for separately encoding the sub-signal (x side ) in each of the selected sub-frames (90) of the encoding method.
前記主信号を表す前記符号化パラメータ (pmono) を復号する手段 (64) と、
符号化フレーム (80) 内において前記副信号を表す前記符号化パラメータ (pside) を復号する手段 (60) と、
少なくとも復号された前記主信号 (x"mono) と復号された前記副信号 (x"side) とを組み合わせて、少なくとも第1および第2チャネル (a, b; L, R) の信号にする手段 (68, 70) と、
出力手段 (26; 26A-C) と
を有する復号化装置 (24) であって、
前記副信号を表す前記符号化パラメータ (pside) を復号する前記手段 (60) は、
符号化フレーム (80) が少なくとも1つのサブフレーム (90) を含むサブフレーム (90) のセットによって構成されており、前記サブフレーム (90) の長さの和が前記符号化フレーム (80) の長さに等しい、少なくとも2つの符号化方式 (81) を提供する手段と、
前記少なくとも2つの符号化方式 (81) のいずれかのサブフレーム (90) において、前記副信号を表す前記符号化パラメータ (pside) を別々に復号する手段と
を含むことを特徴とする復号化装置。 An input means (54) for inputting a coding parameter (p mono ) representing a main signal and a coding parameter (p side ) representing a sub signal;
Means (64) for decoding the encoding parameter (p mono ) representing the main signal;
Means (60) for decoding the encoding parameter (p side ) representing the sub-signal in an encoded frame (80);
Means for combining at least the decoded main signal (x " mono ) and the decoded sub signal (x" side ) into signals of at least first and second channels (a, b; L, R) (68, 70) and
A decoding device (24) having output means (26; 26A-C),
The means (60) for decoding the encoding parameter (p side ) representing the sub-signal is:
The encoded frame (80) is constituted by a set of subframes (90) including at least one subframe (90), and the sum of the lengths of the subframes (90) is the length of the encoded frame (80). Means for providing at least two encoding schemes (81) equal to length;
Means for separately decoding the coding parameter (p side ) representing the sub-signal in any sub-frame (90) of the at least two coding schemes (81). apparatus.
請求項25に記載の復号化装置 (24) と
の少なくともいずれか一方を備えることを特徴とするオーディオシステム (1) 。 Encoding device (14) according to claim 24;
An audio system (1) comprising at least one of the decoding device (24) according to claim 25.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SE0303501A SE0303501D0 (en) | 2003-12-19 | 2003-12-19 | Filter-based parametric multi-channel coding |
SE0400417A SE527670C2 (en) | 2003-12-19 | 2004-02-20 | Natural fidelity optimized coding with variable frame length |
PCT/SE2004/001867 WO2005059899A1 (en) | 2003-12-19 | 2004-12-15 | Fidelity-optimised variable frame length encoding |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007216374A Division JP4589366B2 (en) | 2003-12-19 | 2007-08-22 | Fidelity optimized variable frame length coding |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007529021A true JP2007529021A (en) | 2007-10-18 |
JP4335917B2 JP4335917B2 (en) | 2009-09-30 |
Family
ID=31996354
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006518596A Expired - Fee Related JP4335917B2 (en) | 2003-12-19 | 2004-12-15 | Fidelity optimized variable frame length coding |
JP2007216374A Expired - Fee Related JP4589366B2 (en) | 2003-12-19 | 2007-08-22 | Fidelity optimized variable frame length coding |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007216374A Expired - Fee Related JP4589366B2 (en) | 2003-12-19 | 2007-08-22 | Fidelity optimized variable frame length coding |
Country Status (15)
Country | Link |
---|---|
EP (2) | EP1623411B1 (en) |
JP (2) | JP4335917B2 (en) |
CN (2) | CN101118747B (en) |
AT (2) | ATE371924T1 (en) |
AU (1) | AU2004298708B2 (en) |
BR (2) | BRPI0410856B8 (en) |
CA (2) | CA2690885C (en) |
DE (2) | DE602004023240D1 (en) |
HK (2) | HK1091585A1 (en) |
MX (1) | MXPA05012230A (en) |
PL (1) | PL1623411T3 (en) |
RU (2) | RU2305870C2 (en) |
SE (1) | SE527670C2 (en) |
WO (1) | WO2005059899A1 (en) |
ZA (1) | ZA200508980B (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009522895A (en) * | 2006-01-09 | 2009-06-11 | ノキア コーポレイション | Decoding binaural audio signals |
WO2010016270A1 (en) * | 2008-08-08 | 2010-02-11 | パナソニック株式会社 | Quantizing device, encoding device, quantizing method, and encoding method |
JP2018533058A (en) * | 2015-09-25 | 2018-11-08 | ヴォイスエイジ・コーポレーション | Method and system for encoding the left and right channels of a stereo audio signal that selects between a two-subframe model and a four-subframe model according to a bit budget |
JP2021529340A (en) * | 2018-06-29 | 2021-10-28 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Stereo signal coding method and device, and stereo signal decoding method and device |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1523862B1 (en) * | 2002-07-12 | 2007-10-31 | Koninklijke Philips Electronics N.V. | Audio coding |
EP1905004A2 (en) * | 2005-05-26 | 2008-04-02 | LG Electronics Inc. | Method of encoding and decoding an audio signal |
JP4639966B2 (en) * | 2005-05-31 | 2011-02-23 | ヤマハ株式会社 | Audio data compression method, audio data compression circuit, and audio data expansion circuit |
CA2613731C (en) | 2005-06-30 | 2012-09-18 | Lg Electronics Inc. | Apparatus for encoding and decoding audio signal and method thereof |
JP2009500656A (en) | 2005-06-30 | 2009-01-08 | エルジー エレクトロニクス インコーポレイティド | Apparatus and method for encoding and decoding audio signals |
MX2008000122A (en) | 2005-06-30 | 2008-03-18 | Lg Electronics Inc | Method and apparatus for encoding and decoding an audio signal. |
US7996216B2 (en) | 2005-07-11 | 2011-08-09 | Lg Electronics Inc. | Apparatus and method of encoding and decoding audio signal |
KR101169280B1 (en) | 2005-08-30 | 2012-08-02 | 엘지전자 주식회사 | Method and apparatus for decoding an audio signal |
US7788107B2 (en) | 2005-08-30 | 2010-08-31 | Lg Electronics Inc. | Method for decoding an audio signal |
US7765104B2 (en) | 2005-08-30 | 2010-07-27 | Lg Electronics Inc. | Slot position coding of residual signals of spatial audio coding application |
US8577483B2 (en) | 2005-08-30 | 2013-11-05 | Lg Electronics, Inc. | Method for decoding an audio signal |
US7751485B2 (en) | 2005-10-05 | 2010-07-06 | Lg Electronics Inc. | Signal processing using pilot based coding |
US7696907B2 (en) | 2005-10-05 | 2010-04-13 | Lg Electronics Inc. | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US7646319B2 (en) | 2005-10-05 | 2010-01-12 | Lg Electronics Inc. | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US7672379B2 (en) | 2005-10-05 | 2010-03-02 | Lg Electronics Inc. | Audio signal processing, encoding, and decoding |
KR100857112B1 (en) | 2005-10-05 | 2008-09-05 | 엘지전자 주식회사 | Method and apparatus for signal processing and encoding and decoding method, and apparatus therefor |
US8068569B2 (en) | 2005-10-05 | 2011-11-29 | Lg Electronics, Inc. | Method and apparatus for signal processing and encoding and decoding |
KR101169281B1 (en) | 2005-10-05 | 2012-08-02 | 엘지전자 주식회사 | Method and apparatus for audio signal processing and encoding and decoding method, and apparatus therefor |
US7653533B2 (en) | 2005-10-24 | 2010-01-26 | Lg Electronics Inc. | Removing time delays in signal paths |
WO2007091927A1 (en) * | 2006-02-06 | 2007-08-16 | Telefonaktiebolaget Lm Ericsson (Publ) | Variable frame offset coding |
US7461106B2 (en) | 2006-09-12 | 2008-12-02 | Motorola, Inc. | Apparatus and method for low complexity combinatorial coding of signals |
US8576096B2 (en) | 2007-10-11 | 2013-11-05 | Motorola Mobility Llc | Apparatus and method for low complexity combinatorial coding of signals |
US8209190B2 (en) | 2007-10-25 | 2012-06-26 | Motorola Mobility, Inc. | Method and apparatus for generating an enhancement layer within an audio coding system |
US7889103B2 (en) | 2008-03-13 | 2011-02-15 | Motorola Mobility, Inc. | Method and apparatus for low complexity combinatorial coding of signals |
US8639519B2 (en) | 2008-04-09 | 2014-01-28 | Motorola Mobility Llc | Method and apparatus for selective signal coding based on core encoder performance |
EP2124486A1 (en) * | 2008-05-13 | 2009-11-25 | Clemens Par | Angle-dependent operating device or method for generating a pseudo-stereophonic audio signal |
WO2009141775A1 (en) | 2008-05-23 | 2009-11-26 | Koninklijke Philips Electronics N.V. | A parametric stereo upmix apparatus, a parametric stereo decoder, a parametric stereo downmix apparatus, a parametric stereo encoder |
ES2400987T3 (en) * | 2008-09-17 | 2013-04-16 | France Telecom | Attenuation of pre-echoes in a digital audio signal |
JP5309944B2 (en) | 2008-12-11 | 2013-10-09 | 富士通株式会社 | Audio decoding apparatus, method, and program |
US8175888B2 (en) | 2008-12-29 | 2012-05-08 | Motorola Mobility, Inc. | Enhanced layered gain factor balancing within a multiple-channel audio coding system |
US8140342B2 (en) | 2008-12-29 | 2012-03-20 | Motorola Mobility, Inc. | Selective scaling mask computation based on peak detection |
US8219408B2 (en) | 2008-12-29 | 2012-07-10 | Motorola Mobility, Inc. | Audio signal decoder and method for producing a scaled reconstructed audio signal |
US8200496B2 (en) | 2008-12-29 | 2012-06-12 | Motorola Mobility, Inc. | Audio signal decoder and method for producing a scaled reconstructed audio signal |
EP2461321B1 (en) | 2009-07-31 | 2018-05-16 | Panasonic Intellectual Property Management Co., Ltd. | Coding device and decoding device |
JP5295380B2 (en) * | 2009-10-20 | 2013-09-18 | パナソニック株式会社 | Encoding device, decoding device and methods thereof |
EP2346028A1 (en) * | 2009-12-17 | 2011-07-20 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal |
US9042560B2 (en) * | 2009-12-23 | 2015-05-26 | Nokia Corporation | Sparse audio |
US8442837B2 (en) | 2009-12-31 | 2013-05-14 | Motorola Mobility Llc | Embedded speech and audio coding using a switchable model core |
US8423355B2 (en) | 2010-03-05 | 2013-04-16 | Motorola Mobility Llc | Encoder for audio signal including generic audio and speech frames |
US8428936B2 (en) | 2010-03-05 | 2013-04-23 | Motorola Mobility Llc | Decoder for audio signal including generic audio and speech frames |
EP2544466A1 (en) * | 2011-07-05 | 2013-01-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Method and apparatus for decomposing a stereo recording using frequency-domain processing employing a spectral subtractor |
US9129600B2 (en) | 2012-09-26 | 2015-09-08 | Google Technology Holdings LLC | Method and apparatus for encoding an audio signal |
EP3579228A1 (en) * | 2012-11-15 | 2019-12-11 | NTT DoCoMo, Inc. | Audio coding device, audio coding method, audio coding program, audio decoding device, audio decoding method, and audio decoding program |
CN107742521B (en) | 2016-08-10 | 2021-08-13 | 华为技术有限公司 | Coding method and coder for multi-channel signal |
CN109215668B (en) | 2017-06-30 | 2021-01-05 | 华为技术有限公司 | Method and device for encoding inter-channel phase difference parameters |
CN112233682A (en) * | 2019-06-29 | 2021-01-15 | 华为技术有限公司 | Stereo coding method, stereo decoding method and device |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5434948A (en) * | 1989-06-15 | 1995-07-18 | British Telecommunications Public Limited Company | Polyphonic coding |
NL9100173A (en) * | 1991-02-01 | 1992-09-01 | Philips Nv | SUBBAND CODING DEVICE, AND A TRANSMITTER EQUIPPED WITH THE CODING DEVICE. |
US5285498A (en) * | 1992-03-02 | 1994-02-08 | At&T Bell Laboratories | Method and apparatus for coding audio signals based on perceptual model |
US5694332A (en) * | 1994-12-13 | 1997-12-02 | Lsi Logic Corporation | MPEG audio decoding system with subframe input buffering |
US5956674A (en) * | 1995-12-01 | 1999-09-21 | Digital Theater Systems, Inc. | Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels |
US5812971A (en) * | 1996-03-22 | 1998-09-22 | Lucent Technologies Inc. | Enhanced joint stereo coding method using temporal envelope shaping |
US5796842A (en) * | 1996-06-07 | 1998-08-18 | That Corporation | BTSC encoder |
US6463410B1 (en) * | 1998-10-13 | 2002-10-08 | Victor Company Of Japan, Ltd. | Audio signal processing apparatus |
US6226616B1 (en) * | 1999-06-21 | 2001-05-01 | Digital Theater Systems, Inc. | Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility |
JP3335605B2 (en) * | 2000-03-13 | 2002-10-21 | 日本電信電話株式会社 | Stereo signal encoding method |
KR100871999B1 (en) * | 2001-05-08 | 2008-12-05 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Audio coding |
JP2003084790A (en) * | 2001-09-17 | 2003-03-19 | Matsushita Electric Ind Co Ltd | Speech component emphasizing device |
CN1219415C (en) * | 2002-07-23 | 2005-09-14 | 华南理工大学 | 5.1 path surround sound earphone repeat signal processing method |
-
2004
- 2004-02-20 SE SE0400417A patent/SE527670C2/en unknown
- 2004-12-15 JP JP2006518596A patent/JP4335917B2/en not_active Expired - Fee Related
- 2004-12-15 ZA ZA200508980A patent/ZA200508980B/en unknown
- 2004-12-15 RU RU2005134365/09A patent/RU2305870C2/en active
- 2004-12-15 AT AT04820553T patent/ATE371924T1/en not_active IP Right Cessation
- 2004-12-15 AT AT07109801T patent/ATE443317T1/en not_active IP Right Cessation
- 2004-12-15 EP EP04820553A patent/EP1623411B1/en active Active
- 2004-12-15 BR BRPI0410856A patent/BRPI0410856B8/en active IP Right Grant
- 2004-12-15 CA CA2690885A patent/CA2690885C/en active Active
- 2004-12-15 CA CA2527971A patent/CA2527971C/en active Active
- 2004-12-15 BR BRPI0419281-8A patent/BRPI0419281B1/en not_active IP Right Cessation
- 2004-12-15 AU AU2004298708A patent/AU2004298708B2/en active Active
- 2004-12-15 CN CN200710138487XA patent/CN101118747B/en not_active Expired - Fee Related
- 2004-12-15 WO PCT/SE2004/001867 patent/WO2005059899A1/en active IP Right Grant
- 2004-12-15 EP EP07109801A patent/EP1845519B1/en active Active
- 2004-12-15 DE DE602004023240T patent/DE602004023240D1/en active Active
- 2004-12-15 PL PL04820553T patent/PL1623411T3/en unknown
- 2004-12-15 MX MXPA05012230A patent/MXPA05012230A/en active IP Right Grant
- 2004-12-15 CN CNB2004800186630A patent/CN100559465C/en active Active
- 2004-12-15 DE DE602004008613T patent/DE602004008613T2/en active Active
-
2006
- 2006-11-01 HK HK06112026.7A patent/HK1091585A1/en unknown
- 2006-11-01 HK HK08106066.8A patent/HK1115665A1/en unknown
-
2007
- 2007-06-05 RU RU2007121143/09A patent/RU2425340C2/en active
- 2007-08-22 JP JP2007216374A patent/JP4589366B2/en not_active Expired - Fee Related
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009522895A (en) * | 2006-01-09 | 2009-06-11 | ノキア コーポレイション | Decoding binaural audio signals |
JP2009522894A (en) * | 2006-01-09 | 2009-06-11 | ノキア コーポレイション | Decoding binaural audio signals |
WO2010016270A1 (en) * | 2008-08-08 | 2010-02-11 | パナソニック株式会社 | Quantizing device, encoding device, quantizing method, and encoding method |
JP2018533058A (en) * | 2015-09-25 | 2018-11-08 | ヴォイスエイジ・コーポレーション | Method and system for encoding the left and right channels of a stereo audio signal that selects between a two-subframe model and a four-subframe model according to a bit budget |
US10984806B2 (en) | 2015-09-25 | 2021-04-20 | Voiceage Corporation | Method and system for encoding a stereo sound signal using coding parameters of a primary channel to encode a secondary channel |
US11056121B2 (en) | 2015-09-25 | 2021-07-06 | Voiceage Corporation | Method and system for encoding left and right channels of a stereo sound signal selecting between two and four sub-frames models depending on the bit budget |
JP2021529340A (en) * | 2018-06-29 | 2021-10-28 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Stereo signal coding method and device, and stereo signal decoding method and device |
US11462223B2 (en) | 2018-06-29 | 2022-10-04 | Huawei Technologies Co., Ltd. | Stereo signal encoding method and apparatus, and stereo signal decoding method and apparatus |
JP7160953B2 (en) | 2018-06-29 | 2022-10-25 | ホアウェイ・テクノロジーズ・カンパニー・リミテッド | Stereo signal encoding method and apparatus, and stereo signal decoding method and apparatus |
US11790923B2 (en) | 2018-06-29 | 2023-10-17 | Huawei Technologies Co., Ltd. | Stereo signal encoding method and apparatus, and stereo signal decoding method and apparatus |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4335917B2 (en) | Fidelity optimized variable frame length coding | |
JP4809370B2 (en) | Adaptive bit allocation in multichannel speech coding. | |
US7809579B2 (en) | Fidelity-optimized variable frame length encoding | |
JP5277508B2 (en) | Apparatus and method for encoding a multi-channel acoustic signal | |
KR101183857B1 (en) | Method and apparatus to encode and decode multi-channel audio signals | |
JP5153791B2 (en) | Stereo speech decoding apparatus, stereo speech encoding apparatus, and lost frame compensation method | |
US20090204397A1 (en) | Linear predictive coding of an audio signal | |
EP1603118A2 (en) | Efficient and scalable parametric stereo coding for low bitrate audio coding applications | |
JPWO2009057327A1 (en) | Encoding device and decoding device | |
US7725324B2 (en) | Constrained filter encoding of polyphonic signals | |
JPWO2008132826A1 (en) | Stereo speech coding apparatus and stereo speech coding method | |
JP4323520B2 (en) | Constrained filter coding of polyphonic signals | |
AU2007237227B2 (en) | Fidelity-optimised pre-echo suppressing encoding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080507 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20080717 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20080725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081105 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090501 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090601 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090625 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4335917 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120703 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130703 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |