JPH0865169A - Coding method and coder, decoder and recording medium - Google Patents

Coding method and coder, decoder and recording medium

Info

Publication number
JPH0865169A
JPH0865169A JP7134117A JP13411795A JPH0865169A JP H0865169 A JPH0865169 A JP H0865169A JP 7134117 A JP7134117 A JP 7134117A JP 13411795 A JP13411795 A JP 13411795A JP H0865169 A JPH0865169 A JP H0865169A
Authority
JP
Japan
Prior art keywords
common
signal
channels
encoding
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7134117A
Other languages
Japanese (ja)
Other versions
JP3397001B2 (en
Inventor
Masatoshi Ueno
正俊 上野
Shinji Miyamori
慎二 宮森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP13411795A priority Critical patent/JP3397001B2/en
Publication of JPH0865169A publication Critical patent/JPH0865169A/en
Application granted granted Critical
Publication of JP3397001B2 publication Critical patent/JP3397001B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

PURPOSE: To realize a high degree compression of a multi-channel signal by processing a digital signal of a part of channel as a common signal and applying coding processing to the signal. CONSTITUTION: Audio data of each channel of a center C, a left L, a right R, a left surround SL and a right surround SR from input terminals 101a-101e are given to a common processing analyzer 102. An output of the analyzer 102 is given to extracted devices 103a-103e of corresponding channels and a common component is extracted from the original audio data for each channel and only the remaining components are fed to coders 105a-105e. An output of the analyzer 102 is fed also to a common data generator 104, in which common data of each channel are collected and rearranged and then the result is outputted. Each coder 105 gives common processing parameter information to a multiplexer 106 together with the coding data and the data are multiplexed into one-bit-stream.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば、ビデオディス
クプレーヤ、ビデオテープレコーダ、映画フィルム映画
システム等のステレオや、いわゆるマルチサラウンド音
響システムにおいて用いられる、マルチチャネルの信号
を圧縮符号化及び復号化する符号化方法及び装置、復号
化装置、並びに記録媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention, for example, compresses and encodes multi-channel signals used in stereo such as video disc players, video tape recorders, motion picture film movie systems, and so-called multi-surround audio systems. The present invention relates to an encoding method and device, a decoding device, and a recording medium.

【0002】[0002]

【従来の技術】従来より、オーディオ或いは音声等の信
号の高能率符号化の手法には種々あるが、例えば、時間
軸の信号を所定時間単位でブロック化してこのブロック
毎の時間軸の信号を周波数軸上の信号に直交変換(スペ
クトル変換)して複数の周波数帯域に分割し、各帯域毎
に符号化するブロック化周波数帯域分割方式であるいわ
ゆる変換符号化がある。
2. Description of the Related Art Conventionally, there are various techniques for high-efficiency coding of a signal such as audio or voice. For example, a signal on the time axis is divided into blocks in a predetermined time unit and the signal on the time axis for each block is There is so-called transform coding, which is a blocking frequency band division method in which a signal on the frequency axis is orthogonally transformed (spectral transform) to be divided into a plurality of frequency bands and each band is encoded.

【0003】また、時間軸上のオーディオ信号等をブロ
ック化しないで、複数の周波数帯域に分割して符号化す
る非ブロック化周波数帯域分割方式であるいわゆる帯域
分割符号化(サブ・バンド・コーディング:SBC)等
を挙げることができる。また、上述の帯域分割符号化と
変換符号化とを組み合わせた高能率符号化の手法も考え
られており、この場合には、例えば、上記帯域分割符号
化で帯域分割を行った後、該各帯域毎の信号を周波数軸
上の信号にスペクトル変換し、このスペクトル変換され
た信号を各帯域毎に符号化する。
Further, so-called band division coding (sub-band coding: a non-blocking frequency band division method) in which an audio signal on the time axis is not divided into blocks and is divided into a plurality of frequency bands for encoding. SBC) etc. can be mentioned. Further, a method of high efficiency coding in which the above band division coding and transform coding are combined is also considered, and in this case, for example, after performing band division by the band division coding, A signal for each band is spectrally converted into a signal on the frequency axis, and the spectrum-converted signal is encoded for each band.

【0004】ここで、上述した帯域分割符号化において
用いられる帯域分割用フィルタとしては、例えばQMF
(Quadrature Miller Filter)などのフィルタがあり、こ
のQMFのフィルタは、文献「ディジタル・コーディン
グ・オブ・スピーチ・イン・サブバンズ」("Digital co
ding of speech in subbands" R.E.Crochiere, BellSy
st.Tech. J., Vol.55,No.8 1976) に述べられている。
このQMFのフィルタは、帯域を等バンド幅に2分割す
るものであり、当該フィルタにおいては上記分割した帯
域を後に合成する際にいわゆるエリアシングが発生しな
いことが特徴となっている。また、文献「ポリフェイズ
・クァドラチュア・フィルターズ−新しい帯域分割符号
化技術」("Polyphase Quadrature filters -A new subb
andcoding technique", Joseph H. Rothweiler ICASSP
83, BOSTON)には、等帯域幅のフィルタ分割手法が述べ
られている。このポリフェイズ・クァドラチュア・フィ
ルタにおいては、信号を等バンド幅の複数の帯域に分割
する際に一度に分割できることが特徴となっている。
Here, as the band division filter used in the above band division encoding, for example, QMF is used.
(Quadrature Miller Filter) and other filters, and this QMF filter is based on the document "Digital Coding of Speech in Subvans"("Digital co
ding of speech in subbands "RECrochiere, BellSy
st.Tech. J., Vol.55, No.8 1976).
This QMF filter divides the band into two equal bandwidths, and is characterized in that so-called aliasing does not occur when the divided bands are combined later. In addition, the document "Polyphase Quadrature filters -A new subb"
andcoding technique ", Joseph H. Rothweiler ICASSP
83, BOSTON) describes a method of equal bandwidth filtering. This polyphase quadrature filter is characterized in that when a signal is divided into a plurality of bands of equal bandwidth, it can be divided at one time.

【0005】さらに、上述した直交変換のスペクトル変
換としては、例えば、入力オーディオ信号を所定単位時
間(フレーム)でブロック化し、当該ブロック毎に離散
フーリエ変換(DFT)、離散コサイン変換(DC
T)、モディファイド離散コサイン変換(MDCT)等
を行うことで時間軸上の信号を周波数軸上の信号に変換
するようなスペクトル変換がある。なお、上記MDCT
については、文献「時間領域エリアシング・キャンセル
を基礎とするフィルタ・バンク設計を用いたサブバンド
/変換符号化」("Subband/Transform Coding Using Fil
ter Bank Designs Based on Time Domain Aliasing Can
cellation," J.P.Princen A.B.Bradley, Univ. of Surr
ey Royal Melbourne Inst. of Tech. ICASSP 1987) に
述べられている。
Further, as the spectrum conversion of the above-mentioned orthogonal conversion, for example, the input audio signal is divided into blocks in a predetermined unit time (frame), and the discrete Fourier transform (DFT) and the discrete cosine transform (DC) are performed for each block.
T), modified discrete cosine transform (MDCT), etc. are used to convert a signal on the time axis into a signal on the frequency axis. The above MDCT
For the paper "Subband / Transform Coding Using Fil".
ter Bank Designs Based on Time Domain Aliasing Can
cellation, "JPPrincen ABBradley, Univ. of Surr
ey Royal Melbourne Inst. of Tech. ICASSP 1987).

【0006】このようにフィルタやスペクトル変換によ
って帯域毎に分割された信号を量子化することにより、
量子化雑音が発生する帯域を制御することができ、いわ
ゆるマスキング効果などの性質を利用して聴覚的により
高能率な符号化を行うことができる。また、ここで量子
化を行う前に、各帯域毎に、例えばその帯域における信
号成分の絶対値の最大値で正規化を行うようにすれば、
さらに高能率な符号化を行うことができる。
In this way, by quantizing the signal divided for each band by the filter and the spectrum conversion,
It is possible to control the band in which the quantization noise is generated, and it is possible to perform auditory and more efficient encoding by utilizing the properties such as the so-called masking effect. In addition, if the normalization is performed for each band, for example, with the maximum absolute value of the signal component in that band before performing the quantization here,
Furthermore, highly efficient encoding can be performed.

【0007】ここで、周波数帯域分割された各周波数成
分を量子化する場合の周波数分割幅としては、例えば人
間の聴覚特性を考慮した帯域幅を用いることが多い。す
なわち、一般に高域ほど帯域幅が広くなるような臨界帯
域(クリティカルバンド)と呼ばれている帯域幅で、オ
ーディオ信号を複数(例えば25バンド)の帯域に分割
することがある。また、この時の各帯域毎のデータを量
子化する際には、各帯域毎に所定のビット配分或いは、
各帯域毎に適応的なビット割当て(ビットアロケーショ
ン)による量子化が行われる。例えば、上記MDCT処
理されて得られた係数データを上記ビットアロケーショ
ンによって量子化する際には、上記各ブロック毎のMD
CT処理により得られる各帯域毎のMDCT係数データ
に対して、適応的な割当てビット数(適応的な配分ビッ
ト数)で量子化が行われることになる。
Here, as the frequency division width in the case of quantizing each frequency component divided into frequency bands, for example, a bandwidth considering human auditory characteristics is often used. That is, the audio signal may be divided into a plurality of bands (for example, 25 bands) with a bandwidth generally called a critical band in which the higher the band, the wider the bandwidth. Further, when quantizing the data for each band at this time, a predetermined bit allocation for each band, or
Quantization is performed by adaptive bit allocation (bit allocation) for each band. For example, when the coefficient data obtained by the MDCT processing is quantized by the bit allocation, the MD of each block is
The MDCT coefficient data for each band obtained by the CT process is quantized by the adaptive allocation bit number (adaptive allocation bit number).

【0008】上記ビット割当手法(ビット配分手法)と
しては、次の2手法が知られている。
The following two methods are known as the above-mentioned bit allocation method (bit allocation method).

【0009】例えば、文献「音声信号の適応変換符号
化」("Adaptive Transform Codingof Speech Signal
s", IEEE Transactions of Accoustics, Speech, and S
ignalProcessing, vol.ASSP-25, No.4, August 1977)
では、各帯域毎の信号の大きさをもとに、ビット割当を
行っている。
For example, the document "Adaptive Transform Coding of Speech Signal"
s ", IEEE Transactions of Accoustics, Speech, and S
ignalProcessing, vol.ASSP-25, No.4, August 1977)
In, bit allocation is performed based on the signal size of each band.

【0010】また、例えば文献「臨界帯域符号化器−デ
ィジタル・エンコーディング・オブ・パーセプチュアル
・リクワイアメンツ・オブ・ジ・オーディトリィ・シス
テム」("The critical band coder --digital encodin
g of the perceptualrequirements of the auditory s
ystem", M.A.Kransner MIT, ICASSP 1980 )では、聴覚
マスキングを利用することで、各帯域毎に必要な信号対
雑音比を得て固定的なビット割当を行う手法が述べられ
ている。
In addition, for example, the document "Critical Band Encoder-Digital Encoding of Perceptual Requirements of the Auditory System"("The critical band coder --digital encodin").
g of the perceptual requirements of the auditory s
ystem ", MAKransner MIT, ICASSP 1980) describes a method for obtaining a required signal-to-noise ratio for each band and performing fixed bit allocation by using auditory masking.

【0011】[0011]

【発明が解決しようとする課題】ところで、例えば上述
したようなサブバンドコーディング等を用いたオーディ
オ信号の高能率圧縮符号化方式においては、人間の聴覚
上の特性を利用し、オーディオデータを約1/5に圧縮
するような方式が既に実用化されている。なお、このオ
ーディオデータを約1/5に圧縮する高能率符号化方式
としては、例えば直径が64mmの光磁気ディスクであ
るいわゆるミニディスク(MD、商標)に対して、オー
ディオデータを記録する際に採用されている、オーディ
オデータの圧縮符号化方式のATRAC(Adaptive TRa
nsform Acoustic Coding、商標) と呼ばれる方式が存在
する。
By the way, for example, in the high-efficiency compression encoding system for audio signals using the above-mentioned sub-band coding or the like, the human auditory characteristic is utilized to convert the audio data into about 1 A method of compressing to / 5 has already been put into practical use. As a high-efficiency encoding method for compressing this audio data to about 1/5, for example, when recording audio data on a so-called mini disk (MD, trademark) which is a magneto-optical disk having a diameter of 64 mm. ATRAC (Adaptive TRa), which is the compression encoding method for audio data
There is a method called nsform Acoustic Coding (trademark).

【0012】また、通常のオーディオ機器の場合のみな
らず、例えば映画フィルム映画システム、高品位テレビ
ジョン、ビデオテープレコーダ、ビデオディスクプレー
ヤ等のステレオないしはマルチサラウンド音響システム
においては、例えば4〜8チャネル等の複数チャネルの
オーディオ或いは音声信号を扱うようになりつつあり、
この場合においても、ビットレートを削減する高能率符
号化を行うことが望まれている。
Further, not only in the case of ordinary audio equipment but also in stereo or multi-surround sound systems such as motion picture film movie systems, high-definition televisions, video tape recorders, video disc players, etc., for example, 4 to 8 channels, etc. Are handling audio or voice signals of multiple channels of
Even in this case, it is desired to perform high efficiency coding that reduces the bit rate.

【0013】特に、上記映画フィルムに対して例えばレ
フトチャネル,レフトセンタチャネル,センタチャネ
ル,ライトセンタチャネル,ライトチャネル,レフトサ
ラウンドチャネル,ライトサラウンドチャネル,サブウ
ーファーチャネルの8チャネルのディジタルオーディオ
信号を記録するような場合においては、上記ビットレー
トを削減する高能率符号化が必要となる。すなわち、例
えばいわゆるCD(コンパクトディスク、商標)などで
用いているようなサンプリング周波数44.1kHzで
16ビットの直線量子化されたオーディオデータの上記
8チャネル分をも記録できる領域は、上記映画フィルム
上に確保することが困難であり、したがって、当該オー
ディオデータの圧縮が必要になる。
Particularly, for example, eight channels of digital audio signals of a left channel, a left center channel, a center channel, a right center channel, a right channel, a left surround channel, a right surround channel, and a subwoofer channel are recorded on the above-mentioned motion picture film. In such a case, high-efficiency coding that reduces the bit rate is required. That is, an area in which the above 8 channels of 16-bit linearly quantized audio data can be recorded at a sampling frequency of 44.1 kHz as used in so-called CD (Compact Disc, trademark), etc. It is difficult to secure the audio data, and it is therefore necessary to compress the audio data.

【0014】なお、上記映画フィルムに記録する上記8
チャネルの各チャネルは、例えば当該映画フィルムの画
像記録領域から再生された画像が映画機によって投影さ
れるスクリーン側に配置されたレフトスピーカ、レフト
センタスピーカ、センタスピーカ、ライトセンタスピー
カ、ライトスピーカ、サラウンドレフトスピーカ、サラ
ウンドライトスピーカ、サブウーファースピーカとそれ
ぞれ対応するものである。ここで、上記センタスピーカ
は、スクリーン側の中央に配置され、センタチャネルの
オーディオデータによる再生音を出力するもので、例え
ば俳優のせりふ等の最も重要な再生音を出力する。上記
サブウーファースピーカは、サブウーファーチャネルの
オーディオデータによる再生音を出力するもので、例え
ば爆発音などの低域の音というよりは振動として感じら
れる音を効果的に出力するものであり、爆発シーンなど
に効果的に使用されることが多いものである。上記レフ
トスピーカ及びライトスピーカは、上記スクリーンの左
右に配置され、レフトチャネルのオーディオデータによ
る再生音とライトチャネルのオーディオデータによる再
生音を出力するもので、ステレオ音響効果を発揮する。
上記レフトセンタスピーカは上記レフトスピーカとセン
タスピーカとの間に配置され、また上記ライトセンタス
ピーカは上記センタスピーカとライトスピーカとの間に
配置されるものである。上記レフトセンタスピーカはレ
フトセンタチャネルのオーディオデータによる再生音を
出力し、上記ライトセンタスピーカはライトセンタチャ
ネルのオーディオデータによる再生音を出力するもの
で、それぞれ上記レフトスピーカ若しくはライトスピー
カの補助的な役割を果たす。特にスクリーンが大きく収
容人数の多い映画館等では、座席の位置によって音像の
定位が不安定になりやすいが、上記レフトセンタスピー
カとライトセンタスピーカを付加することにより、音像
のよりリアルな定位を作り出すのに効果を発揮する。
The above-mentioned 8 recorded on the above-mentioned motion picture film
Each channel is, for example, a left speaker, a left center speaker, a center speaker, a right center speaker, a right speaker, a surround arranged on the screen side where an image reproduced from the image recording area of the movie film is projected by the movie machine. It corresponds to a left speaker, a surround right speaker, and a subwoofer speaker, respectively. Here, the center speaker is arranged in the center of the screen side and outputs a reproduced sound based on the audio data of the center channel, and outputs the most important reproduced sound such as an actor's dialogue. The subwoofer speaker outputs a reproduced sound based on audio data of the subwoofer channel and effectively outputs a sound felt as vibration rather than a low frequency sound such as an explosion sound. It is often used effectively for such purposes. The left speaker and the right speaker are arranged on the left and right of the screen, and output a reproduced sound by the left channel audio data and a reproduced sound by the right channel audio data, and exhibit a stereo sound effect.
The left center speaker is arranged between the left speaker and the center speaker, and the right center speaker is arranged between the center speaker and the right speaker. The left center speaker outputs a reproduced sound based on the audio data of the left center channel, and the right center speaker outputs a reproduced sound based on the audio data of the right center channel. Each of the left center speaker and the right speaker plays an auxiliary role. Fulfill. Especially in a movie theater with a large screen and a large number of seats, the localization of the sound image tends to be unstable depending on the position of the seat, but by adding the above left center speaker and right center speaker, a more realistic localization of the sound image is created. Exert an effect on.

【0015】さらに、上記サラウンドレフトスピーカと
サラウンドライトスピーカは、観客席を取り囲むように
配置され、レフトサラウンドチャネルのオーディオデー
タによる再生音とライトサラウンドチャネルのオーディ
オデータによる再生音を出力するもので、残響音や拍
手、歓声に包まれた印象を与える効果がある。これによ
り、より立体的な音像を作り出すことができる。
Further, the surround left speaker and the surround right speaker are arranged so as to surround a spectator's seat, and output a reproduced sound of left surround channel audio data and a reproduced sound of right surround channel audio data. It has the effect of giving an impression of sound, applause, and cheers. As a result, a more stereoscopic sound image can be created.

【0016】また、フィルムという媒体は、表面に傷な
どが発生しやすいため、ディジタルデータをオリジナル
のまま記録していたのでは、データ欠けが激しく実用に
ならない。このため、エラー訂正符号の能力が非常に重
要になり、上記データ圧縮は、その訂正符号も含めて上
記フィルム上の記録領域に記録可能な程度まで行う必要
がある。
Further, since the surface of the medium called film is apt to be scratched, if the original digital data is recorded, the data will be seriously lost and it will not be put to practical use. For this reason, the capability of the error correction code becomes very important, and the data compression must be performed to the extent that it can be recorded in the recording area on the film including the correction code.

【0017】このようなことから、上記8チャネルのデ
ィジタルオーディオデータを圧縮する圧縮方法として
は、上述したような人間の聴覚の特性を考慮して最適な
ビット割り当てを行うことによって、例えばCDなどに
記録されるようなサンプリング周波数44.1kHzで
16ビットのディジタルオーディオデータを約1/5に
圧縮しながらも、当該CD並の音質を達成する前記高能
率符号化方式(いわゆるATRAC方式など)を適用す
るようにしている。
From the above, as a compression method for compressing the 8-channel digital audio data, the optimum bit allocation is performed in consideration of the characteristics of the human auditory sense as described above, so that, for example, in a CD or the like. The 16-bit digital audio data having a sampling frequency of 44.1 kHz to be recorded is compressed to about ⅕, and the high-efficiency encoding method (so-called ATRAC method or the like) that achieves sound quality comparable to that of the CD is applied. I am trying to do it.

【0018】しかし、上記ディジタルオーディオデータ
を約1/5に圧縮する高能率符号化方式は、シングルチ
ャネル用の符号化方式であり、これを用いてマルチチャ
ネルオーディオデータを符号化する場合には、チャネル
間のデータの依存関係や、各チャネルのデータ特性、フ
ォーマット特性といった要素を用いた効果的なデータ符
号化処理をすることができない。
However, the high-efficiency coding method for compressing the digital audio data to about 1/5 is a single-channel coding method, and when using this to code multi-channel audio data, It is not possible to perform effective data coding processing using factors such as data dependency between channels, data characteristics of each channel, and format characteristics.

【0019】また、人間の聴覚は高周波数帯域の音に対
して方向感が不確定になる傾向があるので、高周波数帯
域においてはチャネル間でデータを共通化して符号化
し、この共通化して符号化したデータを記録することに
より、記録領域を削減する方法もある。しかし、音の方
向感は不確定になるものの、音のレベル差は感知できる
ため、特にチャネル間で相関が弱い場合などでは、マル
チチャネルで再生した場合に音場の変化として人間の耳
に知覚されてしまうことが多い。
In human hearing, the sense of direction tends to be uncertain with respect to sounds in the high frequency band. Therefore, in the high frequency band, data is shared between channels and coded, and this shared code is used. There is also a method of reducing the recording area by recording the converted data. However, although the sense of direction of the sound is uncertain, the level difference of the sound can be sensed, and thus when the sound is reproduced in multiple channels, it is perceived by the human ear as a change in the sound field, especially when the correlation between the channels is weak. It is often done.

【0020】そこで、本発明は、上述したようなことを
鑑み、マルチチャネルの信号の圧縮符号化において、マ
ルチチャネル間のディジタルデータの相関関係の程度に
よらずにさらに高圧縮を実現でき、かつ既存の符号器及
び復号器を利用して実現可能な符号化方法及び装置、復
号化装置、並びに記録媒体を提供することを目的として
いる。
In view of the above, the present invention can realize higher compression in the compression coding of multi-channel signals regardless of the degree of correlation of digital data between the multi-channels, and An object of the present invention is to provide an encoding method and device, a decoding device, and a recording medium that can be realized by using an existing encoder and decoder.

【0021】[0021]

【課題を解決するための手段】本発明はこのような実情
に鑑みてなされたものであり、本発明の符号化方法は、
複数チャネルのディジタル信号を符号化し、当該符号化
されたディジタル信号と当該符号化のパラメータ情報と
を出力する、符号化方法であり、複数チャネルのディジ
タル信号の少なくとも一部のチャネルのディジタル信号
を共通化した信号とする共通化ステップと、上記ディジ
タル信号の周波数特性又は目的とする再生環境に応じ
て、上記共通化するチャネルの組み合わせを変更する変
更ステップと、上記共通化したチャネルの組み合わせを
示すパラメータ情報を出力するパラメータ情報出力ステ
ップと、上記共通化した信号を符号化して出力する符号
化ステップと、上記パラメータ情報と符号化出力とを多
重化する多重化ステップとからなることにより、上述の
課題を解決する。
The present invention has been made in view of such circumstances, and the encoding method of the present invention is
A coding method for coding a digital signal of a plurality of channels and outputting the coded digital signal and parameter information of the coding, wherein a digital signal of at least a part of the digital signals of the plurality of channels is shared. Commonizing step to make the signal into a unified signal, a changing step to change the combination of the channels to be made common according to the frequency characteristics of the digital signal or the intended reproduction environment, and a parameter indicating the combination of the made common channels. A parameter information output step of outputting information, an encoding step of encoding and outputting the common signal, and a multiplexing step of multiplexing the parameter information and the encoded output, thereby making it possible to solve the above problems. To solve.

【0022】また、本発明の符号化装置は、複数チャネ
ルのディジタル信号を符号化し、当該符号化されたディ
ジタル信号と共に当該符号化のパラメータ情報を出力す
る符号化装置であり、複数チャネルのディジタル信号の
少なくとも一部のチャネルのディジタル信号を共通化し
た信号とする共通化手段と、上記ディジタル信号の周波
数特性及び目的とする再生環境に応じて上記共通化を行
うチャネルの組み合わせを変更する変更手段と、上記共
通化したチャネルの組み合わせを示すパラメータ情報を
出力するパラメータ情報出力手段と、上記共通化した信
号を符号化する符号化手段と、上記パラメータ情報と上
記符号化出力とを多重化する多重化手段とを有すること
により、上述の課題を解決する。
The encoding device of the present invention is an encoding device that encodes digital signals of a plurality of channels and outputs the parameter information of the encoding together with the encoded digital signals. And a changing means for changing the combination of the channels to be shared according to the frequency characteristics of the digital signal and the intended reproduction environment. , Parameter information output means for outputting parameter information indicating a combination of the common channels, encoding means for encoding the common signals, and multiplexing for multiplexing the parameter information and the encoded output Means to solve the above problems.

【0023】また、本発明の復号化装置は、複数チャネ
ルのディジタル信号の一部又は全部を1又は複数の共通
化した信号として扱うと共に、当該ディジタル信号の周
波数特性及び目的とする再生環境に応じて上記共通化を
行うチャネルの組み合わせが変更された信号を含む複数
チャネルの符号化されたディジタル信号を、当該符号化
のパラメータ情報を用いて復号化する復号化装置であっ
て、上記共通化された信号を復号化する復号化手段と、
上記共通化の組み合わせに応じて当該復号化した共通化
された信号を複数チャネルに振り分ける振り分け手段
と、上記振り分けられた共通化された信号に基づき、上
記複数チャネルの各ディジタル信号を復元する復元手段
とを有することを特徴としている。
Further, the decoding apparatus of the present invention handles a part or all of the digital signals of a plurality of channels as one or a plurality of common signals, and depending on the frequency characteristics of the digital signals and the intended reproduction environment. A decoding device for decoding encoded digital signals of a plurality of channels including a signal in which a combination of channels to be shared is changed using the parameter information of the encoding, and Decoding means for decoding the received signal,
Distribution means for distributing the decoded common signal to a plurality of channels in accordance with the combination of the commonization, and restoration means for restoring each digital signal of the plurality of channels based on the distributed commonized signal. It is characterized by having and.

【0024】さらに、本発明の記録媒体は、複数チャネ
ルのディジタル信号の少なくとも一つのチャネルの信号
を共通化した信号として扱うと共に、当該ディジタル信
号の周波数特性及び目的とする再生環境に応じて上記共
通化を行うチャネルの組み合わせを変更し、上記共通化
した信号を符号化した信号と、共通化を行うチャネルの
組み合わせを示すパラメータ情報と、当該共通化した信
号を除く他の信号を符号化した信号とを、符号化のパラ
メータ情報と共に記録してなることを特徴としている。
Further, the recording medium of the present invention treats at least one channel signal of digital signals of a plurality of channels as a common signal, and the common signal according to the frequency characteristics of the digital signal and the intended reproduction environment. A signal obtained by changing the combination of channels to be standardized and encoding the common signal, parameter information indicating a combination of channels to be common, and a signal encoding another signal other than the common signal. And are recorded together with encoding parameter information.

【0025】[0025]

【作用】本発明の符号化方法及び装置によれば、複数チ
ャネルのディジタル信号の少なくとも一部のチャネルの
ディジタル信号を共通化した信号として扱い符号化処理
することで圧縮率を高めている。また、ディジタル信号
の目的とする再生環境に応じて共通化するチャネルの組
み合わせを変更、或いはディジタル信号の推奨する再生
環境に応じて共通の信号として扱う処理方法を変更する
ことで、例えばディジタル信号がオーディオ信号である
とき、共通化による音場の変化を抑制するようにしてい
る。
According to the encoding method and apparatus of the present invention, the compression rate is increased by treating the digital signals of at least some of the digital signals of a plurality of channels as common signals and performing the encoding process. Further, by changing the combination of channels to be shared according to the intended reproduction environment of the digital signal, or by changing the processing method handled as a common signal according to the recommended reproduction environment of the digital signal, for example, the digital signal is changed. When it is an audio signal, the change in the sound field due to commonization is suppressed.

【0026】また、本発明の符号化方法及び装置によれ
ば、所定の時間フレーム(例えばサウンドフレーム)間
で共通化するチャネルの組み合わせ及び共通のデータと
して扱う処理方法の急激な変化による不安定な再生音場
になることを回避することを可能としている。
Further, according to the encoding method and apparatus of the present invention, the combination of channels shared between predetermined time frames (eg, sound frames) and the instability caused by a sudden change in the processing method handled as common data are unstable. It is possible to avoid becoming a reproduction sound field.

【0027】さらに、本発明の復号化装置によれば、少
なくとも1以上の共通化された信号から複数チャネルの
ディジタル信号を復号化し、この符号化信号の推奨する
再生環境に応じて共通化信号を扱う処理方法を変更する
ことで、例えばディジタル信号がオーディオ信号である
とき、共通化による音場の変化を抑制するようにしてい
る。
Further, according to the decoding device of the present invention, digital signals of a plurality of channels are decoded from at least one common signal, and the common signal is generated according to the reproduction environment recommended by the coded signal. By changing the processing method to be handled, for example, when the digital signal is an audio signal, the change in the sound field due to the commonization is suppressed.

【0028】また、本発明の記録媒体によれば、本発明
の符号化方法及び装置により符号化された信号を記録し
てなり、光デイスク、又は映画フィルムを用いること
で、より安定な再生音場を提供することが可能となる。
Further, according to the recording medium of the present invention, a signal encoded by the encoding method and apparatus of the present invention is recorded. By using an optical disc or a motion picture film, a more stable reproduction sound is produced. It becomes possible to provide a place.

【0029】[0029]

【実施例】以下、本発明の実施例について図面を参照し
ながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0030】図1には、本発明の符号化方法が適用され
る符号化装置の構成を示す。すなわち、本実施例の符号
化装置は、シングルチャネル用の圧縮符号化器(例えば
前記のいわゆるATRAC方式の符号化器)を複数用い
てマルチチャネルの圧縮符号化を実現する符号化装置で
ある。
FIG. 1 shows the configuration of an encoding device to which the encoding method of the present invention is applied. That is, the encoding apparatus of the present embodiment is an encoding apparatus that realizes multi-channel compression encoding by using a plurality of single-channel compression encoders (for example, the above-mentioned ATRAC encoder).

【0031】すなわち本発明実施例の符号化装置は、複
数チャネルのディジタルオーディオ信号を符号化し、当
該符号化されたディジタルオーディオ信号と共に当該符
号化のパラメータ情報を出力する符号化装置であり、複
数チャネルのディジタルオーディオ信号の一部又は全部
を1又は複数の共通化した信号として扱うと共に、当該
ディジタルオーディオ信号の周波数特性及び目的とする
再生環境に応じて上記共通化を行うチャネルの組み合わ
せを変更し、上記共通化した信号を符号化する符号化手
段として、共通化分析器102,共通化データ作成器1
04,符号器105f〜105gを有するものである。
That is, the coding apparatus of the embodiment of the present invention is a coding apparatus which codes digital audio signals of a plurality of channels and outputs the parameter information of the coding together with the coded digital audio signals. Handling a part or all of the digital audio signal of 1 as one or a plurality of common signals, and changing the combination of channels to be common according to the frequency characteristics of the digital audio signal and the target reproduction environment, A common analyzer 102, a common data generator 1 are provided as coding means for coding the common signals.
04, encoders 105f to 105g.

【0032】また、図2には、本発明実施例の符号化装
置との比較のために、各チャネル毎に圧縮符号化を行う
マルチチャネルの符号化装置(本発明を使用しない場合
のマルチチャネル符号化装置)の構成を示す。理解を容
易にするため、図1と図2の対応する部分には、同一の
参照番号を付与して、説明を省略してある。
Further, in FIG. 2, for comparison with the coding apparatus of the embodiment of the present invention, a multi-channel coding apparatus which performs compression coding for each channel (multi-channel when the present invention is not used An encoding device) is shown. For easy understanding, the same reference numerals are given to corresponding portions in FIGS. 1 and 2, and description thereof is omitted.

【0033】なお、図1の本実施例ではセンタ(C)チ
ャネル、レフト(L)チャネル、ライト(R)チャネ
ル、レフトサラウンド(SL)チャネル、ライトサラウ
ンド(SR)チャネルの、5チャネルオーディオデータ
を用いて説明する。さらに、サブウーファー(超低域)
のチャネルを付加することにより、5.1チャネルを構
成できる。
In this embodiment shown in FIG. 1, five-channel audio data of a center (C) channel, a left (L) channel, a right (R) channel, a left surround (SL) channel, and a right surround (SR) channel are output. It demonstrates using. In addition, subwoofer (ultra-low range)
5.1 channels can be configured by adding the channels of.

【0034】先ず、図1の説明に先立ち、図2の構成に
おいて、入力端子101a〜101eを介して供給され
た、センタ(C)チャネル、レフト(L)チャネル、ラ
イト(R)チャネル、レフトサラウンド(SL)チャネ
ル、ライトサラウンド(SR)チャネルの各オーディオ
データは、それぞれシングルチャネル用符号器105a
〜105eに送られる。これら符号器105a〜105
eでは、後述するようにして符号化が行われ、この符号
化されたデータがマルチプレクサ106に送られる。当
該マルチプレクサ106では上記各チャネルの符号化さ
れたデータが1つのビットストリームにされ、このビッ
トストリームが出力端子107から出力される。
First, prior to the description of FIG. 1, in the configuration of FIG. 2, a center (C) channel, a left (L) channel, a right (R) channel, and a left surround, which are supplied via the input terminals 101a to 101e. The audio data of each of the (SL) channel and the write surround (SR) channel is a single-channel encoder 105a.
~ 105e. These encoders 105a to 105
In e, encoding is performed as described later, and the encoded data is sent to the multiplexer 106. The multiplexer 106 converts the encoded data of each channel into one bit stream, and the bit stream is output from the output terminal 107.

【0035】これに対し、本発明実施例の符号化装置
は、図1に示すように、入力端子101a〜101eを
介して供給された上記センタ(C)、レフト(L)、ラ
イト(R)、レフトサラウンド(SL)、ライトサラウ
ンド(SR)の各チャネルのオーディオデータは、先ず
共通化分析器102に入力される。ここでは、後述する
各チャネル間で有効な共通化手法とその共通化する範囲
を選択し、各チャネルのオーディオデータから共通化す
る部分のみを選択出力する。共通化しない場合にはなに
も出力されない。
On the other hand, as shown in FIG. 1, the coding apparatus of the embodiment of the present invention supplies the center (C), the left (L), and the right (R) supplied through the input terminals 101a to 101e. , Left surround (SL) and right surround (SR) channels of audio data are first input to the common analyzer 102. Here, an effective common method and a range to be common to each channel, which will be described later, are selected, and only a common portion is selected and output from audio data of each channel. If they are not shared, nothing is output.

【0036】この共通化分析器102の出力は、それぞ
れ対応したチャネルの共通化データ抜出器103a〜1
03eに入力される。ここでは、各チャネル毎にオリジ
ナルのオーディオデータから共通化する部分を取り出
し、残りの部分のみを符号器105a〜105eに送
る。なお、これらの符号器105a〜105eの内部構
成は、実質的には図2の対応する符号器と同様のもので
あり、その詳細な構成については後述する。
The output of the common analyzer 102 is the common data extractors 103a to 103a of the corresponding channels.
03e is input. Here, a common part is extracted from the original audio data for each channel, and only the remaining part is sent to the encoders 105a to 105e. The internal configurations of these encoders 105a to 105e are substantially the same as the corresponding encoders of FIG. 2, and the detailed configuration will be described later.

【0037】一方、共通化分析器102の出力は、共通
化データ作成器104にも送られる。そこでは、各チャ
ネルの共通化するデータをまとめて、1つ、或いは複数
の共通化データとして組み替えて出力する。
On the other hand, the output of the commonization analyzer 102 is also sent to the commonization data generator 104. There, the data to be shared by each channel is collected and recombined and output as one or a plurality of shared data.

【0038】また、符号器105a〜105eはそれぞ
れ共通化データ抜出器103a〜103eの出力を符号
化し、符号器105f〜105gは上記共通化データ作
成器104から出力される1つ或いは複数の共通化デー
タそれぞれを符号化する。
The encoders 105a to 105e encode the outputs of the common data extractors 103a to 103e, respectively, and the encoders 105f to 105g output one or a plurality of common data output from the common data generator 104. Each encoded data is encoded.

【0039】これら符号器105a〜105gは、各々
の符号化データと共に、これらの符号化に用いた共通化
パラメータ情報を出力し、これらがマルチプレクサ10
6に送られる。マルチプレクサ106では、これら各符
号器105a〜105gの出力を多重化して1つのビッ
トストリームにして、出力端子107から出力する。
These encoders 105a to 105g output the common parameter information used for the encoding together with the encoded data, and these are output by the multiplexer 10.
Sent to 6. The multiplexer 106 multiplexes the outputs of the encoders 105 a to 105 g into one bit stream and outputs the bit stream from the output terminal 107.

【0040】出力端子107からのビットストリーム
は、所定の誤り訂正符号の付与、変調等の処理を行う記
録装置108により、光デイスク又は映画フィルム等記
録媒体109に記録される。または図示しないものの、
所定の通信装置により、有線又は無線により伝送され
る。
The bit stream from the output terminal 107 is recorded on a recording medium 109 such as an optical disc or a motion picture film by a recording device 108 which performs processing such as adding a predetermined error correction code and modulation. Or, although not shown,
It is transmitted by wire or wirelessly by a predetermined communication device.

【0041】次に、図3には、上記共通化分析器102
の内部構成を示す。
Next, FIG. 3 shows the common analyzer 102.
The internal structure of is shown.

【0042】この図3において、入力端子121a〜1
21eを介して供給された、上記センタ(C)、レフト
(L)、ライト(R)、レフトサラウンド(SL)、ラ
イトサラウンド(SR)の各チャネルのオーディオデー
タは、共通化処理分析器122a〜122iにそれぞれ
選択的に送られ、後述する各共通化手法の使用が有効か
どうか分析し、その結果を出力する。なお、上記共通化
処理分析器122a〜122iは、それぞれ共通化する
チャネルの選択(組み合わせ)一つ一つに対応してい
る。
In FIG. 3, input terminals 121a to 121a
The audio data of each of the center (C), left (L), right (R), left surround (SL), and right surround (SR) channels supplied via 21e are shared processing analyzers 122a to 122a. 122i is selectively sent to 122i to analyze whether the use of each commonization method described later is effective and output the result. The common processing analyzers 122a to 122i correspond to the selection (combination) of common channels.

【0043】上記共通化処理分析器122a〜122i
の出力結果は、全て共通化手法選択器123に送られ
る。この共通化手法選択器123では、より多くのチャ
ネルを共通化できる方式、すなわち図3に示す各共通化
処理分析器122a〜122iにおいて、図中のより左
側に図示している共通化処理分析器の出力を優先して、
共通化手法及び共通化の範囲について決定し、その結果
を出力する。
The common processing analyzers 122a to 122i described above.
The output results of all are sent to the common method selector 123. In this commonalization method selector 123, a method capable of commonalizing more channels, that is, in the commonalization processing analyzers 122a to 122i shown in FIG. Prioritizing the output of
The common method and the common range are determined, and the result is output.

【0044】各共通化データ抽出器124は、上記共通
化手法選択器123から得られた共通化に関するデータ
に基づいて、入力端子121a〜121eの各チャネル
のデータから共通化する部分のデータのみを抽出し、そ
れぞれ対応する出力端子125a〜125eから出力す
る。なお、共通化手法選択器123からの共通化に関す
るデータ(共通化パラメータ情報)は、所定のフレーム
としてサウンドフレーム単位で各共通化データ抽出器1
24a〜124eに出力される。
Each common data extractor 124, based on the data related to the common obtained from the common technique selector 123, extracts only the data of the part to be common from the data of each channel of the input terminals 121a to 121e. The data are extracted and output from the corresponding output terminals 125a to 125e. It should be noted that the data regarding the commonization (common parameter information) from the common method selector 123 is used as a predetermined frame for each common data extractor 1 for each sound frame.
24a to 124e.

【0045】ここで、上記センタ(C)、レフト
(L)、ライト(R)、レフトサラウンド(SL)、ラ
イトサラウンド(SR)の5チャネルの場合について、
共通化するチャネルの選択の種類について図4を用いて
説明する。
Here, in the case of five channels of the center (C), the left (L), the right (R), the left surround (SL), and the right surround (SR),
The types of common channel selection will be described with reference to FIG.

【0046】先ず、図4のAは全チャネルを共通化する
ことを示し、共通化手法の有効性を分析する共通化処理
分析器122aはこれに対応する。
First, FIG. 4A shows that all channels are made common, and the commonization processing analyzer 122a for analyzing the effectiveness of the commonization method corresponds to this.

【0047】図4のBは左側チャネルとしてセンタ
(C)、レフト(L)、レフトサラウンド(SL)の3
チャネルを共通化し、右側チャネルとしてセンタ
(C)、ライト(R)、ライトサラウンド(SR)の3
チャネルを共通化することを示し、それぞれ共通化処理
分析器122bまたは共通化処理分析器122cでの共
通化処理に対応する。
In FIG. 4B, the left side channel is center (C), left (L) and left surround (SL).
The channels are shared, and the right channel is center (C), light (R), or light surround (SR).
It is shown that channels are shared, and they correspond to the shared processing in the shared processing analyzer 122b or the shared processing analyzer 122c, respectively.

【0048】図4のCは左側チャネルとしてレフト
(L)、レフトサラウンド(SL)の2チャネルを共通
化し、右側チャネルとしてライト(R)、ライトサラウ
ンド(SR)の2チャネルを共通化することを示し、そ
れぞれ共通化処理分析器122dまたは共通化処理分析
器122eでの共通化処理に対応する。
In FIG. 4C, the left (L) and left surround (SL) channels are commonly used as the left channel, and the right (R) and right surround (SR) channels are commonly used as the right channel. 9A and 9B respectively correspond to the commonization processing in the commonization processing analyzer 122d or the commonization processing analyzer 122e.

【0049】図4のDは前側チャネルとしてセンタ
(C)、レフト(L)、ライト(R)の3チャネルを共
通化し、後側チャネルとしてレフトサラウンド(S
L)、ライトサラウンド(SR)の2チャネルを共通化
することを示し、それぞれ共通化処理分析器122fま
たは共通化処理分析器122gでの共通化処理に対応す
る。
In FIG. 4D, three channels of center (C), left (L) and right (R) are shared as front channels, and left surround (S) as rear channels.
L) and light surround (SR) are shown to be shared by two channels, which correspond to the commonization processing in the commonization processing analyzer 122f or the commonization processing analyzer 122g, respectively.

【0050】図4のEは左前チャネルとしてセンタ
(C)、レフト(L)の2チャネルを共通化し、右前チ
ャネルとしてセンタ(C)、ライト(R)の2チャネル
を共通化することを示し、それぞれ共通化処理分析器1
22hまたは共通化処理分析器122iでの共通化処理
に対応する。
FIG. 4E shows that the center (C) and left (L) channels are shared as the left front channel, and the center (C) and right (R) channels are shared as the right front channel. Common processing analyzer 1
22h or the common processing in the common processing analyzer 122i.

【0051】このように、本実施例の符号化装置では、
データの特性を利用した共通化チャネルを選択するだけ
でなく、目的とする再生環境の特徴を利用した共通化の
組合せを利用することで、共通化により発生する違和感
を削減することを可能としている。尚、図4に開示した
共通化の組み合わせは、効果的であると考える最良のも
のであるが、本発明の主旨を逸脱しない範囲において、
他の組み合わせも考えうる。
As described above, in the coding apparatus of this embodiment,
Not only does the common channel that uses the characteristics of the data be selected, but the common combination that uses the characteristics of the target playback environment is used, which makes it possible to reduce the discomfort that occurs due to the commonality. . Note that the combination of commonization disclosed in FIG. 4 is the best one that is considered to be effective, but within the scope not departing from the gist of the present invention,
Other combinations are possible.

【0052】また、上記図4に示したような各共通化の
手法は、図5の矢印で示すような関係にて、所定のフレ
ームとしてのサウンドフレーム間で変化させることもで
きる。すなわち、この図5の図中A〜Eは、図4のA〜
Eに対応しており、それぞれ矢印で結ばれている共通化
手法がサウンドフレーム間で変化することを認めるので
ある。例えば、共通するチャネルが無い(NONE)状
態が、あるサウンドフレームで選択された場合、次のサ
ウンドフレームでは、C、D又はEの共通化手法が選択
可能とされる。そこでDの共通化手法が選択された場
合、続く次のサウンドフレームでは、A、E又NONE
の共通化手法が選択可能とされる。
Further, the respective commonalizing methods as shown in FIG. 4 can be changed between sound frames as a predetermined frame in a relationship as shown by an arrow in FIG. That is, A to E in FIG. 5 correspond to A to E in FIG.
It recognizes that the common method corresponding to E and connected by arrows changes between sound frames. For example, when a state where there is no common channel (NONE) is selected in a certain sound frame, the commonization method of C, D or E can be selected in the next sound frame. Therefore, if the D common method is selected, A, E, or NONE is selected in the next sound frame.
The common method of can be selected.

【0053】逆に、図5のNONEからAまたはBへ向
かう矢印がないことは、共通するチャネルが無い(NO
NE)状態のサウンドフレームから、次のサウンドフレ
ームでは、AまたはBをいきなり選択することが禁止さ
れていることを示している。このようにサウンドフレー
ム間での共通化手法の選択に所定の関係を持たせること
により、音像定位が良好になる。
On the contrary, the absence of the arrow from NONE to A or B in FIG. 5 means that there is no common channel (NO.
From the sound frame in the (NE) state, the next sound frame indicates that sudden selection of A or B is prohibited. In this way, the sound image localization becomes good by giving a predetermined relationship to the selection of the commonalization method among the sound frames.

【0054】また、共通化の手法として、図4に示した
各共通化手法を同一のサウンドフレーム内に複数存在さ
せることも可能である。
Further, as a common method, it is possible to make a plurality of common methods shown in FIG. 4 exist in the same sound frame.

【0055】例えば、各チャネルのオーディオ信号を特
定周波数帯域毎に分析して、この特定周波数帯域毎に共
通化手法を選択するような手法が考えられる。即ち、共
通化処理分析器122の内部、或いは入力端子121の
前段に、時間軸上の信号を周波数軸上の信号成分に変換
するような周波数変換手段を設け、この変換により得ら
れた周波数軸上の信号から特定周波数帯域毎に分析を行
い、得られた分析結果に基づいて共通化手法を選択する
ような手法を使用することができる。このことにより、
例えば高周波数域では全チャネル共通化(図4のA)、
中周波数域では左チャネル及び右チャネルの共通化(図
4のC)の2種類の手法を用いて共通化するといった処
理も可能となる。このようにすれば、より効果的な共通
化処理が可能となる。
For example, a method is conceivable in which the audio signal of each channel is analyzed for each specific frequency band, and the common method is selected for each specific frequency band. That is, a frequency converting means for converting a signal on the time axis into a signal component on the frequency axis is provided inside the common processing analyzer 122 or in the preceding stage of the input terminal 121, and the frequency axis obtained by this conversion is obtained. It is possible to use a method in which analysis is performed for each specific frequency band from the above signal and a commonalization method is selected based on the obtained analysis result. By this,
For example, in the high frequency range, all channels are shared (A in FIG. 4),
In the middle frequency range, it is possible to perform common processing by using two types of methods of commonizing the left channel and the right channel (C in FIG. 4). By doing so, it is possible to perform more effective commonization processing.

【0056】さらに、同じサウンドフレームの同じ特定
周波数帯域で、例えばレフト(L)チャネル、レフトサ
ラウンド(SL)チャネルを共通化し、ライト(R)チ
ャネル、ライトサラウンド(SR)チャネルを共通化す
る、といった共通化チャネルを複数持つ手法を用いるこ
とにより、より効果的な共通化処理が可能となる。
Further, in the same specific frequency band of the same sound frame, for example, the left (L) channel and the left surround (SL) channel are made common, and the right (R) channel and the right surround (SR) channel are made common. By using a method having a plurality of common channels, more effective common processing can be performed.

【0057】加えて、例えばセンタ(C)チャネルにつ
いてパワーが2倍のチャネルが2つあると考えてこれを
分割し、レフト(L)、レフトサラウンド(SL)チャ
ネルを共通化したものと、ライト(R)、ライトサラウ
ンド(SR)チャネルを共通化したものそれぞれに対し
て上記分割したチャネルの信号を記録するという手法を
用いることにより、共通化の効率を上げることも考えら
れる。
In addition, for example, regarding the center (C) channel, it is considered that there are two channels having twice the power, and this is divided, and the left (L) and left surround (SL) channels are shared, and It is also possible to improve the efficiency of the commonization by using the method of recording the signals of the divided channels for each of the commonalized (R) and write surround (SR) channels.

【0058】更に、本出願人が先の国際出願番号PCT/JP
94/00880、国際出願日1994年5 月31日の明細書及び図面
において提案した、信号成分をノイズ性成分とトーン性
成分とに分離して符号化/復号化する符号化復号化方法
を使用して、例えばノイズ性成分では全チャネル共通化
(図4のA)、トーン性成分では左チャネル及び右チャ
ネルの共通化(図4のC)といった処理を行うことも可
能となる。
Furthermore, the applicant has previously filed international application number PCT / JP.
94/00880, International filing date: Uses the coding / decoding method proposed in the specification and drawings of May 31, 1994 to separate / encode a signal component into a noise component and a tone component. Then, for example, it is possible to perform processing such that all channels are made common for noise components (A in FIG. 4) and left and right channels are made common for tone components (C in FIG. 4).

【0059】次に、図6には、本発明の復号化方法が適
用される復号化装置の構成を示す。本実施例の復号化装
置は、シングルチャネル用の圧縮符号復号化器(例えば
前記のいわゆるATRAC方式に対応する復号化器)を
複数用いてマルチチャネルの復号化を実現する復号化装
置である。
Next, FIG. 6 shows the structure of a decoding apparatus to which the decoding method of the present invention is applied. The decoding apparatus according to the present embodiment is a decoding apparatus that realizes multi-channel decoding by using a plurality of single-channel compression code decoders (for example, decoders corresponding to the so-called ATRAC system described above).

【0060】すなわち、本実施例の復号化装置は、図6
に示すように、複数チャネルのディジタルオーディオ信
号の一部又は全部を1又は複数の共通化した信号として
扱うと共に、当該ディジタルオーディオ信号の周波数特
性及び目的とする再生環境に応じて上記共通化を行うチ
ャネルの組み合わせが変更された信号を含む複数チャネ
ルの符号化されたディジタルオーディオ信号を、当該符
号化の際の共通化パラメータ情報を用いて復号化する復
号化装置である。この復号化装置は、共通化されていな
い信号と上記共通化された信号とを復号化し、上記共通
化パラメータ情報に応じて、当該復号化した共通化され
た信号を複数チャネルに振り分けて、各チャネルの復号
化した共通化されていない信号と合成することによって
上記複数チャネルのディジタルオーディオ信号を復元す
る復号化手段として、復号器133f〜133g,共通
化データ分配器134,共通化データ合成器135a〜
135eを有するものである。
That is, the decoding apparatus of this embodiment is similar to that shown in FIG.
As shown in FIG. 7, a part or all of the digital audio signals of a plurality of channels are treated as one or a plurality of commonized signals, and the commonization is performed according to the frequency characteristics of the digital audio signals and the intended reproduction environment. It is a decoding device for decoding encoded digital audio signals of a plurality of channels including signals whose channel combinations have been changed, by using common parameter information at the time of the encoding. This decoding device decodes the non-common signal and the common signal, distributes the decoded common signal to a plurality of channels according to the common parameter information, and Decoders 133f to 133g, a common data distributor 134, and a common data combiner 135a are provided as decoding means for recovering the digital audio signals of the plurality of channels by combining with the decoded non-common signals of the channels. ~
135e.

【0061】また、図7には、本実施例の復号化装置と
の比較のために、各チャネル毎に復号化を行うマルチチ
ャネルの復号化装置(本発明を使用しない場合のマルチ
チャネル復号化装置)の構成を示す。なお、この図7の
例において、理解を容易にするため、図1及び図2に対
応する部分には同一の参照番号を付与して、説明を省略
している。
Further, in FIG. 7, for comparison with the decoding apparatus of the present embodiment, a multi-channel decoding apparatus which performs decoding for each channel (multi-channel decoding when the present invention is not used Shows the configuration of the device). In the example of FIG. 7, the same reference numerals are given to the portions corresponding to those in FIGS. 1 and 2, and the description thereof is omitted for easy understanding.

【0062】図6の説明に先立ち、図7の構成におい
て、入力端子131を介して供給される前記符号化され
たビットストリームデータは、デマルチプレクサ132
において各チャネルの符号化データに分割されて復号器
133a〜133eに送られる。各復号器133a〜1
33eにて後述するように復号化されたオーディオデー
タは、出力端子136a〜136eから出力される。
Prior to the description of FIG. 6, in the configuration of FIG. 7, the encoded bit stream data supplied through the input terminal 131 is the demultiplexer 132.
In, it is divided into encoded data of each channel and sent to the decoders 133a to 133e. Each decoder 133a-1
The audio data decoded in 33e as described later is output from the output terminals 136a to 136e.

【0063】これに対し、図6に示す本発明実施例の復
号化装置の入力端子131を介して供給されたビットス
トリームは、デマルチプレクサ132に送られる。ここ
で、当該ビットストリーム内には、符号化されている各
チャネルのデータ及び共通化データと共に、共通化した
チャネルを示すデータ(共通化パラメータ情報)も含ま
れているので、デマルチプレクサ132においては、符
号化されているデータと当該符号化に用いた共通化パラ
メータ情報とをチャネル毎に分割し、それぞれ復号器1
33a〜133gに送る。
On the other hand, the bit stream supplied through the input terminal 131 of the decoding apparatus according to the embodiment of the present invention shown in FIG. 6 is sent to the demultiplexer 132. Here, since data (common parameter information) indicating the common channel is included in the bit stream together with the coded data and common data of each channel, in the demultiplexer 132, , The encoded data and the common parameter information used for the encoding are divided for each channel, and the decoder 1
33a-133g.

【0064】共通化したデータのチャネルに対応する復
号器133f〜133gは、復号化された共通化データ
と共通化パラメータ情報を出力し、共通化データ分配器
134に送る。この共通化データ分配器134では、共
通化パラメータ情報を用いて1つ或いは複数の共通化デ
ータから各チャネル用のデータを作成し、該当するチャ
ネルへ分配する。
Decoders 133f to 133g corresponding to the shared data channels output the decoded shared data and the shared parameter information, and send them to the shared data distributor 134. The common data distributor 134 creates data for each channel from one or a plurality of common data using the common parameter information and distributes the data to the corresponding channel.

【0065】共通化データ合成器135a〜135e
は、各チャネルの復号器133a〜133eからの出力
と、共通化データ分配器134からの出力を合成し、そ
れぞれのチャネルの復号化されたデータとして出力端子
136a〜136eから出力する。
Common data synthesizers 135a-135e
Outputs the outputs from the decoders 133a to 133e of the respective channels and the output from the common data distributor 134, and outputs the decoded data of the respective channels from the output terminals 136a to 136e.

【0066】このように、本実施例の復号化装置では、
共通化データ分配器134を用いて、共通化パラメータ
情報に基づいて1つ或いは複数の共通化データから各チ
ャネル用のデータを作成し、共通化データ合成器135
を用いて、各チャネルの共通化していないデータと合成
することにより、複数チャネルのディジタル信号を復号
化することができる。共通化データからなるチャネルの
種類が複数の場合も、また共通化の処理方法が複数の場
合も、さらに特定チャネルのデータを複数に分割して複
数の共通化データとなし、これらが共通化チャネルに符
号化されている場合も、共通化データ分配器134単体
で分配を扱うことにより復号が可能となる。
As described above, in the decoding apparatus of this embodiment,
The common data distributor 134 is used to create data for each channel from one or a plurality of common data based on the common parameter information, and the common data combiner 135 is used.
Can be used to decode digital signals of a plurality of channels by synthesizing the data with unshared data of each channel. Even if there are multiple types of channels that consist of common data, and if there are multiple common processing methods, the data of a specific channel is further divided into multiple pieces to form multiple common data. Even in the case of being encoded into, the common data distributor 134 alone can perform the decoding by handling the distribution.

【0067】次に、マルチチャネルのデータの共通化
が、実施例に用いているシングルチャネル用符号化方式
から逸脱せず、さらに符号化データの状態で共通化され
ていないデータと、共通化されているデータとの合成が
可能な場合の復号化装置の構成を図8に示す。
Next, the commonization of the multi-channel data does not deviate from the single-channel coding method used in the embodiment, and the commonization is performed with the data that is not standardized in the coded data state. FIG. 8 shows the configuration of the decoding device when it can be combined with the existing data.

【0068】この図8において、デマルチプレクサ13
2は、入力端子131を介して供給されるビットストリ
ームから、各チャネルの共通化されていないデータと共
通化されたデータと共通化パラメータ情報を分割し、各
チャネルの共通化されていないデータは共通符号化デー
タ合成器138a〜138eに送られ、共通化されたデ
ータと共通化パラメータ情報は共通化データ分配器13
7に送られる。
In FIG. 8, the demultiplexer 13
2 divides the unshared data of each channel, the shared data, and the shared parameter information from the bit stream supplied via the input terminal 131, and the unshared data of each channel is The common data and the common parameter information sent to the common coded data synthesizers 138a to 138e share the common data distributor 13 with each other.
Sent to 7.

【0069】共通化データ分配器137では、共通化パ
ラメータ情報を用いて1つ或いは複数の共通化データか
ら、各チャネル用のデータを作成し、該当するチャネル
へ分配する。
The common data distributor 137 creates data for each channel from one or a plurality of common data using the common parameter information and distributes the data to the corresponding channels.

【0070】共通化データ分配器137から出力された
各チャネルに分配された共通化データと、デマルチプレ
クサ132から出力された各チャネルの共通化されてい
ないデータとは、それぞれ対応する共通符号化データ合
成器138a〜138eに送られる。これら共通符号化
データ合成器138a〜138eでは、供給されたデー
タを合成して符号化データのまま出力する。
The common data distributed from the common data distributor 137 to each channel and the non-common data of each channel output from the demultiplexer 132 correspond to common coded data. It is sent to the synthesizers 138a to 138e. The common encoded data synthesizers 138a to 138e synthesize the supplied data and output the encoded data as they are.

【0071】次段の各復号器133a〜133eでは、
それぞれ対応する共通符号化データ合成器138a〜1
38eからの出力を復号化する。これら各133a〜1
33eの出力は、それぞれのチャネルのデータとして対
応する出力端子136a〜136eから出力される。
In each of the next decoders 133a to 133e,
Corresponding common coded data synthesizers 138a-1
Decode the output from 38e. Each of these 133a-1
The output of 33e is output from the corresponding output terminals 136a to 136e as data of each channel.

【0072】このように、本実施例の復号化装置では、
共通化データ分配器137及び共通符号化データ合成器
138a〜138eを復号器133の処理の前に設けて
いることで、復号化装置の規模を小さくすることが可能
である。
As described above, in the decoding apparatus of this embodiment,
Since the common data distributor 137 and the common coded data synthesizers 138a to 138e are provided before the processing of the decoder 133, the scale of the decoding device can be reduced.

【0073】さらに、本発明の符号化方法及び装置にお
いて、より聴覚上違和感を感じない再生を可能とさせる
手法として、チャネルの再生環境を利用した以下の手法
を用いることができる。
Further, in the encoding method and apparatus of the present invention, the following method using the reproduction environment of the channel can be used as a method for enabling reproduction with less discomfort in hearing.

【0074】先ず、オーディオデータの推奨する再生環
境に応じて、共通のデータとして扱う処理方法を変更す
る手法を用いることができる。
First, it is possible to use a method of changing the processing method to be treated as common data according to the reproduction environment recommended for audio data.

【0075】すなわち、前述した図4のAに示した5チ
ャネルを共通化する場合においては、例えば、センタ
(C)、レフト(L)、ライト(R)、レフトサラウン
ド(SL)、ライトサラウンド(SR)の各チャネルの
信号に対し、 C:L:R:SL:SR= 1.0000 :0.7071:0.7071:
0.5000:0.5000 なる比率でレベル変換をした後に合成し、再生時には一
つのチャネルから再生するか或いは同比率で全チャネル
に分配することにより、効果的な共通化が可能になる。
That is, when the five channels shown in FIG. 4A are shared, for example, the center (C), left (L), right (R), left surround (SL), right surround ( SR) for each channel signal, C: L: R: SL: SR = 1.0000: 0.7071: 0.7071:
Effective level sharing can be achieved by performing level conversion at a ratio of 0.5000: 0.5000 and then synthesizing and then reproducing from one channel at the time of reproduction or distributing to all channels at the same ratio.

【0076】また、図4のBに示したセンタ(C)、レ
フト(L)、レフトサラウンド(SL)の3チャネル、
及びセンタ(C)、ライト(R)、ライトサラウンド
(SR)の3チャネルを共通化する場合は、例えば、 C:L:SL= 0.7071 :1.0000:0.7071 C:R:SR= 0.7071 :1.0000:0.7071 なる比率を用いると効果的な共通化が可能になる。
Further, three channels of center (C), left (L) and left surround (SL) shown in FIG. 4B,
When the three channels of the center (C), the light (R), and the light surround (SR) are shared, for example, C: L: SL = 0.7071: 1.0000: 0.7071 C: R: SR = 0.7071: 1.0000: 0.7071. The use of such a ratio enables effective sharing.

【0077】図4のCに示したレフト(C)、レフトサ
ラウンド(SL)の2チャネル、及びライト(R)、ラ
イトサラウンド(SR)の2チャネルを共通化する場合
は、例えば、 L:SL= 1.0000 :0.7071 R:SR= 1.0000 :0.7071 なる比率を用いると効果的な共通化が可能になる。
When the left (C) and left surround (SL) 2 channels and the right (R) and right surround (SR) 2 channels shown in C of FIG. 4 are commonly used, for example, L: SL = 1.0000: 0.7071 R: SR = 1.0000: 0.7071 The ratio can be effectively shared.

【0078】図4のDに示したレフト(L)、センタ
(C)、ライト(R)の3チャネル、及びレフトサラウ
ンド(SL)、ライトサラウンド(SR)の2チャネル
を共通化する場合は、例えば、 C:L:R= 1.0000 :0.7071:0.7071 SL:SR= 0.7071 :0.7071 なる比率を用いると効果的な共通化が可能になる。
When the left (L), center (C) and right (R) 3 channels and the left surround (SL) and right surround (SR) 2 channels shown in D of FIG. For example, if a ratio of C: L: R = 1.0000: 0.7071: 0.7071 SL: SR = 0.7071: 0.7071 is used, effective sharing becomes possible.

【0079】図4のEに示したレフト(L)、センタ
(C)の2チャネル、及びライト(R)、センタ(C)
の2チャネルを共通化する場合は、例えば、 C:L= 0.7071 :1.0000 C:R= 0.7071 :1.0000 なる比率を用いると効果的な共通化が可能になる。
Left (L), center (C) 2 channels, right (R), center (C) shown in E of FIG.
When the two channels are shared, for example, effective rationalization becomes possible by using a ratio of C: L = 0.7071: 1.0000 C: R = 0.0771: 1.0000.

【0080】以上の比率は、本発明者が聴覚実験等によ
り求めた現時点での最良値であり、今後の実験によって
は、異なる値を取り得る。
The above ratios are the best values at the present time obtained by the inventor of the present invention through hearing experiments and the like, and may take different values depending on future experiments.

【0081】また、上述した本実施例の符号化方法及び
装置に対し、聴覚上、違和感を感じない再生を可能とす
るために、共通化データの情報とは別に、共通化前のデ
ータに戻すための情報を符号に含める符号化法をとるこ
ともできる。
In addition, in order to enable reproduction that does not cause a sense of discomfort to the ears by the encoding method and apparatus of the present embodiment described above, the data before the commonization is restored separately from the information of the commonization data. It is also possible to adopt an encoding method that includes information for

【0082】図9及び図10には、共通化されたデータ
から、各チャネルの共通化に用いたデータを再現するた
めのパラメータを抽出する方法を実現する構成を示して
いる。図9が図1の共通化部分に対応する構成であり、
図10は図9に共通化パラメータ抽出器141を追加し
た場合の構成である。
FIG. 9 and FIG. 10 show a configuration for realizing a method for extracting parameters for reproducing the data used for commonization of each channel from the commonized data. FIG. 9 shows a configuration corresponding to the common portion of FIG.
FIG. 10 shows a configuration in which a common parameter extractor 141 is added to FIG.

【0083】また、図11及び図12には、共通化され
たデータを符号に含めたパラメータを用いて調整する方
法を実現する構成を示している。図11は図6の共通化
データを各チャネルに分配する部分を示す構成であり、
図12は図11に共通化パラメータ調整器142を追加
した場合の構成である。
Further, FIGS. 11 and 12 show a configuration for realizing a method for adjusting using the parameter including the common data in the code. FIG. 11 is a configuration showing a part for distributing the common data of FIG. 6 to each channel,
FIG. 12 shows a configuration in which the common parameter adjuster 142 is added to FIG.

【0084】なお、これら図9〜図12において、図
1,図6に対応する構成要素については同一の指示符号
を付して、その詳細な説明は行わない。
9 to 12, components corresponding to those in FIGS. 1 and 6 are designated by the same reference numerals, and detailed description thereof will not be given.

【0085】先ず、図9において、端子101及び10
1a〜101eにはそれぞれ対応するチャネルのデータ
が供給される。共通化分析器102から出力され、共通
化データ抜出器103及び共通化データ作成器104に
入力されるデータは、共通化に使用されるデータ及びそ
の情報であり、音源データのチャネル数分存在する。該
当するチャネルのデータが全く共通化に用いられない場
合は、データを用いないという情報が送られる。一方、
共通化データ作成器104から出力されてマルチプレク
サ106に送られるデータは、共通化されたデータ及び
その情報であり、共通化チャネル数分存在する。共通化
チャネル数がいくつ存在するかは、共通化方式によって
変わる。
First, in FIG. 9, terminals 101 and 10
Data of corresponding channels are supplied to 1a to 101e, respectively. The data output from the commonization analyzer 102 and input to the commonization data extractor 103 and the commonization data generator 104 are the data used for commonization and its information, and the number of channels of the sound source data exists. To do. If the data of the corresponding channel is not used for commonization at all, the information that data is not used is sent. on the other hand,
The data output from the common data generator 104 and sent to the multiplexer 106 are the common data and its information, and there are the same number of common channels. How many common channels exist depends on the common method.

【0086】一方、図11において、共通化データ分配
器134によってそれぞれ該当するチャネル用に分配さ
れたデータは、共通化データ合成器135に送られて該
当チャネル個々に符号化されていたデータと合成され、
各チャネルの復号化データとして出力される。
On the other hand, in FIG. 11, the data distributed for each corresponding channel by the common data distributor 134 is sent to the common data combiner 135 and combined with the data coded for each corresponding channel. Is
It is output as the decoded data of each channel.

【0087】また、図9の構成においては、図10に示
すように、各チャネル毎に共通化パラメータ抽出器14
1を付加することができる。この共通化パラメータ抽出
器141には、各チャネル毎の共通化に使用されるデー
タ及びその情報と、全ての共通化されたデータ及びその
情報を入力する。この共通化パラメータ抽出器141で
は、これを用いて、各共通化したチャネルでの当該チャ
ネルのデータとの依存度及びこの共通化を戻すための手
法を分析し、例えば符号化に用いる周波数バンド単位あ
るいは複数バンド単位における当該チャネルのスケール
パラメータや、当該チャネル内の各周波数バンド間のス
ケールパラメータ比を求める。これをマルチプレクサ1
06に送り、符号に含める。
Further, in the configuration of FIG. 9, as shown in FIG. 10, the common parameter extractor 14 is provided for each channel.
1 can be added. The common parameter extractor 141 inputs the data and its information used for commonization for each channel, and all the common data and its information. The common parameter extractor 141 uses this to analyze the degree of dependence of each common channel on the data of the channel and a method for restoring this common channel, and for example, for each frequency band unit used for encoding. Alternatively, the scale parameter of the channel in units of a plurality of bands or the scale parameter ratio between the frequency bands in the channel is obtained. This is multiplexer 1
Send to 06 to include in code.

【0088】そして図11の復号化装置においても、図
12の復号化装置に示すように、各チャネル毎に共通化
パラメータ調整器142を付加する。この共通化パラメ
ータ調整器142には、共通化データ分配器134から
出力された該当チャネルの共通化データ及びその情報
と、デマルチプレクサ132から出力された該当チャネ
ルの共通化パラメータ情報を入力する。これを用いるこ
とにより、この共通化パラメータ調整器142では、各
共通化チャネルでの当該チャネルのデータの依存度や共
通化を戻すための手法を利用して、共通化データを変更
する。これにより、図11の復号化装置に比べて、当該
チャネルのオリジナル信号データに近い音場が再生でき
る。
Also in the decoding apparatus of FIG. 11, as shown in the decoding apparatus of FIG. 12, a common parameter adjuster 142 is added for each channel. The common parameter adjuster 142 receives the common data of the corresponding channel output from the common data distributor 134 and the information thereof, and the common parameter information of the corresponding channel output from the demultiplexer 132. By using this, in the common parameter adjuster 142, the common data is changed by utilizing a method for returning the dependence of the data of the common channel in each common channel and the commonization. As a result, a sound field closer to the original signal data of the channel can be reproduced as compared with the decoding device of FIG.

【0089】この方式はチャネルの再生環境に関わらな
い独立した方式として使用することができるが、再生環
境が特定されている場合には、データの依存度の予測が
可能となるため、データ及び再生環境を利用して共通化
パラメータを分析したほうが、より効果的な共通化パラ
メータ情報を作成できる。
This system can be used as an independent system regardless of the reproduction environment of the channel. However, when the reproduction environment is specified, it is possible to predict the dependence of data, so that the data and the reproduction can be predicted. The more effective common parameter information can be created by analyzing the common parameters using the environment.

【0090】さらに、本実施例の符号化方法及び装置に
対し、聴覚上違和感を感じない再生を可能とするため
に、共通化するチャネルの選択、あるいは共通化処理方
法の選択に、サウンドフレーム間の時間変化情報を用い
る符号化法がある。
Further, in the encoding method and apparatus of the present embodiment, in order to enable reproduction without feeling uncomfortable to the auditory sense, a common channel is selected or a common processing method is selected between sound frames. There is an encoding method using the time change information of.

【0091】ここで、サウンドフレームとは符号化及び
復号化を行う際のオーディオデータの処理単位を示し、
本実施例で用いられているいわゆるATRAC方式で
は、44.1kHzのサンプリング周波数で512サン
プルである。
Here, the sound frame indicates a processing unit of audio data at the time of performing encoding and decoding,
The so-called ATRAC method used in this embodiment has 512 samples at a sampling frequency of 44.1 kHz.

【0092】ところで、本実施例の符号化方法及び装置
は、各サウンドフレーム毎に共通化するチャネルの選択
或いは共通化処理方法の選択を変更することができる。
各サウンドフレーム内だけで違和感を感じない再生を得
るための最善のチャネル選択及び処理方法選択をした場
合、サウンドフレーム単位でチャネル選択及び処理方法
が変化し、この切り替わりによる聴感上の違和感を発生
する場合がある。
By the way, the encoding method and apparatus of this embodiment can change the selection of the channel to be shared or the selection of the common processing method for each sound frame.
If you select the best channel and processing method to obtain playback that does not feel strange within each sound frame, the channel selection and processing method will change for each sound frame, and this switching will cause a sense of discomfort. There are cases.

【0093】そこで、チャネル選択においては、各々の
サウンドフレームで選択の推移を監視し、例えば全チャ
ネル共通化と全チャネル非共通化の連続を防ぐ手法や、
入力データの変化が少ない定常状態では選択の変更を制
限する手法を取ることにより、切り替わりによる聴感上
の違和感の発生を防ぐことが可能となる。
Therefore, in the channel selection, the transition of the selection is monitored in each sound frame, and, for example, a method of preventing continuation of commonization of all channels and non-commonization of all channels,
By adopting a method of limiting the change of selection in the steady state where the change of the input data is small, it is possible to prevent the generation of a sense of discomfort due to switching.

【0094】また、共通化処理方法の選択においては、
処理方法の違いによる音質の差が、チャネル選択に比べ
て大きく、また処理方法により符号化装置及び復号化装
置に変更が必要であることから、サウンドフレーム単位
という頻繁な切り替えは適していない。最低でも数サウ
ンドフレーム単位というような頻度で切り替えるのが適
切である。
In selecting the common processing method,
The difference in sound quality due to the difference in processing method is larger than that in channel selection, and since the encoding device and the decoding device need to be changed depending on the processing method, frequent switching in sound frame units is not suitable. It is appropriate to switch at a frequency of at least several sound frames.

【0095】次に、本発明の他の実施例について述べ
る。
Next, another embodiment of the present invention will be described.

【0096】上述した実施例のチャネル選択はセンタ
(C)、レフト(L)、ライト(R)、レフトサラウン
ド(SL)、ライトサラウンド(SR)の5チャネルの
場合で述べているが、これにレフトセンタ(CL)チャ
ネル、ライトセンタ(CR)チャネルを加えた7チャネ
ルの場合のチャネル選択を、図13に示す。
The channel selection in the above-mentioned embodiment has been described in the case of 5 channels of center (C), left (L), right (R), left surround (SL) and right surround (SR). FIG. 13 shows channel selection in the case of 7 channels including the left center (CL) channel and the right center (CR) channel.

【0097】図13のAには全チャネルを共通化するこ
とを示している。
FIG. 13A shows that all channels are made common.

【0098】図13のBには左側チャネルとしてセンタ
(C)、レフトセンタ(CL)、レフト(L)、レフト
サラウンド(SL)の4チャネルを共通化し、右側チャ
ネルとしてセンタ(C)、レフトセンタ(CR)、ライ
ト(R)、ライトサラウンド(SR)の4チャネルを共
通化することを示している。
In FIG. 13B, four channels of a center (C), a left center (CL), a left (L), and a left surround (SL) are shared as a left channel, and a center (C) and a left center are used as a right channel. (CR), write (R), and write surround (SR) are shared.

【0099】図13のCには左側チャネルとしてレフト
センタ(CL)、レフト(L)、レフトサラウンド(S
L)の3チャネルを共通化し、右側チャネルとしてチャ
ネルンタ(CR)、ライト(R)、ライトサラウンド
(SR)の3チャネルを共通化することを示している。
In FIG. 13C, the left channel (left), left (L), left surround (S) are shown as left channels.
It is shown that the three channels L) are made common and the three channels of right channel (CR), write (R), and write surround (SR) are made common.

【0100】図13のDには前側チャネルとしてセンタ
(C)、レフトセンタ(CL)、レフト(L)、ライト
センタ(CR)、ライト(R)の5チャネルを共通化
し、後側チャネルとしてレフトセンタ(SL)、ライト
センタ(SR)の2チャネルを共通化することを示して
いる。
In FIG. 13D, five channels of center (C), left center (CL), left (L), right center (CR) and right (R) are shared as front channels, and left channels are used as rear channels. It shows that two channels of the center (SL) and the light center (SR) are shared.

【0101】図13のEには左前チャネルとしてセンタ
(C)、レフトセンタ(CL)、レフト(L)の3チャ
ネルを共通化し、右前チャネルとしてセンタ(C)、ラ
イトセンタ(CR)、ライト(R)の3チャネルを共通
化することを示している。
In E of FIG. 13, three channels of the center (C), the left center (CL) and the left (L) are shared as the left front channel, and the center (C), the right center (CR) and the right ( It is shown that three channels of R) are made common.

【0102】図13のFには左前チャネルとしてレフト
センタ(CL)、レフト(L)の2チャネルを共通化
し、右前チャネルとしてライトセンタ(CR)、ライト
(R)の2チャネルを共通化することを示している。
In FIG. 13F, the left center (CL) and left (L) channels are commonly used as the left front channel, and the right center (CR) and right (R) channels are commonly used as the right front channel. Is shown.

【0103】当該他の実施例の場合も、より多くのチャ
ネル数を共通化できる手法、即ち図13のAを一番と
し、図13のFを最低とする優先処理を行うことによ
り、適切な共通化のチャネル選択が可能となる。
Also in the case of the other embodiments, it is appropriate to carry out a method in which a larger number of channels can be made common, that is, by performing priority processing in which A of FIG. 13 is the highest and F of FIG. 13 is the lowest. Common channel selection is possible.

【0104】以上の共通化の組合せを利用することで、
7チャネルの場合においても共通化により発生する違和
感を削減することが可能となる。
By using the combination of the above commonalization,
Even in the case of 7 channels, it is possible to reduce the discomfort caused by the commonization.

【0105】また、上記図13においてさらにサブウー
ファー(SW)チャネルが付加されて8チャネルになっ
た場合も考えられるが、このサブウーファー(SW)チ
ャネルは低周波数の再生を目的としたチャネルであるた
め、共通化には向いていない。したがって、共通化処理
に加えないという形で容易に符号化及び復号化装置に追
加が可能である。
Further, in FIG. 13, it is conceivable that a subwoofer (SW) channel is further added to form 8 channels, but this subwoofer (SW) channel is a channel for reproducing low frequency. Therefore, it is not suitable for standardization. Therefore, it is possible to easily add to the encoding and decoding device without adding to the common processing.

【0106】次に、前記符号器105の具体的構成及び
動作について図14〜図17を用いて説明する。なお、
図14には、1つのチャネルの符号器105の構成を示
している。
Next, the specific structure and operation of the encoder 105 will be described with reference to FIGS. In addition,
FIG. 14 shows the configuration of the encoder 105 for one channel.

【0107】図14において、入力端子24には、前記
共通化データ抜出器103によってオリジナルのオーデ
ィオデータから共通化する部分が抜き出された残りの部
分のオーディオデータ(標本化及び量子化されたオーデ
ィオ信号)が供給される。この入力端子24に供給され
た信号は、先ず帯域分割フィルタ401によって0〜
5.5kHzの低域と、5.5kHz〜11kHzの中
域と、11kHz以上(11kHz〜22kHz)の3
つの周波数帯域の時間軸上の信号成分に分割される。
In FIG. 14, at the input terminal 24, the audio data of the remaining part (sampled and quantized) from which the part to be made common is extracted from the original audio data by the common data extractor 103. Audio signal) is supplied. The signal supplied to the input terminal 24 is first converted by the band division filter 401 from 0 to
Low frequency of 5.5 kHz, 5.5 kHz to 11 kHz mid range, and 11 kHz or more (11 kHz to 22 kHz) 3
It is divided into signal components on the time axis of one frequency band.

【0108】これら3つの周波数帯域の信号成分のう
ち、上記帯域分割フィルタ401からの上記低域の信号
成分はMDCT(Modified Discrete Cosine Transfor
m:改良型離散余弦変換)演算を行うMDCT回路40
2Lに、中域の信号成分は同じくMDCT演算を行うM
DCT回路402Mに、また、高域の信号成分はMDC
T回路402Hに送られ、これらMDCT回路402L
〜402Hでそれぞれ周波数上の信号成分に分解され
る。このとき、上記MDCTを施すときの時間ブロック
長は、各周波数帯域毎に可変とすることが可能であり、
信号成分が急激に変化する部分では、時間ブロック長を
短くして、時間分解能を高め、信号成分が定常的な部分
では時間ブロック長を長くして、信号成分の有効伝送と
量子化雑音を制御する。
Of the signal components in these three frequency bands, the low frequency signal component from the band division filter 401 is the MDCT (Modified Discrete Cosine Transfor).
m: MDCT circuit 40 for performing improved discrete cosine transform) operation
In 2L, the signal component in the middle range is also MCT which performs MDCT calculation
In the DCT circuit 402M, the high frequency signal component is MDC
Sent to the T circuit 402H and these MDCT circuits 402L
At ~ 402H, each is decomposed into signal components on the frequency. At this time, the time block length when performing the MDCT can be variable for each frequency band,
Control the effective transmission and quantization noise of the signal component by shortening the time block length to improve the time resolution in the portion where the signal component changes rapidly and increasing the time block length in the portion where the signal component is stationary. To do.

【0109】この時間ブロック長は、ブロックサイズ評
価器403にて決定されている。すなわち、上記帯域分
割フィルタ401からの3つの周波数帯域の信号成分
は、ブロックサイズ評価器403にも送られ、当該ブロ
ックサイズ評価器403が上記MDCTでの時間ブロッ
ク長を決定し、この決定した時間ブロック長を示す情報
を上記MDCT回路402L〜402Hに送るようにし
ている。
The time block length is determined by the block size evaluator 403. That is, the signal components of the three frequency bands from the band division filter 401 are also sent to the block size evaluator 403, the block size evaluator 403 determines the time block length in the MDCT, and the determined time is determined. Information indicating the block length is sent to the MDCT circuits 402L to 402H.

【0110】なお、上記MDCTでの時間ブロック長を
可変する場合の2種類の時間ブロック長のうち、長い時
間ブロック長はロングモードと呼ばれ、11.6msの
時間に相当する。また、短い時間ブロック長はショート
モードと呼ばれ、高域(11kHz以上)で1.45m
sまで、低域(5.5kHz以下)及び中域(5.5k
Hzから11kHz)では2.9msまで時間分解能を
上げるようにしている。
Of the two types of time block lengths when the time block length in MDCT is varied, the long time block length is called a long mode and corresponds to a time of 11.6 ms. Also, the short time block length is called short mode, and 1.45 m in the high range (11 kHz or more).
Up to s, low range (less than 5.5 kHz) and middle range (5.5 kHz)
(Hz to 11 kHz), the time resolution is increased up to 2.9 ms.

【0111】このようにして、時間と周波数の2次元領
域(これをブロックフローティングユニット:Block Fl
oating Unit と呼ぶ)上の信号成分に分解されたオーデ
ィオ信号は、正規化回路404L〜404Hによって低
域,中域,高域で合計52個のブロックフローティング
ユニットに分けられると共に、ユニット毎に規格化(正
規化)される(スケールファクタの決定がなされる)。
In this way, the two-dimensional area of time and frequency (this is a block floating unit: Block Fl
The audio signal decomposed into the above signal components is divided into a total of 52 block floating units in the low band, middle band, and high band by the normalization circuits 404L to 404H and standardized for each unit. (Normalized) (scale factor is determined).

【0112】また、上記ビット配分器405では、人間
の聴覚の特性を利用して、そのオーディオ信号がどのよ
うな成分から構成されているかを分析する。この分析結
果が上記正規化回路404L〜404Hからの各ユニッ
ト毎の信号が供給される再量子化器406に送られる。
Further, the bit allocator 405 analyzes what kind of component the audio signal is composed by utilizing the characteristics of human hearing. The result of this analysis is sent to the requantizer 406 to which the signals for each unit from the normalization circuits 404L to 404H are supplied.

【0113】当該再量子化器406は、上記分析結果に
基づいて、各ユニットをどの程度の精度で量子化するか
を求めてパラメータ化する(ワードレングスの決定を行
う)と共に、当該求めた量子化の精度で再量子化を行
う。
The re-quantizer 406 determines, based on the analysis result, with what degree of accuracy each unit is quantized and parameterizes it (determines the word length), and at the same time determines the obtained quantum. Requantization is performed with the accuracy of quantization.

【0114】最後に、フォーマッタ407では、各ユニ
ット毎の各パラメータ情報と再量子化された周波数軸上
の信号成分とを所定のフォーマットに従って前記図1の
マルチプレクサ106に送る1つのチャネルにおけるビ
ットストリームへの組み立てを行う。このフォーマッタ
407の出力が出力端子25からビットストリームとし
て出力される。
Finally, the formatter 407 converts each parameter information for each unit and the requantized signal component on the frequency axis into a bit stream in one channel to be sent to the multiplexer 106 of FIG. 1 according to a predetermined format. Assemble. The output of the formatter 407 is output from the output terminal 25 as a bit stream.

【0115】ビットストリームは、図示しないものの、
所定の誤り訂正、変調等の処理を行う、記録装置によ
り、光デイスク又は映画フィルム等の記録媒体に記録さ
れる。
Although the bit stream is not shown,
The data is recorded on a recording medium such as an optical disc or a movie film by a recording device that performs predetermined error correction, modulation, and other processing.

【0116】ここで、上述したような符号化の動作は、
サウンドフレームという単位毎に行われる。
Here, the encoding operation as described above is as follows.
It is performed in units of sound frames.

【0117】また、上記ビット配分器405は具体的に
は図15に示すような構成を有するものである。
Further, the bit allocator 405 has a concrete structure as shown in FIG.

【0118】この図15において、入力端子521に
は、MDCT回路402L,402M,402Hからの
周波数軸上の信号成分(以下周波数領域のデータと呼
ぶ)が供給されている。
In FIG. 15, the input terminal 521 is supplied with signal components on the frequency axis (hereinafter referred to as frequency domain data) from the MDCT circuits 402L, 402M and 402H.

【0119】この周波数領域のデータは、帯域毎のエネ
ルギ算出回路522に送られて、前記クリティカルバン
ド(臨界帯域)毎のエネルギが、例えば当該バンド内で
の各振幅値2乗の総和を計算すること等により求められ
る。この各バンド毎のエネルギの代わりに、振幅値のピ
ーク値、平均値等が用いられることもある。このエネル
ギ算出回路522からの出力として、例えば各バンドの
総和値は、一般にバークスペクトルと称されている。図
16はこのような各クリティカルバンド毎のバークスペ
クトルSBを示している。ただし、この図16では、図
示を簡略化するため、上記クリティカルバンドのバンド
数を12バンド(B1 〜B12)で表現している。
This frequency domain data is sent to the energy calculation circuit 522 for each band, and the energy of each critical band (critical band) is calculated, for example, as the sum of the squared amplitude values in the band. It is required by things. Instead of the energy for each band, a peak value, an average value, etc. of the amplitude value may be used. As an output from the energy calculation circuit 522, for example, the sum total value of each band is generally called a Bark spectrum. FIG. 16 shows the Bark spectrum SB for each such critical band. However, in FIG. 16, the number of bands of the critical band is represented by 12 bands (B1 to B12) in order to simplify the illustration.

【0120】ここで、上記バークスペクトルSBのいわ
ゆるマスキングに於ける影響を考慮するために、該バー
クスペクトルSBの値に所定の重み付け関数を掛けて加
算するような畳込み(コンボリューション)処理を施
す。このため、上記帯域毎のエネルギ算出回路522の
出力すなわち該バークスペクトルSBの各値は、畳込み
フィルタ回路523に送られる。該畳込みフィルタ回路
523は、例えば、入力データを順次遅延させる複数の
遅延素子と、これら遅延素子からの出力にフィルタ係数
(重み付け関数)を乗算する複数の乗算器(例えば各バ
ンドに対応する25個の乗算器)と、各乗算器出力の総
和をとる総和加算器とから構成されるものである。
Here, in order to consider the effect of so-called masking of the Bark spectrum SB, a convolution process is performed in which the value of the Bark spectrum SB is multiplied by a predetermined weighting function and added. . Therefore, the output of the energy calculation circuit 522 for each band, that is, each value of the Bark spectrum SB is sent to the convolution filter circuit 523. The convolution filter circuit 523 is, for example, a plurality of delay elements that sequentially delay input data, and a plurality of multipliers that multiply outputs from these delay elements by a filter coefficient (weighting function) (for example, 25 corresponding to each band). Number of multipliers), and a sum adder that sums the outputs of the multipliers.

【0121】なお、上記マスキングとは、人間の聴覚上
の特性により、ある信号によって他の信号がマスクされ
て聞こえなくなる現象をいうものである。このマスキン
グ効果には、時間領域のオーディオ信号による時間軸マ
スキング効果と、周波数領域の信号による同時刻マスキ
ング効果とがある。これらのマスキング効果により、マ
スキングされる部分にノイズがあったとしても、このノ
イズは聞こえないことになる。このため、実際のオーデ
ィオ信号では、このマスキングされる範囲内のノイズは
許容可能なノイズとされる。
The masking is a phenomenon in which one signal is masked by another signal and becomes inaudible due to human auditory characteristics. This masking effect includes a time-axis masking effect by an audio signal in the time domain and a same-time masking effect by a signal in the frequency domain. Due to these masking effects, even if there is noise in the masked portion, this noise cannot be heard. Therefore, in the actual audio signal, the noise within the masked range is regarded as an acceptable noise.

【0122】ここで、上記畳込みフィルタ回路523の
各乗算器の乗算係数(フィルタ係数)の一具体例を示す
と、任意のバンドに対応する乗算器Mの係数を1とする
とき、乗算器M−1で係数0.15を、乗算器M−2で
係数0.0019を、乗算器M−3で係数0.0000
086を、乗算器M+1で係数0.4を、乗算器M+2
で係数0.06を、乗算器M+3で係数0.007を各
遅延素子の出力に乗算することにより、上記バークスペ
クトルSBの値の畳込み処理が行われる。ただし、Mは
1〜25の任意の整数である。
Here, one specific example of the multiplication coefficient (filter coefficient) of each multiplier of the convolution filter circuit 523 will be described. When the coefficient of the multiplier M corresponding to an arbitrary band is 1, the multiplier M-1 gives a coefficient of 0.15, multiplier M-2 gives a coefficient of 0.0019, and multiplier M-3 gives a coefficient of 0.0000.
086, multiplier M + 1 gives a coefficient of 0.4, multiplier M + 2
By multiplying the output of each delay element by a coefficient of 0.06 and a coefficient of 0.007 by a multiplier M + 3, the convolution processing of the value of the Bark spectrum SB is performed. However, M is an arbitrary integer of 1 to 25.

【0123】次に、上記畳込みフィルタ回路523の出
力は引算器524に送られる。該引算器524は、上記
畳込んだ領域での後述する許容可能なノイズレベルに対
応するレベルαを求めるものである。なお、当該許容可
能なノイズレベル(許容ノイズレベル)に対応するレベ
ルαは、後述するように、逆コンボリューション処理を
行うことによって、クリティカルバンドの各バンド毎の
許容ノイズレベルとなるようなレベルである。ここで、
上記引算器524には、上記レベルαを求めるるための
許容関数(マスキングレベルを表現する関数)が供給さ
れる。この許容関数を増減させることで上記レベルαの
制御を行っている。当該許容関数は、次に説明するよう
な(n−ai)関数発生回路525から供給されている
ものである。
Next, the output of the convolution filter circuit 523 is sent to the subtractor 524. The subtractor 524 calculates a level α corresponding to an allowable noise level described later in the convoluted area. The level α corresponding to the permissible noise level (permissible noise level) is a level at which the critical noise band becomes the permissible noise level for each band by performing inverse convolution processing, as described later. is there. here,
The subtractor 524 is supplied with an allowance function (function expressing a masking level) for obtaining the level α. The level α is controlled by increasing or decreasing this allowance function. The permissible function is supplied from the (n-ai) function generating circuit 525 as described below.

【0124】すなわち、許容ノイズレベルに対応するレ
ベルαは、クリティカルバンドのバンドの低域から順に
与えられる番号をiとすると、次の式で求めることがで
きる。
That is, the level α corresponding to the allowable noise level can be obtained by the following equation, where i is the number given in order from the low band of the critical band.

【0125】α=S−(n−ai) この式において、n,aは定数でa>0、Sは畳込み処
理されたバークスペクトルの強度であり、式中(n-ai)が
許容関数となる。
Α = S- (n-ai) In this equation, n and a are constants and a> 0, S is the intensity of the convolution-processed Bark spectrum, and (n-ai) is an allowable function. Becomes

【0126】例としてn=38,a=−0.5 を用いるこ
とができる。
As an example, n = 38 and a = -0.5 can be used.

【0127】このようにして、上記レベルαが求めら
れ、このデータは、割算器526に伝送される。当該割
算器526では、上記畳込みされた領域での上記レベル
αを逆コンボリューションするためのものである。した
がって、この逆コンボリューション処理を行うことによ
り、上記レベルαからマスキングスレッショールドが得
られるようになる。すなわち、このマスキングスレッシ
ョールドが許容ノイズレベルとなる。なお、上記逆コン
ボリューション処理は、複雑な演算を必要とするが、本
実施例では簡略化した割算器526を用いて逆コンボリ
ューションを行っている。
In this way, the level α is obtained, and this data is transmitted to the divider 526. The divider 526 is for deconvolution of the level α in the convolved area. Therefore, by performing the inverse convolution processing, the masking threshold can be obtained from the level α. That is, this masking threshold becomes the allowable noise level. Although the above-mentioned inverse convolution processing requires complicated calculation, in this embodiment, the inverse convolution is performed using the simplified divider 526.

【0128】次に、上記マスキングスレッショールドの
信号は、合成回路527を介して減算器528に伝送さ
れる。ここで、当該減算器528には、上記帯域毎のエ
ネルギ検出回路522からの出力、すなわち前述したバ
ークスペクトルSBの信号が、遅延回路529を介して
供給されている。したがって、この減算器528で上記
マスキングスレッショールドの信号とバークスペクトル
SBの信号との減算演算が行われることで、図16に示
すように、上記バークスペクトルSBの値は、該マスキ
ングスレッショールドMSのレベルで示すレベル以下が
マスキングされることになる。なお、遅延回路529は
上記合成回路527以前の各回路での遅延量を考慮して
エネルギ検出回路522からのバークスペクトルSBの
信号を遅延させるために設けられている。
Next, the masking threshold signal is transmitted to the subtractor 528 via the synthesizing circuit 527. Here, the output from the energy detection circuit 522 for each band, that is, the signal of the above-described Bark spectrum SB is supplied to the subtractor 528 via the delay circuit 529. Therefore, the subtractor 528 performs a subtraction operation on the masking threshold signal and the signal of the bark spectrum SB, so that the value of the bark spectrum SB becomes the masking threshold value as shown in FIG. The level below the level indicated by the MS will be masked. The delay circuit 529 is provided for delaying the signal of the Bark spectrum SB from the energy detection circuit 522 in consideration of the delay amount in each circuit before the synthesis circuit 527.

【0129】当該減算器528からの出力は、許容雑音
補正回路530を介し、出力端子531を介して取り出
され、例えば配分ビット数情報が予め記憶されたROM
等(図示せず)に送られる。このROM等は、上記減算
回路528から許容雑音補正回路530を介して得られ
た出力(上記各バンドのエネルギと上記ノイズレベル設
定手段の出力との差分のレベル)に応じ、各バンド毎の
配分ビット数情報を出力する。
The output from the subtracter 528 is taken out via the allowable noise correction circuit 530 and the output terminal 531. For example, the ROM in which the distribution bit number information is stored in advance.
Etc. (not shown). The ROM or the like is distributed for each band according to the output (the level of the difference between the energy of each band and the output of the noise level setting means) obtained from the subtraction circuit 528 through the allowable noise correction circuit 530. Outputs bit number information.

【0130】このようにして求められた配分ビット数情
報が図14の再量子化器406に送られることで、当該
再量子化器406においてMDCT回路404L,40
4M,404Hからの周波数領域の各データがそれぞれ
のバンド毎に割り当てられたビット数で再量子化される
わけである。
The distribution bit number information thus obtained is sent to the requantizer 406 of FIG. 14, so that the MDCT circuits 404L and 4040 in the requantizer 406.
Each data in the frequency domain from 4M and 404H is requantized by the number of bits assigned to each band.

【0131】すなわち要約すれば、再量子化器406で
は、上記クリティカルバンドの各バンド帯域(クリティ
カルバンド)毎もしくは高域においてはクリティカルバ
ンドを更に複数帯域に分割した帯域のエネルギもしくは
ピーク値と上記ノイズレベル設定手段の出力との差分の
レベルに応じて配分されたビット数で、上記各バンド毎
のデータを量子化することになる。
That is, in summary, in the requantizer 406, the energy or peak value of the band obtained by further dividing the critical band into a plurality of bands in each band band (critical band) of the critical band or in the high band and the noise. The data for each band is quantized by the number of bits distributed according to the level of the difference from the output of the level setting means.

【0132】ところで、上述した合成回路527での合
成の際には、最小可聴カーブ発生回路532から供給さ
れる図17に示すような人間の聴覚特性であるいわゆる
最小可聴カーブRCを示すデータと、上記マスキングス
レッショールドMSとを合成することができる。この最
小可聴カーブにおいて、雑音絶対レベルがこの最小可聴
カーブ以下ならば該雑音は聞こえないことになる。
By the way, at the time of synthesizing by the above-mentioned synthesizing circuit 527, the data showing the so-called minimum audible curve RC which is the human auditory characteristic as shown in FIG. The masking threshold MS can be combined. In this minimum audible curve, if the absolute noise level is below this minimum audible curve, the noise will not be heard.

【0133】この最小可聴カーブは、コーディングが同
じであっても例えば再生時の再生ボリュームの違いで異
なるものとなる。しかし、現実的なディジタルシステム
では、例えば16ビットダイナミックレンジへの音楽信
号の性質にはさほど違いがないので、例えば4kHz付
近の最も耳に聞こえやすい周波数帯域の量子化雑音が聞
こえないとすれば、他の周波数帯域では、この最小可聴
カーブのレベル以下の量子化雑音は聞こえないと考えて
も問題が少ない。
Even if the coding is the same, the minimum audible curve is different, for example, due to the difference in reproduction volume during reproduction. However, in a realistic digital system, there is not much difference in the characteristics of the music signal into the 16-bit dynamic range, so that if the quantization noise in the most audible frequency band around 4 kHz is inaudible, for example, In other frequency bands, it is less problematic to consider that the quantization noise below the level of this minimum audible curve cannot be heard.

【0134】したがって、例えばシステムの持つダイナ
ミックレンジの4kHz付近の雑音が聞こえない使い方
をすると仮定し、この最小可聴カーブRCとマスキング
スレッショールドMSの信号とを共に合成することで許
容ノイズレベルを得るようにすると、この場合の許容ノ
イズレベルは、図17中の斜線で示す部分までと考える
ことができる。なお、本実施例では、上記最小可聴カー
ブの4kHzのレベルを、例えば20ビット相当の最低
レベルに合わせている。また、この図17は、信号スペ
クトルSSも同時に示している。
Therefore, for example, assuming that the system is used so that noise around the dynamic range of 4 kHz is not heard, the minimum audible curve RC and the masking threshold MS signal are combined together to obtain an allowable noise level. In this case, the allowable noise level in this case can be considered up to the shaded portion in FIG. In this embodiment, the level of 4 kHz of the minimum audible curve is set to the minimum level equivalent to 20 bits, for example. Further, FIG. 17 also shows the signal spectrum SS at the same time.

【0135】また、上記許容雑音補正回路530では、
補正情報出力回路533から送られてくる例えば等ラウ
ドネスカーブの情報に基づいて、上記減算器528から
の出力における許容雑音レベルを補正している。ここ
で、等ラウドネスカーブとは、人間の聴覚特性に関する
特性曲線であり、例えば1kHzの純音と同じ大きさに
聞こえる各周波数での音の音圧を求めて曲線で結んだも
ので、ラウドネスの等感度曲線とも呼ばれる。またこの
等ラウドネス曲線は、図17に示した最小可聴カーブR
Cと略同じ曲線を描くものである。
In the allowable noise correction circuit 530,
The allowable noise level in the output from the subtractor 528 is corrected based on the information of the equal loudness curve sent from the correction information output circuit 533, for example. Here, the equal loudness curve is a characteristic curve relating to human auditory characteristics, for example, a curve obtained by obtaining the sound pressure of sound at each frequency that sounds the same as a pure tone of 1 kHz, and connecting the curves. Also called sensitivity curve. Further, this equal loudness curve is the minimum audible curve R shown in FIG.
It draws a curve substantially the same as C.

【0136】この等ラウドネス曲線においては、例えば
4kHz付近では1kHzのところより音圧が8〜10
dB下がっても1kHzと同じ大きさに聞こえる。逆に、
50Hz付近では1kHzでの音圧よりも約15dB高
くないと同じ大きさに聞こえない。このため、上記最小
可聴カーブのレベルを越えた雑音(許容ノイズレベル)
は、該等ラウドネス曲線に応じたカーブで与えられる周
波数特性を持つようにするのが良いことがわかる。この
ようなことから、上記等ラウドネス曲線を考慮して上記
許容ノイズレベルを補正することは、人間の聴覚特性に
適合していることがわかる。
In this equal loudness curve, for example, in the vicinity of 4 kHz, the sound pressure becomes 8 to 10 at 1 kHz.
Even if it goes down by dB, it sounds as loud as 1 kHz. vice versa,
In the vicinity of 50 Hz, the sound level is not heard unless it is higher than the sound pressure at 1 kHz by about 15 dB. Therefore, noise exceeding the level of the above minimum audible curve (allowable noise level)
It is understood that it is better to have a frequency characteristic given by a curve corresponding to the equal loudness curve. From this, it can be seen that correcting the permissible noise level in consideration of the equal loudness curve is suitable for human hearing characteristics.

【0137】次に、図18には、前記図1の符号器10
5に対応する図6の復号器133の具体的構成を示す。
Next, FIG. 18 shows the encoder 10 of FIG.
5 shows a specific configuration of the decoder 133 of FIG.

【0138】すなわち、この図18の復号器は、記録媒
体、例えば光デイスクや後述する映画フィルムから、再
生手段としての例えば磁気ヘッドや光学ヘッドなどによ
って読み取った各チャネルのうちの1チャネル分の符号
化された信号を復号化するものである。
That is, the decoder shown in FIG. 18 is a code for one channel of each channel read from a recording medium such as an optical disc or a movie film described later by a reproducing unit such as a magnetic head or an optical head. The decoded signal is decoded.

【0139】この図18において、端子26には前記図
5のデマルチプレクサ132からの符号化されているデ
ータが供給され、これがデフォーマッタ411に送られ
る。当該デフォーマッタ411では、前記フォーマッタ
407に対応する逆の処理を行い、各ユニット毎の各パ
ラメータ情報と前記再量子化された周波数軸上の信号成
分(すなわち量子化されたMDCT係数)とを得る。
In FIG. 18, encoded data from the demultiplexer 132 of FIG. 5 is supplied to the terminal 26, and this is sent to the deformatter 411. The deformatter 411 performs an inverse process corresponding to the formatter 407, and obtains each parameter information for each unit and the requantized signal component on the frequency axis (that is, the quantized MDCT coefficient). .

【0140】上記デフォーマッタ411からの各ユニッ
ト毎の量子化されたMDCT係数は低域用の復号化回路
412Lと中域用の復号化回路412Mと高域用の復号
化回路412に送られる。また、これら復号化回路41
2L〜412Hにはデフォーマッタ411からパラメー
タ情報も与えられる。各復号化回路412L〜412H
では、パラメータ情報を用いてビット配分を解除すると
共に復号化を行う。
The quantized MDCT coefficient for each unit from the deformatter 411 is sent to the low frequency decoding circuit 412L, the middle frequency decoding circuit 412M and the high frequency decoding circuit 412. In addition, these decoding circuits 41
Parameter information is also given to the 2L to 412H from the deformatter 411. Each decoding circuit 412L to 412H
Then, the bit allocation is canceled using the parameter information and the decoding is performed.

【0141】これら復号化回路412L〜412Hの出
力は、それぞれ対応するIMDCT(逆MDCT)回路
413L〜413Hに送られる。また、各IMDCT回
路413L〜413Hにも上記パラメータ情報が送ら
れ、ここでは周波数軸上の信号成分が時間軸上の信号成
分に変換される。これらの部分帯域の時間軸上の信号成
分は、帯域合成回路414により、全帯域信号に復号化
される。
The outputs of these decoding circuits 412L-412H are sent to the corresponding IMDCT (inverse MDCT) circuits 413L-413H. The parameter information is also sent to each of the IMDCT circuits 413L to 413H, and here, the signal component on the frequency axis is converted into the signal component on the time axis. The band-combining circuit 414 decodes the signal components of these partial bands on the time axis into full-band signals.

【0142】次に、本実施例の符号化方法又は装置によ
って符号化されたデータが、記録媒体の一例としての映
画フィルム上へ記録される例について、図19を用いて
説明する。
Next, an example in which the data encoded by the encoding method or apparatus of this embodiment is recorded on a motion picture film as an example of the recording medium will be described with reference to FIG.

【0143】すなわち、上記符号化データは、図19に
示す映画フィルム1上に記録される。この映画フィルム
1上の符号化データの記録位置としては、例えば図19
の(a)に示すような映画フィルム1のパーフォレーシ
ョン3の間の記録領域4や、図19の(b)に示すよう
な映画フィルム1の両側の同じ側のパーフォレーション
3の間の記録領域4や、図19の(c)に示すような映
画フィルム1のパーフォレーション3と当該映画フィル
ム1のエッジとの間の長手記録領域5や、図19の
(d)に示すような映画フィルム1のパーフォレーショ
ン3と当該映画フィルム1のエッジとの間の長手記録領
域5及びパーフォレーション3の間の記録領域4などを
例に挙げることができる。
That is, the encoded data is recorded on the motion picture film 1 shown in FIG. The recording position of the encoded data on the movie film 1 is, for example, as shown in FIG.
Recording area 4 between the perforations 3 of the motion picture film 1 as shown in FIG. 19A, or the recording area 4 between the perforations 3 on the same side on both sides of the motion picture film 1 as shown in FIG. The longitudinal recording area 5 between the perforation 3 of the motion picture film 1 and the edge of the motion picture film 1 as shown in FIG. 19C, and the perforation 3 of the motion picture film 1 as shown in FIG. 19D. The longitudinal recording area 5 between the edge and the edge of the motion picture film 1 and the recording area 4 between the perforations 3 can be cited as examples.

【0144】最後に、本実施例の符号化方法及び装置に
よって符号化されたデータが、記録媒体の一例としての
光デイスクへ記録される例について、図20を用いて説
明する。
Finally, an example in which data encoded by the encoding method and apparatus of this embodiment is recorded on an optical disk as an example of a recording medium will be described with reference to FIG.

【0145】図20は符号化ビットストリームの一部で
あって、特に本発明が実施する際に使用する各チャンネ
ルのヘッダデータの例を示す。
FIG. 20 shows a part of a coded bit stream, and particularly shows an example of header data of each channel used when the present invention is implemented.

【0146】ヘッダデータは、幾つかのフラグからな
り、これらのフラグの1/0により、以下に続くビット
ストリームに関する多くの条件を記述するものである。
ここでは、ビットストリームの一部のみを開示し、本発
明に直接関係の無い条件に関しては、説明を割愛する。
The header data consists of several flags, and 1/0 of these flags describes many conditions regarding the bit stream that follows.
Here, only a part of the bitstream is disclosed, and the description of the conditions not directly related to the present invention will be omitted.

【0147】チャンネルの共通化モードは、cplchfフラ
グを用いる。〔su〕はサウンドフレーム番号を、〔ch〕
はチャンネル番号を示す。cplchfフラグは4ビットのコ
ードで、最大4個まで定義可能とされる。どのビットに
も1が無い、即ち 0000 (ビット表示)と定義されてい
る場合、このチャンネルのビットストリームには、共通
化データが無い、と判断される。
The channel common mode uses the cplchf flag. [Su] is the sound frame number, [ch]
Indicates the channel number. The cplchf flag is a 4-bit code and up to 4 can be defined. If there is no 1 in any bit, that is, 0000 (bit display) is defined, it is determined that there is no common data in the bit stream of this channel.

【0148】全チャンネルを共通化するモードが選択さ
れた場合は、全てのチャンネルのcplchfフラグが 1000
になり、1個めの acbs (共通化されたデータ)に全チ
ャンネルの共通化データが入る。
When the mode of sharing all channels is selected, the cplchf flags of all channels are set to 1000.
Therefore, the common data of all channels is stored in the first acbs (common data).

【0149】一方、左側チャンネルを共通化するモード
/右側チャンネルを共通化するモードが選択された場合
は、左側チャンネルの共通化に選ばれたチャンネルの c
plchfフラグ が 1000 に、右側チャンネルの共通化に選
ばれたチャンネルの cplchfフラグが 0100 になり、1
つめの acbs に左側チャンネルの共通化データが、2つ
めの acbs に右側チャンネルの共通化データが入る。
On the other hand, when the left channel common mode / right channel common mode is selected, the channel c selected for left channel common is selected.
The plchf flag is set to 1000, the cplchf flag of the channel selected for commonization of the right channel is set to 0100, and 1
The common data of the left channel is stored in the second acbs, and the common data of the right channel is stored in the second acbs.

【0150】つまり、各チャンネル毎にどの acbs を使
用するかを、cplchfフラグのビットにより選択すること
が可能である。
That is, it is possible to select which acbs to use for each channel by the bit of the cplchf flag.

【0151】このような符号化ビットストリーム、及び
ヘッダデータを使用することにより、組み合わせを変え
ることが可能となる。
It is possible to change the combination by using such an encoded bit stream and header data.

【0152】図21は、上記符号化ビットストリームの
構成を模式的に示したものである。参照番号150はビ
ットストリーム全体のヘッダを示し、参照番号151〜
155には各チャンネルのデータ領域を、参照番号15
6〜159は4チャンネル分の共通化データ領域を示
す。
FIG. 21 schematically shows the structure of the coded bit stream. Reference numeral 150 indicates a header of the entire bitstream, and reference numerals 151 to 151
Reference numeral 15 denotes the data area of each channel in 155.
Reference numerals 6 to 159 denote common data areas for four channels.

【0153】各チャンネルのデータ領域151〜155
は各々共通化フラグ(cpl use flag)160と、共通化パ
ラメータ(cpl parameter) 161と、データ(real dat
a) 162を含む。また共通化フラグ(cpl use flag)1
60は、図20ではcplchfとして記述したように、4ビ
ット(cpl1-4 use bit)170〜173よりなる。
Data areas 151 to 155 of each channel
Are common flag (cpl use flag) 160, common parameter (cpl parameter) 161, and data (real dat).
a) Including 162. Also, common flag (cpl use flag) 1
20, 60 is composed of 4 bits (cpl1-4 use bits) 170 to 173, as described as cplchf in FIG.

【0154】次に、図22には、上記共通化分析器10
2の他の実施例を示す。
Next, FIG. 22 shows the common analyzer 10.
2 shows another embodiment.

【0155】この図22において、入力端子101を介
して供給された、上記センター(C)、レフト(L)、
ライト(R)、レフトサラウンド(SL)、ライトサラ
ウンド(SR)の各チャネルのオーディオデータは、直
交変換器201a〜201eにそれぞれ送られ、ここで
周波数軸上の信号成分に変換されて出力される。
In FIG. 22, the center (C), the left (L), which are supplied through the input terminal 101,
The audio data of each channel of right (R), left surround (SL), and right surround (SR) is sent to the orthogonal converters 201a to 201e, where it is converted into signal components on the frequency axis and output. .

【0156】周波数特性評価器202a〜202eは、
上記直交変換器201a〜201eから得られた各チャ
ネルの周波数軸上の信号成分のデータに基づいて、いわ
ゆる最小可聴カーブやマスキングスレッショールドなど
の人間の聴覚特性のパラメータを求め、周波数軸上の信
号成分と共にその結果を出力する。
The frequency characteristic evaluators 202a to 202e are
Based on the data of the signal components on the frequency axis of each channel obtained from the orthogonal transformers 201a to 201e, parameters of human auditory characteristics such as so-called minimum audible curve and masking threshold are obtained, and the parameters on the frequency axis are obtained. The result is output together with the signal component.

【0157】共通化処理選択器203では、符号化の目
標ビットレートと、周波数特性評価器202a〜202
eでの評価から得られた共通化に関するデータに基づい
て、共通化によって発生する量子化ノイズの絶対レベル
が最小可聴カーブ以下になるような周波数帯域を選択す
る。これにより、共通化により発生する量子化ノイズは
聞こえないことになる。当該選択結果は出力端子204
から出力され、共通化データ抽出器103a〜103e
及び共通化データ作成器104に送られる。なお、出力
端子124から出力される共通化に関するデータ(共通
化パラメータ情報)は、所定のフレーム単位(例えばサ
ウンドフレーム)で出力される。
In the common processing selector 203, the encoding target bit rate and the frequency characteristic evaluators 202a to 202 are used.
Based on the data regarding the commonization obtained from the evaluation in e, the frequency band is selected such that the absolute level of the quantization noise generated by the commonization is equal to or less than the minimum audible curve. As a result, the quantization noise generated by the commonization cannot be heard. The selection result is output terminal 204.
Output from the common data extractors 103a to 103e
And the common data generator 104. It should be noted that the data regarding commonization (common parameter information) output from the output terminal 124 is output in a predetermined frame unit (for example, a sound frame).

【0158】このように、本実施例の符号化装置では、
データの特性を利用した共通化周波数を選択すること
で、共通化により発生する違和感を削減することが可能
となる。
As described above, in the coding apparatus of this embodiment,
By selecting the common frequency using the characteristics of the data, it is possible to reduce the discomfort caused by the common frequency.

【0159】また、共通化処理選択器203で行う共通
化の手法は、所定のフレームとしてのサウンドフレーム
間で変化させることもできる。これにより、各サウンド
フレーム間で最適な共通化の周波数帯域を選択すること
で、共通化による音場の変化を抑制することができる。
Further, the method of commonization performed by the commonization processing selector 203 can be changed between sound frames as a predetermined frame. This makes it possible to suppress the change in the sound field due to the commonization by selecting the most suitable common frequency band between the sound frames.

【0160】さらに、図22において、共通化処理の選
択を同一サウンドフレーム内に複数存在させることも可
能である。例えば、特定周波数帯域において1又は複数
のチャネルを共通化せずに独立に符号化することで、最
小可聴カーブ以下となる周波数帯域が拡大する場合に、
複数の周波数帯域で共通化するチャネルの組み合わせを
変えた共通化処理を行うことで、より効果的な共通化が
可能となる。
Further, in FIG. 22, it is possible to make a plurality of selections of commonization processing within the same sound frame. For example, when the frequency band below the minimum audible curve is expanded by independently encoding one or a plurality of channels in a specific frequency band without commonization,
By performing the commonization process by changing the combination of channels to be shared in a plurality of frequency bands, more effective commonization becomes possible.

【0161】あるいは、特定周波数帯域において複数の
共通化の組み合わせを同時に存在させることも可能であ
る。例えば、前側チャネルと後側(サラウンド)チャネ
ルを別々に共通化するのが有効なデータの場合など、共
通化する周波数帯域が同一又は異なった複数の共通化チ
ャネルを作成することで、データの特性にあった効果的
な共通化が可能となる。
Alternatively, it is possible to allow a plurality of common combinations to exist simultaneously in a specific frequency band. For example, in the case of data in which it is effective to share the front side channel and the rear side (surround) channel separately, by creating a plurality of common channels with the same or different frequency bands to be shared, the data characteristics can be improved. It is possible to achieve effective standardization.

【0162】なお、上述した本発明の符号化方法及び復
号化方法は、実施例に用いたいわゆるATRAC方式だ
けでなく、いかなる符号化方式においても適用可能であ
る。特に直交変換により周波数情報に変換する符号化方
式において効果が高い。
The above-described coding method and decoding method of the present invention can be applied not only to the so-called ATRAC method used in the embodiments but also to any coding method. In particular, the effect is high in a coding method in which frequency information is converted by orthogonal conversion.

【0163】[0163]

【発明の効果】本発明の符号化方法及び装置において
は、複数チャネルのディジタル信号の少なくとも一部の
チャネルのディジタル信号を共通化した信号として扱い
符号化処理することで圧縮率を高めている。例えばオー
ディオ信号の目的とする再生環境に応じて共通化するチ
ャネルの組み合わせを変更、或いはオーディオ信号の推
奨する再生環境に応じて共通の信号として扱う処理方法
を変更することで、共通化による音場の変化を抑制する
ことが可能である。
In the encoding method and apparatus of the present invention, the compression rate is increased by treating the digital signals of at least some channels of the digital signals of a plurality of channels as common signals and performing the encoding process. For example, by changing the combination of channels to be shared according to the target playback environment of the audio signal, or by changing the processing method to handle as a common signal according to the recommended playback environment of the audio signal, the sound field due to the commonization Can be suppressed.

【0164】また、本発明の符号化方法及び装置におい
ては、所定の時間フレーム(例えばサウンドフレーム)
間で共通化するチャネルの組み合わせ及び共通のデータ
として扱う処理方法の急激な変化による不安定な再生音
場になることを回避することが可能である。
Further, in the encoding method and apparatus of the present invention, a predetermined time frame (eg sound frame)
It is possible to avoid an unstable reproduced sound field due to a sudden change in the combination of channels shared between the channels and the processing method handled as common data.

【0165】さらに、本発明の復号化装置においては、
少なくとも1以上の共通化された信号から複数チャネル
のディジタル信号を復号化し、この符号化信号の推奨す
る再生環境に応じて共通化信号を扱う処理方法を変更す
ることで、共通化による音場の変化を抑制することが可
能である。
Furthermore, in the decoding apparatus of the present invention,
By decoding the digital signals of a plurality of channels from at least one common signal and changing the processing method for handling the common signal according to the reproduction environment recommended by the coded signal, It is possible to suppress the change.

【0166】また、本発明の記録媒体においては、本発
明の符号化方法及び装置により符号化された信号を記録
してなり、映画フィルムを用いることで、より安定な再
生音場を提供することが可能となる。
Further, the recording medium of the present invention records the signal encoded by the encoding method and apparatus of the present invention, and provides a more stable reproduced sound field by using a movie film. Is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明符号化装置である実施例のマルチチャネ
ルオーディオ符号化装置の概略構成を示すブロック回路
図である。
FIG. 1 is a block circuit diagram showing a schematic configuration of a multi-channel audio encoding device of an embodiment which is an encoding device of the present invention.

【図2】本発明を用いない場合のマルチチャネルオーデ
ィオ符号化装置の構成を示すブロック回路図である。
FIG. 2 is a block circuit diagram showing a configuration of a multi-channel audio encoding device when the present invention is not used.

【図3】本発明の実施例符号化装置の共通化分析器の構
成を示すブロック回路図である。
FIG. 3 is a block circuit diagram showing the configuration of a common analyzer of the encoding device according to the embodiment of the present invention.

【図4】本発明の実施例の共通化チャネルの選択の種類
について説明するための図である。
FIG. 4 is a diagram illustrating types of common channel selection according to an embodiment of the present invention.

【図5】共通化チャネルのサラウンドフレーム間の変化
について説明するための図である。
FIG. 5 is a diagram for explaining a change between surround frames of a common channel.

【図6】本発明実施例の復号化装置であるマルチチャネ
ルオーディオ復号化装置の概略構成を示すブロック回路
図である。
FIG. 6 is a block circuit diagram showing a schematic configuration of a multi-channel audio decoding device which is a decoding device according to an embodiment of the present invention.

【図7】本発明を用いない場合のマルチチャネルオーデ
ィオ復号化装置の構成を示すブロック回路図である。
FIG. 7 is a block circuit diagram showing a configuration of a multi-channel audio decoding device when the present invention is not used.

【図8】本発明の実施例のマルチチャネルオーディオ復
号化装置の変形例を示すブロック回路図である。
FIG. 8 is a block circuit diagram showing a modified example of the multi-channel audio decoding device according to the embodiment of the present invention.

【図9】本発明の実施例の共通化パラメータの符号化方
法を実現する一構成例を示すブロック回路図である。
FIG. 9 is a block circuit diagram showing a configuration example for realizing a common parameter encoding method according to an embodiment of the present invention.

【図10】本発明の実施例の共通化パラメータの符号化
方法を実現する他の構成例を示すブロック回路図であ
る。
FIG. 10 is a block circuit diagram showing another configuration example for realizing the common parameter encoding method according to the exemplary embodiment of the present invention.

【図11】本発明の実施例の共通化パラメータの復号化
方法を実現する一構成例を示すブロック回路図である。
FIG. 11 is a block circuit diagram showing a configuration example for realizing the decoding method of the common parameter according to the exemplary embodiment of the present invention.

【図12】本発明の実施例の共通化パラメータの復号化
方法を実現する他の構成例を示すブロック回路図であ
る。
FIG. 12 is a block circuit diagram showing another configuration example for realizing the decoding method of the common parameter according to the exemplary embodiment of the present invention.

【図13】本発明の実施例の7チャネルの場合の共通化
チャネルの選択の種類について説明するための図であ
る。
FIG. 13 is a diagram illustrating types of common channel selection in the case of seven channels according to the embodiment of this invention.

【図14】実施例の符号化装置の符号器の具体的構成を
示すブロック回路図である。
FIG. 14 is a block circuit diagram showing a specific configuration of the encoder of the encoding device according to the embodiment.

【図15】符号器のビット配分器の具体的構成を示すブ
ロック回路図である。
FIG. 15 is a block circuit diagram showing a specific configuration of the bit distributor of the encoder.

【図16】バークスペクトルとマスキングスレッショー
ルドレベルについて説明するための図である。
FIG. 16 is a diagram for explaining a Bark spectrum and a masking threshold level.

【図17】信号レベルと最小可聴カーブとマスキングス
レッショールドとを合成して示した図である。
FIG. 17 is a diagram showing a composite of a signal level, a minimum audible curve, and a masking threshold.

【図18】実施例の復号化装置の復号器の具体的構成を
示すブロック回路図である。
FIG. 18 is a block circuit diagram showing a specific configuration of the decoder of the decoding device in the example.

【図19】映画フィルム上に符号化信号が記録される位
置について説明するための図である。
FIG. 19 is a diagram for explaining a position where an encoded signal is recorded on a motion picture film.

【図20】符号化ビットストリームの各チャンネルのヘ
ッダデータの例を示す図である。
[Fig. 20] Fig. 20 is a diagram illustrating an example of header data of each channel of an encoded bitstream.

【図21】符号化ビットストリームの構成を模式的に示
した図である。
FIG. 21 is a diagram schematically showing the configuration of an encoded bitstream.

【図22】本発明の他の実施例符号化装置の共通化分析
器の構成を示すブロック回路図である。
FIG. 22 is a block circuit diagram showing the configuration of a common analyzer of an encoding device according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

102 共通化分析器 103 共通化データ抜出器 104 共通化データ作成器 105 符号器 106 マルチプレクサ 122 共通化処理分析器 123 共通化手法選択器 124 共通化データ抽出器 132 デマルチプレクサ 133 復号器 134,137 共通化データ分配器 135 共通化データ合成器 138 共通符号化データ合成器 141 共通化パラメータ抽出器 142 共通化パラメータ調整器 102 common analyzer 103 common data extractor 104 common data generator 105 encoder 106 multiplexer 122 common processing analyzer 123 common method selector 124 common data extractor 132 demultiplexer 133 decoders 134, 137 Common data distributor 135 Common data synthesizer 138 Common coded data synthesizer 141 Common parameter extractor 142 Common parameter adjuster

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 複数チャネルのディジタル信号を符号化
し、当該符号化されたディジタル信号と当該符号化のパ
ラメータ情報とを出力する、符号化方法において、 複数チャネルのディジタル信号の少なくとも一部のチャ
ネルのディジタル信号を共通化した信号とする共通化ス
テップと、 上記ディジタル信号の周波数特性又は目的とする再生環
境に応じて、上記共通化するチャネルの組み合わせを変
更する変更ステップと、 上記共通化したチャネルの組み合わせを示すパラメータ
情報を出力するパラメータ情報出力ステップと、 上記共通化した信号を符号化して出力する符号化ステッ
プと、 上記パラメータ情報と符号化出力とを多重化する多重化
ステップとからなることを特徴とする符号化方法。
1. A coding method for coding a digital signal of a plurality of channels and outputting the coded digital signal and parameter information of the coding, wherein at least a part of channels of the digital signal of the plurality of channels is encoded. A common step of making a digital signal a common signal; a changing step of changing the combination of the common channels according to the frequency characteristics of the digital signal or a target reproduction environment; A parameter information output step of outputting parameter information indicating a combination, an encoding step of encoding and outputting the common signal, and a multiplexing step of multiplexing the parameter information and the encoded output. Characteristic encoding method.
【請求項2】 上記共通化した信号を符号化する符号化
ステップは、上記ディジタル信号の内容又は推奨する再
生環境に応じて、扱う処理を適応的に可変する可変ステ
ップを含むことを特徴とする請求項1記載の符号化方
法。
2. The encoding step for encoding the commonized signal includes a variable step for adaptively varying the processing to be performed according to the content of the digital signal or a recommended reproduction environment. The encoding method according to claim 1.
【請求項3】 上記施す処理を適応的に可変する可変ス
テップは、所定の時間フレームを単位として可変制御を
行うことを特徴とする請求項2記載の符号化方法。
3. The encoding method according to claim 2, wherein the variable step of adaptively varying the processing to be performed performs variable control in units of a predetermined time frame.
【請求項4】 上記共通化するチャネルの組み合わせを
変更する変更ステップは、所定の時間フレームを単位と
して変更制御を行うことを特徴とする請求項1記載の符
号化方法。
4. The encoding method according to claim 1, wherein in the changing step of changing the combination of channels to be made common, change control is performed in units of a predetermined time frame.
【請求項5】 上記共通化するチャネルの組み合わせ
は、同一の時間フレーム内で複数の組み合わせを使用す
ることを特徴とする請求項4記載の符号化方法。
5. The encoding method according to claim 4, wherein a plurality of combinations of the channels to be shared are used within the same time frame.
【請求項6】 上記共通化した信号は、いずれかのチャ
ネルのディジタル信号を、少なくとも2のチャネル間に
分割して配置した信号であることを特徴とする請求項1
記載の符号化方法。
6. The common signal is a signal in which a digital signal of any channel is divided and arranged between at least two channels.
The described encoding method.
【請求項7】 上記共通化する各チャネルのディジタル
信号の少なくとも一つには、各チャネルのディジタル信
号について、共通化前の信号を再現するための情報を求
め、当該情報を共通化した信号に含めることを特徴とす
る請求項1記載の符号化方法。
7. For at least one of the digital signals of the respective channels to be made common, information for reproducing the signal before being made common is obtained for the digital signals of the respective channels, and the information is made a common signal. The encoding method according to claim 1, wherein the encoding method is included.
【請求項8】 複数チャネルのディジタル信号を符号化
し、当該符号化されたディジタル信号と共に当該符号化
のパラメータ情報を出力する符号化装置において、 複数チャネルのディジタル信号の少なくとも一部のチャ
ネルのディジタル信号を共通化した信号とする共通化手
段と、 上記ディジタル信号の周波数特性及び目的とする再生環
境に応じて上記共通化を行うチャネルの組み合わせを変
更する変更手段と、 上記共通化したチャネルの組み合わせを示すパラメータ
情報を出力するパラメータ情報出力手段と、 上記共通化した信号を符号化する符号化手段と、 上記パラメータ情報と上記符号化出力とを多重化する多
重化手段とを有することを特徴とする符号化装置。
8. An encoding device for encoding digital signals of a plurality of channels and outputting parameter information of the encoding together with the encoded digital signals, wherein at least a part of the digital signals of the plurality of channels are digital signals. Is used as a common signal, changing means for changing the combination of channels to be made common according to the frequency characteristics of the digital signal and the intended reproduction environment, and the combination of the common channels. It has a parameter information output means for outputting the parameter information shown, an encoding means for encoding the common signal, and a multiplexing means for multiplexing the parameter information and the encoded output. Encoding device.
【請求項9】 上記符号化手段は、上記ディジタル信号
の内容及び推奨する再生環境に応じて、上記共通化する
信号に施す処理を変更することを特徴とする請求項8記
載の符号化装置。
9. The encoding apparatus according to claim 8, wherein the encoding means changes the processing to be performed on the signals to be shared according to the content of the digital signal and the recommended reproduction environment.
【請求項10】 上記符号化手段は、上記共通化するチ
ャネルの組み合わせの変更を所定の時間フレーム間で制
御することを特徴とする請求項8記載の符号化装置。
10. The encoding apparatus according to claim 8, wherein the encoding means controls a change of the combination of the channels to be shared between predetermined time frames.
【請求項11】 上記符号化手段は、上記共通化する信
号に施す処理の変更を所定の時間フレーム間で制御する
ことを特徴とする請求項8記載の符号化装置。
11. The encoding apparatus according to claim 8, wherein the encoding means controls a change of processing to be applied to the signals to be shared between predetermined time frames.
【請求項12】 上記符号化手段は、任意のチャネルの
ディジタル信号を複数の共通化するチャネル間に分割し
て配置することを特徴とする請求項8記載の符号化装
置。
12. The encoding apparatus according to claim 8, wherein the encoding means divides a digital signal of an arbitrary channel into a plurality of common channels and arranges the divided signals.
【請求項13】 上記符号化手段は、上記共通化するチ
ャネルの組み合わせの種類を同一の所定の時間フレーム
内で複数使用することを特徴とする請求項10記載の符
号化装置。
13. The encoding apparatus according to claim 10, wherein the encoding means uses a plurality of types of the combination of channels to be made common within the same predetermined time frame.
【請求項14】 上記符号化手段は、上記共通化する各
チャネルのディジタル信号の一部又は全部について、共
通化前の信号を再現するための情報を分析し、当該情報
を共通化した信号に含めることを特徴とする請求項8記
載の符号化装置。
14. The encoding means analyzes information for reproducing a signal before being made common with respect to a part or all of digital signals of the respective channels to be made common, and converts the information into a signal which is made common. The encoding device according to claim 8, wherein the encoding device is included.
【請求項15】 複数チャネルのディジタル信号の一部
又は全部を1又は複数の共通化した信号として扱うと共
に、当該ディジタル信号の周波数特性及び目的とする再
生環境に応じて上記共通化を行うチャネルの組み合わせ
が変更された信号を含む複数チャネルの符号化されたデ
ィジタル信号を、当該符号化のパラメータ情報を用いて
復号化する復号化装置であって、 上記共通化された信号を復号化する復号化手段と、 上記共通化の組み合わせに応じて当該復号化した共通化
された信号を複数チャネルに振り分ける振り分け手段
と、 上記振り分けられた共通化された信号に基づき、上記複
数チャネルの各ディジタル信号を復元する復元手段とを
有することを特徴とする復号化装置。
15. A part or all of digital signals of a plurality of channels are treated as one or a plurality of common signals, and the common channels are processed according to frequency characteristics of the digital signals and a target reproduction environment. A decoding device for decoding encoded digital signals of a plurality of channels including a signal whose combination has been changed, using the parameter information of the encoding, and decoding the commonized signal. Means, and a distribution means for distributing the decoded common signal to a plurality of channels according to the combination of the commonization, and restoring each digital signal of the plurality of channels based on the distributed commonized signal. And a restoring means for performing the decoding.
【請求項16】 上記復号化手段は、上記符号化された
ディジタル信号の推奨する再生環境に応じて、上記共通
化された信号に施す処理を変更することを特徴とする請
求項15記載の復号化装置。
16. The decoding according to claim 15, wherein said decoding means changes the processing applied to said common signal in accordance with the recommended reproduction environment of said encoded digital signal. Device.
【請求項17】 上記復号化手段は、上記共通化された
チャネルの組み合わせの種類が同一の所定の時間フレー
ム内で複数使用された符号化された信号を復号化するこ
とを特徴とする請求項15記載の復号化装置。
17. The decoding means decodes a plurality of coded signals used in a predetermined time frame in which the types of combinations of the common channels are the same. 15. The decoding device according to item 15.
【請求項18】 上記復号化手段は、複数の共通化され
た信号に分割して配置されて符号化された任意のチャネ
ルの符号化された信号を復号化することを特徴とする請
求項15記載の復号化装置。
18. The decoding means decodes a coded signal of an arbitrary channel, which is divided into a plurality of common signals and arranged and coded. Decoding device as described.
【請求項19】 上記復号化手段は、共通化された信号
に含まれる共通化前の信号を再現するための情報を用い
て、各チャネルの信号を調整することを特徴とする請求
項17記載の復号化装置。
19. The decoding means adjusts a signal of each channel by using information for reproducing a signal before commonization included in the commonized signal. Decryption device.
【請求項20】 複数チャネルのディジタル信号の少な
くとも一つのチャネルの信号を共通化した信号として扱
うと共に、当該ディジタル信号の周波数特性及び目的と
する再生環境に応じて上記共通化を行うチャネルの組み
合わせを変更し、上記共通化した信号を符号化した信号
と、共通化を行うチャネルの組み合わせを示すパラメー
タ情報と、当該共通化した信号を除く他の信号を符号化
した信号とを、符号化のパラメータ情報と共に記録して
なることを特徴とする記録媒体。
20. A combination of channels for handling at least one channel of digital signals of a plurality of channels as a common signal, and for performing the commonization according to a frequency characteristic of the digital signal and a target reproduction environment. A signal obtained by coding the changed common signal, parameter information indicating a combination of channels to be common, and a signal obtained by coding another signal excluding the common signal are used as coding parameters. A recording medium characterized by being recorded together with information.
【請求項21】 上記記録媒体は、光ディスク、又は映
画フィルムであることを特徴とする請求項20記載の記
録媒体。
21. The recording medium according to claim 20, wherein the recording medium is an optical disc or a movie film.
JP13411795A 1994-06-13 1995-05-31 Encoding method and apparatus, decoding apparatus, and recording medium Expired - Fee Related JP3397001B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13411795A JP3397001B2 (en) 1994-06-13 1995-05-31 Encoding method and apparatus, decoding apparatus, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP13065394 1994-06-13
JP6-130653 1994-06-13
JP13411795A JP3397001B2 (en) 1994-06-13 1995-05-31 Encoding method and apparatus, decoding apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JPH0865169A true JPH0865169A (en) 1996-03-08
JP3397001B2 JP3397001B2 (en) 2003-04-14

Family

ID=26465733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13411795A Expired - Fee Related JP3397001B2 (en) 1994-06-13 1995-05-31 Encoding method and apparatus, decoding apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP3397001B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5845021A (en) * 1994-12-28 1998-12-01 Kabushiki Kaisha Toshiba Image information encoding/decoding system
JPH1188994A (en) * 1997-09-04 1999-03-30 Matsushita Electric Ind Co Ltd Sound image presence device and sound image control method
US6009202A (en) * 1994-12-28 1999-12-28 Kabushiki Kaisha Toshiba Image information encoding/decoding system
WO2000014738A1 (en) * 1998-09-02 2000-03-16 Matsushita Electric Industrial Co., Ltd. Signal processor
JP2004343376A (en) * 2003-05-15 2004-12-02 Funai Electric Co Ltd Av system
WO2005112002A1 (en) * 2004-05-19 2005-11-24 Matsushita Electric Industrial Co., Ltd. Audio signal encoder and audio signal decoder
WO2006011367A1 (en) * 2004-07-30 2006-02-02 Matsushita Electric Industrial Co., Ltd. Audio signal encoder and decoder
WO2006126843A3 (en) * 2005-05-26 2007-03-08 Lg Electronics Inc Method and apparatus for decoding audio signal
JP2007507731A (en) * 2003-10-02 2007-03-29 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Compatible multi-channel encoding / decoding
JP2007532960A (en) * 2004-04-16 2007-11-15 コーディング テクノロジーズ アクチボラゲット Apparatus and method for displaying a multi-channel audio signal
WO2008126382A1 (en) * 2007-03-30 2008-10-23 Panasonic Corporation Encoding device and encoding method
WO2009128663A3 (en) * 2008-04-16 2010-01-14 Lg Electronics Inc. A method and an apparatus for processing an audio signal
JP2010506230A (en) * 2006-10-12 2010-02-25 エルジー エレクトロニクス インコーポレイティド Mix signal processing apparatus and method
JP2010156822A (en) * 2008-12-26 2010-07-15 Nippon Hoso Kyokai <Nhk> Sound compression coding device and decoding device of multi-channel sound signal
US7974287B2 (en) 2006-02-23 2011-07-05 Lg Electronics Inc. Method and apparatus for processing an audio signal
US8213641B2 (en) 2006-05-04 2012-07-03 Lg Electronics Inc. Enhancing audio with remix capability
US8239209B2 (en) 2006-01-19 2012-08-07 Lg Electronics Inc. Method and apparatus for decoding an audio signal using a rendering parameter
US8326446B2 (en) 2008-04-16 2012-12-04 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8340798B2 (en) 2008-04-16 2012-12-25 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8626515B2 (en) 2006-03-30 2014-01-07 Lg Electronics Inc. Apparatus for processing media signal and method thereof
WO2014192603A1 (en) * 2013-05-31 2014-12-04 ソニー株式会社 Audio signal output device and method, encoding device and method, decoding device and method, and program
US9595267B2 (en) 2005-05-26 2017-03-14 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US9626976B2 (en) 2006-02-07 2017-04-18 Lg Electronics Inc. Apparatus and method for encoding/decoding signal
US9747905B2 (en) 2005-09-14 2017-08-29 Lg Electronics Inc. Method and apparatus for decoding an audio signal
JP2018515813A (en) * 2015-05-20 2018-06-14 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Multi-channel audio signal coding

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6021226A (en) * 1994-12-28 2000-02-01 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US6011867A (en) * 1994-12-28 2000-01-04 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US5845021A (en) * 1994-12-28 1998-12-01 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US6009202A (en) * 1994-12-28 1999-12-28 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US6081208A (en) * 1994-12-28 2000-06-27 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US6016364A (en) * 1994-12-28 2000-01-18 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US6016363A (en) * 1994-12-28 2000-01-18 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US6044175A (en) * 1994-12-28 2000-03-28 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US5995667A (en) * 1994-12-28 1999-11-30 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US6047086A (en) * 1994-12-28 2000-04-04 Kabushiki Kaisha Toshiba Image information encoding/decoding system
US6018594A (en) * 1994-12-28 2000-01-25 Kabushiki Kaisha Toshiba Image information encoding/decoding system
JPH1188994A (en) * 1997-09-04 1999-03-30 Matsushita Electric Ind Co Ltd Sound image presence device and sound image control method
WO2000014738A1 (en) * 1998-09-02 2000-03-16 Matsushita Electric Industrial Co., Ltd. Signal processor
AU757410B2 (en) * 1998-09-02 2003-02-20 Matsushita Electric Industrial Co., Ltd. Signal processor
US6751177B1 (en) 1998-09-02 2004-06-15 Matsushita Electric Industrial Co., Ltd. Signal processor
JP2004343376A (en) * 2003-05-15 2004-12-02 Funai Electric Co Ltd Av system
JP2007507731A (en) * 2003-10-02 2007-03-29 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Compatible multi-channel encoding / decoding
US9743185B2 (en) 2004-04-16 2017-08-22 Dolby International Ab Apparatus and method for generating a level parameter and apparatus and method for generating a multi-channel representation
US10015597B2 (en) 2004-04-16 2018-07-03 Dolby International Ab Method for representing multi-channel audio signals
JP2011018060A (en) * 2004-04-16 2011-01-27 Dolby Internatl Ab Device and method for displaying multi-channel audio signal
JP2007532960A (en) * 2004-04-16 2007-11-15 コーディング テクノロジーズ アクチボラゲット Apparatus and method for displaying a multi-channel audio signal
WO2005112002A1 (en) * 2004-05-19 2005-11-24 Matsushita Electric Industrial Co., Ltd. Audio signal encoder and audio signal decoder
JPWO2005112002A1 (en) * 2004-05-19 2008-03-27 松下電器産業株式会社 Audio signal encoding apparatus and audio signal decoding apparatus
US8078475B2 (en) 2004-05-19 2011-12-13 Panasonic Corporation Audio signal encoder and audio signal decoder
WO2006011367A1 (en) * 2004-07-30 2006-02-02 Matsushita Electric Industrial Co., Ltd. Audio signal encoder and decoder
WO2006126843A3 (en) * 2005-05-26 2007-03-08 Lg Electronics Inc Method and apparatus for decoding audio signal
US9595267B2 (en) 2005-05-26 2017-03-14 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US8917874B2 (en) 2005-05-26 2014-12-23 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US9747905B2 (en) 2005-09-14 2017-08-29 Lg Electronics Inc. Method and apparatus for decoding an audio signal
US8239209B2 (en) 2006-01-19 2012-08-07 Lg Electronics Inc. Method and apparatus for decoding an audio signal using a rendering parameter
US8296155B2 (en) 2006-01-19 2012-10-23 Lg Electronics Inc. Method and apparatus for decoding a signal
US9626976B2 (en) 2006-02-07 2017-04-18 Lg Electronics Inc. Apparatus and method for encoding/decoding signal
US7974287B2 (en) 2006-02-23 2011-07-05 Lg Electronics Inc. Method and apparatus for processing an audio signal
US7991494B2 (en) 2006-02-23 2011-08-02 Lg Electronics Inc. Method and apparatus for processing an audio signal
US7991495B2 (en) 2006-02-23 2011-08-02 Lg Electronics Inc. Method and apparatus for processing an audio signal
US8626515B2 (en) 2006-03-30 2014-01-07 Lg Electronics Inc. Apparatus for processing media signal and method thereof
US8213641B2 (en) 2006-05-04 2012-07-03 Lg Electronics Inc. Enhancing audio with remix capability
JP2010506230A (en) * 2006-10-12 2010-02-25 エルジー エレクトロニクス インコーポレイティド Mix signal processing apparatus and method
US9418667B2 (en) 2006-10-12 2016-08-16 Lg Electronics Inc. Apparatus for processing a mix signal and method thereof
US8983830B2 (en) 2007-03-30 2015-03-17 Panasonic Intellectual Property Corporation Of America Stereo signal encoding device including setting of threshold frequencies and stereo signal encoding method including setting of threshold frequencies
JP5355387B2 (en) * 2007-03-30 2013-11-27 パナソニック株式会社 Encoding apparatus and encoding method
WO2008126382A1 (en) * 2007-03-30 2008-10-23 Panasonic Corporation Encoding device and encoding method
US8340798B2 (en) 2008-04-16 2012-12-25 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8326446B2 (en) 2008-04-16 2012-12-04 Lg Electronics Inc. Method and an apparatus for processing an audio signal
US8175295B2 (en) 2008-04-16 2012-05-08 Lg Electronics Inc. Method and an apparatus for processing an audio signal
WO2009128663A3 (en) * 2008-04-16 2010-01-14 Lg Electronics Inc. A method and an apparatus for processing an audio signal
JP2010156822A (en) * 2008-12-26 2010-07-15 Nippon Hoso Kyokai <Nhk> Sound compression coding device and decoding device of multi-channel sound signal
WO2014192603A1 (en) * 2013-05-31 2014-12-04 ソニー株式会社 Audio signal output device and method, encoding device and method, decoding device and method, and program
JPWO2014192603A1 (en) * 2013-05-31 2017-02-23 ソニー株式会社 Audio signal output apparatus and method, encoding apparatus and method, decoding apparatus and method, and program
US9866985B2 (en) 2013-05-31 2018-01-09 Sony Corporation Audio signal output device and method, encoding device and method, decoding device and method, and program
RU2668113C2 (en) * 2013-05-31 2018-09-26 Сони Корпорейшн Method and device for audio output, method and encoding device, method and decoding device and program
JP2018515813A (en) * 2015-05-20 2018-06-14 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Multi-channel audio signal coding

Also Published As

Publication number Publication date
JP3397001B2 (en) 2003-04-14

Similar Documents

Publication Publication Date Title
JP3397001B2 (en) Encoding method and apparatus, decoding apparatus, and recording medium
US5859826A (en) Information encoding method and apparatus, information decoding apparatus and recording medium
Noll MPEG digital audio coding
JP2693893B2 (en) Stereo speech coding method
JP3404837B2 (en) Multi-layer coding device
US5488665A (en) Multi-channel perceptual audio compression system with encoding mode switching among matrixed channels
KR100261254B1 (en) Scalable audio data encoding/decoding method and apparatus
KR100310216B1 (en) Coding device or method for multi-channel audio signal
US5677994A (en) High-efficiency encoding method and apparatus and high-efficiency decoding method and apparatus
KR100419546B1 (en) Signal encoding method and apparatus, Signal decoding method and apparatus, and signal transmission method
US5581654A (en) Method and apparatus for information encoding and decoding
WO1995002925A1 (en) High-efficiency encoding method, high-efficiency decoding method, high-efficiency encoding device, high-efficiency decoding device, high-efficiency encoding/decoding system and recording media
KR100351774B1 (en) Information encoding method and apparatus and Information decoding method and apparatus
Sinha et al. The perceptual audio coder (PAC)
US5781586A (en) Method and apparatus for encoding the information, method and apparatus for decoding the information and information recording medium
KR20040054235A (en) Scalable stereo audio coding/encoding method and apparatus thereof
US5758316A (en) Methods and apparatus for information encoding and decoding based upon tonal components of plural channels
JP3227942B2 (en) High efficiency coding device
KR20040053501A (en) Method for encoding stereo audio, apparatus thereof, method for decoding audio stream and apparatus thereof
JPH09102742A (en) Encoding method and device, decoding method and device and recording medium
EP0734019A1 (en) Information processing method, information processing device and media
JP3528260B2 (en) Encoding device and method, and decoding device and method
JPH09135173A (en) Device and method for encoding, device and method for decoding, device and method for transmission and recording medium
JP3362476B2 (en) High efficiency coding device and interface device
JPH09102741A (en) Encoding method and device, decoding method and device and recording medium

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080214

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090214

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100214

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100214

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110214

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120214

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130214

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140214

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees