JP2007221216A - Mix-down method and apparatus - Google Patents

Mix-down method and apparatus Download PDF

Info

Publication number
JP2007221216A
JP2007221216A JP2006036443A JP2006036443A JP2007221216A JP 2007221216 A JP2007221216 A JP 2007221216A JP 2006036443 A JP2006036443 A JP 2006036443A JP 2006036443 A JP2006036443 A JP 2006036443A JP 2007221216 A JP2007221216 A JP 2007221216A
Authority
JP
Japan
Prior art keywords
mixdown
unit
acoustic signal
signals
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006036443A
Other languages
Japanese (ja)
Other versions
JP4997781B2 (en
Inventor
Hitoshi Ishida
斉 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2006036443A priority Critical patent/JP4997781B2/en
Publication of JP2007221216A publication Critical patent/JP2007221216A/en
Application granted granted Critical
Publication of JP4997781B2 publication Critical patent/JP4997781B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mix-down method and a mix-down apparatus capable of executing mix-down with an excellent sound volume balance. <P>SOLUTION: The mix-down apparatus multiplies a preset static gain value with a scale factor of a received acoustic signal to output a value of the multiplication result corresponding to each acoustic signal, and calculates a dynamic gain value corresponding to each acoustic signal by normalizing the respective values of the multiplication results, then multiplies the dynamic gain value by each normalized acoustic signal with a plurality of received acoustic signals and summates a plurality of multiplication results to calculate an output signal of an output system. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ディジタルオーディオに用いるミックスダウンのための各チャンネルのゲインを動的に決定するミックスダウン方法およびミックスダウン装置に関する。   The present invention relates to a mixdown method and a mixdown apparatus that dynamically determine the gain of each channel for mixdown used in digital audio.

近年、AV(オーディオ・ビジュアル)分野の音響再生においては、従来のL/Rチャンネルのステレオ信号にセンタチャンネルやサラウンドチャンネルを加えたマルチチャンネル再生方式が実現されている。このマルチチャンネル再生方式において原音場を再生する場合、視聴者の後方または側方に少なくとも1つのスピーカを配置する必要があった。   In recent years, in the audio reproduction in the AV (audio / visual) field, a multi-channel reproduction method in which a center channel and a surround channel are added to a conventional L / R channel stereo signal has been realized. When reproducing the original sound field in this multi-channel reproduction system, it is necessary to arrange at least one speaker behind or on the side of the viewer.

しかしながら、マルチチャンネル再生方式の音響信号をL/Rチャンネルの2つのスピーカで再生したいという視聴者の要望に対応するために、マルチチャンネルで伝送された音響信号を2チャンネルに変換する必要が生じる。   However, in order to respond to the viewer's desire to reproduce a multi-channel playback system sound signal with two L / R channel speakers, it is necessary to convert the multi-channel sound signal into two channels.

そこで、マルチチャンネルの入力音源に対して、入力側のチャンネル数よりも少ないチャンネル数に音響信号を変換して出力するというミックスダウンが必要になる。   Therefore, it is necessary to mix down the multi-channel input sound source by converting the acoustic signal into a smaller number of channels than the number of channels on the input side and outputting it.

このミックスダウンの手法の一例として、特許文献1にマルチチャンネルステレオ用ダウンミキシング装置が報告されている。   As an example of this mixdown technique, Patent Document 1 reports a multichannel stereo downmixing apparatus.

この特許文献1によれば、ミックスダウンされるマルチチャンネルの音響信号が音楽であるか音声であるかを、入力されたL/Rch信号を加算してこの加算されたL/Rch信号に基づいて判別している。そして、その判別結果に基づいて、音量調整部のゲイン係数を変更することで、音楽再生の場合には臨場感を実現できる値に、また音声の場合には明瞭感が確保できる値にそれぞれ修正されており、2チャンネルのスピーカ再生においても、それぞれのプログラムソースに最適な音響再生を実現することが可能となるという利点を有している。
特開平6−165079号公報
According to Patent Document 1, whether the multi-channel acoustic signal to be mixed down is music or voice is added based on the added L / Rch signal by adding the input L / Rch signal. Judging. Based on the determination result, the gain coefficient of the volume adjustment unit is changed to a value that enables realism in the case of music playback and a value that can ensure clarity in the case of audio. Therefore, even in 2-channel speaker reproduction, there is an advantage that it is possible to realize optimum sound reproduction for each program source.
JP-A-6-165079

このように、特許文献1によれば、入力されたL/Rch信号に基づいて音楽であるか音声であるかを判別して音量調整のためのゲイン係数を変更することで、音楽再生と音声再生とで適切な音場再生を実現している。   As described above, according to Patent Document 1, it is determined whether music is sound or sound based on the input L / Rch signal, and the gain coefficient for volume adjustment is changed, so that music reproduction and sound can be performed. Appropriate sound field reproduction is realized.

しかしながら、特許文献1にあっては、ミックスダウンのためのゲイン係数を予め2つ用意しておき、音楽再生の場合と音声再生の場合とで切り換えるようにしていたので、様々な音響信号に最適に適応できないといった問題があった。この結果、音場再生の切り替わり時期が明確になり過ぎチャンネル間での音量バランスが悪く違和感や疲労感の要因になっていた。   However, in Patent Document 1, since two gain coefficients for mixdown are prepared in advance and switched between music playback and voice playback, it is optimal for various acoustic signals. There was a problem that could not be adapted to. As a result, the switching time of the sound field reproduction became clear, and the volume balance between channels was poor, causing a sense of incongruity and fatigue.

本発明は、上記に鑑みてなされたもので、その目的としては、音量バランスの良いミックスダウンを行うことができるミックスダウン方法およびミックスダウン装置を提供することにある。   The present invention has been made in view of the above, and an object thereof is to provide a mixdown method and a mixdown apparatus capable of performing a mixdown with a good volume balance.

請求項1記載の発明は、上記課題を解決するため、入力される複数の音響信号を混合してこの音響信号の数よりも少ない数の出力信号に変換するミックスダウン装置において、前記各音響信号のスケールファクタに基づいてこの音響信号の動的ゲイン値を決定するゲイン決定手段と、前記音響信号とこの音響信号に対して決定された動的ゲイン値とを乗算し、複数の音響信号に対応する乗算結果値の総和値を出力信号として出力するミックスダウン手段とを備えたことを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is a mixdown device that mixes a plurality of input sound signals and converts them into a number of output signals smaller than the number of sound signals. The gain determination means for determining the dynamic gain value of the sound signal based on the scale factor of the sound signal, and the sound signal and the dynamic gain value determined for the sound signal are multiplied to support a plurality of sound signals. And a mixdown means for outputting the sum of the multiplication result values as an output signal.

請求項3記載の発明は、上記課題を解決するため、入力される複数の音響信号を混合してこの音響信号の数よりも少ない数の出力信号に変換するミックスダウン方法において、前記各音響信号のスケールファクタに基づいてこの音響信号の動的ゲイン値を決定するゲイン決定ステップと、前記音響信号とこの音響信号に対して決定された動的ゲイン値とを乗算し、複数の音響信号に対応する乗算結果値の総和値を出力信号として出力するミックスダウンステップとを有することを特徴とする。   According to a third aspect of the present invention, there is provided a mixdown method for mixing a plurality of input sound signals and converting them into a number of output signals smaller than the number of the sound signals in order to solve the above-mentioned problem. The gain determination step for determining the dynamic gain value of the acoustic signal based on the scale factor of the acoustic signal, and the acoustic signal multiplied by the dynamic gain value determined for the acoustic signal, to support a plurality of acoustic signals And a mixdown step of outputting the sum of the multiplication result values to be output as an output signal.

本発明のミックスダウン方法およびミックスダウン装置によれば、入力される音響信号のスケールファクタに基づいて動的ゲイン値を決定するので、音量バランスの良いミックスダウンを行うことができる。   According to the mixdown method and the mixdown apparatus of the present invention, the dynamic gain value is determined based on the scale factor of the input acoustic signal, so that the mixdown with a good volume balance can be performed.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
MPEG−2/4 AACは、MPEG−1オーディオとの互換性を排除することで、高音質・高圧縮率を達成したマルチチャンネル対応のオーディオ符号化方式である。入力のサンプリング周波数は8kHzから96kHzと、非常に広い範囲に対応している。また最大で、48チャンネルのオーディオ信号、15個のLFE(Low Frequency Enhancement)チャンネル、カップリングチャンネル、汎用データストリームを伝送できる。
(First embodiment)
MPEG-2 / 4 AAC is a multi-channel audio encoding method that achieves high sound quality and high compression rate by eliminating compatibility with MPEG-1 audio. The sampling frequency of the input corresponds to a very wide range from 8kHz to 96kHz. In addition, it can transmit up to 48 channels of audio signals, 15 LFE (Low Frequency Enhancement) channels, coupling channels, and general-purpose data streams.

音声復号装置は、音声符号化装置に対向するものであり、音声符号化装置から出力される符号化されたビットストリームbsや、例えばDVDに記憶されているビットストリームbsや、インターネットを介して入力されるビットストリームbsを復号してオーディオ信号に再生するものである。   The audio decoding device is opposed to the audio encoding device, and is input via an encoded bit stream bs output from the audio encoding device, a bit stream bs stored in a DVD, for example, or the Internet. The decoded bit stream bs is decoded and reproduced as an audio signal.

図1は、本発明に係る第1実施形態のミックスダウン装置に適応可能な音声復号装置について説明するための構成を示すブロック図である。図2は、ゲイン決定部19、時間周波数逆変換部21及びミックスダウン部23の相互の接続関係を示す図である。なお、ここでいうミックスダウン装置とは、入力される複数の音響信号を混合してこの音響信号の数よりも少ない数の出力信号に変換する装置のことである。   FIG. 1 is a block diagram showing a configuration for explaining a speech decoding apparatus applicable to the mixdown apparatus according to the first embodiment of the present invention. FIG. 2 is a diagram illustrating a mutual connection relationship between the gain determination unit 19, the time-frequency inverse conversion unit 21, and the mixdown unit 23. Note that the mixdown device referred to here is a device that mixes a plurality of input acoustic signals and converts them into a smaller number of output signals than the number of acoustic signals.

音声復号装置11は、シンタックス解読部13、ハフマン符号デコーダ部15、逆量子化部17、ゲイン決定部19、時間周波数逆変換部21、ミックスダウン部23から構成され、さらに、各部はDSP(Digital Signal Processor)やソフトウエア処理により構成されている。
シンタックス解読部13は、入力された符号化データ列bs(ビットストリーム)から高能率符号化音響ストリームと帯域信号や正規化情報及び量子化精度情報などを規定の文法に従って分離する。
The speech decoding apparatus 11 includes a syntax decoding unit 13, a Huffman code decoder unit 15, an inverse quantization unit 17, a gain determination unit 19, a time-frequency inverse transform unit 21, and a mixdown unit 23. Further, each unit is a DSP ( Digital Signal Processor) and software processing.
The syntax decoding unit 13 separates a high-efficiency encoded audio stream and a band signal, normalization information, quantization accuracy information, and the like from the input encoded data string bs (bit stream) according to a prescribed grammar.

なお、帯域信号は、音声符号化装置において、元データを複数の周波数帯域に分割し、帯域ごとに人間の聴覚に応じた重みつけをした後に符号化されている。また、正規化情報は、後述する逆量子化処理において用いる係数位置を揃えるための情報である。量子化精度情報は、後述する逆量子化処理において用いる階層化されたDCT係数の量子化精度(レベル)の情報である。
ハフマン符号デコーダ部15は、入力された高能率符号化音響ストリームhを副情報で得られた符号化フォーマットに従ってハフマン復号し、量子化スペクトルq1〜q6とスケールファクタを出力する。
Note that the band signal is encoded after the original data is divided into a plurality of frequency bands and weighted according to human hearing for each band in the speech encoding apparatus. Further, the normalization information is information for aligning coefficient positions used in an inverse quantization process described later. The quantization accuracy information is information on the quantization accuracy (level) of the hierarchized DCT coefficient used in the inverse quantization process described later.
The Huffman code decoder unit 15 performs Huffman decoding on the input high-efficiency encoded audio stream h according to the encoding format obtained from the sub information, and outputs quantized spectra q1 to q6 and a scale factor.

逆量子化部17は、復号された量子化スペクトルq1〜q6、スケールファクタに基づいて、元の周波数信号f1〜f6を再生する。   The inverse quantization unit 17 reproduces the original frequency signals f1 to f6 based on the decoded quantized spectra q1 to q6 and the scale factor.

なお、スケールファクタは量子化における量子化幅を示す。例えばMPEG−2/4 AACでは、ある周波数信号fに対し、量子化スペクトルqを、
q = INT((f^3/4) / 2^(sf/4) + 0.4054) (数1)
と計算し、この時の整数sfをスケールファクタと呼ぶ。スケールファクタは連続した複数の周波数信号に対し共通的に用いられ、低域側から順にsf1(1)、sf1(2)...sf1(N)と書き表すものとする。本実施形態においては、最も低域のスケールファクタsfi(1)を用いて説明する。
The scale factor indicates the quantization width in the quantization. For example, in MPEG-2 / 4 AAC, a quantization spectrum q is given to a certain frequency signal f.
q = INT ((f ^ 3/4) / 2 ^ (sf / 4) + 0.4054) (Equation 1)
The integer sf at this time is called a scale factor. The scale factor is commonly used for a plurality of continuous frequency signals. Sf1 (1), sf1 (2). . . It shall be written as sf1 (N). In the present embodiment, description will be made using the lowest scale factor sfi (1).

スケールファクタsf1(1)〜sf6(1)は、チャンネル毎に独立した値を持つ。また、ビットレート一定の符号化の場合は一般的に、小さい音量に対してスケールファクタは小さな値を、大きな音量に対してスケールファクタは大きな値を示す。なお、例えばsf1(1)は1チャンネル、sf6(1)は6チャンネルのスケールファクタを示す。ここで、チャンネルの番号は音像の位置を表しており、例えば1はセンタチャンネル、2は左前チャンネル、3は右前チャンネル、4は左後ろチャンネル、5は右後ろチャンネル、6は低音チャンネルである。   The scale factors sf1 (1) to sf6 (1) have independent values for each channel. In the case of encoding with a constant bit rate, the scale factor generally indicates a small value for a small volume, and the scale factor indicates a large value for a large volume. For example, sf1 (1) indicates a scale factor of 1 channel and sf6 (1) indicates a scale factor of 6 channels. Here, the channel number represents the position of the sound image. For example, 1 is the center channel, 2 is the left front channel, 3 is the right front channel, 4 is the left rear channel, 5 is the right rear channel, and 6 is the bass channel.

ゲイン決定部19は、スケールファクタsf1(1)〜sf6(1)に基づいて動的ゲインg11〜g61,g12〜g62を決定する。   The gain determination unit 19 determines dynamic gains g11 to g61 and g12 to g62 based on the scale factors sf1 (1) to sf6 (1).

時間周波数逆変換部21は、逆変形離散コサイン変換(IMDCT)などの時間−周波数逆変換を行う。すなわち、各帯域の周波数信号f1〜f6を逆変換することによって帯域を合成し時系列の音響信号i1〜i6を得る。   The time-frequency inverse transform unit 21 performs time-frequency inverse transform such as inverse modified discrete cosine transform (IMDCT). That is, the frequency signals f1 to f6 in each band are inversely transformed to synthesize the bands to obtain time-series acoustic signals i1 to i6.

ミックスダウン部23は、音響信号i1〜i6と動的ゲインg11〜g61,g12〜g62に基づいて出力信号o1,o2を算出する。   The mixdown unit 23 calculates the output signals o1 and o2 based on the acoustic signals i1 to i6 and the dynamic gains g11 to g61 and g12 to g62.

図3はゲイン決定部19の構成を示す図である。図3において、ゲイン決定部19は、重み付け器31と正規化器33,35から構成されている。   FIG. 3 is a diagram illustrating a configuration of the gain determination unit 19. In FIG. 3, the gain determination unit 19 includes a weighter 31 and normalizers 33 and 35.

ハフマン符号デコーダ部15から出力されたスケールファクタsf1(1)〜sf6(1)は、乗算器MP11〜MP61、乗算器MP12〜MP62にそれぞれ入力される。静的ゲインs11〜s61,s12〜s62は、予めメモリに記憶され固定的に与えられており、乗算器MP11〜MP61,MP12〜MP62にそれぞれ入力される。乗算器MP11〜MP61,MP12〜MP62では、入力されるスケールファクタsf1(1)〜sf6(1)と静的ゲインs11〜s61,s12〜s62とをそれぞれ乗算して得られた乗算値g’11〜61,g’12〜62をそれぞれ正規化器33,35に出力する。   The scale factors sf1 (1) to sf6 (1) output from the Huffman code decoder unit 15 are input to the multipliers MP11 to MP61 and the multipliers MP12 to MP62, respectively. The static gains s11 to s61 and s12 to s62 are stored in a memory in advance and fixedly given, and are input to the multipliers MP11 to MP61 and MP12 to MP62, respectively. Multipliers g'11 obtained by multiplying scale factors sf1 (1) to sf6 (1) and static gains s11 to s61 and s12 to s62 by multipliers MP11 to MP61 and MP12 to MP62, respectively. To 61 and g′12 to 62 are output to the normalizers 33 and 35, respectively.

正規化器33,35は、乗算器MP11〜MP61,MP12〜MP62から出力された乗算値g’11〜61,g’12〜62を入力し、正規化して動的ゲインg11〜61,g12〜62を算出し、ミックスダウン部23に出力する。   The normalizers 33 and 35 receive the multiplication values g′11 to 61 and g′12 to 62 output from the multipliers MP11 to MP61 and MP12 to MP62, normalize them, and perform dynamic gains g11 to 61, g12 to 62 is calculated and output to the mixdown unit 23.

図4はミックスダウン部23の構成を示す図である。   FIG. 4 is a diagram illustrating a configuration of the mixdown unit 23.

ゲイン決定部19から出力された動的ゲインg11〜61は、乗算器IMP11〜61にそれぞれ入力され、かつこれらの乗算器に音響信号i1〜i6が入力されており、動的ゲインg11〜61と音響信号i1〜i6とが乗算されたそれぞれの乗算結果値が並列に加算器ADD11〜15にそれぞれ入力され、直列接続された加算器ADD11〜15が順次に加算し出力信号o1を算出する。   The dynamic gains g11 to 61 output from the gain determining unit 19 are respectively input to the multipliers IMP11 to 61, and the acoustic signals i1 to i6 are input to these multipliers. The respective multiplication result values multiplied by the acoustic signals i1 to i6 are input in parallel to the adders ADD11 to ADD15, and the adders ADD11 to 15 connected in series sequentially add to calculate the output signal o1.

同様に、ゲイン決定部19から出力された動的ゲインg12〜62は、乗算器IMP12〜62にそれぞれ入力され、かつこれらの乗算器に音響信号i1〜i6が入力されており、動的ゲインg12〜62と音響信号i1〜i6とが乗算されたそれぞれの乗算結果値が並列に加算器ADD12〜52にそれぞれ入力され、直列接続された加算器ADD12〜52が順次に加算し出力信号o2を算出する。   Similarly, the dynamic gains g12 to 62 output from the gain determination unit 19 are respectively input to the multipliers IMP12 to IMP62, and the acoustic signals i1 to i6 are input to these multipliers. ˜62 and the acoustic signals i1 to i6 are respectively multiplied and input in parallel to the adders ADD12 to 52, and the adders ADD12 to 52 connected in series sequentially add to calculate the output signal o2. To do.

次に、図1〜図5を参照して、第1実施形態の音声復号装置11の動作について説明する。なお、図5は正規化器33,35の動作を説明するためのフローチャートである。   Next, the operation of the speech decoding apparatus 11 according to the first embodiment will be described with reference to FIGS. FIG. 5 is a flowchart for explaining the operation of the normalizers 33 and 35.

シンタックス解読部13では、入力された符号化データ列bsから高能率符号化音響ストリームhと量子化精度情報及び正規化情報を規定の文法に従って分離する。   The syntax decoding unit 13 separates the high-efficiency encoded acoustic stream h, the quantization accuracy information, and the normalized information from the input encoded data string bs according to a specified grammar.

次いで、ハフマン符号デコーダ部15では、シンタックス解読13からの高能率符号化音響ストリームhを副情報で得られた符号化フォーマットに従ってハフマン復号し、複数の量子化スペクトルq1〜q6とこの量子化スペクトル毎の量子化幅を示すスケールファクタsf1(1)〜sf6(1)を出力する。   Next, the Huffman code decoder unit 15 performs Huffman decoding on the high-efficiency encoded acoustic stream h from the syntax decoding 13 according to the encoding format obtained from the sub information, and a plurality of quantized spectra q1 to q6 and the quantized spectrum Scale factors sf1 (1) to sf6 (1) indicating the quantization width for each are output.

次いで、逆量子化17では、ハフマン符号デコーダ15からの複数の量子化スペクトルq1〜q6と複数のスケールファクタsf1(1)〜sf6(1)に基づいて、帯域毎の元の周波数信号f1〜f6をそれぞれ再生する。   Next, in inverse quantization 17, based on the plurality of quantized spectra q1 to q6 from the Huffman code decoder 15 and the plurality of scale factors sf1 (1) to sf6 (1), the original frequency signals f1 to f6 for each band. Play each one.

次いで、ゲイン決定部では、ハフマン符号デコーダ部15からの複数のスケールファクタsf1(1)〜sf6(1)に基づいて出力系統毎の複数の動的ゲイン値g11〜61,g12〜62を決定する。   Next, the gain determination unit determines a plurality of dynamic gain values g11 to 61 and g12 to 62 for each output system based on the plurality of scale factors sf1 (1) to sf6 (1) from the Huffman code decoder unit 15. .

ここで、ゲイン決定部19では、図3に示すように、ハフマン符号デコーダ部15からの複数のスケールファクタsf1(1)〜sf6(1)に予め設定された複数の静的ゲイン値s11〜s61,s12〜s62を乗算器MP11〜MP61,MP12〜MP62でそれぞれ乗算してスケールファクタ毎に重み付けしたゲインを表す複数の乗算値g’11〜61,g’12〜62を出力する。   Here, in the gain determination unit 19, as shown in FIG. 3, a plurality of static gain values s11 to s61 preset in the plurality of scale factors sf1 (1) to sf6 (1) from the Huffman code decoder unit 15. , S12 to s62 are multiplied by multipliers MP11 to MP61 and MP12 to MP62, respectively, and a plurality of multiplication values g′11 to 61 and g′12 to 62 representing gains weighted for each scale factor are output.

次いで、ゲイン決定部19では、複数の乗算値g’11〜61,g’12〜62を正規化して出力系統毎の複数の動的ゲイン値g11〜61,g12〜62を算出し、正規化器33,35に出力する。   Next, the gain determination unit 19 normalizes the plurality of multiplication values g′11 to 61 and g′12 to 62 to calculate a plurality of dynamic gain values g11 to 61 and g12 to 62 for each output system, and normalizes them. To the devices 33 and 35.

詳しくは図5に示すように、ステップS10では、重み付け器31は、最低域のスケールファクタsf1(1)〜sf6(1)を用いて、静的ゲインs11〜s61,s12〜s62にスケールファクタsf1(1)〜sf6(1)乗算して重み付けする。ステップS10に示す数2のように、静的ゲインsijにsfi(1)を乗算することで重み付けされたゲインg'ijを記述することができる。   Specifically, as shown in FIG. 5, in step S10, the weighting unit 31 uses the lowest scale factors sf1 (1) to sf6 (1) to set the scale factors sf1 to the static gains s11 to s61 and s12 to s62. (1) to sf6 (1) Multiply and weight. The weighted gain g′ij can be described by multiplying the static gain sij by sfi (1) as shown in Equation 2 shown in Step S10.

ここで、静的ゲインsijの設定値の一例について説明する。なお、p,qは個々のチャンネルの静的ゲインであり、o1,o2はそれぞれL/Rチャンネルのステレオの出力信号である。   Here, an example of the set value of the static gain sij will be described. P and q are static gains of individual channels, and o1 and o2 are stereo output signals of L / R channels, respectively.

p = (8 - 2 * sqrt(2)) / 14 = 0.3694 (数3)
q = (4 * sqrt(2) - 2) / 14 = 0.2612 (数4)
として、
o1 = p * i1 + p * i2 + q * i4 (数5)
o2 = p * i1 + p * i3 + q * i5 (数6)
となる。sqrt (x) 関数は x の平方根のうち負でない方の値を意味している。
静的ゲインsijを行列式で記述すると、

Figure 2007221216
p = (8-2 * sqrt (2)) / 14 = 0.3694 (Equation 3)
q = (4 * sqrt (2)-2) / 14 = 0.2612 (Equation 4)
As
o1 = p * i1 + p * i2 + q * i4 (Equation 5)
o2 = p * i1 + p * i3 + q * i5 (Equation 6)
It becomes. The sqrt (x) function means the non-negative value of the square root of x.
When the static gain sij is described by a determinant,
Figure 2007221216

となる。 It becomes.

次いで、ステップS20では、正規化器33,35は、重み付けされたゲインg'を正規化し、動的ゲインg11〜61,g12〜62を求める。ステップS20に示すように、まず、ゲインg'1j〜g’6jの合計値から分母の値を求め、ゲインg’ijをこの合計値で除算することで、動的ゲインgijを求めるので、正規化は出力のチャンネルi毎に行われることになる。この正規化に関する数式は数8に示すように記述することができる。なお、ステップS20で求めた動的ゲインg11〜g61の合計値は「1」になることは言うまでもない。   Next, in step S20, the normalizers 33 and 35 normalize the weighted gain g ′ to obtain dynamic gains g11 to 61 and g12 to 62. As shown in step S20, first, the denominator value is obtained from the total value of the gains g′1j to g′6j, and the dynamic gain gij is obtained by dividing the gain g′ij by this total value. The conversion is performed for each output channel i. This normalization equation can be written as shown in Equation 8. Needless to say, the total value of the dynamic gains g11 to g61 obtained in step S20 is “1”.

次いで、時間周波数逆変換部21では、逆量子化部17からの帯域毎の周波数信号f1〜f6を逆変換して帯域合成し元の時系列の複数の音響信号i1〜i6を求める。   Next, the time-frequency inverse transform unit 21 inversely transforms the frequency signals f1 to f6 for each band from the inverse quantization unit 17 and performs band synthesis to obtain a plurality of original time series acoustic signals i1 to i6.

次いで、この時間周波数逆変換部21からの複数の音響信号i1〜i6とこのゲイン決定部19からの出力系統毎の複数の動的ゲインg11〜61,g12〜62に基づいて、出力系統毎の出力信号o1,o2を算出する。   Next, based on the plurality of acoustic signals i1 to i6 from the time frequency inverse conversion unit 21 and the plurality of dynamic gains g11 to 61 and g12 to 62 for each output system from the gain determination unit 19, Output signals o1 and o2 are calculated.

ここで、ミックスダウン部23では、時間周波数逆変換部21からの複数の音響信号i1〜i6に正規化器33からの1出力系統の複数の動的ゲインg11〜61をそれぞれ乗算器IMP11〜IMP61で乗算して重み付けし、乗算器IMP11〜IMP61からの複数の乗算値をADD11〜ADD51で加算して当該出力系統の出力信号o1を算出する。   Here, in the mixdown unit 23, a plurality of dynamic gains g 11 to 61 of one output system from the normalizer 33 are respectively multiplied to the plurality of acoustic signals i 1 to i 6 from the time-frequency inverse transform unit 21 by multipliers IMP 11 to IMP 61. Is multiplied and weighted, and a plurality of multiplication values from the multipliers IMP11 to IMP61 are added by the ADD11 to ADD51 to calculate the output signal o1 of the output system.

同様に、時間周波数逆変換部21からの複数の音響信号i1〜i6に正規化器35からの1出力系統の複数の動的ゲインg12〜62をそれぞれ乗算器IMP12〜IMP62で乗算して重み付けし、乗算器IMP12〜IMP62からの複数の乗算値をADD12〜ADD52で加算して当該出力系統の出力信号o2を算出する。   Similarly, a plurality of dynamic gains g12 to 62 of one output system from the normalizer 35 are respectively multiplied by the plurality of acoustic signals i1 to i6 from the time-frequency inverse transform unit 21 by the multipliers IMP12 to IMP62 and weighted. Then, a plurality of multiplied values from the multipliers IMP12 to IMP62 are added by the ADD12 to ADD52 to calculate the output signal o2 of the output system.

この結果、ミックスダウン部23は音響信号i1〜i6に動的ゲインg11〜g62を乗算した後、この乗算結果を2系統にまとめて加算することで、L/Rチャンネルの出力信号o1,o2を得ることができ、入力される音響信号i1〜i6を線形結合することができる。   As a result, the mixdown unit 23 multiplies the acoustic signals i1 to i6 by dynamic gains g11 to g62, and then adds the multiplication results in two systems to add the L / R channel output signals o1 and o2. The input acoustic signals i1 to i6 can be linearly combined.

ここで、音響信号i1〜i6とゲインg11〜g62から出力信号o1,o2を求める方法を行列式で表すと数式8のようになる。

Figure 2007221216
Here, when a method of obtaining the output signals o1 and o2 from the acoustic signals i1 to i6 and the gains g11 to g62 is expressed by a determinant, Expression 8 is obtained.
Figure 2007221216

本実施形態によれば、ミックスダウンを行うためのゲインをゲイン決定部において動的に決定しておくため、各チャンネル(1〜6)のスケールファクタがほぼ等しい場合には、動的ゲインは静的ゲインに収束する。一方、各チャンネルのスケールファクタに偏りがある場合には、音量の大きなチャンネルに大きなゲインが割当てられる。この結果として、音量バランスの良いミックスダウンを行うことができる。   According to the present embodiment, since the gain for performing the mixdown is dynamically determined by the gain determination unit, the dynamic gain is static when the scale factors of the respective channels (1 to 6) are substantially equal. Converges to dynamic gain. On the other hand, when the scale factor of each channel is biased, a large gain is assigned to a channel with a large volume. As a result, a mixdown with a good volume balance can be performed.

また、動的ゲインを決定する過程では、ディジタルオーディオ信号の復号に用いたパラメータを流用するため、例えばDSPでの処理負荷を極めて小さくすることができる。   Further, in the process of determining the dynamic gain, the parameters used for decoding the digital audio signal are diverted, so that the processing load on the DSP, for example, can be extremely reduced.

(第2実施形態)
図6は、本発明に係る第2実施形態のミックスダウン装置に適応可能な音声復号装置について説明するための構成を示すブロック図である。図7は、ゲイン決定部19、ミックスダウン部53及び時間周波数逆変換部55の相互の接続関係を示す図である。
(Second Embodiment)
FIG. 6 is a block diagram showing a configuration for explaining a speech decoding apparatus applicable to the mixdown apparatus according to the second embodiment of the present invention. FIG. 7 is a diagram illustrating a mutual connection relationship of the gain determination unit 19, the mixdown unit 53, and the time frequency inverse conversion unit 55.

音声復号装置51は、シンタックス解読部13、ハフマン符号デコーダ部15、逆量子化部17、ゲイン決定部19、ミックスダウン部53、時間周波数逆変換部55から構成されている。なお、第2実施形態の音声復号装置51において、第1実施形態の音声復号装置11において用いられている構成要件と同様のブロックについては同一の符号を付加し、その説明を省略する。   The speech decoding device 51 includes a syntax decoding unit 13, a Huffman code decoder unit 15, an inverse quantization unit 17, a gain determination unit 19, a mixdown unit 53, and a time-frequency inverse conversion unit 55. Note that in the speech decoding device 51 of the second embodiment, the same reference numerals are given to the same blocks as the constituent elements used in the speech decoding device 11 of the first embodiment, and the description thereof is omitted.

第2の実施形態の音声復号装置51の特徴は、ミックスダウン部53と時間周波数逆変換部55を有することにある。これは、時間周波数逆変換の処理は線形性を有するため、周波数信号をミックスダウンしてから逆変換を行っても、第1の実施の形態と同じ結果が得られるからである。   The feature of the speech decoding apparatus 51 of the second embodiment is that it includes a mixdown unit 53 and a time-frequency inverse transform unit 55. This is because the time-frequency inverse transform process has linearity, and therefore the same result as in the first embodiment can be obtained even if the inverse transformation is performed after the frequency signal is mixed down.

ミックスダウン部53は、逆量子化部17からの帯域毎の周波数信号f1〜f6とゲイン決定19からの出力系統毎の複数の動的ゲインg11〜g62に基づいて、出力系統毎の周波数信号F1,F2を算出する。   Based on the frequency signals f1 to f6 for each band from the inverse quantization unit 17 and the plurality of dynamic gains g11 to g62 for each output system from the gain determination 19, the mixdown unit 53 uses the frequency signal F1 for each output system. , F2 is calculated.

時間周波数逆変換部55は、このミックスダウン部53からの周波数信号F1,F2を逆変換して帯域合成し時系列の音響信号o1,o2を求める。   The time-frequency inverse transform unit 55 inversely transforms the frequency signals F1 and F2 from the mixdown unit 53 and performs band synthesis to obtain time-series acoustic signals o1 and o2.

図8はミックスダウン部53の構成を示す図である。   FIG. 8 is a diagram illustrating a configuration of the mixdown unit 53.

ミックスダウン部53において、ゲイン決定部19から出力された動的ゲインg11〜61は、乗算器IMP11〜61にそれぞれ入力され、このそれぞれの乗算器に周波数信号f1〜f6が入力されており、動的ゲインg11〜61と周波数信号f1〜f6とが乗算器IMP11〜61で乗算されそれぞれ重み付けされた乗算結果値が並列に加算器ADD11〜15にそれぞれ入力され、直列接続された加算器ADD11〜51が順次に加算し周波数信号F1を算出する。   In the mixdown unit 53, the dynamic gains g11 to 61 output from the gain determination unit 19 are respectively input to the multipliers IMP11 to 61, and the frequency signals f1 to f6 are input to the respective multipliers. Multiplicative gains g11-61 and frequency signals f1-f6 are multiplied by multipliers IMP11-61 and weighted multiplication result values are respectively input in parallel to adders ADD11-15, and adders ADD11-51 connected in series. Are sequentially added to calculate the frequency signal F1.

同様に、ゲイン決定部19から出力された動的ゲインg12〜62は、乗算器IMP12〜62にそれぞれ入力され、このそれぞれの乗算器に周波数信号f1〜f6が入力されており、動的ゲインg12〜62と周波数信号f1〜f6と乗算器IMP12〜62で乗算されそれぞれ重み付けされた乗算結果値が並列に加算器ADD12〜52にそれぞれ入力され、直列接続された加算器ADD12〜52が順次に加算し周波数信号F2を算出する。   Similarly, the dynamic gains g12 to 62 output from the gain determining unit 19 are respectively input to the multipliers IMP12 to IMP62, and the frequency signals f1 to f6 are input to the respective multipliers, and the dynamic gain g12 is input. ~ 62, frequency signals f1 to f6 and multipliers IMP12 to 62 are multiplied and weighted multiplication result values are respectively input in parallel to adders ADD12 to 52, and serially connected adders ADD12 to 52 are sequentially added. The frequency signal F2 is calculated.

次に、図6〜図8を参照して、第2実施形態の音声復号装置51の動作について説明する。なお、シンタックス解読部13、ハフマン符号デコーダ部15、逆量子化17、ゲイン決定部でのそれぞれの処理内容は第1実施形態の音声復号装置11と同様であるので、その説明を省略する。   Next, the operation of the speech decoding apparatus 51 according to the second embodiment will be described with reference to FIGS. Note that the processing contents of the syntax decoding unit 13, the Huffman code decoder unit 15, the inverse quantization unit 17, and the gain determination unit are the same as those of the speech decoding apparatus 11 of the first embodiment, and thus description thereof is omitted.

ミックスダウン部53では、逆量子化部17からの帯域毎の周波数信号f1〜f6とゲイン決定19からの出力系統毎の複数の動的ゲインg11〜g62に基づいて、出力系統毎の周波数信号F1,F2を算出する。   In the mixdown unit 53, the frequency signal F1 for each output system is based on the frequency signals f1 to f6 for each band from the inverse quantization unit 17 and the plurality of dynamic gains g11 to g62 for each output system from the gain determination 19. , F2 is calculated.

時間周波数逆変換部55は、このミックスダウン部53からの周波数信号F1,F2を逆変換して帯域合成し時系列の音響信号o1,o2を求める。   The time-frequency inverse transform unit 55 inversely transforms the frequency signals F1 and F2 from the mixdown unit 53 and performs band synthesis to obtain time-series acoustic signals o1 and o2.

この結果、ミックスダウン部23は周波数信号f1〜f6に動的ゲインg11〜g62を乗算した後、この乗算結果を2系統にまとめて加算することで、L/Rチャンネルの周波数信号F1,F2を得ることができ、入力される周波数信号f1〜f6を線形結合することができる。   As a result, the mixdown unit 23 multiplies the frequency signals f1 to f6 by the dynamic gains g11 to g62, and then adds the multiplication results to two systems to add the L / R channel frequency signals F1 and F2. The input frequency signals f1 to f6 can be linearly combined.

ここで、周波数信号f1〜f6とゲインg11〜g62から周波数信号F1,F2を求める方法を行列式で表すと数式9のようになる。

Figure 2007221216
Here, when a method of obtaining the frequency signals F1 and F2 from the frequency signals f1 to f6 and the gains g11 to g62 is expressed by a determinant, Equation 9 is obtained.
Figure 2007221216

本実施形態によれば、ミックスダウンを行うためのゲインをゲイン決定部において動的に決定しておくため、各チャンネル(1〜6)のスケールファクタがほぼ等しい場合には、動的ゲインは静的ゲインに収束する。一方、各チャンネルのスケールファクタに偏りがある場合には、音量の大きなチャンネルに大きなゲインが割当てられる。この結果として、音量バランスの良いミックスダウンを行うことができる。   According to the present embodiment, since the gain for performing the mixdown is dynamically determined by the gain determination unit, the dynamic gain is static when the scale factors of the respective channels (1 to 6) are substantially equal. Converges to dynamic gain. On the other hand, when the scale factor of each channel is biased, a large gain is assigned to a channel with a large volume. As a result, a mixdown with a good volume balance can be performed.

また、動的ゲインを決定する過程では、ディジタルオーディオ信号の復号に用いたパラメータを流用するため、例えばDSP(Digital Signal Processor)での処理負荷を極めて小さくすることができる。   Further, in the process of determining the dynamic gain, the parameters used for decoding the digital audio signal are used, so that the processing load on, for example, a DSP (Digital Signal Processor) can be extremely reduced.

なお、本発明の実施形態においては、5.1ch信号をステレオ信号に変換した例を用いたが、複数のチャンネル数n(n≧2)に対してミックスダウンを行っても、同様に適用可能になる。また、本発明の実施形態では、動的ゲインを決定するのに最も低域のスケールファクタを用いたが、別の帯域のスケールファクタを用いても良く、また、複数のスケールファクタを用いても良い。   In the embodiment of the present invention, an example in which a 5.1ch signal is converted into a stereo signal is used. However, the present invention can be similarly applied even when a mixdown is performed on a plurality of channels n (n ≧ 2). become. In the embodiment of the present invention, the lowest scale factor is used to determine the dynamic gain. However, a scale factor of another band may be used, or a plurality of scale factors may be used. good.

また、本実施形態においては、MPEG−2/4 AACに用いる音声復号装置に適応させてミックスダウン装置に関する説明をしたが、本発明のミックスダウン装置はこのようなMPEG−2/4 AACに限定するものではなく、他のマルチチャンネル再生方式に対しても適応可能である。   In the present embodiment, the mixdown apparatus has been described in conformity with the audio decoding apparatus used for MPEG-2 / 4 AAC. However, the mixdown apparatus of the present invention is limited to such MPEG-2 / 4 AAC. However, the present invention can be applied to other multi-channel playback systems.

本発明に係る第1実施形態のミックスダウン装置に適応可能な音声復号装置について説明するための構成を示すブロック図である。It is a block diagram which shows the structure for demonstrating the audio | voice decoding apparatus applicable to the mixdown apparatus of 1st Embodiment which concerns on this invention. ゲイン決定部19、時間周波数逆変換部21及びミックスダウン部23の相互の接続関係を示す図である。It is a figure which shows the mutual connection relation of the gain determination part 19, the time frequency reverse transformation part 21, and the mixdown part 23. FIG. ゲイン決定部19の構成を示す図である。3 is a diagram illustrating a configuration of a gain determination unit 19. FIG. ミックスダウン部23の構成を示す図である。3 is a diagram illustrating a configuration of a mixdown unit 23. FIG. 正規化器33,35の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of normalizers 33 and 35; 本発明に係る第2実施形態のミックスダウン装置に適応可能な音声復号装置について説明するための構成を示すブロック図である。It is a block diagram which shows the structure for demonstrating the audio | voice decoding apparatus applicable to the mixdown apparatus of 2nd Embodiment which concerns on this invention. ゲイン決定部19、ミックスダウン部53及び時間周波数逆変換部55の相互の接続関係を示す図である。It is a figure which shows the mutual connection relation of the gain determination part 19, the mixdown part 53, and the time frequency reverse conversion part 55. FIG. ミックスダウン部53の構成を示す図である。3 is a diagram illustrating a configuration of a mixdown unit 53. FIG.

符号の説明Explanation of symbols

11,51…音声復号装置、13…シンタックス解読部、15…ハフマン符号デコーダ部、17…逆量子化部、19…ゲイン決定部、21…時間周波数逆変換部、23…ミックスダウン部23、31…重み付け器、33,35…正規化器、IMP11〜62…乗算器、ADD11〜ADD52…加算器、53…ミックスダウン部、55…時間周波数逆変換部
DESCRIPTION OF SYMBOLS 11,51 ... Speech decoding apparatus, 13 ... Syntax decoding part, 15 ... Huffman code decoder part, 17 ... Dequantization part, 19 ... Gain determination part, 21 ... Time frequency inverse transformation part, 23 ... Mixdown part 23, 31 ... Weighting unit, 33, 35 ... Normalizer, IMP11-62 ... Multiplier, ADD11-ADD52 ... Adder, 53 ... Mixdown unit, 55 ... Time-frequency inverse conversion unit

Claims (3)

入力される複数の音響信号を混合してこの音響信号の数よりも少ない数の出力信号に変換するミックスダウン装置において、
前記各音響信号のスケールファクタに基づいてこの音響信号の動的ゲイン値を決定するゲイン決定手段と、
前記音響信号とこの音響信号に対して決定された動的ゲイン値とを乗算し、複数の音響信号に対応する乗算結果値の総和値を出力信号として出力するミックスダウン手段と
を備えたことを特徴とするミックスダウン装置。
In a mixdown device that mixes a plurality of input acoustic signals and converts them into a smaller number of output signals than the number of acoustic signals,
Gain determining means for determining a dynamic gain value of the acoustic signal based on the scale factor of each acoustic signal;
Mixing means for multiplying the acoustic signal by a dynamic gain value determined for the acoustic signal, and outputting a sum of multiplication result values corresponding to the plurality of acoustic signals as an output signal. Features a mixdown device.
前記ゲイン決定手段は、
前記スケールファクタ毎にそれぞれ対応する予め設定された静的ゲイン値を乗算して前記音響信号毎の乗算結果値を出力する重み付け手段と、
この重み付け手段からの複数の乗算結果値を正規化して音響信号毎に対応する動的ゲイン値を算出する正規化手段と
を備えたことを特徴とする請求項1記載のミックスダウン装置。
The gain determining means includes
Weighting means for multiplying a preset static gain value corresponding to each scale factor and outputting a multiplication result value for each acoustic signal;
The mixdown device according to claim 1, further comprising: a normalizing unit that normalizes a plurality of multiplication result values from the weighting unit and calculates a dynamic gain value corresponding to each acoustic signal.
入力される複数の音響信号を混合してこの音響信号の数よりも少ない数の出力信号に変換するミックスダウン方法において、
前記各音響信号のスケールファクタに基づいてこの音響信号の動的ゲイン値を決定するゲイン決定ステップと、
前記音響信号とこの音響信号に対して決定された動的ゲイン値とを乗算し、複数の音響信号に対応する乗算結果値の総和値を出力信号として出力するミックスダウンステップと
を有することを特徴とするミックスダウン方法。
In a mixdown method of mixing a plurality of input acoustic signals and converting them to a number of output signals smaller than the number of acoustic signals,
A gain determining step of determining a dynamic gain value of the acoustic signal based on a scale factor of each acoustic signal;
A mixdown step of multiplying the acoustic signal by a dynamic gain value determined for the acoustic signal and outputting a sum of multiplication result values corresponding to the plurality of acoustic signals as an output signal. How to mix down.
JP2006036443A 2006-02-14 2006-02-14 Mixdown method and mixdown apparatus Expired - Fee Related JP4997781B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006036443A JP4997781B2 (en) 2006-02-14 2006-02-14 Mixdown method and mixdown apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006036443A JP4997781B2 (en) 2006-02-14 2006-02-14 Mixdown method and mixdown apparatus

Publications (2)

Publication Number Publication Date
JP2007221216A true JP2007221216A (en) 2007-08-30
JP4997781B2 JP4997781B2 (en) 2012-08-08

Family

ID=38498055

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006036443A Expired - Fee Related JP4997781B2 (en) 2006-02-14 2006-02-14 Mixdown method and mixdown apparatus

Country Status (1)

Country Link
JP (1) JP4997781B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034295A (en) * 2010-08-02 2012-02-16 Nippon Hoso Kyokai <Nhk> Sound signal conversion device and sound signal conversion program
JP2013033189A (en) * 2011-07-01 2013-02-14 Sony Corp Audio encoder, audio encoding method and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04324900A (en) * 1991-04-25 1992-11-13 Kokusai Electric Co Ltd Voice codec with comparison attenuator
JPH06165079A (en) * 1992-11-25 1994-06-10 Matsushita Electric Ind Co Ltd Down mixing device for multichannel stereo use
JP2002175098A (en) * 2000-09-21 2002-06-21 Matsushita Electric Ind Co Ltd Device and method for encoding, and program, and program recording medium
JP2004526355A (en) * 2001-02-07 2004-08-26 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Audio channel conversion method
JP2005301002A (en) * 2004-04-13 2005-10-27 Nippon Hoso Kyokai <Nhk> Apparatus and program for speech encoded information processing
JP2005341538A (en) * 2004-04-28 2005-12-08 Yamaha Corp Mixer module, mixer device, and program
WO2006004048A1 (en) * 2004-07-06 2006-01-12 Matsushita Electric Industrial Co., Ltd. Audio signal encoding device, audio signal decoding device, method thereof and program
WO2006005390A1 (en) * 2004-07-09 2006-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a multi-channel output signal

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04324900A (en) * 1991-04-25 1992-11-13 Kokusai Electric Co Ltd Voice codec with comparison attenuator
JPH06165079A (en) * 1992-11-25 1994-06-10 Matsushita Electric Ind Co Ltd Down mixing device for multichannel stereo use
JP2002175098A (en) * 2000-09-21 2002-06-21 Matsushita Electric Ind Co Ltd Device and method for encoding, and program, and program recording medium
JP2004526355A (en) * 2001-02-07 2004-08-26 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Audio channel conversion method
JP2005301002A (en) * 2004-04-13 2005-10-27 Nippon Hoso Kyokai <Nhk> Apparatus and program for speech encoded information processing
JP2005341538A (en) * 2004-04-28 2005-12-08 Yamaha Corp Mixer module, mixer device, and program
WO2006004048A1 (en) * 2004-07-06 2006-01-12 Matsushita Electric Industrial Co., Ltd. Audio signal encoding device, audio signal decoding device, method thereof and program
WO2006005390A1 (en) * 2004-07-09 2006-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a multi-channel output signal
JP2008505368A (en) * 2004-07-09 2008-02-21 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Apparatus and method for generating a multi-channel output signal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034295A (en) * 2010-08-02 2012-02-16 Nippon Hoso Kyokai <Nhk> Sound signal conversion device and sound signal conversion program
JP2013033189A (en) * 2011-07-01 2013-02-14 Sony Corp Audio encoder, audio encoding method and program

Also Published As

Publication number Publication date
JP4997781B2 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
JP5081838B2 (en) Audio encoding and decoding
TWI431610B (en) Methods and apparatuses for encoding and decoding object-based audio signals
JP5455647B2 (en) Audio decoder
JP5291096B2 (en) Audio signal processing method and apparatus
US8433583B2 (en) Audio decoding
CN107851440A (en) The dynamic range control based on metadata of coded audio extension
JPWO2006022190A1 (en) Audio encoder
WO2007029412A1 (en) Multi-channel acoustic signal processing device
CN112567765B (en) Spatial audio capture, transmission and reproduction
JP2015528925A (en) Audio signal processing apparatus and method
EP3766262A1 (en) Temporal spatial audio parameter smoothing
JP6520937B2 (en) Audio signal processing apparatus and method, encoding apparatus and method, and program
TWI760084B (en) Method and device for applying dynamic range compression to a higher order ambisonics signal
KR102590816B1 (en) Apparatus, methods, and computer programs for encoding, decoding, scene processing, and other procedures related to DirAC-based spatial audio coding using directional component compensation.
JP4997781B2 (en) Mixdown method and mixdown apparatus
US20200015028A1 (en) Energy-ratio signalling and synthesis
JP5483813B2 (en) Multi-channel speech / acoustic signal encoding apparatus and method, and multi-channel speech / acoustic signal decoding apparatus and method
RU2772423C1 (en) Device, method and computer program for encoding, decoding, scene processing and other procedures related to spatial audio coding based on dirac using low-order, medium-order and high-order component generators
RU2779415C1 (en) Apparatus, method, and computer program for encoding, decoding, processing a scene, and for other procedures associated with dirac-based spatial audio coding using diffuse compensation
RU2782511C1 (en) Apparatus, method, and computer program for encoding, decoding, processing a scene, and for other procedures associated with dirac-based spatial audio coding using direct component compensation
KR20230084232A (en) Quantization of audio parameters
MX2008008424A (en) Decoding of binaural audio signals
MX2008008829A (en) Decoding of binaural audio signals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120430

R150 Certificate of patent or registration of utility model

Ref document number: 4997781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees