JP2023072027A - Decoder and method, and program - Google Patents
Decoder and method, and program Download PDFInfo
- Publication number
- JP2023072027A JP2023072027A JP2023038916A JP2023038916A JP2023072027A JP 2023072027 A JP2023072027 A JP 2023072027A JP 2023038916 A JP2023038916 A JP 2023038916A JP 2023038916 A JP2023038916 A JP 2023038916A JP 2023072027 A JP2023072027 A JP 2023072027A
- Authority
- JP
- Japan
- Prior art keywords
- priority information
- audio signal
- unit
- decoding
- channel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 100
- 230000005236 sound signal Effects 0.000 claims abstract description 566
- 230000008569 process Effects 0.000 claims description 85
- 238000009877 rendering Methods 0.000 claims description 36
- 238000012856 packing Methods 0.000 claims description 30
- 230000003595 spectral effect Effects 0.000 claims description 10
- 238000005516 engineering process Methods 0.000 abstract description 29
- 238000004364 calculation method Methods 0.000 abstract description 10
- 238000012545 processing Methods 0.000 description 149
- 238000005562 fading Methods 0.000 description 43
- 230000006866 deterioration Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 17
- 238000001228 spectrum Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 230000000717 retained effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- AYFVYJQAPQTCCC-GBXIJSLDSA-N L-threonine Chemical compound C[C@@H](O)[C@H](N)C(O)=O AYFVYJQAPQTCCC-GBXIJSLDSA-N 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
本技術は符号化装置および方法、復号装置および方法、並びにプログラムに関し、特に、オーディオ信号の復号の計算量を低減させることができるようにした符号化装置および方法、復号装置および方法、並びにプログラムに関する。 TECHNICAL FIELD The present technology relates to an encoding device and method, a decoding device and method, and a program, and more particularly to an encoding device and method, a decoding device and method, and a program that can reduce the amount of calculation for decoding an audio signal. .
例えば、オーディオ信号を符号化する方法として、国際標準規格であるMPEG(Moving Picture Experts Group)-2 AAC(Advanced Audio Coding)規格、MPEG-4 AAC規格やMPEG-D USAC(Unified Speech and Audio Coding)規格のマルチチャネル符号化が知られている(例えば、非特許文献1および非特許文献2参照)。
For example, the MPEG (Moving Picture Experts Group)-2 AAC (Advanced Audio Coding) standard, the MPEG-4 AAC standard, and the MPEG-D USAC (Unified Speech and Audio Coding) standard, which are international standards, are used as methods for encoding audio signals. Standard multi-channel coding is known (see, for example, Non-Patent
ところで、従来の5.1チャネルサラウンド再生を超える、より高臨場感な再生や、複数の音素材(オブジェクト)を伝送するためには、より多くのオーディオチャネルを用いた符号化技術が必要になる。 By the way, encoding technology using more audio channels is required for playback with a higher sense of reality than conventional 5.1-channel surround playback and for transmission of multiple sound materials (objects).
例えば、24チャネルのオーディオ信号および複数のオブジェクトのオーディオ信号を符号化し、復号を行う場合と、2チャネルのオーディオ信号を符号化し復号する場合とを考える。このような場合、計算能力の乏しいモバイルデバイスなどでは、2チャネルのオーディオ信号をリアルタイムに復号することは可能であるが、24チャネルのオーディオ信号および複数のオブジェクトのオーディオ信号をリアルタイムに復号することが困難な場合がある。 For example, consider a case of encoding and decoding a 24-channel audio signal and audio signals of a plurality of objects, and a case of encoding and decoding a 2-channel audio signal. In such a case, it is possible to decode a 2-channel audio signal in real time on a mobile device with poor computing power, but it is not possible to decode a 24-channel audio signal and multiple object audio signals in real time. It can be difficult.
現状のMPEG-D USACなどのオーディオコーデックでは、全チャネルおよび全オブジェクトのオーディオ信号を復号する必要があるため、復号時の計算量を低減させることが困難である。そうすると、復号側の機器によっては、リアルタイムでオーディオ信号を再生することができなくなってしまうことがある。 Since current audio codecs such as MPEG-D USAC need to decode audio signals of all channels and all objects, it is difficult to reduce the amount of computation during decoding. As a result, depending on the device on the decoding side, it may become impossible to reproduce the audio signal in real time.
本技術は、このような状況に鑑みてなされたものであり、復号の計算量を低減させることができるようにするものである。 The present technology has been made in view of such circumstances, and is intended to reduce the computational complexity of decoding.
本技術の第1の側面の復号装置は、複数のチャネルまたは複数のオブジェクトの符号化されたオーディオ信号、および所定の時間における各前記オーディオ信号の優先度情報を取得する取得部と、前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号するオーディオ信号復号部とを備える。 A decoding device according to a first aspect of the present technology includes an acquisition unit that acquires encoded audio signals of a plurality of channels or a plurality of objects and priority information of each of the audio signals at a predetermined time; an audio signal decoding unit for decoding, based on the information, the encoded audio signal of a predetermined number of channels or objects according to the priority information.
本技術の第1の側面の復号方法またはプログラムは、複数のチャネルまたは複数のオブジェクトの符号化されたオーディオ信号、および所定の時間における各前記オーディオ信号の優先度情報を取得し、前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号するステップを含む。 A decoding method or program according to the first aspect of the present technology obtains encoded audio signals of a plurality of channels or a plurality of objects and priority information of each of the audio signals at a predetermined time, and obtains the priority information decoding the encoded audio signal of a predetermined number of channels or objects according to the priority information, based on.
本技術の第1の側面においては、複数のチャネルまたは複数のオブジェクトの符号化されたオーディオ信号、および所定の時間における各前記オーディオ信号の優先度情報が取得され、前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号が復号される。 In a first aspect of the present technology, encoded audio signals of multiple channels or multiple objects and priority information of each of the audio signals at a predetermined time are obtained, and based on the priority information, The encoded audio signal of a predetermined number of channels or objects according to the priority information is decoded.
本技術の第2の側面の符号化装置は、複数のチャネルまたは複数のオブジェクトのオーディオ信号の所定の時間における優先度情報を生成する優先度情報生成部と、前記優先度情報をビットストリームに格納するパッキング部とを備える。 A coding apparatus according to a second aspect of the present technology includes a priority information generation unit that generates priority information at a predetermined time of audio signals of multiple channels or multiple objects, and stores the priority information in a bitstream. and a packing part.
本技術の第2の側面の符号化方法またはプログラムは、複数のチャネルまたは複数のオブジェクトのオーディオ信号の所定の時間における優先度情報を生成し、前記優先度情報をビットストリームに格納するステップを含む。 A coding method or program according to a second aspect of the present technology includes generating priority information at a predetermined time of an audio signal of multiple channels or multiple objects, and storing the priority information in a bitstream. .
本技術の第2の側面においては、複数のチャネルまたは複数のオブジェクトのオーディオ信号の所定の時間における優先度情報が生成され、前記優先度情報がビットストリームに格納される。 In a second aspect of the present technology, priority information at a given time of an audio signal of multiple channels or multiple objects is generated, and the priority information is stored in a bitstream.
以下、図面を参照して、本技術を適用した実施の形態について説明する。 Hereinafter, embodiments to which the present technology is applied will be described with reference to the drawings.
〈第1の実施の形態〉
〈本技術の概要について〉
本技術は、マルチチャネルを構成する各チャネルのオーディオ信号、およびオブジェクトのオーディオ信号の符号化において、各チャネルのオーディオ信号の優先度情報および各オブジェクトのオーディオ信号の優先度情報を伝送することで、復号の計算量を低減させることができるようにするものである。
<First Embodiment>
<Outline of this technology>
This technology transmits priority information of audio signals of each channel and priority information of audio signals of each object in encoding of audio signals of each channel and audio signals of objects that constitute a multi-channel. This is intended to reduce the computational complexity of decoding.
また、本技術は復号側において、各チャネルまたは各オブジェクトの優先度情報に示される優先度合いが所定の度合い以上である場合に周波数時間変換を行い、優先度情報に示される優先度合いが所定の度合い未満である場合には、周波数時間変換を行わず、周波数時間変換の結果を0とすることで、オーディオ信号の復号の計算量を低減させることができるようにするものである。 In addition, the present technology performs frequency-time conversion on the decoding side when the priority indicated in the priority information of each channel or each object is equal to or higher than a predetermined degree, and the priority indicated in the priority information reaches the predetermined degree. If it is less than that, frequency-time conversion is not performed, and the result of frequency-time conversion is set to 0, thereby reducing the amount of computation for decoding the audio signal.
なお、以下では、マルチチャネルのオーディオ信号およびオブジェクトのオーディオ信号がAAC規格に従って符号化される場合について説明するが、他の方式で符号化される場合にも同様の処理が行なわれる。 In the following description, the case where the multi-channel audio signal and the object audio signal are encoded according to the AAC standard will be described, but similar processing is performed when they are encoded by other methods.
例えば、マルチチャネルのオーディオ信号、および複数のオブジェクトのオーディオ信号がAAC規格に従って符号化され、伝送される場合、各チャネルや各オブジェクトのオーディオ信号がフレームごとに符号化されて伝送される。 For example, when multi-channel audio signals and audio signals of a plurality of objects are encoded according to the AAC standard and transmitted, the audio signals of each channel and each object are encoded and transmitted frame by frame.
具体的には図1に示すように、符号化されたオーディオ信号や、オーディオ信号の復号等に必要な情報が複数のエレメント(ビットストリームエレメント)に格納され、それらのエレメントからなるビットストリームが伝送されることになる。 Specifically, as shown in FIG. 1, encoded audio signals and information necessary for decoding audio signals are stored in a plurality of elements (bitstream elements), and a bitstream consisting of these elements is transmitted. will be
この例では、1フレーム分のビットストリームには、先頭から順番にt個のエレメントEL1乃至エレメントELtが配置され、最後に当該フレームの情報に関する終端位置であることを示す識別子TERMが配置されている。 In this example, a bit stream for one frame has t elements EL1 to ELt arranged in order from the beginning, and finally an identifier TERM indicating the end position of the information of the frame. .
例えば、先頭に配置されたエレメントEL1は、DSE(Data Stream Element)と呼ばれるアンシラリデータ領域であり、DSEにはオーディオ信号のダウンミックスに関する情報や識別情報など、複数の各チャネルに関する情報が記述される。 For example, the element EL1 placed at the head is an ancillary data area called a DSE (Data Stream Element), and the DSE describes information on each of a plurality of channels, such as information on downmixing of audio signals and identification information. be.
エレメントEL1の後に続くエレメントEL2乃至エレメントELtには、符号化されたオーディオ信号が格納される。 Encoded audio signals are stored in the elements EL2 to ELt following the element EL1.
特に、シングルチャネルのオーディオ信号が格納されているエレメントはSCEと呼ばれており、ペアとなる2つのチャネルのオーディオ信号が格納されているエレメントはCPEと呼ばれている。また、各オブジェクトのオーディオ信号はSCEに格納される。 In particular, an element storing a single-channel audio signal is called an SCE, and an element storing a pair of two-channel audio signals is called a CPE. Also, the audio signal of each object is stored in the SCE.
本技術では、マルチチャネルを構成する各チャネルのオーディオ信号の優先度情報、および各オブジェクトのオーディオ信号の優先度情報が生成されてDSEに格納される。 In this technology, the priority information of the audio signal of each channel constituting the multi-channel and the priority information of the audio signal of each object are generated and stored in the DSE.
例えば、図2に示すように連続するフレームF11乃至フレームF13のオーディオ信号が符号化されるとする。 For example, as shown in FIG. 2, it is assumed that an audio signal of consecutive frames F11 to F13 is encoded.
このような場合、符号化装置(エンコーダ)は、それらのフレームごとに、各チャネルのオーディオ信号がどの程度の優先度合いであるかを解析し、例えば図3に示すように各チャネルの優先度情報を生成する。同様に、符号化装置は、各オブジェクトのオーディオ信号についても優先度情報を生成する。 In such a case, an encoding device (encoder) analyzes the degree of priority of the audio signal of each channel for each of those frames, and for example, the priority information of each channel as shown in FIG. to generate Similarly, the encoding device also generates priority information for the audio signal of each object.
例えば符号化装置は、オーディオ信号の音圧やスペクトルの形状、さらに各チャネル間やオブジェクト間のスペクトル形状の相関などに基づいて、オーディオ信号がどの程度の優先度合いであるかを解析する。 For example, the encoding device analyzes the degree of priority of the audio signal based on the sound pressure and spectral shape of the audio signal, the correlation of spectral shape between channels and between objects, and the like.
図3では、全チャネル数がMチャネルである場合における各チャネルの優先度情報が例として示されている。すなわち、チャネル番号が0であるチャネルから、チャネル番号がM-1であるチャネルまでの各チャネルについて、それらのチャネルのオーディオ信号の優先度合いを示す数値が優先度情報として示されている。
In FIG. 3, priority information of each channel is shown as an example when the total number of channels is M channels. That is, for each channel from
例えばチャネル番号が0であるチャネルの優先度情報は3となっており、チャネル番号が1であるチャネルの優先度情報は0となっている。なお、以下、所定のチャネル番号m(m=0,1,・・・,M-1)のチャネルをチャネルmとも称することとする。 For example, the priority information of a channel with a channel number of 0 is 3, and the priority information of a channel with a channel number of 1 is 0. In addition, hereinafter, a channel with a predetermined channel number m (m=0, 1, . . . , M-1) is also referred to as channel m.
図3に示した優先度情報の値は、図4に示すように0から7までの何れかの値とされるようになされており、優先度情報の値が大きいほど、オーディオ信号の再生時の優先度合い、つまり重要度が高いとされている。 The value of the priority information shown in FIG. 3 is set to any value from 0 to 7 as shown in FIG. is considered to be of high priority, that is, of high importance.
したがって、優先度情報の値が0であるオーディオ信号は最も優先度が低く、優先度情報の値が7であるオーディオ信号は最も優先度が高いことになる。 Therefore, an audio signal with a priority information value of 0 has the lowest priority, and an audio signal with a priority information value of 7 has the highest priority.
マルチチャネルのオーディオ信号や複数のオブジェクトのオーディオ信号が同時に再生される場合、通常、それらのオーディオ信号により再生される音声のなかには、他の音声と比べるとそれほど重要ではない音声も含まれている。換言すれば、全体の音声のなかで、ある特定の音声が再生されなかったとしても、そのことにより受聴者に違和感を与えるようなことがない程度の音声も存在する。 When multi-channel audio signals or audio signals of multiple objects are played simultaneously, some of the sounds reproduced by those audio signals usually contain less important sounds than other sounds. In other words, even if a particular sound is not reproduced in the entire sound, there are sounds that do not cause the listener to feel uncomfortable.
したがって、必要に応じて優先度の低いオーディオ信号については復号しないようにすれば、音質の劣化を抑えつつ復号の計算量を低減させることができる。そこで、符号化装置では、復号しないオーディオ信号を適切に選択することができるように、再生時における各オーディオ信号の重要さの度合い、つまり復号を優先させるべき度合いを示す優先度情報が、フレームごとに各オーディオ信号に対して付与される。 Therefore, if audio signals with low priority are not decoded as necessary, it is possible to reduce the computational complexity of decoding while suppressing deterioration in sound quality. Therefore, in the encoding apparatus, priority information indicating the degree of importance of each audio signal during reproduction, that is, the degree of priority for decoding, is stored for each frame so that the audio signal that is not to be decoded can be appropriately selected. is assigned to each audio signal.
以上のようにして各オーディ信号の優先度情報が定められると、それらの優先度情報は、図1に示したエレメントEL1のDSEに格納される。特に図3の例では、マルチチャネルのオーディオ信号を構成するチャネル数はMであるから、チャネル0からチャネルM-1のM個の各チャネルの優先度情報がDSEに格納される。
When the priority information of each audio signal is determined as described above, the priority information is stored in the DSE of the element EL1 shown in FIG. Especially in the example of FIG. 3, since the number of channels constituting the multi-channel audio signal is M, the priority information of each of M channels from
同様に、各オブジェクトの優先度情報もエレメントEL1のDSEに格納される。ここでは、例えばオブジェクト番号が0からN-1までのN個のオブジェクトがあるとすると、N個の各オブジェクトに対して、それぞれ優先度情報が定められ、DSEに格納される。 Similarly, priority information for each object is also stored in the DSE of element EL1. Here, for example, if there are N objects with object numbers from 0 to N-1, priority information is determined for each of the N objects and stored in the DSE.
なお、以下、所定のオブジェクト番号n(n=0,1,・・・,N-1)のオブジェクトをオブジェクトnとも称することとする。 An object with a predetermined object number n (n=0, 1, . . . , N-1) is hereinafter also referred to as an object n.
このように、各オーディオ信号に対して優先度情報を定めれば、再生側、つまりオーディオ信号の復号側において、再生時にどのオーディオ信号が重要であり、優先して復号すべきか、つまり再生に用いるべきかを簡単に特定することができる。 In this way, if priority information is defined for each audio signal, the playback side, that is, the audio signal decoding side, determines which audio signal is important during playback and should be decoded preferentially. You can easily identify what to do.
図2の説明に戻り、例えば所定のチャネルのフレームF11とフレームF13のオーディオ信号の優先度情報が7であり、その所定のチャネルのフレームF12のオーディオ信号の優先度情報が0であったとする。 Returning to the description of FIG. 2, for example, it is assumed that the priority information of the audio signals of the frames F11 and F13 of the predetermined channel is 7, and the priority information of the audio signal of the frame F12 of the predetermined channel is 0.
また、オーディオ信号の復号側、つまり復号装置(デコーダ)において所定の優先度合い未満のオーディオ信号に対しては、復号が行われないようになっているとする。 In addition, it is assumed that the audio signal decoding side, ie, the decoding device (decoder), does not decode audio signals having a priority lower than a predetermined degree.
ここで、例えば所定の優先度合いを閾値と呼ぶこととし、その閾値が4であるとすると、上述した例では、優先度情報が7である所定チャネルのフレームF11とフレームF13のオーディオ信号に対しては復号が行われる。 Here, for example, the predetermined priority is called a threshold, and if the threshold is 4, in the above example, the audio signals of the frames F11 and F13 of the predetermined channel whose priority information is 7 are is decrypted.
これに対して、優先度情報が0である所定チャネルのフレームF12のオーディオ信号に対しては復号が行われない。 On the other hand, the audio signal of the frame F12 of the predetermined channel whose priority information is 0 is not decoded.
したがって、この例ではフレームF12のオーディオ信号が無音信号とされて、フレームF11とフレームF13のオーディオ信号が合成され、最終的な所定チャネルのオーディオ信号とされる。 Therefore, in this example, the audio signal of the frame F12 is treated as a silent signal, and the audio signals of the frames F11 and F13 are combined to obtain the final audio signal of the predetermined channel.
より詳細には、例えば各オーディオ信号の符号化時には、オーディオ信号に対する時間周波数変換が行われて時間周波数変換により得られた情報が符号化され、その結果得られた符号化データがエレメントに格納される。 More specifically, for example, when each audio signal is encoded, time-frequency transform is performed on the audio signal, the information obtained by the time-frequency transform is encoded, and the encoded data obtained as a result is stored in the element. be.
なお、時間周波数変換としてどのような処理が行われてもよいが、以下では時間周波数変換としてMDCT(Modified Discrete Cosine Transform)(修正離散コサイン変換)が行われるものとして説明を続ける。 Any processing may be performed as the time-frequency transform, but the following description will continue assuming that MDCT (Modified Discrete Cosine Transform) is performed as the time-frequency transform.
また、復号装置では、符号化データに対する復号が行われ、その結果得られたMDCT係数に対してIMDCT(Inverse Modified Discrete Cosine Transform)(逆修正離散コサイン変換)が行われ、オーディオ信号が生成される。すなわち、ここでは時間周波数変換の逆変換(周波数時間変換)としてIMDCTが行われる。 In addition, the decoding device decodes the encoded data, performs IMDCT (Inverse Modified Discrete Cosine Transform) on the resulting MDCT coefficients, and generates an audio signal. . That is, here, IMDCT is performed as inverse transform (frequency-time transform) of time-frequency transform.
そのため、より詳細には、優先度情報が閾値の値4以上であるフレームF11とフレームF13についてはIMDCTが行われてオーディオ信号が生成される。 Therefore, more specifically, IMDCT is performed on the frames F11 and F13 whose priority information is equal to or greater than the threshold value of 4, and audio signals are generated.
また、優先度情報が閾値の値4未満であるフレームF12についてはIMDCTが行われず、IMDCTの結果が0とされてオーディオ信号が生成される。これにより、フレームF12のオーディオ信号は無音信号、つまり0データとなる。 Also, the IMDCT is not performed for the frame F12 whose priority information is less than the threshold value of 4, and the result of the IMDCT is set to 0 and an audio signal is generated. As a result, the audio signal of frame F12 becomes a silent signal, that is, 0 data.
さらに別の例として、図3に示した例では、閾値が4であるときには各チャネル0乃至チャネルM-1のオーディオ信号のうち、優先度情報が閾値である4未満の値となっているチャネル0、チャネル1、およびチャネルM-2のオーディオ信号の復号が行われないことになる。
As another example, in the example shown in FIG. 3, when the threshold is 4, among the audio signals of each
以上のように閾値との比較結果に応じて、優先度情報により示される優先度合いの低いオーディオ信号については復号を行わないようにすることで、音質の劣化を最小限に抑えつつ、復号の計算量を低減させることができる。 As described above, according to the comparison result with the threshold, decoding is not performed for audio signals with a low priority indicated by the priority information. amount can be reduced.
〈符号化装置の構成例〉
次に、本技術を適用した符号化装置および復号装置の具体的な実施の形態について説明する。まず、符号化装置について説明する。
<Configuration example of encoding device>
Next, specific embodiments of an encoding device and a decoding device to which the present technology is applied will be described. First, the encoding device will be explained.
図5は、本技術を適用した符号化装置の構成例を示す図である。 FIG. 5 is a diagram showing a configuration example of an encoding device to which the present technology is applied.
図5の符号化装置11は、チャネルオーディオ符号化部21、オブジェクトオーディオ符号化部22、メタデータ入力部23、およびパッキング部24を有している。
The
チャネルオーディオ符号化部21には、チャネル数がMであるマルチチャネルの各チャネルのオーディオ信号が供給される。例えば各チャネルのオーディオ信号は、それらのチャネルに対応するマイクロフォンから供給される。図5では、文字「#0」乃至「#M-1」は、各チャネルのチャネル番号を表している。
Audio signals of each channel of a multi-channel having M channels are supplied to the channel
チャネルオーディオ符号化部21は、供給された各チャネルのオーディオ信号を符号化するとともに、オーディオ信号に基づいて優先度情報を生成し、符号化により得られた符号化データと、優先度情報とをパッキング部24に供給する。
The channel
オブジェクトオーディオ符号化部22には、N個の各オブジェクトのオーディオ信号が供給される。例えば各オブジェクトのオーディオ信号は、それらのオブジェクトに取り付けられたマイクロフォンから供給される。図5では、文字「#0」乃至「#N-1」は、各オブジェクトのオブジェクト番号を表している。
Audio signals of each of the N objects are supplied to the object
オブジェクトオーディオ符号化部22は、供給された各オブジェクトのオーディオ信号を符号化するとともに、オーディオ信号に基づいて優先度情報を生成し、符号化により得られた符号化データと、優先度情報とをパッキング部24に供給する。
The object
メタデータ入力部23は、各オブジェクトのメタデータをパッキング部24に供給する。例えばオブジェクトのメタデータは、空間上におけるオブジェクトの位置を示す空間位置情報などとされる。より具体的には、例えば空間位置情報は3次元空間におけるオブジェクトの位置の座標を示す3次元座標情報である。
The
パッキング部24は、チャネルオーディオ符号化部21から供給された符号化データと優先度情報、オブジェクトオーディオ符号化部22から供給された符号化データと優先度情報、およびメタデータ入力部23から供給されたメタデータをパッキングしてビットストリームを生成し、出力する。
The
このようにして得られるビットストリームには、フレームごとに各チャネルの符号化データ、各チャネルの優先度情報、各オブジェクトの符号化データ、各オブジェクトの優先度情報、および各オブジェクトのメタデータが含まれていることになる。 The bitstream thus obtained includes encoded data for each channel, priority information for each channel, encoded data for each object, priority information for each object, and metadata for each object for each frame. It means that
ここで、1フレーム分のビットストリームに格納されるM個の各チャネルのオーディオ信号、およびN個の各オブジェクトのオーディオ信号は、同時に再生されるべき同一フレームのオーディオ信号である。 Here, the audio signals of the M channels and the audio signals of the N objects stored in the bitstream for one frame are audio signals of the same frame to be reproduced simultaneously.
なお、ここでは、各チャネルや各オブジェクトのオーディオ信号の優先度情報として、1フレームごとに各オーディオ信号に対して優先度情報が生成される例について説明するが、任意の所定の時間を単位として、例えば数フレーム分のオーディオ信号に対して1つの優先度情報が生成されるようにしてもよい。 Here, as the priority information of the audio signal of each channel and each object, an example will be described in which priority information is generated for each audio signal for each frame. , for example, one piece of priority information may be generated for several frames of audio signals.
〈チャネルオーディオ符号化部の構成例〉
また、図5のチャネルオーディオ符号化部21は、より詳細には、例えば図6に示すように構成される。
<Configuration example of channel audio encoder>
Further, the channel
図6に示すチャネルオーディオ符号化部21は、符号化部51および優先度情報生成部52を備えている。
The
符号化部51はMDCT部61を備えており、符号化部51は外部から供給された各チャネルのオーディオ信号を符号化する。
The
すなわち、MDCT部61は、外部から供給された各チャネルのオーディオ信号に対してMDCTを行う。符号化部51は、MDCTにより得られた各チャネルのMDCT係数を符号化し、その結果得られた各チャネルの符号化データ、つまり符号化されたオーディオ信号をパッキング部24に供給する。
That is, the
また、優先度情報生成部52は、外部から供給された各チャネルのオーディオ信号を解析して、それらの各チャネルのオーディオ信号の優先度情報を生成し、パッキング部24に供給する。
The
〈オブジェクトオーディオ符号化部の構成例〉
さらに、図5のオブジェクトオーディオ符号化部22は、より詳細には、例えば図7に示すように構成される。
<Configuration example of object audio encoding unit>
Further, the object
図7に示すオブジェクトオーディオ符号化部22は、符号化部91および優先度情報生成部92を備えている。
The object
符号化部91はMDCT部101を備えており、符号化部91は外部から供給された各オブジェクトのオーディオ信号を符号化する。
The
すなわち、MDCT部101は、外部から供給された各オブジェクトのオーディオ信号に対してMDCTを行う。符号化部91は、MDCTにより得られた各オブジェクトのMDCT係数を符号化し、その結果得られた各オブジェクトの符号化データ、つまり符号化されたオーディオ信号をパッキング部24に供給する。
That is, the
また、優先度情報生成部92は、外部から供給された各オブジェクトのオーディオ信号を解析して、それらの各オブジェクトのオーディオ信号の優先度情報を生成し、パッキング部24に供給する。
The priority
〈符号化処理の説明〉
次に、符号化装置11により行われる処理について説明する。
<Description of encoding processing>
Next, processing performed by the
符号化装置11は、同時に再生される、複数の各チャネルのオーディオ信号および複数の各オブジェクトのオーディオ信号が1フレーム分だけ供給されると、符号化処理を行って、符号化されたオーディオ信号が含まれるビットストリームを出力する。
When the audio signals of each of the plurality of channels and the audio signals of each of the plurality of objects, which are reproduced simultaneously, are supplied for only one frame, the
以下、図8のフローチャートを参照して、符号化装置11による符号化処理について説明する。なお、この符号化処理はオーディオ信号のフレームごとに行われる。
The encoding process by the
ステップS11において、チャネルオーディオ符号化部21の優先度情報生成部52は、供給された各チャネルのオーディオ信号の優先度情報を生成し、パッキング部24に供給する。例えば優先度情報生成部52は、チャネルごとにオーディオ信号を解析し、オーディオ信号の音圧やスペクトル形状、チャネル間のスペクトル形状の相関などに基づいて優先度情報を生成する。
In step S<b>11 , the priority
ステップS12において、パッキング部24は、優先度情報生成部52から供給された各チャネルのオーディオ信号の優先度情報をビットストリームのDSEに格納する。すなわち、優先度情報がビットストリームの先頭のエレメントに格納される。
In step S12, the
ステップS13において、オブジェクトオーディオ符号化部22の優先度情報生成部92は、供給された各オブジェクトのオーディオ信号の優先度情報を生成し、パッキング部24に供給する。例えば優先度情報生成部92は、オブジェクトごとにオーディオ信号を解析し、オーディオ信号の音圧やスペクトル形状、オブジェクト間のスペクトル形状の相関などに基づいて優先度情報を生成する。
In step S<b>13 , the priority
なお、各チャネルや各オブジェクトのオーディオ信号の優先度情報の生成時には、優先度情報の値となる優先度合いごとに、それらの優先度合いが割り当てられるオーディオ信号の数が、チャネル数やオブジェクト数に対して予め定められているようにしてもよい。 When generating priority information for audio signals of each channel and each object, the number of audio signals to which each priority, which is the value of the priority information, is assigned is determined by the number of channels and the number of objects. may be determined in advance.
例えば図3の例では、優先度情報が「7」とされるオーディオ信号の数、つまりチャネルの数は5個、優先度情報が「6」とされるオーディオ信号の数は3個などと、予め定められているようにしてもよい。 For example, in the example of FIG. 3, the number of audio signals whose priority information is "7", that is, the number of channels is five, and the number of audio signals whose priority information is "6" is three. It may be determined in advance.
ステップS14において、パッキング部24は、優先度情報生成部92から供給された各オブジェクトのオーディオ信号の優先度情報をビットストリームのDSEに格納する。
In step S14, the
ステップS15において、パッキング部24は、各オブジェクトのメタデータをビットストリームのDSEに格納する。
In step S15, the
例えばメタデータ入力部23は、ユーザの入力操作を受けたり、外部との通信を行ったり、外部の記録領域からの読み出しを行ったりすることで、各オブジェクトのメタデータを取得し、パッキング部24に供給する。パッキング部24は、このようにしてメタデータ入力部23から供給されたメタデータをDSEに格納する。
For example, the
以上の処理により、ビットストリームのDSEには、全チャネルのオーディオ信号の優先度情報、全オブジェクトのオーディオ信号の優先度情報、および全オブジェクトのメタデータが格納されたことになる。 By the above processing, the DSE of the bitstream stores the priority information of audio signals of all channels, the priority information of audio signals of all objects, and the metadata of all objects.
ステップS16において、チャネルオーディオ符号化部21の符号化部51は、供給された各チャネルのオーディオ信号を符号化する。
In step S16, the
より具体的には、MDCT部61は各チャネルのオーディオ信号に対してMDCTを行い、符号化部51は、MDCTにより得られた各チャネルのMDCT係数を符号化し、その結果得られた各チャネルの符号化データをパッキング部24に供給する。
More specifically, the
ステップS17において、パッキング部24は符号化部51から供給された各チャネルのオーディオ信号の符号化データを、ビットストリームのSCEまたはCPEに格納する。すなわち、ビットストリームにおいてDSEに続いて配置されている各エレメントに符号化データが格納される。
In step S17, the
ステップS18において、オブジェクトオーディオ符号化部22の符号化部91は、供給された各オブジェクトのオーディオ信号を符号化する。
In step S18, the
より具体的には、MDCT部101は各オブジェクトのオーディオ信号に対してMDCTを行い、符号化部91は、MDCTにより得られた各オブジェクトのMDCT係数を符号化し、その結果得られた各オブジェクトの符号化データをパッキング部24に供給する。
More specifically,
ステップS19において、パッキング部24は符号化部91から供給された各オブジェクトのオーディオ信号の符号化データを、ビットストリームのSCEに格納する。すなわち、ビットストリームにおいてDSEよりも後に配置されているいくつかのエレメントに符号化データが格納される。
In step S19, the
以上の処理により、処理対象となっているフレームについて、全チャネルのオーディオ信号の優先度情報と符号化データ、全オブジェクトのオーディオ信号の優先度情報と符号化データ、および全オブジェクトのメタデータが格納されたビットストリームが得られる。 With the above processing, the priority information and encoded data of audio signals for all channels, the priority information and encoded data of audio signals for all objects, and the metadata of all objects are stored for the frame being processed. resulting in a compressed bitstream.
ステップS20において、パッキング部24は、得られたビットストリームを出力し、符号化処理は終了する。
In step S20, the
以上のようにして符号化装置11は、各チャネルのオーディオ信号の優先度情報と、各オブジェクトのオーディオ信号の優先度情報とを生成してビットストリームに格納し、出力する。したがって、復号側において、どのオーディオ信号がより優先度合いの高いものであるかを簡単に把握することができるようになる。
As described above, the
これにより、復号側では、優先度情報に応じて、符号化されたオーディオ信号の復号を選択的に行うことができる。その結果、オーディオ信号により再生される音声の音質の劣化を最小限に抑えつつ、復号の計算量を低減させることができる。 This allows the decoding side to selectively decode the encoded audio signal according to the priority information. As a result, it is possible to reduce the computational complexity of decoding while minimizing the deterioration of the sound quality of the sound reproduced by the audio signal.
特に、各オブジェクトのオーディオ信号の優先度情報をビットストリームに格納しておくことで、復号側において、復号の計算量を低減できるだけでなく、その後のレンダリング等の処理の計算量も低減させることができる。 In particular, by storing the priority information of the audio signal of each object in the bitstream, it is possible to not only reduce the computational complexity of decoding on the decoding side, but also reduce the computational complexity of subsequent processing such as rendering. can.
〈復号装置の構成例〉
次に、以上において説明した符号化装置11から出力されたビットストリームを入力とし、ビットストリームに含まれる符号化データを復号する復号装置について説明する。
<Configuration example of decoding device>
Next, a decoding device that receives as input the bitstream output from the
そのような復号装置は、例えば図9に示すように構成される。 Such a decoding device is configured, for example, as shown in FIG.
図9に示す復号装置151は、アンパッキング/復号部161、レンダリング部162、およびミキシング部163を有している。
Decoding
アンパッキング/復号部161は、符号化装置11から出力されたビットストリームを取得するとともに、ビットストリームのアンパッキングおよび復号を行う。
The unpacking/
アンパッキング/復号部161は、アンパッキングおよび復号により得られた各オブジェクトのオーディオ信号と、各オブジェクトのメタデータとをレンダリング部162に供給する。このとき、アンパッキング/復号部161は、ビットストリームに含まれている優先度情報に応じて各オブジェクトの符号化データの復号を行う。
The unpacking/
また、アンパッキング/復号部161は、アンパッキングおよび復号により得られた各チャネルのオーディオ信号をミキシング部163に供給する。このとき、アンパッキング/復号部161は、ビットストリームに含まれている優先度情報に応じて各チャネルの符号化データの復号を行う。
The unpacking/
レンダリング部162は、アンパッキング/復号部161から供給された各オブジェクトのオーディオ信号、および各オブジェクトのメタデータとしての空間位置情報に基づいて、Mチャネルのオーディオ信号を生成し、ミキシング部163に供給する。このときレンダリング部162は、各オブジェクトの音像が、それらのオブジェクトの空間位置情報により示される位置に定位するようにM個の各チャネルのオーディオ信号を生成する。
The
ミキシング部163は、アンパッキング/復号部161から供給された各チャネルのオーディオ信号と、レンダリング部162から供給された各チャネルのオーディオ信号とをチャネルごとに重み付け加算を行って、最終的な各チャネルのオーディオ信号を生成する。ミキシング部163は、このようにして得られた最終的な各チャネルのオーディオ信号を、外部の各チャネルに対応するスピーカに供給し、音声を再生させる。
The
〈アンパッキング/復号部の構成例〉
また、図9に示した復号装置151のアンパッキング/復号部161は、より詳細には例えば図10に示すように構成される。
<Configuration example of unpacking/decoding section>
Further, the unpacking/
図10に示すアンパッキング/復号部161は、優先度情報取得部191、チャネルオーディオ信号取得部192、チャネルオーディオ信号復号部193、出力選択部194、0値出力部195、IMDCT部196、オブジェクトオーディオ信号取得部197、オブジェクトオーディオ信号復号部198、出力選択部199、0値出力部200、およびIMDCT部201を有している。
The unpacking/
優先度情報取得部191は、供給されたビットストリームから、各チャネルのオーディオ信号の優先度情報を取得して出力選択部194に供給するとともに、ビットストリームから各オブジェクトのオーディオ信号の優先度情報を取得して出力選択部199に供給する。
The priority
また、優先度情報取得部191は、供給されたビットストリームから各オブジェクトのメタデータを取得してレンダリング部162に供給するとともに、ビットストリームをチャネルオーディオ信号取得部192およびオブジェクトオーディオ信号取得部197に供給する。
Also, the priority
チャネルオーディオ信号取得部192は、優先度情報取得部191から供給されたビットストリームから各チャネルの符号化データを取得して、チャネルオーディオ信号復号部193に供給する。チャネルオーディオ信号復号部193は、チャネルオーディオ信号取得部192から供給された各チャネルの符号化データを復号し、その結果得られたMDCT係数を出力選択部194に供給する。
The channel audio
出力選択部194は、優先度情報取得部191から供給された各チャネルの優先度情報に基づいて、チャネルオーディオ信号復号部193から供給された各チャネルのMDCT係数の出力先を選択的に切り替える。
The
すなわち、出力選択部194は、所定のチャネルについての優先度情報が所定の閾値P未満である場合、そのチャネルのMDCT係数を0として0値出力部195に供給する。また、出力選択部194は、所定のチャネルについての優先度情報が所定の閾値P以上である場合、チャネルオーディオ信号復号部193から供給された、そのチャネルのMDCT係数をIMDCT部196に供給する。
That is, when the priority information for a given channel is less than a given threshold value P, the
0値出力部195は、出力選択部194から供給されたMDCT係数に基づいてオーディオ信号を生成し、ミキシング部163に供給する。この場合、MDCT係数は0であるので、無音のオーディオ信号が生成される。
The 0-
IMDCT部196は、出力選択部194から供給されたMDCT係数に基づいてIMDCTを行ってオーディオ信号を生成し、ミキシング部163に供給する。
The
オブジェクトオーディオ信号取得部197は、優先度情報取得部191から供給されたビットストリームから各オブジェクトの符号化データを取得して、オブジェクトオーディオ信号復号部198に供給する。オブジェクトオーディオ信号復号部198は、オブジェクトオーディオ信号取得部197から供給された各オブジェクトの符号化データを復号し、その結果得られたMDCT係数を出力選択部199に供給する。
The object audio
出力選択部199は、優先度情報取得部191から供給された各オブジェクトの優先度情報に基づいて、オブジェクトオーディオ信号復号部198から供給された各オブジェクトのMDCT係数の出力先を選択的に切り替える。
The
すなわち、出力選択部199は、所定のオブジェクトについての優先度情報が所定の閾値Q未満である場合、そのオブジェクトのMDCT係数を0として0値出力部200に供給する。また、出力選択部199は、所定のオブジェクトについての優先度情報が所定の閾値Q以上である場合、オブジェクトオーディオ信号復号部198から供給された、そのオブジェクトのMDCT係数をIMDCT部201に供給する。
That is, when the priority information for a given object is less than a given threshold Q, the
なお、閾値Qの値は、閾値Pの値と同じであってもよいし、閾値Pの値と異なる値であってもよい。復号装置151の計算能力等に応じて適切に閾値Pおよび閾値Qを定めることにより、オーディオ信号の復号の計算量を、復号装置151がリアルタイムに復号することが可能な範囲内の計算量まで低減させることができる。
Note that the value of the threshold Q may be the same as the value of the threshold P, or may be a value different from the value of the threshold P. By appropriately determining the threshold value P and the threshold value Q according to the computational capacity of the
0値出力部200は、出力選択部199から供給されたMDCT係数に基づいてオーディオ信号を生成し、レンダリング部162に供給する。この場合、MDCT係数は0であるので、無音のオーディオ信号が生成される。
The 0-
IMDCT部201は、出力選択部199から供給されたMDCT係数に基づいてIMDCTを行ってオーディオ信号を生成し、レンダリング部162に供給する。
The
〈復号処理の説明〉
次に、復号装置151の動作について説明する。
<Description of Decryption Processing>
Next, the operation of the
復号装置151は、符号化装置11から1フレーム分のビットストリームが供給されると、復号処理を行ってオーディオ信号を生成し、スピーカへと出力する。以下、図11のフローチャートを参照して、復号装置151により行われる復号処理について説明する。
When the bit stream for one frame is supplied from the
ステップS51において、アンパッキング/復号部161は、符号化装置11から送信されてきたビットストリームを取得する。すなわち、ビットストリームが受信される。
In step S<b>51 , the unpacking/
ステップS52において、アンパッキング/復号部161は選択復号処理を行う。
In step S52, the unpacking/
なお、選択復号処理の詳細は後述するが、選択復号処理では各チャネルの符号化データと、各オブジェクトの符号化データとが優先度情報に基づいて選択的に復号される。そして、その結果得られた各チャネルのオーディオ信号がミキシング部163に供給され、各オブジェクトのオーディオ信号がレンダリング部162に供給される。また、ビットストリームから取得された各オブジェクトのメタデータがレンダリング部162に供給される。
Although details of the selective decoding process will be described later, in the selective decoding process, encoded data of each channel and encoded data of each object are selectively decoded based on priority information. Then, the audio signal of each channel obtained as a result is supplied to the
ステップS53において、レンダリング部162は、アンパッキング/復号部161から供給された各オブジェクトのオーディオ信号、および各オブジェクトのメタデータとしての空間位置情報に基づいて、各オブジェクトのオーディオ信号のレンダリングを行う。
In step S53, the
例えばレンダリング部162は、空間位置情報に基づいてVBAP(Vector Base Amplitude Pannning)により、各オブジェクトの音像が空間位置情報により示される位置に定位するように各チャネルのオーディオ信号を生成し、ミキシング部163に供給する。
For example, the
ステップS54において、ミキシング部163は、アンパッキング/復号部161から供給された各チャネルのオーディオ信号と、レンダリング部162から供給された各チャネルのオーディオ信号とをチャネルごとに重み付け加算し、外部のスピーカに供給する。これにより、各スピーカには、それらのスピーカに対応するチャネルのオーディオ信号が供給されるので、各スピーカは供給されたオーディオ信号に基づいて音声を再生する。
In step S54, the
各チャネルのオーディオ信号がスピーカに供給されると、復号処理は終了する。 The decoding process ends when the audio signal of each channel is supplied to the speaker.
以上のようにして、復号装置151は、ビットストリームから優先度情報を取得して、その優先度情報に応じて各チャネルおよび各オブジェクトの符号化データを復号する。
As described above, the
〈選択復号処理の説明〉
続いて、図12のフローチャートを参照して、図11のステップS52の処理に対応する選択復号処理について説明する。
<Description of selective decryption processing>
Next, the selective decoding process corresponding to the process of step S52 in FIG. 11 will be described with reference to the flowchart in FIG.
ステップS81において、優先度情報取得部191は、供給されたビットストリームから、各チャネルのオーディオ信号の優先度情報、および各オブジェクトのオーディオ信号の優先度情報を取得して、それぞれ出力選択部194および出力選択部199に供給する。
In step S81, the priority
また、優先度情報取得部191は、ビットストリームから各オブジェクトのメタデータを取得してレンダリング部162に供給するとともに、ビットストリームをチャネルオーディオ信号取得部192およびオブジェクトオーディオ信号取得部197に供給する。
The priority
ステップS82において、チャネルオーディオ信号取得部192は、処理対象とするチャネルのチャネル番号に0を設定し、保持する。
In step S82, the channel audio
ステップS83において、チャネルオーディオ信号取得部192は、保持しているチャネル番号がチャネル数M未満であるか否かを判定する。
In step S83, the channel audio
ステップS83において、チャネル番号がM未満であると判定された場合、ステップS84において、チャネルオーディオ信号復号部193は、処理対象のチャネルのオーディオ信号の符号化データを復号する。
If it is determined in step S83 that the channel number is less than M, in step S84 the channel audio
すなわち、チャネルオーディオ信号取得部192は、優先度情報取得部191から供給されたビットストリームから、処理対象のチャネルの符号化データを取得してチャネルオーディオ信号復号部193に供給する。
That is, the channel audio
すると、チャネルオーディオ信号復号部193は、チャネルオーディオ信号取得部192から供給された符号化データを復号し、その結果得られたMDCT係数を出力選択部194に供給する。
Then, the channel audio
ステップS85において、出力選択部194は、優先度情報取得部191から供給された処理対象のチャネルの優先度情報が、図示せぬ上位の制御装置等により指定された閾値P以上であるか否かを判定する。ここで閾値Pは、例えば復号装置151の計算能力等に応じて定められる。
In step S85, the
ステップS85において、優先度情報が閾値P以上であると判定された場合、出力選択部194は、チャネルオーディオ信号復号部193から供給された、処理対象のチャネルのMDCT係数をIMDCT部196に供給し、処理はステップS86に進む。この場合、処理対象のチャネルのオーディオ信号の優先度合いは、所定の優先度合い以上であるので、そのチャネルについての復号、より詳細にはIMDCTが行われる。
In step S85, when it is determined that the priority information is equal to or greater than the threshold value P, the
ステップS86において、IMDCT部196は、出力選択部194から供給されたMDCT係数に基づいてIMDCTを行って、処理対象のチャネルのオーディオ信号を生成し、ミキシング部163に供給する。オーディオ信号が生成されると、その後、処理はステップS87へと進む。
In step S<b>86 , the
これに対して、ステップS85において、優先度情報が閾値P未満であると判定された場合、出力選択部194は、MDCT係数を0として0値出力部195に供給する。
On the other hand, when it is determined in step S85 that the priority information is less than the threshold value P, the
0値出力部195は、出力選択部194から供給された0であるMDCT係数から、処理対象のチャネルのオーディオ信号を生成し、ミキシング部163に供給する。したがって、0値出力部195では、実質的にはIMDCTなどのオーディオ信号を生成するための処理は何も行われない。
The 0-
なお、0値出力部195により生成されるオーディオ信号は無音信号である。オーディオ信号が生成されると、その後、処理はステップS87へと進む。
Note that the audio signal generated by the 0-
ステップS85において優先度情報が閾値P未満であると判定されたか、またはステップS86においてオーディオ信号が生成されると、ステップS87において、チャネルオーディオ信号取得部192は、保持しているチャネル番号に1を加え、処理対象のチャネルのチャネル番号を更新する。
If it is determined in step S85 that the priority information is less than the threshold value P, or if an audio signal is generated in step S86, then in step S87 the channel audio
チャネル番号が更新されると、その後、処理はステップS83に戻り、上述した処理が繰り返し行われる。すなわち、新たな処理対象のチャネルのオーディオ信号が生成される。 After the channel number is updated, the process returns to step S83 and the above-described processes are repeated. That is, the audio signal of the new channel to be processed is generated.
また、ステップS83において、処理対象のチャネルのチャネル番号がM未満ではないと判定された場合、全てのチャネルについてオーディオ信号が得られたので、処理はステップS88へと進む。 Further, when it is determined in step S83 that the channel number of the channel to be processed is not less than M, the process proceeds to step S88 because audio signals have been obtained for all channels.
ステップS88において、オブジェクトオーディオ信号取得部197は、処理対象とするオブジェクトのオブジェクト番号に0を設定し、保持する。
In step S88, the object audio
ステップS89において、オブジェクトオーディオ信号取得部197は、保持しているオブジェクト番号がオブジェクト数N未満であるか否かを判定する。
In step S89, the object audio
ステップS89において、オブジェクト番号がN未満であると判定された場合、ステップS90において、オブジェクトオーディオ信号復号部198は、処理対象のオブジェクトのオーディオ信号の符号化データを復号する。
If it is determined in step S89 that the object number is less than N, in step S90 the object audio
すなわち、オブジェクトオーディオ信号取得部197は、優先度情報取得部191から供給されたビットストリームから、処理対象のオブジェクトの符号化データを取得してオブジェクトオーディオ信号復号部198に供給する。
That is, the object audio
すると、オブジェクトオーディオ信号復号部198は、オブジェクトオーディオ信号取得部197から供給された符号化データを復号し、その結果得られたMDCT係数を出力選択部199に供給する。
Then, the object audio
ステップS91において、出力選択部199は、優先度情報取得部191から供給された処理対象のオブジェクトの優先度情報が、図示せぬ上位の制御装置等により指定された閾値Q以上であるか否かを判定する。ここで閾値Qは、例えば復号装置151の計算能力等に応じて定められる。
In step S91, the
ステップS91において、優先度情報が閾値Q以上であると判定された場合、出力選択部199は、オブジェクトオーディオ信号復号部198から供給された、処理対象のオブジェクトのMDCT係数をIMDCT部201に供給し、処理はステップS92に進む。
If it is determined in step S91 that the priority information is equal to or greater than the threshold Q, the
ステップS92において、IMDCT部201は、出力選択部199から供給されたMDCT係数に基づいてIMDCTを行って、処理対象のオブジェクトのオーディオ信号を生成し、レンダリング部162に供給する。オーディオ信号が生成されると、その後、処理はステップS93へと進む。
In step S<b>92 , the
これに対して、ステップS91において、優先度情報が閾値Q未満であると判定された場合、出力選択部199は、MDCT係数を0として0値出力部200に供給する。
On the other hand, when it is determined in step S91 that the priority information is less than the threshold value Q, the
0値出力部200は、出力選択部199から供給された0であるMDCT係数から、処理対象のオブジェクトのオーディオ信号を生成し、レンダリング部162に供給する。したがって、0値出力部200では、実質的にはIMDCTなどのオーディオ信号を生成するための処理は何も行われない。
The 0-
なお、0値出力部200により生成されるオーディオ信号は無音信号である。オーディオ信号が生成されると、その後、処理はステップS93へと進む。
Note that the audio signal generated by the 0-
ステップS91において優先度情報が閾値Q未満であると判定されたか、またはステップS92においてオーディオ信号が生成されると、ステップS93において、オブジェクトオーディオ信号取得部197は、保持しているオブジェクト番号に1を加え、処理対象のオブジェクトのオブジェクト番号を更新する。
If it is determined in step S91 that the priority information is less than the threshold value Q, or if an audio signal is generated in step S92, in step S93 the object audio
オブジェクト番号が更新されると、その後、処理はステップS89に戻り、上述した処理が繰り返し行われる。すなわち、新たな処理対象のオブジェクトのオーディオ信号が生成される。 After the object number is updated, the process returns to step S89 and the above-described processes are repeated. That is, the audio signal of the new object to be processed is generated.
また、ステップS89において、処理対象のオブジェクトのオブジェクト番号がN未満ではないと判定された場合、全てのチャネルおよびオブジェクトについてオーディオ信号が得られたので選択復号処理は終了し、その後、処理は図11のステップS53に進む。 Also, if it is determined in step S89 that the object number of the object to be processed is not less than N, the selective decoding process ends because audio signals have been obtained for all channels and objects, and then the process continues as shown in FIG. to step S53.
以上のようにして、復号装置151は、各チャネルまたは各オブジェクトについて、優先度情報と閾値とを比較して、処理対象のフレームのチャネルやオブジェクトごとに符号化されたオーディオ信号の復号を行うか否かを判定しながら、符号化されたオーディオ信号を復号する。
As described above, the
すなわち、復号装置151では、各オーディオ信号の優先度情報に応じた所定の数だけ、符号化されたオーディオ信号が復号され、残りのオーディオ信号は復号されない。
That is, the
これにより、再生環境に合わせて優先度合いの高いオーディオ信号のみを選択的に復号することができ、オーディオ信号により再生される音声の音質の劣化を最小限に抑えつつ、復号の計算量を低減させることができる。 As a result, it is possible to selectively decode only audio signals with a high priority according to the reproduction environment, thereby minimizing the deterioration of the sound quality of the sound reproduced by the audio signals and reducing the computational complexity of decoding. be able to.
しかも、各オブジェクトのオーディオ信号の優先度情報に基づいて、符号化されたオーディオ信号の復号を行うことで、オーディオ信号の復号の計算量だけでなく、レンダリング部162等における処理など、その後の処理の計算量も低減させることができる。
Moreover, by decoding the encoded audio signal based on the priority information of the audio signal of each object, not only the computational complexity of decoding the audio signal, but also the subsequent processing such as the processing in the
〈第1の実施の形態の変形例1〉
〈優先度情報について〉
なお、以上においては各チャネルや各オブジェクトの1つのオーディオ信号に対して、1つの優先度情報が生成されると説明したが、複数の優先度情報が生成されるようにしてもよい。
<
<About priority information>
In the above description, one piece of priority information is generated for one audio signal of each channel or each object, but a plurality of pieces of priority information may be generated.
そのような場合、例えば複数の各優先度情報は復号の計算量、すなわち復号側の計算能力に応じて、計算能力ごとに生成される。 In such a case, for example, a plurality of pieces of priority information are generated for each computational capacity according to the computational complexity of decoding, that is, the computational capacity of the decoding side.
具体的には、例えば2チャネル相当のオーディオ信号をリアルタイムに復号するための計算量に基づいて、2チャネル相当の計算能力を有する機器のための優先度情報が生成される。 Specifically, for example, based on the amount of calculation for decoding audio signals corresponding to two channels in real time, priority information is generated for a device having a calculation capability corresponding to two channels.
このような2チャネル相当の機器のための優先度情報では、例えば全オーディオ信号のうち、より優先度合いが低い、つまり0に近い値が優先度情報として割り当てられるオーディオ信号が多くなるように優先度情報が生成される。 For such priority information for a device equivalent to two channels, for example, among all audio signals, the priority is assigned so that the number of audio signals with a lower priority, that is, a value close to 0, is assigned as priority information. Information is generated.
また、例えば24チャネル相当のオーディオ信号をリアルタイムに復号するための計算量に基づいて、24チャネル相当の計算能力を有する機器のための優先度情報も生成される。24チャネル相当の機器のための優先度情報では、例えば全オーディオ信号のうち、より優先度合いが高い、つまり7に近い値が優先度情報として割り当てられるオーディオ信号が多くなるように優先度情報が生成される。 Also, for example, based on the amount of calculation for decoding audio signals corresponding to 24 channels in real time, priority information for devices having calculation capability corresponding to 24 channels is also generated. Priority information for devices with 24 channels is generated so that, among all audio signals, for example, the number of audio signals with a higher priority, that is, a value close to 7, is assigned as priority information. be done.
この場合、例えば優先度情報生成部52は、図8のステップS11において、各チャネルのオーディオ信号に対して2チャネル相当の機器のための優先度情報を生成するとともに、それらの優先度情報に2チャネル相当の機器のためのものであることを示す識別子を付加し、パッキング部24に供給する。
In this case, for example, in step S11 of FIG. 8, the priority
さらに、優先度情報生成部52は、ステップS11において、各チャネルのオーディオ信号に対して24チャネル相当の機器のための優先度情報も生成するとともに、それらの優先度情報に24チャネル相当の機器のためのものであることを示す識別子を付加し、パッキング部24に供給する。
Furthermore, in step S11, the priority
同様に、優先度情報生成部92も図8のステップS13において、2チャネル相当の機器のための優先度情報と、24チャネル相当の機器のための優先度情報とを生成して識別子を付加し、パッキング部24に供給する。
Similarly, in step S13 of FIG. 8, the priority
これにより、例えばポータブルオーディオプレーヤや、多機能型携帯電話機、タブレット型コンピュータ、テレビジョン受像機、パーソナルコンピュータ、高品位な音響機器などの再生機器の計算能力に応じた優先度情報が複数得られることになる。 As a result, a plurality of pieces of priority information can be obtained according to the computing power of playback devices such as portable audio players, multifunctional mobile phones, tablet computers, television receivers, personal computers, and high-quality audio equipment. become.
例えばポータブルオーディオプレーヤなどの再生機器は、比較的計算能力が低いので、そのような再生機器では、2チャネル相当の機器のための優先度情報に基づいて符号化されたオーディオ信号を復号すれば、リアルタイムでオーディオ信号の再生を行うことができる。 For example, a playback device such as a portable audio player has relatively low computational power, so if such a playback device decodes an audio signal encoded based on priority information for two channels worth of devices, Playback of audio signals can be performed in real time.
以上のように、1つのオーディオ信号に対して複数の優先度情報が生成される場合、復号装置151では、例えば上位の制御装置により、複数の優先度情報のうちのどの優先度情報を用いて復号を行うかが優先度情報取得部191等に対して指示がされる。どの優先度情報を用いるかの指示は、例えば識別子が供給されることにより行われる。
As described above, when a plurality of pieces of priority information are generated for one audio signal, in the
なお、どの識別子の優先度情報を用いるかが、復号装置151ごとに予め定められているようにしてもよい。
It should be noted that the identifier priority information to be used may be determined in advance for each
例えば優先度情報取得部191において、予めどの識別子の優先度情報を用いるかが定められた場合、または上位の制御装置により識別子が指定された場合、図12のステップS81では、優先度情報取得部191は、定められた識別子が付加されている優先度情報を取得する。そして、取得された優先度情報が優先度情報取得部191から、出力選択部194や出力選択部199に供給される。
For example, in the priority
換言すれば、ビットストリームに格納されている複数の優先度情報のなかから、復号装置151、より詳細にはアンパッキング/復号部161の計算能力等に応じて適切な優先度情報が1つ選択される。
In other words, from among the plurality of priority information stored in the bitstream, one appropriate priority information is selected according to the computing power of the
この場合、各チャネルの優先度情報と、各オブジェクトの優先度情報とで異なる識別子が利用されてビットストリームから優先度情報が読み出されてもよい。 In this case, the priority information may be read from the bitstream using different identifiers for the priority information of each channel and the priority information of each object.
このように、ビットストリームに含まれている複数の優先度情報のなかから、特定の優先度情報を選択して取得することにより、復号装置151の計算能力等に応じて適切な優先度情報を選択し、復号を行うことができる。これにより、何れの復号装置151においてもリアルタイムでオーディオ信号を再生することができるようになる。
In this way, by selecting and acquiring specific priority information from a plurality of pieces of priority information included in the bitstream, appropriate priority information can be obtained according to the computing power of the
〈第2の実施の形態〉
〈アンパッキング/復号部の構成例〉
なお、以上においては、符号化装置11から出力されるビットストリームに優先度情報が含まれている例について説明したが、符号化装置によっては、ビットストリームに優先度情報が含まれていないこともあり得る。
<Second embodiment>
<Configuration example of unpacking/decoding section>
In the above description, an example in which the bitstream output from the
そこで、復号装置151において優先度情報を生成するようにしてもよい。例えば、ビットストリームに含まれているオーディオ信号の符号化データから抽出できる、オーディオ信号の音圧を示す情報やスペクトル形状を示す情報を用いて優先度情報を生成することが可能である。
Therefore, priority information may be generated in the
このように、復号装置151において優先度情報を生成する場合、復号装置151のアンパッキング/復号部161は、例えば図13に示すように構成される。なお、図13において、図10における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
When generating priority information in the
図13に示すアンパッキング/復号部161は、チャネルオーディオ信号取得部192、チャネルオーディオ信号復号部193、出力選択部194、0値出力部195、IMDCT部196、オブジェクトオーディオ信号取得部197、オブジェクトオーディオ信号復号部198、出力選択部199、0値出力部200、IMDCT部201、優先度情報生成部231、および優先度情報生成部232を有している。
The unpacking/
図13に示すアンパッキング/復号部161の構成は、優先度情報取得部191が設けられておらず、新たに優先度情報生成部231、および優先度情報生成部232が設けられている点で図10のアンパッキング/復号部161と異なり、他の構成は図10のアンパッキング/復号部161と同じとなっている。
The configuration of unpacking/
チャネルオーディオ信号取得部192は、供給されたビットストリームから各チャネルの符号化データを取得して、チャネルオーディオ信号復号部193および優先度情報生成部231に供給する。
The channel audio
優先度情報生成部231は、チャネルオーディオ信号取得部192から供給された各チャネルの符号化データに基づいて、各チャネルの優先度情報を生成し、出力選択部194に供給する。
The priority
オブジェクトオーディオ信号取得部197は、供給されたビットストリームから各オブジェクトの符号化データを取得して、オブジェクトオーディオ信号復号部198および優先度情報生成部232に供給する。また、オブジェクトオーディオ信号取得部197は、供給されたビットストリームから各オブジェクトのメタデータを取得して、レンダリング部162に供給する。
The object audio
優先度情報生成部232は、オブジェクトオーディオ信号取得部197から供給された各オブジェクトの符号化データに基づいて、各オブジェクトの優先度情報を生成し、出力選択部199に供給する。
The priority
〈選択復号処理の説明〉
アンパッキング/復号部161が図13に示した構成とされる場合、復号装置151は、図11に示した復号処理のステップS52に対応する処理として、図14に示す選択復号処理を行う。以下、図14のフローチャートを参照して、復号装置151による選択復号処理について説明する。
<Description of selective decryption processing>
When the unpacking/
ステップS131において、優先度情報生成部231は各チャネルのオーディオ信号の優先度情報を生成する。
In step S131, the
例えばチャネルオーディオ信号取得部192は、供給されたビットストリームから各チャネルの符号化データを取得して、チャネルオーディオ信号復号部193および優先度情報生成部231に供給する。
For example, the channel audio
優先度情報生成部231は、チャネルオーディオ信号取得部192から供給された各チャネルの符号化データに基づいて各チャネルの優先度情報を生成し、出力選択部194に供給する。
The priority
例えばビットストリームには、オーディオ信号の符号化データとして、MDCT係数を得るためのスケールファクタ、サイド情報、および量子化スペクトルが含まれている。ここで、スケールファクタはオーディオ信号の音圧を示す情報であり、量子化スペクトルはオーディオ信号のスペクトル形状を示す情報である。 For example, the bitstream contains scale factors for obtaining MDCT coefficients, side information, and quantization spectra as coded data of the audio signal. Here, the scale factor is information indicating the sound pressure of the audio signal, and the quantization spectrum is information indicating the spectral shape of the audio signal.
優先度情報生成部231は、各チャネルの符号化データとして含まれているスケールファクタや量子化スペクトルに基づいて、各チャネルのオーディオ信号の優先度情報を生成する。このように、スケールファクタや量子化スペクトルを用いて優先度情報を生成すれば、符号化データの復号を行う前に、直ちに優先度情報を得ることができ、優先度情報の生成のための計算量も低減させることができる。
The priority
なお、優先度情報は、その他、MDCT係数の自乗平均値を計算することで得られる、オーディオ信号の音圧や、MDCT係数のピーク包絡から得られるオーディオ信号のスペクトル形状に基づいて生成されるようにしてもよい。この場合、優先度情報生成部231は、適宜、符号化データの復号を行ったり、チャネルオーディオ信号復号部193からMDCT係数を取得したりする。
The priority information is also generated based on the sound pressure of the audio signal, which is obtained by calculating the mean square value of the MDCT coefficients, and the spectral shape of the audio signal, which is obtained from the peak envelope of the MDCT coefficients. can be In this case, the priority
各チャネルの優先度情報が得られると、その後、ステップS132乃至ステップS137の処理が行われるが、これらの処理は図12のステップS82乃至ステップS87の処理と同様であるので、その説明は省略する。但し、この場合、すでに各チャネルの符号化データは取得されているので、ステップS134では符号化データの復号のみが行われる。 After the priority information of each channel is obtained, the processes of steps S132 to S137 are performed. Since these processes are the same as the processes of steps S82 to S87 in FIG. 12, the description thereof is omitted. . However, in this case, since the encoded data of each channel has already been acquired, only the encoded data is decoded in step S134.
また、ステップS133において、チャネル番号がM未満でないと判定されると、ステップS138において、優先度情報生成部232は各オブジェクトのオーディオ信号の優先度情報を生成する。
Also, when it is determined in step S133 that the channel number is not less than M, in step S138 the priority
例えばオブジェクトオーディオ信号取得部197は、供給されたビットストリームから各オブジェクトの符号化データを取得して、オブジェクトオーディオ信号復号部198および優先度情報生成部232に供給する。また、オブジェクトオーディオ信号取得部197は、供給されたビットストリームから各オブジェクトのメタデータを取得して、レンダリング部162に供給する。
For example, the object audio
優先度情報生成部232は、オブジェクトオーディオ信号取得部197から供給された各オブジェクトの符号化データに基づいて各オブジェクトの優先度情報を生成し、出力選択部199に供給する。例えば優先度情報は、各チャネルにおける場合と同様に、スケールファクタや量子化スペクトルに基づいて生成される。
The priority
また、MDCT係数から得られる音圧やスペクトル形状に基づいて優先度情報が生成されてもよい。この場合、優先度情報生成部232は、適宜、符号化データの復号を行ったり、オブジェクトオーディオ信号復号部198からMDCT係数を取得したりする。
Also, priority information may be generated based on the sound pressure and spectral shape obtained from the MDCT coefficients. In this case, the
各オブジェクトの優先度情報が得られると、その後、ステップS139乃至ステップS144の処理が行われて選択復号処理は終了するが、これらの処理は図12のステップS88乃至ステップS93の処理と同様であるので、その説明は省略する。但し、この場合、すでに各オブジェクトの符号化データは取得されているので、ステップS141では符号化データの復号のみが行われる。 After the priority information of each object is obtained, the processing of steps S139 to S144 is performed, and the selective decoding processing ends. These processings are the same as the processing of steps S88 to S93 in FIG. Therefore, its description is omitted. However, in this case, since the encoded data of each object has already been acquired, only the encoded data is decoded in step S141.
選択復号処理が終了すると、その後、処理は図11のステップS53へと進む。 After the selective decoding process ends, the process proceeds to step S53 in FIG.
以上のようにして、復号装置151は、ビットストリームに含まれている符号化データに基づいて、各チャネルや各オブジェクトのオーディオ信号の優先度情報を生成する。このように復号装置151において優先度情報を生成することで、各オーディオ信号について適切な優先度情報を少ない計算量で得ることができ、復号の計算量やレンダリング等の計算量を低減させることができる。また、オーディオ信号により再生される音声の音質の劣化を最小限に抑えることもできる。
As described above, the
なお、図10に示したアンパッキング/復号部161の優先度情報取得部191が、供給されたビットストリームから、各チャネルおよび各オブジェクトのオーディオ信号の優先度情報を取得しようとしたが、ビットストリームから優先度情報が取得できなかった場合に、優先度情報が生成されるようにしてもよい。そのような場合、優先度情報取得部191は、優先度情報生成部231や優先度情報生成部232と同様の処理を行い、符号化データから各チャネルおよび各オブジェクトのオーディオ信号の優先度情報を生成する。
Note that the priority
〈第3の実施の形態〉
〈優先度情報の閾値について〉
さらに、以上においては、各チャネルや各オブジェクトについて、優先度情報と、閾値Pや閾値Qとを比較して復号するオーディオ信号、より詳細にはIMDCTを行うMDCT係数を選択すると説明したが、これらの閾値Pや閾値Qがオーディオ信号のフレームごとに動的に変更されるようにしてもよい。
<Third embodiment>
<Regarding the threshold of priority information>
Furthermore, in the above description, priority information is compared with threshold value P and threshold value Q to select audio signals to be decoded, more specifically, MDCT coefficients for IMDCT are selected for each channel and each object. may be dynamically changed for each frame of the audio signal.
例えば図10に示したアンパッキング/復号部161の優先度情報取得部191では、復号を必要とせずに、ビットストリームから各チャネルおよび各オブジェクトの優先度情報を取得することができる。
For example, the priority
したがって、例えば優先度情報取得部191が全チャネルのオーディオ信号の優先度情報を読み出せば、処理対象となっているフレームにおける優先度情報の分布を得ることができる。また、復号装置151では、例えば何チャネルまでなら同時に、つまりリアルタイムで処理できるかなど、予め自分自身の計算能力が分かっている。
Therefore, for example, if the priority
そこで、優先度情報取得部191が処理対象のフレームにおける優先度情報の分布と、復号装置151の計算能力とに基づいて、その処理対象のフレームについての優先度情報の閾値Pを定めるようにしてもよい。
Therefore, the priority
例えば閾値Pは、復号装置151がリアルタイムで処理を行うことのできる範囲内で最も多くのオーディオ信号が復号されるように定められる。
For example, the threshold value P is determined so that the maximum number of audio signals is decoded within the range that the
また、優先度情報取得部191は、閾値Pにおける場合と同様に閾値Qを動的に定めることができる。この場合、優先度情報取得部191は全オブジェクトのオーディオ信号の優先度情報に基づいて、それらの優先度情報の分布を求め、求めた分布と、復号装置151の計算能力とに基づいて、処理対象のフレームについての優先度情報の閾値Qを定める。
In addition, the priority
このような閾値Pや閾値Qの決定は、比較的少ない計算量で行うことができる。 Such determination of the threshold P and the threshold Q can be performed with a relatively small amount of calculation.
このように優先度情報の閾値を動的に変化させることで、リアルタイムで復号を行いつつ、オーディオ信号により再生される音声の音質の劣化を最小限に抑えることができる。特にこのような場合、優先度情報を複数用意する必要がなく、また優先度情報に識別子を設ける必要もないので、ビットストリームの符号量も少なくてすむ。 By dynamically changing the threshold of the priority information in this way, it is possible to minimize the deterioration of the sound quality of the sound reproduced by the audio signal while decoding in real time. Especially in such a case, there is no need to prepare a plurality of pieces of priority information, and there is no need to provide an identifier for the priority information, so the code amount of the bitstream can be reduced.
〈オブジェクトのメタデータについて〉
さらに、以上において説明した第1の実施の形態乃至第3の実施の形態では、ビットストリームの先頭のエレメントには、1フレーム分のオブジェクトのメタデータや優先度情報などが格納されると説明した。
<About object metadata>
Furthermore, in the first to third embodiments described above, it was explained that the leading element of the bitstream stores object metadata and priority information for one frame. .
この場合、ビットストリームの先頭のエレメントにおける、オブジェクトのメタデータおよび優先度情報が格納される部分のシンタックスは、例えば図15に示すようになる。 In this case, the syntax of the portion where the object metadata and priority information are stored in the head element of the bitstream is as shown in FIG. 15, for example.
図15に示す例では、オブジェクトのメタデータのなかに、オブジェクトの空間位置情報と優先度情報が1フレーム分だけ格納されている。 In the example shown in FIG. 15, the object's spatial position information and priority information for only one frame are stored in the object's metadata.
この例では「num_objects」はオブジェクトの数を示している。また、「object_priority[o]」はO番目のオブジェクトの優先度情報を示している。ここで、O番目のオブジェクトとは、オブジェクト番号により特定されるオブジェクトである。 In this example, "num_objects" indicates the number of objects. Also, "object_priority[o]" indicates the priority information of the O-th object. Here, the O-th object is an object specified by an object number.
「position_azimuth[o]」は、視聴者であるユーザからみた、つまり所定の基準位置からみたO番目のオブジェクトの3次元空間位置を表す水平方向角度を示している。また、「position_elevation[o]」は、視聴者であるユーザからみたO番目のオブジェクトの3次元空間位置を表す垂直方向角度を示している。さらに「position_radius[o]」は、視聴者からO番目のオブジェクトまでの距離を示している。 "position_azimuth[o]" indicates a horizontal angle representing the three-dimensional spatial position of the O-th object as seen from the user who is the viewer, that is, as seen from a predetermined reference position. Also, "position_elevation[o]" indicates the vertical angle representing the three-dimensional spatial position of the O-th object as seen from the user who is the viewer. Furthermore, "position_radius[o]" indicates the distance from the viewer to the Oth object.
したがって、3次元空間におけるオブジェクトの位置は、これらの「position_azimuth[o]」、「position_elevation[o]」、および「position_radius[o]」から特定されることになり、これらの情報がオブジェクトの空間位置情報とされる。 Therefore, the position of the object in the three-dimensional space is specified from these "position_azimuth[o]", "position_elevation[o]", and "position_radius[o]", and this information is the spatial position of the object. regarded as information.
また、「gain_factor[o]」はO番目のオブジェクトの利得を示している。 Also, "gain_factor[o]" indicates the gain of the O-th object.
このように、図15に示すメタデータには、1つのオブジェクトについての「object_priority[o]」、「position_azimuth[o]」、「position_elevation[o]」、「position_radius[o]」、および「gain_factor[o]」が、そのオブジェクトのデータとして順番に配置されている。そして、メタデータ内には、各オブジェクトのデータが、例えばオブジェクトのオブジェクト番号順に並べられて配置されている。 Thus, the metadata shown in FIG. 15 includes "object_priority[o]", "position_azimuth[o]", "position_elevation[o]", "position_radius[o]", and "gain_factor[o]" for one object. o]” are arranged in order as the data of the object. In the metadata, the data of each object are arranged in the order of the object number of the object, for example.
〈第4の実施の形態〉
〈オーディオ信号の完全再構成と不連続性に起因するノイズについて〉
以上においては、復号装置151においてビットストリームから読み出されたチャネルまたはオブジェクトごとの各フレーム(以下では、特に時間フレームと称する)の優先度情報が、予め定められた閾値未満である場合にIMDCT等の復号処理を省くことで、復号時の処理量を削減する例について説明した。具体的には、優先度情報が閾値未満である場合には、0値出力部195や0値出力部200から無音のオーディオ信号を出力する、つまりオーディオ信号として0データを出力すると説明した。
<Fourth Embodiment>
<Complete Reconstruction of Audio Signals and Noise Caused by Discontinuity>
In the above, when the priority information of each frame (hereinafter particularly referred to as a time frame) for each channel or object read from the bitstream in the
ところが、そのような場合、聴感上の音質劣化が生じてしまう。具体的には、オーディオ信号の完全再構成に起因する音質劣化と、グリッチノイズ等の信号の不連続性に起因するノイズの発生による音質劣化が生じる。 However, in such a case, the sound quality deteriorates in terms of audibility. Specifically, sound quality deterioration due to complete reconstruction of the audio signal and sound quality deterioration due to the generation of noise such as glitch noise due to discontinuity of the signal occurs.
(完全再構成に起因する音質劣化)
例えば、優先度情報が閾値未満である場合にオーディオ信号として0データを出力すると、0データの出力と、0データではない通常のオーディオ信号の出力との切り替え時に音質劣化が生じる。
(Sound quality deterioration due to perfect reconstruction)
For example, if 0 data is output as an audio signal when the priority information is less than the threshold, sound quality deterioration occurs when switching between the output of 0 data and the output of a normal audio signal that is not 0 data.
上述したようにアンパッキング/復号部161では、IMDCT部196やIMDCT部201において、ビットストリームから読み出された時間フレームごとのMDCT係数に対してIMDCTが行われる。そして、より詳細にはアンパッキング/復号部161では、現時間フレームについてのIMDCTの結果または0データと、1時間フレーム前のIMDCTの結果または0データとから、現時間フレームのオーディオ信号が生成される。
As described above, in unpacking/
ここで、オーディオ信号の生成について、図16を参照して説明する。なお、ここでは、オブジェクトのオーディオ信号の生成を例として説明するが、各チャネルのオーディオ信号の生成についても同様である。また、以下では、0値出力部200から出力されるオーディオ信号、およびIMDCT部201から出力されるオーディオ信号を、特にIMDCT信号とも称することとする。同様に、0値出力部195から出力されるオーディオ信号、およびIMDCT部196から出力されるオーディオ信号を、特にIMDCT信号とも称することとする。
Here, generation of an audio signal will be described with reference to FIG. Here, the generation of the audio signal of the object will be described as an example, but the generation of the audio signal of each channel is the same. Also, hereinafter, the audio signal output from the 0-
図16では、図中、横方向は時間を示しており、文字「data[n-1]」乃至「data[n+2]」が記された長方形は、それぞれ所定のオブジェクトの時間フレーム(n-1)乃至時間フレーム(n+2)のビットストリームを表している。また、各時間フレームのビットストリーム内の数値は、その時間フレームのオブジェクトの優先度情報の値を示しており、この例では各時間フレームの優先度情報の値は「7」となっている。 In FIG. 16, the horizontal direction indicates time, and the rectangles marked with the letters "data[n-1]" to "data[n+2]" are the time frames (n -1) to time frames (n+2). Also, the numerical value in the bitstream of each time frame indicates the value of the priority information of the object of that time frame, and in this example, the value of the priority information of each time frame is "7".
さらに、図16において文字「MDCT_coef[q]」(但し、q=n-1,n,…)が記された長方形は、それぞれ時間フレーム(q)のMDCT係数を表している。 Furthermore, in FIG. 16, rectangles marked with the letters “MDCT_coef[q]” (where q=n-1, n, . . . ) each represent the MDCT coefficients of the time frame (q).
いま、閾値Q=4であるとすると、時間フレーム(n-1)の優先度情報の値「7」は閾値Q以上であるので、時間フレーム(n-1)についてのMDCT係数に対してIMDCTが行われる。同様に、時間フレーム(n)の優先度情報の値「7」も閾値Q以上であるので、時間フレーム(n)についてのMDCT係数に対してIMDCTが行われる。 Now, assuming that the threshold Q is 4, the value "7" of the priority information of the time frame (n-1) is greater than or equal to the threshold Q. is done. Similarly, since the priority information value "7" for time frame (n) is also equal to or greater than threshold Q, IMDCT is performed on the MDCT coefficients for time frame (n).
その結果、時間フレーム(n-1)のIMDCT信号OPS11と、時間フレーム(n)のIMDCT信号OPS12が得られたとする。 As a result, it is assumed that an IMDCT signal OPS11 of time frame (n-1) and an IMDCT signal OPS12 of time frame (n) are obtained.
この場合、アンパッキング/復号部161は、時間フレーム(n)のIMDCT信号OPS12の前半部分と、1時間フレーム前の時間フレーム(n-1)のIMDCT信号OPS11の後半部分とを足し合わせて、時間フレーム(n)のオーディオ信号、つまり期間FL(n)のオーディオ信号とする。換言すれば、IMDCT信号OPS11の期間FL(n)の部分と、IMDCT信号OPS12の期間FL(n)の部分とがオーバーラップ加算されて、処理対象のオブジェクトの符号化前の時間フレーム(n)のオーディオ信号が再現される。
In this case, the unpacking/
このような処理は、IMDCT信号がMDCT前の信号に完全再構成されるために必要な処理である。 Such processing is necessary for completely reconstructing the IMDCT signal into a pre-MDCT signal.
しかしながら、上述したアンパッキング/復号部161では、例えば図17に示すように、各時間フレームの優先度情報に応じて、IMDCT部201のIMDCT信号と0値出力部200のIMDCT信号を切り替えるタイミングにおいて、IMDCT信号がMDCT前の信号に完全再構成されなくなる。つまり、オーバーラップ加算時にもとの信号ではなく0データが用いられると、完全再構成されないため、もとのオーディオ信号を再現することができず、オーディオ信号の聴感上の音質が劣化してしまう。
However, in the above-described unpacking/
なお、図17において、図16における場合と対応する部分には同一の文字等を記してあり、その説明は省略する。 In FIG. 17, the same characters and the like are written in the parts corresponding to those in FIG. 16, and the description thereof will be omitted.
図17の例では、時間フレーム(n-1)の優先度情報の値は「7」であるが、他の時間フレーム(n)乃至時間フレーム(n+2)の優先度情報は最も低い「0」となっている。 In the example of FIG. 17, the priority information value of the time frame (n-1) is "7", but the priority information of the other time frames (n) to (n+2) is the lowest " 0”.
したがって、閾値Q=4であるとすると、時間フレーム(n-1)については、IMDCT部201においてMDCT係数に対するIMDCTが行われ、時間フレーム(n-1)のIMDCT信号OPS21が得られる。これに対して、時間フレーム(n)については、MDCT係数に対するIMDCTが行われず、0値出力部200から出力される0データが時間フレーム(n)のIMDCT信号OPS22とされる。
Therefore, assuming that the threshold value Q=4, the
この場合、時間フレーム(n)のIMDCT信号OPS22である0データの前半部分と、その1時間フレーム前の時間フレーム(n-1)のIMDCT信号OPS21の後半部分とが足し合わされて、最終的な時間フレーム(n)のオーディオ信号とされる。すなわち、IMDCT信号OPS22とIMDCT信号OPS21の期間FL(n)の部分がオーバーラップ加算されて、処理対象のオブジェクトの最終的な時間フレーム(n)のオーディオ信号とされる。 In this case, the first half of the 0 data, which is the IMDCT signal OPS22 of the time frame (n), and the second half of the IMDCT signal OPS21 of the time frame (n-1) one time frame before that are added together to obtain the final An audio signal of time frame (n). That is, the portions of the period FL(n) of the IMDCT signal OPS22 and the IMDCT signal OPS21 are overlap-added to obtain the final audio signal of the time frame (n) of the object to be processed.
このようにIMDCT信号の出力元がIMDCT部201から0値出力部200へと、または0値出力部200からIMDCT部201へと切り替わるときには、IMDCT部201からのIMDCT信号が完全再構成されなくなり、聴感上の音質の劣化が生じてしまう。
Thus, when the output source of the IMDCT signal switches from
(不連続性に起因するノイズの発生による音質劣化)
また、IMDCT信号の出力元がIMDCT部201から0値出力部200へと、または0値出力部200からIMDCT部201へと切り替わる場合、信号が完全再構成されないので、IMDCTにより得られたIMDCT信号と、0データとされたIMDCT信号との接続部分で信号が不連続となることがある。そうすると、その不連続な接続部分にグリッチノイズが発生し、オーディオ信号の聴感上の音質が劣化してしまう。
(Sound quality deterioration due to noise caused by discontinuity)
Also, when the output source of the IMDCT signal is switched from the
さらに、アンパッキング/復号部161において音質を向上させるために、IMDCT部201や0値出力部200から出力されたIMDCT信号をオーバーラップ加算して得られたオーディオ信号に対して、SBR(Spectral Band Replication)等の処理が行われることがある。
Furthermore, in order to improve sound quality in unpacking/
なお、IMDCT部201や0値出力部200の後段の処理として様々な処理が考えられるが、以下ではSBRを例として説明を続ける。
Various processes are conceivable as post-processing of the
SBRでは、低域成分である、オーバーラップ加算により得られたオーディオ信号と、ビットストリームに格納されている高域のパワー値とから、符号化前のもとのオーディオ信号の高域成分が生成される。 In SBR, the high frequency components of the original audio signal before encoding are generated from the audio signal obtained by overlap addition, which is the low frequency component, and the high frequency power value stored in the bitstream. be done.
具体的には、1時間フレーム分のオーディオ信号が、タイムスロットと呼ばれるいくつかの区間に分割され、各タイムスロットのオーディオ信号が低域の複数のサブバンドの信号(以下、低域サブバンド信号とも称する)に帯域分割される。 Specifically, an audio signal for one time frame is divided into several sections called time slots, and the audio signal in each time slot is a plurality of low-frequency sub-band signals (hereinafter referred to as low-frequency sub-band signals). ) are band-divided.
そして各サブバンドの低域サブバンド信号と、高域側のサブバンドごとのパワー値とに基づいて、高域の各サブバンドの信号(以下、高域サブバンド信号とも称する)が生成される。例えば、所定のサブバンドの低域サブバンド信号を高域の目的とするサブバンドのパワー値によりパワー調整したり、周波数シフトしたりすることで、目的とする高域サブバンド信号が生成される。 Then, based on the low-frequency sub-band signal of each sub-band and the power value of each high-frequency sub-band, a signal of each high-frequency sub-band (hereinafter also referred to as a high-frequency sub-band signal) is generated. . For example, the target high-frequency subband signal is generated by adjusting the power of the low-frequency sub-band signal of a predetermined sub-band according to the power value of the target high-frequency sub-band or by frequency-shifting it. .
さらに、高域サブバンド信号と低域サブバンド信号が合成されて、高域成分を含むオーディオ信号が生成され、タイムスロットごとに生成された高域成分を含むオーディオ信号が結合されて、高域成分を含む1時間フレームのオーディオ信号とされる。 Furthermore, the high frequency sub-band signal and the low frequency sub-band signal are combined to generate an audio signal containing high frequency components, and the audio signals containing high frequency components generated for each time slot are combined to produce a high frequency signal. An audio signal of one time frame containing components.
IMDCT部201や0値出力部200の後段において、このようなSBRが行われる場合、IMDCT部201から出力されたIMDCT信号からなるオーディオ信号については、SBRにより高域成分が生成される。ところが、0値出力部200から出力されたIMDCT信号は0データであるため、0値出力部200から出力されたIMDCT信号からなるオーディオ信号については、SBRにより得られる高域成分も0データとなってしまう。
When such SBR is performed in the subsequent stages of
そうすると、IMDCT信号の出力元がIMDCT部201から0値出力部200へと、または0値出力部200からIMDCT部201へと切り替わるときに、高域においても接続部分が不連続となってしまうことがある。そのような場合、グリッチノイズが発生し、聴感上の音質が劣化してしまう。
Then, when the output source of the IMDCT signal switches from the
そこで、本技術では前後の時間フレームを考慮したMDCT係数の出力先の選択、およびオーディオ信号に対するフェードイン処理とフェードアウト処理を行うことにより、上述した聴感上の音質劣化を抑制し、音質を向上させるようにした。 Therefore, in this technology, by selecting the output destination of the MDCT coefficients in consideration of the preceding and succeeding time frames, and by performing fade-in and fade-out processing on the audio signal, the above-mentioned deterioration in sound quality in terms of hearing is suppressed and the sound quality is improved. I made it
〈前後の時間フレームを考慮したMDCT係数の出力先の選択について〉
まず、前後の時間フレームを考慮したMDCT係数の出力先の選択について説明する。なお、ここでもオブジェクトのオーディオ信号を例として説明するが、各チャネルのオーディオ信号についても同様である。また、以下において説明する処理は、オブジェクトごと、およびチャネルごとに行われる。
<Regarding the selection of the output destination of the MDCT coefficients considering the previous and next time frames>
First, the selection of the output destination of the MDCT coefficients in consideration of the preceding and succeeding time frames will be described. Although the audio signal of the object will be described here as an example, the same applies to the audio signal of each channel. Also, the processing described below is performed for each object and for each channel.
例えば、上述した実施の形態では、出力選択部199は、現時間フレームの優先度情報に基づいて、各オブジェクトのMDCT係数の出力先を選択的に切り替えると説明した。これに対して、本実施の形態では、出力選択部199は、現時間フレーム、現時間フレームの1つ前の時間フレーム、および現時間フレームの1つ後の時間フレームの時間的に連続する3つの時間フレームの優先度情報に基づいて、MDCT係数の出力先を切り替える。換言すれば、連続する3つの時間フレームの優先度情報に基づいて、符号化データの復号を行うか否かが選択される。
For example, in the embodiments described above, the
具体的には、出力選択部199は、処理対象のオブジェクトについて、次式(1)に示す条件式が満たされる場合、そのオブジェクトの時間フレーム(n)のMDCT係数をIMDCT部201に供給する。
Specifically, the
式(1)において、object_priority[q](但し、q=n-1,n,n+1)は各時間フレーム(q)の優先度情報を示しており、threは閾値Qを示している。 In equation (1), object_priority[q] (where q=n−1, n, n+1) indicates priority information for each time frame (q), and thre indicates the threshold Q.
したがって、現時間フレームと、現時間フレームの前後の時間フレームとの合計3つの連続する時間フレームにおいて、1つでも優先度情報が閾値Q以上となる時間フレームがある場合、MDCT係数の供給先としてIMDCT部201が選択される。この場合、符号化データの復号、より詳細にはMDCT係数に対するIMDCTが行われる。これに対して、それらの3つの時間フレームの優先度情報が全て閾値Q未満である場合、MDCT係数が0とされて0値出力部200に出力される。この場合、符号化データの復号、より詳細にはMDCT係数に対するIMDCTは実質的に行われない。
Therefore, in a total of three consecutive time frames, the current time frame and the time frames before and after the current time frame, if there is at least one time frame in which the priority information is equal to or greater than the threshold Q, the MDCT coefficient is supplied to The
これにより、図18に示すようにIMDCT信号からオーディオ信号が完全再構成され、聴感上の音質の劣化が抑制される。なお、図18において、図16における場合と対応する部分には同一の文字等を記してあり、その説明は省略する。 As a result, the audio signal is completely reconstructed from the IMDCT signal as shown in FIG. 18, and the deterioration of the sound quality perceptually is suppressed. In FIG. 18, portions corresponding to those in FIG. 16 are denoted by the same letters and the like, and description thereof will be omitted.
図18の上側に示す例では、各時間フレームの優先度情報の値が図17に示した例と同じとなっている。例えば閾値Q=4であるとすると、図中、上側に示す例では時間フレーム(n-1)の優先度情報は閾値Q以上であるが、時間フレーム(n)乃至時間フレーム(n+2)では、優先度情報が閾値Q未満となっている。 In the example shown on the upper side of FIG. 18, the values of the priority information for each time frame are the same as in the example shown in FIG. For example, if the threshold Q is 4, the priority information of the time frame (n-1) is equal to or higher than the threshold Q in the example shown on the upper side of the figure, but the priority information of the time frame (n) to the time frame (n+2) , the priority information is less than the threshold Q.
そのため、式(1)に示した条件式から、時間フレーム(n-1)と時間フレーム(n)のMDCT係数に対してIMDCTが行われ、それぞれIMDCT信号OPS31とIMDCT信号OPS32が得られる。これに対して、条件式が満たされない時間フレーム(n+1)では、MDCT係数に対するIMDCTが行われず、0データがIMDCT信号OPS33とされる。 Therefore, IMDCT is performed on the MDCT coefficients of time frame (n-1) and time frame (n) from the conditional expression shown in equation (1) to obtain IMDCT signal OPS31 and IMDCT signal OPS32, respectively. On the other hand, in the time frame (n+1) where the conditional expression is not satisfied, the IMDCT is not performed on the MDCT coefficients, and 0 data is used as the IMDCT signal OPS33.
したがって、図17の例では完全再構成されなかった時間フレーム(n)のオーディオ信号が、図18の上側に示す例では完全再構成されるようになり、聴感上の音質の劣化が抑制される。但し、この例では、その次の時間フレーム(n+1)でオーディオ信号が完全再構成されないため、時間フレーム(n)と時間フレーム(n+1)で後述するフェードアウト処理が行われ、聴感上の音質の劣化が抑制される。 Therefore, the audio signal of the time frame (n), which was not completely reconstructed in the example of FIG. 17, is completely reconstructed in the example shown in the upper part of FIG. . However, in this example, since the audio signal is not completely reconstructed in the next time frame (n+1), the fade-out process described later is performed in time frame (n) and time frame (n+1), resulting in deterioration of sound quality is suppressed.
また、図中、下側に示す例では、時間フレーム(n-1)乃至時間フレーム(n+1)で優先度情報が閾値Q未満となっており、時間フレーム(n+2)で優先度情報は閾値Q以上となっている。 In addition, in the example shown on the lower side of the figure, the priority information is less than the threshold Q in time frames (n-1) to (n+1), and the priority in time frame (n+2) The information is equal to or greater than the threshold Q.
そのため、式(1)に示した条件式から、条件式が満たされない時間フレーム(n)ではMDCT係数に対するIMDCTが行われず、0データがIMDCT信号OPS41とされる。これに対して、時間フレーム(n+1)および時間フレーム(n+2)のMDCT係数に対してIMDCTが行われ、それぞれIMDCT信号OPS42とIMDCT信号OPS43が得られる。 Therefore, from the conditional expression shown in equation (1), IMDCT is not performed on the MDCT coefficients in the time frame (n) where the conditional expression is not satisfied, and 0 data is used as the IMDCT signal OPS41. On the other hand, IMDCT is performed on the MDCT coefficients of time frame (n+1) and time frame (n+2) to obtain IMDCT signal OPS42 and IMDCT signal OPS43, respectively.
この例では、優先度情報が閾値Q未満の値から閾値Q以上の値へと切り替わった時間フレーム(n+2)で、オーディオ信号を完全再構成することができるため、聴感上の音質の劣化を抑制することができる。但し、この場合においても、その直前の時間フレーム(n+1)でオーディオ信号が完全再構成されないため、時間フレーム(n+1)と時間フレーム(n+2)で後述するフェードイン処理が行われ、聴感上の音質の劣化が抑制される。 In this example, since the audio signal can be completely reconstructed in the time frame (n+2) when the priority information switches from a value less than the threshold Q to a value greater than the threshold Q, the perceived sound quality is degraded. can be suppressed. However, even in this case, since the audio signal is not completely reconstructed in the time frame (n+1) immediately before that, the fade-in processing described later is performed in the time frame (n+1) and time frame (n+2). As a result, the deterioration of the sound quality on the sense of hearing is suppressed.
なお、ここでは、1時間フレーム分だけ優先度情報の先読みを行って、連続する3時間フレームの優先度情報からMDCT係数の出力先が選択されている。そのため、図中、上側で示した例の時間フレーム(n)と時間フレーム(n+1)でフェードアウト処理が行われ、図中、下側で示した例の時間フレーム(n+1)と時間フレーム(n+2)でフェードイン処理が行われる。 Here, the priority information for one time frame is read ahead, and the output destination of the MDCT coefficient is selected from the priority information for three consecutive time frames. Therefore, fade-out processing is performed in the example time frame (n) and time frame (n+1) shown in the upper part of the figure, and the time frame (n+1) and time frame (n+1) shown in the lower part of the figure are faded out. Fade-in processing is performed at frame (n+2).
しかし、2時間フレーム分の優先度情報の先読みを行うことができる場合には、図中、上側で示した例の時間フレーム(n+1)と時間フレーム(n+2)でフェードアウト処理が行われ、図中、下側で示した例の時間フレーム(n)と時間フレーム(n+1)でフェードイン処理が行われるようにしてもよい。 However, if priority information for two time frames can be prefetched, fade-out processing is performed in the example time frame (n+1) and time frame (n+2) shown in the upper part of the figure. Alternatively, the fade-in process may be performed at the time frame (n) and the time frame (n+1) shown on the lower side of the figure.
〈フェードイン処理とフェードアウト処理について〉
次に、オーディオ信号に対するフェードイン処理とフェードアウト処理について説明する。なお、ここでもオブジェクトのオーディオ信号を例として説明するが、各チャネルのオーディオ信号についても同様である。また、フェードイン処理とフェードアウト処理は、オブジェクトごと、およびチャネルごとに行われる。
<Regarding fade-in and fade-out processing>
Next, fade-in processing and fade-out processing for audio signals will be described. Although the audio signal of the object will be described here as an example, the same applies to the audio signal of each channel. Also, fade-in processing and fade-out processing are performed for each object and each channel.
本技術では、例えば図18に示した例のように、IMDCTにより得られたIMDCT信号と0データであるIMDCT信号とがオーバーラップ加算される時間フレームとその前または後の時間フレームにおいて、フェードイン処理またはフェードアウト処理が行われる。 In the present technology, as in the example shown in FIG. 18, fade-in is performed in a time frame in which an IMDCT signal obtained by IMDCT and an IMDCT signal that is 0 data are overlap-added and in a time frame before or after that. processing or fade-out processing is performed.
フェードイン処理では、その時間フレームのオーディオ信号の振幅(大きさ)が時間とともに大きくなるように、オーディオ信号に対するゲイン調整が行われる。逆にフェードアウト処理では、その時間フレームのオーディオ信号の振幅が時間とともに小さくなるように、オーディオ信号に対するゲイン調整が行われる。 In fade-in processing, gain adjustment is performed on the audio signal so that the amplitude (magnitude) of the audio signal in that time frame increases over time. Conversely, in fade-out processing, gain adjustment is performed on the audio signal so that the amplitude of the audio signal in that time frame decreases over time.
これにより、IMDCTにより得られたIMDCT信号と、0データとされたIMDCT信号との接続部分が不連続となる場合でも聴感上の音質の劣化を抑制することができる。なお、以下、このようなゲイン調整時にオーディオ信号に対して乗算されるゲイン値を、特にフェーディング信号ゲインとも称することとする。 As a result, even when the connecting portion between the IMDCT signal obtained by the IMDCT and the IMDCT signal with 0 data is discontinuous, it is possible to suppress the deterioration of the audible sound quality. Note that hereinafter, the gain value by which the audio signal is multiplied during such gain adjustment is also referred to as a fading signal gain.
さらに、本技術では、IMDCTにより得られたIMDCT信号と0データであるIMDCT信号との接続部分について、SBRにおいてもフェードイン処理またはフェードアウト処理が行われる。 Furthermore, in the present technology, fade-in processing or fade-out processing is also performed in SBR on the connecting portion between the IMDCT signal obtained by IMDCT and the IMDCT signal that is 0 data.
すなわち、SBRではタイムスロットごとに高域の各サブバンドのパワー値が用いられるが、本技術では、フェードイン処理用またはフェードアウト処理用にタイムスロットごとに定められたゲイン値が、高域の各サブバンドのパワー値に乗算されてSBRが行われる。
つまり、高域のパワー値のゲイン調整が行われる。
That is, in SBR, the power value of each high-frequency subband is used for each time slot, but in this technology, the gain value determined for each time slot for fade-in processing or fade-out processing is used for each high-frequency subband. SBR is performed by multiplying the subband power values.
That is, the gain adjustment of the power value of the high frequency is performed.
なお、以下、高域のパワー値に乗算される、タイムスロットごとに定められたゲイン値を、特にフェーディングSBRゲインとも称することとする。 In addition, hereinafter, the gain value determined for each time slot, which is multiplied by the high-frequency power value, is also referred to as a fading SBR gain.
具体的には、フェードイン処理用のフェーディングSBRゲインは、そのゲイン値が時間とともに大きくなるように、つまり時間的に後方のタイムスロットのフェーディングSBRゲインほど、その値が大きくなるように定められている。逆に、フェードアウト処理用のフェーディングSBRゲインは、時間的に後方のタイムスロットのフェーディングSBRゲインほど、その値が小さくなるように定められている。 Specifically, the fading SBR gain for fade-in processing is determined so that the gain value increases with time, that is, the fading SBR gain of the later time slot has a greater value. It is Conversely, the fading SBR gain for fade-out processing is determined such that the value of the fading SBR gain in the later time slot becomes smaller.
このように、SBR時にもフェードイン処理やフェードアウト処理を行うことで、高域が不連続となるときでも聴感上の音質の劣化を抑制することができる。 In this way, by performing fade-in processing and fade-out processing even during SBR, it is possible to suppress the deterioration of the audible sound quality even when the high frequencies become discontinuous.
このようなオーディオ信号および高域のパワー値に対するフェードイン処理やフェードアウト処理といったゲイン調整として、具体的には、例えば図19や図20に示す処理が行われることになる。なお、図19および図20において、図18における場合と対応する部分には同一の文字や符号等を記してあり、その説明は省略する。 Specifically, the processes shown in FIGS. 19 and 20, for example, are performed as gain adjustments such as fade-in processing and fade-out processing for such audio signals and high-frequency power values. 19 and 20, portions corresponding to those in FIG. 18 are denoted by the same characters, symbols, etc., and description thereof will be omitted.
図19に示す例は、図18における図中、上側に示した場合の例である。この例では、時間フレーム(n)および時間フレーム(n+1)のオーディオ信号に対して、折れ線GN11に示されるフェーディング信号ゲインが乗算されることになる。 The example shown in FIG. 19 is an example of the case shown on the upper side in FIG. In this example, the audio signals of time frame (n) and time frame (n+1) are multiplied by the fading signal gain indicated by line GN11.
折れ線GN11に示されるフェーディング信号ゲインの値は、時間フレーム(n)の部分では時間とともに「1」から「0」まで線形に変化し、時間フレーム(n+1)の部分では継続して「0」となっている。したがって、フェーディング信号ゲインによるオーディオ信号のゲイン調整によって、オーディオ信号は徐々に0データへと変化していくので、聴感上の音質の劣化を抑制することができる。 The value of the fading signal gain indicated by the polygonal line GN11 varies linearly with time from '1' to '0' in the portion of time frame (n), and continues to ' 0”. Therefore, by adjusting the gain of the audio signal using the fading signal gain, the audio signal gradually changes to 0 data, so that the deterioration of the sound quality perceptually can be suppressed.
また、この例では時間フレーム(n)の各タイムスロットの高域のパワー値に対して、矢印GN12に示されるフェーディングSBRゲインが乗算されることになる。 Also, in this example, the high frequency power value of each time slot of time frame (n) is multiplied by the fading SBR gain indicated by arrow GN12.
矢印GN12に示されるフェーディングSBRゲインの値は、時間的に後方のタイムスロットほど小さくなるように、「1」から「0」まで変化している。したがって、フェーディングSBRゲインによる高域のゲイン調整によって、オーディオ信号の高域成分は徐々に0データへと変化していくので、聴感上の音質の劣化を抑制することができる。 The value of the fading SBR gain indicated by the arrow GN12 varies from "1" to "0" so as to become smaller in the later time slots. Therefore, the high-frequency component of the audio signal gradually changes to 0 data by adjusting the high-frequency gain using the fading SBR gain, so it is possible to suppress the deterioration of the audible sound quality.
これに対して、図20に示す例は、図18における図中、下側に示した場合の例である。この例では、時間フレーム(n+1)および時間フレーム(n+2)のオーディオ信号に対して、折れ線GN21に示されるフェーディング信号ゲインが乗算されることになる。 On the other hand, the example shown in FIG. 20 is an example of the case shown on the lower side in FIG. In this example, the audio signals of time frame (n+1) and time frame (n+2) will be multiplied by the fading signal gain indicated by polygonal line GN21.
折れ線GN21に示されるフェーディング信号ゲインの値は、時間フレーム(n+1)の部分では継続して「0」となっており、時間フレーム(n+2)の部分では時間とともに「0」から「1」まで線形に変化している。したがって、フェーディング信号ゲインによるオーディオ信号のゲイン調整によって、オーディオ信号は徐々に0データから本来の信号へと変化していくので、聴感上の音質の劣化を抑制することができる。 The value of the fading signal gain indicated by the polygonal line GN21 is continuously "0" in the portion of the time frame (n+1), and gradually changes from "0" to "0" in the portion of the time frame (n+2). It changes linearly up to "1". Therefore, by adjusting the gain of the audio signal using the fading signal gain, the audio signal gradually changes from 0 data to the original signal.
また、この例では時間フレーム(n+2)の各タイムスロットの高域のパワー値に対して、矢印GN22に示されるフェーディングSBRゲインが乗算されることになる。 Also, in this example, the high frequency power value of each time slot of the time frame (n+2) is multiplied by the fading SBR gain indicated by the arrow GN22.
矢印GN22に示されるフェーディングSBRゲインの値は、時間的に後方のタイムスロットほど大きくなるように、「0」から「1」まで変化している。したがって、フェーディングSBRゲインによる高域のゲイン調整によって、オーディオ信号の高域成分は徐々に0データから本来の信号へと変化していくので、聴感上の音質の劣化を抑制することができる。 The value of the fading SBR gain indicated by the arrow GN22 varies from "0" to "1" so as to increase in the later time slots. Therefore, by adjusting the high-frequency gain using the fading SBR gain, the high-frequency component of the audio signal gradually changes from 0 data to the original signal.
〈アンパッキング/復号部の構成例〉
以上において説明したMDCT係数の出力先の選択と、フェードイン処理やフェードアウト処理といったゲイン調整とが行われる場合、アンパッキング/復号部161は、例えば図21に示すように構成される。なお、図21において、図10における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
<Configuration example of unpacking/decoding section>
When the selection of the output destination of the MDCT coefficients described above and the gain adjustment such as fade-in processing and fade-out processing are performed, the unpacking/
図21に示すアンパッキング/復号部161は優先度情報取得部191、チャネルオーディオ信号取得部192、チャネルオーディオ信号復号部193、出力選択部194、0値出力部195、IMDCT部196、オーバーラップ加算部271、ゲイン調整部272、SBR処理部273、オブジェクトオーディオ信号取得部197、オブジェクトオーディオ信号復号部198、出力選択部199、0値出力部200、IMDCT部201、オーバーラップ加算部274、ゲイン調整部275、およびSBR処理部276から構成される。
The unpacking/
図21に示すアンパッキング/復号部161の構成は、図10に示したアンパッキング/復号部161の構成に、さらにオーバーラップ加算部271乃至SBR処理部276が設けられた構成となっている。
The configuration of the unpacking/
オーバーラップ加算部271は、0値出力部195またはIMDCT部196から供給されたIMDCT信号(オーディオ信号)をオーバーラップ加算することにより、各時間フレームのオーディオ信号を生成し、ゲイン調整部272に供給する。
The
ゲイン調整部272は、優先度情報取得部191から供給された優先度情報に基づいて、オーバーラップ加算部271から供給されたオーディオ信号をゲイン調整し、SBR処理部273に供給する。
The
SBR処理部273は、優先度情報取得部191からタイムスロットごとの高域の各サブバンドのパワー値を取得するとともに、優先度情報取得部191から供給された優先度情報に基づいて高域のパワー値をゲイン調整する。また、SBR処理部273は、ゲイン調整された高域のパワー値を用いて、ゲイン調整部272から供給されたオーディオ信号に対してSBRを行い、その結果得られたオーディオ信号をミキシング部163に供給する。
The
オーバーラップ加算部274は、0値出力部200またはIMDCT部201から供給されたIMDCT信号(オーディオ信号)をオーバーラップ加算することにより、各時間フレームのオーディオ信号を生成し、ゲイン調整部275に供給する。
The
ゲイン調整部275は、優先度情報取得部191から供給された優先度情報に基づいて、オーバーラップ加算部274から供給されたオーディオ信号をゲイン調整し、SBR処理部276に供給する。
The
SBR処理部276は、優先度情報取得部191からタイムスロットごとの高域の各サブバンドのパワー値を取得するとともに、優先度情報取得部191から供給された優先度情報に基づいて高域のパワー値をゲイン調整する。また、SBR処理部276は、ゲイン調整された高域のパワー値を用いて、ゲイン調整部275から供給されたオーディオ信号に対してSBRを行い、その結果得られたオーディオ信号をレンダリング部162に供給する。
The
〈選択復号処理の説明〉
続いて、アンパッキング/復号部161が図21に示した構成とされる場合における復号装置151の動作について説明する。この場合、復号装置151は、図11を参照して説明した復号処理を行う。但し、ステップS52の選択復号処理として、図22に示す処理を行う。
<Description of selective decryption processing>
Next, the operation of
以下、図22のフローチャートを参照して、図11のステップS52の処理に対応する選択復号処理について説明する。 The selective decoding process corresponding to the process of step S52 in FIG. 11 will be described below with reference to the flowchart in FIG.
ステップS181において、優先度情報取得部191は、供給されたビットストリームから、各チャネルのオーディオ信号の高域のパワー値を取得してSBR処理部273に供給するとともに、ビットストリームから、各オブジェクトのオーディオ信号の高域のパワー値を取得してSBR処理部276に供給する。
In step S181, the priority
高域のパワー値が取得されると、その後ステップS182乃至ステップS187の処理が行われて処理対象のチャネルのオーディオ信号(IMDCT信号)が生成されるが、これらの処理は図12のステップS81乃至ステップS86の処理と同様であるので、その説明は省略する。 After the high-frequency power value is obtained, the processing of steps S182 to S187 is performed to generate the audio signal (IMDCT signal) of the channel to be processed. Since it is the same as the processing in step S86, the explanation thereof is omitted.
但し、ステップS186では、上述した式(1)と同様の条件式が満たされる場合、すなわち処理対象のチャネルの現時間フレームの優先度情報、およびその現時間フレームの直前および直後の各時間フレームの優先度情報のうちの1つでも閾値P以上である場合、優先度情報が閾値P以上であると判定される。また、0値出力部195またはIMDCT部196で生成されたIMDCT信号は、オーバーラップ加算部271に出力される。
However, in step S186, if a conditional expression similar to the above-described expression (1) is satisfied, that is, the priority information of the current time frame of the channel to be processed, and the priority information of the time frames immediately before and after the current time frame. If even one piece of priority information is greater than or equal to the threshold P, it is determined that the priority information is greater than or equal to the threshold P. Also, the IMDCT signal generated by the 0-
ステップS186において優先度情報が閾値P以上であると判定されなかったか、またはステップS187においてIMDCT信号が生成されると、ステップS188の処理が行われる。 If it is not determined in step S186 that the priority information is equal to or greater than the threshold value P, or if the IMDCT signal is generated in step S187, the process of step S188 is performed.
ステップS188において、オーバーラップ加算部271は、0値出力部195またはIMDCT部196から供給されたIMDCT信号のオーバーラップ加算を行い、その結果得られた現時間フレームのオーディオ信号をゲイン調整部272に供給する。
In step S188, the
具体的には、例えば図18を参照して説明したように、現時間フレームのIMDCT信号の前半部分と、直前の時間フレームのIMDCT信号の後半部分とが足し合わされて現時間フレームのオーディオ信号とされる。 Specifically, for example, as described with reference to FIG. 18, the first half of the IMDCT signal of the current time frame and the second half of the IMDCT signal of the previous time frame are added together to form the audio signal of the current time frame. be done.
ステップS189において、ゲイン調整部272は、優先度情報取得部191から供給された処理対象のチャネルの優先度情報に基づいて、オーバーラップ加算部271から供給されたオーディオ信号をゲイン調整し、SBR処理部273に供給する。
In step S189, the
具体的にはゲイン調整部272は、現時間フレームの直前の時間フレームの優先度情報が閾値P以上であり、かつ現時間フレームの優先度情報と、現時間フレームの直後の時間フレームの優先度情報が閾値P未満である場合、図19の折れ線GN11に示されるフェーディング信号ゲインでオーディオ信号のゲインを調整する。この場合、図19における時間フレーム(n)が現時間フレームに対応し、現時間フレームの直後の時間フレームでは、折れ線GN11に示されるように、フェーディング信号ゲイン=0でのゲイン調整が行われる。
Specifically, the
また、ゲイン調整部272は、現時間フレームの優先度情報が閾値P以上であり、現時間フレームの直前の2時間フレームの優先度情報がともに閾値P未満である場合、図20の折れ線GN21に示されるフェーディング信号ゲインでオーディオ信号のゲインを調整する。この場合、図20における時間フレーム(n+2)が現時間フレームに対応し、現時間フレームの直前の時間フレームでは、折れ線GN21に示されるように、フェーディング信号ゲイン=0でのゲイン調整が行われる。
If the priority information of the current time frame is equal to or greater than the threshold value P and the priority information of the two time frames immediately before the current time frame are both less than the threshold value P, the
なお、ゲイン調整部272は、これらの2つの例の場合のみゲイン調整を行い、それ以外の場合にはゲイン調整を行わず、オーディオ信号をそのままSBR処理部273に供給する。
Note that the
ステップS190において、SBR処理部273は、優先度情報取得部191から供給された、処理対象のチャネルの高域のパワー値および優先度情報に基づいて、ゲイン調整部272から供給されたオーディオ信号に対してSBRを行う。
In step S190, the
具体的には、SBR処理部273は、現時間フレームの直前の時間フレームの優先度情報が閾値P以上であり、かつ現時間フレームの優先度情報と、現時間フレームの直後の時間フレームの優先度情報が閾値P未満である場合、図19の矢印GN12に示されるフェーディングSBRゲインで高域のパワー値をゲイン調整する。すなわち、高域のパワー値にフェーディングSBRゲインが乗算される。
Specifically, the
そして、SBR処理部273は、ゲイン調整された高域のパワー値を用いてSBRを行い、その結果得られたオーディオ信号をミキシング部163に供給する。この場合、図19における時間フレーム(n)が現時間フレームに対応する。
Then, the
また、SBR処理部273は、現時間フレームの優先度情報が閾値P以上であり、現時間フレームの直前の2時間フレームの優先度情報がともに閾値P未満である場合、図20の矢印GN22に示されるフェーディングSBRゲインで高域のパワー値をゲイン調整する。そして、SBR処理部273は、ゲイン調整された高域のパワー値を用いてSBRを行い、その結果得られたオーディオ信号をミキシング部163に供給する。この場合、図20における時間フレーム(n+2)が現時間フレームに対応する。
If the priority information of the current time frame is equal to or greater than the threshold value P and the priority information of two time frames immediately preceding the current time frame are both less than the threshold value P, the
なお、SBR処理部273は、これらの2つの例の場合のみ高域のパワー値のゲイン調整を行い、それ以外の場合にはゲイン調整を行わずに、取得された高域のパワー値をそのまま用いてSBRを行い、その結果得られたオーディオ信号をミキシング部163に供給する。
Note that the
SBRが行われて現時間フレームのオーディオ信号が得られると、その後、ステップS191乃至ステップS196の処理が行われるが、これらの処理は図12のステップS87乃至ステップS92の処理と同様であるので、その説明は省略する。 After the SBR is performed and the audio signal of the current time frame is obtained, the processing of steps S191 to S196 is performed. The explanation is omitted.
但し、ステップS195では、上述した式(1)の条件式が満たされる場合、優先度情報が閾値Q以上であると判定される。また、0値出力部200またはIMDCT部201で生成されたIMDCT信号(オーディオ信号)は、オーバーラップ加算部274に出力される。
However, in step S195, it is determined that the priority information is equal to or greater than the threshold value Q when the conditional expression (1) described above is satisfied. Also, the IMDCT signal (audio signal) generated by the 0-
このようにして現時間フレームのIMDCT信号が得られると、ステップS197乃至ステップS199の処理が行われて現時間フレームのオーディオ信号が生成されるが、これらの処理はステップS188乃至ステップS190の処理と同様であるので、その説明は省略する。 When the IMDCT signal of the current time frame is obtained in this way, the processes of steps S197 to S199 are performed to generate the audio signal of the current time frame, but these processes are the same as the processes of steps S188 to S190. Since it is the same, its explanation is omitted.
ステップS200において、オブジェクトオーディオ信号取得部197がオブジェクト番号に1を加えると、処理はステップS193に戻る。そして、ステップS193においてオブジェクト番号がN未満ではないと判定されると、選択復号処理は終了し、その後、処理は図11のステップS53へと進む。
In step S200, when the object audio
以上のようにしてアンパッキング/復号部161は、現時間フレームとその前後の時間フレームの優先度情報に応じて、MDCT係数の出力先を選択する。これにより、優先度情報が閾値以上である時間フレームと、優先度情報が閾値未満である時間フレームとの切り替わり部分においてオーディオ信号が完全再構成されるようになり、聴感上の音質の劣化を抑制することができる。
As described above, the unpacking/
また、アンパッキング/復号部161は、連続する3時間フレームの優先度情報に基づいて、オーバーラップ加算後のオーディオ信号や、高域のパワー値をゲイン調整する。すなわち、適宜、フェードイン処理やフェードアウト処理が行われる。これにより、グリッチノイズの発生を抑制し、聴感上の音質の劣化を抑制することができる。
Also, the unpacking/
〈第5の実施の形態〉
〈フェードイン処理とフェードアウト処理について〉
なお、第4の実施の形態では、オーバーラップ加算後のオーディオ信号に対してゲイン調整を行い、さらにSBR時に高域のパワー値に対するゲイン調整を行うと説明した。この場合、最終的なオーディオ信号の低域成分と高域成分とで別々にゲイン調整、つまりフェードイン処理やフェードアウト処理が行われることになる。
<Fifth embodiment>
<Regarding fade-in and fade-out processing>
In the fourth embodiment, it has been explained that the gain adjustment is performed on the audio signal after overlap addition, and further the gain adjustment is performed on the high frequency power value during SBR. In this case, gain adjustment, that is, fade-in processing and fade-out processing are performed separately for the low-frequency component and the high-frequency component of the final audio signal.
そこで、より少ない処理でこれらのフェードイン処理やフェードアウト処理を実現することができるように、オーバーラップ加算直後およびSBR時にはゲイン調整を行わず、SBRにより得られたオーディオ信号に対してゲイン調整を行うようにしてもよい。 Therefore, in order to realize fade-in processing and fade-out processing with less processing, gain adjustment is not performed immediately after overlap addition and during SBR, but gain adjustment is performed on the audio signal obtained by SBR. You may do so.
そのような場合、例えば図23や図24に示すようにゲイン調整が行われる。なお、図23および図24において、図19および図20における場合と対応する部分には同一の文字等を記してあり、その説明は省略する。 In such a case, gain adjustment is performed as shown in FIGS. 23 and 24, for example. In FIGS. 23 and 24, portions corresponding to those in FIGS. 19 and 20 are denoted by the same letters and the like, and description thereof will be omitted.
図23に示す例は、優先度情報の変化が図19に示した場合と同じである例である。この例では、閾値Q=4であるとすると、時間フレーム(n-1)の優先度情報は閾値Q以上であるが、時間フレーム(n)乃至時間フレーム(n+2)では、優先度情報が閾値Q未満となっている。 The example shown in FIG. 23 is an example in which the change in priority information is the same as in the case shown in FIG. In this example, assuming that the threshold Q=4, the priority information in the time frame (n-1) is equal to or greater than the threshold Q, but in the time frames (n) to (n+2), the priority information is less than the threshold Q.
このような場合、時間フレーム(n)および時間フレーム(n+1)における、SBRにより得られたオーディオ信号に対して、折れ線GN31に示されるフェーディング信号ゲインが乗算されてゲイン調整されることになる。 In such a case, the audio signal obtained by SBR at time frame (n) and time frame (n+1) is multiplied by the fading signal gain indicated by line GN31 to adjust the gain. Become.
この折れ線GN31に示されるフェーディング信号ゲインは、図19の折れ線GN11に示されるフェーディング信号ゲインと同じものとなっている。但し、図23の例の場合には、ゲイン調整の対象となるオーディオ信号は、低域成分も高域成分も含まれたものとなっているので、それらの低域成分と高域成分のゲイン調整を1つのフェーディング信号ゲインで行うことができる。 The fading signal gain indicated by this polygonal line GN31 is the same as the fading signal gain indicated by the polygonal line GN11 in FIG. However, in the case of the example of FIG. 23, the audio signal to be gain-adjusted includes both low-frequency and high-frequency components. Adjustments can be made with one fading signal gain.
このようなフェーディング信号ゲインによるオーディオ信号のゲイン調整によって、IMDCTにより得られたIMDCT信号と、0データとされたIMDCT信号とがオーバーラップ加算される部分とその直前の部分で、オーディオ信号が徐々に0データへと変化していくようになる。これにより、聴感上の音質の劣化を抑制することができる。 By adjusting the gain of the audio signal by such fading signal gain, the audio signal gradually changes at the portion where the IMDCT signal obtained by the IMDCT and the IMDCT signal with 0 data are overlap-added and the portion immediately before that. gradually changes to 0 data. As a result, it is possible to suppress the deterioration of the sound quality in terms of audibility.
これに対して、図24に示す例は、優先度情報の変化が図20に示した場合と同じである例である。この例では、閾値Q=4であるとすると、時間フレーム(n)および時間フレーム(n+1)では優先度情報が閾値Q未満であるが、時間フレーム(n+2)の優先度情報は閾値Q以上となっている。 On the other hand, the example shown in FIG. 24 is an example in which the change in priority information is the same as in the case shown in FIG. In this example, assuming threshold Q=4, the priority information for time frame (n) and time frame (n+1) is less than threshold Q, but the priority information for time frame (n+2) is It is equal to or greater than the threshold Q.
このような場合、時間フレーム(n+1)および時間フレーム(n+2)における、SBRにより得られたオーディオ信号に対して、折れ線GN41に示されるフェーディング信号ゲインが乗算されてゲイン調整されることになる。 In such a case, the audio signal obtained by SBR in time frame (n+1) and time frame (n+2) is multiplied by the fading signal gain indicated by polygonal line GN41 to adjust the gain. It will be.
この折れ線GN41に示されるフェーディング信号ゲインは、図20の折れ線GN21に示されるフェーディング信号ゲインと同じものとなっている。但し、図24の例の場合には、ゲイン調整の対象となるオーディオ信号は、低域成分も高域成分も含まれたものとなっているので、それらの低域成分と高域成分のゲイン調整を1つのフェーディング信号ゲインで行うことができる。 The fading signal gain indicated by this polygonal line GN41 is the same as the fading signal gain indicated by the polygonal line GN21 in FIG. However, in the case of the example of FIG. 24, the audio signal to be gain-adjusted includes both low-frequency and high-frequency components. Adjustments can be made with one fading signal gain.
このようなフェーディング信号ゲインによるオーディオ信号のゲイン調整によって、IMDCTにより得られたIMDCT信号と、0データとされたIMDCT信号とがオーバーラップ加算される部分とその直後の部分で、オーディオ信号が0データから本来の信号へと徐々に変化していくようになる。これにより、聴感上の音質の劣化を抑制することができる。 By adjusting the gain of the audio signal using such fading signal gain, the audio signal becomes 0 at the portion where the IMDCT signal obtained by the IMDCT and the IMDCT signal with 0 data are overlap-added and the portion immediately after that. The data gradually changes to the original signal. As a result, it is possible to suppress the deterioration of the sound quality in terms of audibility.
〈アンパッキング/復号部の構成例〉
図23および図24を参照して説明したフェードイン処理やフェードアウト処理によるゲイン調整が行われる場合、アンパッキング/復号部161は、例えば図25に示すように構成される。なお、図25において、図21における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
<Configuration example of unpacking/decoding section>
When gain adjustment is performed by the fade-in processing and fade-out processing described with reference to FIGS. 23 and 24, the unpacking/
図25に示すアンパッキング/復号部161は優先度情報取得部191、チャネルオーディオ信号取得部192、チャネルオーディオ信号復号部193、出力選択部194、0値出力部195、IMDCT部196、オーバーラップ加算部271、SBR処理部273、ゲイン調整部272、オブジェクトオーディオ信号取得部197、オブジェクトオーディオ信号復号部198、出力選択部199、0値出力部200、IMDCT部201、オーバーラップ加算部274、SBR処理部276、およびゲイン調整部275から構成される。
The unpacking/
図25に示すアンパッキング/復号部161の構成は、ゲイン調整部272およびゲイン調整部275が、それぞれSBR処理部273およびSBR処理部276の後段に配置されている点で、図21に示したアンパッキング/復号部161の構成と異なる。
The configuration of unpacking/
図25に示すアンパッキング/復号部161では、SBR処理部273は、優先度情報取得部191から供給された高域のパワー値に基づいて、オーバーラップ加算部271から供給されたオーディオ信号に対してSBRを行い、その結果得られたオーディオ信号をゲイン調整部272に供給する。この場合、SBR処理部273では、高域のパワー値のゲイン調整は行われない。
In the unpacking/
ゲイン調整部272は、優先度情報取得部191から供給された優先度情報に基づいて、SBR処理部273から供給されたオーディオ信号をゲイン調整し、ミキシング部163に供給する。
The
SBR処理部276は、優先度情報取得部191から供給された高域のパワー値に基づいて、オーバーラップ加算部274から供給されたオーディオ信号に対してSBRを行い、その結果得られたオーディオ信号をゲイン調整部275に供給する。この場合、SBR処理部276では、高域のパワー値のゲイン調整は行われない。
The
ゲイン調整部275は、優先度情報取得部191から供給された優先度情報に基づいて、SBR処理部276から供給されたオーディオ信号をゲイン調整し、レンダリング部162に供給する。
The
〈選択復号処理の説明〉
続いて、アンパッキング/復号部161が図25に示した構成とされる場合における復号装置151の動作について説明する。この場合、復号装置151は、図11を参照して説明した復号処理を行う。但し、ステップS52の選択復号処理として、図26に示す処理を行う。
<Description of selective decryption processing>
Next, the operation of
以下、図26のフローチャートを参照して、図11のステップS52の処理に対応する選択復号処理について説明する。なお、ステップS231乃至ステップS238の処理は、図22のステップS181乃至ステップS188の処理と同様であるので、その説明は省略する。但し、ステップS232では、SBR処理部273およびSBR処理部276には、優先度情報は供給されない。
The selective decoding process corresponding to the process of step S52 in FIG. 11 will be described below with reference to the flowchart in FIG. Note that the processing from step S231 to step S238 is the same as the processing from step S181 to step S188 in FIG. 22, so description thereof will be omitted. However, priority information is not supplied to the
ステップS239において、SBR処理部273は、優先度情報取得部191から供給された高域のパワー値に基づいて、オーバーラップ加算部271から供給されたオーディオ信号に対してSBRを行い、その結果得られたオーディオ信号をゲイン調整部272に供給する。
In step S239, the
ステップS240において、ゲイン調整部272は、優先度情報取得部191から供給された処理対象のチャネルの優先度情報に基づいて、SBR処理部273から供給されたオーディオ信号をゲイン調整し、ミキシング部163に供給する。
In step S<b>240 , the
具体的にはゲイン調整部272は、現時間フレームの直前の時間フレームの優先度情報が閾値P以上であり、かつ現時間フレームの優先度情報と、現時間フレームの直後の時間フレームの優先度情報が閾値P未満である場合、図23の折れ線GN31に示されるフェーディング信号ゲインでオーディオ信号のゲインを調整する。この場合、図23における時間フレーム(n)が現時間フレームに対応し、現時間フレームの直後の時間フレームでは、折れ線GN31に示されるように、フェーディング信号ゲイン=0でのゲイン調整が行われる。
Specifically, the
また、ゲイン調整部272は、現時間フレームの優先度情報が閾値P以上であり、現時間フレームの直前の2時間フレームの優先度情報がともに閾値P未満である場合、図24の折れ線GN41に示されるフェーディング信号ゲインでオーディオ信号のゲインを調整する。この場合、図24における時間フレーム(n+2)が現時間フレームに対応し、現時間フレームの直前の時間フレームでは、折れ線GN41に示されるように、フェーディング信号ゲイン=0でのゲイン調整が行われる。
If the priority information of the current time frame is equal to or greater than the threshold value P and the priority information of the two time frames immediately preceding the current time frame are both less than the threshold value P, the
なお、ゲイン調整部272は、これらの2つの例の場合のみゲイン調整を行い、それ以外の場合にはゲイン調整を行わず、オーディオ信号をそのままミキシング部163に供給する。
Note that the
オーディオ信号のゲイン調整が行われると、その後、ステップS241乃至ステップS247の処理が行われるが、これらの処理は図22のステップS191乃至ステップS197の処理と同様であるので、その説明は省略する。 After the gain adjustment of the audio signal is performed, the processes of steps S241 to S247 are performed, but since these processes are the same as the processes of steps S191 to S197 in FIG. 22, the description thereof will be omitted.
このようにして処理対象のオブジェクトの現時間フレームのオーディオ信号が得られると、ステップS248およびステップS249の処理が行われて最終的な現時間フレームのオーディオ信号が生成されるが、これらの処理はステップS239およびステップS240の処理と同様であるので、その説明は省略する。 When the audio signal of the current time frame of the object to be processed is obtained in this way, the processes of steps S248 and S249 are performed to generate the final audio signal of the current time frame. Since it is the same as the processing in steps S239 and S240, the description thereof will be omitted.
ステップS250において、オブジェクトオーディオ信号取得部197がオブジェクト番号に1を加えると、処理はステップS243に戻る。そして、ステップS243においてオブジェクト番号がN未満ではないと判定されると、選択復号処理は終了し、その後、処理は図11のステップS53へと進む。
In step S250, when the object audio
以上のようにしてアンパッキング/復号部161は、連続する3時間フレームの優先度情報に基づいて、SBRにより得られたオーディオ信号をゲイン調整する。これにより、より簡単にグリッチノイズの発生を抑制し、聴感上の音質の劣化を抑制することができる。
As described above, the unpacking/
なお、この実施の形態では、3時間フレーム分の優先度情報を用いたMDCT係数の出力先の選択と、フェーディング信号ゲインによるゲイン調整とを行う例について説明したが、フェーディング信号ゲインによるゲイン調整のみが行われるようにしてもよい。 In this embodiment, an example of selecting the output destination of the MDCT coefficient using priority information for three time frames and adjusting the gain by the fading signal gain has been described. Alternatively, only adjustments may be made.
そのような場合、出力選択部194や出力選択部199では、第1の実施の形態における場合と同様の処理により、MDCT係数の出力先が選択される。そして、ゲイン調整部272およびゲイン調整部275では、現時間フレームの優先度情報が閾値未満である場合、現時間フレームのフェーディング信号ゲインを線形に増加または減少させることで、フェードイン処理やフェードアウト処理を行う。ここで、フェードイン処理とするか、またはフェードアウト処理とするかは、現時間フレームの優先度情報と、その前後の時間フレームの優先度情報とから定めればよい。
In such a case, the
〈第6の実施の形態〉
〈フェードイン処理とフェードアウト処理について〉
ところで、レンダリング部162では、例えばVBAPが行われて各オブジェクトのオーディオ信号から、各オブジェクトの音声を再生するための各チャネルのオーディオ信号が生成される。
<Sixth Embodiment>
<Regarding fade-in and fade-out processing>
By the way, in the
具体的には、VBAPではチャネルごと、つまり音声を出力するスピーカごとに、各オブジェクトについて、オーディオ信号のゲイン値(以下、VBAPゲインとも称する)が時間フレームごとに算出される。そして、同じチャネル(スピーカ)についてのVBAPゲインが乗算された各オブジェクトのオーディオ信号の和が、そのチャネルのオーディオ信号とされる。換言すれば、各オブジェクトについて、オブジェクトのオーディオ信号がチャネルごとに算出されたVBAPゲインで、それらの各チャネルに割り当てられる。 Specifically, in VBAP, an audio signal gain value (hereinafter also referred to as VBAP gain) for each object is calculated for each channel, that is, for each speaker that outputs audio, for each time frame. Then, the sum of the audio signals of each object multiplied by the VBAP gain for the same channel (speaker) is taken as the audio signal of that channel. In other words, for each object, the audio signal of the object is assigned to each of their channels with the VBAP gain calculated for each channel.
そこで、オブジェクトのオーディオ信号については、オブジェクトのオーディオ信号や高域のパワー値のゲイン調整をするのではなく、VBAPゲインを適切に調整することにより、グリッチノイズの発生を抑制して聴感上の音質の劣化を抑制するようにしてもよい。 Therefore, for the object audio signal, instead of adjusting the gain of the object audio signal and the power value of the high frequency, by appropriately adjusting the VBAP gain, the occurrence of glitch noise is suppressed and the sound quality is improved. deterioration may be suppressed.
そのような場合、例えば各時間フレームのVBAPゲインに対して線形補間等が行われ、各時間フレーム内のオーディオ信号のサンプルごとのVBAPゲインが算出され、得られたVBAPゲインにより各チャネルのオーディオ信号が生成される。 In such a case, for example, linear interpolation or the like is performed on the VBAP gain of each time frame, the VBAP gain for each sample of the audio signal in each time frame is calculated, and the obtained VBAP gain is used to calculate the audio signal of each channel. is generated.
例えば、処理対象の時間フレームの先頭サンプルのVBAPゲインの値は、処理対象の時間フレームの直前の時間フレームの末尾のサンプルのVBAPゲインの値とされる。また、処理対象の時間フレームの末尾のサンプルのVBAPゲインの値は、その処理対象の時間フレームに対する通常のVBAPにより算出されたVBAPゲインの値とされる。 For example, the VBAP gain value of the leading sample of the time frame to be processed is the VBAP gain value of the last sample of the time frame immediately preceding the time frame to be processed. Also, the value of the VBAP gain of the sample at the end of the time frame to be processed is the value of the VBAP gain calculated by the normal VBAP for the time frame to be processed.
そして、処理対象の時間フレームでは、先頭サンプルから末尾のサンプルまでVBAPゲインが線形に変化するように、先頭サンプルと末尾のサンプルとの間の各サンプルのVBAPゲインの値が定められる。 Then, in the time frame to be processed, the VBAP gain value of each sample between the leading sample and the trailing sample is determined such that the VBAP gain varies linearly from the leading sample to the trailing sample.
但し、処理対象の時間フレームの優先度情報が閾値未満である場合には、VBAPの計算は行われず、その処理対象の時間フレームの末尾のサンプルのVBAPゲインの値は、0とされる。そして、処理対象の時間フレームの先頭サンプルから、末尾のサンプルまでVBAPゲインが線形に変化するように、各サンプルのVBAPゲインが定められる。 However, if the priority information of the time frame to be processed is less than the threshold, the VBAP is not calculated, and the value of the VBAP gain of the sample at the end of the time frame to be processed is set to zero. Then, the VBAP gain of each sample is determined such that the VBAP gain varies linearly from the first sample to the last sample of the time frame to be processed.
このようにしてVBAPゲインにより各オブジェクトのオーディオ信号のゲイン調整を行うことで、低域成分と高域成分のゲイン調整を1度に行うことができ、より少ない処理量でグリッチノイズの発生を抑制し、聴感上の音質の劣化を抑制することができる。 By adjusting the gain of the audio signal of each object using the VBAP gain in this way, it is possible to adjust the gain of the low-frequency component and the high-frequency component at once, suppressing the occurrence of glitch noise with a smaller amount of processing. It is possible to suppress the deterioration of the sound quality on the sense of hearing.
このようにサンプルごとにVBAPゲインを定める場合、各時間フレームのサンプルごとのVBAPゲインは例えば図27や図28に示すようになる。 When the VBAP gain is determined for each sample in this way, the VBAP gain for each sample in each time frame is as shown in FIGS. 27 and 28, for example.
なお、図27および図28において、図19および図20における場合と対応する部分には同一の文字等を記してあり、その説明は省略する。また、図27および図28において、「VBAP_gain[q][s]」(但し、q=n-1,n,n+1,n+2)は、所定のチャネルに対応するスピーカを特定するスピーカインデックスがsである、処理対象のオブジェクトの時間フレーム(q)のVBAPゲインを示している。 In FIGS. 27 and 28, portions corresponding to those in FIGS. 19 and 20 are denoted by the same letters, etc., and description thereof will be omitted. 27 and 28, "VBAP_gain[q][s]" (where q = n-1, n, n+1, n+2) is a speaker Fig. 3 shows the VBAP gain for the time frame (q) of the object being processed with index s;
図27に示す例は、優先度情報の変化が図19に示した場合と同じである例である。この例では、閾値Q=4であるとすると、時間フレーム(n-1)の優先度情報は閾値Q以上であるが、時間フレーム(n)乃至時間フレーム(n+2)では、優先度情報が閾値Q未満となっている。 The example shown in FIG. 27 is an example in which the change in priority information is the same as the case shown in FIG. In this example, assuming that the threshold Q=4, the priority information in the time frame (n-1) is equal to or greater than the threshold Q, but in the time frames (n) to (n+2), the priority information is less than the threshold Q.
このような場合、時間フレーム(n-1)乃至時間フレーム(n+1)のVBAPゲインは、例えば折れ線GN51に示されるゲインとされる。 In such a case, the VBAP gains from time frame (n−1) to time frame (n+1) are, for example, the gains indicated by polygonal line GN51.
この例では、時間フレーム(n-1)の優先度情報は閾値Q以上であるので、通常のVBAPにより算出されたVBAPゲインに基づいて、各サンプルのVBAPゲインが定められる。 In this example, the priority information of the time frame (n-1) is equal to or higher than the threshold Q, so the VBAP gain of each sample is determined based on the VBAP gain calculated by normal VBAP.
すなわち、時間フレーム(n-1)の先頭のサンプルのVBAPゲインの値は、時間フレーム(n-2)の末尾のサンプルのVBAPゲインの値と同じとされている。また、時間フレーム(n-1)の末尾のサンプルのVBAPゲインの値は、処理対象となっているオブジェクトについて、時間フレーム(n-1)に対する通常のVBAPにより算出された、スピーカsに対応するチャネルのVBAPゲインの値とされている。そして、時間フレーム(n-1)の各サンプルのVBAPゲインの値は、先頭のサンプルから末尾のサンプルまで線形に変化するように定められている。 That is, the VBAP gain value of the sample at the beginning of the time frame (n-1) is the same as the VBAP gain value of the sample at the end of the time frame (n-2). Also, the value of the VBAP gain for the last sample in time frame (n-1) corresponds to the speaker s calculated by the normal VBAP for time frame (n-1) for the object being processed. It is the value of the channel's VBAP gain. The VBAP gain value of each sample in the time frame (n-1) is determined to change linearly from the first sample to the last sample.
また、時間フレーム(n)の優先度情報は閾値Q未満であるので、時間フレーム(n)の末尾のサンプルのVBAPゲインの値は0とされる。 Also, since the priority information of time frame (n) is less than the threshold Q, the VBAP gain value of the last sample of time frame (n) is set to zero.
すなわち、時間フレーム(n)の先頭のサンプルのVBAPゲインの値は、時間フレーム(n-1)の末尾のサンプルのVBAPゲインの値と同じとされ、時間フレーム(n)の末尾のサンプルのVBAPゲインの値は0とされる。そして、時間フレーム(n)の各サンプルのVBAPゲインの値が、先頭のサンプルから末尾のサンプルまで線形に変化するように定められる。 That is, the VBAP gain value for the leading sample of time frame (n) is assumed to be the same as the VBAP gain value for the trailing sample of time frame (n-1), and the VBAP gain value for the trailing sample of time frame (n) is The gain value is set to 0. Then, the value of the VBAP gain of each sample in time frame (n) is determined so as to change linearly from the first sample to the last sample.
さらに、時間フレーム(n+1)の優先度情報は閾値Q未満であるので、時間フレーム(n+1)の末尾のサンプルのVBAPゲインの値は0とされ、結果として時間フレーム(n+1)の全サンプルのVBAPゲインの値は0となる。 Furthermore, since the priority information of time frame (n+1) is less than the threshold Q, the VBAP gain value of the last sample of time frame (n+1) is set to 0, resulting in time frame (n+1 ) becomes 0 for the VBAP gain of all samples.
このように、優先度情報が閾値Q未満である時間フレームの末尾のサンプルのVBAPゲインの値を0とすることで、図23の例と等価なフェードアウト処理が可能となる。 In this way, by setting the VBAP gain value of the sample at the end of the time frame whose priority information is less than the threshold Q to 0, a fade-out process equivalent to the example in FIG. 23 can be performed.
これに対して、図28に示す例は、優先度情報の変化が図24に示した場合と同じである例である。この例では、閾値Q=4であるとすると、時間フレーム(n-1)乃至時間フレーム(n+1)では優先度情報が閾値Q未満であるが、時間フレーム(n+2)の優先度情報は閾値Q以上となっている。 On the other hand, the example shown in FIG. 28 is an example in which the change in priority information is the same as in the case shown in FIG. In this example, assuming that the threshold Q=4, the priority information is less than the threshold Q in the time frames (n-1) to (n+1), but the priority in the time frame (n+2) is The information is equal to or greater than the threshold Q.
このような場合、時間フレーム(n-1)乃至時間フレーム(n+2)のVBAPゲインは、例えば折れ線GN61に示されるゲインとされる。 In such a case, the VBAP gains for time frame (n-1) to time frame (n+2) are, for example, the gains indicated by polygonal line GN61.
この例では、時間フレーム(n)の優先度情報も時間フレーム(n+1)の優先度情報もともに閾値Q未満であるので、時間フレーム(n+1)の全サンプルのVBAPゲインは0となる。 In this example, both the priority information for time frame (n) and the priority information for time frame (n+1) are below threshold Q, so the VBAP gain for all samples in time frame (n+1) is zero. Become.
また、時間フレーム(n+2)の優先度情報は閾値Q以上であるので、処理対象となっているオブジェクトについて、通常のVBAPにより算出されたスピーカsに対応するチャネルのVBAPゲインに基づいて、各サンプルのVBAPゲインが定められる。 Also, since the priority information of the time frame (n+2) is equal to or higher than the threshold Q, for the object to be processed, based on the VBAP gain of the channel corresponding to the speaker s calculated by normal VBAP, A VBAP gain for each sample is determined.
すなわち、時間フレーム(n+2)の先頭のサンプルのVBAPゲインの値は、時間フレーム(n+1)の末尾のサンプルのVBAPゲインの値である0とされ、時間フレーム(n+2)の末尾のサンプルのVBAPゲインの値は、時間フレーム(n+2)に対する通常のVBAPにより算出されたVBAPゲインの値とされている。そして、時間フレーム(n+2)の各サンプルのVBAPゲインの値は、先頭のサンプルから末尾のサンプルまで線形に変化するように定められている。 That is, the VBAP gain value of the sample at the beginning of the time frame (n+2) is set to 0, which is the VBAP gain value of the sample at the end of the time frame (n+1), and the VBAP gain value of the sample at the end of the time frame (n+2). The VBAP gain value of the last sample is the VBAP gain value calculated by normal VBAP for time frame (n+2). The value of the VBAP gain of each sample in the time frame (n+2) is determined to change linearly from the first sample to the last sample.
このように、優先度情報が閾値Q未満である時間フレームの末尾のサンプルのVBAPゲインの値を0とすることで、図24の例と等価なフェードイン処理が可能となる。 In this way, by setting the value of the VBAP gain of the sample at the end of the time frame whose priority information is less than the threshold Q to 0, fade-in processing equivalent to the example of FIG. 24 can be performed.
〈アンパッキング/復号部の構成例〉
図27および図28を参照して説明したフェードイン処理やフェードアウト処理によるゲイン調整が行われる場合、アンパッキング/復号部161は、例えば図29に示すように構成される。なお、図29において、図25における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
<Configuration example of unpacking/decoding section>
When gain adjustment is performed by the fade-in processing and fade-out processing described with reference to FIGS. 27 and 28, the unpacking/
図29に示すアンパッキング/復号部161は優先度情報取得部191、チャネルオーディオ信号取得部192、チャネルオーディオ信号復号部193、出力選択部194、0値出力部195、IMDCT部196、オーバーラップ加算部271、SBR処理部273、ゲイン調整部272、オブジェクトオーディオ信号取得部197、オブジェクトオーディオ信号復号部198、出力選択部199、0値出力部200、IMDCT部201、オーバーラップ加算部274、およびSBR処理部276から構成される。
The unpacking/
図29に示すアンパッキング/復号部161の構成は、ゲイン調整部275が設けられていない点で、図25に示したアンパッキング/復号部161の構成と異なり、その他の点では同じ構成となっている。
The configuration of unpacking/
図29に示すアンパッキング/復号部161では、SBR処理部276は、優先度情報取得部191から供給された高域のパワー値に基づいて、オーバーラップ加算部274から供給されたオーディオ信号に対してSBRを行い、その結果得られたオーディオ信号をレンダリング部162に供給する。
In the unpacking/
また、優先度情報取得部191は、供給されたビットストリームから各オブジェクトのメタデータと優先度情報を取得してレンダリング部162に供給する。なお、各オブジェクトの優先度情報は、出力選択部199にも供給される。
Also, the priority
〈復号処理の説明〉
続いて、アンパッキング/復号部161が図29に示した構成とされる場合における復号装置151の動作について説明する。
<Description of Decryption Processing>
Next, the operation of
この場合、復号装置151は、図30に示す復号処理を行う。以下、図30のフローチャートを参照して、復号装置151により行われる復号処理について説明する。但し、ステップS281では、図11のステップS51の処理と同様の処理が行われるので、その説明は省略する。
In this case, the
ステップS282において、アンパッキング/復号部161は選択復号処理を行う。
In step S282, the unpacking/
ここで、図31のフローチャートを参照して、図30のステップS282の処理に対応する選択復号処理について説明する。 Here, the selective decoding process corresponding to the process of step S282 in FIG. 30 will be described with reference to the flowchart in FIG.
なお、ステップS311乃至ステップS328の処理は、図26のステップS231乃至ステップS248の処理と同様であるので、その説明は省略する。但し、ステップS312では、優先度情報取得部191は、ビットストリームから取得された優先度情報をレンダリング部162にも供給する。
Note that the processing from step S311 to step S328 is the same as the processing from step S231 to step S248 in FIG. 26, so description thereof will be omitted. However, in step S<b>312 , the priority
ステップS329において、オブジェクトオーディオ信号取得部197がオブジェクト番号に1を加えると、処理はステップS323に戻る。そして、ステップS323においてオブジェクト番号がN未満ではないと判定されると、選択復号処理は終了し、その後、処理は図30のステップS283へと進む。
In step S329, when the object audio
したがって、図31に示した選択復号処理では、各チャネルのオーディオ信号については、第5の実施の形態における場合と同様にフェーディング信号ゲインによるゲイン調整が行われ、各オブジェクトについては、ゲイン調整は行われず、SBRにより得られたオーディオ信号がそのままレンダリング部162に出力される。
Therefore, in the selective decoding process shown in FIG. 31, the audio signal of each channel is subjected to gain adjustment based on the fading signal gain as in the fifth embodiment, and the gain adjustment is not performed for each object. The audio signal obtained by SBR is output to the
図30の復号処理の説明に戻り、ステップS283において、レンダリング部162は、SBR処理部276から供給された各オブジェクトのオーディオ信号と、優先度情報取得部191から供給された各オブジェクトのメタデータとしての位置情報、および各オブジェクトの現時間フレームの優先度情報とに基づいて、各オブジェクトのオーディオ信号のレンダリングを行う。
Returning to the description of the decoding process in FIG. 30, in step S283, the
例えばレンダリング部162は、図27や図28を参照して説明したように、オブジェクトごとに、各チャネルについて現時間フレームの優先度情報と、現時間フレームの直前の時間フレームの末尾のサンプルのVBAPゲインに基づいて、現時間フレームの各サンプルのVBAPゲインを算出する。このときレンダリング部162は、適宜、位置情報に基づいてVBAPによりVBAPゲインを算出する。
For example, as described with reference to FIGS. 27 and 28, the
そして、レンダリング部162は、各オブジェクトについて算出した各チャネルのサンプルごとのVBAPゲインと、各オブジェクトのオーディオ信号とに基づいて、各チャネルのオーディオ信号を生成し、ミキシング部163に供給する。
Then, the
なお、ここでは時間フレーム内の各サンプルのVBAPゲインが線形に変化するように各サンプルのVBAPゲインを算出する例について説明したが、VBAPゲインが非線形に変化するようにしてもよい。また、VBAPにより各チャネルのオーディオ信号が生成される例について説明したが、他の方法により各チャネルのオーディオ信号を生成する場合でも、VBAPにおける場合と同様の処理により、各オブジェクトのオーディオ信号のゲインを調整することが可能である。 Although the example of calculating the VBAP gain of each sample so that the VBAP gain of each sample in the time frame changes linearly has been described here, the VBAP gain may change nonlinearly. In addition, an example in which the audio signal of each channel is generated by VBAP has been explained, but even when the audio signal of each channel is generated by other methods, the gain of the audio signal of each object is calculated by the same processing as in VBAP. can be adjusted.
各チャネルのオーディオ信号が生成されると、その後、ステップS284の処理が行われて復号処理は終了するが、ステップS284の処理は図11のステップS54の処理と同様であるので、その説明は省略する。 After the audio signal of each channel is generated, the process of step S284 is performed and the decoding process ends. However, since the process of step S284 is the same as the process of step S54 in FIG. 11, the description thereof is omitted. do.
このようにして復号装置151は、各オブジェクトについて、優先度情報に基づいてサンプルごとにVBAPゲインを算出し、各チャネルのオーディオ信号の生成時に、VBAPゲインによりオブジェクトのオーディオ信号のゲイン調整を行う。これにより、より少ない処理量でグリッチノイズの発生を抑制し、聴感上の音質の劣化を抑制することができる。
In this way, the
なお、第4の実施の形態乃至第6の実施の形態では、現時間フレームの直前および直後の時間フレームの優先度情報を利用してMDCT係数の出力先を選択したり、フェーディング信号ゲイン等によるゲイン調整を行ったりすると説明した。しかし、これに限らず、現時間フレームの優先度情報と、現時間フレームの所定時間フレームだけ前の時間フレームの優先度情報や、現時間フレームの所定時間フレームだけ後の時間フレームの優先度情報とが用いられるようにしてもよい。 It should be noted that in the fourth to sixth embodiments, the priority information of the time frames immediately before and after the current time frame is used to select the output destination of the MDCT coefficients, the fading signal gain, etc. He explained that gain adjustment is performed by However, not limited to this, the priority information of the current time frame, the priority information of the time frame preceding the current time frame by a predetermined time frame, and the priority information of the time frame following the current time frame by a predetermined time frame. and may be used.
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどが含まれる。 By the way, the series of processes described above can be executed by hardware or by software. When executing a series of processes by software, a program that constitutes the software is installed in the computer. Here, the computer includes, for example, a computer built into dedicated hardware and a general-purpose computer capable of executing various functions by installing various programs.
図32は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 32 is a block diagram showing a hardware configuration example of a computer that executes the series of processes described above by a program.
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
In the computer, a CPU (Central Processing Unit) 501 , a ROM (Read Only Memory) 502 and a RAM (Random Access Memory) 503 are interconnected by a
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、およびドライブ510が接続されている。
An input/
入力部506は、キーボード、マウス、マイクロフォン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア511を駆動する。
An
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505およびバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, for example, the
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
A program executed by the computer (CPU 501) can be provided by being recorded on a
コンピュータでは、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
In the computer, the program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be executed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Further, the embodiments of the present technology are not limited to the above-described embodiments, and various modifications are possible without departing from the gist of the present technology.
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and processed jointly.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, each step described in the flowchart above can be executed by one device, or can be shared by a plurality of devices and executed.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Furthermore, when one step includes a plurality of processes, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
また、本明細書中に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 Moreover, the effects described in this specification are only examples and are not limited, and other effects may be provided.
さらに、本技術は、以下の構成とすることも可能である。 Furthermore, the present technology can also be configured as follows.
(1)
複数のチャネルまたは複数のオブジェクトの符号化されたオーディオ信号、および所定の時間における各前記オーディオ信号の優先度情報を取得する取得部と、
前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号するオーディオ信号復号部と
を備える復号装置。
(2)
前記オーディオ信号復号部は、前記優先度情報により示される優先度合いが所定の度合い以上である、前記符号化されたオーディオ信号を復号する
(1)に記載の復号装置。
(3)
前記取得部は、前記所定の時間における前記複数のチャネルまたは前記複数のオブジェクトのオーディオ信号の前記優先度情報に基づいて、前記所定の度合いを変更する
(2)に記載の復号装置。
(4)
前記取得部は、前記オーディオ信号ごとに複数の前記優先度情報を取得し、
前記オーディオ信号復号部は、前記複数の前記優先度情報のなかから選択された1つの前記優先度情報に基づいて、前記符号化されたオーディオ信号を復号する
(1)乃至(3)の何れか一項に記載の復号装置。
(5)
前記複数の前記優先度情報は、前記符号化されたオーディオ信号の復号側の計算能力に応じて、前記計算能力ごとに生成されたものである
(4)に記載の復号装置。
(6)
前記符号化されたオーディオ信号に基づいて、前記優先度情報を生成する優先度情報生成部をさらに備える
(1)乃至(5)の何れか一項に記載の復号装置。
(7)
前記優先度情報生成部は、前記符号化されたオーディオ信号から得られる、オーディオ信号の音圧またはスペクトル形状に基づいて前記優先度情報を生成する
(6)に記載の復号装置。
(8)
前記オーディオ信号復号部は、チャネルごとまたはオブジェクトごとに、前記所定の時間の前記優先度情報と、前記所定の時間よりも前または後の時間の前記優先度情報とに基づいて、前記所定の時間の前記符号化されたオーディオ信号を復号するかを選択する
(1)に記載の復号装置。
(9)
前記復号が行われた場合、前記復号により得られた信号を出力信号とし、前記復号が行われなかった場合、0データを出力信号として、チャネルごとまたはオブジェクトごとに、前記所定の時間の前記出力信号と、前記所定の時間よりも前または後の時間の前記出力信号とを加算して前記所定の時間のオーディオ信号を生成する加算部と、
チャネルごとまたはオブジェクトごとに、前記所定の時間の前記優先度情報と、前記所定の時間よりも前または後の時間の前記優先度情報とに基づいて、前記所定の時間のオーディオ信号のゲイン調整を行うゲイン調整部と
をさらに備える(1)に記載の復号装置。
(10)
チャネルごとまたはオブジェクトごとに、前記所定の時間の前記優先度情報と、前記所定の時間よりも前または後の時間の前記優先度情報とに基づいて、高域のパワー値をゲイン調整するとともに、ゲイン調整された前記パワー値と、前記所定の時間のオーディオ信号とに基づいて、前記所定の時間のオーディオ信号の高域成分を生成する高域生成部をさらに備える
(9)に記載の復号装置。
(11)
チャネルごとまたはオブジェクトごとに、高域のパワー値と、前記所定の時間のオーディオ信号とに基づいて、高域成分が含まれる前記所定の時間のオーディオ信号を生成する高域生成部をさらに備え、
前記ゲイン調整部は、高域成分が含まれる前記所定の時間のオーディオ信号のゲイン調整を行う
(9)に記載の復号装置。
(12)
前記所定の時間の前記優先度情報に基づいて、オブジェクトのオーディオ信号を複数の各チャネルに所定のゲイン値で割り当てて、前記複数の各チャネルのオーディオ信号を生成するレンダリング部をさらに備える
(1)に記載の復号装置。
(13)
複数のチャネルまたは複数のオブジェクトの符号化されたオーディオ信号、および所定の時間における各前記オーディオ信号の優先度情報を取得し、
前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号する
ステップを含む復号方法。
(14)
複数のチャネルまたは複数のオブジェクトの符号化されたオーディオ信号、および所定の時間における各前記オーディオ信号の優先度情報を取得し、
前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号する
ステップを含む処理をコンピュータに実行させるプログラム。
(15)
複数のチャネルまたは複数のオブジェクトのオーディオ信号の所定の時間における優先度情報を生成する優先度情報生成部と、
前記優先度情報をビットストリームに格納するパッキング部と
を備える符号化装置。
(16)
前記優先度情報生成部は、前記オーディオ信号ごとに複数の前記優先度情報を生成する
(15)に記載の符号化装置。
(17)
前記優先度情報生成部は、符号化された前記オーディオ信号の復号側の計算能力に応じて、前記計算能力ごとに前記優先度情報を生成する
(16)に記載の符号化装置。
(18)
前記優先度情報生成部は、前記オーディオ信号の音圧またはスペクトル形状に基づいて前記優先度情報を生成する
(15)乃至(17)の何れか一項に記載の符号化装置。
(19)
前記複数のチャネルまたは前記複数のオブジェクトのオーディオ信号を符号化する符号化部をさらに備え、
前記パッキング部は、前記優先度情報と符号化された前記オーディオ信号とを前記ビットストリームに格納する
(15)乃至(18)の何れか一項に記載の符号化装置。
(20)
複数のチャネルまたは複数のオブジェクトのオーディオ信号の所定の時間における優先度情報を生成し、
前記優先度情報をビットストリームに格納する
ステップを含む符号化方法。
(21)
複数のチャネルまたは複数のオブジェクトのオーディオ信号の所定の時間における優先度情報を生成し、
前記優先度情報をビットストリームに格納する
ステップを含む処理をコンピュータに実行させるプログラム。
(1)
an acquisition unit for acquiring encoded audio signals of multiple channels or multiple objects and priority information of each said audio signal at a predetermined time;
and an audio signal decoding unit that decodes the encoded audio signals of a predetermined number of channels or objects according to the priority information, based on the priority information.
(2)
The decoding device according to (1), wherein the audio signal decoding unit decodes the encoded audio signal having a priority indicated by the priority information equal to or higher than a predetermined level.
(3)
The decoding device according to (2), wherein the obtaining unit changes the predetermined degree based on the priority information of the audio signals of the plurality of channels or the plurality of objects at the predetermined time.
(4)
The acquisition unit acquires a plurality of pieces of priority information for each audio signal,
any one of (1) to (3), wherein the audio signal decoding unit decodes the encoded audio signal based on one of the priority information selected from the plurality of priority information; The decoding device according to
(5)
(4) The decoding device according to (4), wherein the plurality of pieces of priority information are generated for each computational capability according to the computational capability of the decoding side of the encoded audio signal.
(6)
The decoding device according to any one of (1) to (5), further comprising a priority information generation unit that generates the priority information based on the encoded audio signal.
(7)
The decoding device according to (6), wherein the priority information generating section generates the priority information based on sound pressure or spectrum shape of an audio signal obtained from the encoded audio signal.
(8)
The audio signal decoding unit decodes, for each channel or each object, the predetermined time based on the priority information for the predetermined time and the priority information for the time before or after the predetermined time. The decoding device according to (1), which selects whether to decode the encoded audio signal.
(9)
When the decoding is performed, the signal obtained by the decoding is used as an output signal, and when the decoding is not performed, 0 data is used as the output signal, and the output of the predetermined time is performed for each channel or each object. an addition unit that adds the signal and the output signal before or after the predetermined time to generate the audio signal of the predetermined time;
Adjusting the gain of the audio signal for the predetermined time based on the priority information for the predetermined time and the priority information for the time before or after the predetermined time for each channel or for each object. The decoding device according to (1), further comprising:
(10)
gain-adjusting a high-frequency power value for each channel or for each object based on the priority information for the predetermined time and the priority information for the time before or after the predetermined time; (9) The decoding device according to (9), further comprising a high-frequency generating unit that generates high-frequency components of the audio signal at the predetermined time based on the gain-adjusted power value and the audio signal at the predetermined time. .
(11)
further comprising a high frequency generator that generates an audio signal of the predetermined time containing high frequency components based on the power value of the high frequency and the audio signal of the predetermined time for each channel or object;
The decoding device according to (9), wherein the gain adjustment section adjusts the gain of the audio signal for the predetermined time including high frequency components.
(12)
(1) further comprising a rendering unit that allocates an audio signal of an object to each of the plurality of channels with a predetermined gain value based on the priority information for the predetermined time to generate the audio signal of each of the plurality of channels. The decoding device according to .
(13)
Obtaining encoded audio signals of multiple channels or multiple objects and priority information of each said audio signal at a given time;
decoding, based on the priority information, the encoded audio signal of a predetermined number of channels or objects according to the priority information.
(14)
Obtaining encoded audio signals of multiple channels or multiple objects and priority information of each said audio signal at a given time;
A program that causes a computer to perform a process comprising, based on the priority information, decoding the encoded audio signal of a predetermined number of channels or objects according to the priority information.
(15)
a priority information generator for generating priority information at a given time of audio signals of multiple channels or multiple objects;
and a packing unit that stores the priority information in a bitstream.
(16)
The encoding device according to (15), wherein the priority information generation unit generates a plurality of pieces of the priority information for each audio signal.
(17)
The encoding device according to (16), wherein the priority information generation unit generates the priority information for each computational capability according to the computational capability of a decoding side of the encoded audio signal.
(18)
The encoding device according to any one of (15) to (17), wherein the priority information generating section generates the priority information based on sound pressure or spectrum shape of the audio signal.
(19)
further comprising an encoding unit that encodes audio signals of the plurality of channels or the plurality of objects;
The encoding device according to any one of (15) to (18), wherein the packing unit stores the priority information and the encoded audio signal in the bitstream.
(20)
generating priority information at a given time for an audio signal of multiple channels or multiple objects;
An encoding method, comprising: storing the priority information in a bitstream.
(21)
generating priority information at a given time for an audio signal of multiple channels or multiple objects;
A program that causes a computer to execute a process including a step of storing the priority information in a bitstream.
11 符号化装置, 21 チャネルオーディオ符号化部, 22 オブジェクトオーディオ符号化部, 23 メタデータ入力部, 24 パッキング部, 51 符号化部, 52 優先度情報生成部, 61 MDCT部, 91 符号化部, 92 優先度情報生成部, 101 MDCT部, 151 復号装置, 161 アンパッキング/復号部, 162 レンダリング部, 163 ミキシング部, 191 優先度情報取得部, 193 チャネルオーディオ信号復号部, 194 出力選択部, 196 IMDCT部, 198 オブジェクトオーディオ信号復号部, 199 出力選択部, 201 IMDCT部, 231 優先度情報生成部, 232 優先度情報生成部, 271 オーバーラップ加算部, 272 ゲイン調整部, 273 SBR処理部, 274 オーバーラップ処理部, 275 ゲイン調整部, 276 SBR処理部 11 encoding device, 21 channel audio encoding unit, 22 object audio encoding unit, 23 metadata input unit, 24 packing unit, 51 encoding unit, 52 priority information generation unit, 61 MDCT unit, 91 encoding unit, 92 priority information generation unit, 101 MDCT unit, 151 decoding device, 161 unpacking/decoding unit, 162 rendering unit, 163 mixing unit, 191 priority information acquisition unit, 193 channel audio signal decoding unit, 194 output selection unit, 196 IMDCT unit, 198 object audio signal decoding unit, 199 output selection unit, 201 IMDCT unit, 231 priority information generation unit, 232 priority information generation unit, 271 overlap addition unit, 272 gain adjustment unit, 273 SBR processing unit, 274 overlap processor, 275 gain adjuster, 276 SBR processor
本技術は復号装置および方法、並びにプログラムに関し、特に、オーディオ信号の復号の計算量を低減させることができるようにした復号装置および方法、並びにプログラムに関する。 TECHNICAL FIELD The present technology relates to a decoding device, method, and program, and more particularly to a decoding device, method, and program capable of reducing the amount of calculation for decoding an audio signal.
本技術の第1の側面の復号装置は、チャネルまたはオブジェクトの符号化されたオーディオ信号、および前記オーディオ信号の優先度情報を取得する取得部と、前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号するオーディオ信号復号部と、チャネルごとまたはオブジェクトごとに、高域のパワー値とオーディオ信号とに基づいてSBR処理を行い、高域成分が含まれるオーディオ信号を生成するSBR処理部と、前記SBR処理により生成されたオブジェクトのオーディオ信号を複数の各チャネルに所定のゲイン値で割り当てて、前記複数の各チャネルのオーディオ信号を生成するレンダリング部とを備える。 A decoding device according to a first aspect of the present technology includes an acquisition unit that acquires an encoded audio signal of a channel or an object and priority information of the audio signal; an audio signal decoding unit that decodes the coded audio signals of a predetermined number of channels or objects according to and performs SBR processing based on the high-frequency power value and the audio signal for each channel or each object an SBR processing unit that generates an audio signal including high-frequency components; and an audio signal of the object generated by the SBR processing is allocated to each of a plurality of channels with a predetermined gain value to generate an audio signal of each of the plurality of channels. and a rendering unit that generates
本技術の第1の側面の復号方法またはプログラムは、チャネルまたはオブジェクトの符号化されたオーディオ信号、および前記オーディオ信号の優先度情報を取得し、前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号し、チャネルごとまたはオブジェクトごとに、高域のパワー値とオーディオ信号とに基づいてSBR処理を行い、高域成分が含まれるオーディオ信号を生成し、前記SBR処理により生成されたオブジェクトのオーディオ信号を複数の各チャネルに所定のゲイン値で割り当てて、前記複数の各チャネルのオーディオ信号を生成するステップを含む。 A decoding method or program according to the first aspect of the present technology acquires an encoded audio signal of a channel or an object and priority information of the audio signal , and converts the priority information to the priority information based on the priority information. Decode the encoded audio signal of a predetermined number of channels or objects according to each channel or object, perform SBR processing based on the power value of the high frequency band and the audio signal, and include the high frequency component. and assigning the audio signal of the object generated by the SBR processing to each of the plurality of channels with a predetermined gain value to generate the audio signal of each of the plurality of channels.
本技術の第1の側面においては、チャネルまたはオブジェクトの符号化されたオーディオ信号、および前記オーディオ信号の優先度情報が取得され、前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号が復号され、チャネルごとまたはオブジェクトごとに、高域のパワー値とオーディオ信号とに基づいてSBR処理が行われ、高域成分が含まれるオーディオ信号が生成され、前記SBR処理により生成されたオブジェクトのオーディオ信号が複数の各チャネルに所定のゲイン値で割り当てられて、前記複数の各チャネルのオーディオ信号が生成される。 In a first aspect of the present technology, an encoded audio signal of a channel or an object and priority information of the audio signal are obtained, and based on the priority information, a predetermined The encoded audio signal of a number of channels or objects is decoded, SBR processing is performed based on the high frequency power value and the audio signal for each channel or object, and an audio signal containing high frequency components is generated, the audio signal of the object generated by the SBR processing is assigned to each of the plurality of channels with a predetermined gain value, and the audio signal of each of the plurality of channels is generated.
Claims (21)
前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号するオーディオ信号復号部と
を備える復号装置。 an acquisition unit for acquiring encoded audio signals of multiple channels or multiple objects and priority information of each said audio signal at a predetermined time;
and an audio signal decoding unit that decodes the encoded audio signals of a predetermined number of channels or objects according to the priority information, based on the priority information.
請求項1に記載の復号装置。 The decoding device according to claim 1, wherein the audio signal decoding section decodes the encoded audio signal whose priority level indicated by the priority level information is equal to or higher than a predetermined level.
請求項2に記載の復号装置。 The decoding device according to claim 2, wherein the obtaining unit changes the predetermined degree based on the priority information of the audio signals of the plurality of channels or the plurality of objects at the predetermined time.
前記オーディオ信号復号部は、前記複数の前記優先度情報のなかから選択された1つの前記優先度情報に基づいて、前記符号化されたオーディオ信号を復号する
請求項1に記載の復号装置。 The acquisition unit acquires a plurality of pieces of priority information for each audio signal,
The decoding device according to claim 1, wherein the audio signal decoding section decodes the encoded audio signal based on one piece of the priority information selected from the plurality of pieces of the priority information.
請求項4に記載の復号装置。 5. The decoding device according to claim 4, wherein the plurality of pieces of priority information are generated for each computational capability according to the computational capability of the decoding side of the encoded audio signal.
請求項1に記載の復号装置。 The decoding device according to claim 1, further comprising a priority information generating section that generates the priority information based on the encoded audio signal.
請求項6に記載の復号装置。 The decoding device according to claim 6, wherein the priority information generating section generates the priority information based on sound pressure or spectral shape of the audio signal obtained from the encoded audio signal.
請求項1に記載の復号装置。 The audio signal decoding unit decodes, for each channel or each object, the predetermined time based on the priority information for the predetermined time and the priority information for the time before or after the predetermined time. 2. The decoding device according to claim 1, selecting whether to decode the encoded audio signal of.
チャネルごとまたはオブジェクトごとに、前記所定の時間の前記優先度情報と、前記所定の時間よりも前または後の時間の前記優先度情報とに基づいて、前記所定の時間のオーディオ信号のゲイン調整を行うゲイン調整部と
をさらに備える請求項1に記載の復号装置。 When the decoding is performed, the signal obtained by the decoding is used as an output signal, and when the decoding is not performed, 0 data is used as the output signal, and the output of the predetermined time is performed for each channel or each object. an addition unit that adds the signal and the output signal before or after the predetermined time to generate the audio signal of the predetermined time;
Adjusting the gain of the audio signal for the predetermined time based on the priority information for the predetermined time and the priority information for the time before or after the predetermined time for each channel or for each object. 2. The decoding device according to claim 1, further comprising: a gain adjustment unit that performs
請求項9に記載の復号装置。 gain-adjusting a high-frequency power value for each channel or for each object based on the priority information for the predetermined time and the priority information for the time before or after the predetermined time; 10. The decoding device according to claim 9, further comprising a high frequency generator that generates high frequency components of the audio signal at the predetermined time based on the gain-adjusted power value and the audio signal at the predetermined time. .
前記ゲイン調整部は、高域成分が含まれる前記所定の時間のオーディオ信号のゲイン調整を行う
請求項9に記載の復号装置。 further comprising a high frequency generator that generates an audio signal of the predetermined time containing high frequency components based on the power value of the high frequency and the audio signal of the predetermined time for each channel or object;
10. The decoding device according to claim 9, wherein the gain adjustment section adjusts the gain of the audio signal for the predetermined time including high frequency components.
請求項1に記載の復号装置。 2. A rendering unit for generating audio signals for each of the plurality of channels by allocating an audio signal of the object to each of the plurality of channels with a predetermined gain value based on the priority information for the predetermined time. The decoding device according to .
前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号する
ステップを含む復号方法。 Obtaining encoded audio signals of multiple channels or multiple objects and priority information of each said audio signal at a given time;
decoding, based on the priority information, the encoded audio signal of a predetermined number of channels or objects according to the priority information.
前記優先度情報に基づいて、前記優先度情報に応じた所定の数のチャネルまたはオブジェクトの前記符号化されたオーディオ信号を復号する
ステップを含む処理をコンピュータに実行させるプログラム。 Obtaining encoded audio signals of multiple channels or multiple objects and priority information of each said audio signal at a given time;
A program that causes a computer to perform a process comprising, based on the priority information, decoding the encoded audio signal of a predetermined number of channels or objects according to the priority information.
前記優先度情報をビットストリームに格納するパッキング部と
を備える符号化装置。 a priority information generator for generating priority information at a given time of audio signals of multiple channels or multiple objects;
and a packing unit that stores the priority information in a bitstream.
請求項15に記載の符号化装置。 The encoding device according to claim 15, wherein the priority information generating section generates a plurality of pieces of the priority information for each audio signal.
請求項16に記載の符号化装置。 17. The encoding device according to claim 16, wherein the priority information generation unit generates the priority information for each computational capability according to the computational capability of a decoding side of the encoded audio signal.
請求項15に記載の符号化装置。 16. The encoding device according to claim 15, wherein the priority information generating section generates the priority information based on sound pressure or spectral shape of the audio signal.
前記パッキング部は、前記優先度情報と符号化された前記オーディオ信号とを前記ビットストリームに格納する
請求項15に記載の符号化装置。 further comprising an encoding unit that encodes audio signals of the plurality of channels or the plurality of objects;
The encoding device according to claim 15, wherein the packing unit stores the priority information and the encoded audio signal in the bitstream.
前記優先度情報をビットストリームに格納する
ステップを含む符号化方法。 generating priority information at a given time for an audio signal of multiple channels or multiple objects;
An encoding method, comprising: storing the priority information in a bitstream.
前記優先度情報をビットストリームに格納する
ステップを含む処理をコンピュータに実行させるプログラム。 generating priority information at a given time for an audio signal of multiple channels or multiple objects;
A program that causes a computer to execute a process including a step of storing the priority information in a bitstream.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014060486 | 2014-03-24 | ||
JP2014060486 | 2014-03-24 | ||
JP2021006899A JP7412367B2 (en) | 2014-03-24 | 2021-01-20 | Decoding device, method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021006899A Division JP7412367B2 (en) | 2014-03-24 | 2021-01-20 | Decoding device, method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023072027A true JP2023072027A (en) | 2023-05-23 |
Family
ID=65905576
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018217178A Active JP6863359B2 (en) | 2014-03-24 | 2018-11-20 | Decoding device and method, and program |
JP2021006899A Active JP7412367B2 (en) | 2014-03-24 | 2021-01-20 | Decoding device, method, and program |
JP2023038916A Pending JP2023072027A (en) | 2014-03-24 | 2023-03-13 | Decoder and method, and program |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018217178A Active JP6863359B2 (en) | 2014-03-24 | 2018-11-20 | Decoding device and method, and program |
JP2021006899A Active JP7412367B2 (en) | 2014-03-24 | 2021-01-20 | Decoding device, method, and program |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP6863359B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114550732B (en) * | 2022-04-15 | 2022-07-08 | 腾讯科技(深圳)有限公司 | Coding and decoding method and related device for high-frequency audio signal |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6230130B1 (en) * | 1998-05-18 | 2001-05-08 | U.S. Philips Corporation | Scalable mixing for speech streaming |
JP2003066994A (en) * | 2001-08-27 | 2003-03-05 | Canon Inc | Apparatus and method for decoding data, program and storage medium |
WO2008046530A2 (en) * | 2006-10-16 | 2008-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for multi -channel parameter transformation |
JP5340296B2 (en) * | 2009-03-26 | 2013-11-13 | パナソニック株式会社 | Decoding device, encoding / decoding device, and decoding method |
ES2793958T3 (en) * | 2009-08-14 | 2020-11-17 | Dts Llc | System to adaptively transmit audio objects |
EP2469741A1 (en) * | 2010-12-21 | 2012-06-27 | Thomson Licensing | Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field |
TWI573131B (en) * | 2011-03-16 | 2017-03-01 | Dts股份有限公司 | Methods for encoding or decoding an audio soundtrack, audio encoding processor, and audio decoding processor |
EP2727369B1 (en) * | 2011-07-01 | 2016-10-05 | Dolby Laboratories Licensing Corporation | Synchronization and switchover methods and systems for an adaptive audio system |
-
2018
- 2018-11-20 JP JP2018217178A patent/JP6863359B2/en active Active
-
2021
- 2021-01-20 JP JP2021006899A patent/JP7412367B2/en active Active
-
2023
- 2023-03-13 JP JP2023038916A patent/JP2023072027A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2019049745A (en) | 2019-03-28 |
JP7412367B2 (en) | 2024-01-12 |
JP2021064013A (en) | 2021-04-22 |
JP6863359B2 (en) | 2021-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6439296B2 (en) | Decoding apparatus and method, and program | |
JP6626581B2 (en) | Apparatus and method for encoding or decoding a multi-channel signal using one wideband alignment parameter and multiple narrowband alignment parameters | |
KR101921403B1 (en) | Higher order ambisonics signal compression | |
RU2555221C2 (en) | Complex transformation channel coding with broadband frequency coding | |
AU2006233504B2 (en) | Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing | |
JP4676140B2 (en) | Audio quantization and inverse quantization | |
JP2010217900A (en) | Multi-channel audio encoding and decoding | |
EP2839460A1 (en) | Stereo audio signal encoder | |
EP3987516B1 (en) | Coding scaled spatial components | |
JP2023072027A (en) | Decoder and method, and program | |
WO2020080099A1 (en) | Signal processing device and method, and program | |
EP3987515B1 (en) | Performing psychoacoustic audio coding based on operating conditions | |
WO2023286698A1 (en) | Encoding device and method, decoding device and method, and program | |
RU2809587C1 (en) | Device, method and computer program for encoding audio signal or for decoding encoded audio scene | |
EP3987513B1 (en) | Quantizing spatial components based on bit allocations determined for psychoacoustic audio coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |