WO2014115225A1 - 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法 - Google Patents

帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法 Download PDF

Info

Publication number
WO2014115225A1
WO2014115225A1 PCT/JP2013/007448 JP2013007448W WO2014115225A1 WO 2014115225 A1 WO2014115225 A1 WO 2014115225A1 JP 2013007448 W JP2013007448 W JP 2013007448W WO 2014115225 A1 WO2014115225 A1 WO 2014115225A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
tone
frequency
floor
parameter
Prior art date
Application number
PCT/JP2013/007448
Other languages
English (en)
French (fr)
Inventor
石川 智一
コックセン チョン
ゾンシアン リウ
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP13872902.5A priority Critical patent/EP2950308B1/en
Priority to CN201380043203.2A priority patent/CN104584124B/zh
Priority to JP2014558299A priority patent/JP6262668B2/ja
Publication of WO2014115225A1 publication Critical patent/WO2014115225A1/ja
Priority to US14/621,885 priority patent/US9424847B2/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques

Definitions

  • the present invention relates to a sound signal encoding device, a decoding device, and the like, and more particularly to a bandwidth expansion technique in sound signal encoding and decoding.
  • a core coding tool is used for coding sound signals (speech signals and audio signals).
  • a parametric coding tool is used for coding sound signals (speech signals and audio signals).
  • BWE tool bandwidth extension tool
  • a copy-up method and a harmonic method are known in technologies such as MPEG USAC (Non-Patent Document 2).
  • the copy-up method is a simple method for generating a high-frequency spectrum by copying a low-frequency spectrum.
  • the problem with the copy-up method is that the harmonic relationship between the two spectra cannot be accurately maintained. That is, sound quality is a problem.
  • the harmonic method is a method of generating a spectrum of a high frequency part by stretching a spectrum of a low frequency part harmonically and cutting it out.
  • the harmonic method since processing is complicated, there are problems in that the delay time is large and a large memory is required.
  • the present invention provides a bandwidth extension parameter generation device and the like using a new bandwidth extension method.
  • a bandwidth expansion parameter generation device shows an extraction unit that extracts a high frequency signal indicating a high frequency part of an input sound signal, and indicates the magnitude of energy of a tone component in the high frequency signal
  • a calculation unit that calculates a tone parameter and a floor parameter that indicates a magnitude of energy of a floor component that is a component obtained by removing the tone component from the high-frequency signal;
  • the bandwidth expansion parameter generation device and the like of the present invention it is possible to suppress the delay time and the memory used and to expand the bandwidth with high sound quality.
  • FIG. 1 is a schematic diagram for explaining a copy-up method (FIG. 1A) and a harmonic method (FIG. 1B).
  • FIG. 2 is a block diagram showing two BWE modes in the USAC decoder.
  • FIG. 3 is a block diagram showing a functional configuration of the encoding apparatus according to Embodiment 1.
  • FIG. 4 is a flowchart of the operation of the encoding apparatus according to Embodiment 1.
  • FIG. 5 is a diagram illustrating the relationship between time slots and parameter slots, and the relationship between subbands and parameter bands.
  • FIG. 6 is a block diagram illustrating a functional configuration of the decoding apparatus according to the second embodiment.
  • FIG. 7 is a flowchart of the operation of the decoding apparatus according to the second embodiment.
  • FIG. 1 is a schematic diagram for explaining a copy-up method (FIG. 1A) and a harmonic method (FIG. 1B).
  • FIG. 2 is a block diagram showing two BWE modes in the USAC decode
  • FIG. 8 is a block diagram showing a functional configuration of the encoding apparatus according to Embodiment 3.
  • FIG. 9 is a flowchart of the operation of the encoding apparatus according to the third embodiment.
  • FIG. 10 is a diagram illustrating the framing operation and the window processing operation of the framer.
  • FIG. 11 is a diagram showing pure tone energy in each of the MDCT region, the MDST region, and the complex region.
  • FIG. 12 is a block diagram illustrating a functional configuration of the decoding apparatus according to the fourth embodiment.
  • FIG. 13 is a flowchart of the operation of the decoding apparatus according to the fourth embodiment.
  • a parametric coding tool Generally, at least two types of tools, a parametric coding tool and a core coding tool, are used for coding sound signals (speech signal and audio signal).
  • a parametric coding tool Generally, at least two types of tools, a parametric coding tool and a core coding tool, are used for coding sound signals (speech signal and audio signal).
  • the parametric encoding tool will be described.
  • the parametric encoding tool performs encoding for the purpose of maintaining and reconstructing the perceptual characteristics of an input sound signal (hereinafter, sometimes referred to as an input signal, an original signal, or a signal to be encoded). .
  • an input sound signal hereinafter, sometimes referred to as an input signal, an original signal, or a signal to be encoded.
  • the perceptual characteristics of the input signal are indicated by a small number of parameters encoded at a low bit rate.
  • the reconstructed signal which is a signal obtained by decoding the signal encoded by the parametric coding tool, perceptually maintains the quality of the input signal, but the waveform of the reconstructed signal is not similar to the waveform of the input signal.
  • Parametric coding tools include bandwidth extension tools and multi-channel extension tools.
  • the bandwidth extension tool encodes the high frequency part of the signal parametrically by utilizing the harmonic relationship between the high frequency part of the signal and the low frequency part.
  • parameters generated by the encoding of the bandwidth extension tool include subband energy and tone-to-noise ratio.
  • the bandwidth extension parameter is used to form the amplitude of the spectrally extended high frequency part signal.
  • the signal of the high frequency part is formed by extending the low frequency part by patching or expansion in the decoder. In the decoder, floor noise and sound quality are appropriately supplemented.
  • the resulting output signal waveform is not similar to the input signal waveform, but the output signal is perceptually similar to the input signal.
  • HE-AAC is a codec that includes such a bandwidth extension tool and spectral band replication (SBR).
  • SBR spectral band replication
  • parameter calculation is performed in a time / frequency hybrid region generated using an orthogonal mirror filter bank (QMF).
  • QMF orthogonal mirror filter bank
  • ITU-T G. 718 is a codec having a bandwidth extension tool.
  • parameter calculation is performed in a modified discrete cosine transform (MDCT) domain.
  • MDCT modified discrete cosine transform
  • the multi-channel extension tool downmixes multi-channel signals into channel subsets for encoding.
  • the relationship between individual channels is encoded parametrically.
  • parameters generated by the encoding of the multi-channel extension tool include an inter-channel level difference, an inter-channel time difference, and an inter-channel correlation.
  • the decoder synthesizes the individual channels by mixing the decoded downmix channel with the artificially generated “non-correlated” signal. The mixing weight is calculated based on the aforementioned parameters.
  • MPEG Surround MPS is a good example of a multi-channel extension tool.
  • the core coding tool In contrast to the parametric coding tool, the core coding tool performs coding for the purpose of maintaining and reconstructing the waveform characteristics of the input signal.
  • Core coding tools are usually applied to the low frequency part of the spectrum where the human ear is most sensitive. Core coding tools are roughly classified into two types: audio codecs and speech codecs.
  • the audio codec is suitable for encoding a stationary signal (for example, a tone signal or a harmonic signal) including a localized spectral component.
  • a stationary signal for example, a tone signal or a harmonic signal
  • encoding is mainly performed in the frequency domain.
  • the audio codec encoder converts the signal into the frequency (spectrum) domain using time / frequency conversion and MDCT. During MDCT, partially overlapping frames are windowed.
  • the partial overlap of frames is provided in order to implement a smoothing mechanism between adjacent frames in the decoder.
  • Window processing has two purposes: to generate a high-resolution spectrum for smoothing and to blur frame boundaries.
  • time domain samples are converted into a smaller number of spectral coefficients for encoding during MDCT. This conversion produces aliasing components that are canceled by being superimposed at the decoder.
  • the audio codec has the advantage that the psychoacoustic model can be easily applied. Specifically, in the audio codec, it is possible to assign a smaller number of bits to a masked sound (masker) and a more masked sound (masker).
  • a masky is a sound that is masked by other sounds and cannot be detected by the human ear.
  • the audio codec can greatly improve the encoding efficiency and sound quality.
  • MPEG Advanced Audio Coding AAC is a good example of a pure audio codec.
  • the speech codec is a codec based on a model that uses the pitch characteristics of the vocal tract, and is therefore suitable for encoding human speech (speech signal).
  • a linear prediction (LP) filter is used to obtain a spectral envelope of a speech signal, and the speech signal is encoded into LP filter coefficients.
  • the speech signal is then inverse filtered (spectrally separated) by the LP filter to produce a spectrally flat excitation signal.
  • the generated excitation signal is typically discretely encoded with a vector quantization (VQ) scheme that indicates the excitation signal in a “codeword”.
  • VQ vector quantization
  • long-term prediction in addition to linear prediction, long-term prediction (LTP) can be incorporated in order to acquire long-term speech.
  • LTP long-term prediction
  • the psychoacoustic aspect can be taken into account by applying a whitening filter to the speech signal before linear prediction.
  • the speech codec can obtain good sound quality at a low bit rate by discrete encoding of the excitation signal. However, since the speech codec cannot acquire the complex spectrum of content such as music, it is not suitable for encoding such content.
  • ITU-T Adaptive Multirate Wideband (AMR-WB) is a good example of a pure speech codec.
  • TCX transform coding excitation
  • TCX In TCX, first, a signal is perceptually weighted by a perceptual filter derived from a linear prediction filter of the signal. The weighted signal is then converted to the spectral domain (spectral coefficients) and the spectral coefficients are encoded with a VQ scheme.
  • TCX is found in the ITU-T adaptive multi-rate wideband + (AMR-WB +) codec. Note that the frequency transform used in AMR-WB + is a discrete Fourier transform (DFT).
  • DFT discrete Fourier transform
  • USAC unified speech acoustic coding
  • Non-Patent Document 2 unified speech acoustic coding
  • USAC is a low-bit-rate codec that can be combined with an optimal tool among all the above tools (AAC, LP, TCX, SBR, and MPS).
  • USAC can also support speech and audio coding at a wide range of bit rates.
  • the USAC encoder operates the MPS tool to downmix the stereo signal into a monaural signal. Also, the USAC encoder operates the SBR tool to compress the full-band monaural signal into a narrow-band monaural signal. The USAC encoder then analyzes the characteristics of the input signal using a signal selector to determine which core codec (AAC, LP, TCX) to operate in order to encode the narrowband mono signal. .
  • AAC, LP, TCX core codec
  • Non-Patent Document 2).
  • the allowable delay in encoding and decoding is about 10 milliseconds. Therefore, it is desirable that the BWE tool used in encoding and decoding also has a low delay.
  • FIG. 1 is a schematic diagram for explaining a copy-up method and a harmonic method.
  • the spectrum of the low frequency part is directly copied as the spectrum of the high frequency part.
  • the complexity of the operation of the copy-up method is very low, the operation of the copy-up method cannot accurately maintain the harmonic relationship between the two spectra.
  • the spectrum of the high frequency portion is generated by stretching the spectrum of the low frequency portion harmonically and cutting it out.
  • This principle of operation is similar to that of a phase vocoder and includes multiple sub-processes of time extension and resampling. Therefore, the operation complexity of the harmonic method is high.
  • FIG. 2 is a block diagram showing two BWE modes in the USAC decoder.
  • the QMF analysis 200 is performed on the narrowband signal obtained from the core decoder, and a 32-band subband signal is generated.
  • the 32-band subband signal may be processed in the copy-up mode 207 or the harmonic mode 208 in accordance with the BWE mode flag before the high frequency (HF) adjustment 206.
  • a critical sampling 202 is further required to convert a 32-band subband signal into a 64-band subband signal.
  • the QMF synthesis 203 for converting the subband signals of 32 bands into the time domain is performed, and then the QMF analysis 204 is performed on the signals of the time domain after the QMF synthesis 203 to obtain the subband signals of 64 bands. Generated.
  • the generated 64-band subband signal is temporally stretched and resampled 205 to generate a high frequency portion.
  • the QMF filter bank process in the critical sampling 202 further delays the decoding process.
  • the copy-up mode 207 it is not possible to maintain a harmonic relationship between the low-frequency part spectrum and the copied high-frequency part spectrum. For this reason, the copy-up 201 does not work when applied to a signal having a strong harmonic structure (strong tone). In a signal with strong tone characteristics, the tone component is usually dominated by the high energy tone component and its harmonics.
  • the inventors have invented a new bandwidth expansion technique based on such knowledge, in order to solve problems such as complexity, delay, and memory in the copy-up method and the harmonic method.
  • the bandwidth extension parameter generation device includes an extraction unit that extracts a high frequency signal indicating a high frequency part of an input sound signal, and energy of a tone component of the high frequency signal And a calculation unit that calculates a floor parameter indicating a magnitude of energy of a floor component that is a component obtained by removing the tone component from the high frequency signal.
  • An encoding apparatus includes: the bandwidth extension parameter generation apparatus; an encoding unit that encodes a signal indicating the input sound signal from which the high-frequency portion has been removed into a core parameter; and the tone A bitstream multiplexer that generates and outputs a bitstream including parameters, the floor parameters, and the core parameters.
  • a filter unit that generates a narrowband signal that is the input sound signal from which the high frequency part is removed, and a QMF (Quadrature Mirror Filter) analysis unit that converts the input sound signal into a subband signal are provided.
  • the encoding unit may encode the narrowband signal into the core parameter, and the extraction unit may extract an HF subband signal that is a high frequency part of the subband signal as the high frequency signal.
  • an MDCT unit that generates an MDCT signal obtained by processing the input sound signal by MDCT (Modified Discrete Cosine Transform)
  • an MDST unit that generates an MDST signal obtained by processing the input sound signal by MDST (Modified Discrete Sine Transform).
  • the encoding unit encodes the MDCT signal from which the portion corresponding to the high frequency portion of the input sound signal is removed into a core parameter, and the extraction unit is a complex signal from the MDCT signal and the MDST signal. And the high frequency part of the generated complex signal may be extracted as the high frequency signal.
  • a decoding device is a decoding device that decodes a bitstream, and the bitstream includes a core parameter that is a low frequency portion of an encoded input sound signal, and the input sound signal.
  • a tone parameter indicating the magnitude of the energy of the tone component of the high-frequency signal indicating the high-frequency portion, and the magnitude of the energy of the floor component that is a component obtained by removing the tone component of the high-frequency signal.
  • a decoding unit that generates a decoded narrowband signal by decoding the core parameter; and a low-frequency tone signal that is a signal indicating a tone component of the decoded narrowband signal.
  • a dividing unit that generates a low-frequency floor signal that is a signal indicating a floor component of the decoded narrow-band signal, and the high-frequency signal using the low-frequency tone signal A tone expansion unit that generates a high-frequency tone signal that is a signal corresponding to a tone component, and a floor expansion that generates a high-frequency floor signal that is a signal corresponding to the floor component of the high-frequency signal using the low-frequency floor signal.
  • the tone extension unit may generate a signal indicating a harmonic component of a tone component included in the low frequency tone signal as the high frequency tone signal.
  • a QMF analysis unit that converts the decoded narrowband signal into a subband signal is provided, and the division unit divides the subband signal, thereby dividing the low frequency tone signal and the low frequency floor signal. And the addition unit generates the bandwidth extension signal obtained by adding the subband signal, the adjusted tone signal, and the adjusted floor signal, which are signals obtained from the core parameters. Good.
  • the tone extension unit includes (1) energy of a tone component larger than a predetermined multiple of energy of a tone component of an adjacent subband, and (2) the subband in the low-frequency tone signal.
  • the bitstream further includes a bitstream demultiplexer that generates the tone parameter, the floor parameter, and the core parameter from the bitstream, and a QMF synthesis unit that converts the bandwidth extension signal into a time domain. Also good.
  • the decoding unit (1) decodes the core parameter to generate an MDCT signal, (2) generates an MDST signal obtained by converting the MDCT signal into an MDST region, and (3) the generated MDCT signal and A complex signal obtained from the MDST signal is generated as the decoded narrowband signal, and the adder is a signal obtained from the core parameter, the MDCT signal, the adjusted tone signal, and the adjusted floor signal May be generated.
  • the tone extension unit selects a frequency bin in which the energy of the tone component is larger than a predetermined multiple of the energy of the tone component of the adjacent frequency bin from the frequency bins in the low-frequency tone signal, and selects the selected frequency bin.
  • the high-frequency tone signal may be generated by replicating the low-frequency tone signal of the selected frequency bin in an integer multiple of the frequency bin.
  • bitstream demultiplexer that generates the tone parameter, the floor parameter, and the core parameter from the bitstream, and an IMDCT (Inverse Modified Discrete Coscine Transform) that converts the bandwidth extension signal into the time domain. ) Part.
  • FIG. 3 is a block diagram showing a functional configuration of the encoding apparatus according to Embodiment 1.
  • FIG. 4 is a flowchart of the operation of the encoding apparatus according to Embodiment 1.
  • the encoding device 100a includes a filter unit 300, an encoding unit 301, a QMF analysis unit 302, an extraction unit 303, a calculation unit 304, a bit stream, And a multiplexer 305.
  • the extraction unit 303 and the calculation unit 304 are also described as a bandwidth extension parameter generation device 306. That is, the bandwidth extension parameter generation device 306 includes an extraction unit 303 and a calculation unit 304.
  • the filter unit 300 (low-pass filter) generates a narrowband signal x NB (n) obtained by removing the high frequency part (high frequency part) of the input signal x (n) from the input signal x (n) (S101).
  • n is a sample index.
  • the narrowband signal x NB (n) is a low frequency part (low frequency part) of the input signal x (n), and is encoded by the encoding unit 301.
  • the high frequency part of the input signal x (n) is encoded by the calculation unit 304.
  • the encoding unit 301 encodes the narrowband signal x NB (n) (the signal indicating the input signal x (n) from which the high frequency part has been removed) as a core parameter (S102).
  • a core parameter S102
  • Prior art core encoders such as AAC, LP, and TCX are all used in the encoder 301.
  • the encoding unit 301 uses two or more of the above core encoders.
  • the encoding unit 301 may further include a codec switching handler that generates an additional parameter for performing a smooth and artifact-free frame transition in switching from one core coder to another.
  • the QMF analyzer 302 (QMF analysis filter bank) converts the input signal x (n) into a subband signal X (ts, sb) of 2M band display (S103).
  • the extraction unit 303 extracts a high frequency signal indicating a high frequency part of the input signal x (n). Specifically, X HF (ts, sb), which is a high frequency part of the subband signal X (ts, sb), is extracted as a high frequency signal (S104).
  • the start frequency of the high-frequency signal X HF (ts, sb) matches the low-pass filter bandwidth that constitutes the filter unit 300.
  • this start frequency (predetermined frequency) is referred to as a crossover frequency f xover .
  • M 32.
  • the calculation unit 304 calculates a tone parameter and a floor parameter using the high frequency signal X HF (ts, sb) (S105).
  • the tone parameter is a parameter indicating the magnitude of the energy of the tone component in the high frequency signal X HF (ts, sb).
  • the floor parameter is a parameter indicating the magnitude of the energy of the floor component that is a component of the high frequency signal X HF (ts, sb) excluding the tone component.
  • the tone component means a peak component on the frequency axis of the sound signal, and corresponds to a component caused by steady and periodic vibration of the sound source.
  • the tone component is a component that is unevenly distributed at a specific frequency in the sound signal, and is a component that mainly indicates the unique property of the sound source that emits the sound to be encoded.
  • “Strong tone property (high)” basically means that the energy of the tone component is large.
  • the floor component is a so-called stationary noise component caused by a steady but non-periodic phenomenon such as friction or turbulence in the sound signal, or a non-stationary phenomenon such as a hit or a sudden change in the sound source state.
  • This corresponds to a so-called transient noise component.
  • the floor component is a component that exists regardless of the frequency in the sound signal.
  • the bitstream multiplexer 305 combines the tone parameter, floor parameter, and core parameter, generates a bitstream including these parameters, and outputs the bitstream to the decoding device (S106).
  • the high frequency signal X HF (ts, sb) is divided into parameter units (ps, pb) determined by a predetermined parameter slot (ps) and a parameter band (pb).
  • the calculation unit 304 calculates and quantizes one tone parameter and one floor parameter for each parameter unit (ps, pb).
  • FIG. 5 is a diagram showing the relationship between time slots and parameter slots, and the relationship between subbands and parameter bands.
  • Information defining the relationship between parameter band and parameter slot boundaries and resolution may be determined in advance, or such information may be dynamically calculated to form part of the bitstream. .
  • the tone parameter is tone component energy (hereinafter also referred to as tone energy), and the floor parameter is floor component energy (hereinafter also referred to as floor energy).
  • tone energy may be any parameter as long as it indicates the magnitude of tone component energy.
  • floor parameter may be anything as long as it indicates the magnitude of the energy of the floor component.
  • the calculation unit 304 calculates (estimates) tone parameters and floor parameters as follows using a linear prediction method.
  • the calculation unit 304 calculates a covariance matrix element for each subband sb as follows. In other words, a correlation coefficient is calculated for each QMF coefficient.
  • the calculation unit 304 calculates the linear prediction coefficient as follows.
  • the calculation unit 304 calculates the total tone energy of the parameter unit as follows.
  • the calculation unit 304 calculates the total floor energy of the parameter unit as follows.
  • the tone parameters and floor parameters calculated as described above are transmitted to the decoding device as a bit stream after quantization.
  • tone energy and floor energy is not limited to the above method.
  • the tone energy and floor energy may be calculated by any method including the prior art.
  • tone parameter and the floor parameter such as nonlinear quantization and differential encoding may be quantized (encoded) by any method.
  • various quantization techniques (encoding techniques) including the prior art can be applied.
  • the bandwidth extension method executed by the encoding apparatus 100a selectively executes a plurality of bandwidth extension methods including another structurally compatible bandwidth extension method (for example, a copy-up method). May be implemented as part of a possible multi-mode encoding method.
  • the BWE flag indicates a preferable bandwidth extension method for each parameter unit, and is generated as a part of the bit stream.
  • encoding apparatus 100a estimates the tone energy and floor energy of the high frequency part of the input signal, and generates a bandwidth extension parameter indicating the magnitude of these energies (code ).
  • the decoding apparatus can generate a bandwidth extension signal having the same energy, tone floor ratio, and harmonic structure as the input signal.
  • FIG. 6 is a block diagram illustrating a functional configuration of the decoding apparatus according to the second embodiment.
  • FIG. 7 is a flowchart of the operation of the decoding apparatus according to the second embodiment.
  • the decoding device 200a includes a bitstream demultiplexer 500, a decoding unit 501, a QMF analysis unit 502, a division unit 503, a tone expansion unit 504, a floor expansion unit 505, a tone An adjustment unit 506, a floor adjustment unit 507, an addition unit 508, and a QMF synthesis unit 509 are provided.
  • the bitstream demultiplexer 500 generates (extracts) tone parameters, floor parameters, and core parameters by unpacking the bitstream (S201).
  • the decoding unit 501 decodes the core parameter and generates a decoded narrowband signal x (n) (S202).
  • Prior art core decoders such as AAC, LP, and TCX are all used in the decoding unit 501.
  • the decoding unit 501 uses two or more of the above-described core decoders.
  • the decoding unit 501 may further include a codec switching handler for performing smooth and artifact-free frame transition in switching from one core coder to another.
  • codec switching techniques such as window processing, addition of overlapping portions, and aliasing removal may be used.
  • the QMF analysis unit 502 converts the decoded narrowband signal x (n) into an M band display subband signal X (ts, sb).
  • the upper limit of the bandwidth of the subband signal X (ts, sb) is f xover .
  • the subband signal X (ts, sb) is a signal obtained from the core parameters.
  • the dividing unit 503 includes a low-frequency tone signal that is a signal indicating the tone component of the decoded narrowband signal x (n), and a low-frequency floor signal that is a signal indicating the floor component of the decoded narrowband signal x (n). Is generated. Specifically, the dividing unit 503 divides the subband signal X (ts, sb) into the low frequency tone signal X T (ts, sb) and the low frequency floor signal X F (ts, sb). In the second embodiment, division is performed as follows by linear prediction and inverse filtering.
  • the dividing unit 503 applies the equations (1) to (5) described in the first embodiment to the subband signal X (ts, sb), and linear prediction coefficients ⁇ 0 (ps, sb) and ⁇ 1 (ps , Sb), tone energy E T (ps, sb), and floor energy E F (ps, sb) are calculated.
  • the dividing unit 503 performs inverse filtering on the subband signal X (ts, sb) to derive the low-frequency tone signal X T (ts, sb) and the low-frequency floor signal X F (ts, sb) as follows. To do.
  • the dividing unit 503 evaluates whether or not the sub-band sb has high (strong) tone characteristics based on tone energy (energy of the low-frequency tone signal X T (ts, sb)).
  • a threshold can be used as an evaluation criterion. For example, when the tone energy of the subband sb satisfies the following equations (8), (9), and (10), it is evaluated that the tone property of the subband sb is high.
  • the tone energy of the subband sb is higher than the tone energy of the adjacent subband C 1 (C 1 > 0) times, and the floor energy of the subband sb is C 2 ( If it is higher than (C 2 > 0) times, the tone property of the subband sb is evaluated as high.
  • the dividing unit 503 may use only subbands in a band above a predetermined frequency for harmonic extension so that the distribution of harmonics is not too dense.
  • NT for example, 3 subbands sb that are not in a harmonic relationship (ie, subbands sb that are most important to each other) in descending order of tone energy from all subbands sb that meet the above criteria.
  • the selected subband sb is referred to as a tone subset sb T.
  • a method of dividing the subband signal X (ts, sb) into a low-frequency tone signal (tone component) and a low-frequency floor signal (floor component) and a method of selecting a subband sb with high tone energy are as follows: The method is not limited to the above method, and any method may be used.
  • the tone extension unit 504 may perform evaluation and selection of the subband. That is, the tone extension unit 504 may select the tone subset sb T from the subband sb in the low-frequency tone signal.
  • the tone subset sb T is a subband in which the energy of the tone component is larger than the predetermined multiple of the energy of the tone component of the adjacent subband and larger than the predetermined multiple of the energy of the floor component of the subband. It is.
  • a floor signal is generated (S205). Specifically, the floor extension unit 505 generates a high-frequency floor signal (patched floor signal) X ′ F (ts, sb) obtained by patching the low-frequency floor signal X F (ts, sb) to a high-frequency portion. .
  • the high-frequency floor signal X ′ F (ts, sb) is generated using the copy-up method used in HE-AAC.
  • the function map () is a patching function that copies the subband of map (sb) to the subband sb in the high frequency region
  • the patching operation is expressed by the following equation.
  • a signal X ′ T (ts, sb) is generated.
  • the tone expansion unit 504 uses the following harmonic expansion method.
  • the tone extension unit 504 duplicates (copies) a tone component having high tone characteristics located in the tone subset sb T in a high frequency region according to an integer harmonic ratio (for example, 2, 3, 4).
  • an integer harmonic ratio for example, 2, 3, 4
  • the following pseudo code shows the duplication operation.
  • the maximum harmonic ratio for example, 4 can be set.
  • the harmonic expansion method here is different from the harmonic method in the harmonic mode described in FIG. 2, and QMF filter bank processing (QMF synthesis 203 and QMF analysis 204) and temporal expansion and resampling 205 are performed. Absent. For this reason, the harmonic expansion method here has a lower delay than the harmonic method of FIG.
  • the high frequency tone signal X ′ T (ts, sb) and the high frequency floor signal X ′ F (ts, sb) are predicted to be greater than the M band and less than the 2M band.
  • the tone extension unit 504 generates a signal indicating the harmonic component of the tone component included in the low-frequency tone signal as a high-frequency tone signal.
  • the tone adjustment unit 506 generates an adjusted tone signal X ′′ T (ts, sb) obtained by adjusting the high-frequency tone signal X ′ T (ts, sb) using the tone parameter (S207).
  • the tone parameter is tone energy E T (ps, pb) determined for each parameter unit (ps, pb), and the high-frequency tone signal X ′ T (ts, sb) is adjusted as follows. .
  • the tone adjustment unit 506 generates an adjusted tone signal X ′′ T (ts, sb) that is a high-frequency tone signal X ′ T (ts, sb) whose energy is adjusted to the tone energy indicated by the tone parameter. .
  • the high-frequency tone signal X ′ T (ts, sb) may not have a tone component in the parameter band pb.
  • an artificial harmonic harmonic may be injected into the center of the parameter band pb before the adjustment operation of the tone adjustment unit 506. An example is shown below.
  • the floor adjustment unit 507 generates an adjusted floor signal X ′′ F (ts, sb) obtained by adjusting the high-frequency floor signal X ′ F (ts, sb) using the floor parameter (S208).
  • the floor parameter is the floor energy E F (ps, pb) determined for each parameter unit (ps, pb), and the high-frequency floor signal X ′ F (ts, sb) is adjusted as follows. .
  • the floor adjustment unit 507 generates the adjusted floor signal X ′′ F (ts, sb) that is the high-frequency floor signal X ′ F (ts, sb) whose energy is adjusted to the floor energy indicated by the floor parameter. .
  • boundary between the parameter slot and the parameter band may be determined in advance, or may be dynamically generated using information included in the bitstream.
  • the adder 508 adds the sub-band signal X (ts, sb), the adjusted tone signal X ′′ T (ts, sb), and the adjusted floor signal X ′′ F (ts, sb) to the bandwidth extension signal X "(Ts, sb) is generated (S209).
  • the QMF synthesis unit 509 converts (inversely transforms) the bandwidth extension signal X ′′ (ts, sb) into the time domain signal x ′′ (n) (S210).
  • tone energy tone parameter
  • floor energy floor parameter
  • tone energy and floor energy may be subjected to common pre-processing before use.
  • tone energy and floor energy may be interpolated and / or smoothed by a low pass filter in either or both of the time slot direction and the subband direction.
  • the degree of inverse filtering may be adjusted by multiplying the linear prediction coefficient by a certain “chirp function”.
  • the bandwidth extension method executed by the decoding device 200a is a multimode decoding method capable of selectively executing a plurality of bandwidth extension methods including another bandwidth extension method (for example, a copy-up method). It may be realized as a part of In such a decoding method, the BWE flag indicates a preferred bandwidth extension method for each parameter unit and is extracted from the bitstream.
  • the decoding apparatus 200a expands the tone component having a strong tone property into a harmonic, and synthesizes it with the simply duplicated floor component, thereby generating the harmonic sound quality of the input signal (original signal). Can keep.
  • the bandwidth expansion method executed by the decoding device 200a does not require critical sampling, temporal extension, and re-sampling (down-sampling) used in the prior art harmonic method. Therefore, according to the bandwidth expansion method executed by the decoding device 200a, it is possible to reduce the complexity, delay, and memory requirements.
  • FIG. 8 is a block diagram showing a functional configuration of the encoding apparatus according to Embodiment 3.
  • FIG. 9 is a flowchart of the operation of the encoding apparatus according to the third embodiment.
  • the encoding device 100b includes a framer 600, an MDCT unit 601, an encoding unit 602, an MDST unit 603, an extraction unit 604, a calculation unit 605, A bitstream multiplexer 606.
  • the extraction unit 604 and the calculation unit 605 are also referred to as a bandwidth extension parameter generation device 607. That is, the bandwidth extension parameter generation device 607 includes an extraction unit 604 and a calculation unit 605.
  • the framer 600 divides the input signal into frames (framing) as a pre-processing of the MDCT processing and MDST processing, and performs window processing for every predetermined number of frames (S301).
  • FIG. 10 is a diagram illustrating framing and window processing of the framer 600.
  • the window function 701 is applied every two consecutive frames 700 of the input signal x (n).
  • the frame 700 to which the window function is applied is then subjected to MDCT processing 702 on the encoding device 100b side, IMDCT processing 703 on the decoding device side as shown in FIG. 10B, and then subjected to window processing 704.
  • the window processing has two purposes: providing a superior frequency resolution for encoding and providing a smoothing mechanism that prevents framing artifacts when frames that have been inversely transformed by a decoding device are combined.
  • the framer 600 outputs the input signal x (n) after the preprocessing (framing and windowing) as the windowed signal x ′ (n).
  • the MDCT unit 601 generates an MDCT signal X C (k) obtained by performing MDCT processing on the pre-processed input signal (S302). Specifically, the MDCT unit 601 converts the window processed signal x ′ (n) into an MDCT region, and generates an MDCT signal X C (k). Note that k is a frequency bin index (hereinafter also simply referred to as a frequency bin).
  • the encoding unit 602 outputs the MDCT signal X C (k) from which the portion corresponding to the high frequency portion of the input signal x (n) is removed (a signal indicating the input signal x (n) from which the high frequency portion is removed). Encode into core parameters (S303). That is, the encoding unit 602 encodes the MDCT signal X C (k) in a band lower than f xover as a core parameter.
  • the prior art MDCT encoding method used in AAC or the like is used in the encoding unit 602.
  • the MDST unit 603 generates an MDST signal X S (k) obtained by performing MDST processing on the pre-processed input signal (S304). Specifically, the MDST unit 603 converts the window processed signal x ′ (n) into an MDST region, and generates an MDST signal X S (k).
  • the extraction unit 604 generates a complex signal X (k) from the MDCT signal X C (k) and the MDST signal X S (k), and converts the high-frequency portion (high-frequency portion) of the generated complex signal to the high-frequency signal X ( k) (k> f xover ) is extracted (S305). Further, the extraction unit 604 may extract a high frequency part of the MDCT signal X C (k) and the MDST signal X S (k), and generate a complex signal by combining these parts.
  • the extraction unit 604 calculates a complex signal because tone energy cannot be accurately acquired from the MDCT signal or the MDST signal itself. This will be described with reference to FIG. FIG. 11 is a diagram showing tone energy of a pure tone component of 5 kHz.
  • FIG. 11A shows MDCT energy
  • FIG. 11B shows MDST energy
  • FIG. 11C shows complex energy. Each energy is shown.
  • the frame size is 1024 samples, and the sampling frequency is 48 kHz.
  • the tone energy in some frames is substantially less than the tone energy in some other frames. Therefore, when only one of the plurality of spectra is used for extracting the tone component, a tone component having a high tone property may be missed.
  • the tone energy (complex energy) of the same tone component is constant in all frames.
  • the calculation unit 605 calculates a tone parameter and a floor parameter using the high frequency signal X (k) (k> f xover ) (S306).
  • the tone parameter is a parameter indicating the magnitude of the energy of the tone component in the high frequency signal X (k) (k> f xover ).
  • the floor parameter is a parameter indicating the magnitude of energy of the floor component, which is a component obtained by removing the tone component from the high frequency signal X (k) (k> f xover ).
  • the bitstream multiplexer 606 generates a bitstream including these parameters by combining the tone parameter, floor parameter, and core parameter, and outputs the bitstream to the decoding device (S307).
  • the high frequency signal X (k) (k> f xover ) is divided into a predetermined parameter band pb.
  • the division at this time is similar to the division described with reference to FIG. 5 in Embodiment 1, and the difference is that there is no time slot dimension in the MDCT region.
  • the calculation unit 605 calculates and quantizes one tone parameter and one floor parameter for each parameter band pb.
  • the tone parameter is tone energy
  • the floor parameter is floor energy
  • the calculation unit 605 calculates (estimates) tone parameters and floor parameters as follows.
  • the calculation unit 605 calculates the energy of each frequency bin index k as follows.
  • the calculation unit 605 searches for a frequency bin index k (k T ) that satisfies the following expression.
  • the calculation unit 605 calculates the tone energy E T (k) and floor energy E F (k) of each frequency bin index k as follows.
  • the calculation unit 605 calculates the total tone energy of the parameter band pb as follows.
  • the calculation unit 605 calculates the total floor energy of the parameter band pb as follows.
  • the tone parameters and floor parameters calculated as described above are transmitted to the decoding device as a bit stream after quantization.
  • the tone components identified in the current frame may be compared with the tone components found in past frames. In this case, only tone components that appear in the same frequency bin index of both current and past frames are considered “determined” tone components.
  • the determination criterion for the tone component in the frequency bin k may include not only the adjacent frequency bin indexes k ⁇ 1 and k + 1 but also the frequency bin indexes k ⁇ 2 and k + 2.
  • the decoding apparatus 100b According to encoding apparatus 100b according to Embodiment 3, it is possible to generate (encode) a bandwidth extension parameter indicating the magnitudes of tone energy and floor energy even in the MDCT region.
  • the decoding apparatus can generate a bandwidth extension signal having the same energy, tone floor ratio, and harmonic structure as the input signal.
  • FIG. 12 is a block diagram illustrating a functional configuration of the decoding apparatus according to the fourth embodiment.
  • FIG. 13 is a flowchart of the operation of the decoding apparatus according to the fourth embodiment.
  • the decoding device 200b includes a bitstream demultiplexer 900, a decoding unit 911 (a core decoding unit 901 and a complex signal generation unit 902), a dividing unit 903, a tone extending unit 904, a floor An expansion unit 905, a tone adjustment unit 906, a floor adjustment unit 907, an addition unit 908, an IMDCT unit 909, and a framer 910 are provided.
  • the bitstream demultiplexer 900 generates (extracts) tone parameters, floor parameters, and core parameters by unpacking the bitstream (S401).
  • the decoding unit 911 decodes the core parameter and generates a decoded narrowband signal X (k) (S402).
  • the core decoding unit 901 decodes the core parameter to generate the MDCT signal X C (k). That is, the MDCT signal is a signal obtained from the core parameter.
  • the prior art MDCT decoding method used in AAC or the like is used in the core decoding unit 901.
  • complex signal generation section 902 converts MDCT signal X C (k) into the MDST region and generates MDST signal X S (k).
  • a prior art MDCT / MDST conversion method for example, Non-Patent Document 4 can be applied.
  • the complex signal generation unit 902 generates a complex signal as follows using the MDCT signal X C (k) and the MDST signal X S (k).
  • the complex signal X (k) is a decoded narrowband signal whose upper limit of bandwidth is f xover .
  • the dividing unit 903 includes a low-frequency tone signal that is a signal indicating the tone component of the decoded narrowband signal X (k), and a low-frequency floor signal that is a signal indicating the floor component of the decoded narrowband signal X (k). Is generated (S403). Specifically, the dividing unit 503 divides the decoded narrowband signal X (k) into the low frequency tone signal X T (k) and the low frequency floor signal X F (k). In the fourth embodiment, this division is performed as follows.
  • the dividing unit 903 uses the equations (19) to (22) described in the third embodiment, and uses the tone component k T , the total energy E (k), the tone energy E T (k), and the floor energy E F. (K) is calculated for each frequency bin index k.
  • the dividing unit 903 derives the low-frequency tone signal X T (k) and the low-frequency floor signal X F (k) as follows. In other words, the dividing unit 903 generates the low-frequency tone signal X T (k) and the low-frequency floor signal X F (k) by dividing the decoded narrowband signal X (k) according to the magnitude of energy. To do.
  • the dividing unit 903 selects N T tone subsets k T2 from the frequency bin index k T in descending order of tone energy. As a modification, the dividing unit 903 may use only the frequency bin index above a predetermined frequency for harmonic expansion so that the distribution of harmonics is not too dense.
  • the tone expansion unit 904 may select the tone subset. That is, the tone extension unit 904 has a frequency bin k (k T, k T2 ) in which the energy of the tone component is larger than a predetermined multiple of the energy of the tone component of the adjacent frequency bin from the frequency bin k in the low frequency tone signal. May be selected.
  • the floor extension unit 905 generates a high-frequency floor signal (patched floor signal) X ′ F (k) obtained by patching the low-frequency floor signal X F (k) to a high-frequency portion.
  • a copy-up technique used in HE-AAC can be applied.
  • the patching operation is expressed by the following equation.
  • the tone expansion unit 904 uses the following harmonic expansion method. Although harmonic extension method for a frequency bin index k T in the following description is applied, a harmonic extension method may also be applied to a tone subset k T2.
  • Tone extension 904 integer harmonic ratio (e.g., 2, 3, 4) in accordance with replicates the high tone component tonal located tone subset k T in the high frequency range (copy). That is, the tone extension unit 904 generates a high frequency tone signal by duplicating the low frequency tone signal of the selected frequency bin in a frequency bin that is an integral multiple of the selected frequency bin (tone subset k T ).
  • the following pseudo code shows the duplication operation. In the following formula, the copy operation is limited to the maximum harmonic ratio ratio max (for example, 4).
  • a copy-up method using the same map (k) function as that used by the floor extension unit 905 is applied to the frequency bin index having no tone component.
  • the tone component of the tone subset k T because that has already been replicated in the high frequency range by a harmonic expansion method described above and will not be re-patched by copying up method.
  • the tone extension unit 904 generates a signal indicating the harmonic component of the tone component included in the low-frequency tone signal as a high-frequency tone signal.
  • the tone adjustment unit 906 generates an adjusted tone signal X ′′ T (k) obtained by adjusting the high-frequency tone signal X ′ T (k) using the tone parameter (S406). , Tone energy E T (pb) determined for each parameter band pb, and the high frequency tone signal X ′ T (k) is adjusted as follows.
  • the tone adjustment unit 906 generates an adjusted tone signal X ′′ T (k) that is a high-frequency tone signal X ′ T (k) whose energy is adjusted to the tone energy indicated by the tone parameter.
  • the high frequency tone signal X ′ T (k) may not have a tone component in the parameter band pb.
  • an artificial harmonic component can be injected into the center of the parameter band before the adjustment operation of the tone adjustment unit 906. An example is shown below.
  • Non-Patent Document 5 describes that the MDCT spectrum of a pure sinusoidal tone is the product of a shifted sinc () function and a shifted cosine modulation. Based on this analysis, in order to inject a sinusoidal tone at the center of the frequency bin index k, the following signal must be injected into the frequency bin index interval [k ⁇ 2, k + 2].
  • fr is a frame index.
  • the floor adjustment unit 907 generates an adjusted floor signal X ′′ F (k) obtained by adjusting the high frequency floor signal X ′ F (k) using the floor parameter (S407).
  • the floor parameter is The floor energy E F (k) determined for each parameter band pb, and the high-frequency floor signal X ′ F (k) is adjusted as follows.
  • the floor adjustment unit 907 generates an adjusted floor signal X ′′ F (k) that is a high-frequency floor signal X ′ F (k) whose energy is adjusted to the floor energy indicated by the floor parameter.
  • the adder 908 adds the MDCT signal X C (k), the real part of the adjusted tone signal X ′′ T (k), and the bandwidth extension signal X obtained by adding the real part of the adjusted floor signal X ′′ F (k). "(K) is generated (S408).
  • the IMDCT unit 909 converts (inversely converts) the bandwidth extension signal X ′′ (k) into the time domain signal x ′′ (n) (S409).
  • the framer 910 performs window processing and overlapping portion addition processing on the time domain signal x ′′ (n) to generate a decoded signal x ′ ′′ (n) (S410).
  • FIG. 10B described is a diagram showing the operation of the framer 910.
  • the decoding apparatus 200b expands the tone component having a strong tone property into a harmonic, and synthesizes it with a floor component that is simply duplicated, thereby generating a harmonic sound quality of the input signal (original signal). Can keep.
  • the bandwidth expansion method executed by the decoding device 200b does not require critical sampling, temporal extension, and re-sampling (down-sampling) used in the prior art harmonic method. Therefore, according to the bandwidth expansion method executed by the decoding device 200b, it is possible to reduce the complexity, delay, and memory requirements.
  • the present invention may be realized as a bandwidth extension parameter generation device.
  • steps in each flowchart described in the above embodiment is an example, and may be changed within a feasible range.
  • steps that can be processed in parallel may be processed in parallel.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • the bandwidth extension parameter generation device and the coding device estimate the tone energy and floor energy of the high frequency part of the input signal, and generate the bandwidth extension parameter indicating the magnitude of these energies.
  • the decoding device selects and extracts a tone component having high tone characteristics from the decoded narrowband signal, and uses the extracted tone component to extend harmonically to a high frequency region.
  • the remaining floor component that is, the component obtained by subtracting the extracted tone component from the decoded narrowband signal is copied as a high frequency region by the copy-up method.
  • the extracted tone components and the replicated floor components are adjusted using the bandwidth extension parameters generated by the encoder so that they have the same tone energy and tone floor ratio as the input signal. To do.
  • the bandwidth extension method according to the above embodiment is basically a simple extension by a low-complexity copy-up method, the critical sampling, temporal extension, and re-playing required by the prior art harmonic method are performed. Sampling is not necessary. This greatly improves complexity, delay, and memory.
  • the bandwidth extension parameter generation device As described above, the bandwidth extension parameter generation device, the encoding device, and the decoding device according to one or more aspects have been described based on the embodiments. However, the present invention is not limited to the embodiments. Absent. Unless it deviates from the gist of the present invention, various modifications conceived by those skilled in the art have been made in this embodiment, and forms constructed by combining components in different embodiments are also within the scope of one or more aspects. May be included.
  • the present invention can be applied to applications related to encoding and decoding of sound signals.
  • the present invention can be applied to, for example, a cassette book, a broadcasting system, a portable media device, a mobile communication terminal (including a mobile phone or a tablet), a video conference device, and a music performance application on a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

 帯域幅拡張パラメータ生成装置(306)は、入力音信号の高域部分を示す高域信号を抽出する抽出部(303)と、高域信号のうちのトーン成分のエネルギーの大きさを示すトーンパラメータと、高域信号のうちのトーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すフロアパラメータとを算出する算出部(304)とを備える。

Description

帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法
 本発明は、音信号の符号化装置および復号装置等に関し、特に、音信号の符号化および復号における帯域幅拡張技術に関する。
 一般的に、音信号(スピーチ信号およびオーディオ信号)の符号化には、コア符号化ツールとパラメトリック符号化ツールの2種類のツールが用いられる。
 パラメトリック符号化ツールの1つである帯域幅拡張ツール(BWEツール)として、MPEG USAC(非特許文献2)などの技術では、コピーアップ方法と、ハーモニック方法とが知られている。
Carot, Alexander, et al "Networked Music Performance: State of the Art", AES 30th International Conference, 2007 March 15-17 Neuendorf, et al, "MPEG Unified Speech and Audio Coding - The ISO/MPEG Standard for High-Efficiency Audio Coding of all Content Types", AES 132nd Convention, 2012 April 26-29. Sinha, et al, "A Novel Integrated Audio Bandwidth Extension Toolkit (ABET)", AES 120th Convention, 2006, May 20-23. Shuixian Chen, et al, "Estimating Spatial Cues for Audio Coding in MDCT Domain", IEEE International Conference on Multimedia and Expo, 2009, June 28-July 3 Daudet, Sandler, "MDCT Analysis of Sinusoids: Exact Results and Applications to Coding Artifacts Reduction", IEEE Transactions on Speech and Audio Processing, Vol. 12, No. 3, May 2004.
 コピーアップ方法は、低周波数部分のスペクトルをコピーして高周波数部分のスペクトルを生成するシンプルな方法である。コピーアップ方法においては、2つのスペクトル間のハーモニック関係を正確に保てない点が課題である。つまり、音質が課題である。
 一方、ハーモニック方法は、低周波数部分のスペクトルをハーモニックに伸長し、切り出すことで、高周波数部分のスペクトルを生成する方法である。ハーモニック方法においては、処理が複雑であるため、遅延時間が大きい点や大きなメモリを必要とする点が課題となる。
 そこで、本発明は、新たな帯域幅拡張方法を用いた帯域幅拡張パラメータ生成装置等を提供する。
 本発明の一態様に係る帯域幅拡張パラメータ生成装置は、入力音信号の高域部分を示す高域信号を抽出する抽出部と、前記高域信号のうちのトーン成分のエネルギーの大きさを示すトーンパラメータと、前記高域信号のうちの前記トーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すフロアパラメータとを算出する算出部とを備える。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明の帯域幅拡張パラメータ生成装置等によれば、遅延時間および使用メモリを抑制し、かつ高音質な帯域幅拡張が可能となる。
図1は、コピーアップ方法(図1の(a))と、ハーモニック方法(図1の(b))とを説明するための模式図である。 図2は、USACのデコーダにおける2つのBWEモードを示すブロック図である。 図3は、実施の形態1に係る符号化装置の機能構成を示すブロック図である。 図4は、実施の形態1に係る符号化装置の動作のフローチャートである。 図5は、タイムスロットとパラメータスロットとの関係、および、サブバンドとパラメータ帯域との関係を示す図である。 図6は、実施の形態2に係る復号装置の機能構成を示すブロック図である。 図7は、実施の形態2に係る復号装置の動作のフローチャートである。 図8は、実施の形態3に係る符号化装置の機能構成を示すブロック図である。 図9は、実施の形態3に係る符号化装置の動作のフローチャートである。 図10は、フレーマーのフレーミング動作および窓処理動作を示す図である。 図11は、MDCT領域、MDST領域、および、複素領域のそれぞれにおける純粋なトーンのエネルギーを示す図である。 図12は、実施の形態4に係る復号装置の機能構成を示すブロック図である。 図13は、実施の形態4に係る復号装置の動作のフローチャートである。
 (本発明の基礎となった知見)
 一般的に、音信号(スピーチ信号およびオーディオ信号)の符号化には、パラメトリック符号化ツールとコア符号化ツールとの少なくとも2種類のツールが用いられる。まず、パラメトリック符号化ツールについて説明する。
 パラメトリック符号化ツールは、入力音信号(以下、入力信号、原信号または符号化対象の信号と記載する場合がある)の知覚的特徴を維持して再構成することを目的とする符号化を行う。この符号化によって、入力信号の知覚的特徴は、低ビットレートで符号化された少数のパラメータにより示される。
 パラメトリック符号化ツールにより符号化された信号を復号した信号である再構成信号は、知覚的には入力信号の品質を維持しているが、再構成信号の波形と入力信号の波形とは類似しない。パラメトリック符号化ツールとしては、帯域幅拡張ツールとマルチチャンネル拡張ツールが挙げられる。
 帯域幅拡張ツールは、信号の高周波数部分の低周波数部分とのハーモニック関係を利用することにより、信号の高周波数部分をパラメトリックに符号化する。帯域幅拡張ツールの符号化により生成されたパラメータ(帯域幅拡張パラメータ)の例としては、サブバンドエネルギーとトーン・ノイズ比とが挙げられる。
 帯域幅拡張パラメータは、スペクトル的に拡張された高周波数部分の信号の振幅の形成に用いられる。高周波数部分の信号は、デコーダにおいてパッチングまたは伸長により低周波数部分が拡張されることで形成される。なお、デコーダでは、フロア・ノイズおよび音質等が適宜補われる。結果として得られる出力信号の波形は、入力信号の波形とは類似しないが、出力信号は、知覚的には入力信号に似ている。
 HE-AACは、このような帯域幅拡張ツールおよびスペクトル帯域複製(SBR)を含むコーデックである。SBRでは、直交ミラーフィルタバンク(QMF)を用いて生成された時間・周波数ハイブリッド領域でパラメータ算出が行われる。ITU-T G.718も帯域幅拡張ツールを有するコーデックであるが、ITU-T G.718では、パラメータ算出は、修正離散コサイン変換(MDCT)領域で行われる。
 マルチチャンネル拡張ツールは、マルチチャンネル信号を符号化用のチャンネルサブセットにダウンミックスする。この結果、個々のチャンネル間の関係がパラメトリックに符号化される。マルチチャンネル拡張ツールの符号化により生成されたパラメータの例としては、チャンネル間レベル差、チャンネル間時間差、および、チャンネル間相関が挙げられる。デコーダでは、復号済みのダウンミックスチャンネルと、人工生成した「非相関」信号とをミキシングすることにより、個々のチャンネルを合成する。ミキシングの重みは、前述のパラメータに基づいて算出される。MPEGサラウンド(MPS)は、マルチチャンネル拡張ツールの適例である。
 次に、コア符号化ツールについて説明する。コア符号化ツールは、パラメトリック符号化ツールとは対照的に、入力信号の波形の特徴を維持して再構成することを目的とする符号化を行う。コア符号化ツールは、通常、人間の耳が最も敏感に反応するスペクトラムの低周波数部分に適用される。コア符号化ツールは、大きくは、オーディオコーデックとスピーチコーデックの2つに分類される。
 オーディオコーデックは、局所化されたスペクトル成分を含む定常信号(例えば、トーン信号や高調波信号)を符号化するのに適している。オーディオコーデックでは、符号化は主に周波数領域で行われる。
 オーディオコーデックのエンコーダは、時間・周波数変換およびMDCTを用いて信号を周波数(スペクトル)領域に変換する。MDCTに際しては、部分的に重なり合うフレームが窓処理される。
 フレームの部分的な重なりは、デコーダにおいて隣接するフレーム間の平滑化メカニズムを実施するために設けられている。窓処理には、平滑化のため高分解スペクトルを生成するとともにフレームの境界をぼかすという2つの目的がある。
 フレームの部分的重なりにより生じる重要でないサンプリング効果を補うため、MDCTに際し、時間領域サンプルは、より少数の符号化用のスペクトル係数に変換される。この変換によりエイリアシング成分が生じ、エイリアシング成分はデコーダにおいて重ね合わされることで相殺される。
 オーディオコーデックでは、音響心理学的モデルを容易に適用することができる点が利点である。具体的には、オーディオコーデックでは、より多くのビットをマスクする音(マスカー)に、より少ないビットをマスクされる音(マスキー)に割り当てることができる。マスキーは、他の音によってマスクされ、人間の耳では感知できない音である。
 このように、音響心理学的モデルを適用することにより、オーディオコーデックでは、符号化効率と音質とを大幅に向上することができる。MPEGアドバンスドオーディオ符号化(AAC)は、純粋なオーディオコーデックの適例である。
 スピーチコーデックは、声道のピッチ特性を利用するモデルに基づくコーデックであるため、人間の音声(スピーチ信号)の符号化に適している。
 スピーチコーデックのエンコーダにおいては、スピーチ信号のスペクトル包絡線を取得するために線形予測(LP)フィルタが用いられ、スピーチ信号は、LPフィルタ係数に符号化される。次に、LPフィルタにより、スピーチ信号は逆フィルタリングされて(スペクトル的に分離されて)、スペクトル的にフラットな励起信号が生成される。生成された励起信号は、通常、「コードワード」で励起信号を示すベクトル量子化(VQ)スキームで離散的に符号化される。
 スピーチコーデックでは、線形予測の他に、長期間の音声を取得するため長期予測(LTP)も組み入れることができる。また、スピーチコーデックでは、線形予測の前に音声信号に白色化フィルタを適用することにより、音響心理学的な側面を考慮することができる。
 スピーチコーデックでは、励起信号の離散的な符号化により、低ビットレートで良い音質が得られる。しかしながら、スピーチコーデックでは、音楽のようなコンテンツの複素スペクトルの取得はできないため、このようなコンテンツの符号化には適していない。ITU-Tの適応マルチレート広帯域(AMR-WB)は、純粋なスピーチコーデックの適例である。
 3つめのコーデックとして、変換符号化励振(TCX)と呼ばれるコーデックが知られている。TCXは、LP符号化と変換符号化とを組み合わせたようなコーデックである。
 TCXでは、まず、信号の線形予測フィルタから導出した知覚フィルタで知覚的に信号が重み付けされる。次に、重み付けされた信号は、スペクトル領域(スペクトル係数)に変換され、VQスキームでスペクトル係数が符号化される。
 TCXは、ITU-Tの適応マルチレート広帯域+(AMR-WB+)コーデックで見られる。なお、AMR-WB+で用いられる周波数変換は、離散フーリエ変換(DFT)である。
 ところで、近年、高精細化(HD)技術の発展にともない、通信装置は、通信用途のみならず、マルチメディアやエンターテイメントなど多目的に使用されている。また、これに応じて、スピーチおよびオーディオの両方に対応できる統合コーデックに対する需要が高まっている。
 例えば、MPEGでは、統合音声音響符号化(USAC)が標準化されている(非特許文献2)。USACは、上記の全てのツール(AAC、LP、TCX、SBR、および、MPS)のうち最適なツールを組み合わせることが可能な、低ビットレートのコーデックである。また、USACは、スピーチおよびオーディオの符号化に広範囲のビットレートで対応することができる。
 USACのエンコーダは、MPSツールを作動させてステレオ信号をモノラル信号にダウンミックスする。また、USACのエンコーダは、SBRツールを作動させて全帯域のモノラル信号を狭帯域のモノラル信号に圧縮する。そして、USACのエンコーダは、狭帯域のモノラル信号を符号化するため、信号選別器を用いて入力信号の特徴を分析し、どのコアコーデック(AAC、LP、TCX)を作動させるべきかを決定する。
 ここで、最近では、ソーシャル・ネットワーク文化の台頭により、テレビ会議や音響映像を用いた双方向のエンターテイメントなどの社会活動に参加する、インターネットに精通した人々が増加している。今後、普及が予想される活動の1つとしては、例えば、異なる場所にいるユーザがインターネットを介して集まり、楽器を演奏したり合唱したりアカペラで歌ったりするネットワーク上の音楽演奏が挙げられる。
 このようなネットワーク上の音楽演奏等を想定した場合、人間の耳が知覚する「音ずれ」を防ぐため、信号処理およびネットワークによる遅延との合計が30ミリ秒未満でなければならない(非特許文献2参照)。
 例えば、エコー除去およびネットワークによる遅延が20ミリ秒の遅延となる場合、符号化および復号において許容される遅延は、約10ミリ秒である。したがって、符号化および復号において用いられるBWEツールも、低遅延であることが望ましい。
 USACでは、BWEツールとして、コピーアップ方法と、ハーモニック方法とが知られている。2つの方法の相違点は、高周波スペクトルが低周波スペクトルから導出される方法にある。なお、ハーモニック方法は、USACで新たに提示された方法であり、強いハーモニック構造で信号の符号化を改善する。
 図1は、コピーアップ方法と、ハーモニック方法とを説明するための模式図である。図1の(a)に示されるように、コピーアップ方法では、低周波数部分のスペクトルが直接高周波数部分のスペクトルとしてコピーされる。コピーアップ方法の動作の複雑度は非常に低いが、コピーアップ方法の動作は2つのスペクトル間のハーモニック関係を正確に保てない。
 一方、図1の(b)に示されるように、ハーモニック方法では、低周波数部分のスペクトルをハーモニックに伸長し、切り出すことで、高周波数部分のスペクトルを生成する。この動作原理はフェーズボコーダの動作原理と似ており、時間的伸長および再サンプリングのサブプロセスを複数含む。したがって、ハーモニック方法の動作の複雑度は高くなる。
 USACにおいて、この2つの方法は2つのBWEモードとして存在する。以下、USACのデコーダの基本的な構成について説明する。図2は、USACのデコーダにおける2つのBWEモードを示すブロック図である。
 まず、コアデコーダから得られる狭帯域信号にQMF分析200が行われ、32帯域のサブバンド信号が生成される。理論上は、32帯域のサブバンド信号には、高周波(HF)調整206前にBWEモードフラグに応じて、コピーアップモード207またはハーモニックモード208の処理が行われればよい。
 しかしながら、フィルタリング動作のフレーム間の連続性を維持するため(つまり、フィルタメモリバッファを連続的に維持するため)、両方のモードが常に作動していなければならない。これにより、大きなメモリ(ROMおよびRAM)が必要となる。
 また、ハーモニックモード208では、複雑度が高く大きなメモリを必要とすることに加えて、32帯域のサブバンド信号を64帯域のサブバンド信号に変換するために、臨界サンプリング202がさらに必要となる。
 具体的には、32帯域のサブバンド信号を時間領域に変換するQMF合成203を行い、続いて、QMF合成203後の時間領域の信号にQMF分析204を行うことにより64帯域のサブバンド信号が生成される。生成された64帯域のサブバンド信号は、時間的伸長および再サンプリング205され、高周波数部分が生成される。
 ハーモニックモード208では、このように、臨界サンプリング202におけるQMFフィルタバンク処理によって、復号処理にさらに遅延が生じる。
 一方、コピーアップモード207においてコピーアップ201が行われる場合、トーン成分が広範囲に広がる(トーン性が弱い)信号に対しては、ハーモニック方法と同様の効果が得られる。なぜなら、このような場合人間の耳は、高周波数部分のトーン成分を区別することができないからである。
 しかしながら、上述のように、コピーアップモード207では、低周波数部分のスペクトルと、コピーされた高周波数部分のスペクトルとの間の調和関係を保つことができない。このため、強いハーモニック構造の(トーン性が強い)信号に適用された場合、コピーアップ201はうまくいかない。なお、トーン性が強い信号では、トーン成分は、通常、高エネルギーのトーン成分と、その高調波とが支配的となる。
 そこで、発明者らは、このような知見に基づき、コピーアップ方法およびハーモニック方法における複雑さ、遅延、および、メモリ等の問題を解決するために、新たな帯域幅拡張技術を発明した。
 具体的には、本発明の一態様に係る帯域幅拡張パラメータ生成装置は、入力音信号の高域部分を示す高域信号を抽出する抽出部と、前記高域信号のうちのトーン成分のエネルギーの大きさを示すトーンパラメータと、前記高域信号のうちの前記トーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すフロアパラメータとを算出する算出部とを備える。
 本発明の一態様に係る符号化装置は、上記帯域幅拡張パラメータ生成装置と、前記高域部分が除かれた前記入力音信号を示す信号をコアパラメータに符号化する符号化部と、前記トーンパラメータ、前記フロアパラメータ、および、前記コアパラメータを含むビットストリームを生成して出力するビットストリーム・マルチプレクサとを備える。
 また、さらに、前記高域部分が除かれた前記入力音信号である狭帯域信号を生成するフィルタ部と、前記入力音信号をサブバンド信号に変換するQMF(Quadrature Mirror Filter)分析部とを備え、前記符号化部は、前記狭帯域信号を前記コアパラメータに符号化し、前記抽出部は、前記サブバンド信号の高域部分であるHFサブバンド信号を前記高域信号として抽出してもよい。
 また、さらに、前記入力音信号をMDCT(Modified Discrete Cosine Transform)処理したMDCT信号を生成するMDCT部と、前記入力音信号をMDST(Modified Discrete Sine Transform)処理したMDST信号を生成するMDST部とを備え、前記符号化部は、前記入力音信号の前記高域部分に対応する部分が除かれた前記MDCT信号をコアパラメータに符号化し、前記抽出部は、前記MDCT信号および前記MDST信号から複素信号を生成し、生成した前記複素信号の高域部分を前記高域信号として抽出してもよい。
 本発明の一態様に係る復号装置は、ビットストリームを復号する復号装置であって、前記ビットストリームには、符号化された入力音信号の低域部分であるコアパラメータと、前記入力音信号の高域部分を示す高域信号のうちのトーン成分のエネルギーの大きさを示すトーンパラメータと、前記高域信号のうちの前記トーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すフロアパラメータとが含まれ、前記復号装置は、前記コアパラメータを復号することによって復号済み狭帯域信号を生成する復号部と、前記復号済み狭帯域信号のトーン成分を示す信号である低域トーン信号と、前記復号済み狭帯域信号のフロア成分を示す信号である低域フロア信号とを生成する分割部と、前記低域トーン信号を用いて前記高域信号のトーン成分に対応する信号である高域トーン信号を生成するトーン拡張部と、前記低域フロア信号を用いて前記高域信号のフロア成分に対応する信号である高域フロア信号を生成するフロア拡張部と、前記トーンパラメータを用いて前記高域トーン信号を調整した調整済みトーン信号を生成するトーン調整部と、前記フロアパラメータを用いて前記高域フロア信号を調整した調整済みフロア信号を生成するフロア調整部と、前記コアパラメータから得られる信号、前記調整済みトーン信号、および、前記調整済みフロア信号を加算した帯域幅拡張信号を生成する加算部とを備える。
 また、前記トーン拡張部は、前記低域トーン信号に含まれるトーン成分の高調波成分を示す信号を前記高域トーン信号として生成してもよい。
 また、さらに、前記復号済み狭帯域信号をサブバンド信号に変換するQMF分析部を備え、前記分割部は、前記サブバンド信号を分割することによって、前記低域トーン信号と、前記低域フロア信号とを生成し、前記加算部は、前記コアパラメータから得られる信号である前記サブバンド信号、前記調整済みトーン信号、および、前記調整済みフロア信号を加算した前記帯域幅拡張信号を生成してもよい。
 また、前記トーン拡張部は、前記低域トーン信号におけるサブバンドの中から、トーン成分のエネルギーが(1)隣接するサブバンドのトーン成分のエネルギーの所定倍よりも大きく、かつ、(2)当該サブバンドのフロア成分のエネルギーの所定倍よりも大きいサブバンドを選択し、選択したサブバンドの整数倍のサブバンドに、当該選択したサブバンドの前記低域トーン信号を複製することによって前記高域トーン信号を生成してもよい。
 また、さらに、前記ビットストリームから、前記トーンパラメータ、前記フロアパラメータ、および、前記コアパラメータを生成するビットストリーム・デマルチプレクサと、前記帯域幅拡張信号を時間領域に変換するQMF合成部とを備えてもよい。
 また、前記復号部は、(1)前記コアパラメータを復号してMDCT信号を生成し、(2)前記MDCT信号をMDST領域に変換したMDST信号を生成し、(3)生成した前記MDCT信号および前記MDST信号から得られる複素信号を前記復号済み狭帯域信号として生成し、前記加算部は、前記コアパラメータから得られる信号である前記MDCT信号、前記調整済みトーン信号、および、前記調整済みフロア信号を加算した前記帯域幅拡張信号を生成してもよい。
 また、前記トーン拡張部は、前記低域トーン信号における周波数ビンの中から、トーン成分のエネルギーが隣接する周波数ビンのトーン成分のエネルギーの所定倍よりも大きい周波数ビンを選択し、選択した周波数ビンの整数倍の周波数ビンに、当該選択した周波数ビンの前記低域トーン信号を複製することによって前記高域トーン信号を生成してもよい。
 また、さらに、前記ビットストリームから、前記トーンパラメータ、前記フロアパラメータ、および、前記コアパラメータを生成するビットストリーム・デマルチプレクサと、前記帯域幅拡張信号を時間領域に変換するIMDCT(Inverse Modified Discrete Cosine Transform)部とを備えてもよい。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 以下、実施の形態について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 実施の形態1では、本発明の帯域幅拡張技術を用いた符号化装置について説明する。図3は、実施の形態1に係る符号化装置の機能構成を示すブロック図である。図4は、実施の形態1に係る符号化装置の動作のフローチャートである。
 図3に示されるように、実施の形態1に係る符号化装置100aは、フィルタ部300と、符号化部301と、QMF分析部302と、抽出部303と、算出部304と、ビットストリーム・マルチプレクサ305とを備える。
 なお、抽出部303と、算出部304とを帯域幅拡張パラメータ生成装置306とも記載する。つまり、帯域幅拡張パラメータ生成装置306は、抽出部303と、算出部304とを備える。
 フィルタ部300(ローパスフィルタ)は、入力信号x(n)から、入力信号x(n)の高域部分(高周波数部分)を除いた狭帯域信号xNB(n)を生成する(S101)。ここで、nはサンプル指標である。狭帯域信号xNB(n)は、言い換えれば、入力信号x(n)の低域部分(低周波数部分)であり、符号化部301で符号化される。一方、入力信号x(n)の高域部分は、算出部304により符号化される。
 符号化部301は、狭帯域信号xNB(n)(高域部分が除かれた入力信号x(n)を示す信号)をコアパラメータに符号化する(S102)。AAC、LP、および、TCXなど先行技術のコアエンコーダは全て符号化部301において用いられる。例えば、符号化部301がスピーチおよびオーディオハイブリッド符号化に対応している場合には、符号化部301においては、上記のコアエンコーダのうち2つ以上が用いられる。
 符号化部301は、1つのコアコーダから別のコアコーダへの切り替えにおいて、滑らかでアーチファクトのないフレーム移行を行うための追加パラメータを生成するコーデック切り替えハンドラをさらに備えてもよい。
 QMF分析部302(QMF分析フィルタバンク)は、入力信号x(n)を2M帯域表示のサブバンド信号X(ts、sb)に変換する(S103)。
 抽出部303は、入力信号x(n)の高域部分を示す高域信号を抽出する。具体的には、サブバンド信号X(ts、sb)の高域部分であるXHF(ts,sb)を高域信号として抽出する(S104)。高域信号XHF(ts,sb)の開始周波数は、フィルタ部300を構成するローパスフィルタ帯域幅と一致することになる。以後、この開始周波数(所定の周波数)を交差周波数fxoverと記載する。なお、USACにおいては、M=32である。
 算出部304は、高域信号XHF(ts,sb)を用いてトーンパラメータとフロアパラメータとを算出する(S105)。トーンパラメータは、高域信号XHF(ts,sb)のうちのトーン成分のエネルギーの大きさを示すパラメータである。フロアパラメータは、高域信号XHF(ts,sb)のうちのトーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すパラメータである。
 トーン成分とは、音信号のうち周波数軸上のピーク成分を意味し、音源の定常的かつ周期的な振動に起因する成分に相当する。言い換えれば、トーン成分は、音信号のうち特定の周波数に偏在する成分であり、符号化対象の音を発する音源の固有の性質を主に示す成分である。「トーン性が強い(高い)」とは、基本的には、トーン成分のエネルギーが大きいことを意味する。
 一方、フロア成分とは、音信号のうち、摩擦や乱流など定常的だが非周期的な現象に起因するいわゆる定常ノイズ成分や、打撃や音源状態の急激な変化など非定常的な現象に起因するいわゆる過渡ノイズ成分に相当する。言い換えれば、フロア成分は、音信号のうち周波数に関係なく存在する成分である。
 算出部304のトーンパラメータおよびフロアパラメータの算出方法の詳細については後述する。
 ビットストリーム・マルチプレクサ305は、トーンパラメータ、フロアパラメータ、および、コアパラメータを組み合わせて、これらのパラメータを含むビットストリームを生成し、復号装置に出力する(S106)。
 次に、算出部304の帯域幅拡張パラメータ(トーンパラメータおよびフロアパラメータ)の算出方法の詳細について説明する。
 高域信号XHF(ts,sb)は、所定のパラメータスロット(ps)と、パラメータ帯域(pb)とによって定められるパラメータユニット(ps、pb)に区分される。算出部304は、パラメータユニット(ps、pb)ごとに、1つのトーンパラメータと1つのフロアパラメータとを算出し量子化する。
 図5は、タイムスロットとパラメータスロットとの関係、および、サブバンドとパラメータ帯域との関係を示す図である。パラメータ帯域およびパラメータスロットの境界や分解能などの関係を規定する情報は、予め定められていてもよいし、このような情報は、動的に算出されてビットストリームの一部を形成してもよい。
 実施の形態1では、トーンパラメータは、トーン成分のエネルギー(以下、トーンエネルギーとも記載する)であり、フロアパラメータは、フロア成分のエネルギー(以下、フロアエネルギーとも記載する)である。なお、トーンパラメータは、トーン成分のエネルギーの大きさを示すものであればどのようなパラメータであってもよい。フロアパラメータは、フロア成分のエネルギーの大きさを示すものであればどのようなものであってもよい。
 算出部304は、線形予測方法を用いて、以下のようにトーンパラメータおよびフロアパラメータを算出(推定)する。
 1.算出部304は、共分散マトリクス要素をサブバンドsbごとに以下のように算出する。言い換えれば、各QMF係数に対して相関係数を算出する。
Figure JPOXMLDOC01-appb-M000001
 2.算出部304は、線形予測係数を以下のように算出する。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
 3.算出部304は、パラメータユニットのトーンエネルギーの合計を以下のように算出する。
Figure JPOXMLDOC01-appb-M000004
 4.算出部304は、パラメータユニットのフロアエネルギーの合計を以下のように算出する。
Figure JPOXMLDOC01-appb-M000005
 以上のように算出されたトーンパラメータおよびフロアパラメータは、量子化後、ビットストリームとして復号装置に送信される。
 なお、トーンエネルギーとフロアエネルギーとを算出する方法は、上記の方法に限定されるものではない。トーンエネルギーとフロアエネルギーとは、先行技術を含むどのような方法で算出されてもよい。
 また、非線形量子化および差分符号化など、トーンパラメータおよびフロアパラメータは、どのような方法で量子化(符号化)されてもよい。この場合、先行技術を含む様々な量子化技術(符号化技術)が適用可能である。
 また、符号化装置100aが実行する帯域幅拡張方法は、別の構造的に互換性のある帯域幅拡張方法(例えば、コピーアップ方法など)を含む複数の帯域幅拡張方法を選択的に実行することが可能なマルチモード符号化方法の一部として実現されてもよい。このような符号化方法では、BWEフラグは、パラメータユニットごとに好ましい帯域幅拡張方法を示し、ビットストリームの一部として生成される。
 以上説明したように、実施の形態1に係る符号化装置100aは、入力信号の高域部分のトーンエネルギーおよびフロアエネルギーを推定し、これらのエネルギーの大きさを示す帯域幅拡張パラメータを生成(符号化)する。帯域幅拡張パラメータを用いることにより、復号装置は、入力信号と同様のエネルギー、トーン・フロア比、および、調和構造の帯域幅拡張信号を生成することができる。
 (実施の形態2)
 実施の形態2では、符号化装置100aに対応する復号装置について説明する。図6は、実施の形態2に係る復号装置の機能構成を示すブロック図である。図7は、実施の形態2に係る復号装置の動作のフローチャートである。
 図6に示されるように、復号装置200aは、ビットストリーム・デマルチプレクサ500と、復号部501と、QMF分析部502と、分割部503と、トーン拡張部504と、フロア拡張部505と、トーン調整部506と、フロア調整部507と、加算部508と、QMF合成部509とを備える。
 ビットストリーム・デマルチプレクサ500は、ビットストリームをアンパックすることによって、トーンパラメータ、フロアパラメータ、および、コアパラメータを生成(抽出)する(S201)。
 復号部501は、コアパラメータを復号し、復号済み狭帯域信号x(n)を生成する(S202)。AAC、LP、および、TCXなど、先行技術のコアデコーダは全て復号部501において用いられる。例えば、復号部501がスピーチおよびオーディオハイブリッド符号化に対応している場合には、復号部501においては上述のコアデコーダのうち2つ以上が用いられる。
 復号部501は、1つのコアコーダから別のコアコーダへの切り替えにおいて、滑らかでアーチファクトのないフレーム移行を行うためのコーデック切り替えハンドラをさらに備えてもよい。また、復号部501において、窓処理、重なり部分の追加、エイリアシング除去などのコーデック切り替え技術が用いられてもよい。
 QMF分析部502は、復号済み狭帯域信号x(n)をM帯域表示のサブバンド信号X(ts,sb)に変換する。サブバンド信号X(ts、sb)の帯域幅の上限は、fxoverになる。なお、サブバンド信号X(ts、sb)は、コアパラメータから得られる信号である。
 分割部503は、復号済み狭帯域信号x(n)のトーン成分を示す信号である低域トーン信号と、復号済み狭帯域信号x(n)のフロア成分を示す信号である低域フロア信号とを生成する。具体的には、分割部503は、サブバンド信号X(ts,sb)を低域トーン信号X(ts,sb)および低域フロア信号X(ts,sb)に分割する。実施の形態2では、線形予測および逆フィルタリングにより、以下のように分割が行われる。
 1.分割部503は、サブバンド信号X(ts,sb)に、実施の形態1で説明した式(1)~(5)を適用し、線形予測係数α(ps、sb)およびα(ps、sb)、トーンエネルギーE(ps、sb)、並びに、フロアエネルギーE(ps、sb)を算出する。
 2.分割部503は、サブバンド信号X(ts,sb)に逆フィルタリングを行い、以下のように、低域トーン信号X(ts,sb)および低域フロア信号X(ts,sb)を導出する。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 3.分割部503は、トーンエネルギー(低域トーン信号X(ts,sb)のエネルギー)に基づいて、サブバンドsbがトーン性が高い(強い)か否かを評価する。この評価においては、閾値を評価基準とすることができる。例えば、サブバンドsbのトーンエネルギーが、以下の式(8)、(9)、および(10)を満たす場合、当該サブバンドsbのトーン性は高いと評価される。
 具体的には、サブバンドsbのトーンエネルギーが、隣接サブバンドのトーンエネルギーのC(C>0)倍よりも高い場合であって、かつ、当該サブバンドsbのフロアエネルギーのC(C>0)倍よりも高い場合、当該サブバンドsbのトーン性は高いと評価される。なお、変形例として、分割部503は、高調波の分布が密集しすぎないように、所定の周波数より上の帯域のサブバンドのみをハーモニック拡張に用いてもよい。
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 4.上記の基準を満たす全てのサブバンドsbから、互いにハーモニックス関係ではないサブバンドsb(つまり、相互に最重要であるサブバンドsb)をトーンエネルギーが高い順にN個(例えば、3個)選択する。以下、選択されたサブバンドsbをトーンサブセットsbと記載する。
 なお、サブバンド信号X(ts,sb)を低域トーン信号(トーン成分)と低域フロア信号(フロア成分)とに分割する方法、および、トーンエネルギーの高いサブバンドsbを選択する方法は、上記のような方法に限定されるものではなく、どのような方法が用いられてもよい。
 また、上記サブバンドの評価および選択は、トーン拡張部504が行ってもよい。つまり、トーン拡張部504は、低域トーン信号におけるサブバンドsbの中から、トーンサブセットsbを選択してもよい。トーンサブセットsbは、上述のように、トーン成分のエネルギーが隣接するサブバンドのトーン成分のエネルギーの所定倍よりも大きく、かつ、当該サブバンドのフロア成分のエネルギーの所定倍よりも大きいサブバンドである。
 フロア拡張部505は、低域フロア信号X(ts,sb)を用いて高域信号XHF(ts,sb)(=入力信号の高域部分)のフロア成分に対応する信号である高域フロア信号を生成する(S205)。具体的には、フロア拡張部505は、低域フロア信号X(ts,sb)を高周波数部分にパッチした高域フロア信号(パッチ済みフロア信号)X’(ts,sb)を生成する。
 実施の形態2では、高域フロア信号X’(ts,sb)の生成には、HE-AACにおいて用いられているコピーアップ方法が用いられる。関数map()を、map(sb)のサブバンドを高周波数領域のサブバンドsbにコピーするパッチング関数とした場合、パッチング動作は、以下の式で示される。
Figure JPOXMLDOC01-appb-M000011
 トーン拡張部504は、低域トーン信号X(ts,sb)を用いて高域信号XHF(ts,sb)(=入力信号の高域部分)のトーン成分に対応する信号である高域トーン信号(拡張済みトーン信号)を生成する(S206)。具体的には、トーン拡張部504は、低域トーン信号X(ts,sb)を高周波数領域にハーモニックに(=基本波と高調波との関係性を維持して)拡張した高域トーン信号X’(ts,sb)を生成する。
 実施の形態2では、トーン拡張部504は、以下のハーモニック拡張方法を用いる。
 1.トーン拡張部504は、整数ハーモニック比(例えば、2、3、4)に応じて、トーンサブセットsbに位置するトーン性の高いトーン成分を高周波数領域に複製(コピー)する。以下の擬似コードは、複製動作を示す。なお、以下の式では、最大ハーモニック比(例えば、4)を設定することができる。
Figure JPOXMLDOC01-appb-M000012
 なお、ここでのハーモニック拡張方法は、図2で説明したハーモニックモードにおけるハーモニック方法とは異なり、QMFフィルタバンク処理(QMF合成203およびQMF分析204)、および、時間的伸長および再サンプリング205が行われない。このため、ここでのハーモニック拡張方法は、図2のハーモニック方法よりも低遅延である。
 2.トーンエネルギーの低い(トーン性の高いトーン成分を有しない)サブバンドsbには、フロア拡張部505が使用するものと同一のmap(sb)関数を用いたコピーアップ方法が適用される。
 このとき、トーンサブセットsbに位置するトーン成分は、既に上述のハーモニック拡張方法によって高周波数領域に複製されているため、コピーアップ方法によって再度パッチングされることはない。
Figure JPOXMLDOC01-appb-M000013
 高域トーン信号X’(ts,sb)および高域フロア信号X’(ts,sb)は、M帯域より大きく2M帯域未満であることが予測される。
 以上のように、トーン拡張部504は、低域トーン信号に含まれるトーン成分の高調波成分を示す信号を高域トーン信号として生成する。
 トーン調整部506は、トーンパラメータを用いて高域トーン信号X’(ts,sb)を調整した調整済みトーン信号X”(ts,sb)を生成する(S207)。実施の形態2では、トーンパラメータは、パラメータユニット(ps、pb)ごとに定められたトーンエネルギーE(ps、pb)であり、高域トーン信号X’(ts,sb)は、以下のように調整される。
Figure JPOXMLDOC01-appb-M000014
 言い換えれば、トーン調整部506は、トーンパラメータが示すトーンエネルギーにエネルギーが調整された高域トーン信号X’(ts,sb)である調整済みトーン信号X”(ts,sb)を生成する。
 サブバンド信号X(ts,sb)自体のトーン性が低いときには、高域トーン信号X’(ts,sb)は、パラメータ帯域pb内でトーン成分を有しない場合がある。このような場合、トーン調整部506の調整動作の前に、人工的な高調波ハーモニックがパラメータ帯域pbの中心に注入されてもよい。以下に例を示す。
Figure JPOXMLDOC01-appb-M000015
 フロア調整部507は、フロアパラメータを用いて高域フロア信号X’(ts,sb)を調整した調整済みフロア信号X”(ts,sb)を生成する(S208)。実施の形態2では、フロアパラメータは、パラメータユニット(ps,pb)ごとに定められたフロアエネルギーE(ps,pb)であり、高域フロア信号X’(ts,sb)は、以下のように調整される。
Figure JPOXMLDOC01-appb-M000016
 言い換えれば、フロア調整部507は、フロアパラメータが示すフロアエネルギーにエネルギーが調整された高域フロア信号X’(ts,sb)である調整済みフロア信号X”(ts,sb)を生成する。
 なお、パラメータスロットとパラメータ帯域間の境界は、予め定められていてもよいし、ビットストリームに含まれる情報を用いて動的に生成されてもよい。
 加算部508は、サブバンド信号X(ts,sb)、調整済みトーン信号X”(ts,sb)、および、調整済みフロア信号X”(ts,sb)を加算した帯域幅拡張信号X”(ts,sb)を生成する(S209)。
Figure JPOXMLDOC01-appb-M000017
 QMF合成部509(QMF合成フィルタバンク)は、帯域幅拡張信号X”(ts,sb)を時間領域の信号x”(n)に変換(逆変換)する(S210)。
 なお、トーンエネルギー(トーンパラメータ)およびフロアエネルギー(フロアパラメータ)には、使用前に、共通の前処理が行われてもよい。例えば、タイムスロット方向およびサブバンド方向のいずれか一方、または、両方において、ローパスフィルタによって、トーンエネルギーおよびフロアエネルギーが補間および(または)平滑化されてもよい。
 また、逆フィルタリングの度合いは、線形予測係数に一定の「チャープ関数」を乗じることにより調整されてもよい。
 また、復号装置200aが実行する帯域幅拡張方法は、別の帯域幅拡張方法(例えば、コピーアップ方法など)を含む複数の帯域幅拡張方法を選択的に実行することが可能なマルチモード復号方法の一部として実現されてもよい。このような復号方法では、BWEフラグは、パラメータユニットごとに好ましい帯域幅拡張方法を示し、ビットストリームから抽出される。
 以上説明したように、実施の形態2に係る復号装置200aは、トーン性の強いトーン成分をハーモニックに拡張し、単純複製したフロア成分と合成することにより、入力信号(原信号)のハーモニックな音質を保つことができる。
 また、復号装置200aが実行する帯域幅拡張方法は、先行技術のハーモニック方法で用いられる臨界サンプリング、時間的伸長および再サンプリング(ダウンサンプリング)が必須でない。したがって、復号装置200aが実行する帯域幅拡張方法によれば、複雑さ、遅延、および、メモリに関する要件を軽減することが可能である。
 (実施の形態3)
 本発明の帯域幅拡張技術は、MDCT処理を行う符号化装置にも適用可能である。実施の形態3では、このような符号化装置について説明する。図8は、実施の形態3に係る符号化装置の機能構成を示すブロック図である。図9は、実施の形態3に係る符号化装置の動作のフローチャートである。
 図8に示されるように、実施の形態3に係る符号化装置100bは、フレーマー600と、MDCT部601と、符号化部602と、MDST部603と、抽出部604と、算出部605と、ビットストリーム・マルチプレクサ606とを備える。
 なお、抽出部604と、算出部605とを帯域幅拡張パラメータ生成装置607とも記載する。つまり、帯域幅拡張パラメータ生成装置607は、抽出部604と、算出部605とを備える。
 フレーマー600は、MDCT処理およびMDST処理の前処理として、入力信号をフレームに分割し(フレーミング)、所定数のフレームごとに窓処理する(S301)。図10は、フレーマー600のフレーミングおよび窓処理を示す図である。
 図10の(a)に示されるように、フレーマー600の窓処理においては、入力信号x(n)の連続する2つのフレーム700ごとに窓関数701が適用される。窓関数が適用されたフレーム700は、その後符号化装置100b側でMDCT処理702され、図10の(b)に示されるように復号装置側でIMDCT処理703された後、窓処理704される。
 窓処理には、符号化のためのより優れた周波数分解能の提供、および、復号装置で逆変換されたフレームの結合の際にフレーミングアーチファクトを防ぐ平滑化メカニズムの提供という2つの目的がある。フレーマー600は、前処理(フレーミングおよび窓処理)後の入力信号x(n)を窓処理済み信号x’(n)として出力する。
 MDCT部601は、前処理後の入力信号をMDCT処理したMDCT信号X(k)を生成する(S302)。具体的には、MDCT部601は、窓処理済み信号x’(n)をMDCT領域に変換し、MDCT信号X(k)を生成する。なお、kは周波数ビン指標(以下、単に、周波数ビンとも記載する)である。
 符号化部602は、入力信号x(n)の高域部分に対応する部分が除かれたMDCT信号X(k)(高域部分が除かれた入力信号x(n)を示す信号)をコアパラメータに符号化する(S303)。つまり、符号化部602は、fxoverより下の帯域のMDCT信号X(k)をコアパラメータに符号化する。AACなどで用いられている先行技術のMDCT符号化方法は、符号化部602で用いられる。
 MDST部603は、前処理後の入力信号をMDST処理したMDST信号X(k)を生成する(S304)。具体的には、MDST部603は、窓処理済み信号x’(n)をMDST領域に変換し、MDST信号X(k)を生成する。
 抽出部604は、MDCT信号X(k)およびMDST信号X(k)から複素信号X(k)を生成し、生成した複素信号の高周波数部分(高域部分)を高域信号X(k)(k>fxover)として抽出する(S305)。また、抽出部604は、MDCT信号X(k)およびMDST信号X(k)の高周波数部分を抽出し、それらの部分を合わせることで複素信号を生成してもよい。
Figure JPOXMLDOC01-appb-M000018
 抽出部604は、MDCT信号またはMDST信号自体からトーンエネルギーを正確に取得できないため、複素信号を算出する。これについては、図11を用いて説明する。図11は、5kHzの純粋なトーン成分のトーンエネルギーを示す図であり、図11の(a)は、MDCTエネルギー、図11の(b)は、MDSTエネルギー、図11の(c)は、複素エネルギーをそれぞれ示す。
 図11の例では、フレームサイズが1024サンプルであり、サンプリング周波数は48kHzである。図11の(a)および図11の(b)から分かるように、いくつかのフレームにおけるトーンエネルギーは、他のいくつかのフレームにおけるトーンエネルギーより実質的に小さくなる。したがって、複数のスペクトルのうち1つのみがトーン成分の抽出に用いられる場合、トーン性の高いトーン成分が見逃される可能性がある。
 一方、図11の(c)に示されるように、複素信号では、全てのフレームにおいて同一のトーン成分のトーンエネルギー(複素エネルギー)は一定である。
 算出部605は、高域信号X(k)(k>fxover)を用いてトーンパラメータおよびフロアパラメータを算出する(S306)。トーンパラメータは、高域信号X(k)(k>fxover)のうちのトーン成分のエネルギーの大きさを示すパラメータである。フロアパラメータは、高域信号X(k)(k>fxover)のうちのトーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すパラメータである。
 算出部605のトーンパラメータおよびフロアパラメータの算出方法の詳細については後述する。
 ビットストリーム・マルチプレクサ606は、トーンパラメータ、フロアパラメータ、および、コアパラメータを組み合わせて、これらのパラメータを含むビットストリームを生成し、復号装置に出力する(S307)。
 次に、算出部605の帯域幅拡張パラメータ(トーンパラメータおよびフロアパラメータ)の算出方法の詳細について説明する。
 高域信号X(k)(k>fxover)は、所定のパラメータ帯域pbに区分される。このときの区分は、実施の形態1で図5を用いて説明した区分に類似しており、相違点は、MDCT領域においては、タイムスロット次元が存在しないことである。算出部605は、パラメータ帯域pbごとに、1つのトーンパラメータと1つのフロアパラメータとを算出し量子化する。
 実施の形態3では、トーンパラメータは、トーンエネルギーであり、フロアパラメータは、フロアエネルギーである。算出部605は、以下のようにトーンパラメータおよびフロアパラメータを算出(推定)する。
 1.算出部605は、各周波数ビン指標kのエネルギーを以下のように算出する。
Figure JPOXMLDOC01-appb-M000019
 2.算出部605は、以下の式を満たす周波数ビン指標k(k)を探す。
Figure JPOXMLDOC01-appb-M000020
 3.算出部605は、各周波数ビン指標kのトーンエネルギーE(k)およびフロアエネルギーE(k)を以下のように算出する。
Figure JPOXMLDOC01-appb-M000021
Figure JPOXMLDOC01-appb-M000022
 4.算出部605は、パラメータ帯域pbのトーンエネルギーの合計を以下のように算出する。
Figure JPOXMLDOC01-appb-M000023
 5.算出部605は、パラメータ帯域pbのフロアエネルギーの合計を以下のように算出する。
Figure JPOXMLDOC01-appb-M000024
 以上のように算出されたトーンパラメータおよびフロアパラメータは、量子化後、ビットストリームとして復号装置に送信される。
 なお、MDCT領域においてトーン成分を識別する上述の方法は、単なる例にすぎずこのような方法に限定されない。MDCT領域においてトーン成分を識別するより高度な技術が先行技術の中に存在する。
 例えば、信頼度を高めるため、現在のフレームにおいて識別されたトーン成分は、過去のフレームにおいて見られるトーン成分と比較されてもよい。この場合、現在および過去の両方のフレームの同一の周波数ビン指標において現れるトーン成分のみが「確定した」トーン成分とみなされる。
 また、例えば、周波数ビンkにおけるトーン成分の判定基準には、隣接する周波数ビン指標k-1およびk+1だけでなく、周波数ビン指標k-2およびk+2などが含まれてもよい。
 以上説明したように、実施の形態3に係る符号化装置100bによれば、MDCT領域においてもトーンエネルギーおよびフロアエネルギーの大きさを示す帯域幅拡張パラメータを生成(符号化)することができる。帯域幅拡張パラメータを用いることにより、復号装置は、入力信号と同様のエネルギー、トーン・フロア比、および、調和構造の帯域幅拡張信号を生成することができる。
 (実施の形態4)
 実施の形態4では、符号化装置100bに対応する復号装置について説明する。図12は、実施の形態4に係る復号装置の機能構成を示すブロック図である。図13は、実施の形態4に係る復号装置の動作のフローチャートである。
 図12に示されるように、復号装置200bは、ビットストリーム・デマルチプレクサ900と、復号部911(コア復号部901および複素信号生成部902)と、分割部903と、トーン拡張部904と、フロア拡張部905と、トーン調整部906と、フロア調整部907と、加算部908と、IMDCT部909と、フレーマー910とを備える。
 ビットストリーム・デマルチプレクサ900は、ビットストリームをアンパックすることによって、トーンパラメータ、フロアパラメータ、および、コアパラメータを生成(抽出)する(S401)。
 復号部911は、コアパラメータを復号し、復号済み狭帯域信号X(k)を生成する(S402)。
 具体的には、まず、コア復号部901は、コアパラメータを復号してMDCT信号X(k)を生成する。つまり、MDCT信号は、コアパラメータから得られる信号である。AACなどで用いられている先行技術のMDCT復号方法は、コア復号部901で用いられる。
 そして、複素信号生成部902は、MDCT信号X(k)をMDST領域に変換したてMDST信号X(k)を生成する。MDCT信号X(k)をMDST領域に変換してMDST信号X(k)を生成する方法としては、先行技術のMDCT・MDST変換方法(例えば、非特許文献4)が適用できる。
 そして、複素信号生成部902は、MDCT信号X(k)と、MDST信号X(k)とを用いて、以下のように複素信号を生成する。
Figure JPOXMLDOC01-appb-M000025
 なお、複素信号X(k)は、帯域幅の上限がfxoverの復号済み狭帯域信号である。
 分割部903は、復号済み狭帯域信号X(k)のトーン成分を示す信号である低域トーン信号と、復号済み狭帯域信号X(k)のフロア成分を示す信号である低域フロア信号とを生成する(S403)。具体的には、分割部503は、復号済み狭帯域信号X(k)を低域トーン信号X(k)および低域フロア信号X(k)に分割する。実施の形態4では、この分割は以下のよう行われる。
 1.分割部903は、実施の形態3で説明した式(19)~(22)を用いて、トーン成分k、全体エネルギーE(k)、トーンエネルギーE(k)、および、フロアエネルギーE(k)を周波数ビン指標kごとに算出する。
 2.分割部903は、低域トーン信号X(k)および低域フロア信号X(k)を以下のように導出する。言い換えれば、分割部903は、復号済み狭帯域信号X(k)をエネルギーの大きさに応じて分割することによって低域トーン信号X(k)および低域フロア信号X(k)を生成する。
Figure JPOXMLDOC01-appb-M000026
Figure JPOXMLDOC01-appb-M000027
 3.分割部903は、周波数ビン指標kの中から、トーンエネルギーが高い順にN個のトーンサブセットkT2を選択する。なお、変形例として、分割部903は、高調波の分布が密集しすぎないように、所定の周波数より上の周波数ビン指標のみをハーモニック拡張に用いてもよい。
 また、上記トーンサブセットの選択は、トーン拡張部904が行ってもよい。つまり、トーン拡張部904は、低域トーン信号における周波数ビンkの中から、トーン成分のエネルギーが隣接する周波数ビンのトーン成分のエネルギーの所定倍よりも大きい周波数ビンk(kT、T2)を選択してもよい。
 フロア拡張部905は、低域フロア信号X(k)を用いて高域信号(=入力信号の高域部分)のフロア成分に対応する信号である高域フロア信号を生成する(S404)。フロア拡張部905は、低域フロア信号X(k)を高周波数部分にパッチした高域フロア信号(パッチ済みフロア信号)X’(k)を生成する。具体的には、例えば、HE-AACにおいて使用されるコピーアップ技術などが適用可能である。
 関数map()を、map(k)の周波数ビン指標を高周波数領域の周波数ビン指標kにコピーするパッチング関数とした場合、パッチング動作は、以下の式で示される。
Figure JPOXMLDOC01-appb-M000028
 トーン拡張部904は、低域トーン信号X(k)を用いて高域信号(=入力信号の高域部分)のトーン成分に対応する信号である高域トーン信号(拡張済みトーン信号)を生成する(S405)。具体的には、トーン拡張部904は、低域トーン信号X(k)を高周波数領域にハーモニックに拡張した高域トーン信号X’(k)を生成する。
 実施の形態4では、トーン拡張部904は、以下のハーモニック拡張方法を用いる。なお、以下の説明では周波数ビン指標kに対してハーモニック拡張方法が適用されるが、トーンサブセットkT2にハーモニック拡張方法が適用されてもよい。
 1.トーン拡張部904は、整数ハーモニック比(例えば、2、3、4)に応じて、トーンサブセットkに位置するトーン性の高いトーン成分を高周波数領域に複製(コピー)する。つまり、トーン拡張部904は、選択した周波数ビン(トーンサブセットk)の整数倍の周波数ビンに、当該選択した周波数ビンの低域トーン信号を複製することによって高域トーン信号を生成する。以下の擬似コードは、複製動作を示す。なお、以下の式では、コピー動作は、最大ハーモニック比ratiomax(例えば、4)が限度となる。
Figure JPOXMLDOC01-appb-M000029
 2.トーン成分のない周波数ビン指標には、フロア拡張部905が使用するものと同一のmap(k)関数を用いたコピーアップ方法が適用される。
 このとき、トーンサブセットkのトーン成分は、既に上述のハーモニック拡張方法によって高周波数領域に複製されているため、コピーアップ方法によって再度パッチングされることはない。
Figure JPOXMLDOC01-appb-M000030
 以上のように、トーン拡張部904は、低域トーン信号に含まれるトーン成分の高調波成分を示す信号を高域トーン信号として生成する。
 トーン調整部906は、トーンパラメータを用いて高域トーン信号X’(k)を調整した調整済みトーン信号X”(k)を生成する(S406)。実施の形態4では、トーンパラメータは、パラメータ帯域pbごとに定められたトーンエネルギーE(pb)であり、高域トーン信号X’(k)は、以下のように調整される。
Figure JPOXMLDOC01-appb-M000031
 言い換えれば、トーン調整部906は、トーンパラメータが示すトーンエネルギーにエネルギーが調整された高域トーン信号X’(k)である調整済みトーン信号X”(k)を生成する。
 復号済み狭帯域信号X(k)自体のトーン性が低いときには、高域トーン信号X’(k)は、パラメータ帯域pb内でトーン成分を有しない場合がある。このような場合、トーン調整部906の調整動作の前に、人工的な高調波成分をパラメータ帯域の中心に注入することができる。以下に例を示す。
 Daudetらの文献(非特許文献5)には、純粋な正弦波トーンのMDCTスペクトルは、シフト済みsinc()関数と、シフト済みコサイン変調との積であることが記載されている。この分析に基づき、周波数ビン指標kの中心に正弦波トーンを注入するため、以下のような信号を周波数ビン指標の区間[k-2,k+2]に注入しなければならない。ここで、frはフレーム指標である。
Figure JPOXMLDOC01-appb-M000032
 なお、複雑さを軽減するため、k-2およびk+2への注入は省略されてもよい。これにより、音質は少し低下することになるが、k-2およびk+2は、低振幅であるため音質への影響は限定的である。
 フロア調整部907は、フロアパラメータを用いて高域フロア信号X’(k)を調整した調整済みフロア信号X”(k)を生成する(S407)。実施の形態4では、フロアパラメータは、パラメータ帯域pbごとに定められたフロアエネルギーE(k)であり、高域フロア信号X’(k)は、以下のように調整される。
Figure JPOXMLDOC01-appb-M000033
 言い換えれば、フロア調整部907は、フロアパラメータが示すフロアエネルギーにエネルギーが調整された高域フロア信号X’(k)である調整済みフロア信号X”(k)を生成する。
 加算部908は、MDCT信号X(k)、調整済みトーン信号X”(k)の実数部分、および、調整済みフロア信号X”(k)の実数部分を加算した帯域幅拡張信号X”(k)を生成する(S408)。
Figure JPOXMLDOC01-appb-M000034
 IMDCT部909は、帯域幅拡張信号X”(k)を時間領域の信号x”(n)に変換(逆変換)する(S409)。
 フレーマー910は、時間領域の信号x”(n)に対して窓処理と、重なり部分の追加処理とを行い、復号信号x’’’(n)を生成する(S410)。実施の形態3で説明した図10の(b)はフレーマー910の動作を示す図である。
 以上説明したように、実施の形態4に係る復号装置200bは、トーン性の強いトーン成分をハーモニックに拡張し、単純複製したフロア成分と合成することにより、入力信号(原信号)のハーモニックな音質を保つことができる。
 また、復号装置200bが実行する帯域幅拡張方法は、先行技術のハーモニック方法で用いられる臨界サンプリング、時間的伸長および再サンプリング(ダウンサンプリング)が必須でない。したがって、復号装置200bが実行する帯域幅拡張方法によれば、複雑さ、遅延、および、メモリに関する要件を軽減することが可能である。
 (その他の実施の形態)
 本発明は、帯域幅拡張パラメータ生成装置として実現されてもよい。
 上記実施の形態において説明した各フローチャートのステップの順序は、一例であり、実行可能な範囲で変更されてもよい。また、並列処理が可能なステップについては並列処理されてもよい。
 また、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 (まとめ)
 上記実施の形態に係る帯域幅拡張パラメータ生成装置および符号化装置は、入力信号の高域部分のトーンエネルギーおよびフロアエネルギーを推定し、これらのエネルギーの大きさを示す帯域幅拡張パラメータを生成する。
 上記実施の形態に係る復号装置は、復号した狭帯域信号からトーン性の高いトーン成分を選択および抽出し、抽出したトーン成分を用いてハーモニックに高周波数領域に拡張する。そして、復号装置は、残りのフロア成分、つまり、抽出したトーン成分を復号した狭帯域信号から差し引いた成分が、コピーアップ方法により、高周波数領域として複製される。
 さらに、抽出されたトーン成分と複製されたフロア成分とが入力信号と同一のトーンエネルギーおよびトーン・フロア比になるように、符号化装置が生成した帯域幅拡張パラメータを用いてこれらの成分を調整する。
 上記実施の形態に係る帯域幅拡張方法は、基本的には、複雑度の低いコピーアップ方法による単純な拡張であるため、先行技術のハーモニック方法が必要とする臨界サンプリング、時間的伸長、および再サンプリングは必要ない。このため、複雑度、遅延、および、メモリは大幅に改善される。
 以上、一つまたは複数の態様に係る帯域幅拡張パラメータ生成装置、符号化装置、および復号装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
 なお、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。このため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 本発明は、音信号の符号化および復号に関するアプリケーションに適用することができる。本発明は、例えば、カセットブック、放送システム、携帯用メディア機器、(携帯電話やタブレットを含む)モバイル通信端末、テレビ会議機器、および、ネットワーク上の音楽演奏アプリケーションに適用できる。
 100a、100b 符号化装置
 200、204 QMF分析
 200a、200b 復号装置
 201 コピーアップ
 202 臨界サンプリング
 203 QMF合成
 205 時間的伸長および再サンプリング
 206 HF調整
 207 コピーアップモード
 208 ハーモニックモード
 300 フィルタ部
 301、602 符号化部
 302、502 QMF分析部
 303、604 抽出部
 304、605 算出部
 305、606 ビットストリーム・マルチプレクサ
 306、607 帯域幅拡張パラメータ生成装置
 500、900 ビットストリーム・デマルチプレクサ
 501、911 復号部
 503、903 分割部
 504、904 トーン拡張部
 505、905 フロア拡張部
 506、906 トーン調整部
 507、907 フロア調整部
 508、908 加算部
 509 QMF合成部
 600、910 フレーマー
 601 MDCT部
 603 MDST部
 700 フレーム
 701 窓関数
 702 MDCT処理
 703 IMDCT処理
 704 窓処理
 901 コア復号部
 902 複素信号生成部
 909 IMDCT部

Claims (15)

  1.  入力音信号の高域部分を示す高域信号を抽出する抽出部と、
     前記高域信号のうちのトーン成分のエネルギーの大きさを示すトーンパラメータと、前記高域信号のうちの前記トーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すフロアパラメータとを算出する算出部とを備える
     帯域幅拡張パラメータ生成装置。
  2.  請求項1に記載の帯域幅拡張パラメータ生成装置と、
     前記高域部分が除かれた前記入力音信号を示す信号をコアパラメータに符号化する符号化部と、
     前記トーンパラメータ、前記フロアパラメータ、および、前記コアパラメータを含むビットストリームを生成して出力するビットストリーム・マルチプレクサとを備える
     符号化装置。
  3.  さらに、
     前記高域部分が除かれた前記入力音信号である狭帯域信号を生成するフィルタ部と、
     前記入力音信号をサブバンド信号に変換するQMF(Quadrature Mirror Filter)分析部とを備え、
     前記符号化部は、前記狭帯域信号を前記コアパラメータに符号化し、
     前記抽出部は、前記サブバンド信号の高域部分であるHFサブバンド信号を前記高域信号として抽出する
     請求項2に記載の符号化装置。
  4.  さらに、
     前記入力音信号をMDCT(Modified Discrete Cosine Transform)処理したMDCT信号を生成するMDCT部と、
     前記入力音信号をMDST(Modified Discrete Sine Transform)処理したMDST信号を生成するMDST部とを備え、
     前記符号化部は、前記入力音信号の前記高域部分に対応する部分が除かれた前記MDCT信号をコアパラメータに符号化し、
     前記抽出部は、前記MDCT信号および前記MDST信号から複素信号を生成し、生成した前記複素信号の高域部分を前記高域信号として抽出する
     請求項2に記載の符号化装置。
  5.  ビットストリームを復号する復号装置であって、
     前記ビットストリームには、符号化された入力音信号の低域部分であるコアパラメータと、前記入力音信号の高域部分を示す高域信号のうちのトーン成分のエネルギーの大きさを示すトーンパラメータと、前記高域信号のうちの前記トーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すフロアパラメータとが含まれ、
     前記復号装置は、
     前記コアパラメータを復号することによって復号済み狭帯域信号を生成する復号部と、
     前記復号済み狭帯域信号のトーン成分を示す信号である低域トーン信号と、前記復号済み狭帯域信号のフロア成分を示す信号である低域フロア信号とを生成する分割部と、
     前記低域トーン信号を用いて前記高域信号のトーン成分に対応する信号である高域トーン信号を生成するトーン拡張部と、
     前記低域フロア信号を用いて前記高域信号のフロア成分に対応する信号である高域フロア信号を生成するフロア拡張部と、
     前記トーンパラメータを用いて前記高域トーン信号を調整した調整済みトーン信号を生成するトーン調整部と、
     前記フロアパラメータを用いて前記高域フロア信号を調整した調整済みフロア信号を生成するフロア調整部と、
     前記コアパラメータから得られる信号、前記調整済みトーン信号、および、前記調整済みフロア信号を加算した帯域幅拡張信号を生成する加算部とを備える
     復号装置。
  6.  前記トーン拡張部は、前記低域トーン信号に含まれるトーン成分の高調波成分を示す信号を前記高域トーン信号として生成する
     請求項5に記載の復号装置。
  7.  さらに、前記復号済み狭帯域信号をサブバンド信号に変換するQMF分析部を備え、
     前記分割部は、前記サブバンド信号を分割することによって、前記低域トーン信号と、前記低域フロア信号とを生成し、
     前記加算部は、前記コアパラメータから得られる信号である前記サブバンド信号、前記調整済みトーン信号、および、前記調整済みフロア信号を加算した前記帯域幅拡張信号を生成する
     請求項5に記載の復号装置。
  8.  前記トーン拡張部は、前記低域トーン信号におけるサブバンドの中から、トーン成分のエネルギーが(1)隣接するサブバンドのトーン成分のエネルギーの所定倍よりも大きく、かつ、(2)当該サブバンドのフロア成分のエネルギーの所定倍よりも大きいサブバンドを選択し、選択したサブバンドの整数倍のサブバンドに、当該選択したサブバンドの前記低域トーン信号を複製することによって前記高域トーン信号を生成する
     請求項7に記載の復号装置。
  9.  さらに、
     前記ビットストリームから、前記トーンパラメータ、前記フロアパラメータ、および、前記コアパラメータを生成するビットストリーム・デマルチプレクサと、
     前記帯域幅拡張信号を時間領域に変換するQMF合成部とを備える
     請求項7または8に記載の復号装置。
  10.  前記復号部は、(1)前記コアパラメータを復号してMDCT信号を生成し、(2)前記MDCT信号をMDST領域に変換したMDST信号を生成し、(3)生成した前記MDCT信号および前記MDST信号から得られる複素信号を前記復号済み狭帯域信号として生成し、
     前記加算部は、前記コアパラメータから得られる信号である前記MDCT信号、前記調整済みトーン信号、および、前記調整済みフロア信号を加算した前記帯域幅拡張信号を生成する
     請求項5に記載の復号装置。
  11.  前記トーン拡張部は、前記低域トーン信号における周波数ビンの中から、トーン成分のエネルギーが隣接する周波数ビンのトーン成分のエネルギーの所定倍よりも大きい周波数ビンを選択し、選択した周波数ビンの整数倍の周波数ビンに、当該選択した周波数ビンの前記低域トーン信号を複製することによって前記高域トーン信号を生成する
     請求項10に記載の復号装置。
  12.  さらに、
     前記ビットストリームから、前記トーンパラメータ、前記フロアパラメータ、および、前記コアパラメータを生成するビットストリーム・デマルチプレクサと、
     前記帯域幅拡張信号を時間領域に変換するIMDCT(Inverse Modified Discrete Cosine Transform)部とを備える
     請求項10または11に記載の復号装置。
  13.  入力音信号の高域部分を示す高域信号を抽出する抽出ステップと、
     前記高域信号のうちのトーン成分のエネルギーの大きさを示すトーンパラメータと、前記高域信号のうちの前記トーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すフロアパラメータとを算出する算出ステップとを含む
     帯域幅拡張パラメータ生成方法。
  14.  請求項13に記載の帯域幅拡張パラメータ生成方法に含まれる各ステップと、
     前記高域部分が除かれた前記入力音信号を示す信号をコアパラメータに符号化する符号化ステップと、
     前記トーンパラメータ、前記フロアパラメータ、および、前記コアパラメータを含むビットストリームを生成して出力する出力ステップとを含む
     符号化方法。
  15.  ビットストリームを復号する復号方法であって、
     前記ビットストリームには、符号化された入力音信号の低域部分であるコアパラメータと、前記入力音信号の高域部分を示す高域信号のうちのトーン成分のエネルギーの大きさを示すトーンパラメータと、前記高域信号のうちの前記トーン成分が除かれた成分であるフロア成分のエネルギーの大きさを示すフロアパラメータとが含まれ、
     前記復号方法は、
     前記コアパラメータを復号することによって復号済み狭帯域信号を生成する復号ステップと、
     前記復号済み狭帯域信号のトーン成分を示す信号である低域トーン信号と、前記復号済み狭帯域信号のフロア成分を示す信号である低域フロア信号とを生成する分割ステップと、
     前記低域トーン信号を用いて前記高域信号のトーン成分に対応する信号である高域トーン信号を生成するトーン拡張ステップと、
     前記低域フロア信号を用いて前記高域信号のフロア成分に対応する信号である高域フロア信号を生成するフロア拡張ステップと、
     前記トーンパラメータを用いて前記高域トーン信号を調整した調整済みトーン信号を生成するトーン調整ステップと、
     前記フロアパラメータを用いて前記高域フロア信号を調整した調整済みフロア信号を生成するフロア調整ステップと、
     前記コアパラメータから得られる信号、前記調整済みトーン信号、および、前記調整済みフロア信号を加算した帯域幅拡張信号を生成する加算ステップとを含む
     復号方法。
PCT/JP2013/007448 2013-01-22 2013-12-18 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法 WO2014115225A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP13872902.5A EP2950308B1 (en) 2013-01-22 2013-12-18 Bandwidth expansion parameter-generator, encoder, decoder, bandwidth expansion parameter-generating method, encoding method, and decoding method
CN201380043203.2A CN104584124B (zh) 2013-01-22 2013-12-18 编码装置、解码装置、编码方法、以及解码方法
JP2014558299A JP6262668B2 (ja) 2013-01-22 2013-12-18 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法
US14/621,885 US9424847B2 (en) 2013-01-22 2015-02-13 Bandwidth extension parameter generation device, encoding apparatus, decoding apparatus, bandwidth extension parameter generation method, encoding method, and decoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-009652 2013-01-22
JP2013009652 2013-01-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/621,885 Continuation US9424847B2 (en) 2013-01-22 2015-02-13 Bandwidth extension parameter generation device, encoding apparatus, decoding apparatus, bandwidth extension parameter generation method, encoding method, and decoding method

Publications (1)

Publication Number Publication Date
WO2014115225A1 true WO2014115225A1 (ja) 2014-07-31

Family

ID=51227042

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/007448 WO2014115225A1 (ja) 2013-01-22 2013-12-18 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法

Country Status (5)

Country Link
US (1) US9424847B2 (ja)
EP (1) EP2950308B1 (ja)
JP (1) JP6262668B2 (ja)
CN (1) CN104584124B (ja)
WO (1) WO2014115225A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018508830A (ja) * 2015-03-13 2018-03-29 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
JP2020079963A (ja) * 2015-03-13 2020-05-28 ドルビー・インターナショナル・アーベー オーディオ処理ユニットおよびエンコードされたオーディオ・ビットストリームをデコードする方法
JP2023509201A (ja) * 2020-01-13 2023-03-07 ホアウェイ・テクノロジーズ・カンパニー・リミテッド オーディオ符号化及び復号方法、並びにオーディオ符号化及び復号デバイス
JP2023510556A (ja) * 2020-01-13 2023-03-14 華為技術有限公司 オーディオ符号化および復号方法ならびにオーディオ符号化および復号デバイス

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX358362B (es) * 2013-06-21 2018-08-15 Fraunhofer Ges Forschung Decodificador de audio que tiene un modulo de extension de ancho de banda con un modulo de ajuste de energia.
EP2963646A1 (en) 2014-07-01 2016-01-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder and method for decoding an audio signal, encoder and method for encoding an audio signal
CN105261373B (zh) * 2015-09-16 2019-01-08 深圳广晟信源技术有限公司 用于带宽扩展编码的自适应栅格构造方法和装置
EP3182411A1 (en) 2015-12-14 2017-06-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an encoded audio signal
JP6769299B2 (ja) * 2016-12-27 2020-10-14 富士通株式会社 オーディオ符号化装置およびオーディオ符号化方法
US10825467B2 (en) * 2017-04-21 2020-11-03 Qualcomm Incorporated Non-harmonic speech detection and bandwidth extension in a multi-source environment
EP3435376B1 (en) * 2017-07-28 2020-01-22 Fujitsu Limited Audio encoding apparatus and audio encoding method
EP3742443B1 (en) * 2018-01-17 2022-08-03 Nippon Telegraph And Telephone Corporation Decoding device, method and program thereof
US10978083B1 (en) 2019-11-13 2021-04-13 Shure Acquisition Holdings, Inc. Time domain spectral bandwidth replication
CN113593586A (zh) * 2020-04-15 2021-11-02 华为技术有限公司 音频信号编码方法、解码方法、编码设备以及解码设备
CN113539281A (zh) * 2020-04-21 2021-10-22 华为技术有限公司 音频信号编码方法和装置
CN113808596A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN113808597A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN113963703A (zh) * 2020-07-03 2022-01-21 华为技术有限公司 一种音频编码的方法和编解码设备
CN113948094A (zh) * 2020-07-16 2022-01-18 华为技术有限公司 音频编解码方法和相关装置及计算机可读存储介质
WO2023147650A1 (en) * 2022-02-03 2023-08-10 Voiceage Corporation Time-domain superwideband bandwidth expansion for cross-talk scenarios

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132399A (ja) * 1997-05-13 1999-02-02 Sony Corp 符号化方法及び装置、並びに記録媒体
WO2005104094A1 (ja) * 2004-04-23 2005-11-03 Matsushita Electric Industrial Co., Ltd. 符号化装置
JP2007187905A (ja) * 2006-01-13 2007-07-26 Sony Corp 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
JP2010020251A (ja) * 2008-07-14 2010-01-28 Ntt Docomo Inc 音声符号化装置及び方法、音声復号化装置及び方法、並びに、音声帯域拡張装置及び方法
WO2012096230A1 (ja) * 2011-01-14 2012-07-19 ソニー株式会社 信号処理装置および方法、並びにプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6356211B1 (en) 1997-05-13 2002-03-12 Sony Corporation Encoding method and apparatus and recording medium
ES2237706T3 (es) * 2001-11-29 2005-08-01 Coding Technologies Ab Reconstruccion de componentes de alta frecuencia.
US6879954B2 (en) * 2002-04-22 2005-04-12 Matsushita Electric Industrial Co., Ltd. Pattern matching for large vocabulary speech recognition systems
JP3861770B2 (ja) * 2002-08-21 2006-12-20 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
EP1711938A1 (en) * 2004-01-28 2006-10-18 Koninklijke Philips Electronics N.V. Audio signal decoding using complex-valued data
KR100707174B1 (ko) * 2004-12-31 2007-04-13 삼성전자주식회사 광대역 음성 부호화 및 복호화 시스템에서 고대역 음성부호화 및 복호화 장치와 그 방법
WO2006075269A1 (en) * 2005-01-11 2006-07-20 Koninklijke Philips Electronics N.V. Scalable encoding/decoding of audio signals
US7953605B2 (en) * 2005-10-07 2011-05-31 Deepen Sinha Method and apparatus for audio encoding and decoding using wideband psychoacoustic modeling and bandwidth extension
JP4918841B2 (ja) * 2006-10-23 2012-04-18 富士通株式会社 符号化システム
KR101355376B1 (ko) * 2007-04-30 2014-01-23 삼성전자주식회사 고주파수 영역 부호화 및 복호화 방법 및 장치
US9177569B2 (en) * 2007-10-30 2015-11-03 Samsung Electronics Co., Ltd. Apparatus, medium and method to encode and decode high frequency signal
EP2144230A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
PT2359366T (pt) * 2008-12-15 2017-01-20 Fraunhofer Ges Forschung Codificador de áudio e descodificador de extensão de largura de banda
WO2011062536A1 (en) * 2009-11-19 2011-05-26 Telefonaktiebolaget Lm Ericsson (Publ) Improved excitation signal bandwidth extension
ES2568640T3 (es) * 2012-02-23 2016-05-03 Dolby International Ab Procedimientos y sistemas para recuperar de manera eficiente contenido de audio de alta frecuencia

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132399A (ja) * 1997-05-13 1999-02-02 Sony Corp 符号化方法及び装置、並びに記録媒体
WO2005104094A1 (ja) * 2004-04-23 2005-11-03 Matsushita Electric Industrial Co., Ltd. 符号化装置
JP2007187905A (ja) * 2006-01-13 2007-07-26 Sony Corp 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
JP2010020251A (ja) * 2008-07-14 2010-01-28 Ntt Docomo Inc 音声符号化装置及び方法、音声復号化装置及び方法、並びに、音声帯域拡張装置及び方法
WO2012096230A1 (ja) * 2011-01-14 2012-07-19 ソニー株式会社 信号処理装置および方法、並びにプログラム

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
CAROT, ALEXANDER ET AL.: "Networked Music Performance: State of the Art", AES 30TH INTERNATIONAL CONFERENCE, 15 March 2007 (2007-03-15)
DAUDET, SANDLER: "MDCT, Analysis of Sinusoids: Exact Results and Applications to Coding Artifacts Reduction", IEEE TRANSACTIONS ON SPEECH AND AUDIO, PROCESSING, vol. 12, no. 3, May 2004 (2004-05-01), XP011111119, DOI: doi:10.1109/TSA.2004.825669
FREDERIK NAGEL ET AL.: "A Continuous Modulated Single Sideband Bandwidth Extension", PROC. ICASSP 2010, 14 March 2010 (2010-03-14), pages 357 - 360, XP031697766 *
NEUENDORF ET AL.: "MPEG, Unified Speech and Audio Coding - The ISO/MPEG, Standard for High-Efficiency Audio Coding of all Content Types", AES 132ND CONVENTION, 26 April 2012 (2012-04-26)
ROSE KENNETH ET AL.: "Enhanced Accuracy of the Tonality Measure and Control Parameter Extraction Modules in MPEG-4 HE-AAC, AES E- Library", AUDIO ENGINEERING SOCIETY, XP040507430, Retrieved from the Internet <URL:http://www.aes.org/e-lib/browse.cfm?elib=13340> [retrieved on 20140215] *
See also references of EP2950308A4
SHUIXIAN CHEN ET AL.: "Estimating Spatial, Cues for Audio Coding in MDCT Domain", IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, 28 June 2009 (2009-06-28)
SINHA ET AL.: "A Novel Integrated Audio Bandwidth Extension Toolkit", AES 120TH CONVENTION, 20 May 2006 (2006-05-20)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10943595B2 (en) 2015-03-13 2021-03-09 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
JP2018165844A (ja) * 2015-03-13 2018-10-25 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
JP2021167981A (ja) * 2015-03-13 2021-10-21 ドルビー・インターナショナル・アーベー オーディオ処理ユニットおよびエンコードされたオーディオ・ビットストリームをデコードする方法
JP7038747B2 (ja) 2015-03-13 2022-03-18 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
US10134413B2 (en) 2015-03-13 2018-11-20 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
US10262669B1 (en) 2015-03-13 2019-04-16 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
US10262668B2 (en) 2015-03-13 2019-04-16 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
US10453468B2 (en) 2015-03-13 2019-10-22 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
US10553232B2 (en) 2015-03-13 2020-02-04 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
JP2020079963A (ja) * 2015-03-13 2020-05-28 ドルビー・インターナショナル・アーベー オーディオ処理ユニットおよびエンコードされたオーディオ・ビットストリームをデコードする方法
JP2020101824A (ja) * 2015-03-13 2020-07-02 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
US10734010B2 (en) 2015-03-13 2020-08-04 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
JP2018508830A (ja) * 2015-03-13 2018-03-29 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
JP2018508831A (ja) * 2015-03-13 2018-03-29 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
JP2018165845A (ja) * 2015-03-13 2018-10-25 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
JP2022066477A (ja) * 2015-03-13 2022-04-28 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
US11367455B2 (en) 2015-03-13 2022-06-21 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
US11417350B2 (en) 2015-03-13 2022-08-16 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
JP7210658B2 (ja) 2015-03-13 2023-01-23 ドルビー・インターナショナル・アーベー オーディオ処理ユニットおよびエンコードされたオーディオ・ビットストリームをデコードする方法
US11842743B2 (en) 2015-03-13 2023-12-12 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
JP7354328B2 (ja) 2015-03-13 2023-10-02 ドルビー・インターナショナル・アーベー 少なくとも一つの充填要素内の向上スペクトル帯域複製メタデータを用いたオーディオ・ビットストリームのデコード
US11664038B2 (en) 2015-03-13 2023-05-30 Dolby International Ab Decoding audio bitstreams with enhanced spectral band replication metadata in at least one fill element
JP2023510556A (ja) * 2020-01-13 2023-03-14 華為技術有限公司 オーディオ符号化および復号方法ならびにオーディオ符号化および復号デバイス
JP2023509201A (ja) * 2020-01-13 2023-03-07 ホアウェイ・テクノロジーズ・カンパニー・リミテッド オーディオ符号化及び復号方法、並びにオーディオ符号化及び復号デバイス
US11887610B2 (en) 2020-01-13 2024-01-30 Huawei Technologies Co., Ltd. Audio encoding and decoding method and audio encoding and decoding device
JP7443534B2 (ja) 2020-01-13 2024-03-05 華為技術有限公司 オーディオ符号化および復号方法ならびにオーディオ符号化および復号デバイス

Also Published As

Publication number Publication date
EP2950308B1 (en) 2020-02-19
JPWO2014115225A1 (ja) 2017-01-19
EP2950308A4 (en) 2016-02-24
EP2950308A1 (en) 2015-12-02
US9424847B2 (en) 2016-08-23
CN104584124B (zh) 2019-04-16
US20150162010A1 (en) 2015-06-11
JP6262668B2 (ja) 2018-01-17
CN104584124A (zh) 2015-04-29

Similar Documents

Publication Publication Date Title
JP6262668B2 (ja) 帯域幅拡張パラメータ生成装置、符号化装置、復号装置、帯域幅拡張パラメータ生成方法、符号化方法、および、復号方法
US11929084B2 (en) Audio encoder and decoder using a frequency domain processor with full-band gap filling and a time domain processor
JP6321797B2 (ja) 符号化装置、符号化方法およびコンピュータプログラム
JP6229957B2 (ja) 音声信号を再生するための装置および方法、符号化音声信号を生成するための装置および方法、コンピュータプログラム、および符号化音声信号
TWI541795B (zh) 編碼器、解碼器、用於解碼之方法、用於編碼之方法及電腦程式
JP5551692B2 (ja) 音声符号器、音声復号器、音声符号化方法、音声復号化方法およびコンピュータプログラム
JP2022172245A (ja) 周波数ドメインプロセッサ、時間ドメインプロセッサ及び連続的な初期化のためのクロスプロセッサを使用するオーディオ符号器及び復号器
JP6126006B2 (ja) 音信号ハイブリッドエンコーダ、音信号ハイブリッドデコーダ、音信号符号化方法、及び音信号復号方法
KR20080109299A (ko) 오디오 신호의 부호화/복호화 방법 및 장치
JP2016500839A (ja) スペクトルパターンを利用することによってシヌソイドおよびスイープを効率的に合成するための装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13872902

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014558299

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013872902

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE