WO2016121826A1 - 符号化装置、復号装置、これらの方法、プログラム及び記録媒体 - Google Patents

符号化装置、復号装置、これらの方法、プログラム及び記録媒体 Download PDF

Info

Publication number
WO2016121826A1
WO2016121826A1 PCT/JP2016/052365 JP2016052365W WO2016121826A1 WO 2016121826 A1 WO2016121826 A1 WO 2016121826A1 JP 2016052365 W JP2016052365 W JP 2016052365W WO 2016121826 A1 WO2016121826 A1 WO 2016121826A1
Authority
WO
WIPO (PCT)
Prior art keywords
parameter
unit
code
decoding
encoding
Prior art date
Application number
PCT/JP2016/052365
Other languages
English (en)
French (fr)
Inventor
守谷 健弘
優 鎌本
登 原田
川西 隆仁
弘和 亀岡
亮介 杉浦
Original Assignee
日本電信電話株式会社
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社, 国立大学法人東京大学 filed Critical 日本電信電話株式会社
Priority to JP2016572110A priority Critical patent/JP6387117B2/ja
Priority to KR1020177020235A priority patent/KR101996307B1/ko
Priority to US15/544,465 priority patent/US10224049B2/en
Priority to CN201680007279.3A priority patent/CN107210042B/zh
Priority to EP16743429.9A priority patent/EP3252758B1/en
Publication of WO2016121826A1 publication Critical patent/WO2016121826A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/035Scalar quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components

Definitions

  • the present invention relates to a technique for encoding or decoding a time series signal such as a sound signal.
  • a parameter such as LSP is known as a parameter representing the characteristics of a time-series signal such as a sound signal (see Non-Patent Document 1, for example).
  • LSP Since LSP is multi-order, it may be difficult to use it directly for sound classification or interval estimation. For example, since the LSP is multi-order, it cannot be said that processing based on a threshold using the LSP is easy.
  • This parameter ⁇ is an encoding method for arithmetic coding in a coding scheme that arithmetically encodes a quantized value of a frequency domain coefficient using a linear prediction envelope as used in, for example, 3GPP EVS (Enhanced Voice Services) standard. It is a shape parameter that determines the probability distribution to which the object belongs.
  • the parameter ⁇ is related to the distribution of the encoding target, and if the parameter ⁇ is appropriately determined, efficient encoding and decoding can be performed.
  • the parameter ⁇ can be an index representing the characteristics of the time series signal. For this reason, although not publicly known, it is conceivable to specify an appropriate encoding process or decoding process configuration based on the parameter ⁇ , and to perform the specified encoding process or decoding process.
  • the present invention specifies an appropriate encoding process or decoding process configuration based on a parameter ⁇ , and performs an encoding process or a decoding process with the specified configuration, a decoding apparatus, these methods, a program, and a recording
  • the purpose is to provide a medium.
  • the encoding apparatus encodes a time-series signal for each predetermined time interval in the frequency domain, and corresponds to the time-series signal with a parameter ⁇ as a positive number.
  • the whitening spectrum which is a series obtained by dividing the frequency domain sample sequence by the spectral envelope spectrum envelope estimated by regarding the parameter ⁇ as the power spectrum of the absolute value of the frequency domain sample sequence corresponding to the time series signal to the power ⁇
  • a shape parameter of the generalized Gaussian distribution that approximates the histogram of the series
  • one of a plurality of parameters ⁇ can be selected for each predetermined time interval, or the parameter ⁇ is variable, and the parameter ⁇ for each predetermined time interval is
  • An encoding unit that encodes a time-series signal for each predetermined time interval by an encoding process having a configuration specified based on at least; It is provided.
  • an encoding device that encodes a time-series signal for each predetermined time interval in the frequency domain, wherein the parameter ⁇ is a positive number, and for each predetermined time interval. Any of a plurality of parameters ⁇ can be selected or the parameter ⁇ is variable, and the absolute value of the frequency domain sample sequence corresponding to the time-series signal is regarded as the power spectrum as a power spectrum for each predetermined time interval.
  • a code is obtained by encoding a frequency domain sample sequence corresponding to a time-series signal by an encoding process in which the bit allocation is changed or the bit allocation is substantially changed based on the value of the spectral envelope estimated by the estimation of the spectral envelope.
  • An output encoding unit is provided, and a parameter code representing a parameter ⁇ corresponding to the output code is output.
  • the parameter ⁇ is a positive number
  • the parameter code representing the parameter ⁇ is regarded as the power spectrum
  • the absolute value of the frequency domain sample sequence corresponding to the parameter ⁇ is the ⁇ power
  • the input parameter code is decoded as a code that represents the shape parameter of the generalized Gaussian distribution that approximates the histogram of the whitened spectrum sequence, which is a sequence obtained by dividing the frequency domain sample sequence by the spectral envelope spectrum envelope estimated by A parameter code decoding unit for obtaining the parameter ⁇ , a specifying unit for specifying the configuration of the decoding process based on at least the obtained parameter ⁇ , and a decoding unit for decoding the input code by the decoding process of the specified configuration And.
  • a decoding device that obtains a frequency domain sample sequence corresponding to a time-series signal by decoding in the frequency domain, and that obtains a parameter ⁇ by decoding an input parameter code Code decoding unit, linear prediction coefficient decoding unit that obtains coefficients that can be converted to linear prediction coefficients by decoding the input linear prediction coefficient code, and conversion to linear prediction coefficients using the obtained parameter ⁇
  • a non-smoothed spectrum envelope sequence generation unit that obtains a non-smoothed spectrum envelope sequence that is a series obtained by raising the amplitude spectrum envelope sequence corresponding to a specific coefficient to the 1 / ⁇ power, and a bit allocation that changes based on the non-smoothed spectrum envelope sequence
  • the frequency domain sample corresponding to the time-series signal is obtained by decoding the input integer signal code according to the bit allocation that changes substantially. It includes a decoding unit obtaining a Le columns, the.
  • the block diagram for demonstrating the example of the conventional encoding apparatus The block diagram for demonstrating the example of the conventional encoding part. The figure for demonstrating generalized Gaussian distribution.
  • the block diagram for demonstrating the example of an encoding apparatus The flowchart for demonstrating the example of the encoding method.
  • the block diagram for demonstrating the example of an encoding part The block diagram for demonstrating the example of an encoding part.
  • the block diagram for demonstrating the example of a decoding apparatus The flowchart for demonstrating the example of a decoding method.
  • the flowchart for demonstrating the example of a process of a decoding part The block diagram for demonstrating the example of an encoding apparatus.
  • the flowchart for demonstrating the example of the encoding method The block diagram for demonstrating the example of a parameter determination apparatus. The flowchart for demonstrating the example of the parameter determination method. Histogram to explain the technical background.
  • the block diagram for demonstrating the example of an encoding apparatus The flowchart for demonstrating the example of the encoding method.
  • the block diagram for demonstrating the example of a decoding apparatus The flowchart for demonstrating the example of a decoding method.
  • the block diagram for demonstrating the example of a parameter determination part The flowchart for demonstrating the example of a parameter determination part.
  • a sound signal which is a time-series signal in the time domain is input to the frequency domain converter 11.
  • the sound signal is, for example, an audio signal or an acoustic signal.
  • the frequency domain transform unit 11 converts an input time domain sound signal into N frequency MDCT coefficient sequences X (0), X (1),..., X (N ⁇ Convert to 1). N is a positive integer.
  • the converted MDCT coefficient sequence X (0), X (1),..., X (N-1) is output to the envelope normalization unit 14.
  • the linear prediction analysis unit 12 receives a sound signal that is a time-series signal in the time domain.
  • the linear prediction analysis unit 12 generates linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p by performing linear prediction analysis on the sound signal input in units of frames. Further, the linear prediction analysis unit 12 encodes the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p to generate a linear prediction coefficient code. Examples of the linear prediction coefficient code is the linear prediction coefficients ⁇ 1, ⁇ 2, ..., a LSP code is a code corresponding to the column of the quantized value of the LSP (Line Spectrum Pairs) parameter sequence corresponding to alpha p. p is an integer of 2 or more.
  • linear prediction analysis unit 12 generates quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p that are linear prediction coefficients corresponding to the generated linear prediction coefficient code.
  • the generated quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the smoothed amplitude spectrum envelope sequence generation unit 14 and the non-smoothed amplitude spectrum envelope sequence generation unit 13.
  • the generated linear prediction coefficient code is output to the decoding device.
  • a method of obtaining a linear prediction coefficient by obtaining an autocorrelation for a sound signal input in units of frames and performing a Levinson-Durbin algorithm using the obtained autocorrelation is used.
  • the MDCT coefficient sequence obtained by the frequency domain conversion unit 11 is input to the linear prediction analysis unit 12, and the Levinson-Durbin algorithm is performed on the inverse Fourier transform of the square value series of each coefficient of the MDCT coefficient sequence.
  • a method of obtaining a linear prediction coefficient may be used.
  • ⁇ Smoothing Amplitude Spectrum Envelope Sequence Generation Unit 14 Quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 12 are input to the smoothed amplitude spectrum envelope sequence generation unit 14.
  • the smoothed amplitude spectrum envelope sequence generation unit 14 uses the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p to smooth the smoothed amplitude spectrum envelope sequence defined by the following equation (B1) ⁇ W ⁇ (0), ⁇ W ⁇ (1), ..., ⁇ W ⁇ (N-1) are generated.
  • Exp ( ⁇ ) is an exponential function with the Napier number as the base, and j is an imaginary unit.
  • is a positive constant of 1 or less
  • the amplitude spectrum envelope sequence ⁇ W (0), ⁇ W (1),..., ⁇ W (N-1) defined by the following formula (B2) It is a coefficient for smoothing the unevenness, in other words, a coefficient for smoothing the amplitude spectrum envelope series.
  • the generated smoothed amplitude spectrum envelope sequences ⁇ W ⁇ (0), ⁇ W ⁇ (1),..., ⁇ W ⁇ (N-1) are the envelope normalization unit 15 and the dispersion parameter determination unit of the encoding unit 16. It is output to 163.
  • ⁇ Non-smoothed amplitude spectrum envelope sequence generation unit 13 The textured amplitude spectral envelope sequence generating unit 13, quantized linear prediction coefficients the linear prediction analyzer 12 generates ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ p is input.
  • the non-smoothed amplitude spectrum envelope sequence generation unit 13 uses the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p and uses the unsmoothed amplitude spectrum envelope defined by the above equation (B2). Generate the sequence ⁇ W (0), ⁇ W (1), ..., ⁇ W (N-1).
  • the generated unsmoothed amplitude spectrum envelope sequence ⁇ W (0), ⁇ W (1),..., ⁇ W (N-1) is output to the dispersion parameter determination unit 163 of the encoding unit 16.
  • the envelope normalization unit 15 outputs the MDCT coefficient sequence X (0), X (1),..., X (N-1) generated by the frequency domain conversion unit 11 and the smoothed amplitude spectrum envelope sequence generation unit 14.
  • the smoothed amplitude spectrum envelope sequence ⁇ W ⁇ (0), ⁇ W ⁇ (1), ..., ⁇ W ⁇ (N-1) is input.
  • the generated normalized MDCT coefficient sequences X N (0), X N (1),..., X N (N ⁇ 1) are output to the encoding unit 16.
  • the envelope normalization unit 15 performs a smoothed amplitude spectrum envelope sequence ⁇ W ⁇ (0), which is a sequence in which the amplitude spectrum envelope is blunted.
  • ⁇ W ⁇ (1), ..., ⁇ W ⁇ (N-1) is used to normalize MDCT coefficient sequence X (0), X (1), ..., X (N-1) in units of frames .
  • the encoding unit 16 includes normalized MDCT coefficient sequences X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 15, a smoothed amplitude spectrum envelope sequence generation unit 14, the smoothed amplitude spectrum envelope sequence ⁇ W ⁇ (0), ⁇ W ⁇ (1),..., ⁇ W ⁇ (N-1), the non-smoothed amplitude spectrum envelope sequence generator 13 outputs ⁇ W (0), ⁇ W (1), ..., ⁇ W (N-1) is input.
  • the encoding unit 16 generates a code corresponding to the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1).
  • Codes corresponding to the generated normalized MDCT coefficient sequences X N (0), X N (1),..., X N (N ⁇ 1) are output to the decoding device.
  • a code obtained by encoding the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) is an integer signal code.
  • the encoding unit 16 determines a gain g such that the number of bits of the integer signal code is equal to or less than the allocated bit number B, which is the number of bits allocated in advance, and as large as possible. To do. Then, the encoding unit 16 generates a gain code corresponding to the determined gain g and an integer signal code corresponding to the determined gain g.
  • the generated gain code and integer signal code are output to the decoding apparatus as codes corresponding to the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1).
  • the encoding unit 16 includes a gain acquisition unit 161, a quantization unit 162, a dispersion parameter determination unit 168, an arithmetic encoding unit 169, a gain encoding unit 165, and a determination unit 166.
  • a gain updating unit 167 is provided.
  • each part of FIG. 2 will be described.
  • the gain acquisition unit 161 is a bit in which the number of bits of the integer signal code is allocated in advance from the input normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1).
  • a global gain g that is equal to or smaller than the distribution bit number B, which is a number, and is as large as possible is determined and output.
  • the global gain g obtained by the gain acquisition unit 161 is an initial value of the global gain used in the quantization unit 162.
  • the quantization unit 162 obtains each coefficient of the input normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) by the gain acquisition unit 161 or the gain update unit 167. Then, quantized normalized coefficient sequences X Q (0), X Q (1),..., X Q (N ⁇ 1), which are sequences based on the integer part of the result of division by the global gain g, are obtained and output.
  • the global gain g used when the quantization unit 162 is executed for the first time is the global gain g obtained by the gain acquisition unit 161, that is, the initial value of the global gain.
  • the global gain g used when the quantization unit 162 is executed for the second time or later is the global gain g obtained by the gain update unit 167, that is, the updated value of the global gain.
  • the dispersion parameter determination unit 163 inputs the input unsmoothed amplitude spectrum envelope sequence ⁇ W (0), ⁇ W (1),..., ⁇ W (N-1) and the input smoothed amplitude spectrum envelope sequence ⁇ From W ⁇ (0), ⁇ W ⁇ (1), ..., ⁇ W ⁇ (N-1), the dispersion parameters ⁇ (0), ⁇ (1), ..., Obtain ⁇ (N-1) and output.
  • the arithmetic encoding unit 164 uses the dispersion parameters ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) obtained by the dispersion parameter determination unit 163 to perform quantization normalization obtained by the quantization unit 162.
  • X Q (0), X Q (1), ..., X Q (N-1) are arithmetically encoded to obtain an integer signal code, and the integer signal code and the number of bits of the integer signal code are consumed The number of bits C is output.
  • the determination unit 166 outputs an integer signal code when the number of gain updates is a predetermined number, and also instructs the gain encoding unit 165 to encode the global gain g obtained by the gain updating unit 167. And the number of consumed bits C measured by the arithmetic encoding unit 164 is output to the gain updating unit 167.
  • ⁇ Gain Updater 167 When the number of consumed bits C measured by the arithmetic coding unit 164 is larger than the allocated bit number B, the gain updating unit 167 updates the global gain g value to a larger value and outputs the updated value. When the number is smaller than the number B, the value of the global gain g is updated to a small value, and the updated value of the global gain g is output.
  • the gain encoder 165 encodes the global gain g obtained by the gain updater 167 in accordance with the instruction signal output from the determination unit 166, obtains a gain code, and outputs the gain code.
  • the integer signal code output from the determination unit 166 and the gain code output from the gain encoding unit 165 are output to the decoding device as codes corresponding to the normalized MDCT coefficient sequence.
  • the normalized MDCT coefficient sequence is encoded. ing.
  • This encoding method is adopted in the above MPEG-4MUSAC and the like.
  • the normalization of the MDCT sequence X (0), X (1),..., X (N-1) by the smoothed amplitude spectrum envelope is more effective than the normalization by the non-smoothed amplitude spectrum envelope sequence. ), X (1), ..., X (N-1) are not whitened.
  • the MDCT coefficient sequence X (0), X (1), ..., X (N-1) is transformed into the unsmoothed amplitude spectrum envelope sequence ⁇ W (0), ⁇ W (1), ..., ⁇ W (N- Normalized sequence X (0) / ⁇ W (0), X (1) / ⁇ W (1),..., X (N-1) / ⁇ W (N-1 )
  • normalized MDCT coefficient sequences X N (0), X N (1), ..., X N (N-1) has ⁇ W (0) / ⁇ W ⁇ (0), ⁇ W (1) / ⁇ W ⁇ (1),..., ⁇ W (N-1) / ⁇ W
  • the envelope irregularities represented by the sequence of ⁇ (N-1) (hereinafter referred to as normalized amplitude spectrum envelope sequence ⁇ W N (0), ⁇ W N (1),..., W N (N-1)) It is left.
  • Fig. 16 shows the envelope irregularities of the normalized MDCT sequence ⁇ W (0) / ⁇ W ⁇ (0), ⁇ W (1) / ⁇ W ⁇ (1),..., ⁇ W (N-1) / ⁇ W ⁇
  • envelope The curve of 0.2-0.3 is the normalized MDCT coefficient X N (k) corresponding to sample k where the irregularity of the normalized MDCT sequence ⁇ W (k) / ⁇ W ⁇ (k) is 0.2 or more and less than 0.3 Represents the frequency of the values.
  • envelope The curve of 0.3-0.4 is the normalized MDCT coefficient X N (k) corresponding to the sample k whose envelope irregularities ⁇ W (k) / ⁇ W ⁇ (k) of the normalized MDCT sequence is 0.3 or more and less than 0.4 Represents the frequency of the values.
  • envelope: The curve of 0.4-0.5 is the normalized MDCT coefficient X N (k) corresponding to the sample k whose envelope irregularity ⁇ W (k) / ⁇ W ⁇ (k) is 0.4 or more and less than 0.5 Represents the frequency of the values.
  • the average value of each coefficient included in the normalized MDCT coefficient sequence is almost 0, but the variance is related to the envelope value. That is, it can be seen that there is a relation that the variance of the normalized MDCT coefficient is larger because the base of the curve representing the frequency is wider as the envelope irregularity of the normalized MDCT sequence is larger.
  • encoding using this relationship is performed. Specifically, for each coefficient of the frequency domain coefficient sequence to be encoded, encoding is performed such that the bit allocation is changed or the bit allocation is substantially changed based on the spectrum envelope.
  • an optimal bit allocation assuming the encoding target belonging to a certain probability distribution (for example, Laplace distribution) is assigned to a code belonging to the probability distribution that deviates from the assumption. If it is performed on the conversion target, the compression efficiency may decrease.
  • a generalized Gaussian distribution represented by the following formula, which is a distribution that can express various probability distributions, is used as the probability distribution to which the encoding target belongs.
  • (> 0) which is a shape parameter
  • is a predetermined number greater than zero.
  • the value of ⁇ may be determined in advance, or may be selected or varied for each frame that is a predetermined time interval.
  • ⁇ in the above equation is a value corresponding to the dispersion of the distribution, and information on the unevenness of the spectrum envelope is incorporated using this value as a dispersion parameter.
  • the dispersion parameters ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) are generated from the spectrum envelope, and for the quantized normalized coefficient X Q (k) at each frequency k, f
  • ⁇ (k), ⁇ ) is followed is configured, and encoding is performed using the arithmetic code based on this configuration.
  • the dispersion parameter for each coefficient of (N-1) is calculated by the following equation (A1).
  • is the square root of ⁇ 2 .
  • the Levinson-Durbin algorithm is performed on the inverse Fourier transform of a series of values obtained by raising the absolute value of the MDCT coefficient to the power of ⁇ , and the resulting linear prediction coefficient is quantized ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p is used in place of the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p and the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1 ), ..., ⁇ H (N-1) and smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) And formula (A3)
  • ⁇ 2 / ⁇ / g of formula (A1) is a value related closely to the entropy variation of the values of each frame if the bit rate is fixed is small. For this reason, it is also possible to use a predetermined fixed value as ⁇ 2 / ⁇ / g. Thus, when using a fixed value, it is not necessary to newly add information because of the method of the present invention.
  • the above technique is based on the minimization problem based on the code length when the quantized normalized coefficient sequence X Q (0), X Q (1), ..., X Q (N-1) is arithmetically coded. Is. The derivation of the above technique is described below.
  • the minimization problem of code length L for distributed parameter sequence is ⁇ ⁇ (k) / ( ⁇ B ⁇ ( ⁇ )) and
  • the dispersion parameter sequence ⁇ (0), ⁇ (1 ), ..., ⁇ (N-1) and the linear prediction coefficients ⁇ 1, ⁇ 2, ..., ⁇ p, correspondence between the energy sigma 2 prediction residual If one is determined, an optimization problem for obtaining a linear prediction coefficient that minimizes the code length can be established. However, in order to use a conventional fast solution, the following correspondence is made.
  • the conventional linear prediction analysis that is, applying the Levinson-Durbin algorithm to the inverse Fourier transform of the power spectrum, has a linear prediction coefficient that minimizes the Itakura Saito distance between the power spectrum and the all-pole spectral envelope. It is known that this is a desired operation. Therefore, the above code length minimization problem is the same as in the conventional method by applying the Levinson-Durbin algorithm to the ⁇ th power of the amplitude spectrum, that is, the ⁇ th power of the absolute value of the MDCT coefficient series. An optimal solution can be obtained.
  • FIG. 4 A configuration example of the encoding apparatus according to the first embodiment is shown in FIG.
  • the encoding apparatus of the third embodiment includes a frequency domain transform unit 21, a linear prediction analysis unit 22, a non-smoothed amplitude spectrum envelope sequence generation unit 23, and a smoothed amplitude spectrum envelope sequence generation.
  • a unit 24, an envelope normalization unit 25, an encoding unit 26, and a parameter determination unit 27 are provided.
  • An example of each process of the encoding method according to the first embodiment realized by this encoding apparatus is shown in FIG.
  • any one of a plurality of parameters ⁇ can be selected by the parameter determination unit 27 for each predetermined time interval.
  • the parameter determination unit 27 stores a plurality of parameters ⁇ as parameters ⁇ candidates.
  • the parameter determination unit 27 sequentially reads one parameter ⁇ among the plurality of parameters, and outputs it to the linear prediction analysis unit 22, the unsmoothed amplitude spectrum envelope sequence generation unit 23, and the decoding unit 26 (step A0).
  • the frequency domain transform unit 21, the linear prediction analysis unit 22, the unsmoothed amplitude spectrum envelope sequence generation unit 23, the smoothed amplitude spectrum envelope sequence generation unit 24, the envelope normalization unit 25, and the encoding unit 26 include a parameter determination unit 27.
  • processing from step A1 to step A6 described below is performed to generate a code for the frequency domain sample sequence corresponding to the time-series signal in the same predetermined time interval.
  • two or more codes may be obtained for frequency domain sample sequences corresponding to time-series signals in the same predetermined time interval.
  • the codes for the frequency domain sample sequences corresponding to the time-series signals in the same predetermined time section are a combination of these two or more obtained codes.
  • the code is a combination of a linear prediction coefficient code, a gain code, and an integer signal code.
  • the parameter determination unit 27 selects one code from the codes obtained for each parameter ⁇ with respect to the frequency domain sample sequence corresponding to the time-series signal in the same predetermined time interval. Then, the parameter ⁇ corresponding to the selected code is determined (step A7). This determined parameter ⁇ becomes the parameter ⁇ for the frequency domain sample sequence corresponding to the time-series signal in the same predetermined time interval. Then, the parameter determining unit 27 outputs the selected code and the code representing the determined parameter ⁇ to the decoding device. Details of the process of step A7 by the parameter determination unit 27 will be described later.
  • one parameter ⁇ is read by the parameter determination unit 27, and processing is performed on the read one parameter ⁇ .
  • the frequency domain converter 21 receives a sound signal that is a time-series signal in the time domain.
  • sound signals are voice digital signals or acoustic digital signals.
  • the frequency domain transform unit 21 converts the input time domain sound signal into N frequency MDCT coefficient sequences X (0), X (1),..., X (N ⁇ 1) (step A1). N is a positive integer.
  • the obtained MDCT coefficient sequences X (0), X (1),..., X (N-1) are output to the linear prediction analysis unit 22 and the envelope normalization unit 25.
  • the subsequent processing is performed in units of frames.
  • the frequency domain conversion unit 21 obtains a frequency domain sample sequence corresponding to the sound signal, for example, an MDCT coefficient sequence.
  • the linear prediction analysis unit 22 receives the MDCT coefficient sequence X (0), X (1),..., X (N-1) obtained by the frequency domain conversion unit 21.
  • the linear prediction analysis unit 22 uses the MDCT coefficient sequence X (0), X (1),..., X (N-1) to define ⁇ R (0), ⁇ R defined by the following equation (A7): (1),..., ⁇ R (N-1) are subjected to linear prediction analysis to generate linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p, and the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,. Encode ⁇ p to generate linear prediction coefficient code and quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p , which are quantized linear prediction coefficients corresponding to the linear prediction coefficient code ( Step A2).
  • the generated quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the non-smoothed spectrum envelope sequence generation unit 23 and the smoothed amplitude spectrum envelope sequence generation unit 24.
  • the energy ⁇ 2 of the prediction residual is calculated in the course of the linear prediction analysis process.
  • the calculated energy ⁇ 2 of the prediction residual is output to the variance parameter determining unit 268 of the encoding unit 26.
  • the generated linear prediction coefficient code is transmitted to the parameter determination unit 27.
  • the linear prediction analysis unit 22 firstly performs an inverse Fourier transform in which the absolute value of the MDCT coefficient sequence X (0), X (1),. , That is, in the time domain corresponding to the absolute value of MDCT coefficient sequence X (0), X (1), ..., X (N-1) to the ⁇ th power A pseudo-correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1) which is a signal string is obtained. Then, the linear prediction analysis unit 22 performs linear prediction analysis using the obtained pseudo correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1) to obtain a linear prediction coefficient.
  • ⁇ 1 , ⁇ 2 ,..., ⁇ p are generated.
  • the linear prediction analysis unit 22 encodes the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p so as to encode the linear prediction coefficient code and the quantized linear prediction coefficient corresponding to the linear prediction coefficient code.
  • ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are obtained.
  • the linear prediction coefficients ⁇ 1 , ⁇ 2 , ..., ⁇ p are obtained when the absolute value of the MDCT coefficient sequence X (0), X (1), ..., X (N-1) is considered as the power spectrum Is a linear prediction coefficient corresponding to a signal in the time domain.
  • the generation of the linear prediction coefficient code by the linear prediction analysis unit 22 is performed by, for example, a conventional encoding technique.
  • the conventional encoding technique is, for example, an encoding technique in which a code corresponding to the linear prediction coefficient itself is a linear prediction coefficient code, and a code corresponding to the LSP parameter by converting the linear prediction coefficient into an LSP parameter.
  • an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code for example, an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code.
  • a code corresponding to a linear prediction coefficient itself is a linear prediction coefficient code
  • a plurality of quantized linear prediction coefficient candidates are determined in advance, and each candidate is stored in association with a linear prediction coefficient code in advance.
  • any one of candidates is determined as a quantized linear prediction coefficient for the generated linear prediction coefficient, and a quantized linear prediction coefficient and a linear prediction coefficient code are obtained.
  • a code corresponding to a linear prediction coefficient itself is a linear prediction coefficient code
  • a plurality of quantized linear prediction coefficient candidates are determined in advance, and each candidate is stored in association with a linear prediction coefficient code in advance.
  • any one of candidates is determined as a quantized linear prediction coefficient for the generated linear prediction coefficient, and a quantized linear prediction coefficient and a linear prediction coefficient code are obtained.
  • the linear prediction analysis unit 22 obtains a pseudo correlation function signal sequence obtained by performing an inverse Fourier transform assuming that the absolute value of the absolute value of the frequency domain sample sequence, which is an MDCT coefficient sequence, is a power spectrum, for example. To generate coefficients that can be converted into linear prediction coefficients.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 23 receives the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 22.
  • Textured amplitude spectral envelope sequence generating unit 23 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ is the sequence of the amplitude spectrum envelope corresponding to p textured amplitude spectral envelope sequence ⁇ H ( 0), ⁇ H (1),..., ⁇ H (N-1) are generated (step A3).
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is output to the encoding unit 26.
  • Textured amplitude spectral envelope sequence generating unit 23 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., using the ⁇ beta p, unsmoothed amplitude spectral envelope sequence ⁇ H (0), ⁇ H ( 1), ..., ⁇ H (N-1), the unsmoothed amplitude spectrum envelope sequence defined by equation (A2) ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) Is generated.
  • the non-smoothed amplitude spectrum envelope sequence generation unit 23 is a sequence obtained by raising the amplitude spectrum envelope sequence corresponding to the coefficient that can be converted into the linear prediction coefficient generated by the linear prediction analysis unit 22 to the 1 / ⁇ power.
  • the spectral envelope is estimated by obtaining a non-smoothed spectral envelope sequence.
  • the sequence obtained by raising c to a power of a sequence composed of a plurality of values, where c is an arbitrary number is a sequence composed of values obtained by raising each of the plurality of values to the c-th power.
  • a series obtained by raising the amplitude spectrum envelope series to the power of 1 / ⁇ is a series constituted by values obtained by raising each coefficient of the amplitude spectrum envelope to the power of 1 / ⁇ .
  • the 1 / ⁇ power processing by the non-smoothed amplitude spectrum envelope sequence generation unit 23 is caused by processing in which the absolute value ⁇ power of the frequency domain sample sequence is regarded as a power spectrum performed by the linear prediction analysis unit 22. It is. That is, the process of the 1 / ⁇ power by the non-smoothed amplitude spectrum envelope sequence generation unit 23 is performed by the process in which the absolute value of the frequency domain sample sequence performed by the linear prediction analysis unit 22 is regarded as the power spectrum as ⁇ . This is done to return the raised value to its original value.
  • ⁇ Smoothing Amplitude Spectrum Envelope Sequence Generation Unit 24 Quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 22 are input to the smoothed amplitude spectrum envelope sequence generation unit 24.
  • the generated smoothed amplitude spectrum envelope sequences ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N ⁇ 1) are output to the envelope normalization unit 25 and the encoding unit 26.
  • the smoothed amplitude spectrum envelope sequence generation unit 24 uses the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p and the correction coefficient ⁇ to smooth the smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1), the smoothed amplitude spectrum envelope sequence defined by equation (A3) ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) is generated.
  • the correction coefficient ⁇ is a predetermined constant less than 1, and the amplitude unevenness of the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1)
  • the coefficient for blunting in other words, the coefficient for smoothing the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1).
  • the envelope normalization unit 25 includes the MDCT coefficient sequence X (0), X (1),..., X (N-1) obtained by the frequency domain conversion unit 21 and the smoothed amplitude spectrum envelope generation unit 24. ⁇ H ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) are input.
  • the envelope normalization unit 25 converts each coefficient of the MDCT coefficient sequence X (0), X (1),..., X (N-1) into a corresponding smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H. Normalized MDCT coefficient sequence X N (0), X N (1), ..., X N (N-1 by normalizing with each value of ⁇ (1), ..., ⁇ H ⁇ (N-1) ) Is generated (step A5).
  • the generated normalized MDCT coefficient sequence is output to the encoding unit 26.
  • the encoding unit 26 includes normalized MDCT coefficient sequences X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25, an unsmoothed amplitude spectrum envelope generation unit. 23, the non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1), and the smoothed amplitude spectrum envelope sequence generated by the smoothed amplitude spectrum envelope generation unit 24 ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N ⁇ 1) and the average residual energy ⁇ 2 calculated by the linear prediction analysis unit 22 are input.
  • the encoding unit 26 performs encoding by performing, for example, the processing from step A61 to step A65 shown in FIG. 8 (step A6).
  • the encoding unit 26 obtains a global gain g corresponding to the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) (step A61), and the normalized MDCT coefficient sequence Quantized normalized coefficient series X, which is a series of integer values obtained by quantizing the result of dividing each coefficient of X N (0), X N (1), ..., X N (N-1) by global gain g Q (0), X Q (1), ..., X Q (N-1) is obtained (step A62), and the quantized normalized coefficient series X Q (0), X Q (1), ..., X Q Dispersion parameters ⁇ (0), ⁇ (1), ..., ⁇ (N-1) corresponding to each coefficient of (N-1) are set to global gain g and unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) and smoothed amplitude spectrum envelope series ⁇ H ⁇ (0), ⁇
  • the normalized amplitude spectrum envelope sequence in the above formula (A1) ⁇ H N (0 ), ⁇ H N (1), ..., ⁇ H N is unsmoothed amplitude spectral envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) values are converted into corresponding smoothed amplitude spectrum envelope sequences ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N- Divided by each value of 1), that is, obtained by the following equation (A8).
  • the generated integer signal code and gain code are output to the parameter determination unit 27 as codes corresponding to the normalized MDCT coefficient sequence.
  • step A61 to step A65 the encoding unit 26 determines a global gain g such that the number of bits of the integer signal code is equal to or smaller than the allocated bit number B, which is the number of bits allocated in advance, and as large as possible.
  • a function of generating a gain code corresponding to the determined global gain g and an integer signal code corresponding to the determined global gain g is realized.
  • step A63 the characteristic processing is included in step A63, where the global gain g and the quantized normalized coefficient series X Q (0), X Q (1 ),..., X Q (N-1) are encoded to obtain a code corresponding to the normalized MDCT coefficient sequence.
  • the encoding process itself includes various techniques including those described in Non-Patent Document 1. Known techniques exist. Two specific examples of the encoding process performed by the encoding unit 26 will be described below.
  • FIG. 6 shows a configuration example of the encoding unit 26 of the first specific example.
  • the encoding unit 26 of the first specific example includes a gain acquisition unit 261, a quantization unit 262, a dispersion parameter determination unit 268, an arithmetic encoding unit 269, and a gain encoding unit 265.
  • a gain acquisition unit 261 As shown in FIG. 6, the encoding unit 26 of the first specific example includes a gain acquisition unit 261, a quantization unit 262, a dispersion parameter determination unit 268, an arithmetic encoding unit 269, and a gain encoding unit 265.
  • the gain acquisition unit 261 receives the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25.
  • Gain acquisition unit 261 the normalized MDCT coefficients X N (0), X N (1), ..., from X N (N-1), the number of bits of the integer signal code is the number of bits in advance allocation
  • a global gain g that is equal to or less than the number of allocated bits B and that is as large as possible is determined and output (step S261).
  • the gain acquisition unit 261 has, for example, a negative correlation between the square root of the total energy of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) and the allocated bit number B.
  • the multiplication value with a certain constant is obtained as the global gain g and output.
  • the gain acquisition unit 261 calculates the total energy of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1), the number of allocated bits B, and the global gain g. , And a global gain g may be obtained and output by referring to the table.
  • the gain acquisition unit 261 obtains a gain for dividing all samples of the normalized frequency domain sample sequence, which is a normalized MDCT coefficient sequence, for example.
  • the obtained global gain g is output to the quantization unit 262 and the dispersion parameter determination unit 268.
  • the quantization unit 262 includes the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25 and the global obtained by the gain acquisition unit 261. Gain g is input.
  • the quantization unit 262 is a series of integer parts as a result of dividing each coefficient of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) by the global gain g. quantized normalized haze coefficient sequence X Q (0), X Q (1), ..., X Q (N-1) the obtained output (step S262).
  • the quantization unit 262 divides each sample of the normalized frequency domain sample sequence, which is a normalized MDCT coefficient sequence, for example, by the gain and quantizes it to obtain a quantized normalized coefficient sequence.
  • the obtained quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) are output to the arithmetic coding unit 269.
  • the variance parameter determination unit 268 includes the parameter ⁇ read by the parameter determination unit 27, the global gain g obtained by the gain acquisition unit 261, and the unsmoothed amplitude spectrum envelope sequence ⁇ H generated by the unsmoothed amplitude spectrum envelope generation unit 23. (0), ⁇ H (1), ..., ⁇ H (N-1), the smoothed amplitude spectrum envelope sequence generated by the smoothed amplitude spectrum envelope generator 24 ⁇ H ⁇ (0), ⁇ H ⁇ (1) ,..., ⁇ H ⁇ (N ⁇ 1) and the prediction residual energy ⁇ 2 obtained by the linear prediction analysis unit 22 are input.
  • the dispersion parameter determination unit 268 calculates the global gain g, the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1), and the smoothed amplitude spectrum envelope sequence ⁇ H. ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) and, from the energy sigma 2 Metropolitan prediction residual, the above formula (A1), the dispersion parameter sequence by formula (A8) phi Each of the dispersion parameters (0), ⁇ (1),..., ⁇ (N ⁇ 1) is obtained and output (step S268).
  • the obtained dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) are output to the arithmetic coding unit 269.
  • the arithmetic coding unit 269 includes the parameter ⁇ read by the parameter determining unit 27, the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N -1) and the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) obtained by the dispersion parameter determination unit 268 are input.
  • the arithmetic coding unit 269 uses a dispersion parameter sequence ⁇ (0) as a dispersion parameter corresponding to each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1). ), ⁇ (1), ..., ⁇ (N-1) using the respective dispersion parameters, the quantized normalized coefficient series X Q (0), X Q (1), ..., X Q (N-1 ) Is arithmetically encoded to obtain and output an integer signal code (step S269).
  • the arithmetic coding unit 269 performs generalized Gaussian distribution on each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) during arithmetic coding. Bit allocation that is optimal when following f GG (X
  • the obtained integer signal code is output to the parameter determination unit 27.
  • Quantized normalized Haze coefficient sequence X Q (0), X Q (1), ..., arithmetic coding may be performed over a plurality of coefficients in X Q (N-1).
  • the dispersion parameters of the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N-1) are unsmoothed amplitude spectrum envelopes as can be seen from equations (A1) and (A8). Since it is based on the sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1), the arithmetic coding unit 269 is based on the estimated spectral envelope (unsmoothed amplitude spectral envelope). Thus, it can be said that encoding is performed in which the bit allocation is substantially changed.
  • the gain encoder 265 receives the global gain g obtained by the gain acquisition unit 261.
  • the gain encoding unit 265 encodes the global gain g to obtain and output a gain code (step S265).
  • the generated integer signal code and gain code are output to the parameter determination unit 27 as codes corresponding to the normalized MDCT coefficient sequence.
  • Steps S261, S262, S268, S269, and S265 of this specific example 1 correspond to the above steps A61, A62, A63, A64, and A65, respectively.
  • FIG. 7 shows a configuration example of the encoding unit 26 of the specific example 2.
  • the encoding unit 26 of the specific example 2 includes a gain acquisition unit 261, a quantization unit 262, a dispersion parameter determination unit 268, an arithmetic encoding unit 269, a gain encoding unit 265, For example, a determination unit 266 and a gain update unit 267 are provided.
  • a gain acquisition unit 261 the encoding unit 26 of the specific example 2
  • a quantization unit 262 includes a quantization unit 262, a dispersion parameter determination unit 268, an arithmetic encoding unit 269, a gain encoding unit 265,
  • a determination unit 266 and a gain update unit 267 are provided.
  • the gain unit 261 receives the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25.
  • Gain acquisition unit 261 the normalized MDCT coefficients X N (0), X N (1), ..., from X N (N-1), the number of bits of the integer signal code is the number of bits in advance allocation
  • a global gain g that is equal to or less than the number of allocated bits B and that is as large as possible is determined and output (step S261).
  • the gain acquisition unit 261 has, for example, a negative correlation between the square root of the total energy of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) and the allocated bit number B.
  • the multiplication value with a certain constant is obtained as the global gain g and output.
  • the obtained global gain g is output to the quantization unit 262 and the dispersion parameter determination unit 268.
  • the global gain g obtained by the gain acquisition unit 261 is an initial value of the global gain used by the quantization unit 262 and the dispersion parameter determination unit 268.
  • the quantization unit 262 includes a normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25 and a gain acquisition unit 261 or a gain update unit.
  • the global gain g obtained by 267 is input.
  • the quantization unit 262 is a series of integer parts as a result of dividing each coefficient of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) by the global gain g. quantized normalized haze coefficient sequence X Q (0), X Q (1), ..., X Q (N-1) the obtained output (step S262).
  • the global gain g used when the quantization unit 262 is executed for the first time is the global gain g obtained by the gain acquisition unit 261, that is, the initial value of the global gain.
  • the global gain g used when the quantizing unit 262 is executed for the second time or later is the global gain g obtained by the gain updating unit 267, that is, the updated value of the global gain.
  • the obtained quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) are output to the arithmetic coding unit 269.
  • the dispersion parameter determination unit 268 includes the parameter ⁇ read by the parameter determination unit 27, the global gain g obtained by the gain acquisition unit 261 or the gain update unit 267, and the non-smoothed amplitude generated by the non-smoothed amplitude spectrum envelope generation unit 23.
  • smoothed amplitude spectrum envelope sequence generated by the smoothed amplitude spectrum envelope generator 24 ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N ⁇ 1) and the prediction residual energy ⁇ 2 obtained by the linear prediction analysis unit 22 are input.
  • the dispersion parameter determination unit 268 calculates the global gain g, the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1), and the smoothed amplitude spectrum envelope sequence ⁇ H. ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) and, from the energy sigma 2 Metropolitan prediction residual, the above formula (A1), the dispersion parameter sequence by formula (A8) phi Each of the dispersion parameters (0), ⁇ (1),..., ⁇ (N ⁇ 1) is obtained and output (step S268).
  • the global gain g used when the dispersion parameter determination unit 268 is executed for the first time is the global gain g obtained by the gain acquisition unit 261, that is, the initial value of the global gain.
  • the global gain g used when the dispersion parameter determination unit 268 is executed for the second time or later is the global gain g obtained by the gain update unit 267, that is, the updated value of the global gain.
  • the obtained dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) are output to the arithmetic coding unit 269.
  • the arithmetic coding unit 269 includes the parameter ⁇ read by the parameter determining unit 27, the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N -1) and the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) obtained by the dispersion parameter determination unit 268 are input.
  • the arithmetic coding unit 269 uses a dispersion parameter sequence ⁇ (0) as a dispersion parameter corresponding to each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1). ), ⁇ (1), ..., ⁇ (N-1) using the respective dispersion parameters, the quantized normalized coefficient series X Q (0), X Q (1), ..., X Q (N-1 ) Are arithmetically encoded to obtain and output an integer signal code and a consumed bit number C that is the number of bits of the integer signal code (step S269).
  • the arithmetic coding unit 269 performs generalized Gaussian distribution on each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) during arithmetic coding.
  • ⁇ (k), ⁇ ) is configured, and encoding is performed using the arithmetic code based on this configuration.
  • the expected value of the bit allocation to each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N-1) is expressed as the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1).
  • the obtained integer signal code and the number C of consumed bits are output to the determination unit 266.
  • Quantized normalized Haze coefficient sequence X Q (0), X Q (1), ..., arithmetic coding may be performed over a plurality of coefficients in X Q (N-1).
  • the dispersion parameters of the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N-1) are unsmoothed amplitude spectrum envelopes as can be seen from equations (A1) and (A8). Since it is based on the sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1), the arithmetic coding unit 269 is based on the estimated spectral envelope (unsmoothed amplitude spectral envelope). Thus, it can be said that encoding is performed in which the bit allocation is substantially changed.
  • ⁇ Determining unit 266 The integer signal code obtained by the arithmetic coding unit 269 is input to the determination unit 266.
  • the determination unit 266 outputs an integer signal code when the number of gain updates is a predetermined number, and also instructs the gain encoding unit 265 to encode the global gain g obtained by the gain updating unit 267.
  • the gain update count is less than the predetermined count, the consumed bit count C measured by the arithmetic encoding section 264 is output to the gain update section 267 (step S266).
  • the gain updating unit 267 receives the number of consumed bits C measured by the arithmetic coding unit 264.
  • the gain updating unit 267 updates the global gain g value when the consumed bit number C is greater than the allocated bit number B, and outputs the updated value.
  • the gain g is updated to a smaller value, and the updated global gain g is output (step S267).
  • the updated global gain g obtained by the gain update unit 267 is output to the quantization unit 262 and the gain encoding unit 265.
  • the gain encoding unit 265 receives the output instruction from the determination unit 266 and the global gain g obtained by the gain update unit 267.
  • the gain encoder 265 encodes the global gain g according to the instruction signal to obtain and output a gain code (step 265).
  • the integer signal code output from the determination unit 266 and the gain code output from the gain encoding unit 265 are output to the parameter determination unit 27 as codes corresponding to the normalized MDCT coefficient sequence.
  • step S267 performed last corresponds to the above step A61
  • steps S262, S263, S264, and S265 correspond to the above steps A62, A63, A64, and A65, respectively.
  • the encoding unit 26 may perform encoding that changes the bit allocation based on the estimated spectral envelope (non-smoothed amplitude spectral envelope), for example, by performing the following processing.
  • the encoding unit 26 first obtains a global gain g corresponding to the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1), and normalizes the MDCT coefficient sequence X N. (0), X N (1), ..., X N (N-1) coefficients divided by the global gain g Quantized normalized coefficient series X Q ( Find 0), X Q (1), ..., X Q (N-1).
  • the quantized bit corresponding to each coefficient of this quantized normalized coefficient series X Q (0), X Q (1), ..., X Q (N-1) has a range in which X Q (k) is distributed.
  • the range can be determined from the envelope estimate.
  • the encoding unit 26 for example, the value of the normalized amplitude spectrum envelope sequence based on linear prediction as in the following equation (A9) ⁇ H N ( k) can be used to determine the range of X Q (k).
  • the encoding unit 26 determines the number of allocated bits by collecting a plurality of samples instead of assigning each sample, and the quantization unit 26 does not perform scalar quantization for each sample but also a vector for each vector including a plurality of samples. It is also possible to quantize.
  • X Q (k) can be changed from -2 b (k) -1 to 2 b (k ) Can take 2 b (k) types of integers up to -1 .
  • the encoding unit 26 encodes each sample with b (k) bits to obtain an integer signal code.
  • the generated integer signal code is output to the decoding device.
  • the encoding unit 26 encodes the global gain g to obtain and output a gain code.
  • the encoding unit 26 may perform encoding other than arithmetic encoding.
  • ⁇ Parameter determining unit 27 Through the processing from step A1 to step A6, codes generated for each parameter ⁇ with respect to frequency domain sample sequences corresponding to time-series signals in the same predetermined time interval (in this example, linear prediction coefficient code, gain code) And the integer signal code) are input to the parameter determination unit 27.
  • codes generated for each parameter ⁇ with respect to frequency domain sample sequences corresponding to time-series signals in the same predetermined time interval in this example, linear prediction coefficient code, gain code
  • the integer signal code are input to the parameter determination unit 27.
  • the parameter determination unit 27 selects one code from the codes obtained for each parameter ⁇ with respect to the frequency domain sample sequence corresponding to the time-series signal in the same predetermined time interval, and sets the selected code as the selected code.
  • the corresponding parameter ⁇ is determined (step A7).
  • This determined parameter ⁇ becomes the parameter ⁇ for the frequency domain sample sequence corresponding to the time-series signal in the same predetermined time interval.
  • the parameter determining unit 27 outputs the selected code and the parameter code representing the determined parameter ⁇ to the decoding device.
  • the selection of the code is performed based on at least one of the code amount of the code and the coding distortion corresponding to the code. For example, the code with the smallest code amount or the code with the smallest coding distortion is selected.
  • the coding distortion is an error between the frequency domain sample sequence obtained from the input signal and the frequency domain sample sequence obtained by locally decoding the generated code.
  • the encoding apparatus may include an encoding distortion calculation unit for calculating encoding distortion.
  • the encoding distortion calculation unit includes a decoding unit that performs processing similar to that of the decoding device described below, and locally decodes the code generated by the decoding unit. Thereafter, the coding distortion calculation unit calculates an error between the frequency domain sample sequence obtained from the input signal and the frequency domain sample sequence obtained by local decoding, and obtains the coding distortion.
  • the decoding device of the first embodiment includes a linear prediction coefficient decoding unit 31, a non-smoothed amplitude spectrum envelope sequence generating unit 32, a smoothed amplitude spectrum envelope sequence generating unit 33, and a decoding unit 34. And an envelope denormalization unit 35, a time domain conversion unit 36, and a parameter decoding unit 37, for example.
  • FIG. 9 An example of each process of the decoding method according to the first embodiment realized by this decoding apparatus is shown in FIG.
  • the decoding apparatus receives at least the parameter code, the code corresponding to the normalized MDCT coefficient sequence, and the linear prediction coefficient code output from the encoding apparatus.
  • ⁇ Parameter decoding unit 37> The parameter code output from the encoding device is input to the parameter decoding unit 37.
  • the parameter decoding unit 37 obtains a decoding parameter ⁇ by decoding the parameter code.
  • the obtained decoding parameter ⁇ is output to the non-smoothed amplitude spectrum envelope sequence generation unit 32, the smoothed amplitude spectrum envelope sequence generation unit 33, and the decoding unit 34.
  • the parameter decoding unit 37 stores a plurality of decoding parameters ⁇ as candidates.
  • the parameter decoding unit 37 obtains a decoding parameter ⁇ candidate corresponding to the parameter code as a decoding parameter ⁇ .
  • the plurality of decoding parameters ⁇ stored in the parameter decoding unit 37 are the same as the plurality of parameters ⁇ stored in the parameter determining unit 27 of the encoding device.
  • the linear prediction coefficient decoding unit 31 receives the linear prediction coefficient code output from the encoding device.
  • Linear prediction coefficient decoding unit 31 for each frame, the linear prediction coefficient code that has been entered for example by decoding by conventional decoding technique decodes the linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., obtaining ⁇ beta p ( Step B1).
  • the obtained decoded linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the non-smoothed amplitude spectrum envelope sequence generation unit 32 and the non-smoothed amplitude spectrum envelope sequence generation unit 33.
  • the conventional decoding technique is the same as the linear prediction coefficient quantized by decoding the linear prediction coefficient code when the linear prediction coefficient code is a code corresponding to the quantized linear prediction coefficient, for example.
  • linear prediction coefficients and LSP parameters can be converted to each other, and conversion between decoded linear prediction coefficients and decoded LSP parameters is performed according to the input linear prediction coefficient code and information necessary for subsequent processing. What is necessary is just to perform a process. From the above, what includes the decoding process of the linear prediction coefficient code and the conversion process performed as necessary is “decoding by a conventional decoding technique”.
  • the linear prediction coefficient decoding unit 31 decodes the input linear prediction coefficient code, thereby reversing the absolute value of the frequency domain sample sequence corresponding to the time-series signal as a power spectrum.
  • a coefficient that can be converted into a linear prediction coefficient corresponding to a pseudo correlation function signal sequence obtained by performing Fourier transform is generated.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 32 includes the decoding parameter ⁇ obtained by the parameter decoding unit 37 and the decoded linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,. Is entered.
  • Textured amplitude spectral envelope sequence generating unit 32 decodes the linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ unsmoothed amplitude spectrum is a series of amplitude spectrum envelope corresponding to p envelope sequence ⁇ H (0 ), ⁇ H (1),..., ⁇ H (N-1) are generated by the above equation (A2) (step B2).
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is output to the decoding unit 34.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 32 converts the amplitude spectrum envelope sequence corresponding to the coefficient that can be converted into the linear prediction coefficient generated by the linear prediction coefficient decoding unit 31 to 1 / ⁇ .
  • a non-smoothed spectral envelope sequence which is a raised sequence is obtained.
  • the smoothed amplitude spectrum envelope sequence generation unit 33 receives the decoding parameter ⁇ obtained by the parameter decoding unit 37 and the decoded linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p obtained by the linear prediction coefficient decoding unit 31. Entered.
  • Smoothing the amplitude spectral envelope sequence generating unit 33 decodes the linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., smoothing the amplitude is a sequence blunted amplitude of irregularities of the amplitude spectral envelope of the sequence corresponding to the ⁇ beta p spectral envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ a (N-1) produced by the equation a (3) above (step B3).
  • the generated smoothed amplitude spectrum envelope sequences ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) are output to the decoding unit 34 and the envelope denormalization unit 35.
  • the decoding unit 34 includes a decoding parameter ⁇ obtained by the parameter decoding unit 37, a code corresponding to the normalized MDCT coefficient sequence output by the encoding device, and a non-smoothed amplitude spectrum generated by the non-smoothed amplitude spectrum envelope generating unit 32.
  • Envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) and smoothed amplitude spectrum envelope sequence generated by the smoothed amplitude spectrum envelope generator 33 ⁇ H ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) is input.
  • the decryption unit 34 includes a dispersion parameter determination unit 342.
  • the decoding unit 34 performs decoding by performing, for example, the processing from step B41 to step B44 shown in FIG. 11 (step B4). That is, the decoding unit 34 decodes the gain code included in the code corresponding to the input normalized MDCT coefficient sequence for each frame to obtain the global gain g (step B41).
  • the dispersion parameter determination unit 342 of the decoding unit 34 includes a global gain g, a non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) and a smoothed amplitude spectrum envelope sequence.
  • the decoding unit 34 converts the integer signal code included in the code corresponding to the normalized MDCT coefficient sequence to arithmetic corresponding to each dispersion parameter of the dispersion parameter sequence ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1).
  • arithmetic decoding is performed to obtain decoded normalized coefficient series ⁇ X Q (0), ⁇ X Q (1), ..., ⁇ X Q (N-1) (step B43), and decoding normalized Coefficient sequence ⁇ X Q (0), ⁇ X Q (1), ..., ⁇ X Q (N-1) is multiplied by global gain g and decoded normalized MDCT coefficient sequence ⁇ X N (0), ⁇ X N (1),..., ⁇ X N (N-1) are generated (step B44).
  • the decoding unit 34 may perform decoding of the input integer signal code according to bit allocation that substantially changes based on the non-smoothed spectrum envelope sequence.
  • the decoding unit 34 When encoding is performed by the process described in [Modification of Encoding Unit 26], the decoding unit 34 performs, for example, the following process.
  • the decoding unit 34 decodes the gain code included in the code corresponding to the input normalized MDCT coefficient sequence for each frame to obtain the global gain g.
  • the dispersion parameter determination unit 342 of the decoding unit 34 includes a non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),...
  • the decoding unit 34 obtains b (k) by Expression (A10) based on each dispersion parameter ⁇ (k) of the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1).
  • XQ (k) can be sequentially decoded with the number of bits b (k) and the normalized normalized coefficient sequence ⁇ X Q (0), ⁇ X Q (1),..., ⁇ X Q (N -1) is obtained, and the coefficients of the decoded normalized coefficient series ⁇ X Q (0), ⁇ X Q (1), ..., ⁇ X Q (N-1) are multiplied by the global gain g to obtain the decoding normal MDCT coefficient sequence ⁇ X N (0), ⁇ X N (1), ..., ⁇ X N (N-1) is generated.
  • the decoding unit 34 may perform decoding of the input integer signal code in accordance with bit allocation that changes based on the non-smoothed spectrum envelope sequence.
  • the generated decoded normalized MDCT coefficient sequence ⁇ X N (0), ⁇ X N (1),..., ⁇ X N (N ⁇ 1) is output to the envelope denormalization unit 35.
  • the envelope denormalization unit 35 includes a smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) generated by the smoothed amplitude spectrum envelope generation unit 33.
  • the decoding normalization MDCT coefficient sequence ⁇ X N (0), ⁇ X N (1),..., ⁇ X N (N-1) generated by the decoding unit 34 is input.
  • the envelope denormalization unit 35 uses the smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) to decode the normalized MDCT coefficient sequence ⁇ X
  • N (0), ⁇ X N (1), ..., ⁇ X N (N-1) the decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1), ..., ⁇ X (N-1) is generated (step B5).
  • the generated decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1), ..., ⁇ X (N-1) is output to the time domain conversion unit 36.
  • the envelope inverse normalization unit 35, k 0, 1, ..., a N-1, decoding the normalized MDCT coefficients ⁇ X N (0), ⁇ X N (1), ..., ⁇ X N (N -1) for each coefficient ⁇ X N (k), the smoothed amplitude spectrum envelope series ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) envelope values ⁇ H
  • the time domain transform unit 36 receives the decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1),..., ⁇ X (N-1) generated by the envelope denormalization unit 35.
  • the time domain transform unit 36 transforms the decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1), ..., ⁇ X (N-1) obtained by the envelope denormalization unit 35 into the time domain for each frame.
  • a sound signal (decoded sound signal) in units of frames is obtained (step B6).
  • the decoding device obtains a time-series signal by decoding in the frequency domain.
  • the encoding apparatus and method according to the first embodiment generate a code by performing encoding for each of a plurality of parameters ⁇ , select an optimal code from the codes generated for each parameter ⁇ , and select the selected code. And a parameter code corresponding to the selected code.
  • the parameter determination unit 27 first determines the parameter ⁇ , performs encoding based on the determined parameter ⁇ , generates a code, and outputs it. .
  • the parameter ⁇ is made variable by the parameter determination unit 27 for each predetermined time interval.
  • the parameter ⁇ being variable for each predetermined time interval means that the parameter ⁇ can be changed if the predetermined time interval is changed, and the value of the parameter ⁇ is not changed in the same time interval.
  • the encoding device includes a frequency domain transform unit 21, a linear prediction analysis unit 22, a non-smoothed amplitude spectrum envelope sequence generation unit 23, a smoothed amplitude spectrum envelope sequence generation unit 24, and an envelope.
  • a normalization unit 25 an encoding unit 26, and a parameter determination unit 27 ′ are provided.
  • An example of each process of the encoding method realized by this encoding apparatus is shown in FIG.
  • a time domain sound signal which is a time-series signal, is input to the parameter determination unit 27 ′.
  • sound signals are voice digital signals or acoustic digital signals.
  • the parameter determining unit 27 ′ determines the parameter ⁇ by a process described later based on the input time series signal (step A7 ′). ⁇ determined by the parameter determination unit 27 ′ is output to the linear prediction analysis unit 22, the non-smoothed amplitude spectrum envelope estimation unit 23, the smoothed amplitude spectrum envelope estimation unit 24, and the encoding unit 26.
  • the parameter determination unit 27 'generates a parameter code by encoding the determined ⁇ .
  • the generated parameter code is transmitted to the decoding device.
  • the frequency domain transform unit 21, the linear prediction analysis unit 22, the unsmoothed amplitude spectrum envelope sequence generation unit 23, the smoothed amplitude spectrum envelope sequence generation unit 24, the envelope normalization unit 25, and the encoding unit 26 include a parameter determination unit 27.
  • a code is generated by the same processing as in the first embodiment (step A1 to step A6).
  • the code is a combination of a linear prediction coefficient code, a gain code, and an integer signal code.
  • the generated code is transmitted to the decoding device.
  • FIG. 14 shows a configuration example of the parameter determination unit 27 '.
  • the parameter determination unit 27 ′ includes, for example, a frequency domain conversion unit 41, a spectrum envelope estimation unit 42, a whitened spectrum sequence generation unit 43, and a parameter acquisition unit 44.
  • the spectrum envelope estimation unit 42 includes, for example, a linear prediction analysis unit 421 and a non-smoothed amplitude spectrum envelope sequence generation unit 422.
  • FIG. 2 shows an example of each process of the parameter determination method realized by the parameter determination unit 27 '.
  • the time domain sound signal which is a time series signal, is input to the frequency domain transform unit 41.
  • Examples of sound signals are voice digital signals or acoustic digital signals.
  • the frequency domain conversion unit 41 converts the input time domain sound signal into N frequency MDCT coefficient sequences X (0), X (1),..., X (N ⁇ Convert to 1). N is a positive integer.
  • the obtained MDCT coefficient sequences X (0), X (1),..., X (N-1) are output to the spectrum envelope estimation unit 42 and the whitened spectrum sequence generation unit 43.
  • the subsequent processing is performed in units of frames.
  • the frequency domain conversion unit 41 obtains a frequency domain sample sequence corresponding to the sound signal, for example, an MDCT coefficient sequence (step C41).
  • the spectrum envelope estimation unit 42 receives the MDCT coefficient sequence X (0), X (1),..., X (N ⁇ 1) obtained by the frequency domain conversion unit 21.
  • the spectrum envelope estimation unit 42 Based on the parameter ⁇ 0 determined by a predetermined method, the spectrum envelope estimation unit 42 performs spectrum envelope estimation using the absolute value ⁇ 0 of the frequency domain sample sequence corresponding to the time-series signal as a power spectrum ( Step C42).
  • the estimated spectrum envelope is output to the whitened spectrum sequence generation unit 43.
  • the spectrum envelope estimation unit 42 estimates the spectrum envelope by generating a non-smoothed amplitude spectrum envelope sequence, for example, by processing of a linear prediction analysis unit 421 and a non-smoothed amplitude spectrum envelope sequence generation unit 422 described below. .
  • the parameter ⁇ 0 is determined by a predetermined method.
  • ⁇ 0 is a predetermined number greater than zero.
  • ⁇ 0 1.
  • the frame before the frame for which the current parameter ⁇ is to be obtained (hereinafter referred to as the current frame) is, for example, a frame before the current frame and in the vicinity of the current frame.
  • the frame in the vicinity of the current frame is, for example, a frame immediately before the current frame.
  • ⁇ Linear prediction analysis unit 421 MDCT coefficient sequences X (0), X (1),..., X (N ⁇ 1) obtained by the frequency domain transform unit 41 are input to the linear prediction analysis unit 421.
  • the linear prediction analysis unit 421 uses the MDCT coefficient sequence X (0), X (1),..., X (N-1) to define ⁇ R (0), ⁇ R defined by the following equation (C1). (1),..., ⁇ R (N-1) are subjected to linear prediction analysis to generate linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p, and the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,. ⁇ p is encoded to generate a linear prediction coefficient code and quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p which are quantized linear prediction coefficients corresponding to the linear prediction coefficient code.
  • the generated quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the non-smoothed spectrum envelope sequence generation unit 422.
  • the linear prediction analyzer 421 first MDCT coefficients X (0), X (1 ), ..., X (N-1) of the inverse Fourier that the eta 0 squared regarded as a power spectrum of the absolute value Time domain corresponding to the absolute value of the MDCT coefficient sequence X (0), X (1), ..., X (N-1) to the ⁇ th power Pseudo correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1), which are the signal sequences. Then, the linear prediction analysis unit 421 performs linear prediction analysis using the obtained pseudo correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1) to obtain a linear prediction coefficient.
  • ⁇ 1 , ⁇ 2 ,..., ⁇ p are generated.
  • the linear prediction analysis unit 421 encodes the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p so as to encode a linear prediction coefficient code and a quantized linear prediction coefficient corresponding to the linear prediction coefficient code.
  • ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are obtained.
  • Linear prediction coefficients ⁇ 1, ⁇ 2, ..., ⁇ p is, MDCT coefficient sequence X (0), X (1 ), ..., and the eta 0 square of the absolute value of X (N-1) was regarded as a power spectrum It is a linear prediction coefficient corresponding to the time domain signal.
  • the generation of the linear prediction coefficient code by the linear prediction analysis unit 421 is performed by, for example, a conventional encoding technique.
  • the conventional encoding technique is, for example, an encoding technique in which a code corresponding to the linear prediction coefficient itself is a linear prediction coefficient code, and a code corresponding to the LSP parameter by converting the linear prediction coefficient into an LSP parameter.
  • an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code for example, an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code.
  • the linear prediction analysis unit 421 obtains a pseudo correlation function signal sequence obtained by performing an inverse Fourier transform assuming that the absolute value of the absolute value of the frequency domain sample sequence, which is an MDCT coefficient sequence, is a power spectrum, for example. Then, a linear prediction analysis is performed to generate a coefficient that can be converted into a linear prediction coefficient (step C421).
  • ⁇ Non-smoothed Amplitude Spectrum Envelope Sequence Generation Unit 422 Quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 421 are input to the unsmoothed amplitude spectrum envelope sequence generation unit 422.
  • Textured amplitude spectral envelope sequence generation unit 422 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ is the sequence of the amplitude spectrum envelope corresponding to p textured amplitude spectral envelope sequence ⁇ H ( 0), ⁇ H (1), ..., ⁇ H (N-1) are generated.
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is output to the whitened spectrum sequence generation unit 43.
  • Textured amplitude spectral envelope sequence generation unit 422 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., using the ⁇ beta p, unsmoothed amplitude spectral envelope sequence ⁇ H (0), ⁇ H ( 1),..., ⁇ H (N-1) as unsmoothed amplitude spectrum envelope sequence defined by equation (C2) ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) Is generated.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 422 performs linear prediction analysis on the unsmoothed spectrum envelope sequence that is a sequence obtained by raising the amplitude spectrum envelope sequence corresponding to the pseudo correlation function signal sequence to the 1 / ⁇ 0 power.
  • the spectral envelope is estimated by obtaining the coefficient based on the coefficient that can be converted into the linear prediction coefficient generated by the unit 421 (step C422).
  • the whitened spectrum sequence generation unit 43 includes an MDCT coefficient sequence X (0), X (1),..., X (N-1) obtained by the frequency domain conversion unit 41 and a non-smoothed amplitude spectrum envelope generation unit 422.
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is input.
  • the whitened spectrum sequence generation unit 43 converts each coefficient of the MDCT coefficient sequence X (0), X (1),..., X (N-1) into a corresponding non-smoothed amplitude spectrum envelope sequence ⁇ H (0), By dividing each value of ⁇ H (1), ..., ⁇ H (N-1), the whitened spectrum series X W (0), X W (1), ..., X W (N-1) Generate.
  • the generated whitening spectrum series X W (0), X W (1),..., X W (N ⁇ 1) are output to the parameter acquisition unit 44.
  • k the coefficients X (()) of the MDCT coefficient sequence X (0), X (1),.
  • k the coefficients X (()) of the MDCT coefficient sequence X (0), X (1),.
  • ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) values ⁇ H (k) the whitened spectrum sequence X
  • the whitened spectrum sequence generation unit 43 obtains a whitened spectrum sequence that is a sequence obtained by dividing a frequency domain sample sequence that is an MDCT coefficient sequence, for example, by a spectrum envelope that is an unsmoothed amplitude spectrum envelope sequence, for example ( Step C43).
  • the parameter acquisition unit 44 receives the whitened spectrum series X W (0), X W (1),..., X W (N ⁇ 1) generated by the whitened spectrum series generating unit 43.
  • the parameter acquisition unit 44 approximates the histogram of the whitened spectrum series X W (0), X W (1),..., X W (N ⁇ 1) with the generalized Gaussian distribution having the parameter ⁇ as a shape parameter. Is obtained (step C44).
  • the parameter acquisition unit 44 is a distribution of histograms in which the generalized Gaussian distribution having the parameter ⁇ as a shape parameter is a whitened spectrum series X W (0), X W (1), ..., X W (N-1).
  • the parameter ⁇ that is close to is determined.
  • the generalized Gaussian distribution with the parameter ⁇ as a shape parameter is defined as follows, for example.
  • is a gamma function.
  • is a parameter corresponding to the variance.
  • ⁇ obtained by the parameter acquisition unit 44 is defined by the following equation (C3), for example.
  • F ⁇ 1 is an inverse function of the function F. This equation is derived by the so-called moment method.
  • the parameter acquisition unit 44 inputs the value of m 1 / ((m 2 ) 1/2 ) into the formulated inverse function F ⁇ 1 .
  • the parameter ⁇ can be obtained by calculating the output value.
  • the parameter acquisition unit 44 calculates, for example, the first method or the second method described below in order to calculate the value of ⁇ defined by the equation (C3).
  • the parameter ⁇ may be obtained by
  • a first method for obtaining the parameter ⁇ will be described.
  • the parameter obtaining unit 44 based on the whitened spectrum sequence to calculate the m 1 / ((m 2) 1/2), a plurality of different which had been prepared beforehand, corresponding to the eta F ⁇ corresponding to F ( ⁇ ) closest to the calculated m 1 / ((m 2 ) 1/2 ) is obtained with reference to the pair of ( ⁇ ).
  • a plurality of different pairs of F ( ⁇ ) corresponding to ⁇ prepared in advance are stored in advance in the storage unit 441 of the parameter acquisition unit 44.
  • the parameter acquisition unit 44 refers to the storage unit 441, finds F ( ⁇ ) closest to the calculated m 1 / ((m 2 ) 1/2 ), and stores ⁇ corresponding to the found F ( ⁇ ). Read from the unit 441 and output.
  • the approximate curve function of the inverse function F ⁇ 1 is set as, for example, ⁇ F ⁇ 1 represented by the following formula (C3 ′), and the parameter acquisition unit 44 uses m 1 / ((m 2 ) 1/2 ) is calculated, and ⁇ is calculated by calculating the output value when m 1 / ((m 2 ) 1/2 ) calculated in the approximate curve function ⁇ F -1 is input.
  • ⁇ F ⁇ 1 represented by the following formula (C3 ′)
  • ⁇ obtained by the parameter acquisition unit 44 is not an expression (C3) but an expression (C3) using positive integers q1 and q2 determined in advance as in an expression (C3 ′′) (where q1 ⁇ q2). It may be defined by a generalized formula.
  • can be obtained by the same method as that when ⁇ is defined by equation (C3). That is, the parameter acquisition unit 44 calculates a value m q1 / ((m q2 ) q1 / q2 ) based on the q 1st moment m q1 and the q 2nd moment m q2 based on the whitened spectrum series. Then, for example, as in the first and second methods described above, the calculated m q1 / ((() by referring to a plurality of different pairs of F ′ ( ⁇ ) corresponding to ⁇ prepared in advance.
  • is a value based on two different moments m q1 and m q2 having different dimensions.
  • the value of the moment with the lower dimension or a value based on this (hereinafter referred to as the former) and the value of the moment with the higher dimension or ⁇ may be obtained based on the value of the ratio based on the value (hereinafter referred to as the latter), the value based on the value of this ratio, or the value obtained by dividing the former by the latter.
  • the value based on the moment for example, is that the m Q a Q to the moment and m as a given real number.
  • may be obtained by inputting these values into the approximate curve function ⁇ F- 1 .
  • the approximate curve function to F ′ ⁇ 1 may be a monotonically increasing function whose output is a positive value in the domain to be used, as described above.
  • the parameter determination unit 27 ′ may obtain the parameter ⁇ by loop processing. That is, the parameter determination unit 27 ′ sets the parameter ⁇ obtained by the parameter acquisition unit 44 as the parameter ⁇ 0 determined by a predetermined method, and performs processing by the spectrum envelope estimation unit 42, the whitened spectrum sequence generation unit 43, and the parameter acquisition unit 44. May be performed once more.
  • the parameter ⁇ obtained by the parameter acquisition unit 44 is output to the spectrum envelope estimation unit 42.
  • the spectrum envelope estimation unit 42 estimates the spectrum envelope by performing the same process as described above using ⁇ obtained by the parameter acquisition unit 44 as the parameter ⁇ 0 .
  • the whitened spectrum sequence generation unit 43 Based on the newly estimated spectrum envelope, the whitened spectrum sequence generation unit 43 generates a whitened spectrum sequence by performing the same process as described above.
  • the parameter acquisition unit 44 performs a process similar to the process described above based on the newly generated whitened spectrum sequence to obtain the parameter ⁇ .
  • the processing of the spectrum envelope estimation unit 42, the whitened spectrum series generation unit 43, and the parameter acquisition unit 44 may be further performed a predetermined number of times ⁇ .
  • the spectrum envelope estimation unit 42 performs the spectrum envelope estimation unit 42, the whitened spectrum sequence generation unit 43, and the parameter until the absolute value of the difference between the parameter ⁇ obtained this time and the parameter ⁇ obtained last time is equal to or less than a predetermined threshold. You may repeat the process of the acquisition part 44. FIG.
  • any encoding process may be used as long as the configuration of the encoding process can be specified based on at least the parameter ⁇ , and an encoding process other than the encoding process of the encoding unit 26 is used. Also good.
  • the encoding device includes, for example, a parameter determination unit 27 ′, an acoustic feature amount extraction unit 521, a specification unit 522, and an encoding unit 523.
  • a parameter determination unit 27 ′ the encoding device performs each process illustrated in FIG. 18 to realize the encoding method.
  • the parameter determination unit 27 ′ receives a time domain sound signal in frame units, which is a time-series signal. Examples of sound signals are voice digital signals or acoustic digital signals.
  • the parameter determination unit 27 determines the parameter ⁇ by a process described later based on the input time series signal (step FE1).
  • the parameter determination unit 27 performs processing for each frame having a predetermined time length. That is, the parameter ⁇ is determined for each frame.
  • the parameter ⁇ determined by the parameter determination unit 27 ′ is output to the specifying unit 522.
  • FIG. 21 shows a configuration example of the parameter determination unit 27 '.
  • the parameter determination unit 27 ′ includes, for example, a frequency domain conversion unit 41, a spectrum envelope estimation unit 42, a whitened spectrum sequence generation unit 43, and a parameter acquisition unit 44.
  • the spectrum envelope estimation unit 42 includes, for example, a linear prediction analysis unit 421 and a non-smoothed amplitude spectrum envelope sequence generation unit 422.
  • FIG. 22 shows an example of each process of the parameter determination method realized by the parameter determination unit 27 '.
  • the time domain sound signal which is a time series signal, is input to the frequency domain transform unit 41.
  • the frequency domain conversion unit 41 converts the input time domain sound signal into N frequency MDCT coefficient sequences X (0), X (1),..., X (N ⁇ Convert to 1). N is a positive integer.
  • the obtained MDCT coefficient sequences X (0), X (1),..., X (N-1) are output to the spectrum envelope estimation unit 42 and the whitened spectrum sequence generation unit 43.
  • the subsequent processing is performed in units of frames.
  • the frequency domain conversion unit 41 obtains a frequency domain sample sequence corresponding to the time series signal, for example, an MDCT coefficient sequence (step C41).
  • the spectrum envelope estimation unit 42 receives the MDCT coefficient sequence X (0), X (1),..., X (N ⁇ 1) obtained by the frequency domain conversion unit 21.
  • the spectrum envelope estimation unit 42 Based on the parameter ⁇ 0 determined by a predetermined method, the spectrum envelope estimation unit 42 performs spectrum envelope estimation using the absolute value ⁇ 0 of the frequency domain sample sequence corresponding to the time-series signal as a power spectrum ( Step C42).
  • the estimated spectrum envelope is output to the whitened spectrum sequence generation unit 43.
  • the spectrum envelope estimation unit 42 estimates the spectrum envelope by generating a non-smoothed amplitude spectrum envelope sequence, for example, by processing of a linear prediction analysis unit 421 and a non-smoothed amplitude spectrum envelope sequence generation unit 422 described below. .
  • the parameter ⁇ 0 is determined by a predetermined method.
  • ⁇ 0 is a predetermined number greater than zero.
  • ⁇ 0 1.
  • the frame before the frame for which the current parameter ⁇ is to be obtained (hereinafter referred to as the current frame) is, for example, a frame before the current frame and in the vicinity of the current frame.
  • the frame in the vicinity of the current frame is, for example, a frame immediately before the current frame.
  • ⁇ Linear prediction analysis unit 421 MDCT coefficient sequences X (0), X (1),..., X (N ⁇ 1) obtained by the frequency domain transform unit 41 are input to the linear prediction analysis unit 421.
  • the linear prediction analysis unit 421 uses the MDCT coefficient sequence X (0), X (1),..., X (N-1) to define ⁇ R (0), ⁇ R defined by the following equation (C1). (1),..., ⁇ R (N-1) are subjected to linear prediction analysis to generate linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p, and the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,. ⁇ p is encoded to generate a linear prediction coefficient code and quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p which are quantized linear prediction coefficients corresponding to the linear prediction coefficient code.
  • the generated quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the non-smoothed spectrum envelope sequence generation unit 422.
  • the linear prediction analyzer 421 first MDCT coefficients X (0), X (1 ), ..., X (N-1) of the inverse Fourier that the eta 0 squared regarded as a power spectrum of the absolute value
  • the linear prediction analysis unit 421 performs linear prediction analysis using the obtained pseudo correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1) to obtain a linear prediction coefficient. ⁇ 1 , ⁇ 2 ,..., ⁇ p are generated. Then, the linear prediction analysis unit 421 encodes the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p so as to encode a linear prediction coefficient code and a quantized linear prediction coefficient corresponding to the linear prediction coefficient code. ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are obtained.
  • Linear prediction coefficients ⁇ 1, ⁇ 2, ..., ⁇ p is, MDCT coefficient sequence X (0), X (1 ), ..., and the eta 0 square of the absolute value of X (N-1) was regarded as a power spectrum It is a linear prediction coefficient corresponding to the time domain signal.
  • the generation of the linear prediction coefficient code by the linear prediction analysis unit 421 is performed by, for example, a conventional encoding technique.
  • the conventional encoding technique is, for example, an encoding technique in which a code corresponding to the linear prediction coefficient itself is a linear prediction coefficient code, and a code corresponding to the LSP parameter by converting the linear prediction coefficient into an LSP parameter.
  • an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code for example, an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code.
  • the linear prediction analysis unit 421 obtains a pseudo correlation function signal sequence obtained by performing an inverse Fourier transform assuming that the absolute value of the absolute value of the frequency domain sample sequence, which is an MDCT coefficient sequence, is a power spectrum, for example.
  • the linear prediction coefficient is generated by performing linear prediction analysis using the data (step C421).
  • ⁇ Non-smoothed Amplitude Spectrum Envelope Sequence Generation Unit 422 Quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 421 are input to the unsmoothed amplitude spectrum envelope sequence generation unit 422.
  • Textured amplitude spectral envelope sequence generation unit 422 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ is the sequence of the amplitude spectrum envelope corresponding to p textured amplitude spectral envelope sequence ⁇ H ( 0), ⁇ H (1), ..., ⁇ H (N-1) are generated.
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is output to the whitened spectrum sequence generation unit 43.
  • Textured amplitude spectral envelope sequence generation unit 422 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., using the ⁇ beta p, unsmoothed amplitude spectral envelope sequence ⁇ H (0), ⁇ H ( 1),..., ⁇ H (N-1) as unsmoothed amplitude spectrum envelope sequence defined by equation (C2) ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) Is generated.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 422 performs linear prediction analysis on the unsmoothed spectrum envelope sequence that is a sequence obtained by raising the amplitude spectrum envelope sequence corresponding to the pseudo correlation function signal sequence to the 1 / ⁇ 0 power.
  • the spectral envelope is estimated by obtaining the coefficient based on the coefficient that can be converted into the linear prediction coefficient generated by the unit 421 (step C422).
  • the unsmoothed spectrum envelope sequence generation unit 422 replaces the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p with the linear prediction coefficients ⁇ 1 , ⁇ 2 generated by the linear prediction analysis unit 421. ,..., ⁇ p may be used to obtain non-smoothed amplitude spectrum envelope sequences ⁇ H (0), ⁇ H (1),. In this case, the linear prediction analysis unit 421, the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., may not the process of obtaining the ⁇ beta p.
  • the whitened spectrum sequence generation unit 43 includes an MDCT coefficient sequence X (0), X (1),..., X (N-1) obtained by the frequency domain conversion unit 41 and a non-smoothed amplitude spectrum envelope generation unit 422.
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is input.
  • the whitened spectrum sequence generation unit 43 converts each coefficient of the MDCT coefficient sequence X (0), X (1),..., X (N-1) into a corresponding non-smoothed amplitude spectrum envelope sequence ⁇ H (0), By dividing each value of ⁇ H (1), ..., ⁇ H (N-1), the whitened spectrum series X W (0), X W (1), ..., X W (N-1) Generate.
  • the generated whitening spectrum series X W (0), X W (1),..., X W (N ⁇ 1) are output to the parameter acquisition unit 44.
  • k the coefficients X (()) of the MDCT coefficient sequence X (0), X (1),.
  • k the coefficients X (()) of the MDCT coefficient sequence X (0), X (1),.
  • ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) values ⁇ H (k) the whitened spectrum sequence X
  • the whitened spectrum sequence generation unit 43 obtains a whitened spectrum sequence that is a sequence obtained by dividing a frequency domain sample sequence that is an MDCT coefficient sequence, for example, by a spectrum envelope that is an unsmoothed amplitude spectrum envelope sequence, for example ( Step C43).
  • the parameter acquisition unit 44 receives the whitened spectrum series X W (0), X W (1),..., X W (N ⁇ 1) generated by the whitened spectrum series generating unit 43.
  • the parameter acquisition unit 44 approximates the histogram of the whitened spectrum series X W (0), X W (1),..., X W (N ⁇ 1) with the generalized Gaussian distribution having the parameter ⁇ as a shape parameter. Is obtained (step C44).
  • the parameter acquisition unit 44 is a distribution of histograms in which the generalized Gaussian distribution having the parameter ⁇ as a shape parameter is a whitened spectrum series X W (0), X W (1), ..., X W (N-1).
  • the parameter ⁇ that is close to is determined.
  • the generalized Gaussian distribution with the parameter ⁇ as a shape parameter is defined as follows, for example.
  • is a gamma function.
  • is a parameter corresponding to the variance.
  • ⁇ obtained by the parameter acquisition unit 44 is defined by the following equation (C3), for example.
  • F ⁇ 1 is an inverse function of the function F. This equation is derived by the so-called moment method.
  • the parameter acquisition unit 44 inputs the value of m 1 / ((m 2 ) 1/2 ) into the formulated inverse function F ⁇ 1 .
  • the parameter ⁇ can be obtained by calculating the output value.
  • the parameter acquisition unit 44 calculates, for example, the first method or the second method described below in order to calculate the value of ⁇ defined by the equation (C3).
  • the parameter ⁇ may be obtained by
  • a first method for obtaining the parameter ⁇ will be described.
  • the parameter obtaining unit 44 based on the whitened spectrum sequence to calculate the m 1 / ((m 2) 1/2), a plurality of different which had been prepared beforehand, corresponding to the eta F ⁇ corresponding to F ( ⁇ ) closest to the calculated m 1 / ((m 2 ) 1/2 ) is obtained with reference to the pair of ( ⁇ ).
  • a plurality of different pairs of F ( ⁇ ) corresponding to ⁇ prepared in advance are stored in advance in the storage unit 441 of the parameter acquisition unit 44.
  • the parameter acquisition unit 44 refers to the storage unit 441, finds F ( ⁇ ) closest to the calculated m 1 / ((m 2 ) 1/2 ), and stores ⁇ corresponding to the found F ( ⁇ ). Read from the unit 441 and output.
  • the approximate curve function of the inverse function F ⁇ 1 is set as, for example, ⁇ F ⁇ 1 represented by the following formula (C3 ′), and the parameter acquisition unit 44 uses m 1 / ((m 2 ) 1/2 ) is calculated, and ⁇ is calculated by calculating the output value when m 1 / ((m 2 ) 1/2 ) calculated in the approximate curve function ⁇ F -1 is input.
  • ⁇ F ⁇ 1 represented by the following formula (C3 ′)
  • ⁇ obtained by the parameter acquisition unit 44 is not an expression (C3) but an expression (C3) using positive integers q1 and q2 determined in advance as in an expression (C3 ′′) (where q1 ⁇ q2). It may be defined by a generalized formula.
  • can be obtained by the same method as that when ⁇ is defined by equation (C3). That is, the parameter acquisition unit 44 calculates a value m q1 / ((m q2 ) q1 / q2 ) based on the q 1st moment m q1 and the q 2nd moment m q2 based on the whitened spectrum series. Then, for example, as in the first and second methods described above, the calculated m q1 / ((() by referring to a plurality of different pairs of F ′ ( ⁇ ) corresponding to ⁇ prepared in advance.
  • is a value based on two different moments m q1 and m q2 having different dimensions.
  • the value of the moment with the lower dimension or a value based on this (hereinafter referred to as the former) and the value of the moment with the higher dimension or ⁇ may be obtained based on the value of the ratio based on the value (hereinafter referred to as the latter), the value based on the value of this ratio, or the value obtained by dividing the former by the latter.
  • the value based on the moment for example, is that the m Q a Q to the moment and m as a given real number.
  • may be obtained by inputting these values into the approximate curve function ⁇ F- 1 .
  • the approximate curve function to F ′ ⁇ 1 may be a monotonically increasing function whose output is a positive value in the domain to be used, as described above.
  • the parameter determination unit 27 ′ may obtain the parameter ⁇ by loop processing. That is, the parameter determination unit 27 ′ sets the parameter ⁇ obtained by the parameter acquisition unit 44 as the parameter ⁇ 0 determined by a predetermined method, and performs processing by the spectrum envelope estimation unit 42, the whitened spectrum sequence generation unit 43, and the parameter acquisition unit 44. May be performed once more.
  • the parameter ⁇ obtained by the parameter acquisition unit 44 is output to the spectrum envelope estimation unit 42.
  • the spectrum envelope estimation unit 42 estimates the spectrum envelope by performing the same process as described above using ⁇ obtained by the parameter acquisition unit 44 as the parameter ⁇ 0 .
  • the whitened spectrum sequence generation unit 43 Based on the newly estimated spectrum envelope, the whitened spectrum sequence generation unit 43 generates a whitened spectrum sequence by performing the same process as described above.
  • the parameter acquisition unit 44 performs a process similar to the process described above based on the newly generated whitened spectrum sequence to obtain the parameter ⁇ .
  • the processing of the spectrum envelope estimation unit 42, the whitened spectrum series generation unit 43, and the parameter acquisition unit 44 may be further performed a predetermined number of times ⁇ .
  • the spectrum envelope estimation unit 42 performs the spectrum envelope estimation unit 42, the whitened spectrum sequence generation unit 43, and the parameter until the absolute value of the difference between the parameter ⁇ obtained this time and the parameter ⁇ obtained last time is equal to or less than a predetermined threshold. You may repeat the process of the acquisition part 44. FIG.
  • the acoustic feature quantity extraction unit 521 receives a time domain sound signal in a frame unit, which is a time-series signal.
  • the acoustic feature quantity extraction unit 521 calculates an index representing the loudness of the time series signal as the acoustic feature quantity (step FE2). An index indicating the calculated sound volume is output to the specifying unit 522.
  • the acoustic feature quantity extraction unit 521 generates an acoustic feature quantity code corresponding to the acoustic feature quantity and outputs the acoustic feature quantity code to the decoding device.
  • the index that represents the loudness of the time series signal may be any index that represents the loudness of the time series signal.
  • the index representing the loudness of the time series signal is, for example, the energy of the time series signal.
  • the acoustic feature quantity extracting unit 521 determines the loudness of the sound.
  • the acoustic feature amount extracting unit 521 uses the sound index. It is not necessary to calculate an index that represents the size of.
  • the identification unit 522 receives the parameter ⁇ determined by the parameter determination unit 27 ′ and an index representing the loudness of the time-series signal calculated by the acoustic feature amount extraction unit 521. Further, a sound signal in frame units, which is a time series signal, is input as necessary.
  • the specifying unit 522 specifies the configuration of the encoding process based on at least the parameter ⁇ (step FE3), generates a specific code that can specify the configuration of the encoding process, and outputs the specific code to the decoding device. Information about the configuration of the encoding process specified by the specifying unit 522 is output to the encoding unit 523.
  • the identifying unit 522 may identify the configuration of the encoding process based only on the parameter ⁇ , or may identify the configuration of the encoding process based on the parameter ⁇ and other parameters.
  • the configuration of the encoding process may be an encoding method such as TCX (Transform Coded ACE Excitation), ACELP (Algebraic Code ⁇ Excited Linear ⁇ Prediction), or a frame length that is a unit of temporal processing in a certain encoding method
  • TCX Transform Coded ACE Excitation
  • ACELP Algebraic Code ⁇ Excited Linear ⁇ Prediction
  • frame length that is a unit of temporal processing in a certain encoding method
  • the number of bits allocated to a code, the order of a coefficient that can be converted into a linear prediction coefficient, and the value of an arbitrary parameter used in the encoding process may be used.
  • the frame length which is a unit of temporal processing, the number of bits assigned to the code, the order of the coefficient that can be converted into a linear prediction coefficient, and an arbitrary number used in the encoding process according to the parameter ⁇ It may be possible to appropriately determine the values of the parameters.
  • the encoding apparatus and method of the second embodiment described above with reference to FIGS. 12 and 13 determine parameter values used in the encoding process according to the parameter ⁇ . For this reason, the encoding apparatus and method of the second embodiment described above with reference to FIGS. 12 and 13 is an example of a modification of the second embodiment that specifies the configuration of the encoding process based on the parameter ⁇ . It can be said that there is.
  • the specific code that can specify the configuration of the encoding process may be any code as long as it can specify the configuration of the encoding process.
  • the specific code that can specify the configuration of the encoding process is “11” when the TCX having a long frame length is specified as the configuration of the encoding process, and is specified when the TCX having a short frame length is specified. “100”, “101” when ACELP is specified, for example, a flag with a predetermined bit string such as “0” when a low bit encoding process that transmits only noise level and specification is specified. is there.
  • the specific code that can specify the configuration of the encoding process may be a parameter code representing the parameter ⁇ , for example.
  • the specific code that can specify the configuration of the encoding process is specified by the specific code, and if the configuration of the encoding process is specified by the specific code, the configuration of the corresponding decoding process is also specified. It can also be said.
  • Specifying unit 522 when the index with a predetermined threshold value C e representing the magnitude of the sound sequence signal is compared with, also, it compares the parameter eta with a predetermined threshold value C eta.
  • C e maximum amplitude value * (1/128).
  • C ⁇ 1.
  • the time-series signal is music mainly composed of wind instruments and stringed instruments.
  • the identification unit 522 determines to perform an encoding process suitable for continuous music.
  • the encoding process suitable for continuous music is, for example, a TCX encoding process with a long frame length, specifically, a TCX encoding process of 1024 frames.
  • the time-series signal is music mainly composed of speech or percussion instruments having a large time variation. There is a high possibility.
  • the specifying unit 522 divides the time-series signal input as necessary into four, for example, creates four subframes, and measures the energy of the time-series signal for each subframe.
  • the specifying unit 522 determines to perform an encoding process suitable for music having a large time variation.
  • the encoding process suitable for music with a large time variation is, for example, a TCX encoding process with a short frame length, specifically, a TCX encoding process for 256 frames.
  • C E 1.5.
  • the specifying unit 522 determines to perform an encoding process suitable for speech.
  • the encoding process suitable for speech is speech encoding processing such as ACELP and CELP (Code Excited Linear Prediction).
  • the time-series signal is highly likely to be a silent interval.
  • the silent section does not mean a section where there is no sound at all, but means a section where there is no target sound but background sound and ambient noise exist.
  • the specifying unit 522 determines that the time series signal is a silent section.
  • the time-series signal is background music (hereinafter referred to as BGM) which is continuous music with a low volume. It is highly possible that the background sound has a characteristic such as In this case, the specifying unit 522 determines to perform an encoding process suitable for a background sound having a characteristic such as BGM.
  • the encoding process suitable for background sound having a characteristic such as BGM is, for example, a TCX encoding process with a short frame length, specifically, a TCX encoding process for a 256-bit point frame.
  • the specifying unit 522 is not limited to the parameter ⁇ , but includes at least the degree of temporal variation of the index representing the loudness of the input time-series signal, the spectral shape, the temporal variation of the spectral shape, and the periodicity of the pitch.
  • the configuration of the encoding process may be specified further based on one.
  • the acoustic feature used by the identifying unit 522 in the degree of temporal variation, spectral shape, spectral shape temporal variation, and pitch periodicity of an index representing the volume of the input time-series signal.
  • the amount is calculated and output to the specifying unit 522.
  • the acoustic feature quantity extraction unit 521 generates an acoustic feature quantity code corresponding to the calculated acoustic feature quantity and outputs the acoustic feature quantity code to the decoding device.
  • the specifying unit 522 determines the sound volume of the time-series signal. It is determined whether or not the temporal variation of the index representing is large, and whether or not the parameter ⁇ is large.
  • Whether the parameter ⁇ is large can be determined based on, for example, a predetermined threshold C ⁇ . That is, if parameter ⁇ ⁇ predetermined threshold C ⁇ , it can be determined that parameter ⁇ is large, and otherwise parameter ⁇ is small.
  • the specifying unit 522 determines to perform an encoding process suitable for music having a large time variation.
  • the specifying unit 522 determines that the time series signal is a silent section.
  • the specifying unit 522 determines to perform an encoding process suitable for continuous music.
  • the specifying unit 522 determines whether the spectrum shape of the time series signal is flat, and the parameter ⁇ is Determine if it is larger.
  • E V a predetermined threshold value
  • the specifying unit 522 determines that the time series signal is a silent section.
  • the specifying unit 522 determines to perform an encoding process suitable for music having a large time variation.
  • the specifying unit 522 determines to perform an encoding process suitable for speech.
  • the specifying unit 522 determines to perform an encoding process suitable for continuous music.
  • the identifying unit 522 determines whether the temporal variation of the spectrum shape of the time series signal is large. It is also determined whether or not the parameter ⁇ is large.
  • Whether the temporal variation of the spectral shape of the time series signal is flat can be determined based on a predetermined threshold value E V ′ .
  • E V ′ a predetermined threshold value
  • the value F V ((1/4) ⁇ 4 subframes of the 4th subframe constituting the time series signal is obtained by dividing the arithmetic average of the absolute values of the primary PARCOR coefficients of the 4th subframe by the geometric mean.
  • the time series signal It can be determined that the temporal variation of the spectral shape of the time series signal is small when the temporal variation of the spectral shape is large.
  • the specifying unit 522 determines to perform an encoding process suitable for speech.
  • the specifying unit 522 determines to perform an encoding process suitable for music having a large time variation.
  • the specifying unit 522 determines that the time series signal is a silent section.
  • the specifying unit 522 determines to perform an encoding process suitable for continuous music.
  • the specifying unit 522 determines whether the periodicity of the pitch of the time series signal is large, Also, it is determined whether the parameter ⁇ is large.
  • Whether large periodicity of pitch time series signals can be determined based on, for example, a predetermined threshold C P. That is, if the periodicity of the pitch of the time-series signal is equal to or greater than the predetermined threshold value CP, it can be determined that the periodicity of the pitch is large; otherwise, the periodicity of the pitch of the time-series signal is small.
  • a periodicity of pitch for example, normalized correlation function with a sequence separated by pitch period ⁇ samples
  • the specifying unit 522 determines to perform an encoding process suitable for speech.
  • the specifying unit 522 determines to perform an encoding process suitable for continuous music.
  • the specifying unit 522 determines that the time series signal is a silent section.
  • the specifying unit 522 determines to perform an encoding process suitable for music having a large time variation.
  • the encoding unit 523 receives a sound signal in frame units, which is a time-series signal, and information on the configuration of the encoding process specified by the specifying unit 522.
  • the encoding unit 523 generates a code by encoding the input time-series signal by the encoding process having the specified configuration (step FE4).
  • the generated code is output to the decoding device.
  • a TCX (Transform Coded Excitation) encoding process with a long frame length specifically, a TCX encoding process of 1024 frames is performed.
  • a TCX encoding process suitable for music with a large time variation for example, a TCX encoding process with a short frame length, specifically, a TCX encoding process for 256 frames is performed.
  • a TCX encoding process suitable for a background sound having a characteristic such as BGM for example, a TCX encoding process with a short frame length, specifically, a TCX encoding process for 256 frames is performed.
  • speech coding processing such as ACELP (Algebraic Code Excited Linear Prediction) and CELP (Code Excited Linear Prediction) is performed.
  • ACELP Algebraic Code Excited Linear Prediction
  • CELP Code Excited Linear Prediction
  • the encoding unit 523 does not encode the input time-series signal, for example, (i) the first method or (ii) described below. ) The second method is performed.
  • the encoding part 523 transmits the information which shows that it is a silence area to a decoding apparatus. Information indicating that it is a silent section is transmitted with a low bit such as 1 bit. After the encoding 523 transmits the information indicating that it is a silent section, while the time-series signal to be processed is determined to be a silent section, the identification unit 522 determines that it is a silent section. The information shown may not be sent again.
  • the encoding unit 523 transmits information indicating that it is a silent period, the shape of the spectrum envelope of the time series signal, and the information of the amplitude of the time series signal to the decoding device.
  • the decoding device includes, for example, a specific code decoding unit 525, an acoustic feature code decoding unit 526, a specifying unit 527, and a decoding unit 528.
  • a specific code decoding unit 525 an acoustic feature code decoding unit 526, a specifying unit 527, and a decoding unit 528.
  • Each part of the decoding device performs each process illustrated in FIG. 20 to realize a decoding method.
  • the specific code output from the encoding device is input to the specific code decoding unit 525.
  • the specific code decoding unit 525 decodes the specific code and acquires information about the configuration of the encoding process (step FD1). Information about the configuration of the acquired encoding process is output to the specifying unit 527.
  • the specific code is a parameter code
  • the specific code decoding unit 525 decodes the parameter code to obtain a parameter ⁇
  • the obtained parameter ⁇ is output to the identifying unit 527 as information about the configuration of the encoding process.
  • the acoustic feature amount code decoding unit 526 receives the acoustic feature amount code output from the encoding device.
  • the acoustic feature amount code decoding unit 526 decodes the acoustic feature amount code, and indicates an index indicating the loudness of the time-series signal, temporal variation of the index indicating the loudness, spectral shape, and temporal shape of the spectral shape.
  • An acoustic feature amount that is at least one of the degree of variation and periodicity of pitch is obtained (step FD2).
  • the obtained acoustic feature amount is output to the specifying unit 527.
  • the acoustic feature quantity code decoding unit 526 performs the process. Absent.
  • the identifying unit 527 identifies the configuration of the decoding process based on the information on the configuration of the encoding process (step FD3). For example, the specifying unit 527 specifies the configuration of the decoding process corresponding to the configuration of the encoding process specified by the information about the configuration of the encoding process. The specifying unit 527 may specify the configuration of the decoding process based on the information about the configuration of the encoding process and the acoustic feature amount as necessary. Information about the configuration of the identified decoding process is output to the decoding unit 528.
  • the parameter ⁇ is input as information about the configuration of the encoding process, and an index that represents the volume of the sound of the time-series signal, temporal variation of the index that represents the volume of the sound, spectrum shape, time of the spectrum shape
  • an acoustic feature quantity that is at least one of the degree of periodic variation and the periodicity of pitch is input.
  • the specifying unit 527 specifies the configuration of the decoding process corresponding to the configuration of the encoding process specified by the specifying unit 522 using the parameter ⁇ and the acoustic feature amount according to the determination criterion.
  • the decoding process can be any of decoding processes suitable for continuous music, decoding processes suitable for music with large temporal fluctuations, decoding processes suitable for background sounds with characteristics such as BGM, and decoding processes suitable for audio. Is identified.
  • the specifying unit 527 determines that the time series signal is a silent section.
  • the decoding unit 528 receives the code output from the encoding device and information about the configuration of the decoding process specified by the specifying unit 527.
  • the decoding unit 528 obtains a sound signal in frame units, which is a time-series signal, by the decoding process having the specified configuration (step FD4).
  • TCX Transform Coded Excitation
  • a decoding process suitable for music with a large time fluctuation for example, a TCX decoding process with a short frame length, specifically, a TCX decoding process for 256 frames is performed.
  • a decoding process suitable for background sound with a characteristic such as BGM for example, a TCX decoding process with a short frame length, specifically, a TCX decoding process for 256 frames is performed.
  • ACELP Algebraic Code Excited Linear Prediction
  • CELP Code Excited Linear Prediction
  • the decoding unit 528 When the decoding device receives information indicating that it is a silent section, or when the identifying unit 527 determines that the time-series signal is a silent section, the decoding unit 528, for example, will be described below (i) No. Process of method 1 or (ii) second method is performed.
  • the decoding unit 528 generates a predetermined noise.
  • the decoding unit 528 uses the information on the shape of the spectral envelope of the time-series signal and the amplitude of the time-series signal received together with information indicating that it is a silent section, to determine a predetermined noise. Deform and output.
  • a noise deformation method an existing method used in EVS (Enhanced Voice Service) or the like may be used.
  • the decoding unit 528 may generate noise when receiving information indicating that it is a silent section.
  • the spectrum envelope estimation unit 2A is a frequency domain that is, for example, an MDCT coefficient sequence corresponding to a time series signal. It can be said that the spectrum envelope (unsmoothed amplitude spectrum envelope sequence) is estimated by regarding the absolute value of the sample string to the power of ⁇ as the power spectrum.
  • “considered as a power spectrum” means to use a power of ⁇ where a power spectrum is normally used.
  • the linear prediction analysis unit 22 of the spectrum envelope estimation unit 2A performs, for example, a pseudo correlation obtained by performing an inverse Fourier transform in which the absolute value of ⁇ power of a frequency domain sample sequence that is an MDCT coefficient sequence is regarded as a power spectrum. It can be said that a coefficient that can be converted into a linear prediction coefficient is obtained by performing a linear prediction analysis using the function signal sequence. Further, the unsmoothed amplitude spectrum envelope sequence generation unit 23 of the spectrum envelope estimation unit 2A converts the amplitude spectrum envelope sequence corresponding to the coefficient that can be converted into the linear prediction coefficient obtained by the linear prediction analysis unit 22 to the 1 / ⁇ th power. It can be said that the spectral envelope is estimated by obtaining the non-smoothed spectral envelope sequence which is the obtained sequence.
  • the encoding unit 2B is a spectrum estimated by the spectrum envelope estimation unit 2A. Coding for changing the bit allocation based on the envelope (non-smoothed amplitude spectrum envelope sequence) or changing the bit allocation substantially for each coefficient of the frequency domain sample sequence corresponding to the time-series signal, for example, MDCT coefficient sequence It can be said that it is going.
  • the decoding unit 3A is input according to a bit allocation that changes based on a non-smoothed spectrum envelope sequence or a bit allocation that changes substantially. It can be said that the frequency domain sample sequence corresponding to the time-series signal is obtained by decoding the integer signal code.
  • the encoding unit 2B may perform encoding other than the arithmetic encoding described above if the bit allocation is changed based on the spectral envelope (unsmoothed amplitude spectral envelope sequence) or the bit allocation is changed substantially. Processing may be performed.
  • the decoding unit 3A performs a decoding process corresponding to the encoding process performed by the encoding unit 2B.
  • the encoding unit 2B may perform Golomb-Rice encoding on the frequency domain sample sequence using the Rice parameter determined based on the spectrum envelope (unsmoothed amplitude spectrum envelope sequence).
  • the decoding unit 3A may perform Golomb-Rice decoding using the Rice parameter determined based on the spectrum envelope (unsmoothed amplitude spectrum envelope sequence).
  • the encoding device may not perform the encoding process to the end when determining the parameter ⁇ .
  • the parameter determination unit 27 may determine the parameter ⁇ based on the estimated code amount.
  • the encoding unit 2B uses each of the plurality of parameters ⁇ to estimate the code obtained by the same encoding process as described above for the frequency domain sample sequence corresponding to the time-series signal in the same predetermined time interval. Get quantity.
  • the parameter determination unit 27 selects one of a plurality of parameters ⁇ based on the obtained estimated code amount. For example, the parameter ⁇ having the smallest estimated code amount is selected.
  • the encoding unit 2B obtains and outputs a code by performing the same encoding process as described above using the selected parameter ⁇ .
  • the encoding apparatus may further include a dividing unit 28 indicated by a broken line in FIG. Based on the frequency domain sample sequence that is, for example, the MDCT coefficient sequence generated by the frequency domain transform unit 21, the dividing unit 28 includes a first frequency domain sample sequence that includes samples corresponding to periodic components of the frequency domain sample sequence, Generating a second frequency domain sample sequence composed of samples other than the sample corresponding to the periodic component of the frequency domain sample sequence, and outputting information representing the sample corresponding to the periodic component to the decoding apparatus as auxiliary information .
  • the dividing unit 28 Based on the frequency domain sample sequence that is, for example, the MDCT coefficient sequence generated by the frequency domain transform unit 21, the dividing unit 28 includes a first frequency domain sample sequence that includes samples corresponding to periodic components of the frequency domain sample sequence, Generating a second frequency domain sample sequence composed of samples other than the sample corresponding to the periodic component of the frequency domain sample sequence, and outputting information representing the sample corresponding to the periodic component to the decoding apparatus as auxiliary information .
  • the first frequency domain sample sequence is a sample sequence composed of samples corresponding to the peaks of the frequency domain sample sequence
  • the second frequency domain sample sequence is a sample corresponding to the valleys of the frequency domain sample sequence. It is a sample sequence composed of
  • one or a plurality of consecutive samples including a periodicity of a time-series signal corresponding to a frequency domain sample sequence in a frequency domain sample sequence or a sample corresponding to a fundamental frequency, and a frequency domain in a frequency domain sample sequence
  • the first frequency domain includes a sample sequence composed of all or part of one or a plurality of consecutive samples including samples corresponding to the periodicity of the time series signal corresponding to the sample sequence or an integer multiple of the fundamental frequency.
  • a second frequency domain sample sequence is generated from the sample sequence and a sample sequence composed of samples not included in the first frequency domain sample sequence of the frequency domain sample sequences.
  • the generation of the first frequency domain sample sequence and the second frequency domain sample sequence can be performed using a method described in International Publication WO2012 / 046685.
  • the linear prediction analysis unit 22, the unsmoothed amplitude spectrum envelope sequence generation unit 23, the smoothed amplitude spectrum envelope sequence generation unit 24, the envelope normalization unit 25, the encoding unit 26, and the parameter determination unit 27 include a first frequency domain sample sequence And about each of a 2nd frequency domain sample sequence, the encoding process demonstrated in 1st embodiment or 2nd embodiment is performed, and a code
  • encoding can be performed more efficiently by encoding each of the first frequency domain sample sequence and the second frequency domain sample sequence.
  • the decoding apparatus may further include a combining unit 38 indicated by a broken line in FIG.
  • the decoding apparatus performs the decoding process described in the first embodiment or the second embodiment based on a code (for example, a parameter code, a linear prediction coefficient code, an integer signal code, and a gain code) corresponding to the first frequency domain sample sequence.
  • a code for example, a parameter code, a linear prediction coefficient code, an integer signal code, and a gain code
  • a decoding process is performed to obtain a decoded second frequency domain sample sequence.
  • the combining unit 38 appropriately combines the decoded first frequency domain sample sequence and the decoded second frequency domain sample sequence using the input auxiliary information, for example, by decoding MDCT coefficient sequences ⁇ X (0), ⁇ X (1 ),..., ⁇ X (N-1) is obtained as a decoded frequency domain sample sequence.
  • the time domain transform unit obtains a time series signal by transforming the decoded frequency domain sample sequence into the time domain.
  • the combination using the auxiliary information can be performed using the method described in International Publication No. WO2012 / 046685.
  • the encoding device encodes only the first frequency domain sample sequence, generates only the code corresponding to the first frequency domain sample sequence, The code corresponding to the two frequency domain sample sequences is not generated, and the decoding apparatus uses the first frequency domain sample sequence obtained from the code and the second frequency domain sample sequence with the sample value of 0 as a decoded frequency domain sample.
  • a column may be obtained.
  • the linear prediction analysis unit 22, the non-smoothed amplitude spectrum envelope sequence generation unit 23, the smoothed amplitude spectrum envelope sequence generation unit 24, the envelope normalization unit 25, the encoding unit 26, and the parameter determination unit 27 are included in the first frequency domain. Even if the sample sequence after the rearrangement is a sample sequence obtained by combining the sample sequence and the second frequency domain sample sequence, the encoding process described in the first embodiment or the second embodiment is performed to generate a code. Good. For example, when arithmetic coding is performed, a parameter code, a linear prediction coefficient code, an integer signal code, and a gain code corresponding to the rearranged sample sequence are generated.
  • encoding can be performed more efficiently by performing encoding on the rearranged sample sequence.
  • the decoding device performs the decoding process described in the first embodiment or the second embodiment, obtains a sample string after decoding rearrangement, and uses the input auxiliary information to obtain the sample string after decoding rearrangement,
  • the first frequency domain sample sequence and the second frequency domain sample sequence are rearranged according to the rule corresponding to the rule generated by the encoder, for example, the decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1),.
  • a decoded frequency domain sample sequence which is ⁇ X (N-1) is obtained.
  • the time domain transform unit 36 transforms the decoded frequency domain sample sequence into the time domain to obtain a time series signal. Rearrangement using auxiliary information can be performed using the method described in International Publication No. WO2012 / 046685.
  • the encoding device (1) performs a coding process on the frequency domain sample sequence to generate a code, and (2) performs a coding process on each of the first frequency domain sample sequence and the second frequency domain sample sequence.
  • a method of generating a code (3) a method of generating a code by encoding only the first frequency domain sample sequence, and (4) obtained by combining the first frequency domain sample sequence and the second frequency domain sample sequence. Any method may be selected for each frame from among the methods for generating a code by performing an encoding process on the rearranged sample sequence that is a sample sequence.
  • the encoding apparatus also outputs a code indicating which method (1) to (4) is selected, and the decoding apparatus corresponds to any of the above methods according to the code input for each frame. Perform decryption.
  • the parameter determination unit 27 of the encoding device and the parameter decoding unit 37 of the decoding device may store parameter ⁇ candidates corresponding to the above methods (1) to (4). .
  • the linear prediction analysis unit 22 of the encoding device and the linear prediction coefficient decoding unit 31 of the decoding device include quantized linear prediction coefficient candidates corresponding to the methods (1) to (4), and Decoded linear prediction coefficient candidates may be stored.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 23 and the unsmoothed amplitude spectrum envelope sequence generation unit 422 are, for example, MDCT coefficient sequences ⁇ X (0), ⁇ X (1),..., ⁇ X (N-1).
  • the periodic integrated envelope sequence may be generated by modifying the spectrum envelope sequence (unsmoothed amplitude spectrum envelope sequence) based on the periodic component of the frequency domain sample sequence.
  • the non-smoothed amplitude spectrum envelope sequence generation unit 32 generates a cycle of a decoded frequency domain sample sequence that is, for example, a decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1), ..., ⁇ X (N-1).
  • the periodic integrated envelope sequence may be generated by modifying the spectral envelope sequence (non-smoothed amplitude spectral envelope sequence) based on the sex component.
  • the dispersion parameter determination unit 268, the decoding unit 34, and the whitened spectrum sequence generation unit 43 of the encoding unit 26 use the periodic integrated envelope sequence instead of the spectrum envelope sequence (unsmoothed amplitude spectrum envelope sequence).
  • the same processing as above is performed. Since the periodic integrated envelope sequence has good approximation accuracy near the peak due to the pitch period of the time series signal, the use of the periodic integrated envelope sequence can increase the coding efficiency.
  • the greater the period of the frequency domain sample sequence the greater the periodicity of at least the integer multiple of the frequency domain sample sequence in the spectrum envelope sequence and the value of samples in the vicinity of the integer multiple of the period.
  • the integrated envelope series As the degree of periodicity of the time-series signal is larger, a sequence obtained by greatly changing the value of a sample in the vicinity of at least an integer multiple of the period of the frequency domain sample sequence and the integer multiple of the period of the spectrum envelope sequence. It may be a periodic integrated envelope sequence. Further, as the period of the frequency domain sample sequence is larger, a sequence obtained by changing the values of many samples in the vicinity of an integer multiple of the period of the frequency domain sample sequence in the spectrum envelope sequence may be used as the periodic integrated envelope sequence. .
  • T is the interval of the periodic component of the frequency domain sample sequence
  • L is the number of digits after the decimal point of interval T
  • v is an integer of 1 or more
  • floor ( ⁇ ) is the decimal point A function that returns an integer value by rounding down, Round ( ⁇ ) rounds off the first decimal place, and returns an integer value
  • T ′ T ⁇ 2 L , ⁇ H [0],..., ⁇ H [N-1 ]
  • is a value that determines the mixing ratio of spectral envelope ⁇ H [n] and periodic envelope P [k], (U ⁇ T ′) / 2 L ⁇ v ⁇ 1 ⁇ k ⁇ (U ⁇ T ′) / 2 L + v ⁇ 1
  • P [1], ..., P [N] is obtained as shown below, and the periodicity defined by the following equation using the obtained periodic envelope series P [1], ..., P [N]
  • the integrated envelope sequence ⁇ H M [1], ..., ⁇ H M [N] may be obtained.
  • h and PD may be predetermined values other than the above example.
  • that is a value that determines the mixing ratio of the spectral envelope ⁇ H [n] and the periodic envelope P [k] may be determined in advance by the encoding device and the decoding device, or may be a value of ⁇ determined by the encoding device.
  • a code indicating information may be generated and output to the decoding device. In the latter case, the decoding apparatus obtains ⁇ by decoding the code indicating the input information of ⁇ .
  • the non-smoothed amplitude spectrum envelope sequence generation unit 32 of the decoding device can obtain the same periodic integrated envelope sequence as the periodic integrated envelope sequence generated by the encoding device by using the obtained ⁇ .
  • the encoding unit 2C has at least a parameter ⁇ for each predetermined time interval. It can be said that the time-series signal for each predetermined time interval is encoded by the encoding process of the configuration specified based on the above.
  • the encoding unit 2D is specified based on at least the parameter ⁇ for each predetermined time interval. It can be said that the time-series signal for each predetermined time interval is encoded by the encoding processing of the configuration.
  • the encoding unit 2C and the encoding unit 2D perform the same processing.
  • the processing described above is not only executed in time series in the order described, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processing.
  • each method or each apparatus may be realized by a computer.
  • the processing content of each method or each device is described by a program.
  • various processes in each method or each device are realized on the computer.
  • the program describing the processing contents can be recorded on a computer-readable recording medium.
  • a computer-readable recording medium for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.
  • this program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first stores a program recorded on a portable recording medium or a program transferred from a server computer in its storage unit. When executing the process, this computer reads the program stored in its own storage unit and executes the process according to the read program.
  • a computer may read a program directly from a portable recording medium and execute processing according to the program. Further, each time a program is transferred from the server computer to the computer, processing according to the received program may be executed sequentially.
  • the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition. It is good.
  • the program includes information provided for processing by the electronic computer and equivalent to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
  • each device is configured by executing a predetermined program on a computer, at least a part of these processing contents may be realized by hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

符号化装置によれば、所定の時間区間ごとの時系列信号を周波数領域で符号化する符号化装置であって、パラメータηを正の数として、時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡スペクトル包絡で周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとして、所定の時間区間ごとに複数のパラメータηの何れかが選択可能又はパラメータηが可変とされており、所定の時間区間ごとのパラメータηに少なくとも基づいて特定される構成の符号化処理により、所定の時間区間ごとの時系列信号を符号化する符号化部と、を備えている。

Description

符号化装置、復号装置、これらの方法、プログラム及び記録媒体
 この発明は、音信号等の時系列信号を符号化又は復号する技術に関する。
 音信号等の時系列信号の特徴を表すパラメータとして、LSP等のパラメータが知られている(例えば、非特許文献1参照)。
 LSPは、複数次なので直接的に音の分類や区間推定に使うのは扱いが難しい場合がある。例えば、LSPは複数次であるため、LSPを用いた閾値に基づく処理は容易とは言えない。
 ところで、公知とはなっていないが、発明者によりパラメータηが提案されている。このパラメータηは、例えば3GPP EVS(Enhanced Voice Services)規格で使われているような線形予測包絡を利用する周波数領域の係数の量子化値を算術符号化する符号化方式において、算術符号の符号化対象の属する確率分布を定める形状パラメータである。パラメータηは、符号化対象の分布と関連性を有しており、パラメータηを適宜定めると効率の良い符号化及び復号を行うことが可能である。
 また、パラメータηは、時系列信号の特徴を表す指標と成り得る。このため、公知とはなっていないが、パラメータηに基づいて適切な符号化処理又は復号処理の構成を特定し、特定された構成の符号化処理又は復号処理をすることが考えられる。
守谷健弘,「高圧縮音声符号化の必須技術:線スペクトル対(LSP)」,NTT技術ジャーナル,2014年9月,P.58-60
 しかしながら、パラメータηに基づいて適切な符号化処理又は復号処理の構成を特定し、特定された構成の符号化処理又は復号処理をする技術はこれまでは知られていなかった。
 本発明は、パラメータηに基づいて適切な符号化処理又は復号処理の構成を特定し、特定された構成の符号化処理又は復号処理をする符号化装置、復号装置、これらの方法、プログラム及び記録媒体を提供することを目的とする。
 本発明の一態様による符号化装置によれば、所定の時間区間ごとの時系列信号を周波数領域で符号化する符号化装置であって、パラメータηを正の数として、時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡スペクトル包絡で周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとして、所定の時間区間ごとに複数のパラメータηの何れかが選択可能又はパラメータηが可変とされており、所定の時間区間ごとのパラメータηに少なくとも基づいて特定される構成の符号化処理により、所定の時間区間ごとの時系列信号を符号化する符号化部と、を備えている。
 本発明の一態様による符号化装置によれば、所定の時間区間ごとの時系列信号を周波数領域で符号化する符号化装置であって、パラメータηを正の数として、所定の時間区間ごとに複数のパラメータηの何れかが選択可能又はパラメータηが可変とされており、所定の時間区間ごとに、時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做したスペクトル包絡の推定により推定されたスペクトル包絡の値を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化処理により、時系列信号に対応する周波数領域サンプル列を符号化して符号を得て出力する符号化部を備えており、出力された符号に対応するパラメータηを表すパラメータ符号を出力する。
 本発明の一態様による復号装置によれば、パラメータηを正の数として、パラメータηを表すパラメータ符号を、そのパラメータηに対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されるスペクトル包絡スペクトル包絡で周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータを表す符号として、入力されたパラメータ符号を復号してパラメータηを得るパラメータ符号復号部と、少なくとも得られたパラメータηに基づいて復号処理の構成を特定する特定部と、特定された構成の復号処理により、入力された符号の復号を行う復号部と、を備えている。
 本発明の一態様による復号装置によれば、周波数領域での復号により時系列信号に対応する周波数領域サンプル列を得る復号装置であって、入力されたパラメータ符号を復号してパラメータηを得るパラメータ符号復号部と、入力された線形予測係数符号を復号することにより、線形予測係数に変換可能な係数を得る線形予測係数復号部と、得られたパラメータηを用いて、線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得る非平滑化スペクトル包絡系列生成部と、非平滑化スペクトル包絡系列に基づいて変わるビット割り当て又は実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行うことにより時系列信号に対応する周波数領域サンプル列を得る復号部と、を備えている。
 パラメータηに基づいて適切な符号化処理又は復号処理の構成を特定し、特定された構成の符号化処理又は復号処理をすることができる。
従来の符号化装置の例を説明するためのブロック図。 従来の符号化部の例を説明するためのブロック図。 一般化ガウス分布を説明するための図。 符号化装置の例を説明するためのブロック図。 符号化方法の例を説明するためのフローチャート。 符号化部の例を説明するためのブロック図。 符号化部の例を説明するためのブロック図。 符号化部の処理の例を説明するためのフローチャート。 復号装置の例を説明するためのブロック図。 復号方法の例を説明するためのフローチャート。 復号部の処理の例を説明するためのフローチャート。 符号化装置の例を説明するためのブロック図。 符号化方法の例を説明するためのフローチャート。 パラメータ決定装置の例を説明するためのブロック図。 パラメータ決定方法の例を説明するためのフローチャート。 技術的背景を説明するためのヒストグラム。 符号化装置の例を説明するためのブロック図。 符号化方法の例を説明するためのフローチャート。 復号装置の例を説明するためのブロック図。 復号方法の例を説明するためのフローチャート。 パラメータ決定部の例を説明するためのブロック図。 パラメータ決定部の例を説明するためのフローチャート。 一般化ガウス分布を説明するための図。
 [技術的背景]
 低ビット(例えば10kbit/s~20kbit/s程度)の音信号の符号化方法として、DFT(離散フーリエ変換)やMDCT(変形離散コサイン変換)などの周波数領域での直交変換係数に対する適応符号化が知られている。例えば標準規格技術であるMEPG USAC(Unified Speech and Audio Coding)は、TCX(transform coded excitation:変換符号化励振)符号化モードを持ち、この中ではMDCT係数をフレームごとに正規化して量子化後に可変長符号化している(例えば、参考文献1参照)。
 〔参考文献1〕M. Neuendorf, et al., “MPEG Unified Speech and Audio Coding- The ISO/MPEG Standard for High-Efficiency Audio Coding of all Content Types”, AES 132ndConvention, Budapest, Hungary, 2012.
 従来のTCXに基づく符号化装置の構成例を図1に示す。以下、図1の各部について説明する。
 <周波数領域変換部11>
 周波数領域変換部11には、時間領域の時系列信号である音信号が入力される。音信号は、例えば音声信号又は音響信号である。
 周波数領域変換部11は、所定の時間長のフレーム単位で、入力された時間領域の音信号を周波数領域のN点のMDCT係数列X(0),X(1),…,X(N-1)に変換する。Nは正の整数である。
 変換されたMDCT係数列X(0),X(1),…,X(N-1)は、包絡正規化部14に出力される。
 <線形予測分析部12>
 線形予測分析部12には、時間領域の時系列信号である音信号が入力される。
 線形予測分析部12は、フレーム単位で入力された音信号に対する線形予測分析を行うことにより、線形予測係数α12,…,αpを生成する。また、線形予測分析部12は、生成された線形予測係数α12,…,αpを符号化して線形予測係数符号を生成する。線形予測係数符号の例は線形予測係数α12,…,αpに対応するLSP(Line Spectrum Pairs) パラメータ列の量子化値の列に対応する符号であるLSP符号である。pは2以上の整数である。
 また、線形予測分析部12は、生成された線形予測係数符号に対応する線形予測係数である量子化線形予測係数^α1,^α2,…,^αpを生成する。
 生成された量子化線形予測係数^α1,^α2,…,^αpは、平滑化振幅スペクトル包絡系列生成部14及び非平滑化振幅スペクトル包絡系列生成部13に出力される。また、生成された線形予測係数符号は、復号装置に出力される。
 線形予測分析には、例えば、フレーム単位で入力された音信号に対する自己相関を求めて、求めた自己相関を利用してLevinson-Durbinアルゴリズムを行うことにより線形予測係数を得る方法が用いられる。または、線形予測分析部12に周波数領域変換部11が求めたMDCT係数列を入力し、MDCT係数列の各係数の自乗値の系列を逆フーリエ変換したものに対して、Levinson-Durbinアルゴリズムを行うことにより線形予測係数を得る方法を用いてもよい。
 <平滑化振幅スペクトル包絡系列生成部14>
 平滑化振幅スペクトル包絡系列生成部14には、線形予測分析部12が生成した量子化線形予測係数^α1,^α2,…,^αpが入力される。
 平滑化振幅スペクトル包絡系列生成部14は、量子化線形予測係数^α1,^α2,…,^αpを用いて、以下の式(B1)により定義される平滑化振幅スペクトル包絡系列^Wγ(0),^Wγ(1),…,^Wγ(N-1)を生成する。・を実数としてexp(・)はネイピア数を底とする指数関数、jは虚数単位である。γは、1以下の正の定数であり、以下の式(B2)により定義される振幅スペクトル包絡系列^W(0),^W(1),…,^W(N-1)の振幅の凹凸を鈍らせる係数、言い換えれば振幅スペクトル包絡系列を平滑化する係数である。
Figure JPOXMLDOC01-appb-M000001
 生成された平滑化振幅スペクトル包絡系列^Wγ(0),^Wγ(1),…,^Wγ(N-1)は、包絡正規化部15と符号化部16の分散パラメータ決定部163に出力される。
 <非平滑化振幅スペクトル包絡系列生成部13>
 非平滑化振幅スペクトル包絡系列生成部13には、線形予測分析部12が生成した量子化線形予測係数^α1,^α2,…,^αpが入力される。
 非平滑化振幅スペクトル包絡系列生成部13は、量子化線形予測係数^α1,^α2,…,^αpを用いて、上記の式(B2)により定義される非平滑化振幅スペクトル包絡系列^W(0),^W(1),…,^W(N-1)を生成する。
 生成された非平滑化振幅スペクトル包絡系列^W(0),^W(1),…,^W(N-1)は、符号化部16の分散パラメータ決定部163に出力される。
 <包絡正規化部15>
 包絡正規化部15には、周波数領域変換部11が生成したMDCT係数列X(0),X(1),…,X(N-1)及び平滑化振幅スペクトル包絡系列生成部14が出力した平滑化振幅スペクトル包絡系列^Wγ(0),^Wγ(1),…,^Wγ(N-1)が入力される。
 包絡正規化部15は、MDCT係数列の各係数X(k)を平滑化振幅スペクトル包絡系列の各値^Wγ(k)で正規化することにより、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)を生成する。つまり、XN(k)= X(k)/^Wγ(k) [k=0,1,…,N-1]である。
 生成された正規化MDCT係数列XN(0),XN(1),…,XN(N-1)は、符号化部16に出力される。
 ここでは、聴覚的に歪が小さくなるような量子化の実現のために、包絡正規化部15は、振幅スペクトル包絡を鈍らせた系列である平滑化振幅スペクトル包絡系列^Wγ(0),^Wγ(1),…,^Wγ(N-1)を用いて、フレーム単位でMDCT係数列X(0),X(1),…,X(N-1)を正規化している。
 <符号化部16>
 符号化部16には、包絡正規化部15が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)、平滑化振幅スペクトル包絡系列生成部14が出力した平滑化振幅スペクトル包絡系列^Wγ(0),^Wγ(1),…,^Wγ(N-1)、非平滑化振幅スペクトル包絡系列生成部13が出力した非平滑化振幅スペクトル包絡系列^W(0),^W(1),…,^W(N-1)が入力される。
 符号化部16は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)に対応する符号を生成する。
 生成された正規化MDCT係数列XN(0),XN(1),…,XN(N-1)に対応する符号は、復号装置に出力される。
 正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数を利得(グローバルゲイン)gで割り算し、その結果を量子化した整数値による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を符号化して得られる符号を整数信号符号とする。非特許文献1の技術では、符号化部16は、この整数信号符号のビット数が、予め配分されたビット数である配分ビット数B以下、かつ、なるべく大きな値となるような利得gを決定する。そして、符号化部16は、この決定された利得gに対応する利得符号と、この決定された利得gに対応する整数信号符号とを生成する。
 この生成された利得符号及び整数信号符号が、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)に対応する符号として復号装置に出力される。
 [符号化部16が行う符号化処理の具体例]
 符号化部16が行う符号化処理の具体例について説明する。
 符号化部16の具体例の構成例を図2に示す。符号化部16は、図2に示すように、利得取得部161と、量子化部162と、分散パラメータ決定部168と、算術符号化部169と、利得符号化部165と、判定部166と、利得更新部167とを例えば備えている。以下、図2の各部について説明する。
 <利得取得部161>
 利得取得部161は、入力された正規化MDCT係数列XN(0),XN(1),…,XN(N-1)から、整数信号符号のビット数が、予め配分されたビット数である配分ビット数B以下、かつ、なるべく大きな値となるようなグローバルゲインgを決定して出力する。利得取得部161が得たグローバルゲインgは、量子化部162で用いられるグローバルゲインの初期値となる。
 <量子化部162>
 量子化部162は、入力された正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数を利得取得部161または利得更新部167が得たグローバルゲインgで割り算した結果の整数部分による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を得て出力する。
 ここで、量子化部162が初回に実行される際に用いられるグローバルゲインgは、利得取得部161が得たグローバルゲインg、すなわちグローバルゲインの初期値である。また、量子化部162が2回目以降に実行される際に用いられるグローバルゲインgは、利得更新部167が得たグローバルゲインg、すなわちグローバルゲインの更新値である。
 <分散パラメータ決定部163>
 分散パラメータ決定部163は、入力された非平滑化振幅スペクトル包絡系列^W(0),^W(1),…,^W(N-1)と、入力された平滑化振幅スペクトル包絡系列^Wγ(0),^Wγ(1),…,^Wγ(N-1)とから、下記の式(B3)により各周波数に対する分散パラメータφ(0),φ(1),…,φ(N-1)を得て出力する。
Figure JPOXMLDOC01-appb-M000002
 <算術符号化部164>
 算術符号化部164は、分散パラメータ決定部163が得た分散パラメータφ(0),φ(1),…,φ(N-1)を用いて、量子化部162が得た量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化して整数信号符号を得て、整数信号符号と、整数信号符号のビット数である消費ビット数Cとを出力する。この算術符号は、各周波数k(=0,…,N-1)での量子化正規化済係数系列が以下の確率変数Xに関する例えば以下の式で示されるラプラス分布に従っているときに最適になるようなビットの割り当てを行う。
Figure JPOXMLDOC01-appb-M000003
 <判定部166>
 判定部166は、利得の更新回数が予め定めた回数の場合には、整数信号符号を出力するとともに、利得符号化部165に対し利得更新部167が得たグローバルゲインgを符号化する指示信号を出力し、利得の更新回数が予め定めた回数未満である場合には、利得更新部167に対し、算術符号化部164が計測した消費ビット数Cを出力する。
 <利得更新部167>
 利得更新部167は、算術符号化部164が計測した消費ビット数Cが配分ビット数Bより多い場合にはグローバルゲインgの値を大きな値に更新して出力し、消費ビット数Cが配分ビット数Bより少ない場合にはグローバルゲインgの値を小さな値に更新し、更新後のグローバルゲインgの値を出力する。
 <利得符号化部165>
 利得符号化部165は、判定部166が出力した指示信号に従って、利得更新部167が得たグローバルゲインgを符号化して利得符号を得て出力する。
 判定部166が出力した整数信号符号と、利得符号化部165が出力した利得符号は、正規化MDCT係数列に対応する符号として、復号装置に出力される。
 以上のように、従来のTCXに基づく符号化では、非平滑化振幅スペクトル包絡を鈍らせた平滑化振幅スペクトル包絡系列を用いてMDCT係数列を正規化した後、正規化MDCT係数列を符号化している。この符号化方法は、上記のMPEG-4 USACなどで採用されている。
 従来の符号化装置では、算術符号によりラプラス分布に対して最適なビット割り当てを行っていた。そして、スペクトル包絡の凹凸の情報を算術符号化時に利用するため、上記のラプラス分布の分散に対応する分散パラメータを包絡の値から生成している。しかし、符号化対象の属する確率分布には多様性があり、一概にラプラス分布に従っているというわけではない。このように、仮定から外れた分布に属する符号化対象に対して同様なビット割り当てを行うと、圧縮効率は低下する可能性がある。また、他の分布を導入する際にも、従来の符号化装置と同様、その分布に対する分散パラメータを生成し、スペクトル包絡の凹凸の情報を正しく組み込まなければ効率を改善することは困難である。
 ところで、平滑化振幅スペクトル包絡によるMDCT系列X(0),X(1),…,X(N-1)の正規化は、非平滑化振幅スペクトル包絡系列による正規化よりもMDCT系列X(0),X(1),…,X(N-1)を白色化しない。具体的には、MDCT係数列X(0),X(1),…,X(N-1)を平滑化振幅スペクトル包絡系列^Wγ(0),^Wγ(1),…,^Wγ(N-1)で正規化して得られる正規化MDCT係数列XN(0)=X(0)/^Wγ(0),XN(1)=X(1)/^Wγ(1),…,XN(N-1)=X(N-1)/^Wγ(N-1)は、MDCT係数列X(0),X(1),…,X(N-1)を非平滑化振幅スペクトル包絡系列^W(0),^W(1),…,^W(N-1)で正規化して得られる正規化後の系列X(0)/^W(0),X(1)/^W(1),…,X(N-1)/^W(N-1)よりも、^W(0)/^Wγ(0),^W(1)/^Wγ(1),…,^W(N-1)/^Wγ(N-1)だけ凸凹が大きい。したがって、MDCT係数列X(0),X(1),…,X(N-1)を非平滑化振幅スペクトル包絡系列^W(0),^W(1),…,^W(N-1)で正規化して得られる正規化後の系列X(0)/^W(0),X(1)/^W(1), …,X(N-1)/^W(N-1)が符号化部16における符号化に適する程度に包絡の凸凹が平坦にされたものとすると、符号化部16に入力される正規化MDCT係数列XN(0),XN(1),…,XN(N-1)には、^W(0)/^Wγ(0),^W(1)/^Wγ(1),…,^W(N-1)/^Wγ(N-1)の系列(以下、正規化振幅スペクトル包絡系列^WN(0),^WN(1),…,^WN(N-1))で表される包絡の凹凸が残されている。
 図16に正規化MDCT系列の包絡の凹凸^W(0)/^Wγ(0),^W(1)/^Wγ(1),…,^W(N-1)/^Wγ(N-1)が各値をとる場合における、正規化MDCT係数列に含まれる各係数の値の出現頻度を示す。envelope:0.2-0.3の曲線は、正規化MDCT系列の包絡の凹凸^W(k)/^Wγ(k)が0.2以上0.3未満であるサンプルkに対応する正規化MDCT係数XN(k)の値の頻度を表す。envelope:0.3-0.4の曲線は、正規化MDCT系列の包絡の凹凸^W(k)/^Wγ(k)が0.3以上0.4未満であるサンプルkに対応する正規化MDCT係数XN(k)の値の頻度を表す。envelope:0.4-0.5の曲線は、正規化MDCT系列の包絡の凹凸^W(k)/^Wγ(k)が0.4以上0.5未満であるサンプルkに対応する正規化MDCT係数XN(k)の値の頻度を表す。
 図16を見ると、正規化MDCT係数列に含まれる各係数の値は、平均はほぼ0であるが、分散は包絡の値と関連性をもつことがわかる。すなわち、正規化MDCT系列の包絡の凹凸が大きいほど、頻度を表す曲線の裾野が広がっているため、正規化MDCT係数の分散が大きいという関連性があることがわかる。より効率的な圧縮を実現するため、この関連性を利用した符号化を行う。具体的には、符号化の対象となる周波数領域係数列の各係数に対して、スペクトル包絡を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化を行う。
 そのために、例えば量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化する場合には、スペクトル包絡に基づいて決定された分散パラメータを用いる。
 また、符号化対象の属する確率分布には多様性があるところ、ある確率分布(例えば、ラプラス分布)に属する符号化対象を仮定した最適なビット割り当てを、その仮定から外れた確率分布に属する符号化対象に対して行うと、圧縮効率は低下する可能性がある。
 そこで、符号化対象の属する確率分布として、様々な確率分布を表現することができる分布である、以下の式で表される一般化ガウス分布を使用する。
Figure JPOXMLDOC01-appb-M000004
 一般化ガウス分布は形状パラメータであるパラメータη(>0)を変えることにより、図3のようにη=1の時はラプラス分布、η=2の時はガウス分布、といったように様々な分布を表現することができる。ηは、0より大きい所定の数である。ηの値は、予め決めておくか、または所定の時間区間であるフレーム毎に選択又は可変にしてもよい。また、上式のφは分布の分散に対応している値であり、この値を分散パラメータとして、スペクトル包絡の凹凸の情報を組み込む。つまり、分散パラメータφ(0),φ(1),…,φ(N-1)をスペクトル包絡から生成し、各周波数kでの量子化正規化済係数XQ(k)に対して、fGG(X|φ(k),η)に従う場合に最適となるような算術符号を構成し、この構成に基づく算術符号により符号化を行う。
 例えば、予測残差のエネルギーσ2及びグローバルゲインgの情報に加えて使用する分布の情報を更に取り入れ、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対する分散パラメータを例えば以下の式(A1)で算出する。
Figure JPOXMLDOC01-appb-M000005
ただし、σはσ2の平方根である。
 具体的には、Levinson-DurbinアルゴリズムをMDCT係数の絶対値をη乗した値の系列を逆フーリエ変換したものに対して行い、それにより得られる線形予測係数を量子化したものであるβ1,^β2,…,^βpを量子化線形予測係数^α1,^α2,…,^αpの代わりに用い、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)をそれぞれ下記の式(A2)と式(A3)
Figure JPOXMLDOC01-appb-M000006
から求め、求めた非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各係数を対応する平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)の各係数で除算して正規化振幅スペクトル包絡系列^HN(0)=^H(0)/^Hγ(0),^HN(1)=^H(1)/^Hγ(1),…,^HN(N-1)=^H(N-1)/^Hγ(N-1)を得て、正規化振幅スペクトル包絡系列とグローバルゲインgとから上記の式(A1)により分散パラメータを算出する。
 ここで、式(A1)のσ2/η/gは、エントロピーに密接に係わる値であり、ビットレートが固定ならフレーム毎の値の変動は小さい。このため、σ2/η/gとして予め定められた固定値を使用することもできる。このように固定値を使用する場合は、本発明の手法のため新たに情報を追加する必要はない。
 上記技術は、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化する際の符号長を規準とする最小化問題に基づくものである。以下に上記技術の導出を述べる。
 量子化正規化済係数XQ(k)をそれぞれ分散パラメータφ(k)により、形状パラメータηの一般化ガウス分布を用いた算術符号で符号化した際の符号長は、量子化が十分細かく行われたとすると、
Figure JPOXMLDOC01-appb-M000007
に比例する。この符号長を小さくするため、既に量子化及び符号化がなされている線形予測係数を基に分散パラメータ系列φ(0),φ(1),…,φ(N-1)を求めることを考える。上の式(A4)は、式変形を行うことにより、
Figure JPOXMLDOC01-appb-M000008
と書き直すことができる。ただし、lnはネイピア数を底とする対数、Cは分散パラメータに対する定数、そして DIS(X|Y)はYからのXの板倉斎藤距離
Figure JPOXMLDOC01-appb-M000009
であるものとする。つまり、分散パラメータ系列に対する符号長Lの最小化問題はφη(k)/(ηBη(η))と|XQ(k)|ηとの板倉斎藤距離の総和の最小化問題に帰着される。ここで、分散パラメータ系列φ(0),φ(1),…,φ(N-1)と線形予測係数β12,…,βp、予測残差のエネルギーσ2との対応関係を一つ決めれば、符号長を最小化する線形予測係数を求める最適化問題を立てることができるが、従来の高速解法を用いるためにここでは次のように対応付ける。
Figure JPOXMLDOC01-appb-M000010
 量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)は量子化の影響を無視すると、MDCT系列X(0),X(1),…,X(N-1)と平滑化振幅スペクトル包絡^Hγ(0), ^Hγ(1),…, ^Hγ(N-1)、グローバルゲインgを用いてそれぞれXQ(k)= X(k)/(g^Hγ(k))とあらわすことができることから、式(A5)の分散パラメータに依存する項は式(A6)により、
Figure JPOXMLDOC01-appb-M000011
のように、MDCT係数系列の絶対値と全極型のスペクトル包絡との板倉斎藤距離としてあらわされる。従来の線形予測分析、つまりパワースペクトルを逆フーリエ変換したものに対してLevinson-Durbinアルゴリズムを適用するものは、パワースペクトルと全極型のスペクトル包絡との板倉斎藤距離を最小化する線形予測係数を求める操作であることが知られている。したがって、上記の符号長最小化問題は、振幅スペクトルのη乗、つまりMDCT係数系列の絶対値のη乗を逆フーリエ変換したものに対してLevinson-Durbinアルゴリズムを適用することにより従来法と同様に最適解を求めることができる。
 [第一実施形態]
 (符号化)
 第一実施形態の符号化装置の構成例を図4に示す。第三実施形態の符号化装置は、図4に示すように、周波数領域変換部21と、線形予測分析部22と、非平滑化振幅スペクトル包絡系列生成部23と、平滑化振幅スペクトル包絡系列生成部24と、包絡正規化部25と、符号化部26と、パラメータ決定部27とを例えば備えている。この符号化装置により実現される第一実施形態の符号化方法の各処理の例を図5に示す。
 以下、図4の各部について説明する。
 <パラメータ決定部27>
 第一実施形態では、所定の時間区間ごとに複数のパラメータηの何れかがパラメータ決定部27により選択可能とされている。
 パラメータ決定部27には、複数のパラメータηがパラメータηの候補として記憶されているとする。パラメータ決定部27は、複数のパラメータの中の1つのパラメータηを順次読み出し、線形予測分析部22、非平滑化振幅スペクトル包絡系列生成部23及び復号化部26に出力する(ステップA0)。
 周波数領域変換部21、線形予測分析部22、非平滑化振幅スペクトル包絡系列生成部23、平滑化振幅スペクトル包絡系列生成部24、包絡正規化部25及び符号化部26は、パラメータ決定部27が順次読み出した各パラメータηに基づいて、例えば以下に説明するステップA1からステップA6の処理を行い同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対して符号を生成する。一般に、パラメータηを所与として、同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対して2個以上の符号が得られる場合がある。この場合、同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対する符号は、これらの得られた2個以上の符号をまとめたものである。この例では、符号は、線形予測係数符号と、利得符号と、整数信号符号とを合わせたものである。これにより、同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対する各パラメータηごとの符号が得られる。
 ステップA6の処理の後に、パラメータ決定部27は、同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対して各パラメータηごとに得られた符号の中から1つの符号を選択し、選択された符号に対応するパラメータηを決定する(ステップA7)。この決定されたパラメータηが、その同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対するパラメータηとなる。そして、パラメータ決定部27は、選択された符号及び決定されたパラメータηを表す符号を復号装置に出力する。パラメータ決定部27によるステップA7の処理の詳細については後述する。
 以下では、パラメータ決定部27により1つのパラメータηが読み出されており、この読み出された1つのパラメータηについて処理が行われるとする。
 <周波数領域変換部21>
 周波数領域変換部21には、時間領域の時系列信号である音信号が入力される。音信号の例は、音声ディジタル信号又は音響ディジタル信号である。
 周波数領域変換部21は、所定の時間長のフレーム単位で、入力された時間領域の音信号を周波数領域のN点のMDCT係数列X(0),X(1),…,X(N-1)に変換する(ステップA1)。Nは正の整数である。
 得られたMDCT係数列X(0),X(1),…,X(N-1)は、線形予測分析部22と包絡正規化部25に出力される。
 特に断りがない限り、以降の処理はフレーム単位で行われるものとする。
 このようにして、周波数領域変換部21は、音信号に対応する、例えばMDCT係数列である周波数領域サンプル列を求める。
 <線形予測分析部22>
 線形予測分析部22には、周波数領域変換部21が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 線形予測分析部22は、MDCT係数列X(0),X(1),…,X(N-1)を用いて、以下の式(A7)により定義される~R(0),~R(1),…,~R(N-1)を線形予測分析して線形予測係数β12,…,βpを生成し、生成された線形予測係数β12,…,βpを符号化して線形予測係数符号と線形予測係数符号に対応する量子化された線形予測係数である量子化線形予測係数^β1,^β2,…,^βpとを生成する(ステップA2)。
Figure JPOXMLDOC01-appb-M000012
 生成された量子化線形予測係数^β1,^β2,…,^βpは、非平滑化スペクトル包絡系列生成部23と平滑化振幅スペクトル包絡系列生成部24に出力される。なお、線形予測分析処理の過程で予測残差のエネルギーσ2が算出される。この場合、算出された予測残差のエネルギーσ2は、符号化部26の分散パラメータ決定部268に出力される。
 また、生成された線形予測係数符号は、パラメータ決定部27に送信される。
 具体的には、線形予測分析部22は、まずMDCT係数列X(0),X(1),…,X(N-1)の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換に相当する演算、すなわち式(A7)の演算を行うことにより、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη乗に対応する時間領域の信号列である擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を求める。そして、線形予測分析部22は、求まった擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を用いて線形予測分析を行って、線形予測係数β12,…,βpを生成する。そして、線形予測分析部22は、生成された線形予測係数β12,…,βpを符号化することにより、線形予測係数符号と、線形予測係数符号に対応する量子化線形予測係数^β1,^β2,…,^βpとを得る。
 線形予測係数β12,…,βpは、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη乗をパワースペクトルと見做したときの時間領域の信号に対応する線形予測係数である。
 線形予測分析部22による線形予測係数符号の生成は、例えば従来的な符号化技術によって行われる。従来的な符号化技術とは、例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をLSPパラメータに変換してLSPパラメータに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をPARCOR係数に変換してPARCOR係数に対応する符号を線形予測係数符号とする符号化技術などである。例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術は、複数の量子化線形予測係数の候補が予め定められ、各候補が線形予測係数符号と予め対応付けられて記憶されており、候補の何れかが生成された線形予測係数に対する量子化線形予測係数として決定され、量子化線形予測係数と線形予測係数符号とが得られる技術である。例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術は、複数の量子化線形予測係数の候補が予め定められ、各候補が線形予測係数符号と予め対応付けられて記憶されており、候補の何れかが生成された線形予測係数に対する量子化線形予測係数として決定され、量子化線形予測係数と線形予測係数符号とが得られる技術である。
 このようにして、線形予測分析部22は、例えばMDCT係数列である周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列を用いて線形予測分析を行い線形予測係数に変換可能な係数を生成する。
 <非平滑化振幅スペクトル包絡系列生成部23>
 非平滑化振幅スペクトル包絡系列生成部23には、線形予測分析部22が生成した量子化線形予測係数^β1,^β2,…,^βpが入力される。
 非平滑化振幅スペクトル包絡系列生成部23は、量子化線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列である非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する(ステップA3)。
 生成された非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)は、符号化部26に出力される。
 非平滑化振幅スペクトル包絡系列生成部23は、量子化線形予測係数^β1,^β2,…,^βpを用いて、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)として、式(A2)により定義される非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
Figure JPOXMLDOC01-appb-M000013
 このようにして、非平滑化振幅スペクトル包絡系列生成部23は、線形予測分析部22により生成された線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得ることによりスペクトル包絡の推定を行う。ここで、cを任意の数として、複数の値から構成される系列をc乗した系列とは、複数の値のそれぞれをc乗した値から構成される系列のことである。例えば、振幅スペクトル包絡の系列を1/η乗した系列とは、振幅スペクトル包絡の各係数を1/η乗した値から構成される系列のことである。
 非平滑化振幅スペクトル包絡系列生成部23による1/η乗の処理は、線形予測分析部22で行われた周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した処理に起因するものである。すなわち、非平滑化振幅スペクトル包絡系列生成部23による1/η乗の処理は、線形予測分析部22で行われた周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した処理によりη乗された値を元の値に戻すために行われる。
 <平滑化振幅スペクトル包絡系列生成部24>
 平滑化振幅スペクトル包絡系列生成部24には、線形予測分析部22が生成した量子化線形予測係数^β1,^β2,…,^βpが入力される。
 平滑化振幅スペクトル包絡系列生成部24は、量子化線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列の振幅の凸凹を鈍らせた系列である平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)を生成する(ステップA4)。
 生成された平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)は、包絡正規化部25及び符号化部26に出力される。
 平滑化振幅スペクトル包絡系列生成部24は、量子化線形予測係数^β1,^β2,…,^βpと補正係数γを用いて、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)として、式(A3)により定義される平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)を生成する。
Figure JPOXMLDOC01-appb-M000014
 ここで、補正係数γは予め定められた1未満の定数であり非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の振幅の凹凸を鈍らせる係数、言い換えれば非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を平滑化する係数である。
 <包絡正規化部25>
 包絡正規化部25には、周波数領域変換部21が得たMDCT係数列X(0),X(1),…,X(N-1)及び平滑化振幅スペクトル包絡生成部24が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)が入力される。
 包絡正規化部25は、MDCT係数列X(0),X(1),…,X(N-1)の各係数を、対応する平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)の各値で正規化することにより、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)を生成する(ステップA5)。
 生成された正規化MDCT係数列は、符号化部26に出力される。
 包絡正規化部25は、例えば、k=0,1,…,N-1として、MDCT係数列X(0),X(1),…,X(N-1)の各係数X(k)を平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)で除算することにより、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数XN(k)を生成する。すなわち、k=0,1,…,N-1として、XN(k)=X(k)/^Hγ(k)である。
 <符号化部26>
 符号化部26には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)、非平滑化振幅スペクトル包絡生成部23が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)、平滑化振幅スペクトル包絡生成部24が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)及び線形予測分析部22が算出した平均残差のエネルギーσ2が入力される。
 符号化部26は、図8に示すステップA61からステップA65の処理を例えば行うことにより符号化を行う(ステップA6)。
 符号化部26は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)に対応するグローバルゲインgを求め(ステップA61)、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数をグローバルゲインgで割り算した結果を量子化した整数値による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を求め(ステップA62)、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対応する分散パラメータφ(0),φ(1),…,φ(N-1)をグローバルゲインgと非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)と平均残差のエネルギーσ2とから式(A1)により求め(ステップA63)、分散パラメータφ(0),φ(1),…,φ(N-1)を用いて量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化して整数信号符号を得(ステップA64)、グローバルゲインgに対応する利得符号を得る(ステップA65)。
Figure JPOXMLDOC01-appb-M000015
 ここで、上記の式(A1)における正規化振幅スペクトル包絡系列^HN(0),^HN(1),…,^HNは、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値を、対応する平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)の各値で除算したもの、すなわち、以下の式(A8)により求まるものである。
Figure JPOXMLDOC01-appb-M000016
 生成された整数信号符号と利得符号は正規化MDCT係数列に対応する符号として、パラメータ決定部27に出力される。
 符号化部26は、ステップA61からステップA65により、整数信号符号のビット数が、予め配分されたビット数である配分ビット数B以下、かつ、なるべく大きな値となるようなグローバルゲインgを決定し、決定されたグローバルゲインgに対応する利得符号と、この決定されたグローバルゲインgに対応する整数信号符号とを生成する機能を実現している。
 符号化部26が行うステップA61からステップA65のうち、の特徴的な処理が含まれるのはステップA63であり、グローバルゲインgと量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)のそれぞれを符号化することにより正規化MDCT係数列に対応する符号を得る符号化処理自体には、非特許文献1に記載された技術を含む様々な公知技術が存在する。以下では符号化部26が行う符号化処理の具体例を2つ説明する。
 [符号化部26が行う符号化処理の具体例1]
 符号化部26が行う符号化処理の具体例1として、ループ処理を含まない例について説明する。
 具体例1の符号化部26の構成例を図6に示す。具体例1の符号化部26は、図6に示すように、利得取得部261と、量子化部262と、分散パラメータ決定部268と、算術符号化部269と、利得符号化部265とを例えば備えている。以下、図6の各部について説明する。
 <利得取得部261>
 利得取得部261には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)が入力される。
 利得取得部261は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)から、整数信号符号のビット数が、予め配分されたビット数である配分ビット数B以下、かつ、なるべく大きな値となるようなグローバルゲインgを決定して出力する(ステップS261)。利得取得部261は、例えば、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)のエネルギーの合計の平方根と配分ビット数Bと負の相関のある定数との乗算値をグローバルゲインgとして得て出力する。または、利得取得部261は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)のエネルギーの合計と、配分ビット数Bと、グローバルゲインgと、の関係を予めテーブル化しておき、そのテーブルを参照することによりグローバルゲインgを得て出力してもよい。
 このようにして、利得取得部261は、例えば正規化MDCT係数列である正規化周波数領域サンプル列の全サンプルを除算するための利得を得る。
 得られたグローバルゲインgは、量子化部262及び分散パラメータ決定部268に出力される。
 <量子化部262>
 量子化部262には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)及び利得取得部261が得たグローバルゲインgが入力される。
 量子化部262は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数をグローバルゲインgで割り算した結果の整数部分による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を得て出力する(ステップS262)。
 このようにして、量子化部262は、例えば正規化MDCT係数列である正規化周波数領域サンプル列の各サンプルを、利得で除算するとともに量子化して量子化正規化済係数系列を求める。
 得られた量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)は、算術符号化部269に出力される。
 <分散パラメータ決定部268>
 分散パラメータ決定部268には、パラメータ決定部27が読み出したパラメータη、利得取得部261が得たグローバルゲインg、非平滑化振幅スペクトル包絡生成部23が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)、平滑化振幅スペクトル包絡生成部24が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)及び線形予測分析部22が得た予測残差のエネルギーσ2が入力される。
 分散パラメータ決定部268は、グローバルゲインgと、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)と、予測残差のエネルギーσ2とから、上記の式(A1),式(A8)により分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを得て出力する(ステップS268)。
 得られた分散パラメータ系列φ(0),φ(1),…,φ(N-1)は、算術符号化部269に出力される。
 <算術符号化部269>
 算術符号化部269には、パラメータ決定部27が読み出したパラメータη、量子化部262が得た量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)及び分散パラメータ決定部268が得た分散パラメータ系列φ(0),φ(1),…,φ(N-1)が入力される。
 算術符号化部269は、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対応する分散パラメータとして分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを用いて、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化して整数信号符号を得て出力する(ステップS269)。
 算術符号化部269は、算術符号化の際に、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数が一般化ガウス分布fGG(X|φ(k),η)に従うときに最適になるようなビット割り当てを算術符号により行い、行われたビット割り当てに基づく算術符号により符号化を行う。
 得られた整数信号符号は、パラメータ決定部27に出力される。
 量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の中の複数の係数に跨って算術符号化が行われてもよい。この場合、分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータは、式(A1),式(A8)からわかるように、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)に基づいているため、算術符号化部269は、推定されたスペクトル包絡(非平滑化振幅スペクトル包絡)を基に実質的にビット割り当てが変わる符号化を行っていると言える。
 <利得符号化部265>
 利得符号化部265には、利得取得部261が得たグローバルゲインgが入力される。
 利得符号化部265は、グローバルゲインgを符号化して利得符号を得て出力する(ステップS265)。
 生成された整数信号符号と利得符号は正規化MDCT係数列に対応する符号として、パラメータ決定部27に出力される。
 本具体例1のステップS261,S262,S268,S269,S265がそれぞれ上記のステップA61,A62,A63,A64,A65に対応する。
 [符号化部26が行う符号化処理の具体例2]
 符号化部26が行う符号化処理の具体例2として、ループ処理を含む例について説明する。
 具体例2の符号化部26の構成例を図7に示す。具体例2の符号化部26は、図7に示すように、利得取得部261と、量子化部262と、分散パラメータ決定部268と、算術符号化部269と、利得符号化部265と、判定部266と、利得更新部267とを例えば備えている。以下、図7の各部について説明する。
 <利得取得部261>
 利得部261には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)が入力される。
 利得取得部261は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)から、整数信号符号のビット数が、予め配分されたビット数である配分ビット数B以下、かつ、なるべく大きな値となるようなグローバルゲインgを決定して出力する(ステップS261)。利得取得部261は、例えば、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)のエネルギーの合計の平方根と配分ビット数Bと負の相関のある定数との乗算値をグローバルゲインgとして得て出力する。
 得られたグローバルゲインgは、量子化部262及び分散パラメータ決定部268に出力される。
 利得取得部261が得たグローバルゲインgは、量子化部262及び分散パラメータ決定部268で用いられるグローバルゲインの初期値となる。
 <量子化部262>
 量子化部262には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)及び利得取得部261又は利得更新部267が得たグローバルゲインgが入力される。
 量子化部262は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数をグローバルゲインgで割り算した結果の整数部分による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を得て出力する(ステップS262)。
 ここで、量子化部262が初回に実行される際に用いられるグローバルゲインgは、利得取得部261が得たグローバルゲインg、すなわちグローバルゲインの初期値である。また、量子化部262が2回目以降に実行される際に用いられるグローバルゲインgは、利得更新部267が得たグローバルゲインg、すなわちグローバルゲインの更新値である。
 得られた量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)は、算術符号化部269に出力される。
 <分散パラメータ決定部268>
 分散パラメータ決定部268には、パラメータ決定部27が読み出したパラメータη、利得取得部261又は利得更新部267が得たグローバルゲインg、非平滑化振幅スペクトル包絡生成部23が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)、平滑化振幅スペクトル包絡生成部24が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)及び線形予測分析部22が得た予測残差のエネルギーσ2が入力される。
 分散パラメータ決定部268は、グローバルゲインgと、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)と、予測残差のエネルギーσ2とから、上記の式(A1),式(A8)により分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを得て出力する(ステップS268)。
 ここで、分散パラメータ決定部268が初回に実行される際に用いられるグローバルゲインgは、利得取得部261が得たグローバルゲインg、すなわちグローバルゲインの初期値である。また、分散パラメータ決定部268が2回目以降に実行される際に用いられるグローバルゲインgは、利得更新部267が得たグローバルゲインg、すなわちグローバルゲインの更新値である。
 得られた分散パラメータ系列φ(0),φ(1),…,φ(N-1)は、算術符号化部269に出力される。
 <算術符号化部269>
 算術符号化部269には、パラメータ決定部27が読み出したパラメータη、量子化部262が得た量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)及び分散パラメータ決定部268が得た分散パラメータ系列φ(0),φ(1),…,φ(N-1)が入力される。
 算術符号化部269は、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対応する分散パラメータとして分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを用いて、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化して、整数信号符号と整数信号符号のビット数である消費ビット数Cとを得て出力する(ステップS269)。
 算術符号化部269は、算術符号化の際に、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数が一般化ガウス分布fGG(X|φ(k),η)に従うときに最適になるような算術符号を構成し、この構成に基づく算術符号により符号化を行う。この結果、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数へのビット割り当ての期待値が分散パラメータ系列φ(0),φ(1),…,φ(N-1)で決定されることになる。
 得られた整数信号符号及び消費ビット数Cは、判定部266に出力される。
 量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の中の複数の係数に跨って算術符号化が行われてもよい。この場合、分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータは、式(A1),式(A8)からわかるように、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)に基づいているため、算術符号化部269は、推定されたスペクトル包絡(非平滑化振幅スペクトル包絡)を基に実質的にビット割り当てが変わる符号化を行っていると言える。
 <判定部266>
 判定部266には、算術符号化部269が得た整数信号符号が入力される。
 判定部266は、利得の更新回数が予め定めた回数の場合には、整数信号符号を出力するとともに、利得符号化部265に対し利得更新部267が得たグローバルゲインgを符号化する指示信号を出力し、利得の更新回数が予め定めた回数未満である場合には、利得更新部267に対し、算術符号化部264が計測した消費ビット数Cを出力する(ステップS266)。
 <利得更新部267>
 利得更新部267には、算術符号化部264が計測した消費ビット数Cが入力される。
 利得更新部267は、消費ビット数Cが配分ビット数Bより多い場合にはグローバルゲインgの値を大きな値に更新して出力し、消費ビット数Cが配分ビット数Bより少ない場合にはグローバルゲインgの値を小さな値に更新し、更新後のグローバルゲインgの値を出力する(ステップS267)。
 利得更新部267が得た更新後のグローバルゲインgは、量子化部262及び利得符号化部265に出力される。
 <利得符号化部265>
 利得符号化部265には、判定部266からの出力指示及び利得更新部267が得たグローバルゲインgが入力される。
 利得符号化部265は、指示信号に従って、グローバルゲインgを符号化して利得符号を得て出力する(ステップ265)。
 判定部266が出力した整数信号符号と、利得符号化部265が出力した利得符号は、正規化MDCT係数列に対応する符号として、パラメータ決定部27に出力される。
 すなわち、本具体例2においては、最後に行われたステップS267が上記のステップA61に対応し、ステップS262,S263,S264,S265がそれぞれ上記のステップA62,A63,A64,A65に対応する。
 なお、符号化部26が行う符号化処理の具体例2については、国際公開公報WO2014/054556などに更に詳細に説明されている。
 [符号化部26の変形例]
 符号化部26は、例えば以下の処理を行うことにより、推定されたスペクトル包絡(非平滑化振幅スペクトル包絡)を基にビット割り当てを変える符号化を行ってもよい。
 符号化部26は、まず、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)に対応するグローバルゲインgを求め、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数をグローバルゲインgで割り算した結果を量子化した整数値による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を求める。
 この量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対応する量子化ビットは、XQ(k)の分布がある範囲内で一様であると仮定して、その範囲を包絡の推定値から決めることができる。複数のサンプルごとの包絡の推定値を符号化することもできるが、符号化部26は、例えば以下の式(A9)のように線形予測に基づく正規化振幅スペクトル包絡系列の値^HN(k)を使用してXQ(k)の範囲を決めることができる。
Figure JPOXMLDOC01-appb-M000017
あるkにおけるXQ(k)を量子化するときに、XQ(k)の二乗誤差を最小とするために
Figure JPOXMLDOC01-appb-M000018
の制約のもとに、割り当てるビット数b(k)
Figure JPOXMLDOC01-appb-M000019
を設定することができる。Bは予め定められた正の整数である。この際にb(k)が整数となるように四捨五入するとか、0より小さくなる場合にはb(k)=0とするなどして、b(k)の再調整の処理を符号化部26は行ってもよい。
 また、符号化部26は、サンプルごとの割り当てでなく、複数のサンプルをまとめて配分ビット数を決めて、量子化にもサンプルごとのスカラ量子化でなく、複数のサンプルをまとめたベクトルごとの量子化をすることも可能である。
 サンプルkのXQ(k)の量子化ビット数b(k)が上記で与えられ、サンプルごとに符号化するとすると、XQ(k)は-2b(k)-1から2b(k)-1までの2b(k)種類の整数を取り得る。符号化部26は、b(k)ビットで各サンプルを符号化して整数信号符号を得る。
 生成された整数信号符号は、復号装置に出力される。例えば、生成されたXQ(k)に対応するb(k)ビットの整数信号符号は、k=0から順次復号装置に出力される。
 もし、XQ(k)が上記の-2b(k)-1から2b(k)-1までの範囲をこえる場合には最大値、または最小値に置き換える。
 gが小さすぎるとこの置き換えで量子化歪が発生し、gが大きすぎると量子化誤差は大きくなり、XQ(k)のとりうる範囲がb(k)に比べて小さすぎて、情報の有効利用ができないことになる。このため、gの最適化を行ってもよい。
 符号化部26は、グローバルゲインgを符号化して利得符号を得て出力する。
 この符号化部26の変形例のように、符号化部26は算術符号化以外の符号化を行ってもよい。
 <パラメータ決定部27>
 ステップA1からステップA6の処理により、同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対して各パラメータηごとに生成された符号(この例では、線形予測係数符号、利得符号及び整数信号符号)は、パラメータ決定部27に入力される。
 パラメータ決定部27は、同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対して各パラメータηごとに得られた符号の中から1つの符号を選択し、選択された符号に対応するパラメータηを決定する(ステップA7)。この決定されたパラメータηが、その同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対するパラメータηとなる。そして、パラメータ決定部27は、選択された符号及び決定されたパラメータηを表すパラメータ符号を復号装置に出力する。符号の選択は、符号の符号量及び符号に対応する符号化歪の少なくとも一方に基づいて行われる。例えば、符号量が最も小さい符号又は符号化歪が最も小さい符号が選択される。
 ここで、符号化歪みとは、入力信号から得られる周波数領域サンプル列と、生成された符号をローカルデコードすることにより得られる周波数領域サンプル列との誤差のことである。符号化装置は、符号化歪みを計算するための符号化歪計算部を備えていてもよい。この符号化歪計算部は、以下に述べる復号装置と同様の処理を行う復号部を備え、この復号部が生成された符号をローカルデコードする。その後、符号化歪計算部は、入力信号から得られる周波数領域サンプル列と、ローカルデコードすることにより得られた周波数領域サンプル列との誤差を計算し、符号化歪とする。
 (復号)
 符号化装置に対応する復号装置の構成例を図9に示す。第一実施形態の復号装置は、図9に示すように、線形予測係数復号部31と、非平滑化振幅スペクトル包絡系列生成部32と、平滑化振幅スペクトル包絡系列生成部33と、復号部34と、包絡逆正規化部35と、時間領域変換部36と、パラメータ復号部37とを例えば備えている。この復号装置により実現される第一実施形態の復号方法の各処理の例を図10に示す。
 復号装置には、符号化装置が出力した、パラメータ符号、正規化MDCT係数列に対応する符号及び線形予測係数符号が少なくとも入力される。
 以下、図9の各部について説明する。
 <パラメータ復号部37>
 パラメータ復号部37には、符号化装置が出力したパラメータ符号が入力される。
 パラメータ復号部37は、パラメータ符号を復号することにより復号パラメータηを求める。求まった復号パラメータηは、非平滑化振幅スペクトル包絡系列生成部32、平滑化振幅スペクトル包絡系列生成部33及び復号部34に出力される。パラメータ復号部37には、複数の復号パラメータηが候補として記憶されいる。パラメータ復号部37は、パラメータ符号に対応する復号パラメータηの候補を復号パラメータηとして求める。パラメータ復号部37に記憶されている複数の復号パラメータηは、符号化装置のパラメータ決定部27に記憶された複数のパラメータηと同じである。
 <線形予測係数復号部31>
 線形予測係数復号部31には、符号化装置が出力した線形予測係数符号が入力される。
 線形予測係数復号部31は、フレームごとに、入力された線形予測係数符号を例えば従来的な復号技術によって復号して復号線形予測係数^β1,^β2,…, ^βpを得る(ステップB1)。
 得られた復号線形予測係数^β1,^β2,…, ^βpは、非平滑化振幅スペクトル包絡系列生成部32及び非平滑化振幅スペクトル包絡系列生成部33に出力される。
 ここで、従来的な復号技術とは、例えば、線形予測係数符号が量子化された線形予測係数に対応する符号である場合に線形予測係数符号を復号して量子化された線形予測係数と同じ復号線形予測係数を得る技術、線形予測係数符号が量子化されたLSPパラメータに対応する符号である場合に線形予測係数符号を復号して量子化されたLSPパラメータと同じ復号LSPパラメータを得る技術などである。また、線形予測係数とLSPパラメータは互いに変換可能なものであり、入力された線形予測係数符号と後段での処理において必要な情報に応じて、復号線形予測係数と復号LSPパラメータの間での変換処理を行なえばよいのは周知である。以上から、上記の線形予測係数符号の復号処理と必要に応じて行なう上記の変換処理とを包含したものが「従来的な復号技術による復号」ということになる。
 このようにして、線形予測係数復号部31は、入力された線形予測係数符号を復号することにより、時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列に対応する線形予測係数に変換可能な係数を生成する。
 <非平滑化振幅スペクトル包絡系列生成部32>
 非平滑化振幅スペクトル包絡系列生成部32には、パラメータ復号部37が求めた復号パラメータη及び線形予測係数復号部31が得た復号線形予測係数^β1,^β2,…,^βpが入力される。
 非平滑化振幅スペクトル包絡系列生成部32は、復号線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列である非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を上記の式(A2)により生成する(ステップB2)。
 生成された非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)は、復号部34に出力される。
 このようにして、非平滑化振幅スペクトル包絡系列生成部32は、線形予測係数復号部31により生成された線形予測係数に変換可能な係数に対応するに対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得る。
 <平滑化振幅スペクトル包絡系列生成部33>
 平滑化振幅スペクトル包絡系列生成部33には、パラメータ復号部37が求めた復号パラメータη及び線形予測係数復号部31が得た復号線形予測係数^β1,^β2,…,^βpが入力される。
 平滑化振幅スペクトル包絡系列生成部33は、復号線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列の振幅の凹凸を鈍らせた系列である平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)を上記の式A(3)により生成する(ステップB3)。
 生成された平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)は、復号部34及び包絡逆正規化部35に出力される。
 <復号部34>
 復号部34には、パラメータ復号部37が求めた復号パラメータη、符号化装置が出力した正規化MDCT係数列に対応する符号、非平滑化振幅スペクトル包絡生成部32が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)及び平滑化振幅スペクトル包絡生成部33が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)が入力される。
 復号部34は、分散パラメータ決定部342を備えている。
 復号部34は、図11に示すステップB41からステップB44の処理を例えば行うことにより復号を行う(ステップB4)。すなわち、復号部34は、フレームごとに、入力された正規化MDCT係数列に対応する符号に含まれる利得符号を復号してグローバルゲインgを得る(ステップB41)。復号部34の分散パラメータ決定部342は、グローバルゲインgと非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)とから上記の式(A1)により分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを求める(ステップB42)。復号部34は、正規化MDCT係数列に対応する符号に含まれる整数信号符号を分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータに対応する算術復号の構成に従い、算術復号して復号正規化済係数系列^XQ(0),^XQ(1),…,^XQ(N-1)を得(ステップB43)、復号正規化済係数系列^XQ(0),^XQ(1),…,^XQ(N-1)の各係数にグローバルゲインgを乗算して復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)を生成する(ステップB44)。このように、復号部34は、非平滑化スペクトル包絡系列に基づいて実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行ってもよい。
 なお、[符号化部26の変形例]に記載された処理により符号化が行われた場合には、復号部34は例えば以下の処理を行う。復号部34は、フレームごとに、入力された正規化MDCT係数列に対応する符号に含まれる利得符号を復号してグローバルゲインgを得る。復号部34の分散パラメータ決定部342は、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)とから上記の式(A9)により分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを求める。復号部34は、分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータφ(k)に基づいて式(A10)によりb(k)を求めることができ、XQ(k)の値をそのビット数b(k)で順次復号して、復号正規化済係数系列^XQ(0),^XQ(1),…,^XQ(N-1)を得て、復号正規化済係数系列^XQ(0),^XQ(1),…,^XQ(N-1)の各係数にグローバルゲインgを乗算して復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)を生成する。このように、復号部34は、非平滑化スペクトル包絡系列に基づいて変わるビット割り当てに従って、入力された整数信号符号の復号を行ってもよい。
 生成された復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)は、包絡逆正規化部35に出力される。
 <包絡逆正規化部35>
 包絡逆正規化部35には、平滑化振幅スペクトル包絡生成部33が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)及び復号部34が生成した復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)が入力される。
 包絡逆正規化部35は、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)を用いて、復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)を逆正規化することにより、復号MDCT係数列^X(0),^X(1),…,^X(N-1)を生成する(ステップB5)。
 生成された復号MDCT係数列^X(0),^X(1),…,^X(N-1)は、時間領域変換部36に出力される。
 例えば、包絡逆正規化部35は、k=0,1,…,N-1として、復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)の各係数^XN(k)に、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)の各包絡値^Hγ(k)を乗じることにより復号MDCT係数列^X(0),^X(1),…,^X(N-1)を生成する。すなわち、k=0,1,…,N-1として、^X(k)=^XN(k)×^Hγ(k)である。
 <時間領域変換部36>
 時間領域変換部36には、包絡逆正規化部35が生成した復号MDCT係数列^X(0),^X(1),…,^X(N-1)が入力される。
 時間領域変換部36は、フレームごとに、包絡逆正規化部35が得た復号MDCT係数列^X(0),^X(1),…,^X(N-1)を時間領域に変換してフレーム単位の音信号(復号音信号)を得る(ステップB6)。
 このようにして、復号装置は、周波数領域での復号により時系列信号を得る。
 [第二実施形態]
 第一実施形態の符号化装置及び方法は、複数のパラメータηのそれぞれについて符号化を行い符号を生成し、パラメータηごとに生成された符号の中から最適な符号を選択し、選択された符号及び選択された符号に対応するパラメータ符号を出力するものであった。
 これに対して、第二実施形態の符号化装置及び方法は、まずパラメータ決定部27がパラメータηを決定し、決定されたパラメータηに基づいて符号化を行い符号を生成し出力するものである。第二実施形態では、所定の時間区間ごとにパラメータηがパラメータ決定部27により可変とされている。ここで、所定の時間区間ごとにパラメータηが可変とは、所定の時間区間が変わればパラメータηも変わり得ることを意味し、同一の時間区間ではパラメータηの値は変わらないとする。
 以下、第一実施形態と異なる部分を中心に説明する。第一実施形態と同様の部分については重複説明を省略する。
 (符号化)
 第二実施形態の符号化装置の構成例を図12に示す。符号化装置は、図12に示すように、周波数領域変換部21と、線形予測分析部22と、非平滑化振幅スペクトル包絡系列生成部23と、平滑化振幅スペクトル包絡系列生成部24と、包絡正規化部25と、符号化部26と、パラメータ決定部27’とを例えば備えている。この符号化装置により実現される符号化方法の各処理の例を図13に示す。
 以下、図12の各部について説明する。
 <パラメータ決定部27’>
 パラメータ決定部27’には、時系列信号である時間領域の音信号が入力される。音信号の例は、音声ディジタル信号又は音響ディジタル信号である。
 パラメータ決定部27’は、入力された時系列信号に基づいて、後述する処理により、パラメータηを決定する(ステップA7’)。
パラメータ決定部27’により決定されたηは、線形予測分析部22、非平滑化振幅スペクトル包絡推定部23、及び平滑化振幅スペクトル包絡推定部24及び符号化部26に出力される。
 また、パラメータ決定部27’は、決定されたηを符号化することによりパラメータ符号を生成する。生成されたパラメータ符号は、復号装置に送信される。
 パラメータ決定部27’の詳細については後述する。
 周波数領域変換部21、線形予測分析部22、非平滑化振幅スペクトル包絡系列生成部23、平滑化振幅スペクトル包絡系列生成部24、包絡正規化部25及び符号化部26は、パラメータ決定部27が決定したパラメータηに基づいて、第一実施形態と同様の処理により符号を生成する(ステップA1からステップA6)。この例では、符号は、線形予測係数符号と、利得符号と、整数信号符号とを合わせたものである。生成された符号は、復号装置に送信される。
 パラメータ決定部27’の構成例を図14に示す。パラメータ決定部27’は、図14に示すように、周波数領域変換部41と、スペクトル包絡推定部42と、白色化スペクトル系列生成部43と、パラメータ取得部44とを例えば備えている。スペクトル包絡推定部42は、線形予測分析部421及び非平滑化振幅スペクトル包絡系列生成部422を例えば備えている。例えばこのパラメータ決定部27’により実現されるパラメータ決定方法の各処理の例を図2に示す。
 以下、図14の各部について説明する。
 <周波数領域変換部41>
 周波数領域変換部41には、時系列信号である時間領域の音信号が入力される。音信号の例は、音声ディジタル信号又は音響ディジタル信号である。
 周波数領域変換部41は、所定の時間長のフレーム単位で、入力された時間領域の音信号を周波数領域のN点のMDCT係数列X(0),X(1),…,X(N-1)に変換する。Nは正の整数である。
 得られたMDCT係数列X(0),X(1),…,X(N-1)は、スペクトル包絡推定部42及び白色化スペクトル系列生成部43に出力される。
 特に断りがない限り、以降の処理はフレーム単位で行われるものとする。
 このようにして、周波数領域変換部41は、音信号に対応する、例えばMDCT係数列である周波数領域サンプル列を求める(ステップC41)。
 <スペクトル包絡推定部42>
 スペクトル包絡推定部42には、周波数領域変換部21が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 スペクトル包絡推定部42は、所定の方法で定められるパラメータη0に基づいて、時系列信号に対応する周波数領域サンプル列の絶対値のη0乗をパワースペクトルとして用いたスペクトル包絡の推定を行う(ステップC42)。
 推定されたスペクトル包絡は、白色化スペクトル系列生成部43に出力される。
 スペクトル包絡推定部42は、例えば以下に説明する線形予測分析部421及び非平滑化振幅スペクトル包絡系列生成部422の処理により、非平滑化振幅スペクトル包絡系列を生成することによりスペクトル包絡の推定を行う。
 パラメータη0は所定の方法で定められるとする。例えば、η0を0より大きい所定の数とする。例えば、η0=1とする。また、現在パラメータηを求めようとしているフレームよりも前のフレームで求まったηを用いてもよい。現在パラメータηを求めようとしているフレーム(以下、現フレームとする。)よりも前のフレームとは、例えば現フレームのよりも前のフレームであって現フレームの近傍のフレームである。現フレームの近傍のフレームは、例えば現フレームの直前のフレームである。
 <線形予測分析部421>
 線形予測分析部421には、周波数領域変換部41が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 線形予測分析部421は、MDCT係数列X(0),X(1),…,X(N-1)を用いて、以下の式(C1)により定義される~R(0),~R(1),…,~R(N-1)を線形予測分析して線形予測係数β12,…,βpを生成し、生成された線形予測係数β12,…,βpを符号化して線形予測係数符号と線形予測係数符号に対応する量子化された線形予測係数である量子化線形予測係数^β1,^β2,…,^βpとを生成する。
Figure JPOXMLDOC01-appb-M000020
 生成された量子化線形予測係数^β1,^β2,…,^βpは、非平滑化スペクトル包絡系列生成部422に出力される。
 具体的には、線形予測分析部421は、まずMDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗をパワースペクトルと見做した逆フーリエ変換に相当する演算、すなわち式(C1)の演算を行うことにより、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη乗に対応する時間領域の信号列である擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を求める。そして、線形予測分析部421は、求まった擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を用いて線形予測分析を行って、線形予測係数β12,…,βpを生成する。そして、線形予測分析部421は、生成された線形予測係数β12,…,βpを符号化することにより、線形予測係数符号と、線形予測係数符号に対応する量子化線形予測係数^β1,^β2,…,^βpとを得る。
 線形予測係数β12,…,βpは、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗をパワースペクトルと見做したときの時間領域の信号に対応する線形予測係数である。
 線形予測分析部421による線形予測係数符号の生成は、例えば従来的な符号化技術によって行われる。従来的な符号化技術とは、例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をLSPパラメータに変換してLSPパラメータに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をPARCOR係数に変換してPARCOR係数に対応する符号を線形予測係数符号とする符号化技術などである。
 このようにして、線形予測分析部421は、例えばMDCT係数列である周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列を用いて線形予測分析を行い線形予測係数に変換可能な係数を生成する(ステップC421)。
 <非平滑化振幅スペクトル包絡系列生成部422>
 非平滑化振幅スペクトル包絡系列生成部422には、線形予測分析部421が生成した量子化線形予測係数^β1,^β2,…,^βpが入力される。
 非平滑化振幅スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列である非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
 生成された非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)は、白色化スペクトル系列生成部43に出力される。
 非平滑化振幅スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpを用いて、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)として、式(C2)により定義される非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
Figure JPOXMLDOC01-appb-M000021
 このようにして、非平滑化振幅スペクトル包絡系列生成部422は、疑似相関関数信号列に対応する振幅スペクトル包絡の系列を1/η0乗した系列である非平滑化スペクトル包絡系列を線形予測分析部421により生成された線形予測係数に変換可能な係数に基づいて得ることによりスペクトル包絡の推定を行う(ステップC422)。
 <白色化スペクトル系列生成部43>
 白色化スペクトル系列生成部43には、周波数領域変換部41が得たMDCT係数列X(0),X(1),…,X(N-1)及び非平滑化振幅スペクトル包絡生成部422が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)が入力される。
 白色化スペクトル系列生成部43は、MDCT係数列X(0),X(1),…,X(N-1)の各係数を、対応する非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値で除算することにより、白色化スペクトル系列XW(0),XW(1),…,XW(N-1)を生成する。
 生成された白色化スペクトル系列XW(0),XW(1),…,XW(N-1)は、パラメータ取得部44に出力される。
 白色化スペクトル系列生成部43は、例えば、k=0,1,…,N-1として、MDCT係数列X(0),X(1),…,X(N-1)の各係数X(k)を非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値^H(k)で除算することにより、白色化スペクトル系列XW(0),XW(1),…,XW(N-1)の各値XW(k)を生成する。すなわち、k=0,1,…,N-1として、XW(k)=X(k)/^H(k)である。
 このようにして、白色化スペクトル系列生成部43は、例えば非平滑化振幅スペクトル包絡系列であるスペクトル包絡で例えばMDCT係数列である周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る(ステップC43)。
 <パラメータ取得部44>
 パラメータ取得部44には、白色化スペクトル系列生成部43が生成した白色化スペクトル系列XW(0),XW(1),…,XW(N-1)が入力される。
 パラメータ取得部44は、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列XW(0),XW(1),…,XW(N-1)のヒストグラムを近似するパラメータηを求める(ステップC44)。言い換えれば、パラメータ取得部44は、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列XW(0),XW(1),…,XW(N-1)のヒストグラムの分布に近くなるようなパラメータηを決定する。
 パラメータηを形状パラメータとする一般化ガウス分布は、例えば以下のように定義される。Γは、ガンマ関数である。
Figure JPOXMLDOC01-appb-M000022
 一般化ガウス分布は、形状パラメータであるηを変えることにより、図3のようにη=1の時はラプラス分布、η=2の時はガウス分布、といったように様々な分布を表現することができるものである。φは分散に対応するパラメータである。
 ここで、パラメータ取得部44が求めるηは、例えば以下の式(C3)により定義される。F-1は、関数Fの逆関数である。この式は、いわゆるモーメント法により導出されるものである。
Figure JPOXMLDOC01-appb-M000023
 逆関数F-1が定式化されている場合には、パラメータ取得部44は、定式化された逆関数F-1にm1/((m2)1/2)の値を入力したときの出力値を計算することによりパラメータηを求めることができる。
 逆関数F-1が定式化されていない場合には、パラメータ取得部44は、式(C3)で定義されるηの値を計算するために、例えば以下に説明する第一方法又は第二方法によりパラメータηを求めてもよい。
 パラメータηを求めるための第一方法について説明する。第一の方法では、パラメータ取得部44は、白色化スペクトル系列に基づいてm1/((m2)1/2)を計算し、予め用意しておいた異なる複数の、ηと対応するF(η)のペアを参照して、計算されたm1/((m2)1/2)に最も近いF(η)に対応するηを取得する。
 予め用意しておいた異なる複数の、ηと対応するF(η)のペアは、パラメータ取得部44の記憶部441に予め記憶しておく。パラメータ取得部44は、記憶部441参照して、計算されたm1/((m2)1/2)に最も近いF(η)を見つけ、見つかったF(η)に対応するηを記憶部441から読み込み出力する。
 計算されたm1/((m2)1/2)に最も近いF(η)とは、計算されたm1/((m2)1/2)との差の絶対値が最も小さくなるF(η)のことである。
 パラメータηを求めるための第二方法について説明する。第二の方法では、逆関数F-1の近似曲線関数を例えば以下の式(C3’)で表される~F-1として、パラメータ取得部44は、白色化スペクトル系列に基づいてm1/((m2)1/2)を計算し、近似曲線関数~F-1に計算されたm1/((m2)1/2)を入力したときの出力値を計算することによりηを求める。
 なお、パラメータ取得部44が求めるηは、式(C3)ではなく、式(C3'')のように予め定めた正の整数q1及びq2を用いて(ただしq1<q2)式(C3)を一般化した式により定義されてもよい。
Figure JPOXMLDOC01-appb-M000024
 なお、ηが式(C3'')により定義される場合も、ηが式(C3)により定義されている場合と同様の方法により、ηを求めることができる。すなわち、パラメータ取得部44が、白色化スペクトル系列に基づいてそのq1次モーメントであるmq1とそのq2次モーメントであるmq2とに基づく値mq1/((mq2)q1/q2)を計算した後、例えば上記の第一及び第二の方法と同様、予め用意しておいた異なる複数の、ηと対応するF’(η)のペアを参照して、計算されたmq1/((mq2)q1/q2)に最も近いF’(η)に対応するηを取得するか、逆関数F’-1の近似曲線関数を~F’-1として、近似曲線関数~F-1に計算されたmq1/((mq2)q1/q2)を入力したときの出力値を計算してηを求めることができる。
 このようにηは次元が異なる2つの異なるモーメントmq1,mq2に基づく値であるとも言える。例えば、次元が異なる2つの異なるモーメントmq1,mq2のうち、次元が低い方のモーメントの値又はこれに基づく値(以下、前者とする。)と次元が高い方のモーメントの値又はこれに基づく値(以下、後者とする)との比の値、この比の値に基づく値、又は、前者を後者で割って得られる値に基づき、ηを求めてもよい。モーメントに基づく値とは、例えば、そのモーメントをmとしQを所定の実数としてmQのことである。また、これらの値を近似曲線関数~F-1に入力してηを求めてもよい。この近似曲線関数~F’-1は上記同様、使用する定義域において出力が正値となる単調増加関数であればよい。
 パラメータ決定部27’は、ループ処理によりパラメータηを求めてもよい。すなわち、パラメータ決定部27’は、パラメータ取得部44で求まるパラメータηを所定の方法で定められるパラメータη0とする、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理を更に1回以上行ってもよい。
 この場合、例えば、図14で破線で示すように、パラメータ取得部44で求まったパラメータηは、スペクトル包絡推定部42に出力される。スペクトル包絡推定部42は、パラメータ取得部44で求まったηをパラメータη0として用いて、上記説明した処理と同様の処理を行いスペクトル包絡の推定を行う。白色化スペクトル系列生成部43は、新たに推定されたスペクトル包絡に基づいて、上記説明した処理と同様の処理を行い白色化スペクトル系列を生成する。パラメータ取得部44は、新たに生成された白色化スペクトル系列に基づいて、上記説明した処理と同様の処理を行いパラメータηを求める。
 例えば、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理は、所定の回数であるτ回だけ更に行われてもよい。τは所定の正の整数であり、例えばτ=1又はτ=2である。
 また、スペクトル包絡推定部42は、今回求まったパラメータηと前回求まったパラメータηとの差の絶対値が所定の閾値以下となるまで、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理を繰り返してもよい。
 (復号)
 第二実施形態の復号装置及び方法は、第一実施形態と同様であるため重複説明を省略する。
 [[第二実施形態の変形例]]
 なお、少なくともパラメータηに基づいて符号化処理の構成を特定可能であれば、符号化処理はどのようなものであってもよく、符号化部26の符号化処理以外の符号化処理を用いてもよい。
 以下、符号化処理が符号化部26による符号化処理に限定されていない、第二実施形態の変形例について述べる。
 (符号化)
 第二実施形態の変形例の符号化装置及び方法の一例について説明する。
 第二実施形態の変形例の符号化装置は、図17に示すように、パラメータ決定部27’、音響特徴量抽出部521、特定部522及び符号化部523を例えば備えている。符号化装置の各部が、図18に例示する各処理を行うことにより符号化方法が実現される。
 以下、符号化装置の各部について説明する。
 <パラメータ決定部27’>
 パラメータ決定部27’には、時系列信号であるフレーム単位の時間領域の音信号が入力される。音信号の例は、音声ディジタル信号又は音響ディジタル信号である。
 パラメータ決定部27’は、入力された時系列信号に基づいて、後述する処理により、パラメータηを決定する(ステップFE1)。パラメータ決定部27’は、所定の時間長のフレームごとに処理を行う。すなわち、フレームごとにパラメータηが決定される。
 パラメータ決定部27’により決定されたパラメータηは、特定部522に出力される。
 パラメータ決定部27’の構成例を図21に示す。パラメータ決定部27’は、図21に示すように、周波数領域変換部41と、スペクトル包絡推定部42と、白色化スペクトル系列生成部43と、パラメータ取得部44とを例えば備えている。スペクトル包絡推定部42は、線形予測分析部421及び非平滑化振幅スペクトル包絡系列生成部422を例えば備えている。例えばこのパラメータ決定部27’により実現されるパラメータ決定方法の各処理の例を図22に示す。
 以下、図21の各部について説明する。
 <周波数領域変換部41>
 周波数領域変換部41には、時系列信号である時間領域の音信号が入力される。
 周波数領域変換部41は、所定の時間長のフレーム単位で、入力された時間領域の音信号を周波数領域のN点のMDCT係数列X(0),X(1),…,X(N-1)に変換する。Nは正の整数である。
 得られたMDCT係数列X(0),X(1),…,X(N-1)は、スペクトル包絡推定部42及び白色化スペクトル系列生成部43に出力される。
 特に断りがない限り、以降の処理はフレーム単位で行われるものとする。
 このようにして、周波数領域変換部41は、時系列信号に対応する、例えばMDCT係数列である周波数領域サンプル列を求める(ステップC41)。
 <スペクトル包絡推定部42>
 スペクトル包絡推定部42には、周波数領域変換部21が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 スペクトル包絡推定部42は、所定の方法で定められるパラメータη0に基づいて、時系列信号に対応する周波数領域サンプル列の絶対値のη0乗をパワースペクトルとして用いたスペクトル包絡の推定を行う(ステップC42)。
 推定されたスペクトル包絡は、白色化スペクトル系列生成部43に出力される。
 スペクトル包絡推定部42は、例えば以下に説明する線形予測分析部421及び非平滑化振幅スペクトル包絡系列生成部422の処理により、非平滑化振幅スペクトル包絡系列を生成することによりスペクトル包絡の推定を行う。
 パラメータη0は所定の方法で定められるとする。例えば、η0を0より大きい所定の数とする。例えば、η0=1とする。また、現在パラメータηを求めようとしているフレームよりも前のフレームで求まったηを用いてもよい。現在パラメータηを求めようとしているフレーム(以下、現フレームとする。)よりも前のフレームとは、例えば現フレームのよりも前のフレームであって現フレームの近傍のフレームである。現フレームの近傍のフレームは、例えば現フレームの直前のフレームである。
 <線形予測分析部421>
 線形予測分析部421には、周波数領域変換部41が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 線形予測分析部421は、MDCT係数列X(0),X(1),…,X(N-1)を用いて、以下の式(C1)により定義される~R(0),~R(1),…,~R(N-1)を線形予測分析して線形予測係数β12,…,βpを生成し、生成された線形予測係数β12,…,βpを符号化して線形予測係数符号と線形予測係数符号に対応する量子化された線形予測係数である量子化線形予測係数^β1,^β2,…,^βpとを生成する。
Figure JPOXMLDOC01-appb-M000025
 生成された量子化線形予測係数^β1,^β2,…,^βpは、非平滑化スペクトル包絡系列生成部422に出力される。
 具体的には、線形予測分析部421は、まずMDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗をパワースペクトルと見做した逆フーリエ変換に相当する演算、すなわち式(C1)の演算を行うことにより、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗に対応する時間領域の信号列である擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を求める。そして、線形予測分析部421は、求まった擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を用いて線形予測分析を行って、線形予測係数β12,…,βpを生成する。そして、線形予測分析部421は、生成された線形予測係数β12,…,βpを符号化することにより、線形予測係数符号と、線形予測係数符号に対応する量子化線形予測係数^β1,^β2,…,^βpとを得る。
 線形予測係数β12,…,βpは、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗をパワースペクトルと見做したときの時間領域の信号に対応する線形予測係数である。
 線形予測分析部421による線形予測係数符号の生成は、例えば従来的な符号化技術によって行われる。従来的な符号化技術とは、例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をLSPパラメータに変換してLSPパラメータに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をPARCOR係数に変換してPARCOR係数に対応する符号を線形予測係数符号とする符号化技術などである。
 このようにして、線形予測分析部421は、例えばMDCT係数列である周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列を用いて線形予測分析を行い線形予測係数を生成する(ステップC421)。
 <非平滑化振幅スペクトル包絡系列生成部422>
 非平滑化振幅スペクトル包絡系列生成部422には、線形予測分析部421が生成した量子化線形予測係数^β1,^β2,…,^βpが入力される。
 非平滑化振幅スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列である非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
 生成された非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)は、白色化スペクトル系列生成部43に出力される。
 非平滑化振幅スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpを用いて、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)として、式(C2)により定義される非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
Figure JPOXMLDOC01-appb-M000026
 このようにして、非平滑化振幅スペクトル包絡系列生成部422は、疑似相関関数信号列に対応する振幅スペクトル包絡の系列を1/η0乗した系列である非平滑化スペクトル包絡系列を線形予測分析部421により生成された線形予測係数に変換可能な係数に基づいて得ることによりスペクトル包絡の推定を行う(ステップC422)。
 なお、非平滑化スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpに代えて線形予測分析部421が生成した線形予測係数β12,…,βpを用いることにより、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を得てもよい。この場合は、線形予測分析部421は、量子化線形予測係数^β1,^β2,…,^βpを得る処理をしなくてもよい。
 <白色化スペクトル系列生成部43>
 白色化スペクトル系列生成部43には、周波数領域変換部41が得たMDCT係数列X(0),X(1),…,X(N-1)及び非平滑化振幅スペクトル包絡生成部422が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)が入力される。
 白色化スペクトル系列生成部43は、MDCT係数列X(0),X(1),…,X(N-1)の各係数を、対応する非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値で除算することにより、白色化スペクトル系列XW(0),XW(1),…,XW(N-1)を生成する。
 生成された白色化スペクトル系列XW(0),XW(1),…,XW(N-1)は、パラメータ取得部44に出力される。
 白色化スペクトル系列生成部43は、例えば、k=0,1,…,N-1として、MDCT係数列X(0),X(1),…,X(N-1)の各係数X(k)を非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値^H(k)で除算することにより、白色化スペクトル系列XW(0),XW(1),…,XW(N-1)の各値XW(k)を生成する。すなわち、k=0,1,…,N-1として、XW(k)=X(k)/^H(k)である。
 このようにして、白色化スペクトル系列生成部43は、例えば非平滑化振幅スペクトル包絡系列であるスペクトル包絡で例えばMDCT係数列である周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る(ステップC43)。
 <パラメータ取得部44>
 パラメータ取得部44には、白色化スペクトル系列生成部43が生成した白色化スペクトル系列XW(0),XW(1),…,XW(N-1)が入力される。
 パラメータ取得部44は、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列XW(0),XW(1),…,XW(N-1)のヒストグラムを近似するパラメータηを求める(ステップC44)。言い換えれば、パラメータ取得部44は、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列XW(0),XW(1),…,XW(N-1)のヒストグラムの分布に近くなるようなパラメータηを決定する。
 パラメータηを形状パラメータとする一般化ガウス分布は、例えば以下のように定義される。Γは、ガンマ関数である。
Figure JPOXMLDOC01-appb-M000027
 一般化ガウス分布は、形状パラメータであるηを変えることにより、図23のようにη=1の時はラプラス分布、η=2の時はガウス分布、といったように様々な分布を表現することができるものである。φは分散に対応するパラメータである。
 ここで、パラメータ取得部44が求めるηは、例えば以下の式(C3)により定義される。F-1は、関数Fの逆関数である。この式は、いわゆるモーメント法により導出されるものである。
Figure JPOXMLDOC01-appb-M000028
 逆関数F-1が定式化されている場合には、パラメータ取得部44は、定式化された逆関数F-1にm1/((m2)1/2)の値を入力したときの出力値を計算することによりパラメータηを求めることができる。
 逆関数F-1が定式化されていない場合には、パラメータ取得部44は、式(C3)で定義されるηの値を計算するために、例えば以下に説明する第一方法又は第二方法によりパラメータηを求めてもよい。
 パラメータηを求めるための第一方法について説明する。第一の方法では、パラメータ取得部44は、白色化スペクトル系列に基づいてm1/((m2)1/2)を計算し、予め用意しておいた異なる複数の、ηと対応するF(η)のペアを参照して、計算されたm1/((m2)1/2)に最も近いF(η)に対応するηを取得する。
 予め用意しておいた異なる複数の、ηと対応するF(η)のペアは、パラメータ取得部44の記憶部441に予め記憶しておく。パラメータ取得部44は、記憶部441参照して、計算されたm1/((m2)1/2)に最も近いF(η)を見つけ、見つかったF(η)に対応するηを記憶部441から読み込み出力する。
 計算されたm1/((m2)1/2)に最も近いF(η)とは、計算されたm1/((m2)1/2)との差の絶対値が最も小さくなるF(η)のことである。
 パラメータηを求めるための第二方法について説明する。第二の方法では、逆関数F-1の近似曲線関数を例えば以下の式(C3’)で表される~F-1として、パラメータ取得部44は、白色化スペクトル系列に基づいてm1/((m2)1/2)を計算し、近似曲線関数~F-1に計算されたm1/((m2)1/2)を入力したときの出力値を計算することによりηを求める。
 なお、パラメータ取得部44が求めるηは、式(C3)ではなく、式(C3'')のように予め定めた正の整数q1及びq2を用いて(ただしq1<q2)式(C3)を一般化した式により定義されてもよい。
Figure JPOXMLDOC01-appb-M000029
 なお、ηが式(C3'')により定義される場合も、ηが式(C3)により定義されている場合と同様の方法により、ηを求めることができる。すなわち、パラメータ取得部44が、白色化スペクトル系列に基づいてそのq1次モーメントであるmq1とそのq2次モーメントであるmq2とに基づく値mq1/((mq2)q1/q2)を計算した後、例えば上記の第一及び第二の方法と同様、予め用意しておいた異なる複数の、ηと対応するF’(η)のペアを参照して、計算されたmq1/((mq2)q1/q2)に最も近いF’(η)に対応するηを取得するか、逆関数F’-1の近似曲線関数を~F’-1として、近似曲線関数~F-1に計算されたmq1/((mq2)q1/q2)を入力したときの出力値を計算してηを求めることができる。
 このようにηは次元が異なる2つの異なるモーメントmq1,mq2に基づく値であるとも言える。例えば、次元が異なる2つの異なるモーメントmq1,mq2のうち、次元が低い方のモーメントの値又はこれに基づく値(以下、前者とする。)と次元が高い方のモーメントの値又はこれに基づく値(以下、後者とする)との比の値、この比の値に基づく値、又は、前者を後者で割って得られる値に基づき、ηを求めてもよい。モーメントに基づく値とは、例えば、そのモーメントをmとしQを所定の実数としてmQのことである。また、これらの値を近似曲線関数~F-1に入力してηを求めてもよい。この近似曲線関数~F’-1は上記同様、使用する定義域において出力が正値となる単調増加関数であればよい。
 パラメータ決定部27’は、ループ処理によりパラメータηを求めてもよい。すなわち、パラメータ決定部27’は、パラメータ取得部44で求まるパラメータηを所定の方法で定められるパラメータη0とする、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理を更に1回以上行ってもよい。
 この場合、例えば、図21で破線で示すように、パラメータ取得部44で求まったパラメータηは、スペクトル包絡推定部42に出力される。スペクトル包絡推定部42は、パラメータ取得部44で求まったηをパラメータη0として用いて、上記説明した処理と同様の処理を行いスペクトル包絡の推定を行う。白色化スペクトル系列生成部43は、新たに推定されたスペクトル包絡に基づいて、上記説明した処理と同様の処理を行い白色化スペクトル系列を生成する。パラメータ取得部44は、新たに生成された白色化スペクトル系列に基づいて、上記説明した処理と同様の処理を行いパラメータηを求める。
 例えば、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理は、所定の回数であるτ回だけ更に行われてもよい。τは所定の正の整数であり、例えばτ=1又はτ=2である。
 また、スペクトル包絡推定部42は、今回求まったパラメータηと前回求まったパラメータηとの差の絶対値が所定の閾値以下となるまで、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理を繰り返してもよい。
 <音響特徴量抽出部521>
 音響特徴量抽出部521には、時系列信号であるフレーム単位の時間領域の音信号が入力される。
 音響特徴量抽出部521は、音響特徴量として、時系列信号の音の大きさを表す指標を計算する(ステップFE2)。計算された音の大きさを表す指標は、特定部522に出力される。また、音響特徴量抽出部521は、音響特徴量に対応する音響特徴量符号を生成して復号装置に出力する。
 時系列信号の音の大きさを表す指標は、その時系列信号の音の大きさを表す指標であればどのようなものであってもよい。時系列信号の音の大きさを表す指標は、例えば時系列信号のエネルギーである。
 なお、この例では、以下に述べる特定部522がパラメータηだけではなく音の大きさを表す指標に基づいて符号化処理の構成を特定するため、音響特徴量抽出部521が音の大きさを表す指標を計算しているが、特定部522がパラメータηのみを用いて符号化処理の構成の特定を行い音の大きさを表す指標を用いない場合には、音響特徴量抽出部521は音の大きさを表す指標の計算をしなくてもよい。
 <特定部522>
 特定部522には、パラメータ決定部27’が決定したパラメータηと、音響特徴量抽出部521が計算した時系列信号の音の大きさを表す指標とが入力される。また、必要に応じて時系列信号であるフレーム単位の音信号が入力される。
 特定部522は、少なくともパラメータηに基づいて符号化処理の構成を特定し(ステップFE3)、符号化処理の構成を特定可能な特定符号を生成し復号装置に出力する。また、特定部522により特定された符号化処理の構成についての情報は、符号化部523に出力される。
 特定部522は、パラメータηのみに基づいて符号化処理の構成を特定してもよいし、パラメータηとそれ以外のパラメータとに基づいて符号化処理の構成を特定してもよい。
 符号化処理の構成とは、TCX(Transform Coded Excitation)、ACELP(Algebraic Code Excited Linear Prediction)等の符号化方法であってもよいし、ある符号化方法における、時間的処理の単位であるフレーム長、符号に割り当てるビット数、線形予測係数に変換可能な係数の次数、符号化処理の中で用いられる任意のパラメータの値であってもよい。すなわち、パラメータηに応じて、ある符号化方法における、時間的処理の単位であるフレーム長、符号に割り当てるビット数、線形予測係数に変換可能な係数の次数、符号化処理の中で用いられる任意のパラメータの値を適切に定めることが可能であってもよい。
 なお、図12及び図13を参照しながら上記説明した第二実施形態の符号化装置及び方法は、パラメータηに応じて符号化処理の中で用いられるパラメータの値を定めている。このため、図12及び図13を参照しながら上記説明した第二実施形態の符号化装置及び方法は、パラメータηに基づいて符号化処理の構成を特定する第二実施形態の変形例の一例であると言える。
 符号化処理の構成を特定可能な特定符号は、符号化処理の構成を特定可能な符号であればどのような符号でもよい。例えば、符号化処理の構成を特定可能な特定符号は、符号化処理の構成として、フレーム長の長いTCXが特定される場合には"11"、フレーム長の短いTCXが特定される場合には"100"、ACELPが特定される場合には"101"、例えば雑音レベルと特定等のみを伝送する低ビットの符号化処理が特定される場合には"0"等の所定のビット列によるフラグである。符号化処理の構成を特定可能な特定符号は、例えばパラメータηを表すパラメータ符号であってもよい。
 符号化処理の構成を特定可能な特定符号は、その特定符号により符号化処理の構成が特定されれば、対応する復号処理の構成も特定されるため、復号処理の構成を特定可能な特定符号とも言える。
 以下では、まず、パラメータηと時系列信号の音の大きさを表す指標とに基づいて、符号化処理を特定する場合を例に挙げて説明する。
 特定部522は、時系列信号の音の大きさを表す指標と所定の閾値Ceをと比較し、また、パラメータηと所定の閾値Cηとを比較する。時系列信号の音の大きさを表す指標として、例えば、平均振幅(サンプルあたりの平均エネルギーの平方根)を用いた場合には、Ce=最大振幅値*(1/128)とする。例えば16ビット精度ならば最大振幅値は32768となるため、Ce=256とする。また、例えば、Cη=1とする。
 時系列信号の音の大きさを表す指標≧所定の閾値Ce、かつ、パラメータη<所定の閾値Cηであれば、時系列信号は継続音を主体とした管楽器や弦楽器を主体とする音楽(以下、継続音楽と記載)である可能性が高いため、特定部522は、継続音楽に適した符号化処理を行うことを決定する。継続音楽に適した符号化処理とは、例えばフレーム長が長いTCX符号化処理、具体的には1024点のフレームのTCX符号化処理である。
 時系列信号の音の大きさを表す指標≧所定の閾値Ce、かつ、パラメータη≧所定の閾値Cηであれば、時系列信号は音声又は時間変動の大きい打楽器等を主体とする音楽である可能性が高い。
 この場合、特定部522は、必要に応じて入力される時系列信号を例えば4分割し、4個のサブフレームを作り、サブフレームごとの時系列信号のエネルギーを測定する。特定部522は、4個のサブフレームのエネルギーの相加平均を相乗平均で割った値F=((1/4)Σ4個のサブフレームのエネルギー)/((Πサブフレームのエネルギー)1/4)が所定の閾値CF以上であれば、時系列信号は時間変動の大きい音楽である可能性が高い。この場合、特定部522は、時間変動が大きい音楽に適した符号化処理を行うことを決定する。時間変動が大きい音楽に適した符号化処理とは、例えばフレーム長が短いTCX符号化処理、具体的には256点のフレームのTCX符号化処理である。例えば、CE=1.5とする。
 値Fが所定の閾値CF未満であれば、時系列信号は音声である可能性が高い。この場合、特定部522は、音声に適した符号化処理を行うことを決定する。音声に適した符号化処理とは、例えばACELP、CELP(Code Excited Linear Prediction)等の音声符号化処理である。
 時系列信号の音の大きさを表す指標<所定の閾値Ce、かつ、パラメータη≧所定の閾値Cηであれば、時系列信号は無音区間である可能性が高い。ここで、無音区間とは音が全く存在しない区間という意味ではなく、目的音は存在しないが背景音や周囲の雑音は存在する区間という意味である。この場合、特定部522は、時系列信号は無音区間であると決定する。
 時系列信号の音の大きさを表す指標<所定の閾値Ce、かつ、パラメータη<所定の閾値Cηであれば、時系列信号は音量の小さい継続音楽であるバックグラウンドミュージック(以下、BGMのような特徴のある背景音と記載)である可能性が高い。この場合、特定部522は、BGMのような特徴のある背景音に適した符号化処理を行うことを決定する。BGMのような特徴のある背景音に適した符号化処理とは、例えばフレーム長が短いTCX符号化処理、具体的には256ビット点のフレームのTCX符号化処理である。
 なお、特定部522は、パラメータηだけではなく、入力された時系列信号の音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性の度合いの少なくとも1つに更に基づいて符号化処理の構成を特定してもよい。入力された時系列信号の音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性の度合いの少なくとも1つを更に用いる場合には、音響特徴量抽出部521が、入力された時系列信号の音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性の度合いの中の特定部522により用いられる音響特徴量を計算し、特定部522に出力する。また、音響特徴量抽出部521は、計算された音響特徴量に対応する音響特徴量符号を生成して復号装置に出力する。
 以下、(1)パラメータηと時系列信号の音の大きさを表す指標の時間的変動とに基づいて符号化処理をの構成を特定する場合、(2)パラメータηと時系列信号のスペクトル形状とに基づいて符号化処理をの構成を特定する場合、(3)パラメータηと時系列信号のスペクトル形状の時間的変動とに基づいて符号化処理をの構成を特定する場合、(4)パラメータηと時系列信号のピッチの周期性とに基づいて符号化処理をの構成を特定する場合のそれぞれについて説明する。
 (1)パラメータηと時系列信号の音の大きさを表す指標の時間的変動とに基づいて符号化処理の構成を特定する場合には、特定部522は、時系列信号の音の大きさを表す指標の時間的変動が大きいかどうかを判定し、また、パラメータηが大きいかどうかを判定する。
 時系列信号の音の大きさを表す指標の時間的変動が大きいかどうかは、例えば所定の閾値CE 'に基づいて判定することができる。すなわち、時系列信号の音の大きさを表す指標の時間的変動≧所定の閾値CE 'であれば時系列信号の音の大きさを表す指標の時間的変動が大きい、そうでない場合には時系列信号の音の大きさを表す指標の時間的変動は小さいと判定することができる。
 パラメータηが大きいかどうかは、例えば所定の閾値Cηに基づいて判定することができる。すなわち、パラメータη≧所定の閾値Cηであればパラメータηが大きい、そうでない場合にはパラメータηは小さいと判定することができる。
 時系列信号の音の大きさを表す指標の時間的変動が大きく、かつ、パラメータが大きい場合には、時系列信号は音声である可能性が高い。この場合、特定部522は、音声に適した符号化処理を行うことを決定する。例えば、時系列信号を構成する4個のサブフレームのエネルギーの相加平均を相乗平均で割った値F=((1/4)Σ4個のサブフレームのエネルギー)/((Πサブフレームのエネルギー)1/4)を用いた場合には、CE '=1.5とする。
 時系列信号の音の大きさを表す指標の時間的変動が大きく、かつ、パラメータが小さい場合には、時系列信号は時間変動の大きい音楽である可能性が高い。この場合、特定部522は、時間変動が大きい音楽に適した符号化処理を行うことを決定する。
 時系列信号の音の大きさを表す指標の時間的変動が小さく、かつ、パラメータηが大きい場合には、時系列信号は無音区間である可能性が高い。この場合、特定部522は、時系列信号は無音区間であると決定する。
 時系列信号の音の大きさを表す指標の時間的変動が小さく、かつ、パラメータηが小さい場合には、継続音を主体とした管楽器や弦楽器の音楽である可能性が高い。この場合、特定部522は、継続音楽に適した符号化処理を行うことを決定する。
 (2)パラメータηと時系列信号のスペクトル形状とに基づいて符号化処理の構成を特定する場合、特定部522は、時系列信号のスペクトル形状が平坦かどうかを判定し、また、パラメータηが大きいかどうかを判定する。
 時系列信号のスペクトル形状が平坦かどうかは、所定の閾値EVに基づいて判定することができる。例えば、時系列信号に対応する第1次のPARCOR係数の絶対値が所定の閾値EV(例えば、EV=0.7)未満なら、時系列信号のスペクトル形状が平坦である、そうでない場合には時系列信号のスペクトル形状は平坦でないと判定することができる。
 時系列信号のスペクトル形状が平坦であり、かつ、パラメータηが大きい場合には、時系列信号は無音区間である可能性が高い。この場合、特定部522は、時系列信号は無音区間であると決定する。
 時系列信号のスペクトル形状が平坦であり、かつ、パラメータηが小さい場合には、時系列信号は時間変動の大きい音楽である可能性が高い。この場合、特定部522は、時間変動が大きい音楽に適した符号化処理を行うことを決定する。
時系列信号のスペクトル形状が平坦ではなく、かつ、パラメータηが大きい場合には、時系列信号は音声である可能性が高い。この場合、特定部522は、音声に適した符号化処理を行うことを決定する。
 時系列信号のスペクトル形状が平坦ではなく、かつ、パラメータηが小さい場合には、継続音を主体とした管楽器や弦楽器の音楽である可能性が高い。この場合、特定部522は、継続音楽に適した符号化処理を行うことを決定する。
 (3)パラメータηと時系列信号のスペクトル形状の時間的変動とに基づいて符号化処理の構成を特定する場合、特定部522は、時系列信号のスペクトル形状の時間的変動が大きいかどうかを判定し、また、また、パラメータηが大きいかどうかを判定する。
 時系列信号のスペクトル形状の時間的変動が平坦かどうかは、所定の閾値EV 'に基づいて判定することができる。例えば、時系列信号を構成する4個のサブフレームの第1次のPARCOR係数の絶対値の相加平均を相乗平均で割った値FV=((1/4)Σ4個のサブフレームの第1次のPARCOR係数の絶対値)/((Π第1次のPARCOR係数の絶対値)1/4)が所定の閾値EV '(例えば、EV '=1.2)以上なら、時系列信号のスペクトル形状の時間的変動が大きい、そうでない場合には時系列信号のスペクトル形状の時間的変動は小さいと判定することができる。
 時系列信号のスペクトル形状の時間的変動が大きく、かつ、パラメータηが大きい場合には、時系列信号は音声である可能性が高い。この場合、特定部522は、音声に適した符号化処理を行うことを決定する。
 時系列信号のスペクトル形状の時間的変動が大きく、かつ、パラメータηが小さい場合には、時系列信号は時間変動の大きい音楽である可能性が高い。この場合、特定部522は、時間変動が大きい音楽に適した符号化処理を行うことを決定する。
 時系列信号のスペクトル形状の時間的変動が小さく、かつ、パラメータηが大きい場合には、時系列信号は無音区間である可能性が高い。この場合、特定部522は、時系列信号は無音区間であると決定する。
 時系列信号のスペクトル形状の時間的変動が小さく、かつ、パラメータηが小さい場合には、継続音を主体とした管楽器や弦楽器の音楽である可能性が高い。この場合、特定部522は、継続音楽に適した符号化処理を行うことを決定する。
 (4)パラメータηと時系列信号のピッチの周期性とに基づいて符号化処理をの構成を特定する場合、特定部522は、時系列信号のピッチの周期性が大きいかどうかを判定し、また、また、パラメータηが大きいかどうかを判定する。
 時系列信号のピッチの周期性が大きいかどうかは、例えば所定の閾値CPに基づいて判定することができる。すなわち、時系列信号のピッチの周期性≧所定の閾値CPであればピッチの周期性が大きい、そうでない場合には時系列信号のピッチの周期性は小さいと判定することができる。ピッチの周期性として、例えば、ピッチ周期τサンプル離れた系列との正規化相関関数
Figure JPOXMLDOC01-appb-M000030
(ただしx(i)は時系列のサンプル値、Nはフレームのサンプル数))を用いた場合には、CP=0.8とする。
 ピッチの周期性が大きく、かつ、パラメータηが大きい場合には、時系列信号は音声である可能性が高い。この場合、特定部522は、音声に適した符号化処理を行うことを決定する。
 ピッチの周期性が大きく、かつ、パラメータηが小さい場合には、継続音を主体とした管楽器や弦楽器の音楽である可能性が高い。この場合、特定部522は、継続音楽に適した符号化処理を行うことを決定する。
 ピッチの周期性が小さく、かつ、パラメータηが大きい場合には、時系列信号は無音区間である可能性が高い。この場合、特定部522は、時系列信号は無音区間であると決定する。
 ピッチの周期性が小さく、かつ、パラメータηが小さい場合には、時系列信号は時間変動の大きい音楽である可能性が高い。この場合、特定部522は、時間変動が大きい音楽に適した符号化処理を行うことを決定する。
 <符号化部523>
 符号化部523には、時系列信号であるフレーム単位の音信号と、特定部522が特定した符号化処理の構成についての情報とが入力される。
 符号化部523は、特定された構成の符号化処理により、入力された時系列信号を符号化して符号を生成する(ステップFE4)。生成された符号は、復号装置に出力される。
 継続音楽に適した符号化処理が特定された場合には、例えばフレーム長が長いTCX(Transform Coded Excitation)符号化処理、具体的には1024点のフレームのTCX符号化処理を行う。なお、この場合には、パラメータ決定部27’により決定されたパラメータηではなく、固定値のη(例えばη=0.8)を表す符号をパラメータ符号として復号装置に出力してもよい。
 時間変動が大きい音楽に適した符号化処理が特定された場合には、例えばフレーム長が短いTCX符号化処理、具体的には256点のフレームのTCX符号化処理を行う。
 BGMのような特徴のある背景音に適した符号化処理が特定された場合には、例えばフレーム長が短いTCX符号化処理、具体的には256点のフレームのTCX符号化処理を行う。なお、この場合には、パラメータ決定部27’により決定されたパラメータηではなく、固定値のη(例えばη=0.8)を表す符号をパラメータ符号として復号装置に出力してもよい。
 音声に適した符号化処理が特定された場合には、例えばACELP(Algebraic Code Excited Linear Prediction)、CELP(Code Excited Linear Prediction)等の音声符号化処理を行う。
 時系列信号が無音区間であると決定された場合には、符号化部523は、入力された時系列信号を符号化せずに、例えば以下に説明する(i)第1の方法又は(ii)第2の方法の処理を行う。
 (i)第1の方法
 符号化部523は、無音区間であることを示す情報を復号装置に送信する。無音区間であることを示す情報は、例えば1ビット等の低ビットで送信される。符号化523は無音区間であることを示す情報を送信した後に、処理の対象となっている時系列信号が無音区間であると特定部522により決定されている間は、無音区間であることを示す情報を再度送らなくてもよい。
 (ii)第2の方法
 符号化部523は、無音区間であることを示す情報、時系列信号のスペクトル包絡の形状及び時系列信号の振幅の情報を復号装置に送信する。
 (復号)
 復号装置及び方法の一例について説明する。
 復号装置は、図19に示すように、特定符号復号部525、音響特徴量符号復号部526、特定部527及び復号部528を例えば備えている。復号装置の各部が、図20に例示する各処理を行うことにより復号方法が実現される。
 以下、復号装置の各部について説明する。
 <特定符号復号部525>
 特定符号復号部525には、符号化装置が出力した特定符号が入力される。
 特定符号復号部525は、特定符号を復号して、符号化処理の構成についての情報を取得する(ステップFD1)。取得された符号化処理の構成についての情報は、特定部527に出力される
 特定符号がパラメータ符号である場合には、特定符号復号部525は、パラメータ符号を復号してパラメータηを得て、得られたパラメータηを符号化処理の構成についての情報として特定部527に出力する。
 <音響特徴量符号復号部526>
 音響特徴量符号復号部526には、符号化装置が出力した音響特徴量符号が入力される。
 音響特徴量符号復号部526は、音響特徴量符号を復号して、時系列信号の音の大きさを表す指標、音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性の度合いの少なくとも1つである音響特徴量を得る(ステップFD2)。得られた音響特徴量は、特定部527に出力される。
 なお、符号化側において、パラメータηのみに基づいて符号化処理の構成が特定され、音響特徴量及び音響特徴量符号が生成されていない場合には、音響特徴量符号復号部526は処理を行わない。
 <特定部527>
 特定部527には、特定符号復号部525により得られた符号化処理の構成についての情報が入力される。また、特定部527には、必要に応じて、音響特徴量符号復号部526により得られた音響特徴量が入力される。
 特定部527は、符号化処理の構成についての情報に基づいて復号処理の構成を特定する(ステップFD3)。例えば、特定部527は、符号化処理の構成についての情報により特定される符号化処理の構成に対応する復号処理の構成を特定する。特定部527は、必要に応じて、符号化処理の構成についての情報と音響特徴量とに基づいて復号処理の構成を特定してもよい。特定された復号処理の構成についての情報は、復号部528に出力される。
 以下、符号化処理の構成についての情報としてパラメータηが入力されており、時系列信号の音の大きさを表す指標、音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性の度合いの少なくとも1つである音響特徴量が入力されている場合を例に挙げて説明する。
 この場合、符号化装置の特定部522による符号化処理の構成の特定の判断基準と同様の判断基準が復号装置の特定部527に予め定められているとする。特定部527は、その判断基準に従い、パラメータηと音響特徴量を用いて、特定部522で特定された符号化処理の構成に対応する復号処理の構成を特定する。
 符号化装置の特定部522による符号化処理の構成の特定の判断基準については、(符号化)で説明したためここでは重複説明を省略する。
 例えば、復号処理の構成として、継続音楽に適した復号処理、時間変動が大きい音楽に適した復号処理、BGMのような特徴のある背景音に適した復号処理、音声に適した復号処理の何れかが特定される。または、特定部527は、時系列信号が無音区間であると決定する。
 <復号部528>
 復号部528には、符号化装置が出力した符号と、特定部527により特定された復号処理の構成についての情報とが入力される。
 復号部528は、特定された構成の復号処理により、時系列信号であるフレーム単位の音信号を得る(ステップFD4)。
 継続音楽に適した復号処理が特定された場合には、例えばフレーム長が長いTCX(Transform Coded Excitation)復号処理、具体的には1024点のフレームのTCX復号処理を行う。
 時間変動が大きい音楽に適した復号処理が特定された場合には、例えばフレーム長が短いTCX復号処理、具体的には256点のフレームのTCX復号処理を行う。
 BGMのような特徴のある背景音に適した復号処理が特定された場合には、例えばフレーム長が短いTCX復号処理、具体的には256点のフレームのTCX復号処理を行う。
 音声に適した復号処理が特定された場合には、例えばACELP(Algebraic Code Excited Linear Prediction)、CELP(Code Excited Linear Prediction)等の音声復号処理を行う。
 復号装置が無音区間であることを示す情報を受信した場合又は特定部527により時系列信号が無音区間であると決定された場合には、復号部528は、例えば以下に説明する(i)第1の方法又は(ii)第2の方法の処理を行う。
 (i)第1の方法
 符号化側の(i)第1の方法に対応するものである。
 復号部528は、予め定められたノイズを発生させる。
 (ii)第2の方法
 復号部528は、無音区間であることを示す情報と共に受信した、時系列信号のスペクトル包絡の形状及び時系列信号の振幅の情報を用いて、予め定められたノイズを変形して出力する。ノイズの変形方法は、EVS(Enhanced Voice Service)等で用いられている既存の手法を用いれば良い。
 このように、復号部528は、無音区間であることを示す情報を受け取った場合には、ノイズを発生させてもよい。
 [変形例等]
 線形予測分析部22及び非平滑化振幅スペクトル包絡系列生成部23を1つのスペクトル包絡推定部2Aとして捉えると、このスペクトル包絡推定部2Aは、時系列信号に対応する例えばMDCT係数列である周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做したスペクトル包絡(非平滑化振幅スペクトル包絡系列)の推定を行っていると言える。ここで、「パワースペクトルと見做した」とは、パワースペクトルを通常用いるところに、η乗のスペクトルを用いることを意味する。
 この場合、スペクトル包絡推定部2Aの線形予測分析部22は、例えばMDCT係数列である周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列を用いて線形予測分析を行い線形予測係数に変換可能な係数を得ていると言える。また、スペクトル包絡推定部2Aの非平滑化振幅スペクトル包絡系列生成部23は、線形予測分析部22により得られた線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得ることによりスペクトル包絡の推定を行っていると言える。
 また、平滑化振幅スペクトル包絡系列生成部24、包絡正規化部25及び符号化部26を1つの符号化部2Bとして捉えると、この符号化部2Bは、スペクトル包絡推定部2Aにより推定されたスペクトル包絡(非平滑化振幅スペクトル包絡系列)を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化を時系列信号に対応する例えばMDCT係数列である周波数領域サンプル列の各係数に対して行っていると言える。
 復号部34及び包絡逆正規化部35を1つの復号部3Aとして捉えると、この復号部3Aは、非平滑化スペクトル包絡系列に基づいて変わるビット割り当て又は実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行うことにより時系列信号に対応する周波数領域サンプル列を得ていると言える。
 符号化部2Bは、スペクトル包絡(非平滑化振幅スペクトル包絡系列)を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化を行うのであれば、上記説明した算術符号化以外の符号化処理を行ってもよい。この場合、復号部3Aは、符号化部2Bが行った符号化処理に対応する復号処理を行う。
 例えば、符号化部2Bは、スペクトル包絡(非平滑化振幅スペクトル包絡系列)に基づいて決定されたRiceパラメータを用いて周波数領域サンプル列をGolomb-Rice符号化してもよい。この場合、復号部3Aは、スペクトル包絡(非平滑化振幅スペクトル包絡系列)に基づいて決定されたRiceパラメータを用いてGolomb-Rice復号してもよい。
 第一実施形態において、符号化装置は、パラメータηを決定する際に符号化処理を最後まで行わなくてもよい。言い換えれば、パラメータ決定部27は、推定符号量に基づいてパラメータηを決定してもよい。この場合、符号化部2Bは、複数のパラメータηのそれぞれを用いて同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対する上記と同様の符号化処理により得られる符号の推定符号量を得る。パラメータ決定部27は、得られた推定符号量に基づいて複数のパラメータηの何れか1つを選択する。例えば、推定符号量が最も小さいパラメータηを選択する。符号化部2Bは、選択されたパラメータηを用いて上記と同様の符号化処理を行うことにより符号を得て出力する。
 符号化装置は、図4又は図12に破線で示した分割部28を更に備えていてもよい。分割部28は、周波数領域変換部21が生成した例えばMDCT係数列である周波数領域サンプル列に基づいて、周波数領域サンプル列の周期性成分に対応するサンプルから構成される第一周波数領域サンプル列と、周波数領域サンプル列の周期性成分に対応するサンプル以外のサンプルから構成される第二周波数領域サンプル列とを生成し、周期性成分に対応するサンプルを表す情報を補助情報として復号装置に出力する。
 言い換えれば、第一周波数領域サンプル列は周波数領域サンプル列の山の部分に対応するサンプルから構成されるサンプル列であり、第二周波数領域サンプル列は周波数領域サンプル列の谷の部分に対応するサンプルから構成されるサンプル列である。
 例えば、周波数領域サンプル列のうちの周波数領域サンプル列に対応する時系列信号の周期性または基本周波数に対応するサンプルを含む一つまたは連続する複数のサンプルおよび、周波数領域サンプル列のうちの周波数領域サンプル列に対応する時系列信号の周期性または基本周波数の整数倍に対応するサンプルを含む一つまたは連続する複数のサンプル、の全部または一部のサンプルにより構成されるサンプル列を第一周波数領域サンプル列と、周波数領域サンプル列のうちの第一周波数領域サンプル列に含まれないサンプルにより構成されるサンプル列を第二周波数領域サンプル列とを生成する。第一周波数領域サンプル列と第二周波数領域サンプル列の生成は、国際公開公報WO2012/046685に記載された方法を用いて行うことができる。
 線形予測分析部22、非平滑化振幅スペクトル包絡系列生成部23、平滑化振幅スペクトル包絡系列生成部24、包絡正規化部25及び符号化部26及びパラメータ決定部27は、第一周波数領域サンプル列及び第二周波数領域サンプル列のそれぞれについて、第一実施形態又は第二実施形態で説明した符号化処理を行い符号を生成する。すなわち、例えば算術符号化が行われる場合には、第一周波数領域サンプル列に対応するパラメータ符号、線形予測係数符号、整数信号符号及び利得符号が生成され、第二周波数領域サンプル列に対応するパラメータ符号、線形予測係数符号、整数信号符号及び利得符号が生成される。
 このように、第一周波数領域サンプル列及び第二周波数領域サンプル列のそれぞれについて符号化を行うことにより、更に効率良く符号化を行うことができる。
 この場合、復号装置は、図9に破線で示した結合部38を更に備えていてもよい。復号装置は、第一周波数領域サンプル列に対応する符号(例えば、パラメータ符号、線形予測係数符号、整数信号符号及び利得符号)に基づいて、第一実施形態又は第二実施形態で説明した復号処理を行い、復号第一周波数領域サンプル列を求める。また、復号装置は、第二周波数領域サンプル列に対応する符号(例えば、パラメータ符号、線形予測係数符号、整数信号符号及び利得符号)に基づいて、第一実施形態又は第二実施形態で説明した復号処理を行い、復号第二周波数領域サンプル列を求める。結合部38は、入力された補助情報を用いて、復号第一周波数領域サンプル列及び復号第二周波数領域サンプル列を適宜結合することにより例えば復号MDCT係数列^X(0),^X(1),…,^X(N-1)である復号周波数領域サンプル列を求める。時間領域変換部は、復号周波数領域サンプル列を時間領域に変換して時系列信号を求める。補助情報を用いた結合は、国際公開公報WO2012/046685に記載された方法を用いて行うことができる。
 なお、ビットレートが低い場合や符号量を更に少なくしたい場合には、符号化装置では第一周波数領域サンプル列のみを符号化して、第一周波数領域サンプル列に対応する符号のみを生成し、第二周波数領域サンプル列に対応する符号は生成せず、復号装置では、符号から得られる第一周波数領域サンプル列と、サンプルの値を0とした第二周波数領域サンプル列を用いて復号周波数領域サンプル列を求めてもよい。
 また、線形予測分析部22、非平滑化振幅スペクトル包絡系列生成部23、平滑化振幅スペクトル包絡系列生成部24、包絡正規化部25及び符号化部26及びパラメータ決定部27は、第一周波数領域サンプル列と第二周波数領域サンプル列とを結合して得られるサンプル列である並べ替え後サンプル列について、第一実施形態又は第二実施形態で説明した符号化処理を行い符号を生成してもよい。例えば算術符号化が行われる場合には、並べ替え後サンプル列に対応するパラメータ符号、線形予測係数符号、整数信号符号及び利得符号が生成される。
 このように、並べ替え後サンプル列について符号化を行うことにより、更に効率良く符号化を行うことができる。
 この場合、復号装置は、第一実施形態又は第二実施形態で説明した復号処理を行い、復号並べ替え後サンプル列を求め、入力された補助情報を用いて、復号並べ替え後サンプル列を、符号化装置で第一周波数領域サンプル列と第二周波数領域サンプル列とを生成した規則に対応する規則で並べ替えて、例えば復号MDCT係数列^X(0),^X(1),…,^X(N-1)である復号周波数領域サンプル列を求める。時間領域変換部36は、復号周波数領域サンプル列を時間領域に変換して時系列信号を求める。補助情報を用いた並べ替えは、国際公開公報WO2012/046685に記載された方法を用いて行うことができる。
 また、符号化装置は、(1)周波数領域サンプル列について符号化処理を行い符号を生成する方法、(2)第一周波数領域サンプル列及び第二周波数領域サンプル列のそれぞれについて符号化処理を行い符号を生成する方法、(3)第一周波数領域サンプル列のみについて符号化処理を行い符号を生成する方法、(4)第一周波数領域サンプル列と第二周波数領域サンプル列とを結合して得られるサンプル列である並べ替え後サンプル列について符号化処理を行い符号を生成する方法、のうち何れの方法をフレームごとに選択するようにしてもよい。この場合、符号化装置は、(1)から(4)の何れの方法を選択したかを表す符号も出力し、復号装置は、フレームごとに入力された符号に従って上記の何れの方法に対応する復号処理を行う。
 なお、符号化装置のパラメータ決定部27及び復号装置のパラメータ復号部37には、上記の(1)から(4)の方法のそれぞれに対応させたパラメータηの候補を記憶させておいてもよい。同様に、符号化装置の線形予測分析部22及び復号装置の線形予測係数復号部31には、上記の(1)から(4)の方法のそれぞれに対応させた量子化線形予測係数の候補及び復号線形予測係数の候補を記憶させておいてもよい。
 非平滑化振幅スペクトル包絡系列生成部23及び非平滑化振幅スペクトル包絡系列生成部422は、例えばMDCT係数列^X(0),^X(1),…,^X(N-1)である周波数領域サンプル列の周期性成分に基づいて、スペクトル包絡系列(非平滑化振幅スペクトル包絡系列)を変形することにより周期性統合包絡系列を生成してもよい。同様に、非平滑化振幅スペクトル包絡系列生成部32は、例えば復号MDCT係数列^X(0),^X(1),…,^X(N-1)である復号周波数領域サンプル列の周期性成分に基づいてスペクトル包絡系列(非平滑化振幅スペクトル包絡系列)を変形することにより周期性統合包絡系列を生成してもよい。この場合、符号化部26の分散パラメータ決定部268、復号部34及び白色化スペクトル系列生成部43は、スペクトル包絡系列(非平滑化振幅スペクトル包絡系列)の代わりに周期性統合包絡系列を用いて上記と同様の処理を行う。周期性統合包絡系列は時系列信号のピッチ周期に起因するピーク付近での近似精度が良いため、周期性統合包絡系列を用いることにより符号化効率を上げることができる。
 例えば、周波数領域サンプル列の周期が大きいほど、スペクトル包絡系列のうちの少なくとも周波数領域サンプル列の周期の整数倍および周期の整数倍の近傍のサンプルの値を大きく変更して得られる系列を周期性統合包絡系列とする。また、時系列信号の周期性の程度が大きいほど、スペクトル包絡系列のうちの少なくとも周波数領域サンプル列の周期の整数倍および周期の整数倍の近傍のサンプルの値を大きく変更して得られる系列を周期性統合包絡系列としてもよい。また、周波数領域サンプル列の周期が大きいほど、スペクトル包絡系列うちの周波数領域サンプル列の周期の整数倍の近傍の多くのサンプルの値を変更して得られる系列を周期性統合包絡系列としてもよい。
 さらに、NとUを正の整数、Tを周波数領域サンプル列の周期性を有する成分の間隔、Lを間隔Tの小数点以下の桁数、vを1以上の整数、floor(・)を小数点以下を切り捨てて整数値を返す関数、Round(・)を小数点第一位を四捨五入して整数値を返す関数、T’=T×2、^H[0],…,^H[N-1]をスペクトル包絡系列、δをスペクトル包絡^H[n]と周期性包絡P[k]の混合比率を決める値とし、
 (U×T’)/2-v-1≦k≦(U×T’)/2+v-1
の範囲の整数kについて、
Figure JPOXMLDOC01-appb-M000031
のように周期性包絡系列P[1],…,P[N]を求め、求まった周期性包絡系列P[1],…,P[N]を用いて以下の式により定義される周期性統合包絡系列^HM[1],…,^H M[N]を求めてもよい。h及びPDは、上記の例以外の所定の値であってもよい。
Figure JPOXMLDOC01-appb-M000032
 スペクトル包絡^H[n]と周期性包絡P[k]の混合比率を決める値であるδは、符号化装置及び復号装置で予め定めておいてもよいし、符号化装置で定めたδの情報を示す符号を生成して復号装置に出力してもよい。後者の場合、復号装置は入力されたδの情報を示す符号を復号することによりδを求める。復号装置の非平滑化振幅スペクトル包絡系列生成部32は、求まったδを用いることにより符号化装置で生成された周期性統合包絡系列と同じ周期性統合包絡系列を求めることができる。
 図12のスペクトル包絡推定部2A、符号化部2B、周波数領域変換部21及び分割部28を1つの符号化部2Cとして捉えると、この符号化部2Cは所定の時間区間ごとのパラメータηに少なくとも基づいて特定される構成の符号化処理により、所定の時間区間ごとの時系列信号を符号化していると言える。
 また、図17の音響特徴量抽出部521、特定部522及び符号化部523を1つの符号化部2Dとして捉えると、この符号化部2Dは所定の時間区間ごとのパラメータηに少なくとも基づいて特定される構成の符号化処理により、所定の時間区間ごとの時系列信号を符号化していると言える。
 このように、符号化部2C及び符号化部2Dは、同様の処理をしていると考えることができる。
 上記説明した処理は、記載の順にしたがって時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
 また、各方法又は各装置における各種の処理をコンピュータによって実現してもよい。その場合、各方法又は各装置の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各方法又は各装置における各種の処理がコンピュータ上で実現される。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (23)

  1.  所定の時間区間ごとの時系列信号を周波数領域で符号化する符号化装置であって、
     パラメータηを正の数として、時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡スペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとして、上記所定の時間区間ごとに複数のパラメータηの何れかが選択可能又はパラメータηが可変とされており、
     上記所定の時間区間ごとのパラメータηに少なくとも基づいて特定される構成の符号化処理により、上記所定の時間区間ごとの時系列信号を符号化する符号化部と、
     を含む符号化装置。
  2.  請求項1の符号化装置であって、
     上記符号化部は、上記所定の時間区間ごとに、上記時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做したスペクトル包絡の推定により推定されたスペクトル包絡の値を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化処理により、上記時系列信号に対応する周波数領域サンプル列を符号化して符号を得て出力し、
     上記出力された符号に対応するパラメータηを表すパラメータ符号を出力する、
     符号化装置。
  3.  請求項2の符号化装置であって、
     上記所定の時間区間ごとにパラメータηを決定するパラメータ決定部を更に含み、
     上記符号化部は、上記決定されたパラメータηを用いて上記符号化処理を行うことにより符号を得て出力する、
     符号化装置。
  4.  請求項2の符号化装置であって、
     上記符号化部は、上記複数のパラメータηのそれぞれを用いて同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対して上記符号化処理を行うことにより複数の符号を得て、
     得られた符号の符号量及び得られた符号に対応する符号化歪の少なくとも一方に基づいて上記複数の符号の中の何れか1つの符号を選択して出力する、
     符号化装置。
  5.  請求項2の符号化装置であって、
     上記符号化部は、上記複数のパラメータηのそれぞれを用いて同一の所定の時間区間の時系列信号に対応する周波数領域サンプル列に対する上記符号化処理により得られる符号の推定符号量を得て、
     上記得られた推定符号量に基づいて上記複数のパラメータηの何れか1つを選択し、
     上記選択されたパラメータηを用いて上記符号化処理を行うことにより符号を得て出力する、
     符号化装置。
  6.  請求項2から5の何れかの符号化装置であって、
     上記周波数領域サンプル列を、上記周波数領域サンプル列の周期性成分に対応するサンプルから構成される第一周波数領域サンプル列と、上記周波数領域サンプル列の周期性成分に対応するサンプル以外のサンプルから構成される第二周波数領域サンプル列とに分割し、上記周期性成分に対応するサンプルを表す情報を補助情報として出力する分割部を更に含み、
     上記符号化装置は、第一周波数領域サンプル列及び第二周波数領域サンプル列のそれぞれについて上記符号化処理を行う、
     符号化装置。
  7.  請求項1の符号化装置であって、
     入力された時系列信号に対応するパラメータηを決定するパラメータ決定部と、
     少なくとも上記決定されたパラメータηに基づいて符号化処理の構成を特定し、上記符号化処理の構成を特定可能な特定符号を生成し出力する特定部と、を更に含み、
     上記符号化部は、上記特定された構成の符号化処理により、上記入力された時系列信号を符号化する、
     符号化装置。
  8.  請求項7の符号化装置において、
     上記特定部は、上記決定されたパラメータηだけではなく、上記入力された時系列信号の音の大きさを表す指標、音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性の度合いの少なくとも1つに更に基づいて符号化処理の構成を特定する、
     符号化装置。
  9.  請求項8の符号化装置において、
     上記符号化処理の構成を特定可能な特定符号は、上記入力された時系列信号に対応するパラメータηを表すパラメータ符号である、
     符号化装置。
  10.  所定の時間区間ごとの時系列信号を周波数領域で符号化する符号化装置であって、
     パラメータηを正の数として、上記所定の時間区間ごとに複数のパラメータηの何れかが選択可能又はパラメータηが可変とされており、
     上記所定の時間区間ごとに、上記時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做したスペクトル包絡の推定により推定されたスペクトル包絡の値を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化処理により、上記時系列信号に対応する周波数領域サンプル列を符号化して符号を得て出力する符号化部を含み、
     上記出力された符号に対応するパラメータηを表すパラメータ符号を出力する、
     符号化装置。
  11.  パラメータηを正の数として、パラメータηを表すパラメータ符号を、そのパラメータηに対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されるスペクトル包絡スペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータを表す符号として、
     入力されたパラメータ符号を復号してパラメータηを得るパラメータ符号復号部と、
     少なくとも上記得られたパラメータηに基づいて復号処理の構成を特定する特定部と、
     上記特定された構成の復号処理により、入力された符号の復号を行う復号部と、
     を含む復号装置。
  12.  請求項11の復号装置であって、
     上記復号装置は、周波数領域での復号により時系列信号に対応する周波数領域サンプル列を得る復号装置であり、
     入力された線形予測係数符号を復号することにより、線形予測係数に変換可能な係数を得る線形予測係数復号部と、
     上記得られたパラメータηを用いて、上記線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得る非平滑化スペクトル包絡系列生成部と、を更に含み、
     上記復号部は、上記非平滑化スペクトル包絡系列に基づいて変わるビット割り当て又は実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行うことにより上記時系列信号に対応する周波数領域サンプル列を得る、
     復号装置。
  13.  請求項11の復号装置において、
     入力された音響特徴符号を復号して、音の大きさを表す指標、音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性の度合いの少なくとも1つを得る音響特徴符号復号部を更に含み、
     上記特定部は、上記得られたパラメータηだけではなく、上記音の大きさを表す指標、音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性の少なくとも1つに更に基づいて復号処理の構成を特定する、
     復号装置。
  14.  請求項11又は13の復号装置において、
     無音区間であることを示す情報を受け取った場合には、上記復号部はノイズを発生させる、
     復号装置。
  15.  周波数領域での復号により時系列信号に対応する周波数領域サンプル列を得る復号装置であって、
     入力されたパラメータ符号を復号してパラメータηを得るパラメータ符号復号部と、
     入力された線形予測係数符号を復号することにより、線形予測係数に変換可能な係数を得る線形予測係数復号部と、
     上記得られたパラメータηを用いて、上記線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得る非平滑化スペクトル包絡系列生成部と、
     上記非平滑化スペクトル包絡系列に基づいて変わるビット割り当て又は実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行うことにより上記時系列信号に対応する周波数領域サンプル列を得る復号部と、
     を含む復号装置。
  16.  所定の時間区間ごとの時系列信号を周波数領域で符号化する符号化方法であって、
     パラメータηを正の数として、時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡スペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとして、上記所定の時間区間ごとに複数のパラメータηの何れかが選択可能又はパラメータηが可変とされており、
     上記所定の時間区間ごとのパラメータηに少なくとも基づいて特定される構成の符号化処理により、上記所定の時間区間ごとの時系列信号を符号化する符号化ステップと、
     を含む符号化方法。
  17.  請求項16の符号化方法であって、
     上記符号化ステップは、上記所定の時間区間ごとに、上記時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做したスペクトル包絡の推定により推定されたスペクトル包絡の値を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化処理により、上記時系列信号に対応する周波数領域サンプル列を符号化して符号を得て出力し、
     上記出力された符号に対応するパラメータηを表すパラメータ符号を出力する、
     符号化方法。
  18.  所定の時間区間ごとの時系列信号を周波数領域で符号化する符号化方法であって、
     パラメータηを正の数として、上記所定の時間区間ごとに複数のパラメータηの何れかが選択可能又はパラメータηが可変とされており、
     上記所定の時間区間ごとに、上記時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做したスペクトル包絡の推定により推定されたスペクトル包絡の値を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化処理により、上記時系列信号に対応する周波数領域サンプル列を符号化して符号を得て出力する符号化ステップを含み、
     上記出力された符号に対応するパラメータηを表すパラメータ符号を出力する、
     符号化方法。
  19.  パラメータηを正の数として、パラメータηを表すパラメータ符号を、そのパラメータηに対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されるスペクトル包絡スペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータを表す符号として、
     入力されたパラメータ符号を復号してパラメータηを得るパラメータ符号復号ステップと、
     少なくとも上記得られたパラメータηに基づいて復号処理の構成を特定する特定ステップと、
     上記特定された構成の復号処理により、入力された符号の復号を行う復号ステップと、
     を含む復号方法。
  20.  請求項19の復号方法であって、
     上記復号方法は、周波数領域での復号により時系列信号に対応する周波数領域サンプル列を得る復号方法であり、
     入力された線形予測係数符号を復号することにより、線形予測係数に変換可能な係数を得る線形予測係数復号ステップと、
     上記得られたパラメータηを用いて、上記線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得る非平滑化スペクトル包絡系列生成ステップと、
     上記非平滑化スペクトル包絡系列に基づいて変わるビット割り当て又は実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行うことにより上記時系列信号に対応する周波数領域サンプル列を得る復号ステップと、
     を含む復号方法。
  21.  周波数領域での復号により時系列信号に対応する周波数領域サンプル列を得る復号方法であって、
     入力されたパラメータ符号を復号してパラメータηを得るパラメータ符号復号ステップと、
     入力された線形予測係数符号を復号することにより、線形予測係数に変換可能な係数を得る線形予測係数復号ステップと、
     上記得られたパラメータηを用いて、上記線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得る非平滑化スペクトル包絡系列生成ステップと、
     上記非平滑化スペクトル包絡系列に基づいて変わるビット割り当て又は実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行うことにより上記時系列信号に対応する周波数領域サンプル列を得る復号ステップと、
     を含む復号方法。
  22.  請求項1から10の何れかの符号化装置又は請求項11から15の何れかの復号装置の各部としてコンピュータを機能させるためのプログラム。
  23.  請求項1から10の何れかの符号化装置又は請求項11から15の何れかの復号装置の各部としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2016/052365 2015-01-30 2016-01-27 符号化装置、復号装置、これらの方法、プログラム及び記録媒体 WO2016121826A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016572110A JP6387117B2 (ja) 2015-01-30 2016-01-27 符号化装置、復号装置、これらの方法、プログラム及び記録媒体
KR1020177020235A KR101996307B1 (ko) 2015-01-30 2016-01-27 부호화 장치, 복호 장치, 이들의 방법, 프로그램 및 기록 매체
US15/544,465 US10224049B2 (en) 2015-01-30 2016-01-27 Apparatuses and methods for encoding and decoding a time-series sound signal by obtaining a plurality of codes and encoding and decoding distortions corresponding to the codes
CN201680007279.3A CN107210042B (zh) 2015-01-30 2016-01-27 编码装置、编码方法以及记录介质
EP16743429.9A EP3252758B1 (en) 2015-01-30 2016-01-27 Encoding apparatus, decoding apparatus, and methods, programs and recording media for encoding apparatus and decoding apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015017691 2015-01-30
JP2015-017691 2015-01-30
JP2015081770 2015-04-13
JP2015-081770 2015-04-13

Publications (1)

Publication Number Publication Date
WO2016121826A1 true WO2016121826A1 (ja) 2016-08-04

Family

ID=56543436

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052365 WO2016121826A1 (ja) 2015-01-30 2016-01-27 符号化装置、復号装置、これらの方法、プログラム及び記録媒体

Country Status (6)

Country Link
US (1) US10224049B2 (ja)
EP (1) EP3252758B1 (ja)
JP (1) JP6387117B2 (ja)
KR (1) KR101996307B1 (ja)
CN (2) CN113921021A (ja)
WO (1) WO2016121826A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102070145B1 (ko) 2015-01-30 2020-01-28 니폰 덴신 덴와 가부시끼가이샤 파라미터 결정 장치, 방법, 프로그램 및 기록 매체
EP3270376B1 (en) * 2015-04-13 2020-03-18 Nippon Telegraph and Telephone Corporation Sound signal linear predictive coding
US11621010B2 (en) * 2018-03-02 2023-04-04 Nippon Telegraph And Telephone Corporation Coding apparatus, coding method, program, and recording medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08288852A (ja) * 1995-04-11 1996-11-01 Pioneer Electron Corp 量子化装置及び量子化方法
JP2006304270A (ja) * 2005-03-23 2006-11-02 Fuji Xerox Co Ltd 復号化装置、逆量子化方法及びこれらのプログラム
WO2012046685A1 (ja) * 2010-10-05 2012-04-12 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、記録媒体

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5651090A (en) * 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
US6714907B2 (en) * 1998-08-24 2004-03-30 Mindspeed Technologies, Inc. Codebook structure and search for speech coding
JP2002055699A (ja) * 2000-08-10 2002-02-20 Mitsubishi Electric Corp 音声符号化装置および音声符号化方法
JP3590342B2 (ja) * 2000-10-18 2004-11-17 日本電信電話株式会社 信号符号化方法、装置及び信号符号化プログラムを記録した記録媒体
DE60126149T8 (de) * 2000-11-27 2008-01-31 Nippon Telegraph And Telephone Corp. Verfahren, einrichtung und programm zum codieren und decodieren eines akustischen parameters und verfahren, einrichtung und programm zum codieren und decodieren von klängen
US6871176B2 (en) * 2001-07-26 2005-03-22 Freescale Semiconductor, Inc. Phase excited linear prediction encoder
CN100394693C (zh) * 2005-01-21 2008-06-11 华中科技大学 一种变长码的编码和解码方法
JPWO2007037359A1 (ja) * 2005-09-30 2009-04-16 パナソニック株式会社 音声符号化装置および音声符号化方法
US7813563B2 (en) * 2005-12-09 2010-10-12 Florida State University Research Foundation Systems, methods, and computer program products for compression, digital watermarking, and other digital signal processing for audio and/or video applications
KR100738109B1 (ko) * 2006-04-03 2007-07-12 삼성전자주식회사 입력 신호의 양자화 및 역양자화 방법과 장치, 입력신호의부호화 및 복호화 방법과 장치
CN101140759B (zh) * 2006-09-08 2010-05-12 华为技术有限公司 语音或音频信号的带宽扩展方法及系统
WO2009027606A1 (fr) * 2007-08-24 2009-03-05 France Telecom Codage/decodage par plans de symboles, avec calcul dynamique de tables de probabilites
US8856049B2 (en) * 2008-03-26 2014-10-07 Nokia Corporation Audio signal classification by shape parameter estimation for a plurality of audio signal samples
GB2466674B (en) * 2009-01-06 2013-11-13 Skype Speech coding
KR101542370B1 (ko) * 2011-02-16 2015-08-12 니폰 덴신 덴와 가부시끼가이샤 부호화 방법, 복호 방법, 부호화 장치, 복호 장치, 프로그램, 및 기록 매체
US9009036B2 (en) * 2011-03-07 2015-04-14 Xiph.org Foundation Methods and systems for bit allocation and partitioning in gain-shape vector quantization for audio coding
ES2704742T3 (es) * 2011-04-05 2019-03-19 Nippon Telegraph & Telephone Descodificación de una señal acústica
WO2012144128A1 (ja) * 2011-04-20 2012-10-26 パナソニック株式会社 音声音響符号化装置、音声音響復号装置、およびこれらの方法
WO2013176177A1 (ja) * 2012-05-23 2013-11-28 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、および記録媒体
CN107004422B (zh) 2014-11-27 2020-08-25 日本电信电话株式会社 编码装置、解码装置、它们的方法及程序
EP3270376B1 (en) * 2015-04-13 2020-03-18 Nippon Telegraph and Telephone Corporation Sound signal linear predictive coding

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08288852A (ja) * 1995-04-11 1996-11-01 Pioneer Electron Corp 量子化装置及び量子化方法
JP2006304270A (ja) * 2005-03-23 2006-11-02 Fuji Xerox Co Ltd 復号化装置、逆量子化方法及びこれらのプログラム
WO2012046685A1 (ja) * 2010-10-05 2012-04-12 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、記録媒体

Also Published As

Publication number Publication date
EP3252758A4 (en) 2018-09-05
JPWO2016121826A1 (ja) 2017-11-02
EP3252758B1 (en) 2020-03-18
CN107210042A (zh) 2017-09-26
KR101996307B1 (ko) 2019-07-04
US10224049B2 (en) 2019-03-05
CN107210042B (zh) 2021-10-22
JP6387117B2 (ja) 2018-09-05
CN113921021A (zh) 2022-01-11
EP3252758A1 (en) 2017-12-06
KR20170098278A (ko) 2017-08-29
US20180047401A1 (en) 2018-02-15

Similar Documents

Publication Publication Date Title
JP6422813B2 (ja) 符号化装置、復号装置、これらの方法及びプログラム
WO2012137617A1 (ja) 符号化方法、復号方法、符号化装置、復号装置、プログラム、記録媒体
JP5596800B2 (ja) 符号化方法、周期性特徴量決定方法、周期性特徴量決定装置、プログラム
JP6633787B2 (ja) 線形予測復号装置、方法、プログラム及び記録媒体
JP6457552B2 (ja) 符号化装置、復号装置、これらの方法及びプログラム
JP6392450B2 (ja) マッチング装置、判定装置、これらの方法、プログラム及び記録媒体
JP6595687B2 (ja) 符号化方法、符号化装置、プログラム、および記録媒体
CN112927703A (zh) 对线性预测系数量化的方法和装置及解量化的方法和装置
JP6387117B2 (ja) 符号化装置、復号装置、これらの方法、プログラム及び記録媒体
CN107430869B (zh) 参数决定装置、方法及记录介质
CN112820304A (zh) 解码装置、解码方法、解码程序、记录介质
JP5336942B2 (ja) 符号化方法、復号方法、符号化器、復号器、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16743429

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016572110

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15544465

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20177020235

Country of ref document: KR

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2016743429

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE