WO2016121824A1 - パラメータ決定装置、方法、プログラム及び記録媒体 - Google Patents

パラメータ決定装置、方法、プログラム及び記録媒体 Download PDF

Info

Publication number
WO2016121824A1
WO2016121824A1 PCT/JP2016/052362 JP2016052362W WO2016121824A1 WO 2016121824 A1 WO2016121824 A1 WO 2016121824A1 JP 2016052362 W JP2016052362 W JP 2016052362W WO 2016121824 A1 WO2016121824 A1 WO 2016121824A1
Authority
WO
WIPO (PCT)
Prior art keywords
parameter
unit
sequence
parameter determination
linear prediction
Prior art date
Application number
PCT/JP2016/052362
Other languages
English (en)
French (fr)
Inventor
守谷 健弘
優 鎌本
登 原田
弘和 亀岡
亮介 杉浦
Original Assignee
日本電信電話株式会社
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社, 国立大学法人東京大学 filed Critical 日本電信電話株式会社
Priority to EP16743427.3A priority Critical patent/EP3252768B1/en
Priority to EP20185357.9A priority patent/EP3751565B1/en
Priority to CN201680007107.6A priority patent/CN107430869B/zh
Priority to KR1020177019110A priority patent/KR102070145B1/ko
Priority to US15/544,452 priority patent/US10276186B2/en
Priority to JP2016572109A priority patent/JP6499206B2/ja
Publication of WO2016121824A1 publication Critical patent/WO2016121824A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/221Cosine transform; DCT [discrete cosine transform], e.g. for use in lossy audio compression such as MP3
    • G10H2250/225MDCT [Modified discrete cosine transform], i.e. based on a DCT of overlapping data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/571Waveform compression, adapted for music synthesisers, sound banks or wavetables
    • G10H2250/575Adaptive MDCT-based compression, e.g. using a hybrid subband-MDCT, as in ATRAC
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • H03M7/4012Binary arithmetic codes

Definitions

  • the present invention relates to a technique for determining parameters representing characteristics of a time-series signal such as a sound signal in a technique for encoding a time-series signal such as a sound signal.
  • a parameter such as LSP is known as a parameter representing the characteristics of a time-series signal such as a sound signal (see Non-Patent Document 1, for example).
  • LSP Since LSP is multi-order, it may be difficult to use it directly for sound classification or interval estimation. For example, since the LSP is multi-order, it cannot be said that processing based on a threshold using the LSP is easy.
  • This parameter ⁇ is an encoding of an arithmetic code in an encoding system that arithmetically encodes a quantized value of a frequency domain coefficient using a linear prediction envelope such as that used in the 3GPP EVS (Enhanced Voice Services) standard, for example. It is a shape parameter that determines the probability distribution to which the object belongs.
  • the parameter ⁇ is related to the distribution of the encoding target, and if the parameter ⁇ is appropriately determined, efficient encoding and decoding can be performed.
  • the parameter ⁇ can be an index representing the characteristics of the time series signal.
  • the parameter ⁇ can be used for technologies other than the above-described encoding processing, for example, audio-acoustic related technologies such as sound classification and sound section estimation.
  • the parameter ⁇ is a first-order value
  • the process based on the threshold using the parameter ⁇ is easier than the process based on the threshold using the LSP. Therefore, the parameter ⁇ can be easily used for sound classification and section estimation.
  • An object of the present invention is to provide a parameter determination apparatus, method, program, and recording medium for determining the parameter ⁇ .
  • the absolute value of the frequency domain sample sequence corresponding to the time-series signal is obtained using the parameter ⁇ 0 and the parameter ⁇ as positive numbers, and using the parameter ⁇ 0 determined by a predetermined method.
  • Spectral envelope estimator that estimates the spectral envelope by assuming the value ⁇ 0 to be the power spectrum, and whitened spectral sequence generation that obtains a whitened spectral sequence that is a sequence obtained by dividing the frequency domain sample sequence by the spectral envelope
  • a parameter acquisition unit that obtains a parameter ⁇ that approximates the histogram of the whitened spectrum series using a generalized Gaussian distribution having the parameter ⁇ as a shape parameter.
  • Parameter ⁇ can be determined.
  • the block diagram for demonstrating the example of a parameter determination apparatus The flowchart for demonstrating the example of the parameter determination method. The figure for demonstrating generalized Gaussian distribution.
  • the block diagram for demonstrating the example of an encoding apparatus The flowchart for demonstrating the example of the encoding method.
  • the flowchart for demonstrating the example of a process of an encoding part The block diagram for demonstrating the example of an encoding part.
  • the flowchart for demonstrating the example of a decoding method The flowchart for demonstrating the example of a process of a decoding part.
  • the block diagram for demonstrating the example of a sound classification device The flowchart for demonstrating the example of a sound classification method.
  • the parameter determination device includes, for example, a frequency domain conversion unit 41, a spectrum envelope estimation unit 42, a whitened spectrum sequence generation unit 43, and a parameter acquisition unit 44.
  • the spectrum envelope estimation unit 42 includes, for example, a linear prediction analysis unit 421 and a non-smoothed amplitude spectrum envelope sequence generation unit 422.
  • FIG. 2 shows an example of each process of the parameter determination method realized by this parameter determination apparatus.
  • the time domain sound signal which is a time series signal, is input to the frequency domain transform unit 41.
  • Examples of sound signals are voice digital signals or acoustic digital signals.
  • the frequency domain conversion unit 41 converts the input time domain sound signal into N frequency MDCT coefficient sequences X (0), X (1),..., X (N ⁇ Convert to 1). N is a positive integer.
  • the obtained MDCT coefficient sequences X (0), X (1),..., X (N-1) are output to the spectrum envelope estimation unit 42 and the whitened spectrum sequence generation unit 43.
  • the subsequent processing is performed in units of frames.
  • the frequency domain conversion unit 41 obtains a frequency domain sample sequence corresponding to the sound signal, for example, an MDCT coefficient sequence (step C41).
  • the spectrum envelope estimation unit 42 receives the MDCT coefficient sequence X (0), X (1),..., X (N ⁇ 1) obtained by the frequency domain conversion unit 21.
  • the spectrum envelope estimation unit 42 Based on the parameter ⁇ 0 determined by a predetermined method, the spectrum envelope estimation unit 42 performs spectrum envelope estimation using the absolute value ⁇ 0 of the frequency domain sample sequence corresponding to the time-series signal as a power spectrum ( Step C42).
  • the estimated spectrum envelope is output to the whitened spectrum sequence generation unit 43.
  • the spectrum envelope estimation unit 42 estimates the spectrum envelope by generating a non-smoothed amplitude spectrum envelope sequence, for example, by processing of a linear prediction analysis unit 421 and a non-smoothed amplitude spectrum envelope sequence generation unit 422 described below. .
  • the parameter ⁇ 0 is determined by a predetermined method.
  • ⁇ 0 is a predetermined number greater than zero.
  • ⁇ 0 1.
  • the frame before the frame for which the current parameter ⁇ is to be obtained (hereinafter referred to as the current frame) is, for example, a frame before the current frame and in the vicinity of the current frame.
  • the frame in the vicinity of the current frame is, for example, a frame immediately before the current frame.
  • ⁇ Linear prediction analysis unit 421 MDCT coefficient sequences X (0), X (1),..., X (N ⁇ 1) obtained by the frequency domain transform unit 41 are input to the linear prediction analysis unit 421.
  • the linear prediction analysis unit 421 uses the MDCT coefficient sequence X (0), X (1),..., X (N-1) to define ⁇ R (0), ⁇ R defined by the following equation (C1). (1),..., ⁇ R (N-1) are subjected to linear prediction analysis to generate linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p, and the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,. ⁇ p is encoded to generate a linear prediction coefficient code and quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p which are quantized linear prediction coefficients corresponding to the linear prediction coefficient code.
  • the generated quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the non-smoothed spectrum envelope sequence generation unit 422.
  • the linear prediction analyzer 421 first MDCT coefficients X (0), X (1 ), ..., X (N-1) of the inverse Fourier that the eta 0 squared regarded as a power spectrum of the absolute value Time domain corresponding to the absolute value of the MDCT coefficient sequence X (0), X (1), ..., X (N-1) to the ⁇ th power Pseudo correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1), which are the signal sequences. Then, the linear prediction analysis unit 421 performs linear prediction analysis using the obtained pseudo correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1) to obtain a linear prediction coefficient.
  • ⁇ 1 , ⁇ 2 ,..., ⁇ p are generated.
  • the linear prediction analysis unit 421 encodes the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p so as to encode a linear prediction coefficient code and a quantized linear prediction coefficient corresponding to the linear prediction coefficient code.
  • ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are obtained.
  • Linear prediction coefficients ⁇ 1, ⁇ 2, ..., ⁇ p is, MDCT coefficient sequence X (0), X (1 ), ..., and the eta 0 square of the absolute value of X (N-1) was regarded as a power spectrum It is a linear prediction coefficient corresponding to the time domain signal.
  • the generation of the linear prediction coefficient code by the linear prediction analysis unit 421 is performed by, for example, a conventional encoding technique.
  • the conventional encoding technique is, for example, an encoding technique in which a code corresponding to the linear prediction coefficient itself is a linear prediction coefficient code, and a code corresponding to the LSP parameter by converting the linear prediction coefficient into an LSP parameter.
  • an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code for example, an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code.
  • the linear prediction analysis unit 421 obtains a pseudo correlation function signal sequence obtained by performing an inverse Fourier transform assuming that the absolute value of the absolute value of the frequency domain sample sequence, which is an MDCT coefficient sequence, is a power spectrum, for example. Then, a linear prediction analysis is performed to generate a coefficient that can be converted into a linear prediction coefficient (step C421).
  • the linear prediction analysis unit 421 may not generate a linear prediction coefficient code.
  • ⁇ Non-smoothed Amplitude Spectrum Envelope Sequence Generation Unit 422 Quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 421 are input to the unsmoothed amplitude spectrum envelope sequence generation unit 422.
  • Textured amplitude spectral envelope sequence generation unit 422 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ is the sequence of the amplitude spectrum envelope corresponding to p textured amplitude spectral envelope sequence ⁇ H ( 0), ⁇ H (1), ..., ⁇ H (N-1) are generated.
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is output to the whitened spectrum sequence generation unit 43.
  • Textured amplitude spectral envelope sequence generation unit 422 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., using the ⁇ beta p, unsmoothed amplitude spectral envelope sequence ⁇ H (0), ⁇ H ( 1),..., ⁇ H (N-1) as unsmoothed amplitude spectrum envelope sequence defined by equation (C2) ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) Is generated.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 422 performs linear prediction analysis on the unsmoothed spectrum envelope sequence that is a sequence obtained by raising the amplitude spectrum envelope sequence corresponding to the pseudo correlation function signal sequence to the 1 / ⁇ 0 power.
  • the spectral envelope is estimated by obtaining the coefficient based on the coefficient that can be converted into the linear prediction coefficient generated by the unit 421 (step C422).
  • the whitened spectrum sequence generation unit 43 includes an MDCT coefficient sequence X (0), X (1),..., X (N-1) obtained by the frequency domain conversion unit 41 and a non-smoothed amplitude spectrum envelope generation unit 422.
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is input.
  • the whitened spectrum sequence generation unit 43 converts each coefficient of the MDCT coefficient sequence X (0), X (1),..., X (N-1) into a corresponding non-smoothed amplitude spectrum envelope sequence ⁇ H (0), By dividing each value of ⁇ H (1), ..., ⁇ H (N-1), the whitened spectrum series X W (0), X W (1), ..., X W (N-1) Generate.
  • the generated whitening spectrum series X W (0), X W (1),..., X W (N ⁇ 1) are output to the parameter acquisition unit 44.
  • k the coefficients X (()) of the MDCT coefficient sequence X (0), X (1),.
  • k the coefficients X (()) of the MDCT coefficient sequence X (0), X (1),.
  • ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) values ⁇ H (k) the whitened spectrum sequence X
  • the whitened spectrum sequence generation unit 43 obtains a whitened spectrum sequence that is a sequence obtained by dividing a frequency domain sample sequence that is an MDCT coefficient sequence, for example, by a spectrum envelope that is an unsmoothed amplitude spectrum envelope sequence, for example ( Step C43).
  • the parameter acquisition unit 44 receives the whitened spectrum series X W (0), X W (1),..., X W (N ⁇ 1) generated by the whitened spectrum series generating unit 43.
  • the parameter acquisition unit 44 approximates the histogram of the whitened spectrum series X W (0), X W (1),..., X W (N ⁇ 1) with the generalized Gaussian distribution having the parameter ⁇ as a shape parameter. Is obtained (step C44).
  • the parameter acquisition unit 44 is a distribution of histograms in which the generalized Gaussian distribution having the parameter ⁇ as a shape parameter is a whitened spectrum series X W (0), X W (1), ..., X W (N-1).
  • the parameter ⁇ that is close to is determined.
  • the generalized Gaussian distribution with the parameter ⁇ as a shape parameter is defined as follows, for example.
  • is a gamma function.
  • is a parameter corresponding to the variance.
  • ⁇ obtained by the parameter acquisition unit 44 is defined by the following equation (C3), for example.
  • F ⁇ 1 is an inverse function of the function F. This equation is derived by the so-called moment method.
  • the parameter acquisition unit 44 inputs the value of m 1 / ((m 2 ) 1/2 ) into the formulated inverse function F ⁇ 1 .
  • the parameter ⁇ can be obtained by calculating the output value.
  • the parameter acquisition unit 44 calculates, for example, the first method or the second method described below in order to calculate the value of ⁇ defined by the equation (C3).
  • the parameter ⁇ may be obtained by
  • a first method for obtaining the parameter ⁇ will be described.
  • the parameter obtaining unit 44 based on the whitened spectrum sequence to calculate the m 1 / ((m 2) 1/2), a plurality of different which had been prepared beforehand, corresponding to the eta F ⁇ corresponding to F ( ⁇ ) closest to the calculated m 1 / ((m 2 ) 1/2 ) is obtained with reference to the pair of ( ⁇ ).
  • a plurality of different pairs of F ( ⁇ ) corresponding to ⁇ prepared in advance are stored in advance in the storage unit 441 of the parameter acquisition unit 44.
  • the parameter acquisition unit 44 refers to the storage unit 441, finds F ( ⁇ ) closest to the calculated m 1 / ((m 2 ) 1/2 ), and stores ⁇ corresponding to the found F ( ⁇ ). Read from the unit 441 and output.
  • the approximate curve function of the inverse function F ⁇ 1 is set as, for example, ⁇ F ⁇ 1 represented by the following formula (C3 ′), and the parameter acquisition unit 44 uses m 1 / ((m 2 ) 1/2 ) is calculated, and ⁇ is calculated by calculating the output value when m 1 / ((m 2 ) 1/2 ) calculated in the approximate curve function ⁇ F -1 is input.
  • the approximate curve function ⁇ F -1 may be a monotonically increasing function whose output is a positive value in the domain to be used.
  • ⁇ obtained by the parameter acquisition unit 44 is not an expression (C3) but an expression (C3) using positive integers q1 and q2 determined in advance as in an expression (C3 ′′) (where q1 ⁇ q2). It may be defined by a generalized formula.
  • can be obtained by the same method as that when ⁇ is defined by equation (C3). That is, the parameter acquisition unit 44 calculates a value m q1 / ((m q2 ) q1 / q2 ) based on the q 1st moment m q1 and the q 2nd moment m q2 based on the whitened spectrum series. Then, for example, as in the first and second methods described above, the calculated m q1 / ((() by referring to a plurality of different pairs of F ′ ( ⁇ ) corresponding to ⁇ prepared in advance.
  • is a value based on two different moments m q1 and m q2 having different dimensions.
  • the value of the moment with the lower dimension or a value based on this (hereinafter referred to as the former) and the value of the moment with the higher dimension or ⁇ may be obtained based on the value of the ratio based on the value (hereinafter referred to as the latter), the value based on the value of this ratio, or the value obtained by dividing the former by the latter.
  • the value based on the moment for example, is that the m Q a Q to the moment and m as a given real number.
  • may be obtained by inputting these values into the approximate curve function ⁇ F- 1 .
  • the approximate curve function to F ′ ⁇ 1 may be a monotonically increasing function whose output is a positive value in the domain to be used, as described above.
  • the parameter ⁇ obtained by the parameter determination device and method can be an index representing the characteristics of the time series signal.
  • the parameter determination apparatus and method can be used for audio-acoustic related technologies such as encoding processing, decoding processing, sound classification, and sound section estimation.
  • the encoding device includes a frequency domain transform unit 21, a linear prediction analysis unit 22, a non-smoothed amplitude spectrum envelope sequence generation unit 23, a smoothed amplitude spectrum envelope sequence generation unit 24, and an envelope.
  • a normalization unit 25 an encoding unit 26, and a parameter determination device 27 are provided.
  • An example of each process of the encoding method realized by this encoding apparatus is shown in FIG.
  • the parameter determination device 27 is the parameter determination device illustrated in FIG. 1 described above.
  • the parameter determination device 27 receives a time-domain sound signal that is a time-series signal. Examples of sound signals are voice digital signals or acoustic digital signals.
  • the parameter determination device 27 determines the parameter ⁇ by the above-described processing based on the input time series signal (step A7).
  • the determined ⁇ is output to the linear prediction analysis unit 22, the non-smoothed amplitude spectrum envelope estimation unit 23, and the smoothed amplitude spectrum envelope estimation unit 24.
  • the parameter determination device 27 generates a parameter code by encoding the determined ⁇ .
  • the generated parameter code is transmitted to the decoding device.
  • the frequency domain converter 21 receives a sound signal that is a time-series signal in the time domain.
  • sound signals are voice digital signals or acoustic digital signals.
  • the frequency domain transform unit 21 converts the input time domain sound signal into N frequency MDCT coefficient sequences X (0), X (1),..., X (N ⁇ 1) (step A1). N is a positive integer.
  • the obtained MDCT coefficient sequences X (0), X (1),..., X (N-1) are output to the linear prediction analysis unit 22 and the envelope normalization unit 25.
  • the subsequent processing is performed in units of frames.
  • the frequency domain conversion unit 21 obtains a frequency domain sample sequence corresponding to the sound signal, for example, an MDCT coefficient sequence.
  • the linear prediction analysis unit 22 receives the MDCT coefficient sequence X (0), X (1),..., X (N-1) obtained by the frequency domain conversion unit 21.
  • the linear prediction analysis unit 22 uses the MDCT coefficient sequence X (0), X (1),..., X (N-1) to define ⁇ R (0), ⁇ R defined by the following equation (A7): (1),..., ⁇ R (N-1) are subjected to linear prediction analysis to generate linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p, and the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,. Encode ⁇ p to generate linear prediction coefficient code and quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p , which are quantized linear prediction coefficients corresponding to the linear prediction coefficient code ( Step A2).
  • the generated quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the non-smoothed spectrum envelope sequence generation unit 23 and the smoothed amplitude spectrum envelope sequence generation unit 24.
  • the energy ⁇ 2 of the prediction residual is calculated in the course of the linear prediction analysis process.
  • the calculated prediction residual energy ⁇ 2 is output to the dispersion parameter determination unit 268.
  • the generated linear prediction coefficient code is transmitted to the decoding device.
  • the linear prediction analysis unit 22 firstly performs an inverse Fourier transform in which the absolute value of the MDCT coefficient sequence X (0), X (1),. , That is, in the time domain corresponding to the absolute value of MDCT coefficient sequence X (0), X (1), ..., X (N-1) to the ⁇ th power A pseudo-correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1) which is a signal string is obtained. Then, the linear prediction analysis unit 22 performs linear prediction analysis using the obtained pseudo correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1) to obtain a linear prediction coefficient.
  • ⁇ 1 , ⁇ 2 ,..., ⁇ p are generated.
  • the linear prediction analysis unit 22 encodes the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p so as to encode the linear prediction coefficient code and the quantized linear prediction coefficient corresponding to the linear prediction coefficient code.
  • ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are obtained.
  • the linear prediction coefficients ⁇ 1 , ⁇ 2 , ..., ⁇ p are obtained when the absolute value of the MDCT coefficient sequence X (0), X (1), ..., X (N-1) is considered as the power spectrum Is a linear prediction coefficient corresponding to a signal in the time domain.
  • the generation of the linear prediction coefficient code by the linear prediction analysis unit 22 is performed by, for example, a conventional encoding technique.
  • the conventional encoding technique is, for example, an encoding technique in which a code corresponding to the linear prediction coefficient itself is a linear prediction coefficient code, and a code corresponding to the LSP parameter by converting the linear prediction coefficient into an LSP parameter.
  • an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code for example, an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code.
  • a code corresponding to a linear prediction coefficient itself is a linear prediction coefficient code
  • a plurality of quantized linear prediction coefficient candidates are determined in advance, and each candidate is stored in association with a linear prediction coefficient code in advance.
  • any one of candidates is determined as a quantized linear prediction coefficient for the generated linear prediction coefficient, and a quantized linear prediction coefficient and a linear prediction coefficient code are obtained.
  • the linear prediction analysis unit 22 uses, for example, a pseudo correlation function signal sequence obtained by performing an inverse Fourier transform in which the absolute value of the frequency domain sequence, which is an MDCT coefficient sequence, is regarded as the power spectrum. Then, a linear prediction analysis is performed to generate a coefficient that can be converted into a linear prediction coefficient.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 23 receives the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 22.
  • Textured amplitude spectral envelope sequence generating unit 23 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ is the sequence of the amplitude spectrum envelope corresponding to p textured amplitude spectral envelope sequence ⁇ H ( 0), ⁇ H (1),..., ⁇ H (N-1) are generated (step A3).
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is output to the encoding unit 26.
  • Textured amplitude spectral envelope sequence generating unit 23 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., using the ⁇ beta p, unsmoothed amplitude spectral envelope sequence ⁇ H (0), ⁇ H ( 1), ..., ⁇ H (N-1), the unsmoothed amplitude spectrum envelope sequence defined by equation (A2) ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) Is generated.
  • the non-smoothed amplitude spectrum envelope sequence generation unit 23 is a sequence obtained by raising the amplitude spectrum envelope sequence corresponding to the coefficient that can be converted into the linear prediction coefficient generated by the linear prediction analysis unit 22 to the 1 / ⁇ power.
  • the spectral envelope is estimated by obtaining a non-smoothed spectral envelope sequence.
  • the sequence obtained by raising c to a power of a sequence composed of a plurality of values, where c is an arbitrary number is a sequence composed of values obtained by raising each of the plurality of values to the c-th power.
  • a series obtained by raising the amplitude spectrum envelope series to the power of 1 / ⁇ is a series constituted by values obtained by raising each coefficient of the amplitude spectrum envelope to the power of 1 / ⁇ .
  • the 1 / ⁇ power processing by the non-smoothed amplitude spectrum envelope sequence generation unit 23 is caused by processing in which the absolute value ⁇ power of the frequency domain sample sequence is regarded as a power spectrum performed by the linear prediction analysis unit 22. It is. That is, the process of the 1 / ⁇ power by the non-smoothed amplitude spectrum envelope sequence generation unit 23 is performed by the process in which the absolute value of the frequency domain sample sequence performed by the linear prediction analysis unit 22 is regarded as the power spectrum as ⁇ . This is done to return the raised value to its original value.
  • ⁇ Smoothing Amplitude Spectrum Envelope Sequence Generation Unit 24 Quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 22 are input to the smoothed amplitude spectrum envelope sequence generation unit 24.
  • the generated smoothed amplitude spectrum envelope sequences ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N ⁇ 1) are output to the envelope normalization unit 25 and the encoding unit 26.
  • the smoothed amplitude spectrum envelope sequence generation unit 24 uses the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p and the correction coefficient ⁇ to smooth the smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1), the smoothed amplitude spectrum envelope sequence defined by equation (A3) ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) is generated.
  • the correction coefficient ⁇ is a predetermined constant less than 1, and the amplitude unevenness of the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1)
  • the coefficient for blunting in other words, the coefficient for smoothing the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1).
  • the envelope normalization unit 25 includes the MDCT coefficient sequence X (0), X (1),..., X (N-1) obtained by the frequency domain conversion unit 21 and the smoothed amplitude spectrum envelope generation unit 24. ⁇ H ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) are input.
  • the envelope normalization unit 25 converts each coefficient of the MDCT coefficient sequence X (0), X (1),..., X (N-1) into a corresponding smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H. Normalized MDCT coefficient sequence X N (0), X N (1), ..., X N (N-1 by normalizing with each value of ⁇ (1), ..., ⁇ H ⁇ (N-1) ) Is generated (step A5).
  • the generated normalized MDCT coefficient sequence is output to the encoding unit 26.
  • the encoding unit 26 includes normalized MDCT coefficient sequences X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25, an unsmoothed amplitude spectrum envelope generation unit. 23, the non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1), and the smoothed amplitude spectrum envelope sequence generated by the smoothed amplitude spectrum envelope generation unit 24 ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N ⁇ 1) and the average residual energy ⁇ 2 calculated by the linear prediction analysis unit 22 are input.
  • the encoding unit 26 performs encoding by performing, for example, the processing from step A61 to step A65 shown in FIG. 6 (step A6).
  • the encoding unit 26 obtains a global gain g corresponding to the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) (step A61), and the normalized MDCT coefficient sequence Quantized normalized coefficient series X, which is a series of integer values obtained by quantizing the result of dividing each coefficient of X N (0), X N (1), ..., X N (N-1) by global gain g Q (0), X Q (1), ..., X Q (N-1) is obtained (step A62), and the quantized normalized coefficient series X Q (0), X Q (1), ..., X Q Dispersion parameters ⁇ (0), ⁇ (1), ..., ⁇ (N-1) corresponding to each coefficient of (N-1) are set to global gain g and unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) and smoothed amplitude spectrum envelope series ⁇ H ⁇ (0), ⁇
  • the normalized amplitude spectrum envelope sequence in the above formula (A1) ⁇ H N (0 ), ⁇ H N (1), ..., ⁇ H N is unsmoothed amplitude spectral envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) values are converted into corresponding smoothed amplitude spectrum envelope sequences ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N- Divided by each value of 1), that is, obtained by the following equation (A8).
  • the generated integer signal code and gain code are output to the decoding device as codes corresponding to the normalized MDCT coefficient sequence.
  • step A61 to step A65 the encoding unit 26 determines a global gain g such that the number of bits of the integer signal code is equal to or smaller than the allocated bit number B, which is the number of bits allocated in advance, and as large as possible.
  • a function of generating a gain code corresponding to the determined global gain g and an integer signal code corresponding to the determined global gain g is realized.
  • step A63 the characteristic processing is included in step A63, where the global gain g and the quantized normalized coefficient series X Q (0), X Q (1 ),..., X Q (N-1) are encoded to obtain a code corresponding to the normalized MDCT coefficient sequence.
  • the encoding process itself includes various techniques including those described in Non-Patent Document 1. Known techniques exist. Two specific examples of the encoding process performed by the encoding unit 26 will be described below.
  • FIG. 7 shows a configuration example of the encoding unit 26 of the first specific example.
  • the encoding unit 26 of the first specific example includes a gain acquisition unit 261, a quantization unit 262, a dispersion parameter determination unit 268, an arithmetic encoding unit 269, and a gain encoding unit 265.
  • a gain acquisition unit 261 As shown in FIG. 7, the encoding unit 26 of the first specific example includes a gain acquisition unit 261, a quantization unit 262, a dispersion parameter determination unit 268, an arithmetic encoding unit 269, and a gain encoding unit 265.
  • the gain acquisition unit 261 receives the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25.
  • Gain acquisition unit 261 the normalized MDCT coefficients X N (0), X N (1), ..., from X N (N-1), the number of bits of the integer signal code is the number of bits in advance allocation
  • a global gain g that is equal to or less than the number of allocated bits B and that is as large as possible is determined and output (step S261).
  • the gain acquisition unit 261 has, for example, a negative correlation between the square root of the total energy of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) and the allocated bit number B.
  • the multiplication value with a certain constant is obtained as the global gain g and output.
  • the gain acquisition unit 261 calculates the total energy of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1), the number of allocated bits B, and the global gain g. , And a global gain g may be obtained and output by referring to the table.
  • the gain acquisition unit 261 obtains a gain for dividing all samples of the normalized frequency domain sample sequence, which is a normalized MDCT coefficient sequence, for example.
  • the obtained global gain g is output to the quantization unit 262 and the dispersion parameter determination unit 268.
  • the quantization unit 262 includes the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25 and the global obtained by the gain acquisition unit 261. Gain g is input.
  • the quantization unit 262 is a series of integer parts as a result of dividing each coefficient of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) by the global gain g. Quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) are obtained and output (step S262).
  • the quantization unit 262 divides each sample of the normalized frequency domain sample sequence, which is a normalized MDCT coefficient sequence, for example, by the gain and quantizes it to obtain a quantized normalized coefficient sequence.
  • the obtained quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) are output to the arithmetic coding unit 269.
  • the dispersion parameter determination unit 268 includes the global gain g obtained by the gain acquisition unit 261 and the non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), generated by the non-smoothed amplitude spectrum envelope generation unit 23. ..., ⁇ H (N-1), the smoothed amplitude spectrum envelope sequence generated by the smoothed amplitude spectrum envelope generator 24 ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1 ) And the energy ⁇ 2 of the prediction residual obtained by the linear prediction analysis unit 22 are input.
  • the dispersion parameter determination unit 268 calculates the global gain g, the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1), and the smoothed amplitude spectrum envelope sequence ⁇ H. From ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) and the prediction residual energy ⁇ 2 , the dispersion parameter sequence ⁇ is obtained by the above formulas (A1) and (A8) Each of the dispersion parameters (0), ⁇ (1),..., ⁇ (N ⁇ 1) is obtained and output (step S268).
  • the obtained dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) are output to the arithmetic coding unit 269.
  • the arithmetic coding unit 269 includes a quantized normalized coefficient sequence X Q (0), X Q (1),..., X Q (N ⁇ 1) obtained by the quantizing unit 262 and a dispersion parameter determining unit 268. The obtained dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) are input.
  • the arithmetic coding unit 269 uses a dispersion parameter sequence ⁇ (0) as a dispersion parameter corresponding to each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1). ), ⁇ (1), ..., ⁇ (N-1) using the respective dispersion parameters, the quantized normalized coefficient series X Q (0), X Q (1), ..., X Q (N-1 ) Is arithmetically encoded to obtain and output an integer signal code (step S269).
  • the arithmetic coding unit 269 performs generalized Gaussian distribution on each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) during arithmetic coding.
  • ⁇ (k), ⁇ ) is configured, and encoding is performed using the arithmetic code based on this configuration.
  • the expected value of the bit allocation to each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N-1) is expressed as the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1).
  • the obtained integer signal code is output to the decoding device.
  • Arithmetic coding may be performed across a plurality of coefficients in the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1).
  • the dispersion parameters of the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N-1) are unsmoothed amplitude spectrum envelopes as can be seen from equations (A1) and (A8). Since it is based on the sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1), the arithmetic coding unit 269 is based on the estimated spectral envelope (unsmoothed amplitude spectral envelope). Thus, it can be said that encoding is performed in which the bit allocation is substantially changed.
  • the gain encoder 265 receives the global gain g obtained by the gain acquisition unit 261.
  • the gain encoding unit 265 encodes the global gain g to obtain and output a gain code (step S265).
  • the generated integer signal code and gain code are output to the decoding device as codes corresponding to the normalized MDCT coefficient sequence.
  • Steps S261, S262, S268, S269, and S265 of this specific example 1 correspond to the above steps A61, A62, A63, A64, and A65, respectively.
  • FIG. 8 shows a configuration example of the encoding unit 26 of the specific example 2.
  • the encoding unit 26 of the specific example 2 includes a gain acquisition unit 261, a quantization unit 262, a dispersion parameter determination unit 268, an arithmetic encoding unit 269, a gain encoding unit 265, For example, a determination unit 266 and a gain update unit 267 are provided.
  • a gain acquisition unit 261 the encoding unit 26 of the specific example 2
  • a quantization unit 262 the encoding unit 26 of the specific example 2 includes a gain acquisition unit 261, a quantization unit 262, a dispersion parameter determination unit 268, an arithmetic encoding unit 269, a gain encoding unit 265,
  • a determination unit 266 and a gain update unit 267 are provided.
  • the gain acquisition unit 261 receives the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25.
  • the gain acquisition unit 261 is the number of bits allocated in advance from the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1).
  • a global gain g that is equal to or less than the number of allocated bits B and that is as large as possible is determined and output (step S261).
  • the gain acquisition unit 261 has, for example, a negative correlation between the square root of the total energy of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) and the allocated bit number B.
  • the multiplication value with a certain constant is obtained as the global gain g and output.
  • the obtained global gain g is output to the quantization unit 262 and the dispersion parameter determination unit 268.
  • the global gain g obtained by the gain acquisition unit 261 is an initial value of the global gain used by the quantization unit 262 and the dispersion parameter determination unit 268.
  • the quantization unit 262 includes a normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) generated by the envelope normalization unit 25 and a gain acquisition unit 261 or a gain update unit.
  • the global gain g obtained by 267 is input.
  • the quantization unit 262 is a series of integer parts as a result of dividing each coefficient of the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1) by the global gain g. quantized normalized haze coefficient sequence X Q (0), X Q (1), ..., X Q (N-1) the obtained output (step S262).
  • the global gain g used when the quantization unit 262 is executed for the first time is the global gain g obtained by the gain acquisition unit 261, that is, the initial value of the global gain.
  • the global gain g used when the quantizing unit 262 is executed for the second time or later is the global gain g obtained by the gain updating unit 267, that is, the updated value of the global gain.
  • the obtained quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) are output to the arithmetic coding unit 269.
  • the dispersion parameter determination unit 268 includes the global gain g obtained by the gain acquisition unit 261 or the gain update unit 267, and the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ generated by the unsmoothed amplitude spectrum envelope generation unit 23.
  • smoothed amplitude spectrum envelope sequence generated by the smoothed amplitude spectrum envelope generator 24 ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N ⁇ 1) and the energy ⁇ 2 of the prediction residual obtained by the linear prediction analysis unit 22 are input.
  • the dispersion parameter determination unit 268 calculates the global gain g, the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1), and the smoothed amplitude spectrum envelope sequence ⁇ H. ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) and, from the energy sigma 2 Metropolitan prediction residual, the above formula (A1), the dispersion parameter sequence by formula (A8) phi Each of the dispersion parameters (0), ⁇ (1),..., ⁇ (N ⁇ 1) is obtained and output (step S268).
  • the global gain g used when the dispersion parameter determination unit 268 is executed for the first time is the global gain g obtained by the gain acquisition unit 261, that is, the initial value of the global gain.
  • the global gain g used when the dispersion parameter determination unit 268 is executed for the second time or later is the global gain g obtained by the gain update unit 267, that is, the updated value of the global gain.
  • the obtained dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) are output to the arithmetic coding unit 269.
  • the arithmetic coding unit 269 includes a quantized normalized coefficient sequence X Q (0), X Q (1),..., X Q (N ⁇ 1) obtained by the quantizing unit 262 and a dispersion parameter determining unit 268. The obtained dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1) are input.
  • the arithmetic coding unit 269 uses a dispersion parameter sequence ⁇ (0) as a dispersion parameter corresponding to each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1). ), ⁇ (1), ..., ⁇ (N-1) using the respective dispersion parameters, the quantized normalized coefficient series X Q (0), X Q (1), ..., X Q (N-1 ) Are arithmetically encoded to obtain and output an integer signal code and a consumed bit number C that is the number of bits of the integer signal code (step S269).
  • the arithmetic coding unit 269 performs generalized Gaussian distribution on each coefficient of the quantized normalized coefficient series X Q (0), X Q (1),..., X Q (N ⁇ 1) during arithmetic coding. Bit allocation that is optimal when following f GG (X
  • the obtained integer signal code and the number C of consumed bits are output to the determination unit 266.
  • Quantized normalized Haze coefficient sequence X Q (0), X Q (1), ..., arithmetic coding may be performed over a plurality of coefficients in X Q (N-1).
  • the dispersion parameters of the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N-1) are unsmoothed amplitude spectrum envelopes as can be seen from equations (A1) and (A8). Since it is based on the sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1), the arithmetic coding unit 269 is based on the estimated spectral envelope (unsmoothed amplitude spectral envelope). Thus, it can be said that encoding is performed in which the bit allocation is substantially changed.
  • ⁇ Determining unit 266 The integer signal code obtained by the arithmetic coding unit 269 is input to the determination unit 266.
  • the determination unit 266 outputs an integer signal code when the number of gain updates is a predetermined number, and also instructs the gain encoding unit 265 to encode the global gain g obtained by the gain updating unit 267.
  • the gain update count is less than the predetermined count, the consumed bit count C measured by the arithmetic encoding section 264 is output to the gain update section 267 (step S266).
  • the gain updating unit 267 receives the number of consumed bits C measured by the arithmetic coding unit 264.
  • the gain updating unit 267 updates the global gain g value when the consumed bit number C is greater than the allocated bit number B, and outputs the updated value.
  • the gain g is updated to a smaller value, and the updated global gain g is output (step S267).
  • the updated global gain g obtained by the gain update unit 267 is output to the quantization unit 262 and the gain encoding unit 265.
  • the gain encoding unit 265 receives the output instruction from the determination unit 266 and the global gain g obtained by the gain update unit 267.
  • the gain encoder 265 encodes the global gain g according to the instruction signal to obtain and output a gain code (step 265).
  • the integer signal code output from the determination unit 266 and the gain code output from the gain encoding unit 265 are output to the decoding apparatus as codes corresponding to the normalized MDCT coefficient sequence.
  • step S267 performed last corresponds to the above step A61
  • steps S262, S263, S264, and S265 correspond to the above steps A62, A63, A64, and A65, respectively.
  • the encoding unit 26 may perform encoding that changes the bit allocation based on the estimated spectral envelope (non-smoothed amplitude spectral envelope), for example, by performing the following processing.
  • the encoding unit 26 first obtains a global gain g corresponding to the normalized MDCT coefficient sequence X N (0), X N (1),..., X N (N ⁇ 1), and normalizes the MDCT coefficient sequence X N. (0), X N (1), ..., X N (N-1) coefficients divided by the global gain g Quantized normalized coefficient series X Q ( Find 0), X Q (1), ..., X Q (N-1).
  • the quantized bit corresponding to each coefficient of this quantized normalized coefficient series X Q (0), X Q (1), ..., X Q (N-1) has a range in which X Q (k) is distributed.
  • the range can be determined from the envelope estimate.
  • the encoding unit 26 for example, the value of the normalized amplitude spectrum envelope sequence based on linear prediction as in the following equation (A9) ⁇ H N ( k) can be used to determine the range of X Q (k).
  • the encoding unit 26 determines the number of allocated bits by collecting a plurality of samples instead of assigning each sample, and the quantization unit 26 does not perform scalar quantization for each sample but also a vector for each vector including a plurality of samples. It is also possible to quantize.
  • X Q (k) can be changed from -2 b (k) -1 to 2 b (k ) Can take 2 b (k) types of integers up to -1 .
  • the encoding unit 26 encodes each sample with b (k) bits to obtain an integer signal code.
  • the generated integer signal code is output to the decoding device.
  • the encoding unit 26 encodes the global gain g to obtain and output a gain code.
  • the encoding unit 26 may perform encoding other than arithmetic encoding.
  • the decoding device includes a linear prediction coefficient decoding unit 31, a non-smoothed amplitude spectrum envelope sequence generating unit 32, a smoothed amplitude spectrum envelope sequence generating unit 33, and a decoding unit 34. And an envelope denormalization unit 35, a time domain conversion unit 36, and a parameter decoding unit 37, for example.
  • FIG. 9 An example of each process of the decoding method of the third embodiment realized by this decoding apparatus is shown in FIG.
  • the decoding apparatus receives at least the parameter code, the code corresponding to the normalized MDCT coefficient sequence, and the linear prediction coefficient code output from the encoding apparatus.
  • ⁇ Parameter decoding unit 37> The parameter code output from the encoding device is input to the parameter decoding unit 37.
  • the parameter decoding unit 37 obtains a decoding parameter ⁇ by decoding the parameter code.
  • the obtained decoding parameter ⁇ is output to the non-smoothed amplitude spectrum envelope sequence generation unit 32, the smoothed amplitude spectrum envelope sequence generation unit 33, and the decoding unit 34.
  • the linear prediction coefficient decoding unit 31 receives the linear prediction coefficient code output from the encoding device.
  • Linear prediction coefficient decoding unit 31 for each frame, the linear prediction coefficient code that has been entered for example by decoding by conventional decoding technique decodes the linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., obtaining ⁇ beta p ( Step B1).
  • the obtained decoded linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the non-smoothed amplitude spectrum envelope sequence generation unit 32 and the non-smoothed amplitude spectrum envelope sequence generation unit 33.
  • the conventional decoding technique is the same as the linear prediction coefficient quantized by decoding the linear prediction coefficient code when the linear prediction coefficient code is a code corresponding to the quantized linear prediction coefficient, for example.
  • linear prediction coefficients and LSP parameters can be converted to each other, and conversion between decoded linear prediction coefficients and decoded LSP parameters is performed according to the input linear prediction coefficient code and information necessary for subsequent processing. What is necessary is just to perform a process. From the above, what includes the decoding process of the linear prediction coefficient code and the conversion process performed as necessary is “decoding by a conventional decoding technique”.
  • the linear prediction coefficient decoding unit 31 decodes the input linear prediction coefficient code, and thereby performs inverse Fourier in which the absolute value of the frequency domain sequence corresponding to the time-series signal is regarded as the power spectrum as a power spectrum. A coefficient that can be converted into a linear prediction coefficient corresponding to the pseudo correlation function signal sequence obtained by performing the conversion is generated.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 32 includes the decoding parameter ⁇ obtained by the parameter decoding unit 37 and the decoded linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,. Is entered.
  • Textured amplitude spectral envelope sequence generating unit 32 decodes the linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ unsmoothed amplitude spectrum is a series of amplitude spectrum envelope corresponding to p envelope sequence ⁇ H (0 ), ⁇ H (1),..., ⁇ H (N-1) are generated by the above equation (A2) (step B2).
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is output to the decoding unit 34.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 32 converts the amplitude spectrum envelope sequence corresponding to the coefficient that can be converted into the linear prediction coefficient generated by the linear prediction coefficient decoding unit 31 to 1 /
  • a non-smoothed spectral envelope sequence which is a sequence raised to the power of ⁇ is obtained.
  • the smoothed amplitude spectrum envelope sequence generation unit 33 receives the decoding parameter ⁇ obtained by the parameter decoding unit 37 and the decoded linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p obtained by the linear prediction coefficient decoding unit 31. Entered.
  • Smoothing the amplitude spectral envelope sequence generating unit 33 decodes the linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., smoothing the amplitude is a sequence blunted amplitude of irregularities of the amplitude spectral envelope of the sequence corresponding to the ⁇ beta p spectral envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ a (N-1) produced by the equation a (3) above (step B3).
  • the generated smoothed amplitude spectrum envelope sequences ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) are output to the decoding unit 34 and the envelope denormalization unit 35.
  • the decoding unit 34 includes a decoding parameter ⁇ obtained by the parameter decoding unit 37, a code corresponding to the normalized MDCT coefficient sequence output by the encoding device, and a non-smoothed amplitude spectrum generated by the non-smoothed amplitude spectrum envelope generating unit 32.
  • Envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) and smoothed amplitude spectrum envelope sequence generated by the smoothed amplitude spectrum envelope generator 33 ⁇ H ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) is input.
  • the decryption unit 34 includes a dispersion parameter determination unit 342.
  • the decoding unit 34 performs decoding by performing, for example, the processing from step B41 to step B44 shown in FIG. 11 (step B4). That is, the decoding unit 34 decodes the gain code included in the code corresponding to the input normalized MDCT coefficient sequence for each frame to obtain the global gain g (step B41).
  • the dispersion parameter determination unit 342 of the decoding unit 34 includes a global gain g, a non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) and a smoothed amplitude spectrum envelope sequence.
  • the decoding unit 34 converts the integer signal code included in the code corresponding to the normalized MDCT coefficient sequence to arithmetic corresponding to each dispersion parameter of the dispersion parameter sequence ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1).
  • arithmetic decoding is performed to obtain decoded normalized coefficient series ⁇ X Q (0), ⁇ X Q (1), ..., ⁇ X Q (N-1) (step B43), and decoding normalized Coefficient sequence ⁇ X Q (0), ⁇ X Q (1), ..., ⁇ X Q (N-1) is multiplied by global gain g and decoded normalized MDCT coefficient sequence ⁇ X N (0), ⁇ X N (1),..., ⁇ X N (N-1) are generated (step B44).
  • the decoding unit 34 may perform decoding of the input integer signal code according to bit allocation that substantially changes based on the non-smoothed spectrum envelope sequence.
  • the decoding unit 34 When encoding is performed by the process described in [Modification of Encoding Unit 26], the decoding unit 34 performs, for example, the following process.
  • the decoding unit 34 decodes the gain code included in the code corresponding to the input normalized MDCT coefficient sequence for each frame to obtain the global gain g.
  • the dispersion parameter determination unit 342 of the decoding unit 34 includes a non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1),...
  • the decoding unit 34 obtains b (k) by Expression (A10) based on each dispersion parameter ⁇ (k) of the dispersion parameter series ⁇ (0), ⁇ (1),..., ⁇ (N ⁇ 1).
  • XQ (k) can be sequentially decoded with the number of bits b (k) and the normalized normalized coefficient sequence ⁇ X Q (0), ⁇ X Q (1),..., ⁇ X Q (N -1) is obtained, and the coefficients of the decoded normalized coefficient series ⁇ X Q (0), ⁇ X Q (1), ..., ⁇ X Q (N-1) are multiplied by the global gain g to obtain the decoding normal MDCT coefficient sequence ⁇ X N (0), ⁇ X N (1), ..., ⁇ X N (N-1) is generated.
  • the decoding unit 34 may perform decoding of the input integer signal code in accordance with bit allocation that changes based on the non-smoothed spectrum envelope sequence.
  • the generated decoded normalized MDCT coefficient sequence ⁇ X N (0), ⁇ X N (1),..., ⁇ X N (N ⁇ 1) is output to the envelope denormalization unit 35.
  • the envelope denormalization unit 35 includes a smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1), ..., ⁇ H ⁇ (N-1) generated by the smoothed amplitude spectrum envelope generation unit 33.
  • the decoding normalization MDCT coefficient sequence ⁇ X N (0), ⁇ X N (1),..., ⁇ X N (N-1) generated by the decoding unit 34 is input.
  • the envelope denormalization unit 35 uses the smoothed amplitude spectrum envelope sequence ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) to decode the normalized MDCT coefficient sequence ⁇ X
  • N (0), ⁇ X N (1), ..., ⁇ X N (N-1) the decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1), ..., ⁇ X (N-1) is generated (step B5).
  • the generated decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1), ..., ⁇ X (N-1) is output to the time domain conversion unit 36.
  • the envelope inverse normalization unit 35, k 0, 1, ..., a N-1, decoding the normalized MDCT coefficients ⁇ X N (0), ⁇ X N (1), ..., ⁇ X N (N -1) for each coefficient ⁇ X N (k), the smoothed amplitude spectrum envelope series ⁇ H ⁇ (0), ⁇ H ⁇ (1),..., ⁇ H ⁇ (N-1) envelope values ⁇ H
  • the time domain transform unit 36 receives the decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1),..., ⁇ X (N-1) generated by the envelope denormalization unit 35.
  • the time domain transform unit 36 transforms the decoded MDCT coefficient sequence ⁇ X (0), ⁇ X (1), ..., ⁇ X (N-1) obtained by the envelope denormalization unit 35 into the time domain for each frame.
  • a sound signal (decoded sound signal) in units of frames is obtained (step B6).
  • the decoding device obtains a time-series signal by decoding in the frequency domain.
  • the sound classification device includes, for example, a parameter determination device 51 and a determination unit 52 as shown in FIG.
  • the sound classification method is realized by the sound classification apparatus performing the following processing as illustrated in FIG.
  • the parameter determination device 51 is the parameter device described above, and determines the parameter ⁇ by the processing described above (step E1). The determined ⁇ is output to the determination unit 52.
  • the determination unit 52 classifies the section of the time-series signal corresponding to the parameter ⁇ as music, and otherwise Are classified as speech (step E2).
  • This sound classification apparatus and method is due to the property that the smaller the parameter ⁇ , the greater the continuity of the corresponding time series signal.
  • the parameter determination device or method may obtain the parameter ⁇ by loop processing. That is, the parameter determination apparatus or method uses the spectrum envelope estimation unit 42, the whitened spectrum sequence generation unit 43, and the parameter acquisition unit 44 to set the parameter ⁇ obtained by the parameter acquisition unit 44 as the parameter ⁇ 0 determined by a predetermined method. May be performed once more.
  • the parameter ⁇ obtained by the parameter acquisition unit 44 is output to the spectrum envelope estimation unit 42.
  • the spectrum envelope estimation unit 42 performs the same processing as the above-described processing based on ⁇ obtained by the parameter acquisition unit 44 and estimates the spectrum envelope.
  • the whitened spectrum sequence generation unit 43 Based on the newly estimated spectrum envelope, the whitened spectrum sequence generation unit 43 generates a whitened spectrum sequence by performing the same process as described above.
  • the parameter acquisition unit 44 performs a process similar to the process described above based on the newly generated whitened spectrum sequence to obtain the parameter ⁇ .
  • the processing of the spectrum envelope estimation unit 42, the whitened spectrum series generation unit 43, and the parameter acquisition unit 44 may be further performed a predetermined number of times ⁇ .
  • the spectrum envelope estimation unit 42 performs the spectrum envelope estimation unit 42, the whitened spectrum sequence generation unit 43, and the parameter until the absolute value of the difference between the parameter ⁇ obtained this time and the parameter ⁇ obtained last time is equal to or less than a predetermined threshold. You may repeat the process of the acquisition part 44. FIG.
  • the spectrum envelope estimation unit 2A is a frequency domain that is, for example, an MDCT coefficient sequence corresponding to a time series signal. It can be said that estimation of a spectrum envelope (unsmoothed amplitude spectrum envelope sequence) is performed by regarding the absolute value of the sequence as the power spectrum as a power spectrum.
  • “considered as a power spectrum” means to use a power of ⁇ where a power spectrum is normally used.
  • the linear prediction analysis unit 22 of the spectrum envelope estimation unit 2A performs, for example, a pseudo-correlation function obtained by performing an inverse Fourier transform in which the absolute value of the frequency domain sequence that is an MDCT coefficient sequence is regarded as the power spectrum. It can be said that a coefficient that can be converted into a linear prediction coefficient is obtained by performing a linear prediction analysis using the signal sequence. Further, the unsmoothed amplitude spectrum envelope sequence generation unit 23 of the spectrum envelope estimation unit 2A converts the amplitude spectrum envelope sequence corresponding to the coefficient that can be converted into the linear prediction coefficient obtained by the linear prediction analysis unit 22 to the 1 / ⁇ th power. It can be said that the spectral envelope is estimated by obtaining the non-smoothed spectral envelope sequence which is the obtained sequence.
  • the encoding unit 2B is a spectrum estimated by the spectrum envelope estimation unit 2A. It can be said that encoding is performed on each coefficient of a frequency domain sequence, which is an MDCT coefficient sequence, for example, by changing the bit allocation based on the envelope (non-smoothed amplitude spectrum envelope sequence) or changing the bit allocation substantially.
  • the decoding unit 3A is input according to a bit allocation that changes based on a non-smoothed spectrum envelope sequence or a bit allocation that changes substantially. It can be said that the frequency domain sample sequence corresponding to the time-series signal is obtained by decoding the integer signal code.
  • the processing described above is not only executed in time series in the order described, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processing.
  • each method or each apparatus may be realized by a computer.
  • the processing content of each method or each device is described by a program.
  • various processes in each method or each device are realized on the computer.
  • the program describing the processing contents can be recorded on a computer-readable recording medium.
  • a computer-readable recording medium for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.
  • this program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first stores a program recorded on a portable recording medium or a program transferred from a server computer in its storage unit. When executing the process, this computer reads the program stored in its own storage unit and executes the process according to the read program.
  • a computer may read a program directly from a portable recording medium and execute processing according to the program. Further, each time a program is transferred from the server computer to the computer, processing according to the received program may be executed sequentially.
  • the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition. It is good.
  • the program includes information provided for processing by the electronic computer and equivalent to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
  • each device is configured by executing a predetermined program on a computer, at least a part of these processing contents may be realized by hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

 パラメータ決定装置は、パラメータη及びパラメータηを正の数として、所定の方法で定められるパラメータηを用いて、時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做してスペクトル包絡の推定を行うスペクトル包絡推定部42と、スペクトル包絡で周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る白色化スペクトル系列生成部43と、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列のヒストグラムを近似するパラメータηを求めるパラメータ取得部44と、を備えている。

Description

パラメータ決定装置、方法、プログラム及び記録媒体
 この発明は、音信号などの時系列信号の符号化技術において、音信号等の時系列信号の特徴を表すパラメータを決定する技術に関する。
 音信号等の時系列信号の特徴を表すパラメータとして、LSP等のパラメータが知られている(例えば、非特許文献1参照)。
 LSPは、複数次なので直接的に音の分類や区間推定に使うのは扱いが難しい場合がある。例えば、LSPは複数次であるため、LSPを用いた閾値に基づく処理は容易とは言えない。
 ところで、公知とはなっていないが、発明者によりパラメータηが提案されている。このパラメータηは、例えば3GPP EVS(Enhanced Voice Services)規格で使われているような線形予測包絡を利用する周波数領域の係数の量子化値を算術符号化する符号化方式において、算術符号の符号化対象の属する確率分布を定める形状パラメータである。パラメータηは、符号化対象の分布と関連性を有しており、パラメータηを適宜定めると効率の良い符号化及び復号を行うことが可能である。
 また、パラメータηは、時系列信号の特徴を表す指標と成り得る。このため、パラメータηは、上記符号化処理以外の技術、例えば音の分類や音区間の推定等の音声音響関連技術に用いることができる。
 さらに、パラメータηは1次の値であるため、パラメータηを用いた閾値に基づく処理はLSPを用いた閾値に基づく処理と比較すると容易である。このため、パラメータηは、音の分類や区間推定に容易に用いることができる。
守谷健弘,「高圧縮音声符号化の必須技術:線スペクトル対(LSP)」,NTT技術ジャーナル,2014年9月,P.58-60
 パラメータηを決定する技術はこれまで提案されていなかった。
 本発明は、パラメータηを決定するパラメータ決定装置、方法、プログラム及び記録媒体を提供することを目的とする。
 本発明の一態様によるパラメータ決定装置によれば、パラメータη及びパラメータηを正の数として、所定の方法で定められるパラメータηを用いて、時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做してスペクトル包絡の推定を行うスペクトル包絡推定部と、スペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る白色化スペクトル系列生成部と、パラメータηを形状パラメータとする一般化ガウス分布が上記白色化スペクトル系列のヒストグラムを近似するパラメータηを求めるパラメータ取得部と、を備えている。
 パラメータηを決定することができる。
パラメータ決定装置の例を説明するためのブロック図。 パラメータ決定方法の例を説明するためのフローチャート。 一般化ガウス分布を説明するための図。 符号化装置の例を説明するためのブロック図。 符号化方法の例を説明するためのフローチャート。 符号化部の処理の例を説明するためのフローチャート。 符号化部の例を説明するためのブロック図。 符号化部の例を説明するためのブロック図。 本発明の復号装置の例を説明するためのブロック図。 復号方法の例を説明するためのフローチャート。 復号部の処理の例を説明するためのフローチャート。 音分類装置の例を説明するためのブロック図。 音分類方法の例を説明するためのフローチャート。
 [パラメータ決定装置及び方法]
 パラメータ決定装置の構成例を図1に示す。パラメータ決定装置は、図1に示すように、周波数領域変換部41と、スペクトル包絡推定部42と、白色化スペクトル系列生成部43と、パラメータ取得部44とを例えば備えている。スペクトル包絡推定部42は、線形予測分析部421及び非平滑化振幅スペクトル包絡系列生成部422を例えば備えている。例えばこのパラメータ決定装置により実現されるパラメータ決定方法の各処理の例を図2に示す。
 以下、図1の各部について説明する。
 <周波数領域変換部41>
 周波数領域変換部41には、時系列信号である時間領域の音信号が入力される。音信号の例は、音声ディジタル信号又は音響ディジタル信号である。
 周波数領域変換部41は、所定の時間長のフレーム単位で、入力された時間領域の音信号を周波数領域のN点のMDCT係数列X(0),X(1),…,X(N-1)に変換する。Nは正の整数である。
 得られたMDCT係数列X(0),X(1),…,X(N-1)は、スペクトル包絡推定部42及び白色化スペクトル系列生成部43に出力される。
 特に断りがない限り、以降の処理はフレーム単位で行われるものとする。
 このようにして、周波数領域変換部41は、音信号に対応する、例えばMDCT係数列である周波数領域サンプル列を求める(ステップC41)。
 <スペクトル包絡推定部42>
 スペクトル包絡推定部42には、周波数領域変換部21が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 スペクトル包絡推定部42は、所定の方法で定められるパラメータη0に基づいて、時系列信号に対応する周波数領域サンプル列の絶対値のη0乗をパワースペクトルとして用いたスペクトル包絡の推定を行う(ステップC42)。
 推定されたスペクトル包絡は、白色化スペクトル系列生成部43に出力される。
 スペクトル包絡推定部42は、例えば以下に説明する線形予測分析部421及び非平滑化振幅スペクトル包絡系列生成部422の処理により、非平滑化振幅スペクトル包絡系列を生成することによりスペクトル包絡の推定を行う。
 パラメータη0は所定の方法で定められるとする。例えば、η0を0より大きい所定の数とする。例えば、η0=1とする。また、現在パラメータηを求めようとしているフレームよりも前のフレームで求まったηを用いてもよい。現在パラメータηを求めようとしているフレーム(以下、現フレームとする。)よりも前のフレームとは、例えば現フレームのよりも前のフレームであって現フレームの近傍のフレームである。現フレームの近傍のフレームは、例えば現フレームの直前のフレームである。
 <線形予測分析部421>
 線形予測分析部421には、周波数領域変換部41が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 線形予測分析部421は、MDCT係数列X(0),X(1),…,X(N-1)を用いて、以下の式(C1)により定義される~R(0),~R(1),…,~R(N-1)を線形予測分析して線形予測係数β12,…,βpを生成し、生成された線形予測係数β12,…,βpを符号化して線形予測係数符号と線形予測係数符号に対応する量子化された線形予測係数である量子化線形予測係数^β1,^β2,…,^βpとを生成する。
Figure JPOXMLDOC01-appb-M000003
 生成された量子化線形予測係数^β1,^β2,…,^βpは、非平滑化スペクトル包絡系列生成部422に出力される。
 具体的には、線形予測分析部421は、まずMDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗をパワースペクトルと見做した逆フーリエ変換に相当する演算、すなわち式(C1)の演算を行うことにより、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη乗に対応する時間領域の信号列である擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を求める。そして、線形予測分析部421は、求まった擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を用いて線形予測分析を行って、線形予測係数β12,…,βpを生成する。そして、線形予測分析部421は、生成された線形予測係数β12,…,βpを符号化することにより、線形予測係数符号と、線形予測係数符号に対応する量子化線形予測係数^β1,^β2,…,^βpとを得る。
 線形予測係数β12,…,βpは、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗をパワースペクトルと見做したときの時間領域の信号に対応する線形予測係数である。
 線形予測分析部421による線形予測係数符号の生成は、例えば従来的な符号化技術によって行われる。従来的な符号化技術とは、例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をLSPパラメータに変換してLSPパラメータに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をPARCOR係数に変換してPARCOR係数に対応する符号を線形予測係数符号とする符号化技術などである。
 このようにして、線形予測分析部421は、例えばMDCT係数列である周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列を用いて線形予測分析を行い線形予測係数に変換可能な係数を生成する(ステップC421)。
 なお、パラメータ決定装置により生成されるパラメータが符号化以外に用いられる場合には、線形予測分析部421は線形予測係数符号の生成はしなくてもよい。
 <非平滑化振幅スペクトル包絡系列生成部422>
 非平滑化振幅スペクトル包絡系列生成部422には、線形予測分析部421が生成した量子化線形予測係数^β1,^β2,…,^βpが入力される。
 非平滑化振幅スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列である非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
 生成された非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)は、白色化スペクトル系列生成部43に出力される。
 非平滑化振幅スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpを用いて、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)として、式(C2)により定義される非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
Figure JPOXMLDOC01-appb-M000004
 このようにして、非平滑化振幅スペクトル包絡系列生成部422は、疑似相関関数信号列に対応する振幅スペクトル包絡の系列を1/η0乗した系列である非平滑化スペクトル包絡系列を線形予測分析部421により生成された線形予測係数に変換可能な係数に基づいて得ることによりスペクトル包絡の推定を行う(ステップC422)。
 <白色化スペクトル系列生成部43>
 白色化スペクトル系列生成部43には、周波数領域変換部41が得たMDCT係数列X(0),X(1),…,X(N-1)及び非平滑化振幅スペクトル包絡生成部422が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)が入力される。
 白色化スペクトル系列生成部43は、MDCT係数列X(0),X(1),…,X(N-1)の各係数を、対応する非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値で除算することにより、白色化スペクトル系列XW(0),XW(1),…,XW(N-1)を生成する。
 生成された白色化スペクトル系列XW(0),XW(1),…,XW(N-1)は、パラメータ取得部44に出力される。
 白色化スペクトル系列生成部43は、例えば、k=0,1,…,N-1として、MDCT係数列X(0),X(1),…,X(N-1)の各係数X(k)を非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値^H(k)で除算することにより、白色化スペクトル系列XW(0),XW(1),…,XW(N-1)の各値XW(k)を生成する。すなわち、k=0,1,…,N-1として、XW(k)=X(k)/^H(k)である。
 このようにして、白色化スペクトル系列生成部43は、例えば非平滑化振幅スペクトル包絡系列であるスペクトル包絡で例えばMDCT係数列である周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る(ステップC43)。
 <パラメータ取得部44>
 パラメータ取得部44には、白色化スペクトル系列生成部43が生成した白色化スペクトル系列XW(0),XW(1),…,XW(N-1)が入力される。
 パラメータ取得部44は、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列XW(0),XW(1),…,XW(N-1)のヒストグラムを近似するパラメータηを求める(ステップC44)。言い換えれば、パラメータ取得部44は、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列XW(0),XW(1),…,XW(N-1)のヒストグラムの分布に近くなるようなパラメータηを決定する。
 パラメータηを形状パラメータとする一般化ガウス分布は、例えば以下のように定義される。Γは、ガンマ関数である。
Figure JPOXMLDOC01-appb-M000005

 
 一般化ガウス分布は、形状パラメータであるηを変えることにより、図3のようにη=1の時はラプラス分布、η=2の時はガウス分布、といったように様々な分布を表現することができるものである。φは分散に対応するパラメータである。
 ここで、パラメータ取得部44が求めるηは、例えば以下の式(C3)により定義される。F-1は、関数Fの逆関数である。この式は、いわゆるモーメント法により導出されるものである。
Figure JPOXMLDOC01-appb-M000006
 逆関数F-1が定式化されている場合には、パラメータ取得部44は、定式化された逆関数F-1にm1/((m2)1/2)の値を入力したときの出力値を計算することによりパラメータηを求めることができる。
 逆関数F-1が定式化されていない場合には、パラメータ取得部44は、式(C3)で定義されるηの値を計算するために、例えば以下に説明する第一方法又は第二方法によりパラメータηを求めてもよい。
 パラメータηを求めるための第一方法について説明する。第一の方法では、パラメータ取得部44は、白色化スペクトル系列に基づいてm1/((m2)1/2)を計算し、予め用意しておいた異なる複数の、ηと対応するF(η)のペアを参照して、計算されたm1/((m2)1/2)に最も近いF(η)に対応するηを取得する。
 予め用意しておいた異なる複数の、ηと対応するF(η)のペアは、パラメータ取得部44の記憶部441に予め記憶しておく。パラメータ取得部44は、記憶部441参照して、計算されたm1/((m2)1/2)に最も近いF(η)を見つけ、見つかったF(η)に対応するηを記憶部441から読み込み出力する。
 計算されたm1/((m2)1/2)に最も近いF(η)とは、計算されたm1/((m2)1/2)との差の絶対値が最も小さくなるF(η)のことである。
 パラメータηを求めるための第二方法について説明する。第二の方法では、逆関数F-1の近似曲線関数を例えば以下の式(C3’)で表される~F-1として、パラメータ取得部44は、白色化スペクトル系列に基づいてm1/((m2)1/2)を計算し、近似曲線関数~F-1に計算されたm1/((m2)1/2)を入力したときの出力値を計算することによりηを求める。この近似曲線関数~F-1は使用する定義域において出力が正値となる単調増加関数であればよい。
Figure JPOXMLDOC01-appb-M000007
 なお、パラメータ取得部44が求めるηは、式(C3)ではなく、式(C3'')のように予め定めた正の整数q1及びq2を用いて(ただしq1<q2)式(C3)を一般化した式により定義されてもよい。
Figure JPOXMLDOC01-appb-M000008
 なお、ηが式(C3'')により定義される場合も、ηが式(C3)により定義されている場合と同様の方法により、ηを求めることができる。すなわち、パラメータ取得部44が、白色化スペクトル系列に基づいてそのq1次モーメントであるmq1とそのq2次モーメントであるmq2とに基づく値mq1/((mq2)q1/q2)を計算した後、例えば上記の第一及び第二の方法と同様、予め用意しておいた異なる複数の、ηと対応するF’(η)のペアを参照して、計算されたmq1/((mq2)q1/q2)に最も近いF’(η)に対応するηを取得するか、逆関数F’-1の近似曲線関数を~F’-1として、近似曲線関数~F-1に計算されたmq1/((mq2)q1/q2)を入力したときの出力値を計算してηを求めることができる。
 このようにηは次元が異なる2つの異なるモーメントmq1,mq2に基づく値であるとも言える。例えば、次元が異なる2つの異なるモーメントmq1,mq2のうち、次元が低い方のモーメントの値又はこれに基づく値(以下、前者とする。)と次元が高い方のモーメントの値又はこれに基づく値(以下、後者とする)との比の値、この比の値に基づく値、又は、前者を後者で割って得られる値に基づき、ηを求めてもよい。モーメントに基づく値とは、例えば、そのモーメントをmとしQを所定の実数としてmQのことである。また、これらの値を近似曲線関数~F-1に入力してηを求めてもよい。この近似曲線関数~F’-1は上記同様、使用する定義域において出力が正値となる単調増加関数であればよい。
 [パラメータ決定装置及び方法を用いた符号化装置、復号装置及びこれらの方法]
 パラメータ決定装置及び方法により求まったパラメータηは、時系列信号の特徴を表す指標と成り得る。このため、パラメータ決定装置及び方法は、例えば符号化処理、復号処理、音の分類や音区間の推定等の音声音響関連技術に用いることができる。
 以下、パラメータ決定装置及び方法を用いた符号化装置、復号及びこれらの方法の例について説明する。
 (符号化)
 符号化装置の構成例を図4に示す。符号化装置は、図4に示すように、周波数領域変換部21と、線形予測分析部22と、非平滑化振幅スペクトル包絡系列生成部23と、平滑化振幅スペクトル包絡系列生成部24と、包絡正規化部25と、符号化部26と、パラメータ決定装置27とを例えば備えている。この符号化装置により実現される符号化方法の各処理の例を図5に示す。
 以下、図4の各部について説明する。
 <パラメータ決定装置27>
 パラメータ決定装置27は、上記説明した図1に例示するパラメータ決定装置である。パラメータ決定装置27には、時系列信号である時間領域の音信号が入力される。音信号の例は、音声ディジタル信号又は音響ディジタル信号である。
 パラメータ決定装置27は、入力された時系列信号に基づいて、上記説明した処理により、パラメータηを決定する(ステップA7)。決定されたηは、線形予測分析部22、非平滑化振幅スペクトル包絡推定部23及び及び平滑化振幅スペクトル包絡推定部24に出力される。
 また、パラメータ決定装置27は、決定されたηを符号化することによりパラメータ符号を生成する。生成されたパラメータ符号は、復号装置に送信される。
 <周波数領域変換部21>
 周波数領域変換部21には、時間領域の時系列信号である音信号が入力される。音信号の例は、音声ディジタル信号又は音響ディジタル信号である。
 周波数領域変換部21は、所定の時間長のフレーム単位で、入力された時間領域の音信号を周波数領域のN点のMDCT係数列X(0),X(1),…,X(N-1)に変換する(ステップA1)。Nは正の整数である。
 得られたMDCT係数列X(0),X(1),…,X(N-1)は、線形予測分析部22と包絡正規化部25に出力される。
 特に断りがない限り、以降の処理はフレーム単位で行われるものとする。
 このようにして、周波数領域変換部21は、音信号に対応する、例えばMDCT係数列である周波数領域サンプル列を求める。
 <線形予測分析部22>
 線形予測分析部22には、周波数領域変換部21が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 線形予測分析部22は、MDCT係数列X(0),X(1),…,X(N-1)を用いて、以下の式(A7)により定義される~R(0),~R(1),…,~R(N-1)を線形予測分析して線形予測係数β12,…,βpを生成し、生成された線形予測係数β12,…,βpを符号化して線形予測係数符号と線形予測係数符号に対応する量子化された線形予測係数である量子化線形予測係数^β1,^β2,…,^βpとを生成する(ステップA2)。
Figure JPOXMLDOC01-appb-M000009
 生成された量子化線形予測係数^β1,^β2,…,^βpは、非平滑化スペクトル包絡系列生成部23と平滑化振幅スペクトル包絡系列生成部24に出力される。なお、線形予測分析処理の過程で予測残差のエネルギーσ2が算出される。この場合、算出された予測残差のエネルギーσ2は、分散パラメータ決定部268に出力される。
 また、生成された線形予測係数符号は、復号装置に送信される。
 具体的には、線形予測分析部22は、まずMDCT係数列X(0),X(1),…,X(N-1)の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換に相当する演算、すなわち式(A7)の演算を行うことにより、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη乗に対応する時間領域の信号列である擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を求める。そして、線形予測分析部22は、求まった擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を用いて線形予測分析を行って、線形予測係数β12,…,βpを生成する。そして、線形予測分析部22は、生成された線形予測係数β12,…,βpを符号化することにより、線形予測係数符号と、線形予測係数符号に対応する量子化線形予測係数^β1,^β2,…,^βpとを得る。
 線形予測係数β12,…,βpは、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη乗をパワースペクトルと見做したときの時間領域の信号に対応する線形予測係数である。
 線形予測分析部22による線形予測係数符号の生成は、例えば従来的な符号化技術によって行われる。従来的な符号化技術とは、例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をLSPパラメータに変換してLSPパラメータに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をPARCOR係数に変換してPARCOR係数に対応する符号を線形予測係数符号とする符号化技術などである。例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術は、複数の量子化線形予測係数の候補が予め定められ、各候補が線形予測係数符号と予め対応付けられて記憶されており、候補の何れかが生成された線形予測係数に対する量子化線形予測係数として決定され、量子化線形予測係数と線形予測係数符号とが得られる技術である。
 このようにして、線形予測分析部22は、例えばMDCT係数列である周波数領域系列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列を用いて線形予測分析を行い線形予測係数に変換可能な係数を生成する。
 <非平滑化振幅スペクトル包絡系列生成部23>
 非平滑化振幅スペクトル包絡系列生成部23には、線形予測分析部22が生成した量子化線形予測係数^β1,^β2,…,^βpが入力される。
 非平滑化振幅スペクトル包絡系列生成部23は、量子化線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列である非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する(ステップA3)。
 生成された非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)は、符号化部26に出力される。
 非平滑化振幅スペクトル包絡系列生成部23は、量子化線形予測係数^β1,^β2,…,^βpを用いて、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)として、式(A2)により定義される非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
Figure JPOXMLDOC01-appb-M000010
 このようにして、非平滑化振幅スペクトル包絡系列生成部23は、線形予測分析部22により生成された線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得ることによりスペクトル包絡の推定を行う。ここで、cを任意の数として、複数の値から構成される系列をc乗した系列とは、複数の値のそれぞれをc乗した値から構成される系列のことである。例えば、振幅スペクトル包絡の系列を1/η乗した系列とは、振幅スペクトル包絡の各係数を1/η乗した値から構成される系列のことである。
 非平滑化振幅スペクトル包絡系列生成部23による1/η乗の処理は、線形予測分析部22で行われた周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した処理に起因するものである。すなわち、非平滑化振幅スペクトル包絡系列生成部23による1/η乗の処理は、線形予測分析部22で行われた周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做した処理によりη乗された値を元の値に戻すために行われる。
 <平滑化振幅スペクトル包絡系列生成部24>
 平滑化振幅スペクトル包絡系列生成部24には、線形予測分析部22が生成した量子化線形予測係数^β1,^β2,…,^βpが入力される。
 平滑化振幅スペクトル包絡系列生成部24は、量子化線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列の振幅の凸凹を鈍らせた系列である平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)を生成する(ステップA4)。
 生成された平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)は、包絡正規化部25及び符号化部26に出力される。
 平滑化振幅スペクトル包絡系列生成部24は、量子化線形予測係数^β1,^β2,…,^βpと補正係数γを用いて、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)として、式(A3)により定義される平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)を生成する。
Figure JPOXMLDOC01-appb-M000011
 ここで、補正係数γは予め定められた1未満の定数であり非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の振幅の凹凸を鈍らせる係数、言い換えれば非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を平滑化する係数である。
 <包絡正規化部25>
 包絡正規化部25には、周波数領域変換部21が得たMDCT係数列X(0),X(1),…,X(N-1)及び平滑化振幅スペクトル包絡生成部24が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)が入力される。
 包絡正規化部25は、MDCT係数列X(0),X(1),…,X(N-1)の各係数を、対応する平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)の各値で正規化することにより、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)を生成する(ステップA5)。
 生成された正規化MDCT係数列は、符号化部26に出力される。
 包絡正規化部25は、例えば、k=0,1,…,N-1として、MDCT係数列X(0),X(1),…,X(N-1)の各係数X(k)を平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)で除算することにより、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数XN(k)を生成する。すなわち、k=0,1,…,N-1として、XN(k)=X(k)/^Hγ(k)である。
 <符号化部26>
 符号化部26には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)、非平滑化振幅スペクトル包絡生成部23が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)、平滑化振幅スペクトル包絡生成部24が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)及び線形予測分析部22が算出した平均残差のエネルギーσ2が入力される。
 符号化部26は、図6に示すステップA61からステップA65の処理を例えば行うことにより符号化を行う(ステップA6)。
 符号化部26は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)に対応するグローバルゲインgを求め(ステップA61)、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数をグローバルゲインgで割り算した結果を量子化した整数値による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を求め(ステップA62)、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対応する分散パラメータφ(0),φ(1),…,φ(N-1)をグローバルゲインgと非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)と平均残差のエネルギーσ2とから式(A1)により求め(ステップA63)、分散パラメータφ(0),φ(1),…,φ(N-1)を用いて量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化して整数信号符号を得(ステップA64)、グローバルゲインgに対応する利得符号を得る(ステップA65)。
Figure JPOXMLDOC01-appb-M000012
 ここで、上記の式(A1)における正規化振幅スペクトル包絡系列^HN(0),^HN(1),…,^HNは、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値を、対応する平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)の各値で除算したもの、すなわち、以下の式(A8)により求まるものである。
Figure JPOXMLDOC01-appb-M000013
 生成された整数信号符号と利得符号は正規化MDCT係数列に対応する符号として、復号装置に出力される。
 符号化部26は、ステップA61からステップA65により、整数信号符号のビット数が、予め配分されたビット数である配分ビット数B以下、かつ、なるべく大きな値となるようなグローバルゲインgを決定し、決定されたグローバルゲインgに対応する利得符号と、この決定されたグローバルゲインgに対応する整数信号符号とを生成する機能を実現している。
 符号化部26が行うステップA61からステップA65のうち、の特徴的な処理が含まれるのはステップA63であり、グローバルゲインgと量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)のそれぞれを符号化することにより正規化MDCT係数列に対応する符号を得る符号化処理自体には、非特許文献1に記載された技術を含む様々な公知技術が存在する。以下では符号化部26が行う符号化処理の具体例を2つ説明する。
 [符号化部26が行う符号化処理の具体例1]
 符号化部26が行う符号化処理の具体例1として、ループ処理を含まない例について説明する。
 具体例1の符号化部26の構成例を図7に示す。具体例1の符号化部26は、図7に示すように、利得取得部261と、量子化部262と、分散パラメータ決定部268と、算術符号化部269と、利得符号化部265とを例えば備えている。以下、図7の各部について説明する。
 <利得取得部261>
 利得取得部261には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)が入力される。
 利得取得部261は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)から、整数信号符号のビット数が、予め配分されたビット数である配分ビット数B以下、かつ、なるべく大きな値となるようなグローバルゲインgを決定して出力する(ステップS261)。利得取得部261は、例えば、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)のエネルギーの合計の平方根と配分ビット数Bと負の相関のある定数との乗算値をグローバルゲインgとして得て出力する。または、利得取得部261は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)のエネルギーの合計と、配分ビット数Bと、グローバルゲインgと、の関係を予めテーブル化しておき、そのテーブルを参照することによりグローバルゲインgを得て出力してもよい。
 このようにして、利得取得部261は、例えば正規化MDCT係数列である正規化周波数領域サンプル列の全サンプルを除算するための利得を得る。
 得られたグローバルゲインgは、量子化部262及び分散パラメータ決定部268に出力される。
 <量子化部262>
 量子化部262には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)及び利得取得部261が得たグローバルゲインgが入力される。
 量子化部262は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数をグローバルゲインgで割り算した結果の整数部分による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を得て出力する(ステップS262)。
 このようにして、量子化部262は、例えば正規化MDCT係数列である正規化周波数領域サンプル列の各サンプルを、利得で除算するとともに量子化して量子化正規化済係数系列を求める。
 得られた量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)は、算術符号化部269に出力される。
 <分散パラメータ決定部268>
 分散パラメータ決定部268には、利得取得部261が得たグローバルゲインg、非平滑化振幅スペクトル包絡生成部23が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)、平滑化振幅スペクトル包絡生成部24が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)及び線形予測分析部22が得た予測残差のエネルギーσ2が入力される。
 分散パラメータ決定部268は、グローバルゲインgと、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)と、予測残差のエネルギーσ2とから、上記の式(A1),式(A8)により分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを得て出力する(ステップS268)。
 得られた分散パラメータ系列φ(0),φ(1),…,φ(N-1)は、算術符号化部269に出力される。
 <算術符号化部269>
 算術符号化部269には、量子化部262が得た量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)及び分散パラメータ決定部268が得た分散パラメータ系列φ(0),φ(1),…,φ(N-1)が入力される。
 算術符号化部269は、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対応する分散パラメータとして分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを用いて、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化して整数信号符号を得て出力する(ステップS269)。
 算術符号化部269は、算術符号化の際に、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数が一般化ガウス分布fGG(X|φ(k),η)に従うときに最適になるような算術符号を構成し、この構成に基づく算術符号により符号化を行う。この結果、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数へのビット割り当ての期待値が分散パラメータ系列φ(0),φ(1),…,φ(N-1)で決定されることになる。
 得られた整数信号符号は、復号装置に出力される。
 量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の中の複数の係数に跨って算術符号化が行われてもよい。この場合、分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータは、式(A1),式(A8)からわかるように、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)に基づいているため、算術符号化部269は、推定されたスペクトル包絡(非平滑化振幅スペクトル包絡)を基に実質的にビット割り当てが変わる符号化を行っていると言える。
 <利得符号化部265>
 利得符号化部265には、利得取得部261が得たグローバルゲインgが入力される。
 利得符号化部265は、グローバルゲインgを符号化して利得符号を得て出力する(ステップS265)。
 生成された整数信号符号と利得符号は正規化MDCT係数列に対応する符号として、復号装置に出力される。
 本具体例1のステップS261,S262,S268,S269,S265がそれぞれ上記のステップA61,A62,A63,A64,A65に対応する。
 [符号化部26が行う符号化処理の具体例2]
 符号化部26が行う符号化処理の具体例2として、ループ処理を含む例について説明する。
 具体例2の符号化部26の構成例を図8に示す。具体例2の符号化部26は、図8に示すように、利得取得部261と、量子化部262と、分散パラメータ決定部268と、算術符号化部269と、利得符号化部265と、判定部266と、利得更新部267とを例えば備えている。以下、図8の各部について説明する。
 <利得取得部261>
 利得取得部261には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)が入力される。
 利得取得部261は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)から、整数信号符号のビット数が、予め配分されたビット数である配分ビット数B以下、かつ、なるべく大きな値となるようなグローバルゲインgを決定して出力する(ステップS261)。利得取得部261は、例えば、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)のエネルギーの合計の平方根と配分ビット数Bと負の相関のある定数との乗算値をグローバルゲインgとして得て出力する。
 得られたグローバルゲインgは、量子化部262及び分散パラメータ決定部268に出力される。
 利得取得部261が得たグローバルゲインgは、量子化部262及び分散パラメータ決定部268で用いられるグローバルゲインの初期値となる。
 <量子化部262>
 量子化部262には、包絡正規化部25が生成した正規化MDCT係数列XN(0),XN(1),…,XN(N-1)及び利得取得部261又は利得更新部267が得たグローバルゲインgが入力される。
 量子化部262は、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数をグローバルゲインgで割り算した結果の整数部分による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を得て出力する(ステップS262)。
 ここで、量子化部262が初回に実行される際に用いられるグローバルゲインgは、利得取得部261が得たグローバルゲインg、すなわちグローバルゲインの初期値である。また、量子化部262が2回目以降に実行される際に用いられるグローバルゲインgは、利得更新部267が得たグローバルゲインg、すなわちグローバルゲインの更新値である。
 得られた量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)は、算術符号化部269に出力される。
 <分散パラメータ決定部268>
 分散パラメータ決定部268には、利得取得部261又は利得更新部267が得たグローバルゲインg、非平滑化振幅スペクトル包絡生成部23が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)、平滑化振幅スペクトル包絡生成部24が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)及び線形予測分析部22が得た予測残差のエネルギーσ2が入力される。
 分散パラメータ決定部268は、グローバルゲインgと、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)と、予測残差のエネルギーσ2とから、上記の式(A1),式(A8)により分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを得て出力する(ステップS268)。
 ここで、分散パラメータ決定部268が初回に実行される際に用いられるグローバルゲインgは、利得取得部261が得たグローバルゲインg、すなわちグローバルゲインの初期値である。また、分散パラメータ決定部268が2回目以降に実行される際に用いられるグローバルゲインgは、利得更新部267が得たグローバルゲインg、すなわちグローバルゲインの更新値である。
 得られた分散パラメータ系列φ(0),φ(1),…,φ(N-1)は、算術符号化部269に出力される。
 <算術符号化部269>
 算術符号化部269には、量子化部262が得た量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)及び分散パラメータ決定部268が得た分散パラメータ系列φ(0),φ(1),…,φ(N-1)が入力される。
 算術符号化部269は、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対応する分散パラメータとして分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを用いて、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を算術符号化して、整数信号符号と整数信号符号のビット数である消費ビット数Cとを得て出力する(ステップS269)。
 算術符号化部269は、算術符号化の際に、量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数が一般化ガウス分布fGG(X|φ(k),η)に従うときに最適になるようなビット割り当てを算術符号により行い、行われたビット割り当てに基づく算術符号により符号化を行う。
 得られた整数信号符号及び消費ビット数Cは、判定部266に出力される。
 量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の中の複数の係数に跨って算術符号化が行われてもよい。この場合、分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータは、式(A1),式(A8)からわかるように、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)に基づいているため、算術符号化部269は、推定されたスペクトル包絡(非平滑化振幅スペクトル包絡)を基に実質的にビット割り当てが変わる符号化を行っていると言える。
 <判定部266>
 判定部266には、算術符号化部269が得た整数信号符号が入力される。
 判定部266は、利得の更新回数が予め定めた回数の場合には、整数信号符号を出力するとともに、利得符号化部265に対し利得更新部267が得たグローバルゲインgを符号化する指示信号を出力し、利得の更新回数が予め定めた回数未満である場合には、利得更新部267に対し、算術符号化部264が計測した消費ビット数Cを出力する(ステップS266)。
 <利得更新部267>
 利得更新部267には、算術符号化部264が計測した消費ビット数Cが入力される。
 利得更新部267は、消費ビット数Cが配分ビット数Bより多い場合にはグローバルゲインgの値を大きな値に更新して出力し、消費ビット数Cが配分ビット数Bより少ない場合にはグローバルゲインgの値を小さな値に更新し、更新後のグローバルゲインgの値を出力する(ステップS267)。
 利得更新部267が得た更新後のグローバルゲインgは、量子化部262及び利得符号化部265に出力される。
 <利得符号化部265>
 利得符号化部265には、判定部266からの出力指示及び利得更新部267が得たグローバルゲインgが入力される。
 利得符号化部265は、指示信号に従って、グローバルゲインgを符号化して利得符号を得て出力する(ステップ265)。
 判定部266が出力した整数信号符号と、利得符号化部265が出力した利得符号は、正規化MDCT係数列に対応する符号として、復号装置に出力される。
 すなわち、本具体例2においては、最後に行われたステップS267が上記のステップA61に対応し、ステップS262,S263,S264,S265がそれぞれ上記のステップA62,A63,A64,A65に対応する。
 なお、符号化部26が行う符号化処理の具体例2については、国際公開公報WO2014/054556などに更に詳細に説明されている。
 [符号化部26の変形例]
 符号化部26は、例えば以下の処理を行うことにより、推定されたスペクトル包絡(非平滑化振幅スペクトル包絡)を基にビット割り当てを変える符号化を行ってもよい。
 符号化部26は、まず、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)に対応するグローバルゲインgを求め、正規化MDCT係数列XN(0),XN(1),…,XN(N-1)の各係数をグローバルゲインgで割り算した結果を量子化した整数値による系列である量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)を求める。
 この量子化正規化済係数系列XQ(0),XQ(1),…,XQ(N-1)の各係数に対応する量子化ビットは、XQ(k)の分布がある範囲内で一様であると仮定して、その範囲を包絡の推定値から決めることができる。複数のサンプルごとの包絡の推定値を符号化することもできるが、符号化部26は、例えば以下の式(A9)のように線形予測に基づく正規化振幅スペクトル包絡系列の値^HN(k)を使用してXQ(k)の範囲を決めることができる。
Figure JPOXMLDOC01-appb-M000014
あるkにおけるXQ(k)を量子化するときに、XQ(k)の二乗誤差を最小とするために
Figure JPOXMLDOC01-appb-M000015
の制約のもとに、割り当てるビット数b(k)
Figure JPOXMLDOC01-appb-M000016
を設定することができる。Bは予め定められた正の整数である。この際にb(k)が整数となるように四捨五入するとか、0より小さくなる場合にはb(k)=0とするなどして、b(k)の再調整の処理を符号化部26は行ってもよい。
 また、符号化部26は、サンプルごとの割り当てでなく、複数のサンプルをまとめて配分ビット数を決めて、量子化にもサンプルごとのスカラ量子化でなく、複数のサンプルをまとめたベクトルごとの量子化をすることも可能である。
 サンプルkのXQ(k)の量子化ビット数b(k)が上記で与えられ、サンプルごとに符号化するとすると、XQ(k)は-2b(k)-1から2b(k)-1までの2b(k)種類の整数を取り得る。符号化部26は、b(k)ビットで各サンプルを符号化して整数信号符号を得る。
 生成された整数信号符号は、復号装置に出力される。例えば、生成されたXQ(k)に対応するb(k)ビットの整数信号符号は、k=0から順次復号装置に出力される。
 もし、XQ(k)が上記の-2b(k)-1から2b(k)-1までの範囲をこえる場合には最大値、または最小値に置き換える。
 gが小さすぎるとこの置き換えで量子化歪が発生し、gが大きすぎると量子化誤差は大きくなり、XQ(k)のとりうる範囲がb(k)に比べて小さすぎて、情報の有効利用ができないことになる。このため、gの最適化を行ってもよい。
 符号化部26は、グローバルゲインgを符号化して利得符号を得て出力する。
 この符号化部26の変形例のように、符号化部26は算術符号化以外の符号化を行ってもよい。
 (復号)
 符号化装置に対応する復号装置の構成例を図9に示す。第三実施形態の復号装置は、図9に示すように、線形予測係数復号部31と、非平滑化振幅スペクトル包絡系列生成部32と、平滑化振幅スペクトル包絡系列生成部33と、復号部34と、包絡逆正規化部35と、時間領域変換部36と、パラメータ復号部37とを例えば備えている。この復号装置により実現される第三実施形態の復号方法の各処理の例を図10に示す。
 復号装置には、符号化装置が出力した、パラメータ符号、正規化MDCT係数列に対応する符号及び線形予測係数符号が少なくとも入力される。
 以下、図9の各部について説明する。
 <パラメータ復号部37>
 パラメータ復号部37には、符号化装置が出力したパラメータ符号が入力される。
 パラメータ復号部37は、パラメータ符号を復号することにより復号パラメータηを求める。求まった復号パラメータηは、非平滑化振幅スペクトル包絡系列生成部32、平滑化振幅スペクトル包絡系列生成部33及び復号部34に出力される。
 <線形予測係数復号部31>
 線形予測係数復号部31には、符号化装置が出力した線形予測係数符号が入力される。
 線形予測係数復号部31は、フレームごとに、入力された線形予測係数符号を例えば従来的な復号技術によって復号して復号線形予測係数^β1,^β2,…, ^βpを得る(ステップB1)。
 得られた復号線形予測係数^β1,^β2,…, ^βpは、非平滑化振幅スペクトル包絡系列生成部32及び非平滑化振幅スペクトル包絡系列生成部33に出力される。
 ここで、従来的な復号技術とは、例えば、線形予測係数符号が量子化された線形予測係数に対応する符号である場合に線形予測係数符号を復号して量子化された線形予測係数と同じ復号線形予測係数を得る技術、線形予測係数符号が量子化されたLSPパラメータに対応する符号である場合に線形予測係数符号を復号して量子化されたLSPパラメータと同じ復号LSPパラメータを得る技術などである。また、線形予測係数とLSPパラメータは互いに変換可能なものであり、入力された線形予測係数符号と後段での処理において必要な情報に応じて、復号線形予測係数と復号LSPパラメータの間での変換処理を行なえばよいのは周知である。以上から、上記の線形予測係数符号の復号処理と必要に応じて行なう上記の変換処理とを包含したものが「従来的な復号技術による復号」ということになる。
 このようにして、線形予測係数復号部31は、入力された線形予測係数符号を復号することにより、時系列信号に対応する周波数領域系列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列に対応する線形予測係数に変換可能な係数を生成する。
 <非平滑化振幅スペクトル包絡系列生成部32>
 非平滑化振幅スペクトル包絡系列生成部32には、パラメータ復号部37が求めた復号パラメータη及び線形予測係数復号部31が得た復号線形予測係数^β1,^β2,…,^βpが入力される。
 非平滑化振幅スペクトル包絡系列生成部32は、復号線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列である非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を上記の式(A2)により生成する(ステップB2)。
 生成された非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)は、復号部34に出力される。
 このようにして、非平滑化振幅スペクトル包絡系列生成部32は、、線形予測係数復号部31により生成された線形予測係数に変換可能な係数に対応するに対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得る。
 <平滑化振幅スペクトル包絡系列生成部33>
 平滑化振幅スペクトル包絡系列生成部33には、パラメータ復号部37が求めた復号パラメータη及び線形予測係数復号部31が得た復号線形予測係数^β1,^β2,…,^βpが入力される。
 平滑化振幅スペクトル包絡系列生成部33は、復号線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列の振幅の凹凸を鈍らせた系列である平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)を上記の式A(3)により生成する(ステップB3)。
 生成された平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)は、復号部34及び包絡逆正規化部35に出力される。
 <復号部34>
 復号部34には、パラメータ復号部37が求めた復号パラメータη、符号化装置が出力した正規化MDCT係数列に対応する符号、非平滑化振幅スペクトル包絡生成部32が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)及び平滑化振幅スペクトル包絡生成部33が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)が入力される。
 復号部34は、分散パラメータ決定部342を備えている。
 復号部34は、図11に示すステップB41からステップB44の処理を例えば行うことにより復号を行う(ステップB4)。すなわち、復号部34は、フレームごとに、入力された正規化MDCT係数列に対応する符号に含まれる利得符号を復号してグローバルゲインgを得る(ステップB41)。復号部34の分散パラメータ決定部342は、グローバルゲインgと非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)とから上記の式(A1)により分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを求める(ステップB42)。復号部34は、正規化MDCT係数列に対応する符号に含まれる整数信号符号を分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータに対応する算術復号の構成に従い、算術復号して復号正規化済係数系列^XQ(0),^XQ(1),…,^XQ(N-1)を得(ステップB43)、復号正規化済係数系列^XQ(0),^XQ(1),…,^XQ(N-1)の各係数にグローバルゲインgを乗算して復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)を生成する(ステップB44)。このように、復号部34は、非平滑化スペクトル包絡系列に基づいて実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行ってもよい。
 なお、[符号化部26の変形例]に記載された処理により符号化が行われた場合には、復号部34は例えば以下の処理を行う。復号部34は、フレームごとに、入力された正規化MDCT係数列に対応する符号に含まれる利得符号を復号してグローバルゲインgを得る。復号部34の分散パラメータ決定部342は、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)と平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)とから上記の式(A9)により分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータを求める。復号部34は、分散パラメータ系列φ(0),φ(1),…,φ(N-1)の各分散パラメータφ(k)に基づいて式(A10)によりb(k)を求めることができ、XQ(k)の値をそのビット数b(k)で順次復号して、復号正規化済係数系列^XQ(0),^XQ(1),…,^XQ(N-1)を得て、復号正規化済係数系列^XQ(0),^XQ(1),…,^XQ(N-1)の各係数にグローバルゲインgを乗算して復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)を生成する。このように、復号部34は、非平滑化スペクトル包絡系列に基づいて変わるビット割り当てに従って、入力された整数信号符号の復号を行ってもよい。
 生成された復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)は、包絡逆正規化部35に出力される。
 <包絡逆正規化部35>
 包絡逆正規化部35には、平滑化振幅スペクトル包絡生成部33が生成した平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)及び復号部34が生成した復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)が入力される。
 包絡逆正規化部35は、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)を用いて、復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)を逆正規化することにより、復号MDCT係数列^X(0),^X(1),…,^X(N-1)を生成する(ステップB5)。
 生成された復号MDCT係数列^X(0),^X(1),…,^X(N-1)は、時間領域変換部36に出力される。
 例えば、包絡逆正規化部35は、k=0,1,…,N-1として、復号正規化MDCT係数列^XN(0),^XN(1),…,^XN(N-1)の各係数^XN(k)に、平滑化振幅スペクトル包絡系列^Hγ(0),^Hγ(1),…,^Hγ(N-1)の各包絡値^Hγ(k)を乗じることにより復号MDCT係数列^X(0),^X(1),…,^X(N-1)を生成する。すなわち、k=0,1,…,N-1として、^X(k)=^XN(k)×^Hγ(k)である。
 <時間領域変換部36>
 時間領域変換部36には、包絡逆正規化部35が生成した復号MDCT係数列^X(0),^X(1),…,^X(N-1)が入力される。
 時間領域変換部36は、フレームごとに、包絡逆正規化部35が得た復号MDCT係数列^X(0),^X(1),…,^X(N-1)を時間領域に変換してフレーム単位の音信号(復号音信号)を得る(ステップB6)。
 このようにして、復号装置は、周波数領域での復号により時系列信号を得る。
 [パラメータ決定装置及び方法を用いた音分類装置及び方法]
 以下、パラメータ決定装置及び方法を用いた音分類装置及び方法の例について説明する。
 音分類装置は、図13に示すように、パラメータ決定装置51及び判定部52を例えば備えている。この音分類装置が以下や図13に例示する処理行うことにより音分類方法が実現される。
 パラメータ決定装置51は、上記説明したパラメータ装置であり、上記説明した処理によりパラメータηを決定する(ステップE1)。決定されたηは判定部52に出力される。
 判定部52は、パラメータ決定装置及び方法により決定されたパラメータηが、所定の閾値よりも小さい場合には、そのパラメータηに対応する時系列信号の区間は音楽であると分類し、そうでない場合には音声と分類する(ステップE2)。
 この音分類装置及び方法は、パラメータηが小さいほど対応する時系列信号の定常性が大きいという性質に起因するものである。
 [変形例等]
 パラメータ決定装置又は方法は、ループ処理によりパラメータηを求めてもよい。すなわち、パラメータ決定装置又は方法は、パラメータ取得部44で求まるパラメータηを所定の方法で定められるパラメータη0とする、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理を更に1回以上行ってもよい。
 この場合、例えば、図1で破線で示すように、パラメータ取得部44で求まったパラメータηは、スペクトル包絡推定部42に出力される。スペクトル包絡推定部42は、パラメータ取得部44で求まったηに基づいて、上記説明した処理と同様の処理を行いスペクトル包絡の推定を行う。白色化スペクトル系列生成部43は、新たに推定されたスペクトル包絡に基づいて、上記説明した処理と同様の処理を行い白色化スペクトル系列を生成する。パラメータ取得部44は、新たに生成された白色化スペクトル系列に基づいて、上記説明した処理と同様の処理を行いパラメータηを求める。
 例えば、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理は、所定の回数であるτ回だけ更に行われてもよい。τは所定の正の整数であり、例えばτ=1又はτ=2である。
 また、スペクトル包絡推定部42は、今回求まったパラメータηと前回求まったパラメータηとの差の絶対値が所定の閾値以下となるまで、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理を繰り返してもよい。
 線形予測分析部22及び非平滑化振幅スペクトル包絡系列生成部23を1つのスペクトル包絡推定部2Aとして捉えると、このスペクトル包絡推定部2Aは、時系列信号に対応する例えばMDCT係数列である周波数領域系列の絶対値のη乗をパワースペクトルと見做したスペクトル包絡(非平滑化振幅スペクトル包絡系列)の推定を行っていると言える。ここで、「パワースペクトルと見做した」とは、パワースペクトルを通常用いるところに、η乗のスペクトルを用いることを意味する。
 この場合、スペクトル包絡推定部2Aの線形予測分析部22は、例えばMDCT係数列である周波数領域系列の絶対値のη乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列を用いて線形予測分析を行い線形予測係数に変換可能な係数を得ていると言える。また、スペクトル包絡推定部2Aの非平滑化振幅スペクトル包絡系列生成部23は、線形予測分析部22により得られた線形予測係数に変換可能な係数に対応する振幅スペクトル包絡の系列を1/η乗した系列である非平滑化スペクトル包絡系列を得ることによりスペクトル包絡の推定を行っていると言える。
 また、平滑化振幅スペクトル包絡系列生成部24、包絡正規化部25及び符号化部26を1つの符号化部2Bとして捉えると、この符号化部2Bは、スペクトル包絡推定部2Aにより推定されたスペクトル包絡(非平滑化振幅スペクトル包絡系列)を基にビット割り当てを変える又は実質的にビット割り当てが変わる符号化を例えばMDCT係数列である周波数領域系列の各係数に対して行っていると言える。
 復号部34及び包絡逆正規化部35を1つの復号部3Aとして捉えると、この復号部3Aは、非平滑化スペクトル包絡系列に基づいて変わるビット割り当て又は実質的に変わるビット割り当てに従って、入力された整数信号符号の復号を行うことにより時系列信号に対応する周波数領域サンプル列を得ていると言える。
 上記説明した処理は、記載の順にしたがって時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
 また、各方法又は各装置における各種の処理をコンピュータによって実現してもよい。その場合、各方法又は各装置の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各方法又は各装置における各種の処理がコンピュータ上で実現される。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (18)

  1.  パラメータη及びパラメータηを正の数として、所定の方法で定められるパラメータηを用いて、時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做してスペクトル包絡の推定を行うスペクトル包絡推定部と、
     上記スペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る白色化スペクトル系列生成部と、
     パラメータηを形状パラメータとする一般化ガウス分布が上記白色化スペクトル系列のヒストグラムを近似するパラメータηを求めるパラメータ取得部と、
     を含むパラメータ決定装置。
  2.  請求項1のパラメータ決定装置であって、
     上記パラメータ取得部で求まるパラメータηを上記所定の方法で定められるパラメータηとする、上記スペクトル包絡推定部、上記白色化スペクトル系列生成部及び上記パラメータ取得部の処理を更に1回以上行う、
     パラメータ決定装置。
  3.  請求項1又は2のパラメータ決定装置であって、
     q1、q2を予め定めた異なる正の整数として、上記パラメータ取得部は、上記白色化スペクトル系列のq1次モーメントであるmq1の値と上記白色化スペクトル系列のq2次モーメントであるmq2の値とに基づき上記パラメータηを求める、
     パラメータ決定装置。
  4.  請求項3のパラメータ決定装置であって、
     Nを所定の正の数とし、k=0,1,…,N-1とし、上記白色化スペクトル系列の各値をXW(k)とし、Γをガンマ関数とし、F-1を関数Fの逆関数として、上記パラメータ取得部が求めるηは、以下の式により定義される、
    Figure JPOXMLDOC01-appb-M000001

     パラメータ決定装置。
  5.  請求項4のパラメータ決定装置であって、
     上記パラメータ取得部は、上記白色化スペクトル系列に基づいてmq1/((mq2)q1/q2)を計算し、予め用意しておいた異なる複数の、ηと対応するF(η)のペアを参照して、計算されたmq1/((mq2)q1/q2)に最も近いF(η)に対応するηを取得する、
     パラメータ決定装置。
  6.  請求項4のパラメータ決定装置であって、
     上記逆関数F-1の近似曲線関数を~F-1として、
     上記パラメータ取得部は、上記白色化スペクトル系列に基づいてmq1/((mq2)q1/q2)を計算し、上記近似曲線関数~F-1に計算されたmq1/((mq2)q1/q2)を入力したときの出力値を計算することによりηを求める、
     パラメータ決定装置。
  7.  請求項1から6の何れかのパラメータ決定装置において、
     上記パラメータ決定装置は、各フレームごとにパラメータηを求めるものであり、
     現在パラメータηを求めようとしているフレームの上記所定の方法で定められるパラメータηは、現在パラメータηを求めようとしているフレームよりも前のフレームで求まったηである、
     パラメータ決定装置。
  8.  請求項1から7の何れかのパラメータ決定装置であって、
     上記時系列信号は音信号であり、
     上記パラメータηは、上記音信号の特徴を表すパラメータである、
     パラメータ決定装置。
  9.  パラメータη及びパラメータηを正の数として、所定の方法で定められるパラメータηを用いて、時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做してスペクトル包絡の推定を行うスペクトル包絡推定ステップと、
     上記スペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る白色化スペクトル系列生成ステップと、
     パラメータηを形状パラメータとする一般化ガウス分布が上記白色化スペクトル系列のヒストグラムを近似するパラメータηを求めるパラメータ取得ステップと、
     を含むパラメータ決定方法。
  10.  請求項9のパラメータ決定方法であって、
     上記パラメータ取得部で求まるパラメータηを上記所定の方法で定められるパラメータηとする、上記スペクトル包絡推定部、上記白色化スペクトル系列生成部及び上記パラメータ取得部の処理を更に1回以上行う、
     パラメータ決定方法。
  11.  請求項9又は10のパラメータ決定方法であって、
     q1、q2を予め定めた異なる正の整数として、上記パラメータ取得部は、上記白色化スペクトル系列のq1次モーメントであるmq1の値と上記白色化スペクトル系列のq2次モーメントであるmq2の値とに基づき上記パラメータηを求める、
     パラメータ決定方法。
  12.  請求項11のパラメータ決定方法であって、
     Nを所定の正の数とし、k=0,1,…,N-1とし、上記白色化スペクトル系列の各値をXW(k)とし、Γをガンマ関数とし、F-1を関数Fの逆関数として、上記パラメータ取得部が求めるηは、以下の式により定義される、
    Figure JPOXMLDOC01-appb-M000002

     パラメータ決定方法。
  13.  請求項12のパラメータ決定方法であって、
     上記パラメータ取得部は、上記白色化スペクトル系列に基づいてmq1/((mq2)q1/q2)を計算し、予め用意しておいた異なる複数の、ηと対応するF(η)のペアを参照して、計算されたmq1/((mq2)q1/q2)に最も近いF(η)に対応するηを取得する、
     パラメータ決定方法。
  14.  請求項12のパラメータ決定方法であって、
     上記逆関数F-1の近似曲線関数を~F-1として、
     上記パラメータ取得部は、上記白色化スペクトル系列に基づいてmq1/((mq2)q1/q2)を計算し、上記近似曲線関数~F-1に計算されたmq1/((mq2)q1/q2)を入力したときの出力値を計算することによりηを求める、
     パラメータ決定方法。
  15.  請求項9から14の何れかのパラメータ決定方法において、
     上記パラメータ決定方法は、各フレームごとにパラメータηを求めるものであり、
     現在パラメータηを求めようとしているフレームの上記所定の方法で定められるパラメータηは、現在パラメータηを求めようとしているフレームよりも前のフレームで求まったηである、
     パラメータ決定方法。
  16.  請求項9から14の何れかのパラメータ決定方法であって、
     上記時系列信号は音信号であり、
     上記パラメータηは、上記音信号の特徴を表すパラメータである、
     パラメータ決定方法。
  17.  請求項1から8の何れかのパラメータ決定装置の各部としてコンピュータを機能させるためのプログラム。
  18.  請求項1から8の何れかのパラメータ決定装置の各部としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2016/052362 2015-01-30 2016-01-27 パラメータ決定装置、方法、プログラム及び記録媒体 WO2016121824A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP16743427.3A EP3252768B1 (en) 2015-01-30 2016-01-27 Parameter determination device, method, program, and recording medium
EP20185357.9A EP3751565B1 (en) 2015-01-30 2016-01-27 Parameter determination device, method, program and recording medium
CN201680007107.6A CN107430869B (zh) 2015-01-30 2016-01-27 参数决定装置、方法及记录介质
KR1020177019110A KR102070145B1 (ko) 2015-01-30 2016-01-27 파라미터 결정 장치, 방법, 프로그램 및 기록 매체
US15/544,452 US10276186B2 (en) 2015-01-30 2016-01-27 Parameter determination device, method, program and recording medium for determining a parameter indicating a characteristic of sound signal
JP2016572109A JP6499206B2 (ja) 2015-01-30 2016-01-27 パラメータ決定装置、方法、プログラム及び記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015017690 2015-01-30
JP2015-017690 2015-01-30

Publications (1)

Publication Number Publication Date
WO2016121824A1 true WO2016121824A1 (ja) 2016-08-04

Family

ID=56543434

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052362 WO2016121824A1 (ja) 2015-01-30 2016-01-27 パラメータ決定装置、方法、プログラム及び記録媒体

Country Status (6)

Country Link
US (1) US10276186B2 (ja)
EP (2) EP3751565B1 (ja)
JP (1) JP6499206B2 (ja)
KR (1) KR102070145B1 (ja)
CN (1) CN107430869B (ja)
WO (1) WO2016121824A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018235418A1 (ja) * 2017-06-22 2018-12-27 日本電信電話株式会社 符号化装置、復号装置、符号化方法、復号方法、およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10325609B2 (en) * 2015-04-13 2019-06-18 Nippon Telegraph And Telephone Corporation Coding and decoding a sound signal by adapting coefficients transformable to linear predictive coefficients and/or adapting a code book
CN115765898B (zh) * 2022-11-18 2024-04-12 中国舰船研究设计中心 一种基于最大值双边单调的频谱包络提取方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08288852A (ja) * 1995-04-11 1996-11-01 Pioneer Electron Corp 量子化装置及び量子化方法
JP2006304270A (ja) * 2005-03-23 2006-11-02 Fuji Xerox Co Ltd 復号化装置、逆量子化方法及びこれらのプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7778468B2 (en) * 2005-03-23 2010-08-17 Fuji Xerox Co., Ltd. Decoding apparatus, dequantizing method, and program thereof
US7813563B2 (en) * 2005-12-09 2010-10-12 Florida State University Research Foundation Systems, methods, and computer program products for compression, digital watermarking, and other digital signal processing for audio and/or video applications
DK2064918T3 (en) * 2006-09-05 2015-01-26 Gn Resound As A hearing-aid with histogram based lydmiljøklassifikation
EP2064918B1 (en) * 2006-09-05 2014-11-05 GN Resound A/S A hearing aid with histogram based sound environment classification
WO2009118044A1 (en) * 2008-03-26 2009-10-01 Nokia Corporation An audio signal classifier
US9711158B2 (en) * 2011-01-25 2017-07-18 Nippon Telegraph And Telephone Corporation Encoding method, encoder, periodic feature amount determination method, periodic feature amount determination apparatus, program and recording medium
EP3441967A1 (en) * 2011-04-05 2019-02-13 Nippon Telegraph and Telephone Corporation Decoding method, decoder, program, and recording medium
US9947331B2 (en) * 2012-05-23 2018-04-17 Nippon Telegraph And Telephone Corporation Encoding method, decoding method, encoder, decoder, program and recording medium
ES2661504T3 (es) * 2012-05-30 2018-04-02 Nippon Telegraph And Telephone Corporation Método de codificación, codificador, programa y medio de grabación
MY168806A (en) * 2012-06-28 2018-12-04 Fraunhofer Ges Forschung Linear prediction based audio coding using improved probability distribution estimation
ES2657039T3 (es) 2012-10-01 2018-03-01 Nippon Telegraph And Telephone Corporation Método de codificación, dispositivo de codificación, programa, y medio de grabación
AU2014204540B1 (en) * 2014-07-21 2015-08-20 Matthew Brown Audio Signal Processing Methods and Systems
JP6457552B2 (ja) * 2014-11-27 2019-01-23 日本電信電話株式会社 符号化装置、復号装置、これらの方法及びプログラム
WO2016121826A1 (ja) 2015-01-30 2016-08-04 日本電信電話株式会社 符号化装置、復号装置、これらの方法、プログラム及び記録媒体
US10325609B2 (en) 2015-04-13 2019-06-18 Nippon Telegraph And Telephone Corporation Coding and decoding a sound signal by adapting coefficients transformable to linear predictive coefficients and/or adapting a code book

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08288852A (ja) * 1995-04-11 1996-11-01 Pioneer Electron Corp 量子化装置及び量子化方法
JP2006304270A (ja) * 2005-03-23 2006-11-02 Fuji Xerox Co Ltd 復号化装置、逆量子化方法及びこれらのプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018235418A1 (ja) * 2017-06-22 2018-12-27 日本電信電話株式会社 符号化装置、復号装置、符号化方法、復号方法、およびプログラム
JPWO2018235418A1 (ja) * 2017-06-22 2020-05-21 日本電信電話株式会社 符号化装置、復号装置、符号化方法、復号方法、およびプログラム

Also Published As

Publication number Publication date
EP3252768A1 (en) 2017-12-06
EP3252768B1 (en) 2020-08-19
EP3751565B1 (en) 2021-09-08
EP3252768A4 (en) 2018-06-27
EP3751565A1 (en) 2020-12-16
CN107430869A (zh) 2017-12-01
US20180268843A1 (en) 2018-09-20
KR20170096136A (ko) 2017-08-23
US10276186B2 (en) 2019-04-30
JPWO2016121824A1 (ja) 2017-10-12
JP6499206B2 (ja) 2019-04-10
KR102070145B1 (ko) 2020-01-28
CN107430869B (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
JP6422813B2 (ja) 符号化装置、復号装置、これらの方法及びプログラム
JP6633787B2 (ja) 線形予測復号装置、方法、プログラム及び記録媒体
JP6392450B2 (ja) マッチング装置、判定装置、これらの方法、プログラム及び記録媒体
JP6499206B2 (ja) パラメータ決定装置、方法、プログラム及び記録媒体
JP6457552B2 (ja) 符号化装置、復号装置、これらの方法及びプログラム
JP6250140B2 (ja) 符号化方法、符号化装置、プログラム、および記録媒体
JP6387117B2 (ja) 符号化装置、復号装置、これらの方法、プログラム及び記録媒体
CN112820304A (zh) 解码装置、解码方法、解码程序、记录介质
JP5336942B2 (ja) 符号化方法、復号方法、符号化器、復号器、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16743427

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016572109

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20177019110

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15544452

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2016743427

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE