WO2016167216A1 - マッチング装置、判定装置、これらの方法、プログラム及び記録媒体 - Google Patents

マッチング装置、判定装置、これらの方法、プログラム及び記録媒体 Download PDF

Info

Publication number
WO2016167216A1
WO2016167216A1 PCT/JP2016/061683 JP2016061683W WO2016167216A1 WO 2016167216 A1 WO2016167216 A1 WO 2016167216A1 JP 2016061683 W JP2016061683 W JP 2016061683W WO 2016167216 A1 WO2016167216 A1 WO 2016167216A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
parameter
series
sequence
time
Prior art date
Application number
PCT/JP2016/061683
Other languages
English (en)
French (fr)
Inventor
守谷 健弘
川西 隆仁
優 鎌本
登 原田
弘和 亀岡
亮介 杉浦
Original Assignee
日本電信電話株式会社
国立大学法人東京大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社, 国立大学法人東京大学 filed Critical 日本電信電話株式会社
Priority to US15/562,649 priority Critical patent/US10147443B2/en
Priority to CN201680019872.XA priority patent/CN107851442B/zh
Priority to JP2017512524A priority patent/JP6392450B2/ja
Publication of WO2016167216A1 publication Critical patent/WO2016167216A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components

Definitions

  • the present invention relates to a technique for performing matching or determining a section or type of a signal based on a sound signal.
  • a parameter such as LSP is known as a parameter representing the characteristics of a time-series signal such as a sound signal (see Non-Patent Document 1, for example).
  • LSP Since LSP is multi-order, it may be difficult to use it directly for sound classification or interval estimation. For example, since the LSP is multi-order, it cannot be said that processing based on a threshold using the LSP is easy.
  • This parameter ⁇ is an encoding method for arithmetic coding in a coding scheme that arithmetically encodes a quantized value of a frequency domain coefficient using a linear prediction envelope as used in, for example, 3GPP EVS (Enhanced Voice Services) standard. It is a shape parameter that determines the probability distribution to which the object belongs.
  • the parameter ⁇ is related to the distribution of the encoding target, and if the parameter ⁇ is appropriately determined, efficient encoding and decoding can be performed.
  • the parameter ⁇ can be an index representing the characteristics of the time series signal.
  • the parameter ⁇ can be used for technologies other than the above-described encoding processing, for example, audio-acoustic related technologies such as a matching technology and a signal section or type determination technology.
  • the parameter ⁇ is a first-order value
  • the process based on the threshold using the parameter ⁇ is easier than the process based on the threshold using the LSP. Therefore, the parameter ⁇ can be easily used for audio-acoustic related techniques such as a matching technique and a technique for determining a signal interval or type.
  • An object of the present invention is to provide a matching device that performs matching using a parameter ⁇ , a determination device that determines a section or type of a signal using the parameter ⁇ , a method, a program, and a recording medium.
  • the parameter ⁇ corresponding to a time-series signal having a predetermined time length is set as a positive number, and the absolute value ⁇ of the frequency domain sample sequence corresponding to the time-series signal is set.
  • the first signal as a shape parameter of the generalized Gaussian distribution that approximates the histogram of the whitened spectrum sequence, which is a sequence obtained by dividing the frequency domain sample sequence by the spectral envelope estimated by considering the power as the power spectrum
  • the degree of coincidence between the first signal and the second signal and / or whether the first signal and the second signal coincide with each other A matching unit for determining whether or not.
  • the parameter ⁇ corresponding to a time-series signal having a predetermined time length is set as a positive number, and the absolute value ⁇ of the frequency domain sample sequence corresponding to the time-series signal is set.
  • the first signal as a shape parameter of the generalized Gaussian distribution that approximates the histogram of the whitened spectrum sequence, which is a sequence obtained by dividing the frequency domain sample sequence by the spectral envelope estimated by considering the power as the power spectrum
  • the determination part which determines the kind of 1st signal is provided.
  • the block diagram for demonstrating the example of a matching apparatus The flowchart for demonstrating the example of a matching method.
  • the flowchart for demonstrating the example of a parameter determination part. The figure for demonstrating generalized Gaussian distribution.
  • the matching device includes a parameter determination unit 27 ′, a matching unit 51, and a second sequence storage unit 52, for example.
  • Each unit of the matching device performs each process illustrated in FIG. 2 to realize the matching method.
  • a first signal that is a time-series signal is input to the parameter determination unit 27 ′ every predetermined time length.
  • An example of the first signal is a sound signal such as a voice digital signal or an acoustic digital signal.
  • the parameter determination unit 27 determines the input time-series signal parameter ⁇ having a predetermined time length by a process to be described later based on the input time-series signal having a predetermined time length (step F1). Thereby, a series of parameters ⁇ respectively corresponding to at least one time-series signal having a predetermined time length constituting the first signal is obtained.
  • a sequence of parameters ⁇ corresponding to at least one time-series signal having a predetermined time length constituting the first signal is referred to as a “first sequence”.
  • the parameter determination unit 27 ′ performs processing for each frame having a predetermined time length.
  • the at least one time-series signal having a predetermined time length constituting the first signal may be all or a part of the time-series signal having a predetermined time length constituting the first signal. Good.
  • the first series of parameters ⁇ determined by the parameter determination unit 27 ′ is output to the matching unit 51.
  • FIG. 5 shows a configuration example of the parameter determination unit 27 '.
  • the parameter determination unit 27 ′ includes, for example, a frequency domain conversion unit 41, a spectrum envelope estimation unit 42, a whitened spectrum sequence generation unit 43, and a parameter acquisition unit 44.
  • the spectrum envelope estimation unit 42 includes, for example, a linear prediction analysis unit 421 and a non-smoothed amplitude spectrum envelope sequence generation unit 422.
  • FIG. 6 shows an example of each process of the parameter determination method realized by the parameter determination unit 27 '.
  • ⁇ Frequency domain conversion unit 41> A time-series signal having a predetermined time length is input to the frequency domain transform unit 41.
  • the frequency domain transform unit 41 converts the time domain sound signal, which is a time-series signal having a predetermined time length, into N time MDCT coefficient sequences X (0), X in the frequency domain in units of frames having a predetermined time length. (1), ..., converted to X (N-1). N is a positive integer.
  • the obtained MDCT coefficient sequences X (0), X (1),..., X (N-1) are output to the spectrum envelope estimation unit 42 and the whitened spectrum sequence generation unit 43.
  • the subsequent processing is performed in units of frames.
  • the frequency domain conversion unit 41 obtains a frequency domain sample sequence, for example, an MDCT coefficient sequence, corresponding to a time-series signal having a predetermined time length (step C41).
  • the spectrum envelope estimation unit 42 receives the MDCT coefficient sequence X (0), X (1),..., X (N ⁇ 1) obtained by the frequency domain conversion unit 21.
  • the spectrum envelope estimation unit 42 Based on the parameter ⁇ 0 determined by a predetermined method, the spectrum envelope estimation unit 42 performs spectrum envelope estimation using the absolute value ⁇ 0 of the frequency domain sample sequence corresponding to the time-series signal as a power spectrum ( Step C42).
  • the estimated spectrum envelope is output to the whitened spectrum sequence generation unit 43.
  • the spectrum envelope estimation unit 42 estimates the spectrum envelope by generating a non-smoothed amplitude spectrum envelope sequence, for example, by processing of a linear prediction analysis unit 421 and a non-smoothed amplitude spectrum envelope sequence generation unit 422 described below. .
  • the parameter ⁇ 0 is determined by a predetermined method.
  • ⁇ 0 is a predetermined number greater than zero.
  • ⁇ 0 1.
  • the frame before the frame for which the current parameter ⁇ is to be obtained (hereinafter referred to as the current frame) is, for example, a frame before the current frame and in the vicinity of the current frame.
  • the frame in the vicinity of the current frame is, for example, a frame immediately before the current frame.
  • ⁇ Linear prediction analysis unit 421 MDCT coefficient sequences X (0), X (1),..., X (N ⁇ 1) obtained by the frequency domain transform unit 41 are input to the linear prediction analysis unit 421.
  • the linear prediction analysis unit 421 uses the MDCT coefficient sequence X (0), X (1),..., X (N-1) to define ⁇ R (0), ⁇ R defined by the following equation (C1). (1),..., ⁇ R (N-1) are subjected to linear prediction analysis to generate linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p, and the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,. ⁇ p is encoded to generate a linear prediction coefficient code and quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p which are quantized linear prediction coefficients corresponding to the linear prediction coefficient code.
  • the generated quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are output to the non-smoothed spectrum envelope sequence generation unit 422.
  • the linear prediction analyzer 421 first MDCT coefficients X (0), X (1 ), ..., X (N-1) of the inverse Fourier that the eta 0 squared regarded as a power spectrum of the absolute value
  • the linear prediction analysis unit 421 performs linear prediction analysis using the obtained pseudo correlation function signal sequence ⁇ R (0), ⁇ R (1), ..., ⁇ R (N-1) to obtain a linear prediction coefficient. ⁇ 1 , ⁇ 2 ,..., ⁇ p are generated. Then, the linear prediction analysis unit 421 encodes the generated linear prediction coefficients ⁇ 1 , ⁇ 2 ,..., ⁇ p so as to encode a linear prediction coefficient code and a quantized linear prediction coefficient corresponding to the linear prediction coefficient code. ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p are obtained.
  • Linear prediction coefficients ⁇ 1, ⁇ 2, ..., ⁇ p is, MDCT coefficient sequence X (0), X (1 ), ..., and the eta 0 square of the absolute value of X (N-1) was regarded as a power spectrum It is a linear prediction coefficient corresponding to the time domain signal.
  • the generation of the linear prediction coefficient code by the linear prediction analysis unit 421 is performed by, for example, a conventional encoding technique.
  • the conventional encoding technique is, for example, an encoding technique in which a code corresponding to the linear prediction coefficient itself is a linear prediction coefficient code, and a code corresponding to the LSP parameter by converting the linear prediction coefficient into an LSP parameter.
  • an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code for example, an encoding technique for converting a linear prediction coefficient into a PARCOR coefficient and a code corresponding to the PARCOR coefficient as a linear prediction coefficient code.
  • the linear prediction analysis unit 42 for example, a pseudo correlation function signal sequence obtained by performing an inverse Fourier transform in which the absolute value ⁇ 0 of the frequency domain sample sequence that is an MDCT coefficient sequence is regarded as a power spectrum. Is used to perform linear prediction analysis to generate a linear prediction coefficient (step C421).
  • ⁇ Non-smoothed Amplitude Spectrum Envelope Sequence Generation Unit 422 Quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p generated by the linear prediction analysis unit 421 are input to the unsmoothed amplitude spectrum envelope sequence generation unit 422.
  • Textured amplitude spectral envelope sequence generation unit 422 the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ..., ⁇ ⁇ is the sequence of the amplitude spectrum envelope corresponding to p textured amplitude spectral envelope sequence ⁇ H ( 0), ⁇ H (1), ..., ⁇ H (N-1) are generated.
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is output to the whitened spectrum sequence generation unit 43.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 422 uses the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p to generate the unsmoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H ( 1),..., ⁇ H (N-1) as unsmoothed amplitude spectrum envelope sequence defined by equation (C2) ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) Is generated.
  • the unsmoothed amplitude spectrum envelope sequence generation unit 422 performs linear prediction analysis on the unsmoothed spectrum envelope sequence that is a sequence obtained by raising the amplitude spectrum envelope sequence corresponding to the pseudo correlation function signal sequence to the 1 / ⁇ 0 power.
  • the spectral envelope is estimated by obtaining the coefficient based on the coefficient that can be converted into the linear prediction coefficient generated by the unit 421 (step C422).
  • the unsmoothed spectrum envelope sequence generation unit 422 replaces the quantized linear prediction coefficients ⁇ ⁇ 1 , ⁇ ⁇ 2 ,..., ⁇ ⁇ p with the linear prediction coefficients ⁇ 1 , ⁇ 2 generated by the linear prediction analysis unit 421.
  • ⁇ p may be used to obtain non-smoothed amplitude spectrum envelope sequences ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1).
  • the linear prediction analysis unit 421, the quantized linear prediction coefficient ⁇ ⁇ 1, ⁇ ⁇ 2, ... may not the process of obtaining the ⁇ beta p.
  • the whitened spectrum sequence generation unit 43 includes an MDCT coefficient sequence X (0), X (1),..., X (N-1) obtained by the frequency domain conversion unit 41 and a non-smoothed amplitude spectrum envelope generation unit 422.
  • the generated non-smoothed amplitude spectrum envelope sequence ⁇ H (0), ⁇ H (1), ..., ⁇ H (N-1) is input.
  • the whitened spectrum sequence generation unit 43 converts each coefficient of the MDCT coefficient sequence X (0), X (1),..., X (N-1) into a corresponding non-smoothed amplitude spectrum envelope sequence ⁇ H (0), By dividing each value of ⁇ H (1), ..., ⁇ H (N-1), the whitened spectrum series X W (0), X W (1), ..., X W (N-1) Generate.
  • the generated whitening spectrum series X W (0), X W (1),..., X W (N ⁇ 1) are output to the parameter acquisition unit 44.
  • k the coefficients X (()) of the MDCT coefficient sequence X (0), X (1),.
  • k the coefficients X (()) of the MDCT coefficient sequence X (0), X (1),.
  • ⁇ H (0), ⁇ H (1),..., ⁇ H (N-1) values ⁇ H (k) the whitened spectrum sequence X
  • the whitened spectrum sequence generation unit 43 obtains a whitened spectrum sequence that is a sequence obtained by dividing a frequency domain sample sequence that is an MDCT coefficient sequence, for example, by a spectrum envelope that is an unsmoothed amplitude spectrum envelope sequence, for example ( Step C43).
  • the parameter acquisition unit 44 receives the whitened spectrum series X W (0), X W (1),..., X W (N ⁇ 1) generated by the whitened spectrum series generating unit 43.
  • the parameter acquisition unit 44 approximates the histogram of the whitened spectrum series X W (0), X W (1),..., X W (N ⁇ 1) with the generalized Gaussian distribution having the parameter ⁇ as a shape parameter. Is obtained (step C44).
  • the parameter acquisition unit 44 is a distribution of histograms in which the generalized Gaussian distribution having the parameter ⁇ as a shape parameter is a whitened spectrum series X W (0), X W (1), ..., X W (N-1).
  • the parameter ⁇ that is close to is determined.
  • the generalized Gaussian distribution with the parameter ⁇ as a shape parameter is defined as follows, for example.
  • is a gamma function.
  • is a predetermined number greater than zero.
  • may be a predetermined number other than 2 that is greater than 0.
  • may be a predetermined positive number less than 2.
  • is a parameter corresponding to the variance.
  • ⁇ obtained by the parameter acquisition unit 44 is defined by the following equation (C3), for example.
  • F ⁇ 1 is an inverse function of the function F. This equation is derived by the so-called moment method.
  • the parameter acquisition unit 44 inputs the value of m 1 / ((m 2 ) 1/2 ) into the formulated inverse function F ⁇ 1 .
  • the parameter ⁇ can be obtained by calculating the output value.
  • the parameter acquisition unit 44 calculates, for example, the first method or the second method described below in order to calculate the value of ⁇ defined by the equation (C3).
  • the parameter ⁇ may be obtained by
  • the parameter acquisition unit 44 calculates m 1 / ((m 2 ) 1/2 ) based on the whitened spectrum sequence, and a plurality of different F prepared in advance corresponding to ⁇ . ⁇ corresponding to F ( ⁇ ) closest to the calculated m 1 / ((m 2 ) 1/2 ) is obtained with reference to the pair of ( ⁇ ).
  • a plurality of different pairs of F ( ⁇ ) corresponding to ⁇ prepared in advance are stored in advance in the storage unit 441 of the parameter acquisition unit 44.
  • the parameter acquisition unit 44 refers to the storage unit 441, finds F ( ⁇ ) closest to the calculated m 1 / ((m 2 ) 1/2 ), and stores ⁇ corresponding to the found F ( ⁇ ). Read from the unit 441 and output.
  • the approximate curve function of the inverse function F ⁇ 1 is set as, for example, ⁇ F ⁇ 1 represented by the following formula (C3 ′), and the parameter acquisition unit 44 uses m 1 / ((m 2 ) 1/2 ) is calculated, and ⁇ is calculated by calculating the output value when m 1 / ((m 2 ) 1/2 ) calculated in the approximate curve function ⁇ F -1 is input.
  • the approximate curve function ⁇ F -1 may be a monotonically increasing function whose output is a positive value in the domain to be used.
  • ⁇ obtained by the parameter acquisition unit 44 is not an expression (C3) but an expression (C3) using positive integers q1 and q2 determined in advance as in an expression (C3 ′′) (where q1 ⁇ q2). It may be defined by a generalized formula.
  • can be obtained by the same method as that when ⁇ is defined by equation (C3). That is, the parameter acquisition unit 44 calculates a value m q1 / ((m q2 ) q1 / q2 ) based on the q 1st moment m q1 and the q 2nd moment m q2 based on the whitened spectrum series. Then, for example, as in the first and second methods described above, the calculated m q1 / ((() by referring to a plurality of different pairs of F ′ ( ⁇ ) corresponding to ⁇ prepared in advance.
  • is a value based on two different moments m q1 and m q2 having different dimensions.
  • the value of the moment with the lower dimension or a value based on this (hereinafter referred to as the former) and the value of the moment with the higher dimension or ⁇ may be obtained based on the value of the ratio based on the value (hereinafter referred to as the latter), the value based on the value of this ratio, or the value obtained by dividing the former by the latter.
  • the value based on the moment for example, is that the m Q a Q to the moment and m as a given real number.
  • may be obtained by inputting these values into the approximate curve function ⁇ F- 1 .
  • the approximate curve function to F ′ ⁇ 1 may be a monotonically increasing function whose output is a positive value in the domain to be used, as described above.
  • the parameter determination unit 27 ′ may obtain the parameter ⁇ by loop processing. That is, the parameter determination unit 27 ′ sets the parameter ⁇ obtained by the parameter acquisition unit 44 as the parameter ⁇ 0 determined by a predetermined method, and performs processing by the spectrum envelope estimation unit 42, the whitened spectrum sequence generation unit 43, and the parameter acquisition unit 44. May be performed once more.
  • the parameter ⁇ obtained by the parameter acquisition unit 44 is output to the spectrum envelope estimation unit 42.
  • the spectrum envelope estimation unit 42 estimates the spectrum envelope by performing the same process as described above using ⁇ obtained by the parameter acquisition unit 44 as the parameter ⁇ 0 .
  • the whitened spectrum sequence generation unit 43 Based on the newly estimated spectrum envelope, the whitened spectrum sequence generation unit 43 generates a whitened spectrum sequence by performing the same process as described above.
  • the parameter acquisition unit 44 performs a process similar to the process described above based on the newly generated whitened spectrum sequence to obtain the parameter ⁇ .
  • the processing of the spectrum envelope estimation unit 42, the whitened spectrum series generation unit 43, and the parameter acquisition unit 44 may be further performed a predetermined number of times ⁇ .
  • the spectrum envelope estimation unit 42 performs the spectrum envelope estimation unit 42, the whitened spectrum sequence generation unit 43, and the parameter until the absolute value of the difference between the parameter ⁇ obtained this time and the parameter ⁇ obtained last time is equal to or less than a predetermined threshold. You may repeat the process of the acquisition part 44. FIG.
  • the second series storage unit 52 stores a second series that is a series of parameters ⁇ respectively corresponding to at least one time series signal having a predetermined time length constituting the second signal.
  • the second signal is a sound signal such as an audio digital signal or an acoustic digital signal to be matched with the first signal.
  • the second series is obtained, for example, by the parameter determination unit 27 ′ and stored in the second series storage unit 52.
  • each of at least one time-series signal having a predetermined time length constituting the second signal is input to the parameter determining unit 27 ′, and the parameter determining unit 27 ′ performs the same process as the process for obtaining the first sequence.
  • the second series may be obtained and stored in the second series storage unit 52.
  • the at least one time-series signal having a predetermined time length constituting the second signal may be all or a part of the time-series signals having the predetermined time length constituting the second signal. Good.
  • the matching unit 51 determines each of the plurality of signals as the second signal and makes a determination described later, it is assumed that the second sequence corresponding to each of the plurality of signals is stored in the second sequence storage unit 52. .
  • the second sequence obtained by the parameter determination unit 27 ′ may be directly input to the matching unit 51 without using the second sequence storage unit 52.
  • the second sequence storage unit 52 may not be provided in the matching device.
  • the parameter determination unit 27 ′ reads each signal from, for example, a database (not shown) in which a plurality of signals (a plurality of music pieces) are stored, obtains a second series from the read signals, and a matching unit To 51.
  • the matching unit 51 receives the first sequence obtained by the parameter determination unit 27 ′ and the second sequence read from the second sequence storage unit 52, for example.
  • the matching unit 51 determines the degree of coincidence between the first signal and the second signal and / or whether the first signal and the second signal are coincident based on the first series and the second series.
  • the determination result is output (step F2).
  • the first series is written as ( ⁇ 1,1 , ⁇ 1,2 , ..., ⁇ 1, N1 ), and the second series is written as ( ⁇ 2,1 , ⁇ 2,2 , ..., ⁇ 2, N2 ) To do.
  • N1 is the number of parameters ⁇ constituting the first sequence.
  • N2 is the number of parameters ⁇ constituting the second series. Assume that N1 ⁇ N2.
  • the degree of coincidence between the first signal and the second signal is the similarity between the first series and the second series.
  • the similarity between the first sequence and the second sequence is, for example, the first sequence ( ⁇ 1,1 , ⁇ , included in the second sequence ( ⁇ 2,1 , ⁇ 2,2 ,..., ⁇ 2, N2 ). 1,2, ..., and eta 1, N1) nearest sequence to the first sequence (eta 1, 1, eta 1, 2, the distance between the eta 1, N1).
  • the similarity between the first series and the second series is defined by the following formula, for example.
  • min is a function that outputs the minimum value.
  • Euclidean distance is used as the distance, but other existing distances such as the Manhattan distance and the standard deviation of the error may be used.
  • the representative value series of the parameter ⁇ obtained from the first series ( ⁇ 1,1 , ⁇ 1,2 ,..., ⁇ 1, N1 ) is represented by the representative first series ( ⁇ 1,1 r , ⁇ 1,2 r , ..., ⁇ 1, N1 ' r ).
  • a series of representative values of the parameter ⁇ obtained from the second series ( ⁇ 2,1 , ⁇ 2,2 ,..., ⁇ 2, N2 ) is represented as a representative second series ( ⁇ 2,1 r , ⁇ 2, 2 r, ..., and ⁇ 2, N2 'r).
  • ⁇ 1, kr is the sequence ( ⁇ 1, (k-1) c + 1 , ⁇ 1, (k-1) c + 2 , ..., ⁇ 1, kc ) in the first sequence. Is a representative value.
  • the representative value ⁇ 2, kr is the sequence ( ⁇ 2, (k-1) c + 1 , ⁇ 2, (k-1) c + 2 , ..., ⁇ 2, kc ) in the second sequence. Is a representative value.
  • the representative value ⁇ 1, k r is the sequence ( ⁇ 1, (k ⁇ 1) c + 1 , ⁇ 1, (k ⁇ 1) c in the first sequence. +2, ..., a value representative of eta 1, kc), for example, sequence ( ⁇ 1, (k-1 ) c + 1, ⁇ 1, (k-1) c + 2, ..., ⁇ 1, kc ) is the average, median, maximum or minimum value.
  • the representative value ⁇ 2, kr is the sequence ( ⁇ 2, (k ⁇ 1) c + 1 , ⁇ 2, (k ⁇ 1) c in the second sequence.
  • sequence ( ⁇ 2, (k-1 ) c + 1, ⁇ 2, (k-1) c + 2, ..., ⁇ 2, kc ) is the average, median, maximum or minimum value.
  • a representative second series ( ⁇ 2,1 r, ⁇ 2,2 r , ..., ⁇ 2, N2 'r) contained in the representative first series (eta 1 , 1 r , ⁇ 1,2 r ,..., ⁇ 1, N1 ′ r ) and the representative first sequence ( ⁇ 1,1 r , ⁇ 1,2 r ,..., ⁇ 1, N1 ′ r ).
  • Representative first series ( ⁇ 1,1 r , ⁇ 1,2 r , ..., ⁇ included in the representative second series ( ⁇ 2,1 r , ⁇ 2,2 r , ..., ⁇ 2, N2 ' r ) 1, N1 'r) and number of elements nearest sequence to the representative first series ( ⁇ 1,1 r, ⁇ 1,2 r , ..., ⁇ 1, N1' and the number of elements r) is the same To do.
  • the similarity between the first series and the second series using this representative value is defined by the following equation, for example.
  • min is a function that outputs the minimum value.
  • Euclidean distance is used as the distance, but other existing distances such as the Manhattan distance and the standard deviation of the error may be used.
  • Whether or not the first signal and the second signal match can be determined, for example, by comparing the degree of matching between the first signal and the second signal with a predetermined threshold value. For example, the matching unit 51 determines that the first signal and the second signal match when the matching degree between the first signal and the second signal is smaller than a predetermined threshold value or less than a predetermined threshold value. If not, it is determined that the first signal and the second signal do not match.
  • the matching unit 51 may perform the above determination using each of the plurality of signals as the second signal. In this case, the matching unit 51 calculates the degree of coincidence between each of the plurality of signals and the first signal, selects a signal having the smallest degree of coincidence calculated from the plurality of signals, and the degree of coincidence is calculated. Information about the smallest signal may be output.
  • the second series and information corresponding to each of a plurality of songs are stored in the second series storage unit 52.
  • a user wants to know which song a certain song is.
  • the user inputs the sound signal corresponding to the song as a first signal to the matching device, and the matching unit 51 displays the information of the song having the smallest degree of coincidence with the sound signal corresponding to the song in the second series.
  • the storage unit 52 By obtaining from the storage unit 52, it is possible to know the information of the music corresponding to the music.
  • the matching unit 51 includes a first time change sequence ( ⁇ 1,1 , ⁇ 1,2 ) that is a time change sequence of the first sequence ( ⁇ 1,1 , ⁇ 1,2 ,..., ⁇ 1, N1 ). , ..., ⁇ 1, N1-1 ) and the second time series ( ⁇ 2,1 ), which is a time change series of the second series ( ⁇ 2,1 , ⁇ 2,2 , ..., ⁇ 2, N2 ). , ⁇ 2,2 ,..., ⁇ 2, N2-1 ).
  • the time-varying first sequence ( ⁇ 1 ) is used instead of the first sequence ( ⁇ 1,1 , ⁇ 1,2 ,..., ⁇ 1, N1 ). , 1 , ⁇ 1,2 ,..., ⁇ 1, N1-1 ), instead of the second sequence ( ⁇ 2,1 , ⁇ 2,2 ,..., ⁇ 2, N2 ) ⁇ 2,1, ⁇ 2,2, ..., ⁇ 2, by using N2-1), it is possible to perform matching based on the time change first sequence and the time change the second series.
  • the matching unit 51 includes not only the first series and the second series, but also an index indicating the loudness (for example, amplitude or energy), a temporal variation of the index representing the loudness, a spectral shape, and a spectral shape. Matching may also be performed by further using acoustic feature quantities such as temporal fluctuations, pitch periodicity, and fundamental frequency. For example, (1) You may perform a matching based on the 1st series and the 2nd series, and the parameter
  • (3) matching may be performed based on the first series, the second series, and the spectrum shape of the time series signal. Further, (4) the mapping may be performed based on the first series, the second series, and the temporal variation of the spectrum shape of the time series signal. Further, (5) the matching may be performed based on the first sequence and the second sequence and the periodicity of the pitch of the time series signal.
  • the matching unit 51 may perform matching using an identification technique such as SVM (Support Vector Machine) or Boosting.
  • SVM Small Vector Machine
  • Boosting Boosting
  • the matching unit 51 determines the type of each time-series signal having a predetermined time length constituting the first signal by the same process as the process of the determination unit 53 described later, and the process of the determination unit 53 described later. Matching may be performed by determining the types of time-series signals of each predetermined time length constituting the second signal by similar processing and determining whether the determination results are the same. For example, when the determination result for the first signal is “voice ⁇ music ⁇ voice ⁇ music” and the determination result for the second signal is “voice ⁇ music ⁇ voice ⁇ music”, the matching unit 51 It is determined that the first signal and the second signal match.
  • the determination apparatus includes, for example, a parameter determination unit 27 'and a determination unit 53 as shown in FIG. Each part of the determination apparatus performs each process illustrated in FIG. 4 to realize the determination method.
  • a first signal that is a time-series signal is input to the parameter determination unit 27 ′ every predetermined time length.
  • An example of the first signal is a sound signal such as a voice digital signal or an acoustic digital signal.
  • the parameter determination unit 27 determines the input time-series signal parameter ⁇ having a predetermined time length by a process to be described later based on the input time-series signal having a predetermined time length (step F1). Thereby, a series of parameters ⁇ respectively corresponding to at least one time-series signal having a predetermined time length constituting the first signal is obtained.
  • a sequence of parameters ⁇ corresponding to at least one time-series signal having a predetermined time length constituting the first signal is referred to as a “first sequence”.
  • the parameter determination unit 27 ′ performs processing for each frame having a predetermined time length.
  • the at least one time-series signal having a predetermined time length constituting the first signal may be all or a part of the time-series signal having a predetermined time length constituting the first signal. Good.
  • the first series of parameters ⁇ determined by the parameter determination unit 27 ′ is output to the determination unit 53.
  • ⁇ Determining unit 53> The first series determined by the parameter determination unit 27 ′ is input to the determination unit 53.
  • the determining unit 53 determines a section of a predetermined type of signal in the first signal and / or a type of the first signal based on the first series (step F3).
  • the predetermined type of signal section is, for example, a section such as a voice section, a music section, a non-stationary sound section, or a stationary sound section.
  • the first series is expressed as ( ⁇ 1,1 , ⁇ 1,2 ,..., ⁇ 1, N1 ).
  • N1 is the number of parameters ⁇ constituting the first sequence.
  • the determination unit 53 determines a section of a time-series signal having a predetermined time length corresponding to the parameter ⁇ 1, k in the first signal as an unsteady sound. It is determined that the section is (voice, silence, etc.).
  • the determination unit 53 determines a section of a time-series signal having a predetermined time length corresponding to the parameter ⁇ 1, k in the first signal as a stationary sound ( It is determined that it is a section of music with a slow temporal fluctuation.
  • the section of a predetermined type of signal in the first signal may be determined by comparing with a plurality of predetermined thresholds.
  • First threshold > second threshold.
  • the determination unit 53 selects a section of a time-series signal having a predetermined time length corresponding to the parameter ⁇ 1, k in the first signal as silence. It is determined that it is a section.
  • the determination unit 53 includes a time-series signal having a predetermined time length corresponding to the parameter ⁇ 1, k in the first signal. Are determined to be unsteady sound sections.
  • the determination unit 53 steady-states a section of a time-series signal having a predetermined time length corresponding to the parameter ⁇ 1, k in the first signal. It is determined that it is a section of sound.
  • the determination of the type of the first signal can be performed based on, for example, the determination result of the type of signal section.
  • the determination unit 53 calculates, for each type of the determined signal section, the ratio of the section of the signal of the type in the first signal, and the value of the ratio of the section of the signal section having the largest ratio Is greater than or equal to the processing threshold or greater than the threshold, it is determined that the first signal is the type of signal section having the largest ratio.
  • the representative value series of the parameter ⁇ obtained from the first series ( ⁇ 1,1 , ⁇ 1,2 ,..., ⁇ 1, N1 ) is represented by the representative first series ( ⁇ 1,1 r , ⁇ 1,2 r , ..., ⁇ 1, N1 ' r ).
  • ⁇ 1, kr is the representative of the sequence ( ⁇ 1, (k-1) c + 1 , ⁇ 1, (k-1) c + 2 , ..., ⁇ 1, kc ) in the first sequence. Value.
  • a value representative of eta 1, kc for example, sequence ( ⁇ 1, (k-1 ) c + 1, ⁇ 1, (k-1) c + 2, ..., ⁇ 1, kc ) is the average, median, maximum or minimum value.
  • the determination unit 53 includes a predetermined type of signal section in the first signal, and Alternatively, the type of the first signal for determining the type of the first signal may be determined.
  • the determination unit 53 has a predetermined time length corresponding to the representative value ⁇ 1, k r in the first signal.
  • the section of the sequence signal is determined to be a voice section.
  • the representative value eta 1, k r to the corresponding time series signal of a predetermined length of time interval sequences in the first sequence corresponding to the representative value ⁇ 1, k r ( ⁇ 1 , (k- 1) A time-series signal section having a predetermined time length corresponding to each parameter ⁇ of c + 1 , ⁇ 1, (k ⁇ 1) c + 2 ,..., ⁇ 1, kc ).
  • the determination unit 53 determines a predetermined time length corresponding to the representative value ⁇ 1, k r in the first signal. Is determined to be a music section.
  • the determination unit 53 determines a predetermined time length corresponding to the representative value ⁇ 1, k r in the first signal. Are determined to be non-stationary sound sections.
  • the determination unit 53 when a third threshold value> representative value eta 1, k r is in the first signal, the time series signals of a predetermined time length corresponding to the representative value eta 1, k r Is determined to be a stationary sound section.
  • the determination unit 53 includes a time change first sequence ( ⁇ 1,1 , ⁇ 1,2 ) that is a time change sequence of the first sequence ( ⁇ 1,1 , ⁇ 1,2 ,..., ⁇ 1, N1 ). ,..., ⁇ 1, N1-1 ) may be used for the determination process.
  • the time-varying first sequence ( ⁇ 1,1 , ⁇ ) instead of the first sequence ( ⁇ 1,1 , ⁇ 1,2 ,..., ⁇ 1, N1 ) 1 , 2 ,..., ⁇ 1, N1-1 ) makes it possible to make a determination based on the first time-varying sequence.
  • the determination unit 53 includes an index (for example, amplitude or energy) that represents the loudness of the time-series signal, a temporal variation of the index representing the loudness, a spectral shape, a temporal variation of the spectral shape, a pitch
  • the determination may be made by further using acoustic features such as periodicity and fundamental frequency.
  • the determination unit 53 may perform the determination based on (1) the parameter ⁇ 1, k and an index that represents the loudness of the time-series signal.
  • the determination may be performed based on the parameter ⁇ 1, k and the temporal variation of the index representing the sound volume of the time series signal.
  • the determination may be performed based on the parameter ⁇ 1, k and the spectrum shape of the time series signal.
  • the determination may be performed based on the parameter ⁇ 1, k and the temporal variation of the spectrum shape of the time series signal. Further, (5) The determination may be performed based on the parameter ⁇ 1, k and the periodicity of the pitch of the time series signal.
  • the determination unit 53 performs the determination based on (1) the parameter ⁇ 1, k and an index representing the volume of the time series signal, (2) the parameter ⁇ 1, k and the sound of the time series signal (3)
  • the determination unit 53 performs the determination based on (1) the parameter ⁇ 1, k and an index representing the volume of the time series signal, (2) the parameter ⁇ 1, k and the sound of the time series signal (3)
  • Parameter ⁇ 1 When the determination is made based on k and the temporal variation of the spectrum shape of the time series signal, (5) the case where the determination is made based on the parameter ⁇ 1, k and the periodicity of the pitch of the time series signal will be described. To do.
  • the determination unit 53 When the determination is performed based on the parameter ⁇ 1, k and the index representing the loudness, the determination unit 53 has an index representing the loudness of the time-series signal corresponding to the parameter ⁇ 1, k. It is determined whether or not the parameter ⁇ 1, k is large.
  • the section of the time series signal corresponding to the parameter ⁇ 1, k is the section of ambient noise (noise). Is determined.
  • the time-series signal section corresponding to the parameter ⁇ 1, k It determines with the area of.
  • the time-series signal section corresponding to the parameter ⁇ 1, k is a section of voice or lively music Is determined.
  • the time series signal section corresponding to the parameter ⁇ 1, k is the music section such as a musical instrument performance. judge.
  • the determination unit 53 determines the time series corresponding to the parameter ⁇ 1, k It is determined whether or not the temporal variation of the index representing the loudness of the signal is large, and whether or not the parameter ⁇ 1, k is large.
  • the time-series signal section corresponding to the parameter ⁇ 1, k is the ambient noise (noise). It determines with the area of.
  • the determination unit 53 selects the time-series signal section corresponding to the parameter ⁇ 1, k. It is determined as a voice section.
  • the determination unit 53 determines the time-series signal section corresponding to the parameter ⁇ 1, k. It is determined that the music section has a large time fluctuation.
  • the determination unit 53 determines whether the spectrum shape of the time series signal corresponding to the parameter ⁇ 1, k is flat. Also, it is determined whether the parameter ⁇ 1, k is large.
  • the section of the time-series signal corresponding to the parameter ⁇ 1, k is determined as a steady ambient noise (noise) section. .
  • Do flat spectral shape of the time-series signals corresponding to the parameter eta 1, k may be determined based on a predetermined threshold value E V.
  • the section of the time series signal corresponding to the parameter ⁇ 1, k is determined as a music section having a large time variation.
  • the section of the time series signal corresponding to the parameter ⁇ 1, k is determined as the voice section.
  • the time-series signal section corresponding to the parameter ⁇ 1, k Judged as a section.
  • the determination unit 53 determines the temporal shape of the spectrum shape of the time series signal corresponding to the parameter ⁇ 1, k. It is determined whether or not the fluctuation is large, and whether or not the parameter ⁇ 1, k is large.
  • Whether the temporal variation of the spectrum shape of the time-series signal corresponding to the parameter ⁇ 1, k is flat can be determined based on a predetermined threshold value E V ′ .
  • E V ′ a predetermined threshold value
  • the value F V ((1/4) ⁇ 4 subframes of the 4th subframe constituting the time series signal is obtained by dividing the arithmetic average of the absolute values of the primary PARCOR coefficients of the 4th subframe by the geometric mean.
  • the parameter ⁇ 1, temporal variation in the spectral shape of the time-series signal corresponding to k is large, can be otherwise determined that the small temporal fluctuations in the spectral shape of the time-series signals corresponding to the parameter eta 1, k.
  • the section of the time series signal corresponding to the parameter ⁇ 1, k is determined as the voice section.
  • the section of the time series signal corresponding to the parameter ⁇ 1, k is determined to be a music section with a large time variation.
  • the section of the time series signal corresponding to the parameter ⁇ 1, k is determined as the ambient noise (noise) section.
  • the time-series signal section corresponding to the parameter ⁇ 1, k Judged as a music section.
  • the determination unit 53 determines whether the pitch periodicity of the time-series signal corresponding to the parameter ⁇ 1, k is large. It is also determined whether or not the parameter ⁇ 1, k is large.
  • periodicity of pitch is large, it can be determined based on, for example, a predetermined threshold C P. That is, if the pitch periodicity ⁇ the predetermined threshold value CP, it can be determined that the pitch periodicity is large, and otherwise the pitch periodicity is small.
  • a periodicity of pitch for example, normalized correlation function with a sequence separated by pitch period ⁇ samples
  • the section of the time series signal corresponding to the parameter ⁇ 1, k is determined as the voice section.
  • the time-series signal section corresponding to the parameter ⁇ 1, k is determined to be a section of wind or string instrument music mainly composed of continuous sounds. .
  • the section of the time series signal corresponding to the parameter ⁇ 1, k is determined as the section of ambient noise (noise).
  • the determination unit 53 may perform determination using an identification technology such as SVM (Support Vector Machine) or Boosting. In this case, learning data in which labels such as speech, music, and silence are associated with each parameter ⁇ is prepared, and learning is performed in advance using the learning data.
  • SVM Serial Vector Machine
  • Boosting Boosting
  • Each unit in each apparatus or each method may be realized by a computer. In that case, the processing content of each apparatus or each method is described by a program. And each part in each apparatus or each method is implement
  • the program describing the processing contents can be recorded on a computer-readable recording medium.
  • a computer-readable recording medium for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.
  • this program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first stores a program recorded on a portable recording medium or a program transferred from a server computer in its storage unit. When executing the process, this computer reads the program stored in its own storage unit and executes the process according to the read program.
  • a computer may read a program directly from a portable recording medium and execute processing according to the program. Further, each time a program is transferred from the server computer to the computer, processing according to the received program may be executed sequentially.
  • the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by an execution instruction and result acquisition. It is good.
  • the program includes information provided for processing by the electronic computer and equivalent to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
  • each device is configured by executing a predetermined program on a computer, at least a part of these processing contents may be realized by hardware.
  • the matching device, method, and program can be used, for example, to search for the source of a song, to detect illegal content, and to search for another song that has a similar musical instrument or song composition.
  • the determination apparatus, method, and program can be used, for example, for calculating a copyright fee.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Auxiliary Devices For Music (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Complex Calculations (AREA)

Abstract

マッチング装置は、第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの第一系列と、第二信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの第二系列とに基づいて、第一信号と第二信号との一致度合い、及び/又は、第一信号と第二信号とが一致しているかどうかを判定するマッチング部51を備えている。

Description

マッチング装置、判定装置、これらの方法、プログラム及び記録媒体
 この発明は、音信号に基づいてマッチング又は信号の区間若しくは種類の判定を行う技術に関する。
 音信号等の時系列信号の特徴を表すパラメータとして、LSP等のパラメータが知られている(例えば、非特許文献1参照)。
 LSPは、複数次なので直接的に音の分類や区間推定に使うのは扱いが難しい場合がある。例えば、LSPは複数次であるため、LSPを用いた閾値に基づく処理は容易とは言えない。
 ところで、公知とはなっていないが、発明者によりパラメータηが提案されている。このパラメータηは、例えば3GPP EVS(Enhanced Voice Services)規格で使われているような線形予測包絡を利用する周波数領域の係数の量子化値を算術符号化する符号化方式において、算術符号の符号化対象の属する確率分布を定める形状パラメータである。パラメータηは、符号化対象の分布と関連性を有しており、パラメータηを適宜定めると効率の良い符号化及び復号を行うことが可能である。
 また、パラメータηは、時系列信号の特徴を表す指標と成り得る。このため、パラメータηは、上記符号化処理以外の技術、例えばマッチング技術や信号の区間又は種類の判定技術等の音声音響関連技術に用いることができる。
 さらに、パラメータηは1次の値であるため、パラメータηを用いた閾値に基づく処理はLSPを用いた閾値に基づく処理と比較すると容易である。このため、パラメータηは、マッチング技術や信号の区間又は種類の判定技術等の音声音響関連技術に容易に用いることができる。
守谷健弘,「高圧縮音声符号化の必須技術:線スペクトル対(LSP)」,NTT技術ジャーナル,2014年9月,P.58-60
 しかしながら、パラメータηを用いたマッチング技術及び信号の区間又は種類の判定技術は知られていなかった。
 本発明は、パラメータηを用いてマッチングを行うマッチング装置、パラメータηを用いて信号の区間又は種類の判定を行う判定装置、これらの方法、プログラム及び記録媒体を提供することを目的とする。
 本発明の一態様によるマッチング装置によれば、パラメータηを正の数として、所定の時間長の時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡で周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとして、第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの第一系列と、第二信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの第二系列とに基づいて、第一信号と第二信号との一致度合い、及び/又は、第一信号と第二信号とが一致しているかどうかを判定するマッチング部、を備えている。
 本発明の一態様による判定装置によれば、パラメータηを正の数として、所定の時間長の時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡で周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとし、第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの系列を第一系列として、第一系列に基づいて、第一信号の中の所定の種類の信号の区間、及び/又は、第一信号の種類を判定する判定部を備えている。
 パラメータηを用いてマッチング又は信号の区間若しくは種類の判定を行うことができる。
マッチング装置の例を説明するためのブロック図。 マッチング方法の例を説明するためのフローチャート。 判定装置の例を説明するためのブロック図。 判定方法の例を説明するためのフローチャート。 パラメータ決定部の例を説明するためのブロック図。 パラメータ決定部の例を説明するためのフローチャート。 一般化ガウス分布を説明するための図。
 [マッチング装置及び方法]
 マッチング装置及び方法の一例について説明する。
 マッチング装置は、図1に示すように、パラメータ決定部27’、マッチング部51及び第二系列記憶部52を例えば備えている。マッチング装置の各部が、図2に例示する各処理を行うことによりマッチング方法が実現される。
 以下、マッチング装置の各部について説明する。
 <パラメータ決定部27’>
 パラメータ決定部27’には、時系列信号である第一信号が所定の時間長のごとに入力される。第一信号の例は、音声ディジタル信号又は音響ディジタル信号等の音信号である。
 パラメータ決定部27’は、入力された所定の時間長の時系列信号に基づいて、後述する処理により、その入力された所定の時間長の時系列信号パラメータηを決定する(ステップF1)。これにより、第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの系列を得る。この第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの系列のことを「第一系列」と呼ぶことにする。このように、パラメータ決定部27’は、所定の時間長のフレームごとに処理を行う。
 なお、第一信号を構成する少なくとも1つの所定の時間長の時系列信号は、第一信号を構成する所定の時間長の時系列信号の全部であってもよいし、一部であってもよい。
 パラメータ決定部27’により決定されたパラメータηの第一系列は、マッチング部51に出力される。
 パラメータ決定部27’の構成例を図5に示す。パラメータ決定部27’は、図5に示すように、周波数領域変換部41と、スペクトル包絡推定部42と、白色化スペクトル系列生成部43と、パラメータ取得部44とを例えば備えている。スペクトル包絡推定部42は、線形予測分析部421及び非平滑化振幅スペクトル包絡系列生成部422を例えば備えている。例えばこのパラメータ決定部27’により実現されるパラメータ決定方法の各処理の例を図6に示す。
 以下、図5の各部について説明する。
 <周波数領域変換部41>
 周波数領域変換部41には、所定の時間長の時系列信号が入力される。
 周波数領域変換部41は、所定の時間長のフレーム単位で、入力された所定の時間長の時系列信号である時間領域の音信号を周波数領域のN点のMDCT係数列X(0),X(1),…,X(N-1)に変換する。Nは正の整数である。
 得られたMDCT係数列X(0),X(1),…,X(N-1)は、スペクトル包絡推定部42及び白色化スペクトル系列生成部43に出力される。
 特に断りがない限り、以降の処理はフレーム単位で行われるものとする。
 このようにして、周波数領域変換部41は、所定の時間長の時系列信号に対応する、例えばMDCT係数列である周波数領域サンプル列を求める(ステップC41)。
 <スペクトル包絡推定部42>
 スペクトル包絡推定部42には、周波数領域変換部21が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 スペクトル包絡推定部42は、所定の方法で定められるパラメータη0に基づいて、時系列信号に対応する周波数領域サンプル列の絶対値のη0乗をパワースペクトルとして用いたスペクトル包絡の推定を行う(ステップC42)。
 推定されたスペクトル包絡は、白色化スペクトル系列生成部43に出力される。
 スペクトル包絡推定部42は、例えば以下に説明する線形予測分析部421及び非平滑化振幅スペクトル包絡系列生成部422の処理により、非平滑化振幅スペクトル包絡系列を生成することによりスペクトル包絡の推定を行う。
 パラメータη0は所定の方法で定められるとする。例えば、η0を0より大きい所定の数とする。例えば、η0=1とする。また、現在パラメータηを求めようとしているフレームよりも前のフレームで求まったηを用いてもよい。現在パラメータηを求めようとしているフレーム(以下、現フレームとする。)よりも前のフレームとは、例えば現フレームのよりも前のフレームであって現フレームの近傍のフレームである。現フレームの近傍のフレームは、例えば現フレームの直前のフレームである。
 <線形予測分析部421>
 線形予測分析部421には、周波数領域変換部41が得たMDCT係数列X(0),X(1),…,X(N-1)が入力される。
 線形予測分析部421は、MDCT係数列X(0),X(1),…,X(N-1)を用いて、以下の式(C1)により定義される~R(0),~R(1),…,~R(N-1)を線形予測分析して線形予測係数β12,…,βpを生成し、生成された線形予測係数β12,…,βpを符号化して線形予測係数符号と線形予測係数符号に対応する量子化された線形予測係数である量子化線形予測係数^β1,^β2,…,^βpとを生成する。
Figure JPOXMLDOC01-appb-M000001
 生成された量子化線形予測係数^β1,^β2,…,^βpは、非平滑化スペクトル包絡系列生成部422に出力される。
 具体的には、線形予測分析部421は、まずMDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗をパワースペクトルと見做した逆フーリエ変換に相当する演算、すなわち式(C1)の演算を行うことにより、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗に対応する時間領域の信号列である擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を求める。そして、線形予測分析部421は、求まった擬似相関関数信号列~R(0),~R(1),…,~R(N-1)を用いて線形予測分析を行って、線形予測係数β12,…,βpを生成する。そして、線形予測分析部421は、生成された線形予測係数β12,…,βpを符号化することにより、線形予測係数符号と、線形予測係数符号に対応する量子化線形予測係数^β1,^β2,…,^βpとを得る。
 線形予測係数β12,…,βpは、MDCT係数列X(0),X(1),…,X(N-1)の絶対値のη0乗をパワースペクトルと見做したときの時間領域の信号に対応する線形予測係数である。
 線形予測分析部421による線形予測係数符号の生成は、例えば従来的な符号化技術によって行われる。従来的な符号化技術とは、例えば、線形予測係数そのものに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をLSPパラメータに変換してLSPパラメータに対応する符号を線形予測係数符号とする符号化技術、線形予測係数をPARCOR係数に変換してPARCOR係数に対応する符号を線形予測係数符号とする符号化技術などである。
 このようにして、線形予測分析部421は、例えばMDCT係数列である周波数領域サンプル列の絶対値のη0乗をパワースペクトルと見做した逆フーリエ変換を行うことにより得られる疑似相関関数信号列を用いて線形予測分析を行い線形予測係数を生成する(ステップC421)。
 <非平滑化振幅スペクトル包絡系列生成部422>
 非平滑化振幅スペクトル包絡系列生成部422には、線形予測分析部421が生成した量子化線形予測係数^β1,^β2,…,^βpが入力される。
 非平滑化振幅スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpに対応する振幅スペクトル包絡の系列である非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
 生成された非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)は、白色化スペクトル系列生成部43に出力される。
 非平滑化振幅スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpを用いて、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)として、式(C2)により定義される非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を生成する。
Figure JPOXMLDOC01-appb-M000002
 このようにして、非平滑化振幅スペクトル包絡系列生成部422は、疑似相関関数信号列に対応する振幅スペクトル包絡の系列を1/η0乗した系列である非平滑化スペクトル包絡系列を線形予測分析部421により生成された線形予測係数に変換可能な係数に基づいて得ることによりスペクトル包絡の推定を行う(ステップC422)。
 なお、非平滑化スペクトル包絡系列生成部422は、量子化線形予測係数^β1,^β2,…,^βpに代えて線形予測分析部421が生成した線形予測係数β12,…,βpを用いることにより、非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)を得てもよい。この場合は、線形予測分析部421は、量子化線形予測係数^β1,^β2,…,^βpを得る処理をしなくてもよい。
 <白色化スペクトル系列生成部43>
 白色化スペクトル系列生成部43には、周波数領域変換部41が得たMDCT係数列X(0),X(1),…,X(N-1)及び非平滑化振幅スペクトル包絡生成部422が生成した非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)が入力される。
 白色化スペクトル系列生成部43は、MDCT係数列X(0),X(1),…,X(N-1)の各係数を、対応する非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値で除算することにより、白色化スペクトル系列XW(0),XW(1),…,XW(N-1)を生成する。
 生成された白色化スペクトル系列XW(0),XW(1),…,XW(N-1)は、パラメータ取得部44に出力される。
 白色化スペクトル系列生成部43は、例えば、k=0,1,…,N-1として、MDCT係数列X(0),X(1),…,X(N-1)の各係数X(k)を非平滑化振幅スペクトル包絡系列^H(0),^H(1),…,^H(N-1)の各値^H(k)で除算することにより、白色化スペクトル系列XW(0),XW(1),…,XW(N-1)の各値XW(k)を生成する。すなわち、k=0,1,…,N-1として、XW(k)=X(k)/^H(k)である。
 このようにして、白色化スペクトル系列生成部43は、例えば非平滑化振幅スペクトル包絡系列であるスペクトル包絡で例えばMDCT係数列である周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る(ステップC43)。
 <パラメータ取得部44>
 パラメータ取得部44には、白色化スペクトル系列生成部43が生成した白色化スペクトル系列XW(0),XW(1),…,XW(N-1)が入力される。
 パラメータ取得部44は、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列XW(0),XW(1),…,XW(N-1)のヒストグラムを近似するパラメータηを求める(ステップC44)。言い換えれば、パラメータ取得部44は、パラメータηを形状パラメータとする一般化ガウス分布が白色化スペクトル系列XW(0),XW(1),…,XW(N-1)のヒストグラムの分布に近くなるようなパラメータηを決定する。
 パラメータηを形状パラメータとする一般化ガウス分布は、例えば以下のように定義される。Γは、ガンマ関数である。
Figure JPOXMLDOC01-appb-M000003
 一般化ガウス分布は、形状パラメータであるηを変えることにより、図3のようにη=1の時はラプラス分布、η=2の時はガウス分布、といったように様々な分布を表現することができるものである。ηは、0より大きい所定の数である。ηは、0より大きい2以外の所定の数であってもよい。具体的には、ηは、2未満の所定の正の数であってよい。φは分散に対応するパラメータである。
 ここで、パラメータ取得部44が求めるηは、例えば以下の式(C3)により定義される。F-1は、関数Fの逆関数である。この式は、いわゆるモーメント法により導出されるものである。
Figure JPOXMLDOC01-appb-M000004
 逆関数F-1が定式化されている場合には、パラメータ取得部44は、定式化された逆関数F-1にm1/((m2)1/2)の値を入力したときの出力値を計算することによりパラメータηを求めることができる。
 逆関数F-1が定式化されていない場合には、パラメータ取得部44は、式(C3)で定義されるηの値を計算するために、例えば以下に説明する第一方法又は第二方法によりパラメータηを求めてもよい。
 パラメータηを求めるための第一方法について説明する。第一の方法では、パラメータ取得部44は、白色化スペクトル系列に基づいてm1/((m2)1/2)を計算し、予め用意しておいた異なる複数の、ηと対応するF(η)のペアを参照して、計算されたm1/((m2)1/2)に最も近いF(η)に対応するηを取得する。
 予め用意しておいた異なる複数の、ηと対応するF(η)のペアは、パラメータ取得部44の記憶部441に予め記憶しておく。パラメータ取得部44は、記憶部441参照して、計算されたm1/((m2)1/2)に最も近いF(η)を見つけ、見つかったF(η)に対応するηを記憶部441から読み込み出力する。
 計算されたm1/((m2)1/2)に最も近いF(η)とは、計算されたm1/((m2)1/2)との差の絶対値が最も小さくなるF(η)のことである。
 パラメータηを求めるための第二方法について説明する。第二の方法では、逆関数F-1の近似曲線関数を例えば以下の式(C3’)で表される~F-1として、パラメータ取得部44は、白色化スペクトル系列に基づいてm1/((m2)1/2)を計算し、近似曲線関数~F-1に計算されたm1/((m2)1/2)を入力したときの出力値を計算することによりηを求める。この近似曲線関数~F-1は使用する定義域において出力が正値となる単調増加関数であればよい。
Figure JPOXMLDOC01-appb-M000005
 なお、パラメータ取得部44が求めるηは、式(C3)ではなく、式(C3'')のように予め定めた正の整数q1及びq2を用いて(ただしq1<q2)式(C3)を一般化した式により定義されてもよい。
Figure JPOXMLDOC01-appb-M000006
 なお、ηが式(C3'')により定義される場合も、ηが式(C3)により定義されている場合と同様の方法により、ηを求めることができる。すなわち、パラメータ取得部44が、白色化スペクトル系列に基づいてそのq1次モーメントであるmq1とそのq2次モーメントであるmq2とに基づく値mq1/((mq2)q1/q2)を計算した後、例えば上記の第一及び第二の方法と同様、予め用意しておいた異なる複数の、ηと対応するF’(η)のペアを参照して、計算されたmq1/((mq2)q1/q2)に最も近いF’(η)に対応するηを取得するか、逆関数F’-1の近似曲線関数を~F’-1として、近似曲線関数~F-1に計算されたmq1/((mq2)q1/q2)を入力したときの出力値を計算してηを求めることができる。
 このようにηは次元が異なる2つの異なるモーメントmq1,mq2に基づく値であるとも言える。例えば、次元が異なる2つの異なるモーメントmq1,mq2のうち、次元が低い方のモーメントの値又はこれに基づく値(以下、前者とする。)と次元が高い方のモーメントの値又はこれに基づく値(以下、後者とする)との比の値、この比の値に基づく値、又は、前者を後者で割って得られる値に基づき、ηを求めてもよい。モーメントに基づく値とは、例えば、そのモーメントをmとしQを所定の実数としてmQのことである。また、これらの値を近似曲線関数~F-1に入力してηを求めてもよい。この近似曲線関数~F’-1は上記同様、使用する定義域において出力が正値となる単調増加関数であればよい。
 パラメータ決定部27’は、ループ処理によりパラメータηを求めてもよい。すなわち、パラメータ決定部27’は、パラメータ取得部44で求まるパラメータηを所定の方法で定められるパラメータη0とする、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理を更に1回以上行ってもよい。
 この場合、例えば、図5で破線で示すように、パラメータ取得部44で求まったパラメータηは、スペクトル包絡推定部42に出力される。スペクトル包絡推定部42は、パラメータ取得部44で求まったηをパラメータη0として用いて、上記説明した処理と同様の処理を行いスペクトル包絡の推定を行う。白色化スペクトル系列生成部43は、新たに推定されたスペクトル包絡に基づいて、上記説明した処理と同様の処理を行い白色化スペクトル系列を生成する。パラメータ取得部44は、新たに生成された白色化スペクトル系列に基づいて、上記説明した処理と同様の処理を行いパラメータηを求める。
 例えば、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理は、所定の回数であるτ回だけ更に行われてもよい。τは所定の正の整数であり、例えばτ=1又はτ=2である。
 また、スペクトル包絡推定部42は、今回求まったパラメータηと前回求まったパラメータηとの差の絶対値が所定の閾値以下となるまで、スペクトル包絡推定部42、白色化スペクトル系列生成部43及びパラメータ取得部44の処理を繰り返してもよい。
 <第二系列記憶部52>
 第二系列記憶部52には、第二信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの系列である第二系列が記憶されている。
 第二信号は、第一信号に対するマッチングの対象となる音声ディジタル信号又は音響ディジタル信号等の音信号である。
 第二系列は、例えば、パラメータ決定部27’により求められて、第二系列記憶部52に記憶される。すなわち、第二信号を構成する少なくとも1つの所定の時間長の時系列信号のそれぞれがパラメータ決定部27’に入力され、パラメータ決定部27’は、第一系列を求めた処理と同様の処理により、第二系列を求めて第二系列記憶部52に記憶させてもよい。
 なお、第二信号を構成する少なくとも1つの所定の時間長の時系列信号は、第二信号を構成する所定の時間長の時系列信号の全部であってもよいし、一部であってもよい。
 マッチング部51が、複数の信号のそれぞれを第二信号として、後述する判定を行う場合には、複数の信号のそれぞれに対応する第二系列が第二系列記憶部52に記憶されているとする。
 なお、パラメータ決定部27’により求められた第二系列が、第二系列記憶部52を介さずに直接マッチング部51に入力されてもよい。この場合、第二系列記憶部52はマッチング装置に備えられていなくてもよい。また、この場合、パラメータ決定部27’が、例えば複数の信号(複数の楽曲)が記憶されている図示していないデータベースから各信号を読み込み、読み込んだ信号から第二系列を求めて、マッチング部51に出力する。
 <マッチング部51>
 マッチング部51には、パラメータ決定部27’が得た第一系列及び例えば第二系列記憶部52から読み込んだ第二系列が入力される。
 マッチング部51は、第一系列と第二系列とに基づいて、第一信号と第二信号との一致度合い、及び/又は、第一信号と第二信号とが一致しているかどうかを判定して、その判定結果を出力する(ステップF2)。
 第一系列を(η1,11,2,…,η1,N1)と表記し、第二系列を(η2,12,2,…,η2,N2)と表記する。N1は、第一系列を構成するパラメータηの数である。N2は、第二系列を構成するパラメータηの数である。N1≦N2であるとする。
 第一信号と第二信号との一致度合いは、第一系列と第二系列との類似度である。第一系列と第二系列との類似度は、例えば、第二系列(η2,12,2,…,η2,N2)に含まれる、第一系列(η1,11,2,…,η1,N1)に最も近い系列と、第一系列(η1,11,2,…,η1,N1)との距離である。第二系列(η2,12,2,…,η2,N2)に含まれる、第一系列(η1,11,2,…,η1,N1)に最も近い系列の要素数と、第一系列(η1,11,2,…,η1,N1)の要素数とは同じであるとする。
 この第一系列と第二系列との類似度は、例えば以下の式により定義される。minは、最小値を出力する関数である。この例では、距離として、ユークリッド距離を用いているが、マンハッタン距離等の他の既存の距離や誤差の標準偏差を用いてもよい。
Figure JPOXMLDOC01-appb-M000007
 第一系列(η1,11,2,…,η1,N1)から得られる、パラメータηの代表値の系列を代表第一系列(η1,1 r1,2 r,…,η1,N1' r)とする。同様に、第二系列(η2,12,2,…,η2,N2)から得られる、パラメータηの代表値の系列を代表第二系列(η2,1 r2,2  r,…,η2,N2' r)とする。
 例えば、cをN1及びN2の約数である所定の正の整数として、c個のパラメータηごとに代表値を得るとすると、N1'=N1/cとし、k=1,2,…,N1'として、代表値η1,k rは第一系列の中の系列(η1,(k-1)c+11,(k-1)c+2,…,η1,kc)の代表値である。同様に、代表値η2,k rは第二系列の中の系列(η2,(k-1)c+12,(k-1)c+2,…,η2,kc)の代表値である。
 k=1,2,…,N1'として、代表値η1,k rは、第一系列の中の系列(η1,(k-1)c+11,(k-1)c+2,…,η1,kc)を代表する値であり、例えば、系列(η1,(k-1)c+11,(k-1)c+2,…,η1,kc)の平均値、中央値、最大値又は最小値である。k=1,2,…,N2'として、代表値η2,k rは、第二系列の中の系列(η2,(k-1)c+12,(k-1)c+2,…,η2,kc)を代表する値であり、例えば、系列(η2,(k-1)c+12,(k-1)c+2,…,η2,kc)の平均値、中央値、最大値又は最小値である。
 第一系列と第二系列との類似度は、代表第二系列(η2,1 r2,2  r,…,η2,N2' r)に含まれる、代表第一系列(η1,1 r1,2  r,…,η1,N1' r)に最も近い系列と、代表第一系列(η1,1 r1,2  r,…,η1,N1' r)との距離としてもよい。代表第二系列(η2,1 r2,2  r,…,η2,N2' r)に含まれる、代表第一系列(η1,1 r1,2  r,…,η1,N1' r)に最も近い系列の要素数と、代表第一系列(η1,1 r1,2  r,…,η1,N1' r)の要素数とは同じであるとする。
 この代表値を用いた第一系列と第二系列との類似度は、例えば以下の式により定義される。minは、最小値を出力する関数である。この例では、距離として、ユークリッド距離を用いているが、マンハッタン距離等の他の既存の距離や誤差の標準偏差を用いてもよい。
Figure JPOXMLDOC01-appb-M000008
 第一信号と第二信号とが一致しているかどうかは、例えば、第一信号と第二信号との一致度合いと所定の閾値とを比較することにより判定することができる。例えば、マッチング部51は、第一信号と第二信号との一致度合いが、所定の閾値より小さい又は所定の閾値以下である場合に、第一信号と第二信号とが一致していると判定し、そうでない場合には第一信号と第二信号とは一致していないと判定する。
 マッチング部51は、複数の信号のそれぞれを第二信号として、上記判定を行ってもよい。この場合、マッチング部51は、複数の信号のそれぞれと第一信号との一致度合いを計算し、複数の信号の中の、計算された一致度合いが最も小さい信号を選択して、その一致度合いが最も小さい信号についての情報を出力してもよい。
 例えば、複数の楽曲のそれぞれに対応する第二系列及び情報が第二系列記憶部52に記憶されているとする。ユーザが、ある曲がどの楽曲であるのかを知りたいとする。この場合、ユーザは、その曲に対応する音信号を第一信号としてマッチング装置に入力して、マッチング部51は、その曲に対応する音信号と最も一致度合いが小さい楽曲の情報を第二系列記憶部52から得ることにより、その曲に対応する楽曲の情報を知ることができる。
 なお、マッチング部51は、第一系列(η1,11,2,…,η1,N1)の時間変化の系列である時間変化第一系列(Δη1,1,Δη1,2,…,Δη1,N1-1)と、第二系列(η2,12,2,…,η2,N2)の時間変化の系列である時間変化第二系列(Δη2,1,Δη2,2,…,Δη2,N2-1)とに基づいてマッチングを行ってもよい。ここで、例えば、Δη1,k1,k+11,k(k=1,2,…,N1-1)とし、Δη2,k2,k+12,k(k=1,2,…,N2-1)とする。
 例えば、上記の第一系列及び第二系列を用いたマッチング処理において、第一系列(η1,11,2,…,η1,N1)の代わりに時間変化第一系列(Δη1,1,Δη1,2,…,Δη1,N1-1)を用い、第二系列(η2,12,2,…,η2,N2)の代わりに時間変化第二系列(Δη2,1,Δη2,2,…,Δη2,N2-1)を用いることにより、時間変化第一系列と時間変化第二系列とに基づいてマッチングを行うことができる。
 また、マッチング部51は、第一系列及び第二系列のみならず、音の大きさを表す指標(例えば、振幅又はエネルギー)、音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性、基本周波数等の音響特徴量を更に用いてマッチングを行ってもよい。例えば、(1)第一系列及び第二系列と音の大きさを表す指標とに基づいてマッギングを行ってもよい。また、(2)第一系列及び第二系列と時系列信号の音の大きさを表す指標の時間的変動とに基づいてマッギングを行ってもよい。また、(3)第一系列及び第二系列と時系列信号のスペクトル形状とに基づいてマッチングを行ってもよい。また、(4)第一系列及び第二系列と時系列信号のスペクトル形状の時間的変動とに基づいてマッギングを行ってもよい。また、(5)第一系列及び第二系列と時系列信号のピッチの周期性とに基づいてマッギングを行ってもよい。
 さらに、マッチング部51は、SVM(Support Vector Machine)、Boosting等の識別技術を用いてマッチングを行ってもよい。
 なお、マッチング部51は、後述する判定部53の処理と同様の処理により第一信号を構成する各所定の時間長の時系列信号の種類を判定し、また、後述する判定部53の処理と同様の処理により第二信号を構成する各所定の時間長の時系列信号の種類を判定し、それらの判定結果が同一であるかを判定することによりマッチングを行ってもよい。例えば、マッチング部51は、第一信号についての判定結果が「音声→音楽→音声→音楽」であり、第二信号についての判定結果が「音声→音楽→音声→音楽」である場合には、第一信号と第二信号とが一致していると判定する。
 [判定装置及び方法]
 判定装置及び方法の一例について説明する。
 判定装置は、図3に示すように、パラメータ決定部27’及び判定部53を例えば備えている。判定装置の各部が、図4に例示する各処理を行うことにより判定方法が実現される。
 以下、判定装置の各部について説明する。
 <パラメータ決定部27’>
 パラメータ決定部27’には、時系列信号である第一信号が所定の時間長のごとに入力される。第一信号の例は、音声ディジタル信号又は音響ディジタル信号等の音信号である。
 パラメータ決定部27’は、入力された所定の時間長の時系列信号に基づいて、後述する処理により、その入力された所定の時間長の時系列信号パラメータηを決定する(ステップF1)。これにより、第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの系列を得る。この第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの系列のことを「第一系列」と呼ぶことにする。このように、パラメータ決定部27’は、所定の時間長のフレームごとに処理を行う。
 なお、第一信号を構成する少なくとも1つの所定の時間長の時系列信号は、第一信号を構成する所定の時間長の時系列信号の全部であってもよいし、一部であってもよい。
 パラメータ決定部27’により決定されたパラメータηの第一系列は、判定部53に出力される。
 パラメータ決定部27’の詳細は、[マッチング装置及び方法]の欄で説明したものと同様であるため、ここでは重複説明を省略する。
 <判定部53>
 判定部53には、パラメータ決定部27’で決定された第一系列が入力される。
 判定部53は、第一系列に基づいて、第一信号の中の所定の種類の信号の区間、及び/又は、第一信号の種類を判定する(ステップF3)。所定の種類の信号区間とは、例えば、音声の区間、音楽の区間、非定常音の区間、定常音の区間等の区間のことである。
 第一系列を(η1,11,2,…,η1,N1)と表記する。N1は、第一系列を構成するパラメータηの数である。
 第一信号の中の所定の種類の信号の区間の判定は、例えば、第一系列を構成するパラメータη1,k(k=1,2,…,N1)と、所定の閾値とを比較することにより行うことができる。
 例えば、判定部53は、パラメータη1,k≧閾値である場合には、第一信号の中の、そのパラメータη1,kに対応する所定の時間長の時系列信号の区間を非定常音(音声、無音等)の区間であると判定する。
 また、判定部53は、閾値>パラメータη1,kである場合には、第一信号の中の、そのパラメータη1,kに対応する所定の時間長の時系列信号の区間を定常音(時間的変動の緩やかな音楽等)の区間であると判定する。
 また、複数の所定の閾値と比較することにより、第一信号の中の所定の種類の信号の区間の判定を行ってもよい。以下では、2個の閾値(第一閾値及び第二閾値)を用いた判定の例について説明する。第一閾値>第二閾値とする。
 例えば、判定部53は、パラメータη1,k≧第一閾値である場合には、第一信号の中の、そのパラメータη1,kに対応する所定の時間長の時系列信号の区間を無音の区間であると判定する。
 また、判定部53は、第一閾値>パラメータη1,k≧第二閾値である場合には、第一信号の中の、そのパラメータη1,kに対応する所定の時間長の時系列信号の区間を非定常音の区間であると判定する。
 また、判定部53は、第二閾値>パラメータη1,kである場合には、第一信号の中の、そのパラメータη1,kに対応する所定の時間長の時系列信号の区間を定常音の区間であると判定する。
 
 第一信号の種類の判定は、例えば、信号の区間の種類の判定結果に基づいて行うことができる。例えば、判定部53は、判定された信号の区間の種類ごとに第一信号の中のその種類の信号の区間が占める割合を計算して、最も割合が大きい信号の区間の種類の割合の値が処理の閾値以上又は閾値より大である場合には、第一信号はその最も割合が大きい信号の区間の種類であると判定する。
 第一系列(η1,11,2,…,η1,N1)から得られる、パラメータηの代表値の系列を代表第一系列(η1,1 r1,2 r,…,η1,N1' r)とする。例えば、cをN1の約数である所定の正の整数として、c個のパラメータηごとに代表値を得るとすると、N1'=N1/cとし、k=1,2,…,N1'として、代表値η1,k rは第一系列の中の系列(η1,(k-1)c+11,(k-1)c+2,…,η1,kc)の代表値である。k=1,2,…,N1'として、代表値η1,k rは、第一系列の中の系列(η1,(k-1)c+11,(k-1)c+2,…,η1,kc)を代表する値であり、例えば、系列(η1,(k-1)c+11,(k-1)c+2,…,η1,kc)の平均値、中央値、最大値又は最小値である。
 判定部53は、代表第一系列(η1,1 r1,2  r,…,η1,N1' r)に基づいて、第一信号の中の所定の種類の信号の区間、及び/又は、第一信号の種類を判定する第一信号の種類を判定してもよい。
 例えば、例えば、判定部53は、代表値η1,k r≧第一閾値である場合には、第一信号の中の、その代表値η1,k rに対応する所定の時間長の時系列信号の区間を音声の区間であると判定する。
 ここで、代表値η1,k rに対応する所定の時間長の時系列信号の区間とは、代表値η1,k rに対応する第一系列の中の系列(η1,(k-1)c+11,(k-1)c+2,…,η1,kc)のそれぞれのパラメータηに対応する所定の時間長の時系列信号の区間のことである。
 また、判定部53は、第一閾値>代表値η1,k r≧第二閾値である場合には、第一信号の中の、その代表値η1,k rに対応する所定の時間長の時系列信号の区間を音楽の区間であると判定する。
 また、判定部53は、第二閾値>代表値η1,k r≧第三閾値である場合には、第一信号の中の、その代表値η1,k rに対応する所定の時間長の時系列信号の区間を非定常音の区間であると判定する。
 さらに、判定部53は、第三閾値>代表値η1,k rである場合には、第一信号の中の、その代表値η1,k rに対応する所定の時間長の時系列信号の区間を定常音の区間であると判定する。
 なお、判定部53は、第一系列(η1,11,2,…,η1,N1)の時間変化の系列である時間変化第一系列(Δη1,1,Δη1,2,…,Δη1,N1-1)に基づいて判定処理を行ってもよい。ここで、例えば、Δη1,k1,k+11,k(k=1,2,…,N1-1)とする。
 例えば、上記の第一系列を用いた判定処理において、第一系列(η1,11,2,…,η1,N1)の代わりに時間変化第一系列(Δη1,1,Δη1,2,…,Δη1,N1-1)を用いることにより、時間変化第一系列に基づいて判定を行うことができる。
 また、判定部53は、時系列信号の音の大きさを表す指標(例えば、振幅又はエネルギー)、音の大きさを表す指標の時間的変動、スペクトル形状、スペクトル形状の時間的変動、ピッチの周期性、基本周波数等の音響特徴量を更に用いて判定を行ってもよい。例えば、判定部53は、(1)パラメータη1,kと時系列信号の音の大きさを表す指標とに基づいて判定を行ってもよい。また、(2)パラメータη1,kと時系列信号の音の大きさを表す指標の時間的変動とに基づいて判定を行ってもよい。また、(3)パラメータη1,kと時系列信号のスペクトル形状とに基づいて判定を行ってもよい。また、(4)パラメータη1,kと時系列信号のスペクトル形状の時間的変動とに基づいて判定を行ってもよい。また、(5)パラメータη1,kと時系列信号のピッチの周期性とに基づいて判定を行ってもよい。
 以下、判定部53が、(1)パラメータη1,kと時系列信号の音の大きさを表す指標とに基づいて判定を行う場合、(2)パラメータη1,kと時系列信号の音の大きさを表す指標の時間的変動とに基づいて判定を行う場合、(3)パラメータη1,kと時系列信号のスペクトル形状とに基づいて判定を行う場合、(4)パラメータη1,kと時系列信号のスペクトル形状の時間的変動とに基づいて判定を行う場合、(5)パラメータη1,kと時系列信号のピッチの周期性とに基づいて判定を行う場合のそれぞれについて説明する。
 (1)パラメータη1,kと音の大きさを表す指標とに基づいて判定を行う場合、判定部53は、パラメータη1,kに対応する時系列信号の音の大きさを表す指標が大きいかどうかを判定し、また、パラメータη1,kが大きいかどうかを判定する。
 時系列信号の音の大きさを表す指標が小さく、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を周囲雑音(騒音)の区間であると判定する。
 時系列信号の音の大きさを表す指標が大きいかどうかは、例えば所定の閾値CEに基づいて判定することができる。すなわち、時系列信号の音の大きさを表す指標の≧所定の閾値CEであれば時系列信号の音の大きさを表す指標が大きい、そうでない場合には時系列信号の音の大きさを表す指標は小さいと判定することができる。時系列信号の音の大きさを表す指標として、例えば、平均振幅(サンプルあたりの平均エネルギーの平方根)を用いた場合には、CE=最大振幅値*(1/128)とする。例えば16ビット精度ならば最大振幅値は32768となるため、CE=256とする。
 パラメータη1,kが大きいかどうかは、例えば所定の閾値Cηに基づいて判定することができる。すなわち、パラメータη1,k≧所定の閾値Cηであればパラメータη1,kが大きい、そうでない場合にはパラメータη1,kは小さいと判定することができる。例えば、Cη=1とする。
 時系列信号の音の大きさを表す指標が小さく、かつ、パラメータη1,kが小さい場合には、パラメータη1,kに対応する時系列信号の区間をBGMのような特徴のある背景音の区間と判定する。
 時系列信号の音の大きさを表す指標が大きく、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を音声やにぎやかな音楽の区間であると判定する。
 時系列信号の音の大きさを表す指標が大きく、かつ、パラメータη1,kが小さい場合には、パラメータη1,kに対応する時系列信号の区間を楽器の演奏等の音楽の区間と判定する。
 (2)パラメータη1,kと時系列信号の音の大きさを表す指標の時間的変動とに基づいて判定を行う場合には、判定部53は、パラメータη1,kに対応する時系列信号の音の大きさを表す指標の時間的変動が大きいかどうかを判定し、また、パラメータη1,kが大きいかどうかを判定する。
 時系列信号の音の大きさを表す指標の時間的変動が大きいかどうかは、例えば所定の閾値CE 'に基づいて判定することができる。すなわち、時系列信号の音の大きさを表す指標の時間的変動≧所定の閾値CE 'であれば時系列信号の音の大きさを表す指標の時間的変動が大きい、そうでない場合には時系列信号の音の大きさを表す指標の時間的変動は小さいと判定することができる。時系列信号の音の大きさを表す指標として、例えば、時系列信号を構成する4個のサブフレームのエネルギーの相加平均を相乗平均で割った値F=((1/4)Σ4個のサブフレームのエネルギー)/((Πサブフレームのエネルギー)1/4)を用いた場合には、CE '=1.5とする。
 時系列信号の音の大きさを表す指標の時間的変動が小さく、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を周囲雑音(騒音)の区間と判定する。
 時系列信号の音の大きさを表す指標の時間的変動が小さく、かつ、パラメータηが小さい場合には、パラメータη1,kに対応する時系列信号の区間を継続音を主体とした管楽器や弦楽器の音楽の区間と判定する。
 時系列信号の音の大きさを表す指標の時間的変動が大きく、かつ、パラメータη1,kが大きい場合には、判定部53は、パラメータη1,kに対応する時系列信号の区間を音声の区間と判定する。
 時系列信号の音の大きさを表す指標の時間的変動が大きく、かつ、パラメータη1,kが小さい場合には、判定部53は、パラメータη1,kに対応する時系列信号の区間を時間変動の大きい音楽の区間と判定する。
 (3)パラメータη1,kと時系列信号のスペクトル形状とに基づいて判定を行う場合、判定部53は、パラメータη1,kに対応する時系列信号のスペクトル形状が平坦かどうかを判定し、また、パラメータη1,kが大きいかどうかを判定する。
 時系列信号のスペクトル形状が平坦であり、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を定常な周囲雑音(騒音)の区間と判定する。パラメータη1,kに対応する時系列信号のスペクトル形状が平坦かどうかは、所定の閾値EVに基づいて判定することができる。例えば、パラメータη1,kに対応する第1次のPARCOR係数の絶対値が所定の閾値EV(例えば、EV=0.7)未満なら、パラメータη1,kに対応する時系列信号のスペクトル形状が平坦である、そうでない場合にはパラメータη1,kに対応する時系列信号のスペクトル形状は平坦でないと判定することができる。
 時系列信号のスペクトル形状が平坦であり、かつ、パラメータη1,kが小さい場合には、パラメータη1,kに対応する時系列信号の区間を時間変動の大きい音楽の区間と判定する。
 時系列信号のスペクトル形状が平坦ではなく、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を音声の区間と判定する。
 時系列信号のスペクトル形状が平坦ではなく、かつ、パラメータη1,kが小さい場合には、パラメータη1,kに対応する時系列信号の区間を継続音を主体とした管楽器や弦楽器の音楽の区間と判定する。
 (4)パラメータη1,kと時系列信号のスペクトル形状の時間的変動とに基づいて判定を行う場合、判定部53は、パラメータη1,kに対応する時系列信号のスペクトル形状の時間的変動が大きいかどうかを判定し、また、また、パラメータη1,kが大きいかどうかを判定する。
 パラメータη1,kに対応する時系列信号のスペクトル形状の時間的変動が平坦かどうかは、所定の閾値EV 'に基づいて判定することができる。例えば、時系列信号を構成する4個のサブフレームの第1次のPARCOR係数の絶対値の相加平均を相乗平均で割った値FV=((1/4)Σ4個のサブフレームの第1次のPARCOR係数の絶対値)/((Π第1次のPARCOR係数の絶対値)1/4)が所定の閾値EV '(例えば、EV '=1.2)以上なら、パラメータη1,kに対応する時系列信号のスペクトル形状の時間的変動が大きい、そうでない場合にはパラメータη1,kに対応する時系列信号のスペクトル形状の時間的変動は小さいと判定することができる。
 時系列信号のスペクトル形状の時間的変動が大きく、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を音声の区間と判定する。
 時系列信号のスペクトル形状の時間的変動が大きく、かつ、パラメータη1,kが小さい場合には、パラメータη1,kに対応する時系列信号の区間を時間変動の大きい音楽の区間と判定する。
 時系列信号のスペクトル形状の時間的変動が小さく、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を周囲雑音(騒音)の区間と判定する。
 時系列信号のスペクトル形状の時間的変動が小さく、かつ、パラメータη1,kが小さい場合には、パラメータη1,kに対応する時系列信号の区間を継続音を主体とした管楽器や弦楽器の音楽の区間と判定する。
 (5)パラメータη1,kと時系列信号のピッチの周期性とに基づいて判定を行う場合、判定部53は、パラメータη1,kに対応する時系列信号のピッチの周期性が大きいかどうかを判定し、また、また、パラメータη1,kが大きいかどうかを判定する。
 ピッチの周期性が大きいかどうかは、例えば所定の閾値CPに基づいて判定することができる。すなわち、ピッチの周期性≧所定の閾値CPであればピッチの周期性が大きい、そうでない場合にはピッチの周期性は小さいと判定することができる。ピッチの周期性として、例えば、ピッチ周期τサンプル離れた系列との正規化相関関数
Figure JPOXMLDOC01-appb-M000009
(ただしx(i)は時系列のサンプル値、Nはフレームのサンプル数))を用いた場合には、CP=0.8とする。
 ピッチの周期性が大きく、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を音声の区間と判定する。
 ピッチの周期性が大きく、かつ、パラメータη1,kが小さい場合には、パラメータη1,kに対応する時系列信号の区間を継続音を主体とした管楽器や弦楽器の音楽の区間と判定する。
 ピッチの周期性が小さく、かつ、パラメータη1,kが大きい場合には、パラメータη1,kに対応する時系列信号の区間を周囲雑音(騒音)の区間と判定する。
 ピッチの周期性が小さく、かつ、パラメータηが小さい場合には、パラメータη1,kに対応する時系列信号の区間を時間変動の大きい音楽の区間と判定する。 さらに、判定部53は、SVM(Support Vector Machine)、Boosting等の識別技術を用いて判定を行ってもよい。この場合、パラメータηごとに音声、音楽、無音等のラベルが対応付けされた学習データを用意しておいて、この学習データを用いて予め学習をしておく。
 [プログラム及び記録媒体]
 各装置又は各方法における各部をコンピュータによって実現してもよい。その場合、各装置又は各方法の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各装置又は各方法における各部がコンピュータ上で実現される。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
 マッチング装置、方法及びプログラムは、例えば、曲の出典の検索、違法コンテンツの検出、演奏楽器や曲の構成が似ている別の曲の検索に用いることができる。また、判定装置、方法及びプログラムは、例えば、著作権料の算出に用いることができる。

Claims (10)

  1.  パラメータηを正の数として、所定の時間長の時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとして、
     第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの第一系列と、第二信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの第二系列とに基づいて、上記第一信号と上記第二信号との一致度合い、及び/又は、上記第一信号と上記第二信号とが一致しているかどうかを判定するマッチング部、
     を含むマッチング装置。
  2.  請求項1のマッチング装置において、
     パラメータη及びパラメータηを正の数として、所定の方法で定められるパラメータηを用いて、入力された所定の時間長の時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做してスペクトル包絡の推定を行うスペクトル包絡推定部と、上記スペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列を得る白色化スペクトル系列生成部と、パラメータηを形状パラメータとする一般化ガウス分布が上記白色化スペクトル系列のヒストグラムを近似するパラメータηを求め、求まったパラメータηを上記入力された所定の時間長の時系列信号に対応するパラメータηとするパラメータ取得部と、を含むパラメータ決定部を含み、
     上記パラメータ決定部は、上記第一信号を構成する少なくとも1つの所定の時間長の時系列信号のそれぞれを入力とする処理を行うことにより、上記第一系列を得る、
     マッチング装置。
  3.  請求項1又は2のマッチング装置において、
     上記第二系列が記憶されている第二系列記憶部を含み、
     上記マッチング部は、上記第二系列記憶部から読み込んだ上記第二系列を用いて、上記判定を行う、
     マッチング装置。
  4.  請求項1から3の何れかのマッチング装置において、
     上記第一信号を構成する少なくとも1つの所定の時間長の時系列信号は、上記第一信号を構成する所定の時間長の時系列信号の全部又は一部であり、
     上記第二信号を構成する少なくとも1つの所定の時間長の時系列信号は、上記第二信号を構成する所定の時間長の時系列信号の全部又は一部であり、
     マッチング装置。
  5.  請求項1から3のマッチング装置において、
     複数の信号のそれぞれを上記第二信号として、上記判定を行う、
     マッチング装置。
  6.  パラメータηを正の数として、所定の時間長の時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとし、第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの系列を第一系列として、
     上記第一系列に基づいて、上記第一信号の中の所定の種類の信号の区間、及び/又は、上記第一信号の種類を判定する判定部、
     を含む判定装置。
  7.  パラメータηを正の数として、所定の時間長の時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとして、
     マッチング部51が、第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの第一系列と、第二信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの第二系列とに基づいて、上記第一信号と上記第二信号との一致度合い、及び/又は、上記第一信号と上記第二信号とが一致しているかどうかを判定するマッチングステップ、
     を含むマッチング方法。
  8.  パラメータηを正の数として、所定の時間長の時系列信号に対応するパラメータηを、その時系列信号に対応する周波数領域サンプル列の絶対値のη乗をパワースペクトルと見做すことにより推定されたスペクトル包絡で上記周波数領域サンプル列を除算した系列である白色化スペクトル系列のヒストグラムを近似する一般化ガウス分布の形状パラメータとし、第一信号を構成する少なくとも1つの所定の時間長の時系列信号にそれぞれ対応するパラメータηの系列を第一系列として、
     判定部が、上記第一系列に基づいて、上記第一信号の中の所定の種類の信号の区間、及び/又は、上記第一信号の種類を判定する判定ステップ、
     を含む判定方法。
  9.  請求項1から5の何れかのマッチング装置又は請求項6の判定装置の各部としてコンピュータを機能させるためのプログラム。
  10.  請求項1から5の何れかのマッチング装置又は請求項6の判定装置の各部としてコンピュータを機能させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体。
PCT/JP2016/061683 2015-04-13 2016-04-11 マッチング装置、判定装置、これらの方法、プログラム及び記録媒体 WO2016167216A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/562,649 US10147443B2 (en) 2015-04-13 2016-04-11 Matching device, judgment device, and method, program, and recording medium therefor
CN201680019872.XA CN107851442B (zh) 2015-04-13 2016-04-11 匹配装置、判定装置、它们的方法、程序及记录介质
JP2017512524A JP6392450B2 (ja) 2015-04-13 2016-04-11 マッチング装置、判定装置、これらの方法、プログラム及び記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015081769 2015-04-13
JP2015-081769 2015-04-13

Publications (1)

Publication Number Publication Date
WO2016167216A1 true WO2016167216A1 (ja) 2016-10-20

Family

ID=57126460

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/061683 WO2016167216A1 (ja) 2015-04-13 2016-04-11 マッチング装置、判定装置、これらの方法、プログラム及び記録媒体

Country Status (4)

Country Link
US (1) US10147443B2 (ja)
JP (1) JP6392450B2 (ja)
CN (1) CN107851442B (ja)
WO (1) WO2016167216A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102061300B1 (ko) * 2015-04-13 2020-02-11 니폰 덴신 덴와 가부시끼가이샤 선형 예측 부호화 장치, 선형 예측 복호 장치, 이들의 방법, 프로그램 및 기록 매체
US9899038B2 (en) 2016-06-30 2018-02-20 Karen Elaine Khaleghi Electronic notebook system
US10235998B1 (en) * 2018-02-28 2019-03-19 Karen Elaine Khaleghi Health monitoring system and appliance
US10559307B1 (en) 2019-02-13 2020-02-11 Karen Elaine Khaleghi Impaired operator detection and interlock apparatus
US10735191B1 (en) 2019-07-25 2020-08-04 The Notebook, Llc Apparatus and methods for secure distributed communications and data access

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253444A (ja) * 1997-03-14 1998-09-25 Tokyo Gas Co Ltd 異常音の検出方法及びその検出値を用いた機械の異常判定方法、並びに、振動波の類似度検出方法及びその検出値を用いた音声認識方法
WO2013035257A1 (ja) * 2011-09-09 2013-03-14 パナソニック株式会社 符号化装置、復号装置、符号化方法および復号方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0004163D0 (sv) * 2000-11-14 2000-11-14 Coding Technologies Sweden Ab Enhancing perceptual performance of high frequency reconstruction coding methods by adaptive filtering
US7653535B2 (en) * 2005-12-15 2010-01-26 Microsoft Corporation Learning statistically characterized resonance targets in a hidden trajectory model
KR100738109B1 (ko) * 2006-04-03 2007-07-12 삼성전자주식회사 입력 신호의 양자화 및 역양자화 방법과 장치, 입력신호의부호화 및 복호화 방법과 장치
JP5679470B2 (ja) * 2010-09-10 2015-03-04 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 符号化装置及び符号化方法
JP5728888B2 (ja) * 2010-10-29 2015-06-03 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP5689844B2 (ja) * 2012-03-16 2015-03-25 日本電信電話株式会社 スペクトル推定装置、その方法及びプログラム
CN103971689B (zh) * 2013-02-04 2016-01-27 腾讯科技(深圳)有限公司 一种音频识别方法及装置
KR101480474B1 (ko) * 2013-10-08 2015-01-09 엘지전자 주식회사 오디오 재생장치와 이를 포함하는 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253444A (ja) * 1997-03-14 1998-09-25 Tokyo Gas Co Ltd 異常音の検出方法及びその検出値を用いた機械の異常判定方法、並びに、振動波の類似度検出方法及びその検出値を用いた音声認識方法
WO2013035257A1 (ja) * 2011-09-09 2013-03-14 パナソニック株式会社 符号化装置、復号装置、符号化方法および復号方法

Also Published As

Publication number Publication date
US10147443B2 (en) 2018-12-04
US20180090155A1 (en) 2018-03-29
CN107851442B (zh) 2021-07-20
CN107851442A (zh) 2018-03-27
JP6392450B2 (ja) 2018-09-19
JPWO2016167216A1 (ja) 2018-02-08

Similar Documents

Publication Publication Date Title
JP6392450B2 (ja) マッチング装置、判定装置、これらの方法、プログラム及び記録媒体
JP6422813B2 (ja) 符号化装置、復号装置、これらの方法及びプログラム
US11848021B2 (en) Periodic-combined-envelope-sequence generation device, periodic-combined-envelope-sequence generation method, periodic-combined-envelope-sequence generation program and recording medium
JP2019049729A (ja) 情報符号化のコンセプト
US20200202876A1 (en) Periodic-combined-envelope-sequence generating device, encoder, periodic-combined-envelope-sequence generating method, coding method, and recording medium
CN107408390B (zh) 线性预测编码装置、线性预测解码装置、它们的方法以及记录介质
EP3226243B1 (en) Encoding apparatus, decoding apparatus, and method and program for the same
JP6729515B2 (ja) 楽曲解析方法、楽曲解析装置およびプログラム
JP2014219607A (ja) 音楽信号処理装置および方法、並びに、プログラム
JP6387117B2 (ja) 符号化装置、復号装置、これらの方法、プログラム及び記録媒体
CN107430869B (zh) 参数决定装置、方法及记录介质
CN106663110B (zh) 音频序列对准的概率评分的导出

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16780007

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15562649

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2017512524

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16780007

Country of ref document: EP

Kind code of ref document: A1