WO2007049641A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2007049641A1
WO2007049641A1 PCT/JP2006/321260 JP2006321260W WO2007049641A1 WO 2007049641 A1 WO2007049641 A1 WO 2007049641A1 JP 2006321260 W JP2006321260 W JP 2006321260W WO 2007049641 A1 WO2007049641 A1 WO 2007049641A1
Authority
WO
WIPO (PCT)
Prior art keywords
level feature
feature quantity
low
quantity extraction
extraction formula
Prior art date
Application number
PCT/JP2006/321260
Other languages
English (en)
French (fr)
Inventor
Yoshiyuki Kobayashi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US11/722,508 priority Critical patent/US8315954B2/en
Priority to CN2006800015725A priority patent/CN101091204B/zh
Priority to KR1020077014275A priority patent/KR101193265B1/ko
Priority to EP06822237.1A priority patent/EP1843323B1/en
Publication of WO2007049641A1 publication Critical patent/WO2007049641A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, and a program.
  • the present invention relates to an information processing apparatus, an information processing method, and a program that automatically generate an algorithm for extracting feature amounts of content data such as music data.
  • Patent Document 1 US Patent Application Publication US2004Z0181401A1
  • the present invention has been made in view of such a situation, and it is possible to generate an algorithm capable of quickly extracting a feature amount corresponding to the content data with content data such as music data as an input. It is what you want to do.
  • An information processing apparatus provides the content data or the content data to an information processing apparatus that generates a feature amount detection algorithm for detecting a feature amount of content data.
  • a low-level feature quantity generated by learning based on the previous-generation formula list which is a next-generation formula list that consists of multiple low-level feature quantity extraction formulas that receive metadata corresponding to Extraction list generator
  • feature quantity extraction formula generation means for generating a high-level feature amount extraction formula that outputs the high-level feature amount indicating the feature of the content data by using the low-level feature amount calculated by the calculating means as an input
  • the high level feature quantity extraction formula generation means calculates at least one of the accuracy of the generated high level feature quantity extraction formula or the contribution ratio of the low level feature quantity in the high level feature quantity extraction formula
  • the low level feature quantity extraction formula list generation means is the accuracy of the high level feature quantity extraction formula calculated by the high level feature quantity extraction formula generation means or the low level feature quantity extraction formula list. Based on at least one of the contribution ratios of the level feature quantity, the low-level feature quantity extraction formula constituting the low-level feature quantity extraction formula list can be updated.
  • the low-level feature quantity extraction formula list generation means can generate a first-generation formula list at random.
  • the low-level feature quantity extraction formula list generation means is configured to select the next generation formula list by at least one of selection processing, crossover processing, and mutation processing using a genetic algorithm based on the previous generation formula list. Can be generated.
  • the low-level feature quantity extraction formula list generation means may generate a next-generation formula list configured with a predetermined constant low-level feature quantity extraction formula force.
  • the low-level feature quantity extraction formula list generation means generates a next-generation formula list composed of a number of low-level feature quantity extraction formulas determined at random each time the list is generated. Can do.
  • the high level feature quantity extraction formula generation means calculates at least one of an evaluation value of the generated high level feature quantity extraction formula or a contribution ratio of the low level feature quantity in the high level feature quantity extraction formula.
  • the low level feature quantity extraction formula list generation means is an evaluation value of the high level feature quantity extraction formula calculated by the high level feature quantity extraction formula generation means, or the low level feature quantity extraction formula in the high level feature quantity extraction formula Small contribution rate of feature quantity Based on at least one of the above, the low-level feature quantity extraction formula constituting the low-level feature quantity extraction formula list can be updated.
  • An information processing method is the information processing method for an information processing apparatus that generates a feature amount detection algorithm for detecting a feature amount of content data.
  • the low-level feature value is calculated by calculating the low-level feature value using the formula list, and learning using the true high-level feature value prepared in advance corresponding to the content data as teacher data.
  • Generating a high-level feature quantity extraction formula that outputs a high-level feature quantity indicating the characteristics of the content data.
  • a program is a program for controlling an information processing apparatus that generates a feature amount detection algorithm for detecting a feature amount of content data, the content data or the content data.
  • the low-level feature value is calculated by calculating the low-level feature value using the formula list, and learning using the true high-level feature value prepared in advance corresponding to the content data as teacher data.
  • a process including a step of generating a high-level feature quantity extraction expression that outputs a high-level feature quantity indicating the characteristics of the content data. To be executed by a computer.
  • next-generation expression list composed of a plurality of low-level feature quantity extraction formulas that output content data or metadata corresponding to the content data and output low-level feature quantities.
  • low-level feature values are calculated using the generated formula list, and true high-level feature values prepared in advance corresponding to the content data are used as teacher data.
  • the learning generates a high-level feature quantity extraction formula that receives the calculated low-level feature quantity as an input and outputs a high-level feature quantity indicating the feature of the content data.
  • FIG. 1 is a diagram for explaining a conventional feature amount extraction algorithm.
  • FIG. 2 is a diagram showing an outline of a feature quantity extraction algorithm generated by a feature quantity extraction algorithm generation apparatus to which the present invention is applied.
  • FIG. 3 is a diagram showing an example of a low-level feature quantity extraction formula.
  • FIG. 4 shows an example of a high-level feature quantity extraction formula.
  • FIG. 5 is a block diagram showing a first configuration example of a feature quantity extraction algorithm generation device to which the present invention is applied.
  • FIG. 6 is a block diagram showing a configuration example of a high-level feature quantity computing unit constituting the feature quantity extraction algorithm generation device.
  • FIG. 7 is a flowchart illustrating a feature amount extraction algorithm learning process.
  • FIG. 8 is a diagram showing an example of a low-level feature quantity extraction formula list.
  • FIG. 9 is a flowchart illustrating low-level feature quantity extraction formula list generation processing.
  • FIG. 10 is a flowchart for explaining first generation list random generation processing by the low-level feature quantity extraction formula list generation unit of FIG. 5.
  • FIG. 11 is a diagram showing a description method of a low-level feature quantity extraction formula.
  • FIG. 12 Lists examples of input data.
  • FIG. 13 is a diagram for explaining input data Wav.
  • FIG. 14 is a diagram for explaining input data Chord.
  • FIG. 15 is a diagram for explaining input data Key.
  • FIG. 16 is a diagram for explaining a possession dimension of a low-level feature quantity extraction formula.
  • FIG. 17 is a flowchart for explaining next-generation list genetic generation processing.
  • FIG. 18 is a flowchart explaining selection generation processing by the low-level feature quantity extraction formula list generation unit in FIG. 5.
  • FIG. 19 is a flowchart for explaining intersection generation processing by the low-level feature quantity extraction formula list generation unit in FIG. 5.
  • FIG. 20 is a flowchart for explaining a mutation generation process by the low-level feature quantity extraction formula list generation unit in FIG.
  • FIG. 21 is a diagram for explaining calculation of an operator Mean.
  • FIG. 22 is a diagram for explaining processing of a low-level feature quantity computing unit.
  • FIG. 23 is a diagram showing an example of teacher data.
  • FIG. 24 is a flowchart for explaining high-level feature quantity extraction formula learning processing by the high-level feature quantity extraction formula learning unit in FIG. 5.
  • FIG. 25 is a diagram for explaining an example of a learning algorithm.
  • FIG. 26 is a diagram for explaining an example of a learning algorithm.
  • FIG. 27 is a diagram for explaining an example of a learning algorithm.
  • FIG. 28 is a diagram for explaining an example of a learning algorithm.
  • FIG. 29 is a diagram for explaining an example of a learning algorithm.
  • FIG. 30 is a diagram for explaining an example of a learning algorithm.
  • FIG. 31 is a diagram for explaining an example of a learning algorithm.
  • FIG. 32 is a diagram for explaining an example of a learning algorithm.
  • FIG. 33 is a diagram for explaining an example of a learning algorithm.
  • FIG. 34 is a flowchart illustrating a learning process based on a learning algorithm by the high-level feature quantity extraction formula learning unit in FIG.
  • FIG. 35 is a diagram showing an example of combinations of operators.
  • FIG. 36 is a diagram showing an example of combinations of operators.
  • FIG. 37 is a flowchart illustrating a new operator generation process.
  • FIG. 39 is a flowchart for explaining high-accuracy reject processing.
  • FIG. 40 is a block diagram showing a second configuration example of the feature quantity extraction algorithm generation device to which the present invention is applied.
  • FIG. 42 is a flowchart for explaining selection generation processing by the low-level feature quantity extraction formula list generation unit in FIG. 40.
  • FIG. 43 is a flowchart for explaining intersection generation processing by the low-level feature quantity extraction formula list generation unit in FIG. 40.
  • FIG. 44 is a flowchart for explaining a mutation generation process by the low-level feature quantity extraction formula list generation unit of FIG.
  • FIG. 45 is a flowchart for explaining high-level feature quantity extraction formula learning processing by the high-level feature quantity extraction formula learning unit in FIG.
  • FIG. 46 is a flowchart illustrating a learning process based on a learning algorithm by the high-level feature quantity extraction formula learning unit in FIG. 5.
  • FIG. 47 is a block diagram illustrating a configuration example of a general-purpose personal computer.
  • FIG. 2 shows an outline of the feature amount extraction algorithm generated by the feature amount extraction algorithm generation device 20 (FIG. 5) or the feature amount extraction algorithm generation device 60 (FIG. 40) according to the embodiment to which the present invention is applied. Showing
  • the feature length extraction algorithm 11 is content data (music data) and corresponding data.
  • a low-level feature quantity extraction unit 12 that outputs low-level feature quantities using metadata (attribute data) as an input, and a high-level feature quantity extraction unit 14 that outputs high-level feature quantities using a low-level feature quantity as input 14 Consists of
  • the low-level feature quantity extraction unit 12 includes m types of low-level feature quantity extraction formulas combined with one or more operators (operators) that perform predetermined computations on input data. It has a quantity extraction formula list 13. Therefore, the low level feature quantity extraction unit 12 outputs m types of low level feature quantities to the high level feature quantity extraction unit 14.
  • the number m of low-level feature quantity extraction formulas constituting the low-level feature quantity extraction formula list is a predetermined constant in the case of the feature quantity extraction algorithm generation device 20 shown in FIG. is there. In the case of the feature quantity extraction algorithm generation device 60 shown in FIG. 40, the random number is randomly determined.
  • FIG. 3 shows an example of a low-level feature quantity extraction formula! /
  • the low-level feature quantity extraction formula fl shown in A of FIG. The average value (Mean) of the waveform data is calculated between these two values, and the calculated average value is subjected to fast Fourier transform (FFT) along the time axis, and the FFT result force is also obtained as the frequency standard deviation (StDev). Is output as a low-level feature quantity a.
  • FFT fast Fourier transform
  • the low-level feature quantity extraction formula f2 shown in B of FIG. Therefore, the result is output as the low-level feature value b.
  • the low-level feature quantity output from the low-level feature quantity extraction unit 12 needs to have a meaningful value by itself! /.
  • the high-level feature quantity extraction unit 14 performs relatively simple calculations (four arithmetic operations, power calculations, etc.) on one or more low-level feature quantities among the m types of low-level feature quantities that are input. There are k types of high-level feature quantity extraction formulas that output the calculation results as high-level feature quantities. Therefore, the high level feature quantity extraction unit 14 outputs k types of high level feature quantities.
  • FIG. 4 shows an example of a high-level feature quantity extraction formula.
  • the high-level feature quantity extraction formula Fl shown in A of FIG. 4 performs four arithmetic operations on the low-level feature quantities a, b, c, d, and e, and uses this computation result as one type of high-level feature quantity. It is output as a speed value that is.
  • e are subjected to four arithmetic operations and power operation (POWER), and the result is output as a brightness value which is one kind of high-level feature.
  • POWER power operation
  • FIG. 5 shows a feature quantity extraction algorithm generation device 2 according to the first embodiment of the present invention.
  • a configuration example of 0 is shown.
  • the feature quantity extraction algorithm generation device 20 generates an optimal low-level feature quantity extraction formula and high-level feature quantity extraction formula by learning based on a genetic algorithm.
  • the feature quantity extraction algorithm generation device 20 includes a low level feature quantity extraction formula list generation unit 21 that generates n low level feature quantity extraction formula lists including m low level feature quantity extraction formulas, a low level Feature quantity extraction formula list generation unit 21 Inputs j pieces of input data (content data and metadata) to n low-level feature quantity extraction formula lists supplied from 21 m types corresponding to each input data N-level low-level feature values for n sets of low-level feature-value calculation units 24 4 and low-level feature-value calculation units 24 High-level feature quantity extraction formula learning unit 25 that estimates the high-level feature quantity extraction formula based on learning! Generated high-level feature extraction formula
  • the high level characteristic amount arithmetic operation section 26 Te use ⁇ calculates the high level characteristic amount, and a control unit 27 which controls the repetition of the operation of each section (loop).
  • the low-level feature quantity extraction formula list generator 21 generates a low-level feature quantity extraction formula list composed of m low-level feature quantity extraction formulas, which are preset constants, for the first generation. Randomly, for the low-level feature quantity extraction formula list for the second generation and later, the high level learned using the low-level feature quantity based on the low-level feature quantity extraction formula list one generation before is used. Generated based on the accuracy of the bell feature extraction formula.
  • the operator set detection unit 22 incorporated in the low-level feature quantity extraction formula list generation unit 21 generates a combination of a plurality of operators (operators) that frequently appear in the generated low-level feature quantity extraction formula. To detect.
  • the operator generation unit 23 registers a combination of a plurality of operators detected by the operator group detection unit 22 as a new type of operator.
  • the high-level feature quantity extraction formula learning unit 25 generates k types of high-level feature quantity extraction formulas corresponding to n sets of low-level feature quantities, respectively, and estimates the accuracy of each high-level feature quantity extraction formula. The contribution ratio of each low-level feature quantity in each high-level feature quantity extraction formula is calculated and output to the low-level feature quantity extraction formula list generation unit 21. In addition, the high-level feature quantity extraction formula learning unit 25 has the lowest average accuracy of the obtained high-level feature quantities among the n sets of low-level feature quantity extraction formula lists in the last generation of learning. The m low-level feature quantity extraction formulas constituting the level feature quantity extraction formula list and k types of high-level feature quantity extraction formulas corresponding thereto are supplied to the high-level feature quantity computation unit 26.
  • the high-level feature quantity computing unit 26 uses the low-level feature quantity extraction formula and the high-level feature quantity extraction formula that are finally supplied from the high-level feature quantity extraction formula learning unit 25 to use the high-level feature quantity extraction formula. Is calculated.
  • FIG. 6 shows a detailed configuration example of the high level feature quantity computing unit 26.
  • the high-level feature quantity calculation unit 26 calculates a low-level feature quantity by substituting input data (content data and corresponding metadata) into the final low-level feature quantity extraction formula list.
  • High-level feature quantity calculation unit that calculates the high-level feature quantity by substituting the low-level feature quantity, which is the computation result of the feature quantity computation unit 41 and the low-level feature quantity computation unit 41, into the final high-level feature quantity extraction formula 42, high-level feature value calculation unit 42.
  • square error calculation unit 43 which calculates the square error between the high-level feature value and the teacher data (true high-level feature value corresponding to the input data).
  • Reject area extraction formula that generates a reject area extraction formula by learning the low level feature quantity that is the calculation result of the level feature calculation section 41 and outputs the square error that is the calculation result of the square error calculation section 43 by learning Learning section 44, and Substitutes the input data into the reject region extraction expression produced by the reject region extraction expression learning section 44, the high level characteristic amount of the feature extraction accuracy is calculated in response to the input data (2 And a feature amount extraction accuracy calculation unit 45 that causes the high level feature amount calculation unit 42 to calculate a high level feature amount only when the estimated feature extraction accuracy is equal to or greater than a predetermined threshold.
  • FIG. 7 is a flowchart for explaining a feature quantity extraction algorithm generation process that is a basic operation of the feature quantity extraction algorithm generation apparatus 20.
  • step S1 the control unit 27 initializes a learning loop parameter G to 1 and starts a learning loop. Note that the learning loop is repeated for the number of learning times g set in advance by the user or the like.
  • step S2 the low-level feature quantity extraction formula list generation unit 21 performs processing as shown in FIG.
  • n low level feature quantity extraction formula lists including m types of low level feature quantity extraction formulas are generated and output to the low level feature quantity calculation unit 24.
  • step S 2 low level feature quantity extraction formula list generation process
  • step S11 the low-level feature quantity extraction formula list generation unit 21 determines whether or not the generated low-level feature quantity extraction formula list is the first generation. In this determination, when the learning loop parameter G is 0, it is determined that the generated low-level feature quantity extraction formula list is the first generation.
  • step S12 the low-level feature quantity extraction formula list creation unit 21 randomly creates a first generation low-level feature quantity extraction formula list.
  • step S11 determines whether the low-level feature quantity extraction formula list to be generated is not the first generation. If it is determined in step S11 that the low-level feature quantity extraction formula list to be generated is not the first generation, the process proceeds to step S13.
  • step S13 the low-level feature quantity extraction formula list generation unit 21 generates a next-generation low-level feature quantity extraction formula list using a genetic algorithm based on the low-level feature quantity extraction formula list one generation before. Generate to tick.
  • step S12 first generation list random generation process
  • step S21 the control unit 27 initializes the list loop parameter N to 1 and starts the list loop.
  • the list loop is repeated for the preset number of lists n.
  • step S22 the control unit 27 initializes the equation loop parameter M to 1 and starts the equation loop.
  • the expression loop is repeated for the number m of low-level feature quantity extraction formulas that constitute one low-level feature quantity extraction formula list.
  • input data is described at the left end, and one or more types of operators (operators) are described on the right side according to the order of operations.
  • operators include a processing symmetry axis and parameters as appropriate.
  • 12TomesM is input data
  • 32 # Dilferential, 32 # MaxIndex, 16 # LPF_l; 0.861, etc. are operators.
  • 32 #, 16 #, etc. in the operator indicate processing symmetry axes.
  • 12TomesM indicates that the input data is monolanole PCM (pulse coded modulation sound source) spread data in the time axis direction.
  • 48 # is the channel axis
  • 32 # is the frequency axis and pitch axis
  • 16 # is the time axis.
  • 0.861 in the operator is a parameter in the low-pass filter process, and indicates, for example, the threshold value of the frequency to be transmitted.
  • the low-level feature quantity extraction formula list generation unit 21 generates the M-th low-level feature quantity extraction formula list of the Nth low-level feature quantity extraction formula list (hereinafter also referred to as list N).
  • Input data (hereinafter also referred to as low-level feature quantity extraction formula M) is determined randomly.
  • Examples of the types of input data include Wav, 12Tones, Chord, and Key shown in FIG.
  • WAV as input data is PCM waveform data as shown in Fig. 13, and possession dimensions are a time axis and a channel axis.
  • 12Tones which is input data, converts PCM waveform data to time The analysis is performed for each pitch along the axis, and the possession dimensions are the time axis and the pitch axis.
  • Chord which is input data, is data indicating the chord progression (C, C #, D,..., Bm) of the music as shown in FIG. 14, and the possession dimensions are the time axis and the pitch axis.
  • Key which is input data, is data indicating the key (C, C #, D,..., B) of the music, and possession dimensions are the time axis and the pitch axis.
  • step S 24 the low-level feature quantity extraction formula list generation unit 21 randomly determines one processing symmetry axis and one parameter of the low-level feature quantity extraction formula M of the list N to be generated.
  • Parameter types include mean value (Mean), fast Fourier transform (FFT), standard deviation (St Dev), appearance rate (Ratio), low-pass filter (LPF), high-pass filter (HPF), absolute value ( ABS), differential (Differential maximum value (Maxlndex), unbiased variance (UVariance), etc.)
  • FFT fast Fourier transform
  • St Dev standard deviation
  • HPF high-pass filter
  • ABS absolute value
  • ABS absolute value
  • Maxlndex maximum value
  • UVariance unbiased variance
  • the processing symmetry axis may be fixed.
  • the processing symmetry axis is fixed to 1.
  • the parameter is also determined to be a random value or a preset value.
  • step S25 the low-level feature quantity extraction formula list generation unit 21 generates a scalar (one-dimensional) calculation result of the low-level feature quantity extraction formula M of the list N generated so far. It is determined whether or not the number of dimensions is equal to or less than a predetermined value (for example, a small number such as 1 or 2), and if not, the process returns to step S24 and one operator is added. Then, by repeating the processing of steps S24 and S25, the number of retained dimensions of the operation result decreases as shown in FIG. 16. In step S25, the operation of the low-level feature quantity extraction formula M of list N is performed. If it is determined that the resulting force or the number of dimensions is less than or equal to a predetermined value (eg, a number as small as 1 or 2), the process proceeds to step S26.
  • a predetermined value eg, a number as small as 1 or 2
  • step S26 the control unit 27 determines whether or not the expression loop parameter M is smaller than the maximum value m. If the expression loop parameter M is smaller than the maximum value m, the expression loop parameter M is set to 1. Increment and return to step S23. Conversely, if the expression loop parameter M is not smaller than the maximum value m (the expression loop parameter M is equal to the maximum value m). ), Exit the expression loop and proceed to step S27. By the processing so far, the Nth low-level feature quantity extraction formula list is generated.
  • step S27 the control unit 27 determines whether or not the list loop parameter N is smaller than the maximum value n. If the list loop parameter N is smaller than the maximum value n, the control unit 27 sets the list loop parameter N to 1. Increment only and return to step S22. On the other hand, when the list loop parameter N is smaller than the maximum value n (when the list loop parameter N is equal to the maximum value n), the process exits the list loop and ends the first generation list random generation process. Through the processing up to this point, n low-level feature quantity extraction formula lists for the first generation have been generated.
  • step S13 of FIG. 9 the process of generating the second generation and subsequent low-level feature quantity extraction formula list (next-generation list genetic generation process) in step S13 of FIG. 9 will be described in detail with reference to the flowchart of FIG. To do.
  • step S31 the low-level feature quantity extraction formula list generation unit 21 selects the number of lists indicating the number of lists to which the selection of the genetic algorithm is applied among the number n of low-level feature quantity extraction formula lists to be generated.
  • ns, crossover number nx indicating the number of lists to which genetic algorithm crossings are applied, and mutation number nm indicating the number of lists to which genetic algorithm mutations are applied are randomly determined.
  • the sum of selection number ns, number of crossings nx, number of mutations nm is n. Note that preset constants may be adopted as the selection number ns, the number of crossings nx, and the number of mutations nm.
  • step S32 the low-level feature quantity extraction formula list generation unit 21 selects the determined low-level feature quantity extraction formula list of ns from the n low-level feature quantity extraction formula lists one generation before. To generate ns low-level feature quantity extraction formula lists.
  • step S33 the low-level feature quantity extraction formula list generation unit 21 uses the determined low-level feature quantity extraction formula list of the number of intersections nx from the n low-level feature quantity extraction formula lists one generation before. Nx low-level feature quantity extraction formula lists.
  • step S34 the low-level feature quantity extraction formula list generation unit 21 selects the low-level feature quantity extraction formula list having the determined number of mutations nm from the n low-level feature quantity extraction formula lists one generation before. Use to generate nm low-level feature extraction formula list.
  • step S32 The processing of steps S32 to S34 will be described in detail.
  • step S32 The selection generation process of step S32 will be described in detail with reference to the flowchart of FIG. In this selection generation process, a selection level ns low level feature quantity extraction formula list is generated from the next generation n low level feature quantity extraction formula lists.
  • step S41 the low-level feature quantity extraction formula list generation unit 21 stores the n low-level feature quantity extraction formula lists one generation before the high-level feature quantity extraction formula learning unit 25 as the high-level feature quantity extraction formula list.
  • the feature amount extraction formulas are rearranged in descending order of average accuracy of estimation accuracy.
  • step S42 the low-level feature quantity extraction formula list generation unit 21 selects the next ns low-level feature quantities from the rearranged n low-level feature quantity extraction formula lists one generation before. Adopt as an extraction formula list. The selection generation process is thus completed.
  • intersection generation processing in step S33 in FIG. 17 will be described in detail with reference to the flowchart in FIG. In this intersection generation processing, a low-level feature quantity extraction formula list with the number of intersections nx out of the next-generation n low-level feature quantity extraction formula lists is generated.
  • step S51 the control unit 27 initializes the intersecting loop parameter NX to 1 and starts the intersecting loop.
  • the intersection loop is repeated for the number of intersections nx.
  • step S52 the low-level feature quantity extraction formula list generation unit 21 generates a high-level feature quantity output from the high-level feature quantity extraction formula learning unit 25 from the previous-generation low-level feature quantity extraction formula list. After weighting the selection formulas so that the average accuracy of the estimation formulas is selected in descending order, the two low-level feature quantity extraction formula lists A and B are selected at random. The selection here may exclude the ns low-level feature quantity extraction formula list selected by the selection generation process described above from the selection candidate power! /, And leave it as a selection candidate. Yo ...
  • step S53 the control unit 27 initializes the equation loop parameter M to 1 and starts the equation loop.
  • the expression loop is repeated for the number m of expressions included in one low-level feature quantity extraction expression list.
  • step S54 the low-level feature quantity extraction formula list generation unit 21 learns a high-level feature quantity extraction formula from the 2m low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula lists A and B. After weighting so that the one with the higher contribution rate in the high-level feature quantity extraction formula input from section 25 is preferentially selected, one low-level feature quantity extraction formula is selected at random and the next Add to the low-level feature extraction formula list of generations. [0076] In step S55, the control unit 27 determines whether or not the expression loop parameter M is smaller than the maximum value m. If the expression loop parameter M is smaller than the maximum value m, the expression loop parameter M is set to 1. Increment and return to step S54.
  • step S56 One low-level feature quantity extraction formula list is generated by the processing of steps S 53 to S 55 as the formula loop.
  • step S56 the control unit 27 determines whether or not the cross loop parameter NX is smaller than the maximum value nx. If the cross loop parameter NX is smaller than the maximum value nx, the cross loop parameter NX is set to 1. Increment only and return to step S52. On the contrary, when the intersection loop parameter NX is smaller than the maximum value nx (when the intersection loop parameter NX is equal to the maximum value nx), the intersection generation process is terminated through the intersection loop. As a result of this intersection loop processing, a low-level feature quantity extraction formula list with nx intersections is generated.
  • step S34 in FIG. 17 will be described in detail with reference to the flowchart in FIG.
  • a low-level feature quantity extraction formula list with the number of mutations nm out of the next-generation n low-level feature quantity extraction formula lists is generated.
  • step S61 the control unit 27 initializes the mutation loop parameter NM to 1 and starts a mutation loop. Note that the mutation loop is repeated for the number of mutations nm.
  • step S62 the low-level feature quantity extraction formula list generation unit 21 extracts the high-level feature quantity output from the high-level feature quantity extraction formula learning unit 25 from the previous-generation low-level feature quantity extraction formula list. After weighting so that the one with the highest average accuracy of the extraction formulas is selected preferentially, one low-level feature quantity extraction formula list A is selected at random. In this selection, the ns low-level feature quantity extraction formula lists selected in the selection generation process described above may be excluded from the selection candidate power, or may be left as a selection candidate. Further, the low-level feature quantity extraction formula list selected in the above-described processing of step S52 of the intersection generation process may be excluded from the selection candidate power, or may be left as a selection candidate. [0081] In step S63, the control unit 27 initializes the expression loop parameter M to 1 and starts the expression loop. The expression loop is repeated for the number m of expressions included in one low-level feature quantity extraction expression list.
  • step S64 the low-level feature quantity extraction formula list generation unit 21 pays attention to the Mth one of the m low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A.
  • the contribution rate of the low-level feature quantity which is the calculation result of the Mth low-level feature quantity extraction formula, is the calculation result of the other low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A It is determined whether or not it is lower than the contribution rate of the low-level feature value. Specifically, for example, out of m low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A, the contribution rate of the low-level feature quantity, which is the calculation result, is reduced to a predetermined order. It is determined whether it belongs or not.
  • step S64 if it is determined that the contribution rate of the low-level feature quantity, which is the calculation result of the M-th low-level feature quantity extraction formula, is lower than the others, the process proceeds to step S65.
  • the low-level feature quantity extraction formula list generation unit 21 transforms the M-th low-level feature quantity extraction formula into a random (mutation) and creates a next-generation low-level feature quantity extraction formula list. to add.
  • step S64 if it is determined in step S64 that the contribution rate of the low-level feature quantity, which is the calculation result of the M-th low-level feature quantity extraction formula, is lower than the others, the process proceeds to step S66.
  • the low level feature quantity extraction formula list generation unit 21 adds the Mth low level feature quantity extraction formula as it is to the next generation low level feature quantity extraction formula list without mutating.
  • step S67 the control unit 27 determines whether or not the expression loop parameter M is smaller than the maximum value m. If the expression loop parameter M is smaller than the maximum value m, the expression loop parameter M is set to 1. Increment and return to step S64. On the other hand, if the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S68.
  • One low-level feature quantity extraction formula list is generated by the processing of the formula loop in steps S63 to S67.
  • step S68 the control unit 27 sets the mutation loop parameter NM to the maximum value nm. If the mutation loop parameter NM is smaller than the maximum value nm, the mutation loop parameter NM is incremented by 1, and the process returns to step S62. On the other hand, when the mutation loop parameter NM is not smaller than the maximum value nm (when the mutation loop parameter NM is equal to the maximum value nm), the mutation generation process is terminated through the mutation loop. Through the processing up to this point, a low-level feature quantity extraction formula list with nm mutations has been generated.
  • the estimation accuracy corresponding to the low-level feature quantity extraction formula list one generation before is high, and the contribution rate corresponding to the low-level feature quantity extraction formula is high. Higher ones will be inherited by the next generation, and those with lower estimation accuracy and contribution ratio will be rejected without being inherited by the next generation. Therefore, as the generation progresses, it can be expected that the estimation accuracy corresponding to the low-level feature quantity extraction formula list will improve and the contribution rate corresponding to the low-level feature quantity extraction formula will also improve.
  • next-generation low-level feature quantity extraction formula list generated as described above is output from the low-level feature quantity extraction formula list generation unit 21 to the low-level feature quantity calculation unit 24.
  • the low-level feature quantity calculation unit 24 inputs j pieces of songs C1 to Cj into each of the n low-level feature quantity extraction formula lists input from the low-level feature quantity extraction formula list generation unit 21. Substitute data (content data and metadata) to calculate low-level features.
  • the input data for j songs input uses k items of teacher data (corresponding high-level feature values) obtained in advance.
  • the low-level feature quantity computation unit 24 performs computation equivalent to # 16Mean operator on input data whose holding dimensions are the pitch axis and time axis as shown in A of FIG. As shown in Fig. 21B, the average value of each pitch value is calculated with the time axis as the processing target axis. Then, as shown in Fig. 22, the n low-level feature quantity sets (comprising m kinds of low-level feature quantity powers) corresponding to each input data are obtained as high-level feature quantity extraction formula learning unit 25 as the calculation result. Output to.
  • the high level feature quantity extraction formula learning unit 25 receives n sets of low level feature quantity sets input from the low level feature quantity calculation unit 24 and corresponding teacher data ( As shown in FIG. 23, a set of high-level feature quantity extraction formulas consisting of k types of high-level feature quantity extraction formulas based on each input data (k types of high-level feature quantities respectively corresponding to songs C1 to Cj). N sets are estimated (generated) by learning. Further, the estimation accuracy of each high level feature quantity extraction formula and the contribution rate of each low level feature quantity in each high level feature quantity extraction formula are calculated and output to the low level feature quantity extraction formula list generation unit 21.
  • step S4 The high-level feature quantity extraction formula learning process in step S4 will be described in detail with reference to the flow chart of FIG.
  • step S71 the control unit 27 initializes the list loop parameter N to 1 and starts the list loop.
  • the list loop is repeated for the preset number of lists n.
  • step S72 the control unit 27 initializes the teacher data loop parameter K to 1 and starts a teacher data loop. Note that the teacher data loop is set in advance and repeated for the number of types of teacher data k.
  • step S73 the control unit 27 initializes the algorithm loop parameter A to 1 and starts the algorithm loop. Incidentally, the algorithm loop is repeated by the number of types a of the applied learning ⁇ algorithm.
  • the learning algorithm belonging to Regression is such that the square error between the teacher data and Y is minimized based on the assumption that the teacher data and the low-level feature quantity have a linear relationship.
  • the learning algorithm belonging to Regression is such that the square error between the teacher data and Y is minimized based on the assumption that the teacher data and the low-level feature quantity have a linear relationship.
  • the learning algorithm belonging to Regression is such that the square error between the teacher data and Y is minimized based on the assumption that the teacher data and the low-level feature quantity have a linear relationship.
  • the Euclidean distance d from the center of each class is calculated to calculate the Euclidean distance.
  • the correlation coefficient correl is calculated by calculating the correlation coefficient correl with the average vector of each class (in this case, male vocal class and female vocal class). Categorizes into the largest class, Fig. 29 As shown in Fig. 3, the Mahalanobis distance d from the center of each class (in the case of the figure, male vocal class and female vocal class) is calculated, and the class that has the shortest Mahalanobis distance d is listed. be able to.
  • each class group in this case, male vocal class group and female vocal class group
  • the central force of each class group is expressed.
  • the Euclidean distance d is calculated and classified into the class with the shortest Euclidean distance d
  • each class group in this case, male vocal class group and female vocal class group
  • This can be expressed as a class with multiple classes, and the Mahalanobis distance d of the central force of each class group is calculated to classify the class into the class with the shortest Mahalanobis distance d.
  • each class in this case, male vocal class and female vocal class
  • a support vector One example is to learn the parameter b in order to maximize the distance (margin) from the vector.
  • the number of types a of the learning algorithm is 11.
  • step S74 the control unit 27 initializes the cross-validation loop parameter C to 1 and starts the cross-validation loop.
  • the cross reduction loop is repeated in advance by the number of cross reductions c.
  • step S75 the high-level feature quantity extraction formula learning unit 25 randomly learns the teacher data (true high-level feature quantities) for the k-th kind of j songs among the k kinds of teacher data. And divide it into two for evaluation (Krossnok Reduction).
  • the teacher data the data classified for learning is described as learning data
  • the data classified for evaluation is described as evaluation data.
  • step S76 the high-level feature quantity extraction formula learning unit 25 uses the N-th low-level feature quantity extraction formula list to calculate the low-level feature quantities consisting of m types of low-level feature quantity models.
  • the high-level feature extraction formula is estimated by learning by applying the quantification and learning data to the a-th learning algorithm. In this learning, some of the m types of low-level features are selected energetically and used in order to reduce the amount of computation and suppress overlearning (overfitting).
  • the information criterion AIC (Akaie Information Criterion) is used.
  • Information criteria AIC and BIC are used as selection criteria for learning models (in this case, the selected low-level features), and learning models with smaller values are better (higher evaluation).
  • AIC is expressed as follows.
  • AIC — 2 X maximum log likelihood + 2 X number of free parameters
  • AIC number of learning data X ((log27u) + l + log (mean square error)) + 2 X (n + 1).
  • BIC — 2 X maximum log likelihood + log (number of training data) X number of free parameters
  • BIC is characterized in that its value does not easily increase even if the number of learning data increases.
  • the learning process based on the learning algorithm in step S76 will be described with reference to FIG.
  • V and some of the m types of low-level feature values calculated are genetically used. Select and use.
  • step S91 the high-level feature quantity extraction formula learning unit 25 generates P sets of initial populations that are randomly selected from m types of low-level feature quantities (those used for learning). To do.
  • step S92 the high-level feature quantity extraction formula learning unit 25 starts a feature selection loop based on a genetic algorithm (GA). This GA feature selection loop is repeated until a predetermined condition is satisfied in step S98 described later.
  • GA genetic algorithm
  • step S93 the control unit 27 initializes the initial collective loop parameter P to 1 and starts an initial collective loop. Note that the initial population loop is repeated for the initial population number p of low-level feature values generated in the processing of step S91.
  • step S94 the high-level feature quantity extraction formula learning unit 25 uses the low-level feature quantity included in the P-th initial group and the learning data of the teacher data, and uses the A-th learning algorithm.
  • the high level feature quantity extraction formula is estimated by learning.
  • step S95 the high-level feature quantity extraction formula learning unit 25 calculates the information criterion AIC or BIC as the evaluation value of the high-level feature quantity obtained as a result of the process in step S94.
  • step S96 the control unit 27 determines whether or not the initial population loop parameter P is smaller than the maximum value. If the initial population loop parameter P is smaller than the maximum value p, the initial population loop parameter P is determined. Is incremented by 1, and the process returns to step S94. On the other hand, if the initial collective loop parameter P is smaller than the maximum value P (when the initial collective loop parameter P is equal to the maximum value p), the process exits the initial collective loop and proceeds to step S97.
  • the information criterion AIC or BIC can be obtained as the evaluation value of the high-level feature quantity extraction formula learned based on each initial group.
  • step S97 the high-level feature quantity extraction formula learning unit 25 updates the P group initial group that also has a low-level feature quantity power used for learning to genetic based on the evaluation value. Specifically, the initial population is updated by selection, crossover, and mutation, as in steps S32 to S34 in FIG. As a result of this update, the initial group, which was initially generated at random, will be learned to improve the evaluation value of the high-level feature extraction formula.
  • step S98 the control unit 27 extracts the high-level feature quantity extraction formula having the highest evaluation value (small information criterion) from among the high-level feature quantity extraction formulas corresponding to the p sets of initial groups, respectively. If the evaluation value is improved every time the GA feature selection loop is repeated (the information criterion is decreased), the process returns to step S93 to continue the feature selection loop. On the other hand, among the high-level feature quantity extraction formulas corresponding to each of the p groups of initial groups, the evaluation value of the highest-level feature quantity extraction formula with the highest evaluation value is improved even when the feature selection loop by GA is repeated.
  • step S77 in FIG. 24 If it disappears (the information criterion no longer decreases), it exits the feature selection loop by GA, and the highest evaluation value !, high-level feature quantity extraction formula is processed in the later stage (the process of step S77 in FIG. 24). Then, the learning process based on the learning algorithm is terminated.
  • the number of low-level feature values selected in step S91 may be fixed. In this case, the number of necessary low-level feature quantities may be obtained using the entropy of the teacher data. Similarly, perform principal component analysis of the teacher data and make the number of low-level features equal to the number of main components.
  • step S77 the high-level feature quantity extraction formula learning unit 25 evaluates the high-level / high-level feature quantity extraction formula having the highest evaluation value obtained in step S76 using the evaluation data. Specifically, the high-level feature quantity is calculated using the obtained high-level feature quantity extraction formula, and the square error with the evaluation data is calculated.
  • step S78 the control unit 27 determines whether or not the cross-validation loop parameter C is smaller than the maximum value c. If the cross-reduction loop parameter C is smaller than the maximum value c, Then, the cross validation loop parameter C is incremented by 1, and the process returns to step S75. On the other hand, if the cross-reduction loop parameter C is not smaller than the maximum value c (the cross-reduction loop parameter C is equal to the maximum value c) ), Exit the cross validation loop and proceed to step S79. As a result of the cross-reduction loop processing of steps S74 to S78, c learning results, that is, high-level feature quantity extraction formulas are obtained. It should be noted that the learning data and the evaluation data are converted at random by the cross-reduction loop, so that it can be confirmed that the high-level feature quantity extraction formula has been over-learned.
  • step S79 the high-level feature quantity extraction formula learning unit 25 obtains the c learning results obtained by the cross-validation loop, that is, the evaluation value in the process of step S77 among the high-level feature quantity extraction formulas. Choose the one with the highest.
  • step S80 the control unit 27 determines whether or not the algorithm loop parameter A is smaller than the maximum value a! /, And if the algorithm loop parameter A is smaller than the maximum value a, the algorithm Increment loop parameter A by 1 and return to step S74. On the other hand, when the algorithm loop parameter A is not smaller than the maximum value a (when the algorithm loop parameter A is the same value as the maximum value a), the process exits the algorithm loop and proceeds to step S81. As a result of the processing of the algorithm loop in steps S73 to S80, a number of K-level high-level feature quantity extraction formulas learned by a type of learning algorithm are obtained.
  • step S81 the high-level feature quantity extraction formula learning unit 25 performs processing in step S77 out of a learning results obtained by the algorithm loop, that is, among the high-level feature quantity extraction formulas. Select the one with the highest evaluation value.
  • step S82 the control unit 27 determines whether or not the teacher data loop parameter K is smaller than the maximum value k. If the teacher data loop parameter K is smaller than the maximum value k, the teacher 27 The data loop parameter K is incremented by 1, and the process returns to step S73. On the other hand, when the teacher data loop parameter K is not smaller than the maximum value k (when the teacher data loop parameter K is the same value as the maximum value k), the processing exits from the teacher data loop and proceeds to step S83. Through the processing of the teacher data loop in steps S72 to S82, k types of high-level feature quantity extraction formulas corresponding to the Nth low-level feature quantity extraction formula list are obtained.
  • step S83 the control unit 27 determines that the list loop parameter N is smaller than the maximum value n. If the list loop parameter N is smaller than the maximum value n, the list loop parameter N is incremented by 1, and the process returns to step S72. On the other hand, if the wrist loop parameter N is smaller than the maximum value n (if the wrist loop parameter N is the same value as the maximum value n), the processing exits the wrist loop and proceeds to step S84. As a result of the list loop processing from steps S71 to S83, k types of high-level feature quantity extraction formulas corresponding to n low-level feature quantity extraction formula lists are obtained.
  • step S84 the high-level feature quantity extraction formula learning unit 25 estimates the accuracy of k types of high-level feature quantity extraction formulas corresponding to the obtained n low-level feature quantity extraction formula lists, respectively.
  • the contribution ratio of each low-level feature quantity in each high-level feature quantity extraction formula is calculated and output to the low-level feature quantity extraction formula list generation unit 21. This completes the high-level feature quantity extraction formula learning process.
  • step S5 the control unit 27 determines whether the learning loop parameter G is smaller than the maximum value g. If the learning loop parameter G is smaller than the maximum value g, the control unit 27 increments the learning loop parameter G by 1. Return the process to step S2. On the other hand, if the learning loop parameter G is smaller than the maximum value g (if the learning loop parameter G is the same value as the maximum value g), the learning loop is exited and the process proceeds to step S6.
  • the learning rules in steps S1 to S5 are the learning process of the feature quantity extraction algorithm, and the subsequent step S6 is a process for calculating a high-level feature quantity using the feature quantity extraction algorithm.
  • step S6 the high-level feature quantity extraction formula learning unit 25 calculates the average accuracy of the obtained high-level feature quantity from the final-generation n sets of low-level feature quantity extraction formula lists obtained by learning.
  • the m low-level feature quantity extraction formulas that constitute the highest-order list and k types of high-level feature quantity extraction formulas corresponding thereto are supplied to the high-level feature quantity computation unit 26.
  • step S7 the high-level feature quantity computation unit 26 finally selects the high-level feature quantity from the low-level feature quantity extraction formula and the high-level feature quantity extraction formula supplied from the high-level feature quantity extraction formula learning unit 25.
  • the high-level feature quantity is calculated with high accuracy using the low-level feature quantity extraction formula and high-level feature quantity extraction formula supplied from the quantity extraction formula learning unit 25.
  • high-level feature amount calculation processing in step S7 refer to FIG. 38 and subsequent figures. Will be described later.
  • the low-level feature quantity extraction formula list contains permutations of operators (hereinafter referred to as combinations of operators) as shown in FIG. Frequently appear on different low-level feature quantity extraction formulas. Therefore, a combination of a plurality of operators that frequently appear on different low-level feature quantity extraction formulas is registered as one of the new operators in the operator to be used in the low-level feature quantity extraction formula list generation unit 21.
  • step S101 the operator combination detection unit 22 generates a permutation of operators having a predetermined number (for example, about 1 to 5) or less (a combination of operators having an order). Let og be the number of operator combinations generated here.
  • step S102 the control unit 27 initializes the combination loop parameter OG to 1 and starts a combination loop.
  • the combination loop is repeated for the number of combinations og of the operator.
  • step S103 the appearance frequency Count of the combination of the og-th operator is initialized to 1.
  • step S104 the control unit 27 sets the list loop parameter N to 0. To start the list loop. The list loop is repeated for a preset number n of lists.
  • step S105 the control unit 27 initializes the expression loop parameter M to 1 and starts an expression loop. The expression loop is repeated for the number m of low-level feature quantity extraction formulas constituting one low-level feature quantity extraction formula list.
  • step S106 the operator set detection unit 22 determines whether or not a combination of the og-th operator exists on the M-th low-level feature quantity extraction formula that forms the N-th low-level feature quantity extraction formula list. If it is determined that it exists, the process proceeds to step S107, and the appearance frequency Count is incremented by one. On the other hand, when it is determined that the combination of the og-th operator does not exist, step S107 is skipped and the process proceeds to step S108.
  • step S108 the control unit 27 determines whether or not the equation loop parameter M is smaller than the maximum value m. If the equation loop parameter M is smaller than the maximum value m, the equation loop parameter M is set to 1. Increment only and the process returns to step S106. On the other hand, if the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S109.
  • step S109 the control unit 27 determines whether or not the list loop parameter N is smaller than the maximum value n. If the list loop parameter N is smaller than the maximum value n, the list loop parameter N is set to 1. Increment and return to step S105. On the other hand, when the list loop parameter N is not smaller than the maximum value n (when the list loop parameter N is equal to the maximum value n), the process exits the list loop and proceeds to step S110.
  • step S110 the control unit 27 determines whether or not the combined loop parameter OG is smaller than the maximum value og, and the combined loop parameter OG is zJ greater than the maximum value og. Increment OG by 1 and return to step S103. On the other hand, when the combination loop parameter OG is not smaller than the maximum value og (when the combination loop parameter OG is the same value as the maximum value og), the combination loop is exited and the process proceeds to step S110. By the process so far, the appearance frequency Count corresponding to each combination of operators is detected.
  • step S111 the operator set detection unit 22 determines that the appearance frequency Count is a predetermined threshold. The operator combination greater than the value is extracted and output to the operator generation unit 23.
  • step S112 the operator generation unit 23 registers the operator combination input from the operator set detection unit 22 as a new operator. This completes the new operator generation process.
  • step S141 the high-level feature quantity computation unit 26 obtains a highly accurate computation result from the final high-level feature quantity extraction formula supplied from the high-level feature quantity extraction formula learning unit 25.
  • a high-accuracy reject process is performed to select only those that are available
  • the high-accuracy reject process increases the accuracy of the high-level feature quantity using the low-level feature quantity as input.
  • the reject area extraction formula to be output is obtained by learning. This high-accuracy reject process will be described in detail with reference to the flowchart of FIG.
  • step S151 the low level feature quantity computing unit 41 in the high level feature quantity computing unit 26 acquires a final low level feature quantity extraction formula list.
  • the high level feature quantity computing unit 42 in the high level feature quantity computing unit 26 acquires the final high level feature quantity extraction formula.
  • step S152 the control unit 27 initializes the content loop parameter J to 1 and starts a content loop.
  • the content loop is repeated for the number j of input data (content data and metadata) that can be prepared to execute the high-accuracy reject process. It is assumed that high-level feature amounts corresponding to input data that can be prepared are also prepared as teacher data.
  • step S153 the low-level feature quantity computing unit 41 substitutes the L-th input data into the final low-level feature quantity extraction formula list obtained in the process of step S151, and obtains the calculation result.
  • the m types of low-level feature values are output to the high-level feature value calculation unit 42 and the reject area extraction formula learning unit 44.
  • the high-level feature quantity computing unit 42 substitutes the m types of low-level feature quantities input from the low-level feature quantity computing unit 41 into the final high-level feature quantity extraction formula acquired in the process of step S151, and The high-level feature value that is the calculation result is output to the square error calculation unit 43.
  • step S154 the square error calculation unit 43 calculates the high-level feature value input from the high-level feature value calculation unit 42 and the teacher data (the true high-level feature value corresponding to the input data).
  • the square error is calculated and output to the reject area extraction formula learning unit 44.
  • the square error power which is the result of this calculation, is the accuracy of the high-level feature quantity extraction formula calculated by the high-level feature quantity calculation unit 42 (hereinafter referred to as feature extraction accuracy).
  • step S155 the control unit 27 determines whether or not the content loop parameter J is smaller than the maximum value. If the content loop parameter J is smaller than the maximum value j, the content loop parameter J is incremented by 1. Then, the process returns to step S153. On the other hand, when the content loop parameter J is not smaller than the maximum value j (when the content loop parameter J is the same value as the maximum value j), the process exits the content loop and proceeds to step S156. As a result of the content loop processing in steps S151 to S155, the square error between the high-level feature quantity obtained by the calculation and the teacher data corresponding to each input data is obtained.
  • step S156 the reject area extraction formula learning unit 44 performs learning based on the low level feature quantity input from the low level feature quantity calculation unit 41 and the square error input from the square error calculation unit 43. Generates a reject area extraction formula that outputs the feature extraction accuracy of the high-level feature quantity that is calculated based on the low-level feature quantity as input, and uses the generated reject area extraction formula as a feature quantity extraction accuracy calculation unit. Supply to 45. Thus, the high-accuracy reject process is completed, and the process proceeds to step S142 in FIG.
  • step S142 the low-level feature value calculation unit 41 has acquired the high-level feature value! Substitutes the input data of the music into the final low-level feature value extraction formula list and sets the low level feature value. The feature value is calculated, and the calculation result is output to the high-level feature value calculation unit 42 and the feature value extraction accuracy calculation unit 45.
  • step S143 the feature amount extraction accuracy calculation unit 45 converts the low level feature amount input from the low level feature amount calculation unit 41 into the reject region extraction formula supplied from the reject region extraction formula learning unit 44. Substitution and feature level extraction accuracy of high-level feature values calculated based on the low-level feature values input from the low-level feature value calculation unit 41 (that is, calculated by the high-level feature value calculation unit 42) (Square error estimated for high-level feature).
  • step S144 the feature quantity extraction accuracy calculation unit 45 determines whether or not the feature quantity extraction accuracy calculated in the process of step S143 is equal to or greater than a predetermined threshold, and the calculated feature quantity extraction accuracy is predetermined. If it is determined that the value is equal to or greater than the threshold value, the process proceeds to step S145.
  • step S145 the feature amount extraction accuracy calculation unit 45 causes the high level feature amount calculation unit 42 to execute a high level feature amount calculation.
  • the high-level feature quantity calculation unit 42 substitutes the m types of low-level feature quantities input from the low-level feature quantity calculation unit 41 in the process of step S142 into the final high-level feature quantity extraction formula. Calculate the level feature.
  • the high-level feature value calculated here is the final output. This completes the high-accuracy and high-level feature quantity calculation processing.
  • step S144 If it is determined in step S144 that the calculated feature quantity extraction accuracy is V lower than a predetermined threshold value, the process of step S145 is skipped, and the high-precision high-level feature quantity computation process is terminated.
  • the accuracy of the high-level feature amount calculated by the high-level feature amount extraction formula can be estimated. Moreover, since high accuracy cannot be expected and high-level feature values are not calculated, useless calculations can be omitted.
  • the corresponding feature amount can be extracted from the music data. It is possible to acquire only high-precision high-level features with a small amount of computation, as long as algorithms can be generated quickly with high accuracy. Become.
  • FIG. 40 shows a configuration example of the feature quantity extraction algorithm generation device 60.
  • This feature quantity extraction algorithm generation device 60 includes a low level feature quantity extraction formula list generator 21 and a high level feature quantity extraction formula learning section 25 in the feature quantity extraction algorithm generation device 20, respectively.
  • the list generation unit 61 or the high-level feature quantity extraction type learning unit 65 is replaced.
  • the feature amount extraction algorithm generation device 60 differs from the feature amount extraction algorithm generation device 20 in that the low level feature amount extraction formula list generation unit 21 of the feature amount extraction algorithm generation device 20 generates the low level feature amount extraction.
  • the number m of formulas in the formula list is a constant, whereas the number m in each low-level feature quantity extraction formula list generated by the low-level feature quantity extraction formula list generation unit 61 of the feature quantity extraction algorithm generation device 60 is It is determined at random.
  • the high-level feature quantity extraction formula learning unit 25 of the feature quantity extraction algorithm generation device 20 outputs the estimation accuracy and the contribution rate as feedback to the low-level feature quantity extraction formula list generation unit 21
  • the high level feature quantity extraction formula learning unit 65 of the feature quantity extraction algorithm generation device 60 outputs an evaluation value and a contribution rate as a feed knock to the low level feature quantity extraction formula list generation unit 61.
  • the components other than the low level feature quantity extraction formula list generation unit 61 and the high level feature quantity extraction formula learning unit 65 of the feature quantity extraction algorithm generation device 60 are the same as those of the feature amount extraction algorithm generation device 20. Since they are common and have the same reference numerals, their description is omitted.
  • step S1 the control unit 27 initializes the learning loop parameter G to 1 and starts a learning loop. Note that the learning loop is repeated for the number of learning times g set in advance by the user or the like.
  • step S 2 the low-level feature quantity extraction formula list creation unit 61 creates n low-level feature quantity extraction formula lists and outputs them to the low-level feature quantity computation unit 24.
  • step S2 low-level feature quantity extraction formula list generation process
  • step S11 the low-level feature quantity extraction formula list creation unit 61 determines whether or not the generated low-level feature quantity extraction formula list is the first generation. In this determination, when the learning loop parameter G is 0, it is determined that the generated low-level feature quantity extraction formula list is the first generation.
  • step S12 the low-level feature quantity extraction formula list creation unit 61 randomly creates a first generation low-level feature quantity extraction formula list.
  • step S 11 if it is determined in step S 11 that the low-level feature quantity extraction formula list to be generated is not the first generation, the process proceeds to step S 13.
  • step S13 the low-level feature quantity extraction formula list generation unit 61 generates a next-generation low-level feature quantity extraction formula list using a genetic algorithm based on the low-level feature quantity extraction formula list one generation before. Generate to tick.
  • step S171 the control unit 27 initializes the list loop parameter N to 1 and starts a list loop.
  • the list loop is repeated for a preset number n of lists.
  • step S172 the low-level feature quantity extraction formula list creation unit 61 calculates the number m of low-level feature quantity extraction formulas constituting the first generation Nth low-level feature quantity extraction formula list to be generated. Determine at random.
  • step S173 the control unit 27 initializes the expression loop parameter M to 1 and starts an expression loop.
  • the formula loop is repeated for the number m of low-level feature quantity extraction formulas constituting one low-level feature quantity extraction formula list.
  • step S174 the low-level feature quantity extraction formula list creation unit 61 generates the Mth item of the Nth low-level feature quantity extraction formula list of the first generation to be generated (hereinafter also referred to as list N).
  • the input data of the low-level feature quantity extraction formula (hereinafter also referred to as low-level feature quantity extraction formula M) is randomly determined.
  • step S175 the low-level feature quantity extraction formula list creation unit 61 randomly determines one processing symmetry axis and one parameter of the low-level feature quantity extraction formula M of the list N to be generated.
  • step S176 the low-level feature quantity extraction formula list generator 61 generates a force that the operation result of the low-level feature quantity extraction formula M in the list N generated up to the present time is a scalar (one-dimensional), Alternatively, it is determined whether or not the number of dimensions is equal to or less than a predetermined value (for example, a small number such as 1 or 2). If it is determined that the number of dimensions is not, the process returns to step S175 to add one operator. Then, by repeating the processing of steps S175 and S176, the number of retained dimensions of the operation result decreases as shown in FIG. 16, and in step S176, the low-level feature quantity extraction formula M of list N is calculated. If it is determined that the resulting force or the number of dimensions is less than or equal to a predetermined value (for example, a number as small as 1 or 2), the process proceeds to step S177.
  • a predetermined value for example, a number as small as 1 or 2
  • step S177 the control unit 27 determines whether or not the expression loop parameter M is smaller than the maximum value m. If the expression loop parameter M is smaller than the maximum value m, the expression loop parameter M is set to 1. Increment and return to step S174. Conversely, if the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S178. Through the processing of steps S173 to S177, the Nth low-level feature quantity extraction formula list of the first generation is generated.
  • step S178 the control unit 27 determines whether or not the wrist loop parameter N is smaller than the maximum value n. If the wrist loop parameter N is smaller than the maximum value n, the wrist loop parameter N is set to 1. Increment and return to step S172. Conversely, if the list loop parameter N is not smaller than the maximum value n (if the list loop parameter N is the same value as the maximum value n), the process exits the list loop and ends the first generation list random generation process. By the processing up to this point, the low-level feature quantity extraction formulas that each constitute the first generation This means that n low-level feature quantity extraction formula lists that do not share the same number m are generated.
  • the low-level feature quantity extraction formula list generation unit 61 generates a second-level and subsequent low-level feature quantity extraction formula list in step S13 of Fig. 9 (next-generation list genetic generation processing ) Will be explained with reference to FIG.
  • step S31 the low-level feature quantity extraction formula list generation unit 61 selects the number of selections indicating the number of lists to which the genetic algorithm selection is applied among the number n of low-level feature quantity extraction formula lists to be generated.
  • ns, crossover number nx indicating the number of lists to which genetic algorithm crossings are applied, and mutation number nm indicating the number of lists to which genetic algorithm mutations are applied are randomly determined.
  • the sum of selection number ns, number of crossings nx, number of mutations nm is n. Note that preset constants may be adopted as the selection number ns, the number of crossings nx, and the number of mutations nm.
  • step S32 the low-level feature quantity extraction formula list generation unit 61 selects the low-level feature quantity extraction formula list of the selected selection number ns from the n low-level feature quantity extraction formula lists one generation before. To generate ns low-level feature quantity extraction formula lists.
  • step S33 the low-level feature quantity extraction formula list creation unit 61 uses the determined low-level feature quantity extraction formula list with the number of intersections nx from the n low-level feature quantity extraction formula lists one generation before. Nx low-level feature quantity extraction formula lists.
  • step S34 the low-level feature quantity extraction formula list creation unit 61 selects the low-level feature quantity extraction formula list with the determined number of mutations nm from the n low-level feature quantity extraction formula lists one generation before. Use to generate nm low-level feature extraction formula list.
  • step S32 The selection generation process in step S32 by the low-level feature quantity extraction formula list generation unit 61 will be described in detail with reference to the flowchart in FIG.
  • a low-level feature quantity extraction formula list having a selection number ns out of the next generation n low-level feature quantity extraction formula lists is generated.
  • step S181 the low-level feature quantity extraction formula list creation unit 61 converts the n low-level feature quantity extraction formula list one generation before from the high-level feature quantity extraction formula learning unit 65. Sorted in descending order of the average evaluation value of the feature quantity extraction formula.
  • step S182 the low-level feature quantity extraction formula list creation unit 61 Of the n low-level feature quantity extraction formula lists, the top ns are adopted as the next-generation low-level feature quantity extraction formula list. The selection generation process is thus completed.
  • step S33 of Fig. 17 by the low-level feature quantity extraction formula list generation unit 61 will be described in detail with reference to the flowchart of Fig. 43.
  • this intersection generation processing a low-level feature quantity extraction formula list with the number of intersections nx out of the n low-level feature quantity extraction formula lists of the next generation is generated.
  • step S191 the control unit 27 initializes the crossing loop parameter NX to 1 and starts a crossing loop.
  • the intersection loop is repeated for the number of intersections nx.
  • step S192 the low-level feature quantity extraction formula list creation unit 61 generates a high-level feature quantity extraction formula output by the high-level feature quantity extraction formula learning unit 65 from the previous-generation low-level feature quantity extraction formula list. After weighting so that the average value of the evaluation values is selected in order from the highest, the two low-level feature quantity extraction formula lists A and B are selected at random. The selection here may exclude the ns low-level feature quantity extraction formula list selected by the selection generation process described above from the selection candidate power! /, And leave it as a selection candidate. Yo ...
  • step S193 the low-level feature quantity extraction formula list creation unit 61 randomly determines the number m of formulas in the low-level feature quantity extraction formula list generated by the following formula loop within the range of the following formula.
  • mr is a predetermined value
  • step S194 the control unit 27 initializes the expression loop parameter M to 1 and starts the expression loop.
  • the equation loop is repeated for the number of equations m determined at random in the process of step S193.
  • step S195 the low-level feature quantity extraction formula list generator 61 generates a high-level feature quantity extraction formula learning unit from all the low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula lists A and B. After weighting so that the one with the higher contribution rate in the high-level feature extraction formula input from 65 is preferentially selected, the next generation is selected by randomly selecting one low-level feature extraction formula To the low-level feature quantity extraction formula list.
  • step S196 the control unit 27 determines that the expression loop parameter M is smaller than the maximum value m. If the expression loop parameter M is smaller than the maximum value m, the expression loop parameter M is incremented by 1, and the process returns to step S195. On the other hand, if the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S197.
  • One low-level feature quantity extraction formula list is generated by the processing of steps S194 to S196 which are formula loops.
  • step S197 the control unit 27 determines whether or not the cross loop parameter NX is smaller than the maximum value nx! / ⁇ . If the cross loop parameter NX is smaller than the maximum value nx, the cross loop parameter is determined. Increment NX by 1 and return to step S192. On the other hand, when the intersection loop parameter NX is smaller than the maximum value nx (when the intersection loop parameter NX is equal to the maximum value nx), the intersection generation process is terminated through the intersection loop. This intersection loop processing generates a next-generation low-level feature quantity extraction formula list with nx intersections.
  • step S34 in Fig. 17 by the low-level feature quantity extraction formula list creation unit 61 will be described in detail with reference to the flowchart in Fig. 44.
  • this mutation generation process a low-level feature quantity extraction formula list with nm mutations out of the next-generation n low-level feature quantity extraction formula lists is generated.
  • step S201 the control unit 27 initializes the mutation loop parameter NM to 1 and starts a mutation loop.
  • the mutation loop is repeated for the number of mutations nm.
  • step S202 the low-level feature quantity extraction formula list creation unit 61 generates a high-level feature quantity extraction formula output by the high-level feature quantity extraction formula learning unit 65 from the previous-generation low-level feature quantity extraction formula list. After weighting so that the one with the higher average evaluation value is preferentially selected, one low-level feature quantity extraction formula list A is selected at random. In this selection, the ns low-level feature quantity extraction formula lists selected in the selection generation process described above may be excluded from the selection candidate power, or may be left as a selection candidate. In addition, the low-level feature quantity extraction formula list selected in the process of step S192 of the intersection generation process described above may be excluded from the selection candidate power, or may be left as a selection candidate. [0199] In step S203, the low-level feature quantity extraction formula list creation unit 61 randomly determines the number m of formulas in the low-level feature quantity extraction formula list generated by the following formula loop.
  • step S203 the low-level feature quantity extraction formula list creation unit 61 randomly determines the number m of formulas in the low-level feature quantity extraction formula list generated by the following formula loop within the range of the following formula.
  • mr is a predetermined value
  • step S204 the control unit 27 initializes the expression loop parameter M to 1 and starts the expression loop.
  • the equation loop is repeated for the number of equations m determined at random in the process of step S203.
  • step S205 the low-level feature quantity extraction formula list generation unit 61 pays attention to the M-th among the low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A.
  • the low-level feature quantity contribution rate of the Mth low-level feature quantity extraction formula is the low-level feature quantity calculation result of the other low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A. It is determined whether or not the contribution rate of the feature amount is low. Specifically, for example, among all the low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A, the contribution rate of the low-level feature quantity, which is the calculation result, is low and belongs to the predetermined order. It is determined whether or not to perform.
  • step S205 if it is determined that the contribution rate of the low-level feature quantity, which is the calculation result of the M-th low-level feature quantity extraction formula, is lower than the others, the process proceeds to step S206, where The feature quantity extraction formula list creation unit 61 randomly transforms (mutates) the Mth low-level feature quantity extraction formula and adds it to the next-generation low-level feature quantity extraction formula list.
  • step S205 determines whether the contribution rate of the low-level feature quantity, which is the calculation result of the M-th low-level feature quantity extraction formula, is lower than the others.
  • the low-level feature quantity extraction formula list creation unit 61 adds the Mth low-level feature quantity extraction formula as it is to the next-generation low-level feature quantity extraction formula list without mutating.
  • the formula loop parameter M is the low-level feature quantity.
  • step S205 When the number of formulas in the extraction formula list A is greater than the number of formulas in the low-level feature quantity extraction formula, the determination in step S205 is omitted, and a new low-level feature quantity extraction formula is randomly generated to generate the next-generation low-level feature formula. Add to the feature quantity extraction formula list.
  • step S208 the control unit 27 determines whether or not the expression loop parameter M is smaller than the maximum value m. If the expression loop parameter M is smaller than the maximum value m, the expression loop parameter M is set to 1. Increment and return to step S205. Conversely, if the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S209.
  • One low-level feature quantity extraction formula list is generated by the processing of steps S203 to S208.
  • step S209 the control unit 27 determines whether or not the mutation loop parameter NM is smaller than the maximum value nm, and if the mutation loop parameter NM is smaller than the maximum value nm, The loop parameter NM is incremented by 1, and the process returns to step S202. On the other hand, when the mutation loop parameter NM is not smaller than the maximum value nm (when the mutation loop parameter NM is equal to the maximum value nm), the mutation loop is exited and the mutagenesis process is terminated. Through the processing up to this point, a low-level feature quantity extraction formula list with nm mutations has been generated.
  • the evaluation value corresponding to the low-level feature quantity extraction formula list of the previous generation is high, Those with a high contribution ratio corresponding to the low-level feature quantity extraction formula are inherited by the next generation, and those with a low evaluation value and contribution ratio are not inherited by the next generation and are deceived. Therefore, as the generation progresses, it can be expected that the evaluation value corresponding to the low-level feature quantity extraction formula list will improve and the contribution rate corresponding to the low-level feature quantity extraction formula will also improve.
  • next-generation low-level feature quantity extraction formula list generated as described above is output from the low-level feature quantity extraction formula list generation unit 61 to the low-level feature quantity calculation unit 24.
  • the low-level feature quantity computing unit 24 selects the low-level feature quantity extraction formula list.
  • the low-level feature quantity is calculated by substituting the input data (content data and metadata) for j pieces of music CI No to Cj into each of the n low-level feature quantity extraction formula lists input from the generator 61. Then, n sets of low-level feature quantity sets obtained as a calculation result are output to the high-level feature quantity extraction formula learning unit 65.
  • step S4 the high-level feature quantity extraction formula learning unit 65 performs k types of learning based on n sets of low-level feature quantity sets input from the low-level feature quantity calculation unit 24 and corresponding teacher data. N sets of high-level feature quantity extraction formulas consisting of high-level feature quantity extraction formulas are estimated (generated) by learning. Further, the evaluation value of each high-level feature quantity extraction formula and the contribution rate of each low-level feature quantity in each high-level feature quantity extraction formula are calculated and output to the low-level feature quantity extraction formula list generation unit 61.
  • the high-level feature quantity extraction formula learning unit 65 by the high-level feature quantity extraction formula learning unit 65 will be described in detail with reference to the flowchart of FIG. 45.
  • step S211 the control unit 27 initializes the list loop parameter N to 1 and starts a list loop.
  • the list loop is repeated for a preset number n of lists.
  • step S212 the control unit 27 initializes the teacher data loop parameter K to 1 and starts a teacher data loop. Note that the teacher data loop is set in advance and repeated for the number of types of teacher data k.
  • step S213 the control unit 27 initializes the algorithm loop parameter A to 1 and starts an algorithm loop.
  • the algorithm loop is repeated by the number of types a of the applied learning algorithm.
  • An example of the algorithm to be applied is the same as the description of the operation of the feature quantity extraction algorithm generation device 20 described above.
  • step S214 the control unit 27 initializes the cross-regeneration loop parameter C to 1 and starts a cross-validation loop.
  • the cross-validation loop is set in advance and is repeated for the number of times c of redaction.
  • step S215 the high-level feature quantity extraction formula learning unit 65 randomly learns teacher data (true high-level feature quantities) for the K-th kind of j songs among the k kinds of teacher data. Divide into two for training and evaluation (cross validation).
  • teacher data those classified for learning are described as learning data
  • evaluation data those classified for evaluation are described as evaluation data. To do.
  • step S216 the high-level feature quantity extraction formula learning unit 65 learns a low-level feature quantity set composed of a plurality of low-level feature quantities calculated using the Nth low-level feature quantity extraction formula list and learning.
  • the high-level feature extraction formula is estimated by learning by applying the data to the a-th learning algorithm.
  • the evaluation value of the high-level feature quantity extraction formula is a value that also considers whether or not the number of original low-level feature quantities is sufficient.
  • step S231 the high-level feature quantity extraction formula learning unit 65 uses the low-level feature quantity set and the training data in the teacher data, and applies it to the A-th learning algorithm to apply the high-level feature quantity.
  • the extraction formula is estimated by learning.
  • step S232 the high-level feature quantity extraction formula learning unit 65 calculates an information criterion AIC or BIC as the evaluation value of the high-level feature quantity obtained as the processing result of step S232. This completes the learning process based on the learning algorithm.
  • step S217 the high-level feature quantity extraction formula learning unit 65 evaluates the high-level feature quantity extraction formula obtained by the processing in step S216 using the evaluation data. Specifically, the high-level feature value is calculated using the obtained high-level feature value extraction formula, and the square error with the evaluation data is calculated.
  • step S218 the control unit 27 determines whether or not the cross-reduction loop parameter is smaller than the maximum value c. If the cross-reduction loop parameter C is smaller than the maximum value c, Then, the cross validation loop parameter C is incremented by 1, and the process returns to step S215. Conversely, if the cross-validation loop parameter value is not smaller than the maximum value c (if the cross-validation loop parameter C is the same value as the maximum value c), the process exits the cross-validation loop and proceeds to step S219. . Steps S214 to S218 are processed by the cross validation loop, c learning results, That is, the high level feature quantity extraction formula is obtained. The learning data and the evaluation data are converted at random by the cross-reduction loop, so that it can be confirmed that the high-level feature quantity extraction formula is not over-learned.
  • step S219 the high-level feature quantity extraction formula learning unit 65 evaluates the processing in step S217 out of c learning results obtained by the cross-validation loop, that is, the high-level feature quantity extraction formula. Choose the highest one.
  • step S220 the control unit 27 determines whether or not the algorithm loop parameter A is smaller than the maximum value a. If the algorithm loop parameter A is smaller than the maximum value a, the algorithm loop parameter A is set. Increment by 1 and return to step S214. On the other hand, when the algorithm loop parameter A is not smaller than the maximum value a (when the algorithm loop parameter A is the same value as the maximum value a), the process exits the algorithm loop and proceeds to step S221. As a result of the processing of the algorithm loop in steps S213 to S220, a K type high-level feature quantity extraction equations learned by a type of learning algorithm are obtained.
  • step S221 the high-level feature quantity extraction formula learning unit 65 evaluates most in the processing of step S217 out of a learning results obtained by the algorithm loop, that is, among the high-level feature quantity extraction formulas. Choose a higher one.
  • step S222 the control unit 27 determines whether or not the teacher data loop parameter K is smaller than the maximum value k. If the teacher data loop parameter K is smaller than the maximum value k, the teacher data loop parameter K is determined. Is incremented by 1, and the process returns to step S213. On the other hand, when the teacher data loop parameter K is not smaller than the maximum value k (when the teacher data loop parameter K is equal to the maximum value k), the teacher data loop is exited and the process proceeds to step S223. As a result of the processing of the teacher data loop in steps S212 to S222, k types of high-level feature quantity extraction formulas corresponding to the Nth low-level feature quantity extraction formula list are obtained.
  • step S223 the control unit 27 determines whether or not the list loop parameter N is smaller than the maximum value n. If the list loop parameter N is smaller than the maximum value n, the list loop parameter N is incremented by 1. Then, the process returns to step S212. On the other hand, squirrel When the loop parameter N is not smaller than the maximum value n (when the list loop parameter N is equal to the maximum value n), the loop loop is exited and the process proceeds to step S224. From the list loop processing in steps S211 to S223, k types of high-level feature quantity extraction formulas corresponding to n low-level feature quantity extraction formula lists are obtained.
  • step S224 the high-level feature quantity extraction formula learning unit 65 performs each of the k types of high-level feature quantity extraction formulas corresponding to the obtained n low-level feature quantity extraction formula lists.
  • the contribution ratio of the low-level feature quantity is calculated and output to the low-level feature quantity extraction formula list generation unit 61 together with the evaluation value of the high-level feature quantity extraction formula calculated in the process of step S217. This completes the high-level feature quantity extraction formula learning process.
  • step S5 the control unit 27 determines whether the learning loop parameter G is smaller than the maximum value g. If the learning loop parameter G is smaller than the maximum value g, the control unit 27 increments the learning loop parameter G by 1. Return the process to step S2. On the other hand, if the learning loop parameter G is smaller than the maximum value g (if the learning loop parameter G is the same value as the maximum value g), the learning loop is exited and the process proceeds to step S6.
  • the learning rules in steps S1 to S5 are the learning process of the feature quantity extraction algorithm, and the subsequent step S6 is a process for calculating a high-level feature quantity using the feature quantity extraction algorithm.
  • step S6 the high-level feature quantity extraction formula learning unit 65 performs an average evaluation of the high-level feature quantities obtained from the final-generation n sets of low-level feature quantity extraction formula lists obtained by learning.
  • the low-level feature quantity extraction formulas constituting the low-level feature quantity extraction formula list having the highest value and k types of high-level feature quantity extraction formulas corresponding thereto are supplied to the high-level feature quantity calculation unit 26.
  • step S7 the high-level feature quantity computing unit 26 finally selects the high-level feature quantity from the low-level feature quantity extraction formula and the high-level feature quantity extraction formula supplied from the high-level feature quantity extraction formula learning unit 65.
  • the high-level feature quantity is calculated with high accuracy using the low-level feature quantity extraction formula and high-level feature quantity extraction formula supplied from the quantity extraction formula learning unit 65.
  • the high-precision, high-level feature value calculation processing in step S7 is the same as the operation of the feature value extraction algorithm generation device 20 described above, and thus the description thereof is omitted. [0233] This is the end of the description of the feature quantity extraction algorithm generation processing by the feature quantity extraction algorithm generation device 60.
  • the corresponding feature amount can be extracted from the music data. Not only can the algorithm be generated quickly with high accuracy, but only high-precision high-level features can be acquired with a small amount of computation.
  • the low-level feature is compared with the feature quantity extraction algorithm learning process by the feature quantity extraction algorithm generation device 20. It is possible to prevent the amount of quantity from being unnecessarily too large, resulting in heavy processing, or insufficient accuracy, resulting in higher accuracy.
  • the present invention can be applied to the case of acquiring high-level feature amounts of all types of content data such as video data that can be obtained only when acquiring high-level feature amounts of music.
  • the series of processes described above can also be executed by a force software that can be executed by hardware.
  • various functions can be executed by installing a computer built in dedicated hardware or various programs that make up the software. For example, it is installed from a recording medium on a general-purpose personal computer configured as shown in FIG.
  • This personal computer 100 includes a CPU (Central Processing Unit) 101.
  • An input / output interface 105 is connected to the CPU 101 via the bus 104.
  • a ROM (Read Only Memory) 102 and a RAM (Random Access Memory) 103 are connected to the node 104.
  • the input / output interface 105 includes a keyboard for a user to input an operation command, an input unit 106 including an input device such as a mouse, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display) for displaying an operation screen, etc.
  • An output unit 107 composed of a display such as a storage unit 108 composed of a hard disk drive for storing programs and various data, and the like.
  • a communication unit 109 that performs communication processing via a network typified by the Internet, which includes a modem and a LAN (Local Area Network) adapter.
  • a magnetic disk including a flexible disk
  • an optical disk including a compact disc-read only memory (CD-ROM), a DVD (digital versatile disc)
  • a magneto-optical disk including an MD (mini disc)
  • a drive 110 for reading and writing data is connected to a recording medium 111 such as a semiconductor memory.
  • a program for causing the personal computer 100 to execute the above-described series of processing is supplied to the personal computer 100 in a state stored in the recording medium 111, read by the drive 110, and built in the storage unit 108. Installed in the drive.
  • the program installed in the storage unit 108 is loaded from the storage unit 108 to the RAM 103 and executed by a command from the CPU 101 corresponding to a command from the user input to the input unit 106.
  • the program may be processed by a single computer, or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
  • the system represents the entire apparatus constituted by a plurality of apparatuses.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 本発明は楽曲データなどのコンテンツデータから対応する特徴量を抽出できるアルゴリズムを、高精度で速やかに生成することができる情報処理装置、情報処理方法、およびプログラムに関する。特徴量抽出アルゴリズム生成装置20は、m種類の低レベル特徴量抽出式から成る低レベル特徴量抽出式リストをn個生成する低レベル特徴量抽出式リスト生成部21、n個の低レベル特徴量抽出式リストにj曲分の入力データを代入して、各入力データに対応するm種類の低レベル特徴量をn組得る低レベル特徴量演算部24、n組の低レベル特徴量出力と対応する教師データ(j曲にそれぞれ対応するk項目の高レベル特徴量)に基づいて高レベル特徴量抽出式を学習によって推定する高レベル特徴量抽出式学習部25から構成される。本発明は、楽曲や映像の高レベル特徴量を取得するシステムに適用できる。

Description

明 細 書
情報処理装置、情報処理方法、およびプログラム
技術分野
[0001] 本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、例えば
、楽曲データなどのコンテンツデータの特徴量を抽出するアルゴリズムを自動的に生 成するようにした情報処理装置、情報処理方法、およびプログラムに関する。
背景技術
[0002] 従来、楽曲データを入力として前記楽曲データの特徴量 (楽曲データの速さ、明る さ、にぎや力さ等)を出力とするアルゴリズムの自動生成に関する発明が提案されて いる(例えば、特許文献 1参照)。
[0003] 特許文献 1 :米国特許出願公報 US2004Z0181401A1
発明の開示
発明が解決しょうとする課題
[0004] 特許文献 1に記載の発明では、図 1に示すように、その特徴量の種類毎に特徴量 を抽出する特徴量抽出アルゴリズムを作成しており、特徴量抽出過程に要する演算 量が膨大であって、実行する演算の中に無駄な演算が多く含まれて!/、る。
[0005] したがって、できるだけ無駄なく少な!/、演算量で、楽曲データから対応する特徴量 を速やかに抽出できるアルゴリズムの生成方法の出現が望まれている。
[0006] 本発明はこのような状況に鑑みてなされたものであり、楽曲データなどのコンテンツ データを入力とし、当該コンテンツデータに対応する特徴量を高精度で速やかに抽 出できるアルゴリズムを生成できるようにするものである。
課題を解決するための手段
[0007] 本発明の一側面である情報処理装置は、コンテンツデータの特徴量を検出するた めの特徴量検出アルゴリズムを生成する情報処理装置にぉ 、て、前記コンテンツデ ータまたは前記コンテンツデータに対応するメタデータを入力として低レベル特徴量 を出力する複数の低レベル特徴量抽出式から構成される次世代の式リストを、前世 代の前記式リストに基づく学習によって生成する低レベル特徴量抽出式リスト生成手 段と、低レベル特徴量抽出式リスト生成手段によって生成された前記式リストを用い て前記低レベル特徴量を演算する演算手段と、前記コンテンツデータに対応する予 め用意された真の高レベル特徴量を教師データとした学習により、前記演算手段に よって演算された前記低レベル特徴量を入力として前記コンテンツデータの特徴を 示す高レベル特徴量を出力する高レベル特徴量抽出式を生成する高レベル特徴量 抽出式生成手段とを含む。
[0008] 前記高レベル特徴量抽出式生成手段は、生成した前記高レベル特徴量抽出式の 精度、または前記高レベル特徴量抽出式における前記低レベル特徴量の寄与率の 少なくとも一方を算出し、前記低レベル特徴量抽出式リスト生成手段は、前記高レべ ル特徴量抽出式生成手段により算出された前記高レベル特徴量抽出式の精度、ま たは前記高レベル特徴量抽出式における前記低レベル特徴量の寄与率の少なくと も一方に基づき、前記低レベル特徴量抽出式リストを構成する前記低レベル特徴量 抽出式を更新するようにすることができる。
[0009] 前記低レベル特徴量抽出式リスト生成手段は、第 1世代の前記式リストをランダムに 生成するよう〖こすることができる。
[0010] 前記低レベル特徴量抽出式リスト生成手段は、次世代の前記式リストを前世代の前 記式リストに基づく遺伝的アルゴリズムにより選択処理、交差処理、または突然変異 処理の少なくとも 1つによって生成するようにすることができる。
[0011] 前記低レベル特徴量抽出式リスト生成手段は、予め設定された定数の低レベル特 徴量抽出式力 構成される次世代の式リストを生成するようにすることができる。
[0012] 前記低レベル特徴量抽出式リスト生成手段は、前記リストを生成する度にランダム に決定する数の低レベル特徴量抽出式から構成される次世代の式リストを生成する ようにすることができる。
[0013] 前記高レベル特徴量抽出式生成手段は、生成した前記高レベル特徴量抽出式の 評価値、または前記高レベル特徴量抽出式における前記低レベル特徴量の寄与率 の少なくとも一方を算出し、前記低レベル特徴量抽出式リスト生成手段は、前記高レ ベル特徴量抽出式生成手段により算出された前記高レベル特徴量抽出式の評価値 、または前記高レベル特徴量抽出式における前記低レベル特徴量の寄与率の少な くとも一方に基づき、前記低レベル特徴量抽出式リストを構成する前記低レベル特徴 量抽出式を更新するようにすることができる。
[0014] 本発明の一側面である情報処理方法は、コンテンツデータの特徴量を検出するた めの特徴量検出アルゴリズムを生成する情報処理装置の情報処理方法において、 前記コンテンッデータまたは前記コンテンッデータに対応するメタデータを入力とし て低レベル特徴量を出力する複数の低レベル特徴量抽出式から構成される次世代 の式リストを、前世代の前記式リストに基づく学習によって生成し、生成された前記式 リストを用いて前記低レベル特徴量を演算し、前記コンテンツデータに対応する予め 用意された真の高レベル特徴量を教師データとした学習により、演算された前記低レ ベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力 する高レベル特徴量抽出式を生成するステップを含む。
[0015] 本発明の一側面であるプログラムは、コンテンツデータの特徴量を検出するための 特徴量検出アルゴリズムを生成する情報処理装置の制御用のプログラムであって、 前記コンテンッデータまたは前記コンテンッデータに対応するメタデータを入力とし て低レベル特徴量を出力する複数の低レベル特徴量抽出式から構成される次世代 の式リストを、前世代の前記式リストに基づく学習によって生成し、生成された前記式 リストを用いて前記低レベル特徴量を演算し、前記コンテンツデータに対応する予め 用意された真の高レベル特徴量を教師データとした学習により、演算された前記低レ ベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力 する高レベル特徴量抽出式を生成するステップを含む処理をコンピュータに実行さ せる。
[0016] 本発明の一側面においては、コンテンツデータまたはコンテンツデータに対応する メタデータを入力として低レベル特徴量を出力する複数の低レベル特徴量抽出式か ら構成される次世代の式リストが、前世代の式リストに基づく学習によって生成され、 生成された式リストを用いて低レベル特徴量が演算され、コンテンツデータに対応す る予め用意された真の高レベル特徴量を教師データとした学習により、演算された低 レベル特徴量を入力としてコンテンツデータの特徴を示す高レベル特徴量を出力す る高レベル特徴量抽出式が生成される。 発明の効果
[0017] 本発明の一側面によれば、楽曲データなどのコンテンツデータを入力とし、当該コ ンテンッデータに対応する特徴量を高精度で速やかに抽出できるアルゴリズムを生 成することができる。
図面の簡単な説明
[0018] [図 1]従来の特徴量抽出アルゴリズムを説明するための図である。
[図 2]本発明を適用した特徴量抽出アルゴリズム生成装置によって生成される特徴量 抽出アルゴリズムの概要を示す図である。
[図 3]低レベル特徴量抽出式の例を示す図である。
[図 4]高レベル特徴量抽出式の例を示ず図である。
[図 5]本発明を適用した特徴量抽出アルゴリズム生成装置の第 1の構成例を示すプロ ック図である。
[図 6]特徴量抽出アルゴリズム生成装置を構成する高レベル特徴量演算部の構成例 を示すブロック図である。
[図 7]特徴量抽出アルゴリズム学習処理を説明するフローチャートである。
[図 8]低レベル特徴量抽出式リストの例を示す図である。
[図 9]低レベル特徴量抽出式リスト生成処理を説明するフローチャートである。
[図 10]図 5の低レベル特徴量抽出式リスト生成部による第 1世代リストランダム生成処 理を説明するフローチャートである。
[図 11]低レベル特徴量抽出式の記述方法を示す図である。
[図 12]入力データの例を列記した図である。
[図 13]入力データ Wavを説明する図である。
[図 14]入力データ Chordを説明する図である。
[図 15]入力データ Keyを説明する図である。
[図 16]低レベル特徴量抽出式の保有次元を説明する図である。
[図 17]次世代リストジェネティック生成処理を説明するフローチャートである。
[図 18]図 5の低レベル特徴量抽出式リスト生成部による選択生成処理を説明するフロ 一チャートである。 [図 19]図 5の低レベル特徴量抽出式リスト生成部による交差生成処理を説明するフロ 一チャートである。
圆 20]図 5の低レベル特徴量抽出式リスト生成部による突然変異生成処理を説明す るフローチャートである。
[図 21]オペレータ Meanの演算を説明するための図である。
[図 22]低レベル特徴量演算部の処理を説明するための図である。
[図 23]教師データの例を示す図である。
[図 24]図 5の高レベル特徴量抽出式学習部による高レベル特徴量抽出式学習処理 を説明するフローチャートである。
[図 25]学習アルゴリズムの例を説明するための図である。
[図 26]学習アルゴリズムの例を説明するための図である。
[図 27]学習アルゴリズムの例を説明するための図である。
[図 28]学習アルゴリズムの例を説明するための図である。
[図 29]学習アルゴリズムの例を説明するための図である。
[図 30]学習アルゴリズムの例を説明するための図である。
[図 31]学習アルゴリズムの例を説明するための図である。
[図 32]学習アルゴリズムの例を説明するための図である。
[図 33]学習アルゴリズムの例を説明するための図である。
[図 34]図 5の高レベル特徴量抽出式学習部による学習アルゴリズムに基づく学習処 理を説明するフローチャートである。
[図 35]オペレータの組み合わせの例を示す図である。
[図 36]オペレータの組み合わせの例を示す図である。
[図 37]新規オペレータ生成処理を説明するフローチャートである。
圆 38]高精度高レベル特徴量演算処理を説明するフローチャートである。
[図 39]高精度リジェクト処理を説明するフローチャートである。
圆 40]本発明を適用した特徴量抽出アルゴリズム生成装置の第 2の構成例を示すブ ロック図である。
圆 41]図 40の低レベル特徴量抽出式リスト生成部による第 1世代リストランダム生成 処理を説明するフローチャートである。
[図 42]図 40の低レベル特徴量抽出式リスト生成部による選択生成処理を説明するフ ローチャートである。
[図 43]図 40の低レベル特徴量抽出式リスト生成部による交差生成処理を説明するフ ローチャートである。
[図 44]図 40の低レベル特徴量抽出式リスト生成部による突然変異生成処理を説明 するフローチャートである。
[図 45]図 40の高レベル特徴量抽出式学習部による高レベル特徴量抽出式学習処 理を説明するフローチャートである。
[図 46]図 5の高レベル特徴量抽出式学習部による学習アルゴリズムに基づく学習処 理を説明するフローチャートである。
[図 47]汎用パーソナルコンピュータの構成例を示すブロック図である。
符号の説明
[0019] 20 特徴量抽出アルゴリズム生成装置, 21 低レベル特徴量抽出式リスト生成部 , 22 オペレータ組検出部, 23 オペレータ生成部, 24 低レベル特徴量演算 部, 25 高レベル特徴量抽出式学習部, 26 高レベル特徴量演算部, 27 制御 部, 41 低レベル特徴量演算部, 42 高レベル特徴量演算部, 43 2乗誤差演 算部, 44 リジェクト領域抽出式学習部, 45 特徴量抽出精度演算部, 60 特 徴量抽出アルゴリズム生成装置, 61 低レベル特徴量抽出式リスト生成部, 62 高レベル特徴量演算部, 100 パーソナルコンピュータ, 101 CPU, 111 記 録媒体
発明を実施するための最良の形態
[0020] 以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細 に説明する。
[0021] 図 2は、本発明を適用した実施の形態である特徴量抽出アルゴリズム生成装置 20 ( 図 5)または特徴量抽出アルゴリズム生成装置 60 (図 40)によって生成される特徴量 抽出アルゴリズムの概要を示して 、る。
[0022] この特徴長抽出アルゴリズム 11は、コンテンツデータ(楽曲データ)とそれに対応す るメタデータ (属性データ)を入力として低レベル特徴量を出力する低レベル特徴量 抽出部 12、および、低レベル特徴量を入力として高レベル特徴量を出力する高レべ ル特徴量抽出部 14から構成される。
[0023] 低レベル特徴量抽出部 12は、入力データに所定の演算を施す 1以上のオペレー タ(演算子)が組み合わされた m種類の低レベル特徴量抽出式カゝら成る低レベル特 徴量抽出式リスト 13を有している。したがって、低レベル特徴量抽出部 12は、 m種類 の低レベル特徴量を高レベル特徴量抽出部 14に出力する。
[0024] ここで、低レベル特徴量抽出式リストを構成する低レベル特徴量抽出式の数 mは、 図 5に示される特徴量抽出アルゴリズム生成装置 20の場合、予め決定されている定 数である。また、図 40に示される特徴量抽出アルゴリズム生成装置 60の場合、ランダ ムに決定される乱数である。
[0025] 図 3は低レベル特徴量抽出式の例を示して!/、る。
[0026] 例えば、図 3の Aに示す低レベル特徴量抽出式 flは、楽曲データの 1種である波 形データを入力として、各チャンネル(例えば、 L(Left)チャンネルと R (Right)チャンネ ル)間で波形データの平均値 (Mean)を演算し、演算された平均値を時間軸に沿って 高速フーリエ変換 (FFT)を行い、 FFT結果力も周波数の標準偏差 (StDev)を求め、そ の結果を低レベル特徴量 aとして出力する。
[0027] また例えば、図 3の Bに示す低レベル特徴量抽出式 f2は、楽曲データの 1種である コード進行データを入力として、時間軸に沿ってマイナーコードの出現率 (Ratio)を求 め、その結果を低レベル特徴量 bとして出力する。
[0028] なお、低レベル特徴量抽出部 12の出力である低レベル特徴量は、それ単体で意 味のある値である必要な!/、。
[0029] 高レベル特徴量抽出部 14は、入力される m種類の低レベル特徴量のうちの 1種類 以上の低レベル特徴量に比較的単純な演算(四則演算、累乗演算など)を行い、そ の演算結果を高レベル特徴量として出力する k種類の高レベル特徴量抽出式を有し ている。したがって、高レベル特徴量抽出部 14は、 k種類の高レベル特徴量を出力 する。
[0030] 図 4は高レベル特徴量抽出式の例を示している。 [0031] 例えば、図 4の Aに示す高レベル特徴量抽出式 Flは、低レベル特徴量 a, b, c, d , eに四則演算を行い、この演算結果を 1種類の高レベル特徴量である速さの値とし て出力する。
[0032] また例えば、図 4の Bに示す低レベル特徴量抽出式 F2は、低レベル特徴量 a, c, d
, eに四則演算と累乗演算(POWER)を行い、この演算結果を 1種類の高レベル特徴 量である明るさの値として出力する。
[0033] 次に、図 5は本発明の第 1の実施の形態である特徴量抽出アルゴリズム生成装置 2
0の構成例を示している。
[0034] この特徴量抽出アルゴリズム生成装置 20は、最適な低レベル特徴量抽出式と高レ ベル特徴量抽出式を遺伝的なアルゴリズムに基づく学習によって生成するものであ る。
[0035] 特徴量抽出アルゴリズム生成装置 20は、 m本の低レベル特徴量抽出式カゝら成る低 レベル特徴量抽出式リストを n個生成する低レベル特徴量抽出式リスト生成部 21、低 レベル特徴量抽出式リスト生成部 21から供給される n個の低レベル特徴量抽出式リ ストに j曲分の入力データ(コンテンツデータおよびメタデータ)を入力として各入力デ ータに対応する m種類の低レベル特徴量を n組分演算する低レベル特徴量演算部 2 4、低レベル特徴量演算部 24から出力される n組分の低レベル特徴量と対応する教 師データ (j曲にそれぞれ対応する k項目の高レベル特徴量)に基づ!/、て高レベル特 徴量抽出式を学習によって推定する高レベル特徴量抽出式学習部 25、遺伝的な学 習力進められることによって最終的に生成される高レベル特徴量抽出式を用 ヽて高 レベル特徴量を演算する高レベル特徴量演算部 26、および、各部の動作の繰り返し (ループ)を制御する制御部 27から構成される。
[0036] なお、本明細書にぉ 、て、遺伝的なアルゴリズムに基づく学習を、ジェネティック enetic)な学習とも記述する。
[0037] 低レベル特徴量抽出式リスト生成部 21は、予め設定されている定数である m本の 低レベル特徴量抽出式から構成される低レベル特徴量抽出式リストを、第 1世代に ついてはランダムに、第 2世代以降の低レベル特徴量抽出式リストについては 1世代 前の低レベル特徴量抽出式リストに基づく低レベル特徴量を用いて学習された高レ ベル特徴量抽出式の精度などに基づ ヽて生成する。
[0038] 低レベル特徴量抽出式リスト生成部 21に内蔵されたオペレータ組検出部 22は、生 成された低レベル特徴量抽出式中に頻出する複数のオペレータ (演算子)の組み合 わせを検出する。オペレータ生成部 23は、オペレータ組検出部 22によって検出され た複数のオペレータの組み合わせを新たな 1種類のオペレータとして登録する。
[0039] 高レベル特徴量抽出式学習部 25は、 n組の低レベル特徴量にそれぞれ対応し、 k 種類の高レベル特徴量抽出式を生成するとともに、各高レベル特徴量抽出式の推定 精度と各高レベル特徴量抽出式における各低レベル特徴量の寄与率を算出して低 レベル特徴量抽出式リスト生成部 21に出力する。また、高レベル特徴量抽出式学習 部 25は、学習の最終世代において、 n組の低レベル特徴量抽出式リストのうち、得ら れた高レベル特徴量の平均精度が最も高カゝつた低レベル特徴量抽出式リストを構成 する m本の低レベル特徴量抽出式と、これに対応する k種類の高レベル特徴量抽出 式を高レベル特徴量演算部 26に供給する。
[0040] 高レベル特徴量演算部 26は、最終的に高レベル特徴量抽出式学習部 25から供 給される低レベル特徴量抽出式および高レベル特徴量抽出式を用いて高レベル特 徴量を演算する。
[0041] 次に、図 6は高レベル特徴量演算部 26の詳細な構成例を示している。
[0042] この高レベル特徴量演算部 26は、入力データ (コンテンツデータとそれに対応する メタデータ)を最終的な低レベル特徴量抽出式リストに代入して低レベル特徴量を演 算する低レベル特徴量演算部 41、低レベル特徴量演算部 41による演算結果である 低レベル特徴量を最終的な高レベル特徴量抽出式に代入して高レベル特徴量を演 算する高レベル特徴量演算部 42、高レベル特徴量演算部 42による演算結果である 高レベル特徴量と教師データ (入力データに対応する真の高レベル特徴量)との 2乗 誤差を演算する 2乗誤差演算部 43、低レベル特徴量演算部 41の演算結果である低 レベル特徴量を入力、 2乗誤差演算部 43の演算結果である 2乗誤差を出力とするリ ジェタト領域抽出式を学習により生成するリジェクト領域抽出式学習部 44、および、 入力データをリジェクト領域抽出式学習部 44によって生成されたリジェクト領域抽出 式に代入し、入力データに対応して演算される高レベル特徴量の特徴抽出精度(2 乗誤差)を推定し、推定した特徴抽出精度が所定の閾値以上である場合だけ高レべ ル特徴量演算部 42に高レベル特徴量を演算させる特徴量抽出精度演算部 45から 構成される。
[0043] 次に、本発明の第 1の実施の形態である特徴量抽出アルゴリズム生成装置 20の動 作について説明する。
[0044] 図 7は特徴量抽出アルゴリズム生成装置 20の基本的な動作である特徴量抽出アル ゴリズム生成処理を説明するフローチャートである。
[0045] ステップ S1において、制御部 27は、学習ループパラメータ Gを 1に初期化して学習 ループを開始する。なお、学習ループは、ユーザなどによって予め設定されている学 習回数 gだけ繰り返される。
[0046] ステップ S2において、低レベル特徴量抽出式リスト生成部 21は、図 8に示すように
、m種類の低レベル特徴量抽出式カゝら成る低レベル特徴量抽出式リストを n個生成し て低レベル特徴量演算部 24に出力する。
[0047] ステップ S2の処理(低レベル特徴量抽出式リスト生成処理)につ 、て、図 9のフロー チャートを参照して詳述する。
[0048] ステップ S11において、低レベル特徴量抽出式リスト生成部 21は、生成する低レべ ル特徴量抽出式リストが第 1世代である力否かを判定する。なお、この判定では学習 ループパラメータ Gが 0であるとき、生成する低レベル特徴量抽出式リストが第 1世代 であると判定される。
[0049] 学習ループパラメータ Gが 0であることにより、生成する低レベル特徴量抽出式リスト が第 1世代であると判定された場合、処理はステップ S12に進められる。ステップ S12 において、低レベル特徴量抽出式リスト生成部 21は、第 1世代の低レベル特徴量抽 出式リストをランダムに生成する。
[0050] 反対に、ステップ S 11において、生成する低レベル特徴量抽出式リストが第 1世代 ではないと判定された場合、処理はステップ S13に進められる。ステップ S13におい て、低レベル特徴量抽出式リスト生成部 21は、次世代の低レベル特徴量抽出式リス トを、 1世代前の低レベル特徴量抽出式リストに基づいて遺伝的アルゴリズムによりジ エネティック (Genetic)に生成する。 [0051] ステップ S12の処理(第 1世代リストランダム生成処理)について、図 10のフローチ ヤートを参照して詳述する。
[0052] ステップ S21にお!/、て、制御部 27は、リストループパラメータ Nを 1に初期化してリス トループを開始する。なお、リストループは、予め設定されているリスト数 nだけ繰り返 される。
[0053] ステップ S22において、制御部 27は、式ループパラメータ Mを 1に初期化して式ル ープを開始する。なお、式ループは、 1個の低レベル特徴量抽出式リストを構成する 低レベル特徴量抽出式の式数 mだけ繰り返される。
[0054] ここで、式ループ内において生成される低レベル特徴量抽出式の記述方法につい て図 11を参照して説明する。
[0055] 低レベル特徴量抽出式は、入力データが左端に記述され、その右側に 1種類以上 のオペレータ (演算子)が演算の順序に対応して記述される。各オペレータには、適 宜、処理対称軸とパラメータが含まれる。
[0056] 例えば、図 11に示された低レベル特徴量抽出式の例の場合、 12TomesMが入力デ ータであり、 32#Dilferential, 32#MaxIndex,16#LPF_l ;0.861などがオペレータである。 また、オペレータ中の 32#, 16#などは処理対称軸を示している。例えば、 12TomesM は、入力データがモノラノレの PCM(pulse coded modulation sound source)波开データ を時間軸方向にであることを示している。 48#はチャンネル軸、 32#は周波数軸と音程 軸、 16#は時間軸を示す。オペレータ中の 0.861はローパスフィルタ処理におけるパラ メータであり、例えば透過させる周波数の閾値を示している。
[0057] 図 10に戻る。ステップ S23において、低レベル特徴量抽出式リスト生成部 21は、生 成する第 N番目の低レベル特徴量抽出式リスト(以下、リスト Nとも記述する)の第 M 本目の低レベル特徴量抽出式 (以下、低レベル特徴量抽出式 Mとも記述する)の入 力データをランダムに決定する。
[0058] 入力データの種類としては、例えば図 12に示す Wav, 12Tones, Chord, Keyなどを 挙げることができる。
[0059] 入力データである WAVは、図 13に示すような PCM波形データであり、保有次元は 時間軸とチャンネル軸である。入力データである 12Tonesは、 PCM波形データを時間 軸に沿って音程毎に解析したものであり、保有次元は時間軸と音程軸である。入力 データである Chordは、図 14に示すような楽曲のコード進行(C, C # , D, · · · , Bm) を示すデータであり、保有次元は時間軸と音程軸である。入力データである Keyは、 楽曲のキー (C, C # , D, · · · , B)を示すデータであり、保有次元は時間軸と音程軸 である。
[0060] 図 10に戻る。ステップ S 24において、低レベル特徴量抽出式リスト生成部 21は、生 成するリスト Nの低レベル特徴量抽出式 Mの処理対称軸とパラメータをランダムに 1 つ決定する。
[0061] パラメータの種類としては、平均値 (Mean)、高速フーリエ変換 (FFT)、標準偏差 (St Dev)、出現率 (Ratio)、ローパスフィルタ (LPF)、ハイパスフィルタ (HPF)、絶対値 (ABS)、 微分 (Differential最大値 (Maxlndex)、不偏分散 (UVariance)などを挙げることができ る。なお、決定されたオペレータによっては処理対称軸が固定されていることがある ので、その場合、パラメータに固定されている処理対称軸を採用する。また、パラメ一 タを必要とするオペレータが決定された場合、パラメータもランダムまたは予め設定さ れている値に決定する。
[0062] ステップ S25において、低レベル特徴量抽出式リスト生成部 21は、現時点までに生 成されているリスト Nの低レベル特徴量抽出式 Mの演算結果がスカラ(1次元)である 力 または次元数が所定の値 (例えば、 1または 2程度の小さい数)以下である力否か を判定し、否と判定した場合、ステップ S24の処理に戻ってオペレータを 1つ追加す る。そして、ステップ S24および S25の処理が繰り返されることにより、図 16に示すよう に演算結果の保有次元数が減少していき、ステップ S25において、リスト Nの低レべ ル特徴量抽出式 Mの演算結果カ^カラである力 あるいはは次元数が所定の値 (例 えば、 1または 2程度の小さい数)以下であると判定された場合、処理はステップ S26 に進められる。
[0063] ステップ S26において、制御部 27は、式ループパラメータ Mが最大値 mよりも小さ いか否かを判定し、式ループパラメータ Mが最大値 mよりも小さい場合、式ループパ ラメータ Mを 1だけインクリメントして処理をステップ S23に戻す。反対に、式ループパ ラメータ Mが最大値 mよりも小さくない場合 (式ループパラメータ Mが最大値 mと同値 の場合)、式ループを抜けて処理をステップ S27に進める。ここまでの処理により、第 N番目の低レベル特徴量抽出式リストが生成されたことになる。
[0064] ステップ S27において、制御部 27は、リストループパラメータ Nが最大値 nよりも小さ いか否かを判定し、リストループパラメータ Nが最大値 nよりも小さい場合、リストルー プパラメータ Nを 1だけインクリメントして処理をステップ S22に戻す。反対に、リストル ープパラメータ Nが最大値 nよりも小さくな 、場合 (リストループパラメータ Nが最大値 nと同値の場合)、リストループを抜けて第 1世代リストランダム生成処理を終了する。 ここまでの処理により、第 1世代の低レベル特徴量抽出式リストが n個生成されたこと になる。
[0065] 次に、図 9のステップ S13における第 2世代以降の低レベル特徴量抽出式リストを 生成する処理(次世代リストジェネティック生成処理)について、図 17のフローチヤ一 トを参照して詳述する。
[0066] ステップ S31において、低レベル特徴量抽出式リスト生成部 21は、生成する低レべ ル特徴量抽出式リストの個数 nのうち、遺伝的アルゴリズムの選択を適用するリスト数 を示す選択数 ns、遺伝的アルゴリズムの交差を適用するリスト数を示す交差数 nx、 遺伝的アルゴリズムの突然変異を適用するリスト数を示す突然変異数 nmをランダム に決定する。ただし、選択数 ns、交差数 nx、突然変異数 nmの総和は nである。なお 、選択数 ns、交差数 nx、突然変異数 nmは予め設定した定数を採用してもよい。
[0067] ステップ S32において、低レベル特徴量抽出式リスト生成部 21は、 1世代前の n個 の低レベル特徴量抽出式リストのうち、決定した選択数 nsの低レベル特徴量抽出式 リストを用いて、 ns個の低レベル特徴量抽出式リストを生成する。ステップ S33におい て、低レベル特徴量抽出式リスト生成部 21は、 1世代前の n個の低レベル特徴量抽 出式リストのうち、決定した交差数 nxの低レベル特徴量抽出式リストを用いて、 nx個 の低レベル特徴量抽出式リストを生成する。ステップ S 34において、低レベル特徴量 抽出式リスト生成部 21は、 1世代前の n個の低レベル特徴量抽出式リストのうち、決 定した突然変異数 nmの低レベル特徴量抽出式リストを用いて、 nm個の低レベル特 徴量抽出式リストを生成する。
[0068] ステップ S32乃至 S34の処理につ!、て詳述する。 [0069] ステップ S32の選択生成処理について、図 18のフローチャートを参照して詳述する 。この選択生成処理では、次世代の n個の低レベル特徴量抽出式リストのうちの選択 数 ns個の低レベル特徴量抽出式リストが生成される。
[0070] ステップ S41において、低レベル特徴量抽出式リスト生成部 21は、 1世代前の n個 の低レベル特徴量抽出式リストを、高レベル特徴量抽出式学習部 25から入力された 高レベル特徴量抽出式の推定精度の平均値が高い順に並び替える。そして、ステツ プ S42において、低レベル特徴量抽出式リスト生成部 21は、並び替えた 1世代前の n個の低レベル特徴量抽出式リストのうち、上位 ns個を次世代の低レベル特徴量抽 出式リストとして採用する。以上で選択生成処理は終了される。
[0071] 図 17のステップ S33の交差生成処理について、図 19のフローチャートを参照して 詳述する。この交差生成処理では、次世代の n個の低レベル特徴量抽出式リストのう ちの交差数 nx個の低レベル特徴量抽出式リストが生成される。
[0072] ステップ S51において、制御部 27は、交差ループパラメータ NXを 1に初期化して 交差ループを開始する。なお、交差ループは、交差数 nxだけ繰り返される。
[0073] ステップ S52において、低レベル特徴量抽出式リスト生成部 21は、前世代の低レべ ル特徴量抽出式リストから、高レベル特徴量抽出式学習部 25の出力した高レベル特 徴量抽出式の推定精度の平均値が高い方のものから順に優先的に選択されるよう 重み付けをした後、ランダムに 2個の低レベル特徴量抽出式リスト A, Bを選択する。 なお、ここでの選択は、上述した選択生成処理で選択された ns個の低レベル特徴量 抽出式リストを選択候補力 除外してもよ!/、し、選択候補に残してぉ 、てもよ 、。
[0074] ステップ S53において、制御部 27は、式ループパラメータ Mを 1に初期化して式ル ープを開始する。なお、式ループは、 1個の低レベル特徴量抽出式リストに含まれる 式数 mだけ繰り返される。
[0075] ステップ S54において、低レベル特徴量抽出式リスト生成部 21は、低レベル特徴 量抽出式リスト A, Bに含まれる 2m本の低レベル特徴量抽出式から、高レベル特徴 量抽出式学習部 25から入力された高レベル特徴量抽出式における寄与率が高い 方のものが優先的に選択されるように重み付けをした後、ランダムに 1本の低レベル 特徴量抽出式を選択して次世代の低レベル特徴量抽出式リストに追加する。 [0076] ステップ S55において、制御部 27は、式ループパラメータ Mが最大値 mよりも小さ いか否かを判定し、式ループパラメータ Mが最大値 mよりも小さい場合、式ループパ ラメータ Mを 1だけインクリメントして処理をステップ S54に戻す。反対に、式ループパ ラメータ Mが最大値 mよりも小さくない場合 (式ループパラメータ Mが最大値 mと同値 の場合)、式ループを抜けて処理をステップ S56に進める。式ループであるステップ S 53乃至 S55の処理により、 1個の低レベル特徴量抽出式リストが生成されたことにな る。
[0077] ステップ S56において、制御部 27は、交差ループパラメータ NXが最大値 nxよりも 小さいか否かを判定し、交差ループパラメータ NXが最大値 nxよりも小さい場合、交 差ループパラメータ NXを 1だけインクリメントして処理をステップ S52に戻す。反対に 、交差ループパラメータ NXが最大値 nxよりも小さくな 、場合 (交差ループパラメータ NXが最大値 nxと同値の場合)、交差ループを抜けて交差生成処理を終了する。こ の交差ループの処理により、交差数 nx個の低レベル特徴量抽出式リストが生成され たことになる。
[0078] 図 17のステップ S34の突然変異生成処理について、図 20のフローチャートを参照 して詳述する。この突然変異生成処理では、次世代の n個の低レベル特徴量抽出式 リストのうちの突然変異数 nm個の低レベル特徴量抽出式リストが生成される。
[0079] ステップ S61において、制御部 27は、突然変異ループパラメータ NMを 1に初期化 して突然変異ループを開始する。なお、突然変異ループは、突然変異数 nmだけ繰 り返される。
[0080] ステップ S62において、低レベル特徴量抽出式リスト生成部 21は、前世代の低レべ ル特徴量抽出式リストから、高レベル特徴量抽出式学習部 25の出力した高レベル特 徴量抽出式の推定精度の平均値が高い方のものが優先的に選択されるように重み 付けをした後、ランダムに 1個の低レベル特徴量抽出式リスト Aを選択する。なお、こ こでの選択は、上述した選択生成処理で選択された ns個の低レベル特徴量抽出式 リストを選択候補力も除外してもよいし、選択候補に残しておいてもよい。また、上述 した交差生成処理のステップ S52の処理で選択された低レベル特徴量抽出式リスト を選択候補力 除外してもよ 、し、選択候補に残してぉ 、てもよ 、。 [0081] ステップ S63において、制御部 27は、式ループパラメータ Mを 1に初期化して式ル ープを開始する。なお、式ループは、 1個の低レベル特徴量抽出式リストに含まれる 式数 mだけ繰り返される。
[0082] ステップ S64において、低レベル特徴量抽出式リスト生成部 21は、低レベル特徴 量抽出式リスト Aに含まれる m本の低レベル特徴量抽出式のうちの M番目のものに 注目して、 M番目の低レベル特徴量抽出式の演算結果である低レベル特徴量の寄 与率が、低レベル特徴量抽出式リスト Aに含まれる他の低レベル特徴量抽出式の演 算結果である低レベル特徴量の寄与率に比較して低 、か否かを判定する。具体的 には、例えば低レベル特徴量抽出式リスト Aに含まれる m本の低レベル特徴量抽出 式のうち、演算結果である低レベル特徴量の寄与率が低 ヽ方の所定の順番までに 属するカゝ否かを判定する。
[0083] ステップ S64にお!/、て、 M番目の低レベル特徴量抽出式の演算結果である低レべ ル特徴量の寄与率が他よりも低いと判定された場合、処理はステップ S65に進めら れ、低レベル特徴量抽出式リスト生成部 21は、 M番目の低レベル特徴量抽出式をラ ンダムに変形して (突然変異させて)次世代の低レベル特徴量抽出式リストに追加す る。
[0084] 反対に、ステップ S64において、 M番目の低レベル特徴量抽出式の演算結果であ る低レベル特徴量の寄与率が他よりも低くな 、と判定された場合、処理はステップ S6 6に進められ、低レベル特徴量抽出式リスト生成部 21は、 M番目の低レベル特徴量 抽出式を突然変異させることなぐそのまま次世代の低レベル特徴量抽出式リストに 追加する。
[0085] ステップ S67において、制御部 27は、式ループパラメータ Mが最大値 mよりも小さ いか否かを判定し、式ループパラメータ Mが最大値 mよりも小さい場合、式ループパ ラメータ Mを 1だけインクリメントして処理をステップ S64に戻す。反対に、式ループパ ラメータ Mが最大値 mよりも小さくない場合 (式ループパラメータ Mが最大値 mと同値 の場合)、式ループを抜けて処理をステップ S68に進める。ステップ S63乃至 S67の 式ループの処理により、低レベル特徴量抽出式リストが 1個生成されたことになる。
[0086] ステップ S68において、制御部 27は、突然変異ループパラメータ NMが最大値 nm よりも小さいか否かを判定し、突然変異ループパラメータ NMが最大値 nmよりも小さ V、場合、突然変異ループパラメータ NMを 1だけインクリメントして処理をステップ S62 に戻す。反対に、突然変異ループパラメータ NMが最大値 nmよりも小さくない場合( 突然変異ループパラメータ NMが最大値 nmと同値の場合)、突然変異ループを抜け て突然変異生成処理を終了する。ここまでの処理により、突然変異数 nm個の低レべ ル特徴量抽出式リストが生成されたことになる。
[0087] 以上説明した次世代リストジェネティック生成処理によれば、 1世代前の低レベル特 徴量抽出式リストに対応する推定精度が高いもの、低レベル特徴量抽出式に対応す る寄与率が高いものは次世代に継承され、推定精度や寄与率が低いものは次世代 に継承されず淘汰されることになる。したがって、世代が進むに連れて、低レベル特 徴量抽出式リストに対応する推定精度は向上し、低レベル特徴量抽出式に対応する 寄与率も向上することが期待できる。
[0088] 図 7に戻る。以上のようにして生成された次世代の低レベル特徴量抽出式リストは、 低レベル特徴量抽出式リスト生成部 21から低レベル特徴量演算部 24に出力される 。ステップ S3において、低レベル特徴量演算部 24は、低レベル特徴量抽出式リスト 生成部 21から入力された n個の低レベル特徴量抽出式リストそれぞれに楽曲 C1乃 至 Cjの j曲分の入力データ(コンテンツデータやメタデータ)を代入して低レベル特徴 量を演算する。
[0089] なお、ここで入力される j曲分の入力データは、それぞれ k項目の教師データ (対応 する高レベル特徴量)が予め得られているものを使用する。
[0090] 例えば、低レベル特徴量演算部 24は、図 21の Aに示されるような保有次元が音程 軸と時間軸である入力データに対して #16Meanのオペレータに相当する演算を実行 した場合、図 21の Bに示すように時間軸を処理対象軸にして各音程の値の平均値を 算出する。そして演算結果として得られる図 22に示すような、各入力データにそれぞ れ対応する n組の低レベル特徴量組 (m種類の低レベル特徴量力 成る)を高レベル 特徴量抽出式学習部 25に出力する。
[0091] 図 7に戻る。ステップ S4において、高レベル特徴量抽出式学習部 25は、低レベル 特徴量演算部 24から入力された n組の低レベル特徴量組と、対応する教師データ( 図 23に示すように、各入力データ (楽曲 C1乃至 Cj)にそれぞれ対応する k種類の高 レベル特徴量)に基づいて、 k種類の高レベル特徴量抽出式から成る高レベル特徴 量抽出式組を n組、学習によって推定する(生成する)。また、各高レベル特徴量抽 出式の推定精度と各高レベル特徴量抽出式における各低レベル特徴量の寄与率を 算出して低レベル特徴量抽出式リスト生成部 21に出力する。
[0092] ステップ S4における高レベル特徴量抽出式学習処理について、図 24のフローチヤ ートを参照して詳述する。
[0093] ステップ S71にお!/、て、制御部 27は、リストループパラメータ Nを 1に初期化してリス トループを開始する。なお、リストループは、予め設定されているリスト数 nだけ繰り返 される。ステップ S72において、制御部 27は、教師データループパラメータ Kを 1に 初期化して教師データループを開始する。なお、教師データループは、予め設定さ れて 、る教師データの種類数 kだけ繰り返される。
[0094] ステップ S73にお!/、て、制御部 27は、アルゴリズムループパラメータ Aを 1に初期化 してアルゴリズムループを開始する。なお、アルゴリズムループは、適用される学習ァ ルゴリズムの種類数 aだけ繰り返される。
[0095] 適用する学習アルゴリズムとして、例えば、 Regression (回帰解析)、 Classify (クラス 分類)、 SVM(Support Vector Machine),および GP(Genetic Programming)の 4種類を 挙げることができる。
[0096] Regressionに属する学習アルゴリズムとしては、図 25に示すように、教師データと低 レベル特徴量が線形の関係にあるとの仮定に基づいて教師データと Yの 2乗誤差が 最小となるようにパラメータ bを学習するもの、および、図 26に示すように、教師デー タと低レベル特徴量が非線形の関係にあるとの仮定に基づいて教師データと Yの 2 乗誤差が最小となるようにパラメータ b を学習するものを挙げることができる。
nm
[0097] Classifyに属する学習アルゴリズムとしては、図 27に示すように、各クラス(同図の場 合、男性ボーカルクラスと女性ボーカルクラス)のそれぞれの中心からのユークリッド 距離 dを算出してユークリッド距離 dが最短のクラスに分類するもの、図 28に示すよう に、各クラス(同図の場合、男性ボーカルクラスと女性ボーカルクラス)の平均ベクトル との相関係数 correlを算出して相関係数 correlが最大のクラスに分類するもの、図 29 に示すように、各クラス(同図の場合、男性ボーカルクラスと女性ボーカルクラス)のそ れぞれの中心からのマハラノビス距離 dを算出してマハラノビス距離 dが最短のクラス に分類するものを挙げることができる。
[0098] さらに、図 30の Aに示すように、各クラス群(同図の場合、男性ボーカルクラス群と 女性ボーカルクラス群)の分布を複数のクラスで表現し、それぞれのクラス群の中心 力 のユークリッド距離 dを算出してユークリッド距離 dが最短のクラスに分類するもの 、および、図 30の Bに示すように、各クラス群(同図の場合、男性ボーカルクラス群と 女性ボーカルクラス群)の分布を複数のクラスで表現し、それぞれのクラス群の中心 力 のマハラノビス距離 dを算出してマハラノビス距離 dが最短のクラスに分類するも のを挙げることができる。
[0099] SVMに属する学習アルゴリズムとしては、図 31に示すように、各クラス(同図の場合 、男性ボーカルクラスと女性ボーカルクラス)の境界面をサポートベクトルで表現し、 分離面と境界付近のベクトルとの距離 (マージン)が最大になるようにパラメータ b應 を学習するものを挙げることができる。
[0100] GPに属する学習アルゴリズムとしては、図 32に示すように、低レベル特徴量を組み 合わせた式を GPで生成するもの、図 33の Aに示すように、低レベル特徴量を組み合 わせた式を交差させるもの、および、図 33の Bに示すように、低レベル特徴量を組み 合わせた式を突然変異させるものを挙げることができる。
[0101] 例えば、上述した全ての学習アルゴリズムを採用した場合、学習アルゴリズムの種 類数 aは 11とされる。
[0102] 図 24に戻る。ステップ S 74において、制御部 27は、クロスバリデーシヨンループパラ メータ Cを 1に初期化してクロスバリデーシヨンループを開始する。なお、クロスノくリデ ーシヨンループは、予め設定されて 、るクロスノくリデーシヨン回数 cだけ繰り返される。
[0103] ステップ S75において、高レベル特徴量抽出式学習部 25は、 k種類の教師データ のうち、 K番目の種類の j曲分の教師データ(真の高レベル特徴量)をランダムに学習 用と評価用に 2分割する(クロスノくリデーシヨン)。以下、教師データのうち、学習用に 分類されたものを学習用データ、評価用に分類されたものを評価用データと記述す る。 [0104] ステップ S76において、高レベル特徴量抽出式学習部 25は、 N番目の低レベル特 徴量抽出式リストを用いて演算された m種類の低レベル特徴量カゝら成る低レベル特 徴量組と学習用データとを a番目の学習アルゴリズムに適用して高レベル特徴量抽 出式を学習により推定する。この学習に際しては、演算量の削減と過学習 (オーバフ イツティング)を抑止するために、 m種類の低レベル特徴量のうちのいくつかをジエネ ティックに選択して使用する。
[0105] この低レベル特徴量を選択するときの評価値には、関数である情報量基準 AIC(Ak ai e Information Criterion入ま 7こ【ます青 ¾量 牵131し (Bayesian Information Criterion) を用いる。情報量基準 AICおよび BICは学習モデル (いまの場合、選択されている低 レベル特徴量)の選択基準として用いるものであり、その値が小さい学習モデルほど 良い (評価が高い)とされる。
[0106] AICは次式のように表記される。
AIC =— 2 X最大対数尤度 + 2 X自由パラメータ数
[0107] 例えば、学習アルゴリズムに Regression (線形)が採用されている場合(図 25の場合 ) , 自由ノ ラメータ数 =n+ l
対数尤度 =ー0. 5 X学習用データ数 X ( (log27u ) + l +log (平均 2乗誤差)) であるので、
AIC =学習用データ数 X ( (log27u ) + l +log (平均 2乗誤差)) + 2 X (n+ 1) となる。
[0108] BICは次式のように表記される。
BIC=— 2 X最大対数尤度 +log (学習用データ数) X自由パラメータ数
[0109] 例えば、学習アルゴリズムに Regression (線形)が採用されている場合(図 25の場合 )、
BIC =学習用データ数 X ( (log2 π ) + 1 + log (平均 2乗誤差) )
+log (学習用データ数) X (n+ 1)
となる。
[0110] BICは AICと比較して、学習用データ数が増加してもその値が増加し難いことが特 徴である。 [0111] ここで、ステップ S76の学習アルゴリズムに基づく学習処理について、図 34を参照 して説明する。この学習処理に際しては、上述したように、演算量の削減と過学習(ォ ーバフィッティング)を抑止するために、演算された m種類の低レベル特徴量のうちの V、くつかをジェネティックに選択して使用する。
[0112] ステップ S91において、高レベル特徴量抽出式学習部 25は、 m種類の低レベル特 徴量のうち、選択するもの(学習に使用するもの)をランダムに抽出した初期集団を P 組生成する。
[0113] ステップ S92において、高レベル特徴量抽出式学習部 25は、ジェネティックァルゴ リズム (GA:遺伝的アルゴリズム)による特徴選択ループを開始する。この GAによる 特徴選択ループは、後述するステップ S98にお ヽて所定の条件を満たすまで繰り返 される。
[0114] ステップ S93において、制御部 27は、初期集団ループパラメータ Pを 1に初期化し て初期集団ループを開始する。なお、初期集団ループは、ステップ S91の処理で生 成された低レベル特徴量の初期集団数 pだけ繰り返される。
[0115] ステップ S94において、高レベル特徴量抽出式学習部 25は、 P番目の初期集団に 含まれる低レベル特徴量と、教師データのうちの学習用データとを用い、 A番目の学 習アルゴリズムに適用して高レベル特徴量抽出式を学習により推定する。
[0116] ステップ S95において、高レベル特徴量抽出式学習部 25は、ステップ S94の処理 結果として得られた高レベル特徴量の評価値として、情報量基準 AICまたは BICを演 算する。
[0117] ステップ S96において、制御部 27は、初期集団ループパラメータ Pが最大値 よりも 小さいか否かを判定し、初期集団ループパラメータ Pが最大値 pよりも小さい場合、初 期集団ループパラメータ Pを 1だけインクリメントして処理をステップ S94に戻す。反対 に、初期集団ループパラメータ Pが最大値 Pよりも小さくな 、場合 (初期集団ループパ ラメータ Pが最大値 pと同値の場合)、初期集団ループを抜けて処理をステップ S97 に進める。このステップ S93乃至 S96の初期集団ループの処理により、各初期集団 に基づいて学習された高レベル特徴量抽出式の評価値として情報量基準 AICまたは BICを得ることができる。 [0118] ステップ S97において、高レベル特徴量抽出式学習部 25は、学習に使用する低レ ベル特徴量力もなる P組の初期集団を、その評価値に基づ 、てジェネティックに更新 する。具体的には、図 17のステップ S32乃至 S34と同様に、選択、交差、突然変異 によって初期集団を更新する。この更新により、当初はランダムに生成された初期集 団が高レベル特徴量抽出式の評価値を向上させる学習の進められたものとなる。
[0119] ステップ S98において、制御部 27は、 p組の初期集団にそれぞれ対応する高レべ ル特徴量抽出式のうち、最も評価値が高い (情報量基準が小さい)高レベル特徴量 抽出式の評価値が、 GAによる特徴選択ループが繰り返される毎に向上している(情 報量基準が減少している)場合、特徴選択ループを継続するため、処理をステップ S 93に戻す。反対に、 p組の初期集団にそれぞれ対応する高レベル特徴量抽出式のう ち、最も評価値の高い高レベル特徴量抽出式の評価値が、 GAによる特徴選択ルー プを繰り返しても向上しなくなつてきた (情報量基準が減少しなくなってきた)場合、 G Aによる特徴選択ループを抜け、最も評価値の高!、高レベル特徴量抽出式を後段 の処理(図 24のステップ S77の処理)に出力する。そして、学習アルゴリズムに基づく 学習処理は終了される。
[0120] なお、ステップ S91において選択する低レベル特徴量の数は固定としてもよい。こ の場合、教師データのエントロピを利用して必要な低レベル特徴量の数を求めるよう にしてもよい。同様に、教師データの主成分分析を行い、低レベル特徴量の数を主 成分の数と同数にしてもょ 、。
[0121] 図 24に戻る。ステップ S77において、高レベル特徴量抽出式学習部 25は、ステツ プ S76の処理で得た最も評価値の高 ヽ高レベル特徴量抽出式を、評価用データを 用いて評価する。具体的には、得られた高レベル特徴量抽出式を用いて高レベル特 徴量を演算し、評価用データとの 2乗誤差を算出する。
[0122] ステップ S78において、制御部 27は、クロスバリデーシヨンループパラメータ Cが最 大値 cよりも小さ 、か否かを判定し、クロスノくリデーシヨンループパラメータ Cが最大値 cよりも小さ 、場合、クロスバリデーシヨンループパラメータ Cを 1だけインクリメントして 処理をステップ S 75に戻す。反対に、クロスノくリデーシヨンループパラメータ Cが最大 値 cよりも小さくない場合 (クロスノくリデーシヨンループパラメータ Cが最大値 cと同値の 場合)、クロスバリデーシヨンループを抜けて処理をステップ S79に進める。ステップ S 74乃至 S78のクロスノくリデーシヨンループの処理により、 c本の学習結果、すなわち、 高レベル特徴量抽出式が得られたことになる。なお、クロスノくリデーシヨンループによ り、学習用データと評価用データがランダムに変換されるので、高レベル特徴量抽出 式が過学習されて 、な 、ことを確認することができる。
[0123] ステップ S79において、高レベル特徴量抽出式学習部 25は、クロスバリデーシヨン ループによって得られた c本の学習結果、すなわち、高レベル特徴量抽出式のうち、 ステップ S77の処理における評価値が最も高いものを選択する。
[0124] ステップ S80において、制御部 27は、アルゴリズムループパラメータ Aが最大値 aよ りも小さ!/、か否かを判定し、アルゴリズムループパラメータ Aが最大値 aよりも小さ 、場 合、アルゴリズムループパラメータ Aを 1だけインクリメントして処理をステップ S74に 戻す。反対に、アルゴリズムループパラメータ Aが最大値 aよりも小さくない場合 (アル ゴリズムループパラメータ Aが最大値 aと同値の場合)、アルゴリズムループを抜けて 処理をステップ S81に進める。ステップ S73乃至 S80のアルゴリズムループの処理に より、 a種類の学習アルゴリズムによって学習された K番目の種類の高レベル特徴量 抽出式が a本得られたことになる。
[0125] そしてステップ S81において、高レベル特徴量抽出式学習部 25は、アルゴリズムル ープによって得られた a本の学習結果、すなわち、高レベル特徴量抽出式のうち、ス テツプ S77の処理における評価値が最も高いものを選択する。
[0126] ステップ S82において、制御部 27は、教師データループパラメータ Kが最大値 kよ りも小さ 、か否かを判定し、教師データループパラメータ Kが最大値 kよりも小さ ヽ場 合、教師データループパラメータ Kを 1だけインクリメントして処理をステップ S73に戻 す。反対に、教師データループパラメータ Kが最大値 kよりも小さくない場合 (教師デ ータループパラメータ Kが最大値 kと同値の場合)、教師データループを抜けて処理 をステップ S83に進める。ステップ S72乃至 S82の教師データループの処理により、 N番目の低レベル特徴量抽出式リストに対応する、 k種類の高レベル特徴量抽出式 が得られたことになる。
[0127] ステップ S83において、制御部 27は、リストループパラメータ Nが最大値 nよりも小さ いか否かを判定し、リストループパラメータ Nが最大値 nよりも小さい場合、リストルー プパラメータ Nを 1だけインクリメントして処理をステップ S72に戻す。反対に、リストル ープパラメータ Nが最大値 nよりも小さくな 、場合 (リストループパラメータ Nが最大値 nと同値の場合)、リストループを抜けて処理をステップ S84に進める。ステップ S71乃 至 S83のリストループの処理により、 n個の低レベル特徴量抽出式リストにそれぞれ 対応する、 k種類の高レベル特徴量抽出式が得られたことになる。
[0128] ステップ S84において、高レベル特徴量抽出式学習部 25は、得られた n個の低レ ベル特徴量抽出式リストにそれぞれ対応する、 k種類の高レベル特徴量抽出式の推 定精度と各高レベル特徴量抽出式における各低レベル特徴量の寄与率を算出して 低レベル特徴量抽出式リスト生成部 21に出力する。以上で、高レベル特徴量抽出式 学習処理が終了される。
[0129] 図 7に戻る。ステップ S5において、制御部 27は、学習ループパラメータ Gが最大値 gよりも小さいか否かを判定し、学習ループパラメータ Gが最大値 gよりも小さい場合、 学習ループパラメータ Gを 1だけインクリメントして処理をステップ S2に戻す。反対に、 学習ループパラメータ Gが最大値 gよりも小さくな 、場合 (学習ループパラメータ Gが 最大値 gと同値の場合)、学習ループを抜けて処理をステップ S6に進める。なお、ス テツプ S1乃至 S5の学習ルールが特徴量抽出アルゴリズムの学習過程であり、これ 以降のステップ S6は、特徴量抽出アルゴリズムを用いた高レベル特徴量の演算のた めの処理である。
[0130] ステップ S6において、高レベル特徴量抽出式学習部 25は、学習によって得られた 最終世代の n組の低レベル特徴量抽出式リストのうち、得られた高レベル特徴量の平 均精度が最も高カゝつたリストを構成する m本の低レベル特徴量抽出式と、これに対応 する k種類の高レベル特徴量抽出式を高レベル特徴量演算部 26に供給する。
[0131] ステップ S7において、高レベル特徴量演算部 26は、高レベル特徴量抽出式学習 部 25から供給された低レベル特徴量抽出式および高レベル特徴量抽出式のうち、 最後に高レベル特徴量抽出式学習部 25から供給された低レベル特徴量抽出式およ び高レベル特徴量抽出式を用いて高レベル特徴量を高精度に演算する。なお、この ステップ S7における高精度高レベル特徴量演算処理については図 38以降を参照し て後述する。
[0132] 以上、特徴量抽出アルゴリズム生成装置 20による特徴量抽出アルゴリズム生成処 理の説明を終了する。
[0133] 次に、上述した特徴量抽出アルゴリズム生成処理におけるステップ S1乃至 S6の学 習ループが繰り返されて低レベル特徴量抽出式リストの世代が進み成長したとき、す なわち、低レベル特徴量抽出式の寄与度が向上したり、対応する高レベル特徴量抽 出式の推定精度が向上したりしたときに実行する新規オペレータ生成処理について 説明する。
[0134] 低レベル特徴量抽出式リストの世代が進み成長した場合、低レベル特徴量抽出式 リストの中には、図 35に示すように複数のオペレータの順列(以下、オペレータの組 み合わせと称する)が異なる低レベル特徴量抽出式上に頻出することになる。そこで 、異なる低レベル特徴量抽出式上に頻出する複数のオペレータの組み合わせを新 たなオペレータの 1つとして、低レベル特徴量抽出式リスト生成部 21において使用す るオペレータに登録するようにする。
[0135] 例えば、図 35の場合、 3つのオペレータの組み合わせ" 32 # FFT, Log, 32 # FF T"が 5本の低レベル特徴量抽出式に出現している。この" 32 # FFT, Log, 32 # FF T"が 1つのオペレータ NewOperatorlとして登録された場合、次世代以降の低レベル 特徴量抽出式には、例えば図 36に示すようにオペレータ NewOperatorlが含まれる ことになる。
[0136] この新規オペレータ生成処理について、図 37のフローチャートを参照して説明する 。ステップ S101において、オペレータ組検出部 22は、所定の数 (例えば、 1乃至 5程 度)以下のオペレータ力 なるオペレータの順列(順序のあるオペレータの組み合わ せ)を生成する。ここで生成されるオペレータの組み合わせ数を ogとする。
[0137] ステップ S102において、制御部 27は、組み合わせループパラメータ OGを 1に初 期化して組み合わせループを開始する。なお、組み合わせループは、オペレータの 組み合わせ数 ogだけ繰り返される。
[0138] ステップ S 103において、 og番目のオペレータの組み合わせの出現頻度 Countを 1 に初期化する。ステップ S104において、制御部 27は、リストループパラメータ Nを 0 に初期化してリストループを開始する。なお、リストループは、予め設定されているリス ト数 nだけ繰り返される。ステップ S 105において、制御部 27は、式ループパラメータ Mを 1に初期化して式ループを開始する。なお、式ループは、 1個の低レベル特徴量 抽出式リストを構成する低レベル特徴量抽出式数 mだけ繰り返される。
[0139] ステップ S106において、オペレータ組検出部 22は、 N番目の低レベル特徴量抽 出式リストを構成する M番目の低レベル特徴量抽出式上に og番目のオペレータの 組み合わせが存在するか否かを判定し、存在すると判定した場合、処理をステップ S 107に進めて出現頻度 Countを 1だけインクリメントする。反対に、 og番目のオペレー タの組み合わせが存在しないと判定した場合、ステップ S 107をスキップして、処理を ステップ S 108に進める。
[0140] ステップ S 108において、制御部 27は、式ループパラメータ Mが最大値 mよりも小さ いか否かを判定し、式ループパラメータ Mが最大値 mよりも小さい場合、式ループパ ラメータ Mを 1だけインクリメントして処理をステップ S 106に戻す。反対に、式ループ ノ ラメータ Mが最大値 mよりも小さくない場合 (式ループパラメータ Mが最大値 mと同 値の場合)、式ループを抜けて処理をステップ S 109に進める。
[0141] ステップ S 109において、制御部 27は、リストループパラメータ Nが最大値 nよりも小 さいか否かを判定し、リストループパラメータ Nが最大値 nよりも小さい場合、リストル ープパラメータ Nを 1だけインクリメントして処理をステップ S 105に戻す。反対に、リス トループパラメータ Nが最大値 nよりも小さくない場合 (リストループパラメータ Nが最 大値 nと同値の場合)、リストループを抜けて処理をステップ S110に進める。
[0142] ステップ S110において、制御部 27は、組み合わせループパラメータ OGが最大値 ogよりも小さ 、か否かを判定し、組み合わせループパラメータ OGが最大値 ogよりも zJ、さ 、場合、組み合わせループパラメータ OGを 1だけインクリメントして処理をステツ プ S103に戻す。反対に、組み合わせループパラメータ OGが最大値 ogよりも小さく ない場合 (組み合わせループパラメータ OGが最大値 ogと同値の場合)、組み合わせ ループを抜けて処理をステップ S 110に進める。ここまでの処理により、全てオペレー タの組み合わせにそれぞれ対応する出現頻度 Countが検出されたことになる。
[0143] ステップ S111において、オペレータ組検出部 22は、出現頻度 Countが所定の閾 値以上のオペレータの組み合わせを抽出してオペレータ生成部 23に出力する。ステ ップ S112において、オペレータ生成部 23は、オペレータ組検出部 22から入力され たオペレータの組み合わせを新たな 1つのオペレータとして登録する。以上で新規ォ ペレータ生成処理が終了される。
[0144] 以上説明したように、新規オペレータ生成処理によれば、出現頻度の高い、すなわ ち、高レベル特徴量を演算する上で有効であると考えられるオペレータの組み合わ せが 1つのオペレータとされ、次世代以降の低レベル特徴量抽出式において使用さ れるので、低レベル特徴量抽出式の作成速度と成長速度が向上する。また、有効な 低レベル特徴量抽出式が早期に発見されることとなる。さらに、従来、人手により発見 していた有効であると考えられるオペレータの組み合わせを自動的に検出できるの で、この点も新規オペレータ生成処理が奏する効果のひとつである。
[0145] 次に、上述した図 7のステップ S7における高精度高レベル特徴量演算処理につい て、図 38のフローチャートを参照して詳述する。
[0146] ステップ S141において、高レベル特徴量演算部 26は、高レベル特徴量抽出式学 習部 25から供給された最終的な高レベル特徴量抽出式のうち、高い精度の演算結 果を得られるもののみを選択するための高精度リジェクト処理を実行する。
[0147] 高精度リジェクト処理は、「高レベル特徴量の精度は低レベル特徴量の値に因果関 係がある」との考えに基づき、低レベル特徴量を入力として高レベル特徴量の精度を 出力するリジェクト領域抽出式を学習によって得るものである。この高精度リジェクト処 理について、図 39のフローチャートを参照して詳述する。
[0148] ステップ S151において、高レベル特徴量演算部 26内の低レベル特徴量演算部 4 1は、最終的な低レベル特徴量抽出式リストを取得する。高レベル特徴量演算部 26 内の高レベル特徴量演算部 42は、最終的な高レベル特徴量抽出式を取得する。
[0149] ステップ S152において、制御部 27は、コンテンツループパラメータ Jを 1に初期化し てコンテンツループを開始する。なお、コンテンツループは、高精度リジェクト処理を 実行するために用意できる入力データ (コンテンツデータとメタデータ)の数 jだけ繰り 返される。なお、用意できる入力データに対応する高レベル特徴量も、教師データと して用意されて 、るものとする。 [0150] ステップ S153において、低レベル特徴量演算部 41は、ステップ S151の処理で取 得した最終的な低レベル特徴量抽出式リストに L番目の入力データを代入し、その演 算結果である m種類の低レベル特徴量を高レベル特徴量演算部 42およびリジェクト 領域抽出式学習部 44に出力する。高レベル特徴量演算部 42は、ステップ S151の 処理で取得した最終的な高レベル特徴量抽出式に、低レベル特徴量演算部 41から 入力された m種類の低レベル特徴量を代入し、その演算結果である高レベル特徴量 を 2乗誤差演算部 43に出力する。
[0151] ステップ S154において、 2乗誤差演算部 43は、高レベル特徴量演算部 42から入 力された高レベル特徴量と、教師データ (入力データに対応する真の高レベル特徴 量)との 2乗誤差を演算してリジェクト領域抽出式学習部 44に出力する。この演算結 果である 2乗誤差力 高レベル特徴量演算部 42において演算される高レベル特徴 量抽出式の精度 (以下、特徴抽出精度と称する)となる。
[0152] ステップ S155において、制御部 27は、コンテンツループパラメータ Jが最大値はり も小さいか否かを判定し、コンテンツループパラメータ Jが最大値 jよりも小さい場合、 コンテンツループパラメータ Jを 1だけインクリメントして処理をステップ S153に戻す。 反対に、コンテンツループパラメータ Jが最大値 jよりも小さくない場合 (コンテンツルー プパラメータ Jが最大値 jと同値の場合)、コンテンツループを抜けて処理をステップ S 156に進める。ステップ S151乃至 S155のコンテンツループの処理により、各入力デ ータにそれぞれ対応する、演算によって得られた高レベル特徴量と教師データとの 2 乗誤差が得られたことになる。
[0153] ステップ S156において、リジェクト領域抽出式学習部 44は、低レベル特徴量演算 部 41から入力される低レベル特徴量と 2乗誤差演算部 43から入力される 2乗誤差と に基づく学習により、低レベル特徴量を入力としてそれに基づいて演算される高レべ ル特徴量の特徴抽出精度を出力とするリジェクト領域抽出式を生成し、生成したリジ ェクト領域抽出式を特徴量抽出精度演算部 45に供給する。以上で高精度リジェクト 処理を終了され、処理は図 38のステップ S142に進められる。
[0154] ステップ S142において、低レベル特徴量演算部 41は、高レベル特徴量を取得し た!、楽曲の入力データを、最終的な低レベル特徴量抽出式リストに代入して低レべ ル特徴量を演算し、演算結果を高レベル特徴量演算部 42および特徴量抽出精度 演算部 45に出力する。
[0155] ステップ S143において、特徴量抽出精度演算部 45は、低レベル特徴量演算部 4 1から入力された低レベル特徴量を、リジェクト領域抽出式学習部 44から供給された リジェクト領域抽出式に代入して、低レベル特徴量演算部 41から入力される低レべ ル特徴量に基づいて演算される高レベル特徴量の特徴量抽出精度 (すなわち、高レ ベル特徴量演算部 42で演算される高レベル特徴量に対して推定される 2乗誤差)を 演算する。
[0156] ステップ S144において、特徴量抽出精度演算部 45は、ステップ S143の処理で演 算した特徴量抽出精度が所定の閾値以上であるか否かを判定し、演算した特徴量 抽出精度が所定の閾値以上であると判定した場合、処理をステップ S 145に進める。 ステップ S 145において、特徴量抽出精度演算部 45は、高レベル特徴量演算部 42 に対して高レベル特徴量の演算を実行させる。高レベル特徴量演算部 42は、ステツ プ S 142の処理で低レベル特徴量演算部 41から入力された m種類の低レベル特徴 量を、最終的な高レベル特徴量抽出式に代入して高レベル特徴量を演算する。そし て、ここで演算された高レベル特徴量が最終的な出力とされる。以上で、高精度高レ ベル特徴量演算処理が終了される。
[0157] なお、ステップ S144において、演算した特徴量抽出精度が所定の閾値よりも小さ V、と判定された場合、ステップ S 145の処理はスキップされて高精度高レベル特徴量 演算処理は終了される。
[0158] したがって、高精度高レベル特徴量演算処理によれば、高レベル特徴量抽出式に より計算される高レベル特徴量の精度を推定することができる。また、高い精度が期 待できな 、高レベル特徴量を演算しな 、ので、無駄な演算を省略することが可能と なる。
[0159] 以上説明したように、本発明の第 1の実施の形態である特徴量抽出アルゴリズム生 成装置 20による特徴量抽出アルゴリズム学習処理によれば、楽曲データから対応す る特徴量を抽出できるアルゴリズムを、高精度で速やかに生成することが可能となる だけでなぐ高精度の高レベル特徴量だけを少ない演算量で取得することが可能と なる。
[0160] 次に、本発明の第 2の実施の形態である特徴量抽出アルゴリズム生成装置 60につ V、て説明する。図 40は特徴量抽出アルゴリズム生成装置 60の構成例を示して 、る。
[0161] この特徴量抽出アルゴリズム生成装置 60は、特徴量抽出アルゴリズム生成装置 20 における低レベル特徴量抽出式リスト生成部 21および高レベル特徴量抽出式学習 部 25を、それぞれ低レベル特徴量抽出式リスト生成部 61または高レベル特徴量抽 出式学習部 65に置換したものである。
[0162] 特徴量抽出アルゴリズム生成装置 60の特徴量抽出アルゴリズム生成装置 20との 相違点は、特徴量抽出アルゴリズム生成装置 20の低レベル特徴量抽出式リスト生成 部 21が生成する低レベル特徴量抽出式リスト内の式数 mは定数であることに対し、 特徴量抽出アルゴリズム生成装置 60の低レベル特徴量抽出式リスト生成部 61が生 成する各低レベル特徴量抽出式リスト内の数 mはランダムに決定されることである。
[0163] また、特徴量抽出アルゴリズム生成装置 20の高レベル特徴量抽出式学習部 25が 低レベル特徴量抽出式リスト生成部 21に対するフィードバックとして推定精度および 寄与率を出力していたことに対し、特徴量抽出アルゴリズム生成装置 60の高レベル 特徴量抽出式学習部 65が低レベル特徴量抽出式リスト生成部 61に対するフィード ノックとして評価値および寄与率を出力することである。
[0164] 特徴量抽出アルゴリズム生成装置 60の低レベル特徴量抽出式リスト生成部 61およ び高レベル特徴量抽出式学習部 65以外の構成要素については、特徴量抽出アル ゴリズム生成装置 20のそれと共通であって同一の符号を付して 、るので、それらの 説明は省略する。
[0165] 次に、特徴量抽出アルゴリズム生成装置 60の動作について、特徴量抽出アルゴリ ズム生成装置 20の動作説明に用いた図面を適宜流用して説明する。
[0166] まず、特徴量抽出アルゴリズム生成装置 60の基本的な動作である特徴量抽出アル ゴリズム生成処理について、図 7に示されたフローチャートを流用して説明する。
[0167] ステップ S1において、制御部 27は、学習ループパラメータ Gを 1に初期化して学習 ループを開始する。なお、学習ループは、ユーザなどによって予め設定されている学 習回数 gだけ繰り返される。 [0168] ステップ S2において、低レベル特徴量抽出式リスト生成部 61は、 n個の低レベル特 徴量抽出式リストを生成して低レベル特徴量演算部 24に出力する。
[0169] ステップ S2の処理 (低レベル特徴量抽出式リスト生成処理)について、図 9に示され たフローチャートを流用して詳述する。
[0170] ステップ S11において、低レベル特徴量抽出式リスト生成部 61は、生成する低レべ ル特徴量抽出式リストが第 1世代である力否かを判定する。なお、この判定では学習 ループパラメータ Gが 0であるとき、生成する低レベル特徴量抽出式リストが第 1世代 であると判定される。
[0171] 学習ループパラメータ Gが 0であることにより、生成する低レベル特徴量抽出式リスト が第 1世代であると判定された場合、処理はステップ S12に進められる。ステップ S12 において、低レベル特徴量抽出式リスト生成部 61は、第 1世代の低レベル特徴量抽 出式リストをランダムに生成する。
[0172] 反対に、ステップ S 11において、生成する低レベル特徴量抽出式リストが第 1世代 ではないと判定された場合、処理はステップ S13に進められる。ステップ S13におい て、低レベル特徴量抽出式リスト生成部 61は、次世代の低レベル特徴量抽出式リス トを、 1世代前の低レベル特徴量抽出式リストに基づいて遺伝的アルゴリズムによりジ エネティック (Genetic)に生成する。
[0173] ステップ S12における、低レベル特徴量抽出式リスト生成部 61による第 1世代リスト ランダム生成処理につ 、て、図 41のフローチャートを参照して詳述する。
[0174] ステップ S171において、制御部 27は、リストループパラメータ Nを 1に初期化してリ ストループを開始する。なお、リストループは、予め設定されているリスト数 nだけ繰り 返される。
[0175] ステップ S172において、低レベル特徴量抽出式リスト生成部 61は、生成する第 1 世代の第 N番目の低レベル特徴量抽出式リストを構成する低レベル特徴量抽出式 の式数 mをランダムに決定する。
[0176] ステップ S173において、制御部 27は、式ループパラメータ Mを 1に初期化して式 ループを開始する。なお、式ループは、 1個の低レベル特徴量抽出式リストを構成す る低レベル特徴量抽出式の式数 mだけ繰り返される。 [0177] ステップ S174において、低レベル特徴量抽出式リスト生成部 61は、生成する第 1 世代の第 N番目の低レベル特徴量抽出式リスト(以下、リスト Nとも記述する)の第 M 本目の低レベル特徴量抽出式 (以下、低レベル特徴量抽出式 Mとも記述する)の入 力データをランダムに決定する。
[0178] ステップ S175において、低レベル特徴量抽出式リスト生成部 61は、生成するリスト Nの低レベル特徴量抽出式 Mの処理対称軸とパラメータをランダムに 1つ決定する。
[0179] ステップ S176において、低レベル特徴量抽出式リスト生成部 61は、現時点までに 生成されているリスト Nの低レベル特徴量抽出式 Mの演算結果がスカラ(1次元)であ る力、または次元数が所定の値 (例えば、 1または 2程度の小さい数)以下であるか否 かを判定し、否と判定した場合、ステップ S175の処理に戻ってオペレータを 1つ追カロ する。そして、ステップ S175および S176の処理が繰り返されることにより、図 16に示 すように演算結果の保有次元数が減少していき、ステップ S 176において、リスト Nの 低レベル特徴量抽出式 Mの演算結果カ^カラである力、あるいはは次元数が所定の 値 (例えば、 1または 2程度の小さい数)以下であると判定された場合、処理はステツ プ S177に進められる。
[0180] ステップ S177において、制御部 27は、式ループパラメータ Mが最大値 mよりも小さ いか否かを判定し、式ループパラメータ Mが最大値 mよりも小さい場合、式ループパ ラメータ Mを 1だけインクリメントして処理をステップ S174に戻す。反対に、式ループ ノ ラメータ Mが最大値 mよりも小さくない場合 (式ループパラメータ Mが最大値 mと同 値の場合)、式ループを抜けて処理をステップ S 178に進める。ステップ S173乃至 S 177の処理により、第 1世代の第 N番目の低レベル特徴量抽出式リストが生成された ことになる。
[0181] ステップ S 178において、制御部 27は、リストループパラメータ Nが最大値 nよりも小 さいか否かを判定し、リストループパラメータ Nが最大値 nよりも小さい場合、リストル ープパラメータ Nを 1だけインクリメントして処理をステップ S172に戻す。反対に、リス トループパラメータ Nが最大値 nよりも小さくない場合 (リストループパラメータ Nが最 大値 nと同値の場合)、リストループを抜けて第 1世代リストランダム生成処理を終了す る。ここまでの処理により、第 1世代のそれぞれ構成する低レベル特徴量抽出式の式 数 mが共通ではない n個の低レベル特徴量抽出式リストが生成されたことになる。
[0182] 次に、低レベル特徴量抽出式リスト生成部 61による、図 9のステップ S13における 第 2世代以降の低レベル特徴量抽出式リストを生成する処理 (次世代リストジエネティ ック生成処理)について、図 17を流用して説明する。
[0183] ステップ S31において、低レベル特徴量抽出式リスト生成部 61は、生成する低レべ ル特徴量抽出式リストの個数 nのうち、遺伝的アルゴリズムの選択を適用するリスト数 を示す選択数 ns、遺伝的アルゴリズムの交差を適用するリスト数を示す交差数 nx、 遺伝的アルゴリズムの突然変異を適用するリスト数を示す突然変異数 nmをランダム に決定する。ただし、選択数 ns、交差数 nx、突然変異数 nmの総和は nである。なお 、選択数 ns、交差数 nx、突然変異数 nmは予め設定した定数を採用してもよい。
[0184] ステップ S32において、低レベル特徴量抽出式リスト生成部 61は、 1世代前の n個 の低レベル特徴量抽出式リストのうち、決定した選択数 nsの低レベル特徴量抽出式 リストを用いて、 ns個の低レベル特徴量抽出式リストを生成する。ステップ S33におい て、低レベル特徴量抽出式リスト生成部 61は、 1世代前の n個の低レベル特徴量抽 出式リストのうち、決定した交差数 nxの低レベル特徴量抽出式リストを用いて、 nx個 の低レベル特徴量抽出式リストを生成する。ステップ S 34において、低レベル特徴量 抽出式リスト生成部 61は、 1世代前の n個の低レベル特徴量抽出式リストのうち、決 定した突然変異数 nmの低レベル特徴量抽出式リストを用いて、 nm個の低レベル特 徴量抽出式リストを生成する。
[0185] ステップ S32乃至 S34の処理につ!、て詳述する。
[0186] 低レベル特徴量抽出式リスト生成部 61による、ステップ S32の選択生成処理につ いて、図 42のフローチャートを参照して詳述する。この選択生成処理では、次世代の n個の低レベル特徴量抽出式リストのうちの選択数 ns個の低レベル特徴量抽出式リ ストが生成される。
[0187] ステップ S181において、低レベル特徴量抽出式リスト生成部 61は、 1世代前の n 個の低レベル特徴量抽出式リストを、高レベル特徴量抽出式学習部 65から入力され た高レベル特徴量抽出式の評価値の平均値が高い順に並び替える。そして、ステツ プ S182において、低レベル特徴量抽出式リスト生成部 61は、並び替えた 1世代前 の n個の低レベル特徴量抽出式リストのうち、上位 ns個を次世代の低レベル特徴量 抽出式リストとして採用する。以上で選択生成処理は終了される。
[0188] 低レベル特徴量抽出式リスト生成部 61による、図 17のステップ S33の交差生成処 理について、図 43のフローチャートを参照して詳述する。この交差生成処理では、次 世代の n個の低レベル特徴量抽出式リストのうちの交差数 nx個の低レベル特徴量抽 出式リストが生成される。
[0189] ステップ S191において、制御部 27は、交差ループパラメータ NXを 1に初期化して 交差ループを開始する。なお、交差ループは、交差数 nxだけ繰り返される。
[0190] ステップ S192において、低レベル特徴量抽出式リスト生成部 61は、前世代の低レ ベル特徴量抽出式リストから、高レベル特徴量抽出式学習部 65の出力した高レベル 特徴量抽出式の評価値の平均値が高い方のものから順に優先的に選択されるよう 重み付けをした後、ランダムに 2個の低レベル特徴量抽出式リスト A, Bを選択する。 なお、ここでの選択は、上述した選択生成処理で選択された ns個の低レベル特徴量 抽出式リストを選択候補力 除外してもよ!/、し、選択候補に残してぉ 、てもよ 、。
[0191] ステップ S193において、低レベル特徴量抽出式リスト生成部 61は、以下の式ルー プによって生成する低レベル特徴量抽出式リストの式数 mを次式の範囲でランダム に決定する。
m= ( (リスト Aの式数 +リスト Bの式数) Z2)士 mr
mrは予め決定されて 、る値
[0192] ステップ S194において、制御部 27は、式ループパラメータ Mを 1に初期化して式 ループを開始する。なお、式ループは、ステップ S193の処理でランダムに決定され た式数 mだけ繰り返される。
[0193] ステップ S195において、低レベル特徴量抽出式リスト生成部 61は、低レベル特徴 量抽出式リスト A, Bに含まれる全ての低レベル特徴量抽出式から、高レベル特徴量 抽出式学習部 65から入力された高レベル特徴量抽出式における寄与率が高い方の ものが優先的に選択されるように重み付けをした後、ランダムに 1本の低レベル特徴 量抽出式を選択して次世代の低レベル特徴量抽出式リストに追加する。
[0194] ステップ S 196において、制御部 27は、式ループパラメータ Mが最大値 mよりも小さ いか否かを判定し、式ループパラメータ Mが最大値 mよりも小さい場合、式ループパ ラメータ Mを 1だけインクリメントして処理をステップ S 195に戻す。反対に、式ループ ノ ラメータ Mが最大値 mよりも小さくない場合 (式ループパラメータ Mが最大値 mと同 値の場合)、式ループを抜けて処理をステップ S197に進める。式ループであるステツ プ S194乃至 S196の処理により、 1個の低レベル特徴量抽出式リストが生成されたこ とになる。
[0195] ステップ S197において、制御部 27は、交差ループパラメータ NXが最大値 nxより も小さ!/ヽか否かを判定し、交差ループパラメータ NXが最大値 nxよりも小さ 、場合、 交差ループパラメータ NXを 1だけインクリメントして処理をステップ S192に戻す。反 対に、交差ループパラメータ NXが最大値 nxよりも小さくな 、場合 (交差ループパラメ ータ NXが最大値 nxと同値の場合)、交差ループを抜けて交差生成処理を終了する 。この交差ループの処理により、次世代の交差数 nx個の低レベル特徴量抽出式リス トが生成されたことになる。
[0196] 低レベル特徴量抽出式リスト生成部 61による、図 17のステップ S34の突然変異生 成処理について、図 44のフローチャートを参照して詳述する。この突然変異生成処 理では、次世代の n個の低レベル特徴量抽出式リストのうちの突然変異数 nm個の低 レベル特徴量抽出式リストが生成される。
[0197] ステップ S201において、制御部 27は、突然変異ループパラメータ NMを 1に初期 化して突然変異ループを開始する。なお、突然変異ループは、突然変異数 nmだけ 繰り返される。
[0198] ステップ S202において、低レベル特徴量抽出式リスト生成部 61は、前世代の低レ ベル特徴量抽出式リストから、高レベル特徴量抽出式学習部 65の出力した高レベル 特徴量抽出式の評価値の平均値が高い方のものが優先的に選択されるように重み 付けをした後、ランダムに 1個の低レベル特徴量抽出式リスト Aを選択する。なお、こ こでの選択は、上述した選択生成処理で選択された ns個の低レベル特徴量抽出式 リストを選択候補力も除外してもよいし、選択候補に残しておいてもよい。また、上述 した交差生成処理のステップ S192の処理で選択された低レベル特徴量抽出式リスト を選択候補力 除外してもよ 、し、選択候補に残してぉ 、てもよ 、。 [0199] ステップ S203において、低レベル特徴量抽出式リスト生成部 61は、以下の式ルー プによって生成する低レベル特徴量抽出式リストの式数 mをランダムに決定する。
[0200] ステップ S203において、低レベル特徴量抽出式リスト生成部 61は、以下の式ルー プによって生成する低レベル特徴量抽出式リストの式数 mを次式の範囲でランダム に決定する。
m=リスト Aの式数士 mr
mrは予め決定されて 、る値
[0201] ステップ S204において、制御部 27は、式ループパラメータ Mを 1に初期化して式 ループを開始する。なお、式ループは、ステップ S203の処理でランダムに決定され た式数 mだけ繰り返される。
[0202] ステップ S205において、低レベル特徴量抽出式リスト生成部 61は、低レベル特徴 量抽出式リスト Aに含まれる全ての低レベル特徴量抽出式のうち、 M番目のものに注 目して、 M番目の低レベル特徴量抽出式の演算結果である低レベル特徴量の寄与 率が、低レベル特徴量抽出式リスト Aに含まれる他の低レベル特徴量抽出式の演算 結果である低レベル特徴量の寄与率に比較して低 、か否かを判定する。具体的に は、例えば低レベル特徴量抽出式リスト Aに含まれる全ての低レベル特徴量抽出式 のうち、演算結果である低レベル特徴量の寄与率が低 、方の所定の順番までに属 するカゝ否かを判定する。
[0203] ステップ S205において、 M番目の低レベル特徴量抽出式の演算結果である低レ ベル特徴量の寄与率が他よりも低いと判定された場合、処理はステップ S206に進め られ、低レベル特徴量抽出式リスト生成部 61は、 M番目の低レベル特徴量抽出式を ランダムに変形して (突然変異させて)次世代の低レベル特徴量抽出式リストに追加 する。
[0204] 反対に、ステップ S205において、 M番目の低レベル特徴量抽出式の演算結果で ある低レベル特徴量の寄与率が他よりも低くな ヽと判定された場合、処理はステップ S207に進められ、低レベル特徴量抽出式リスト生成部 61は、 M番目の低レベル特 徴量抽出式を突然変異させることなぐそのまま次世代の低レベル特徴量抽出式リス トに追加する。 [0205] なお、ランダムに決定された式数 mが低レベル特徴量抽出式リスト Aを構成する低 レベル特徴量抽出式の式数よりも大き 、場合、式ループパラメータ Mが低レベル特 徴量抽出式リスト Aを構成する低レベル特徴量抽出式の式数よりも大きくなつた時点 でステップ S205における判定を省略し、ランダムに低レベル特徴量抽出式を新規に 生成して次世代の低レベル特徴量抽出式リストに追加するようにする。
[0206] ステップ S208において、制御部 27は、式ループパラメータ Mが最大値 mよりも小さ いか否かを判定し、式ループパラメータ Mが最大値 mよりも小さい場合、式ループパ ラメータ Mを 1だけインクリメントして処理をステップ S205に戻す。反対に、式ループ ノ ラメータ Mが最大値 mよりも小さくない場合 (式ループパラメータ Mが最大値 mと同 値の場合)、式ループを抜けて処理をステップ S209に進める。
[0207] ステップ S203乃至 S208の処理により、低レベル特徴量抽出式リストが 1個生成さ れたことになる。
[0208] ステップ S209において、制御部 27は、突然変異ループパラメータ NMが最大値 n mよりも小さ 、か否かを判定し、突然変異ループパラメータ NMが最大値 nmよりも小 さ 、場合、突然変異ループパラメータ NMを 1だけインクリメントして処理をステップ S 202に戻す。反対に、突然変異ループパラメータ NMが最大値 nmよりも小さくない場 合 (突然変異ループパラメータ NMが最大値 nmと同値の場合)、突然変異ループを 抜けて突然変異生成処理を終了する。ここまでの処理により、突然変異数 nm個の低 レベル特徴量抽出式リストが生成されたことになる。
[0209] 以上説明した低レベル特徴量抽出式リスト生成部 61による次世代リストジエネテイツ ク生成処理によれば、 1世代前の低レベル特徴量抽出式リストに対応する評価値が 高いもの、低レベル特徴量抽出式に対応する寄与率が高いものは次世代に継承さ れ、評価値や寄与率が低いものは次世代に継承されず淘汰されることになる。したが つて、世代が進むに連れて、低レベル特徴量抽出式リストに対応する評価値は向上 し、低レベル特徴量抽出式に対応する寄与率も向上することが期待できる。
[0210] 図 7に戻る。以上のようにして生成された次世代の低レベル特徴量抽出式リストは、 低レベル特徴量抽出式リスト生成部 61から低レベル特徴量演算部 24に出力される 。ステップ S3において、低レベル特徴量演算部 24は、低レベル特徴量抽出式リスト 生成部 61から入力された n個の低レベル特徴量抽出式リストそれぞれに楽曲 CI乃 至 Cjの j曲分の入力データ(コンテンツデータやメタデータ)を代入して低レベル特徴 量を演算する。そして、演算結果として得られた n組の低レベル特徴量組を高レベル 特徴量抽出式学習部 65に出力する。
[0211] ステップ S4において、高レベル特徴量抽出式学習部 65は、低レベル特徴量演算 部 24から入力された n組の低レベル特徴量組と、対応する教師データに基づいて、 k 種類の高レベル特徴量抽出式から成る高レベル特徴量抽出式組を n組、学習によつ て推定する(生成する)。また、各高レベル特徴量抽出式の評価値と各高レベル特徴 量抽出式における各低レベル特徴量の寄与率を算出して低レベル特徴量抽出式リ スト生成部 61に出力する。
[0212] 高レベル特徴量抽出式学習部 65による、ステップ S4における高レベル特徴量抽 出式学習処理にっ 、て、図 45のフローチャートを参照して詳述する。
[0213] ステップ S211において、制御部 27は、リストループパラメータ Nを 1に初期化してリ ストループを開始する。なお、リストループは、予め設定されているリスト数 nだけ繰り 返される。ステップ S212において、制御部 27は、教師データループパラメータ Kを 1 に初期化して教師データループを開始する。なお、教師データループは、予め設定 されて 、る教師データの種類数 kだけ繰り返される。
[0214] ステップ S213において、制御部 27は、アルゴリズムループパラメータ Aを 1に初期 化してアルゴリズムループを開始する。なお、アルゴリズムループは、適用される学習 アルゴリズムの種類数 aだけ繰り返される。適用するアルゴリズムの例については、上 述した特徴量抽出アルゴリズム生成装置 20の動作説明と同様である。
[0215] ステップ S214において、制御部 27は、クロスノくリデーシヨンループパラメータ Cを 1 に初期化してクロスバリデーシヨンループを開始する。なお、クロスバリデーシヨンル ープは、予め設定されて 、るクロスノくリデーシヨン回数 cだけ繰り返される。
[0216] ステップ S215において、高レベル特徴量抽出式学習部 65は、 k種類の教師デー タのうち、 K番目の種類の j曲分の教師データ (真の高レベル特徴量)をランダムに学 習用と評価用に 2分割する(クロスバリデーシヨン)。以下、教師データのうち、学習用 に分類されたものを学習用データ、評価用に分類されたものを評価用データと記述 する。
[0217] ステップ S216において、高レベル特徴量抽出式学習部 65は、 N番目の低レベル 特徴量抽出式リストを用いて演算された複数の低レベル特徴量から成る低レベル特 徴量組と学習用データとを a番目の学習アルゴリズムに適用して高レベル特徴量抽 出式を学習により推定する。
[0218] なお、この学習に際しては、高レベル特徴量抽出式学習部 25と異なり、 N番目の低 レベル特徴量抽出式リストを用いて演算された全ての低レベル特徴量 (以下、低レべ ル特徴量組と記述する)を使用する。これにより高レベル特徴量抽出式の評価値は、 元の低レベル特徴量の数が十分であるか否かの評価も考慮した値となる。
[0219] 高レベル特徴量抽出式学習部 65による、ステップ S216の学習アルゴリズムに基づ く学習処理について、図 46を参照して説明する。
[0220] ステップ S231において、高レベル特徴量抽出式学習部 65は、低レベル特徴量組 と、教師データのうちの学習用データとを用い、 A番目の学習アルゴリズムに適用し て高レベル特徴量抽出式を学習により推定する。
[0221] ステップ S232において、高レベル特徴量抽出式学習部 65は、ステップ S232の処 理結果として得られた高レベル特徴量の評価値として、情報量基準 AICまたは BICを 演算する。以上で、学習アルゴリズムに基づく学習処理は終了される。
[0222] 図 45に戻る。ステップ S217において、高レベル特徴量抽出式学習部 65は、ステツ プ S216の処理で得た高レベル特徴量抽出式を、評価用データを用いて評価する。 具体的には、得られた高レベル特徴量抽出式を用いて高レベル特徴量を演算し、評 価用データとの 2乗誤差を算出する。
[0223] ステップ S218において、制御部 27は、クロスノくリデーシヨンループパラメータじが 最大値 cよりも小さ 、か否かを判定し、クロスノくリデーシヨンループパラメータ Cが最大 値 cよりも小さ 、場合、クロスバリデーシヨンループパラメータ Cを 1だけインクリメントし て処理をステップ S215に戻す。反対に、クロスバリデーシヨンループパラメータじが 最大値 cよりも小さくない場合 (クロスノくリデーシヨンループパラメータ Cが最大値 cと同 値の場合)、クロスバリデーシヨンループを抜けて処理をステップ S219に進める。ステ ップ S214乃至 S218のクロスバリデーシヨンループの処理により、 c本の学習結果、 すなわち、高レベル特徴量抽出式が得られたことになる。なお、クロスノくリデーシヨン ループにより、学習用データと評価用データがランダムに変換されるので、高レベル 特徴量抽出式が過学習されていないことを確認することができる。
[0224] ステップ S219において、高レベル特徴量抽出式学習部 65は、クロスバリデーショ ンループによって得られた c本の学習結果、すなわち、高レベル特徴量抽出式のうち 、ステップ S217の処理における評価が最も高いものを選択する。
[0225] ステップ S220において、制御部 27は、アルゴリズムループパラメータ Aが最大値 a よりも小さ 、か否かを判定し、アルゴリズムループパラメータ Aが最大値 aよりも小さ ヽ 場合、アルゴリズムループパラメータ Aを 1だけインクリメントして処理をステップ S214 に戻す。反対に、アルゴリズムループパラメータ Aが最大値 aよりも小さくない場合 (ァ ルゴリズムループパラメータ Aが最大値 aと同値の場合)、アルゴリズムループを抜け て処理をステップ S221に進める。ステップ S213乃至 S220のアルゴリズムループの 処理により、 a種類の学習アルゴリズムによって学習された K番目の種類の高レベル 特徴量抽出式が a本得られたことになる。
[0226] ステップ S221において、高レベル特徴量抽出式学習部 65は、アルゴリズムループ によって得られた a本の学習結果、すなわち、高レベル特徴量抽出式のうち、ステツ プ S217の処理における評価が最も高いものを選択する。
[0227] ステップ S222において、制御部 27は、教師データループパラメータ Kが最大値 k よりも小さいか否かを判定し、教師データループパラメータ Kが最大値 kよりも小さい 場合、教師データループパラメータ Kを 1だけインクリメントして処理をステップ S213 に戻す。反対に、教師データループパラメータ Kが最大値 kよりも小さくない場合 (教 師データループパラメータ Kが最大値 kと同値の場合)、教師データループを抜けて 処理をステップ S223に進める。ステップ S212乃至 S222の教師データループの処 理により、 N番目の低レベル特徴量抽出式リストに対応する、 k種類の高レベル特徴 量抽出式が得られたことになる。
[0228] ステップ S223において、制御部 27は、リストループパラメータ Nが最大値 nよりも小 さいか否かを判定し、リストループパラメータ Nが最大値 nよりも小さい場合、リストル ープパラメータ Nを 1だけインクリメントして処理をステップ S212に戻す。反対に、リス トループパラメータ Nが最大値 nよりも小さくない場合 (リストループパラメータ Nが最 大値 nと同値の場合)、リストループを抜けて処理をステップ S224に進める。ステップ S211乃至 S223のリストループの処理〖こより、 n個の低レベル特徴量抽出式リストに それぞれ対応する、 k種類の高レベル特徴量抽出式が得られたことになる。
[0229] ステップ S224において、高レベル特徴量抽出式学習部 65は、得られた n個の低レ ベル特徴量抽出式リストにそれぞれ対応する、 k種類の高レベル特徴量抽出式にお ける各低レベル特徴量の寄与率を算出し、ステップ S217の処理で計算した高レべ ル特徴量抽出式の評価値とともに低レベル特徴量抽出式リスト生成部 61に出力する 。以上で、高レベル特徴量抽出式学習処理が終了される。
[0230] 図 7に戻る。ステップ S5において、制御部 27は、学習ループパラメータ Gが最大値 gよりも小さいか否かを判定し、学習ループパラメータ Gが最大値 gよりも小さい場合、 学習ループパラメータ Gを 1だけインクリメントして処理をステップ S2に戻す。反対に、 学習ループパラメータ Gが最大値 gよりも小さくな 、場合 (学習ループパラメータ Gが 最大値 gと同値の場合)、学習ループを抜けて処理をステップ S6に進める。なお、ス テツプ S1乃至 S5の学習ルールが特徴量抽出アルゴリズムの学習過程であり、これ 以降のステップ S6は、特徴量抽出アルゴリズムを用いた高レベル特徴量の演算のた めの処理である。
[0231] ステップ S6において、高レベル特徴量抽出式学習部 65は、学習によって得られた 最終世代の n組の低レベル特徴量抽出式リストのうち、得られた高レベル特徴量の平 均評価値が最も高かった低レベル特徴量抽出式リストを構成する低レベル特徴量抽 出式と、これに対応する k種類の高レベル特徴量抽出式を高レベル特徴量演算部 2 6に供給する。
[0232] ステップ S7において、高レベル特徴量演算部 26は、高レベル特徴量抽出式学習 部 65から供給された低レベル特徴量抽出式および高レベル特徴量抽出式のうち、 最後に高レベル特徴量抽出式学習部 65から供給された低レベル特徴量抽出式およ び高レベル特徴量抽出式を用いて高レベル特徴量を高精度に演算する。なお、この ステップ S7における高精度高レベル特徴量演算処理については、上述した特徴量 抽出アルゴリズム生成装置 20の動作と同様であるので、その説明は省略する。 [0233] 以上、特徴量抽出アルゴリズム生成装置 60による特徴量抽出アルゴリズム生成処 理の説明を終了する。
[0234] 以上説明したように、本発明の第 2の実施の形態である特徴量抽出アルゴリズム生 成装置 60による特徴量抽出アルゴリズム学習処理によれば、楽曲データから対応す る特徴量を抽出できるアルゴリズムを、高精度で速やかに生成することが可能となる だけでなぐ高精度の高レベル特徴量だけを少ない演算量で取得することが可能と なる。
[0235] 特に、低レベル特徴量抽出式リストを構成する式数 mをランダムに決定しているの で、特徴量抽出アルゴリズム生成装置 20による特徴量抽出アルゴリズム学習処理に 比較して、低レベル特徴量の数が無駄に多過ぎて処理が重くなつたり、精度が十分 に出なくなったりすることを抑止し、結果としてより高い精度を得ることができる。
[0236] なお、本発明は、楽曲の高レベル特徴量を取得する場合だけでなぐ映像データ などあらゆる種類のコンテンツデータの高レベル特徴量を取得する場合に適用する ことが可能である。
[0237] ところで、上述した一連の処理は、ハードウェアにより実行させることもできる力 ソフ トウエア〖こより実行させることもできる。一連の処理をソフトウェアにより実行させる場合 には、そのソフトウェアを構成するプログラム力 専用のハードウェアに組み込まれて いるコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を 実行することが可能な、例えば図 47に示すように構成された汎用のパーソナルコン ピュータなどに、記録媒体からインストールされる。
[0238] このパーソナルコンピュータ 100は、 CPU(Central Processing Unit)101を内蔵して いる。 CPU101にはバス 104を介して、入出力インタフェース 105が接続されている。 ノ ス 104には、 ROM(Read Only Memory)102および RAM(Random Access Memory) 103が接続されている。
[0239] 入出力インタフェース 105には、ユーザが操作コマンドを入力するキーボード、マウ ス等の入力デバイスよりなる入力部 106、操作画面などを表示する CRT(Cathode Ray Tube)または LCD(Liquid Crystal Display)等のディスプレイよりなる出力部 107、プロ グラムや各種データを格納するハードディスクドライブなどよりなる記憶部 108、およ びモデム、 LAN(Local Area Network)アダプタなどよりなり、インタネットに代表される ネットワークを介した通信処理を実行する通信部 109が接続されている。また、磁気 ディスク(フレキシブルディスクを含む)、光ディスク(CD- ROM(Compact Disc-Read O nly Memory), DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc) を含む)、もしくは半導体メモリなどの記録媒体 111に対してデータを読み書きするド ライブ 110が接続されて 、る。
[0240] このパーソナルコンピュータ 100に上述した一連の処理を実行させるプログラムは、 記録媒体 111に格納された状態でパーソナルコンピュータ 100に供給され、ドライブ 110によって読み出されて記憶部 108に内蔵されるハードディスクドライブにインスト ールされている。記憶部 108にインストールされているプログラムは、入力部 106に入 力されるユーザからのコマンドに対応する CPU101の指令によって、記憶部 108から RAM103にロードされて実行される。
[0241] なお、本明細書にぉ 、て、プログラムに基づ 、て実行されるステップは、記載された 順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されな くとも、並列的あるいは個別に実行される処理をも含むものである。
[0242] また、プログラムは、 1台のコンピュータにより処理されるものであってもよいし、複数 のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠 方のコンピュータに転送されて実行されるものであってもよい。
[0243] また、本明細書において、システムとは、複数の装置により構成される装置全体を 表すものである。
[0244] なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなぐ本 発明の要旨を逸脱しな 、範囲にぉ 、て種々の変更が可能である。

Claims

請求の範囲
[1] コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情 報処理装置において、
前記コンテンツデータまたは前記コンテンツデータに対応するメタデータを入力とし て低レベル特徴量を出力する複数の低レベル特徴量抽出式から構成される次世代 の式リストを、前世代の前記式リストに基づく学習によって生成する低レベル特徴量 抽出式リスト生成手段と、
低レベル特徴量抽出式リスト生成手段によって生成された前記式リストを用いて前 記低レベル特徴量を演算する演算手段と、
前記コンテンツデータに対応する予め用意された真の高レベル特徴量を教師デー タとした学習により、前記演算手段によって演算された前記低レベル特徴量を入力と して前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量 抽出式を生成する高レベル特徴量抽出式生成手段と
を含む情報処理装置。
[2] 前記高レベル特徴量抽出式生成手段は、生成した前記高レベル特徴量抽出式の 精度、または前記高レベル特徴量抽出式における前記低レベル特徴量の寄与率の 少なくとも一方を算出し、
前記低レベル特徴量抽出式リスト生成手段は、前記高レベル特徴量抽出式生成手 段により算出された前記高レベル特徴量抽出式の精度、または前記高レベル特徴量 抽出式における前記低レベル特徴量の寄与率の少なくとも一方に基づき、前記低レ ベル特徴量抽出式リストを構成する前記低レベル特徴量抽出式を更新する
請求項 1に記載の情報処理装置。
[3] 前記低レベル特徴量抽出式リスト生成手段は、第 1世代の前記式リストをランダムに 生成する
請求項 1に記載の情報処理装置。
[4] 前記低レベル特徴量抽出式リスト生成手段は、次世代の前記式リストを前世代の前 記式リストに基づく遺伝的アルゴリズムにより選択処理、交差処理、または突然変異 処理の少なくとも 1つによって生成する 請求項 1に記載の情報処理装置。
[5] 前記低レベル特徴量抽出式リスト生成手段は、予め設定された定数の低レベル特 徴量抽出式から構成される次世代の式リストを生成する
請求項 1に記載の情報処理装置。
[6] 前記低レベル特徴量抽出式リスト生成手段は、前記リストを生成する度にランダム に決定する数の低レベル特徴量抽出式から構成される次世代の式リストを生成する 請求項 1に記載の情報処理装置。
[7] 前記高レベル特徴量抽出式生成手段は、生成した前記高レベル特徴量抽出式の 評価値、または前記高レベル特徴量抽出式における前記低レベル特徴量の寄与率 の少なくとも一方を算出し、
前記低レベル特徴量抽出式リスト生成手段は、前記高レベル特徴量抽出式生成手 段により算出された前記高レベル特徴量抽出式の評価値、または前記高レベル特徴 量抽出式における前記低レベル特徴量の寄与率の少なくとも一方に基づき、前記低 レベル特徴量抽出式リストを構成する前記低レベル特徴量抽出式を更新する 請求項 6に記載の情報処理装置。
[8] コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情 報処理装置の情報処理方法にお!、て、
前記コンテンツデータまたは前記コンテンツデータに対応するメタデータを入力とし て低レベル特徴量を出力する複数の低レベル特徴量抽出式から構成される次世代 の式リストを、前世代の前記式リストに基づく学習によって生成し、
生成された前記式リストを用いて前記低レベル特徴量を演算し、
前記コンテンツデータに対応する予め用意された真の高レベル特徴量を教師デー タとした学習により、演算された前記低レベル特徴量を入力として前記コンテンツデ ータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を生成する ステップを含む情報処理方法。
[9] コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情 報処理装置の制御用のプログラムであって、
前記コンテンツデータまたは前記コンテンツデータに対応するメタデータを入力とし て低レベル特徴量を出力する複数の低レベル特徴量抽出式から構成される次世代 の式リストを、前世代の前記式リストに基づく学習によって生成し、
生成された前記式リストを用いて前記低レベル特徴量を演算し、
前記コンテンツデータに対応する予め用意された真の高レベル特徴量を教師デー タとした学習により、演算された前記低レベル特徴量を入力として前記コンテンツデ ータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を生成する ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2006/321260 2005-10-25 2006-10-25 情報処理装置、情報処理方法、およびプログラム WO2007049641A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US11/722,508 US8315954B2 (en) 2005-10-25 2006-10-25 Device, method, and program for high level feature extraction
CN2006800015725A CN101091204B (zh) 2005-10-25 2006-10-25 信息处理设备、信息处理方法
KR1020077014275A KR101193265B1 (ko) 2005-10-25 2006-10-25 정보 처리 장치, 정보 처리 방법 및 컴퓨터 판독가능 기록매체
EP06822237.1A EP1843323B1 (en) 2005-10-25 2006-10-25 Information processing device, information processing method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005-310410 2005-10-25
JP2005310410 2005-10-25
JP2006-281267 2006-10-16
JP2006281267 2006-10-16

Publications (1)

Publication Number Publication Date
WO2007049641A1 true WO2007049641A1 (ja) 2007-05-03

Family

ID=37967751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/321260 WO2007049641A1 (ja) 2005-10-25 2006-10-25 情報処理装置、情報処理方法、およびプログラム

Country Status (6)

Country Link
US (1) US8315954B2 (ja)
EP (1) EP1843323B1 (ja)
JP (1) JP4948118B2 (ja)
KR (1) KR101193265B1 (ja)
CN (1) CN101091204B (ja)
WO (1) WO2007049641A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2026255A2 (en) 2007-08-14 2009-02-18 Sony Corporation Apparatus and method for processing information, recording medium and computer program
EP2053549A2 (en) 2007-10-22 2009-04-29 Sony Corporation Information processing
US8131657B2 (en) 2007-10-22 2012-03-06 Sony Corporation Information processing device, information processing method, and program
CN102378004A (zh) * 2010-08-10 2012-03-14 索尼公司 运动图像处理装置、运动图像处理方法和程序
CN102469350A (zh) * 2010-11-16 2012-05-23 北大方正集团有限公司 广告统计的方法、装置和系统
US8626685B2 (en) 2008-07-14 2014-01-07 Sony Corporation Information processsing apparatus, information processing method, and program

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4239109B2 (ja) 2006-10-20 2009-03-18 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
RU2492586C2 (ru) 2008-10-27 2013-09-10 Ниппон Телеграф Энд Телефон Корпорейшн Способ автоматического формирования процедуры генерации прогнозируемого значения пикселя, способ кодирования изображений, способ декодирования изображений, соответствующее устройство, соответствующие программы и носители информации, которые хранят программы
JP5463655B2 (ja) 2008-11-21 2014-04-09 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5625235B2 (ja) 2008-11-21 2014-11-19 ソニー株式会社 情報処理装置、音声解析方法、及びプログラム
JP5206378B2 (ja) 2008-12-05 2013-06-12 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5282548B2 (ja) * 2008-12-05 2013-09-04 ソニー株式会社 情報処理装置、音素材の切り出し方法、及びプログラム
JP5593608B2 (ja) 2008-12-05 2014-09-24 ソニー株式会社 情報処理装置、メロディーライン抽出方法、ベースライン抽出方法、及びプログラム
JP2011221133A (ja) 2010-04-06 2011-11-04 Sony Corp 情報処理装置、クライアント装置、サーバ装置、リスト生成方法、リスト取得方法、リスト提供方法、及びプログラム
JP2012039522A (ja) 2010-08-10 2012-02-23 Sony Corp 動画像処理装置、動画像処理方法およびプログラム
JP2012039524A (ja) 2010-08-10 2012-02-23 Sony Corp 動画像処理装置、動画像処理方法およびプログラム
JP5909943B2 (ja) * 2011-09-08 2016-04-27 ソニー株式会社 情報処理装置、推定機生成方法、及びプログラム
JP5909944B2 (ja) * 2011-09-08 2016-04-27 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
EP3188093A1 (en) * 2015-12-29 2017-07-05 Tata Consultancy Services Limited System and method for predicting response time of an enterprise system
US10997492B2 (en) 2017-01-20 2021-05-04 Nvidia Corporation Automated methods for conversions to a lower precision data format
WO2022168163A1 (ja) * 2021-02-02 2022-08-11 日本電信電話株式会社 生成装置、方法、及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253708A (ja) * 2004-03-12 2005-09-22 Fuji Photo Film Co Ltd 特徴量選択装置、異常陰影判別装置およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020504A (ja) * 1998-06-30 2000-01-21 Toshiba Corp 目的変数の説明または予測方法、および目的変数を説明または予測するプログラムを記録した記録媒体
DE10123281C1 (de) * 2001-05-14 2002-10-10 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Analysieren eines Audiosignals hinsichtlich von Rhythmusinformationen des Audiosignals unter Verwendung einer Autokorrelationsfunktion
DE10123366C1 (de) * 2001-05-14 2002-08-08 Fraunhofer Ges Forschung Vorrichtung zum Analysieren eines Audiosignals hinsichtlich von Rhythmusinformationen
DE10157454B4 (de) * 2001-11-23 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erzeugen einer Kennung für ein Audiosignal, Verfahren und Vorrichtung zum Aufbauen einer Instrumentendatenbank und Verfahren und Vorrichtung zum Bestimmen der Art eines Instruments
DE10232916B4 (de) * 2002-07-19 2008-08-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals
US6904955B2 (en) * 2002-09-20 2005-06-14 Lectrotherm, Inc. Method and apparatus for alternating pouring from common hearth in plasma furnace
DE20321797U1 (de) * 2002-12-17 2010-06-10 Sony France S.A. Vorrichtung zum automatischen Erzeugen einer allgemeinen Extraktionsfunktion, die aus einem Eingabesignal berechenbar ist, z.B. einem Audiosignal, um daraus einen vorbestimmten globalen charakteristischen Wert seines Inhalts zu erzeugen, z.B. einen Deskriptor
DE10313875B3 (de) 2003-03-21 2004-10-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Analysieren eines Informationssignals
US7324927B2 (en) * 2003-07-03 2008-01-29 Robert Bosch Gmbh Fast feature selection method and system for maximum entropy modeling
JP2004355174A (ja) * 2003-05-28 2004-12-16 Ishihara Sangyo Kaisha Ltd データ解析方法及びそのシステム
JP4532139B2 (ja) 2004-02-10 2010-08-25 株式会社日立メディコ 磁気共鳴イメージング装置
JP4650662B2 (ja) * 2004-03-23 2011-03-16 ソニー株式会社 信号処理装置および信号処理方法、プログラム、並びに記録媒体
JP4649859B2 (ja) * 2004-03-25 2011-03-16 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
JP2005310410A (ja) 2004-04-16 2005-11-04 Toppan Printing Co Ltd 有機エレクトロルミネッセンス素子の製造方法及び装置
DE102004028693B4 (de) 2004-06-14 2009-12-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Bestimmen eines Akkordtyps, der einem Testsignal zugrunde liegt
DE102004047068A1 (de) 2004-09-28 2006-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Gruppieren von zeitlichen Segmenten eines Musikstücks
DE102004049478A1 (de) * 2004-10-11 2006-04-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Glättung eines Melodieliniensegments
DE102004049457B3 (de) * 2004-10-11 2006-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Extraktion einer einem Audiosignal zu Grunde liegenden Melodie
JP3882192B2 (ja) 2005-03-28 2007-02-14 東陶機器株式会社 湯水混合装置及びそれを備えた湯水混合水栓
JP2006274708A (ja) 2005-03-30 2006-10-12 Hitachi Plant Technologies Ltd 越流水の除塵装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005253708A (ja) * 2004-03-12 2005-09-22 Fuji Photo Film Co Ltd 特徴量選択装置、異常陰影判別装置およびプログラム

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
LIN C.-T. ET AL: "GA-based noisy speech recognition using two-dimensional cepstrum", IEEE TRANS. ON SPEECH AND AUDIO PROCESSING, vol. 8, no. 6, 2000, pages 664 - 675, XP003011928 *
LU J. ET AL: "Identeki Programming ni yoru Jikeiretsu Model no Shugoteki Kinji to Clustering eno Oyo", TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS A, vol. J88-A, no. 7, 1 July 2005 (2005-07-01), pages 803 - 813, XP003011927 *
MORIYAMA M. ET AL: "Identeki Algorithm o Mochiita Kakyoku no Sakkyoku Shien Hoho no Ichi Teian", DAI 4 KAI FORUM ON INFORMATION TECHNOLOGY KOEN RONBUNSHU, 22 August 2005 (2005-08-22), pages 279 - 280, XP003011925 *
See also references of EP1843323A4 *
SELOUANI S.A. ET AL: "Robustness of speach recognition using genetic algorithms and a Mel-cepstral subspace approach", PROC. OF ICASSP, vol. 1, 2004, pages 201 - 204, XP003011929 *
TAKEUCHI M. ET AL: "Identeki Programming o Mochiita CM Song Hyoka ni Tsuite", ITE TECHNICAL REPORT (MEDIA KOGAKU), vol. 28, no. 62, 22 October 2004 (2004-10-22), pages 13 - 16, XP003011926 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2026255A2 (en) 2007-08-14 2009-02-18 Sony Corporation Apparatus and method for processing information, recording medium and computer program
US8170963B2 (en) 2007-08-14 2012-05-01 Sony Corporation Apparatus and method for processing information, recording medium and computer program
EP2053549A2 (en) 2007-10-22 2009-04-29 Sony Corporation Information processing
US8131657B2 (en) 2007-10-22 2012-03-06 Sony Corporation Information processing device, information processing method, and program
US8326779B2 (en) 2007-10-22 2012-12-04 Sony Corporation Information processing device, information processing method, and program
US8626685B2 (en) 2008-07-14 2014-01-07 Sony Corporation Information processsing apparatus, information processing method, and program
CN102378004A (zh) * 2010-08-10 2012-03-14 索尼公司 运动图像处理装置、运动图像处理方法和程序
CN102469350A (zh) * 2010-11-16 2012-05-23 北大方正集团有限公司 广告统计的方法、装置和系统

Also Published As

Publication number Publication date
KR101193265B1 (ko) 2012-10-19
CN101091204A (zh) 2007-12-19
EP1843323B1 (en) 2014-05-14
EP1843323A4 (en) 2010-04-07
JP2008123011A (ja) 2008-05-29
KR20080069509A (ko) 2008-07-28
EP1843323A1 (en) 2007-10-10
CN101091204B (zh) 2013-11-27
JP4948118B2 (ja) 2012-06-06
US8315954B2 (en) 2012-11-20
US20100094782A1 (en) 2010-04-15

Similar Documents

Publication Publication Date Title
JP4948118B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4935047B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Turnbull et al. Fast recognition of musical genres using RBF networks
JP5353443B2 (ja) データ分類器作成装置、データ分類装置、データ分類器作成方法、データ分類方法、データ分類器作成プログラム、データ分類プログラム
JP4987282B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Landman et al. Classically approximating variational quantum machine learning with random fourier features
Narantsatsralt et al. Social network community detection using agglomerative spectral clustering
Ben-Elazar et al. Groove radio: A bayesian hierarchical model for personalized playlist generation
Salam et al. Prediction vulnerability level of dengue fever using KNN and random forest
Yang et al. Uncertain decision tree for bank marketing classification
Pahariya et al. Software cost estimation using computational intelligence techniques
JP2007122186A (ja) 情報処理装置、情報処理方法、およびプログラム
JP5909943B2 (ja) 情報処理装置、推定機生成方法、及びプログラム
Geurts et al. Gradient boosting for kernelized output spaces
JP4392622B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Klinger et al. Evolutionary composition of music with learned melody evaluation
JP3287738B2 (ja) 関係関数探索装置
Adanu Optimizing the GARCH model–an application of two global and two local search methods
US20240078424A1 (en) Neural network arrangement
Karthikeyan et al. A Hybrid Data Resampling Algorithm Combining Leader and SMOTE for Classifying the High Imbalanced Datasets
Bevilacqua et al. Bayesian Gene Regulatory Network Inference Optimization by means of Genetic Algorithms.
JP5909944B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2024502030A (ja) 遺伝的プログラミングを使用する自動特徴抽出
Salam et al. RESTI journal
Blauth et al. Using Genetic Algorithms for Model Selection in Graphical Models

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 4277/DELNP/2007

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2006822237

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020077014275

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200680001572.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2006822237

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11722508

Country of ref document: US