JP2007122186A - Information processor, information processing method and program - Google Patents

Information processor, information processing method and program Download PDF

Info

Publication number
JP2007122186A
JP2007122186A JP2005310409A JP2005310409A JP2007122186A JP 2007122186 A JP2007122186 A JP 2007122186A JP 2005310409 A JP2005310409 A JP 2005310409A JP 2005310409 A JP2005310409 A JP 2005310409A JP 2007122186 A JP2007122186 A JP 2007122186A
Authority
JP
Japan
Prior art keywords
level feature
feature quantity
quantity extraction
extraction formula
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005310409A
Other languages
Japanese (ja)
Inventor
Yoshiyuki Kobayashi
由幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005310409A priority Critical patent/JP2007122186A/en
Publication of JP2007122186A publication Critical patent/JP2007122186A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To promptly generate algorithm allowing extraction of a corresponding characteristic amount from content data such as musical piece data with high accuracy. <P>SOLUTION: In this information processor, a high-level characteristic amount extraction type learning part uses a low-level characteristic amount included in a Pth initial group and data for learning among teacher data, applies them to ath learning algorithm, and estimates a high-level characteristic amount extraction type by learning in a step S94. In a step S95, the high-level characteristic amount extraction type learning part calculates an information amount criterion AIC (Akaike Information Criterion) or BIC (Bayesian Information Criterion) as an evaluation value of a high-level characteristic amount obtained as a processing result of the step S94. In a step S97, the high-level characteristic amount extraction type learning part genetically updates the initial group of a p set comprising the low-level characteristic amount used for the learning on the basis of the evaluation value (the information amount criterion). The information processor can be applied to a system acquiring a high-level characteristic amount of a musical piece or a video. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、例えば、楽曲データに基づいて前記楽曲データの特徴量を抽出するアルゴリズムを自動的に生成するようにした情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program, and more particularly, for example, an information processing apparatus and an information processing apparatus that automatically generate an algorithm for extracting feature values of music data based on music data, for example. The present invention relates to a method and a program.

従来、楽曲データを入力として前記楽曲データの特徴量(楽曲データの速さ、明るさ、にぎやかさ等)を出力するアルゴリズムの自動生成に関する発明が提案されている(例えば、特許文献1参照)。   Conventionally, an invention related to automatic generation of an algorithm that outputs music data feature values (music data speed, brightness, liveliness, etc.) using music data as an input has been proposed (see, for example, Patent Document 1).

米国特許出願公報 US2004/0181401A1US Patent Application Publication US2004 / 0181401A1

特許文献1に記載の発明では、図1に示すように、楽曲データとそのメタデータから1段階の演算処理により特徴量を抽出する特徴量抽出アルゴリズムを作成しており、当該アルゴリズムの作成過程、当該アルゴリズムを用いた特徴量の計算過程に要する演算量が膨大である。   In the invention described in Patent Document 1, as shown in FIG. 1, a feature amount extraction algorithm for extracting feature amounts from music data and its metadata by one-step arithmetic processing is created. The amount of calculation required for the feature amount calculation process using the algorithm is enormous.

したがって、できるだけ無駄なく少ない演算量で、楽曲データから対応する特徴量を速やかに抽出できるアルゴリズムの生成方法の出現が望まれている。   Accordingly, there is a demand for an algorithm generation method that can quickly extract a corresponding feature amount from music data with as little computation as possible without waste.

また、楽曲の波形に信号処理を施し抽出した複数の低レベル特徴量と機械学習を用いて高レベル特徴量を抽出することができるが、低レベル特徴量の数が増えると安定した機械学習が難しくなるという問題があった。   In addition, high-level feature quantities can be extracted using multiple low-level feature quantities extracted by performing signal processing on the music waveform and machine learning. However, as the number of low-level feature quantities increases, stable machine learning becomes possible. There was a problem that it became difficult.

したがって、複数の低レベル特徴量のうち、高レベル特徴量を精度よく抽出するのに必要な低レベル特徴量のみを最適に選択する方法の出現が望まれている。   Accordingly, there is a demand for the appearance of a method for optimally selecting only the low-level feature quantity necessary for accurately extracting the high-level feature quantity from among the plurality of low-level feature quantities.

また、これまで様々な機械学習アルゴリズムのうち、特徴量を抽出するために最適なアルゴリズムを自動的に選択することはできなかった。   In addition, it has been impossible to automatically select an optimal algorithm for extracting feature amounts from various machine learning algorithms.

したがって、高レベル特徴量を精度よく抽出するのに最適な学習アルゴリズムを自動的に選択する方法の出現が望まれている。   Therefore, the appearance of a method for automatically selecting an optimal learning algorithm for extracting high-level feature quantities with high accuracy is desired.

本発明はこのような状況に鑑みてなされたものであり、高レベル特徴量を抽出するために必要な低レベル特徴量と学習アルゴリズムを最適に自動選択し、楽曲データなどのコンテンツデータから対応する特徴量を高精度で速やかに抽出できるアルゴリズムを自動生成できるようにするものである。   The present invention has been made in view of such circumstances, and optimally automatically selects a low-level feature quantity and a learning algorithm necessary for extracting a high-level feature quantity, and copes with content data such as music data. It is intended to automatically generate an algorithm that can quickly extract feature amounts with high accuracy.

本発明の一側面である情報処理装置は、コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情報処理装置において、前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成手段を含み、前記高レベル特徴量抽出式生成手段は、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する。   An information processing apparatus according to an aspect of the present invention is an information processing apparatus that generates a feature amount detection algorithm for detecting a feature amount of content data, and performs an operation based on the content data or metadata corresponding to the content data. A high-level feature quantity extraction formula that outputs the high-level feature quantity indicating the feature of the content data with the input low-level feature quantity as an input is generated by learning using the high-level feature quantity corresponding to the content data as teacher data High level feature quantity extraction formula generation means, wherein the high level feature quantity extraction formula generation means generates the high level feature quantity extraction formula using a plurality of different learning algorithms, and generates the generated high level feature quantity extraction formula Is evaluated based on a predetermined information amount criterion.

前記複数の学習アルゴリズムは、回帰解析、クラス分類、SVM(Support Vector Machine)、またはGP(Genetic Programming)のうち、少なくとも1つを含むようにすることができる。   The plurality of learning algorithms may include at least one of regression analysis, classification, SVM (Support Vector Machine), or GP (Genetic Programming).

前記所定の情報量基準は、AICまたはBICであるようにすることができる。   The predetermined information criterion may be AIC or BIC.

前記高レベル特徴量抽出式生成手段は、予め用意されている複数の前記学習データを学習用と評価用にランダムに分割して使用するようにすることができる。   The high-level feature quantity extraction formula generation means can use a plurality of learning data prepared in advance at random for learning and evaluation.

前記高レベル特徴量抽出式生成手段は、予め演算されている複数の低レベル特徴量のうち、前記高レベル特徴量抽出式の学習に用いるものを遺伝的アルゴリズムに基づいて選択するようにすることができる。   The high-level feature quantity extraction formula generation means selects, based on a genetic algorithm, a plurality of low-level feature quantities that are calculated in advance and that is used for learning the high-level feature quantity extraction formula. Can do.

本発明の一側面である情報処理方法は、コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情報処理装置の情報処理方法において、前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成ステップを含み、前記高レベル特徴量抽出式生成ステップは、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する。   An information processing method according to one aspect of the present invention is an information processing method for an information processing apparatus that generates a feature amount detection algorithm for detecting a feature amount of content data, wherein the content data or metadata corresponding to the content data is used. The high-level feature quantity extraction formula that outputs the high-level feature quantity indicating the feature of the content data with the low-level feature quantity calculated based on the content data as the input, and the high-level feature quantity corresponding to the content data as the teacher data A high level feature quantity extraction formula generation step generated by learning, wherein the high level feature quantity extraction formula generation step generates the high level feature quantity extraction formula using a plurality of different learning algorithms, and generates the generated high level The feature quantity extraction formula is evaluated based on a predetermined information quantity standard.

本発明の一側面であるプログラムは、コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成するためのプログラムであって、前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成ステップを含む処理をコンピュータに実行させ、前記高レベル特徴量抽出式生成ステップは、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する。   A program according to an aspect of the present invention is a program for generating a feature amount detection algorithm for detecting a feature amount of content data, and is calculated based on the content data or metadata corresponding to the content data. A high-level feature quantity extraction formula that outputs the high-level feature quantity indicating the feature of the content data with the input low-level feature quantity as an input is generated by learning using the high-level feature quantity corresponding to the content data as teacher data The computer executes processing including a high-level feature quantity extraction formula generation step, and the high-level feature quantity extraction formula generation step generates the high-level feature quantity extraction formula using a plurality of different learning algorithms, and generates the high-level feature quantity extraction formula generation step. The high-level feature amount extraction formula is evaluated based on a predetermined information amount criterion.

本発明の一側面においては、コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式が、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成される。なお、この学習では、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式が生成され、生成された前記高レベル特徴量抽出式が所定の情報量基準に基づいて評価される。   In one aspect of the present invention, a high-level feature value that outputs a high-level feature value indicating a feature of the content data by using a low-level feature value calculated based on content data or metadata corresponding to the content data as an input The extraction formula is generated by learning using high-level feature amounts corresponding to the content data as teacher data. In this learning, the high-level feature quantity extraction formula is generated using a plurality of different learning algorithms, and the generated high-level feature quantity extraction formula is evaluated based on a predetermined information amount standard.

本発明の一側面によれば、高レベル特徴量を抽出するために必要な低レベル特徴量と学習アルゴリズムを最適に自動選択し、楽曲データなどのコンテンツデータから対応する特徴量を高精度で速やかに抽出できるアルゴリズムを生成することができる。   According to one aspect of the present invention, a low-level feature amount and a learning algorithm necessary for extracting a high-level feature amount are optimally and automatically selected, and a corresponding feature amount from content data such as music data is quickly and accurately detected. It is possible to generate an algorithm that can be extracted into

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面である情報処理装置(例えば、図5の特徴量抽出アルゴリズム生成装置20)は、コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情報処理装置において、前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成手段(例えば、図5の高レベル特徴量抽出式学習部25)を含み、前記高レベル特徴量抽出式生成手段は、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する。   An information processing apparatus according to one aspect of the present invention (for example, the feature quantity extraction algorithm generation apparatus 20 in FIG. 5) is an information processing apparatus that generates a feature quantity detection algorithm for detecting a feature quantity of content data. Corresponding to the content data, a high-level feature quantity extraction formula that outputs a high-level feature quantity indicating the characteristics of the content data with a low-level feature quantity calculated based on data or metadata corresponding to the content data as an input High-level feature quantity extraction formula generation means (for example, the high-level feature quantity extraction formula learning unit 25 in FIG. 5) that generates by learning using the high-level feature quantity as teacher data, and the high-level feature quantity extraction formula generation means Generates the high-level feature quantity extraction formula using a plurality of different learning algorithms, and generates the generated high-level feature. The amount extraction expressions is evaluated on the basis of predetermined information criterion.

本発明の一側面である情報処理方法は、コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情報処理装置の情報処理方法において、前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成ステップ(例えば、図7のステップS4)を含み、前記高レベル特徴量抽出式生成ステップは、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する(例えば、図34のステップS95)。   An information processing method according to one aspect of the present invention is an information processing method for an information processing apparatus that generates a feature amount detection algorithm for detecting a feature amount of content data, wherein the content data or metadata corresponding to the content data is used. The high-level feature quantity extraction formula that outputs the high-level feature quantity indicating the feature of the content data with the low-level feature quantity calculated based on the content data as the input, and the high-level feature quantity corresponding to the content data as the teacher data A high-level feature quantity extraction formula generation step (for example, step S4 in FIG. 7) generated by learning, wherein the high-level feature quantity extraction formula generation step uses the plurality of different learning algorithms to generate the high-level feature quantity extraction formula And the generated high-level feature quantity extraction formula is evaluated based on a predetermined information quantity standard. For example, step S95 in FIG. 34).

本発明の一側面であるプログラムは、コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成するためのプログラムであって、前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成ステップ(例えば、図7のステップS4)を含む処理をコンピュータに実行させ、前記高レベル特徴量抽出式生成ステップは、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する(例えば、図34のステップS95)。   A program according to an aspect of the present invention is a program for generating a feature amount detection algorithm for detecting a feature amount of content data, and is calculated based on the content data or metadata corresponding to the content data. A high-level feature quantity extraction formula that outputs the high-level feature quantity indicating the feature of the content data with the input low-level feature quantity as an input is generated by learning using the high-level feature quantity corresponding to the content data as teacher data A computer including a high level feature quantity extraction formula generation step (for example, step S4 in FIG. 7) is executed by the computer, and the high level feature quantity extraction formula generation step uses the plurality of different learning algorithms to generate the high level feature quantity. An extraction formula is generated, and the generated high-level feature amount extraction formula is used as a predetermined information amount standard. Zui by evaluating (e.g., step S95 of FIG. 34).

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図2は、本発明の一実施の形態である特徴量抽出アルゴリズム生成装置20(図5)によって生成される特徴量抽出アルゴリズムの概要を示している。この特徴長抽出アルゴリズム11は、コンテンツデータ(楽曲データ)とそれに対応するメタデータ(属性データ)を入力として低レベル特徴量を出力する低レベル特徴量抽出部12、および、低レベル特徴量を入力として高レベル特徴量を出力する高レベル特徴量抽出部14から構成される。   FIG. 2 shows an outline of the feature quantity extraction algorithm generated by the feature quantity extraction algorithm generation apparatus 20 (FIG. 5) according to the embodiment of the present invention. The feature length extraction algorithm 11 receives content data (music data) and metadata (attribute data) corresponding to the content data and outputs a low-level feature value, and inputs a low-level feature value. The high-level feature quantity extraction unit 14 outputs a high-level feature quantity.

低レベル特徴量抽出部12は、入力データに所定の演算を施す1以上のオペレータ(演算子)が組み合わされたm種類の低レベル特徴量抽出式から成る低レベル特徴量抽出式リスト13を有している。したがって、低レベル特徴量抽出部12は、m種類の低レベル特徴量を高レベル特徴量抽出部14に出力する。   The low-level feature quantity extraction unit 12 has a low-level feature quantity extraction formula list 13 composed of m types of low-level feature quantity extraction formulas combined with one or more operators (operators) that perform predetermined calculations on input data. is doing. Accordingly, the low level feature quantity extraction unit 12 outputs m types of low level feature quantities to the high level feature quantity extraction unit 14.

図3は低レベル特徴量抽出式の例を示している。例えば、図3Aに示す低レベル特徴量抽出式f1は、楽曲の波形データを入力として、各チャンネル(例えば、L(Left)チャンネルとR(Right)チャンネル)間で波形データの平均値(Mean)を演算し、演算された平均値を時間軸に沿って高速フーリエ変換(FFT)を行い、FFT結果から周波数の標準偏差(StDev)を求め、その結果を低レベル特徴量aとして出力する。   FIG. 3 shows an example of a low-level feature quantity extraction formula. For example, the low-level feature quantity extraction formula f1 shown in FIG. 3A takes the waveform data of music as an input, and the average value (Mean) of the waveform data between each channel (for example, L (Left) channel and R (Right) channel). Is calculated, a fast Fourier transform (FFT) is performed along the time axis, a frequency standard deviation (StDev) is obtained from the FFT result, and the result is output as a low-level feature amount a.

また例えば、図3Bに示す低レベル特徴量抽出式f2は、楽曲のコード進行データを入力として、時間軸に沿ってマイナーコードの出現率(Ratio)を求め、その結果を低レベル特徴量bとして出力する。   Further, for example, the low-level feature quantity extraction formula f2 shown in FIG. 3B uses the chord progression data of the music as an input, obtains the minor chord appearance rate (Ratio) along the time axis, and sets the result as the low-level feature quantity b. Output.

なお、低レベル特徴量抽出部12の出力である低レベル特徴量は、それ単体で意味のある値である必要ない。   Note that the low-level feature quantity that is the output of the low-level feature quantity extraction unit 12 does not need to be a meaningful value by itself.

高レベル特徴量抽出部14は、入力されるm種類の低レベル特徴量のうちの1種類以上の低レベル特徴量に比較的単純な演算(四則演算、累乗演算など)を行い、その演算結果を高レベル特徴量として出力するk種類の高レベル特徴量抽出式を有している。したがって、高レベル特徴量抽出部14は、k種類の高レベル特徴量を出力する。   The high-level feature quantity extraction unit 14 performs a relatively simple calculation (four arithmetic operations, power calculation, etc.) on one or more low-level feature quantities among the m types of input low-level feature quantities, and the calculation result Are output as high-level feature values. Therefore, the high level feature quantity extraction unit 14 outputs k types of high level feature quantities.

図4は高レベル特徴量抽出式の例を示している。例えば、図4Aに示す高レベル特徴量抽出式F1は、低レベル特徴量a,b,c,d,eに四則演算を行い、その結果を1種類の高レベル特徴量である速さの値として出力する。   FIG. 4 shows an example of a high-level feature amount extraction formula. For example, the high-level feature quantity extraction formula F1 shown in FIG. 4A performs four arithmetic operations on the low-level feature quantities a, b, c, d, and e, and the result is a speed value that is one type of high-level feature quantity. Output as.

また例えば、図4Bに示す低レベル特徴量抽出式F2は、低レベル特徴量a,c,d,eに四則演算と累乗演算を行い、その結果を1種類の高レベル特徴量である明るさの値として出力する。   Further, for example, the low-level feature quantity extraction formula F2 shown in FIG. 4B performs four arithmetic operations and a power operation on the low-level feature quantities a, c, d, and e, and the result is brightness that is one type of high-level feature quantity. Output as the value of.

次に、図5は、本発明の一実施の形態である特徴量抽出アルゴリズム生成装置20の構成例を示している。この特徴量抽出アルゴリズム生成装置20は、最適な低レベル特徴量抽出式と高レベル特徴量抽出式をジェネティック(Genetic)な学習によって生成するものであり、m種類の低レベル特徴量抽出式から成る低レベル特徴量抽出式リストをn個生成する低レベル特徴量抽出式リスト生成部21、低レベル特徴量抽出式リスト生成部21から供給されるn個の低レベル特徴量抽出式リストにl曲分の入力データ(コンテンツデータやメタデータ)を代入して、各入力データに対応するm種類の低レベル特徴量をn組得る低レベル特徴量演算部24、低レベル特徴量演算部24からのn組の出力と対応する教師データ(l曲にそれぞれ対応するk項目の高レベル特徴量)に基づいて高レベル特徴量抽出式を学習によって推定する高レベル特徴量抽出式学習部25、学習が進められて最終的に生成されるた高レベル特徴量抽出式を用いて高レベル特徴量を演算する高レベル特徴量演算部26、および、各部の動作の繰り返し(ループ)を制御する制御部27から構成される。   Next, FIG. 5 shows a configuration example of the feature quantity extraction algorithm generation apparatus 20 according to an embodiment of the present invention. This feature quantity extraction algorithm generation device 20 generates an optimal low-level feature quantity extraction formula and high-level feature quantity extraction formula by genetic learning, and consists of m types of low-level feature quantity extraction formulas. Low-level feature quantity extraction formula list generation unit 21 that generates n low-level feature quantity extraction formula lists, and n songs in n low-level feature quantity extraction formula lists supplied from low-level feature quantity extraction formula list generation unit 21 From the low-level feature quantity computing unit 24 and the low-level feature quantity computing unit 24 which can substitute n input data (content data and metadata) and obtain n sets of m types of low-level feature quantities corresponding to each input data. A high-level feature quantity extraction formula for estimating a high-level feature quantity extraction formula by learning based on n sets of output and corresponding teacher data (k items of high-level feature quantities corresponding to each song) The learning unit 25, the high-level feature quantity computing unit 26 that computes the high-level feature quantity using the high-level feature quantity extraction formula that is finally generated by the progress of learning, and the repetition of the operation of each part (loop) It is comprised from the control part 27 which controls.

低レベル特徴量抽出式リスト生成部21は、第1世代の低レベル特徴量抽出式リストについてはランダムに、第2世代以降の低レベル特徴量抽出式リストについては前世代の低レベル特徴量抽出式リストに基づく低レベル特徴量を用いて学習された高レベル特徴量抽出式の精度などに基づいて生成する。   The low-level feature quantity extraction formula list generation unit 21 randomly extracts the first-generation low-level feature quantity extraction formula list and extracts the previous-generation low-level feature quantities for the second-generation and subsequent low-level feature quantity extraction formula lists. It is generated based on the accuracy of the high level feature quantity extraction formula learned using the low level feature quantity based on the formula list.

低レベル特徴量抽出式リスト生成部21に内蔵されたオペレータ組検出部22は、生成された低レベル特徴量抽出式中に頻出する複数のオペレータの組み合わせを検出する。オペレータ生成部23は、オペレータ組検出部22によって検出された複数のオペレータの組み合わせを新たな1種類のオペレータとして登録する。   An operator set detection unit 22 incorporated in the low level feature quantity extraction formula list generation unit 21 detects a combination of a plurality of operators that frequently appear in the generated low level feature quantity extraction formula. The operator generation unit 23 registers a combination of a plurality of operators detected by the operator set detection unit 22 as a new type of operator.

高レベル特徴量抽出式学習部25は、n組の低レベル特徴量にそれぞれ対応し、k種類の高レベル特徴量抽出式を生成するとともに、各高レベル特徴量抽出式の推定精度と各高レベル特徴量抽出式における各低レベル特徴量の寄与率を算出して低レベル特徴量抽出式リスト生成部21に出力する。また、高レベル特徴量抽出式学習部25は、学習の最終世代において、n組の低レベル特徴量抽出式リストのうち、得られた高レベル特徴量の平均精度が最も高かったリストのm組の低レベル特徴量抽出式と、これに対応するk種類の高レベル特徴量抽出式を高レベル特徴量演算部26に供給する。   The high-level feature quantity extraction formula learning unit 25 generates k types of high-level feature quantity extraction formulas corresponding to n sets of low-level feature quantities, and estimates the accuracy of each high-level feature quantity extraction formula and each high-level feature quantity extraction formula. The contribution ratio of each low level feature quantity in the level feature quantity extraction formula is calculated and output to the low level feature quantity extraction formula list generation unit 21. In addition, the high level feature quantity extraction formula learning unit 25, in the last generation of learning, among the n sets of low level feature quantity extraction formula lists, the m sets of the list with the highest average accuracy of the obtained high level feature quantity The low-level feature quantity extraction formulas and k types of high-level feature quantity extraction formulas corresponding thereto are supplied to the high-level feature quantity calculation unit 26.

高レベル特徴量演算部26は、最後に高レベル特徴量抽出式学習部25から供給された低レベル特徴量抽出式、高レベル特徴量抽出式を用いて高レベル特徴量を演算する。   The high level feature quantity computing unit 26 computes the high level feature quantity using the low level feature quantity extraction formula and the high level feature quantity extraction formula that are finally supplied from the high level feature quantity extraction formula learning unit 25.

図6は、高レベル特徴量演算部26の詳細な構成例を示している。   FIG. 6 shows a detailed configuration example of the high-level feature amount calculation unit 26.

この高レベル特徴量演算部26は、入力データ(コンテンツデータとそれに対応するメタデータ)を最終的な低レベル特徴量抽出式リストに代入して低レベル特徴量を演算する低レベル特徴量演算部41、低レベル特徴量演算部41による演算結果を最終的な高レベル特徴量抽出式に代入して高レベル特徴量を演算する高レベル特徴量演算部42、高レベル特徴量演算部42による演算結果と教師データ(入力データに対応する高レベル特徴量)と2乗誤差を演算する2乗誤差演算部43、低レベル特徴量演算部41の演算結果である低レベル特徴量を入力、2乗誤差演算部43の演算結果である2乗誤差を出力とするリジェクト領域抽出式を学習により生成するリジェクト領域抽出式学習部44、および、入力データをリジェクト領域抽出式学習部44によって生成されたリジェクト領域抽出式に代入し、入力データに対応して演算される高レベル特徴量の特徴抽出精度(2乗誤差)を推定し、推定した特徴抽出精度が所定の閾値以上である場合だけ高レベル特徴量演算部42に高レベル特徴量を演算させる特徴量抽出精度演算部45から構成される。   The high level feature quantity computing unit 26 substitutes input data (content data and corresponding metadata) into the final low level feature quantity extraction formula list to compute a low level feature quantity computation unit. 41. Calculation by a high level feature quantity computing unit 42, a high level feature quantity computing unit 42 that computes a high level feature quantity by substituting the computation result by the low level feature quantity computing unit 41 into a final high level feature quantity extraction formula The result, teacher data (high-level feature value corresponding to input data), and a square error calculation unit 43 for calculating a square error, and a low-level feature value that is a calculation result of the low-level feature value calculation unit 41 are input and squared. Reject region extraction formula learning unit 44 that generates a reject region extraction formula that outputs a square error that is a calculation result of error calculation unit 43 by learning, and reject region extraction of input data Substituting into the reject area extraction formula generated by the learning unit 44, estimating the feature extraction accuracy (square error) of the high-level feature quantity calculated corresponding to the input data, and the estimated feature extraction accuracy is a predetermined threshold value Only when it is the above, the high-level feature quantity computing unit 42 is configured by a feature quantity extraction accuracy computing unit 45 that computes a high-level feature quantity.

次に、特徴量抽出アルゴリズム生成装置20の動作について説明する。   Next, the operation of the feature quantity extraction algorithm generation device 20 will be described.

図7は特徴量抽出アルゴリズム生成装置20の基本的な動作である特徴量抽出アルゴリズム生成処理を説明するフローチャートである。   FIG. 7 is a flowchart illustrating a feature quantity extraction algorithm generation process that is a basic operation of the feature quantity extraction algorithm generation apparatus 20.

ステップS1において、制御部27は、学習ループパラメータGを1に初期化して学習ループを開始する。なお、学習ループは、ユーザなどによって予め設定されている学習回数gだけ繰り返される。   In step S1, the control unit 27 initializes the learning loop parameter G to 1 and starts a learning loop. Note that the learning loop is repeated by the number of learning times g set in advance by the user or the like.

ステップS2において、低レベル特徴量抽出式リスト生成部21は、図8に示すように、m種類の低レベル特徴量抽出式から成る低レベル特徴量抽出式リストをn個生成して低レベル特徴量演算部24に出力する。   In step S2, the low level feature quantity extraction formula list generation unit 21 generates n low level feature quantity extraction formula lists composed of m types of low level feature quantity extraction formulas as shown in FIG. It outputs to the quantity calculating part 24.

ステップS2の処理(低レベル特徴量抽出式リスト生成処理)について、図9のフローチャートを参照して詳述する。   The process of step S2 (low level feature quantity extraction formula list generation process) will be described in detail with reference to the flowchart of FIG.

ステップS11において、低レベル特徴量抽出式リスト生成部21は、生成する低レベル特徴量抽出式リストが第1世代であるか否かを判定する。なお、この判定は学習ループパラメータGが0であるとき、生成する低レベル特徴量抽出式リストが第1世代であると判定するようにする。生成する低レベル特徴量抽出式リストが第1世代であると判定された場合、処理はステップS12に進む。ステップS12において、低レベル特徴量抽出式リスト生成部21は、第1世代の低レベル特徴量抽出式リストをランダムに生成する。   In step S11, the low-level feature quantity extraction formula list generation unit 21 determines whether or not the generated low-level feature quantity extraction formula list is the first generation. In this determination, when the learning loop parameter G is 0, it is determined that the generated low-level feature quantity extraction formula list is the first generation. If it is determined that the low-level feature quantity extraction formula list to be generated is the first generation, the process proceeds to step S12. In step S12, the low-level feature quantity extraction formula list creation unit 21 randomly creates a first-generation low-level feature quantity extraction formula list.

反対に、ステップS11において、生成する低レベル特徴量抽出式リストが第1世代ではないと判定された場合、処理はステップS13に進む。ステップS13において、低レベル特徴量抽出式リスト生成部21は、次世代の低レベル特徴量抽出式リストを、前世代の低レベル特徴量抽出式リストに基づいてジェネティック(Genetic)に生成する。   Conversely, if it is determined in step S11 that the low-level feature quantity extraction formula list to be generated is not the first generation, the process proceeds to step S13. In step S13, the low-level feature quantity extraction formula list generation unit 21 generates a next-generation low-level feature quantity extraction formula list based on the previous-generation low-level feature quantity extraction formula list.

ステップS12の処理(第1世代リストランダム生成処理)について、図10を参照して説明する。ステップS21において、制御部27は、リストループパラメータNを1に初期化してリストループを開始する。なお、リストループは、予め設定されているリスト数nだけ繰り返される。   The process of step S12 (first generation list random generation process) will be described with reference to FIG. In step S21, the control unit 27 initializes the list loop parameter N to 1 and starts a list loop. The list loop is repeated for a preset number n of lists.

ステップS22において、制御部27は、式ループパラメータMを1に初期化して式ループを開始する。なお、式ループは、1個の低レベル特徴量抽出式リストを構成する低レベル特徴量抽出式数mだけ繰り返される。   In step S22, the control unit 27 initializes the expression loop parameter M to 1 and starts an expression loop. The expression loop is repeated for the number m of low-level feature quantity extraction formulas constituting one low-level feature quantity extraction formula list.

ここで、式ループにおいて生成される低レベル特徴量抽出式の記述方法について図11を参照して説明する。低レベル特徴量抽出式は、入力データが左端に記述され、その右側に1種類以上のオペレータが演算の順序に対応して記述される。各オペレータには、適宜、処理対称軸とパラメータが含まれる。   Here, a description method of the low-level feature quantity extraction formula generated in the formula loop will be described with reference to FIG. In the low-level feature quantity extraction formula, input data is described at the left end, and one or more types of operators are described on the right side according to the order of operations. Each operator includes a process symmetry axis and parameters as appropriate.

例えば、図11の例の場合、12TomesMが入力データであり、32#Differential,32#MaxIndex,16#LPF_1;O.861などがオペレータである。また、オペレータ中の32#,16#などが処理対称軸を示している。例えば、12TomesMは、入力データがモノラルのPCM(pulse coded modulation sound source)波形データを時間軸方向にであることを示している。48#はチャンネル軸、32#は周波数軸と音程軸、16#は時間軸を示す。オペレータ中の0.861はローパスフィルタ処理におけるパラメータであり、例えば透過させる周波数の閾値を示している。   For example, in the example of FIG. 11, 12TomesM is input data, and 32 # Differential, 32 # MaxIndex, 16 # LPF_1; O.861 and the like are operators. In addition, 32 #, 16 #, etc. in the operator indicate processing symmetry axes. For example, 12TomesM indicates that the input data is monaural PCM (pulse coded modulation sound source) waveform data in the time axis direction. 48 # indicates a channel axis, 32 # indicates a frequency axis and a pitch axis, and 16 # indicates a time axis. 0.861 in the operator is a parameter in the low-pass filter process, and indicates, for example, a threshold value of the frequency to be transmitted.

図10に戻る。ステップS23において、低レベル特徴量抽出式リスト生成部21は、生成するリストNの低レベル特徴量抽出式Mの入力データをランダムに決定する。   Returning to FIG. In step S23, the low-level feature quantity extraction formula list creation unit 21 randomly determines input data of the low-level feature quantity extraction formula M of the list N to be generated.

入力データの種類としては、例えば図12に示すWav,12Tones,Chord,Keyなどが考えられる。入力データであるWAVは、図13に示すようなPCM波形データであり、保有次元は時間軸とチャンネル軸である。入力データである12Tonesは、PCM波形データを時間軸に沿って音程毎に解析したものであり、保有次元は時間軸と音程軸である。入力データであるChordは、図14に示すような楽曲のコード進行(C,C#,D,・・・,Bm)を示すデータであり、保有次元は時間軸と音程軸である。入力データであるKeyは、楽曲のキー(C,C#,D,・・・,B)を示すデータであり、保有次元は時間軸と音程軸である。   As the type of input data, for example, Wav, 12Tones, Chord, Key, etc. shown in FIG. 12 can be considered. WAV as input data is PCM waveform data as shown in FIG. 13, and possession dimensions are a time axis and a channel axis. 12Tones as input data is obtained by analyzing PCM waveform data for each pitch along the time axis, and possession dimensions are the time axis and the pitch axis. Chord as input data is data indicating the chord progression (C, C #, D,..., Bm) of the music as shown in FIG. 14, and the possession dimensions are a time axis and a pitch axis. Key, which is input data, is data indicating a music key (C, C #, D,..., B), and possession dimensions are a time axis and a pitch axis.

図10に戻る。ステップS24において、低レベル特徴量抽出式リスト生成部21は、生成するリストNの低レベル特徴量抽出式Mの処理対称軸とパラメータをランダムに1つ決定する。パラメータの種類としては、平均値(Mean)、高速フーリエ変換(FFT)、標準偏差(StDev)、出現率(Ratio)、ローパスフィルタ(LPF)、ハイパスフィルタ(HPF)、絶対値(ABS)、微分(Differential)、最大値(MaxIndex)、不偏分散(UVariance)などが考えられる。なお、決定されたオペレータによっては処理対称軸が固定されていることがあるので、その場合、パラメータに固定されている処理対称軸を採用する。また、パラメータを必要とするオペレータが決定された場合、パラメータもランダムまたは予め設定されている値に決定する。   Returning to FIG. In step S24, the low-level feature quantity extraction formula list generation unit 21 randomly determines one processing symmetry axis and one parameter of the low-level feature quantity extraction formula M of the list N to be generated. Parameter types include mean (Mean), fast Fourier transform (FFT), standard deviation (StDev), appearance rate (Ratio), low pass filter (LPF), high pass filter (HPF), absolute value (ABS), differentiation (Differential), maximum value (MaxIndex), unbiased dispersion (UVariance), etc. are conceivable. Depending on the determined operator, the process symmetry axis may be fixed. In this case, the process symmetry axis fixed to the parameter is adopted. When an operator who needs a parameter is determined, the parameter is also determined to be a random value or a preset value.

ステップS25において、低レベル特徴量抽出式リスト生成部21は、現時点で生成されているリストNの低レベル特徴量抽出式Mの演算結果がスカラ(1次元)であるか、または次元数が所定の値(例えば、1または2程度の小さい数)以下であるか否かを判定し、否と判定した場合、ステップS24の処理に戻ってオペレータを1つ追加する。そして、図16に示すように演算結果の保有次元数が少なくなり、ステップS25において、リストNの低レベル特徴量抽出式Mの演算結果がスカラであるか、または次元数が所定の値(例えば、1または2程度の小さい数)以下であると判定された場合、処理はステップS26に進む。   In step S25, the low-level feature quantity extraction formula list generation unit 21 determines whether the calculation result of the low-level feature quantity extraction formula M of the list N currently generated is a scalar (one dimension) or has a predetermined number of dimensions. It is determined whether or not it is equal to or less than the value (for example, a small number of about 1 or 2), and if it is determined to be no, the process returns to step S24 to add one operator. Then, as shown in FIG. 16, the number of retained dimensions of the operation result decreases, and in step S25, the operation result of the low-level feature quantity extraction formula M in the list N is a scalar, or the number of dimensions is a predetermined value (for example, If it is determined that the number is less than or equal to 1 or 2), the process proceeds to step S26.

ステップS26において、制御部27は、式ループパラメータMが最大値mよりも小さいか否かを判定し、式ループパラメータMが最大値mよりも小さい場合、式ループパラメータMを1だけインクリメントして処理をステップS23に戻す。反対に、式ループパラメータMが最大値mよりも小さくない場合(式ループパラメータMが最大値mと同値の場合)、式ループを抜けて処理をステップS27に進める。ここまでの処理により、低レベル特徴量抽出式リストが1個生成されたことになる。   In step S26, the control unit 27 determines whether or not the equation loop parameter M is smaller than the maximum value m. If the equation loop parameter M is smaller than the maximum value m, the control unit 27 increments the equation loop parameter M by 1. The process returns to step S23. On the other hand, if the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S27. Through the processing up to this point, one low-level feature quantity extraction formula list is generated.

ステップS27において、制御部27は、リストループパラメータNが最大値nよりも小さいか否かを判定し、リストループパラメータNが最大値nよりも小さい場合、リストループパラメータNを1だけインクリメントして処理をステップS22に戻す。反対に、リストループパラメータNが最大値nよりも小さくない場合(リストループパラメータNが最大値nと同値の場合)、リストループを抜けて第1世代リストランダム生成処理を終了する。ここまでの処理により、第1世代の低レベル特徴量抽出式リストがn個生成されたことになる。   In step S27, the control unit 27 determines whether or not the list loop parameter N is smaller than the maximum value n. If the list loop parameter N is smaller than the maximum value n, the list loop parameter N is incremented by 1. The process returns to step S22. On the other hand, when the list loop parameter N is not smaller than the maximum value n (when the list loop parameter N is the same value as the maximum value n), the process exits the list loop and ends the first generation list random generation process. As a result of the processing so far, n first-generation low-level feature quantity extraction formula lists are generated.

次に、図9のステップS13の処理(次世代リストジェネティック生成処理)について、図17を参照して説明する。ステップS31において、低レベル特徴量抽出式リスト生成部21は、選択数ns、交差数nx、突然変異数nmをランダムに決定する。ただし、選択数ns、交差数nx、突然変異数nmの和はnとする。なお、選択数ns、交差数nx、突然変異数nmは予め設定した定数を採用してもよい。   Next, the process of step S13 in FIG. 9 (next-generation list genetic generation process) will be described with reference to FIG. In step S31, the low-level feature quantity extraction formula list creation unit 21 randomly determines the selection number ns, the intersection number nx, and the mutation number nm. However, the sum of the selection number ns, the crossing number nx, and the mutation number nm is n. In addition, you may employ | adopt the preset constant for the selection number ns, the crossing number nx, and the mutation number nm.

ステップS32において、低レベル特徴量抽出式リスト生成部21は、決定した選択数nsに基づいて、ns個の低レベル特徴量抽出式リストを生成する。ステップS33において、低レベル特徴量抽出式リスト生成部21は、決定した交差数nxに基づいて、nx個の低レベル特徴量抽出式リストを生成する。ステップS34において、低レベル特徴量抽出式リスト生成部21は、決定した突然変異数nmに基づいて、nm個の低レベル特徴量抽出式リストを生成する。   In step S32, the low-level feature quantity extraction formula list generation unit 21 generates ns low-level feature quantity extraction formula lists based on the determined selection number ns. In step S33, the low level feature quantity extraction formula list generation unit 21 generates nx low level feature quantity extraction formula lists based on the determined number of intersections nx. In step S34, the low-level feature quantity extraction formula list creation unit 21 creates nm low-level feature quantity extraction formula lists based on the determined number of mutations nm.

ステップS32の選択生成処理について、図18のフローチャートを参照して詳述する。この選択生成処理では、次世代のn個の低レベル特徴量抽出式リストのうちの選択数ns個が生成される。   The selection generation process in step S32 will be described in detail with reference to the flowchart in FIG. In this selection generation process, the selection number ns out of the next-generation n low-level feature quantity extraction formula lists is generated.

ステップS41において、低レベル特徴量抽出式リスト生成部21は、前世代(1世代前)のn個の低レベル特徴量抽出式リストを、高レベル特徴量抽出式学習部25から入力された高レベル特徴量抽出式の推定精度の平均値が高い順に並び替える。そして、ステップS32において、低レベル特徴量抽出式リスト生成部21は、並び替えた前世代のn個の低レベル特徴量抽出式リストのうち、上位ns個を次世代の低レベル特徴量抽出式リストとして採用する。以上で選択生成処理は終了される。   In step S <b> 41, the low level feature quantity extraction formula list generation unit 21 stores the n low level feature quantity extraction formula lists of the previous generation (one generation before) from the high level feature quantity extraction formula learning unit 25. The level feature quantity extraction formulas are rearranged in descending order of the average accuracy of estimation accuracy. In step S32, the low-level feature quantity extraction formula list generation unit 21 selects the next ns low-level feature quantity extraction formulas from the rearranged n low-level feature quantity extraction formula lists of the previous generation. Adopt as a list. The selection generation process is thus completed.

図17のステップS33の交差生成処理について、図19のフローチャートを参照して説明する。この交差生成処理では、次世代のn個の低レベル特徴量抽出式リストのうちの交差数nx個が生成される。   The intersection generation process in step S33 in FIG. 17 will be described with reference to the flowchart in FIG. In this intersection generation process, the number of intersections nx out of the next-generation n low-level feature quantity extraction formula lists is generated.

ステップS51において、制御部27は、交差ループパラメータNXを1に初期化して交差ループを開始する。なお、交差ループは、交差数nxだけ繰り返される。   In step S51, the control unit 27 initializes the intersecting loop parameter NX to 1 and starts the intersecting loop. Note that the intersection loop is repeated by the number of intersections nx.

ステップS52において、低レベル特徴量抽出式リスト生成部21は、前世代の低レベル特徴量抽出式リストから、高レベル特徴量抽出式学習部25から入力された高レベル特徴量抽出式の推定精度の平均値が高い方のものが優先的に選択されるように重み付けをした後、ランダムに2個の低レベル特徴量抽出式リストA,Bを選択する。なお、ここでの選択は、上述した選択生成処理で選択されたns個の低レベル特徴量抽出式リストを選択候補から除外してもよいし、選択候補に残しておいてもよい。   In step S52, the low level feature quantity extraction formula list generation unit 21 estimates the accuracy of the high level feature quantity extraction formula input from the high level feature quantity extraction formula learning unit 25 from the previous generation low level feature quantity extraction formula list. Are weighted so that the one with the higher average value is preferentially selected, and then two low-level feature quantity extraction formula lists A and B are selected at random. In this selection, the ns low-level feature quantity extraction formula lists selected in the selection generation process described above may be excluded from selection candidates, or may be left as selection candidates.

ステップS53において、制御部27は、式ループパラメータMを1に初期化して式ループを開始する。なお、式ループは、1個の低レベル特徴量抽出式リストに含まれる式数mだけ繰り返される。   In step S53, the control unit 27 initializes the expression loop parameter M to 1 and starts an expression loop. The expression loop is repeated for the number m of expressions included in one low-level feature quantity extraction expression list.

ステップS54において、低レベル特徴量抽出式リスト生成部21は、低レベル特徴量抽出式リストA,Bに含まれる2m本の低レベル特徴量抽出式リストから、高レベル特徴量抽出式学習部25から入力された高レベル特徴量抽出式における寄与率が高い方のものが優先的に選択されるように重み付けをした後、ランダムに1本の低レベル特徴量抽出式を選択して次世代の低レベル特徴量抽出式リストに追加する。   In step S54, the low level feature quantity extraction formula list generator 21 generates a high level feature quantity extraction formula learning unit 25 from the 2m low level feature quantity extraction formula lists included in the low level feature quantity extraction formula lists A and B. After weighting so that the one with the higher contribution rate in the high-level feature quantity extraction formula input from is preferentially selected, one low-level feature quantity extraction formula is randomly selected to generate the next generation Add to low level feature quantity extraction formula list.

ステップS55において、制御部27は、式ループパラメータMが最大値mよりも小さいか否かを判定し、式ループパラメータMが最大値mよりも小さい場合、式ループパラメータMを1だけインクリメントして処理をステップS54に戻す。反対に、式ループパラメータMが最大値mよりも小さくない場合(式ループパラメータMが最大値mと同値の場合)、式ループを抜けて処理をステップS56に進める。ここまでの処理により、低レベル特徴量抽出式リストが1個生成されたことになる。   In step S55, the control unit 27 determines whether or not the equation loop parameter M is smaller than the maximum value m. If the equation loop parameter M is smaller than the maximum value m, the control unit 27 increments the equation loop parameter M by 1. The process returns to step S54. On the other hand, when the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S56. Through the processing up to this point, one low-level feature quantity extraction formula list is generated.

ステップS56において、制御部27は、交差ループパラメータNXが最大値nxよりも小さいか否かを判定し、交差ループパラメータNXが最大値nxよりも小さい場合、交差ループパラメータNXを1だけインクリメントして処理をステップS52に戻す。反対に、交差ループパラメータNXが最大値nxよりも小さくない場合(交差ループパラメータNXが最大値nxと同値の場合)、交差ループを抜けて交差生成処理を終了する。ここまでの処理により、交差数nx個の低レベル特徴量抽出式リストが生成されたことになる。   In step S56, the control unit 27 determines whether or not the cross loop parameter NX is smaller than the maximum value nx. If the cross loop parameter NX is smaller than the maximum value nx, the cross loop parameter NX is incremented by 1. The process returns to step S52. On the other hand, when the intersection loop parameter NX is not smaller than the maximum value nx (when the intersection loop parameter NX is the same value as the maximum value nx), the intersection generation process is terminated through the intersection loop. Through the processing so far, a low-level feature quantity extraction formula list having nx intersections is generated.

図17のステップS34の突然変異生成処理について、図20のフローチャートを参照して説明する。この突然変異生成処理では、次世代のn個の低レベル特徴量抽出式リストのうちの突然変異数nm個が生成される。   The mutation generation process in step S34 in FIG. 17 will be described with reference to the flowchart in FIG. In this mutation generation process, the number of mutations nm of the next generation n low level feature quantity extraction formula lists is generated.

ステップS61において、制御部27は、突然変異ループパラメータNMを1に初期化して突然変異ループを開始する。なお、突然変異ループは、突然変異数nmだけ繰り返される。   In step S61, the control unit 27 initializes the mutation loop parameter NM to 1 and starts a mutation loop. The mutation loop is repeated for the number of mutations nm.

ステップS62において、低レベル特徴量抽出式リスト生成部21は、前世代の低レベル特徴量抽出式リストから、高レベル特徴量抽出式学習部25から入力された高レベル特徴量抽出式の推定精度の平均値が高い方のものが優先的に選択されるように重み付けをした後、ランダムに1個の低レベル特徴量抽出式リストAを選択する。なお、ここでの選択は、上述した選択生成処理で選択されたns個の低レベル特徴量抽出式リストを選択候補から除外してもよいし、選択候補に残しておいてもよい。また、上述した交差生成処理のステップS52の処理で選択された低レベル特徴量抽出式リストを選択候補から除外してもよいし、選択候補に残しておいてもよい。   In step S62, the low level feature quantity extraction formula list generation unit 21 estimates the accuracy of the high level feature quantity extraction formula input from the high level feature quantity extraction formula learning unit 25 from the previous generation low level feature quantity extraction formula list. Are weighted so that the one with the higher average value is preferentially selected, and one low-level feature quantity extraction formula list A is selected at random. In this selection, the ns low-level feature quantity extraction formula lists selected in the selection generation process described above may be excluded from selection candidates, or may be left as selection candidates. Further, the low-level feature quantity extraction formula list selected in the process of step S52 of the intersection generation process described above may be excluded from the selection candidates, or may be left as a selection candidate.

ステップS63において、制御部27は、式ループパラメータMを1に初期化して式ループを開始する。なお、式ループは、1個の低レベル特徴量抽出式リストに含まれる式数mだけ繰り返される。   In step S63, the control unit 27 initializes the expression loop parameter M to 1 and starts an expression loop. The expression loop is repeated for the number m of expressions included in one low-level feature quantity extraction expression list.

ステップS64において、低レベル特徴量抽出式リスト生成部21は、低レベル特徴量抽出式リストAに含まれるm本の低レベル特徴量抽出式のうちのM番目のものに注目して、M番目の低レベル特徴量抽出式の演算結果である低レベル特徴量の寄与率が、低レベル特徴量抽出式リストAに含まれる他の低レベル特徴量抽出式の演算結果である低レベル特徴量の寄与率に比較して低いか否かを判定する。具体的には、例えば低レベル特徴量抽出式リストAに含まれるm本の低レベル特徴量抽出式のうち、演算結果である低レベル特徴量の寄与率が低い方の所定の順番までに属するか否かを判定する。   In step S64, the low-level feature quantity extraction formula list creation unit 21 pays attention to the Mth one of the m low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A. The low-level feature quantity contribution rate of the low-level feature quantity extraction formulas of the low-level feature quantity extraction formulas of the low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A is It is determined whether or not the contribution rate is low. Specifically, for example, of m low-level feature quantity extraction formulas included in the low-level feature quantity extraction formula list A, it belongs to a predetermined order in which the contribution rate of the low-level feature quantity as the calculation result is lower. It is determined whether or not.

ステップS64において、M番目の低レベル特徴量抽出式の演算結果である低レベル特徴量の寄与率が他よりも低いと判定した場合、処理はステップS65に進み、低レベル特徴量抽出式リスト生成部21は、M番目の低レベル特徴量抽出式をランダムに変形して次世代の低レベル特徴量抽出式リストに追加する。   If it is determined in step S64 that the contribution rate of the low-level feature quantity, which is the calculation result of the Mth low-level feature quantity extraction formula, is lower than the others, the process proceeds to step S65, and the low-level feature quantity extraction formula list generation is performed. The unit 21 randomly modifies the Mth low-level feature quantity extraction formula and adds it to the next-generation low-level feature quantity extraction formula list.

反対に、ステップS64において、M番目の低レベル特徴量抽出式の演算結果である低レベル特徴量の寄与率が他よりも低くないと判定した場合、処理はステップS66に進み、低レベル特徴量抽出式リスト生成部21は、M番目の低レベル特徴量抽出式をそのまま次世代の低レベル特徴量抽出式リストに追加する。   On the other hand, if it is determined in step S64 that the contribution rate of the low-level feature value, which is the calculation result of the Mth low-level feature value extraction formula, is not lower than the others, the process proceeds to step S66, where the low-level feature value is determined. The extraction formula list generation unit 21 adds the Mth low-level feature quantity extraction formula as it is to the next-generation low-level feature quantity extraction formula list.

ステップS67において、制御部27は、式ループパラメータMが最大値mよりも小さいか否かを判定し、式ループパラメータMが最大値mよりも小さい場合、式ループパラメータMを1だけインクリメントして処理をステップS64に戻す。反対に、式ループパラメータMが最大値mよりも小さくない場合(式ループパラメータMが最大値mと同値の場合)、式ループを抜けて処理をステップS68に進める。ここまでの処理により、低レベル特徴量抽出式リストが1個生成されたことになる。   In step S67, the control unit 27 determines whether or not the equation loop parameter M is smaller than the maximum value m. If the equation loop parameter M is smaller than the maximum value m, the control unit 27 increments the equation loop parameter M by 1. The process returns to step S64. Conversely, if the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S68. Through the processing up to this point, one low-level feature quantity extraction formula list is generated.

ステップS68において、制御部27は、突然変異ループパラメータNMが最大値nmよりも小さいか否かを判定し、突然変異ループパラメータNMが最大値nmよりも小さい場合、突然変異ループパラメータNMを1だけインクリメントして処理をステップS62に戻す。反対に、突然変異ループパラメータNMが最大値nmよりも小さくない場合(突然変異ループパラメータNMが最大値nmと同値の場合)、突然変異ループを抜けて突然変異生成処理を終了する。ここまでの処理により、突然変異数nm個の低レベル特徴量抽出式リストが生成されたことになる。   In step S68, the control unit 27 determines whether or not the mutation loop parameter NM is smaller than the maximum value nm, and when the mutation loop parameter NM is smaller than the maximum value nm, the mutation loop parameter NM is set to 1. Increment and return to step S62. On the other hand, when the mutation loop parameter NM is not smaller than the maximum value nm (when the mutation loop parameter NM is equal to the maximum value nm), the mutation loop is exited and the mutation generation process is terminated. Through the processing so far, a low-level feature quantity extraction formula list having the number of mutations of nm is generated.

以上説明した次世代リストジェネティック生成処理によれば、前世代の低レベル特徴量抽出式リストに対応する推定精度が高いもの、低レベル特徴量抽出式に対応する寄与率が高いものは次世代に継承され、推定精度や寄与率が低いものは次世代に継承されず淘汰されることになる。したがって、世代が進むに連れて、低レベル特徴量抽出式リストに対応する推定精度は向上し、低レベル特徴量抽出式に対応する寄与率も向上することが期待できる。   According to the next-generation list genetic generation processing described above, those with high estimation accuracy corresponding to the previous generation low-level feature quantity extraction formula list and those with a high contribution rate corresponding to the low-level feature quantity extraction formula will be passed on to the next generation. Those that are inherited and whose estimation accuracy and contribution rate are low are not inherited by the next generation and will be deceived. Therefore, as the generation progresses, it can be expected that the estimation accuracy corresponding to the low level feature quantity extraction formula list is improved and the contribution rate corresponding to the low level feature quantity extraction formula is also improved.

図7に戻る。ステップS3において、低レベル特徴量演算部24は、低レベル特徴量抽出式リスト生成部21から入力されたn個の低レベル特徴量抽出式リストに曲C1乃至Clのl曲分の入力データ(コンテンツデータやメタデータ)を代入して低レベル特徴量を演算する。なお、ここで入力されるl曲分の入力データは、それぞれk項目の教師データ(対応する高レベル特徴量)が予め得られているものを使用する。例えば、低レベル特徴量演算部24は、図21Aに示されるような保有次元が音程軸と時間軸である入力データに対して#16Meanのオペレータに相当する演算を実行した場合、図21Bに示すように時間軸を処理対象軸にして各音程の値の平均値が算出される。   Returning to FIG. In step S3, the low level feature quantity computing unit 24 adds the input data (1 pieces of music C1 to Cl) to the n low level feature quantity extraction formula lists input from the low level feature quantity extraction formula list creation unit 21. Substituting content data and metadata), the low-level feature amount is calculated. Note that the input data for l pieces of music input here uses k items of teacher data (corresponding high-level feature values) obtained in advance. For example, when the low level feature amount calculation unit 24 performs the calculation corresponding to the # 16Mean operator on the input data whose holding dimension is the pitch axis and the time axis as shown in FIG. In this way, the average value of the pitch values is calculated with the time axis as the processing target axis.

そして演算結果として得られる図22に示すようなn組の各入力データに対応するm種類の低レベル特徴量を高レベル特徴量抽出式学習部25に出力する。   Then, m types of low-level feature amounts corresponding to n sets of input data as shown in FIG. 22 obtained as a calculation result are output to the high-level feature amount extraction formula learning unit 25.

図7に戻る。ステップS4において、高レベル特徴量抽出式学習部25は、低レベル特徴量演算部24から入力された各入力データにそれぞれ対応して演算されたn組の低レベル特徴量と、対応する教師データ(図23に示すように、各入力データ(楽曲C1乃至Cl)にそれぞれ対応するk種類の高レベル特徴量)に基づいて、1組がk種類の高レベル特徴量抽出式の組をn組、学習によって推定する(生成する)。また、各高レベル特徴量抽出式の推定精度と各高レベル特徴量抽出式における各低レベル特徴量の寄与率を算出して低レベル特徴量抽出式リスト生成部21に出力する。   Returning to FIG. In step S <b> 4, the high level feature quantity extraction formula learning unit 25 performs n sets of low level feature quantities calculated corresponding to each input data input from the low level feature quantity calculation unit 24, and corresponding teacher data. (As shown in FIG. 23, based on the k types of high-level feature values respectively corresponding to the input data (music pieces C1 to Cl)), one set includes n sets of k types of high-level feature value extraction formulas. Estimate (generate) by learning. Further, the estimation accuracy of each high level feature quantity extraction formula and the contribution rate of each low level feature quantity in each high level feature quantity extraction formula are calculated and output to the low level feature quantity extraction formula list generation unit 21.

ステップS4における高レベル特徴量抽出式学習処理について、図24のフローチャートを参照して詳述する。   The high level feature quantity extraction formula learning process in step S4 will be described in detail with reference to the flowchart of FIG.

ステップS71において、制御部27は、リストループパラメータNを1に初期化してリストループを開始する。なお、リストループは、予め設定されているリスト数nだけ繰り返される。ステップS72において、制御部27は、教師データループパラメータKを1に初期化して教師データループを開始する。なお、教師データループは、予め設定されている教師データの種類数kだけ繰り返される。   In step S71, the control unit 27 initializes the list loop parameter N to 1 and starts a list loop. The list loop is repeated for a preset number n of lists. In step S72, the control unit 27 initializes the teacher data loop parameter K to 1 and starts a teacher data loop. Note that the teacher data loop is repeated for a preset number k of types of teacher data.

ステップS73において、制御部27は、アルゴリズムループパラメータAを1に初期化してアルゴリズムループを開始する。なお、アルゴリズムループは、学習アルゴリズムの種類数aだけ繰り返される。   In step S73, the control unit 27 initializes the algorithm loop parameter A to 1 and starts an algorithm loop. Note that the algorithm loop is repeated for the number a of types of learning algorithms.

適用する学習アルゴリズムとしては、例えば、Regression(回帰解析)、Classify(クラス分類)、SVM(Support Vector Machine)、およびGP(Genetic Programming)を挙げることができる。   Examples of the learning algorithm to be applied include Regression (regression analysis), Classify (class classification), SVM (Support Vector Machine), and GP (Genetic Programming).

Regressionに属する学習アルゴリズムとしては、図25に示すように、教師データと低レベル特徴量が線形の関係にあるとの仮定に基づいて教師データとYの2乗誤差が最小となるようにパラメータbnを学習するもの、および、図26に示すように、教師データと低レベル特徴量が非線形の関係にあるとの仮定に基づいて教師データとYの2乗誤差が最小となるようにパラメータbnmを学習するものを挙げることができる。 As a learning algorithm belonging to Regression, as shown in FIG. 25, the parameter b is set so that the square error between the teacher data and Y is minimized based on the assumption that the teacher data and the low-level feature amount are in a linear relationship. The parameter b so that the square error between the teacher data and Y is minimized based on the assumption that n is learned and, as shown in FIG. 26, the teacher data and the low-level feature quantity are in a non-linear relationship. Mention what nm learns.

Classifyに属する学習アルゴリズムとしては、図27に示すように、各クラス(同図の場合、男性ボーカルクラスと女性ボーカルクラス)のそれぞれの中心からのユークリッド距離dを算出してユークリッド距離dが最短のクラスに分類するもの、図28に示すように、各クラス(同図の場合、男性ボーカルクラスと女性ボーカルクラス)の平均ベクトルとの相関correlを算出して相関correlが最大のクラスに分類するもの、図29に示すように、各クラス(同図の場合、男性ボーカルクラスと女性ボーカルクラス)のそれぞれの中心からのマハラノビス距離dを算出してマハラノビス距離dが最短のクラスに分類するもの、図30Aに示すように、各クラス群(同図の場合、男性ボーカルクラス群と女性ボーカルクラス群)の分布を複数のクラスで表現し、それぞれのクラス群の中心からのユークリッド距離dを算出してユークリッド距離dが最短のクラスに分類するもの、および、図30Bに示すように、各クラス群(同図の場合、男性ボーカルクラス群と女性ボーカルクラス群)の分布を複数のクラスで表現し、それぞれのクラス群の中心からのマハラノビス距離dを算出してマハラノビス距離dが最短のクラスに分類するものを挙げることができる。   As a learning algorithm belonging to Classify, as shown in FIG. 27, the Euclidean distance d from the center of each class (in this case, male vocal class and female vocal class) is calculated, and the Euclidean distance d is the shortest. What is classified into classes, and as shown in FIG. 28, the correlation correl with the average vector of each class (in the case of the figure, male vocal class and female vocal class) is calculated, and the correlation correl is classified into the largest class 29, as shown in FIG. 29, the Mahalanobis distance d from the center of each class (in the case of FIG. 29, male vocal class and female vocal class) is calculated and classified into the class having the shortest Mahalanobis distance d. As shown in 30A, the distribution of each class group (in the figure, male vocal class group and female vocal class group) is divided into a plurality of classes. And classifying each class group into a class having the shortest Euclidean distance d by calculating the Euclidean distance d from the center of each class group, and, as shown in FIG. The class group and the female vocal class group) are expressed by a plurality of classes, and the Mahalanobis distance d from the center of each class group is calculated to classify the class into the class having the shortest Mahalanobis distance d.

SVMに属する学習アルゴリズムとしては、図31に示すように、各クラス(同図の場合、男性ボーカルクラスと女性ボーカルクラス)の境界面をサポートベクトルで表現し、分離面と境界付近のベクトルとの距離(マージン)が最大になるようにパラメータbnmを学習するものを挙げることができる。   As a learning algorithm belonging to SVM, as shown in FIG. 31, the boundary surface of each class (in this case, male vocal class and female vocal class) is expressed by a support vector, and the separation surface and a vector near the boundary are represented. An example is one in which the parameter bnm is learned so that the distance (margin) is maximized.

GPに属する学習アルゴリズムとしては、図32に示すように、低レベル特徴量を組み合わせた式をGPで生成するもの、図33Aに示すように、低レベル特徴量を組み合わせた式を交差させるもの、および、図33Bに示すように、低レベル特徴量を組み合わせた式を突然変異させるものを挙げることができる。   As a learning algorithm belonging to GP, as shown in FIG. 32, an expression that combines low-level feature values is generated by GP, as shown in FIG. 33A, an expression that combines low-level feature values intersects, Further, as shown in FIG. 33B, there can be mentioned a method of mutating an expression combining low-level feature quantities.

例えば、上述した全ての学習アルゴリズムを用いる場合、学習アルゴリズムの種類数aは11とされる。   For example, when all the learning algorithms described above are used, the number of learning algorithm types a is 11.

図24に戻る。ステップS74において、制御部27は、クロスバリデーションループパラメータCを1に初期化してクロスバリデーションループを開始する。なお、クロスバリデーションループは、予め設定されているクロスバリデーション回数cだけ繰り返される。   Returning to FIG. In step S74, the control unit 27 initializes the cross validation loop parameter C to 1 and starts the cross validation loop. The cross-validation loop is repeated for a preset number of cross-validations c.

ステップS75において、高レベル特徴量抽出式学習部25は、k種類の教師データのうち、K番目の種類のl曲分の教師データ(高レベル特徴量)をランダムに学習用と評価用に2分割する(クロスバリデーション)。以下、教師データのうち、学習用に分類されたものを学習用データ、評価用に分類されたものを評価用データと称する。   In step S75, the high-level feature quantity extraction formula learning unit 25 randomly selects the teacher data (high-level feature quantity) for the K-th type of l music among k types of teacher data for learning and evaluation. Divide (cross validation). Hereinafter, among the teacher data, data classified for learning is referred to as learning data, and data classified for evaluation is referred to as evaluation data.

ステップS76において、高レベル特徴量抽出式学習部25は、N番目の低レベル特徴量抽出式リストを用いて演算されたm種類の低レベル特徴量と学習用データとをa番目の学習アルゴリズムに適用して高レベル特徴量抽出式を学習により推定する。この学習に際しては、演算量の削減と過学習(オーバフィッティング)を抑止するために、m種類の低レベル特徴量のうちのいくつかをジェネティックに選択して使用する。   In step S76, the high-level feature quantity extraction formula learning unit 25 uses the m types of low-level feature quantities calculated using the Nth low-level feature quantity extraction formula list and the learning data as the a-th learning algorithm. Apply and estimate the high-level feature quantity extraction formula by learning. In this learning, some of m types of low-level feature quantities are genetically selected and used in order to reduce the amount of computation and suppress overlearning (overfitting).

この低レベル特徴量を選択するときの評価値には、関数である情報量基準AIC(Akaike Information Criterion)、または情報量基準BIC(Bayesian Information Criterion)を用いる。情報量基準AICおよびBICは学習モデル(いまの場合、選択されている低レベル特徴量)の選択基準として用いるものであり、その値が小さいほど学習モデルほど良い(評価が高い)とされる。   An information amount criterion AIC (Akaike Information Criterion) or information amount criterion BIC (Bayesian Information Criterion), which is a function, is used as an evaluation value when selecting this low-level feature amount. The information amount criteria AIC and BIC are used as selection criteria for the learning model (in this case, the selected low-level feature value). The smaller the value, the better the learning model (the higher the evaluation).

AICは次式のように表記される。
AIC=−2×最大対数尤度+2×自由パラメータ数
AIC is expressed as:
AIC = -2 x maximum log likelihood + 2 x number of free parameters

例えば、学習アルゴリズムにRegression(線形)が採用されている場合(図25の場合)、自由パラメータ数=n+1、対数尤度=−0.5×学習用データ数×((log2π)+1+log(平均2乗誤差))であるので、
AIC=学習用データ数×((log2π)+1+log(平均2乗誤差))+2×(n+1)
となる。
For example, when Regression (linear) is adopted as the learning algorithm (in the case of FIG. 25), the number of free parameters = n + 1, the log likelihood = −0.5 × the number of learning data × ((log 2π) + 1 + log (average 2) Error))),
AIC = number of learning data × ((log 2π) + 1 + log (mean square error)) + 2 × (n + 1)
It becomes.

BICは次式のように表記される。
BIC=−2×最大対数尤度+log(学習用データ数)×自由パラメータ数
例えば、学習アルゴリズムにRegression(線形)が採用されている場合(図25の場合)、 BIC=学習用データ数×((log2π)+1+log(平均2乗誤差))+log(学習用データ数)×(n+1)
となる。BICはAICと比較して、学習用データ数が増加してもその値が増加し難いことが特徴である。
BIC is expressed as:
BIC = −2 × maximum logarithmic likelihood + log (number of learning data) × number of free parameters For example, when Regression (linear) is adopted as the learning algorithm (in the case of FIG. 25), BIC = number of learning data × ( (Log 2π) + 1 + log (mean square error)) + log (number of learning data) × (n + 1)
It becomes. Compared with AIC, BIC is characterized in that its value is hard to increase even if the number of learning data increases.

ここで、ステップS76の学習アルゴリズムに基づく学習処理について、図34を参照して説明する。この学習処理に際しては、上述したように、演算量の削減と過学習(オーバフィッティング)を抑止するために、m種類の低レベル特徴量のうちのいくつかをジェネティックに選択して使用する。   Here, the learning process based on the learning algorithm in step S76 will be described with reference to FIG. In this learning process, as described above, some of the m types of low-level feature quantities are genetically selected and used in order to reduce the amount of computation and suppress overlearning (overfitting).

ステップS91において、高レベル特徴量抽出式学習部25は、m種類の低レベル特徴量のうち、選択するもの(学習に使用するもの)をランダムに抽出した初期集団をp組生成する。   In step S91, the high-level feature quantity extraction formula learning unit 25 generates p sets of initial groups obtained by randomly extracting selected ones (used for learning) from m types of low-level feature quantities.

ステップS92において、高レベル特徴量抽出式学習部25は、ジェネティックアルゴリズム(GA:遺伝的アルゴリズム)による特徴選択ループを開始する。このGAによる特徴選択ループは、後述するステップS98において所定の条件を満たすまで繰り返される。   In step S92, the high-level feature quantity extraction formula learning unit 25 starts a feature selection loop based on a genetic algorithm (GA: genetic algorithm). This GA feature selection loop is repeated until a predetermined condition is satisfied in step S98 described later.

ステップS93において、制御部27は、初期集団ループパラメータPを1に初期化して初期集団ループを開始する。なお、初期集団ループは、ステップS91の処理で生成された低レベル特徴量の初期集団数pだけ繰り返される。   In step S93, the control unit 27 initializes the initial collective loop parameter P to 1 and starts an initial collective loop. Note that the initial group loop is repeated for the initial group number p of the low-level feature values generated in the process of step S91.

ステップS94において、高レベル特徴量抽出式学習部25は、P番目の初期集団に含まれる低レベル特徴量と教師データのうちの学習用データとを用い、a番目の学習アルゴリズムに適用して高レベル特徴量抽出式を学習により推定する。   In step S94, the high-level feature quantity extraction formula learning unit 25 uses the low-level feature quantity included in the P-th initial group and the learning data of the teacher data and applies it to the a-th learning algorithm. The level feature quantity extraction formula is estimated by learning.

ステップS95において、高レベル特徴量抽出式学習部25は、ステップS94の処理結果として得られた高レベル特徴量の評価値として、情報量基準AICまたはBICを演算する。ステップS96において、制御部27は、初期集団ループパラメータPが最大値pよりも小さいか否かを判定し、初期集団ループパラメータPが最大値pよりも小さい場合、初期集団ループパラメータPを1だけインクリメントして処理をステップS94に戻す。反対に、初期集団ループパラメータPが最大値pよりも小さくない場合(初期集団ループパラメータPが最大値pと同値の場合)、初期集団ループを抜けて処理をステップS97に進める。この初期集団ループにより、各初期集団に基づいて学習された高レベル特徴量抽出式の評価値として情報基準量を得ることができる。   In step S95, the high level feature quantity extraction formula learning unit 25 calculates the information amount reference AIC or BIC as the evaluation value of the high level feature quantity obtained as the processing result of step S94. In step S96, the control unit 27 determines whether or not the initial collective loop parameter P is smaller than the maximum value p. When the initial collective loop parameter P is smaller than the maximum value p, the initial collective loop parameter P is set to 1. Increment and return to step S94. Conversely, if the initial collective loop parameter P is not smaller than the maximum value p (if the initial collective loop parameter P is the same value as the maximum value p), the process exits the initial collective loop and proceeds to step S97. By this initial group loop, an information reference amount can be obtained as an evaluation value of the high-level feature amount extraction formula learned based on each initial group.

ステップS97において、高レベル特徴量抽出式学習部25は、学習に使用する低レベル特徴量からなるp組の初期集団を、その評価値(情報量基準)に基づいてジェネティックに更新する。具体的には、図17のステップS32乃至S34と同様に、選択、交差、突然変異によって初期集団を更新する。この更新により、当初はランダムに生成された初期集団が高レベル特徴量抽出式の評価値を向上させる学習が進められたものとなる。   In step S97, the high level feature quantity extraction formula learning unit 25 genetically updates the p group initial group of low level feature quantities used for learning based on the evaluation value (information quantity criterion). Specifically, as in steps S32 to S34 in FIG. 17, the initial population is updated by selection, intersection, and mutation. As a result of this update, learning that improves the evaluation value of the high-level feature quantity extraction formula for the initial group generated at random is advanced.

ステップS98において、制御部27は、p組の初期集団にそれぞれ対応する高レベル特徴量抽出式のうち、最も評価値の高い(情報基準量が小さい)のものの評価値が、GAによる特徴選択ループが繰り返される毎に向上している(情報基準量が減少している)間は処理をステップS93に戻す。反対に、p組の初期集団にそれぞれ対応する高レベル特徴量抽出式のうち、最も評価値の高いのものの評価値が、GAによる特徴選択ループが繰り返されても向上しなくなってきた(情報基準量が減少しなくなってきた)場合、GAによる特徴選択ループを抜け、最も評価値の高いを高レベル特徴量抽出式を後段の処理(図24のステップS77の処理)に出力する。そして、学習アルゴリズムに基づく学習処理は終了される。   In step S98, the control unit 27 determines that the evaluation value of the highest evaluation value (the information reference amount is small) among the high-level feature amount extraction formulas corresponding to the p sets of initial groups is the feature selection loop based on GA. The process returns to step S93 as long as it is improved each time is repeated (the information reference amount is decreasing). On the other hand, among the high-level feature quantity extraction formulas corresponding to each of the p groups of initial groups, the evaluation value of the highest evaluation value is no longer improved even when the GA feature selection loop is repeated (information criterion). When the amount is no longer decreased), the feature selection loop by GA is exited, and the highest evaluation value extraction formula with the highest evaluation value is output to the subsequent processing (processing in step S77 in FIG. 24). Then, the learning process based on the learning algorithm is terminated.

図24に戻る。ステップS77において、高レベル特徴量抽出式学習部25は、ステップS76の処理で得た高レベル特徴量抽出式を評価用データを用いて評価する。具体的には、得られた高レベル特徴量抽出式を用いて高レベル特徴量を演算し、評価用データとの2乗誤差を算出する。   Returning to FIG. In step S77, the high level feature quantity extraction formula learning unit 25 evaluates the high level feature quantity extraction formula obtained in the process of step S76 using the evaluation data. Specifically, a high level feature value is calculated using the obtained high level feature value extraction formula, and a square error with the evaluation data is calculated.

ステップS78において、制御部27は、クロスバリデーションループパラメータCが最大値cよりも小さいか否かを判定し、クロスバリデーションループパラメータCが最大値cよりも小さい場合、クロスバリデーションループパラメータCを1だけインクリメントして処理をステップS75に戻す。反対に、クロスバリデーションループパラメータCが最大値cよりも小さくない場合(クロスバリデーションループパラメータCが最大値cと同値の場合)、クロスバリデーションループを抜けて処理をステップS79に進める。ここまでの処理により、c本の学習結果、すなわち、高レベル特徴量抽出式が得られたことになる。このクロスバリデーションループにより、学習用データと評価用データがランダムに変換されるので、高レベル特徴量抽出式が過学習されていないことを確認することができる。   In step S78, the control unit 27 determines whether or not the cross-validation loop parameter C is smaller than the maximum value c. When the cross-validation loop parameter C is smaller than the maximum value c, the cross-validation loop parameter C is set to only 1. Increment and return to step S75. On the other hand, when the cross-validation loop parameter C is not smaller than the maximum value c (when the cross-validation loop parameter C is the same value as the maximum value c), the process passes through the cross-validation loop and proceeds to step S79. Through the processing so far, c learning results, that is, high-level feature quantity extraction formulas are obtained. Since the learning data and the evaluation data are randomly converted by the cross-validation loop, it can be confirmed that the high-level feature quantity extraction formula is not over-learned.

ステップS79において、高レベル特徴量抽出式学習部25は、クロスバリデーションループによって得られたc本の学習結果、すなわち、高レベル特徴量抽出式のうち、ステップS77の処理における評価値が最も高いものを選択する。   In step S79, the high-level feature quantity extraction formula learning unit 25 obtains the c learning results obtained by the cross-validation loop, that is, the highest evaluation value in the process of step S77 among the high-level feature quantity extraction formulas. Select.

ステップS80において、制御部27は、アルゴリズムループパラメータAが最大値aよりも小さいか否かを判定し、アルゴリズムループパラメータAが最大値aよりも小さい場合、アルゴリズムループパラメータAを1だけインクリメントして処理をステップS74に戻す。反対に、アルゴリズムループパラメータAが最大値aよりも小さくない場合(アルゴリズムループパラメータAが最大値aと同値の場合)、アルゴリズムループを抜けて処理をステップS81に進める。このアルゴリズムループにより、A種類の学習アルゴリズムによって学習されたK番目の種類の高レベル特徴量抽出式がa本得られたことになる。そこで、ステップS81において、高レベル特徴量抽出式学習部25は、アルゴリズムループによって得られたa本の学習結果、すなわち、高レベル特徴量抽出式のうち、ステップS77の処理における評価値が最も高いものを選択する。   In step S80, the control unit 27 determines whether or not the algorithm loop parameter A is smaller than the maximum value a. If the algorithm loop parameter A is smaller than the maximum value a, the algorithm loop parameter A is incremented by 1. The process returns to step S74. On the other hand, when the algorithm loop parameter A is not smaller than the maximum value a (when the algorithm loop parameter A is the same value as the maximum value a), the algorithm loop is exited and the process proceeds to step S81. As a result of this algorithm loop, a K types of high-level feature quantity extraction formulas learned by the A type of learning algorithm are obtained. Therefore, in step S81, the high level feature quantity extraction formula learning unit 25 has the highest evaluation value in the process of step S77 among the a learning results obtained by the algorithm loop, that is, the high level feature quantity extraction formula. Choose one.

ステップS82において、制御部27は、教師データループパラメータKが最大値kよりも小さいか否かを判定し、教師データループパラメータKが最大値kよりも小さい場合、教師データループパラメータKを1だけインクリメントして処理をステップS73に戻す。反対に、教師データループパラメータKが最大値kよりも小さくない場合(教師データループパラメータKが最大値kと同値の場合)、教師データループを抜けて処理をステップS83に進める。この教師データループにより、N番目の低レベル特徴量抽出式リストに対応する、k種類の高レベル特徴量抽出式が得られたことになる。   In step S82, the control unit 27 determines whether or not the teacher data loop parameter K is smaller than the maximum value k. If the teacher data loop parameter K is smaller than the maximum value k, the controller data loop parameter K is set to 1. Increment and return to step S73. On the other hand, when the teacher data loop parameter K is not smaller than the maximum value k (when the teacher data loop parameter K is the same value as the maximum value k), the teacher data loop is exited and the process proceeds to step S83. With this teacher data loop, k types of high-level feature quantity extraction formulas corresponding to the Nth low-level feature quantity extraction formula list are obtained.

ステップS83において、制御部27は、リストループパラメータNが最大値nよりも小さいか否かを判定し、リストループパラメータNが最大値nよりも小さい場合、リストループパラメータNを1だけインクリメントして処理をステップS72に戻す。反対に、リストループパラメータNが最大値nよりも小さくない場合(リストループパラメータNが最大値nと同値の場合)、リストループを抜けて処理をステップS84に進める。このリストループにより、n個の低レベル特徴量抽出式リストにそれぞれ対応する、k種類の高レベル特徴量抽出式が得られたことになる。   In step S83, the control unit 27 determines whether or not the list loop parameter N is smaller than the maximum value n. If the list loop parameter N is smaller than the maximum value n, the list loop parameter N is incremented by 1. The process returns to step S72. On the other hand, when the list loop parameter N is not smaller than the maximum value n (when the list loop parameter N is the same value as the maximum value n), the process exits the list loop and proceeds to step S84. By this list loop, k types of high-level feature quantity extraction formulas corresponding to n low-level feature quantity extraction formula lists are obtained.

ステップS84において、高レベル特徴量抽出式学習部25は、得られたn個の低レベル特徴量抽出式リストにそれぞれ対応する、k種類の高レベル特徴量抽出式の推定精度と各高レベル特徴量抽出式における各低レベル特徴量の寄与率を算出して低レベル特徴量抽出式リスト生成部21に出力する。以上で、高レベル特徴量抽出式学習処理が終了される。   In step S84, the high-level feature quantity extraction formula learning unit 25 estimates the k types of high-level feature quantity extraction formulas corresponding to the obtained n low-level feature quantity extraction formula lists, and sets each high-level feature. The contribution rate of each low level feature quantity in the quantity extraction formula is calculated and output to the low level feature quantity extraction formula list generation unit 21. This completes the high-level feature quantity extraction formula learning process.

図7に戻る。ステップS5において、制御部27は、学習ループパラメータGが最大値gよりも小さいか否かを判定し、学習ループパラメータGが最大値gよりも小さい場合、学習ループパラメータGを1だけインクリメントして処理をステップS2に戻す。反対に、学習ループパラメータGが最大値gよりも小さくない場合(学習ループパラメータGが最大値gと同値の場合)、学習ループを抜けて処理をステップS6に進める。なお、ステップS1乃至S5の学習ルールが特徴量抽出アルゴリズムの学習過程であり、これ以降のステップS6は、特徴量抽出アルゴリズムを用いた高レベル特徴量の演算のための処理である。   Returning to FIG. In step S5, the control unit 27 determines whether or not the learning loop parameter G is smaller than the maximum value g. When the learning loop parameter G is smaller than the maximum value g, the control unit 27 increments the learning loop parameter G by 1. The process returns to step S2. On the other hand, when the learning loop parameter G is not smaller than the maximum value g (when the learning loop parameter G is the same value as the maximum value g), the learning loop is exited and the process proceeds to step S6. Note that the learning rules in steps S1 to S5 are the learning process of the feature quantity extraction algorithm, and the subsequent step S6 is a process for calculating a high-level feature quantity using the feature quantity extraction algorithm.

ステップS6において、高レベル特徴量抽出式学習部25は、学習の最終世代において、n組の低レベル特徴量抽出式リストのうち、得られた高レベル特徴量の平均精度が最も高かったリストのm組の低レベル特徴量抽出式と、これに対応するk種類の高レベル特徴量抽出式を高レベル特徴量演算部26に供給する。ステップS7において、高レベル特徴量演算部26は、高レベル特徴量抽出式学習部25から供給された低レベル特徴量抽出式、高レベル特徴量抽出式のうち、最後に高レベル特徴量抽出式学習部25から供給された低レベル特徴量抽出式、高レベル特徴量抽出式を用いて高レベル特徴量を演算する。なお、ステップS7の処理については図38以降を参照して後述する。 In step S6, the high-level feature quantity extraction formula learning unit 25 selects the list having the highest average accuracy of the obtained high-level feature quantity among the n sets of low-level feature quantity extraction formula lists in the final generation of learning. The m sets of low level feature quantity extraction formulas and k types of high level feature quantity extraction formulas corresponding thereto are supplied to the high level feature quantity computation unit 26. In step S <b> 7, the high level feature quantity computing unit 26 finally selects the high level feature quantity extraction formula from the low level feature quantity extraction formula and the high level feature quantity extraction formula supplied from the high level feature quantity extraction formula learning unit 25. The high level feature quantity is calculated using the low level feature quantity extraction formula and the high level feature quantity extraction formula supplied from the learning unit 25. The process of step S7 will be described later with reference to FIG.

以上、特徴量抽出アルゴリズム生成装置20による特徴量抽出アルゴリズム生成処理の説明を終了する。   This is the end of the description of the feature amount extraction algorithm generation processing by the feature amount extraction algorithm generation device 20.

次に、上述した特徴量抽出アルゴリズム生成処理におけるステップS1乃至S6の学習ループが繰り返されて低レベル特徴量抽出式リストの世代が進み成長したとき、すなわち、低レベル特徴量抽出式の寄与度が向上したり、対応する高レベル特徴量抽出式の推定精度が向上したりしたときに実行する新規オペレータ生成処理について説明する。   Next, when the learning loop of steps S1 to S6 in the above-described feature quantity extraction algorithm generation processing is repeated and the generation of the low-level feature quantity extraction formula list advances and grows, that is, the contribution of the low-level feature quantity extraction formula is A new operator generation process that is executed when the estimation accuracy of the corresponding high-level feature quantity extraction formula is improved will be described.

低レベル特徴量抽出式リストの世代が進み成長した場合、低レベル特徴量抽出式リストの中には、図35に示すように複数のオペレータの順列(以下、オペレータの組み合わせと称する)が異なる低レベル特徴量抽出式上に頻出することになる。そこで、異なる低レベル特徴量抽出式上に頻出する複数のオペレータの組み合わせを新たなオペレータの1つとして、低レベル特徴量抽出式リスト生成部21において使用するオペレータに登録するようにする。   When the generation of the low-level feature quantity extraction formula list progresses and grows, the low-level feature quantity extraction formula list has a low permutation of a plurality of operators (hereinafter referred to as operator combinations) as shown in FIG. It appears frequently on the level feature quantity extraction formula. Therefore, a combination of a plurality of operators that frequently appear on different low-level feature quantity extraction formulas is registered as one of the new operators in the operator used in the low-level feature quantity extraction formula list generation unit 21.

例えば、図35の場合、3つのオペレータの組み合わせ”32#FFT,Log,32#FFT”が5本の低レベル特徴量抽出式に出現している。この”32#FFT,Log,32#FFT”が1つのオペレータNewOperator1として登録された場合、次世代以降の低レベル特徴量抽出式には、例えば図36に示すようにオペレータNewOperator1が含まれることになる。   For example, in the case of FIG. 35, a combination of three operators “32 # FFT, Log, 32 # FFT” appears in five low-level feature quantity extraction formulas. When this “32 # FFT, Log, 32 # FFT” is registered as one operator NewOperator1, the next-generation and subsequent low-level feature quantity extraction formulas include the operator NewOperator1 as shown in FIG. Become.

この新規オペレータ生成処理について、図37のフローチャートを参照して説明する。ステップS101において、オペレータ組検出部22は、所定の数(例えば、1乃至5程度)以下のオペレータからなるオペレータの順列(順序のあるオペレータの組み合わせ)を生成する。ここで生成されるオペレータの組み合わせ数をogとする。   The new operator generation process will be described with reference to the flowchart of FIG. In step S <b> 101, the operator set detection unit 22 generates a permutation of operators (a combination of operators in order) including a predetermined number (for example, about 1 to 5) or less operators. The number of combinations of operators generated here is og.

ステップS102において、制御部27は、組み合わせループパラメータOGを1に初期化して組み合わせループを開始する。なお、組み合わせループは、オペレータの組み合わせ数ogだけ繰り返される。   In step S102, the control unit 27 initializes the combination loop parameter OG to 1 and starts a combination loop. The combination loop is repeated by the number of combinations og of the operator.

ステップS103において、og番目のオペレータの組み合わせの出現頻度Countを1に初期化する。ステップS104において、制御部27は、リストループパラメータNを0に初期化してリストループを開始する。なお、リストループは、予め設定されているリスト数nだけ繰り返される。ステップS105において、制御部27は、式ループパラメータMを1に初期化して式ループを開始する。なお、式ループは、1個の低レベル特徴量抽出式リストを構成する低レベル特徴量抽出式数mだけ繰り返される。   In step S103, the appearance frequency Count of the combination of the og-th operator is initialized to 1. In step S104, the control unit 27 initializes the list loop parameter N to 0 and starts a list loop. The list loop is repeated for a preset number n of lists. In step S105, the control unit 27 initializes the equation loop parameter M to 1 and starts an equation loop. The expression loop is repeated for the number m of low-level feature quantity extraction formulas constituting one low-level feature quantity extraction formula list.

ステップS106において、オペレータ組検出部22は、N番目の低レベル特徴量抽出式リストを構成するM番目の低レベル特徴量抽出式上にog番目のオペレータの組み合わせが存在するか否かを判定し、存在すると判定した場合、処理をステップS107に進めて出現頻度Countを1だけインクリメントする。反対に、og番目のオペレータの組み合わせが存在しないと判定した場合、ステップS107をスキップして、処理をステップS108に進める。   In step S <b> 106, the operator set detection unit 22 determines whether or not the combination of the ogth operator exists on the Mth low level feature quantity extraction formula that forms the Nth low level feature quantity extraction formula list. If it is determined that it exists, the process proceeds to step S107 and the appearance frequency Count is incremented by one. On the other hand, if it is determined that the combination of the og-th operator does not exist, step S107 is skipped and the process proceeds to step S108.

ステップS108において、制御部27は、式ループパラメータMが最大値mよりも小さいか否かを判定し、式ループパラメータMが最大値mよりも小さい場合、式ループパラメータMを1だけインクリメントして処理をステップS106に戻す。反対に、式ループパラメータMが最大値mよりも小さくない場合(式ループパラメータMが最大値mと同値の場合)、式ループを抜けて処理をステップS109に進める。   In step S108, the control unit 27 determines whether or not the formula loop parameter M is smaller than the maximum value m. If the formula loop parameter M is smaller than the maximum value m, the control unit 27 increments the formula loop parameter M by 1. The process returns to step S106. On the other hand, if the expression loop parameter M is not smaller than the maximum value m (when the expression loop parameter M is the same value as the maximum value m), the process exits the expression loop and proceeds to step S109.

ステップS109において、制御部27は、リストループパラメータNが最大値nよりも小さいか否かを判定し、リストループパラメータNが最大値nよりも小さい場合、リストループパラメータNを1だけインクリメントして処理をステップS105に戻す。反対に、リストループパラメータNが最大値nよりも小さくない場合(リストループパラメータNが最大値nと同値の場合)、リストループを抜けて処理をステップS110に進める。   In step S109, the control unit 27 determines whether or not the list loop parameter N is smaller than the maximum value n. If the list loop parameter N is smaller than the maximum value n, the list loop parameter N is incremented by 1. The process returns to step S105. On the other hand, when the list loop parameter N is not smaller than the maximum value n (when the list loop parameter N is the same value as the maximum value n), the process exits the list loop and proceeds to step S110.

ステップS110において、制御部27は、組み合わせループパラメータOGが最大値ogよりも小さいか否かを判定し、組み合わせループパラメータOGが最大値ogよりも小さい場合、組み合わせループパラメータOGを1だけインクリメントして処理をステップS103に戻す。反対に、組み合わせループパラメータOGが最大値ogよりも小さくない場合(組み合わせループパラメータOGが最大値ogと同値の場合)、組み合わせループを抜けて処理をステップS110に進める。ここまでの処理により、全てオペレータの組み合わせにそれぞれ対応する出現頻度Countが検出されたことになる。   In step S110, the control unit 27 determines whether or not the combination loop parameter OG is smaller than the maximum value og. If the combination loop parameter OG is smaller than the maximum value og, the control unit 27 increments the combination loop parameter OG by 1. The process returns to step S103. On the other hand, when the combination loop parameter OG is not smaller than the maximum value og (when the combination loop parameter OG is the same value as the maximum value og), the combination loop is exited and the process proceeds to step S110. By the processing so far, the appearance frequencies Count corresponding to all combinations of operators are detected.

ステップS111において、オペレータ組検出部22は、出現頻度Countが所定の閾値以上のオペレータの組み合わせを抽出してオペレータ生成部23に出力する。ステップS112において、オペレータ生成部23は、オペレータ組検出部22から入力されたオペレータの組み合わせを新たな1つのオペレータとして登録する。以上で新規オペレータ生成処理が終了される。   In step S <b> 111, the operator set detection unit 22 extracts a combination of operators whose appearance frequency Count is equal to or greater than a predetermined threshold and outputs the combination to the operator generation unit 23. In step S112, the operator generation unit 23 registers the operator combination input from the operator set detection unit 22 as a new operator. This completes the new operator generation process.

以上説明したように、新規オペレータ生成処理によれば、出現頻度の高い、すなわち、高レベル特徴量を演算する上で有効であると考えられるオペレータの組み合わせが1つのオペレータとされ、次世代以降の低レベル特徴量抽出式において使用されるので、低レベル特徴量抽出式の作成速度と成長速度が向上する。また、有効な低レベル特徴量抽出式が早期に発見されることとなる。さらに、従来、人手により発見していた有効であると考えられるオペレータの組み合わせを自動的に検出できるので、この点も新規オペレータ生成処理が奏する効果のひとつである。   As described above, according to the new operator generation process, a combination of operators that are considered to be effective in calculating a high-level feature amount, which is frequently appearing, is defined as one operator. Since it is used in the low level feature quantity extraction formula, the creation speed and the growth speed of the low level feature quantity extraction formula are improved. In addition, an effective low-level feature quantity extraction formula is discovered early. Furthermore, since it is possible to automatically detect a combination of operators that have been discovered manually by the conventional method, this point is also one of the effects of the new operator generation process.

次に、上述した図7のステップS7の処理について、図38のフローチャートを参照して説明する。ステップS141において、高レベル特徴量演算部26は、高レベル特徴量抽出式学習部25から供給された最終的な高レベル特徴量抽出式のうち、高い精度の演算結果を得られるもののみを選択するための高精度リジェクト処理を実行する。   Next, the processing in step S7 in FIG. 7 described above will be described with reference to the flowchart in FIG. In step S <b> 141, the high-level feature quantity computing unit 26 selects only the final high-level feature quantity extraction formula supplied from the high-level feature quantity extraction formula learning unit 25 that can obtain a highly accurate computation result. To perform high-precision reject processing.

高精度リジェクト処理は、高レベル特徴量の精度は低レベル特徴量の値に因果関係があるとの考えに基づき、低レベル特徴量を入力として高レベル特徴量の精度を出力するリジェクト領域抽出式を学習によって得るものである。高精度リジェクト処理について、図39のフローチャートを参照して説明する。   High-precision reject processing is based on the idea that the accuracy of high-level feature values is causally related to the value of low-level feature values. Reject region extraction formula that outputs the accuracy of high-level feature values using low-level feature values as input Is obtained through learning. The high-accuracy reject process will be described with reference to the flowchart of FIG.

ステップS151において、高レベル特徴量演算部26の低レベル特徴量演算部41は、最終的な低レベル特徴量抽出式リストを取得する。高レベル特徴量演算部26の高レベル特徴量演算部42は、最終的な高レベル特徴量抽出式を取得する。   In step S151, the low level feature quantity computing unit 41 of the high level feature quantity computing unit 26 obtains a final low level feature quantity extraction formula list. The high level feature quantity computing unit 42 of the high level feature quantity computing unit 26 acquires a final high level feature quantity extraction formula.

ステップS152において、制御部27は、コンテンツループパラメータLを1に初期化してコンテンツループを開始する。なお、コンテンツループは、高精度リジェクト処理を実行するために用意できる入力データ(コンテンツデータとメタデータ)の数lだけ繰り返される。なお、用意できる入力データに対応する高レベル特徴量も、教師データとして用意されているものとする。   In step S152, the control unit 27 initializes the content loop parameter L to 1 and starts a content loop. The content loop is repeated by the number l of input data (content data and metadata) that can be prepared for executing the high-accuracy reject process. It is assumed that high-level feature amounts corresponding to input data that can be prepared are also prepared as teacher data.

ステップS153において、低レベル特徴量演算部41は、ステップS151の処理で取得した最終的な低レベル特徴量抽出式リストにL番目の入力データを代入し、その演算結果であるm種類の低レベル特徴量を高レベル特徴量演算部42およびリジェクト領域抽出式学習部44に出力する。高レベル特徴量演算部42は、ステップS151の処理で取得した最終的な高レベル特徴量抽出式に、低レベル特徴量演算部41から入力されたm種類の低レベル特徴量を代入し、その演算結果である高レベル特徴量を2乗誤差演算部43に出力する。   In step S153, the low-level feature quantity computing unit 41 substitutes the L-th input data into the final low-level feature quantity extraction formula list acquired in the process of step S151, and m kinds of low-levels that are the computation results. The feature amount is output to the high level feature amount calculation unit 42 and the reject area extraction formula learning unit 44. The high level feature quantity computing unit 42 substitutes the m types of low level feature quantities input from the low level feature quantity computing unit 41 into the final high level feature quantity extraction formula acquired in the process of step S151, The high-level feature quantity that is the calculation result is output to the square error calculation unit 43.

ステップS154において、2乗誤差演算部43は、高レベル特徴量演算部42から入力された高レベル特徴量と、教師データ(入力データに対応する真の高レベル特徴量)との2乗誤差を演算してリジェクト領域抽出式学習部44に出力する。この演算結果である2乗誤差が、高レベル特徴量演算部42において演算される高レベル特徴量抽出式の精度(以下、特徴抽出精度と称する)となる。   In step S154, the square error calculation unit 43 calculates a square error between the high level feature quantity input from the high level feature quantity calculation unit 42 and the teacher data (true high level feature quantity corresponding to the input data). Calculate and output to the reject area extraction formula learning unit 44. The square error that is the calculation result is the accuracy of the high-level feature quantity extraction formula calculated by the high-level feature quantity calculation unit 42 (hereinafter referred to as feature extraction accuracy).

ステップS155において、制御部27は、コンテンツループパラメータLが最大値lよりも小さいか否かを判定し、コンテンツループパラメータLが最大値lよりも小さい場合、コンテンツループパラメータLを1だけインクリメントして処理をステップS153に戻す。反対に、コンテンツループパラメータLが最大値lよりも小さくない場合(コンテンツループパラメータLが最大値lと同値の場合)、コンテンツループを抜けて処理をステップS156に進める。ここまでの処理により、各入力データにそれぞれ対応する、演算によって得られた高レベル特徴量と教師データとの2乗誤差が得られたことになる。   In step S155, the control unit 27 determines whether or not the content loop parameter L is smaller than the maximum value l. If the content loop parameter L is smaller than the maximum value l, the control unit 27 increments the content loop parameter L by 1. The process returns to step S153. On the other hand, if the content loop parameter L is not smaller than the maximum value l (if the content loop parameter L is the same value as the maximum value l), the process exits the content loop and proceeds to step S156. By the processing so far, the square error between the high-level feature quantity obtained by the calculation and the teacher data corresponding to each input data is obtained.

ステップS156において、リジェクト領域抽出式学習部44は、低レベル特徴量演算部41から入力される低レベル特徴量と2乗誤差演算部43から入力される2乗誤差とに基づく学習により、低レベル特徴量を入力としてそれに基づいて演算される高レベル特徴量の特徴抽出精度を出力とするリジェクト領域抽出式を生成し、生成したリジェクト領域抽出式を特徴量抽出精度演算部45に供給する。以上で高精度リジェクト処理を終了され、処理は図38のステップS142に進められる。   In step S156, the reject area extraction formula learning unit 44 performs low level learning by learning based on the low level feature quantity input from the low level feature quantity calculation unit 41 and the square error input from the square error calculation unit 43. A reject area extraction formula that outputs the feature extraction accuracy of the high-level feature quantity calculated based on the feature quantity as an input is generated, and the generated reject area extraction formula is supplied to the feature quantity extraction accuracy calculation unit 45. Thus, the high-accuracy reject process is terminated, and the process proceeds to step S142 in FIG.

ステップS142において、低レベル特徴量演算部41は、高レベル特徴量を求めたい楽曲の入力データを、最終的な低レベル特徴量抽出式リストにL番目の入力データを代入して低レベル特徴量を演算し、演算結果を高レベル特徴量演算部42および特徴量抽出精度演算部45に出力する。   In step S142, the low-level feature quantity computing unit 41 substitutes the input data of the music for which the high-level feature quantity is to be obtained by substituting the L-th input data into the final low-level feature quantity extraction formula list. And the calculation result is output to the high level feature quantity computing unit 42 and the feature quantity extraction accuracy computing unit 45.

ステップS143において、特徴量抽出精度演算部45は、低レベル特徴量演算部41から入力される低レベル特徴量を、リジェクト領域抽出式学習部44から供給されたリジェクト領域抽出式に代入して、低レベル特徴量演算部41から入力される低レベル特徴量に基づいて演算される高レベル特徴量の特徴量抽出精度(すなわち、高レベル特徴量演算部42で演算される高レベル特徴量に対して推定される2乗誤差)を演算する。   In step S143, the feature amount extraction accuracy calculation unit 45 substitutes the low level feature amount input from the low level feature amount calculation unit 41 into the reject region extraction formula supplied from the reject region extraction formula learning unit 44, and Feature level extraction accuracy of a high-level feature value calculated based on the low-level feature value input from the low-level feature value calculation unit 41 (that is, for the high-level feature value calculated by the high-level feature value calculation unit 42) The square error estimated by

ステップS144において、特徴量抽出精度演算部45は、ステップS143の処理で演算した特徴量抽出精度が所定の閾値以上であるか否かを判定し、演算した特徴量抽出精度が所定の閾値以上であると判定した場合、処理はステップS145に進み、特徴量抽出精度演算部45は、高レベル特徴量演算部42に対して高レベル特徴量の演算を実行させる。高レベル特徴量演算部42は、ステップS142の処理で低レベル特徴量演算部41から入力されたm種類の低レベル特徴量を、最終的な高レベル特徴量抽出式に代入して高レベル特徴量を演算する。そして、ここで演算された高レベル特徴量が出力されて、高精度高レベル特徴量演算処理が終了される。   In step S144, the feature amount extraction accuracy calculation unit 45 determines whether or not the feature amount extraction accuracy calculated in the process of step S143 is greater than or equal to a predetermined threshold, and the calculated feature amount extraction accuracy is greater than or equal to the predetermined threshold. If it is determined that there is, the process proceeds to step S145, and the feature amount extraction accuracy calculation unit 45 causes the high level feature amount calculation unit 42 to perform the calculation of the high level feature amount. The high level feature quantity computing unit 42 substitutes the m types of low level feature quantities input from the low level feature quantity computing unit 41 in the process of step S142 into the final high level feature quantity extraction formula, Calculate the quantity. And the high level feature-value calculated here is output, and a high-precision high-level feature-value calculation process is complete | finished.

なお、ステップS144において、演算した特徴量抽出精度が所定の閾値よりも小さいと判定された場合、ステップS145はスキップされて高精度高レベル特徴量演算処理が終了される。   If it is determined in step S144 that the calculated feature quantity extraction accuracy is smaller than the predetermined threshold, step S145 is skipped and the high-precision high-level feature quantity calculation process is terminated.

したがって、高精度高レベル特徴量演算処理によれば、高レベル特徴量抽出式により計算される高レベル特徴量の精度を推定することができる。また、高い精度が期待できない高レベル特徴量を演算しないので、無駄な演算を省略することが可能となる。   Therefore, according to the high-precision high-level feature quantity calculation process, the accuracy of the high-level feature quantity calculated by the high-level feature quantity extraction formula can be estimated. In addition, since high-level feature quantities that cannot be expected to be highly accurate are not calculated, useless calculations can be omitted.

以上説明したように、本発明を適用した特徴量抽出アルゴリズム生成装置20による特徴量抽出アルゴリズム学習処理によれば、楽曲データから対応する特徴量を抽出できるアルゴリズムを、高精度で速やかに生成することが可能となるだけでなく、高精度の高レベル特徴量だけを少ない演算量で取得することが可能となる。   As described above, according to the feature amount extraction algorithm learning process by the feature amount extraction algorithm generation apparatus 20 to which the present invention is applied, an algorithm that can extract a corresponding feature amount from music data can be quickly generated with high accuracy. In addition, it is possible to acquire only a high-precision high-level feature amount with a small amount of calculation.

なお、本発明は、楽曲の高レベル特徴量を取得する場合だけでなく、映像データなどあらゆる種類のコンテンツデータの高レベル特徴量を取得する場合に適用することが可能である。   The present invention can be applied not only when acquiring high-level feature quantities of music, but also when acquiring high-level feature quantities of all types of content data such as video data.

ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。   By the way, the series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

このパーソナルコンピュータ100は、CPU(Central Processing Unit)101を内蔵している。CPU101にはバス104を介して、入出力インタフェース105が接続されている。バス104には、ROM(Read Only Memory)102およびRAM(Random Access Memory)103が接続されている。   The personal computer 100 includes a CPU (Central Processing Unit) 101. An input / output interface 105 is connected to the CPU 101 via the bus 104. A ROM (Read Only Memory) 102 and a RAM (Random Access Memory) 103 are connected to the bus 104.

入出力インタフェース105には、ユーザが操作コマンドを入力するキーボード、マウス等の入力デバイスよりなる入力部106、操作画面などを表示するCRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)等のディスプレイよりなる出力部107、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部108、およびモデム、LAN(Local Area Network)アダプタなどよりなり、インタネットに代表されるネットワークを介した通信処理を実行する通信部109が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどの記録媒体111に対してデータを読み書きするドライブ110が接続されている。   The input / output interface 105 includes an input unit 106 including an input device such as a keyboard and a mouse for a user to input an operation command, and a display such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display) for displaying an operation screen. The output unit 107, the storage unit 108 including a hard disk drive for storing programs and various data, and the like, a modem, a LAN (Local Area Network) adapter, and the like, and performs communication processing via a network represented by the Internet Part 109 is connected. Also, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk (including an MD (Mini Disc)), or a semiconductor A drive 110 for reading / writing data from / to a recording medium 111 such as a memory is connected.

このパーソナルコンピュータ100に上述した一連の処理を実行させるプログラムは、記録媒体111に格納された状態でパーソナルコンピュータ100に供給され、ドライブ110によって読み出されて記憶部108に内蔵されるハードディスクドライブにインストールされている。記憶部108にインストールされているプログラムは、入力部106に入力されるユーザからのコマンドに対応するCPU101の指令によって、記憶部108からRAM103にロードされて実行される。   A program for causing the personal computer 100 to execute the above-described series of processing is supplied to the personal computer 100 in a state stored in the recording medium 111, read by the drive 110, and installed in a hard disk drive built in the storage unit 108. Has been. The program installed in the storage unit 108 is loaded from the storage unit 108 to the RAM 103 and executed in response to a command from the CPU 101 corresponding to a command from the user input to the input unit 106.

なお、本明細書において、プログラムに基づいて実行されるステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In this specification, the steps executed based on the program are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes executed in time series according to the described order. It also includes processing.

また、プログラムは、1台のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。   The program may be processed by a single computer, or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

従来の特徴量抽出アルゴリズムを説明するための図である。It is a figure for demonstrating the conventional feature-value extraction algorithm. 本発明を適用した特徴量抽出アルゴリズム生成装置によって生成される特徴量抽出アルゴリズムの概要を示す図である。It is a figure which shows the outline | summary of the feature-value extraction algorithm produced | generated by the feature-value extraction algorithm production | generation apparatus to which this invention is applied. 低レベル特徴量抽出式の例を示す図である。It is a figure which shows the example of a low level feature-value extraction formula. 高レベル特徴量抽出式の例を示ず図である。It is a figure without showing the example of a high level feature-value extraction formula. 本発明を適用した特徴量抽出アルゴリズム生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the feature-value extraction algorithm production | generation apparatus to which this invention is applied. 図5の高レベル特徴量演算部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the high level feature-value calculating part of FIG. 特徴量抽出アルゴリズム学習処理を説明するフローチャートである。It is a flowchart explaining a feature amount extraction algorithm learning process. 低レベル特徴量抽出式リストの例を示す図である。It is a figure which shows the example of a low level feature-value extraction formula list. 低レベル特徴量抽出式リスト生成処理を説明するフローチャートである。It is a flowchart explaining a low level feature-value extraction formula list production | generation process. 第1世代リストランダム生成処理を説明するフローチャートである。It is a flowchart explaining a 1st generation list random generation process. 低レベル特徴量抽出式の記述方法を示す図である。It is a figure which shows the description method of a low level feature-value extraction formula. 入力データの例を示す図である。It is a figure which shows the example of input data. 入力データWavを説明する図である。It is a figure explaining the input data Wav. 入力データChordを説明する図である。It is a figure explaining input data Chord. 入力データKeyを説明する図である。It is a figure explaining input data Key. 低レベル特徴量抽出式の保有次元を説明する図である。It is a figure explaining the possession dimension of a low level feature-value extraction type | formula. 次世代リストジェネティック生成処理を説明するフローチャートである。It is a flowchart explaining a next-generation list genetic generation process. 選択生成処理を説明するフローチャートである。It is a flowchart explaining a selection production | generation process. 交差生成処理を説明するフローチャートである。It is a flowchart explaining an intersection production | generation process. 突然変異生成処理を説明するフローチャートである。It is a flowchart explaining a mutation production | generation process. オペレータMeanの演算を説明するための図である。It is a figure for demonstrating a calculation of operator Mean. 低レベル特徴量演算部の処理を説明するための図である。It is a figure for demonstrating the process of a low level feature-value calculating part. 教師データの例を示す図である。It is a figure which shows the example of teacher data. 高レベル特徴量抽出式学習処理を説明するフローチャートである。It is a flowchart explaining a high level feature-value extraction type | formula learning process. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムの例を説明するための図である。It is a figure for demonstrating the example of a learning algorithm. 学習アルゴリズムに基づく学習処理を説明するフローチャートである。It is a flowchart explaining the learning process based on a learning algorithm. オペレータの組み合わせの例を示す図である。It is a figure which shows the example of the combination of an operator. オペレータの組み合わせの例を示す図である。It is a figure which shows the example of the combination of an operator. 新規オペレータ生成処理を説明するフローチャートである。It is a flowchart explaining a new operator production | generation process. 高精度高レベル特徴量演算処理を説明するフローチャートである。It is a flowchart explaining a highly accurate high level feature-value calculation process. 高精度リジェクト処理を説明するフローチャートである。It is a flowchart explaining a high precision rejection process. 汎用パーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a general purpose personal computer.

符号の説明Explanation of symbols

20 特徴量抽出アルゴリズム生成装置, 21 低レベル特徴量抽出式リスト生成部, 22 オペレータ組検出部, 23 オペレータ生成部, 24 低レベル特徴量演算部, 25 高レベル特徴量抽出式学習部, 26 高レベル特徴量演算部,27 制御部, 41 低レベル特徴量演算部, 42 高レベル特徴量演算部, 43 2乗誤差演算部, 44 リジェクト領域抽出式学習部, 45 特徴量抽出精度演算部, 100 パーソナルコンピュータ, 101 CPU, 111 記録媒体   20 feature amount extraction algorithm generation device, 21 low level feature amount extraction formula list generation unit, 22 operator set detection unit, 23 operator generation unit, 24 low level feature amount calculation unit, 25 high level feature amount extraction formula learning unit, 26 high Level feature quantity computing unit, 27 control unit, 41 low level feature quantity computing unit, 42 high level feature quantity computing unit, 43 square error computing unit, 44 reject area extraction formula learning unit, 45 feature quantity extraction accuracy computing unit, 100 Personal computer, 101 CPU, 111 recording medium

Claims (7)

コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情報処理装置において、
前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成手段を含み、
前記高レベル特徴量抽出式生成手段は、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する
情報処理装置。
In an information processing apparatus that generates a feature amount detection algorithm for detecting a feature amount of content data,
A high-level feature quantity extraction formula that outputs a high-level feature quantity indicating the characteristics of the content data by using the low-level feature quantity calculated based on the content data or metadata corresponding to the content data as an input. Including high-level feature quantity extraction formula generation means for generating by learning using high-level feature quantities corresponding to
The high-level feature quantity extraction formula generation unit generates the high-level feature quantity extraction formula using a plurality of different learning algorithms, and evaluates the generated high-level feature quantity extraction formula based on a predetermined information amount criterion Information processing device.
前記複数の学習アルゴリズムは、回帰解析、クラス分類、SVM(Support Vector Machine)、またはGP(Genetic Programming)のうち、少なくとも1つを含む
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the plurality of learning algorithms include at least one of regression analysis, classification, SVM (Support Vector Machine), or GP (Genetic Programming).
前記所定の情報量基準は、AIC(Akaike Information Criterion)またはBIC(bayesian Information Criterion)である
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the predetermined information amount standard is AIC (Akaike Information Criterion) or BIC (bayesian Information Criterion).
前記高レベル特徴量抽出式生成手段は、予め用意されている複数の前記学習データを学習用と評価用にランダムに分割して使用する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the high-level feature quantity extraction formula generation unit uses a plurality of learning data prepared in advance, randomly divided for learning and evaluation.
前記高レベル特徴量抽出式生成手段は、予め演算されている複数の低レベル特徴量のうち、前記高レベル特徴量抽出式の学習に用いるものを遺伝的アルゴリズムに基づいて選択する
請求項1に記載の情報処理装置。
The high-level feature quantity extraction formula generation means selects, based on a genetic algorithm, a plurality of low-level feature quantities that are calculated in advance and that is used for learning the high-level feature quantity extraction formula. The information processing apparatus described.
コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成する情報処理装置の情報処理方法において、
前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成ステップを含み、
前記高レベル特徴量抽出式生成ステップは、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する
情報処理方法。
In an information processing method of an information processing apparatus for generating a feature amount detection algorithm for detecting a feature amount of content data,
A high-level feature quantity extraction formula that outputs a high-level feature quantity indicating the characteristics of the content data by using the low-level feature quantity calculated based on the content data or metadata corresponding to the content data as an input. Including a high level feature quantity extraction formula generation step that is generated by learning using a high level feature quantity corresponding to
The high-level feature quantity extraction formula generation step generates the high-level feature quantity extraction formula using a plurality of different learning algorithms, and evaluates the generated high-level feature quantity extraction formula based on a predetermined information amount criterion Information processing method.
コンテンツデータの特徴量を検出するための特徴量検出アルゴリズムを生成するためのプログラムであって、
前記コンテンツデータまたは前記コンテンツデータに対応するメタデータに基づいて演算された低レベル特徴量を入力として前記コンテンツデータの特徴を示す高レベル特徴量を出力する高レベル特徴量抽出式を、前記コンテンツデータに対応する高レベル特徴量を教師データとした学習により生成する高レベル特徴量抽出式生成ステップを含む処理をコンピュータに実行させ、
前記高レベル特徴量抽出式生成ステップは、異なる複数の学習アルゴリズムを用いて前記高レベル特徴量抽出式を生成し、生成した前記高レベル特徴量抽出式を、所定の情報量基準に基づいて評価する
プログラム。
A program for generating a feature amount detection algorithm for detecting a feature amount of content data,
A high-level feature quantity extraction formula that outputs a high-level feature quantity indicating the characteristics of the content data by using the low-level feature quantity calculated based on the content data or metadata corresponding to the content data as an input. The computer includes processing including a high-level feature quantity extraction formula generation step that is generated by learning using high-level feature quantities corresponding to
The high-level feature quantity extraction formula generation step generates the high-level feature quantity extraction formula using a plurality of different learning algorithms, and evaluates the generated high-level feature quantity extraction formula based on a predetermined information amount criterion Program.
JP2005310409A 2005-10-25 2005-10-25 Information processor, information processing method and program Withdrawn JP2007122186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005310409A JP2007122186A (en) 2005-10-25 2005-10-25 Information processor, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005310409A JP2007122186A (en) 2005-10-25 2005-10-25 Information processor, information processing method and program

Publications (1)

Publication Number Publication Date
JP2007122186A true JP2007122186A (en) 2007-05-17

Family

ID=38146001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005310409A Withdrawn JP2007122186A (en) 2005-10-25 2005-10-25 Information processor, information processing method and program

Country Status (1)

Country Link
JP (1) JP2007122186A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098999A (en) * 2007-10-18 2009-05-07 Sony Corp Information processing device, information processing method and program
JP2010020714A (en) * 2008-07-14 2010-01-28 Sony Corp Information processing apparatus, information processing method, and program
JP2010020388A (en) * 2008-07-08 2010-01-28 Sony Corp Information processing device, information processing method, and program
CN102393921A (en) * 2010-07-14 2012-03-28 索尼公司 Information processing device, information processing method, and program
JP2012195811A (en) * 2011-03-17 2012-10-11 Fujitsu Ltd Digest image generating apparatus and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098999A (en) * 2007-10-18 2009-05-07 Sony Corp Information processing device, information processing method and program
JP4548472B2 (en) * 2007-10-18 2010-09-22 ソニー株式会社 Information processing apparatus, information processing method, and program
US8494986B2 (en) 2007-10-18 2013-07-23 Sony Corporation Information processing apparatus, information processing method, and program
US8712936B2 (en) 2007-10-18 2014-04-29 Sony Corporation Information processing apparatus, information processing method, and program
JP2010020388A (en) * 2008-07-08 2010-01-28 Sony Corp Information processing device, information processing method, and program
US8407161B2 (en) 2008-07-08 2013-03-26 Sony Corporation Recommendation device, method, and program using metadata
JP2010020714A (en) * 2008-07-14 2010-01-28 Sony Corp Information processing apparatus, information processing method, and program
JP4591566B2 (en) * 2008-07-14 2010-12-01 ソニー株式会社 Information processing apparatus, information processing method, and program
US8626685B2 (en) 2008-07-14 2014-01-07 Sony Corporation Information processsing apparatus, information processing method, and program
CN102393921A (en) * 2010-07-14 2012-03-28 索尼公司 Information processing device, information processing method, and program
US9177258B2 (en) 2010-07-14 2015-11-03 Sony Corporation Implementing a learning algorithm and estimation function utilizing a randomly selected prototype function with randomly set parameters
JP2012195811A (en) * 2011-03-17 2012-10-11 Fujitsu Ltd Digest image generating apparatus and program

Similar Documents

Publication Publication Date Title
JP4935047B2 (en) Information processing apparatus, information processing method, and program
JP4948118B2 (en) Information processing apparatus, information processing method, and program
JP4987282B2 (en) Information processing apparatus, information processing method, and program
Turnbull et al. Fast recognition of musical genres using RBF networks
CN111444967A (en) Training method, generation method, device, equipment and medium for generating confrontation network
US20130066452A1 (en) Information processing device, estimator generating method and program
Wang et al. Robust and efficient joint alignment of multiple musical performances
JP2007122186A (en) Information processor, information processing method and program
US8712936B2 (en) Information processing apparatus, information processing method, and program
JP4392621B2 (en) Information processing apparatus, information processing method, and program
JP2009104274A (en) Information processor, information processing method, and program
US20120136818A1 (en) Information Processing Device, Information Processing Method, and Program
JP2009110212A (en) Information processor, information processing method, and program
JP6233432B2 (en) Method and apparatus for selecting mixed model
JP4392622B2 (en) Information processing apparatus, information processing method, and program
Vatolkin et al. A Multi-objective Evolutionary Approach to Identify Relevant Audio Features for Music Segmentation
JP7224263B2 (en) MODEL GENERATION METHOD, MODEL GENERATION DEVICE AND PROGRAM
WO2024102074A1 (en) Melody extraction from polyphonic symbolic music
JP2013164863A (en) Information processing device, information processing method, and program
JP2008181294A (en) Information processing apparatus, method and program
Jastrzebska et al. Optical music recognition as the case of imbalanced pattern recognition: A study of complex classifiers
Dey Application of Computational Methods to Study the Selection of Authentic and Cryptic Splice Sites
Bosio et al. Microarray classification with hierarchical data representation and novel feature selection criteria
Helmbold Graham Charles Grindlay March 2005

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090106