JP5909943B2 - Information processing apparatus, estimator generation method, and program - Google Patents

Information processing apparatus, estimator generation method, and program Download PDF

Info

Publication number
JP5909943B2
JP5909943B2 JP2011196300A JP2011196300A JP5909943B2 JP 5909943 B2 JP5909943 B2 JP 5909943B2 JP 2011196300 A JP2011196300 A JP 2011196300A JP 2011196300 A JP2011196300 A JP 2011196300A JP 5909943 B2 JP5909943 B2 JP 5909943B2
Authority
JP
Japan
Prior art keywords
learning data
distribution
input
function
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011196300A
Other languages
Japanese (ja)
Other versions
JP2013058095A5 (en
JP2013058095A (en
Inventor
由幸 小林
由幸 小林
児嶋 環
環 児嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011196300A priority Critical patent/JP5909943B2/en
Priority to US13/591,520 priority patent/US20130066452A1/en
Priority to CN201210320527.3A priority patent/CN103177177B/en
Publication of JP2013058095A publication Critical patent/JP2013058095A/en
Publication of JP2013058095A5 publication Critical patent/JP2013058095A5/ja
Application granted granted Critical
Publication of JP5909943B2 publication Critical patent/JP5909943B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本技術は、情報処理装置、推定機生成方法、及びプログラムに関する。   The present technology relates to an information processing device, an estimator generation method, and a program.

近年、定量的に特徴を決定づけることが難しい任意のデータ群から、そのデータ群の特徴量を機械的に抽出する手法に注目が集まっている。例えば、任意の音楽データを入力とし、その音楽データが属する音楽のジャンルを機械的に抽出するアルゴリズムを自動構築する手法が知られている。ジャズ、クラシック、ポップス等、音楽のジャンルは、楽器の種類や演奏形態に応じて定量的に決まるものではない。そのため、これまでは任意の音楽データが与えられたときに、その音楽データから機械的に音楽のジャンルを抽出することは一般的に難しいと考えられていた。   In recent years, attention has been focused on a technique for mechanically extracting feature values of an arbitrary data group from which it is difficult to quantitatively determine characteristics. For example, there is known a method of automatically constructing an algorithm that takes arbitrary music data as input and mechanically extracts the genre of music to which the music data belongs. The genre of music, such as jazz, classical music, and pop music, is not quantitatively determined according to the type of musical instrument and the form of performance. For this reason, it has been generally considered that it is generally difficult to mechanically extract music genres from music data given arbitrary music data.

しかし、実際には、音楽データに含まれる音程の組み合わせ、音程の組み合わせ方、楽器の種類の組み合わせ、メロディーラインやベースラインの構造等、様々な情報の組み合わせの中に、音楽のジャンルを分ける特徴が潜在的に含まれている。そのため、この特徴を抽出するアルゴリズム(以下、特徴量抽出機)を機械学習により自動構築できないか、という観点から特徴量抽出機の研究が行われた。その研究成果の一つとして、例えば、下記の特許文献1に記載された遺伝アルゴリズムに基づく特徴量抽出機の自動構築方法を挙げることができる。遺伝アルゴリズムとは、生物の進化過程に倣い、機械学習の過程で、選択、交差、突然変異の要素を考慮したものを言う。   However, in reality, the music genre is divided into various combinations of information, such as the combination of pitches included in the music data, the combination of pitches, the combination of instrument types, and the structure of the melody line and bass line. Is potentially included. Therefore, a feature quantity extractor has been studied from the viewpoint of whether an algorithm for extracting this feature (hereinafter, feature quantity extractor) can be automatically constructed by machine learning. As one of the research results, for example, an automatic construction method of a feature quantity extractor based on a genetic algorithm described in Patent Document 1 below can be cited. A genetic algorithm is a model that takes into account the elements of selection, crossover, and mutation in the process of machine learning, following the evolutionary process of organisms.

同文献に記載の特徴量抽出機自動構築アルゴリズムを利用することにより、任意の音楽データから、その音楽データが属する音楽のジャンルを抽出する特徴量抽出機を自動構築することができるようになる。また、同文献に記載の特徴量抽出機自動構築アルゴリズムは、非常に汎用性が高く、音楽データに限らず、任意のデータ群から、そのデータ群の特徴量を抽出する特徴量抽出機を自動構築することができる。そのため、同文献に記載の特徴量抽出機自動構築アルゴリズムは、音楽データや映像データのような人工的なデータの特徴量解析、自然界に存在する様々な観測量の特徴量解析への応用が期待されている。   By using the feature quantity extractor automatic construction algorithm described in the same document, it is possible to automatically construct a feature quantity extractor that extracts music genre to which the music data belongs from arbitrary music data. In addition, the feature quantity extractor automatic construction algorithm described in the same document is very versatile and automatically uses a feature quantity extractor that extracts the feature quantity of an arbitrary data group, not limited to music data. Can be built. Therefore, the feature quantity extractor automatic construction algorithm described in this document is expected to be applied to feature quantity analysis of artificial data such as music data and video data, and feature quantity analysis of various observed quantities existing in nature. Has been.

特開2009−48266号公報JP 2009-48266 A

上記の文献に記載の特徴量抽出式自動構築アルゴリズムは、予め用意された学習用データを利用して特徴量抽出式を自動構築する。また、学習用データの数が多いほど、自動構築される特徴量抽出式の性能が向上する。しかし、特徴量抽出式の構築に利用可能なメモリ量には限りがある。また、学習用データの数が多いと、特徴量抽出式の構築を実現するために高い演算性能が要求される。そのため、多量に供給される学習用データのうち、特徴量抽出式の性能向上に寄与する有用な学習用データを優先的に利用する仕組みが求められている。この仕組みを実現することで、より精度の高い特徴量抽出式が得られるようになるため、特徴量抽出式を利用して結果を推定する推定機の性能を向上させることが可能になると期待される。   The feature quantity extraction formula automatic construction algorithm described in the above document automatically constructs a feature quantity extraction formula using learning data prepared in advance. In addition, as the number of learning data increases, the performance of the feature quantity extraction formula that is automatically constructed improves. However, there is a limit to the amount of memory that can be used to construct a feature quantity extraction formula. In addition, when the number of learning data is large, high calculation performance is required to realize the construction of the feature quantity extraction formula. Therefore, there is a demand for a mechanism that preferentially uses useful learning data that contributes to improving the performance of the feature quantity extraction formula among learning data supplied in large quantities. By realizing this mechanism, a more accurate feature quantity extraction formula can be obtained, so it is expected to improve the performance of the estimator that estimates the result using the feature quantity extraction formula. The

そこで、本技術は、上記のような事情を受けて考案されたものであり、より高性能な推定機を生成することが可能な、新規かつ改良された情報処理装置、推定機生成方法、及びプログラムを提供することを意図している。   Therefore, the present technology has been devised in view of the above-described circumstances, and is a new and improved information processing apparatus capable of generating a higher performance estimator, an estimator generation method, and Intended to provide a program.

本技術のある観点によれば、入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出部と、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整部と、複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成部と、を備える、情報処理装置が提供される。   According to an aspect of the present technology, when a plurality of learning data configured by input data and an objective variable corresponding to the input data is given, the input data is input to a plurality of basis functions, A feature vector calculation unit that calculates a feature vector that includes the output value of each basis function as an element, and a distribution of the points so that the distribution of the points specified by the feature vector in the feature space approaches a predetermined distribution An information processing apparatus comprising: a distribution adjustment unit that adjusts the function; and a function generation unit that generates an estimation function that outputs an estimated value of the objective variable according to an input of the feature quantity vector for the plurality of pieces of learning data Is provided.

また、本技術の別の観点によれば、入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出するステップと、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整するステップと、複数の前記学習用データについて、前記特徴量ベクトルの入力に対して前記目的変数の推定値を出力する推定関数を生成するステップと、を含む、推定機生成方法が提供される。   According to another aspect of the present technology, when a plurality of learning data including input data and an objective variable corresponding to the input data are given, the input data is input to a plurality of basis functions. Calculating a feature quantity vector having the output value of each basis function as an element, and setting the distribution of the point so that the distribution of the point specified by the feature quantity vector in the feature quantity space approaches a predetermined distribution. An estimator generation method is provided that includes adjusting and generating an estimation function that outputs an estimated value of the objective variable with respect to an input of the feature quantity vector for a plurality of the learning data. .

また、本技術の別の観点によれば、入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出機能と、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整機能と、複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成機能と、をコンピュータに実現させるためのプログラムが提供される。   According to another aspect of the present technology, when a plurality of learning data including input data and an objective variable corresponding to the input data are given, the input data is input to a plurality of basis functions. A feature amount vector calculation function for calculating a feature amount vector having an output value of each basis function as an element, and the distribution of points specified by the feature amount vector in the feature amount space so as to approach a predetermined distribution. A distribution adjustment function that adjusts the distribution of points; and a function generation function that generates an estimation function that outputs an estimated value of the objective variable in response to an input of the feature vector for a plurality of pieces of learning data. A program for realizing this is provided.

また、本技術の別の観点によれば、上記のプログラムが記録された、コンピュータにより読み取り可能な記録媒体が提供される。   Moreover, according to another viewpoint of this technique, the computer-readable recording medium with which said program was recorded is provided.

以上説明したように本技術によれば、より高性能な推定機を生成することが可能になる。   As described above, according to the present technology, a higher-performance estimator can be generated.

機械学習により構築された推定機を利用して結果を推定するシステムの構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the system which estimates a result using the estimator constructed | assembled by machine learning. 推定機の構築に利用される学習用データの構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the data for learning utilized for construction of an estimator. 推定機の構造について説明するための説明図である。It is explanatory drawing for demonstrating the structure of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. 推定機の構築方法について説明するための説明図である。It is explanatory drawing for demonstrating the construction method of an estimator. オンライン学習について説明するための説明図である。It is explanatory drawing for demonstrating online learning. オフライン学習に基づく推定機の構築方法及びオンライン学習に基づく推定機の構築方法に関して解決すべき課題について説明するための説明図である。It is explanatory drawing for demonstrating the problem which should be solved regarding the construction method of the estimator based on offline learning, and the construction method of the estimator based on online learning. 本実施形態に係る情報処理装置の機能構成について説明するための説明図である。It is explanatory drawing for demonstrating the function structure of the information processing apparatus which concerns on this embodiment. 本実施形態に係る推定機構築部の詳細な機能構成について説明するための説明図である。It is explanatory drawing for demonstrating the detailed functional structure of the estimator construction part which concerns on this embodiment. 特徴量空間における学習用データの分布と推定機の精度との関係について説明するための説明図である。It is explanatory drawing for demonstrating the relationship between the distribution of the data for learning in the feature-value space, and the precision of an estimator. 特徴量空間における学習用データの分布と推定機の精度との関係及びオンライン学習の効果について説明するための説明図である。It is explanatory drawing for demonstrating the relationship between the distribution of the data for learning in the feature-value space, the precision of an estimator, and the effect of online learning. 本実施形態に係る学習用データのサンプリング方法について説明するための説明図である。It is explanatory drawing for demonstrating the sampling method of the data for learning which concerns on this embodiment. 本実施形態に係る効率的な学習用データのサンプリング方法について説明するための説明図である。It is explanatory drawing for demonstrating the sampling method of the efficient data for learning which concerns on this embodiment. 本実施形態に係る効率的な学習用データのサンプリング方法について説明するための説明図である。It is explanatory drawing for demonstrating the sampling method of the efficient data for learning which concerns on this embodiment. 本実施形態に係る効率的な学習用データのサンプリング方法について説明するための説明図である。It is explanatory drawing for demonstrating the sampling method of the efficient data for learning which concerns on this embodiment. 本実施形態に係る効率的な学習用データのサンプリング方法について説明するための説明図である。It is explanatory drawing for demonstrating the sampling method of the efficient data for learning which concerns on this embodiment. 本実施形態に係る効率的な学習用データのサンプリング方法について説明するための説明図である。It is explanatory drawing for demonstrating the sampling method of the efficient data for learning which concerns on this embodiment. 本実施形態に係る効率的な学習用データのサンプリング方法について説明するための説明図である。It is explanatory drawing for demonstrating the sampling method of the efficient data for learning which concerns on this embodiment. 本実施形態に係る効率的な学習用データのサンプリング方法について説明するための説明図である。It is explanatory drawing for demonstrating the sampling method of the efficient data for learning which concerns on this embodiment. 本実施形態に係る効率的な重み付け方法について説明するための説明図である。It is explanatory drawing for demonstrating the efficient weighting method which concerns on this embodiment. 本実施形態に係る効率的な重み付け方法について説明するための説明図である。It is explanatory drawing for demonstrating the efficient weighting method which concerns on this embodiment. 本実施形態に係る効率的な重み付け方法について説明するための説明図である。It is explanatory drawing for demonstrating the efficient weighting method which concerns on this embodiment. 本実施形態に係る効率的な重み付け方法について説明するための説明図である。It is explanatory drawing for demonstrating the efficient weighting method which concerns on this embodiment. 本実施形態に係る効率的なサンプリング/重み付け方法について説明するための説明図である。It is explanatory drawing for demonstrating the efficient sampling / weighting method which concerns on this embodiment. 本実施形態の一変形例に係る学習用データの選択方法について説明するための説明図である。It is explanatory drawing for demonstrating the selection method of the data for learning which concerns on the modification of this embodiment. 本実施形態の一変形例に係る学習用データの選択方法について説明するための説明図である。It is explanatory drawing for demonstrating the selection method of the data for learning which concerns on the modification of this embodiment. 本実施形態の一変形例に係る重み付け方法について説明するための説明図である。It is explanatory drawing for demonstrating the weighting method which concerns on the modification of this embodiment. 本実施形態の一変形例に係る学習用データの選択方法について説明するための説明図である。It is explanatory drawing for demonstrating the selection method of the data for learning which concerns on the modification of this embodiment. 本実施形態の一変形例に係る重み付け方法について説明するための説明図である。It is explanatory drawing for demonstrating the weighting method which concerns on the modification of this embodiment. 画像認識機の構築に利用する学習用データの生成方法について説明するための説明図である。It is explanatory drawing for demonstrating the production | generation method of the data for learning utilized for construction of an image recognizer. 言語解析機の構築に利用する学習用データの生成方法について説明するための説明図である。It is explanatory drawing for demonstrating the production | generation method of the data for learning utilized for construction of a language analyzer. オンライン学習の適用により得られる効果について説明するための説明図である。It is explanatory drawing for demonstrating the effect acquired by application of online learning. 本実施形態に係る情報処理装置の機能を実現することが可能なハードウェア構成例を示した説明図である。It is explanatory drawing which showed the hardware structural example which can implement | achieve the function of the information processing apparatus which concerns on this embodiment.

以下に添付図面を参照しながら、本技術に係る好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments according to the present technology will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[説明の流れについて]
ここで、以下に記載する説明の流れについて簡単に述べる。
[About the flow of explanation]
Here, the flow of explanation described below will be briefly described.

まず、図1〜図12を参照しながら、推定機の自動構築方法について説明する。次いで、図13及び図14を参照しながら、オンライン学習に基づく推定機の自動構築方法について説明する。次いで、図15及び図16を参照しながら、本実施形態に係る情報処理装置10の機能構成について説明する。次いで、図17〜図19を参照しながら、本実施形態に係る学習用データの統合方法について説明する。   First, an automatic construction method for an estimator will be described with reference to FIGS. Next, an automatic construction method for an estimator based on online learning will be described with reference to FIGS. 13 and 14. Next, the functional configuration of the information processing apparatus 10 according to the present embodiment will be described with reference to FIGS. 15 and 16. Next, a learning data integration method according to the present embodiment will be described with reference to FIGS.

次いで、図20〜図26を参照しながら、本実施形態に係る効率的な学習用データのサンプリング方法について説明する。次いで、図27〜図30を参照しながら、本実施形態に係る効率的な重み付け方法について説明する。次いで、図31を参照しながら、本実施形態に係る効率的な学習用データのサンプリング方法及び重み付け方法を組み合わせる方法について説明する。   Next, an efficient learning data sampling method according to the present embodiment will be described with reference to FIGS. Next, an efficient weighting method according to the present embodiment will be described with reference to FIGS. Next, a method of combining the efficient learning data sampling method and weighting method according to the present embodiment will be described with reference to FIG.

次いで、図32を参照しながら、本実施形態の一変形例(変形例1)に係る学習用データのサンプリング方法について説明する。次いで、図33及び図34を参照しながら、本実施形態の一変形例(変形例2)に係る学習用データのサンプリング方法及び重み付け方法について説明する。次いで、図35及び図36を参照しながら、本実施形態の一変形例(変形例3)に係る学習用データのサンプリング方法及び重み付け方法について説明する。   Next, a learning data sampling method according to a modified example (modified example 1) of the present embodiment will be described with reference to FIG. Next, a learning data sampling method and weighting method according to a modified example (modified example 2) of the present embodiment will be described with reference to FIGS. 33 and 34. Next, a learning data sampling method and weighting method according to a modified example (modified example 3) of the present embodiment will be described with reference to FIGS. 35 and 36.

次いで、図37を参照しながら、本実施形態に係る技術を画像認識機の自動構築方法に応用する方法について説明する。次いで、図38を参照しながら、本実施形態に係る技術を言語解析機の自動構築方法に応用する方法について説明する。次いで、図39を参照しながら、本実施形態に係るオンライン学習の効果について説明する。次いで、図40を参照しながら、本実施形態に係る情報処理装置10の機能を実現することが可能なハードウェア構成例について説明する。   Next, a method of applying the technology according to the present embodiment to the image construction machine automatic construction method will be described with reference to FIG. Next, a method of applying the technology according to the present embodiment to the language analyzer automatic construction method will be described with reference to FIG. Next, the effect of online learning according to the present embodiment will be described with reference to FIG. Next, a hardware configuration example capable of realizing the functions of the information processing apparatus 10 according to the present embodiment will be described with reference to FIG.

最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。   Finally, the technical idea of the embodiment will be summarized and the effects obtained from the technical idea will be briefly described.

(説明項目)
1:はじめに
1−1:推定機の自動構築方法
1−1−1:推定機の構成
1−1−2:構築処理の流れ
1−2:オンライン学習の実現に向けて
2:実施形態
2−1:情報処理装置10の機能構成
2−2:学習用データの統合方法
2−2−1:特徴量空間における学習用データの分布と推定機の精度
2−2−2:データ統合時にサンプリングする構成
2−2−3:データ統合時に重み付けする構成
2−2−4:データ統合時にサンプリング及び重み付けする構成
2−3:効率的なサンプリング/重み付け方法
2−3−1:サンプリング方法
2−3−2:重み付け方法
2−3−3:組み合わせ方法
2−4:サンプリング処理及び重み付け処理に関する変形例
2−4−1:変形例1(距離に基づく処理)
2−4−2:変形例2(クラスタリングに基づく処理)
2−4−3:変形例3(密度推定手法に基づく処理)
3:応用例
3−1:画像認識機の自動構築方法
3−2:言語解析機の自動構築方法
4:ハードウェア構成例
5:まとめ
(Description item)
1: Introduction 1-1: Estimator automatic construction method
1-1-1: Configuration of estimator
1-1-2: Flow of construction process 1-2: Toward realization of online learning 2: Embodiment 2-1: Functional configuration of information processing apparatus 2-2: Method of integrating learning data
2-2-1: Distribution of learning data in feature space and accuracy of estimator
2-2-2: Configuration for sampling during data integration
2-2-3: Configuration weighted during data integration
2-2-4: Configuration for sampling and weighting during data integration 2-3: Efficient sampling / weighting method
2-3-1: Sampling method
2-3-2: Weighting method
2-3-3: Combination method 2-4: Modification examples regarding sampling processing and weighting processing
2-4-1: Modification 1 (Processing Based on Distance)
2-4-2: Modification 2 (Processing Based on Clustering)
2-4-3: Modification 3 (processing based on density estimation method)
3: Application example 3-1: Automatic construction method of image recognizer 3-2: Automatic construction method of language analyzer 4: Hardware configuration example 5: Summary

<1:はじめに>
後述する実施形態は、推定機の自動構築方法に関する。また、同実施形態は、推定機の構築に用いる学習用データを追加できるようにする仕組み(以下、オンライン学習)に関する。そこで、同実施形態に係る技術について詳細に説明するに先立ち、推定機の自動構築方法及びオンライン学習を実現するに当たって解決すべき課題について説明する。なお、以下では遺伝アルゴリズムに基づく推定機の自動構築方法を例に挙げて説明を進めるが、同実施形態に係る技術の適用範囲はこれに限定されない。
<1: Introduction>
The embodiment described later relates to an automatic construction method for an estimator. The embodiment also relates to a mechanism (hereinafter referred to as online learning) that enables addition of learning data used for construction of an estimator. Therefore, prior to describing the technology according to the embodiment in detail, problems to be solved in realizing the automatic construction method of the estimator and online learning will be described. In the following, description will be given by taking an example of an automatic construction method for an estimator based on a genetic algorithm, but the scope of application of the technique according to the embodiment is not limited to this.

[1−1:推定機の自動構築方法]
推定機の自動構築方法について説明する。
[1-1: Automatic construction method of estimator]
An automatic construction method of the estimator will be described.

(1−1−1:推定機の構成)
はじめに、図1〜図3を参照しながら、推定機の構成について説明する。図1は、推定機を利用するシステムのシステム構成例を示した説明図である。また、図2は、推定機の構築に利用する学習用データの構成例を示した説明図である。そして、図3は、推定機の構造及び構築方法の概要を示した説明図である。
(1-1-1: Configuration of estimator)
First, the configuration of the estimator will be described with reference to FIGS. FIG. 1 is an explanatory diagram showing a system configuration example of a system that uses an estimator. FIG. 2 is an explanatory diagram showing a configuration example of learning data used for construction of an estimator. And FIG. 3 is explanatory drawing which showed the structure of the estimator, and the outline | summary of the construction method.

まず、図1を参照する。図1に示すように、推定機の構築及び推定値の算出は、例えば、情報処理装置10により実行される。情報処理装置10は、複数の学習用データ(X,t),…,(X,t)を利用して推定機を構築する。なお、以下の説明において、学習用データの集合を学習用データセットと呼ぶ場合がある。また、情報処理装置10は、構築した推定機を利用して入力データXから推定値yを算出する。この推定値yは、入力データXの認識に利用される。例えば、推定値yが所定の閾値Thより大きい場合に認識結果YESが得られ、推定値yが所定の閾値Thより小さい場合に認識結果NOが得られる。 First, refer to FIG. As illustrated in FIG. 1, the construction of the estimator and the calculation of the estimated value are executed by, for example, the information processing apparatus 10. The information processing apparatus 10 constructs an estimator using a plurality of learning data (X 1 , t 1 ),..., (X N , t N ). In the following description, a set of learning data may be referred to as a learning data set. Further, the information processing apparatus 10 calculates the estimated value y from the input data X using the constructed estimator. This estimated value y is used for recognition of the input data X. For example, the recognition result YES is obtained when the estimated value y is larger than the predetermined threshold Th, and the recognition result NO is obtained when the estimated value y is smaller than the predetermined threshold Th.

図2を参照しながら、より具体的に推定機の構成について考えてみよう。図2に例示した学習用データセットは、“海”の画像を認識する画像認識機の構築に利用されるものである。この場合、情報処理装置10により構築される推定機は、入力された画像の“海らしさ”を表す推定値yを出力するものとなる。図2に示すように、学習用データは、データXと目的変数tとのペア(但し、k=1〜N)により構成される。データXは、k番目の画像データ(画像#k)である。また、目的変数tは、画像#kが“海”の画像である場合に1、画像#kが“海”の画像でない場合に0となる変数である。 Consider the configuration of the estimator more specifically with reference to FIG. The learning data set illustrated in FIG. 2 is used to construct an image recognizer that recognizes an image of “the sea”. In this case, the estimator constructed by the information processing apparatus 10 outputs an estimated value y representing the “sea likeness” of the input image. As shown in FIG. 2, the learning data, pairs of data X k and target variable t k (where, k = 1 to N) by constructed. Data X k is the k-th image data (image #k). Further, the target variable t k, 1 if the image #k is the image of the "sea", image #k is a variable which becomes 0 when not the image of the "sea".

図2の例では、画像#1が“海”の画像であり、画像#2が“海”の画像であり、…、画像#Nが“海”の画像でない。この場合、t=1、t=1、…、t=0となる。この学習用データセットが入力されると、情報処理装置10は、入力された学習用データセットに基づく機械学習により、入力された画像の“海らしさ”を表す推定値yを出力する推定機を構築する。この推定値yは、入力された画像の“海らしさ”が高いほど1に近づき、“海らしさ”が低いほど0に近づく値である。 In the example of FIG. 2, the image # 1 is an “sea” image, the image # 2 is an “sea” image, and the image #N is not an “sea” image. In this case, t 1 = 1, t 2 = 1,..., T N = 0. When this learning data set is input, the information processing apparatus 10 outputs an estimator that outputs an estimated value y that represents the “sea likeness” of the input image by machine learning based on the input learning data set. To construct. The estimated value y is closer to 1 as the “sea likeness” of the input image is higher, and approaches 0 as the “sea likeness” is lower.

また、新たに入力データX(画像X)が入力されると、情報処理装置10は、学習用データセットを利用して構築された推定機に画像Xを入力し、画像Xの“海らしさ”を表す推定値yを算出する。この推定値yを利用すると、画像Xが“海”の画像であるか否かを認識することが可能になる。例えば、推定値y≧所定の閾値Thの場合、入力された画像Xが“海”の画像であると認識される。一方、推定値y<所定の閾値Thの場合、入力された画像Xが“海”の画像でないと認識される。   Further, when input data X (image X) is newly input, the information processing apparatus 10 inputs the image X to an estimator constructed using the learning data set, and the “sea likeness” of the image X is input. An estimated value y representing is calculated. Using this estimated value y, it is possible to recognize whether the image X is an “ocean” image. For example, when the estimated value y ≧ the predetermined threshold Th, the input image X is recognized as the “sea” image. On the other hand, when the estimated value y <predetermined threshold value Th, it is recognized that the input image X is not an “ocean” image.

本実施形態は、上記のような推定機を自動構築する技術に関する。なお、ここでは画像認識機の構築に利用される推定機について説明したが、本実施形態に係る技術は、様々な推定機の自動構築方法に適用することができる。例えば、言語解析機の構築に適用することもできるし、楽曲のメロディーラインやコード進行などを解析する音楽解析機の構築にも適用することができる。さらに、蝶の動きや雲の流れなどの自然現象を再現したり、自然の振る舞いを予測したりする動き予測機の構築などにも適用することができる。   The present embodiment relates to a technique for automatically constructing an estimator as described above. In addition, although the estimator used for the construction of the image recognizer has been described here, the technology according to the present embodiment can be applied to various automatic estimator construction methods. For example, it can be applied to the construction of a language analyzer, and can also be applied to the construction of a music analyzer that analyzes the melody line and chord progression of music. Furthermore, it can also be applied to the construction of a motion predictor that reproduces natural phenomena such as butterfly movement and cloud flow, and predicts natural behavior.

例えば、特開2009−48266号公報、特願2010−159598号明細書、特願2010−159597号明細書、特願2009−277083号明細書、特願2009−277084号明細書などに記載のアルゴリズムに適用することができる。また、AdaBoostなどのアンサンブル学習手法や、SVMやSVRなどのカーネルを用いた学習手法などにも適用できる。AdaBoostなどのアンサンブル学習手法に適用する場合、弱学習機(Weak Learner)が後述する基底関数φに対応する。また、SVMやSVRなどの学習手法に適用する場合、カーネルが後述する基底関数φに対応する。なお、SVMはSupport Vector Machine、SVRはSupport Vector Regression、RVMはRelevance Vector Machineの略である。   For example, algorithms described in Japanese Patent Application Laid-Open No. 2009-48266, Japanese Patent Application No. 2010-159598, Japanese Patent Application No. 2010-159597, Japanese Patent Application No. 2009-277083, Japanese Patent Application No. 2009-277084, etc. Can be applied to. The present invention can also be applied to an ensemble learning method such as AdaBoost or a learning method using a kernel such as SVM or SVR. When applied to an ensemble learning method such as AdaBoost, a weak learning machine (Weak Learner) corresponds to a basis function φ described later. When applied to a learning method such as SVM or SVR, the kernel corresponds to a basis function φ described later. Note that SVM is an abbreviation for Support Vector Machine, SVR is an abbreviation for Support Vector Registration, and RVM is an abbreviation for Relevance Vector Machine.

ここで、図3を参照しながら、推定機の構造について説明する。図3に示すように、推定機は、基底関数リスト(φ,…,φ)及び推定関数fにより構成される。基底関数リスト(φ,…,φ)は、M個の基底関数φ(k=1〜M)を含む。また、基底関数φは、入力データXの入力に応じて特徴量zを出力する関数である。さらに、推定関数fは、M個の特徴量z(k=1〜M)を要素として含む特徴量ベクトルZ=(z,…,z)の入力に応じて推定値yを出力する関数である。基底関数φは、予め用意された1又は複数の処理関数を組み合わせて生成される。 Here, the structure of the estimator will be described with reference to FIG. As shown in FIG. 3, the estimator includes a basis function list (φ 1 ,..., Φ M ) and an estimation function f. The basis function list (φ 1 ,..., Φ M ) includes M basis functions φ k (k = 1 to M ). The basis function φ k is a function that outputs a feature value z k according to the input of the input data X. Further, the estimation function f outputs an estimated value y according to an input of a feature vector Z = (z 1 ,..., Z M ) including M feature values z k (k = 1 to M) as elements. It is a function. The basis function φ k is generated by combining one or a plurality of processing functions prepared in advance.

処理関数としては、例えば、三角関数、指数関数、四則演算、デジタルフィルタ、微分演算、中央値フィルタ、正規化演算、ホワイトノイズの付加処理、画像処理フィルタなどが利用可能である。例えば、入力データXが画像の場合、ホワイトノイズの付加処理AddWhiteNoise()、中央値フィルタMedian()、ぼかし処理Blur()を組み合わせた基底関数φ(X)=AddWhiteNoise(Median(Blur(X)))などが利用される。この基底関数φは、入力データXに対し、ぼかし処理、中央値フィルタ処理、及びホワイトノイズの付加処理を順次施すことを意味する。 As processing functions, for example, trigonometric functions, exponential functions, four arithmetic operations, digital filters, differentiation operations, median filters, normalization operations, white noise addition processing, image processing filters, and the like can be used. For example, when the input data X is an image, a basis function φ j (X) = AddWhiteNoise (Media (Blur (X)) combining white noise addition processing AddWhiteNoise (), median filter Median (), and blurring Blur () )) Etc. are used. The basis function φ j means that the input data X is sequentially subjected to blurring processing, median filtering processing, and white noise addition processing.

(1−1−2:構築処理の流れ)
さて、基底関数φ(k=1〜M)の構成、基底関数リストの構成、推定関数fの構成は、学習用データセットに基づく機械学習により決定される。以下、この機械学習による推定機の構築処理について、より詳細に説明する。
(1-1-2: Flow of construction process)
Now, the configuration of the basis function φ k (k = 1 to M), the configuration of the basis function list, and the configuration of the estimation function f are determined by machine learning based on the learning data set. Hereinafter, the construction process of the estimator by machine learning will be described in more detail.

(全体構成)
まず、図4を参照しながら、全体的な処理の流れについて説明する。図4は、全体的な処理の流れについて説明するための説明図である。なお、以下で説明する処理は、情報処理装置10により実行される。
(overall structure)
First, the overall processing flow will be described with reference to FIG. FIG. 4 is an explanatory diagram for explaining the overall processing flow. Note that the processing described below is executed by the information processing apparatus 10.

図4に示すように、まず、情報処理装置10に学習用データセットが入力される(S101)。なお、学習用データとしては、データXと目的変数tの組が入力される。学習用データセットが入力されると、情報処理装置10は、処理関数を組み合わせて基底関数を生成する(S102)。次いで、情報処理装置10は、基底関数にデータXを入力して特徴量ベクトルZを算出する(S103)。次いで、情報処理装置10は、基底関数の評価及び推定関数の生成を行う(S104)。   As shown in FIG. 4, first, a learning data set is input to the information processing apparatus 10 (S101). Note that a set of data X and an objective variable t is input as the learning data. When the learning data set is input, the information processing apparatus 10 generates a basis function by combining processing functions (S102). Next, the information processing apparatus 10 calculates the feature vector Z by inputting the data X to the basis function (S103). Next, the information processing apparatus 10 performs basis function evaluation and generation of an estimation function (S104).

次いで、情報処理装置10は、所定の終了条件を満たしたか否かを判定する(S105)。所定の終了条件を満たした場合、情報処理装置10は、処理をステップS106に進める。一方、所定の終了条件を満たしていない場合、情報処理装置10は、処理をステップS102に戻し、ステップS102〜S104の処理を繰り返し実行する。処理をステップS106に進めた場合、情報処理装置10は、推定関数を出力する(S106)。上記の通り、ステップS102〜S104の処理は、繰り返し実行される。そこで、以下の説明においては、第τ回目の繰り返し処理においてステップS102で生成される基底関数を第τ世代の基底関数と呼ぶことにする。   Next, the information processing apparatus 10 determines whether or not a predetermined end condition is satisfied (S105). If the predetermined end condition is satisfied, the information processing apparatus 10 advances the process to step S106. On the other hand, when the predetermined end condition is not satisfied, the information processing apparatus 10 returns the process to step S102 and repeatedly executes the processes of steps S102 to S104. When the process proceeds to step S106, the information processing apparatus 10 outputs an estimation function (S106). As described above, the processes in steps S102 to S104 are repeatedly executed. Therefore, in the following description, the basis function generated in step S102 in the τ-th iteration is referred to as a τ-th generation basis function.

(基底関数の生成(S102))
ここで、図5〜図10を参照しながら、ステップS102の処理(基底関数の生成)について、より詳細に説明する。
(Generation of basis functions (S102))
Here, the processing in step S102 (basis function generation) will be described in more detail with reference to FIGS.

まず、図5を参照する。図5に示すように、情報処理装置10は、現在の世代が2世代目以降であるか否かを判定する(S111)。つまり、情報処理装置10は、現在実行しようとしているステップS102の処理が第2回目以降の繰り返し処理であるか否かを判定する。2世代目以降である場合、情報処理装置10は、処理をステップS113に進める。一方、2世代目以降でない場合(第1世代である場合)、情報処理装置10は、処理をステップS112に進める。処理をステップS112に進めた場合、情報処理装置10は、基底関数をランダムに生成する(S112)。一方、処理をステップS113に進めた場合、情報処理装置10は、基底関数を進化的に生成する(S113)。そして、情報処理装置10は、ステップS112又はS113の処理が完了すると、ステップS102の処理を終了する。   First, referring to FIG. As illustrated in FIG. 5, the information processing apparatus 10 determines whether the current generation is the second generation or later (S111). That is, the information processing apparatus 10 determines whether or not the process in step S102 that is currently being executed is a second or subsequent repetition process. If it is the second generation or later, the information processing apparatus 10 advances the process to step S113. On the other hand, when it is not the second generation or later (when it is the first generation), the information processing apparatus 10 advances the processing to step S112. When the process proceeds to step S112, the information processing apparatus 10 randomly generates a basis function (S112). On the other hand, when the process proceeds to step S113, the information processing apparatus 10 evolutionarily generates a basis function (S113). And the information processing apparatus 10 will complete | finish the process of step S102, if the process of step S112 or S113 is completed.

(S112:基底関数をランダムに生成)
次に、図6及び図7を参照しながら、ステップS112の処理について、より詳細に説明する。ステップS112の処理は、第1世代の基底関数を生成する処理に関する。
(S112: Randomly generate basis functions)
Next, the process of step S112 will be described in more detail with reference to FIGS. The process of step S112 relates to a process of generating a first generation basis function.

まず、図6を参照する。図6に示すように、情報処理装置10は、基底関数のインデックスm(m=0〜M−1)に関する処理ループを開始する(S121)。次いで、情報処理装置10は、基底関数φ(x)をランダムに生成する(S122)。次いで、情報処理装置10は、基底関数のインデックスmがM−1に達したか否かを判定し、基底関数のインデックスmがM−1に達していない場合、情報処理装置10は、基底関数のインデックスmをインクリメントしてステップS121に処理を戻す(S124)。一方、基底関数のインデックスmがm=M−1の場合、情報処理装置10は、処理ループを終了する(S124)。ステップS124で処理ループを終了すると、情報処理装置10は、ステップS112の処理を完了する。 First, referring to FIG. As illustrated in FIG. 6, the information processing apparatus 10 starts a processing loop related to the index m (m = 0 to M−1) of the basis function (S121). Next, the information processing apparatus 10 randomly generates a basis function φ m (x) (S122). Next, the information processing apparatus 10 determines whether or not the basis function index m has reached M−1. If the basis function index m has not reached M−1, the information processing apparatus 10 The index m is incremented and the process returns to step S121 (S124). On the other hand, when the index m of the basis function is m = M−1, the information processing apparatus 10 ends the processing loop (S124). When the processing loop is ended in step S124, the information processing apparatus 10 completes the process of step S112.

(ステップS122の詳細)
次に、図7を参照しながら、ステップS122の処理について、より詳細に説明する。
(Details of step S122)
Next, the process of step S122 will be described in more detail with reference to FIG.

ステップS122の処理を開始すると、図7に示すように、情報処理装置10は、基底関数のプロトタイプをランダムに決定する(S131)。プロトタイプとしては、既に例示した処理関数の他、線形項、ガウシアンカーネル、シグモイドカーネルなどの処理関数が利用可能である。次いで、情報処理装置10は、決定したプロトタイプのパラメータをランダムに決定し、基底関数を生成する(S132)。   When the process of step S122 is started, as illustrated in FIG. 7, the information processing apparatus 10 randomly determines a prototype of a basis function (S131). As a prototype, processing functions such as a linear term, a Gaussian kernel, and a sigmoid kernel can be used in addition to the processing functions exemplified above. Next, the information processing apparatus 10 randomly determines the parameters of the determined prototype, and generates a basis function (S132).

(S113:基底関数を進化的に生成)
次に、図8〜図10を参照しながら、ステップS113の処理について、より詳細に説明する。ステップS113の処理は、第τ世代(τ≧2)の基底関数を生成する処理に関する。従って、ステップS113を実行する際には、第τ−1世代の基底関数φm,τ−1(m=1〜M)及び当該基底関数φm,τ−1の評価値vm,τ−1が得られている。
(S113: Evolutionary generation of basis functions)
Next, the process of step S113 will be described in more detail with reference to FIGS. The processing in step S113 relates to processing for generating basis functions of the τ generation (τ ≧ 2). Accordingly, when executing step S113, the τ-1 generation basis functions φ m, τ-1 (m = 1 to M) and the evaluation values v m, τ− of the basis functions φ m, τ−1 are obtained. 1 is obtained.

まず、図8を参照する。図8に示すように、情報処理装置10は、基底関数の数Mを更新する(S141)。つまり、情報処理装置10は、第τ世代の基底関数の数Mτを決定する。次いで、情報処理装置10は、第τ−1世代の基底関数φm,τ−1(m=1〜M)に対する評価値vτ−1={v1,τ−1,…,vM,τ−1}に基づき、第τ−1世代の基底関数の中からe個の有用な基底関数を選択して第τ世代の基底関数φ1,τ、…、φe,τに設定する(S142)。 First, referring to FIG. As illustrated in FIG. 8, the information processing apparatus 10 updates the number M of basis functions (S141). That is, the information processing apparatus 10 determines the number M τ of basis functions of the τ generation. Next, the information processing apparatus 10 evaluates the evaluation value v τ−1 = {v 1, τ−1 ,..., V M, for the τ−1 generation basis function φ m, τ−1 (m = 1 to M). Based on τ-1 }, e useful basis functions are selected from the τ-1 generation basis functions and set to the τ generation basis functions φ 1, τ ,..., φ e, τ ( S142).

次いで、情報処理装置10は、残り(Mτ−e)個の基底関数φe+1,τ、…、φMτ,τを生成する方法を交差、突然変異、ランダム生成の中からランダムに選択する(S143)。交差を選択した場合、情報処理装置10は、処理をステップS144に進める。また、突然変異を選択した場合、情報処理装置10は、処理をステップS145に進める。そして、ランダム生成を選択した場合、情報処理装置10は、処理をステップS146に進める。 Next, the information processing apparatus 10 randomly selects a method of generating the remaining (M τ −e) basis functions φ e + 1, τ ,..., ΦMτ, τ from cross, mutation, and random generation ( S143). When the intersection is selected, the information processing apparatus 10 proceeds with the process to step S144. If a mutation is selected, the information processing apparatus 10 advances the process to step S145. If random generation is selected, the information processing apparatus 10 advances the process to step S146.

処理をステップS144に進めた場合、情報処理装置10は、ステップS142で選択された基底関数φ1,τ、…、φe,τの中から選択された基底関数を交差させて新たな基底関数φm’,τ(m’≧e+1)を生成する(S144)。また、処理をステップS145に進めた場合、情報処理装置10は、ステップS142で選択された基底関数φ1,τ、…、φe,τの中から選択された基底関数を突然変異させて新たな基底関数φm’,τ(m’≧e+1)を生成する(S145)。一方、処理をステップS146に進めた場合、情報処理装置10は、ランダムに新たな基底関数φm’,τ(m’≧e+1)を生成する(S146)。 When the process proceeds to step S144, the information processing apparatus 10, the basis functions phi 1 is selected in step S142, tau, ..., phi e, new basis function by intersecting the basis functions selected from the tau φ m ′, τ (m ′ ≧ e + 1) is generated (S144). Also, when the process proceeds to step S145, the information processing apparatus 10, the basis functions phi 1 is selected in step S142, tau, ..., phi e, newly mutated basis functions selected from the tau A basis function φ m ′, τ (m ′ ≧ e + 1) is generated (S145). On the other hand, when the process proceeds to step S146, the information processing apparatus 10 randomly generates a new basis function φ m ′, τ (m ′ ≧ e + 1) (S146).

ステップS144、S145、S146のいずれかの処理を終えると、情報処理装置10は、処理をステップS147に進める。処理をステップS147に進めると、情報処理装置10は、第τ世代の基底関数がM個(M=Mτ)に達したか否かを判定する(S147)。第τ世代の基底関数がM個に達していない場合、情報処理装置10は、処理を再びステップS143に戻す。一方、第τ世代の基底関数がM個に達した場合、情報処理装置10は、ステップS113の処理を終了する。 When any one of steps S144, S145, and S146 is completed, the information processing apparatus 10 advances the process to step S147. When the process proceeds to step S147, the information processing apparatus 10 determines whether the number of τ th generation basis functions has reached M (M = M τ ) (S147). If the number of τ-th generation basis functions has not reached M, the information processing apparatus 10 returns the process to step S143 again. On the other hand, when the number of τ th generation basis functions reaches M, the information processing apparatus 10 ends the process of step S113.

(S144の詳細:交差)
次に、図9を参照しながら、ステップS144の処理について、より詳細に説明する。
(Details of S144: Intersection)
Next, the process of step S144 will be described in more detail with reference to FIG.

ステップS144の処理を開始すると、図9に示すように、情報処理装置10は、ステップS142で選択された基底関数φ1,τ、…、φe,τの中から同じプロトタイプを持つ基底関数をランダムに2つ選択する(S151)。次いで、情報処理装置10は、選択した2つの基底関数が持つパラメータを交差させて新たな基底関数を生成する(S152)。 When the process of step S144 is started, as shown in FIG. 9, the information processing apparatus 10 selects a basis function having the same prototype from the basis functions φ 1, τ ,..., Φ e, τ selected in step S142. Two are selected at random (S151). Next, the information processing apparatus 10 generates a new basis function by intersecting the parameters of the two selected basis functions (S152).

(S145の詳細:突然変異)
次に、図10を参照しながら、ステップS145の処理について、より詳細に説明する。
(Details of S145: Mutation)
Next, the process of step S145 will be described in more detail with reference to FIG.

ステップS145の処理を開始すると、図10に示すように、情報処理装置10は、ステップS142で選択された基底関数φ1,τ、…、φe,τの中から基底関数をランダムに1つ選択する(S161)。次いで、情報処理装置10は、選択した基底関数が持つパラメータの一部をランダムに変更して新たな基底関数を生成する(S162)。 When the process of step S145 is started, as shown in FIG. 10, the information processing apparatus 10 randomly selects one basis function from the basis functions φ 1, τ ,..., Φ e, τ selected in step S142. Select (S161). Next, the information processing apparatus 10 randomly changes some of the parameters of the selected basis function to generate a new basis function (S162).

(S146の詳細:ランダム生成)
次に、図7を参照しながら、ステップS146の処理について、より詳細に説明する。
(Details of S146: random generation)
Next, the process of step S146 will be described in more detail with reference to FIG.

ステップS122の処理を開始すると、図7に示すように、情報処理装置10は、基底関数のプロトタイプをランダムに決定する(S131)。プロトタイプとしては、既に例示した処理関数の他、線形項、ガウシアンカーネル、シグモイドカーネルなどの処理関数が利用可能である。次いで、情報処理装置10は、決定したプロトタイプのパラメータをランダムに決定し、基底関数を生成する(S132)。   When the process of step S122 is started, as illustrated in FIG. 7, the information processing apparatus 10 randomly determines a prototype of a basis function (S131). As a prototype, processing functions such as a linear term, a Gaussian kernel, and a sigmoid kernel can be used in addition to the processing functions exemplified above. Next, the information processing apparatus 10 randomly determines the parameters of the determined prototype, and generates a basis function (S132).

以上、ステップS102の処理(基底関数の生成)について、より詳細に説明した。   The processing in step S102 (basis function generation) has been described in detail above.

(基底関数の計算(S103))
次に、図11を参照しながら、ステップS103の処理(基底関数の計算)について、より詳細に説明する。
(Calculation of basis function (S103))
Next, the process of step S103 (basis function calculation) will be described in more detail with reference to FIG.

図11に示すように、情報処理装置10は、学習用データセットに含まれるi番目のデータX(i)のインデックスiに関する処理ループを開始する(S171)。例えば、学習用データセットとしてN個のデータの組{X(1),…,X(N)}が入力された場合には、i=1〜Nに関して処理ループが実行される。次いで、情報処理装置10は、基底関数φのインデックスmに関する処理ループを開始する(S172)。例えば、M個の基底関数を生成した場合には、m=1〜Mに関して処理ループが実行される。 As illustrated in FIG. 11, the information processing apparatus 10 starts a processing loop related to the index i of the i-th data X (i) included in the learning data set (S171). For example, when a set of N data {X (1) ,..., X (N) } is input as a learning data set, a processing loop is executed for i = 1 to N. Next, the information processing apparatus 10 starts a processing loop regarding the index m of the basis function φ m (S172). For example, when M basis functions are generated, a processing loop is executed for m = 1 to M.

次いで、情報処理装置10は、特徴量zmi=φ(x(i))を計算する(S173)。次いで、情報処理装置10は、処理をステップS174に進め、基底関数のインデックスmに関する処理ループを続ける。そして、情報処理装置10は、基底関数のインデックスmに関する処理ループが終了すると、処理をステップS175に進め、インデックスiに関する処理ループを続ける。インデックスiに関する処理ループが終了した場合、情報処理装置10は、ステップS103の処理を終了する。 Next, the information processing apparatus 10 calculates a feature quantity z mi = φ m (x (i) ) (S173). Next, the information processing apparatus 10 proceeds with the process to step S <b> 174 and continues the processing loop regarding the index m of the basis function. Then, when the processing loop related to the index m of the basis function ends, the information processing apparatus 10 proceeds with the process to step S175 and continues the processing loop related to the index i. When the processing loop related to the index i ends, the information processing apparatus 10 ends the process of step S103.

以上、ステップS103の処理(基底関数の計算)について、より詳細に説明した。   The processing in step S103 (basis function calculation) has been described in detail above.

(基底関数の評価・推定関数の生成(S104))
次に、図12を参照しながら、ステップS104の処理(基底関数の評価・推定関数の生成)について、より詳細に説明する。
(Generation of basis function evaluation / estimation function (S104))
Next, the process of step S104 (basis function evaluation / estimation function generation) will be described in more detail with reference to FIG.

図12に示すように、情報処理装置10は、AIC基準の増減法に基づく回帰/判別学習により推定関数のパラメータw={w,…,w}を算出する(S181)。つまり、情報処理装置10は、特徴量zmi=φm,τ(x(i))と目的変数t(i)の組(i=1〜N)が推定関数fによりフィッティングされるように、回帰/判別学習によりベクトルw={w,…,w}を求める。但し、推定関数f(x)は、f(x)=Σwφm,τ(x)+wであるとする。次いで、情報処理装置10は、パラメータwが0となる基底関数の評価値vを0に設定し、それ以外の基底関数の評価値vを1に設定する(S182)。つまり、評価値vが1の基底関数は有用な基底関数である。 As illustrated in FIG. 12, the information processing apparatus 10 calculates parameters w = {w 0 ,..., W M } of the estimation function by regression / discriminative learning based on the AIC standard increase / decrease method (S181). That is, the information processing apparatus 10 is configured so that a set (i = 1 to N) of the feature quantity z mi = φ m, τ (x (i) ) and the objective variable t (i) is fitted by the estimation function f. Vector w = {w 0 ,..., W M } is obtained by regression / discriminative learning. However, the estimation function f (x) is assumed to be f (x) = Σw m φ m, τ (x) + w 0 . Next, the information processing apparatus 10 sets the evaluation value v of the basis function for which the parameter w is 0 to 0, and sets the evaluation value v of the other basis functions to 1 (S182). That is, a basis function having an evaluation value v of 1 is a useful basis function.

以上、ステップS104の処理(基底関数の評価・推定関数の生成)について、より詳細に説明した。   The processing in step S104 (basis function evaluation / estimation function generation) has been described in more detail above.

推定機の構築に係る処理の流れは上記の通りである。このように、ステップS102〜S104の処理が繰り返し実行され、基底関数が進化的手法により逐次更新されることにより推定精度の高い推定関数が得られる。つまり、上記の方法を適用することで、高性能な推定機を自動構築することができる。   The flow of processing related to the construction of the estimator is as described above. As described above, the processes in steps S102 to S104 are repeatedly executed, and the basis function is sequentially updated by an evolutionary method, thereby obtaining an estimation function with high estimation accuracy. That is, a high-performance estimator can be automatically constructed by applying the above method.

[1−2:オンライン学習の実現に向けて]
さて、上記のように、機械学習により推定機を自動構築するアルゴリズムの場合、学習用データの数が多いほど、構築される推定機の性能が高くなる。そのため、可能な限り多くの学習用データを利用して推定機を構築するのが好ましい。しかしながら、学習用データの格納に利用できる情報処理装置10のメモリ容量は限られている。また、学習用データの数が多くなると、推定機の構築を実現するために要求される演算性能も高くなってしまう。こうした理由から、バッチ処理にて推定機を構築する上記の方法(以下、オフライン学習)を用いている限り、推定機の性能は、情報処理装置10のリソースにより制限されてしまう。
[1-2: Toward realization of online learning]
As described above, in the case of an algorithm that automatically constructs an estimator by machine learning, the performance of the constructed estimator increases as the number of learning data increases. Therefore, it is preferable to construct an estimator using as much learning data as possible. However, the memory capacity of the information processing apparatus 10 that can be used for storing learning data is limited. In addition, when the number of learning data increases, the calculation performance required for realizing the construction of the estimator also increases. For these reasons, as long as the above method for constructing an estimator by batch processing (hereinafter, offline learning) is used, the performance of the estimator is limited by the resources of the information processing apparatus 10.

そこで、本件発明者は、学習用データを逐次追加できるようにする仕組み(以下、オンライン学習)を考案した。オンライン学習に係る推定機の構築は、図13に示すような処理の流れに沿って行われる。図13に示すように、まず、学習用データセットが情報処理装置10に入力される(Step 1)。次いで、情報処理装置10は、入力された学習用データセットを利用し、既に説明した推定機の自動構築方法により推定機を構築する(Step 2)。   Therefore, the present inventors have devised a mechanism (hereinafter referred to as online learning) that allows learning data to be added sequentially. The construction of the estimator for online learning is performed along the flow of processing as shown in FIG. As shown in FIG. 13, first, a learning data set is input to the information processing apparatus 10 (Step 1). Next, the information processing apparatus 10 uses the input learning data set, and constructs an estimator by the estimator automatic construction method already described (Step 2).

次いで、情報処理装置10は、随時又は所定のタイミングで追加の学習用データを取得する(Step 3)。次いで、情報処理装置10は、(Step 1)で入力された学習用データセットと、(Step 3)で取得した学習用データとを統合する(Step 4)。このとき、情報処理装置10は、学習用データのサンプリング処理や重み付け処理を実行し、統合後の学習用データセットを生成する。そして、情報処理装置10は、統合後の学習用データセットを利用し、再び推定機を構築する(Step 2)。このとき、情報処理装置10は、既に説明した推定機の自動構築方法により推定機を構築する。   Next, the information processing apparatus 10 acquires additional learning data at any time or at a predetermined timing (Step 3). Next, the information processing apparatus 10 integrates the learning data set input in (Step 1) and the learning data acquired in (Step 3) (Step 4). At this time, the information processing apparatus 10 performs a learning data sampling process and a weighting process, and generates an integrated learning data set. Then, the information processing apparatus 10 constructs an estimator again using the integrated learning data set (Step 2). At this time, the information processing apparatus 10 constructs an estimator using the estimator automatic construction method described above.

なお、(Step 2)で構築された推定機は、構築の度に出力されるようにしてもよい。また、(Step 2)〜(Step 4)の処理は繰り返し実行される。そして、学習用データセットは、処理が繰り返される度に更新される。例えば、繰り返しの度に学習用データが追加されるようにすれば、推定機の構築処理に利用される学習用データの数が増加するため、推定機の性能が向上する。しかし、情報処理装置10のリソースには限界があるため、(Step 4)で実行される学習用データの統合処理では、より有用な学習用データが推定機の構築に利用されるように統合の仕方を工夫する必要がある。   Note that the estimator constructed in (Step 2) may be output every time it is constructed. Further, the processing of (Step 2) to (Step 4) is repeatedly executed. The learning data set is updated each time the process is repeated. For example, if learning data is added each time it is repeated, the number of pieces of learning data used for the estimator construction process increases, so that the performance of the estimator improves. However, since the resources of the information processing apparatus 10 are limited, the integration process of learning data executed in (Step 4) is performed so that more useful learning data is used for the construction of the estimator. It is necessary to devise a way.

(課題の整理)
図14に示すように、オフライン学習を適用する場合、推定機の構築に利用可能な学習用データの数に限りがあるため、推定機の更なる性能向上に限界がある。一方、オンライン学習を適用すると、学習用データの追加が可能になるため、推定機の更なる性能向上が期待できる。しかし、情報処理装置10のリソースには限りがあるため、限られたリソースの中で推定機の更なる性能向上を果たせるように学習用データの統合方法を工夫する必要がある。以下の実施形態に係る技術は、こうした課題を解決すべく考案されたものである。
(Organization of issues)
As shown in FIG. 14, when offline learning is applied, there is a limit to the further performance improvement of the estimator because the number of learning data available for construction of the estimator is limited. On the other hand, when online learning is applied, it becomes possible to add learning data, so that further improvement in the performance of the estimator can be expected. However, since the resources of the information processing apparatus 10 are limited, it is necessary to devise a method for integrating learning data so that the performance of the estimator can be further improved within the limited resources. The technology according to the following embodiments has been devised to solve these problems.

<2:実施形態>
本技術の一実施形態について説明する。
<2: Embodiment>
An embodiment of the present technology will be described.

[2−1:情報処理装置10の機能構成]
まず、図15及び図16を参照しながら、本実施形態に係る情報処理装置10の機能構成について説明する。図15は、本実施形態に係る情報処理装置10の全体的な機能構成を示した説明図である。一方、図16は、本実施形態に係る情報処理装置10を構成する推定機構築部12の詳細な機能構成を示した説明図である。
[2-1: Functional Configuration of Information Processing Apparatus 10]
First, the functional configuration of the information processing apparatus 10 according to the present embodiment will be described with reference to FIGS. 15 and 16. FIG. 15 is an explanatory diagram showing an overall functional configuration of the information processing apparatus 10 according to the present embodiment. On the other hand, FIG. 16 is an explanatory diagram showing a detailed functional configuration of the estimator construction unit 12 configuring the information processing apparatus 10 according to the present embodiment.

(全体的な機能構成)
まず、図15を参照しながら、全体的な機能構成について説明する。図15に示すように、情報処理装置10は、主に、学習用データ取得部11と、推定機構築部12と、入力データ取得部13と、結果認識部14とにより構成される。
(Overall functional configuration)
First, an overall functional configuration will be described with reference to FIG. As illustrated in FIG. 15, the information processing apparatus 10 mainly includes a learning data acquisition unit 11, an estimator construction unit 12, an input data acquisition unit 13, and a result recognition unit 14.

推定機の構築処理が開始されると、学習用データ取得部11は、推定機の構築に利用する学習用データを取得する。例えば、学習用データ取得部11は、記憶装置(非図示)に格納された学習用データを読み出す。或いは、学習用データ取得部11は、学習用データを提供するシステムなどからネットワークを介して学習用データを取得する。また、学習用データ取得部11は、タグが付されたデータを取得し、タグに基づいてデータと目的変数との組で構成される学習用データを生成してもよい。   When the estimator construction process is started, the learning data acquisition unit 11 acquires learning data used for construction of the estimator. For example, the learning data acquisition unit 11 reads learning data stored in a storage device (not shown). Alternatively, the learning data acquisition unit 11 acquires learning data via a network from a system that provides learning data. In addition, the learning data acquisition unit 11 may acquire data with a tag and generate learning data including a set of data and an objective variable based on the tag.

学習用データ取得部11により取得された学習用データの集合(学習用データセット)は、推定機構築部12に入力される。学習用データセットが入力されると、推定機構築部12は、入力された学習用データセットに基づく機械学習により推定機を構築する。例えば、推定機構築部12は、既に説明した遺伝アルゴリズムに基づく推定機の自動構築方法を利用して推定機を構築する。また、学習用データ取得部11から追加の学習用データが入力された場合、推定機構築部12は、学習用データを統合し、統合後の学習用データセットを利用して推定機を構築する。   A set of learning data (learning data set) acquired by the learning data acquisition unit 11 is input to the estimator construction unit 12. When the learning data set is input, the estimator construction unit 12 constructs an estimator by machine learning based on the input learning data set. For example, the estimator construction unit 12 constructs an estimator using the method for automatically constructing an estimator based on the genetic algorithm already described. When additional learning data is input from the learning data acquisition unit 11, the estimator construction unit 12 integrates the learning data and constructs an estimator using the integrated learning data set. .

推定機構築部12により構築された推定機は、結果認識部14に入力される。この推定機は、任意の入力データに対する認識結果を得るために利用される。入力データ取得部13により認識対象の入力データが取得されると、取得された入力データは、結果認識部14に入力される。入力データが入力されると、結果認識部14は、入力された入力データを推定機に入力し、推定機から出力される推定値に基づいて認識結果を生成する。例えば、図1に示すように、結果認識部14は、推定値yと所定の閾値Thとを比較し、比較結果に応じて認識結果を出力する。   The estimator constructed by the estimator construction unit 12 is input to the result recognition unit 14. This estimator is used to obtain a recognition result for arbitrary input data. When the input data to be recognized is acquired by the input data acquisition unit 13, the acquired input data is input to the result recognition unit 14. When input data is input, the result recognition unit 14 inputs the input data to the estimator, and generates a recognition result based on the estimated value output from the estimator. For example, as illustrated in FIG. 1, the result recognition unit 14 compares the estimated value y with a predetermined threshold Th and outputs a recognition result according to the comparison result.

以上、情報処理装置10の全体的な機能構成について説明した。   The overall functional configuration of the information processing apparatus 10 has been described above.

(推定機構築部12の機能構成)
次に、図16を参照しながら、推定機構築部12の機能構成について詳細に説明する。図16に示すように、推定機構築部12は、基底関数リスト生成部121と、特徴量計算部122と、推定関数生成部123と、学習用データ統合部124とにより構成される。
(Functional configuration of the estimator construction unit 12)
Next, the functional configuration of the estimator construction unit 12 will be described in detail with reference to FIG. As illustrated in FIG. 16, the estimator construction unit 12 includes a basis function list generation unit 121, a feature amount calculation unit 122, an estimation function generation unit 123, and a learning data integration unit 124.

推定機の構築処理が開始されると、まず、基底関数リスト生成部121は、基底関数リストを生成する。そして、基底関数リスト生成部121により生成された基底関数リストは、特徴量計算部122に入力される。また、特徴量計算部122には、学習用データセットが入力される。基底関数リスト及び学習用データセットが入力されると、特徴量計算部122は、入力された学習用データセットのデータを基底関数リストに含まれる各基底関数に入力して特徴量を算出する。特徴量計算部122により算出された特徴量の組(特徴量ベクトル)は、推定関数生成部123に入力される。   When the estimator construction process is started, the basis function list generation unit 121 first generates a basis function list. The basis function list generated by the basis function list generation unit 121 is input to the feature amount calculation unit 122. A learning data set is input to the feature amount calculation unit 122. When the basis function list and the learning data set are input, the feature amount calculation unit 122 calculates the feature amount by inputting the data of the input learning data set to each basis function included in the basis function list. A set of feature amounts (feature amount vector) calculated by the feature amount calculation unit 122 is input to the estimation function generation unit 123.

特徴量ベクトルが入力されると、推定関数生成部123は、入力された特徴量ベクトル及び学習用データを構成する目的変数に基づいて回帰/判別学習により推定関数を生成する。なお、遺伝アルゴリズムに基づく推定機の構築方法を適用する場合、推定関数生成部123は、生成した推定関数に対する各基底関数の寄与率(評価値)を算出し、その寄与率に基づいて終了条件を満たすか否かを判定する。終了条件を満たす場合、推定関数生成部123は、基底関数リスト及び推定関数を含む推定機を出力する。   When the feature quantity vector is input, the estimation function generation unit 123 generates an estimation function by regression / discriminant learning based on the input feature quantity vector and the objective variable constituting the learning data. In addition, when applying the construction method of the estimator based on the genetic algorithm, the estimation function generation unit 123 calculates the contribution rate (evaluation value) of each basis function with respect to the generated estimation function, and ends based on the contribution rate It is determined whether or not the above is satisfied. When the termination condition is satisfied, the estimation function generation unit 123 outputs an estimator including a basis function list and an estimation function.

一方、終了条件を満たさない場合、推定関数生成部123は、生成した推定関数に対する各基底関数の寄与率を基底関数リスト生成部121に通知する。この通知を受けた基底関数リスト生成部121は、遺伝アルゴリズムにより各基底関数の寄与率に基づいて基底関数リストを更新する。基底関数リストを更新した場合、基底関数リスト生成部121は、更新後の基底関数リストを特徴量計算部122に入力する。更新後の基底関数リストが入力された場合、特徴量計算部122は、更新後の基底関数リストを用いて特徴量ベクトルを算出する。そして、特徴量計算部122により算出された特徴量ベクトルは、推定関数生成部123に入力される。   On the other hand, when the termination condition is not satisfied, the estimation function generation unit 123 notifies the basis function list generation unit 121 of the contribution rate of each basis function to the generated estimation function. Upon receiving this notification, the basis function list generation unit 121 updates the basis function list based on the contribution rate of each basis function using a genetic algorithm. When the basis function list is updated, the basis function list generation unit 121 inputs the updated basis function list to the feature amount calculation unit 122. When the updated basis function list is input, the feature amount calculation unit 122 calculates a feature amount vector using the updated basis function list. The feature amount vector calculated by the feature amount calculation unit 122 is input to the estimation function generation unit 123.

上記のように、遺伝アルゴリズムに基づく推定機の構築方法を適用する場合、終了条件が満たされるまで、推定関数生成部123による推定関数の生成処理、基底関数リスト生成部121による基底関数リストの更新処理、及び特徴量計算部122による特徴量ベクトルの算出処理が繰り返し実行される。そして、終了条件が満たされた場合、推定関数生成部123から推定機が出力される。   As described above, when applying the construction method of the estimator based on the genetic algorithm, the estimation function generation process by the estimation function generation unit 123 and the update of the basis function list by the basis function list generation unit 121 until the termination condition is satisfied The processing and the feature amount vector calculation processing by the feature amount calculation unit 122 are repeatedly executed. When the end condition is satisfied, the estimation function generation unit 123 outputs an estimator.

また、追加の学習用データが入力されると、入力された追加の学習用データは、特徴量計算部122及び学習用データ統合部124に入力される。追加の学習用データが入力されると、特徴量計算部122は、追加の学習用データを構成するデータを基底関数リストに含まれる各基底関数に入力して特徴量を生成する。そして、追加の学習用データに対応する特徴量ベクトル及び既存の学習用データに対応する特徴量ベクトルは、学習用データ統合部124に入力される。なお、学習用データ統合部124には、既存の学習用データも入力されているものとする。   When the additional learning data is input, the input additional learning data is input to the feature amount calculation unit 122 and the learning data integration unit 124. When the additional learning data is input, the feature amount calculation unit 122 generates the feature amount by inputting the data constituting the additional learning data to each basis function included in the basis function list. Then, the feature amount vector corresponding to the additional learning data and the feature amount vector corresponding to the existing learning data are input to the learning data integration unit 124. It is assumed that existing learning data is also input to the learning data integration unit 124.

学習用データ統合部124は、後述する学習用データの統合方法に基づいて既存の学習用データセットと追加の学習用データとを統合する。例えば、学習用データ統合部124は、特徴量空間において特徴量ベクトルにより示される座標(以下、特徴量座標)の分布が所定の分布となるように学習用データを間引いたり、学習用データに重みを設定したりする。学習用データを間引いた場合、間引き後の学習用データセットが統合後の学習用データセットとして利用される。一方、学習用データに重みを設定した場合、推定関数生成部123による回帰/判別学習の際に各学習用データに設定された重みが考慮される。   The learning data integration unit 124 integrates an existing learning data set and additional learning data based on a learning data integration method described later. For example, the learning data integration unit 124 thins out the learning data so that the distribution of coordinates (hereinafter referred to as feature amount coordinates) indicated by the feature amount vector in the feature amount space becomes a predetermined distribution, or weights the learning data. Or setting. When the learning data is thinned out, the thinned learning data set is used as the integrated learning data set. On the other hand, when the weight is set for the learning data, the weight set for each learning data is taken into account in the regression / discriminative learning by the estimation function generation unit 123.

学習用データが統合されると、統合後の学習用データセットを用いて推定機の自動構築処理が実行される。具体的には、学習用データ統合部124から推定関数生成部123に統合後の学習用データセットと、統合後の学習用データセットに含まれる学習用データに対応する特徴量ベクトルとが入力され、推定関数生成部123により推定関数が生成される。また、遺伝アルゴリズムに基づく推定機の構築方法を適用する場合、統合後の学習用データセットを利用して推定関数の生成、寄与率の算出、基底関数リストの更新などの処理が実行される。   When the learning data is integrated, the estimator automatic construction process is executed using the integrated learning data set. Specifically, the learning data set after integration and the feature vector corresponding to the learning data included in the learning data set after integration are input from the learning data integration unit 124 to the estimation function generation unit 123. The estimation function generation unit 123 generates an estimation function. In addition, when applying an estimator construction method based on a genetic algorithm, processing such as generation of an estimation function, calculation of a contribution rate, and update of a basis function list is performed using the integrated learning data set.

以上、推定機構築部12の詳細な機能構成について説明した。   The detailed functional configuration of the estimator construction unit 12 has been described above.

[2−2:学習用データの統合方法]
次に、本実施形態に係る学習用データの統合方法について説明する。ここで説明する学習用データの統合方法は、学習用データ統合部124の機能により実現される。
[2-2: Method for integrating learning data]
Next, a learning data integration method according to the present embodiment will be described. The learning data integration method described here is realized by the function of the learning data integration unit 124.

(2−2−1:特徴量空間における学習用データの分布と推定機の精度)
まず、図17を参照しながら、特徴量空間における学習用データの分布と推定機の精度との関係について考察する。図17は、特徴量空間における学習用データの分布例を示した説明図である。
(2-2-1: Distribution of learning data in feature space and accuracy of estimator)
First, the relationship between the distribution of learning data in the feature amount space and the accuracy of the estimator will be considered with reference to FIG. FIG. 17 is an explanatory diagram showing a distribution example of learning data in the feature amount space.

1つの特徴量ベクトルは、1つの学習用データを構成するデータを基底関数リストに含まれる各基底関数に入力することで得られる。つまり、1つの学習用データには1つの特徴量ベクトル(特徴量座標)が対応する。そのため、特徴量座標の分布を特徴量空間における学習用データの分布と呼ぶことにする。特徴量空間における学習用データの分布は、例えば、図17のようになる。なお、表現の都合上、図17の例では2次元の特徴量空間を考えているが、特徴量空間の次元数はこれに限定されない。   One feature vector is obtained by inputting data constituting one learning data to each basis function included in the basis function list. That is, one feature vector (feature amount coordinate) corresponds to one learning data. For this reason, the distribution of feature amount coordinates is referred to as the distribution of learning data in the feature amount space. The distribution of learning data in the feature amount space is, for example, as shown in FIG. For the convenience of expression, the example of FIG. 17 considers a two-dimensional feature amount space, but the number of dimensions of the feature amount space is not limited to this.

さて、図17に例示した特徴量座標の分布を参照すると、第4象限に疎な領域が存在していることに気づくであろう。既に説明した通り、推定関数は、全ての学習用データについて特徴量ベクトルと目的変数との関係がうまく表現されるように回帰/判別学習により生成される。そのため、特徴量座標の密度が疎な領域について、推定関数は、特徴量ベクトルと目的変数との関係をうまく表現できていない可能性が高い。従って、認識処理の対象となる入力データに対応する特徴量座標が上記の疎な領域に位置する場合、高精度の認識結果を期待することは難しい。   Now, referring to the distribution of the feature amount coordinates illustrated in FIG. 17, it will be noticed that a sparse region exists in the fourth quadrant. As already described, the estimation function is generated by regression / discriminant learning so that the relationship between the feature vector and the objective variable is well expressed for all learning data. For this reason, there is a high possibility that the estimation function cannot express the relationship between the feature quantity vector and the objective variable well in an area where the density of feature quantity coordinates is sparse. Therefore, it is difficult to expect a highly accurate recognition result when the feature amount coordinates corresponding to the input data to be recognized are located in the sparse region.

図18に示すように、学習用データの数が多くなると疎な領域が生じにくくなり、どの領域に対応する入力データが入力されても高い精度で認識結果を出力することが可能な推定機を構築できるようになると期待される。また、学習用データの数が比較的少なくても、特徴量座標が特徴量空間において満遍なく分布していれば、高い精度で認識結果を出力することが可能な推定機を構築できるものと期待される。そこで、本件発明者は、学習用データを統合する際に特徴量座標の分布を考慮し、統合後の学習用データセットに対応する特徴量座標の分布が所定の分布(例えば、一様分布やガウス分布など)となるように調整する仕組みを考案した。   As shown in FIG. 18, an estimator capable of outputting a recognition result with high accuracy even if input data corresponding to any region is input is less likely to occur when the number of learning data increases. Expected to be able to build. In addition, even if the number of learning data is relatively small, it is expected that an estimator capable of outputting recognition results with high accuracy can be constructed if the feature amount coordinates are evenly distributed in the feature amount space. The Therefore, the present inventor considers the distribution of feature amount coordinates when integrating learning data, and the distribution of feature amount coordinates corresponding to the integrated learning data set is a predetermined distribution (for example, uniform distribution or We have devised a mechanism to adjust it so that it has a Gaussian distribution.

(2−2−2:データ統合時にサンプリングする構成)
まず、図19を参照しながら、学習用データをサンプリングする方法について説明する。図19は、学習用データをサンプリングする方法について説明するための説明図である。
(2-2-2: Configuration for sampling during data integration)
First, a method for sampling learning data will be described with reference to FIG. FIG. 19 is an explanatory diagram for explaining a method of sampling learning data.

既に説明したように、オンライン学習を適用する場合、逐次的に学習用データを追加できるため、多量の学習用データを用いて推定機を構築することが可能になる。しかし、情報処理装置10のメモリリソースが限られている場合、学習用データの統合時に、推定機の構築に利用する学習用データの数を絞り込む必要がある。このとき、ランダムに学習用データを間引くのではなく、特徴量座標の分布を考慮して学習用データを間引くことで、推定機の精度を低下させることなく、学習用データの数を絞り込むことができる。例えば、図19に示すように、密な領域に含まれる特徴量座標を多く間引き、疎な領域に含まれる特徴量座標を極力残すようにする。   As described above, when online learning is applied, learning data can be added sequentially, so that an estimator can be constructed using a large amount of learning data. However, when the memory resources of the information processing apparatus 10 are limited, it is necessary to narrow down the number of learning data used for constructing the estimator when integrating the learning data. At this time, it is possible to narrow down the number of learning data without degrading the accuracy of the estimator by thinning out the learning data in consideration of the distribution of the feature amount coordinates instead of randomly thinning out the learning data. it can. For example, as shown in FIG. 19, many feature amount coordinates included in a dense region are thinned out, and feature amount coordinates included in a sparse region are left as much as possible.

このような方法で学習用データを間引くことにより、統合後の学習用データセットに対応する特徴量座標の密度が均一になる。つまり、学習用データの数は少なくなったが、特徴量空間の全体に満遍なく特徴量座標が分布しているため、推定関数の生成時に実行する回帰/判別学習の際に特徴量空間の全体が考慮されることになる。その結果、情報処理装置10のメモリリソースが限られていても、高い精度で正しい認識結果を推定することが可能な推定機を構築することが可能になる。   By thinning out the learning data by such a method, the density of the feature amount coordinates corresponding to the integrated learning data set becomes uniform. In other words, the number of learning data is reduced, but the feature amount coordinates are distributed evenly throughout the feature amount space. Therefore, the entire feature amount space is used in the regression / discriminative learning executed when the estimation function is generated. Will be considered. As a result, even if the memory resource of the information processing apparatus 10 is limited, it is possible to construct an estimator that can estimate a correct recognition result with high accuracy.

(2−2−3:データ統合時に重み付けする構成)
次に、学習用データに重みを設定する方法について説明する。
(2-2-3: Configuration weighted during data integration)
Next, a method for setting weights for learning data will be described.

情報処理装置10のメモリリソースが限られている場合、学習用データの統合時に学習用データを間引く方法は有効である。一方、メモリリソースに余裕がある場合、学習用データを間引く代わりに、学習用データに重みを設定することで推定機の性能を向上させることが可能になる。例えば、疎な領域に特徴量座標が含まれる学習用データには大きな重みを設定し、密な領域に特徴量座標が含まれる学習用データには小さな重みを設定する。そして、推定関数の生成時に実行する回帰/判別学習の際に各学習用データに設定された重みを考慮するようにする。   When the memory resources of the information processing apparatus 10 are limited, a method of thinning out learning data when integrating learning data is effective. On the other hand, when there is a margin in memory resources, it is possible to improve the performance of the estimator by setting weights on the learning data instead of thinning out the learning data. For example, a large weight is set for learning data in which feature amount coordinates are included in a sparse region, and a small weight is set in learning data in which feature amount coordinates are included in a dense region. Then, the weight set for each learning data is taken into consideration in the regression / discriminative learning executed when the estimation function is generated.

(2−2−4:データ統合時にサンプリング及び重み付けする構成)
また、学習用データをサンプリングする方法と、学習用データに重みを設定する方法とを組み合わせてもよい。例えば、特徴量座標の分布が所定の分布となるように学習用データを間引いた後、間引き後の学習用データセットに含まれる学習用データに対し、特徴量座標の密度に応じた重みを設定する。このように、間引き処理と重み付け処理とを組み合わせることにより、メモリリソースが限られていても、より高精度の推定機を構築することが可能になる。
(2-2-4: Configuration for sampling and weighting during data integration)
Further, a method of sampling learning data may be combined with a method of setting weights on learning data. For example, after thinning out the learning data so that the distribution of the feature amount coordinates becomes a predetermined distribution, a weight corresponding to the density of the feature amount coordinates is set for the learning data included in the thinned learning data set To do. Thus, by combining the thinning process and the weighting process, it is possible to construct a more accurate estimator even if the memory resources are limited.

[2−3:効率的なサンプリング/重み付け方法]
次に、学習用データの効率的なサンプリング/重み付け方法について説明する。
[2-3: Efficient sampling / weighting method]
Next, an efficient sampling / weighting method for learning data will be described.

(2−3−1:サンプリング方法)
まず、図20を参照しながら、学習用データの効率的なサンプリング方法について説明する。図20は、学習用データの効率的なサンプリング方法について説明するための説明図である。
(2-3-1: Sampling method)
First, an efficient sampling method for learning data will be described with reference to FIG. FIG. 20 is an explanatory diagram for explaining an efficient sampling method of learning data.

図20に示すように、情報処理装置10は、特徴量計算部122の機能により、全ての学習用データについて特徴量ベクトル(特徴量座標)を算出する(S201)。次いで、情報処理装置10は、特徴量計算部122の機能により、算出した特徴量座標を正規化する(S202)。例えば、特徴量計算部122は、図21に示すように、各特徴量について、分散が1、平均が0となるように値を正規化する。このようにして正規化された特徴量座標は、学習用データ統合部124に入力される。   As illustrated in FIG. 20, the information processing apparatus 10 calculates feature amount vectors (feature amount coordinates) for all the learning data using the function of the feature amount calculation unit 122 (S201). Next, the information processing apparatus 10 normalizes the calculated feature amount coordinates by the function of the feature amount calculation unit 122 (S202). For example, as shown in FIG. 21, the feature quantity calculation unit 122 normalizes the values so that the variance is 1 and the average is 0 for each feature quantity. The feature amount coordinates normalized in this way are input to the learning data integration unit 124.

次いで、情報処理装置10は、学習用データ統合部124の機能により、ランダムにハッシュ関数gを生成する(S203)。例えば、学習用データ統合部124は、下記の式(1)に示すような5ビットの値を出力するハッシュ関数gを複数生成する。このとき、学習用データ統合部124は、Q個のハッシュ関数g(q=1〜Q)を生成する。但し、関数h(j=1〜5)は、下記の式(2)により定義される。また、d及びThresholdは、乱数により決定される。 Next, the information processing apparatus 10 randomly generates a hash function g by the function of the learning data integration unit 124 (S203). For example, the learning data integration unit 124 generates a plurality of hash functions g that output a 5-bit value as shown in the following equation (1). At this time, the learning data integration unit 124 generates Q hash functions g q (q = 1 to Q). However, the function h j (j = 1 to 5) is defined by the following equation (2). D and Threshold are determined by random numbers.

但し、特徴量座標の分布を一様分布に近づける場合、Thresholdの決定に用いる乱数として一様乱数を用いる。また、特徴量座標の分布をガウス分布に近づける場合、Thresholdの決定に用いる乱数としてガウス乱数を用いる。他の分布についても同様である。また、dの決定は、zの算出に用いた基底関数の寄与率に応じた偏りのある乱数を用いて行われる。例えば、zの算出に用いた基底関数の寄与率が大きいほど、dの発生する確率が高くなる乱数が用いられる。 However, when the distribution of the feature amount coordinates is made closer to the uniform distribution, a uniform random number is used as a random number used for determination of Threshold. Further, when the distribution of the feature amount coordinates is made close to a Gaussian distribution, a Gaussian random number is used as a random number used for determination of Threshold. The same applies to other distributions. Also, the determination of d is carried out using a random number that is biased in accordance with the contribution ratio of the basis functions used to calculate the z d. For example, a random number whose probability of occurrence of d increases as the contribution rate of the basis function used for calculating z d increases is used.

ハッシュ関数g(q=1〜Q)を生成すると、学習用データ統合部124は、各学習用データに対応する特徴量ベクトルZをハッシュ関数gに入力し、ハッシュ値を算出する。そして、学習用データ統合部124は、算出したハッシュ値に基づいて学習用データをバケットに割り当てる(S204)。但し、ここで言うバケットとは、ハッシュ値として取り得る値が対応付けられた領域を意味する。 When the hash function g q (q = 1 to Q) is generated, the learning data integration unit 124 inputs the feature quantity vector Z corresponding to each learning data to the hash function g q and calculates a hash value. Then, the learning data integration unit 124 assigns learning data to the bucket based on the calculated hash value (S204). However, the bucket mentioned here means an area associated with values that can be taken as hash values.

例えば、ハッシュ値が5ビット、Q=256の場合について考えてみよう。この場合、バケットの構成は図22のようになる。図22に示すように、ハッシュ値が5ビットであるから、1つのハッシュ関数gに対し、32個のバケット(以下、バケットセット)が設けられる。また、Q=256であるから、256組のバケットセットが設けられる。この例に沿って、学習用データをバケットに割り当てる方法について説明する。 For example, consider the case where the hash value is 5 bits and Q = 256. In this case, the configuration of the bucket is as shown in FIG. As shown in FIG. 22, since the hash value is 5 bits, 32 buckets (hereinafter referred to as bucket sets) are provided for one hash function g q . Since Q = 256, 256 bucket sets are provided. A method of assigning learning data to buckets will be described along this example.

ある学習用データに対応する特徴量ベクトルZが与えられると、256個のハッシュ関数g〜g256を用いて256個のハッシュ値が算出される。例えば、g(Z)=2(10進数表示)であった場合、学習用データ統合部124は、その学習用データをgに対応するバケットセットの中で2に対応するバケットに割り当てる。同様に、g(Z)(q=2〜256)を算出し、各値に対応するバケットに学習用データを割り当てる。図22の例では、2種類の学習用データを白丸と黒丸とで表現し、各バケットとの対応関係を模式的に表現している。 Given a feature vector Z corresponding to certain learning data, 256 hash values are calculated using 256 hash functions g 1 to g 256 . For example, when g 1 (Z) = 2 (decimal number display), the learning data integration unit 124 assigns the learning data to the bucket corresponding to 2 in the bucket set corresponding to g 1 . Similarly, g q (Z) (q = 2 to 256) is calculated, and learning data is assigned to the bucket corresponding to each value. In the example of FIG. 22, two types of learning data are expressed by white circles and black circles, and the corresponding relationship with each bucket is schematically expressed.

このようにして各学習用データをバケットに割り当てると、学習用データ統合部124は、所定の順序でバケットから学習用データを1つ選択する(S205)。例えば、学習用データ統合部124は、図23に示すように、左上(ハッシュ関数のインデックスqが小さく、バケットに割り当てられた値が小さい側)から順にバケットを走査し、バケットに割り当てられた学習用データを1つ選択する。   When each learning data is assigned to the bucket in this way, the learning data integration unit 124 selects one learning data from the bucket in a predetermined order (S205). For example, as shown in FIG. 23, the learning data integration unit 124 scans the bucket in order from the upper left (the side where the index q of the hash function is small and the value assigned to the bucket is small), and learning assigned to the bucket. Select one data.

バケットから学習用データを選択するルールは、図24に示した通りである。第1に、学習用データ統合部124は、空のバケットをスキップする。第2に、学習用データ統合部124は、1つの学習用データを選択した場合、同じ学習用データを他の全てのバケットから除く。第3に、学習用データ統合部124は、1つのバケットに複数の学習用データが割り当てられている場合にはランダムに1つの学習用データを選択する。なお、選択された学習用データの情報は、学習用データ統合部124により保持される。   The rules for selecting learning data from the bucket are as shown in FIG. First, the learning data integration unit 124 skips empty buckets. Second, when one learning data is selected, the learning data integration unit 124 excludes the same learning data from all other buckets. Third, the learning data integration unit 124 randomly selects one learning data when a plurality of learning data is assigned to one bucket. Note that the information of the selected learning data is held by the learning data integration unit 124.

1つの学習用データを選択した後、学習用データ統合部124は、所定数の学習用データを選択し終えたか否かを判定する(S206)。所定数の学習用データを選択し終えた場合、学習用データ統合部124は、選択した所定数の学習用データを統合後の学習用データセットとして出力し、学習用データの統合に係る一連の処理を終了する。一方、所定数の学習用データを選択し終えていない場合、学習用データ統合部124は、処理をステップS205に進める。   After selecting one piece of learning data, the learning data integration unit 124 determines whether or not a predetermined number of pieces of learning data have been selected (S206). When the selection of the predetermined number of learning data has been completed, the learning data integration unit 124 outputs the selected predetermined number of learning data as an integrated learning data set, and a series of learning data integration series. The process ends. On the other hand, if the predetermined number of learning data has not been selected, the learning data integration unit 124 proceeds with the process to step S205.

以上、学習用データの効率的なサンプリング方法について説明した。なお、特徴量空間と上記のバケットとの対応関係は図25に示したイメージ図のようになる。また、上記の方法により学習用データのサンプリングを行った結果は、例えば、図26(一様分布の例)のようになる。図26を参照すると、疎な領域に含まれる特徴量座標は残り、密な領域に含まれる特徴量座標が間引かれていることが分かる。なお、上記のバケットを利用しない場合、学習用データのサンプリングに要する演算負荷は格段に大きくなる点に注意されたい。   In the foregoing, an efficient sampling method for learning data has been described. The correspondence relationship between the feature amount space and the bucket is as shown in the image diagram of FIG. Further, the result of sampling the learning data by the above method is, for example, as shown in FIG. 26 (an example of uniform distribution). Referring to FIG. 26, it can be seen that the feature amount coordinates included in the sparse region remain and the feature amount coordinates included in the dense region are thinned out. Note that when the above bucket is not used, the computation load required for sampling the learning data is significantly increased.

(2−3−2:重み付け方法)
次に、図27を参照しながら、学習用データの効率的な重み付け方法について説明する。図27は、学習用データの効率的な重み付け方法について説明するための説明図である。
(2-3-2: Weighting method)
Next, an efficient weighting method for learning data will be described with reference to FIG. FIG. 27 is an explanatory diagram for explaining an efficient weighting method for learning data.

図27に示すように、情報処理装置10は、特徴量計算部122の機能により、全ての学習用データについて特徴量ベクトル(特徴量座標)を算出する(S211)。次いで、情報処理装置10は、特徴量計算部122の機能により、算出した特徴量座標を正規化する(S212)。例えば、特徴量計算部122は、図21に示すように、各特徴量について、分散が1、平均が0となるように値を正規化する。このようにして正規化された特徴量座標は、学習用データ統合部124に入力される。   As illustrated in FIG. 27, the information processing apparatus 10 calculates feature amount vectors (feature amount coordinates) for all learning data using the function of the feature amount calculation unit 122 (S211). Next, the information processing apparatus 10 normalizes the calculated feature amount coordinates by the function of the feature amount calculation unit 122 (S212). For example, as shown in FIG. 21, the feature quantity calculation unit 122 normalizes the values so that the variance is 1 and the average is 0 for each feature quantity. The feature amount coordinates normalized in this way are input to the learning data integration unit 124.

次いで、情報処理装置10は、学習用データ統合部124の機能により、ランダムにハッシュ関数gを生成する(S213)。例えば、学習用データ統合部124は、上記の式(1)に示すような5ビットの値を出力するハッシュ関数gを複数生成する。このとき、学習用データ統合部124は、Q個のハッシュ関数g(q=1〜Q)を生成する。但し、関数h(j=1〜5)は、上記の式(2)により定義される。また、d及びThresholdは、乱数により決定される。 Next, the information processing apparatus 10 randomly generates a hash function g by the function of the learning data integration unit 124 (S213). For example, the learning data integration unit 124 generates a plurality of hash functions g that output a 5-bit value as shown in the above equation (1). At this time, the learning data integration unit 124 generates Q hash functions g q (q = 1 to Q). However, the function h j (j = 1 to 5) is defined by the above equation (2). D and Threshold are determined by random numbers.

但し、特徴量座標の分布を一様分布に近づける場合、Thresholdの決定に用いる乱数として一様乱数を用いる。また、特徴量座標の分布をガウス分布に近づける場合、Thresholdの決定に用いる乱数としてガウス乱数を用いる。他の分布についても同様である。また、dの決定は、zの算出に用いた基底関数の寄与率に応じた偏りのある乱数を用いて行われる。例えば、zの算出に用いた基底関数の寄与率が大きいほど、dの発生する確率が高くなる乱数が用いられる。 However, when the distribution of the feature amount coordinates is made closer to the uniform distribution, a uniform random number is used as a random number used for determination of Threshold. Further, when the distribution of the feature amount coordinates is made close to a Gaussian distribution, a Gaussian random number is used as a random number used for determination of Threshold. The same applies to other distributions. Also, the determination of d is carried out using a random number that is biased in accordance with the contribution ratio of the basis functions used to calculate the z d. For example, a random number whose probability of occurrence of d increases as the contribution rate of the basis function used for calculating z d increases is used.

ハッシュ関数g(q=1〜Q)を生成すると、学習用データ統合部124は、各学習用データに対応する特徴量ベクトルZをハッシュ関数gに入力し、ハッシュ値を算出する。そして、学習用データ統合部124は、算出したハッシュ値に基づいて学習用データをバケットに割り当てる(S214)。次いで、学習用データ統合部124は、各学習用データについて密度を算出する(S215)。例えば、図28に示すように、学習用データがバケットに割り当てられているものとしよう。また、白丸で表現された学習用データに注目する。 When the hash function g q (q = 1 to Q) is generated, the learning data integration unit 124 inputs the feature quantity vector Z corresponding to each learning data to the hash function g q and calculates a hash value. The learning data integration unit 124 then assigns learning data to the bucket based on the calculated hash value (S214). Next, the learning data integration unit 124 calculates the density for each learning data (S215). For example, assume that learning data is assigned to a bucket as shown in FIG. Also, pay attention to the learning data expressed by white circles.

この場合、学習用データ統合部124は、まず、各ハッシュ関数に対応するバケットセットについて、白丸を含むバケットに割り当てられている学習用データの数をカウントする。例えば、ハッシュ関数gに対応するバケットセットを参照すると、白丸を含むバケットに割り当てられている学習用データの数は1である。同様に、ハッシュ関数gに対応するバケットセットを参照すると、白丸を含むバケットに割り当てられている学習用データの数は2である。学習用データ統合部124は、ハッシュ関数g〜g256に対応するバケットセットについて、白丸を含むバケットに割り当てられている学習用データの数をカウントする。 In this case, the learning data integration unit 124 first counts the number of learning data assigned to buckets including white circles for the bucket set corresponding to each hash function. For example, referring to the bucket set corresponding to the hash function g 1 , the number of learning data assigned to the bucket including the white circle is 1. Similarly, referring to bucket set corresponding to a hash function g 2, the number of learning data that are assigned to a bucket containing white circle is 2. The learning data integration unit 124 counts the number of learning data assigned to buckets including white circles for the bucket sets corresponding to the hash functions g 1 to g 256 .

そして、学習用データ統合部124は、カウントした数の平均値を算出し、算出した平均値を白丸に対応する学習用データの密度とみなす。同様にして、学習用データ統合部124は、全ての学習用データの密度を算出する。なお、各学習用データの密度は図29のB図のように表現される。但し、色が濃い部分の密度が高く、色が薄い部分の密度が低い。   Then, the learning data integration unit 124 calculates the average value of the counted numbers, and regards the calculated average value as the density of the learning data corresponding to the white circles. Similarly, the learning data integration unit 124 calculates the density of all learning data. The density of each learning data is expressed as shown in FIG. 29B. However, the density of the dark part is high and the density of the light part is low.

さて、全ての学習用データについて密度を算出し終えると、学習用データ統合部124は、処理をステップS217に進める(S216)。ステップS217に処理を進めた場合、学習用データ統合部124は、算出した密度から各学習用データに設定する重みを算出する(S217)。例えば、学習用データ統合部124は、密度の逆数を重みに設定する。なお、各学習用データに設定される重みの分布は図30のB図のように表現される。但し、色が濃い部分の重みが大きく、色が薄い部分の重みが小さい。図30を参照すると、密な領域の重みが小さく、疎な領域の重みが大きくなっていることが分かるであろう。   Now, after calculating the density for all the learning data, the learning data integration unit 124 proceeds with the process to step S217 (S216). When the process proceeds to step S217, the learning data integration unit 124 calculates a weight to be set for each learning data from the calculated density (S217). For example, the learning data integration unit 124 sets the inverse of the density as the weight. The distribution of weights set for each learning data is expressed as shown in FIG. 30B. However, the weight of the dark portion is large and the weight of the light portion is small. Referring to FIG. 30, it can be seen that the weight of the dense area is small and the weight of the sparse area is large.

上記のようにして各学習用データに設定する重みを算出し終えると、学習用データ統合部124は、重み付けに係る一連の処理を終了する。以上、学習用データの効率的な重み付け方法について説明した。なお、上記のバケットを利用しない場合、学習用データの重み付けに要する演算負荷は格段に大きくなる点に注意されたい。   When the calculation of the weights to be set for each learning data is completed as described above, the learning data integration unit 124 ends the series of processes related to the weighting. The efficient weighting method for learning data has been described above. Note that if the above bucket is not used, the computational load required for weighting the learning data is significantly increased.

(2−3−3:組み合わせ方法)
次に、図31を参照しながら、上記の効率的なサンプリング方法と効率的な重み付け方法とを組み合わせる方法について説明する。図31は、上記の効率的なサンプリング方法と効率的な重み付け方法とを組み合わせる方法について説明するための説明図である。
(2-3-3: Combination method)
Next, a method of combining the efficient sampling method and the efficient weighting method will be described with reference to FIG. FIG. 31 is an explanatory diagram for explaining a method of combining the efficient sampling method and the efficient weighting method.

図31に示すように、学習用データ統合部124は、まず、学習用データのサンプリング処理を実行する(S221)。このサンプリング処理は、図20に示した処理の流れに沿って実行される。そして、所定数の学習用データが得られると、学習用データ統合部124は、得られた学習用データを対象に重み付け処理を実行する(S222)。この重み付け処理は、図27に示した処理の流れに沿って実行される。なお、サンプリング処理の際に算出した特徴量ベクトルやハッシュ関数を流用してもよい。サンプリング処理及び重み付け処理を実行し終えると、学習用データ統合部124は、一連の処理を終了する。   As illustrated in FIG. 31, the learning data integration unit 124 first performs a sampling process of learning data (S221). This sampling process is executed along the flow of the process shown in FIG. When a predetermined number of learning data is obtained, the learning data integration unit 124 performs weighting processing on the obtained learning data (S222). This weighting process is executed along the process flow shown in FIG. Note that a feature vector or hash function calculated during the sampling process may be used. When the sampling process and the weighting process are finished, the learning data integration unit 124 ends the series of processes.

以上、学習用データの効率的なサンプリング/重み付け方法について説明した。なお、ここでは特徴量座標の分布を効率的に所定の分布に近づけるための効率的なサンプリング/重み付け方法について説明したが、バケットを利用したデータのサンプリング/重み付け方法の適用範囲はこれに限定されない。例えば、任意のデータ群について、ハッシュ関数に基づくバケットへのデータ割り当てを行い、バケットから図24に示したルールに従ってデータをサンプリングすることにより、任意のデータ群の分布を効率的に所定の分布に近づけることができようになる。重み付け処理についても同様である。   The efficient sampling / weighting method of learning data has been described above. Here, the efficient sampling / weighting method for efficiently bringing the distribution of the feature amount coordinates close to the predetermined distribution has been described, but the application range of the data sampling / weighting method using the bucket is not limited to this. . For example, by assigning data to a bucket based on a hash function for an arbitrary data group and sampling data from the bucket according to the rules shown in FIG. 24, the distribution of the arbitrary data group can be efficiently converted to a predetermined distribution. You can get closer. The same applies to the weighting process.

[2−4:サンプリング処理及び重み付け処理に関する変形例]
次に、サンプリング処理及び重み付け処理に関する変形例を紹介する。
[2-4: Modified example regarding sampling process and weighting process]
Next, modified examples related to sampling processing and weighting processing will be introduced.

(2−4−1:変形例1(距離に基づく処理))
まず、図32を参照しながら、特徴量座標間の距離に基づく学習用データのサンプリング方法について説明する。図32は、特徴量座標間の距離に基づく学習用データのサンプリング方法について説明するための説明図である。
(2-4-1: Modification 1 (Processing Based on Distance))
First, a learning data sampling method based on the distance between feature amount coordinates will be described with reference to FIG. FIG. 32 is an explanatory diagram for describing a method of sampling learning data based on the distance between feature amount coordinates.

図32に示すように、学習用データ統合部124は、まず、ランダムに1つの特徴量座標を選択する(S231)。次いで、学習用データ統合部124は、インデックスjを1に初期化する(S232)。次いで、学習用データ統合部124は、未だ選択されてないJ個の特徴量座標の中からj番目の特徴量座標を対象座標に設定する(S233)。次いで、学習用データ統合部124は、既に選択された全ての特徴量座標と対象座標との距離Dを算出する(S234)。次いで、学習用データ統合部124は、算出した距離Dの最小値Dminを抽出する(S235)。 As shown in FIG. 32, the learning data integration unit 124 first randomly selects one feature amount coordinate (S231). Next, the learning data integration unit 124 initializes the index j to 1 (S232). Next, the learning data integration unit 124 sets the j-th feature amount coordinate among the J feature amount coordinates not yet selected as the target coordinate (S233). Next, the learning data integration unit 124 calculates the distance D between all the feature amount coordinates already selected and the target coordinates (S234). Next, the learning data integration unit 124 extracts the calculated minimum value D min of the distance D (S235).

次いで、学習用データ統合部124は、j=Jであるか否かを判定する(S236)。j=Jである場合、学習用データ統合部124は、処理をステップS237に進める。一方、j≠Jである場合、学習用データ統合部124は、処理をステップS233に進める。処理をステップS237に進めた場合、学習用データ統合部124は、最小値Dminが最大となる対象座標(特徴量座標)を選択する(S237)。次いで、学習用データ統合部124は、ステップS231及びS237において選択された特徴量座標の数が所定数に達したか否かを判定する(S238)。 Next, the learning data integration unit 124 determines whether j = J (S236). If j = J, the learning data integration unit 124 proceeds with the process to step S237. On the other hand, if j ≠ J, the learning data integration unit 124 advances the process to step S233. When the process has proceeded to step S237, the learning data integration unit 124 selects target coordinates (feature amount coordinates) that maximize the minimum value Dmin (S237). Next, the learning data integration unit 124 determines whether or not the number of feature amount coordinates selected in steps S231 and S237 has reached a predetermined number (S238).

ステップS231及びS237において選択された特徴量座標の数が所定数に達した場合、学習用データ統合部124は、選択された特徴量座標に対応する学習用データを統合後の学習用データセットとして出力し、一連の処理を終了する。一方、ステップS231及びS237において選択された特徴量座標の数が所定数に達していない場合、学習用データ統合部124は、処理をステップS232に進める。   When the number of feature amount coordinates selected in steps S231 and S237 reaches a predetermined number, the learning data integration unit 124 sets the learning data corresponding to the selected feature amount coordinates as a learning data set after integration. Output, and the series of processing ends. On the other hand, if the number of feature amount coordinates selected in steps S231 and S237 does not reach the predetermined number, the learning data integration unit 124 advances the process to step S232.

以上、特徴量座標間の距離に基づく学習用データのサンプリング方法について説明した。   Heretofore, the learning data sampling method based on the distance between the feature amount coordinates has been described.

(2−4−2:変形例2(クラスタリングに基づく処理))
次に、クラスタリングに基づく学習用データのサンプリング/重み付け方法について説明する。なお、以下ではサンプリング方法及び重み付け方法についてそれぞれ別々に説明するが、これらの方法を組み合わせてもよい。
(2-4-2: Modification 2 (Processing Based on Clustering))
Next, a learning data sampling / weighting method based on clustering will be described. In the following, the sampling method and the weighting method will be described separately, but these methods may be combined.

(学習用データの選択)
まず、図33を参照しながら、クラスタリングに基づく学習用データのサンプリング方法について説明する。図33は、クラスタリングに基づく学習用データのサンプリング方法について説明するための説明図である。
(Selecting learning data)
First, a learning data sampling method based on clustering will be described with reference to FIG. FIG. 33 is an explanatory diagram for describing a method of sampling learning data based on clustering.

図33に示すように、まず、学習用データ統合部124は、特徴量ベクトルを所定数のクラスタに分類する(S241)。クラスタリング手法としては、例えば、k−means法や階層的クラスタリングなどの手法が利用可能である。次いで,学習用データ統合部124は、各クラスタから順に1つずつ特徴量ベクトルを選択する(S242)。そして、学習用データ統合部124は、選択した特徴量ベクトルに対応する学習用データの組を統合後の学習用データセットとして出力し、一連の処理を終了する。   As shown in FIG. 33, first, the learning data integration unit 124 classifies the feature vector into a predetermined number of clusters (S241). As a clustering method, for example, a method such as a k-means method or hierarchical clustering can be used. Next, the learning data integration unit 124 selects feature quantity vectors one by one from each cluster in order (S242). Then, the learning data integration unit 124 outputs a learning data set corresponding to the selected feature vector as a learning data set after integration, and the series of processing ends.

(重みの設定)
次に、図34を参照しながら、クラスタリングに基づく学習用データの重み付け方法について説明する。図34は、クラスタリングに基づく学習用データの重み付け方法について説明するための説明図である。
(Weight setting)
Next, a learning data weighting method based on clustering will be described with reference to FIG. FIG. 34 is an explanatory diagram for describing a learning data weighting method based on clustering.

図34に示すように、まず、学習用データ統合部124は、特徴量ベクトルを所定数のクラスタに分類する(S251)。クラスタリング手法としては、例えば、k−means法や階層的クラスタリングなどの手法が利用可能である。次いで,学習用データ統合部124は、各クラスタの要素数をカウントし、要素数の逆数を算出する(S252)。そして、学習用データ統合部124は、算出した要素数の逆数を重みとして出力し、一連の処理を終了する。   As shown in FIG. 34, first, the learning data integration unit 124 classifies the feature vector into a predetermined number of clusters (S251). As a clustering method, for example, a method such as a k-means method or hierarchical clustering can be used. Next, the learning data integration unit 124 counts the number of elements in each cluster and calculates the reciprocal of the number of elements (S252). Then, the learning data integration unit 124 outputs the reciprocal of the calculated number of elements as a weight, and ends the series of processes.

以上、クラスタリングに基づく学習用データのサンプリング/重み付け方法について説明した。   The learning data sampling / weighting method based on clustering has been described above.

(2−4−3:変形例3(密度推定手法に基づく処理))
次に、密度推定手法に基づく学習用データのサンプリング/重み付け方法について説明する。なお、以下ではサンプリング方法及び重み付け方法についてそれぞれ別々に説明するが、これらの方法を組み合わせてもよい。
(2-4-3: Modification 3 (Processing Based on Density Estimation Method))
Next, a learning data sampling / weighting method based on the density estimation method will be described. In the following, the sampling method and the weighting method will be described separately, but these methods may be combined.

(学習用データの選択)
まず、図35を参照しながら、密度推定手法に基づく学習用データのサンプリング方法について説明する。図35は、密度推定手法に基づく学習用データのサンプリング方法について説明するための説明図である。
(Selecting learning data)
First, a learning data sampling method based on a density estimation method will be described with reference to FIG. FIG. 35 is an explanatory diagram for describing a learning data sampling method based on the density estimation method.

図35に示すように、まず、学習用データ統合部124は、特徴量座標の密度をモデル化する(S261)。密度のモデル化には、例えば、GMM(Gaussian Mixture Model)などの密度推定手法が利用される。次いで、学習用データ統合部124は、構築したモデルに基づいて各特徴量座標の密度を算出する(S262)。次いで、学習用データ統合部124は、未だ選択されていない特徴量座標の中から、密度の逆数に比例する確率でランダムに特徴量座標を選択する(S263)。   As shown in FIG. 35, first, the learning data integration unit 124 models the density of feature amount coordinates (S261). For the density modeling, for example, a density estimation method such as GMM (Gaussian Mixture Model) is used. Next, the learning data integration unit 124 calculates the density of each feature amount coordinate based on the constructed model (S262). Next, the learning data integration unit 124 randomly selects feature amount coordinates with a probability proportional to the reciprocal of the density from the feature amount coordinates not yet selected (S263).

次いで、学習用データ統合部124は、所定数の特徴量座標を選択したか否かを判定する(S264)。所定数の特徴量座標を選択していない場合、学習用データ統合部124は、処理をステップS263に進める。一方、所定数の特徴量座標を選択した場合、学習用データ統合部124は、選択した特徴量座標に対応する学習用データの組を統合後の学習用データセットとして出力し、一連の処理を終了する。   Next, the learning data integration unit 124 determines whether a predetermined number of feature amount coordinates has been selected (S264). If the predetermined number of feature amount coordinates has not been selected, the learning data integration unit 124 proceeds with the process to step S263. On the other hand, when a predetermined number of feature amount coordinates are selected, the learning data integration unit 124 outputs a set of learning data corresponding to the selected feature amount coordinates as an integrated learning data set, and performs a series of processing. finish.

(重みの設定)
次に、図36を参照しながら、密度推定手法に基づく学習用データの重み付け方法について説明する。図36は、密度推定手法に基づく学習用データの重み付け方法について説明するための説明図である。
(Weight setting)
Next, a learning data weighting method based on the density estimation method will be described with reference to FIG. FIG. 36 is an explanatory diagram for describing a learning data weighting method based on the density estimation method.

図36に示すように、まず、学習用データ統合部124は、特徴量座標の密度をモデル化する(S271)。密度のモデル化には、例えば、GMMなどの密度推定手法が利用される。次いで、学習用データ統合部124は、構築したモデルに基づいて各特徴量座標の密度を算出する(S272)。そして、学習用データ統合部124は、算出した密度の逆数を重みに設定し、一連の処理を終了する。   As shown in FIG. 36, first, the learning data integration unit 124 models the density of feature amount coordinates (S271). For the density modeling, for example, a density estimation method such as GMM is used. Next, the learning data integration unit 124 calculates the density of each feature amount coordinate based on the constructed model (S272). Then, the learning data integration unit 124 sets the reciprocal of the calculated density as a weight, and ends a series of processing.

以上、密度推定手法に基づく学習用データのサンプリング/重み付け方法について説明した。   The learning data sampling / weighting method based on the density estimation method has been described above.

<3:応用例>
次に、本実施形態に係る技術の応用例について説明する。なお、本実施形態に係る技術の応用範囲は広く、画像データの識別機、テキストデータの識別機、音声データの識別機、信号データの識別機など、様々な識別器や解析機の自動構築に応用することができる。ここでは一例として、画像認識機の自動構築方法への応用及び言語解析機の自動構築方法への応用について紹介する。
<3: Application example>
Next, application examples of the technology according to the present embodiment will be described. The application range of the technology according to this embodiment is wide, and it can be used for automatic construction of various discriminators and analyzers such as image data discriminators, text data discriminators, audio data discriminators, and signal data discriminators. Can be applied. Here, as an example, the application to the automatic construction method of the image recognizer and the application to the automatic construction method of the language analyzer are introduced.

[3−1:画像認識機の自動構築方法]
まず、図37を参照しながら、画像認識機の自動構築方法への応用について述べる。図37は、画像認識機の構築に利用する学習用データセットの生成方法について説明するための説明図である。なお、ここで言う画像認識機とは、例えば、画像を入力すると、その画像が“花”の画像なのか、“空”の画像なのか、或いは、“寿司”の画像なのかなどを自動認識するアルゴリズムのことを意味する。
[3-1: Automatic construction method of image recognizer]
First, application to an automatic construction method for an image recognizer will be described with reference to FIG. FIG. 37 is an explanatory diagram for describing a method for generating a learning data set used for constructing an image recognizer. Note that the image recognizer here automatically recognizes whether an image is a “flower” image, an “empty” image, or a “sushi” image, for example. It means the algorithm to do.

上記の説明においては、データXと目的変数tとで構成される学習用データが与えられるものとして説明を進めてきた。しかし、オンライン学習を想定する場合、学習用データセットは、例えば、Webサービスをクローリングして得られる情報(以下、取得情報)から自動的に生成されることが望ましい。例えば、図37のA図に示すような取得情報が得られたとする。この取得情報は、画像と、画像に付与されたタグとにより構成される。例えば、入力された画像が“花”の画像であるか否かを認識する画像認識機を構築する場合、情報処理装置10は、タグに“花”が含まれる画像に対して目的変数t=1を割り当て、それ以外の画像に対して目的変数t=0を割り当てる(B図を参照)。   In the above description, the description has been made on the assumption that learning data composed of the data X and the objective variable t is given. However, when online learning is assumed, it is desirable that the learning data set be automatically generated from information obtained by crawling a Web service (hereinafter, acquired information), for example. For example, assume that acquired information as shown in FIG. 37A is obtained. This acquired information includes an image and a tag attached to the image. For example, when constructing an image recognizer that recognizes whether or not an input image is an image of “flower”, the information processing apparatus 10 sets an objective variable t = for an image including “flower” in the tag. 1 is assigned, and the objective variable t = 0 is assigned to the other images (see FIG. B).

同様に、入力された画像が“空”の画像であるか否かを認識する画像認識機を構築する場合、情報処理装置10は、タグに“空”が含まれる画像に対して目的変数t=1を割り当て、それ以外の画像に対して目的変数t=0を割り当てる(C図を参照)。また、入力された画像が“寿司”の画像であるか否かを認識する画像認識機を構築する場合、情報処理装置10は、タグに“寿司”が含まれる画像に対して目的変数t=1を割り当て、それ以外の画像に対して目的変数t=0を割り当てる(D図を参照)。このようにタグを利用することにより、所望の画像認識機の構築に利用可能な学習用データセットを生成することができる。   Similarly, when constructing an image recognizer that recognizes whether or not the input image is an “empty” image, the information processing apparatus 10 performs the objective variable t for an image including “empty” in the tag. = 1 is assigned, and the objective variable t = 0 is assigned to the other images (see FIG. C). Further, when constructing an image recognition device that recognizes whether or not the input image is an image of “sushi”, the information processing apparatus 10 sets a target variable t = for an image including “sushi” in the tag. 1 is assigned, and the objective variable t = 0 is assigned to other images (see FIG. D). By using the tag in this way, a learning data set that can be used to construct a desired image recognizer can be generated.

なお、学習用データセットが生成できると、既に説明した学習用データの統合処理及び推定機の構築処理を実行することにより、画像認識機(推定値yから認識結果を得る手段)に利用される推定機(推定値yの算出手段)を自動構築することができる。以上、画像認識機の自動構築方法への応用について説明した。   If the learning data set can be generated, the learning data integration process and the estimator construction process described above are executed and used for an image recognizer (means for obtaining a recognition result from the estimated value y). An estimator (calculating means for the estimated value y) can be automatically constructed. The application to the automatic construction method of the image recognizer has been described above.

[3−2:言語解析機の自動構築方法]
次に、図38を参照しながら、言語解析機の自動構築方法への応用について述べる。図38は、言語解析機の構築に利用する学習用データセットの生成方法について説明するための説明図である。なお、ここで言う言語解析機とは、例えば、文を入力すると、その文が“政治”に関する文なのか、“経済”に関する文なのか、或いは、“芸能”に関する文なのかなどを自動認識するアルゴリズムのことを意味する。
[3-2: Automatic construction method of language analyzer]
Next, application of the language analyzer to the automatic construction method will be described with reference to FIG. FIG. 38 is an explanatory diagram for describing a method for generating a learning data set used for constructing a language analyzer. Note that the language analyzer here refers to, for example, when a sentence is entered, it automatically recognizes whether the sentence is a sentence related to "politics", a sentence related to "economics", or a sentence related to "entertainment" It means the algorithm to do.

上記の説明においては、データXと目的変数tとで構成される学習用データが与えられるものとして説明を進めてきた。しかし、オンライン学習を想定する場合、学習用データセットは、例えば、Webサービスをクローリングして得られる情報(取得情報)から自動的に生成されることが望ましい。例えば、図38のA図に示すような取得情報が得られたとする。この取得情報は、文と、文に付与されたタグとにより構成される。例えば、入力された文が“政治”に関する文であるか否かを認識する言語解析機を構築する場合、情報処理装置10は、タグが“政治”の文に対して目的変数t=1を割り当て、それ以外の文に対して目的変数t=0を割り当てる(B図を参照)。   In the above description, the description has been made on the assumption that learning data composed of the data X and the objective variable t is given. However, when online learning is assumed, it is desirable that the learning data set be automatically generated from information (acquired information) obtained by crawling a Web service, for example. For example, assume that acquired information as shown in FIG. 38A is obtained. This acquired information includes a sentence and a tag attached to the sentence. For example, when constructing a language analyzer that recognizes whether or not an input sentence is a sentence related to “politics”, the information processing apparatus 10 sets an objective variable t = 1 for a sentence whose tag is “politics”. Assign the target variable t = 0 to the other sentence (see FIG. B).

同様に、入力された文が“経済”に関する文であるか否かを認識する言語解析機を構築する場合、情報処理装置10は、タグが“経済”の文に対して目的変数t=1を割り当て、それ以外の文に対して目的変数t=0を割り当てる(C図を参照)。このようにタグを利用することにより、所望の言語解析機の構築に利用可能な学習用データセットを生成することができる。なお、学習用データセットが生成できると、既に説明した学習用データの統合処理及び推定機の構築処理を実行することにより、言語解析機(推定値yから認識結果を得る手段)に利用される推定機(推定値yの算出手段)を自動構築することができる。   Similarly, when constructing a language analyzer that recognizes whether or not the input sentence is a sentence related to “economy”, the information processing apparatus 10 sets the objective variable t = 1 for the sentence whose tag is “economy”. And the objective variable t = 0 is assigned to the other sentences (see FIG. C). By using the tag in this way, a learning data set that can be used to construct a desired language analyzer can be generated. When the learning data set can be generated, the learning data integration process and the estimator construction process described above are executed and used for a language analyzer (means for obtaining a recognition result from the estimated value y). An estimator (calculating means for the estimated value y) can be automatically constructed.

(オンライン学習の効果について)
上記の言語解析機の自動構築方法を用いて実験を行った。その実験結果を図39に示す。図39に示したグラフの横軸は経過時間(単位は日)であり、縦軸は平均F値(Average F−Measures)である。また、実線(Online,1k)及び破線(Online,4k)は、オンライン学習による学習用データセットの逐次更新を続けた場合の実験結果を示している。一方、鎖線(Offline,1k)及び一点鎖線(Offline,4k)は、オフライン学習による実験結果を示している。なお、1kは、推定機の構築に利用する学習用データの数を1000個に設定したことを示している。一方、4kは、推定機の構築に利用する学習用データの数を4000個に設定したことを示している。
(About the effects of online learning)
Experiments were conducted using the above-mentioned automatic construction method for language analyzers. The experimental results are shown in FIG. The horizontal axis of the graph shown in FIG. 39 is the elapsed time (the unit is days), and the vertical axis is the average F value (Average F-Measures). In addition, a solid line (Online, 1k) and a broken line (Online, 4k) indicate experimental results when the learning data set is continuously updated by online learning. On the other hand, a chain line ( Offline , 1k) and an alternate long and short dash line ( Offline , 4k) indicate the experimental results by offline learning. Note that 1k indicates that the number of learning data used to construct the estimator is set to 1000. On the other hand, 4k indicates that the number of learning data used to construct the estimator is set to 4000.

図39から明らかなように、推定機の構築に利用する学習用データの数が多いほど高精度の推定機が得られている。また、オフライン学習の場合はすぐに精度が頭打ちになるが、オンライン学習を行った場合には時間の経過に伴って精度が向上していくことが分かる。そして、ある程度の時間が経過した後、オンライン学習の結果は、オフライン学習の結果に比べて格段に良い結果となっている。この実験結果から、オンライン学習による学習用データセットの更新を行うことで推定機の高精度化を実現できることが明らかとなった。なお、ここでは言語解析機の自動構築方法について実験結果を示したが、他の認識機の自動構築方法についても同様の効果が期待される。   As is clear from FIG. 39, the more accurate the estimator is obtained as the number of learning data used for constructing the estimator increases. In addition, in the case of offline learning, the accuracy quickly reaches a limit, but in the case of performing online learning, it can be seen that the accuracy improves as time passes. And after a certain amount of time has passed, the results of online learning are much better than the results of offline learning. From this experimental result, it became clear that the accuracy of the estimator can be improved by updating the learning data set by online learning. In addition, although the experimental result was shown about the automatic construction method of a language analyzer here, the same effect is anticipated also about the automatic construction method of another recognizer.

(効果のまとめ)
上記のように、オンライン学習が可能になることで推定機の精度を向上させることができる。また、推定機の構築手法として、例えば、特開2009−48266号公報、特願2010−159598号明細書、特願2010−159597号明細書、特願2009−277083号明細書、特願2009−277084号明細書などに記載のアルゴリズムなど、様々な方法が適用可能である。そのため、様々な種類の認識機について精度の向上を図ることができる。また、Webサービスなどから取得した取得情報を利用して学習用データセットを自動生成する仕組みを設けることで、メンテナンスフリーで継続的に推定機の精度向上が図れる。また、学習用データセットを逐次更新することにより、常に新しい学習用データセットから推定機が構築されるため、新しいタグの登場や時代の変遷に伴うタグの意味変化などにも柔軟に対応することが可能になる。
(Summary of effects)
As described above, the accuracy of the estimator can be improved by enabling online learning. Further, as a construction method of the estimator, for example, Japanese Patent Application Laid-Open No. 2009-48266, Japanese Patent Application No. 2010-159598, Japanese Patent Application No. 2010-159597, Japanese Patent Application No. 2009-277083, Japanese Patent Application No. 2009- Various methods such as an algorithm described in the specification of No. 277084 can be applied. Therefore, it is possible to improve accuracy for various types of recognizers. Further, by providing a mechanism for automatically generating a learning data set using acquired information acquired from a Web service or the like, the accuracy of the estimator can be improved continuously without maintenance. In addition, by updating the learning data set sequentially, the estimator is always constructed from the new learning data set, so it is possible to flexibly cope with the appearance of new tags and changes in the meaning of tags as the times change. Is possible.

<4:ハードウェア構成例>
上記の情報処理装置10が有する各構成要素の機能は、例えば、図40に示すハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図40に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
<4: Hardware configuration example>
The function of each component included in the information processing apparatus 10 can be realized by using, for example, a hardware configuration illustrated in FIG. That is, the function of each component is realized by controlling the hardware shown in FIG. 40 using a computer program. The form of the hardware is arbitrary, and includes, for example, a personal computer, a mobile phone, a portable information terminal such as a PHS, a PDA, a game machine, or various information appliances. However, the above PHS is an abbreviation of Personal Handy-phone System. The PDA is an abbreviation for Personal Digital Assistant.

図40に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。   As shown in FIG. 40, this hardware mainly includes a CPU 902, a ROM 904, a RAM 906, a host bus 908, and a bridge 910. Further, this hardware includes an external bus 912, an interface 914, an input unit 916, an output unit 918, a storage unit 920, a drive 922, a connection port 924, and a communication unit 926. However, the CPU is an abbreviation for Central Processing Unit. The ROM is an abbreviation for Read Only Memory. The RAM is an abbreviation for Random Access Memory.

CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。   The CPU 902 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928. . The ROM 904 is a means for storing a program read by the CPU 902, data used for calculation, and the like. In the RAM 906, for example, a program read by the CPU 902, various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.

これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。   These components are connected to each other via, for example, a host bus 908 capable of high-speed data transmission. On the other hand, the host bus 908 is connected to an external bus 912 having a relatively low data transmission speed via a bridge 910, for example. As the input unit 916, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used. Further, as the input unit 916, a remote controller (hereinafter referred to as a remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used.

出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。   As the output unit 918, for example, a display device such as a CRT, LCD, PDP, or ELD, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile, etc. Or it is an apparatus which can notify audibly. However, the above CRT is an abbreviation for Cathode Ray Tube. The LCD is an abbreviation for Liquid Crystal Display. The PDP is an abbreviation for Plasma Display Panel. Furthermore, the ELD is an abbreviation for Electro-Luminescence Display.

記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。   The storage unit 920 is a device for storing various data. As the storage unit 920, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used. However, the HDD is an abbreviation for Hard Disk Drive.

ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。   The drive 922 is a device that reads information recorded on a removable recording medium 928 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 928. The removable recording medium 928 is, for example, a DVD medium, a Blu-ray medium, an HD DVD medium, or various semiconductor storage media. Of course, the removable recording medium 928 may be, for example, an IC card on which a non-contact type IC chip is mounted, an electronic device, or the like. However, the above IC is an abbreviation for Integrated Circuit.

接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。   The connection port 924 is a port for connecting an external connection device 930 such as a USB port, an IEEE 1394 port, a SCSI, an RS-232C port, or an optical audio terminal. The external connection device 930 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder. However, the above USB is an abbreviation for Universal Serial Bus. The SCSI is an abbreviation for Small Computer System Interface.

通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。   The communication unit 926 is a communication device for connecting to the network 932. For example, a wired or wireless LAN, Bluetooth (registered trademark), or a WUSB communication card, an optical communication router, an ADSL router, or various types It is a modem for communication. The network 932 connected to the communication unit 926 is configured by a wired or wireless network, such as the Internet, home LAN, infrared communication, visible light communication, broadcast, or satellite communication. However, the above LAN is an abbreviation for Local Area Network. The WUSB is an abbreviation for Wireless USB. The above ADSL is an abbreviation for Asymmetric Digital Subscriber Line.

以上、ハードウェア構成例について説明した。   The hardware configuration example has been described above.

<5:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、ゲーム機、情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
<5: Summary>
Finally, the technical idea of this embodiment will be briefly summarized. The technical ideas described below can be applied to various information processing apparatuses such as PCs, mobile phones, game machines, information terminals, information appliances, car navigation systems, and the like.

上記の情報処理装置の機能構成は以下のように表現することができる。例えば、下記(1)に記載の情報処理装置は、特徴量空間における特徴量座標の分布が所定の分布に近づくように特徴量座標の分布を調整する。具体的には、下記(2)に記載のように、特徴量座標の分布が所定の分布に近づくように学習用データを間引いたり、或いは、下記(3)に記載のように、各学習用データに重みを付けたりする処理が行われる。もちろん、下記(4)に示すように、間引き処理と重み付け処理とを組み合わせることも可能である。このような方法で特徴量空間における特徴量座標の分布を所定の分布(例えば、一様分布やガウス分布)に近づけることにより、推定機の性能をより向上させることが可能になる。   The functional configuration of the information processing apparatus can be expressed as follows. For example, the information processing apparatus described in the following (1) adjusts the distribution of feature amount coordinates so that the distribution of feature amount coordinates in the feature amount space approaches a predetermined distribution. Specifically, as described in (2) below, the learning data is thinned out so that the distribution of feature coordinates approaches a predetermined distribution, or for each learning as described in (3) below. A process of weighting data is performed. Of course, as shown in the following (4), it is possible to combine the thinning process and the weighting process. By making the feature amount coordinate distribution in the feature amount space close to a predetermined distribution (for example, uniform distribution or Gaussian distribution) by such a method, the performance of the estimator can be further improved.

(1)
入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出部と、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整部と、
複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成部と、
を備える、
情報処理装置。
(1)
When a plurality of learning data composed of input data and an objective variable corresponding to the input data is given, the input data is input to a plurality of basis functions, and an output value of each basis function is defined as an element A feature amount vector calculating unit for calculating a feature amount vector to be
A distribution adjusting unit that adjusts the distribution of the points so that the distribution of the points specified by the feature vector in the feature amount space approaches a predetermined distribution;
For a plurality of learning data, a function generation unit that generates an estimation function that outputs an estimated value of the objective variable in accordance with an input of the feature vector;
Comprising
Information processing device.

(2)
前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引く、
上記(1)に記載の情報処理装置。
(2)
The distribution adjustment unit thins out the learning data so that a distribution of points specified by the feature vector in a feature space approaches a predetermined distribution;
The information processing apparatus according to (1) above.

(3)
前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記各学習用データに対して重み付けする、
上記(1)に記載の情報処理装置。
(3)
The distribution adjusting unit weights the learning data so that a distribution of points specified by the feature vector in the feature space approaches a predetermined distribution;
The information processing apparatus according to (1) above.

(4)
前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように、前記学習用データを間引き、かつ、間引き後に残った学習用データの各々に対して重み付けする、
上記(1)に記載の情報処理装置。
(4)
The distribution adjustment unit thins the learning data so that the distribution of points specified by the feature vector in the feature amount space approaches a predetermined distribution, and for each of the learning data remaining after the thinning And weight,
The information processing apparatus according to (1) above.

(5)
前記所定の分布は、一様分布又はガウス分布である、
上記(1)〜(4)のいずれか1項に記載の情報処理装置。
(5)
The predetermined distribution is a uniform distribution or a Gaussian distribution.
The information processing apparatus according to any one of (1) to (4) above.

(6)
前記分布調整部は、追加的に新たな学習用データが与えられた場合に、当該新たな学習用データと既存の学習用データとを含む学習用データ群を対象に、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引く、
上記(2)又は(4)に記載の情報処理装置。
(6)
When the distribution adjustment unit is additionally provided with new learning data, the distribution adjustment unit targets the learning data group including the new learning data and the existing learning data in the feature amount space. The learning data is thinned out so that the distribution of points specified by the quantity vector approaches a predetermined distribution.
The information processing apparatus according to (2) or (4) above.

(7)
予め用意された複数の関数を組み合わせて前記基底関数を生成する基底関数生成部をさらに備える、
上記(1)〜(6)のいずれか1項に記載の情報処理装置。
(7)
A basis function generation unit that generates the basis function by combining a plurality of functions prepared in advance;
The information processing apparatus according to any one of (1) to (6) above.

(8)
前記基底関数生成部は、遺伝的アルゴリズムに基づいて前記基底関数を更新し、
前記特徴量ベクトル算出部は、前記基底関数が更新された場合に、更新後の前記基底関数に前記入力データを入力して特徴量ベクトルを算出し、
前記関数生成部は、前記更新後の基底関数を用いて算出された特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する、
上記(7)に記載の情報処理装置。
(8)
The basis function generation unit updates the basis function based on a genetic algorithm,
When the basis function is updated, the feature amount vector calculation unit calculates the feature amount vector by inputting the input data to the updated basis function,
The function generation unit generates an estimation function that outputs an estimated value of the objective variable in accordance with an input of a feature vector calculated using the updated basis function;
The information processing apparatus according to (7) above.

(9)
入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出するステップと、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整するステップと、
複数の前記学習用データについて、前記特徴量ベクトルの入力に対して前記目的変数の推定値を出力する推定関数を生成するステップと、
を含む、
推定機生成方法。
(9)
When a plurality of learning data composed of input data and an objective variable corresponding to the input data is given, the input data is input to a plurality of basis functions, and an output value of each basis function is defined as an element Calculating a feature vector to be
Adjusting the distribution of the points so that the distribution of the points specified by the feature vector in the feature amount space approaches a predetermined distribution;
Generating an estimation function that outputs an estimated value of the objective variable with respect to an input of the feature quantity vector for a plurality of the learning data;
including,
Estimator generation method.

(10)
入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出機能と、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整機能と、
複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成機能と、
をコンピュータに実現させるためのプログラム。
(10)
When a plurality of learning data composed of input data and an objective variable corresponding to the input data is given, the input data is input to a plurality of basis functions, and an output value of each basis function is defined as an element A feature vector calculation function for calculating a feature vector to be
A distribution adjusting function for adjusting the distribution of the points so that the distribution of the points specified by the feature vector in the feature amount space approaches a predetermined distribution;
A function generating function for generating an estimation function that outputs an estimated value of the objective variable in response to an input of the feature vector for a plurality of the learning data;
A program to make a computer realize.

(備考)
上記の特徴量計算部122は、特徴量ベクトル算出部の一例である。上記の学習用データ統合部124は、分布調整部の一例である。上記の推定関数生成部123は、関数生成部の一例である。上記の基底関数リスト生成部121は、基底関数生成部の一例である。
(Remarks)
The feature amount calculation unit 122 is an example of a feature amount vector calculation unit. The learning data integration unit 124 is an example of a distribution adjustment unit. The estimation function generation unit 123 is an example of a function generation unit. The basis function list generation unit 121 is an example of a basis function generation unit.

以上、添付図面を参照しながら本技術に係る好適な実施形態について説明したが、本技術はここで開示した構成例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本技術の技術的範囲に属するものと了解される。   The preferred embodiments according to the present technology have been described above with reference to the accompanying drawings, but it is needless to say that the present technology is not limited to the configuration examples disclosed herein. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present technology. Understood.

10 情報処理装置
11 学習用データ取得部
12 推定機構築部
121 基底関数リスト生成部
122 特徴量計算部
123 推定関数生成部
124 学習用データ統合部
13 入力データ取得部
14 結果認識部
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 11 Learning data acquisition part 12 Estimator construction part 121 Basis function list generation part 122 Feature quantity calculation part 123 Estimation function generation part 124 Learning data integration part 13 Input data acquisition part 14 Result recognition part

Claims (8)

入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出部と、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整部と、
複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成部と、
を備え
前記分布調整部は、追加的に新たな学習用データが与えられた場合に、当該新たな学習用データと既存の学習用データとを含む学習用データ群を対象に、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引く、
情報処理装置。
When a plurality of learning data composed of input data and an objective variable corresponding to the input data is given, the input data is input to a plurality of basis functions, and an output value of each basis function is defined as an element A feature amount vector calculating unit for calculating a feature amount vector to be
A distribution adjusting unit that adjusts the distribution of the points so that the distribution of the points specified by the feature vector in the feature amount space approaches a predetermined distribution;
For a plurality of learning data, a function generation unit that generates an estimation function that outputs an estimated value of the objective variable in accordance with an input of the feature vector;
Equipped with a,
When the distribution adjustment unit is additionally provided with new learning data, the distribution adjustment unit targets the learning data group including the new learning data and the existing learning data in the feature amount space. The learning data is thinned out so that the distribution of points specified by the quantity vector approaches a predetermined distribution.
Information processing device.
前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記各学習用データに対して重み付けする、
請求項1に記載の情報処理装置。
The distribution adjusting unit weights the learning data so that a distribution of points specified by the feature vector in the feature space approaches a predetermined distribution;
The information processing apparatus according to claim 1.
前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように、間引き後に残った学習用データの各々に対して重み付けする、
請求項1に記載の情報処理装置。
The distribution adjusting unit, the distribution of points specified by the feature vector in a feature quantity space so as to approach the predetermined distribution, weighted for each of the learning data remaining after during pulling,
The information processing apparatus according to claim 1.
前記所定の分布は、一様分布又はガウス分布である、
請求項1〜のいずれか一項に記載の情報処理装置。
The predetermined distribution is a uniform distribution or a Gaussian distribution.
The information processing apparatus according to any one of claims 1 to 3 .
予め用意された複数の関数を組み合わせて前記基底関数を生成する基底関数生成部をさらに備える、
請求項1〜のいずれか一項に記載の情報処理装置。
A basis function generation unit that generates the basis function by combining a plurality of functions prepared in advance;
The information processing apparatus according to any one of claims 1 to 4 .
前記基底関数生成部は、遺伝的アルゴリズムに基づいて前記基底関数を更新し、
前記特徴量ベクトル算出部は、前記基底関数が更新された場合に、更新後の前記基底関数に前記入力データを入力して特徴量ベクトルを算出し、
前記関数生成部は、前記更新後の基底関数を用いて算出された特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する、
請求項に記載の情報処理装置。
The basis function generation unit updates the basis function based on a genetic algorithm,
When the basis function is updated, the feature amount vector calculation unit calculates the feature amount vector by inputting the input data to the updated basis function,
The function generation unit generates an estimation function that outputs an estimated value of the objective variable in accordance with an input of a feature vector calculated using the updated basis function;
The information processing apparatus according to claim 5 .
入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出するステップと、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整するステップと、
複数の前記学習用データについて、前記特徴量ベクトルの入力に対して前記目的変数の推定値を出力する推定関数を生成するステップと、
追加的に新たな学習用データが与えられた場合に、当該新たな学習用データと既存の学習用データとを含む学習用データ群を対象に、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引くステップと、
を含む、
推定機生成方法。
When a plurality of learning data composed of input data and an objective variable corresponding to the input data is given, the input data is input to a plurality of basis functions, and an output value of each basis function is defined as an element Calculating a feature vector to be
Adjusting the distribution of the points so that the distribution of the points specified by the feature vector in the feature amount space approaches a predetermined distribution;
Generating an estimation function that outputs an estimated value of the objective variable with respect to an input of the feature quantity vector for a plurality of the learning data;
When new learning data is additionally provided, the learning data group including the new learning data and the existing learning data is specified by the feature vector in the feature space. Thinning out the learning data so that the distribution of points approaches a predetermined distribution;
including,
Estimator generation method.
入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出機能と、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整機能と、
複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成機能と、
追加的に新たな学習用データが与えられた場合に、当該新たな学習用データと既存の学習用データとを含む学習用データ群を対象に、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引く機能と、
をコンピュータに実現させるためのプログラム。
When a plurality of learning data composed of input data and an objective variable corresponding to the input data is given, the input data is input to a plurality of basis functions, and an output value of each basis function is defined as an element A feature vector calculation function for calculating a feature vector to be
A distribution adjusting function for adjusting the distribution of the points so that the distribution of the points specified by the feature vector in the feature amount space approaches a predetermined distribution;
A function generating function for generating an estimation function that outputs an estimated value of the objective variable in response to an input of the feature vector for a plurality of the learning data;
When new learning data is additionally given, the learning data group including the new learning data and the existing learning data is specified by the feature vector in the feature space. A function of thinning out the learning data so that the distribution of points approaches a predetermined distribution;
A program to make a computer realize.
JP2011196300A 2011-09-08 2011-09-08 Information processing apparatus, estimator generation method, and program Expired - Fee Related JP5909943B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011196300A JP5909943B2 (en) 2011-09-08 2011-09-08 Information processing apparatus, estimator generation method, and program
US13/591,520 US20130066452A1 (en) 2011-09-08 2012-08-22 Information processing device, estimator generating method and program
CN201210320527.3A CN103177177B (en) 2011-09-08 2012-08-31 Message processing device and estimator generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011196300A JP5909943B2 (en) 2011-09-08 2011-09-08 Information processing apparatus, estimator generation method, and program

Publications (3)

Publication Number Publication Date
JP2013058095A JP2013058095A (en) 2013-03-28
JP2013058095A5 JP2013058095A5 (en) 2014-09-25
JP5909943B2 true JP5909943B2 (en) 2016-04-27

Family

ID=48133934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011196300A Expired - Fee Related JP5909943B2 (en) 2011-09-08 2011-09-08 Information processing apparatus, estimator generation method, and program

Country Status (1)

Country Link
JP (1) JP5909943B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5874292B2 (en) * 2011-10-12 2016-03-02 ソニー株式会社 Information processing apparatus, information processing method, and program
CN108465244B (en) 2018-03-30 2019-05-07 腾讯科技(深圳)有限公司 AI method for parameter configuration, device, equipment and storage medium for racing class AI model
US20220139069A1 (en) * 2019-03-04 2022-05-05 Nec Corporation Information processing system, information processing method, and recording medium
JP7494001B2 (en) 2020-05-14 2024-06-03 株式会社日立製作所 Training data set creation support device and training data set creation support method
JP7270894B1 (en) 2022-12-09 2023-05-11 株式会社Creator’s NEXT Identification of digital data of new styles

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4948118B2 (en) * 2005-10-25 2012-06-06 ソニー株式会社 Information processing apparatus, information processing method, and program
JP4670662B2 (en) * 2006-01-26 2011-04-13 パナソニック電工株式会社 Anomaly detection device
JP5126694B2 (en) * 2009-07-21 2013-01-23 日本電気株式会社 Learning system

Also Published As

Publication number Publication date
JP2013058095A (en) 2013-03-28

Similar Documents

Publication Publication Date Title
Gu et al. Stack-captioning: Coarse-to-fine learning for image captioning
CN110580501B (en) Zero sample image classification method based on variational self-coding countermeasure network
Ye Particle swarm optimization-based automatic parameter selection for deep neural networks and its applications in large-scale and high-dimensional data
Yu et al. Hybrid adaptive classifier ensemble
Chiroma et al. Progress on artificial neural networks for big data analytics: a survey
JP4948118B2 (en) Information processing apparatus, information processing method, and program
US20130066452A1 (en) Information processing device, estimator generating method and program
CN111667022A (en) User data processing method and device, computer equipment and storage medium
CN114841257B (en) Small sample target detection method based on self-supervision comparison constraint
CN110138595A (en) Time link prediction technique, device, equipment and the medium of dynamic weighting network
Abualigah et al. Multilevel thresholding image segmentation using meta-heuristic optimization algorithms: Comparative analysis, open challenges and new trends
JP5909943B2 (en) Information processing apparatus, estimator generation method, and program
CN108108762A (en) A kind of random forest classification method based on core extreme learning machine and parallelization for the classification of coronary heart disease data
JP6172317B2 (en) Method and apparatus for mixed model selection
CN112633591B (en) Space searching method and device based on deep reinforcement learning
JPWO2018203555A1 (en) Signal search device, method, and program
Jin et al. Cold-start active learning for image classification
Wang et al. Application research of ensemble learning frameworks
CN113330462A (en) Neural network training using soft nearest neighbor loss
Huang et al. On the improvement of reinforcement active learning with the involvement of cross entropy to address one-shot learning problem
Chen et al. Sample balancing for deep learning-based visual recognition
Chen et al. Egans: Evolutionary generative adversarial network search for zero-shot learning
Zerrouk et al. Evolutionary algorithm for optimized CNN architecture search applied to real-time boat detection in aerial images
EP4339832A1 (en) Method for constructing ai integrated model, and inference method and apparatus of ai integrated model
JP5909944B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R151 Written notification of patent or utility model registration

Ref document number: 5909943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees