JP2013058095A - 情報処理装置、推定機生成方法、及びプログラム - Google Patents
情報処理装置、推定機生成方法、及びプログラム Download PDFInfo
- Publication number
- JP2013058095A JP2013058095A JP2011196300A JP2011196300A JP2013058095A JP 2013058095 A JP2013058095 A JP 2013058095A JP 2011196300 A JP2011196300 A JP 2011196300A JP 2011196300 A JP2011196300 A JP 2011196300A JP 2013058095 A JP2013058095 A JP 2013058095A
- Authority
- JP
- Japan
- Prior art keywords
- learning data
- distribution
- information processing
- feature amount
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 121
- 238000000034 method Methods 0.000 title claims description 216
- 230000006870 function Effects 0.000 claims abstract description 261
- 238000009826 distribution Methods 0.000 claims abstract description 108
- 239000013598 vector Substances 0.000 claims abstract description 81
- 238000004364 calculation method Methods 0.000 claims abstract description 37
- 238000013459 approach Methods 0.000 claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims description 21
- 230000002068 genetic effect Effects 0.000 claims description 10
- 238000009827 uniform distribution Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 3
- 230000010354 integration Effects 0.000 description 89
- 238000010276 construction Methods 0.000 description 87
- 230000008569 process Effects 0.000 description 87
- 238000012545 processing Methods 0.000 description 58
- 238000005070 sampling Methods 0.000 description 58
- 238000010586 diagram Methods 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000035772 mutation Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010187 selection method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 101150012579 ADSL gene Proteins 0.000 description 2
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 2
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000009193 crawling Effects 0.000 description 2
- 238000007636 ensemble learning method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011295 pitch Substances 0.000 description 2
- HMUNWXXNJPVALC-UHFFFAOYSA-N 1-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]-2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethanone Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)C(CN1CC2=C(CC1)NN=N2)=O HMUNWXXNJPVALC-UHFFFAOYSA-N 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000010429 evolutionary process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
【解決手段】入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出部と、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整部と、複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成部と、を備える、情報処理装置が提供される。
【選択図】図16
Description
ここで、以下に記載する説明の流れについて簡単に述べる。
1:はじめに
1−1:推定機の自動構築方法
1−1−1:推定機の構成
1−1−2:構築処理の流れ
1−2:オンライン学習の実現に向けて
2:実施形態
2−1:情報処理装置10の機能構成
2−2:学習用データの統合方法
2−2−1:特徴量空間における学習用データの分布と推定機の精度
2−2−2:データ統合時にサンプリングする構成
2−2−3:データ統合時に重み付けする構成
2−2−4:データ統合時にサンプリング及び重み付けする構成
2−3:効率的なサンプリング/重み付け方法
2−3−1:サンプリング方法
2−3−2:重み付け方法
2−3−3:組み合わせ方法
2−4:サンプリング処理及び重み付け処理に関する変形例
2−4−1:変形例1(距離に基づく処理)
2−4−2:変形例2(クラスタリングに基づく処理)
2−4−3:変形例3(密度推定手法に基づく処理)
3:応用例
3−1:画像認識機の自動構築方法
3−2:言語解析機の自動構築方法
4:ハードウェア構成例
5:まとめ
後述する実施形態は、推定機の自動構築方法に関する。また、同実施形態は、推定機の構築に用いる学習用データを追加できるようにする仕組み(以下、オンライン学習)に関する。そこで、同実施形態に係る技術について詳細に説明するに先立ち、推定機の自動構築方法及びオンライン学習を実現するに当たって解決すべき課題について説明する。なお、以下では遺伝アルゴリズムに基づく推定機の自動構築方法を例に挙げて説明を進めるが、同実施形態に係る技術の適用範囲はこれに限定されない。
推定機の自動構築方法について説明する。
はじめに、図1〜図3を参照しながら、推定機の構成について説明する。図1は、推定機を利用するシステムのシステム構成例を示した説明図である。また、図2は、推定機の構築に利用する学習用データの構成例を示した説明図である。そして、図3は、推定機の構造及び構築方法の概要を示した説明図である。
さて、基底関数φk(k=1〜M)の構成、基底関数リストの構成、推定関数fの構成は、学習用データセットに基づく機械学習により決定される。以下、この機械学習による推定機の構築処理について、より詳細に説明する。
まず、図4を参照しながら、全体的な処理の流れについて説明する。図4は、全体的な処理の流れについて説明するための説明図である。なお、以下で説明する処理は、情報処理装置10により実行される。
ここで、図5〜図10を参照しながら、ステップS102の処理(基底関数の生成)について、より詳細に説明する。
次に、図6及び図7を参照しながら、ステップS112の処理について、より詳細に説明する。ステップS112の処理は、第1世代の基底関数を生成する処理に関する。
次に、図7を参照しながら、ステップS122の処理について、より詳細に説明する。
次に、図8〜図10を参照しながら、ステップS113の処理について、より詳細に説明する。ステップS113の処理は、第τ世代(τ≧2)の基底関数を生成する処理に関する。従って、ステップS113を実行する際には、第τ−1世代の基底関数φm,τ−1(m=1〜M)及び当該基底関数φm,τ−1の評価値vm,τ−1が得られている。
次に、図9を参照しながら、ステップS144の処理について、より詳細に説明する。
次に、図10を参照しながら、ステップS145の処理について、より詳細に説明する。
次に、図7を参照しながら、ステップS146の処理について、より詳細に説明する。
次に、図11を参照しながら、ステップS103の処理(基底関数の計算)について、より詳細に説明する。
次に、図12を参照しながら、ステップS104の処理(基底関数の評価・推定関数の生成)について、より詳細に説明する。
さて、上記のように、機械学習により推定機を自動構築するアルゴリズムの場合、学習用データの数が多いほど、構築される推定機の性能が高くなる。そのため、可能な限り多くの学習用データを利用して推定機を構築するのが好ましい。しかしながら、学習用データの格納に利用できる情報処理装置10のメモリ容量は限られている。また、学習用データの数が多くなると、推定機の構築を実現するために要求される演算性能も高くなってしまう。こうした理由から、バッチ処理にて推定機を構築する上記の方法(以下、オフライン学習)を用いている限り、推定機の性能は、情報処理装置10のリソースにより制限されてしまう。
図14に示すように、オフライン学習を適用する場合、推定機の構築に利用可能な学習用データの数に限りがあるため、推定機の更なる性能向上に限界がある。一方、オンライン学習を適用すると、学習用データの追加が可能になるため、推定機の更なる性能向上が期待できる。しかし、情報処理装置10のリソースには限りがあるため、限られたリソースの中で推定機の更なる性能向上を果たせるように学習用データの統合方法を工夫する必要がある。以下の実施形態に係る技術は、こうした課題を解決すべく考案されたものである。
本技術の一実施形態について説明する。
まず、図15及び図16を参照しながら、本実施形態に係る情報処理装置10の機能構成について説明する。図15は、本実施形態に係る情報処理装置10の全体的な機能構成を示した説明図である。一方、図16は、本実施形態に係る情報処理装置10を構成する推定機構築部12の詳細な機能構成を示した説明図である。
まず、図15を参照しながら、全体的な機能構成について説明する。図15に示すように、情報処理装置10は、主に、学習用データ取得部11と、推定機構築部12と、入力データ取得部13と、結果認識部14とにより構成される。
次に、図16を参照しながら、推定機構築部12の機能構成について詳細に説明する。図16に示すように、推定機構築部12は、基底関数リスト生成部121と、特徴量計算部122と、推定関数生成部123と、学習用データ統合部124とにより構成される。
次に、本実施形態に係る学習用データの統合方法について説明する。ここで説明する学習用データの統合方法は、学習用データ統合部124の機能により実現される。
まず、図17を参照しながら、特徴量空間における学習用データの分布と推定機の精度との関係について考察する。図17は、特徴量空間における学習用データの分布例を示した説明図である。
まず、図19を参照しながら、学習用データをサンプリングする方法について説明する。図19は、学習用データをサンプリングする方法について説明するための説明図である。
次に、学習用データに重みを設定する方法について説明する。
また、学習用データをサンプリングする方法と、学習用データに重みを設定する方法とを組み合わせてもよい。例えば、特徴量座標の分布が所定の分布となるように学習用データを間引いた後、間引き後の学習用データセットに含まれる学習用データに対し、特徴量座標の密度に応じた重みを設定する。このように、間引き処理と重み付け処理とを組み合わせることにより、メモリリソースが限られていても、より高精度の推定機を構築することが可能になる。
次に、学習用データの効率的なサンプリング/重み付け方法について説明する。
まず、図20を参照しながら、学習用データの効率的なサンプリング方法について説明する。図20は、学習用データの効率的なサンプリング方法について説明するための説明図である。
次に、図27を参照しながら、学習用データの効率的な重み付け方法について説明する。図27は、学習用データの効率的な重み付け方法について説明するための説明図である。
次に、図31を参照しながら、上記の効率的なサンプリング方法と効率的な重み付け方法とを組み合わせる方法について説明する。図31は、上記の効率的なサンプリング方法と効率的な重み付け方法とを組み合わせる方法について説明するための説明図である。
次に、サンプリング処理及び重み付け処理に関する変形例を紹介する。
まず、図32を参照しながら、特徴量座標間の距離に基づく学習用データのサンプリング方法について説明する。図32は、特徴量座標間の距離に基づく学習用データのサンプリング方法について説明するための説明図である。
次に、クラスタリングに基づく学習用データのサンプリング/重み付け方法について説明する。なお、以下ではサンプリング方法及び重み付け方法についてそれぞれ別々に説明するが、これらの方法を組み合わせてもよい。
まず、図33を参照しながら、クラスタリングに基づく学習用データのサンプリング方法について説明する。図33は、クラスタリングに基づく学習用データのサンプリング方法について説明するための説明図である。
次に、図34を参照しながら、クラスタリングに基づく学習用データの重み付け方法について説明する。図34は、クラスタリングに基づく学習用データの重み付け方法について説明するための説明図である。
次に、密度推定手法に基づく学習用データのサンプリング/重み付け方法について説明する。なお、以下ではサンプリング方法及び重み付け方法についてそれぞれ別々に説明するが、これらの方法を組み合わせてもよい。
まず、図35を参照しながら、密度推定手法に基づく学習用データのサンプリング方法について説明する。図35は、密度推定手法に基づく学習用データのサンプリング方法について説明するための説明図である。
次に、図36を参照しながら、密度推定手法に基づく学習用データの重み付け方法について説明する。図36は、密度推定手法に基づく学習用データの重み付け方法について説明するための説明図である。
次に、本実施形態に係る技術の応用例について説明する。なお、本実施形態に係る技術の応用範囲は広く、画像データの識別機、テキストデータの識別機、音声データの識別機、信号データの識別機など、様々な識別器や解析機の自動構築に応用することができる。ここでは一例として、画像認識機の自動構築方法への応用及び言語解析機の自動構築方法への応用について紹介する。
まず、図37を参照しながら、画像認識機の自動構築方法への応用について述べる。図37は、画像認識機の構築に利用する学習用データセットの生成方法について説明するための説明図である。なお、ここで言う画像認識機とは、例えば、画像を入力すると、その画像が“花”の画像なのか、“空”の画像なのか、或いは、“寿司”の画像なのかなどを自動認識するアルゴリズムのことを意味する。
次に、図38を参照しながら、言語解析機の自動構築方法への応用について述べる。図38は、言語解析機の構築に利用する学習用データセットの生成方法について説明するための説明図である。なお、ここで言う言語解析機とは、例えば、文を入力すると、その文が“政治”に関する文なのか、“経済”に関する文なのか、或いは、“芸能”に関する文なのかなどを自動認識するアルゴリズムのことを意味する。
上記の言語解析機の自動構築方法を用いて実験を行った。その実験結果を図39に示す。図39に示したグラフの横軸は経過時間(単位は日)であり、縦軸は平均F値(Average F−Measures)である。また、実線(Online,1k)及び破線(Online,4k)は、オンライン学習による学習用データセットの逐次更新を続けた場合の実験結果を示している。一方、鎖線(Online,1k)及び一点鎖線(Online,4k)は、オフライン学習による実験結果を示している。なお、1kは、推定機の構築に利用する学習用データの数を1000個に設定したことを示している。一方、4kは、推定機の構築に利用する学習用データの数を4000個に設定したことを示している。
上記のように、オンライン学習が可能になることで推定機の精度を向上させることができる。また、推定機の構築手法として、例えば、特開2009−48266号公報、特願2010−159598号明細書、特願2010−159597号明細書、特願2009−277083号明細書、特願2009−277084号明細書などに記載のアルゴリズムなど、様々な方法が適用可能である。そのため、様々な種類の認識機について精度の向上を図ることができる。また、Webサービスなどから取得した取得情報を利用して学習用データセットを自動生成する仕組みを設けることで、メンテナンスフリーで継続的に推定機の精度向上が図れる。また、学習用データセットを逐次更新することにより、常に新しい学習用データセットから推定機が構築されるため、新しいタグの登場や時代の変遷に伴うタグの意味変化などにも柔軟に対応することが可能になる。
上記の情報処理装置10が有する各構成要素の機能は、例えば、図40に示すハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図40に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、ゲーム機、情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出部と、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整部と、
複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成部と、
を備える、
情報処理装置。
前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引く、
上記(1)に記載の情報処理装置。
前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記各学習用データに対して重み付けする、
上記(1)に記載の情報処理装置。
前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように、前記学習用データを間引き、かつ、間引き後に残った学習用データの各々に対して重み付けする、
上記(1)に記載の情報処理装置。
前記所定の分布は、一様分布又はガウス分布である、
上記(1)〜(4)のいずれか1項に記載の情報処理装置。
前記分布調整部は、追加的に新たな学習用データが与えられた場合に、当該新たな学習用データと既存の学習用データとを含む学習用データ群を対象に、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引く、
上記(2)又は(4)に記載の情報処理装置。
予め用意された複数の関数を組み合わせて前記基底関数を生成する基底関数生成部をさらに備える、
上記(1)〜(6)のいずれか1項に記載の情報処理装置。
前記基底関数生成部は、遺伝的アルゴリズムに基づいて前記基底関数を更新し、
前記特徴量ベクトル算出部は、前記基底関数が更新された場合に、更新後の前記基底関数に前記入力データを入力して特徴量ベクトルを算出し、
前記関数生成部は、前記更新後の基底関数を用いて算出された特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する、
上記(7)に記載の情報処理装置。
入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出するステップと、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整するステップと、
複数の前記学習用データについて、前記特徴量ベクトルの入力に対して前記目的変数の推定値を出力する推定関数を生成するステップと、
を含む、
推定機生成方法。
入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出機能と、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整機能と、
複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成機能と、
をコンピュータに実現させるためのプログラム。
上記の特徴量計算部122は、特徴量ベクトル算出部の一例である。上記の学習用データ統合部124は、分布調整部の一例である。上記の推定関数生成部123は、関数生成部の一例である。上記の基底関数リスト生成部121は、基底関数生成部の一例である。
11 学習用データ取得部
12 推定機構築部
121 基底関数リスト生成部
122 特徴量計算部
123 推定関数生成部
124 学習用データ統合部
13 入力データ取得部
14 結果認識部
Claims (10)
- 入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出部と、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整部と、
複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成部と、
を備える、
情報処理装置。 - 前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引く、
請求項1に記載の情報処理装置。 - 前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記各学習用データに対して重み付けする、
請求項1に記載の情報処理装置。 - 前記分布調整部は、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように、前記学習用データを間引き、かつ、間引き後に残った学習用データの各々に対して重み付けする、
請求項1に記載の情報処理装置。 - 前記所定の分布は、一様分布又はガウス分布である、
請求項1に記載の情報処理装置。 - 前記分布調整部は、追加的に新たな学習用データが与えられた場合に、当該新たな学習用データと既存の学習用データとを含む学習用データ群を対象に、特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように前記学習用データを間引く、
請求項2に記載の情報処理装置。 - 予め用意された複数の関数を組み合わせて前記基底関数を生成する基底関数生成部をさらに備える、
請求項1に記載の情報処理装置。 - 前記基底関数生成部は、遺伝的アルゴリズムに基づいて前記基底関数を更新し、
前記特徴量ベクトル算出部は、前記基底関数が更新された場合に、更新後の前記基底関数に前記入力データを入力して特徴量ベクトルを算出し、
前記関数生成部は、前記更新後の基底関数を用いて算出された特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する、
請求項7に記載の情報処理装置。 - 入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出するステップと、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整するステップと、
複数の前記学習用データについて、前記特徴量ベクトルの入力に対して前記目的変数の推定値を出力する推定関数を生成するステップと、
を含む、
推定機生成方法。 - 入力データ及び当該入力データに対応する目的変数で構成される複数の学習用データが与えられた場合に、複数の基底関数に前記入力データを入力して、前記各基底関数の出力値を要素とする特徴量ベクトルを算出する特徴量ベクトル算出機能と、
特徴量空間において前記特徴量ベクトルにより特定される点の分布が所定の分布に近づくように当該点の分布を調整する分布調整機能と、
複数の前記学習用データについて、前記特徴量ベクトルの入力に応じて前記目的変数の推定値を出力する推定関数を生成する関数生成機能と、
をコンピュータに実現させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011196300A JP5909943B2 (ja) | 2011-09-08 | 2011-09-08 | 情報処理装置、推定機生成方法、及びプログラム |
US13/591,520 US20130066452A1 (en) | 2011-09-08 | 2012-08-22 | Information processing device, estimator generating method and program |
CN201210320527.3A CN103177177B (zh) | 2011-09-08 | 2012-08-31 | 信息处理设备和估计器生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011196300A JP5909943B2 (ja) | 2011-09-08 | 2011-09-08 | 情報処理装置、推定機生成方法、及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013058095A true JP2013058095A (ja) | 2013-03-28 |
JP2013058095A5 JP2013058095A5 (ja) | 2014-09-25 |
JP5909943B2 JP5909943B2 (ja) | 2016-04-27 |
Family
ID=48133934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011196300A Expired - Fee Related JP5909943B2 (ja) | 2011-09-08 | 2011-09-08 | 情報処理装置、推定機生成方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5909943B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013084175A (ja) * | 2011-10-12 | 2013-05-09 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
WO2019184777A1 (zh) * | 2018-03-30 | 2019-10-03 | 腾讯科技(深圳)有限公司 | 用于竞速类ai模型的ai参数配置方法、装置、设备及存储介质 |
WO2020179378A1 (ja) * | 2019-03-04 | 2020-09-10 | 日本電気株式会社 | 情報処理システム、情報処理方法および記録媒体 |
JP7270894B1 (ja) * | 2022-12-09 | 2023-05-11 | 株式会社Creator’s NEXT | 新規な作風のデジタルデータの特定 |
JP7494001B2 (ja) | 2020-05-14 | 2024-06-03 | 株式会社日立製作所 | 学習データセット作成支援装置および学習データセット作成支援方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007200044A (ja) * | 2006-01-26 | 2007-08-09 | Matsushita Electric Works Ltd | 異常検出方法及び異常検出装置 |
JP2008123011A (ja) * | 2005-10-25 | 2008-05-29 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2009301557A (ja) * | 2009-07-21 | 2009-12-24 | Nec Corp | 学習システム |
-
2011
- 2011-09-08 JP JP2011196300A patent/JP5909943B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008123011A (ja) * | 2005-10-25 | 2008-05-29 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2007200044A (ja) * | 2006-01-26 | 2007-08-09 | Matsushita Electric Works Ltd | 異常検出方法及び異常検出装置 |
JP2009301557A (ja) * | 2009-07-21 | 2009-12-24 | Nec Corp | 学習システム |
Non-Patent Citations (1)
Title |
---|
上田修功: "アンサンブル学習", 情報処理学会論文誌 コンピュータビジョンとイメージメディア, vol. 第46巻,第SIG15CVIM1号, JPN6015044166, 15 October 2005 (2005-10-15), JP, pages 11 - 20, ISSN: 0003187488 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013084175A (ja) * | 2011-10-12 | 2013-05-09 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
WO2019184777A1 (zh) * | 2018-03-30 | 2019-10-03 | 腾讯科技(深圳)有限公司 | 用于竞速类ai模型的ai参数配置方法、装置、设备及存储介质 |
US11911702B2 (en) | 2018-03-30 | 2024-02-27 | Tencent Technology (Shenzhen) Company Limited | AI parameter configuration method and apparatus for racing AI model, AI parameter configuration device, and storage medium |
WO2020179378A1 (ja) * | 2019-03-04 | 2020-09-10 | 日本電気株式会社 | 情報処理システム、情報処理方法および記録媒体 |
JPWO2020179378A1 (ja) * | 2019-03-04 | 2020-09-10 | ||
JP7259935B2 (ja) | 2019-03-04 | 2023-04-18 | 日本電気株式会社 | 情報処理システム、情報処理方法およびプログラム |
JP7494001B2 (ja) | 2020-05-14 | 2024-06-03 | 株式会社日立製作所 | 学習データセット作成支援装置および学習データセット作成支援方法 |
JP7270894B1 (ja) * | 2022-12-09 | 2023-05-11 | 株式会社Creator’s NEXT | 新規な作風のデジタルデータの特定 |
Also Published As
Publication number | Publication date |
---|---|
JP5909943B2 (ja) | 2016-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110580501B (zh) | 一种基于变分自编码对抗网络的零样本图像分类方法 | |
Ye | Particle swarm optimization-based automatic parameter selection for deep neural networks and its applications in large-scale and high-dimensional data | |
Yu et al. | Hybrid adaptive classifier ensemble | |
Chiroma et al. | Progress on artificial neural networks for big data analytics: a survey | |
JP4948118B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20130066452A1 (en) | Information processing device, estimator generating method and program | |
Ulhaq et al. | Efficient diffusion models for vision: A survey | |
CN113850281B (zh) | 一种基于meanshift优化的数据处理方法和装置 | |
US20240135191A1 (en) | Method, apparatus, and system for generating neural network model, device, medium, and program product | |
JP5909943B2 (ja) | 情報処理装置、推定機生成方法、及びプログラム | |
JP6172317B2 (ja) | 混合モデル選択の方法及び装置 | |
Wang et al. | Application research of ensemble learning frameworks | |
Huang et al. | On the improvement of reinforcement active learning with the involvement of cross entropy to address one-shot learning problem | |
CN113330462A (zh) | 使用软最近邻损失的神经网络训练 | |
Chen et al. | Sample balancing for deep learning-based visual recognition | |
WO2020170803A1 (ja) | 拡張装置、拡張方法及び拡張プログラム | |
Cao et al. | Emotional modelling and classification of a large-scale collection of scene images in a cluster environment | |
Parker et al. | Nonlinear time series classification using bispectrum‐based deep convolutional neural networks | |
EP4339832A1 (en) | Method for constructing ai integrated model, and inference method and apparatus of ai integrated model | |
Zerrouk et al. | Evolutionary algorithm for optimized CNN architecture search applied to real-time boat detection in aerial images | |
JP5909944B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
Chen et al. | EGANS: Evolutionary Generative Adversarial Network Search for Zero-Shot Learning | |
Shen et al. | A multiple classifiers time-serial ensemble pruning algorithm based on the mechanism of forward supplement | |
Mendez-Ruiz et al. | SuSana Distancia is all you need: Enforcing class separability in metric learning via two novel distance-based loss functions for few-shot image classification | |
Fengyu et al. | Image segmentation algorithm of Gaussian mixture model based on map/reduce |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140813 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160314 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5909943 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |