JP6551101B2 - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP6551101B2
JP6551101B2 JP2015184098A JP2015184098A JP6551101B2 JP 6551101 B2 JP6551101 B2 JP 6551101B2 JP 2015184098 A JP2015184098 A JP 2015184098A JP 2015184098 A JP2015184098 A JP 2015184098A JP 6551101 B2 JP6551101 B2 JP 6551101B2
Authority
JP
Japan
Prior art keywords
processing
data
learning
value
processing performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015184098A
Other languages
English (en)
Other versions
JP2017059031A (ja
Inventor
善行 後藤
善行 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2015184098A priority Critical patent/JP6551101B2/ja
Priority to US15/268,026 priority patent/US20170083818A1/en
Publication of JP2017059031A publication Critical patent/JP2017059031A/ja
Application granted granted Critical
Publication of JP6551101B2 publication Critical patent/JP6551101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Debugging And Monitoring (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Computational Linguistics (AREA)

Description

本発明は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、学習処理等の所定の処理の実行を支援する、情報処理装置、情報処理方法、及び、プログラムに関する。
近年、非特許文献1に記載されているように、機械学習技術のビッグデータ分析への活用が多く見られるようになっている。非特許文献1に記載されている「日配品需要予測ソリューション」では、コンビニエンスストアや食品スーパー等の小売業において、機械学習により構築された予測モデルを用いて、賞味期限が短い日配品の廃棄や在庫切れによる販売機会損失を削減する。しかし、小売業が取り扱う日配品は多種多様であり、それらに対し限られた時間内で十分な精度の予測モデルを構築するためには、機械学習における適切な処理パラメータを得るためのパラメータチューニングが必要となる。
機械学習におけるモデル構築処理では、モデルを解析的に解くことは困難であり、一般的に、モデル更新を反復することによりモデルを構築する、反復計算が行われる。このようなモデル構築処理では、反復計算における反復回数や、反復計算を終了するための閾値等の処理パラメータの最適値を、試行錯誤的に決定する必要がある。1回のモデル構築処理には、通常のサーバマシンを使用しても数十分〜数十時間を要するため、適切な処理パラメータの決定には多大な時間がかかる。また、このようなモデル構築処理に要する時間を、ユーザ等が事前に把握することは難しい。
このようなモデル構築処理の支援に係る技術の一例が、特許文献1に記載されている。特許文献1に記載の「設計支援システム」は、処理対象のデータのサンプルデータに対して処理方式の処理時間を求め、処理対象のデータに対する当該処理方式の処理時間を予測する。
なお、関連技術として、特許文献2には、複数のパラメータを含む関係式において、パラメータの変化に対する他のパラメータの変化を表示する「動的相互関係評価システム」が記載されている。また、特許文献3には、クラスフィールドが既知の事例集合を用いてクラスフィールドが未知の事例集合のクラスフィールドを予測する予測装置が記載されている。特許文献4には、学習用の画像データを用いて、画像データの特徴データからパラメータを推定する関数群を作成し、推定対象の画像データの特徴データと関数群を用いて、パラメータを推定するパラメータ推定装置が記載されている。
特開2015−014847号公報 特許第3682153号公報 特開2000−155681号公報 特開2008−217521号公報
「NEC、ビッグデータ分析技術を用いて適正な発注を実現する小売業向けソリューションを発売」、[online]、日本電気株式会社、[平成27年8月31日検索]、インターネット<URL: http://jpn.nec.com/press/201504/20150410_01.html>
上述の特許文献1に記載の技術では、処理対象のデータに対する処理方式の処理時間を求めるために、サンプルデータに対して処理方式の処理を行う必要があり、処理方式の内容やサンプルデータの量によっては処理時間を得るまでに時間を要する。また、特許文献1に記載の技術では、処理方式に係る処理パラメータを決定する方法については記載されていない。
本発明の目的は、上述の課題を解決し、所定の処理に係る適切な処理パラメータの決定、及び、処理時間の把握を短時間で行うことができる、情報処理装置、情報処理方法、及び、プログラムを提供することである。
本発明の情報処理装置は、第1のデータの入力を受け付ける、入力手段と、所定の処理を第2のデータに対して実行した場合の前記所定の処理に係る処理性能の履歴を用いて、前記第1のデータに対応する前記所定の処理に係る処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定し、出力する、特定手段と、を備える。
本発明の情報処理方法は、第1のデータの入力を受け付け、所定の処理を第2のデータに対して実行した場合の前記所定の処理に係る処理性能の履歴を用いて、前記第1のデータに対応する前記所定の処理に係る処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定し、出力する。
本発明のプログラムは、コンピュータに、第1のデータの入力を受け付け、所定の処理を第2のデータに対して実行した場合の前記所定の処理に係る処理性能の履歴を用いて、前記第1のデータに対応する前記所定の処理に係る処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定し、出力する、処理を実行させる。
本発明の効果は、所定の処理に係る適切な処理パラメータの決定、及び、処理時間の把握を短時間で行えることである。
本発明の実施の形態の特徴的な構成を示すブロック図である。 本発明の実施の形態における、学習システム1の構成を示すブロック図である。 本発明の実施の形態における、コンピュータにより実現された学習支援装置500の構成を示すブロック図である。 本発明の実施の形態における、収集処理を示すフローチャートである。 本発明の実施の形態における、特定処理を示すフローチャートである。 本発明の実施の形態における、学習データの例を示す図である。 本発明の実施の形態における、処理パラメータの例を示す図である。 本発明の実施の形態における、処理性能の例を示す図である。 本発明の実施の形態における、特徴ベクトルの生成例を示す図である。 本発明の実施の形態における、学習処理情報531の例を示す図である。 本発明の実施の形態における、学習データの他の例を示す図である。 本発明の実施の形態における、処理性能要件の例を示す図である。 本発明の実施の形態における、特徴ベクトルの他の生成例を示す図である。 本発明の実施の形態における、類似する特徴ベクトルの抽出例を示す図である。 本発明の実施の形態における、表示画面551の例を示す図である。 本発明の実施の形態における、表示画面551の他の例を示す図である。 本発明の実施の形態における、表示画面551の他の例を示す図である。 本発明の実施の形態における、表示画面551の他の例を示す図である。 本発明の実施の形態における、表示画面551の他の例を示す図である。
はじめに、本発明の実施の形態における、所定の処理について説明する。
本発明の実施の形態においては、所定の処理として、機械学習による予測モデル(以下、単にモデルとも記載)の学習(構築)処理を実行する場合を例に説明する。
機械学習によるモデル構築処理では、入力されたデータに対してモデル更新処理を繰り返し、モデルパラメータの最適解を探索することでモデルを生成する。このようなモデル構築処理の方式としては、例えば、ニューラルネットワークや、サポートベクタマシン、非特許文献1に記載されている異種混合分析等、様々な方式が挙げられる。モデル構築処理により構築されたモデルにより、データの予測、識別、分類等が行われる。
モデル構築処理には、モデルの構築対象である、学習データが入力される。例えば、学習データとして、複数の属性の値の集合を1つのサンプルとして、複数のサンプルが入力される。複数の属性は、モデルにおける説明変数、及び、目的変数として用いられる。
モデル構築処理は、指定された処理パラメータに従って実行される。処理パラメータは、構築されるモデルの特性や、繰り返し処理の終了条件等、モデル構築処理の動作を指定するパラメータである。例えば、処理パラメータとして、モデルの特性を指定する「モデルの複雑さ」、「モデルの集約度」や、繰り返し処理の終了条件を指定する「収束判定条件」、「最大繰り返し回数」等が入力される。
モデル構築処理は、繰り返し処理の終了条件に達するまでモデル更新処理を繰り返し、モデルパラメータを更新する。そして、繰り返し処理の終了条件が満たされるとモデル構築処理は終了し、最終的なモデルパラメータが出力される。
次に、本発明の実施の形態の構成を説明する。ここでは、機械学習による予測モデルの構築をWebサービスにより提供する学習システム1を例に説明する。
図2は、本発明の実施の形態における、学習システム1の構成を示すブロック図である。学習システム1は、1以上のクライアント装置100、サーバ装置200、1以上の学習装置300、モデル記憶装置400、及び、学習支援装置500を含む。クライアント装置100とサーバ装置200、クライアント装置100と学習支援装置500、サーバ装置200と学習装置300、及び、学習装置300と学習支援装置500は、ネットワーク等により接続される。
クライアント装置100は、例えば、パーソナルコンピュータ等の端末装置である。クライアント装置100は、サーバ装置200を介して、学習装置300へ、学習データ(以下、第2のデータとも記載)、及び、モデル構築処理に係る処理パラメータを指定した、モデル構築要求を送信する。また、クライアント装置100は、学習支援装置500へ、新たな学習データ(以下、第1のデータとも記載)を指定した、学習処理情報要求を送信する。学習処理情報要求は、新たな学習データに対するモデル構築処理に係る処理パラメータや処理性能(モデル構築処理の処理時間、モデルの評価指標)を取得するための要求である。
サーバ装置200は、学習装置300によるモデルの構築を、Webサービスによりクライアント装置100へ提供する。サーバ装置200は、クライアント装置100から受信したモデル構築要求を学習装置300に転送する。
学習装置300は、サーバ装置200から受信したモデル構築要求で指定された学習データに対して、指定された処理パラメータを用いてモデル構築処理を実行し、当該モデル構築処理に係る処理性能を算出する。
モデル記憶装置400は、学習装置300により構築されたモデルを記憶する。
学習支援装置500は、学習処理情報収集部510、特徴ベクトル生成部520、学習処理情報記憶部530、入力部540、特定部550、及び、出力部560を含む。学習支援装置500は、本発明の情報処理装置の一実施形態である。
学習処理情報収集部510は、学習装置300から、モデル構築処理に係る学習データや、処理パラメータ、処理性能を収集する。
特徴ベクトル生成部520は、学習データの特徴(特性)を表す特徴量を算出し、算出した特徴量を要素として持つ特徴ベクトルを生成する。
学習処理情報記憶部530は、学習処理情報531を記憶する。学習処理情報531は、モデル構築処理の履歴に基づく情報である。例えば、学習処理情報531は、学習データに対して生成された特徴ベクトル、モデル構築処理に係る処理パラメータ、及び、当該学習データに対して当該処理パラメータを用いて実行したモデル構築処理の処理性能を関連付けた情報である。なお、学習処理情報記憶部530は、さらに、学習データと当該学習データに対して生成された特徴ベクトルを関連付けて記憶していてもよい。
入力部540は、クライアント装置100から、学習処理情報要求の入力を受け付ける。
特定部550は、学習処理情報531から、学習処理情報要求で指定された新たな学習データの特徴ベクトルと類似度の高い特徴ベクトルを抽出し、当該抽出された特徴ベクトルに対応する処理パラメータや処理性能を特定する。
出力部560は、特定部550により特定された処理パラメータや処理性能を、学習処理情報要求に対する応答として、クライアント装置100へ送信する。
なお、学習支援装置500は、CPU(Central Processing Unit)とプログラムを記憶した記憶媒体を含み、プログラムにもとづく制御によって動作するコンピュータであってもよい。
図3は、本発明の実施の形態における、コンピュータにより実現された学習支援装置500の構成を示すブロック図である。
この場合、学習支援装置500は、CPU501、ハードディスクやメモリ等の記憶デバイス502(記憶媒体)、キーボード、ディスプレイ等の入出力デバイス503、及び、他の装置等と通信を行う通信デバイス504を含む。CPU501は、学習処理情報収集部510、特徴ベクトル生成部520、入力部540、特定部550、及び、出力部560を実現するためのプログラムを実行する。記憶デバイス502は、学習処理情報記憶部530のデータ(学習処理情報531)を記憶する。入出力デバイス503は、クライアント装置100からの学習処理情報要求の入力、及び、クライアント装置100への学習処理情報要求に対する応答の出力を行う。通信デバイス504は、学習装置300からモデル構築処理に係る、学習データや、処理性能、処理パラメータを受信する。
また、学習支援装置500の各構成要素は、論理回路で実現されていてもよい。この場合、複数の構成要素が、1つの論理回路で実現されていてもよいし、それぞれ、複数の独立した論理回路で実現されていてもよい。
また、学習支援装置500の各構成要素は、有線または無線で接続された複数の物理的な装置に分散的に配置されていてもよい。この場合、学習支援装置500は、複数のコンピュータによる分散処理により実現されていてもよい。
次に、本発明の実施の形態の動作について説明する。
はじめに、本発明の実施の形態における、収集処理について説明する。
図4は、本発明の実施の形態における、収集処理を示すフローチャートである。
クライアント装置100は、サーバ装置200に、学習データ、及び、処理パラメータを指定した、モデル構築要求を送信する(ステップS101)。
図6は、本発明の実施の形態における、学習データの例を示す図である。図6の例では、学習データは、各属性(属性1、2、…)が列、属性値の集合(サンプル)が行に設定された表形式で表されている。また、図7は、本発明の実施の形態における、処理パラメータの例を示す図である。図7の例では、処理パラメータとして、P1、P2、…が指定されている。
例えば、クライアント装置100は、図6の学習データ、及び、図7の処理パラメータを指定した、モデル構築要求を送信する。
サーバ装置200は、クライアント装置100から受信したモデル構築要求を、1以上の学習装置300の内のいずれかに転送する(ステップS102)。
学習装置300は、モデル構築要求で指定された学習データに対して、指定された処理パラメータを用いて、モデル構築処理を実行し、モデルを構築する(ステップS103)。学習装置300は、構築したモデルを、モデル記憶装置400に保存する。また、学習装置300は、モデル構築処理の処理性能を算出する。ここで、学習装置300は、処理性能として、モデル構築処理の処理時間、及び、モデル構築処理により構築されたモデルの評価指標を算出する。モデルの評価指標として、例えば、構築された予測モデルに学習データを適用して得られる予測値の平均二乗誤差や絶対誤差の最大値等、モデルの精度が算出される。
図8は、本発明の実施の形態における、処理性能の例を示す図である。図8の例では、処理性能として、処理時間、平均二乗誤差、及び、絶対誤差の最大値が示されている。例えば、学習装置300は、図6の学習データに対して図7の処理パラメータでモデル構築処理を実行し、図8のように処理性能を算出する。
学習装置300は、モデル構築処理に用いた学習データと処理パラメータ、及び、算出した処理性能を、各モデル構築処理を一意に識別可能な処理ID(Identifier)とともに、学習支援装置500に送信する(ステップS104)。
例えば、学習装置300は、処理ID「100」とともに、図6の学習データ、図7の処理パラメータ、及び、図8の処理性能を送信する。
学習支援装置500の学習処理情報収集部510は、学習装置300から、処理ID、学習データ、処理パラメータ、及び、処理性能を受信(収集)する。
学習処理情報収集部510は、特徴ベクトル生成部520を用いて、収集した学習データの特徴ベクトルを生成する(ステップS105)。
ここで、特徴ベクトル生成部520は、学習データに対して、クレンジング、標準化、及び、相関の高い属性の除去等の前処理を行う。ここで、クレンジングとして、無効な値の削除や補完が行われる。また、標準化として、例えば、平均が0、分散が1になるような正規化が行われる。さらに、互いに相関の高い属性(説明変数)の内、いずれかの属性が削除される。
そして、特徴ベクトル生成部520は、前処理が行われた学習データについて、サンプル数、及び、属性数を特徴量として算出する。さらに、特徴ベクトル生成部520は、前処理が行われた学習データについて、属性値に係る特徴量を算出する。ここで、属性ごとに最大値、最小値、及び、最も強い周波数成分の周波数を算出が算出され、それら最大値、最小値、周波数の、属性間での最大値、平均値、最小値が、属性値に係る特徴量として用いられる。
特徴ベクトル生成部520は、算出したサンプル数、属性数、及び、属性値に係る特徴量を要素とする特徴ベクトルを生成する。
図9は、本発明の実施の形態における、特徴ベクトルの生成例を示す図である。例えば、特徴ベクトル生成部520は、図6の学習データに対して、図9のような特徴ベクトルを生成する。
なお、特徴ベクトル生成部520は、学習データの特徴を表すことができれば、例えば、主成分分析等により算出された主成分の値を特徴量として用いる等、他の特徴量を算出してもよい。
学習処理情報収集部510は、処理ID、生成された特徴ベクトル、収集した処理パラメータ、及び、処理性能を、学習処理情報記憶部530における学習処理情報531に追加して、学習処理情報531を更新する(ステップS106)。
図10は、本発明の実施の形態における、学習処理情報531の例を示す図である。例えば、学習処理情報収集部510は、図10のように、処理ID「100」、図9の特徴ベクトル、図7の処理パラメータ、及び、図8の処理性能を、学習処理情報531に追加する。
以下、クライアント装置100からのモデル構築要求に対して学習装置300がモデル構築を行うたびに、ステップS101からの処理が実行される。そして、学習処理情報531には、特徴ベクトル、処理パラメータ、及び、処理性能の、様々な組み合わせが記録されていく。
次に、本発明の実施の形態における、特定処理について説明する。ここでは、クライアント装置100が、学習処理情報要求として、新たな学習データと処理性能要件に対する処理パラメータを要求する場合を例に説明する。
図5は、本発明の実施の形態における、特定処理を示すフローチャートである。
クライアント装置100は、学習支援装置500に、新たな学習データ、及び、処理性能要件を指定した、学習処理情報要求を送信する(ステップS201)。処理性能要件は、処理性能(モデル構築処理の処理時間、構築されるモデルの評価指標)に係る要求条件である。
図11は、本発明の実施の形態における、学習データの他の例を示す図である。図12は、本発明の実施の形態における、処理性能要件の例を示す図である。図12の例では、処理性能要件として、処理時間、平均二乗誤差、及び、絶対誤差の最大値についての要求条件が示されている。例えば、クライアント装置100は、図11の学習データと図12の処理性能要件とを指定した学習処理情報要求を送信する。
学習支援装置500の入力部540は、クライアント装置100から、学習処理情報要求を受信する。
特定部550は、特徴ベクトル生成部520を用いて、受信した学習処理情報要求で指定された新たな学習データの特徴ベクトルを生成する(ステップS202)。
図13は、本発明の実施の形態における、特徴ベクトルの他の生成例を示す図である。例えば、特徴ベクトル生成部520は、図11の学習データに対して、図13のように特徴ベクトルを生成する。
特定部550は、学習処理情報記憶部530の学習処理情報531から、学習処理情報要求で指定された新たな学習データの特徴ベクトルと類似する特徴ベクトルを抽出する(ステップS203)。ここで、特定部550は、例えば、新たな学習データとの間で、サンプル数、属性数の差分が、所定の差分閾値以下であり、属性値に係る特徴量のコサイン類似度が所定の類似度閾値以下の特徴ベクトルを抽出する。
図14は、本発明の実施の形態における、類似する特徴ベクトルの抽出例を示す図である。例えば、特定部550は、図10の学習処理情報531から、図13の特徴ベクトルと類似する特徴ベクトルとして、図14のように、処理ID「50」、「100」に対する特徴ベクトルを抽出する。
特定部550は、ステップS203で抽出された特徴ベクトルに関連付けられた処理パラメータや処理性能から、さらに、学習処理情報要求における指示内容に応じた処理パラメータや処理性能を特定する(ステップS204)。ここで、特定部550は、ステップS203で抽出された特徴ベクトルに関連付けられた処理パラメータの内、処理性能要件を満たす処理性能に関連付けられた処理パラメータを特定する。
例えば、図14における、処理ID「50」、「100」に対する処理性能の内、処理ID「100」に対する処理性能が、図12の処理性能要件を満たす。したがって、特定部550は、処理ID「100」に対する処理パラメータ「P1:4、P2:1.0、P3:0.001、P4:100」を、学習処理情報要求に応じた処理パラメータとして特定する。
特定部550は、ステップS204で特定された処理パラメータや処理性能を、学習処理情報要求に対する応答として、出力部560を介して、クライアント装置100へ送信(出力)する(ステップS205)。
クライアント装置100は、受信した処理パラメータや処理性能を、ユーザへ出力(表示)する(ステップS206)。
ここで、特定部550は、クライアント装置100がユーザ等へ特定された処理パラメータや処理性能を表示するための表示画面551を生成して、クライアント装置100へ送信し、ユーザに対して表示させてもよい。また、クライアント装置100が、学習支援装置500から受信した情報をもとに同様の表示画面551を生成し、ユーザに対して表示してもよい。
図15は、本発明の実施の形態における、表示画面551の例を示す図である。図15の例では、学習処理情報要求として指定した学習データ(入力値)、処理性能要件(入力値)に対して、特定された処理パラメータ(推奨値)が示されている。
例えば、特定部550は、図15のような表示画面551を生成し、クライアント装置100に表示させる。
ユーザは、図15の表示画面551から得られる処理パラメータを、新たな学習データに対するモデル構築要求で指定することにより、当該新たな学習データに対して処理性能要件を満たしながらモデルを構築できる。
このように、ユーザは、新たな学習データに対して、処理性能要件を満たすような適切な処理パラメータを、処理パラメータを決定するための試行錯誤を行うことなく、短時間で取得できる。
また、特徴が類似している異なる学習データに対して、モデル構築を繰り返す場合、ある学習データに対して上述の特定処理により処理パラメータを決定すれば、他の学習データに対しても、同じ処理パラメータで同程度の処理性能を期待できる。したがって、この場合、適切な処理パラメータの決定に要する時間をさらに短縮できる。
以上により、本発明の実施の形態の動作が完了する。
なお、上述の説明では、クライアント装置100が、学習処理情報要求として、新たな学習データ、及び、処理性能要件に対する処理パラメータを要求する場合を例に説明した。しかしながら、これに限らず、クライアント装置100が、学習処理情報要求として、新たな学習データ、及び、特定の処理パラメータに対する処理性能を要求してもよい。この場合、特定部550は、新たな学習データの特徴ベクトルと類似する特徴ベクトルに関連付けられた処理性能から、例えば、特定の処理パラメータと一致または類似する処理パラメータに関連する処理性能を特定し、処理性能の推定値として送信する。
図16は、本発明の実施の形態における、表示画面551の他の例を示す図である。図16の例では、学習処理情報要求として指定した学習データ(入力値)、処理パラメータ(入力値)に対して、特定された処理性能(推定値)が示されている。ユーザは、図16の表示画面551を参照し、新たな学習データに対して特定の処理パラメータを用いてモデル構築処理を行った場合の処理性能を把握することができる。
また、クライアント装置100が、学習処理情報要求として、新たな学習データに対する処理パラメータ、及び、処理性能を要求してもよい。この場合、特定部550は、新たな学習データの特徴ベクトルと類似する特徴ベクトルに関連付けられた処理パラメータ、及び、処理性能の組を特定し、送信する。
図17は、本発明の実施の形態における、表示画面551の他の例を示す図である。図17の例では、学習処理情報要求として指定した学習データ(入力値)に対して、特定された処理パラメータ、及び、処理性能の組が示されている。ユーザは、図17の表示画面551を参照し、新たな学習データに対して様々な処理パラメータを用いてモデル構築処理を行った場合の処理性能を把握することができる。
また、クライアント装置100が、学習処理情報要求として、特定の処理パラメータに対する学習データ、及び、処理性能を要求してもよい。この場合、特定部550は、例えば、特定の処理パラメータと一致または類似する処理パラメータに関連付けられた特徴ベクトルに係る学習データ、及び、処理性能の組を特定し、送信する。
図18は、本発明の実施の形態における、表示画面551の他の例を示す図である。図18の例では、学習処理情報要求として指定した処理パラメータ(入力値)に対して、特定された学習データ、及び、処理性能の組が示されている。ユーザは、図18の表示画面551を参照し、様々な学習データに対して、特定の処理パラメータを用いてモデル構築処理を行った場合の処理性能を把握することができる。
さらに、クライアント装置100が、学習処理情報要求として、処理性能要件に対する学習データ、及び、処理パラメータを要求してもよい。この場合、特定部550は、処理性能要件を満たす処理性能に関連付けられた特徴ベクトルに係る学習データ、及び、処理パラメータの組を特定し、送信する。
図19は、本発明の実施の形態における、表示画面551の他の例を示す図である。図19の例では、処理性能要件(入力値)に対して、特定された学習データ、及び、処理パラメータの組が示されている。ユーザは、図19の表示画面551を参照し、様々な学習データに対して、処理性能要件を満たすような、適切な処理パラメータを取得できる。
なお、図15から図19の表示画面551において、学習データの代わり、あるいは、学習データとともに、当該学習データの特徴量が表示されてもよい。
また、上述の説明では、特定部550が、学習処理情報531から、新たな学習データとの間でサンプル数、属性数の差分が所定の差分閾値以下であり、属性値に係る特徴量のコサイン類似度が所定の類似度閾値以下の特徴ベクトルを抽出した。一般に、モデル構築処理の処理時間は、学習データの特徴が類似し、サンプル数や属性数の差分がある程度の範囲であれば、サンプル数や属性数に依存し、それらに対して概ね線形に比例すると考えられる。したがって、新たな学習データ、及び、特定の処理パラメータに対する処理性能が要求された場合、特定部550は、抽出された特徴ベクトルに対する処理時間とサンプル数や属性数の差分を用いて、新たな学習データのより正確な処理時間を推定してもよい。
また、上述の説明では、学習支援装置500が、クライアント装置100からの学習処理情報要求で指定された学習データ、及び、処理性能要件に対して、処理パラメータを特定し、クライアント装置100へ送信した。しかしながら、これに限らず、学習支援装置500が、指定された学習データ、及び、特定された処理パラメータを含むモデル構築要求を学習装置300に送信し、学習装置300にモデルを構築させてもよい。この場合、学習支援装置500は、ユーザから、特定された処理パラメータを用いたモデル構築の許可が、クライアント装置100を介して得られたときに、モデル構築要求を送信してもよい。これにより、新たな学習データに対して、処理性能要件を満たすようなモデルの構築を、処理パラメータの決定のための試行錯誤をすることなく、実行できる。
また、本発明の実施の形態においては、所定の処理が機械学習によるモデルの構築処理である場合を例に説明した。しかしながら、これに限らず、入力されるデータに対して処理パラメータを用いて処理を行い、処理パラメータに応じて異なる処理性能(処理時間や評価指標等)が得られるのであれば、所定の処理は機械学習によるモデル構築処理以外の処理でもよい。例えば、所定の処理は画像データや映像データの解析処理でもよい。
次に、本発明の実施の形態の特徴的な構成を説明する。図1は、本発明の実施の形態の特徴的な構成を示すブロック図である。
図1を参照すると、学習支援装置500(情報処理装置)は、入力部540、及び、特定部550を含む。入力部540は、新たな学習データ(第1のデータ)の入力を受け付ける。特定部550は、学習処理を学習データ(第2のデータ)に対して実行した場合の学習処理に係る処理性能の履歴を用いて、新たな学習データに対応する学習処理に係る処理パラメータの値、及び、処理性能の値の内の少なくとも一方を特定し、出力する。
次に、本発明の実施の形態の効果を説明する。
本発明の実施の形態によれば、所定の処理に係る適切な処理パラメータの決定、及び、処理時間の把握を短時間で行うことができる。その理由は、特定部550が、学習処理を学習データに対して実行した場合の学習処理に係る処理性能の履歴を用いて、新たな学習データに対応する学習処理に係る処理パラメータの値、及び、処理性能の値の内の少なくとも一方を特定し、出力するためである。
これにより、所定の処理に係る適切な処理パラメータの決定、及び、処理時間の把握に必要な、人的リソースやマシンリソースを削減できる。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
1 学習システム
100 クライアント装置
200 サーバ装置
300 学習装置
400 モデル記憶装置
500 学習支援装置
501 CPU
502 記憶デバイス
503 入出力デバイス
504 通信デバイス
510 学習処理情報収集部
520 特徴ベクトル生成部
530 学習処理情報記憶部
531 学習処理情報
540 入力部
550 特定部
551 表示画面
560 出力部

Claims (12)

  1. 第1のデータの入力を受け付ける、入力手段と、
    所定の処理を第2のデータに対して実行した場合の前記所定の処理に係る処理性能の履歴を用いて、前記第1のデータに対応する前記所定の処理に係る処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定し、出力する、特定手段と、
    を備え
    前記所定の処理は、データに対するモデルを構築する、学習処理であり、
    前記処理性能は、前記学習処理により生成されたモデルの精度を含む、
    情報処理装置。
  2. 第1のデータの入力を受け付ける、入力手段と、
    所定の処理を第2のデータに対して実行した場合の前記所定の処理に係る処理性能の履歴を用いて、前記第1のデータに対応する前記所定の処理に係る処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定し、出力する、特定手段と、
    を備え、
    前記特定手段は、前記第2のデータの特性、前記処理パラメータの値、及び、前記処理パラメータを用いて前記所定の処理を前記第2のデータに対して実行した場合の前記処理性能の値が関連付けられた処理情報をもとに、前記第1のデータの特性に対応する前記処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定する、
    報処理装置。
  3. 前記特定手段は、前記第1のデータの特性と前記処理情報における前記第2のデータの特性とを比較し、前記第1のデータの特性に類似する前記第2のデータの特性に関連付けられた前記処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定する、
    請求項2に記載の情報処理装置。
  4. 前記入力手段は、前記第1のデータと前記処理性能に係る条件との入力を受け付け、
    前記特定手段は、前記処理情報をもとに、前記第1のデータの特性に対応する前記処理パラメータの値の内、前記処理性能に係る条件を満たす前記処理性能に関連付けられた前記処理パラメータの値を特定する、
    請求項2または3に記載の情報処理装置。
  5. 前記処理性能は、前記所定の処理の処理時間を含む、
    請求項1乃至4のいずれかに記載の情報処理装置。
  6. 前記所定の処理は、データに対するモデルを構築する、学習処理であり、
    前記処理性能は、前記学習処理により生成されたモデルの精度を含む、
    請求項乃至のいずれかに記載の情報処理装置。
  7. 前記特性は、データに含まれる複数の属性の各々の最大値、最小値、及び、周波数の内の少なくとも一つを含む、
    請求項2に記載の情報処理装置。
  8. 第1のデータの入力を受け付け、
    所定の処理を第2のデータに対して実行した場合の前記所定の処理に係る処理性能の履歴を用いて、前記第1のデータに対応する前記所定の処理に係る処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定し、出力する、
    情報処理方法であって、
    前記所定の処理は、データに対するモデルを構築する、学習処理であり、
    前記処理性能は、前記学習処理により生成されたモデルの精度を含む、
    情報処理方法。
  9. 第1のデータの入力を受け付け、
    所定の処理を第2のデータに対して実行した場合の前記所定の処理に係る処理性能の履歴を用いて、前記第1のデータに対応する前記所定の処理に係る処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定し、出力する、
    情報処理方法であって、
    前記特定する場合、前記第2のデータの特性、前記処理パラメータの値、及び、前記処理パラメータを用いて前記所定の処理を前記第2のデータに対して実行した場合の前記処理性能の値が関連付けられた処理情報をもとに、前記第1のデータの特性に対応する前記処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定する、
    報処理方法。
  10. 前記特定する場合、前記入力された前記第1のデータの特性と前記処理情報における前記第2のデータの特性とを比較し、前記第1のデータの特性に類似する前記第2のデータの特性に関連付けられた前記処理パラメータの値、及び、前記処理性能の値の内の少なくとも一方を特定する、
    請求項9に記載の情報処理方法。
  11. 前記第1のデータの入力を受け付ける場合、前記第1のデータと前記処理性能に係る条件との入力を受け付け、
    前記特定する場合、前記処理情報をもとに、前記第1のデータの特性に対応する前記処理パラメータの値の内、前記処理性能に係る条件を満たす前記処理性能に関連付けられた前記処理パラメータの値を特定する、
    請求項9または10に記載の情報処理方法。
  12. コンピュータに、
    第1のデータの入力を受け付け、
    所定の処理を第2のデータに対して実行した場合の前記所定の処理に係る処理性能の履
    歴を用いて、前記第1のデータに対応する前記所定の処理に係る処理パラメータの値、及
    び、前記処理性能の値の内の少なくとも一方を特定し、出力する、
    処理を実行させるプログラムであって、
    前記所定の処理は、データに対するモデルを構築する、学習処理であり、
    前記処理性能は、前記学習処理により生成されたモデルの精度を含む、
    ログラム。
JP2015184098A 2015-09-17 2015-09-17 情報処理装置、情報処理方法、及び、プログラム Active JP6551101B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015184098A JP6551101B2 (ja) 2015-09-17 2015-09-17 情報処理装置、情報処理方法、及び、プログラム
US15/268,026 US20170083818A1 (en) 2015-09-17 2016-09-16 Information processing apparatus, information processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015184098A JP6551101B2 (ja) 2015-09-17 2015-09-17 情報処理装置、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2017059031A JP2017059031A (ja) 2017-03-23
JP6551101B2 true JP6551101B2 (ja) 2019-07-31

Family

ID=58282533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015184098A Active JP6551101B2 (ja) 2015-09-17 2015-09-17 情報処理装置、情報処理方法、及び、プログラム

Country Status (2)

Country Link
US (1) US20170083818A1 (ja)
JP (1) JP6551101B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6577515B2 (ja) * 2017-05-01 2019-09-18 日本電信電話株式会社 分析装置、分析方法及び分析プログラム
US11232371B2 (en) * 2017-10-19 2022-01-25 Uptake Technologies, Inc. Computer system and method for detecting anomalies in multivariate data
CN107833133B (zh) * 2017-11-15 2022-01-25 中国光大银行股份有限公司信用卡中心 一种数据处理方法和装置
EP3729208A1 (en) * 2017-12-21 2020-10-28 Koninklijke Philips N.V. Computer-implemented methods and nodes implementing the same
CN108648829A (zh) * 2018-04-11 2018-10-12 平安科技(深圳)有限公司 疾病预测方法及装置、计算机装置及可读存储介质
WO2019211909A1 (ja) * 2018-05-02 2019-11-07 三菱電機株式会社 学習装置、検証装置、データ処理システムおよびデータ処理方法
CN109710499B (zh) * 2018-11-13 2023-01-17 平安科技(深圳)有限公司 计算机设备性能识别方法和装置
JP7166951B2 (ja) * 2019-02-08 2022-11-08 オリンパス株式会社 学習依頼装置、学習装置、推論モデル利用装置、推論モデル利用方法、推論モデル利用プログラム及び撮像装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8108249B2 (en) * 2001-12-04 2012-01-31 Kimberly-Clark Worldwide, Inc. Business planner
CN101969537B (zh) * 2002-01-30 2012-10-10 索尼公司 数据处理设备、数据处理方法
US6842719B1 (en) * 2003-02-26 2005-01-11 Kerien W. Fitzpatrick Real-time prediction and management of food product demand
US8055485B2 (en) * 2007-01-29 2011-11-08 International Business Machines Corporation Prediction of trends based on history values of an observable
US8239244B2 (en) * 2007-11-30 2012-08-07 Sap Ag System and method for transaction log cleansing and aggregation
JP5096194B2 (ja) * 2008-03-17 2012-12-12 株式会社リコー データ処理装置、プログラムおよびデータ処理方法
WO2010095259A1 (ja) * 2009-02-23 2010-08-26 三菱電機株式会社 開閉装置の余寿命診断方法及び装置
JP2011043710A (ja) * 2009-08-21 2011-03-03 Sony Corp 音声処理装置、音声処理方法及びプログラム
JP5385992B2 (ja) * 2009-12-22 2014-01-08 インターナショナル・ビジネス・マシーンズ・コーポレーション テープ媒体の走行を制御する装置及び方法
JP5500180B2 (ja) * 2010-01-28 2014-05-21 富士通株式会社 指紋認証装置、指紋認証方法及び指紋認証プログラム
US8498953B2 (en) * 2010-03-30 2013-07-30 Sap Ag Method for allocating trip sharing
US10225683B1 (en) * 2010-08-02 2019-03-05 Intellectual Ventures Fund 79 Llc Systems, methods, and mediums for receiving reminders and/or identifying available goods and/or services
CN103339702B (zh) * 2011-02-02 2015-10-14 三菱电机株式会社 电力开关装置的动作时间预测装置及方法
JP6016160B2 (ja) * 2011-04-15 2016-10-26 パナソニックIpマネジメント株式会社 電池履歴情報管理装置、電池履歴情報管理方法、電池履歴情報管理システム及び蓄電装置
JP5655687B2 (ja) * 2011-04-18 2015-01-21 富士通株式会社 解析処理装置,解析処理プログラムおよび解析処理方法
JP5874292B2 (ja) * 2011-10-12 2016-03-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5944770B2 (ja) * 2012-07-17 2016-07-05 株式会社デンソーアイティーラボラトリ 行先提案システム、行先提案方法、およびプログラム
EP2706488A1 (en) * 2012-09-06 2014-03-12 Siemens Aktiengesellschaft Method and system for handling batch production parameter historian within ANSI/ISA/95 production scheduling extended thereof.
US20140074687A1 (en) * 2012-09-11 2014-03-13 Simplexity, Inc. Assessing consumer purchase behavior in making a financial contract authorization decision
JP6025489B2 (ja) * 2012-10-11 2016-11-16 株式会社ニューフレアテクノロジー 検査装置および検査装置システム
KR102036166B1 (ko) * 2013-03-06 2019-10-24 한국전자통신연구원 미검침 구간의 검침 데이터 예측 및 보정 방법과 그 장치
KR101772152B1 (ko) * 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US9723075B2 (en) * 2013-09-13 2017-08-01 Incontact, Inc. Systems and methods for data synchronization management between call centers and CRM systems
US9639848B1 (en) * 2013-09-16 2017-05-02 Amazon Technologies, Inc. Diffusion prediction based on indicator scoring
EP3056044A1 (en) * 2013-10-11 2016-08-17 Nokia Solutions and Networks Oy Mobility management based on transmission rate history
JP2015139283A (ja) * 2014-01-22 2015-07-30 国立大学法人名古屋大学 電力需要ピーク予測装置、電力需要ピーク予測方法、及び電力需要ピーク予測プログラム
CN104144419B (zh) * 2014-01-24 2017-05-24 腾讯科技(深圳)有限公司 一种身份验证的方法、装置及系统
JP6508192B2 (ja) * 2014-03-14 2019-05-08 オムロン株式会社 制御装置及び制御システム
JP5984150B2 (ja) * 2014-08-21 2016-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、情報処理方法、及びプログラム
US10184320B2 (en) * 2014-09-02 2019-01-22 Saudi Arabian Oil Company Systems, methods, and computer medium to enhance hydrocarbon reservoir simulation
US10196256B2 (en) * 2014-10-31 2019-02-05 Panasonic Intellectual Property Management Co., Ltd. Beverage supply device
JP6194875B2 (ja) * 2014-12-11 2017-09-13 日本電気株式会社 キャッシュ装置、キャッシュシステム、キャッシュ方法、及びキャッシュプログラム
US10592817B2 (en) * 2015-07-13 2020-03-17 International Business Machines Corporation Parameter-dependent model-blending with multi-expert based machine learning and proxy sites
US10228259B2 (en) * 2016-03-21 2019-03-12 Ford Global Technologies, Llc. Systems, methods, and devices for communicating drive history path attributes

Also Published As

Publication number Publication date
JP2017059031A (ja) 2017-03-23
US20170083818A1 (en) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6551101B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
CN106570008B (zh) 推荐方法及装置
TWI605399B (zh) Method and device for sending product information
JP7007243B2 (ja) 異常検知システム
CN112990486A (zh) 生成机器学习样本的组合特征的方法及系统
US20210073890A1 (en) Catalog-based image recommendations
IL240542B (en) Shared cloud services and their uses
JP6703572B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2013257793A (ja) 商品多様化推薦装置及び方法及びプログラム
US20170193541A1 (en) Agricultural products processing center adaptive analysis system and processing method thereof
KR20210032691A (ko) 네트워크 기반 상품 추천 방법 및 장치
JP5945206B2 (ja) 商品推薦装置及び方法及びプログラム
JP2012089014A (ja) 購買行動分析装置、購買行動分析方法及び購買行動分析プログラム
JPWO2018185899A1 (ja) ライブラリ検索装置、ライブラリ検索システム、及びライブラリ検索方法
CN110288444A (zh) 实现用户相关推荐的方法和系统
JP5835802B2 (ja) 購買予測装置、方法、及びプログラム
TW202336607A (zh) 資訊處理系統及資訊處理方法
JP5497689B2 (ja) モデル生成方法及びモデル生成装置
WO2015170372A1 (ja) 広告管理プログラム、及び、広告管理サーバ
JP2020035219A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6585998B2 (ja) コンテンツ決定装置
JP2019200510A (ja) 予測システム、及び、予測方法
JP6601888B1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP5632506B1 (ja) 情報推薦装置、情報推薦方法及び情報推薦プログラム
JP2019021210A (ja) 特定装置および特定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190617

R150 Certificate of patent or registration of utility model

Ref document number: 6551101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150