JP7479251B2 - 計算機システムおよび情報処理方法 - Google Patents

計算機システムおよび情報処理方法 Download PDF

Info

Publication number
JP7479251B2
JP7479251B2 JP2020150553A JP2020150553A JP7479251B2 JP 7479251 B2 JP7479251 B2 JP 7479251B2 JP 2020150553 A JP2020150553 A JP 2020150553A JP 2020150553 A JP2020150553 A JP 2020150553A JP 7479251 B2 JP7479251 B2 JP 7479251B2
Authority
JP
Japan
Prior art keywords
prediction
data
learning data
generating
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020150553A
Other languages
English (en)
Other versions
JP2022045064A (ja
Inventor
晋太郎 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020150553A priority Critical patent/JP7479251B2/ja
Priority to US17/192,057 priority patent/US20220076161A1/en
Publication of JP2022045064A publication Critical patent/JP2022045064A/ja
Application granted granted Critical
Publication of JP7479251B2 publication Critical patent/JP7479251B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、事象を予測するモデルを生成する機械学習の技術に関する。
目的変数として割り当てられたタスクを予測する予測モデルの予測精度を高めることが重要となっている。予測モデルは、一つ以上の特徴量変数(説明変数)および一つ以上の目的変数の値を含む、複数のサンプルデータを用いた機械学習を実行することによって生成される。予測モデルの予測精度に関わる要素として、一般的に、(1)学習データの準備(データのクレンジングおよび特徴量変数の設計)、(2)学習データに含まれるサンプルデータの数(ノイズではない有効なサンプルデータができるだけ多いほうがよい)、(3)適用する機械学習アルゴリズム、等が挙げられる。
特許文献1には、「高精度情報抽出装置構築システムは、特徴量抽出式リストを生成する特徴量抽出式リスト生成部、各特徴量抽出式により教師データの特徴量を計算する特徴量計算部、教師データを供給する教師データ供給部、計算された教師データの特徴量と教師データとに基づいて情報抽出式を機械学習により生成するとともに各特徴抽出式の評価値を算出する評価値算出部、および、評価値算出部から出力されるT個の弱情報抽出部F(X)とそれに対応する信頼度Cを用いて高精度情報抽出装置を構築する合成部から構成される。」ことが記載されている。
特開2013-164863号公報
特許文献1のように、学習データに対して複数の予測モデルを生成し、それらを統合し、最終的な予測値を得るアンサンブル学習によって、高い予測精度の予測モデルを生成することができる。
一方、学習データを構成する特徴量変数には様々な性質を持つ変数が存在する。例えば、学習データに含まれる全サンプルデータのうち大多数において、ノイズではない意味のある何らかの値を持つ変数と、少数のサンプルデータしか意味のある値を持たない変数とが存在する。前者の特徴量変数は事象の大域的な特徴を表し、後者の特徴量変数は事象の局所的な特徴を表す。本明細書では、事象の大域的な特徴を表す特徴量変数を大域的変数と記載し、事象の局所的な特徴を表す特徴量変数を局所的変数と記載する。
健康診断において取得される値から身長を予測するタスクを例とした場合、大域的変数は、年齢、体重、および性別等を表す変数が該当し、局所的変数は、男性かつ体重が70Kg以上である、等の特定の条件に該当するか否かを表す変数等が該当する。
局所的変数は、全サンプルデータに対して、条件に該当するサンプルデータの数は必ずしも多くはないが、分析者が保有している知識を、予測モデルに反映させる目的で用いられることが多い。
一般的な機械学習では、サンプルデータの特徴量を用いて算出される予測値とサンプルデータの予測値との誤差の平均が小さくなるように予測モデルの学習が行われる。したがって、学習データを構成する特徴量変数の選択によって、予測モデルに反映される事象の特徴が異なる。しかし、通常、学習データを構成する特徴量変数は大域的変数および局所的変数等の区別がされずに、様々な特徴量変数が混在していることが多い。この場合、特定の変数(例えば、大域的変数)から得られる事象の特徴が強く反映され、他の変数(例えば、局所的変数)から得られる事象の特徴は反映されない傾向にある。
特許文献1に記載されているような従来のアンサンブル学習では、学習アルゴリズムに多様性を持たせているものの、特徴量変数が表す特徴の違いに着目した学習が行われていない。したがって、従来のアンサンブル学習における、予測モデルに反映される事象の特徴の偏りという課題は解消しない。
本発明は、予測モデルに反映される事象の特徴の偏りを解消するために、特徴量変数が表す特徴の違いを考慮したアンサンブル学習を実現する。
本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、事象を予測する予測モデルを生成する計算機システムであって、演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ備え、複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数格納する記憶部と、前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する予測モデル生成部と、を備え、前記予測モデル生成部は、前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、前記複数の第一学習データは、前記事象の大域的な特徴が反映させた前記予測モデルを生成するための学習データと、前記事象の局所的な特徴が反映させた前記予測モデルを生成するための学習データと、を含む
本発明によれば、特徴量変数の表す特徴の違いを考慮したアンサンブル学習を実行することによって、予測モデルの予測精度を向上できる。上記した以外の課題、構成および効果は、以下の実施例の説明により明らかにされる。
実施例1の情報処理装置のハードウェア構成およびソフトウェア構成の一例を示す図である。 実施例1の予測モデル管理情報のデータ構造の一例を示す図である。 実施例1の情報処理装置が実行する予測モデル生成処理の一例を説明するフローチャートである。 実施例1の学習データの一例を示す図である。 実施例1の学習データに含まれる特徴量変数の値の分布の一例を示すヒストグラムである。 実施例1の学習データの一例を示す図である。 実施例1の学習データに含まれる特徴量変数の値の分布の一例を示すヒストグラムである。 実施例1の第一階層学習データの一例を示す図である。 実施例1の第一階層学習データの一例を示す図である。 実施例1の第二階層学習データの一例を示す図である。 実施例2の計算機システムの一例を示す図である。 実施例2の情報処理装置のハードウェア構成およびソフトウェア構成の一例を示す図である。 実施例2の第一階層予測モデル管理情報のデータ構造の一例を示す図である。
以下、本発明の実施例を、図面を用いて説明する。ただし、本発明は以下に示す実施例の記載内容に限定して解釈されるものではない。本発明の思想ないし趣旨から逸脱しない範囲で、その具体的構成を変更し得ることは当業者であれば容易に理解される。
以下に説明する発明の構成において、同一または類似する構成または機能には同一の符号を付し、重複する説明は省略する。
本明細書等における「第一」、「第二」、「第三」等の表記は、構成要素を識別するために付するものであり、必ずしも、数または順序を限定するものではない。
本明細書では、特徴量変数(説明変数)に対応する値と、目的変数に対応する予測の正解値とから構成されるデータをサンプルデータと記載する。同一の特徴量変数および目的変数から構成されるサンプルデータの集合を学習データと記載する。
図1は、実施例1の情報処理装置100のハードウェア構成およびソフトウェア構成の一例を示す図である。
情報処理装置100は、学習データを用いて予測モデルを生成するための学習処理を実行し、また、予測用のサンプルデータに対して予測モデルを適用することによって事象の予測を行う。情報処理装置100は、ハードウェア構成として、演算装置101、主記憶装置102、副記憶装置103、ネットワークインタフェース104、および入出力インタフェース105を備える。各ハードウェア構成は内部バスを介して互いに接続される。
演算装置101は、プロセッサ、GPU(Graphics Processing Unit)、およびFPGA(Field Programmable Gate Array)等であり、主記憶装置102に格納されるプログラムを実行する。演算装置101がプログラムにしたがって処理を実行することによって、特定の機能を実現する機能部(モジュール)として動作する。以下の説明では、モジュールを主語に処理を説明する場合、演算装置101が当該モジュールを実現するプログラムを実行していることを示す。
主記憶装置102は、DRAM(Dynamic Random Access Memory)等のメモリであり、演算装置101が実行するプログラムおよびプログラムが使用する情報を格納する。また、主記憶装置102は、プログラムが一時的に使用するワークエリアとしても使用される。なお、主記憶装置102は、揮発性の記憶素子から構成されてもよいし、また、不揮発性の記憶素子から構成されてもよい。主記憶装置102に格納されるプログラムおよび情報については後述する。
副記憶装置103は、HDD(Hard Disk Drive)およびSSD(Solid State Drive)等であり、データを永続的に格納する。なお、主記憶装置102に格納されるプログラムおよび情報は、副記憶装置103に格納されてもよい。この場合、演算装置101は、副記憶装置103からプログラムおよび情報を読み出し、主記憶装置102にロードし、ロードされたプログラムを実行する。
ネットワークインタフェース104は、ネットワークを介して外部装置と通信する。入出力インタフェース105は、キーボード、マウス、およびタッチパネル等のデータを入力するための装置、ならびに、ディスプレイ等のデータを出力または表示するための装置である。
主記憶装置102は、制御部110、第一階層学習データ処理部111、予測モデル生成部112、メタ特徴量生成部113、学習データ生成部114、学習処理組合決定部115を実現するプログラムを格納する。また、主記憶装置102は、第一階層学習データ120、第二階層学習データ130、第一階層予測モデル140、第二階層予測モデル150、予測モデル管理情報160、および予測処理パイプライン情報170を格納する。なお、各情報は、処理で用いる場合に主記憶装置102に格納され、処理が終了した後、副記憶装置103に格納されてもよい。
第一階層学習データ120は、後述する第一階層予測モデル140を生成するために用いられる学習データである。第一階層学習データ処理部111が、情報処理装置100に入力された入力データを、加工または所定の形式に変換するデータ処理を実行することによって、複数の第一階層学習データ120を生成する。本実施例の主記憶装置102には、特徴量変数が異なる、複数の第一階層学習データ120が格納される。
第二階層学習データ130は、後述する第二階層予測モデル150を生成するために用いる学習データである。学習データ生成部114が、第一階層学習データ120の特徴量変数およびメタ特徴量生成部113によって生成された特徴量変数等を用いて、メタ特徴量変数から構成されるサンプルデータを複数含む第二階層学習データ130を生成する。
第一階層予測モデル140は、第一階層学習データ120に対して所定の学習アルゴリズムを適用することによって生成された予測モデルである。
第二階層予測モデル150は、第二階層学習データ130に対して所定の学習アルゴリズムを適用することによって生成された予測モデルである。第二階層予測モデル150から出力される予測値が最終的な予測値として出力される。
予測モデル管理情報160は、第一階層予測モデル140を管理するための情報である。予測モデル管理情報160のデータ構造の詳細は図2を用いて説明する。
予測処理パイプライン情報170は、予測処理において使用する予測モデルの種別、および処理方法等、予測処理の処理手順(パイプライン)を管理するための情報である。
制御部110は、情報処理装置100の各モジュールの動作を制御する。
第一階層学習データ処理部111は、情報処理装置100に入力された入力データに対して特定のデータ処理を実行することによって第一階層学習データ120を生成する。
予測モデル生成部112は、学習データに対して学習アルゴリズムを適用することによって、任意の説明変数の値から目的変数の値(予測値)を出力する予測モデルを生成する。予測モデル生成部112は、第一階層学習データ120を用いて第一階層予測モデル140を生成し、第二階層学習データ130を用いて第二階層予測モデル150を生成する。
メタ特徴量生成部113は、第一階層予測モデル140にサンプルデータを入力して得られた予測値を用いて、新たな特徴量変数の値(メタ特徴量)を生成する。
学習データ生成部114は、メタ特徴量生成部113によって生成されたメタ特徴量から第二階層学習データ130を生成する。
学習処理組合決定部115は、学習処理の組み合わせを決定する処理を行う。ここで、学習処理の組合せとは、以下で示す四つの組合せを意味する。
(1)第一階層学習データ120を生成するために入力データに対して実行するデータ処理の内容。
(2)第一階層予測モデル140を生成するために使用した機械学習アルゴリズムおよび第一階層学習データ120。
(3)第二階層予測モデル150を生成するために使用した機械学習アルゴリズム。
(4)第二階層予測モデル150を生成するために使用したメタ特徴量の種別。
なお、情報処理装置100が有する各モジュールについては、複数のモジュールを一つのモジュールにまとめてもよいし、一つのモジュールを機能毎に複数のモジュールに分けてもよい。例えば、予測モデル生成部112および学習処理組合決定部115を一つにまとめてもよいし、また、メタ特徴量生成部113および学習データ生成部114を一つにまとめてもよい。
図2は、実施例1の予測モデル管理情報160のデータ構造の一例を示す図である。
予測モデル管理情報160は、モデルID201、学習データ202、機械学習アルゴリズム203、およびアドレス204から構成されるエントリを格納する。一つの第一階層予測モデル140に対して一つのエントリが存在する。
モデルID201は、第一階層予測モデル140のユニークなIDを格納するフィールドである。学習データ202は、使用した第一階層学習データ120の識別情報を格納するフィールドである。機械学習アルゴリズム203は、第一階層予測モデル140を生成するために使用した機械学習アルゴリズムの情報を格納するフィールドである。機械学習アルゴリズム203には、例えば、機械学習アルゴリズムの名称が格納される。アドレス204は、第一階層予測モデル140の実体データの格納場所を示すアドレスを格納するフィールドである。
図3は、実施例1の情報処理装置100が実行する予測モデル生成処理の一例を説明するフローチャートである。
まず、情報処理装置100は、入力データを受け付ける(ステップS301)。このとき、制御部110は受け付けた入力データを主記憶装置102に格納する。
ここでは、ユーザによって、特性の異なる複数の学習データが入力データとして入力されたものとする。ここで、学習データの特性が異なるとは、同一の機械学習アルゴリズムを用いて生成された予測モデルに反映される事象の特徴(予測の特性および傾向等)が異なることを意味する。より具体的には、学習データに含まれるサンプルデータを構成する特徴量変数が異なる。例えば、値が満遍なく分布する特徴量変数(広域的変数)から構成されるサンプルデータを含む学習データと、特定の条件に合致するか否かを表す特徴量変数(局所的変数)から構成されるサンプルデータを含む学習データとが入力される。なお、局所的変数に意味がある値を有するサンプルデータの数は少ない。
物流倉庫における商品および荷物の集荷準備に伴うピッキング作業に要する作業時間を予測する予測モデルを生成するための学習データは、例えば、図4Aおよび図5Aに示すようなデータとなる。図4Aは、広域的変数から構成されるサンプルデータを含む学習データの一例を示し、図5Aは、局所的変数から構成されるサンプルデータを含む学習データの一例を示す。
図4Aに示す学習データ401は、サンプルID、作業時間、荷物個数、荷物総重量、運搬総移動距離、および作業者勤務歴から構成されるサンプルデータを格納する。
サンプルIDは、サンプルデータを一意に識別するためのIDを格納するフィールドである。各学習データの同一のサンプルデータには同一のIDが付与される。
作業時間は、目的変数に対応するフィールドである。本実施例では、作業時間の単位は「秒」であるものとする。荷物個数、荷物総重量、運搬総移動距離、および作業者勤務歴は、広域的変数に対応するフィールドである。各特徴量変数には任意の数値が格納される。図4Bは、特徴量変数「運搬総移動距離」の値の分布を示すヒストグラム402である。図4Bに示すように、広域的変数は、サンプルデータの性質を特徴づける情報を表す。
なお、広域的変数の値の分布は一例であってこれに限定されない。広域的変数の値の分布は、図4Bに示すように正規分布に類似する分布でもよいし、偏りのある分布でもよい。本実施例では、値がある広がりを持って分布する特徴量変数を広域的変数として扱う。
図5Aに示す学習データ501は、サンプルID、作業時間、条件1、条件2、および条件3から構成されるサンプルデータを格納する。サンプルIDおよび作業時間は学習データ401のサンプルIDおよび作業時間と同一のフィールドである。条件1、条件2、および条件3は、局所的変数に対応するフィールドである。各特徴量変数には条件に合致するか否かを示す値が格納される。
例えば、条件1、条件2、条件3は以下のような条件である。
(条件1)作業者勤務歴が12以上かつ荷物個数が4以上。
(条件2)荷物総重量が2以下かつ荷物個数が6以上。
(条件3)棚の高い位置に荷物がある。
上記の条件1および条件2は、全域特徴量の値または値の組合せが特定の範囲に該当するか否かを示す条件である。上記の条件3は、特定の事象に該当するか否かを示す条件である。本実施例では、特定の条件に該当するか否かを表す特徴量変数を局所的変数として扱う。
図5Bは、特徴量変数「条件1」の値の分布を示すヒストグラム502である。局所的変数は、図5Bに示すような性質を持つ。すなわち、多くのサンプルデータの局所的変数の値は条件1に該当しないことを示す「0」となり、小数のサンプルデータのみが局所的変数の値が条件1に該当することを示す「1」となる。
次に、情報処理装置100は、入力データを用いて第一階層学習データ120の生成する(ステップS302)。
具体的には、制御部110が、第一階層学習データ処理部111に第一階層学習データ120の生成を指示する。第一階層学習データ処理部111は、入力データに対して所定のデータ処理を実行することによって複数の第一階層学習データ120を生成し、複数の第一階層学習データ120を主記憶装置102に格納する。このとき、第一階層学習データ処理部111は、各第一階層学習データ120に含まれる一部のサンプルデータを、予測モデルの精度評価に使用するために評価用のサンプルデータとして保存する。当該サンプルデータは予測モデルを生成するためのサンプルデータとしては用いられない。
データ処理は、例えば、種別の異なる複数の学習データを合成する処理が考えられる。具体的には、広域的変数のみから構成されるサンプルデータ群(学習データ401)と、局所的変数のみから構成されるサンプルデータ群(学習データ501)とが入力データとして入力された場合、第一階層学習データ処理部111は、広域的変数のみから構成されるサンプルデータを含む第一学習データと、広域的変数および局所的変数から構成されるサンプルデータを含む第二学習データを第一階層学習データ120として生成する。
図6Aおよび図6Bは、学習データ401、501から生成された第一階層学習データ120-1、120-2の一例を示す。第一階層学習データ120-1は、学習データ401をそのまま第一階層学習データ120として保存したものである。第一階層学習データ120-2は、学習データ401、501を合成することによって生成されたデータである。
本実施例では、図6Aおよび図6Bに示すように、特性が異なる第一階層学習データ120が複数生成される。
なお、上述した第一階層学習データ120の生成方法は一例であってこれに限定されない。例えば、第一階層学習データ処理部111は、入力データをそのまま、第一階層学習データ120として生成してもよいし、前述したデータ処理とは異なるデータ処理を実行することによって第一階層学習データ120を生成してもよい。
次に、情報処理装置100は、第一階層学習データ120を用いて第一階層予測モデル140を生成する(ステップS303)。
具体的には、制御部110が、予測モデル生成部112に第一階層予測モデル140の生成を指示する。予測モデル生成部112は、各第一階層学習データ120に対して複数の機械学習アルゴリズムを適用することによって、複数の第一階層予測モデル140を生成する。予測モデル生成部112は、複数の第一階層予測モデル140を主記憶装置102に格納し、また、予測モデル管理情報160に、各第一階層予測モデル140のエントリを追加する。
適用する機械学習アルゴリズムとしては、Elastic Netおよびロジスティック回帰等の線形型の機械学習アルゴリズム、決定木、Random Forest、Gradient Boosting Machine、Deep Neural Network等の非線形型の機械学習アルゴリズム、並びに、Support Vector Machine等が一例としてあげられる。
一つの学習データから異なる種別の機械学習アルゴリズムを適用して生成された予測モデルは、予測精度だけではなく、反映される事象の特徴が異なることが期待できる。また、特徴量変数が異なる学習データを用いて生成された予測モデルも同様に、予測精度だけではなく、反映される事象の特徴が異なることが期待できる。このように、本実施例では、機械学習アルゴリズムだけではなく、学習データにも多様性を持たせていることに特徴を有する。
次に、情報処理装置100は、第一階層予測モデル140の出力値を用いて第二階層学習データ130を生成する(ステップS304)。
具体的には、制御部110が、メタ特徴量生成部113にメタ特徴量の生成を指示する。メタ特徴量生成部113は、各第一階層予測モデル140に、生成元の第一階層学習データ120の任意のサンプルデータを入力することによって予測値を取得し、取得した予測値をメタ特徴量として生成する。制御部110は、学習データ生成部114に第二階層学習データ130の生成を指示する。学習データ生成部114は、メタ特徴量を用いて第二階層学習データ130を生成する。なお、第二階層学習データ130に含まれるサンプルデータの目的変数には、例えば、第一階層学習データ120に含まれるサンプルデータの目標変数の平均値等が設定される。学習データ生成部114は、の第二階層学習データ130を主記憶装置102に格納する。
図7に第二階層学習データ130の一例を示す。サンプルIDおよび作業時間は、第一階層学習データ120と同一のフィールドである。それ以外のフィールドは、メタ特徴量を表すフィールドである。例えば、「メタ特徴量1-1」には、モデルID201が「1-1」である第一階層予測モデル140に、当該第一階層予測モデル140を生成するために用いた第一階層学習データ120に含まれるサンプルデータを入力して得られた予測値が格納される。
次に、情報処理装置100は、第二階層学習データ130を用いて第二階層予測モデル150を生成する(ステップS305)。
具体的には、制御部110が、予測モデル生成部112に第二階層予測モデル150の生成を指示する。予測モデル生成部112は、第二階層学習データ130に対して、使用可能な機械学習アルゴリズムの中から選択された任意の機械学習アルゴリズムを適用することによって、第二階層予測モデル150を生成する。予測モデル生成部112は、第二階層予測モデル150を主記憶装置102に格納する。
次に、情報処理装置100は、第二階層予測モデル150の予測精度を評価する(ステップS306)。
具体的には、制御部110が、学習処理組合決定部115に予測精度の評価を指示する。学習処理組合決定部115は、各第一階層予測モデル140に評価用のサンプルデータを入力して予測値を算出し、さらに、当該予測値から生成されたメタ特徴量から構成されるデータを第二階層予測モデル150に入力する。学習処理組合決定部115は、第二階層予測モデル150から得られた予測値と、目標変数の値との誤差に基づいて、予測精度を評価する。
第二階層予測モデル150を生成した機械学習アルゴリズム毎に、予測処理の予測精度が評価される。これによって、学習処理組合決定部115は、評価結果に基づいて、第二階層予測モデル150を生成するために適した機械学習アルゴリズムを選択することができ、また、予測精度の高い第二階層予測モデル150を得ることができる。
次に、情報処理装置100は、評価結果に基づいて学習処理の組合せを決定する(ステップS307)。
具体的には、学習処理組合決定部115が学習処理の組合せとして決定する。これによって、予測処理に使用する第二階層予測モデル150が一つ決定され、また、予測処理に使用する第一階層予測モデル140の組合せが決定される。学習処理組合決定部115は、学習処理の組合せをユーザに提示するための提示情報を生成する。提示情報をユーザに出力することによって、学習処理の理解を助けることができる。
次に、情報処理装置100は、予測対象データから予測値を算出するための予測処理パイプラインに関する情報を予測処理パイプライン情報170として生成する(ステップS308)。その後、情報処理装置100は予測モデル生成処理を終了する。
ここで、広域的変数および局所的変数から構成される予測対象データが入力された場合の予測処理を例に、予測処理パイプラインの具体例を説明する。
当該予測処理では以下のような処理が実行される。まず、制御部110は、予測対象データを、第一学習データおよび第二学習データに対応する第一階層予測モデル140に入力して予測値、すなわち、メタ特徴量を算出する。制御部110は、算出されたメタ特徴量を用いて第二階層学習データ130の特徴量変数に対応したサンプルデータを生成し、当該サンプルデータを第二階層予測モデル150に入力して最終的な予測値を算出する。
学習処理組合決定部115は、前述の予測処理を実現するための予測処理パイプラインを構築し、予測処理パイプライン情報170として主記憶装置102に記録する。予測処理パイプライン情報170には、入力データから第一階層学習データ120を生成するためのデータ処理の内容、第二階層学習データ130を生成するための処理の内容、および第二階層予測モデル150の情報等が含まれる。情報処理装置100は、予測処理パイプライン情報170に基づいて、予測対象データに対して、本実施例の特徴的な学習によって生成された予測モデル(第一階層予測モデル140、第二階層予測モデル150)を用いた予測処理を実行することができる。
次に、入力データの取り扱いのバリエーションについて説明する。
(バリエーション1)図3では、種類の異なる第一学習データおよび第二学習データが入力データとして入力される場合を例に説明したが、種類が異なる学習データを三つ以上入力してもよい。
この場合、ステップS302では、情報処理装置100は三つ以上の第一階層学習データ120を生成する。これに伴って、ステップS303において生成される第一階層予測モデル140の数が増加する。ステップS304では、各第一階層予測モデル140から得られたメタ特徴量から第二階層学習データ130が生成される。ステップS305以降の処理は同様である。
これによって、広域的変数および局所的変数とは異なる特徴の特徴量変数から構成されるサンプルデータを含む学習データを用いて予測モデルを生成することができる。生成される学習データとしては、例えば、局所的変数と類似する性質であるが、該当するサンプルデータの数が多い特徴量変数から構成されるサンプルデータを含む学習データがある。ユーザが有する様々な知識を取り込んだ予測モデルを生成することができる。
(バリエーション2)図3では、種類が異なる第一学習データおよび第二学習データが入力データとして入力される場合を例に説明したが、一つの学習データのみが入力されてもよい。例えば、広域的変数および局所的変数が混在した学習データが入力データとして入力される場合が考えられる。
第一階層学習データ120を生成する方法としては、以下の方法が考えられる。
(方法1)ユーザから、学習で使用する特徴量変数を明示的に示す情報を受け付けるように構成する。学習データにおける局所的変数を指定する情報は、例えば、変数の名称およびフィールドの番号等のリストが考えられる。
ステップS302では、情報処理装置100は、ユーザから受け付けた情報に基づいて、学習データを分割および統合して、第一階層学習データ120を生成する。
方法1の場合、ユーザは、一種類の入力データを用いずればよいため、入力データの準備に要する手間を削減できる。
(方法2)情報処理装置100が、自動的に、一種類の入力データを分割および統合することによって、第一階層学習データ120を生成するように構成する。
S302では、情報処理装置100は、入力された学習データに含まれる各特徴量変数が、図5に示すような特性を有するか否かを判定し、または、サンプルデータの値の分布が偏っているか否かを判定する。情報処理装置100は、演述のような判定の結果に基づいて、各特徴量変数が局所的変数であるか否かを判定する。情報処理装置100は、ユーザが入力した情報の代わりに、前述判定結果に基づいて、学習データを分割および統合して、第一階層学習データ120を生成する。
方法2の場合、ユーザ自身が入力データの特性等を把握していない場合でも、情報処理装置100が、自動的に特徴量変数の特性を判定し、判定結果に基づいて複数の第一階層学習データ120を生成できる。これによって、多様な特性を有する第一階層予測モデル140を生成することができる。
(方法3)情報処理装置100が、一つの学習データから新たな特徴量変数を算出し、第一階層学習データ120を生成する用に構成する。
ステップS302では、情報処理装置100は、入力された学習データに含まれる特徴量変数の中から連続値をとる特徴量変数を選択する。情報処理装置100は特徴量変数の値域の区分を算出する。例えば、値域が1から90であり、サンプルデータの値が一様に分布している場合、情報処理装置100は、1から30、31から60、61から90の三つの区分を算出する。情報処理装置100は、選択した特徴量変数の区分の組合せを、条件を示す特徴量変数(局所的変数)として設定する。情報処理装置100は、前述の特徴量変数から構成されるサンプルデータを生成し、サンプルデータの特徴量変数に条件に合致するか否かを示す値を格納する。
なお、機械的に生成された全ての区分の組合せを局所的変数と設定した場合、局所的変数の数は膨大となる。そこで、情報処理装置100は、目的変数と区分の組合せとの間の関連性(例えば、相関)を分析し、関連性が高い区分の組合せのみを局所的変数として抽出してもよい。
方法3の場合、特徴が異なる特徴量変数が含まれない入力データから新たな特徴量変数を生成することによって、複数の種類の第一階層学習データ120を生成できる。これによって、多様な特性を有する第一階層予測モデル140を生成することができる。
なお、情報処理装置100は、方法2、方法3の処理結果をユーザに提示するように構成してよい。ユーザに提示する情報としては、局所的変数と判定された特徴量変数の情報、およびサンプルデータの局所的変数の値の分布等である。特徴量変数の情報は、例えば、変数の名称、並びに、区分の基準および区分の組合せ等である。これによって、ユーザは、局所的変数として特定された特徴量変数の内容および値の分布等を把握でき、予測モデルの学習処理の理解を助けることができる。
なお、一つの入力データから第一階層学習データ120を生成する処理の内容は、ステップS307の学習処理の組合せ、およびステップS308の予測処理パイプライン情報170に含めてもよい。これによって、予測対象データから自動的に予測モデルに入力するサンプルデータを生成することができる。したがって、学習処理だけではなく、予測処理においてもユーザのデータ加工の手間を削減できる。
次に、機械学習アルゴリズムの管理方法のバリエーションについて説明する。
情報処理装置100は、予測精度が高くなるように、第一階層予測モデル140を生成するために使用する機械学習アルゴリズム、第二階層学習データ130を生成するために使用するメタ特徴量、第二階層予測モデル150を生成するために使用する機械学習アルゴリズムの各々を最適化してもよい。最適可能方法としては以下のような方法が考えられる。
(最適化1)ステップS305において、情報処理装置100は、複数の機械学習アルゴリズムを適用して複数の第二階層予測モデル150を生成し、予測精度が最も高い第二階層予測モデル150を選択する。
(最適化2)ステップS304において、情報処理装置100は、第二階層学習データ130を生成するために使用するメタ特徴量を選択する。
各第一階層学習データ120にほとんど差異がなく、かつ、同一のアルゴリズムで生成されたメタ特徴量の性質にもほとんど差異がない場合、マルチコ(multicollinearity)が発生し、第二階層予測モデル150の予測精度が劣化する。このような場合、使用するメタ特徴量を適切に選択することによって、第二階層予測モデル150の予測精度の劣化を防ぐことができる。
メタ特徴量の選択方法は前述のマルチコを防ぐことができるものであればよい。例えば、情報処理装置100は、特徴量変数間の相関を分析し、相関値が高い特徴量変数についてはいずれかの特徴量変数のみを選択する。または、情報処理装置100は、全ての特徴量変数の組合せを総試行する。
最適化2によれば、第二階層学習データ130の生成時に最適なメタ特徴量を選択することによって予測精度の側面では最適化が可能である。
(最適化3)ステップS303において、情報処理装置100は、第二階層予測モデル150を生成するために使用する機械学習アルゴリズムを選択する。
具体的な方法としては、予め使用する機械学習アルゴリズムを設定し、または、ユーザからの入力に基づいて使用する機械学習アルゴリズムを設定する。例えば、ユーザは、第一学習データに対してはGBMのみを適用し、第二学習データには全ての機械学習アルゴリズムを適用するように設定する。
なお、第二階層予測モデル150の生成時において使用する機械学習アルゴリズムを選択するようにしてもよい。
なお、ユーザによる機械学習アルゴリズムの指定を容易にする仕組みとして以下のようなものが考えられる。初回の処理では、情報処理装置100は、全ての機械学習アルゴリズムを用いて、第一階層予測モデル140および第二階層予測モデル150を生成し、最適化を行う。情報処理装置100は、ステップS307において、決定された学習処理の組合せをユーザに提示し、次回の処理で使用する機械学習アルゴリズムの組合せの初期値として設定するか否かを問い合わせる。
最適化3によれば、不要な予測モデルの生成を抑止することによって、情報処理装置100の処理量および処理時間を削減できる。
次に、処理の複雑化および簡易化について説明する。
実施例1では、予測モデルの生成を二段階に分けていたが、三段階以上に分けてもよい。この場合、最下層では、それまでの階層で得られたメタ特徴量を統合して生成された学習データを用いて予測モデルを生成するように構成する。
ただし、中間の階層間の予測モデルの生成方法については実施例1で説明した方法でもよいし、その他の方法でもよい。例えば、最下層以外の階層でのメタ特徴量の統合を上位階層の任意の予測モデルの組み合わせで行うことによって、三階層以上の予測モデルを用いた予測処理を実現できる。
階層を多くすることによって、複雑かつ細やかな予測モデルの組合せを実現することができ、さらに、予測精度を高めることができる。
実施例1では、予測モデルの生成を二段階に分けていたが、一段階でもよい。この場合、予測時に、予測対象データの内容に応じて使用する予測モデルが切り替えられるように構成する。
例えば、予測対象データが第二学習データを構成する局所特徴量変数のいずれかに対応する特徴量変数を含む場合、第二学習データから生成された予測モデルの予測値を出力し、それ以外の場合、第一学習データから生成された予測モデルの予測値を出力する。
これによって、入力された予測対象データに対して使用した予測モデルおよび予測値がわかりやすいため、予測モデルの解釈性を増すことができる。
以上で説明したように実施例1によれば、予測モデルに反映される事象の特徴(予測の特性および傾向)が異なる学習データを用いて予測モデルを生成できる。これによって、予測モデルの多様性が向上する。このように生成された予測モデルを積み上げることによって予測精度を向上できる。
実施例2では、学習および予測を複数の計算機を用いて実行する点が実施例1と異なる。以下、実施例1等の差異を中心に実施例2について説明する。
図8は、実施例2の計算機システムの一例を示す図である。
計算機システムは、情報処理装置100および機械学習実行システム800から構成される。情報処理装置100および機械学習実行システム800は、直接またはLAN(Local Area Network)等のネットワークを介して互いに接続される。
機械学習実行システム800は、情報処理装置100と協力して、学習および予測を行うシステムである。機械学習実行システム800は、情報処理装置100から学習データを取得し、予測モデルを生成する。さらに、機械学習実行システム800は、情報処理装置100から予測対象データを取得し、予測対象データを予測モデルに入力することによって、予測値を出力する。
機械学習実行システム800における学習方法および機械学習アルゴリズムは、予測モデルを生成し、また、予測値を出力できるものであればよい。
機械学習実行システム800は、クラウド型のシステムでもよいし、オンプレミス型のシステムでもよい。機械学習実行システム800がクラウド型のシステムである場合、システムの処理内容はユーザから隠蔽されたもの、すなわち、ユーザによる変更を受け付けない構成でもよい。機械学習実行システム800がオンプレミス型のシステムである場合、機械学習実行システム800は情報処理装置100と同じ基盤上に存在してもよいし、異なる基盤上に存在してもよい。
図9は、実施例2の情報処理装置100のハードウェア構成およびソフトウェア構成の一例を示す図である。
実施例2の情報処理装置100のハードウェア構成は実施例1の情報処理装置100と同一であるため説明を省略する。実施例2では、情報処理装置100のソフトウェア構成が一部異なる。具体的には、主記憶装置102に、第一階層予測モデル管理情報900および第二階層予測モデル管理情報901が格納される。
第一階層予測モデル管理情報900は、第一階層予測モデル140を管理するための情報であり、第二階層予測モデル管理情報901は、第二階層予測モデル150を管理するための情報である。
図10は、実施例2の第一階層予測モデル管理情報900のデータ構造の一例を示す図である。
第一階層予測モデル管理情報900は、モデルID1001、学習データ1002、機械学習アルゴリズム1003、生成場所1004、およびアドレス1005から構成されるエントリを格納する。一つの第一階層予測モデル140に対して一つのエントリが存在する。
モデルID1001、学習データ1002、および機械学習アルゴリズム1003は、モデルID201、学習データ202、および機械学習アルゴリズム203と同一のフィールドである。
生成場所1004は、第一階層予測モデル140が生成されたシステムを示す情報を格納するフィールドである。本実施例では、情報処理装置100によって生成された第一階層予測モデル140の場合、生成場所1004には「自システム」が格納され、機械学習実行システム800によって生成された第一階層予測モデル140の場合、生成場所1004には「クラウド」が格納される。
アドレス1005は、第一階層予測モデル140の実体データの格納場所を示すアドレスまたはURLを格納するフィールドである。情報処理装置100によって生成された第一階層予測モデル140の場合、アドレス1005には自システム内のアドレスが格納され、機械学習実行システム800によって生成された第一階層予測モデル140の場合、アドレス1005にはWeb APIのURL等が格納される。
第二階層予測モデル管理情報901は、第一階層予測モデル管理情報900と同一のデータ構造でもよいし、モデルID1001、生成場所1004、およびアドレス1005のみを含むデータ構造でもよい。
次に、実施例2の学習および予測について説明する。まず、実施例2の学習について説明する。
ステップS301およびステップS302は、実施例1と同一の処理である。
ステップS303では、情報処理装置100は、予測モデル生成部112および機械学習実行システム800の少なくともいずれかに第一階層予測モデル140の生成を指示する。
機械学習実行システム800に第一階層予測モデル140の生成を指示する場合、使用する第一階層学習データ120を含む生成指示が機械学習実行システム800に送信される。この場合、情報処理装置100は、機械学習実行システム800から第一階層予測モデル140のURL等を含む応答を受信する。
例えば、機械学習実行システム800に第一学習データを処理させて、第二学習データを自システムで処理するように設定することが考えられる。すなわち、特徴量変数の設計において大きく変更される可能性が低い学習データを機械学習実行システム800に処理させ、大きく変更される可能性が高い学習データを自システムが処理する。これによって、クラウド型のシステムのリソースの使用量(例えば、従量課金型のシステムの使用量)を抑えつつ、本発明の処理を適用しながら最も有効な局所的変数を設計できる。
なお、機械学習実行システム800に学習させる第一階層学習データ120は、ユーザが指定してもよいし、初期設定として設定してもよい。
ステップS304では、情報処理装置100は、機械学習実行システム800によって生成された第一階層予測モデル140については、第一階層予測モデル管理情報900のアドレス1005と、第一階層学習データ120とを含む出力指示を送信する。情報処理装置100は、機械学習実行システム800によって算出された予測値を応答として受信し、メタ特徴量として保存する。
ステップS305では、情報処理装置100は、予測モデル生成部112および機械学習実行システム800の少なくともいずれかに第二階層予測モデル150の生成を指示する。
機械学習実行システム800に第二階層予測モデル150の生成を指示する場合、使用する第二階層学習データ130を含む生成指示が機械学習実行システム800に送信される。この場合、情報処理装置100は、機械学習実行システム800から第二階層予測モデル150のURL等を含む応答を受信する。
なお、局所的変数の値等、外部への公開を望まない情報は、自システム内で処理するように構成すればよい。本実施例では、情報処理装置100が最終的にメタ特徴量を統合することになる。
実施例2によれば、情報処理装置100は、他のシステムと連携して学習および予測を行うことができる。これによって、豊富な計算機資源を有するクラウド型のシステムを用いて高度な学習処理を実現できる。また、予測モデルの生成を分散させて実行させることによって、処理負荷の分散および処理の高速化が可能となる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、およびそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java(登録商標)等の広範囲のプログラムまたはスクリプト言語で実装できる。
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段またはCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。
100 情報処理装置
101 演算装置
102 主記憶装置
103 副記憶装置
104 ネットワークインタフェース
105 入出力インタフェース
110 制御部
111 第一階層学習データ処理部
112 予測モデル生成部
113 メタ特徴量生成部
114 学習データ生成部
115 学習処理組合決定部
120 第一階層学習データ
130 第二階層学習データ
140 第一階層予測モデル
150 第二階層予測モデル
160 予測モデル管理情報
170 予測処理パイプライン情報
800 機械学習実行システム
900 第一階層予測モデル管理情報
901 第二階層予測モデル管理情報

Claims (10)

  1. 事象を予測する予測モデルを生成する計算機システムであって
    演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ備え、
    複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数格納する記憶部と、
    前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する予測モデル生成部と、を備え
    前記予測モデル生成部は、
    前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、
    前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、
    前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、
    前記複数の第一学習データは、
    前記事象の大域的な特徴が反映させた前記予測モデルを生成するための学習データと、
    前記事象の局所的な特徴が反映させた前記予測モデルを生成するための学習データと、
    を含むことを特徴とする計算機システム。
  2. 事象を予測する予測モデルを生成する計算機システムであって、
    演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ備え、
    複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数格納する記憶部と、
    前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する予測モデル生成部と、
    学習データ生成部と、を備え、
    前記予測モデル生成部は、
    前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、
    前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、
    前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、
    前記学習データ生成部は、
    複数の変数の値から構成されるデータを複数含む入力データと、前記複数の第一学習データの各々に含まれる前記サンプルデータを構成する前記特徴量変数を示す情報とを受け付け、
    前記情報に基づいて、前記入力データから前記複数の第一学習データを生成することを特徴とする計算機システム。
  3. 請求項2に記載の計算機システムであって、
    前記予測モデル生成部は、予測対象データが入力された場合に実行される予測処理に使用する情報として、前記入力データから前記第一学習データを生成するための処理の内容、前記第二学習データを生成するための処理の内容、および前記第二階層予測モデルの情報を含む予測処理パイプライン情報を生成することを特徴とする計算機システム。
  4. 事象を予測する予測モデルを生成する計算機システムであって、
    演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ備え、
    複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数格納する記憶部と、
    前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する予測モデル生成部と、
    学習データ生成部と、を備え、
    前記予測モデル生成部は、
    前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、
    前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、
    前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、
    前記学習データ生成部は、
    複数の変数の値から構成されるデータを複数含む入力データを受け付け、
    前記入力データに含まれる前記データを構成する前記複数の変数を分析し、
    前記分析結果に基づいて、前記入力データから前記複数の第一学習データを生成し、
    さらに、前記予測モデル生成部は、予測対象データが入力された場合に実行される予測処理に使用する情報として、前記入力データから前記第一学習データを生成するための処理の内容、前記第二学習データを生成するための処理の内容、および前記第二階層予測モデルの情報を含む予測処理パイプライン情報を生成することを特徴とする計算機システム。
  5. 事象を予測する予測モデルを生成する計算機システムであって、
    演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ備え、
    複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数格納する記憶部と、
    前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する予測モデル生成部と、を備え、
    前記予測モデル生成部は、
    前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、
    前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、
    前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、
    前記第二階層予測モデルの予測精度を評価し、
    前記第二階層予測モデルの予測精度の評価結果に基づいて、予測精度が最も高くなる、前記第二階層予測モデルを学習するために使用する前記メタ特徴量の組合せ、および前記第二学習データに対して適用する前記機械学習アルゴリズムの種類を提示するための提示情報を生成し、
    前記提示情報を出力することを特徴とする計算機システム。
  6. 計算機システムが実行する、事象を予測する予測モデルを生成する情報処理方法であって、
    前記計算機システムは、演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ含み、
    前記情報処理方法は、
    前記演算装置が、複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数、前記記憶装置に格納する第1のステップと、
    前記演算装置が、前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する第2のステップと、を含み、
    前記第2のステップは、
    前記演算装置が、前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、前記複数の第一階層予測モデルを前記記憶装置に格納するステップと、
    前記演算装置が、前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、前記第二学習データを前記記憶装置に格納するステップと、
    前記演算装置が、前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、前記第二階層予測モデルを前記記憶装置に格納するステップと、を含み、
    前記複数の第一学習データは、
    前記事象の大域的な特徴が反映させた前記予測モデルを生成するための学習データと、
    前記事象の局所的な特徴が反映させた前記予測モデルを生成するための学習データと、
    を含むことを特徴とする情報処理方法。
  7. 計算機システムが実行する、事象を予測する予測モデルを生成する情報処理方法であって、
    前記計算機システムは、演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ含み、
    前記情報処理方法は、
    前記演算装置が、複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数、前記記憶装置に格納する第1のステップと、
    前記演算装置が、前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する第2のステップと、を含み、
    前記第2のステップは、
    前記演算装置が、前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、前記複数の第一階層予測モデルを前記記憶装置に格納するステップと、
    前記演算装置が、前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、前記第二学習データを前記記憶装置に格納するステップと、
    前記演算装置が、前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、前記第二階層予測モデルを前記記憶装置に格納するステップと、を含み、
    前記第1のステップは、
    前記演算装置が、複数の変数の値から構成されるデータを複数含む入力データと、前記複数の第一学習データの各々に含まれる前記サンプルデータを構成する前記特徴量変数を示す情報とを受け付けるステップと、
    前記演算装置が、前記情報に基づいて、前記入力データから前記複数の第一学習データを生成し、前記複数の第一学習データを前記記憶装置に格納するステップと、を含むことを特徴とする情報処理方法。
  8. 請求項7に記載の情報処理方法であって、
    前記演算装置が、予測対象データが入力された場合に実行される予測処理に使用する情報として、前記入力データから前記第一学習データを生成するための処理の内容、前記第二学習データを生成するための処理の内容、および前記第二階層予測モデルの情報を含む予測処理パイプライン情報を生成するステップと、
    前記演算装置が、前記予測処理パイプライン情報を前記記憶装置に格納するステップと、を含むことを特徴とする情報処理方法。
  9. 計算機システムが実行する、事象を予測する予測モデルを生成する情報処理方法であって、
    前記計算機システムは、演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ含み、
    前記情報処理方法は、
    前記演算装置が、複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数、前記記憶装置に格納する第1のステップと、
    前記演算装置が、前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する第2のステップと、を含み、
    前記第2のステップは、
    前記演算装置が、前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、前記複数の第一階層予測モデルを前記記憶装置に格納するステップと、
    前記演算装置が、前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、前記第二学習データを前記記憶装置に格納するステップと、
    前記演算装置が、前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、前記第二階層予測モデルを前記記憶装置に格納するステップと、を含み、
    前記第1のステップは、
    前記演算装置が、複数の変数の値から構成されるデータを複数含む入力データを受け付けるステップと、
    前記演算装置が、前記入力データに含まれるデータを構成する前記複数の変数を分析するステップと、
    前記演算装置が、前記分析結果に基づいて、前記入力データから前記複数の第一学習データを生成し、前記複数の第一学習データを前記記憶装置に格納するステップと、を含み、
    さらに、前記情報処理方法は、
    前記演算装置が、予測対象データが入力された場合に実行される予測処理に使用する情報として、前記入力データから前記第一学習データを生成するための処理の内容、前記第二学習データを生成するための処理の内容、および前記第二階層予測モデルの情報を含む予測処理パイプライン情報を生成するステップと、
    前記演算装置が、前記予測処理パイプライン情報を前記記憶装置に格納するステップと、を含むことを特徴とする情報処理方法。
  10. 計算機システムが実行する、事象を予測する予測モデルを生成する情報処理方法であって、
    前記計算機システムは、演算装置、記憶装置、および接続インタフェースを有する計算機を少なくとも一つ含み、
    前記情報処理方法は、
    前記演算装置が、複数の特徴量変数の値と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第一学習データを複数、前記記憶装置に格納する第1のステップと、
    前記演算装置が、前記複数の第一学習データを用いて複数の予測モデルを生成し、前記複数の予測モデルの予測値に基づいて最終的な予測値を算出する予測モデルを生成する第2のステップと、を含み、
    前記第2のステップは、
    前記演算装置が、前記複数の第一学習データの各々に、複数の機械学習アルゴリズムを適用することによって複数の第一階層予測モデルを生成し、前記複数の第一階層予測モデルを前記記憶装置に格納するステップと、
    前記演算装置が、前記複数の第一階層予測モデルの予測値から算出されるメタ特徴量と、前記事象の予測の正解値とから構成されるサンプルデータを複数含む第二学習データを生成し、前記第二学習データを前記記憶装置に格納するステップと、
    前記演算装置が、前記第二学習データに対して機械学習アルゴリズムを適用することによって、最終的な前記事象の予測値を出力する第二階層予測モデルを生成し、前記第二階層予測モデルを前記記憶装置に格納するステップと、を含み、
    さらに、前記情報処理方法は、
    前記演算装置が、前記第二階層予測モデルの予測精度を評価するステップと、
    前記演算装置が、前記第二階層予測モデルの予測精度の評価結果に基づいて、予測精度が最も高くなる、前記第二階層予測モデルを学習するために使用する前記メタ特徴量の組合せ、および前記第二学習データに対して適用する前記機械学習アルゴリズムの種類を提示するための提示情報を生成するステップと、
    前記演算装置が、前記提示情報を出力するステップと、を含むことを特徴とする情報処理方法。
JP2020150553A 2020-09-08 2020-09-08 計算機システムおよび情報処理方法 Active JP7479251B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020150553A JP7479251B2 (ja) 2020-09-08 2020-09-08 計算機システムおよび情報処理方法
US17/192,057 US20220076161A1 (en) 2020-09-08 2021-03-04 Computer system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020150553A JP7479251B2 (ja) 2020-09-08 2020-09-08 計算機システムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JP2022045064A JP2022045064A (ja) 2022-03-18
JP7479251B2 true JP7479251B2 (ja) 2024-05-08

Family

ID=80470744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020150553A Active JP7479251B2 (ja) 2020-09-08 2020-09-08 計算機システムおよび情報処理方法

Country Status (2)

Country Link
US (1) US20220076161A1 (ja)
JP (1) JP7479251B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615330B2 (en) * 2020-03-18 2023-03-28 Kyndryl, Inc. Virtual subject matter expert provisioning
JP7366218B1 (ja) * 2022-09-16 2023-10-20 ラクテン アジア プライベート リミテッド 情報処理装置、方法及びプログラム
CN118468045B (zh) * 2024-07-12 2024-09-24 之江实验室 一种模型训练加速方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243210A (ja) 2000-03-02 2001-09-07 Kddi Corp 並列ニューラルネットワーク装置
US20190102684A1 (en) 2017-09-29 2019-04-04 Sony Interactive Entertainment Inc. Mobile and autonomous personal companion based on an artificial intelligence (ai) model for a user

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100420B2 (en) * 2014-06-30 2021-08-24 Amazon Technologies, Inc. Input processing for machine learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001243210A (ja) 2000-03-02 2001-09-07 Kddi Corp 並列ニューラルネットワーク装置
US20190102684A1 (en) 2017-09-29 2019-04-04 Sony Interactive Entertainment Inc. Mobile and autonomous personal companion based on an artificial intelligence (ai) model for a user

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
保科学世、アクセンチュアビジネスコンサルティング本部AIグループ,アクセンチュアのプロが教える AI時代の実践データ・アナリティクス ,1版1刷,日本,2020年08月21日,pp.117-139

Also Published As

Publication number Publication date
US20220076161A1 (en) 2022-03-10
JP2022045064A (ja) 2022-03-18

Similar Documents

Publication Publication Date Title
JP7479251B2 (ja) 計算機システムおよび情報処理方法
Deng Interpreting tree ensembles with intrees
Serban et al. A survey of intelligent assistants for data analysis
Deelman et al. The role of machine learning in scientific workflows
US8775338B2 (en) Computer-implemented systems and methods for constructing a reduced input space utilizing the rejected variable space
JP7000766B2 (ja) 学習データ選択プログラム、学習データ選択方法、および、学習データ選択装置
Jankovic et al. Towards feature-based performance regression using trajectory data
US20210342735A1 (en) Data model processing in machine learning using a reduced set of features
US11443238B2 (en) Computer system and presentation method of information
JP7232122B2 (ja) 物性予測装置及び物性予測方法
US11210444B1 (en) Timing assistant for dynamic voltage drop impact on setup/hold constraints
Gokilavani et al. Test case prioritization to examine software for fault detection using PCA extraction and K-means clustering with ranking
US11521077B1 (en) Automatic recommendation of predictor variable values for improving predictive outcomes
JP2019185591A (ja) 実験支援装置及び実験支援方法
Kumara et al. FOCloud: feature model guided performance prediction and explanation for deployment configurable cloud applications
CN111260142B (zh) 商品指标数据预测方法、装置、存储介质及电子设备
Carrizosa et al. Mathematical optimization modelling for group counterfactual explanations
Samreen et al. Transferable knowledge for low-cost decision making in cloud environments
Mohamed et al. End-to-end latency prediction of microservices workflow on kubernetes: A comparative evaluation of machine learning models and resource metrics
Sousa et al. Applying Machine Learning to Estimate the Effort and Duration of Individual Tasks in Software Projects
El Hajjami et al. Machine learning system for fraud detection. a methodological approach for a development platform
Shahmirzadi et al. Analyzing the impact of various parameters on job scheduling in the Google cluster dataset
JP2023064408A (ja) アンケート結果分析プログラム、アンケート結果分析方法、および情報処理装置
Arar et al. The Verification Cockpit–Creating the Dream Playground for Data Analytics over the Verification Process
CN116542511B (zh) 风控模型创建方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240423

R150 Certificate of patent or registration of utility model

Ref document number: 7479251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150