JP7489275B2 - 情報処理装置、情報処理システムおよび情報処理方法 - Google Patents

情報処理装置、情報処理システムおよび情報処理方法 Download PDF

Info

Publication number
JP7489275B2
JP7489275B2 JP2020151476A JP2020151476A JP7489275B2 JP 7489275 B2 JP7489275 B2 JP 7489275B2 JP 2020151476 A JP2020151476 A JP 2020151476A JP 2020151476 A JP2020151476 A JP 2020151476A JP 7489275 B2 JP7489275 B2 JP 7489275B2
Authority
JP
Japan
Prior art keywords
learning
algorithm
information processing
construction
hierarchical relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020151476A
Other languages
English (en)
Other versions
JP2022045731A5 (ja
JP2022045731A (ja
Inventor
祐輝 角谷
清孝 粕渕
明子 吉田
万理 寺田
光規 梅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2020151476A priority Critical patent/JP7489275B2/ja
Priority to EP21193917.8A priority patent/EP3975069A1/en
Priority to US17/468,270 priority patent/US20220076057A1/en
Priority to CN202111043529.8A priority patent/CN114239842A/zh
Publication of JP2022045731A publication Critical patent/JP2022045731A/ja
Publication of JP2022045731A5 publication Critical patent/JP2022045731A5/ja
Application granted granted Critical
Publication of JP7489275B2 publication Critical patent/JP7489275B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置、情報処理システムおよび情報処理方法に関する。
機械学習により構築された学習モデルは、例えばデータに対応付けられたラベルを推測する分類タスク等を実行するために用いられる。特許文献1には、学習モデルの構築の手順が記載されている。この手順においては、処理対象データに対して前処理が行われることにより、処理対象データが処理サーバ装置により処理しやすいデータ形式に変換される。次に、データ処理が行われることにより、処理対象データがモデル構築用データセットとモデル検証用データセットとに分割される。
続いて、モデル構築用データセットを用いて機械学習アルゴリズムが実行されることにより、学習結果が取得される。その後、取得された学習結果がモデル検証用データセットを用いて評価される。学習結果の評価値が所定のしきい値より大きくなるまで機械学習アルゴリズムの実行が繰り返されることにより、学習モデルが構築される。
特開2019-3568号公報
構築される学習モデルの構造は、使用される機械学習アルゴリズムにより異なる。また、ラベルの推測の精度は、処理対象データが入力される学習モデルの構造により異なる。したがって、構造が異なる複数の学習モデルが構築され、構築された複数の学習モデルから処理対象データの処理に適した学習モデルが選択されることが好ましい。しかしながら、複数の学習モデルを構築するには長時間を要する。そのため、学習モデルを効率よく構築することが望まれる。
本発明の目的は、学習モデルを効率よく構築することが可能な情報処理装置、情報処理システムおよび情報処理方法を提供することである。
(1)第1の発明に係る情報処理装置は、説明変数と目的変数との関係を示す学習用データを取得する取得部と、取得部により取得された学習用データにおいて、目的変数に含まれる複数の項目の階層関係を決定する階層決定部と、階層決定部により決定された階層関係に基づいて、学習モデルを構築するための複数の構築アルゴリズムのうち実行すべき構築アルゴリズムを決定するアルゴリズム決定部と、アルゴリズム決定部により決定された構築アルゴリズムを実行することにより第1の学習モデルを構築する学習部とを備える。
この情報処理装置においては、学習用データの目的変数に含まれる複数の項目の階層関係に基づいて決定された構築アルゴリズムが実行されることにより、学習用データの学習が行われ、第1の学習モデルが構築される。この場合、複数の構築アルゴリズムの全部を実行する必要がなく、不要な構築アルゴリズムが実行されることもない。これにより、第1の学習モデルを効率よく構築することができる。
(2)複数の構築アルゴリズムの各々は、学習用データから特徴量を抽出するための特徴量抽出アルゴリズムと、学習用データに基づいて学習を行うための学習アルゴリズムとを含み、アルゴリズム決定部は、階層決定部により決定された階層関係に基づいて、複数の構築アルゴリズムにおける複数の学習アルゴリズムのうち実行すべき学習アルゴリズムを決定することにより実行すべき構築アルゴリズムを決定してもよい。この場合、実行すべき構築アルゴリズムを容易に決定することができる。
(3)階層決定部は、学習用データにおける複数の項目の包含関係に基づいて階層関係を自動的に決定してもよい。この場合、使用者の負担を低減することができる。
(4)階層決定部は、階層関係の指定または編集を受け付けることにより階層関係を決定してもよい。この場合、階層関係をより正確に決定することができる。
(5)情報処理装置は、処理時間を予測するための第2の学習モデルを用いて、決定された構築アルゴリズムに対応した第1の学習モデルの構築に要する時間を予測する予測部をさらに備えてもよい。この場合、使用者は、第1の学習モデルの構築に要する時間を容易に認識することが可能となる。
(6)情報処理装置は、決定された構築アルゴリズムに対応した第1の学習モデルの構築が終了したときに、実際の経過時間に基づいて第2の学習モデルを更新する更新部をさらに備えてもよい。この場合、第1の学習モデルの構築に要する時間をより高い精度で予測することが可能になる。
(7)第2の発明に係る情報処理システムは、第1の発明に係る情報処理装置と、情報処理装置で用いられる学習用データにおける複数の項目を表示する表示装置とをさらに備える。この情報処理システムにおいては、使用者は、学習用データにおける複数の項目を容易に認識することができる。
(8)表示装置は、複数の項目の階層関係を編集可能に表示してもよい。この場合、階層関係をより正確に決定することができる。
(9)第3の発明に係る情報処理方法は、説明変数と目的変数との関係を示す学習用データを取得するステップと、取得された学習用データにおいて、目的変数に含まれる複数の項目の階層関係を決定するステップと、決定された階層関係に基づいて、学習モデルを構築するための複数の構築アルゴリズムのうち実行すべき構築アルゴリズムを決定するステップと、決定された構築アルゴリズムを実行することにより第1の学習モデルを構築するステップとを含む。
この情報処理方法によれば、学習用データの目的変数に含まれる複数の項目の階層関係に基づいて決定された構築アルゴリズムが実行されることにより、学習用データの学習が行われ、第1の学習モデルが構築される。この場合、複数の構築アルゴリズムの全部を実行する必要がなく、不要な構築アルゴリズムが実行されることもない。これにより、第1の学習モデルを効率よく構築することができる。
(10)複数の構築アルゴリズムの各々は、学習用データから特徴量を抽出するための特徴量抽出アルゴリズムと、学習用データに基づいて学習を行うための学習アルゴリズムとを含み、構築アルゴリズムを決定するステップは、決定された階層関係に基づいて、複数の構築アルゴリズムにおける複数の学習アルゴリズムのうち実行すべき学習アルゴリズムを決定することにより実行すべき構築アルゴリズムを決定することを含んでもよい。この場合、実行すべき構築アルゴリズムを容易に決定することができる。
(11)階層関係を決定するステップは、学習用データにおける複数の項目の包含関係に基づいて階層関係を自動的に決定することを含んでもよい。この場合、使用者の負担を低減することができる。
(12)階層関係を決定するステップは、階層関係の指定または編集を受け付けることを含んでもよい。この場合、階層関係をより正確に決定することができる。
(13)情報処理方法は、処理時間を予測するための第2の学習モデルを用いて、決定された構築アルゴリズムに対応した第1の学習モデルの構築に要する時間を予測するステップをさらに含んでもよい。この場合、使用者は、第1の学習モデルの構築に要する時間を容易に認識することが可能となる。
(14)情報処理方法は、決定された構築アルゴリズムに対応した第1の学習モデルの構築が終了したときに、実際の経過時間に基づいて第2の学習モデルを更新するステップをさらに含んでもよい。この場合、第1の学習モデルの構築に要する時間をより高い精度で予測することが可能になる。
本発明によれば、学習モデルを効率よく構築することができる。
本発明の一実施の形態に係る情報処理システムを示す図である。 情報処理装置の構成を示す図である。 学習用データの一例を示す図である。 図3の学習用データの簡略図である。 階層関係指定画面の一例を示す図である。 アルゴリズム画面の一例を示す図である。 学習開始画面の一例を示す図である。 図2の情報処理装置によるモデル構築処理を示すフローチャートである。 図2の情報処理装置によるモデル構築処理を示すフローチャートである。
(1)情報処理システムの構成
以下、本発明の実施の形態に係る情報処理装置、情報処理システムおよび情報処理方法について図面を用いて説明する。図1は、本発明の一実施の形態に係る情報処理システムの構成を示す図である。図1に示すように、情報処理システム100は、情報処理装置10、記憶装置20、操作部30および表示装置40により構成される。情報処理装置10、記憶装置20、操作部30および表示装置40はバス101に接続される。
情報処理装置10は、CPU(中央演算処理装置)11、RAM(ランダムアクセスメモリ)12およびROM(リードオンリメモリ)13を含む。RAM12は、CPU11の作業領域として用いられる。ROM13は、システムプログラムを記憶する。情報処理装置10は、説明変数と目的変数との関係を示す学習用データを学習することにより、説明変数から目的変数のラベルを推測するための種々の学習モデルを構築する。情報処理装置10の詳細については後述する。以下、情報処理装置10により構築される学習モデルを推測モデルと呼ぶ。
記憶装置20は、ハードディスクまたは半導体メモリ等の記憶媒体を含み、情報処理装置10に後述する構築処理を実行させるための構築プログラムを記憶する。構築プログラムは、ROM13または他の外部記憶装置に記憶されてもよい。記憶装置20は、情報処理装置10により構築された構築プログラムを記憶してもよい。また、記憶装置20は、情報処理装置10による処理時間を予測するための複数の学習モデル(以下、予測モデルと呼ぶ。)を予め記憶する。
操作部30は、キーボード、マウスまたはタッチパネル等の入力デバイスである。使用者は、操作部30を操作することにより、学習用データにおいて、目的変数に含まれる項目の階層関係を指定または編集することができる。表示装置40は、液晶表示装置等の表示デバイスであり、学習用データにおける複数の項目等を表示する。
(2)情報処理装置の構成
図2は、情報処理装置10の構成を示す図である。図2に示すように、情報処理装置10は、機能部として、取得部1、前処理部2、階層決定部3、アルゴリズム決定部4、学習部5、予測部6、更新部7および選択部8を含む。図1のCPU11がROM13または記憶装置20等に記憶された構築プログラムを実行することにより、情報処理装置10の機能部が実現される。情報処理装置10の機能部の一部または全てが電子回路等のハードウエアにより実現されてもよい。
取得部1は、説明変数と目的変数との関係を示す複数の学習用データを取得する。前処理部2は、取得部1により取得された複数の学習用データに前処理を行うことにより、複数の学習用データを階層決定部3または学習部5が読み込み可能な形式に変換する。
階層決定部3は、前処理部2により前処理された学習用データにおいて、目的変数に含まれる複数の項目の階層関係を決定する。階層関係は、学習用データにおける複数の項目の包含関係に基づいて自動的に決定されてもよいし、使用者による指定または編集が受け付けられることにより決定されてもよい。階層関係が自動的に決定される場合、使用者の負担が低減される。一方で、表示装置40には、学習用データにおける複数の項目が階層関係を編集可能に表示される。使用者は、操作部30を操作することにより項目の階層関係を指定または編集することができる。この場合、階層関係がより正確に決定される。
アルゴリズム決定部4は、階層決定部3により決定された階層関係に基づいて、推測モデルを構築するための複数の構築アルゴリズムのうち実行するべき1以上の構築アルゴリズムを決定する。ここで、複数の構築アルゴリズムの各々は、学習用データから特徴量を抽出するための特徴量抽出アルゴリズムと、学習用データに基づいて学習を行うための学習アルゴリズムとを含む。
本例では、階層決定部3により決定された階層関係に基づいて、予め定められた複数の学習アルゴリズムのうち実行するべき1以上の学習アルゴリズムが決定される。実行するべき1以上の構築アルゴリズムは、予め定められた1以上の特徴量抽出アルゴリズムと、実行するべき1以上の学習アルゴリズムとの組み合わせにより決定される。
学習部5は、アルゴリズム決定部4により決定された1以上の構築アルゴリズムを順次実行することにより、前処理部2により前処理が行われた複数の学習用データを学習する。これにより、1以上の構築アルゴリズムにそれぞれ対応する1以上の推測モデルが構築される。各推測モデルの構築においては、パラメータが最適になるようにパラメータが変化されつつ学習が繰り返される。
予測部6は、記憶装置20に記憶された複数の予測モデルのうち、アルゴリズム決定部4により決定された構築アルゴリズムに対応する予測モデルを取得する。また、予測部6は、各構築アルゴリズムの実行時に、取得された予測モデルを用いて当該構築アルゴリズムに対応する推測モデルの構築に要する時間を予測し、推測モデルが構築されるまでの残り時間を表示装置40に表示させる。予測部6は、残り時間とともに、または残り時間に代えて、推測モデルの構築の進捗度(%)を表示装置40に表示させてもよい。
なお、予測モデルは、学習に関する属性が説明変数として入力されたときに処理時間を目的変数として出力する学習モデルであり、ランダムフォレスト、SVM(Support Vector Machine)またはディープラーニング等の回帰モデルにより構築される。説明変数となる学習に関する属性は、例えば学習用データの容量、CPU11のコア数、RAM12の容量、パラメータ最適化のための学習繰り返し回数、特徴量抽出アルゴリズムのパラメータ探索範囲および学習アルゴリズムのパラメータ探索範囲を含む。
本例では、パラメータ最適化のための学習繰り返しが実行されるごとに、予測時間が補正される。補正後の予測時間tは、下記式(1)により示される。式(1)において、tは現時点の処理時間である。nは、現時点でのパラメータ最適化のための学習実行回数である。nは、現時点でのパラメータ最適化のための学習繰り返しの最大実行回数である。
Figure 0007489275000001
更新部7は、アルゴリズム決定部4により決定された構築アルゴリズムに対応した推測モデルの構築が終了するごとに、実際の経過時間に基づいて記憶装置20に記憶された予測モデルを更新する。この場合、推測モデルの構築に要する時間をより高い精度で予測することが可能になる。本例では、更新部7は、構築アルゴリズムの構築に用いられた学習に関する属性にさらに基づいて予測モデルを更新する。選択部8は、学習部5により構築された1以上の推測モデルのうち、最も高い精度を有する推測モデルを選択する。選択部8は、選択された推測モデルを記憶装置20に記憶させてもよい。
(3)階層関係の決定
図3は、学習用データの一例を示す図である。図3の例では、「学習用データ1」~「学習用データ10」の10の学習用データが図示されている。各学習用データにおいて、説明変数は「災害状況」であり、目的変数は「項目1」~「項目5」の5の項目を含む。「項目1」~「項目5」は、それぞれ「業種大分類名」、「業種中分類名」、「業種小分類名」、「起因物大分類名」および「起因物中分類名」である。
図3の例では、「項目1」は「項目2」の上位階層にあり、「項目2」は「項目3」の上位階層にあり、「項目4」は「項目5」の上位階層にある。一方、「項目1」、「項目2」および「項目3」と、「項目4」および「項目5」とは階層関係を有しない。複数の項目間の階層関係の有無は、複数の項目の包含関係に基づく判定式により判定することが可能である。複数の項目間に階層関係があると判定された場合には、階層関係が自動的に決定される。
「項目a」と「項目b」との間の階層関係の有無を判定するための判定式は、下記式(2)により示される。式(2)において、Nは、「項目a」のラベルと「項目b」のラベルとの組み合わせの総数である。Nは、「項目a」⊇「項目b」となるラベルの組み合わせの総数である。αは判定の厳密さを示すしきい値であり、0よりも大きく1よりも小さい範囲で使用者により設定される。式(2)が成立する場合、「項目a」と「項目b」との間に階層関係があり、「項目a」は「項目b」の上位階層にあると判定される。
Figure 0007489275000002
以下、例として図3の「項目2」と「項目3」との間の階層関係の有無の判定について説明する。図4は、図3の学習用データの簡略図である。図4においては、図3の学習データから「項目2」および「項目3」のみが抽出されている。また、理解を容易にするために、各項目のラベルを「A」~「L」と略記する。本例において、「項目2」のラベルの数は「A」~「E」の5であり、「項目3」のラベルの数は「F」~「L」の7である。そのため、「項目2」のラベルと「項目3」のラベルとの組み合わせの総数Nは5×7=35通りである。
また、「項目2」⊇「項目3」となるラベルの組み合わせの総数Nは、{「A」,「F」}、{「A」,「G」}、{「A」,「H」}、{「B」,「I」}、{「C」,「J」}、{「D」,「K」}および{「E」,「L」}の7通りである。この場合、上記式(2)の左辺の値は0.2となる。したがって、右辺のしきい値αが0.2よりも小さく設定されている場合、「項目2」と「項目3」との間に階層関係があり、「項目2」は「項目3」の上位階層にあると判定される。使用者は、図2の操作部30を操作することにより、判定された階層関係を編集することができる。
また、階層関係は、自動的に決定されることなく、使用者に指定されることにより決定されてもよい。図2の表示装置40には、階層関係の指定を受け付けるための階層関係指定画面が表示される。使用者は、図2の操作部30を用いて階層関係指定画面を操作することにより、階層関係を指定することができる。
図5は、階層関係指定画面の一例を示す図である。図5に示すように、階層関係指定画面50には、スイッチ51が表示される。スイッチ51がオフである場合、階層関係の指定が受け付けられない。スイッチ51がオンである場合、項目間の複数の階層関係にそれぞれ対応する複数のチェックボックス52が階層関係指定画面50にさらに表示される。使用者は、所望のチェックボックス52をチェックすることにより、当該チェックボックス52に対応する階層関係を指定することができる。
また、階層関係の指定が受け付けられた場合、複数の項目の階層関係を示すツリー状の構造図53が階層関係指定画面50にさらに表示される。使用者は、構造図53を操作することにより、階層関係をさらに編集することができる。構造図53においては、階層ごとに項目の表示と非表示とを切り替え可能である。そのため、使用者は、階層の数が多い場合には、構造図53において不要な階層の項目を非表示にすることにより、所望の項目の階層関係を容易に認識することができる。
(4)構築アルゴリズムの決定
学習用データにおいて、階層関係が決定されることにより実行するべき1以上の構築アルゴリズムが決定される。具体的には、階層関係が決定されることにより、予め定められた複数の学習アルゴリズムのうち、実行する必要がない学習アルゴリズムが定まる。そのため、予め定められた複数の学習アルゴリズムから実行する必要がない学習アルゴリズムが除外されることにより、実行するべき1以上の学習アルゴリズムが決定される。実行するべき1以上の構築アルゴリズムは、予め定められた1以上の特徴量抽出アルゴリズムと、決定された1以上の学習アルゴリズムとの組み合わせにより決定される。
決定された1以上の構築アルゴリズムを視認可能に示すアルゴリズム画面が図2の表示装置40に表示される。図6は、アルゴリズム画面の一例を示す図である。図6に示すように、アルゴリズム画面60は、特徴量抽出アルゴリズム表示欄61および学習アルゴリズム表示欄62を含む。特徴量抽出アルゴリズム表示欄61には、予め定められた複数の特徴量抽出アルゴリズムにそれぞれ対応する複数のチェックボックス61aが表示される。予め定められた複数の特徴量抽出アルゴリズムは、Word2Vec、BoW(Bag of Words)およびTF-IDF(TermFrequency-Inverse Document Frequency)を含む。
学習アルゴリズム表示欄62には、予め定められた複数の学習アルゴリズムにそれぞれ対応する複数のチェックボックス62aが表示される。予め定められた複数の学習アルゴリズムは、MLP(Multilayer Perceptron)、RFC(Random ForestClassifier)、SWEM NN(Simple Word-Embedding-based MethodsNeural Network)、CNN(Convolutional Neural Network)、LightGBM(Light Gradient Boosting Machine)およびSVMを含む。
アルゴリズム画面60においては、実行すべき特徴量抽出アルゴリズム(本例ではWord2Vec、BoWおよびTF-IDF)にそれぞれ対応するチェックボックス62aがチェックされる。また、実行すべき学習アルゴリズム(本例ではMLP、SWEM NNおよびCNN)にそれぞれ対応するチェックボックス61aがチェックされる。使用者は、所望のチェックボックス61a,62aを操作して実行すべき特徴量抽出アルゴリズムまたは学習アルゴリズムを変更することができる。
チェックボックス61aがチェックされた特徴量抽出アルゴリズムと、チェックボックス62aがチェックされた学習アルゴリズムとの組み合わせが、実行するべき1以上の構築アルゴリズムとして示される。SWEM NNは学習用データから特徴量を抽出するためのアルゴリズムを含むため、SWEM NNが実行される場合には、特徴量抽出アルゴリズムを使用しない。そのため、図6の例では、3×2+1=7通りの構築アルゴリズムが示される。
なお、上記の階層関係の決定が行われない場合には、全部の特徴量抽出アルゴリズムおよび全部の学習アルゴリズムが実行されることとなる。この場合、全部のチェックボックス61a,62aがチェックされることにより、3×5+1=16通りの構築アルゴリズムが示される。
構築アルゴリズムが決定された後、学習開始画面が表示装置40に表示される。図7は、学習開始画面の一例を示す図である。図7に示すように、学習開始画面70には、開始ボタン71が表示される。また、学習開始画面70には、学習における説明変数、目的変数、特徴量抽出アルゴリズムおよび学習アルゴリズムが表示されるとともに、学習フローを示す図が表示される。使用者は、開始ボタン71を操作することにより学習の開始を指示することができる。
(5)モデル構築処理
図8および図9は、図2の情報処理装置10によるモデル構築処理を示すフローチャートである。図8および図9のモデル構築処理は、図1のCPU11がROM13または記憶装置20等に記憶された構築プログラムをRAM12上で実行することにより行われる。以下、図2の情報処理装置10ならびに図8および図9のフローチャートを用いてモデル構築処理を説明する。
まず、取得部1は、複数の学習用データを取得する(ステップS1)。複数の学習用データは、記憶装置20から取得されてもよいし、外部の記憶媒体から取得されてもよい。次に、前処理部2は、ステップS1で取得された各学習用データを前処理する(ステップS2)。続いて、階層決定部3は、ステップS2で前処理された学習用データにおいて、目的変数に含まれる複数の項目間の階層関係の有無を式(2)に基づいて判定する(ステップS3)。階層関係が自動的に決定されない場合には、ステップS3は省略される。
その後、階層決定部3は、階層関係の指定または編集が指示されたか否かを判定する(ステップS4)。階層関係の指定または編集が指示されない場合には、階層決定部3はステップS6に進む。使用者は、図5の階層関係指定画面50において、階層関係の指定または編集を指示することができる。階層関係の指定または編集が指示された場合には、階層決定部3は、指定または編集に基づいて階層関係を変更し(ステップS5)、ステップS6に進む。ステップS6で、階層決定部3は、階層関係を決定する(ステップS6)。
次に、アルゴリズム決定部4は、ステップS6で決定された階層関係に基づいて、予め定められた複数の学習アルゴリズムのうち実行するべき1以上の学習アルゴリズムを決定する(ステップS7)。続いて、アルゴリズム決定部4は、予め定められた1以上の特徴量抽出アルゴリズムと、ステップS7で決定された1以上の学習アルゴリズムとの組み合わせにより、実行するべき1以上の構築アルゴリズムを決定する(ステップS8)。本例では、決定されたN(Nは1以上の整数)の構築アルゴリズムに1~Nの固有の識別番号がそれぞれ付与される。
その後、アルゴリズム決定部4は、学習の開始が指示されたか否かを判定する(ステップS9)。使用者は、図7の学習開始画面70で開始ボタン71を操作することにより、学習の開始を指示することができる。一方、使用者は、学習の開始を指示せずに、図6のアルゴリズム画面60のチェックボックス61a,62aを操作することができる。この場合、アルゴリズム決定部4は、ステップS8に戻り、チェックボックス61a,62aの操作内容に基づいて構築アルゴリズムを再度決定する。学習の開始が指示されるまでステップS8,S9が繰り返される。
学習の開始が指示された場合、学習部5は、構築アルゴリズムの識別番号を表す変数iの値を1に設定する(ステップS10)。次に、学習部5は、第i番目の構築アルゴリズムを選択する(ステップS11)。続いて、予測部6は、ステップS11で決定された構築アルゴリズムに対応する予測モデルを用いて、当該構築アルゴリズムに対応する推測モデルの構築に要する時間を予測する(ステップS12)。その後、予測部6は、ステップS12で予測された時間または後述するステップS17で補正された予測時間に基づいて、推測モデルが構築されるまでの残り時間を表示装置40に表示させる(ステップS13)。
その後、学習部5は、ステップS11で選択された構築アルゴリズムを実行することにより、ステップS2で前処理が行われた複数の学習用データを学習する(ステップS14)。これにより、選択された構築アルゴリズムに対応する推測モデルが構築される。次に、学習部5は、パラメータの最適化が終了したか否かを判定する(ステップS15)。
パラメータの最適化が終了していない場合、学習部5は、パラメータを変更する(ステップS16)。また、予測部6は、式(1)に基づいて予測時間を補正し(ステップS17)、ステップS13に戻る。予め定められた学習繰り返しの最大実行回数の範囲内で、パラメータの最適化が終了するまでステップS13~S17が繰り返される。
パラメータの最適化が終了した場合、更新部7は、実際の経過時間および学習に関する属性に基づいて記憶装置20に記憶された予測モデルを更新する(ステップS18)。続いて、学習部5は、変数iの値がNであるか否かを判定する(ステップS19)。変数iの値がNでない場合、学習部5は、変数iの値を1だけ増加し(ステップS20)、ステップS11に戻る。変数iの値がNになるまでステップS11~S20が繰り返される。
変数iの値がNである場合、選択部8は、ステップS14の学習により構築されたNの推測モデルのうち、最も高い精度を有する推測モデルを選択し(ステップS21)、モデル構築処理を終了する。選択部8は、ステップS21で選択された推測モデルを記憶装置20に記憶させてもよい。
(6)効果
本実施の形態に係る情報処理装置10においては、学習用データの目的変数に含まれる複数の項目の階層関係に基づいて決定された構築アルゴリズムが実行されることにより、学習用データの学習が行われ、推測モデルが構築される。この場合、複数の構築アルゴリズムの全部を実行する必要がなく、不要な構築アルゴリズムが実行されることもない。また、あり得ない階層関係についての学習が行われることが防止される。これにより、学習の精度を向上させるとともに、推測モデルを効率よく構築することができる。
また、予測モデルを用いて、決定された構築アルゴリズムに対応した推測モデルの構築に要する時間が予測される。この構成によれば、学習に関する属性と処理時間との関係が非線形である場合でも、推測モデルの構築に要する時間を予測することができる。したがって、使用者は、推測モデルの構築に要する時間を容易に認識することが可能となる。
さらに、予測時間は、パラメータ最適化のための学習繰り返しが実行されるごとに、実際の経過時間に基づいて補正される。そのため、推測モデルの構築に要する時間をより高い精度で予測することができる。その結果、情報処理装置10の管理および推測モデルの構築の計画をより正確に行うことができる。
(7)他の実施の形態
(a)上記実施の形態において、各推測モデルの構築が終了したときに、実際の経過時間に基づいて予測モデルが更新されるが、実施の形態はこれに限定されない。予測モデルは更新されなくてもよい。この場合、情報処理装置10は更新部7を含まなくてもよい。
(b)上記実施の形態において、推測モデルの構築に要する時間が予測されるが、実施の形態はこれに限定されない。推測モデルの構築に要する時間は、予測されなくてもよい。この場合、情報処理装置10は予測部6および更新部7を含まなくてもよく、記憶装置20に予測モデルが記憶されなくてもよい。
(c)上記実施の形態において、情報処理装置10は選択部8を含むが、実施の形態はこれに限定されない。学習部5により構築された複数の推測モデルが記憶装置20に記憶される場合、または1つの推測モデルのみが構築される場合等には、情報処理装置10は選択部8を含まなくてもよい。
(8)請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各要素との対応の例について説明するが、本発明は下記の例に限定されない。請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。
上記実施の形態においては、取得部1が取得部の例であり、階層決定部3が階層決定部の例であり、アルゴリズム決定部4がアルゴリズム決定部の例であり、学習部5が学習部の例である。情報処理装置10が情報処理装置の例であり、予測部6が予測部の例であり、更新部7が更新部の例であり、表示装置40が表示装置の例であり、情報処理システム100が情報処理システムの例である。
1…取得部,3…階層決定部,4…アルゴリズム決定部,5…学習部,6…予測部,7…更新部,8…選択部,10…情報処理装置,11…CPU,12…RAM,13…ROM,20…記憶装置,30…操作部,40…表示装置,50…階層関係指定画面,51…スイッチ,52,61a,62a…チェックボックス,53…構造図,60…アルゴリズム画面,61…特徴量抽出アルゴリズム表示欄,62…学習アルゴリズム,70…学習開始画面,71…開始ボタン,100…情報処理システム,101…バス

Claims (14)

  1. 説明変数と目的変数との関係を示す学習用データを取得する取得部と、
    前記取得部により取得された学習用データにおいて、目的変数に含まれる複数の項目の階層関係を決定する階層決定部と、
    前記階層決定部により決定された前記階層関係に基づいて、学習モデルを構築するための複数の構築アルゴリズムのうち実行すべき構築アルゴリズムを決定するアルゴリズム決定部と、
    前記アルゴリズム決定部により決定された構築アルゴリズムを実行することにより第1の学習モデルを構築する学習部とを備える、情報処理装置。
  2. 前記複数の構築アルゴリズムの各々は、学習用データから特徴量を抽出するための特徴量抽出アルゴリズムと、学習用データに基づいて学習を行うための学習アルゴリズムとを含み、
    前記アルゴリズム決定部は、前記階層決定部により決定された前記階層関係に基づいて、前記複数の構築アルゴリズムにおける複数の学習アルゴリズムのうち実行すべき学習アルゴリズムを決定することにより前記実行すべき構築アルゴリズムを決定する、請求項1記載の情報処理装置。
  3. 前記階層決定部は、学習用データにおける複数の項目の包含関係に基づいて前記階層関係を自動的に決定する、請求項1または2記載の情報処理装置。
  4. 前記階層決定部は、前記階層関係の指定または編集を受け付けることにより前記階層関係を決定する、請求項1~3のいずれか一項に記載の情報処理装置。
  5. 処理時間を予測するための第2の学習モデルを用いて、前記決定された構築アルゴリズムに対応した前記第1の学習モデルの構築に要する時間を予測する予測部をさらに備える、請求項1~4のいずれか一項に記載の情報処理装置。
  6. 前記決定された構築アルゴリズムに対応した前記第1の学習モデルの構築が終了したときに、実際の経過時間に基づいて前記第2の学習モデルを更新する更新部をさらに備える、請求項5記載の情報処理装置。
  7. 請求項1~6のいずれか一項に記載の情報処理装置と、
    前記情報処理装置で用いられる学習用データにおける複数の項目を表示する表示装置とをさらに備える、情報処理システム。
  8. 前記表示装置は、複数の項目の前記階層関係を編集可能に表示する、請求項7記載の情報処理システム。
  9. 説明変数と目的変数との関係を示す学習用データを取得するステップと、
    取得された学習用データにおいて、目的変数に含まれる複数の項目の階層関係を決定するステップと、
    決定された前記階層関係に基づいて、学習モデルを構築するための複数の構築アルゴリズムのうち実行すべき構築アルゴリズムを決定するステップと、
    決定された構築アルゴリズムを実行することにより第1の学習モデルを構築するステップとを含む、情報処理方法。
  10. 前記複数の構築アルゴリズムの各々は、学習用データから特徴量を抽出するための特徴量抽出アルゴリズムと、学習用データに基づいて学習を行うための学習アルゴリズムとを含み、
    前記構築アルゴリズムを決定するステップは、決定された前記階層関係に基づいて、前記複数の構築アルゴリズムにおける複数の学習アルゴリズムのうち実行すべき学習アルゴリズムを決定することにより前記実行すべき構築アルゴリズムを決定することを含む、請求項9記載の情報処理方法。
  11. 前記階層関係を決定するステップは、学習用データにおける複数の項目の包含関係に基づいて前記階層関係を自動的に決定することを含む、請求項9または10記載の情報処理方法。
  12. 前記階層関係を決定するステップは、前記階層関係の指定または編集を受け付けることを含む、請求項9~11のいずれか一項に記載の情報処理方法。
  13. 処理時間を予測するための第2の学習モデルを用いて、前記決定された構築アルゴリズムに対応した前記第1の学習モデルの構築に要する時間を予測するステップをさらに含む、請求項9~12のいずれか一項に記載の情報処理方法。
  14. 前記決定された構築アルゴリズムに対応した前記第1の学習モデルの構築が終了したときに、実際の経過時間に基づいて前記第2の学習モデルを更新するステップをさらに含む、請求項13記載の情報処理方法。
JP2020151476A 2020-09-09 2020-09-09 情報処理装置、情報処理システムおよび情報処理方法 Active JP7489275B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020151476A JP7489275B2 (ja) 2020-09-09 2020-09-09 情報処理装置、情報処理システムおよび情報処理方法
EP21193917.8A EP3975069A1 (en) 2020-09-09 2021-08-31 Information processing apparatus, information processing system and information processing method
US17/468,270 US20220076057A1 (en) 2020-09-09 2021-09-07 Information processing apparatus, information processing system and information processing method
CN202111043529.8A CN114239842A (zh) 2020-09-09 2021-09-07 信息处理装置、信息处理系统以及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020151476A JP7489275B2 (ja) 2020-09-09 2020-09-09 情報処理装置、情報処理システムおよび情報処理方法

Publications (3)

Publication Number Publication Date
JP2022045731A JP2022045731A (ja) 2022-03-22
JP2022045731A5 JP2022045731A5 (ja) 2023-08-14
JP7489275B2 true JP7489275B2 (ja) 2024-05-23

Family

ID=77563934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020151476A Active JP7489275B2 (ja) 2020-09-09 2020-09-09 情報処理装置、情報処理システムおよび情報処理方法

Country Status (4)

Country Link
US (1) US20220076057A1 (ja)
EP (1) EP3975069A1 (ja)
JP (1) JP7489275B2 (ja)
CN (1) CN114239842A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157814A (ja) 2002-11-07 2004-06-03 Fuji Electric Holdings Co Ltd 決定木生成方法およびモデル構造生成装置
JP2016537693A (ja) 2013-09-20 2016-12-01 日本電気株式会社 階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体
JP2017174022A (ja) 2016-03-22 2017-09-28 株式会社日立製作所 目的変数に対応する説明変数群を決定するシステム及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10692601B2 (en) * 2016-08-25 2020-06-23 Hitachi, Ltd. Controlling devices based on hierarchical data
JP7074286B2 (ja) 2017-06-19 2022-05-24 Necネクサソリューションズ株式会社 処理計画装置、処理計画方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157814A (ja) 2002-11-07 2004-06-03 Fuji Electric Holdings Co Ltd 決定木生成方法およびモデル構造生成装置
JP2016537693A (ja) 2013-09-20 2016-12-01 日本電気株式会社 階層隠れ変数モデル推定装置、階層隠れ変数モデル推定方法、払出量予測装置、払出量予測方法、及び記録媒体
JP2017174022A (ja) 2016-03-22 2017-09-28 株式会社日立製作所 目的変数に対応する説明変数群を決定するシステム及び方法

Also Published As

Publication number Publication date
EP3975069A1 (en) 2022-03-30
US20220076057A1 (en) 2022-03-10
JP2022045731A (ja) 2022-03-22
CN114239842A (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
Jin et al. Bayesian symbolic regression
CN106845530A (zh) 字符检测方法和装置
CN113011529B (zh) 文本分类模型的训练方法、装置、设备及可读存储介质
JP7095599B2 (ja) 辞書学習装置、辞書学習方法、データ認識方法およびコンピュータプログラム
JP7069029B2 (ja) 自動予測システム、自動予測方法および自動予測プログラム
US11550970B2 (en) Resolving opaqueness of complex machine learning applications
JP7059220B2 (ja) 機械学習プログラム検証装置および機械学習プログラム検証方法
EP3975050A1 (en) Method and system for evaluating consistency of an engineered system
CN114897173A (zh) 基于变分量子线路确定PageRank的方法及装置
US20230268035A1 (en) Method and apparatus for generating chemical structure using neural network
JP2014160457A (ja) 対話的変数選択装置、対話的変数選択方法および対話的変数選択プログラム
WO2016151620A1 (ja) シミュレートシステム、シミュレート方法およびシミュレート用プログラム
US20220036232A1 (en) Technology for optimizing artificial intelligence pipelines
KR20210157302A (ko) 워크플로우 기반의 자동 예측 모델링 방법 및 그를 위한 장치
JP7489275B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
CN112951420A (zh) 利用原型来操纵深度序列模型
JP6869588B1 (ja) 情報処理装置、方法及びプログラム
Abouloifa et al. Predicting late delivery in Supply chain 4.0 using feature selection: a machine learning model
KR20220008140A (ko) 가상 사용자 및 상품 증강을 이용한 콜드-스타트 문제 해결 방안
CN114428720A (zh) 基于p-k的软件缺陷预测方法、装置、电子设备及介质
CN111989662A (zh) 自主混合分析建模平台
JP7404962B2 (ja) 画像処理システム、及び画像処理プログラム
JP7395396B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN115544522B (zh) 源码漏洞检测方法、装置、电子设备及存储介质
EP4198837A1 (en) Method and system for global explainability of neural networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240513

R150 Certificate of patent or registration of utility model

Ref document number: 7489275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150