JP6708847B1 - 機械学習装置及び方法 - Google Patents

機械学習装置及び方法 Download PDF

Info

Publication number
JP6708847B1
JP6708847B1 JP2020507712A JP2020507712A JP6708847B1 JP 6708847 B1 JP6708847 B1 JP 6708847B1 JP 2020507712 A JP2020507712 A JP 2020507712A JP 2020507712 A JP2020507712 A JP 2020507712A JP 6708847 B1 JP6708847 B1 JP 6708847B1
Authority
JP
Japan
Prior art keywords
output
decision tree
input data
prediction
decision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020507712A
Other languages
English (en)
Other versions
JPWO2020008919A1 (ja
Inventor
純一 出澤
純一 出澤
志門 菅原
志門 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AISing Ltd
Original Assignee
AISing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AISing Ltd filed Critical AISing Ltd
Application granted granted Critical
Publication of JP6708847B1 publication Critical patent/JP6708847B1/ja
Publication of JPWO2020008919A1 publication Critical patent/JPWO2020008919A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 ランダム・フォレストを利用しつつも、さらに精度の良い出力予測を行うことができる機械学習技術を提供すること。【解決手段】 所定の学習対象データセットに基づいて生成された複数の決定木を用いた機械学習装置であって、所定の入力データを取得する入力データ取得部と、前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成部と、少なくとも前記決定木出力と前記入力データに対応する所定の教師データとに基づいて、各前記決定木の出力段と結合して予測出力を生成する出力ネットワークのパラメータを更新するパラメータ更新部と、を備える機械学習装置が提供される。【選択図】図3

Description

この発明は、所定の入力データに基づいて回帰的に予測出力を演算したり、入力データに対応する分類を特定することが可能な機械学習技術に関する。
従来より、所定の入力データに基づいて回帰的に予測出力を演算したり、入力データに対応する分類を特定することが可能な、所謂、ランダム・フォレストと呼ばれる機械学習技術が知られている。例えば、非特許文献1には、ランダム・フォレストの一例が開示されている。
図11〜図14を参照しつつ、ランダム・フォレストと呼ばれる機械学習技術の一例について説明する。ランダム・フォレストは、学習処理段階と予測処理段階とを有する。まずは、学習処理段階について説明する。
図11は、学習対象データセットに対する所定の前処理に関する概念図である。学習対象データセットは、複数のデータセットから構成されたデータ集合である。このデータ集合から重複を許してランダムにデータを抽出し、同図の通り、T個のサブデータセットを生成する。
図12は、各サブデータセットから生成される決定木に関する説明図であり、図12(a)は、決定木の構造の一例を表す説明図である。同図から明らかな通り、決定木は、基端となる根ノード(図中最上段のノード)から末端の葉ノード(同図中最下段のノード)へと至る木構造を有している。各ノードには、閾値θ〜θとの大小関係により定まる分岐条件が対応付けられている。これにより、根ノードから入力された入力データは、最終的に葉ノードA〜葉ノードEのいずれかの葉ノードへと対応付けられることとなる。
同図から明らかな通り、葉ノードAには、x≦θ、かつ、x≦θの条件を満たすデータが対応付けられる。葉ノードBには、x≦θ、かつ、x>θの条件を満たすデータが対応付けられる。葉ノードCには、x>θ、x≦θ、かつ、x≦θの条件を満たす入力が対応付けられる。葉ノードDには、x>θ、x≦θ、かつ、x>θの条件を満たす入力が対応付けられる。葉ノードEには、x>θ、かつ、x>θの条件を満たす入力が対応付けられる。
図12(b)は、図12(a)に示す決定木構造を2次元入力空間上で示したものである。このような決定木が、分割軸や分割値をランダムに設定することで、各サブデータセットに対して複数生成される。
次に、各サブデータセットに対応して生成された複数の決定木の中から、情報利得が最大となる一の決定木を特定する方法について説明する。情報利得IGは、下記の情報利得関数により算出される。なお、Iはジニ不純度、Dは親ノードのデータセット、D eftは左子ノードのデータセット、Drightは右子ノードのデータセット、Nは親ノードのサンプルの総数、Nleftは左子ノードのサンプルの総数、及び、Nrig htは右子ノードのサンプルの総数を表している。
Figure 0006708847
なお、ジニ不純度Iは、以下の式により算出される。
Figure 0006708847
図13を参照しつつ、情報利得の計算例を示す。図13(a)は、情報利得の計算例(その1)であり、40個と40個に分類されているデータが、さらに左経路の先で30個と10個、右経路の先で10個と30個とに分類された場合を示している。まず、親ノードのジニ不純度を計算すると以下の通りとなる。
Figure 0006708847
一方、左子ノードのジニ不純度と、右子ノードのジニ不純度は、以下の通りである。
Figure 0006708847
Figure 0006708847
従って、情報利得は、以下の通り計算される。
Figure 0006708847
一方、図13(b)は、情報利得の計算例(その2)であり、40個と40個に分類されているデータが、さらに左経路の先で20個と40個、右経路の先で20個と0個とに分類された場合を示している。
親ノードのジニ不純度は上記と同様である。一方、左子ノードのジニ不純度と、右子ノードのジニ不純度は、以下の通りである。
Figure 0006708847
Figure 0006708847
従って、情報利得は、以下の通り計算される。
Figure 0006708847
すなわち、図13の例にあっては、図13(b)の場合の方が情報利得は大きいことから、図13(b)に示す決定木が優先的に選択されることとなる。このような処理を各決定木について行うことにより各サブデータセットに対して一の決定木が決定される。
次に、図14を参照しつつ、予測処理段階について説明する。図14は、ランダム・フォレストを用いた予測処理に関する概念図である。同図から明らかな通り、新規の入力データが提示されると、各サブデータセットに対応する各決定木から予測出力が生成される。このとき、分類予測が行われる場合には、例えば、予測結果に対応する分類(ラベル)の多数決により最終的な予測分類が決定される。一方、回帰的に数値予測が行われる場合には、例えば、予測出力に対応する出力値の平均を採ることにより最終的な予測値が決定される。
Leo Breiman著、"RANDOM FORESTS"、[online]、平成13年1月、Statistics Department, University of California Berkeley,CA 94720,[平成30年4月2日]、インターネット<URL:http://www.stat.berkeley.edu/〜breiman/randomforest2001.pdf>
しかしながら、従来のランダム・フォレストでは、各サブデータセットは学習対象データセットからデータをランダムに抽出することにより生成され、また、対応する決定木の分割軸や分割値もランダムに決定されているため、必ずしも予測精度の良くない決定木又はその出力段のノードも含まれることがあった。そうすると、最終的な予測出力の精度も低下してしまうこととなる。
本発明は、上述の技術的背景の下になされたものであり、その目的とすることころは、ランダム・フォレストを利用しつつも、さらに精度の良い出力予測を行うことができる機械学習技術を提供することにある。
本発明のさらに他の目的並びに作用効果については、明細書の以下の記述を参照することにより、当業者であれば容易に理解されるであろう。
上述の技術的課題は、以下の構成を有する装置、方法、プログラム、学習済モデル等により解決することができる。
すなわち、本発明に係る機械学習装置は、所定の学習対象データセットに基づいて生成された複数の決定木を用いた機械学習装置であって、所定の入力データを取得する入力データ取得部と、前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成部と、少なくとも前記決定木出力と前記入力データに対応する所定の教師データとに基づいて、各前記決定木の出力段と結合して予測出力を生成する出力ネットワークのパラメータを更新するパラメータ更新部と、を備えている。
このような構成によれば、複数の決定木の出力段に設けられた出力ネットワークのパラメータを教師データを用いて漸次的に更新していくことができるので、より精度の良い決定木の出力段のノードに重きをおいた出力予測を行うことができる。従って、ランダム・フォレストを利用しつつも、さらに精度の良い出力予測を行うことができる機械学習技術を提供することができる。また、同一の決定木を用いつつも、出力ネットワークのみを学習により更新すること等ができ、追加学習にも好適な機械学習技術を提供することができる。
前記出力ネットワークは、各前記決定木の末端ノードと重みを介して結合した出力ノードを含む、ものであってもよい。
前記入力データは、前記学習対象データセットから選択されたデータであってもよい。
前記決定木出力と前記重みとに基づいて、前記出力ノードにおいて前記予測出力を生成する予測出力生成部をさらに含み、前記パラメータ更新部は、さらに、前記教師データと前記予測出力との差分に基づいて前記重みを更新する重み更新部を備える、ものであってもよい。
前記パラメータ更新部は、さらに、前記決定木出力たる予測ラベルと前記教師データたる正解ラベルとが一致するか否かを判定するラベル判定部と、前記ラベル判定部による判定結果に基づいて、前記重みを更新する重み更新部を備える、ものであってもよい。
前記複数の決定木は、前記学習対象データセットからランダムにデータを選択することにより生成された複数のサブデータセット毎に生成されたものであってもよい。
前記複数の決定木は、各前記サブデータセットに基づいて情報利得が最大となる分岐条件を選択することにより生成された決定木であってもよい。
また、本発明は予測装置としても観念することができる。すなわち、本発明に係る予測装置は、所定の学習対象データセットに基づいて生成された複数の決定木を用いた予測装置であって、所定の入力データを取得する入力データ取得部と、前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成部と、各前記決定木の末端ノードと重みを介して結合する出力ノードを含む出力ネットワークに基づいて、予測出力を生成する出力予測部と、を備えている。
各前記決定木出力は数値出力であり、前記予測出力は、前記数値出力と前記重みとの積を決定木の数分足し合わせた総和に基づいて生成される、ものであってもよい。
各前記決定木出力は所定のラベルであり、前記予測出力たる出力ラベルは、対応する重みの総和が最大となるラベルである、ものであってもよい。
前記決定木の有効度を前記出力ネットワークのパラメータに基づいて生成する有効度生成部をさらに備える、ものであってもよい。
前記有効度に基づいて、置換、交換又は削除の対象となる前記決定木を決定する決定木選定部をさらに備える、ものであってもよい。
本発明は機械学習方法としても観念できる。すなわち、本発明に係る機械学習方法は、所定の学習対象データセットに基づいて生成された複数の決定木を用いた機械学習方法であって、所定の入力データを取得する入力データ取得ステップと、前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成ステップと、少なくとも前記決定木出力と前記入力データに対応する所定の教師データとに基づいて、各前記決定木の出力段と結合して予測出力を生成する出力ネットワークのパラメータを更新するパラメータ更新ステップと、を備えている。
本発明は、機械学習プログラムとしても観念できる。すなわち、本発明に係る機械学習プログラムは、コンピュータを、所定の学習対象データセットに基づいて生成された複数の決定木を用いた機械学習装置として機能させるための機械学習プログラムであって、所定の入力データを取得する入力データ取得ステップと、前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成ステップと、少なくとも前記決定木出力と前記入力データに対応する所定の教師データとに基づいて、各前記決定木の出力段と結合して予測出力を生成する出力ネットワークのパラメータを更新するパラメータ更新ステップと、を備えている。
本発明は、予測方法としても観念できる。すなわち、本発明に係る予測方法は、所定の学習対象データセットに基づいて生成された複数の決定木を用いた予測方法であって、所定の入力データを取得する入力データ取得ステップと、前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成ステップと、各前記決定木の末端ノードと重みを介して結合する出力ノードを含む出力ネットワークに基づいて、予測出力を生成する出力予測ステップと、を備えている。
本発明は、予測プログラムとしても観念できる。すなわち、本発明に係る予測プログラムは、コンピュータを、所定の学習対象データセットに基づいて生成された複数の決定木を用いた予測装置として機能させるための予測プログラムであって、所定の入力データを取得する入力データ取得ステップと、前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成ステップと、各前記決定木の末端ノードと重みを介して結合する出力ノードを含む出力ネットワークに基づいて、予測出力を生成する出力予測ステップと、を備えている。
本発明は、学習済モデルとしても観念できる。すなわち、本発明に係る学習済モデルは、所定の学習対象データセットに基づいて生成された複数の決定木と、各決定木の末端と重みを介して結合された出力ノードを含む出力ネットワークと、からなる学習済モデルであって、所定の入力データが入力された場合に、前記入力データに基づいて、各前記決定木の出力である決定木出力が生成され、各前記決定木出力と各前記重みとに基づいて前記出力ノードにおいて予測出力が生成される。
本発明によれば、ランダム・フォレストを利用しつつも、さらに精度の良い出力予測を行うことができる機械学習技術を提供することができる。
図1は、ハードウェアの構成図である。 図2は、ゼネラルフローチャートである。 図3は、アルゴリズムの概念図(第1の実施形態)である。 図4は、決定木生成処理のフロー図である。 図5は、学習処理のフロー図(その1)である。 図6は、重みの更新による出力値の変化の概念図である。 図7は、予測処理のフロー図(その1)である。 図8は、学習処理のフロー図(その2)である。 図9は、予測処理のフロー図(その2)である。 図10は、追加学習処理のフロー図である。 図11は、前処理に関する概念図である。 図12は、決定木に関する説明図である。 図13は、情報利得の計算に関する説明図である。 図14は、ランダム・フォレストを用いた予測処理に関する概念図である。
以下、本発明の実施の一形態を、添付の図面を参照しつつ、詳細に説明する。
<1.第1の実施形態>
<1.1 ハードウェア構成>
図1を参照しつつ、本実施形態に係る機械学習処理、予測処理等が実行されるハードウェアの構成について説明する。同図から明らかな通り、本実施形態に係る情報処理装置10は、制御部1、記憶部2、表示部3、操作信号入力部4、通信部5及びI/O部6とがバスを介して接続されて構成されている。情報処理装置10は、例えば、PC、スマートフォンやタブレット端末である。
制御部1は、CPU等の制御装置であり、情報処理装置10の全体制御や読み出された学習処理用又は予測処理用のコンピュータプログラムの実行処理等を行う。記憶部2は、ROM、RAM等の揮発性又は不揮発性の記憶装置であり、学習対象データ、学習対象データと対応する教師データ、機械学習プログラム、予測処理プログラム等を格納している。表示部3はディスプレイ等と接続されて表示制御を行い、ディスプレイ等を介してユーザにGUIを提供する。操作信号入力部4は、キーボード、タッチパネル、ボタン等の入力部を介して入力された信号を処理するものである。通信部5は、インターネットやLAN等を通じて外部機器と通信を行う通信チップ等である。I/O部6は、外部装置との情報の入出力処理を行う装置である。
なお、ハードウェア構成は本実施形態に係る構成に限定されるものではなく、構成や機能を分散又は統合してもよい。例えば、複数台の情報処理装置1により分散的に処理を行っても良いし、大容量記憶装置をさらに外部に設けて情報処理装置1と接続する等してもよいことは勿論である。
<1.2 動作>
次に、図2〜図7を参照しつつ、情報処理装置1の動作について説明する。
<1.2.1 全体像>
図2は、情報処理装置1の動作に関するゼネラルフローチャートである。同図から明らかな通り、処理が開始すると、記憶部2から学習対象となるデータセットが制御部1へと読み出される(S1)。この学習対象となるデータセットは、どのようなデータであってもよいが、例えば、多関節ロボットの各関節におけるセンサデータ等である。学習データセットの読出処理が完了すると、次に、後述するように、決定木を複数生成する処理(S3)が行われる。複数の決定木が生成されると、後述するように、決定木の後段に結合した出力ネットワークにおいて機械学習処理が行われる(S5)。機械学習処理完了後、後述するように、本実施形態に係る情報処理装置1は予測処理を行うことができる予測器としても機能する(S9)。なお、本実施形態においては、決定木生成処理(S3)を機械学習処理(S5)と分けて説明しているものの、それらを一体として広義に機械学習処理として観念してもよい。
ここで、図3を用いて、本実施形態に係る機械学習処理及び予測処理が行われるアルゴリズム又はネットワーク構成の概念について説明する。同図最上段の学習対象データセットからは、後述の要領で、T個のサブデータセットが複数生成される(同図において上から2段目)。その後、各サブデータセットでは、後述の要領で、所定の条件を満たす決定木が生成される(同図において上から3段目の木構造)。各決定木の末端の葉ノードはそれぞれ出力ノードと重みwを介して結合している。学習処理段階(S5)では、所定の入力データと教師データとに基づいて、この重みwの値が更新される。一方、予測処理段階(S9)では、決定木と重みwの値を用いて、所定の出力予測処理が行われることとなる。
<1.2.2 決定木生成処理>
図4は、決定木生成処理(S3)の詳細フロー図である。同図から明らかな通り、処理が開始すると、前処理として、学習対象データセットから複数のサブデータセットを生成する処理が行われる(S31)。具体的には、学習対象データセットから重複を許して所定の複数個のデータセットをランダムに抽出することにより各サブデータセットは形成される。
その後、所定の変数の初期化処理が行われる(S32)。ここでは、繰り返し処理に用いられる変数tを1として初期化する。その後、t=1番目のサブデータセットにおいて情報利得の高い一の決定木を生成する処理が行われる(S33)。より詳細には、先ず根ノードについて、ランダムに選択された複数の分岐条件を適用する。ここで、分岐条件とは、例えば、分割軸や分割境界値などである。続いて、ランダムに選択された複数の分岐条件の各場合についてそれぞれ情報利得の算定処理を行う。この情報利得の計算は、図13で例示したものと同一である。最後に、情報利得が最大となる分岐条件を特定することにより、情報利得の高い分岐条件が決定される。この一連の処理を葉ノードへと至るまで順に行うことで情報利得の高い一の決定木が生成される。
この情報利得の高い決定木の生成処理(S33)を、tを1ずつ増加させつつ繰り返し行う(S36NO、S37)。すべてのサブデータセット(t=T)につき情報利得が最大となる決定木を生成したとき(S36YES)、繰り返し処理は終了する。その後、サブデータセットと各サブデータセットに対応する決定木とは記憶部2へと記憶されて(S38)、処理は終了する。
<1.2.3 機械学習処理>
図5は、学習処理(S5)の詳細フロー図である。この図にあっては、決定木が分類結果である分類ラベルを出力する場合の学習処理について示されている。同図から明らかな通り、処理が開始すると、決定木の末端ノード(葉ノード)と出力ノードとを結ぶ重みwの値の初期化が行われる(S51)。この初期化に用いられる値は、例えば、すべての重みwについて同一の値であってもよい。その後、所定の変数の初期化処理が行われる(S52)。ここでは、繰り返し処理に用いられる変数nを1として初期化する。
その後、学習対象データセットの中から、一のデータセットをn番目の入力データとして制御部1へと読み出す処理が行われる(S53)。次に、n番目の入力データをサブデータセット毎に生成された決定木へと入力して順方向演算を行い、対応する末端ノード、すなわち入力データが属すべき分類ラベルを出力する(S54)。
その後、分類ラベルの正誤に関する割合である誤り率εの演算が行われる(S56)。具体的には、入力データに対応する教師データである教師ラベルが読み出され、当該教師ラベルと各決定木の出力ラベルとを比較し正誤を判定する。誤った分類を出力したと判定された場合には、以下の数式を用いて、エラーカウントの値(ErrorCount)を1だけ増加させる処理が行われる。なお、下記式においては、右辺の値を左辺の値へと代入することを意味している。
Figure 0006708847
以上の正誤判定とエラーカウント値に関する演算処理をすべての決定木について行った後、エラーカウント値を決定木の個数(T)で除することにより誤り率εは以下の通り計算される。
Figure 0006708847
エラーカウントを算出した後、重みの更新処理が行われる(S57)。具体的には、各重みにつき、以下の式を適用することにより重みを更新する。
Figure 0006708847
なお、このとき、signの値は、決定木の出力である出力ラベルと教師ラベルとが一致する時に1、一致しない場合に−1となる値である。すなわち、以下の通りである。
Figure 0006708847
以上の処理(S53〜S57)を、変数nの値を1ずつ増加させつつ、すべて(N個)の入力データについて行う(S58NO、S59)。すべての入力データについて処理が完了すると(S58YES)、重みwを記憶部2へと記憶して(S60)、処理は終了する。
図6は、重みの更新による出力値の変化の概念図である。同図から明らかな通り、重みの更新により、出力(Output_Next)がより教師データ(Teach)へと近づくように関数近似がなされていることが分かる。
このような構成によれば、決定木から分類ラベルが生成される場合であっても、出力ネットワークの機械学習処理を適切に行うことができる。
なお、以上の機械学習処理は一例であり、重みの更新に係る具体的な演算式又は演算方法は、公知の他の種々の方法を採用可能である。また、更新対象は重みに限定されず、他のパラメータ、例えば、所定のバイアス値を学習させる等してもよい。
<1.2.4 予測処理>
次に、図7を参照しつつ、情報処理装置10により学習後に行われる予測処理について説明する。図6は予測処理のフロー図である。
同図から明らかな通り、処理が開始すると、サブデータセット毎に用意された複数の決定木の読出処理が行われる(S91)。その後、重みwの読出処理が行われる(S92)。次に、予測を行いたい入力データを読み込み(S93)、所定の順方向演算を行い各決定木において出力ラベルを特定する(S94)。続いて、同一のラベルを出力したノードに対応する重みwの総和を各ラベルについて算出して比較する。比較の結果、重みwの総和が最大となるラベルを最終出力ラベルとして出力し(S95)、予測処理は終了する。
このような構成によれば、決定木から分類ラベルが生成される場合に、出力ネットワークを用いて適切な予測処理を行うことができる。
なお、以上の予測処理は一例であり、最終出力ラベルの決定方法等については、公知の他の種々の方法を採用可能である。
以上の構成によれば、複数の決定木の出力段に設けられた出力ネットワークのパラメータを教師データを用いて漸次的に更新していくことができるので、決定木の出力段のノードのうちより精度の良いノードに重きをおいた出力予測を行うことができる。従って、ランダム・フォレストを利用しつつも、さらに精度の良い出力予測を行うことができる機械学習技術を提供することができる。
<2.第2の実施形態>
第1の実施形態においては、決定木からは分類ラベルが出力される構成について説明した。本実施形態においては、決定木から数値出力が生成される場合について説明する。
<2.1 機械学習処理>
図8は、決定木から数値出力を行う場合の情報処理装置10における学習動作について説明したものである。なお、情報処理装置10のハードウェア構成(図1を参照)やサブデータセットの生成処理、決定木の生成処理(S3)等については、第1の実施形態と略同一であるのでここでは説明を省略する。
同図から明らかな通り、処理が開始すると、決定木の各末端ノード(葉ノード)と出力ノードとを結ぶ重みwの値の初期化が行われる(S71)。この初期化に用いられる値は、例えば、すべての重みwについて同一の値であってもよい。その後、所定の変数の初期化処理が行われる(S72)。ここでは、繰り返し処理に用いられる変数nを1として初期化する。
その後、学習対象データセットの中から、一のデータセットをi番目の入力データとして制御部1へと読み出す処理が行われる(S73)。次に、n番目の入力データをサブデータセット毎に生成された各決定木へと入力して順方向演算を行い、それぞれにおいて対応する末端ノードを特定し、当該末端ノードに対応する数値出力を演算する(S74)。
その後、下記の通り、各決定木出力(出力段の各ノード値)と各重みwとをそれぞれ掛けあわせて足し合わせた値を出力ノードからの最終出力(Output)として演算する(S75)。
Figure 0006708847
続いて、最終出力に基づいて誤差Errorの演算を行う(S76)。具体的には、誤差Errorは、入力データに対応する教師データと最終出力値(Output)との差分の2乗を2で除した値の総和として以下の通り定義される。
Figure 0006708847
次に、この誤差Errorを以下の通り決定木出力により偏微分して勾配を得る(S77)。
Figure 0006708847
この勾配を用いて、下記の通り重みwを更新する(S78)。なお、ηは更新量の調整用の係数であり、例えば、0から1程度の範囲の適当な数値である。この更新処理によれば、最終出力値が教師データの値と離れる程、重みを強く更新することとなる。
Figure 0006708847
以上の処理(S73〜S78)をすべて(N個)の入力データについて行う(S79NO)。すべての入力データについて処理が完了すると(S79YES)、重みwを記憶部2へと記憶して(S81)、処理は終了する。
このような構成によれば、決定木から数値出力が生成される場合であっても、適切に機械学習処理を行うことができる。
なお、以上の機械学習処理は一例であり、重みの更新に係る具体的な演算式又は演算方法は、公知の他の種々の方法を採用可能である。また、更新対象は重みに限定されず、他のパラメータ、例えば、所定のバイアス値を学習させる等してもよい。
<2.2 予測処理>
続いて、図9を参照しつつ、情報処理装置10による予測処理について説明する。図9は、予測処理に関する詳細フロー図である。
同図から明らかな通り、処理が開始すると、サブデータセット毎に用意された複数の決定木の読出処理が行われる(S101)。その後、重みwの読出処理が行われる(S102)。次に、予測を行いたい入力データを読み込む(S103)。その後、順方向演算を行って最終出力(Output)を演算する(S104)。具体的には、以下の通り、各決定木の出力値(出力段の各ノード値)と各重みwの積の総和を演算する。その後、処理は終了する。
Figure 0006708847
このような構成によれば、決定木から回帰的な数値出力が生成される場合であっても、回帰的に予測出力を生成することができる。
なお、以上の予測処理は一例であり、出力値の決定方法等については、公知の他の種々の方法を採用可能である。
<3.第3の実施形態>
上述の実施形態における機械学習処理においては新規の学習処理について説明した。本実施形態では、追加学習処理について説明する。
図10は、追加学習処理に関するフロー図である。同図から明らかな通り、処理が開始すると、各サブデータセットと対応して作成された複数の決定木を読み出す処理が行われる(S111)。また、学習済の重みwの読み出し処理が行われる(S112)。その後、学習対象となる新たな入力データが読み込まれることとなる(S113)。その後、上述の他の実施形態にて説明した機械学習処理と重みwの初期化動作部分や学習対象データを除いて略同一の機械学習処理が行われる(S114)。機械学習後、重みwを記憶部2へと記憶して(S115)、処理は終了する。
このような構成によれば、同一の決定木を用いつつも、出力ネットワークのみを学習により更新することができ、追加学習にも好適な機械学習技術を提供することができる。
<4.変形例>
上述の実施形態においては一旦決定木が生成された後は、当該決定木を固定して他の学習処理時、予測処理時にも適用する構成としたが、このような構成に限定されない。従って、例えば、追加的に決定木の増減、置換、交換若しくは削除等を行ってもよい。
置換、交換若しくは削除する対象となる決定木の決定は、当該決定木の有効度合に基づいて行ってもよい。決定木の有効度合は、例えば、各決定木の出力段ノードの重みの総和値、平均値等を基準として決定してもよい。また、この有効度合の大きさに基づいて順位づけを行い、その順序の下位の決定木を優先的に置換、交換若しくは削除対象としてもよい。このような構成によれば、基礎となる決定木を交換等することでさらに予測精度等を向上させることができる。
また、上述の実施形態においては、決定木の後段の出力ネットワークとして、重みとノードとから成る、所謂、人工ニューラルネットワーク又はそれ類似の構成を採用したが、本発明はこのような構成に限定されない。従って、決定木後段の出力ネットワークとして、例えば、サポート・ベクター・マシン等の他の機械学習技術を適用可能なネットワーク構成を採用してもよい。
さらに、上述の実施形態においては、出力ネットワークとして、複数の決定木の出力段と重みを介して結合した単一の出力ノードを採用したが、本発明はこのような構成に限定されない。従って、例えば、多層型や全結合型のネットワーク構成、再帰経路を備える構成を採用してもよい。
本発明の適用範囲は広く、ビッグデータを含む様々なデータの機械学習・予測にも適用可能である。例として、工場内のロボットの動作、株価、金融与信又は保険サービス関連情報等の金融データ、医療レセプト等の医療データ、商品の需給や購買データ、商品配送数、ダイレクトメール発送関連情報、来客数、又は問い合わせ数等の経済データ、バズワード、ソーシャルメディア(ソーシャルネットワーキングサービス)関連情報、IoTデバイス情報又はインターネットセキュリティ関連情報等のインターネット関連データ、気象関連データ、不動産関連データ、脈や血圧等のヘルスケア又は生体関連データ、ゲーム関連データ、動画・画像・音声等のデジタルデータ、若しくは、交通データや電力データ等の社会インフラデータの学習・予測に適用可能である。
本発明は、機械学習技術を利用する種々の産業等にて利用可能である。
1 制御部
2 記憶部
3 表示部
4 操作信号入力部
5 通信部
6 I/O部
10 情報処理装置

Claims (16)

  1. 所定の学習対象データセットに基づいて生成された複数の決定木を用いた機械学習装置であって、
    所定の入力データを取得する入力データ取得部と、
    前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成部と、
    少なくとも前記決定木出力と前記入力データに対応する所定の教師データとに基づいて、各前記決定木の出力段と結合して予測出力を生成する出力ネットワークのパラメータを更新するパラメータ更新部と、を備える機械学習装置。
  2. 前記出力ネットワークは、
    各前記決定木の末端ノードと重みを介して結合した出力ノードを含む、請求項1に記載の機械学習装置。
  3. 前記入力データは、前記学習対象データセットから選択されたデータである、請求項1に記載の機械学習装置。
  4. 前記決定木出力と前記重みとに基づいて、前記出力ノードにおいて前記予測出力を生成する予測出力生成部をさらに含み、
    前記パラメータ更新部は、さらに、
    前記教師データと前記予測出力との差分に基づいて前記重みを更新する重み更新部を備える、請求項2に記載の機械学習装置。
  5. 前記パラメータ更新部は、さらに、
    前記決定木出力たる予測ラベルと前記教師データたる正解ラベルとが一致するか否かを判定するラベル判定部と、
    前記ラベル判定部による判定結果に基づいて、前記重みを更新する重み更新部を備える、請求項2に記載の機械学習装置。
  6. 前記複数の決定木は、前記学習対象データセットからランダムにデータを選択することにより生成された複数のサブデータセット毎に生成されたものである、請求項1に記載の機械学習装置。
  7. 前記複数の決定木は、各前記サブデータセットに基づいて情報利得が最大となる分岐条件を選択することにより生成された決定木である、請求項6に記載の機械学習装置。
  8. 所定の学習対象データセットに基づいて生成された複数の決定木を用いた予測装置であって、
    所定の入力データを取得する入力データ取得部と、
    前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成部と、
    各前記決定木の末端ノードと重みを介して結合する出力ノードを含む出力ネットワークに基づいて、予測出力を生成する出力予測部と、を備える予測装置。
  9. 各前記決定木出力は数値出力であり、
    前記予測出力は、前記数値出力と前記重みとの積を決定木の数分足し合わせた総和に基づいて生成される、請求項8に記載の予測装置。
  10. 各前記決定木出力は所定のラベルであり、
    前記予測出力たる出力ラベルは、対応する重みの総和が最大となるラベルである、請求項8に記載の予測装置。
  11. 前記決定木の有効度を前記出力ネットワークのパラメータに基づいて生成する有効度生成部をさらに備える、請求項1に記載の予測装置。
  12. 前記有効度に基づいて、置換、交換又は削除の対象となる前記決定木を決定する決定木選定部をさらに備える、請求項11に記載の予測装置。
  13. 所定の学習対象データセットに基づいて生成された複数の決定木を用いた機械学習方法であって、
    所定の入力データを取得する入力データ取得ステップと、
    前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成ステップと、
    少なくとも前記決定木出力と前記入力データに対応する所定の教師データとに基づいて、各前記決定木の出力段と結合して予測出力を生成する出力ネットワークのパラメータを更新するパラメータ更新ステップと、を備える機械学習方法。
  14. コンピュータを、所定の学習対象データセットに基づいて生成された複数の決定木を用いた機械学習装置として機能させるための機械学習プログラムであって、
    所定の入力データを取得する入力データ取得ステップと、
    前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成ステップと、
    少なくとも前記決定木出力と前記入力データに対応する所定の教師データとに基づいて、各前記決定木の出力段と結合して予測出力を生成する出力ネットワークのパラメータを更新するパラメータ更新ステップと、を備える機械学習プログラム。
  15. 所定の学習対象データセットに基づいて生成された複数の決定木を用いた予測方法であって、
    所定の入力データを取得する入力データ取得ステップと、
    前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成ステップと、
    各前記決定木の末端ノードと重みを介して結合する出力ノードを含む出力ネットワークに基づいて、予測出力を生成する出力予測ステップと、を備える予測方法。
  16. コンピュータを、所定の学習対象データセットに基づいて生成された複数の決定木を用いた予測装置として機能させるための予測プログラムであって、
    所定の入力データを取得する入力データ取得ステップと、
    前記入力データに基づいて、各前記決定木の出力である決定木出力を生成する決定木出力生成ステップと、
    各前記決定木の末端ノードと重みを介して結合する出力ノードを含む出力ネットワークに基づいて、予測出力を生成する出力予測ステップと、を備える予測プログラム。
JP2020507712A 2018-07-04 2019-06-21 機械学習装置及び方法 Active JP6708847B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018127871 2018-07-04
JP2018127871 2018-07-04
PCT/JP2019/024767 WO2020008919A1 (ja) 2018-07-04 2019-06-21 機械学習装置及び方法

Publications (2)

Publication Number Publication Date
JP6708847B1 true JP6708847B1 (ja) 2020-06-10
JPWO2020008919A1 JPWO2020008919A1 (ja) 2020-07-09

Family

ID=69060219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020507712A Active JP6708847B1 (ja) 2018-07-04 2019-06-21 機械学習装置及び方法

Country Status (4)

Country Link
US (1) US20210125101A1 (ja)
EP (1) EP3819827A4 (ja)
JP (1) JP6708847B1 (ja)
WO (1) WO2020008919A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10796228B2 (en) * 2017-09-29 2020-10-06 Oracle International Corporation Machine-learning-based processing of de-obfuscated data for data enrichment
US11321614B2 (en) 2017-09-29 2022-05-03 Oracle International Corporation Directed trajectories through communication decision tree using iterative artificial intelligence
US11532132B2 (en) * 2019-03-08 2022-12-20 Mubayiwa Cornelious MUSARA Adaptive interactive medical training program with virtual patients
US11893499B2 (en) 2019-03-12 2024-02-06 International Business Machines Corporation Deep forest model development and training
JP7395960B2 (ja) * 2019-10-30 2023-12-12 富士通株式会社 予測モデル説明方法、予測モデル説明プログラム、予測モデル説明装置
JP7347198B2 (ja) * 2019-12-20 2023-09-20 富士通株式会社 推論方法、推論プログラムおよび情報処理装置
EP4105844A4 (en) * 2020-02-10 2024-04-03 Aising Ltd INFORMATION PROCESSING DEVICE, METHOD, PROGRAM AND SYSTEM
WO2021161603A1 (ja) * 2020-02-10 2021-08-19 株式会社エイシング 情報処理装置、方法、プログラム及びシステム
CN111914880A (zh) * 2020-06-18 2020-11-10 北京百度网讯科技有限公司 决策树的生成方法、装置、电子设备及存储介质
JP7093527B2 (ja) * 2020-11-20 2022-06-30 株式会社エイシング 情報処理装置、方法、プログラム及びシステム
CN113052375A (zh) * 2021-03-19 2021-06-29 上海森宇文化传媒股份有限公司 一种预测剧集播放量的方法和装置
EP4318334A1 (en) * 2021-03-31 2024-02-07 Aising Ltd. Information processing device, method, and program
WO2023175977A1 (ja) * 2022-03-18 2023-09-21 日本電気株式会社 学習装置
JP7173510B1 (ja) * 2022-04-27 2022-11-16 株式会社エイシング 異常検知装置、システム、方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110188715A1 (en) * 2010-02-01 2011-08-04 Microsoft Corporation Automatic Identification of Image Features
US9373087B2 (en) * 2012-10-25 2016-06-21 Microsoft Technology Licensing, Llc Decision tree training in machine learning
US9501693B2 (en) * 2013-10-09 2016-11-22 Honda Motor Co., Ltd. Real-time multiclass driver action recognition using random forests
JP6765911B2 (ja) * 2016-09-15 2020-10-07 三菱重工業株式会社 分類装置、分類方法およびプログラム

Also Published As

Publication number Publication date
JPWO2020008919A1 (ja) 2020-07-09
EP3819827A1 (en) 2021-05-12
US20210125101A1 (en) 2021-04-29
WO2020008919A1 (ja) 2020-01-09
EP3819827A4 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
JP6708847B1 (ja) 機械学習装置及び方法
US11610131B2 (en) Ensembling of neural network models
Ciaburro et al. Neural Networks with R: Smart models using CNN, RNN, deep learning, and artificial intelligence principles
US11100403B2 (en) Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
US11816183B2 (en) Methods and systems for mining minority-class data samples for training a neural network
CN109800885A (zh) 针对黑盒机器学习模型的规则确定
CN107169573A (zh) 利用复合机器学习模型来执行预测的方法及系统
CN111737586B (zh) 信息推荐方法、装置、设备及计算机可读存储介质
CN110709862B (zh) 计算方法决定系统、计算方法决定方法、记录介质
KR20220059120A (ko) 최적화된 하이퍼파라미터를 갖는 기계 학습 모델링 자동화 방법 및 이를 이용한 기계 학습 모델링 자동화 시스템
US20230401637A1 (en) Deep learning approach for assessing credit risk
CN110110372B (zh) 一种用户时序行为自动切分预测方法
WO2020171904A1 (en) Human body part segmentation with real and synthetic images
CN110334720A (zh) 业务数据的特征提取方法、装置、服务器和存储介质
CN115689443A (zh) 基于波动性聚类和区块链的供应链管理方法及系统
CN114742564A (zh) 一种融合复杂关系的虚假评论者群体检测方法
JP2021096775A (ja) 学習方法、学習プログラムおよび情報処理装置
JP2019067299A (ja) ラベル推定装置及びラベル推定プログラム
JP2021103344A (ja) 学習支援装置、学習装置、学習支援方法及び学習支援プログラム
KR102406375B1 (ko) 원천 기술의 평가 방법을 포함하는 전자 장치
CN116993548A (zh) 基于增量学习的LightGBM-SVM的教育培训机构信用评估方法及系统
US20210174175A1 (en) Building of Custom Convolution Filter for a Neural Network Using an Automated Evolutionary Process
Laskar et al. Artificial Neural Networks and Gene Expression Programing based age estimation using facial features
CN111459990B (zh) 对象处理方法、系统及计算机可读存储介质和计算机设备
Yousif et al. Shape clustering using k-medoids in architectural form finding

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200207

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200402

R150 Certificate of patent or registration of utility model

Ref document number: 6708847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250