JP2022524006A - ディープ・フォレスト・モデルの開発および訓練 - Google Patents

ディープ・フォレスト・モデルの開発および訓練 Download PDF

Info

Publication number
JP2022524006A
JP2022524006A JP2021552716A JP2021552716A JP2022524006A JP 2022524006 A JP2022524006 A JP 2022524006A JP 2021552716 A JP2021552716 A JP 2021552716A JP 2021552716 A JP2021552716 A JP 2021552716A JP 2022524006 A JP2022524006 A JP 2022524006A
Authority
JP
Japan
Prior art keywords
computer
oob
forest
computer processors
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021552716A
Other languages
English (en)
Other versions
JP7398474B2 (ja
JPWO2020183316A5 (ja
Inventor
シュウ、ジン
ワン、ルイ
ミン マー、シャオ
フイ ヤン、ジ
イン ツァン、シゥ
シュウ、ジン、ジェームス
エア ハン、シー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2022524006A publication Critical patent/JP2022524006A/ja
Publication of JPWO2020183316A5 publication Critical patent/JPWO2020183316A5/ja
Application granted granted Critical
Publication of JP7398474B2 publication Critical patent/JP7398474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

データを使用して決定木のランダム・フォレストを育成し、フォレストについてのアウト・オブ・バッグ(OOB)予測を決定し、OOB予測をデータ・セットに付加し、付加されたOOB予測を含むデータ・セットを使用して追加のフォレストを育成し、追加のフォレストの出力を結合し、その後モデルを利用して訓練データ・セット以外のデータを分類することによる、データ分析用のディープ・フォレスト・モデルの自動化された開発および訓練。

Description

本開示は一般に、データ分析用のモデルの開発および訓練をするためのシステムおよび方法に関する。本開示は詳細には、データを分析するためのモデルの自動的な開発および訓練をするためにディープ・ランダム・フォレストを使用するシステムに関する。
ディープ・ラーニングは周知のものであるが、その理由の少なくとも一部は、深層ニューラル・ネットワークの適用が特に画像および音声情報を含むタスクにおいて成功していることにある。深層ニューラル・ネットワークには欠点もある。深層ニューラル・ネットワークは訓練用データの必要量が大きくなる場合があり、このため深層ニューラル・ネットワークは小スケールのデータには全く適していない。深層ニューラル・ネットワークは、非常に多くのハイパー・パラメータを含む非常に複雑なモデルである。所望の学習精度に達するようにこれらのパラメータを慎重に調整する必要があり、深層ニューラル・ネットワークの訓練は科学またはエンジニアリングよりもむしろアートのようになっている。
Zhouらは、新しいディープ・ラーニングの方法であるgcForest(multi-Grained Cascade Forest)[Z.-H. ZhouおよびF. Ji、Deep forest: towards an alternative to deep neural networks、arXiv:1702.08835v2、2017]を提案した。この方法は非常に重要なディープ・ラーニングの発想、すなわち、カスケードの各層が、先行する層によって生成された特徴情報を受け取り、その結果を次の層へと出力する、ランダム・フォレストのカスケード構造による表現学習の実現を試みるものである。gcForestは深層ニューラル・ネットワークに匹敵するが上述した欠点は緩和されている性能を達成できる。
ランダム・フォレストは2001年にBreimanによって提唱された[L. Breiman、Random forests、Machine Learning、45(1):5~32、2001]。これは決定木のアンサンブルである。アンサンブルにおいてこれらの決定木を育成(grow)するとき、特別な処置が適用される。第1に、各木はブートストラップ・サンプルに対して育成(成長させる)される。ブートストラップ・サンプルは訓練データから置換を伴うサンプリングによって取得され、サンプル・サイズは訓練データのサイズと等しい。第2に、各葉ノード(リーフノード)が同じクラスのインスタンスのみを含むまでサンプル上で十分に成長する必要があり、刈込は必要ない。更に重要なことには、木の任意のノードを分割するとき、予測器(予測変数)の一部をランダムに選択し、そこから分割に最良のジニ(gini)値を有するものを選択することである。
データ・インスタンスをスコアリングするとき、ランダム・フォレストは、個々の木からの予測を結合するために多数決を用いる。例えば、3個のクラスc1、c2、およびc3を有する標的変数ならびにフォレスト中の1000個の決定木を考慮されたい。3個のクラスに対する投票数がそれぞれ200、300、および500であると仮定する。その場合、ランダム・フォレストはスコアリング中のインスタンスについて、クラス確率のベクトル、すなわち[0.2,0.3,0.5]を報告することになる。c3が最大の予測確率を有するため、そのラベル予測も報告されることになる。
インスタンスが訓練インスタンスである場合、ランダム・フォレストはアウト・オブ・バッグ(Out-of-bag)(OOB)予測を生成するオプションを提供する。そのような予測は、ブートストラップ・サンプルにそのインスタンスを含んでいない木の投票を用いて計数される結果である。上記の例を続けると、この訓練用のインスタンスを使用していない400個の木が存在する場合、c1、c2、およびc3の投票数はそれぞれ100、100、および200であり、インスタンスについてのOOB予測(確率ベクトル)は[0.25,0.25,0.50]となる。ラベル予測はc3となるが、この理由はこれが最大の確率に対応しているからである。インスタンス・ラベルを訓練データに対するOOBラベル予測と比較することによって、フォレストについてのOOB精度が算出される。
gcForestの方法は、新しい特徴情報を生成するために交差検証を使用する。
交差検証は有効であるが課題ももたらす。第1に、gcForestの方法は、各層に複数のランダム・フォレスト学習器Nを含み、学習器ごとにk分割交差検証を必要とする。したがって、層ごとに合計でN*k個の学習器が必要である。データ・セットが大きい場合、データ・セットのサイズと共に学習器の数が増えるので性能問題が生じる場合があり、また学習器の構築は1個だけでも高価である。非常に強力な演算能力が要求されることになる。第2に、交差検証と訓練データ・セットから導出される検証データ・セットの必要性とに起因して、訓練データが十分に使用されない場合がある。gcForestの方法はデータを訓練サンプルと検証サンプルとに分割し、検証サンプルに対する精度が改善できない場合は訓練を停止する。検証サンプルを使用することで、小さいデータの問題は更に悪化する。
ハイパー・パラメータの数が減らされ調整要件が緩和されたディープ・ランダム・フォレストを利用するシステム、方法およびコンピュータ・プログラム製品によって、データが分析され得る。一態様では、ランダム・フォレストの層から機械学習モデルが自動的に構築される。ランダム・フォレストについての決定木がデータ・セットから育成される。ランダム・フォレストを使用して、アウト・オブ・バッグ(OOB)予測およびクラス・ラベル予測が決定される。データ・セットの各インスタンスについてのOOB予測は、データ・セットに付加される。モデルはフォレストのより多くの層を追加することによって拡張される。新しいフォレストはそれぞれ、前の層によって生成された、付加を受けた形式のデータ・セットから育成される。最後のデータ付加層の後ろに、モデル出力を作り出すための結合器層が追加される。
一態様では、ユーザが提供する単一のハイパー・パラメータが1個のフォレストあたりの木の数である方法を使用することによって、コンピューティング・リソースが低減され得る。この態様では、機械学習モデルは、訓練データ・セットと1個のランダム・フォレストあたりの決定木の指定される数とを受け取ることによって、自動的に構築され得る。次いで訓練データ・セットから指定された数の決定木が育成される。訓練データ・セットの各インスタンスについて、OOB予測およびクラス・ラベルが決定される。OOB予測は各インスタンスの訓練データに付加され、付加を受けたデータ・セットは次いでフォレストの次の層を生成するために使用される。OOBラベル予測を使用して各層のOOB精度が決定される。追加の層によるOOB精度の有意な改善が見られなくなるまで、追加の層が追加される。最後の追加のフォレスト層の出力を統合しモデル出力を提供するための、結合器が追加される。
一態様では、フォレストについての決定木が訓練データ・セットから育成される。1個のフォレストあたりの木の数および木を育成するために使用されるクラス・ベクトル次元数が指定される。複数の層を有するモデルの1つの層あたり1個のフォレストが提供され、この結果分類のためのコンピューティング・リソースの不足が低減される。フォレストについてのアウト・オブ・バッグ(OOB)予測が決定される。OOB予測は、各データ・セット・インスタンスに関する新しい特徴としてデータ・セットに付加される。OOB予測を付加することによって、特徴情報が失われる結果となり得るモデルを使用せずに、各層から後続の層に新しい特徴情報を追加するための手段が提供される。フォレストについてOOB精度が決定される。記載されるステップを繰り返すことおよび前の層の付加を受けたデータ・セットを訓練に使用することによって、単一のフォレストの追加の層が、新しい層のOOB精度が有意に改善されなくなるまで追加される。OOB精度の使用によって、分析における交差検証の必要性が排除され、計算リソースが更に低減される。最後のフォレストの出力が結合され、この完成したモデルを使用して訓練データ・セットの外部からのデータが分析される。
本発明の実施形態に係るシステムの概略図である。 本発明の実施形態に係る動作シークエンスを描いたフローチャートである。 本発明の実施形態に係るデータ・フローを描いた図である。 本発明の実施形態に係るクラウド・コンピューティング環境を描いた図である。 本発明の実施形態に係る抽象化モデル層を描いた図である。
機械学習用途への深層ニューラル・ネットワーク(DNN)構造の適用は、これまで成功を収めている。DNNはいくつかのハイパー・パラメータを含む場合があり、したがって手元の問題およびデータ・セットに合わせた調整が困難な場合がある。DNNはまた小さいデータ・セットに関連する用途に適用するのが困難な場合もあるが、その理由は、モデルを許容可能な精度レベルまで訓練するために、DNNでは大きいデータ・セットが必要になる場合があるからである。DNN構造の動作の複雑さおよび不透明性の結果、システムは、DNN構造を開発または特定する際に、過度の実験を行うことなく所望のまたは必要な精度を達成するために必要な層数および1つの層あたりのノードの観点から最適な構造を決定するのが、困難なものとなり得る。必要とされているのは、小さいデータ・セットであっても適用可能であり、DNNに関連する手間をかけずに容易に特定および調整でき、最適な精度が達成されると自動的にモデル開発を完了できる、機械学習モデル構造である。
開示されるシステム、方法およびコンピュータ製品は、与えられた訓練データ・セットから置き換えて選択されたブートストラップした訓練データ・セットを使用することにより、小さいデータ・セットに適用可能な、機械学習モデルの開発および訓練を提供する。本発明の実施形態は、モデル開発用の単一のハイパー・パラメータ-1個のフォレストあたりのランダム木の数-だけを記述する。本発明の実施形態は、1つの層あたりのランダム・フォレストが単一である単純化された構造を提供し、精度のそれ以上の改善が見込めない場合にはモデル開発を自動的に停止するが、この結果、計算の複雑さが比較的低い正確なモデルが得られる。ある実施形態では、一層あたり2個以上のフォレストを有するモデルが生成され得る。そのようなフォレストは追加のコンピューティング・リソースを必要とし、モデル精度の有意な改善を何ら示さない場合がある。
ある実施形態では、データ分析用のモデルの開発および訓練をするためのコンピュータ実装方法は、機械学習モデルの開発および構築から開始され得る。このモデルは分類または回帰分析のために使用できる。モデル開発は、モデルが意図している機械学習タスクと関連付けられた訓練データ・セットから行われる。訓練データは、ネットワークを介して提供されても、センサからローカルで取得されても、またはコンピュータ可読媒体を介して提供されてもよい。
データは、数値データ、テキスト・データ、オーディオ・データ、または画像データを含んでもよい。データは、位置、音声、音楽、娯楽、医療、金融情報、乗り物データ、物流データ、販売データ、または機械学習分析に割り当てられる他のデータ・タイプと関連し得る。
モデルが必要とする1個のフォレストあたりのランダム決定木の数を指定しなければならない。数はユーザ入力として指定されてもよく、以前のモデル開発の取り組みに基づくデフォルトの量に設定されてもよい。ある実施形態では、数は500個の木として指定されてもよい。ある実施形態では、数は乱数発生器または疑似乱数発生器を使用してランダムに選択されてもよい。1個のフォレストあたりの木の数は、モデルに各層/フォレストが追加される際に一定のままであり得る。ある実施形態では、1個のフォレストあたりの木の数は、層/フォレストごとに異なり得る。
各決定木は、訓練データ・セットから置換で選択された、ブートストラップしたデータ・サンプルから育成される。ブートストラップしたサンプルは訓練データ・セットとサイズが等しい。置換を伴う選択は、訓練データ・セットから木を成長させる方法を提供する一方で、訓練データに対する木の過学習(オーバーフィッティング)のリスクを低減する。例として、訓練データ・セット[1,2,3,4,5,6]に関して、置換を伴って選択されたブートストラップしたサンプルは、[1,2,2,3,5,6]で構成される。
各木は、木の各ノードが同じクラスのインスタンスしか含まず剪定が必要なくなるまで、その対応するブートストラップしたサンプルから十分に育成される。各木が育成されるにつれクラス予測器のランダム選択によって木ノードの分割が定義され、最低のジニ不純度値を有する部分的セットがノードを定義するために使用される。クラス・ベクトルの次元の数はモデルを構築するためのパラメータとして指定されてもよく、またはモデルは、可能なクラス・ベクトル次元値の範囲を考慮して開発されてもよい。ジニ不純度値は、データ・セットからランダムに選ばれるデータ・インスタンスが適正にラベル付けされると考えられる尤度を反映している。ゼロのジニ不純度値は、インスタンスの不適正なラベリングの確率が0%であることを示し、ノードの全てのインスタンスが同じクラスのものであることを示している。
例として、訓練データ・セットは、4個のインスタンス属性d、e、f、およびgと分類ラベルcとを各々備える、1000個のデータ・インスタンスを含む。木を育成する際、システムは、データ・セットを分けるためにインスタンス属性の様々な組合せを使用して根ノードにおいてデータを分割した結果を評価することになる。この評価は、ランダム・データ・インスタンスを不適正にラベリングする尤度が最も低い、すなわちクラス不純度が最低である、属性の組合せを選択する。この例の場合、根ノードは属性dの値に基づいて分けられる。属性dの取り得る各値は根ノードからの枝として定義され、例えば、属性dは4個の異なる値d1、d2、d3、およびd4を有し、したがって根ノードから4本の枝が定義される。次いで評価プロセスは属性dの枝によって定義された各ノードへと進む。ここでもまた、各ノードにおいて枝を定義するために、ランダム・データ・インスタンスを不適正に分類する可能性の最も低いデータ分割を生む属性または属性の組合せが選ばれる。この選択は、データの元の分割によって定義されるノードごとに異なっていてもよい。例えば、d1,e、d2,e、d3,f、およびd4,gという組合せが、次の枝のセットを定義する。2個以上のクラスのラベル付けされたデータを依然として含むが、枝上に最低数を超えるインスタンスも含んで、指定された最高数のノード・レベルに達していないかまたは別の分割によってクラス不純度を改善できない各枝について、このプロセスが継続される。
ある実施形態では、ランダム木のフォレストについてアウト・オブ・バッグ(OOB)予測が計算され得る。OOB予測は、ある特定のインスタンスをブートストラップしたデータ・セットの一部として有さなかった全てのランダム木による、その特定の訓練データ・セットのデータ・インスタンスについての投票の総和から導出される次元を備えるベクトルを構成する。例として、3個のクラスc1、c2、およびc3を有するデータを分析する、500個のランダム決定木を有するフォレストを考慮されたい。この例では、訓練データのインスタンス1は、木のうちの200個についてはブートストラップしたデータ・セットの一部ではなかった。これら200個の木によるインスタンス1の評価は、100個のc1としての分類と、c2およびc3の各々についての50個の分類とをもたらした。インスタンス1についてのフォレストに関するOOBベクトルは[0.5,0.25,0.25]になると考えられ、これら3個の次元は、木によって選択されている分類の確率を表す。OOB予測ベクトルからの最高確率のクラスとして、各インスタンスについてのOOBラベル予測も決定される。この例では、OOBラベル予測はc1になると考えられる。
ある実施形態では、OOB予測クラス・ベクトルは、インスタンスの新しい特徴としてデータ・インスタンスに付加され得る。この例では、データ・セットのインスタンス1は、ベクトル[0.5,0.25,0.25]が、フォレストによって決定された新しい特徴としてデータ・インスタンスに付加されると考えられる。次いで付加を受けたデータ・セットはモデルの次の層に渡されて、その層の単一のフォレストの決定木を育成するのに使用される。
ある実施形態では、フォレスト/層のOOB精度も計算される。OOB精度は、OOBラベル予測とラベル付けされたデータの実際のデータ・ラベルの比較として計算される。この例では、c1とラベル付けされ[0.5,0.25,0.25]のOOB予測を有するインスタンス1は、c1のOOBラベル予測を有し、適正にラベル付けされている。データ・セット全体に対するフォレスト全体のOOB精度は、ラベル予測によって適正に分類されるインスタンスのパーセンテージとして計算される。
ある実施形態では、元の層から出力された付加を受けたデータ・セットを新しい訓練データ・セットとして使用して、第2のフォレスト/層が生成される。第2のフォレストについての所定の数のランダム木の各木は、付加を受けた訓練データ・セットから置換を伴って採択されたブートストラップしたデータ・セットから育成される。新しいフォレストについてOOB予測が計算され、これらが訓練データ・セットに更に付加される。新しいフォレストのOOB精度が決定され、モデルの前のフォレスト/層のOOB精度と比較される。
反復:フォレスト生成、データ付加、OOB予測、およびOOB精度計算が、現在の層のOOB精度が先行する層のOOB精度から有意に変化しなくなるまで継続される。ある実施形態では、0.005%を超えるOOB精度の変化を有意な改善と見なす。
ある実施形態では、各層のフォレストの出力は、使用されるモデルの各層についてデータ・セットの各インスタンスに新しい特徴が追加されるように、データ・セットに付加される。この実施形態では、各データ・インスタンスへの新しい特徴の追加によって、そのインスタンスについての決定された新しい情報を後続の層に関する補助的データ・モデルへと凝縮するのではなく、各インスタンスについての新しい情報が後続の各層に提供される。そのような補助的なモデルは結果的に、モデルのフィデリティ問題に起因して特徴情報の喪失をもたらす場合があるが、その理由はモデルが、特定の新しい特徴情報を各インスタンスに付加するのではなく、データ・インスタンスにわたって特徴情報を平滑化する場合があるためである。
新しいフォレストの追加によってOOB精度が有意に改善されなくなった後で、最後の層の出力を結合するための結合器関数が追加される。結合器として別のランダム・フォレストを使用してもよく、このときOOB予測またはOOB精度は計算されない。ある実施形態では、XGBoostなどの勾配ブースティング関数を最後のフォレストの出力を結合するための関数として使用してもよい。結合器の追加は、モデルに追加された最後のフォレストによってデータ・セットに付加された追加の特徴を活用する。結合器を用いずにモデルを利用すれば、データ・セットに追加されたこの最後のOOB予測器を考慮しない結果が生じ、得られる予測精度はより低くなるであろう。結合器を層/フォレストへと追加した後では、機械学習のコンテキストにおける訓練データ・セットの範囲外からのデータを分析するという意図する目的のために、モデルを使用できる。
例。
ある実施形態では、データ・セットから機械学習モデルが構築される。データ・セットから決定木のランダム・フォレストが育成される。フォレストについてのOOB予測が決定され、データ・セットに付加される。付加を受けたデータ・セットから、追加の決定木のフォレストが育成される。モデルに、追加のフォレストの出力を結合しモデル出力を提供するための結合器が追加される。
ある実施形態では、1個のフォレストあたりの決定木の数の指定と共に、訓練データ・セットが受け取られる。データ・セットから、指定された数の決定木を有する第1のランダム・フォレストが育成される。ランダム・フォレストを使用してOOB予測およびクラス・ラベルが決定される。OOB予測は訓練データ・セットに付加される。フォレストのOOB精度が決定される。付加を受けたデータ・セットから、指定された数の決定木を有する追加のランダム・フォレストが育成される。追加のフォレストについて、OOB予測およびクラス・ラベルが決定される。OOB予測は既に付加を受けたデータ・セットに付加される。追加のフォレストのOOB精度が決定され、元のフォレストOOB精度と比較される。フォレストを育成し、OOB予測、クラス・ラベル、および精度を決定し、予測をデータ・セットに付加し、精度を先行するフォレストの精度と比較するプロセスを、新しいフォレストに起因してOOB精度の有意な(<0.005%)改善が見られなくなるまで継続する。最後のフォレストに、モデルの出力を提供するための結合構造が追加される。
ある実施形態では、1個のフォレストあたりの決定木の数の指定およびその決定木に関するクラス・ベクトルの指定と共に、訓練データ・セットが受け取られる。次いで複数の連続層を有するモデルが構築される。各層は、モデルを構築する際のコンピューティング・リソース要件を緩和するように、単一のランダム・フォレストを含む。データ・セットから、指定された数の決定木を有するランダム・フォレストが育成される。ランダム・フォレストを使用してOOB予測およびクラス・ラベルが決定される。OOB予測は訓練データ・セットに付加される。フォレストのOOB精度が決定される。付加を受けたデータ・セットから、指定された数の決定木を有する追加のフォレストが育成される。追加のフォレストについて、OOB予測およびクラス・ラベルが決定される。OOB予測は既に付加を受けたデータ・セットに付加される。追加のフォレストのOOB精度が決定され、元のフォレストのOOB精度と比較される。フォレストを育成し、OOB予測、クラス・ラベル、および精度を決定し、予測をデータ・セットに付加し、精度を先行するフォレストの精度と比較するプロセスを、新しいフォレストに起因してOOB精度の有意な(<0.005%)改善が見られなくなるまで継続する。最後のフォレストに、モデルの出力を提供するための結合構造が追加される。
実験結果。
本発明の実施形態を構築し、標準的なデータ・セットを使用して以下の標準と比較した。ランダム・フォレスト・モデル、XGBoostモデル、およびgcForestモデル。この実験では、1個のフォレストあたりの木の数が500個と指定され、ランダムに選択される属性の数は√d(dはデータ・インスタンス属性の数)であり、各木は純粋な葉ノードまで育成される。ランダム・フォレストおよびXGBoostの結合器の各々を用いて本発明の実施形態を構築した。XGBoostでは、デフォルト設定を使用した。gcForestでは、各層は4個の完全ランダム・フォレストと4個の通常のランダム・フォレストとから成るものであった。3分割のクラス・ベクトルを使用してクラス・ベクトルを生成した。
各データ・セットを訓練サンプル(50%)および試験サンプル(50%)へと分割した。訓練サンプルを使用してモデルを訓練し、試験サンプルを使用して訓練されたモデルを評価した。各モデル・タイプの構築、訓練、および評価を、各データ・セットについて5回行った。結果を下の表1に示す。本発明の実施形態は、ランダム・フォレスト結合器を用いる逐次ディープ・フォレスト(IDF)、およびXGBoost結合器を用いるIDFとラベル付けされている。表に示されているように、これらの実施形態の精度は、評価した標準的なデータ・セットのほとんどについて、既知の機械学習モデルIの精度を上回る。
Figure 2022524006000002
図1は、開示される発明の実施と関連付けられた例示的なネットワーク・リソースの概略図を提供する。本発明は、命令ストリームを処理する開示されているどの要素のプロセッサにおいても実施され得る。図に示すように、ネットワーク化したクライアント・デバイス110はサーバ・サブシステム102にワイヤレスで接続する。クライアント・デバイス104はネットワーク114を介してサーバ・サブシステム102にワイヤレスで接続する。クライアント・デバイス104および110は、機械学習プログラム(図示せず)を、プログラムを実行するための十分なコンピューティング・リソース(プロセッサ、メモリ、ネットワーク通信ハードウェア)と共に含む。図1に示すように、サーバ・サブシステム102はサーバ・コンピュータ150を含む。図1には、本発明の実施形態に係る、ネットワーク化したコンピュータ・システム1000内のサーバ・コンピュータ150の構成要素のブロック図が描かれている。図1は一実装形態を例示しているに過ぎず、様々な実施形態が実施され得る環境に関してどのような限定も示唆していないことが諒解されるべきである。描かれている環境に対して多くの変更を行うことができる。
サーバ・コンピュータ150は、プロセッサ154、キャッシュ162、メモリ158、永続的ストレージ170、通信ユニット152、入力/出力(I/O)インターフェース156、および通信ファブリック140を含んでもよい。通信ファブリック140によって、キャッシュ162、メモリ158、永続的ストレージ170、通信ユニット152、および入力/出力(I/O)インターフェース156の間の通信が提供される。通信ファブリック140は、システム内のプロセッサ(例えばマイクロプロセッサ、通信およびネットワーク・プロセッサ、等)、システム・メモリ、周辺デバイス、および任意の他のハードウェア・コンポーネントの間で、データを渡すまたは情報を制御するあるいはその両方を行うように設計された、任意のアーキテクチャを用いて実装され得る。例えば、通信ファブリック140は、1つまたは複数のバスを用いて実装することができる。
メモリ158および永続的ストレージ170は、コンピュータ可読記憶媒体である。この実施形態では、メモリ158はランダム・アクセス・メモリ160(RAM)を含む。一般に、メモリ158は、任意の好適な揮発性または不揮発性のコンピュータ可読記憶媒体を含んでもよい。キャッシュ162は、最近アクセスしたデータおよび最近アクセスしたデータの近くのデータをメモリ158から取り置くことによってプロセッサ154の性能を高める、高速メモリである。
本発明の実施形態を実施するために使用されるプログラム命令およびデータ、例えば機械学習プログラム175は、キャッシュ162を介してサーバ・コンピュータ150の対応するプロセッサ154のうちの1つまたは複数によって実行されるまたはアクセスされるあるいはその両方であるように、永続的ストレージ170に記憶される。この実施形態では、永続的ストレージ170は磁気ハード・ディスク・ドライブを含む。磁気ハード・ディスク・ドライブの代替としてまたはこれに加えて、永続的ストレージ170は、ソリッド・ステート・ハード・ドライブ、半導体ストレージ・デバイス、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、フラッシュ・メモリ、またはプログラム命令もしくはデジタル情報を格納できる任意の他のコンピュータ可読記憶媒体を含んでもよい。
永続的ストレージ170が使用する媒体は、取り外し可能であってもよい。例えば、永続的ストレージ170のために、取り外し可能なハード・ドライブを使用してもよい。他の例としては、光学および磁気ディスク、サム・ドライブ、ならびにスマート・カードが挙げられ、これらは、やはり永続的ストレージ170の一部である別のコンピュータ可読記憶媒体への転送のために、ドライブに挿入される。
通信ユニット152は、これらの例では、クライアント・コンピューティング・デバイス104および110のリソースを含む、他のデータ処理システムまたはデバイスとの通信を行う。これらの例では、通信ユニット152は、1つまたは複数のネットワーク・インターフェース・カードを含む。通信ユニット152は、物理的通信リンクまたはワイヤレス通信リンクの一方または両方の使用を介して、通信を提供してもよい。ソフトウェア配布プログラム、ならびに本発明の実施のために使用される他のプログラムおよびデータは、通信ユニット152を介してサーバ・コンピュータ150の永続的ストレージ170にダウンロードされてもよい。
I/Oインターフェース156により、サーバ・コンピュータ150に接続され得る他のデバイスに対するデータの入出力が可能になる。例えば、I/Oインターフェース156は、キーボード、キーパッド、タッチ・スクリーン、マイクロフォン、デジタル・カメラ、または何らかの他の好適な入力デバイス、あるいはそれらの組合せなどの、外部デバイス190への接続を提供し得る。外部デバイス190は、例えばサム・ドライブ、携帯型の光学または磁気ディスク、およびメモリ・カードなどの、携帯型コンピュータ可読記憶媒体も含み得る。本発明の実施形態を実施するために使用されるソフトウェアおよびデータ、例えばサーバ・コンピュータ150上の機械学習プログラム175は、そのような携帯型コンピュータ可読記憶媒体に記憶することができ、I/Oインターフェース156を介して永続的ストレージ170にロードすることができる。I/Oインターフェース156はディスプレイ180にも接続する。
ディスプレイ180はユーザにデータを表示するための機構を提供するもので、例えばコンピュータ・モニタであり得る。ディスプレイ180はまた、タブレット・コンピュータのディスプレイなどのタッチ・スクリーンとしても機能し得る。
図2は、本発明の実施形態の実施と関連付けられた例示的な動作を説明する、フローチャート200を提供する。プログラム開始後、210において訓練データ・セットが受け取られる。訓練データ・セットは、所望のモデルが意図している機械学習タスクと関連付けられた、任意の形態のデータから構成されてもよい。例としては、数値データ、文字データ、オーディオ・データ、ビデオ・データ、および画像データ、ならびにこれらの組合せが挙げられる。220において、1個のフォレストあたりのランダム木の数が受け取られる。数はユーザによって選ばれても、データ・セットおよび機械学習タスクの性質に応じて自動的に決定されても、乱数または疑似乱数発生器を使用してランダムに選ばれてもよい。230においてランダム木が育成される(ランダム木を成長させる)。各ツリーは、訓練データ・セットと同等のサイズで、訓練データ・セットから置き換え可能に選択されたブートストラップしたデータ・サンプルから成長(育成)させても良い。ブートストラップされるデータは置き換えなしで選択されてもよく、訓練データよりも小さいセットを使用してもよいが、これらの選択は完成したモデルの精度を下げ、モデルを訓練データ・セットに対して過学習(オーバーフィッティング)につながる可能性がある。240において、訓練データの各インスタンスについてのアウト・オブ・バッグ(OOB)予測およびラベル予測が決定される。OOB予測はデータの各インスタンスについての新しい特徴情報を提供するもので、250においてデータ・セットの対応するインスタンスに付加される。260において、完成したフォレストについてOOB精度が決定される。OOB精度は、各インスタンスについてのOOBラベル予測を使用し、フォレストにわたっておよび訓練データ・セットにわたって適正な予測を集約して計算される。270において、OOB精度はモデルの前の層からのOOB精度と比較される。OOB精度の有意な(ある実施形態では、0.005%以上の改善が有意な改善を構成する)改善が見られる場合、方法はステップ230に戻り、別の層/フォレストが育成され、モデルに追加される。ある実施形態では、有意な改善の後で、方法はステップ220に戻り、新しい層/フォレストにおける木の数を決定することができるが、この数は前の層/フォレストとは異なっていてもよい。OOB精度の有意な改善が見られない場合、280において、最後の層/フォレストの出力を集約するための結合器(コンバイナー)がモデルに追加されて使用される。この方法のモデルは、OOB精度を最適化するために必要な数のフォレスト/層だけで構成される。モデルは、モデルによって決定された新しい特徴情報が転送中にも失われないように、すべての新しい特徴情報(OOB予測)を後続の各層に渡す。
図3には、モデルが構築される際の訓練データ・セットの展開が説明されている。図に示すように、データ・セット300はデータ・インスタンスXを備えており、フォレスト1 310への入力として提供される。データ・セット300の各データ・インスタンスに関して、フォレスト1 310によってインスタンスXについてのクラス・ベクトルP1が決定され、これがインスタンスXに付加され、付加を受けたデータ・セット320が生み出される。付加を受けたデータ・セット320は次いでフォレスト2 330への入力として提供され、フォレスト2がインスタンスXについてのクラス・ベクトルP2を生み出す。クラス・ベクトルP2はインスタンスに付加されて、付加を受けたデータ・セット340を生み出す。新しいフォレストのOOB精度が前のフォレストと比べて有意に改善されなくなるまで、これが継続される。最後に追加されたフォレストの出力を集約するための結合器360がモデルに追加されるが、この出力は、図では最後のクラス・ベクトルPnを含む付加された全てのクラス・ベクトルを備える、付加を受けたデータ・セット350として表されている。結合器360の出力370は、データ・インスタンスについてのクラス予測を構成する。
本開示はクラウド・コンピューティングについての詳細な説明を含むものの、本明細書に記載する教示の実施はクラウド・コンピューティング環境に限定されないことが理解されるべきである。むしろ、本発明の実施形態は、現在知られているまたは今後開発される、任意の他のタイプのコンピューティング環境と関連させて実施可能である。
クラウド・コンピューティングは、最小限の管理労力またはサービスのプロバイダとの対話で迅速にプロビジョニングおよびリリースできる、自由に構成可能なコンピューティング・リソース(例えば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、仮想マシン、およびサービス)の共有プールへの、便利なオン・デマンドのネットワーク・アクセスを可能にするための、サービス提供のモデルである。このクラウド・モデルは、少なくとも5つの特徴、少なくとも3つのサービス・モデル、および少なくとも4つの配置モデルを含み得る。
特徴は以下の通りである。
オン・デマンド・セルフ・サービス:クラウド利用者は、サーバ時間およびネットワーク・ストレージなどのコンピューティング機能を、サービスのプロバイダとの人的対話を要することなく、必要に応じて自動的に、一方的にプロビジョニングすることができる。
広範なネットワーク・アクセス:機能はネットワークを介して利用可能であり、異種のシンまたはシック・クライアント・プラットフォーム(例えば、携帯電話、ラップトップ、およびPDA)による使用を促進する、標準の機構を通じてアクセスされる。
リソース・プーリング:プロバイダのコンピューティング・リソースは、マルチ・テナント・モデルを使用して、様々な物理リソースおよび仮想リソースが需要に応じて動的に割り当ておよび再割り当てされて、複数の利用者にサービスされるようにプールされる。利用者は、より高い抽象化レベル(例えば、国、州、またはデータセンタ)での位置の特定は可能であり得るものの、一般には提供されるリソースの正確な位置は制御できないかまたは把握していないという点で、位置非依存の感覚がある。
迅速なエラスティック性:機能を迅速かつ弾性的に、場合により自動的にプロビジョニングして急速にスケール・アウトする、および迅速にリリースして急速にスケール・インすることができる。利用者には、プロビジョニングのために利用可能な機能は多くの場合見掛け上無限であり、任意の時点で任意の量で購入可能である。
測定サービス:クラウド・システムは、サービスのタイプ(例えば、ストレージ、処理、帯域幅、およびアクティブなユーザ・アカウント)に適したある程度の抽象化レベルでメータリング機能を活用することによって、リソース使用を自動的に制御および最適化する。リソース使用状況を監視、制御、および報告することができ、利用されているサービスのプロバイダおよび利用者の両方に対して透明性がもたらされる。
サービス・モデルは以下の通りである。
ソフトウェア・アズ・ア・サービス(SaaS):利用者に提供される機能は、クラウド・インフラストラクチャ上で実行されるプロバイダのアプリケーションを使用することである。これらのアプリケーションは、ウェブ・ブラウザ(例えば、ウェブ・ベースの電子メール)などのシン・クライアント・インターフェースを介して、様々なクライアント・デバイスからアクセス可能である。基礎となるクラウド・インフラストラクチャにはネットワーク、サーバ、オペレーティング・システム、ストレージ、または個々のアプリケーション機能さえも含まれるが、利用者はその管理または制御は行わない。ただし、限定されたユーザ専用のアプリケーション構成設定は例外となり得る。
プラットフォーム・アズ・ア・サービス(PaaS):利用者に提供される機能は、利用者が製作または取得した、プロバイダがサポートするプログラミング言語およびツールを使用して製作されたアプリケーションを、クラウド・インフラストラクチャ上に配置することである。基礎となるクラウド・インフラストラクチャにはネットワーク、サーバ、オペレーティング・システム、またはストレージが含まれるが、利用者はその管理または制御は行わず、ただし、配置されたアプリケーションおよび場合によってはアプリケーションのホスティング環境構成を制御することはできる。
インフラストラクチャ・アズ・ア・サービス(IaaS):利用者に提供される機能は、オペレーティング・システムおよびアプリケーションを含み得る、利用者が任意のソフトウェアを配置および実行できる、処理、ストレージ、ネットワーク、および他の基本的なコンピューティング・リソースのプロビジョニングである。利用者は、基礎となるクラウド・インフラストラクチャを管理または制御することはないが、オペレーティング・システム、ストレージ、配置されたアプリケーションを制御することはでき、場合によっては、選択されたネットワーキング・コンポーネント(例えば、ホスト・ファイアウォール)の限定的な制御も行える。
配置モデルは以下の通りである。
プライベート・クラウド:このクラウド・インフラストラクチャはある組織に対してのみ運用される。これはその組織または第三者によって管理されてもよく、オン・プレミスに存在してもオフ・プレミスに存在してもよい。
コミュニティ・クラウド:このクラウド・インフラストラクチャはいくつかの組織によって共有され、共通の関心(例えばミッション、セキュリティ要件、ポリシ、およびコンプライアンス考慮事項)を有する特定のコミュニティをサポートする。これはそれらの組織または第三者によって管理されてもよく、オン・プレミスに存在してもオフ・プレミスに存在してもよい。
パブリック・クラウド:このクラウド・インフラストラクチャは、一般人または大きな業界グループが利用可能となっており、クラウド・サービスを販売する組織が所有している。
ハイブリッド・クラウド:このクラウド・インフラストラクチャは、2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)の複合体であり、これらのクラウドは独自のエンティティのままであるが、データおよびアプリケーションのポータビリティ(例えばクラウド間のロード・バランシングのためのクラウド・バースティング)を可能にする標準化されたまたは独自の技術によって、1つに結合されている。
クラウド・コンピューティング環境は、ステートレス性、低結合性、モジュール性、および意味相互運用性に焦点を当てて指向されたサービスである。クラウド・コンピューティングの中心となるのは、相互接続されたノードのネットワークを含むインフラストラクチャである。
ここで図4を参照すると、例示のクラウド・コンピューティング環境50が描かれている。示されているように、クラウド・コンピューティング環境50は、1つまたは複数のクラウド・コンピューティング・ノード10を含み、これを用いて、クラウド利用者が使用するローカルのコンピューティング・デバイス、例えば、携帯情報端末(PDA)もしくは携帯電話54A、デスクトップ・コンピュータ54B、ラップトップ・コンピュータ54C、または自動車コンピュータ・システム54N、あるいはそれらの組合せなどが、通信を行うことができる。ノード10は互いに通信してもよい。これらは、本明細書で上記したような、プライベート、コミュニティ、パブリック、もしくはハイブリッドのクラウド、またはこれらの組合せなどの、1つまたは複数のネットワークにおいて、物理的または仮想的にグループ化されてもよい(図示せず)。このことにより、クラウド・コンピューティング環境50が、インフラストラクチャ、プラットフォーム、またはソフトウェア、あるいはそれらの組合せを、クラウド利用者がローカルのコンピューティング・デバイス上でリソースを保守する必要のないサービスとして提供することが可能になる。図4に示すいくつかのタイプのローカルのコンピューティング・デバイス54A~54Nは、単に例を示すことを意図していること、ならびに、コンピューティング・ノード10およびクラウド・コンピューティング環境50は、任意のタイプのネットワークまたは(例えばウェブ・ブラウザを使用した)ネットワーク・アドレス指定可能な接続あるいはその両方を介して、任意のタイプのコンピュータ化されたデバイスと通信できることが、理解される。
ここで図5を参照すると、クラウド・コンピューティング環境50(図4)が提供する1組の機能抽象化層が示されている。図5に示すコンポーネント、層、および機能は、単に例を示すことを意図しており、本発明の実施形態はこれらに限定されないことが、予め理解されるべきである。描かれているように、以下の層および対応する機能が提供される。
ハードウェアおよびソフトウェア層60は、ハードウェアおよびソフトウェアのコンポーネントを含む。ハードウェア・コンポーネントの例には、メインフレーム61、RISC(縮小命令セット・コンピュータ)アーキテクチャ・ベースのサーバ62、サーバ63、ブレード・サーバ64、ストレージ・デバイス65、ならびにネットワークおよびネットワーキング・コンポーネント66が含まれる。いくつかの実施形態では、ソフトウェア・コンポーネントは、ネットワーク・アプリケーション・サーバ・ソフトウェア67とデータベース・ソフトウェア68とを含む。
仮想化層70は、以下の仮想エンティティの例を提供し得る抽象化層を提供する。仮想サーバ71、仮想ストレージ72、仮想プライベート・ネットワークを含む仮想ネットワーク73、仮想アプリケーションおよびオペレーティング・システム74、ならびに仮想クライアント75。
一例では、管理層80は、以下に記載する機能を提供し得る。リソース・プロビジョニング81は、クラウド・コンピューティング環境内でタスクを実行するために利用されるコンピューティング・リソースおよび他のリソースの、動的な調達を提供する。メータリングおよびプライシング82は、クラウド・コンピューティング環境内でリソースが利用される際のコスト追跡、およびこれらのリソースの消費に対する請求処理またはインボイス処理を行う。一例では、これらのリソースはアプリケーション・ソフトウェア・ライセンスを含んでもよい。セキュリティは、クラウド利用者およびタスクについての身元情報の検証、ならびにデータおよび他のリソースの保護を提供する。ユーザ・ポータル83は、利用者およびシステム管理者にクラウド・コンピューティング環境へのアクセスを提供する。サービス・レベル管理84は、要求されるサービス・レベルが満たされるように、クラウド・コンピューティング・リソースの割り当ておよび管理を提供する。サービス・レベル・アグリーメント(SLA)計画および履行85は、SLAによって将来必要となることが予期されるクラウド・コンピューティング・リソースの、事前調整および調達を提供する。
ワークロード層90は、クラウド・コンピューティング環境が利用され得る機能の例を提供する。この層から提供され得るワークロードおよび機能の例には、マッピングおよびナビゲーション91、ソフトウェア開発およびライフサイクル管理92、仮想教室教育配信93、データ分析処理94、トランザクション処理95、ならびに機械学習プログラム175が含まれる。
本発明は、任意の可能な技術詳細レベルで組み込まれた、システム、方法、またはコンピュータ・プログラム製品あるいはそれらの組合せであり得る。本発明は、命令ストリームを処理する任意のシングルまたはパラレルのシステムにおいて有益に実施され得る。コンピュータ・プログラム製品は、プロセッサに本発明の態様を実行させるためのコンピュータ可読プログラム命令を有する、コンピュータ可読記憶媒体を含んでもよい。
コンピュータ可読記憶媒体は、命令実行デバイスによって使用される命令を保持および保存できる有形のデバイスとすることができる。コンピュータ可読記憶媒体は、例えば、電子ストレージ・デバイス、磁気ストレージ・デバイス、光ストレージ・デバイス、電磁ストレージ・デバイス、半導体ストレージ・デバイス、または以上の任意の好適な組合せであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例の非網羅的なリストには、以下、すなわち、ポータブル・コンピュータ・ディスケット、ハード・ディスク、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、消去可能プログラマブル読取り専用メモリ(EPROMもしくはフラッシュ・メモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読取り専用メモリ(CD-ROM)、デジタルバーサタイルディスク(DVD)、メモリ・スティック、フロッピー(R)・ディスク、命令が記録されているパンチ・カードもしくは溝の中の隆起構造などの機械的に符号化されたデバイス、および以上の任意の好適な組合せが含まれる。本明細書において使用されるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝播する電磁波、導波路もしくは他の伝送媒体を通じて伝播する電磁波(例えば、光ファイバ・ケーブルを通過する光パルス)、または配線を介して伝送される電気信号などの、一過性の信号そのものであると解釈されるべきではない。
本明細書に記載するコンピュータ可読プログラム命令は、コンピュータ可読記憶媒体からそれぞれのコンピューティング/処理デバイスに、あるいは、ネットワーク、例えば、インターネット、ローカル・エリア・ネットワーク、ワイド・エリア・ネットワーク、もしくはワイヤレス・ネットワーク、またはその組合せを経由して外部のコンピュータまたは外部ストレージ・デバイスに、ダウンロードされ得る。ネットワークは、銅伝送ケーブル、光伝送ファイバ、ワイヤレス伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、またはエッジ・サーバ、あるいはそれらの組合せを備え得る。各コンピューティング/処理デバイス内のネットワーク・アダプタ・カードまたはネットワーク・インターフェースが、ネットワークからコンピュータ可読プログラム命令を受信し、それらのコンピュータ可読プログラム命令を、それぞれのコンピューティング/処理デバイス内のコンピュータ可読記憶媒体に保存されるように転送する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セット・アーキテクチャ(ISA)命令、マシン命令、マシン依存型命令、マイクロコード、ファームウェア命令、状態設定データ、集積回路用の構成データ、または、Smalltalk(R)、C++などのオブジェクト指向プログラミング言語、および「C」プログラミング言語もしくは類似のプログラミング言語などの手続き型プログラミング言語を含む、1つもしくは複数のプログラミング言語の任意の組合せで書かれた、ソース・コードもしくはオブジェクト・コードのいずれか、であり得る。コンピュータ可読プログラム命令は、専らユーザのコンピュータ上で、スタンド・アロン・ソフトウェア・パッケージとして部分的にユーザのコンピュータ上で、部分的にユーザのコンピュータ上でかつ部分的に遠隔のコンピュータ上で、または専ら遠隔のコンピュータもしくはサーバ上で、実行することができる。後者のシナリオでは、遠隔のコンピュータを、ローカル・エリア・ネットワーク(LAN)もしくはワイド・エリア・ネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続してもよく、または、外部のコンピュータへの接続を(例えば、インターネット・サービス・プロバイダを利用してインターネットを介して)行ってもよい。いくつかの実施形態では、例えばプログラマブル・ロジック回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、またはプログラマブル・ロジック・アレイ(PLA)を含む電子回路は、本発明の態様を行うために、コンピュータ可読プログラム命令の状態情報を利用することによって、コンピュータ可読プログラム命令を実行して電子回路を個人化することができる。
本明細書には、本発明の実施形態に係る方法、装置(システム)、およびコンピュータ・プログラム製品のフローチャート図またはブロック図あるいはその両方を参照して、本発明の態様が記載されている。フローチャート図またはブロック図あるいはその両方の各ブロック、およびフローチャート図またはブロック図あるいはその両方におけるブロックの組合せを、コンピュータ可読プログラム命令によって実施できることが理解されるであろう。
これらのコンピュータ可読プログラム命令は、コンピュータまたは他のプログラム可能データ処理装置のプロセッサを介して実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックに指定される機能/動作を実施する手段を作り出すべく、汎用コンピュータ、専用コンピュータ、または他のプログラム可能データ処理装置のプロセッサに提供されてマシンを作り出すものであってよい。これらのコンピュータ可読プログラム命令はまた、命令が保存されたコンピュータ可読記憶媒体が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックに指定される機能/動作の態様を実施する命令を含んだ製品を備えるように、コンピュータ可読記憶媒体に保存され、コンピュータ、プログラム可能データ処理装置、または他のデバイス、あるいはそれらの組合せに特定の方式で機能するように指示できるものであってもよい。
コンピュータ可読プログラム命令はまた、コンピュータ、他のプログラム可能装置、または他のデバイスで実行される命令が、フローチャートまたはブロック図あるいはその両方の1つまたは複数のブロックに指定される機能/動作を実施するように、コンピュータによって実行されるプロセスを作り出すべく、コンピュータ、他のプログラム可能データ処理装置、または他のデバイスにロードされ、コンピュータ、他のプログラム可能装置、または他のデバイス上で一連の動作ステップを実行させるものであってもよい。
図中のフローチャートおよびブロック図には、本発明の様々な実施形態に係るシステム、方法、およびコンピュータ・プログラム製品の、可能な実装形態のアーキテクチャ、機能性、および動作が説明されている。この関連において、フローチャートまたはブロック図内の各ブロックは、指定された論理機能を実施するための1つまたは複数の実行可能命令を備える、モジュール、セグメント、または命令の一部分を表すことができる。いくつかの代替的実装形態において、ブロック内に記された機能は、図に記されたものとは異なる順序で行われ得る。例えば連続して示される2つのブロックは、実際は実質的に並行して実行され得、またはこれらのブロックは時には関わる機能に応じて、逆の順序で実行され得る。また、ブロック図またはフローチャート図あるいはその両方の各ブロック、およびブロック図またはフローチャート図あるいはその両方におけるブロックの組合せは、指定された機能もしくは動作を行う、または専用ハードウェアとコンピュータ命令の組合せを実行する、専用ハードウェア・ベースのシステムによって実施され得ることも、留意されるであろう。
本発明の様々な実施形態の説明は例示の目的で提示されてきたが、網羅的であることも開示される実施形態に限定されることも意図していない。当業者には本発明の範囲および思想から逸脱することなく多くの変更および変形が明らかであろう。本明細書で用いられる専門用語は、実施形態の原理、実際の用途、もしくは市場で見られる技術に対する技術的な改善を最もよく説明するように、または、他の当業者が本明細書において開示される実施形態を理解できるように、選択された。

Claims (10)

  1. データ分析用のモデルの開発および訓練をするためのコンピュータ実装方法であって、
    1つまたは複数のコンピュータ・プロセッサによって、データ・セットから決定木のランダム・フォレストを育成することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記ランダム・フォレストについてのアウト・オブ・バッグ(OOB)予測を決定することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記アウト・オブ・バッグ予測を前記データ・セットに付加することと、
    1つまたは複数のコンピュータ・プロセッサによって、OOB予測が付加された前記データ・セットを使用して追加のランダム・フォレストを育成することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記追加のランダム・フォレストの出力を結合器と結合することと、
    によってモデルを構築することを含む、コンピュータ実装方法。
  2. 各ランダム・フォレストは、数値、テキスト、オーディオ、ビデオ、画像データ、位置、音声、音楽、娯楽、医療、金融情報、乗り物、物流、および販売データから成る群から選択されるデータから育成される、請求項1に記載の方法。
  3. データ・セットを使用して前記決定木のランダム・フォレストを成長させることは、前記データ・セットから置換を伴って採択されたブートストラップしたサンプルを使用して各木を成長させ、決定木を成長させることを含む、請求項1に記載の方法。
  4. 各ランダム・フォレストのOOB精度を決定することと、前記OOB精度が有意に改善しなくなるまでランダム・フォレストを追加することと、を更に含む、請求項1に記載の方法。
  5. 前記結合器は、ランダム・フォレストおよび勾配ブースティング構造から成る群から選択された構造を含む、請求項1に記載の方法。
  6. 前記モデルは一連の層を備え、各層は単一のランダム・フォレストを備える、請求項1に記載の方法。
  7. データ分析用のモデルの開発および訓練をするためのコンピュータ・プログラム製品であって、前記コンピュータ・プログラム製品は1つまたは複数のコンピュータ可読ストレージ・デバイスと前記1つまたは複数のコンピュータ可読ストレージ・デバイスに保存されたプログラム命令とを備え、前記プログラム命令は、
    1つまたは複数のコンピュータ・プロセッサによって実行されると、前記プロセッサに請求項1ないし6のいずれか一項に記載の方法のステップを実行させる、プログラムされた命令を含む、コンピュータ・プログラム製品。
  8. データ分析用のモデルの開発および訓練をするためのコンピュータ・システムであって、
    1つまたは複数のコンピュータ・プロセッサと、
    1つまたは複数のコンピュータ可読ストレージ・デバイスと、
    前記少なくとも1つのコンピュータ・プロセッサによって実行される、前記1つまたは複数のコンピュータ可読ストレージ・デバイスに保存されたプログラム命令と、を備え、前記プログラム命令は、
    前記1つまたは複数のコンピュータ・プロセッサによって実行されると、前記コンピュータ・プロセッサに請求項1ないし6のいずれか一項に記載の方法のステップを実行させる、プログラムされた命令を含む、コンピュータ・システム。
  9. 1つまたは複数のコンピュータ・プロセッサによって、訓練データ・セットを受け取ることと、
    前記ランダム・フォレストについてのOOB精度を決定することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記追加のランダム・フォレストについてのOOB精度を決定することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記ランダム・フォレストおよび前記追加のランダム・フォレストの前記OOB精度を比較することと、
    を含む、請求項1に記載の方法。
  10. 1つまたは複数のコンピュータ・プロセッサによって、訓練データ・セットを受け取ることと、
    1つまたは複数のコンピュータ・プロセッサによって、1個のフォレストあたりの決定された木の数およびクラス・ベクトル指定を受け取ることと、
    1つまたは複数のコンピュータ・プロセッサによって、前記訓練データ・セットを使用して第1のフォレストについての前記決定された数の木を育成することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記第1のフォレストについての第1のアウト・オブ・バッグ(OOB)予測を決定することと、
    1つまたは複数のコンピュータ・プロセッサによって、OOB予測を前記データ・セットに付加することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記第1のフォレストについてのOOB精度を決定することと、
    1つまたは複数のコンピュータ・プロセッサによって、OOB予測を付加された前記訓練データ・セットを使用して追加のフォレストについての前記決定された数の木を育成することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記追加のフォレストについての追加のOOB予測を決定することと、
    1つまたは複数のコンピュータ・プロセッサによって、追加のOOB予測を前記データ・セットに付加することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記追加のフォレストについての追加のOOB精度を決定することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記追加のOOB精度が改善されなくなるまでフォレストを追加することと、
    1つまたは複数のコンピュータ・プロセッサによって、前記追加のフォレストの出力を結合することと、によって、各層が単一のランダム・フォレストを含む連続層のモデルを構築すること
    を含む、請求項9に記載の方法。
JP2021552716A 2019-03-12 2020-03-06 ディープ・フォレスト・モデルの開発および訓練 Active JP7398474B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/299,225 2019-03-12
US16/299,225 US11893499B2 (en) 2019-03-12 2019-03-12 Deep forest model development and training
PCT/IB2020/051956 WO2020183316A1 (en) 2019-03-12 2020-03-06 Deep forest model development and training

Publications (3)

Publication Number Publication Date
JP2022524006A true JP2022524006A (ja) 2022-04-27
JPWO2020183316A5 JPWO2020183316A5 (ja) 2022-08-17
JP7398474B2 JP7398474B2 (ja) 2023-12-14

Family

ID=72424810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021552716A Active JP7398474B2 (ja) 2019-03-12 2020-03-06 ディープ・フォレスト・モデルの開発および訓練

Country Status (5)

Country Link
US (1) US11893499B2 (ja)
JP (1) JP7398474B2 (ja)
CN (1) CN113557534A (ja)
DE (1) DE112020000545T5 (ja)
WO (1) WO2020183316A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112307364B (zh) * 2020-11-25 2021-10-29 哈尔滨工业大学 一种面向人物表征的新闻文本发生地抽取方法
CN115082767A (zh) * 2021-03-15 2022-09-20 中国移动通信集团福建有限公司 随机森林模型训练方法和装置
CN113688891B (zh) * 2021-08-17 2023-09-29 华东师范大学 一种可自适应划分子森林的分布式级联森林方法
CN117610733A (zh) * 2023-12-04 2024-02-27 中国地质大学(北京) 一种基于深度森林的矿产预测方法、装置、设备及介质
CN117786560B (zh) * 2024-02-28 2024-05-07 通用电梯股份有限公司 一种基于多粒度级联森林的电梯故障分类方法及电子设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050048547A1 (en) 2003-07-17 2005-03-03 Hongyu Zhao Classification of disease states using mass spectrometry data
US8306942B2 (en) 2008-05-06 2012-11-06 Lawrence Livermore National Security, Llc Discriminant forest classification method and system
WO2012083274A2 (en) 2010-12-16 2012-06-21 Nodality, Inc. Methods for diagnosis, prognosis and methods of treatment
CN103400391B (zh) 2013-08-09 2016-08-10 北京博思廷科技有限公司 一种基于改进的随机森林的多目标跟踪方法及装置
US9700213B2 (en) 2014-09-12 2017-07-11 Mayo Foundation For Medical Education And Research System and method for automatic polyp detection using global geometric constraints and local intensity variation patterns
JP6239486B2 (ja) 2014-11-05 2017-11-29 株式会社東芝 予測モデル作成方法
CN106156809A (zh) 2015-04-24 2016-11-23 阿里巴巴集团控股有限公司 用于更新分类模型的方法及装置
EP3370611A1 (en) 2015-11-05 2018-09-12 Swedish Adrenaline AB Method and system for fatigue determination
CN106778836A (zh) 2016-11-29 2017-05-31 天津大学 一种基于约束条件的随机森林推荐算法
US20180211380A1 (en) 2017-01-25 2018-07-26 Athelas Inc. Classifying biological samples using automated image analysis
US10977737B2 (en) * 2018-01-10 2021-04-13 Liberty Mutual Insurance Company Training gradient boosted decision trees with progressive maximum depth for parsimony and interpretability
CN110310114B (zh) 2018-03-27 2020-09-01 阿里巴巴集团控股有限公司 对象分类方法、装置、服务器及存储介质
EP3819827A4 (en) 2018-07-04 2022-03-30 Aising Ltd. DEVICE AND METHOD FOR MACHINE LEARNING
US20210358564A1 (en) 2018-10-23 2021-11-18 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Active Transfer Learning with Deep Featurization

Also Published As

Publication number Publication date
JP7398474B2 (ja) 2023-12-14
US11893499B2 (en) 2024-02-06
WO2020183316A1 (en) 2020-09-17
CN113557534A (zh) 2021-10-26
DE112020000545T5 (de) 2021-10-21
US20200293906A1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
US10614269B2 (en) Training data update
JP7398474B2 (ja) ディープ・フォレスト・モデルの開発および訓練
JP2021503668A (ja) マルチ・タスク学習を用いた特徴抽出方法、コンピュータ・システム、およびコンピュータ・プログラム製品(マルチ・タスク学習を用いた特徴抽出)
US11989237B2 (en) Natural language interaction with automated machine learning systems
US20220358358A1 (en) Accelerating inference of neural network models via dynamic early exits
US11941367B2 (en) Question generation by intent prediction
US10671928B2 (en) Adaptive analytical modeling tool
US11182416B2 (en) Augmentation of a text representation model
US20220414331A1 (en) Automatically generated question suggestions
US11514340B2 (en) Machine learning for technical tool selection
US11275974B2 (en) Random feature transformation forests for automatic feature engineering
US10635579B2 (en) Optimizing tree pruning for decision trees
JP2023088289A (ja) 機械学習において決定木を構築するコンピュータ実装方法、プログラム命令をその中に実装したコンピュータ可読記憶媒体を含むコンピュータプログラム製品、およびシステム(次元削減による分類木と回帰木のパフォーマンス向上)
US11556558B2 (en) Insight expansion in smart data retention systems
US11681501B2 (en) Artificial intelligence enabled open source project enabler and recommendation platform
US20190138895A1 (en) Model matching and learning rate selection for fine tuning
JP7477253B2 (ja) ドメイン固有モデル圧縮
US20220092437A1 (en) Efficient execution of a decision tree
JP2023545604A (ja) ストリーミングrnnトランスデューサの精度
US20220398489A1 (en) Training machine learning models
US20230409873A1 (en) Providing a hybrid neural network architecture
US20230335123A1 (en) Speech-to-text voice visualization
TWI844931B (zh) 利用維度減少提升分類及回歸樹表現
US11966819B2 (en) Training classifiers in machine learning
US20210349931A1 (en) System for object identification

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7398474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150