JPWO2019026703A1 - 学習済モデル統合方法、装置、プログラム、icチップ、及びシステム - Google Patents

学習済モデル統合方法、装置、プログラム、icチップ、及びシステム Download PDF

Info

Publication number
JPWO2019026703A1
JPWO2019026703A1 JP2019534067A JP2019534067A JPWO2019026703A1 JP WO2019026703 A1 JPWO2019026703 A1 JP WO2019026703A1 JP 2019534067 A JP2019534067 A JP 2019534067A JP 2019534067 A JP2019534067 A JP 2019534067A JP WO2019026703 A1 JPWO2019026703 A1 JP WO2019026703A1
Authority
JP
Japan
Prior art keywords
learned
node
learning
model
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019534067A
Other languages
English (en)
Other versions
JP6713099B2 (ja
Inventor
純一 出澤
純一 出澤
志門 菅原
志門 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AISing Ltd
Original Assignee
AISing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AISing Ltd filed Critical AISing Ltd
Publication of JPWO2019026703A1 publication Critical patent/JPWO2019026703A1/ja
Application granted granted Critical
Publication of JP6713099B2 publication Critical patent/JP6713099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9027Trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

【課題】 木構造を有する新たな機械学習の枠組みを利用して得られた複数の学習済モデル同士を統合することにより単一の学習済モデルを生成すること。【解決手段】 木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する学習済モデル統合方法であって、所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出ステップと、前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合ステップと、を備える学習済モデル統合方法が提供される。【選択図】図7

Description

この発明は、所定の学習処理により生成された学習済モデルの統合処理を行う学習済モデル統合方法、装置、プログラム、ICチップ、及びシステムに関し、特に、木構造を有する学習済モデルの統合を行う学習済モデル統合方法、装置、プログラム、ICチップ、及びシステムに関する。
近年、計算機の演算機能の飛躍的な向上等により機械学習の分野が高い注目を集めている。このような背景の中、本願の発明者らは、木構造を有する新たな機械学習の枠組みを提唱している(特許文献1)。
図13は、上記新たな機械学習の枠組みについて示す説明図、すなわち、学習木の構造について示す説明図である。図13(a)には、当該学習手法における学習木の構造が示されており、図13(b)には、当該構造に対応する状態空間のイメージが示されている。同図から明らかな通り、学習木構造は、階層的に分割された各状態空間に対応する各ノードを、最上位ノード(始端ノード又は根ノード)から最下端ノード(末端ノード又は葉ノード)まで、樹形状乃至格子状に配置することにより構成されている。なお、同図は、N階層d次元n分割の学習木においてNが2、dが2、nが2の場合の例を示しており、図13(a)に記載の学習木の1階層目の4つの末端ノードに付された1〜4の番号は、それぞれ、図13(b)に記載の4つの状態空間に対応している。
上記学習木を用いて学習処理を行う際には、入力されるデータが、逐次、分割された各状態空間に対応付けられ、それらが各状態空間に蓄積されていくこととなる。このとき、それまでデータが存在しなかった状態空間に新たにデータが入力された場合には、新たなノードが順次生成されていく。予測出力は、学習後に各状態空間に内包される各データの値又はベクトルの相加平均を取ることで算出されることとなる。
特開2016−173686号公報
ところで、近年の機械学習の普及に伴い、既に学習済のモデル同士を統合してより包括的な予測を行うことが可能な学習済モデルを生成することが要望されている。
しかしながら、例えばニューラルネットワーク等の従前の機械学習手法を用いた学習済モデル同士を統合することはその性質上困難であった。
本発明は、上述の技術的背景の下になされたものであり、その目的とすることころは、木構造を有する新たな機械学習の枠組みを利用して得られた複数の学習済モデル同士を統合することにより単一の学習済モデルを生成する装置、方法、プログラム、ICチップ及びシステム等を提供することにある。
本発明のさらに他の目的並びに作用効果については、明細書の以下の記述を参照することにより、当業者であれば容易に理解されるであろう。
上述の技術的課題は、以下の構成を有する情報処理装置により解決することができる。
すなわち、本開示に係る学習済モデル統合方法は、階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する学習済モデル統合方法であって、所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出ステップと、前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合ステップと、を備えている。
このような構成によれば、木構造を有する学習済モデルが統合に好適であるという性質を利用して、異なる学習済モデル同士の統合を行うことができ、これにより、部分的な学習を行った複数の学習済モデルから単一のより完全な学習済モデルを生成することができる。
前記統合ステップにおいて、一の学習済モデルのみにノードが存在する場合には当該ノードと共に当該ノード以下に存在するすべてのノードが複製される、ように構成してもよい。
このような構成によれば、あるノードが一の学習済モデルのみに存在する場合には当該ノード以下のノードについても当該一の学習済モデルにのみに存在することを利用して、効率的な統合処理を行うことができる。
前記複数の異なる学習済モデルの各前記ノードには、前記学習の過程において生成された学習関連パラメータと、各前記ノードに対応する状態空間に包含されるデータ数と、が対応付けられており、前記統合ステップは、さらに、前記ノードを統合するに際して統合対象となる複数のノードの前記データ数をそれぞれ加算するデータ数加算ステップと、前記ノードを統合するに際して統合対象となる複数のノードに対応付けられた各前記学習関連パラメータを前記各データ数に応じて重み付け加算する誤差量加算ステップと、を備えてもよい。
このような構成によれば、ノード同士の統合に際して包含されるデータ数に応じて重み付け加算を行うので、信頼性に応じた学習関連パラメータの統合を行うことができる。
前記学習関連パラメータは、各前記ノードにおいて前記学習の過程において生成され、かつ予測精度に相当する誤差量であってもよい。
このような構成によれば、ノード同士の統合に際しての誤差量の統合をデータ数に応じて行うので、信頼性に応じた誤差量の統合を行うことができる。
前記データ読出ステップは、さらに、各前記学習済モデルの各学習条件に相当するパラメータを含むパラメータファイルを読み出すパラメータファイル読出ステップを含み、前記学習済モデル統合方法は、さらに、各前記学習条件に相当する各パラメータのうちの所定のパラメータが互いに一致する場合には前記統合ステップを行い、かつ、各前記所定のパラメータが互いに一致しない場合には前記統合ステップを行わない判定ステップ、を含むものであってもよい。
このような構成によれば、学習条件に相当するパラメータを含むパラメータファイルのうちの所定のパラメータに基づいて、学習済モデル同士の統合の可否を事前に判定するので、統合の前提条件が揃った適切な統合処理のみを行うことができる。
また、本開示は、学習済モデル統合装置として観念することもできる。すなわち、本開示に係る学習済モデル統合装置は、階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する学習済モデル統合装置であって、所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出部と、前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合部と、を備えている。
さらに、本開示は、学習済モデル統合プログラムとして観念することもできる。すなわち、本開示に係る学習済モデル統合プログラムは、コンピュータを、階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する学習済モデル統合装置として機能させる学習済モデル統合プログラムであって、所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出ステップと、前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合ステップと、を備えている。
加えて、本開示は、ICチップとして観念することもできる。本開示に係るICチップは、階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する機能を有するICチップであって、所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出部と、前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合部と、を備えている。
また、本開示は、学習済モデルの統合処理システムとして観念することもできる。すなわち、本開示に係る統合処理システムは、階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに基づいて所定のデータ群に基づく学習処理を行い学習済モデルを生成する学習装置を1又は2以上備える学習装置層と、前記学習装置層と通信を介して接続され、各前記学習装置にて生成された各前記学習済モデルを統合する学習済モデル統合装置を1又は2以上備える統合装置層と、から成る統合処理システムであって、前記学習済モデル統合装置は、所定の記憶部から前記異なる学習済モデルに関するデータを読み出す、データ読出部と、前記異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記異なる学習済モデル同士を統合する、統合部と、を備えている。
このような構成によれば、1又は2以上学習装置を含む学習装置層にて生成された学習済モデルを統合装置層の1又は2以上の学習済モデル統合装置により適宜統合することができるシステム、特に、大規模な学習・統合処理に好適なシステムを提供することができる。
本開示によれば、木構造を有する学習済モデルが統合に好適であるという性質を利用して、異なる学習済モデル同士の統合を行うことができ、これにより、複数の学習済モデルから単一の包括的な学習済モデルを生成することができる。
図1は、ハードウェア構成について示す説明図である。 図2は、学習処理に関するゼネラルフローチャートである。 図3は、誤差の演算処理に関するフローチャートである。 図4は、予測処理に関するフローチャートである。 図5は、統合処理に関するゼネラルフローチャートである。 図6は、統合処理に関する詳細フローチャートである。 図7は、学習木の統合に関する概念図である。 図8は、統合処理に関する概念図である。 図9は、実験結果(その1)である。 図10は、実験結果(その2)である。 図11は、大規模統合処理システムの概略構成図である。 図12は、情報処理システムの概略構成図である。 図13は、学習木の構造について示す説明図である。
以下、本発明に係る統合処理装置の実施の一形態を、添付の図面を参照しつつ、詳細に説明する。
<1.第1の実施形態>
<1.1 装置構成>
図1は、本実施形態に係る統合処理装置10のハードウェア構成について示す説明図である。同図から明らかな通り、統合処理装置10は、制御部1、外部装置との間の入出力を制御するI/O部2、無線又は有線の通信を制御する通信部3、及び記憶部4とを含み、それらはシステムバスを介して接続されている。制御部1は、CPUから成り、後述の木構造を有する学習済モデルの統合処理を行うプログラムを含む各種プログラムを実行する。なお、このCPU等の代わりにマイクロプロセッサやマイクロコントローラ、GPU(Graphics Processing Unit)等を用いてもよい。また、記憶部4は、例えば、ROM、RAM、フラッシュメモリ、ハードディスク等を含む各種の記憶装置であって、例えば、木構造を有する学習済モデルに関する各種のデータ、教師データに相当するデータ、学習済モデルの統合処理を行う機能を有するプログラム等を一時的又は非一時的に記憶している。
なお、統合処理装置10の構成は、同図の構成に限定されず、出願時の技術常識の範囲で自在に変更可能である。従って、例えば、記憶部4を外部ストレージ等として別途配置してもよい。また、制御部1についても、他の情報処理装置の制御部等と協働して分散処理等を行ってもよい。さらに仮想化技術を用いた処理等が行われてもよい。
<1.2 装置の動作>
<1.2.1 学習処理>
図2〜図3を参照しつつ、統合処理装置10により統合される対象となる学習済モデルを生成するための学習処理の一例について説明する。
図2は、学習処理に関するゼネラルフローチャートである。処理が開始すると、まず、学習対象となるデータが木構造を有する学習モデルへと入力される(S101)。次に、入力されたデータについて、当該データが属すべき状態空間とその状態空間に対応するノードが特定され、これにより、複数のノード、すなわち、根ノードから末端ノードへと至る一の経路が特定される(S102)。このとき、過去にアクティブとなったことのないノードが当該経路上に存在する場合には、当該位置に新たなノードが生成される。その後、当該経路上の各ノードについて、各ノードの予測誤差に相当する誤差の演算処理が行われる(S103)。
図3は、誤差の演算処理(S103)の詳細について示したフローチャートである。処理が開始すると、まず、根ノードが着目ノードとして設定される(S1031)。次に、着目ノードについて、次式より誤差の更新処理が行われる(S1032)。
Figure 2019026703
ここで、Et+1は更新後の誤差、Eは更新前の誤差、αは忘却係数(0<α<1)を表し、同式から明らかな通り、更新後の誤差Et+1は、更新前の誤差Eと、着目ノードに包含された各データの値又はベクトルに基づく予測出力O(例えば、着目ノードに包含された各データの値又はベクトルの相加平均値)と教師データに相当する値又はベクトルとの差分の絶対値とを、忘却係数αを用いて重み付け加算することにより演算される。すなわち、着目ノードに包含された各データの値又はベクトルに基づく予測出力Oと、教師データに相当する値又はベクトルとの差分が小さい程、Et+1は小さくなるので、誤差Et+1が小さい程、予測精度が良いということとなる。更新された誤差Et+1は、当該着目ノードと対応付けられて誤差Eとして記憶部4へと保存される(S1033)。
その後、この着目ノードが最下層のノードであるか否かの判定処理が行われ(S1034)、最下層ノードでない場合には着目ノードを1つ下位のノードへと変更する処理が行われる(S1035)。この一連の処理、着目ノードの経路上の1つ下位のノードへの変更処理(S1035)、誤差の更新処理(S1032)、保存処理(S1033)は、最下層ノードへと至るまで(S1034NO)、繰り返し行われる。一方、着目ノードが最下層ノード(末端ノード)へと至った場合(S1034YES)、処理は終了する。すなわち、この一連の処理によれば、経路上のすべてのノードについてそれぞれ予測精度に相当する誤差Eが生成されることとなる。
なお、誤差Eの算出手法は上記に限定されない。従って、例えば、着目ノードより下位の経路上に存在するノードを参照する等して得られた誤差等を利用してもよい。
<1.2.2 予測処理>
次に、図4を参照しつつ、上述の学習処理が行われた学習済モデルを用いた予測処理の一例について説明する。図4は、予測処理に関するフローチャートである。同図から明らかな通り、処理が開始すると、まず、新たな入力データが記憶部4から読み出される(S201)。次に、当該入力データに基づいて、属すべき状態空間(ノード)が特定され、それにより、複数の一連のノードがから成る一の経路が特定される(S202)。一の経路が特定されると、当該経路上において誤差Eが最小となるノードが特定され(S203)、当該誤差E最小ノードに対応する各データの値又はベクトルの相加平均に基づいて、予測出力が生成される(S204)。すなわち、経路上の誤差最小ノードに基づいて予測出力が生成される。これにより、予測精度が比較的良いと見込まれるノードに基づいて予測出力を生成することができる。
なお、本実施形態においては、予測出力は、経路上の誤差最小ノードに対応するデータに基づいて生成したが、このような処理に限定されない。従って、例えば、常に末端ノードに対応するデータに基づいて予測出力を生成するよう構成してもよい。
<1.2.3 複数の学習済モデルの統合処理>
次に、図5〜図8を参照しつつ、本実施形態に係る統合処理装置10を用いた学習済モデルの統合処理について説明する。
図5は、統合処理に関するゼネラルフローチャートである。処理が開始すると、学習済モデルを生成する際に生成されたパラメータファイルが、2つの異なる学習済モデルについて、読み出される(S301)。このパラメータファイルは、例えば、学習対象となる値域(学習空間)、すなわち、入出力データの最大値及び最小値や、学習モデルの構造情報(N階層d次元n分割)等を含んでいる。この学習区間が一致又はおよそ一致するか否かを判定し(S302)、一致しない場合には(S302NO)、ユーザに対して図示しないディスプレイなど介して統合を行うことが出来ない旨を通知するエラーメッセージを出力し(S303)、処理は終了する。一方、この学習空間が一致又はおよそ一致する場合には。2つの学習済モデルのノードに関するデータファイルの読み出しが行われる(S304)。その後、後述する2つの異なる学習済モデルに係る学習木の統合処理が行われた後(S305)、処理が終了する。なお、ここで、学習区間のおよその一致とは、例えば、一方の学習済モデルに含まれるデータの最大値・最小値に所定割合(例えば、10%程度)の余裕を持たせた範囲内に、他の学習済モデルに含まれるデータの最大値・最小値が含まれることをいう。
このような構成によれば、学習条件に相当するパラメータを含むパラメータファイルのうちの所定のパラメータに基づいて、学習済モデル同士の統合の可否を事前に判定することができるので、統合の前提条件が合致する適切な統合処理のみを行うことができる。
図6は、統合処理(S305)に関する詳細フローチャートである。処理が開始すると、第1番目のノード位置を着目位置として設定する(S3051)。次に、着目位置において、いずれの学習木においてもノードが存在するかについての判定処理を行う(S3052)。着目位置において、いずれの学習木においてもノードが存在する場合には(S3052YES)、当該2つのノードの統合処理を行う(S3053)。
ここで、本実施形態に係るノードの統合処理の態様について説明する。図8は、ノードの統合処理(S3053)に関する概念図である。図8(a)は、上方左右の2つの着色されたノードを下方の1つの着色されたノードへと統合する場合の第1の統合例である。同図において、Eは前述の誤差を表し、Cはこれまでに包含したデータ数を表している。上方左側のノードの誤差Eはα(>0)、データ数Cはk(0以上の整数)であり、上方右側のノードの誤差Eはβ(>0)、データ数Cはm(0以上の整数)である。これらのノードを統合する際、各ノードに対応付けられたデータは1つのノードに対応付けられるように統合される。また、統合後の誤差Eは、上述の各誤差αとβとを各データ数k及びmを用いて重み付け加算することにより算出される。さらに、統合後のデータ数Cは各データ数k及びmを足し合わせることにより算出される。
このような構成によれば、ノード同士の統合は包含されるデータ数に応じて重み付け加算を行うことにより行われるので、データ数に基づく信頼性に応じた学習関連パラメータの統合を行うことができる。
図8(b)は、上方左右の2つの着色されたノードを下方の1つの着色されたノードへと統合する場合の第2の統合例である。上方左側のノードの誤差Eはα(>0)、データ数Cはn(0以上の整数)であり、上方右側のノードの誤差Eは∞、データ数Cは1である。ここで、誤差Eが∞となっているのは、当該ノードに対応付けられたデータ数が未だ1個であり、誤差が定義されていないことから便宜的に付与された値である。これらのノードを統合する際、各ノードに対応付けられたデータは1つのノードに対応付けられるように統合される。また、統合後の誤差Eは、上述の各誤差αと∞とに基づき、αとして算出される。さらに、統合後のデータ数Cは各データ数n及び1を足し合わせることによりn+1として算出される。
なお、本実施形態においては、ノードの統合処理を行う上で、各ノードに対応付けられる各データ、誤差E、及びデータ数Cが統合の対象となるものとしたが、統合の対象はこれらのパラメータに限定されるものではない。従って、ノードの統合に際して、ノードへと対応付けられた他のパラメータを統合の対象としてもよいことは勿論である。
図6に戻り、ノードの統合処理(S3053)が完了すると、統合後のノードが記憶部4へと記憶される(S3053)。その後、全てのノード位置が処理されたか否かの判定処理が行われる(S3055)。
一方、着目位置において、いずれの学習木においてもノードが存在する場合でない場合(S3052NO)、次に、いずれか一方の学習木においてノードが存在するか否かの判定処理が行われる(S3057)。いずれか一方の学習木においてノードが存在しない場合(S3057NO)、すべてのノード位置が処理されたか否かの判定処理が行われる(S3055)。いずれか一方の学習木の着目位置においてノードが存在する場合(S3057YES)、存在する一方の学習木のデータの着目ノード以下のノードを統合後のデータとして複製・保存する(S3058)。その後、全てのノード位置が処理されたか否かの判定処理が行われる(S3055)。
このような構成によれば、あるノードが一方の学習済モデルのみに存在する場合には当該ノード以下のノードについても当該一方の学習済モデルにのみに存在することを利用して、効率的な統合処理を行うことができる。
すべてのノード位置について処理が行われた場合(S3055YES)、処理は終了する。一方、未だすべてのノード位置について処理が行われていない場合(S3055)、着目位置を所定の次のノード位置へと変更設定する処理が行われ(S3056)、再び、ノードの統合処理(S3053)、或いは一方のノードの複製処理(S3058)等が行われる。なお、このとき、上位のノード位置から順に着目位置の設定(深さ優先探索)が行われる。これは、一方の学習木のみにノードが存在する場合に(S3057)、着目ノード以下のノードの複製を行うことから(S3058)、上位のノード位置から探索を行った方が効率的なためである。
図7は、学習木の統合に関する概念図である。同図から明らかな通り、同図左上の第1の学習木と、同図右上の第2の学習木とを統合すると、同図下段に示されるように、黒色のノードについては統合処理が行われ、一方、白色のノードについては第1の学習木又は第2の学習木のノードが複製されることとなる。
<1.3 実験結果>
以下では、図9〜図10を参照しつつ、本実施形態に係る統合処理装置10を用いて、2つの学習済モデルの統合処理を行った場合の実験結果を示す。
<1.3.1 実験結果(その1)>
図9は、2つの学習済モデルの統合処理を行った場合の実験結果(その1)である。図9(a)は、正弦曲線(サインカーブ)について、−πから0の範囲まで1/2周期分学習させた場合の第1の学習済モデルの予測出力である。一方、図9(b)は、正弦曲線(サインカーブ)について、0からπまでの1/2周期分学習させた場合の第2の学習済モデルの予測出力である。これらの2つの学習済モデルを統合処理装置10を用いて統合すると単一の学習済モデルとなり、その予測出力は図9(c)に示す通りとなる。すなわち、これらの図から明らかな通り、−πから0までの半周期分と、0からπまでの半周期分とを統合することにより、−πからπまでの1周期分の正弦曲線をその全領域にわたり精度良く予測できる学習済モデルが生成されたことが確認される。
<1.3.2 実験結果(その2)>
図10は、2つの学習済モデルの統合処理を行った場合の実験結果(その2)である。図10(a)は、−πからπの1周期分、荒い精度で学習させた場合の第1の学習済モデルの予測出力である。一方、図10(b)は、−π/2からπ/2の範囲においては精度良く正弦曲線を学習しているものの、−πから−π/2の範囲、及びπ/2からπまでの範囲においてはおよそそれぞれの延長となるように横軸に平行な線分となるよう学習している場合の第2の学習済モデルの予測出力である。これらの2つの学習済モデルを統合処理装置10を用いて統合すると単一の学習済モデルとなり、その予測出力は図10(c)に示す通りとなる。すなわち、−πから−π/2の範囲においては、荒く正弦曲線が再現されており、−π/2からπ/2の範囲においては、精度良く正弦曲線が再現されており、π/2からπまでの範囲においては、荒く正弦曲線が再現されている。これより、精度良く学習させた範囲については精度よく、荒く学習させた範囲については大まかな予測出力を生成する学習済モデルを生成することができることが確認される。
<2.その他>
上述の実施形態においては、単一の統合処理装置10内で2つの異なる学習済モデルを統合する処理について説明したが、本開示はそのような構成に限定されない。従って、例えば、大規模な統合処理システムとして構成してもよい。
図11は、大規模統合処理システム80の概略構成図である。同図から明らかな通り、大規模統合処理システム80は、上位から、1又は2以上の統合処理装置10を含む最上位層81、1又は2以上の統合処理装置10を含む第1の中間層82、1又は2以上の学習処理装置を含む第2の中間層83、及び、複数のデバイスを含むデバイス層84から構成され、各層は互いに、有線又は無線通信により接続されている。
デバイス層84の各デバイスにて取得された学習対象となるデータ(例えば、センサデータ等)は、第2の中間層83へと送信され、第2の中間層83では、当該データに基づいて、木構造を有する学習モデル上で学習処理が行われる。この学習処理の結果、第2の中間層83上には、複数の学習済モデルが生成されることとなる。第1の中間層は、上記第2の中間層上の学習済モデルに関するデータを受信すると共に、各学習済モデルの統合処理を行う。これにより、第1の中間層82上には、複数の統合した学習済モデルが生成されることとなる。第1の中間層82上の学習済モデルに関するデータは、その後、最上位層へと送信され、最上位層の統合処理装置において再度統合処理が行われる。以上のような構成によれば、大規模なシステムであっても、各層の学習処理乃至統合処理の負荷は小さく、かつ、最上位層81には包括的な学習済モデルが生成されることとなる。
このような構成によれば、1又は2以上学習装置を含む学習装置層(第2の中間層)にて生成された学習済モデルを統合装置層(最上位層81又は第1の中間層82)の1又は2以上の学習済モデル統合装置により適宜統合することができるシステム、特に、大規模な学習・統合処理に好適なシステムを提供することができる。
また、上述の実施形態では、学習済モデルの統合処理は、いずれも統合処理装置10内にて行う構成とした。しかしながら、本開示はそのような構成に限定されない。従って、例えば、サーバ装置40とクライアント装置30とから構成される情報処理システム(サーバ・クライアント・システム或いはSaaSシステム)として構成してもよい。
図12は、上記情報処理システム100の概略構成図である。クライアント装置30は、クライアント装置30の制御を行う制御部31、入出力を行うためのI/O部32、サーバ装置40と通信を行う通信部33、及び種々の情報を記憶する記憶部34とから構成されている。また、サーバ装置40は、サーバ装置40の制御を行う制御部41、入出力を行うためのI/O部42、クライアント装置30と通信を行う通信部43、及び種々の情報を記憶する記憶部44とから構成されている。
このような情報処理システム100において、ユーザがクライアント装置30から学習対象となるデータファイルをサーバ装置40へと送信すると、サーバ装置40は、当該データファイルに基づいて学習処理を実行する。当該学習処理の完了後、サーバ装置40は、学習条件(入出力次元や種々のパラメータ等)を含むパラメータファイルと、学習済モデルに関するデータファイルとをバイナリファイルとしてユーザへと返送する。
その後、ユーザは、複数(例えば、2つ)の異なるパラメータファイルとデータファイルをサーバ装置40へと送信すると共に、サーバ装置40へと通信を介して統合処理指令を行うことで、ユーザはサーバ装置40上でデータの統合処理を行うことができる。このような構成によれば、クライアント装置30が高い演算能力や記憶能力を持つ必要がないので学習処理乃至統合処理が行いやすくなる。
所定の学習処理により生成された学習済モデルの統合処理を行う学習済モデル統合方法、装置、プログラム、ICチップ、及びシステム、特に、木構造を有する学習済モデルの統合を行う学習済モデル統合方法、装置、プログラム、ICチップ、及びシステムを製造等する産業にて利用可能である。
1 制御部
2 I/O部
3 通信部
4 記憶部
10 統合処理装置
30 クライアント装置
31 制御部
32 I/O部
33 通信部
34 記憶部
40 サーバ装置
41 制御部
42 I/O部
43 通信部
44 記憶部
80 大規模統合処理システム
81 最上位層
82 第1の中間層
83 第2の中間層
84 デバイス層
100 情報処理システム(サーバ・クライアント・システム)

Claims (9)

  1. 階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する学習済モデル統合方法であって、
    所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出ステップと、
    前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合ステップと、
    を備える学習済モデル統合方法。
  2. 前記統合ステップにおいて、
    一の学習済モデルのみにノードが存在する場合には当該ノードと共に当該ノード以下に存在するすべてのノードが複製される、請求項1に記載の学習済モデル統合方法。
  3. 前記複数の異なる学習済モデルの各前記ノードには、前記学習の過程において生成された学習関連パラメータと、各前記ノードに対応する状態空間に包含されるデータ数と、が対応付けられており、
    前記統合ステップは、さらに、
    前記ノードを統合するに際して統合対象となる複数のノードの前記データ数をそれぞれ加算するデータ数加算ステップと、
    前記ノードを統合するに際して統合対象となる複数のノードに対応付けられた各前記学習関連パラメータを前記各データ数に応じて重み付け加算する誤差量加算ステップと、を備える請求項1に記載の学習済モデル統合方法。
  4. 前記学習関連パラメータは、各前記ノードにおいて前記学習の過程において生成され、かつ予測精度に相当する誤差量である、請求項3に記載の学習済モデル統合方法。
  5. 前記データ読出ステップは、さらに、
    各前記学習済モデルの各学習条件に相当するパラメータを含むパラメータファイルを読み出すパラメータファイル読出ステップを含み、
    前記学習済モデル統合方法は、さらに、
    各前記学習条件に相当する各パラメータのうちの所定のパラメータが互いに一致する場合には前記統合ステップを行い、かつ、各前記所定のパラメータが互いに一致しない場合には前記統合ステップを行わない判定ステップ、を含む請求項1に記載の学習済モデル統合方法。
  6. 階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する学習済モデル統合装置であって、
    所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出部と、
    前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合部と、
    を備える学習済モデル統合装置。
  7. コンピュータを、階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する学習済モデル統合装置として機能させる学習済モデル統合プログラムであって、
    所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出ステップと、
    前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合ステップと、
    を備える学習済モデル統合プログラム。
  8. 階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに対して所定のデータ群を学習させることにより得られた複数の異なる学習済モデルを統合する機能を有するICチップであって、
    所定の記憶部から前記複数の異なる学習済モデルに関するデータを読み出す、データ読出部と、
    前記複数の異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記複数の異なる学習済モデル同士を単一の学習済モデルへと統合する、統合部と、
    を備えるICチップ。
  9. 階層的に分割された状態空間へとそれぞれ対応付けられた複数のノードを階層的に配置することにより構成された木構造を有する学習モデルに基づいて所定のデータ群に基づく学習処理を行い学習済モデルを生成する学習装置を1又は2以上備える学習装置層と、
    前記学習装置層と通信を介して接続され、各前記学習装置にて生成された各前記学習済モデルを統合する学習済モデル統合装置を1又は2以上備える統合装置層と、から成る統合処理システムであって、
    前記学習済モデル統合装置は、
    所定の記憶部から前記異なる学習済モデルに関するデータを読み出す、データ読出部と、
    前記異なる学習済モデルに係る木構造を構成する各ノードについて、一の学習済モデルのみにノードが存在する場合には当該ノードを複製し、複数の学習済モデルの対応する位置にそれぞれノードが存在する場合には対応する各前記ノード同士を統合することにより、前記異なる学習済モデル同士を統合する、統合部と、
    を備える統合処理システム。
JP2019534067A 2017-07-31 2018-07-24 学習済モデル統合方法、装置、プログラム、icチップ、及びシステム Active JP6713099B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017148319 2017-07-31
JP2017148319 2017-07-31
PCT/JP2018/027774 WO2019026703A1 (ja) 2017-07-31 2018-07-24 学習済モデル統合方法、装置、プログラム、icチップ、及びシステム

Publications (2)

Publication Number Publication Date
JPWO2019026703A1 true JPWO2019026703A1 (ja) 2020-05-28
JP6713099B2 JP6713099B2 (ja) 2020-06-24

Family

ID=65232554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019534067A Active JP6713099B2 (ja) 2017-07-31 2018-07-24 学習済モデル統合方法、装置、プログラム、icチップ、及びシステム

Country Status (4)

Country Link
US (1) US11475371B2 (ja)
EP (1) EP3663992A4 (ja)
JP (1) JP6713099B2 (ja)
WO (1) WO2019026703A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11240153B1 (en) 2020-07-31 2022-02-01 Cisco Technology, Inc. Scoring policies for predictive routing suggestions

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016173686A (ja) * 2015-03-16 2016-09-29 国立大学法人岩手大学 情報処理装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7293000B2 (en) * 2002-02-22 2007-11-06 Lee Shih-Jong J Information integration method for decision regulation in hierarchic decision systems
US7480640B1 (en) * 2003-12-16 2009-01-20 Quantum Leap Research, Inc. Automated method and system for generating models from data
JP2006293442A (ja) * 2005-04-05 2006-10-26 Sony Corp 情報処理装置および方法、並びにプログラム
US8805861B2 (en) * 2008-12-09 2014-08-12 Google Inc. Methods and systems to train models to extract and integrate information from data sources
US8429110B2 (en) * 2010-06-10 2013-04-23 Microsoft Corporation Pattern tree-based rule learning
JP2012008659A (ja) * 2010-06-22 2012-01-12 Sony Corp データ処理装置、データ処理方法、およびプログラム
JP2012108748A (ja) * 2010-11-18 2012-06-07 Sony Corp データ処理装置、データ処理方法、およびプログラム
US8620837B2 (en) * 2011-07-11 2013-12-31 Accenture Global Services Limited Determination of a basis for a new domain model based on a plurality of learned models
US8209271B1 (en) * 2011-08-15 2012-06-26 Google Inc. Predictive model training on large datasets
US20140236875A1 (en) * 2012-11-15 2014-08-21 Purepredictive, Inc. Machine learning for real-time adaptive website interaction
US20140358828A1 (en) * 2013-05-29 2014-12-04 Purepredictive, Inc. Machine learning generated action plan
US9646262B2 (en) * 2013-06-17 2017-05-09 Purepredictive, Inc. Data intelligence using machine learning
GB2541625A (en) * 2014-05-23 2017-02-22 Datarobot Systems and techniques for predictive data analytics
US10452992B2 (en) * 2014-06-30 2019-10-22 Amazon Technologies, Inc. Interactive interfaces for machine learning model evaluations
WO2016067483A1 (ja) * 2014-10-28 2016-05-06 日本電気株式会社 推定結果表示システム、推定結果表示方法および推定結果表示プログラム
US20180039905A1 (en) * 2016-08-03 2018-02-08 International Business Machines Corporation Large scale distributed training of data analytics models

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016173686A (ja) * 2015-03-16 2016-09-29 国立大学法人岩手大学 情報処理装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
出澤純一 株式会社エイシング: "『日本初』『世界初』機械制御AI DeepBinaryTree:DBT", 「軽量エッジデバイスに実装可能な機械学習アルゴリズム」, JPN6018037967, 27 April 2018 (2018-04-27), JP, pages 1 - 28, ISSN: 0004219309 *
大谷紀子ほか: "決定木生成のための共生進化における部分解の検討", 電子情報通信学会技術研究報告 VOL.103 NO.725, vol. 第103巻 第725号, JPN6018037962, 9 March 2004 (2004-03-09), JP, pages 101 - 106, ISSN: 0004219308 *
金 天海 ほか: "力学系学習木における誤差ベース予測アルゴリズム", 情報処理学会 研究報告 数理モデル化と問題解決(MPS), vol. Vol.2017-MPS-112, No.25, JPN6018022600, 20 February 2017 (2017-02-20), JP, pages 1 - 5, ISSN: 0004219307 *

Also Published As

Publication number Publication date
US11475371B2 (en) 2022-10-18
JP6713099B2 (ja) 2020-06-24
US20190138936A1 (en) 2019-05-09
EP3663992A1 (en) 2020-06-10
EP3663992A4 (en) 2021-05-05
WO2019026703A1 (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
CN111406267B (zh) 使用性能预测神经网络的神经架构搜索
JP6790286B2 (ja) 強化学習を用いたデバイス配置最適化
US11468366B2 (en) Parallel development and deployment for machine learning models
CN110651280B (zh) 投影神经网络
JP6608981B2 (ja) 異常セッション感知方法
Brownlee XGBoost With python: Gradient boosted trees with XGBoost and scikit-learn
EP3711000B1 (en) Regularized neural network architecture search
JP6648352B2 (ja) 汎用学習済モデルの生成方法
US11861474B2 (en) Dynamic placement of computation sub-graphs
JP2021507323A5 (ja)
CA3061667C (en) Systems and methods for assessing item compatibility
JP2019032808A (ja) 機械学習方法および装置
JP6506360B2 (ja) 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム
CN114072809A (zh) 经由神经架构搜索的小且快速的视频处理网络
WO2019026702A1 (ja) データ量圧縮方法、装置、プログラム及びicチップ
CN116126354A (zh) 模型部署方法、装置、电子设备以及存储介质
CN112819151A (zh) 用于识别图像的方法和设备以及训练方法
US20200074277A1 (en) Fuzzy input for autoencoders
JP6713099B2 (ja) 学習済モデル統合方法、装置、プログラム、icチップ、及びシステム
US20220245291A1 (en) Apparatus, system and method for three-dimensional (3d) modeling with a plurality of linked metadata feeds
WO2022127603A1 (zh) 一种模型处理方法及相关装置
JP7489275B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
WO2017159523A1 (ja) 推論システム、推論方法、及び、記録媒体
CN115049899B (zh) 模型训练方法、指代表达式生成方法及相关设备
JP7462206B2 (ja) 学習装置、学習方法、及び学習プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200123

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200326

R150 Certificate of patent or registration of utility model

Ref document number: 6713099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250