JP2020115311A - モデル統合装置、モデル統合方法、モデル統合プログラム、推論システム、検査システム、及び制御システム - Google Patents
モデル統合装置、モデル統合方法、モデル統合プログラム、推論システム、検査システム、及び制御システム Download PDFInfo
- Publication number
- JP2020115311A JP2020115311A JP2019006777A JP2019006777A JP2020115311A JP 2020115311 A JP2020115311 A JP 2020115311A JP 2019006777 A JP2019006777 A JP 2019006777A JP 2019006777 A JP2019006777 A JP 2019006777A JP 2020115311 A JP2020115311 A JP 2020115311A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- integration
- model
- learned
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本発明を適用した場面の一例を模式的に例示する。図1に示されるとおり、本実施形態に係る推論システム100は、モデル統合装置1及び複数の学習装置2を備えている。モデル統合装置1及び各学習装置2は、ネットワークを介して互いに接続されてよい。ネットワークの種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。
[ハードウェア構成]
<モデル統合装置>
次に、図2を用いて、本実施形態に係るモデル統合装置1のハードウェア構成の一例について説明する。図2は、本実施形態に係るモデル統合装置1のハードウェア構成の一例を模式的に例示する。
次に、図3を用いて、本実施形態に係る各学習装置2のハードウェア構成の一例について説明する。図3は、本実施形態に係る各学習装置2のハードウェア構成の一例を模式的に例示する。
<モデル統合装置>
次に、図4を用いて、本実施形態に係るモデル統合装置1のソフトウェア構成の一例について説明する。図4は、本実施形態に係るモデル統合装置1のソフトウェア構成の一例を模式的に例示する。
次に、各学習モデル4の一例について説明する。図4に示されるとおり、本実施形態では、各学習モデル4は、ニューラルネットワークにより構成される。具体的には、各学習モデル4は、6層構造のニューラルネットワークにより構成され、入力側から順に、入力層51、中間(隠れ)層52〜55、及び出力層56を備えている。ただし、各学習モデル4の構造は、このような例に限定されなくてもよく、各学習装置2において適宜決定されてよい。例えば、各学習モデル4の備える中間層の数は、4つに限定されなくてもよく、3つ以下であってもよいし、5つ以上であってもよい。
(A)学習処理
次に、図6Aを用いて、本実施形態に係る各学習装置2の学習処理に関するソフトウェア構成の一例について説明する。図6Aは、本実施形態に係る各学習装置2の学習処理に関するソフトウェア構成の一例を模式的に例示する。
次に、図6Bを用いて、本実施形態に係る各学習装置2の推論処理に関するソフトウェア構成の一例について説明する。図6Bは、本実施形態に係る各学習装置2の推論処理に関するソフトウェア構成の一例を模式的に例示する。
モデル統合装置1及び各学習装置2の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、モデル統合装置1及び各学習装置2の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。また、モデル統合装置1及び各学習装置2それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
[学習装置]
(A)学習処理
次に、図7を用いて、機械学習に関する各学習装置2の動作例について説明する。図7は、各学習装置2による機械学習に関する処理手順の一例を示すフローチャートである。ただし、以下で説明する各処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する各処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS101では、制御部21は、学習データ収集部211として動作し、学習モデル4の機械学習に利用するローカル学習データ3を収集する。本実施形態では、制御部21は、訓練データ31及び正解データ32の組み合わせをそれぞれ含む複数の学習データセット30をローカル学習データ3として収集する。
ステップS102では、制御部21は、構造決定部212として動作し、学習モデル4の構造を決定する。本実施形態では、学習モデル4は、ニューラルネットワークにより構成される。そのため、本ステップS102では、制御部21は、学習モデル4を構成するニューラルネットワークの構造を決定する。ニューラルネットワークの構造は、例えば、ニューラルネットワークの層数、各層に含まれるニューロンの数、各ニューロン間の結合関係等により規定される。
ステップS103では、制御部21は、学習処理部213として動作し、収集されたローカル学習データ3を利用した機械学習により、所定の能力を獲得した学習済みの学習モデル4を構築する。本実施形態では、制御部21は、各学習データセット30に含まれる訓練データ31及び正解データ32を利用して、学習モデル4を構成するニューラルネットワークの学習処理を実行する。この学習処理には、確率的勾配降下法等が用いられてよい。
ステップS104では、制御部21は、保存処理部214として動作し、機械学習により構築された学習済みの学習モデル4に関する情報を所定の記憶領域に保存する。本実施形態では、制御部21は、ステップS103の機械学習により構築された学習済みのニューラルネットワーク(学習モデル4)の構造及び演算パラメータを示す情報を学習結果データ221として生成する。そして、制御部21は、生成された学習結果データ221を所定の記憶領域に保存する。
次に、図8を用いて、推論処理に関する各学習装置2の動作例について説明する。図8は、各学習装置2による推論処理に関する処理手順の一例を示すフローチャートである。ただし、以下で説明する各処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する各処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS201では、制御部21は、対象データ取得部216として動作し、学習済みの学習モデル4に習得させた所定の能力を発揮する対象となる対象データ225を取得する。本実施形態では、各学習装置2は、外部インタフェース27を介してセンサSに接続されている。そのため、制御部21は、外部インタフェース27を介してセンサSから対象データ225を取得する。
ステップS202では、制御部21は、推論部217として動作し、学習済みの学習モデル4を利用して、対象データ225に含まれる特徴を推論する。本実施形態では、制御部21は、学習結果データ221を参照して、学習済みの学習モデル4の設定を行う。次に、制御部21は、取得された対象データ225を学習済みの学習モデル4に入力し、当該学習済みの学習モデル4の演算処理を実行する。すなわち、制御部21は、学習済みの学習モデル4の入力層51に対象データ225を入力し、入力側から順に各層51〜56に含まれる各ニューロンの発火判定を行う。これにより、制御部21は、対象データ225に含まれる特徴を推論した結果に対応する出力値を学習済みの学習モデル4の出力層56から取得する。
ステップS203では、制御部21は、出力部218として動作し、特徴を推論した結果に関する情報を出力する。
次に、図9を用いて、モデル統合装置1の動作例について説明する。図9は、モデル統合装置1によるモデル統合に関する処理手順の一例を示すフローチャートである。以下で説明する処理手順は、本発明の「モデル統合方法」の一例である。ただし、以下で説明する各処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する各処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
ステップS301では、制御部11は、モデル収集部111として動作し、各学習装置2から学習済みの学習モデル4を収集する。本実施形態では、各学習済みの学習モデル4を収集することは、各学習装置2により生成された学習結果データ221を収集することにより構成される。
ステップS302では、制御部11は、範囲調整部112として動作し、収集された各学習済みの学習モデル4に含まれる共通部分40内において統合範囲41を決定する。統合範囲41を決定する方法の詳細については後述する。統合範囲41を決定すると、制御部11は、次のステップS303に処理を進める。
ステップS303では、制御部11は、統合処理部113として動作し、各学習済みの学習モデル4に対して、共通部分40内に設定された統合範囲41に反映された機械学習の結果を統合する統合処理を実行する。
第1の方法では、制御部11は、統合範囲41に含まれる演算パラメータの値を平均化又は合計することにより、統合範囲41に含まれる演算パラメータの値を統合する。この第1の方法によれば、各学習済みの学習モデル4の統合範囲41に含まれる演算パラメータの値が均等に反映された統合処理の結果43を得ることができる。
第2の方法では、制御部11は、統合処理において、各学習済みの学習モデル4の統合範囲41に含まれる演算パラメータの値に重み付けを行う。この場合、本ステップS303を実行する前に、制御部11は、重み設定部115として動作し、各学習済みの学習モデル4に対して重みを設定する。各重みは、本ステップS303の統合処理における各学習済みの学習モデル4の優先度合いを定める。本実施形態では、制御部11は、以下の2つの設定方法のうちのいずれかの方法により、各学習済みの学習モデル4に対する重みを設定する。
機械学習に利用したローカル学習データ3の数(すなわち、学習データセット30の件数)が多いほど、学習済みの学習モデル4の所定の能力を発揮する精度は高く成り得る。そこで、第1の設定方法では、制御部11は、機械学習に利用したローカル学習データ3の数が多いほど重みが大きくなるように、各重みを設定する。これにより、利用したローカル学習データ3の数の多い機械学習の結果をより優先的に反映するように各学習済みの学習モデル4の統合範囲41を統合することができる。
例えば、画像データに写る製品の外観検査を行う能力を各学習モデル4に取得させる場面を想定する。この場面において、シミ、汚れ、傷等の欠陥を含む製品の写る画像データがローカル学習データ3に含まれている比率が高いほど、そのローカル学習データ3を利用した機械学習により構築された学習済みの学習モデル4の欠陥を推定する精度は高くなり得る。そこで、第2の設定方法では、ローカル学習データ3が、所定の能力における特定の要素に関する特定学習データを含む場合に、制御部11は、機械学習に利用したローカル学習データ3に含まれる特定学習データの比率が高いほど重みが大きくなるように、各重みを設定する。
ステップS304では、制御部11は、モデル更新部114として動作し、統合処理の結果43を示す統合結果データ121を各学習装置2に配信する。これによって、制御部11は、各学習装置2に対して、各学習済みの学習モデル4内の統合範囲41に統合処理の結果43を適用させることで、各学習装置2の保持する学習済みの学習モデル4を更新する。このとき、制御部11は、配信した統合処理の結果43により学習済みの学習モデル4を更新する指示を各学習装置2に送信するか否かは、実施の形態に応じて適宜選択あれてよい。
次に、上記ステップS302における統合範囲41を決定する方法の具体例について説明する。本実施形態では、制御部11は、以下の3つの方法のうちの少なくともいずれかの方法により、共通部分40内において統合範囲41を決定する。
各学習装置2における各学習済みの学習モデル4の構造は、テンプレート126により与えられてもよい(ステップS102)。これに対応して、第1の方法では、制御部11は、テンプレート126に基づいて、統合範囲41を決定する。
次に、図10を用いて、統合範囲41を決定するための第2の方法の一例について説明する。図10は、第2の方法により統合範囲41を決定する場面の一例を模式的に例示する。統合範囲41が予め設定された上で、各学習モデル4の構造が決定されているとは限らない。そこで、第2の方法では、制御部11は、各学習済みの学習モデル4の共通部分40において、演算処理の類似する部分を統合範囲41に決定する。
ステップS401では、制御部11は、各学習済みの学習モデル4に評価用サンプル129を入力して、共通部分40に含まれる各演算モジュールから出力を取得する。本実施形態では、制御部11は、評価用サンプル129に含まれる入力データを入力層51に入力し、入力側から順に各ニューロンの発火判定を行う。これにより、制御部11は、各演算モジュールの出力層に対応する各層51〜53から出力値を取得する。
ステップS402では、制御部11は、各学習済みの学習モデル4の対応する演算モジュール間の、取得された出力の類似性及び相関性の少なくともいずれかを算出する。類似性及び相関性はそれぞれ、公知の方法により算出されてよい。類似性は、例えば、ノルム(距離)等により算出されてよい。相関性は、例えば、相関係数、偏相関係数等により算出されてよい。図10の例では、各学習済みの学習モデル(4a、4b)の入力層51に入力データ1291を入力することで中間層52から得られる出力同士の類似性及び相関性が算出されている。類似性及び相関性の少なくともいずれかを算出すると、次のステップS403に処理を進める。
ステップS403では、制御部11は、算出された類似性及び相関性の少なくともいずれかが所定の条件を満たすか否かを判定する。所定の条件は、各学習済みの学習モデル4の対応する演算モジュールの出力が類似しているか否かを評価するように適宜設定される。例えば、所定の条件は、類似性及び相関性それぞれに対する閾値により規定されてよい。この場合、制御部11は、ステップS402により算出された類似性及び相関性の少なくともいずれかと閾値とを比較することで、算出された類似性及び相関性の少なくともいずれかが所定の条件を満たすか否かを判定する。各演算モジュールについて当該判定が完了すると、制御部11は、次のステップS404に処理を進める。
ステップS404では、制御部11は、上記判定の結果に基づいて、算出された類似性及び相関性の少なくともいずれかが所定の条件を満たす演算モジュールを統合範囲41に指定する。所定の条件を満たす複数の候補が存在した場合には、制御部11は、複数の候補から統合範囲41に指定する候補を適宜選択してもよい。例えば、制御部11は、最も広い範囲の候補、最も狭い範囲の候補、又は算出された類似性及び相関性の少なくともいずれかの最も高い候補を統合範囲41に指定してもよい。また、例えば、制御部11は、複数の候補を出力装置15に出力し、複数の候補から統合範囲41に指定する候補の選択を、入力装置14を介して受け付け、オペレータ等に選択された候補を統合範囲41に指定してもよい。また、例えば、制御部11は、複数の候補の中から統合範囲41に指定する候補をランダムに選択してもよい。統合範囲41の指定が完了すると、制御部11は、統合範囲41の決定に関する一連の処理を終了する。なお、いずれの演算モジュールの出力間で算出された類似性及び相関性も所定の条件を満たさない場合には、その他の方法により統合範囲41が決定されてもよい。或いは、ステップS303以下の統合処理が省略されてもよい。
ステップS303の統合処理は、一の学習済みの学習モデルに反映された機械学習の結果を他の学習済みの学習モデルに反映することで、各学習済みの学習モデルの能力の向上を図ることを目的として実行される。そこで、第3の方法では、制御部11は、ステップS303の統合処理を実行する前と比べて、当該統合処理を実行した後に各学習済みの学習モデル4の有する所定の能力が向上する、つまり、所定の能力を発揮する精度が上がるように統合範囲41を最適化する。
まず、図12及び図13を用いて、第1の最適化方法の一例について説明する。図12は、第1の最適化方法により統合範囲41を最適化する場面の一例を模式的に例示する。図13は、第1の最適化方法による統合範囲41の決定に関する処理手順の一例を示すフローチャートである。第1の最適化方法では、制御部11は、暫定的な統合処理前の各学習済みの学習モデル4の能力と暫定的な統合処理後の各学習済みの学習モデル4の能力とを比較することで、統合範囲41を最適化する。
ステップS501では、制御部11は、範囲調整部112として動作し、各学習済みの学習モデル4の共通部分40内において暫定統合範囲を指定する。例えば、制御部11は、共通部分40内で設定可能な統合範囲41の複数の候補(演算モジュール)の中から暫定統合範囲に指定する候補を選択する。図12では、共通部分40内で指定可能な3つの候補のうち、入力層51及び中間層52により構成される第2ネットワークを暫定統合範囲に指定した場面が例示されている。暫定統合範囲を指定すると、制御部11は、次のステップS502に処理を進める。
ステップS502では、制御部11は、統合処理部113として動作し、各学習済みの学習モデル4に対して、指定された暫定統合範囲に反映された機械学習の結果を統合する暫定統合処理を実行する。この暫定統合処理は、上記統合処理と同様に実行される。暫定統合処理において、暫定統合範囲に含まれる演算パラメータの値を統合する方法として、上記2つの方法のうちのいずれかの方法が採用されてよい。これにより、制御部11は、暫定統合範囲に対する暫定統合処理の結果を得ることができる。そして、図12に示されるとおり、制御部11は、この暫定統合処理の結果を各学習済みの学習モデル4の暫定統合範囲に適用することで、統合処理後の各学習済みの学習モデル4を得ることができる。暫定統合処理の結果を適用する方法は、上記統合処理の結果43を適用する方法と同様である。暫定統合処理を実行すると、制御部11は、次のステップS503に処理を進める。
ステップS503では、制御部11は、範囲調整部112として動作し、暫定統合処理前の各学習済みの学習モデル4、すなわち、暫定統合処理の結果を適用していない各学習済みの学習モデル4が評価用サンプル129に対して所定の能力を発揮した第1の結果を取得する。ステップS503は、上記ステップS202と同様に実行されてよい。すなわち、制御部11は、暫定統合処理前の各学習済みの学習モデル4の入力層51に入力データ1291を入力し、入力側から順に各層51〜56に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、入力データ1291に対して所定の能力を発揮した結果(本実施形態では、入力データ1291に含まれる特徴を推論した結果)に対応する出力値を暫定統合処理前の各学習済みの学習モデル4の出力層56から取得する。なお、以下のステップS504以降の各処理についても、制御部11は、範囲調整部112として動作し、各処理を実行する。
ステップS505では、制御部11は、第1の結果及び第2の結果を比較することで、暫定統合処理を実行する前と比べて、暫定統合処理を実行した後に各学習済みの学習モデル4の有する所定の能力が向上しているか否かを判定する。
ステップS506では、制御部11は、ステップS505の判定結果に基づいて、処理の分岐先を決定する。ステップS505において、暫定統合処理を実行する前と比べて、暫定統合処理を実行した後に各学習済みの学習モデル4の有する所定の能力が向上していると判定した場合、制御部11は、次のステップS507に処理を進める。一方、そうではない場合に、制御部11は、ステップS501に処理を戻し、ステップS501以下の処理を繰り返す。この繰り返しでは、制御部11は、ステップS501において、異なる暫定統合範囲を指定することで、暫定統合範囲を変更して、ステップS502以降の処理を実行する。
ステップS507では、制御部11は、ステップS501により指定された暫定統合範囲を統合範囲41に決定(採用)する。統合範囲41の決定が完了すると、制御部11は、第1の最適化方法による統合範囲41の決定に関する一連の処理を終了する。なお、この第1の最適化方法を採用する場合、制御部11は、ステップS507まで到達した一連の処理において、ステップS502により得られた暫定統合処理の結果をステップS303の統合処理の結果43として利用する。
次に、図14及び図15を用いて、第2の最適化方法の一例について説明する。図14は、第2の最適化方法により統合範囲41を最適化する場面の一例を模式的に例示する。図15は、第2の最適化方法による統合範囲41の決定に関する処理手順の一例を示すフローチャートである。第2の最適化方法では、制御部11は、複数の暫定統合範囲を指定し、指定された複数の暫定統合範囲の中から統合処理により所定の能力が最も向上する暫定統合範囲を特定することで、統合範囲41を最適化する。
ステップS601では、制御部11は、範囲調整部112として動作し、各学習済みの学習モデル4の共通部分40内において複数の暫定統合範囲を指定する。暫定統合範囲を指定する方法は、上記ステップS501と同様であってよい。指定する暫定統合範囲の数は、特に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。図14では、入力層51及び中間層52により構成される第2ネットワーク、並びに入力層51及び2つの中間層(52、53)により構成される第3ネットワークの2つの候補を複数の暫定統合範囲として指定した場面が例示されている。複数の暫定統合範囲を指定すると、制御部11は、次のステップS602に処理を進める。
ステップS602では、制御部11は、統合処理部113として動作し、指定された暫定統合範囲毎に、各学習済みの学習モデル4に対する、指定された各暫定統合範囲に反映された機械学習の結果を統合する暫定統合処理を実行する。暫定統合範囲毎の暫定統合処理は、上記ステップS502と同様に実行されてよい。これにより、制御部11は、暫定統合処理の結果を暫定統合範囲毎に得ることができる。そして、図14に示されるとおり、制御部11は、暫定統合範囲毎に、暫定統合処理の結果を各学習済みの学習モデル4に適用することで、暫定統合処理後の各学習済みの学習モデル4を得ることができる。暫定統合処理の結果を適用する方法は、上記統合処理の結果43を適用する方法と同様である。指定された暫定統合範囲毎に暫定統合処理を実行すると、制御部11は、次のステップS603に処理を進める。
ステップS603では、制御部11は、範囲調整部112として動作し、指定された暫定統合範囲毎に、暫定統合処理を実行した後の各学習済みの学習モデル4が評価用サンプル129に対して所定の能力を発揮した結果を取得する。各結果を取得する方法は、上記ステップS504と同様であってよい。すなわち、制御部11は、指定された暫定統合範囲毎に、暫定統合処理後の各学習済みの学習モデル4の入力層51に入力データ1291を入力し、入力側から順に各層51〜56に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、指定された暫定統合範囲毎に、入力データ1291に対して所定の能力を発揮した結果に対応する出力値を暫定統合処理後の各学習済みの学習モデル4の出力層56から取得する。各結果を取得すると、制御部11は、次のステップS604に処理を進める。なお、以下のステップS604以降の各処理についても、制御部11は、範囲調整部112として動作し、各処理を実行する。
ステップS604では、制御部11は、取得された各結果に基づいて、暫定統合処理を実行した後の各学習済みの学習モデル4の有する所定の能力が最も高い暫定統合範囲を特定する。指定された各暫定統合範囲に対する暫定統合処理により得られた各学習済みの学習モデル4の所定の能力を比較する方法は、上記ステップS505と同様であってよい。すなわち、制御部11は、指定された暫定統合範囲毎に、各学習済みの学習モデル4から得られた出力値と正解データ1292とを照合することで、暫定統合処理後の各学習済みの学習モデル4の入力データ1291に対する正答率を各結果から算出してもよい。次に、制御部11は、暫定統合範囲毎に算出された各学習済みの学習モデル4の正答率を比較してもよい。そして、この比較の結果に基づいて、制御部11は、正答率の最も高い各学習済みの学習モデル4を与えた暫定統合範囲を特定してもよい。これにより、制御部11は、暫定統合処理を実行した後の各学習済みの学習モデル4の有する所定の能力が最も高い暫定統合範囲を特定することができる。所定の能力の最も高い暫定統合処理後の各学習済みの学習モデル4を与える暫定統合範囲を特定すると、制御部11は、次のステップS605に処理を進める。
ステップS605では、制御部11は、ステップS604により特定された暫定統合範囲を統合範囲41に決定(採用)する。統合範囲41の決定が完了すると、制御部11は、第2の最適化方法による統合範囲41の決定に関する一連の処理を終了する。なお、この第2の最適化方法を採用する場合、制御部11は、所定の能力の最も高い暫定統合処理後の各学習済みの学習モデル4を与える暫定統合範囲に対してステップS602により暫定統合処理を実行した結果をステップS303の統合処理の結果43として利用する。
次に、図16を用いて、各学習装置2のグルーピングの一例について説明する。図16は、各学習装置2をグルーピングする場面の一例を模式的に例示する。
まず、図17を用いて、第1のグルーピング方法の一例について説明する。図17は、第1のグルーピング方法による各学習装置2に対するグループの割り当てに関する処理手順の一例を示すフローチャートである。第1のグルーピング方法では、制御部11は、グループのリストから所望のグループを各学習装置2に選択させることで、各学習装置2を複数のグループのうちの少なくともいずれかに割り当てる。
次に、図18を用いて、第2のグルーピング方法の一例について説明する。図18は、第2のグルーピング方法による各学習装置2に対するグループの割り当てに関する処理手順の一例を示すフローチャートである。第2のグルーピング方法では、制御部11は、各学習モデル4の属性に応じて、各学習装置2を適切なグループに割り当てる。
ステップS801では、制御部11は、各学習モデル4に習得させる所定の能力に関する属性データを各学習装置2から取得する。属性データを取得する方法は、上記ステップS301において学習結果データ221を収集する方法と同様であってよい。制御部11は、各学習装置2から属性データを直接的に又は間接的に取得してよい。また、制御部11は、上記ステップS301において、学習結果データ221に付随して属性データを取得してもよい。
ステップS802では、制御部11は、各学習装置2から取得された属性データをクラスタリングする。クラスタリングの方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。クラスタリングには、例えば、k平均法(k-meansクラスタリング)等の公知の方法が採用されてよい。
各学習装置2のグルーピングが変更されると、統合処理を適用する学習済みの学習モデル4も変更される。これにより、統合処理を実行することにより、各学習済みの学習モデル4に習得させた能力の向上する度合いが相違し得る。そこで、第3のグルーピング方法では、上記統合範囲41を決定する第3の方法と同様に、制御部11は、ステップS303の統合処理を実行する前に比べて、統合処理を実行した後に各学習済みの学習モデル4の有する所定の能力が向上するように、複数のグループに対する各学習装置2の割当を最適化する。最適化の方法は、上記統合範囲41を決定する第3の方法と同様に、実施の形態に応じて適宜決定されてよい。
ステップS901では、制御部11は、グルーピング部116として動作し、複数のグループに対する各学習装置2の割り当ての異なる複数の暫定的なグループ分け(以下、「暫定グループ分け」とも記載する)を行う。各暫定的なグループ分けは、適宜決定されてよい。例えば、制御部11は、複数のグループのうちのいずれかのグループに各学習装置2をランダムに割り当てることで、複数の暫定グループ分けを行ってもよい。また、例えば、制御部11は、上記第1のグルーピング方法及び第2のグルーピング方法の少なくともいずれかの方法により、暫定グループ分けを行ってもよい。割り当ての異なる複数の暫定グループ分けを行うと、制御部11は、次のステップS902に処理を進める。なお、制御部11は、ステップS901の前又は後に、上記ステップS301を実行することで、各学習済みの学習モデル4を各学習装置2から収集する。
ステップS902では、制御部11は、範囲調整部112として動作し、暫定グループ分け毎に、同一のグループ内で、収集された各学習済みの学習モデル4に含まれる共通部分40内において統合範囲41を決定する。ステップS902において統合範囲41を決定する方法は、上記ステップS302と同様であってよい。暫定グループ分け毎に同一のグループ内で統合範囲41を決定すると、制御部11は、次のステップS903に処理を進める。
ステップS903では、制御部11は、統合処理部113として動作し、暫定グループ分け毎に、同一のグループ内で、各学習済みの学習モデル4に対して、決定された統合範囲41に反映された機械学習の結果を統合する統合処理を実行する。ステップS903における統合処理は、上記ステップS303と同様であってよい。暫定グループ分け毎に同一のグループ内で統合処理を実行すると、制御部11は、次のステップS904に処理を進める。
ステップS904では、制御部11は、グルーピング部116として動作し、暫定グループ分け毎に、同一のグループ内で、統合処理を実行した後の各学習済みの学習モデル4が評価用サンプル129に対して所定の能力を発揮した結果を取得する。ステップS904において各結果を取得する方法は、上記ステップS603と同様であってよい。すなわち、制御部11は、暫定グループ分け毎に、同一のグループ内で、統合処理後の各学習済みの学習モデル4の入力層51に入力データ1291を入力し、入力側から順に各層51〜56に含まれる各ニューロンの発火判定を行う。これにより、制御部11は、暫定グループ分け毎に、同一のグループ内で、入力データ1291に対して所定の能力を発揮した結果に対応する出力値を統合処理後の各学習済みの学習モデル4の出力層56から取得する。各結果を取得すると、制御部11は、次のステップS905に処理を進める。なお、以下のステップ905以降の各処理についても、制御部11は、グルーピング部116として動作し、各処理を実行する。
ステップS905では、制御部11は、取得した各結果に基づいて、同一のグループ内で、統合処理を実行した後の各学習済みの学習モデル4の有する所定の能力が最も高い暫定グループ分けを特定する。各暫定グループ分けに対する統合処理により各グループ内で得られた各学習済みの学習モデル4の所定の能力を比較する方法は、上記ステップS604と同様であってよい。すなわち、制御部11は、暫定グループ分け毎に、同一のグループ内で、各学習済みの学習モデル4から得られた出力値と正解データ1292とを照合することで、統合処理後の各学習済みの学習モデル4の入力データ1291に対する正答率を各結果から算出してもよい。次に、制御部11は、暫定グループ分け毎に各グループで算出された各学習済みの学習モデル4の正答率を比較してもよい。そして、この比較の結果に基づいて、制御部11は、正答率の最も高い各学習済みの学習モデル4を与えた暫定グループ分けを特定してもよい。これにより、制御部11は、同一のグループ内で、統合処理を実行した後の各学習済みの学習モデル4の有する所定の能力が最も高い暫定グループ分けを特定することができる。所定の能力の最も高い統合処理後の各学習済みの学習モデル4を与える暫定グループ分けを特定すると、制御部11は、次のステップS906に処理を進める。
ステップS906では、制御部11は、特定された暫定グループ分けを各学習装置2のグループ分けとして採用する。すなわち、制御部11は、特定された暫定グループ分けに従って、複数のグループのうちの少なくともいずれかに各学習装置2を割り当てる。各学習装置2の割り当てが完了すると、制御部11は、第3のグルーピング方法によるグループの割り当てに関する一連の処理を終了する。
以上のとおり、本実施形態に係るモデル統合装置1は、ローカル学習データ3そのものを集結するのではなく、ステップS301及びステップS303の処理により、各学習装置2により構築された各学習済みの学習モデル4を収集し、収集された各学習済みの学習モデル4に対して統合処理を実行する。そのため、モデル統合装置1にかかる通信コスト及び計算コストを抑えることができる。また、ステップS303における統合処理は、各学習済みの学習モデル4に含まれる共通部分40に設定された統合範囲41に対して実行されるに過ぎないため、各学習モデル4の構造が相違していることが許容される。つまり、ローカル学習データ3の形式及び各学習モデル4の構造が不一致であったとしても、ステップS303における各学習済みの学習モデル4に対する統合処理は実行可能である。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態に係るモデル統合装置1は、センサSにより得られたセンシングデータに含まれる特徴を推論する場面に適用されている。しかしながら、上記実施形態の適用範囲は、このような例に限定される訳ではない。上記実施形態に係るモデル統合装置1は、機械学習により所定の能力を学習モデルに習得させるあらゆる場面に適用可能である。以下、適用場面を限定した5つの変形例を例示する。
図20は、第1変形例に係る検査システム100Aの適用場面の一例を模式的に例示する。本変形例は、生産ラインで生産される製品RAの外観検査を行う場面に上記実施形態に係るモデル統合装置1を適用した例である。図20に示されるとおり、本変形例に係る検査システム100Aは、モデル統合装置1及び複数の検査装置2Aを備えている。上記実施形態と同様に、モデル統合装置1及び各検査装置2Aは、ネットワークを介して互いに接続されてよい。
図21は、本変形例に係る各検査装置2Aのハードウェア構成の一例を模式的に例示する。図21に示されるとおり、本変形例に係る各検査装置2Aは、上記各学習装置2と同様に、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、ドライブ26、及び外部インタフェース27が電気的に接続されたコンピュータである。各検査装置2Aは、外部インタフェース27を介してカメラSAに接続される。ただし、各検査装置2Aのハードウェア構成は、このような例に限定されなくてもよい。各検査装置2Aの具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。各検査装置2Aは、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC、PLC(programmable logic controller)等であってもよい。
図22Aは、本変形例に係る各検査装置2Aの学習処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各検査装置2Aの学習処理に関するソフトウェア構成は、制御部21による学習プログラム82Aの実行により実現される。図22Aに示されるとおり、取り扱うデータがセンシングデータから画像データに置き換わる点を除き、各検査装置2Aの学習処理に関するソフトウェア構成は、上記各学習装置2の学習処理に関するソフトウェア構成と同様である。これにより、各検査装置2Aは、上記各学習装置2と同様に、機械学習に関する一連の処理を実行する。
図22Bは、本変形例に係る各検査装置2Aの検査処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各検査装置2Aの検査処理に関するソフトウェア構成は、制御部21による検査プログラム83Aの実行により実現される。図22Bに示されるとおり、取り扱うデータがセンシングデータから画像データに置き換わる点を除き、各検査装置2Aの検査処理に関するソフトウェア構成は、上記各学習装置2の推論処理に関するソフトウェア構成と同様である。これにより、各検査装置2Aは、上記各学習装置2と同様に、検査処理に関する一連の処理を実行する。
各学習済みの学習モデル4Aは、上記学習モデル4と同様に、共通の構造を有する共通部分を含むように構成される。また、各学習済みの学習モデル4Aのうちのいずれかの組み合わせは、共通部分以外の部分において異なる構造を有する。このような各学習済みの学習モデル4Aに対して、モデル統合装置1は、上記実施形態と同様に、上記ステップS301〜ステップS304の処理を実行する。
図23は、第2変形例に係る制御システム100Bの適用場面の一例を模式的に例示する。本変形例は、栽培状況に応じて栽培装置RBの動作を制御する場面に上記実施形態に係るモデル統合装置1を適用した例である。図23に示されるとおり、本変形例に係る制御システム100Bは、モデル統合装置1及び複数の制御装置2Bを備えている。上記実施形態と同様に、モデル統合装置1及び各制御装置2Bは、ネットワークを介して互いに接続されてよい。
図24は、本変形例に係る各制御装置2Bのハードウェア構成の一例を模式的に例示する。図24に示されるとおり、本変形例に係る各制御装置2Bは、上記各学習装置2と同様に、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、ドライブ26、及び外部インタフェース27が電気的に接続されたコンピュータである。各制御装置2Bは、外部インタフェース27を介して栽培装置RB及びセンサSBに接続される。ただし、各制御装置2Bのハードウェア構成は、このような例に限定されなくてもよい。各制御装置2Bの具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。各制御装置2Bは、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC、PLC等であってもよい。
図25Aは、本変形例に係る各制御装置2Bの学習処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各制御装置2Bの学習処理に関するソフトウェア構成は、制御部21による学習プログラム82Bの実行により実現される。図25Aに示されるとおり、取り扱うデータがセンシングデータから植物GBの栽培状況に関する状況データに置き換わる点を除き、各制御装置2Bの学習処理に関するソフトウェア構成は、上記各学習装置2の学習処理に関するソフトウェア構成と同様である。これにより、各制御装置2Bは、上記各学習装置2と同様に、機械学習に関する一連の処理を実行する。
図25Bは、本変形例に係る各制御装置2Bの制御処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各制御装置2Bの制御処理に関するソフトウェア構成は、制御部21による制御プログラム83Bの実行により実現される。図25Bに示されるとおり、取り扱うデータがセンシングデータから状況データに置き換わる点を除き、各制御装置2Bの制御処理に関するソフトウェア構成は、上記各学習装置2の推論処理に関するソフトウェア構成と同様である。これにより、各制御装置2Bは、上記各学習装置2と同様に、制御処理に関する一連の処理を実行する。
各学習済みの学習モデル4Bは、上記学習モデル4と同様に、共通の構造を有する共通部分を含むように構成される。また、各学習済みの学習モデル4Bのうちのいずれかの組み合わせは、共通部分以外の部分において異なる構造を有する。このような各学習済みの学習モデル4Bに対して、モデル統合装置1は、上記実施形態と同様に、上記ステップS301〜ステップS304の処理を実行する。
図26は、第3変形例に係る監視システム100Cの適用場面の一例を模式的に例示する。本変形例は、車両を運転する運転者RCの状態を監視する場面に上記実施形態に係るモデル統合装置1を適用した例である。図26に示されるとおり、本変形例に係る監視システム100Cは、モデル統合装置1及び複数の監視装置2Cを備えている。上記実施形態と同様に、モデル統合装置1及び各監視装置2Cは、ネットワークを介して互いに接続されてよい。
図27は、本変形例に係る各監視装置2Cのハードウェア構成の一例を模式的に例示する。図27に示されるとおり、本変形例に係る各監視装置2Cは、上記各学習装置2と同様に、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、ドライブ26、及び外部インタフェース27が電気的に接続されたコンピュータである。各監視装置2Cは、外部インタフェース27を介してカメラSCに接続される。ただし、各監視装置2Cのハードウェア構成は、このような例に限定されなくてもよい。各監視装置2Cの具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。各監視装置2Cは、提供されるサービス専用に設計された情報処理装置の他、汎用のコンピュータ、スマートフォンを含む携帯電話、車載装置等であってもよい。
図28Aは、本変形例に係る各監視装置2Cの学習処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各監視装置2Cの学習処理に関するソフトウェア構成は、制御部21による学習プログラム82Cの実行により実現される。図28Aに示されるとおり、取り扱うデータがセンシングデータから運転者RCの写り得る画像データに置き換わる点を除き、各監視装置2Cの学習処理に関するソフトウェア構成は、上記各学習装置2の学習処理に関するソフトウェア構成と同様である。これにより、各監視装置2Cは、上記各学習装置2と同様に、機械学習に関する一連の処理を実行する。
図28Bは、本変形例に係る各監視装置2Cの監視処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各監視装置2Cの監視処理に関するソフトウェア構成は、制御部21による監視プログラム83Cの実行により実現される。図28Bに示されるとおり、取り扱うデータがセンシングデータから画像データに置き換わる点を除き、各監視装置2Cの監視処理に関するソフトウェア構成は、上記各学習装置2の推論処理に関するソフトウェア構成と同様である。これにより、各監視装置2Cは、上記各学習装置2と同様に、監視処理に関する一連の処理を実行する。
各学習済みの学習モデル4Cは、上記学習モデル4と同様に、共通の構造を有する共通部分を含むように構成される。また、各学習済みの学習モデル4Cのうちのいずれかの組み合わせは、共通部分以外の部分において異なる構造を有する。このような各学習済みの学習モデル4Cに対して、モデル統合装置1は、上記実施形態と同様に、上記ステップS301〜ステップS304の処理を実行する。
図29は、第4変形例に係る予測システム100Dの適用場面の一例を模式的に例示する。本変形例は、発電設備RDにおける発電量を予測する場面に上記実施形態に係るモデル統合装置1を適用した例である。図29に示されるとおり、本変形例に係る予測システム100Dは、モデル統合装置1及び複数の予測装置2Dを備えている。上記実施形態と同様に、モデル統合装置1及び各予測装置2Dは、ネットワークを介して互いに接続されてよい。
図30は、本変形例に係る各予測装置2Dのハードウェア構成の一例を模式的に例示する。図30に示されるとおり、本変形例に係る各予測装置2Dは、上記各学習装置2と同様に、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、ドライブ26、及び外部インタフェース27が電気的に接続されたコンピュータである。ただし、各予測装置2Dのハードウェア構成は、このような例に限定されなくてもよい。各予測装置2Dの具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。各予測装置2Dは、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC等であってもよい。
図31Aは、本変形例に係る各予測装置2Dの学習処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各予測装置2Dの学習処理に関するソフトウェア構成は、制御部21による学習プログラム82Dの実行により実現される。図31Aに示されるとおり、取り扱うデータがセンシングデータから気象データに置き換わる点を除き、各予測装置2Dの学習処理に関するソフトウェア構成は、上記各学習装置2の学習処理に関するソフトウェア構成と同様である。これにより、各予測装置2Dは、上記各学習装置2と同様に、機械学習に関する一連の処理を実行する。
図31Bは、本変形例に係る各予測装置2Dの予測処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各予測装置2Dの予測処理に関するソフトウェア構成は、制御部21による予測プログラム83Dの実行により実現される。図31Bに示されるとおり、取り扱うデータがセンシングデータから気象データに置き換わる点を除き、各予測装置2Dの予測処理に関するソフトウェア構成は、上記各学習装置2の推論処理に関するソフトウェア構成と同様である。これにより、各予測装置2Dは、上記各学習装置2と同様に、予測処理に関する一連の処理を実行する。
各学習済みの学習モデル4Dは、上記学習モデル4と同様に、共通の構造を有する共通部分含むように構成される。また、各学習済みの学習モデル4Dのうちのいずれかの組み合わせは、共通部分以外の部分において異なる構造を有する。このような各学習済みの学習モデル4Dに対して、モデル統合装置1は、上記実施形態と同様に、上記ステップS301〜ステップS304の処理を実行する。
図32は、第5変形例に係る診断システム100Eの適用場面の一例を模式的に例示する。本変形例は、対象者REの健康状態を推定(診断)する場面に上記実施形態に係るモデル統合装置1を適用した例である。図32に示されるとおり、本変形例に係る診断システム100Eは、モデル統合装置1及び複数の診断装置2Eを備えている。上記実施形態と同様に、モデル統合装置1及び各診断装置2Eは、ネットワークを介して互いに接続されてよい。
図33は、本変形例に係る各診断装置2Eのハードウェア構成の一例を模式的に例示する。図33に示されるとおり、本変形例に係る各診断装置2Eは、上記各学習装置2と同様に、制御部21、記憶部22、通信インタフェース23、入力装置24、出力装置25、ドライブ26、及び外部インタフェース27が電気的に接続されたコンピュータである。各診断装置2Eは、外部インタフェース27を介してバイタルセンサSEに接続される。バイタルセンサSEは、例えば、体温計、血圧計、脈拍計等である。ただし、各診断装置2Eのハードウェア構成は、このような例に限定されなくてもよい。各診断装置2Eの具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。各診断装置2Eは、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC等であってもよい。
図34Aは、本変形例に係る各診断装置2Eの学習処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各診断装置2Eの学習処理に関するソフトウェア構成は、制御部21による学習プログラム82Eの実行により実現される。図34Aに示されるとおり、取り扱うデータがセンシングデータからバイタルデータに置き換わる点を除き、各診断装置2Eの学習処理に関するソフトウェア構成は、上記各学習装置2の学習処理に関するソフトウェア構成と同様である。これにより、各診断装置2Eは、上記各学習装置2と同様に、機械学習に関する一連の処理を実行する。
図34Bは、本変形例に係る各診断装置2Eの診断処理に関するソフトウェア構成の一例を模式的に例示する。上記実施形態と同様に、各診断装置2Eの診断処理に関するソフトウェア構成は、制御部21による診断プログラム83Eの実行により実現される。図34Bに示されるとおり、取り扱うデータがセンシングデータからバイタルデータに置き換わる点を除き、各診断装置2Eの診断処理に関するソフトウェア構成は、上記各学習装置2の推論処理に関するソフトウェア構成と同様である。これにより、各診断装置2Eは、上記各学習装置2と同様に、診断処理に関する一連の処理を実行する。
各学習済みの学習モデル4Eは、上記学習モデル4と同様に、共通の構造を有する共通部分を含むように構成される。また、各学習済みの学習モデル4Eのうちのいずれかの組み合わせは、共通部分以外の部分において異なる構造を有する。このような各学習済みの学習モデル4Eに対して、モデル統合装置1は、上記実施形態と同様に、上記ステップS301〜ステップS304の処理を実行する。
以上のとおり、上記実施形態に係るモデル統合装置1は、機械学習により所定の能力を学習モデルに習得させるあらゆる場面に適用可能である。なお、モデル統合装置1は、変形例毎にグルーピングしてもよいし、各変形例内でグルーピングしてもよい。例えば、モデル統合装置1は、各検査装置2Aと制御装置2Bとを異なるグループに割り当ててもよい。また、例えば、モデル統合装置1は、第1製品の検査を行う一の検査装置2Aと第1製品とは異なる第2製品の検査を行う他の検査装置2Aとを異なるグループに割り当ててもよい。これにより、モデル統合装置1は、上記各変形例が併存していても、グループ毎に上記各処理を実行することで、学習済みの学習モデル(4、4A〜4E)の統合処理を実現することができる。
上記実施形態では、各学習装置2は、学習処理及び推論処理の両方を実行するコンピュータにより構成されている。しかしながら、各学習装置2の構成は、このような例に限定されなくてもよい。複数の学習装置2の少なくともいずれかは、複数台のコンピュータにより構成されてよい。この場合、学習装置2は、学習処理と推論処理とが別々のコンピュータで実行されるように構成されてよい。
上記実施形態では、各学習装置2とモデル統合装置1との間のデータ通信はネットワークを介して行われている。モデル統合装置1は、各学習装置2から収集された学習済みの学習モデル4(学習結果データ221)に対して統合処理を実行する。この過程で、学習済みの学習モデル4が開示されてしまうと、各学習装置2の推論処理及びローカル学習データ3の内容の秘匿性が損なわれてしまう可能性がある。そこで、データ通信のセキュリティを高めるために、上記実施形態において、統合範囲41に反映された機械学習の結果を統合する統合処理は秘密計算により行われてよい。秘密計算の方法は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。本変形例では、秘密分散及び準同型暗号のいずれかを利用した方法が採用されてよい。
図36Aは、秘密分散を利用して統合処理を実行する場面の一例を模式的に例示する。秘密分散を利用した方法では、それぞれ信頼性のある第三者機関として第1サーバ61及び第2サーバ62がネットワークに設置される。第1サーバ61及び第2サーバ62はそれぞれ、モデル統合装置1等と同様にハードウェアプロセッサ及びメモリを備えるコンピュータである。
図36Bは、準同型暗号を利用して統合処理を実行する場面の一例を模式的に例示する。準同型暗号を利用した方法では、信頼性のある第三者機関としてサーバ65がネットワークに設置される。サーバ65は、モデル統合装置1等と同様にハードウェアプロセッサ及びメモリを備えるコンピュータである。
上記実施形態では、各学習モデル4は、多層構造のニューラルネットワークにより構成されている。しかしながら、各学習モデル4を構成するニューラルネットワークの構造及び種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、各学習モデル4は、畳み込み層、プーリング層、及び全結合層を備える畳み込みニューラルネットワークにより構成されてよい。また、時系列データを利用する場合には、各学習モデル4は、再帰型ニューラルネットワークにより構成されてよい。また、各学習モデル4の種類は、ニューラルネットワークに限られなくてもよく、実施の形態に応じて適宜選択されてよい。統合処理の対象となる各学習モデル4は、何らかのデータを生成するように構成された生成モデルであってもよい。
上記実施形態において、各学習装置2により構築される学習モデル4の数は、1つに限られなくてもよく、複数であってもよい。また、各学習装置2は、テンプレート126を利用せずに、学習モデル4の構造を決定してもよい。この場合、テンプレート126は省略されてよい。
11…制御部、12…記憶部、13…通信インタフェース、
14…入力装置、15…出力装置、16…ドライブ、
111…モデル収集部、112…範囲調整部、
113…統合処理部、114…モデル更新部、
115…重み設定部、116…グルーピング部、
121…統合結果データ、123…グループリスト、
124…割当情報、126…テンプレート、
129…評価用サンプル、
1291…入力データ、1292…正解データ、
81…モデル統合プログラム、91…記憶媒体、
2…学習装置、
21…制御部、22…記憶部、23…通信インタフェース、
24…入力装置、25…出力装置、26…ドライブ、
27…外部インタフェース、
211…学習データ収集部、212…構造決定部、
213…学習処理部、214…保存処理部、
216…対象データ取得部、217…推論部、
218…出力部、
221…学習結果データ、225…対象データ、
82…学習プログラム、83…推論プログラム、
92…記憶媒体、
S…センサ、
3…ローカル学習データ、
30…学習データセット、
31…訓練データ、32…正解データ、
4…学習モデル、
40…共通部分、41…統合範囲、
51…入力層、52〜55…中間(隠れ)層、
56…出力層
Claims (22)
- 複数の学習装置それぞれから学習済みの学習モデルを収集するモデル収集部であって、前記各学習装置は、ローカル学習データを収集し、かつ収集したローカル学習データを利用した機械学習により所定の能力を獲得した学習済みの学習モデルを構築し、前記各学習済みの学習モデルは、共通の構造を有する共通部分を含み、前記各学習済みの学習モデルのうちのいずれかの組み合わせは、前記共通部分以外の部分において異なる構造を有する、モデル収集部と、
前記各学習済みの学習モデルに対して、前記共通部分内に設定された統合範囲に反映された前記機械学習の結果を統合する統合処理を実行する統合処理部と、
前記統合処理の結果を前記各学習装置に配信し、前記各学習装置に対して、前記各学習済みの学習モデル内の前記統合範囲に前記統合処理の結果を適用させることで、前記各学習装置の保持する前記学習済み学習モデルを更新するモデル更新部と、
を備える、
モデル統合装置。 - 収集した前記各学習済みの学習モデルに含まれる前記共通部分内において前記統合範囲を決定する範囲調整部を更に備える、
請求項1に記載のモデル統合装置。 - 前記各学習済みの学習モデルの構造はテンプレートにより与えられ、
前記範囲調整部は、前記テンプレートに基づいて、前記統合範囲を決定する、
請求項2に記載のモデル統合装置。 - 前記各学習済みの学習モデルの前記共通部分は、複数の演算モジュールを備えており、
前記共通部分内において前記統合範囲を決定することは、
前記各学習済みの学習モデルに評価用サンプルを入力して、前記共通部分に含まれる前記各演算モジュールから出力を取得すること、
前記各学習済みの学習モデルの対応する前記演算モジュール間の、取得された前記出力の類似性及び相関性の少なくともいずれかを算出すること、及び
算出された類似性及び相関性の少なくともいずれかが所定の条件を満たす前記演算モジュールを前記統合範囲に指定すること、
を含む、
請求項2に記載のモデル統合装置。 - 前記範囲調整部は、前記統合処理を実行する前と比べて、前記統合処理を実行した後に前記各学習済みの学習モデルの有する前記所定の能力が向上するように前記統合範囲を最適化する、
請求項2に記載のモデル統合装置。 - 前記範囲調整部は、前記共通部分内において暫定統合範囲を指定し、
前記統合処理部は、前記各学習済みの学習モデルに対して、指定された前記暫定統合範囲に反映された前記機械学習の結果を統合する統合処理を実行し、
前記統合範囲を最適化することは、
前記統合処理を実行する前の前記各学習済みの学習モデルが評価用サンプルに対して前記所定の能力を発揮した第1の結果を取得すること、
前記統合処理を実行した後の前記各学習済みの学習モデルが前記評価用サンプルに対して前記所定の能力を発揮した第2の結果を取得すること、
前記第1の結果及び前記第2の結果を比較することで、前記統合処理を実行する前と比べて、前記統合処理を実行した後に前記各学習済みの学習モデルの有する前記所定の能力が向上しているか否かを判定すること、及び
前記統合処理を実行した後に前記各学習済みの学習モデルの有する前記所定の能力が向上していると判定した場合に、前記暫定統合範囲を前記統合範囲に決定すること、
を含む、
請求項5に記載のモデル統合装置。 - 前記範囲調整部は、前記共通部分内において複数の暫定統合範囲を指定し、
前記統合処理部は、前記暫定統合範囲毎に、前記各学習済みの学習モデルに対する、指定された前記各暫定統合範囲に反映された前記機械学習の結果を統合する統合処理を実行し、
前記統合範囲を最適化することは、
前記暫定統合範囲毎に、前記統合処理を実行した後の前記各学習済みの学習モデルが評価用サンプルに対して前記所定の能力を発揮した結果を取得すること、
取得した前記各結果に基づいて、前記統合処理を実行した後の前記各学習済みの学習モデルの有する前記所定の能力が最も高い暫定統合範囲を特定すること、
特定した前記暫定統合範囲を前記統合範囲に決定すること、
を含む、
請求項5又は6に記載のモデル統合装置。 - 前記複数の学習装置それぞれを複数のグループのうちの少なくともいずれかに割り当てるグルーピング部を更に備え、
前記モデル収集部は、同一のグループに属する複数の学習装置それぞれから前記学習済みの学習モデルを収集し、
前記範囲調整部は、前記同一のグループ内で、収集した前記各学習済みの学習モデルに含まれる共通部分内において前記統合範囲を決定し、
前記統合処理部は、前記同一のグループ内で、前記各学習済みの学習モデルに対して、決定された前記統合範囲に反映された前記機械学習の結果を統合する統合処理を実行し、
前記モデル更新部は、前記同一のグループ内で、前記統合処理の結果を前記各学習装置に配信し、前記各学習装置に対して、前記各学習済みの学習モデル内の前記統合範囲に前記統合処理の結果を適用させることで、前記各学習装置の保持する前記学習済み学習モデルを更新する、
請求項2から7のいずれか1項に記載のモデル統合装置。 - 前記グルーピング部は、前記複数のグループを示すリストを前記各学習装置に配信して、前記各学習装置に対して、前記リストに示される前記複数のグループのうちから1つ以上のグループを選択させ、選択された前記1つ以上のグループに前記各学習装置を割り当てる、
請求項8に記載のモデル統合装置。 - 前記グルーピング部は、
前記所定の能力に関する属性データを前記各学習装置から取得し、
前記各学習装置から取得した前記属性データをクラスタリングし、
前記クラスタリングの結果に基づいて、前記複数の学習装置それぞれを前記複数のグループのうちの少なくともいずれかに割り当てる、
請求項8に記載のモデル統合装置。 - 前記グルーピング部は、前記統合処理を実行する前と比べて、前記統合処理を実行した後に前記各学習済みの学習モデルの有する前記所定の能力が向上するように、前記複数のグループに対する前記各学習装置の割り当てを最適化する、
請求項8に記載のモデル統合装置。 - 前記グルーピング部は、前記複数のグループに対する前記各学習装置の割り当ての異なる複数の暫定グループ分けを行い、
前記範囲調整部は、前記暫定グループ分け毎に、同一のグループ内で、収集した前記各学習済みの学習モデルに含まれる共通部分内において前記統合範囲を決定し、
前記統合処理部は、前記暫定グループ分け毎に、前記同一のグループ内で、前記各学習済みの学習モデルに対して、決定された前記統合範囲に反映された前記機械学習の結果を統合する統合処理を実行し、
前記各学習装置の割り当てを最適化することは、
前記暫定グループ分け毎に、前記同一のグループ内で、前記統合処理を実行した後の前記各学習済みの学習モデルが評価用サンプルに対して前記所定の能力を発揮した結果を取得すること、
取得した前記各結果に基づいて、前記同一のグループ内で、前記統合処理を実行した後の前記各学習済みの学習モデルの有する前記所定の能力が最も高い暫定グループ分けを特定すること、及び
特定した前記暫定グループ分けに従って、前記複数の学習装置それぞれを複数のグループのうちの少なくともいずれかに割り当てること、
を含む、
請求項11に記載のモデル統合装置。 - 前記統合範囲に反映された前記機械学習の結果を統合することは、前記統合範囲に含まれる演算パラメータの値を平均化すること又は合計することを含む、
請求項1から12のいずれか1項に記載のモデル統合装置。 - 前記各学習済みの学習モデルに対して重みを設定する重み設定部であって、前記各重みは、前記統合処理における前記各学習済みの学習モデルの優先度合いを定める、重み設定部を更に備え、
前記統合範囲に反映された前記機械学習の結果を統合することは、設定された前記各重みを使用して、前記各学習済みの学習モデルの前記統合範囲に含まれる演算パラメータの値に重み付けをしてから平均化又は合計することを含む、
請求項1から12のいずれか1項に記載のモデル統合装置。 - 前記重み設定部は、前記機械学習に利用した前記ローカル学習データの数が多いほど前記重みが大きくなるように、前記各重みを設定する、
請求項14に記載のモデル統合装置。 - 前記ローカル学習データは、前記所定の能力における特定の要素に関する特定学習データを含み、
前記重み設定部は、前記機械学習に利用した前記ローカル学習データに含まれる前記特定学習データの比率が高いほど前記重みが大きくなるように、前記各重みを設定する、
請求項14に記載のモデル統合装置。 - 前記統合範囲に反映された前記機械学習の結果の統合は秘密計算により行われる、
請求項1から16のいずれか1項に記載のモデル統合装置。 - 複数の学習装置と、
モデル統合装置と、
を備え、
前記各学習装置は、
ローカル学習データを収集するステップと、
収集した前記ローカル学習データを利用した機械学習により所定の推論能力を獲得した学習済みの学習モデルを構築するステップと、
を実行し、
前記各学習済みの学習モデルは、共通の構造を有する共通部分を含み、
前記各学習済みの学習モデルのうちのいずれかの組み合わせは、前記共通部分以外の部分において異なる構造を有し、
前記モデル統合装置は、
前記複数の学習装置それぞれから前記学習済みの学習モデルを収集するステップと、
前記各学習済みの学習モデルに対して、前記共通部分内に設定された統合範囲に反映された前記機械学習の結果を統合する統合処理を実行するステップと、
前記統合処理の結果を前記各学習装置に配信し、前記各学習装置に対して、前記各学習済みの学習モデル内の前記統合範囲に前記統合処理の結果を適用させることで、前記各学習装置の保持する前記学習済み学習モデルを更新するステップと、
を実行する、
推論システム。 - コンピュータが、
複数の学習装置それぞれから学習済みの学習モデルを収集するステップであって、前記各学習装置は、ローカル学習データを収集し、かつ収集したローカル学習データを利用した機械学習により所定の能力を獲得した学習済みの学習モデルを構築し、前記各学習済みの学習モデルは、共通の構造を有する共通部分を含み、前記各学習済みの学習モデルのうちのいずれかの組み合わせは、前記共通部分以外の部分において異なる構造を有する、ステップと、
前記各学習済みの学習モデルに対して、前記共通部分内に設定された統合範囲に反映された前記機械学習の結果を統合する統合処理を実行するステップと、
前記統合処理の結果を前記各学習装置に配信し、前記各学習装置に対して、前記各学習済みの学習モデル内の前記統合範囲に前記統合処理の結果を適用させることで、前記各学習装置の保持する前記学習済み学習モデルを更新するステップと、
を実行する、
モデル統合方法。 - コンピュータに、
複数の学習装置それぞれから学習済みの学習モデルを収集するステップであって、前記各学習装置は、ローカル学習データを収集し、かつ収集したローカル学習データを利用した機械学習により所定の能力を獲得した学習済みの学習モデルを構築し、前記各学習済みの学習モデルは、共通の構造を有する共通部分を含み、前記各学習済みの学習モデルのうちのいずれかの組み合わせは、前記共通部分以外の部分において異なる構造を有する、ステップと、
前記各学習済みの学習モデルに対して、前記共通部分内に設定された統合範囲に反映された前記機械学習の結果を統合する統合処理を実行するステップと、
前記統合処理の結果を前記各学習装置に配信し、前記各学習装置に対して、前記各学習済みの学習モデル内の前記統合範囲に前記統合処理の結果を適用させることで、前記各学習装置の保持する前記学習済み学習モデルを更新するステップと、
を実行させるための、
モデル統合プログラム。 - 複数の検査装置と、
モデル統合装置と、
を備え、
前記各検査装置は、
製品の写る画像データを含むローカル学習データを収集するステップと、
収集した前記ローカル学習データを利用した機械学習により、前記画像データに写る前記製品の状態を判定する能力を獲得した学習済みの学習モデルを構築するステップと、
を実行し、
前記各学習済みの学習モデルは、共通の構造を有する共通部分を含み、
前記各学習済みの学習モデルのうちのいずれかの組み合わせは、前記共通部分以外の部分において異なる構造を有し、
前記モデル統合装置は、
前記複数の検査装置それぞれから前記学習済みの学習モデルを収集するステップと、
前記各学習済みの学習モデルに対して、前記共通部分内に設定された統合範囲に反映された前記機械学習の結果を統合する統合処理を実行するステップと、
前記統合処理の結果を前記各検査装置に配信し、前記各検査装置に対して、前記各学習済みの学習モデル内の前記統合範囲に前記統合処理の結果を適用させることで、前記各検査装置の保持する前記学習済み学習モデルを更新するステップと、
を実行する、
検査システム。 - 植物の生育環境を制御して、当該植物を栽培する栽培装置にそれぞれ接続された複数の制御装置と、
モデル統合装置と、
を備え、
前記各制御装置は、
前記植物の栽培状況に関する状況データ及び当該栽培状況に応じた生育環境の制御を前記栽培装置に指令する制御指令を含むローカル学習データを収集するステップと、
収集した前記ローカル学習データを利用した機械学習により、前記植物の栽培状況に応じて前記栽培装置に与える制御指令を決定する能力を獲得した学習済みの学習モデルを構築するステップと、
を実行し、
前記各学習済みの学習モデルは、共通の構造を有する共通部分を含み、
前記各学習済みの学習モデルのうちのいずれかの組み合わせは、前記共通部分以外の部分において異なる構造を有し、
前記モデル統合装置は、
前記複数の制御装置それぞれから前記学習済みの学習モデルを収集するステップと、
前記各学習済みの学習モデルに対して、前記共通部分内に設定された統合範囲に反映された前記機械学習の結果を統合する統合処理を実行するステップと、
前記統合処理の結果を前記各制御装置に配信し、前記各制御装置に対して、前記各学習済みの学習モデル内の前記統合範囲に前記統合処理の結果を適用させることで、前記各制御装置の保持する前記学習済み学習モデルを更新するステップと、
を実行する、
制御システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019006777A JP7036049B2 (ja) | 2019-01-18 | 2019-01-18 | モデル統合装置、モデル統合方法、モデル統合プログラム、推論システム、検査システム、及び制御システム |
US17/414,972 US20220058525A1 (en) | 2019-01-18 | 2019-11-19 | Model integration apparatus, model integration method, computer-readable storage medium storing a model integration program, inference system, inspection system, and control system |
CN201980082141.3A CN113196313B (zh) | 2019-01-18 | 2019-11-19 | 模型集成装置、模型集成方法、模型集成程序、推定系统、检查系统以及控制系统 |
EP19910689.9A EP3913549A4 (en) | 2019-01-18 | 2019-11-19 | MODEL INTEGRATION DEVICE, METHOD AND PROGRAM, AND INFERENCE, TESTING AND CONTROL SYSTEM |
PCT/JP2019/045161 WO2020148998A1 (ja) | 2019-01-18 | 2019-11-19 | モデル統合装置、方法及びプログラム並びに推論、検査及び制御システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019006777A JP7036049B2 (ja) | 2019-01-18 | 2019-01-18 | モデル統合装置、モデル統合方法、モデル統合プログラム、推論システム、検査システム、及び制御システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020115311A true JP2020115311A (ja) | 2020-07-30 |
JP7036049B2 JP7036049B2 (ja) | 2022-03-15 |
Family
ID=71613670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019006777A Active JP7036049B2 (ja) | 2019-01-18 | 2019-01-18 | モデル統合装置、モデル統合方法、モデル統合プログラム、推論システム、検査システム、及び制御システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220058525A1 (ja) |
EP (1) | EP3913549A4 (ja) |
JP (1) | JP7036049B2 (ja) |
CN (1) | CN113196313B (ja) |
WO (1) | WO2020148998A1 (ja) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021140400A (ja) * | 2020-03-04 | 2021-09-16 | 株式会社日立製作所 | 学習モデル作成システム及び学習モデル作成方法 |
KR20220025456A (ko) * | 2020-08-24 | 2022-03-03 | 공주대학교 산학협력단 | 하이브리드 시스템에서의 블록체인에 기반한 연합학습을 수행하는 방법 |
JP2022041957A (ja) * | 2020-08-31 | 2022-03-11 | 株式会社日立製作所 | データ解析システムのプライバシー保護データを生成する方法及びデバイス |
WO2022190552A1 (ja) * | 2021-03-09 | 2022-09-15 | オムロン株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
WO2022209057A1 (ja) * | 2021-03-31 | 2022-10-06 | オムロン株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
WO2022224693A1 (ja) * | 2021-04-19 | 2022-10-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 製造方法、生成装置、推定装置、識別情報付与方法、及び付与装置 |
WO2022250063A1 (ja) * | 2021-05-26 | 2022-12-01 | キヤノン株式会社 | 顔認証を行う画像処理装置および画像処理方法 |
JP2022182960A (ja) * | 2021-05-26 | 2022-12-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
KR102480140B1 (ko) * | 2022-05-19 | 2022-12-23 | (주)아크릴 | 인공 신경망 모델 학습 결과 합성을 통한 공통 모델 생성 방법 |
WO2022269699A1 (ja) * | 2021-06-21 | 2022-12-29 | 日本電気株式会社 | 秘密計算システム、金融機関サーバ、情報処理システム、秘密計算方法、及び記録媒体 |
WO2023281685A1 (ja) * | 2021-07-08 | 2023-01-12 | 日本電気株式会社 | 秘密計算システム、方法、記憶媒体、及び、情報処理システム |
WO2023074184A1 (ja) | 2021-10-28 | 2023-05-04 | パナソニックIpマネジメント株式会社 | アノテーション支援システム及びそれを利用した外観検査用モデルの学習支援システム |
WO2023188256A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | モデル学習装置、秘密連合学習装置、それらの方法、およびプログラム |
WO2023188257A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | 秘密グローバルモデル計算装置、ローカルモデル登録方法、プログラム |
WO2024034112A1 (ja) * | 2022-08-12 | 2024-02-15 | 日本電気株式会社 | 推論システム、情報処理システム、推論方法、及び記録媒体 |
WO2024057389A1 (ja) * | 2022-09-13 | 2024-03-21 | 日本電気株式会社 | 統合システム、組織サーバ、統合方法、分析方法、および記録媒体 |
WO2024069957A1 (ja) * | 2022-09-30 | 2024-04-04 | 日本電気株式会社 | 学習装置、学習システム、学習方法、およびコンピュータ可読媒体 |
JP7481566B1 (ja) | 2023-12-11 | 2024-05-10 | Kddi株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6866762B2 (ja) * | 2017-05-18 | 2021-04-28 | いすゞ自動車株式会社 | 車両用情報処理システム |
JP7484318B2 (ja) * | 2020-03-27 | 2024-05-16 | 富士フイルムビジネスイノベーション株式会社 | 学習装置及び学習プログラム |
WO2022269909A1 (ja) * | 2021-06-25 | 2022-12-29 | 日本電気株式会社 | 秘密計算システム、事業者サーバ、情報処理システム、秘密計算方法、及び記録媒体 |
WO2023053162A1 (ja) * | 2021-09-28 | 2023-04-06 | 日本電気株式会社 | 秘密計算システム、情報処理システム、秘密計算方法、及び記録媒体 |
WO2023188261A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | 秘密グローバルモデル計算装置、ローカルモデル登録方法、プログラム |
WO2024180743A1 (ja) * | 2023-03-01 | 2024-09-06 | 日本電信電話株式会社 | 合成装置、合成方法および合成プログラム |
WO2024180744A1 (ja) * | 2023-03-01 | 2024-09-06 | 日本電信電話株式会社 | 合成装置、合成方法および合成プログラム |
CN117270100B (zh) * | 2023-09-14 | 2024-07-23 | 之江实验室 | 一种实现储备池循环网络的单片光子集成芯片 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018101848A1 (en) * | 2016-11-29 | 2018-06-07 | Coolfarm S.A. | Predictive dynamic cloud based system for environmental sensing and actuation and respective method of operation |
JP2018132884A (ja) * | 2017-02-14 | 2018-08-23 | 富士通株式会社 | 判定装置、判定方法および判定プログラム |
JP2018165948A (ja) * | 2017-03-28 | 2018-10-25 | 国立大学法人神戸大学 | 画像認識装置、画像認識方法、コンピュータプログラム、及び製品監視システム |
CN108712260A (zh) * | 2018-05-09 | 2018-10-26 | 曲阜师范大学 | 云环境下保护隐私的多方深度学习计算代理方法 |
JP2018190241A (ja) * | 2017-05-09 | 2018-11-29 | オムロン株式会社 | タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法 |
JP2018207222A (ja) * | 2017-05-31 | 2018-12-27 | パナソニックIpマネジメント株式会社 | カメラ及びパラメータ登録方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012026982A (ja) | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | 検査装置 |
MA37042B1 (fr) * | 2014-05-16 | 2016-07-29 | Boulmakoul Azedine | Processus analytique structurale d'evaluation et de refonte organisationnelle fondee sur le referentiel cmmi-dev |
WO2018017467A1 (en) * | 2016-07-18 | 2018-01-25 | NantOmics, Inc. | Distributed machine learning systems, apparatus, and methods |
JP7038499B2 (ja) * | 2016-07-29 | 2022-03-18 | 株式会社野村総合研究所 | 分類システム、分類システムの制御方法、およびプログラム |
JP6660900B2 (ja) * | 2017-03-06 | 2020-03-11 | Kddi株式会社 | モデル統合装置、モデル統合システム、方法およびプログラム |
KR102579904B1 (ko) * | 2018-01-31 | 2023-09-19 | 삼성전자주식회사 | 비전 검사 관리 방법 및 비전 검사 시스템 |
CN108734193A (zh) * | 2018-03-27 | 2018-11-02 | 合肥麟图信息科技有限公司 | 一种深度学习模型的训练方法及装置 |
US11593634B2 (en) * | 2018-06-19 | 2023-02-28 | Adobe Inc. | Asynchronously training machine learning models across client devices for adaptive intelligence |
CN108921300A (zh) * | 2018-06-21 | 2018-11-30 | 第四范式(北京)技术有限公司 | 执行自动机器学习的方法和装置 |
CN109146076A (zh) * | 2018-08-13 | 2019-01-04 | 东软集团股份有限公司 | 模型生成方法及装置、数据处理方法及装置 |
RU2702980C1 (ru) * | 2018-12-14 | 2019-10-14 | Самсунг Электроникс Ко., Лтд. | Распределённое обучение моделей машинного обучения для персонализации |
-
2019
- 2019-01-18 JP JP2019006777A patent/JP7036049B2/ja active Active
- 2019-11-19 CN CN201980082141.3A patent/CN113196313B/zh active Active
- 2019-11-19 WO PCT/JP2019/045161 patent/WO2020148998A1/ja unknown
- 2019-11-19 EP EP19910689.9A patent/EP3913549A4/en active Pending
- 2019-11-19 US US17/414,972 patent/US20220058525A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018101848A1 (en) * | 2016-11-29 | 2018-06-07 | Coolfarm S.A. | Predictive dynamic cloud based system for environmental sensing and actuation and respective method of operation |
JP2018132884A (ja) * | 2017-02-14 | 2018-08-23 | 富士通株式会社 | 判定装置、判定方法および判定プログラム |
JP2018165948A (ja) * | 2017-03-28 | 2018-10-25 | 国立大学法人神戸大学 | 画像認識装置、画像認識方法、コンピュータプログラム、及び製品監視システム |
JP2018190241A (ja) * | 2017-05-09 | 2018-11-29 | オムロン株式会社 | タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法 |
JP2018207222A (ja) * | 2017-05-31 | 2018-12-27 | パナソニックIpマネジメント株式会社 | カメラ及びパラメータ登録方法 |
CN108712260A (zh) * | 2018-05-09 | 2018-10-26 | 曲阜师范大学 | 云环境下保护隐私的多方深度学习计算代理方法 |
Non-Patent Citations (2)
Title |
---|
佐藤 聖: "これから期待のコンピュータ技術百科 第3章 特に注目の人工知能アルゴリズム百科", INTERFACE, vol. 第45巻 第2号, JPN6021052665, 27 December 2018 (2018-12-27), JP, pages 60 - 67, ISSN: 0004679414 * |
山浦 佑介ほか: "商品推薦のための深層学習を用いたインテリアスタイル推定", 電子情報通信学会技術研究報告, vol. 第118巻, 第362号, JPN6021052661, 6 December 2018 (2018-12-06), JP, pages 85 - 90, ISSN: 0004679415 * |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021140400A (ja) * | 2020-03-04 | 2021-09-16 | 株式会社日立製作所 | 学習モデル作成システム及び学習モデル作成方法 |
KR20220025456A (ko) * | 2020-08-24 | 2022-03-03 | 공주대학교 산학협력단 | 하이브리드 시스템에서의 블록체인에 기반한 연합학습을 수행하는 방법 |
KR102430986B1 (ko) | 2020-08-24 | 2022-08-08 | 공주대학교 산학협력단 | 하이브리드 시스템에서의 블록체인에 기반한 연합학습을 수행하는 방법 |
JP2022041957A (ja) * | 2020-08-31 | 2022-03-11 | 株式会社日立製作所 | データ解析システムのプライバシー保護データを生成する方法及びデバイス |
JP7165795B2 (ja) | 2020-08-31 | 2022-11-04 | 株式会社日立製作所 | データ解析システムのプライバシー保護データを生成する方法及びデバイス |
JP7559627B2 (ja) | 2021-03-09 | 2024-10-02 | オムロン株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
WO2022190552A1 (ja) * | 2021-03-09 | 2022-09-15 | オムロン株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
WO2022209057A1 (ja) * | 2021-03-31 | 2022-10-06 | オムロン株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
WO2022224693A1 (ja) * | 2021-04-19 | 2022-10-27 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 製造方法、生成装置、推定装置、識別情報付与方法、及び付与装置 |
JP2022182960A (ja) * | 2021-05-26 | 2022-12-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2022250063A1 (ja) * | 2021-05-26 | 2022-12-01 | キヤノン株式会社 | 顔認証を行う画像処理装置および画像処理方法 |
JP7346528B2 (ja) | 2021-05-26 | 2023-09-19 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
WO2022269699A1 (ja) * | 2021-06-21 | 2022-12-29 | 日本電気株式会社 | 秘密計算システム、金融機関サーバ、情報処理システム、秘密計算方法、及び記録媒体 |
WO2023281685A1 (ja) * | 2021-07-08 | 2023-01-12 | 日本電気株式会社 | 秘密計算システム、方法、記憶媒体、及び、情報処理システム |
WO2023074184A1 (ja) | 2021-10-28 | 2023-05-04 | パナソニックIpマネジメント株式会社 | アノテーション支援システム及びそれを利用した外観検査用モデルの学習支援システム |
WO2023188256A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | モデル学習装置、秘密連合学習装置、それらの方法、およびプログラム |
WO2023188257A1 (ja) * | 2022-03-31 | 2023-10-05 | 日本電信電話株式会社 | 秘密グローバルモデル計算装置、ローカルモデル登録方法、プログラム |
KR102480140B1 (ko) * | 2022-05-19 | 2022-12-23 | (주)아크릴 | 인공 신경망 모델 학습 결과 합성을 통한 공통 모델 생성 방법 |
WO2024034112A1 (ja) * | 2022-08-12 | 2024-02-15 | 日本電気株式会社 | 推論システム、情報処理システム、推論方法、及び記録媒体 |
WO2024057389A1 (ja) * | 2022-09-13 | 2024-03-21 | 日本電気株式会社 | 統合システム、組織サーバ、統合方法、分析方法、および記録媒体 |
WO2024069957A1 (ja) * | 2022-09-30 | 2024-04-04 | 日本電気株式会社 | 学習装置、学習システム、学習方法、およびコンピュータ可読媒体 |
JP7481566B1 (ja) | 2023-12-11 | 2024-05-10 | Kddi株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
JP7562028B1 (ja) | 2023-12-11 | 2024-10-04 | Kddi株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
Also Published As
Publication number | Publication date |
---|---|
CN113196313A (zh) | 2021-07-30 |
CN113196313B (zh) | 2024-08-27 |
EP3913549A4 (en) | 2022-11-09 |
JP7036049B2 (ja) | 2022-03-15 |
WO2020148998A1 (ja) | 2020-07-23 |
EP3913549A1 (en) | 2021-11-24 |
US20220058525A1 (en) | 2022-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020148998A1 (ja) | モデル統合装置、方法及びプログラム並びに推論、検査及び制御システム | |
JP7020438B2 (ja) | モデル生成装置、モデル生成方法、モデル生成プログラム、モデル生成システム、検査システム、及び監視システム | |
US11941868B2 (en) | Inference apparatus, inference method, and computer-readable storage medium storing an inference program | |
KR102166011B1 (ko) | 터치입력을 이용한 인지장애 판단 시스템 및 방법 | |
JP6466442B2 (ja) | コンピュータ化された臨床診断支援のための階層的自己学習システム | |
JP7396125B2 (ja) | モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム | |
Goy et al. | Data for urban scale building energy modelling: Assessing impacts and overcoming availability challenges | |
KR20190069687A (ko) | 우울증 진단을 위한 다중 설문 분석 시스템 및 그 방법 | |
CN109242250A (zh) | 一种基于模糊熵权法与云模型的用户行为可信度检测方法 | |
WO2021090789A1 (ja) | 統合分析方法、統合分析装置、及び統合分析プログラム | |
Vanus et al. | Novel proposal for prediction of CO2 course and occupancy recognition in intelligent buildings within IoT | |
CN114580087A (zh) | 一种船载设备的联邦剩余使用寿命预测方法、装置及系统 | |
CN116797062A (zh) | 企业的诊断方法、装置及设备 | |
Lazarova-Molnar et al. | Towards systematic reliability modeling of smart buildings | |
EP4064184A1 (en) | Model generation device, estimation device, model generation method, and model generation program | |
KR102480150B1 (ko) | 3차원 멀티채널 데이터를 이용한 질환 발병 예측 시스템 및 방법 | |
CN118171068B (zh) | 基于物种分布模型的海洋物种多样性分析方法及系统 | |
Van Mierlo | Approaches and methods for monitoring and evaluation | |
Ghneim | A Multi-Stakeholder Information Model to Drive Process Connectivity In Smart Buildings | |
Heaton et al. | Agent-based models | |
CN118051007A (zh) | 一种基于数字孪生的智慧园区监控系统 | |
Al-Doghman et al. | Adaptive Consensus-based Aggregation for Edge Computing | |
CN117217713A (zh) | 一种工程建设项目的资源管理方法 | |
Korb et al. | Bayesian AI tutorial | |
Brender et al. | Framework for quality assessment of knowledge |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190705 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7036049 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |