JP7396133B2 - パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム - Google Patents
パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム Download PDFInfo
- Publication number
- JP7396133B2 JP7396133B2 JP2020042119A JP2020042119A JP7396133B2 JP 7396133 B2 JP7396133 B2 JP 7396133B2 JP 2020042119 A JP2020042119 A JP 2020042119A JP 2020042119 A JP2020042119 A JP 2020042119A JP 7396133 B2 JP7396133 B2 JP 7396133B2
- Authority
- JP
- Japan
- Prior art keywords
- inference
- existing
- target
- task
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 105
- 238000012545 processing Methods 0.000 claims description 60
- 238000004364 calculation method Methods 0.000 claims description 51
- 239000000047 product Substances 0.000 description 86
- 238000003860 storage Methods 0.000 description 81
- 230000007547 defect Effects 0.000 description 60
- 238000004519 manufacturing process Methods 0.000 description 37
- 238000007689 inspection Methods 0.000 description 36
- 230000010365 information processing Effects 0.000 description 26
- 238000004891 communication Methods 0.000 description 21
- 238000003745 diagnosis Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 20
- 238000012549 training Methods 0.000 description 19
- 238000013528 artificial neural network Methods 0.000 description 18
- 230000010354 integration Effects 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 15
- 238000011179 visual inspection Methods 0.000 description 15
- 201000010099 disease Diseases 0.000 description 10
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 10
- 238000005457 optimization Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 238000010339 medical test Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011478 gradient descent method Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 206010041349 Somnolence Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011109 contamination Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003306 harvesting Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 238000010248 power generation Methods 0.000 description 2
- 238000001556 precipitation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 208000032140 Sleepiness Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000012467 final product Substances 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000013067 intermediate product Substances 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000037321 sleepiness Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラムに関する。
従来、製造ライン等の製品を製造する場面において、製造される製品をセンサにより観測し、得られた観測データに基づいて製品の良否を検査する技術が利用されている。例えば、特許文献1では、学習済みの第1のニューラルネットワークに基づいて画像に写る検査対象物が正常であるか異常であるかを判定し、検査対象物が異常であると判定した場合に、学習済みの第2のニューラルネットワークに基づいて当該異常の種類を分類する検査装置が提案されている。
ニューラルネットワーク等の機械学習モデルを利用すれば、学習データを使用した機械学習を実施することで、所望の推論タスクを遂行する能力を獲得した推論モデルを生成することができる。そのため、良否の特定された製品の画像データを学習データとして使用して機械学習を実施することで、製品の検査に利用可能な推論モデルを生成することができる(例えば、上記特許文献1)。なお、このような推論モデルを生成する方法は、機械学習による方法に限られる訳ではない。例えば、人手によるルール化等、機械学習以外の方法でも、学習データに基づいて、所定の推論タスクを遂行する能力を獲得した推論モデルを生成することができる。
"非集中学習技術「Decentralized X」"、[online]、[令和2年3月11日検索]、インターネット<URL:https://www.omron.co.jp/technology/information/brand/dcx/index.html>
本件発明者は、従来の推論モデルによる製品の検査方法には次のような問題点があることを見出した。例えば、製造ライン、工場、センサの型番、製品に対する撮影装置の配置、撮影角度、照明条件、外乱光条件、背景パターン等の製品の観測条件が、学習データを取得する環境(以下、「学習環境」と記載する)と製品の検査を行う環境(以下、「検査環境」と記載する)との間で異なっていると想定する。この場合、学習環境及び検査環境の間の観測条件の相違に起因して、得られる観測データに現れる製品の状態が異なるため、学習環境で生成された推論モデルは、検査環境において製品を検査する能力を適切に発揮できない可能性がある。すなわち、学習環境及び検査環境の間の観測条件の相違に起因して、推論モデルによる検査精度が低下してしまう可能性がある。
これに対処する最も簡単な方法の一つは、異なる観測条件毎に、新たな推論モデルを生成することである。つまり、対象の検査環境と同一又は類似の観測条件で新たな学習データを収集し、得られた学習データに基づいて、新たな推論モデルを生成する。推論モデルが機械学習モデルにより構成される場合、新たな推論モデルを生成することは、追加学習を実施することを含んでもよい。新たに生成された推論モデルによれば、対象の検査環境において製品の検査を適切に遂行することができる。しかしながら、異なる観測条件毎に新たな推論モデルを生成するのは、極めてコストがかかる。
そこで、それぞれ異なる学習環境で生成された複数の推論モデルが既に存在する場合には、新たな推論モデルを生成するのではなく、新たな環境における製品の検査に、その複数の既存の推論モデルを活用することで、コストの低減を図ることが考えられる。すなわち、新たな観測条件での製品の検査に適するように、各推論モデルの推論結果を重み付けし、重み付けされた各推論モデルの推論結果を統合する(つまり、複数の推論モデルをアンサンブルで使用する)。各推論モデルが、共通の演算に使用される演算パラメータを備える場合には、各推論モデルの推論結果を統合することは、各推論モデルの演算パラメータの値を統合することにより構成されてよい(例えば、非特許文献1)。各推論モデルに対する重みは、新たな観測条件における製品の検査に適するように適宜決定されてよい。新たに推論モデルを生成することに比べて、各推論モデルに対する重み(アンサンブルのパラメータ)の数は少なく、その重みを調整する手間は少ない。そのため、この方法によれば、新たな推論モデルを生成する手間を省略することができるため、検査精度を担保しつつ、新たな環境に適応するためのコストを抑えることができる。
しかしながら、例えば、検査対象の製品が変更される、検出対象に新たな欠陥が追加される等の様々な事情に応じて、検査に関する前提又は条件を変更することにより、元の推論タスクとは異なる別の推論タスクを設定する場合がある。このように複数の異なる推論タスクが設定される状況を想定した場合には、異なる推論タスク毎に異なる複数の推論モデルが予め与えられていたとしても、各推論モデルに対する重みを推論タスク毎に調整する作業には手間がかかり、依然としてコストがかかると予想される。
なお、上記新たな環境への適用は、複数の推論モデルの推論結果を統合する理由の一例に過ぎない。上記問題点は、複数の推論モデルの推論結果を任意の理由で統合するあらゆる場面で生じ得る。例えば、複数の推論モデルの推論結果を利用して高次の推論タスクを解くことが、複数の推論モデルの推論結果を統合する理由の他の一例である。上記欠陥検査において、高次の推論タスクを解く具体例の一つとして、異なる種類の欠陥を検知する複数の推論モデルの推論結果を統合して製品に欠陥が生じているか否かを検査することが挙げられる。
例えば、傷、凹み、異物混入等の製品の欠陥の種別毎にその欠陥を検出する推論モデルを生成する。生成された複数の推論モデルの推論結果を統合することで、製品に欠陥が生じているか否かを検査することができる。しかしながら、例えば、欠陥検出の対象となる製品が変更される、別の製造ライン(又は工場)で欠陥検出を実施する等の様々な事情に応じて、検査に関する前提又は条件を変更することにより、元の推論タスクとは異なる別の推論タスクを設定する場合がある。このような場合には、上記のとおり、各推論モデルに対する重みを推論タスク毎に調整する作業には手間がかかり、依然としてコストがかかると予想される。
また、製品を外観検査する上記事例は、複数の推論モデルを利用して推論タスクを解く事例の一例に過ぎない。上記問題点は、任意の事例において、複数の推論モデルを利用して推論タスクを解くあらゆる場面で生じ得る。製品を外観検査する上記事例の他、複数の推論モデルを利用して推論タスクを解く事例の一例として、例えば、気象に関連する観測データに基づいて、気象に関する事象又は気象の影響を受ける事象を推論する事例、人流又は当該人流に影響を与える事象に関連する観測データに基づいて、人流に関する事象又は人流の影響を受ける事象を推論する事例、対象者の状態に関連する観測データに基づいて、対象者の状態に関する事象を推論する事例等を挙げることができる。これらの事例においても、複数の異なる推論タスクが設定される状況を想定した場合には、各推論モデルに対する重みを推論タスク毎に調整する作業には手間がかかり、依然としてコストがかかると予想される。
本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、複数の異なる推論タスクが設定される状況において、対象の推論タスクを解くために複数の推論モデルを導入する際のコストを低減するための技術を提供することである。
本発明は、上述した課題を解決するために、以下の構成を採用する。
すなわち、本発明の一側面に係るパラメータ調整装置は、情報取得部、関連度算出部、及び重み決定部を備える。情報取得部は、複数の既存推論タスクに関する既存タスク情報を取得する。前記既存推論タスク毎に、複数の既存推論モデルそれぞれが、前記既存推論タスクに関連する既存関連タスクを遂行するよう構成されるように、複数の異なるセンサ群それぞれより得られる既存学習データに基づいて生成されており、前記各既存推論タスクは、前記各既存推論モデルの推論結果を統合することにより解かれる。前記既存タスク情報は、前記各既存推論モデルの前記推論結果を統合する際に、前記各既存推論モデルの推論結果の優先度を規定するための複数の既存の重みであって、前記各既存推論タスクに適するように決定された複数の既存の重みによりそれぞれ構成される複数の既存重みセットを示す。関連度算出部は、対象推論タスク及び前記各既存推論タスクの目的の類似性に応じて、対象推論タスク及び前記各既存推論タスクの間の関連度を算出する。重み決定部は、算出された関連度に応じて、前記既存タスク情報により示される前記複数の既存重みセットそれぞれの複数の既存の重みから、対象重みセットを構成する複数の対象の重みを決定する。複数の対象推論モデルそれぞれは、前記対象推論タスクに関連する対象関連タスクを遂行するよう構成されるように、前記複数の異なるセンサ群それぞれより得られる対象学習データに基づいて生成され、前記対象推論タスクは、前記各対象推論モデルの推論結果を統合することにより解かれる。前記対象重みセットの決定された前記各対象の重みは、前記各対象推論モデルの前記推論結果を統合する際に、対応する対象推論モデルの推論結果の優先度を規定するために使用される。
例えば、上記外観検査の事例において、検査対象の製品を取り換えることで、推論タスクを変更する場面を想定する。この場面において、元の製品と新たな製品とが類似する(すなわち、各推論タスクに関連する対象物が互いに類似する)場合には、観測データに現れる製品に関する要素が互いに似通うため、観測データから欠陥を検出するタスクを解くための演算処理の内容も類似する。観測データに現れる製品に関する要素とは、例えば、製品の表れ方、欠陥の出現頻度、欠陥の表れ方等である。そのため、元の推論タスクにおいて優先度の高い推論モデルの生成に使用された学習データを得た環境では、新たな推論タスクに対しても優先度の高い推論モデルを生成する学習データを得られる可能性が高い。換言すると、元の推論タスクに有益な学習データを得られた環境は、新たな推論タスクに対しても有益な学習データを得られる可能性が高い。そのため、その環境で得られた学習データから生成された新たな推論モデルの優先度は新たな推論タスクでも高く成り得る。
よって、このような場合には、新たな推論タスクを解くために複数の新たな推論モデルそれぞれに対して設定される重みは、元の推論タスクを解くために複数の既存の推論モデルそれぞれに対して設定された重みに類似する(場合によっては、元の推論タスクの重みセットを新たな推論タスクにそのまま利用できる)可能性が高いと推測される。換言すると、既存の推論タスクに使用された重みセットは、新たな推論タスクにも活用できる(つまり、既存の重みと同一又は近似の重みで新たな推論タスクを適切に遂行可能である)可能性が高いと推測される。反対に、元の製品と新たな製品とが類似しない場合には、元の推論タスクに有益な学習データを得られた環境で新たな推論タスクに有益な学習データを得られるか否かは不明である。そのため、新たな推論モデルに対して設定される重みは、既存の推論モデルに対して設定された重みと類似する可能性は低いと推測される。
新たな推論タスク及び既存の推論タスクの間の設定される重みの上記関係性は、異なる種類の欠陥を検出する場面、異なる製造ライン又は工場に適用する場面等の他の場面でも同様に成り立つと推測される。また、そのような重みの関係性は、上記気象に関する推論タスクを解く等の他の事例でも同様に成り立つと推測される。一例として、ある地方の複数の観測地点それぞれの天気をそれぞれ予測する複数の推論モデルが予め生成され、その地方の総合的な天気を予測するために、複数の推論モデルそれぞれに重みを決定した履歴が存在するケースを想定する。このようなケースにおいて、湿度、日照時間、太陽光発電量等の天気と関連度の高い事象を予測するタスクを新たな推論タスクとして設定する場合、その天気の予測に使用された重みセットは、新たな推論タスクにも活用できる可能性が高いと推測される。反対に、天気と無関係な事象を予測するタスクを新たな推論タスクとして設定する場合には、天気の予測に使用された重みセットは、新たな推論タスクに活用できる可能性が低いと推測される。
つまり、新たな推論タスクと既存の推論タスクとの間の目的が類似し、これらの間の関連度が高い場合には、既存の推論タスクで使用された重みセットは、新たな推論タスクでも活用できる可能性が高いと推測される。反対に、新たな推論タスクと既存の推論タスクとの間の目的が類似せず、これらの間の関連性が低い場合には、既存の推論タスクで使用された重みセットは、新たな推論タスクで活用できる可能性が低いと推測される。
当該構成では、このような技術的観点に基づき、複数の既存推論タスクそれぞれに使用された重みセットの履歴情報を活用することで、新たな推論タスクで使用する複数の重みを決定する作業の自動化を図る。すなわち、複数の既存推論タスクそれぞれと対象推論タスク(新たな推論タスク)との間の目的の類似性に応じて、これらの間の関連度を算出する。そして、算出された関連度に応じて、複数の既存推論タスクそれぞれに使用された重みセットから対象推論タスクで使用する重みセットを決定する。これにより、対象推論タスクを解くために使用される各推論モデルに対する重みを決定する作業の少なくとも一部を自動化することができるため、当該作業のコストの低減を図ることができる。したがって、当該構成によれば、複数の異なる推論タスクが設定される状況において、対象の推論タスクを解くために複数の推論モデルを導入する際のコストを低減することができる。
上記一側面に係るパラメータ調整装置は、前記複数の対象推論モデルを使用する推論装置に対して、決定された前記複数の対象の重みにより構成される前記対象重みセットを示す重み情報を出力する出力部を更に備えてもよい。当該構成によれば、出力部を備えることにより、対象推論タスクの遂行に使用する対象重みセットを推論装置に適用する手間を低減することができる。
上記一側面に係るパラメータ調整装置において、前記関連度は、前記各既存推論タスクに関連する場所と前記対象推論タスクに関連する場所との間の距離に応じて算出されてよい。すなわち、対象推論タスク及び各既存推論タスクの目的の類似性は、これらに関連する場所の間の距離に基づいて算出(又は評価)されてよい。例えば、複数の異なる学習地点それぞれで得られる観測データから車両、人物等の交通量(人流)をそれぞれ予測する複数の推論モデルを使用して、複数の異なる学習地点とは別の複数の異なる推論地点それぞれでの交通量を予測する推論タスクを解く場面を想定する。この場面において、推論地点間の距離が近いほど各推論地点での交通量の傾向は類似し、推論地点間の距離が遠いほど各推論地点での交通量の傾向は類似しなくなると推測される。つまり、上記技術的観点のとおり、既存の推論地点での交通量を予測するために各既存推論モデルに設定された重みは、既存の推論地点に距離的に近い対象の推論地点での交通量を予測するために各対象推論モデルに設定する重みとして活用できる可能性が高いと推測される。したがって、当該構成によれば、このような観測地点に依存し得る推論タスクを解くケースにおいて、対象推論タスク及び各既存推論タスクの間の関連度を適切に算出することができ、これにより、対象推論タスクに適する対象重みセットを決定する作業の自動化を図ることができる。なお、例えば、気象予測等の観測地点に依存し得るその他の推論タスクでも、同様の傾向が成立すると推測される。そのため、このようなそれぞれに関連する場所間の距離に基づいて、目的の類似性を評価する方法は、上記の事例に限られず、観測地点に依存し得るその他の推論タスクにも適用されてよい。
上記一側面に係るパラメータ調整装置において、前記関連度は、言語処理により測定される、前記各既存推論タスク及び前記対象推論タスクそれぞれを示す用語間の意味的類似度に応じて算出されてよい。すなわち、対象推論タスク及び各既存推論タスクの目的の類似性は、これらを示す用語間の意味的類似性に基づいて算出(又は評価)されてよい。例えば、上記外観検査のケースにおける検査対象の製品名、欠陥の種類、製造ライン又は工場の識別情報、上記気象系推論タスクのケースにおける予測対象の事象名等に基づいて、推論タスクの目的が言語化される場合がある。このような場合には、上記外観検査のケースにおける製品の類似性、上記気象系推論タスクのケースにおける予測事象の類似性等の推論タスクの目的の類似性を用語間の意味的類似性から直接的に評価可能である。したがって、当該構成によれば、このような推論タスクの目的が言語化されるケースにおいて、対象推論タスク及び各既存推論タスクの間の関連度を適切に算出することができ、これにより、対象推論タスクに適する対象重みセットを決定する作業の自動化を図ることができる。
上記一側面に係るパラメータ調整装置において、前記関連度は、前記各既存推論タスク及び前記対象推論タスクそれぞれに関連する対象物間の類似度に応じて算出されてよい。すなわち、対象推論タスク及び各既存推論タスクの目的の類似性は、それぞれに関連する対象物間の類似性に基づいて算出(又は評価)されてよい。推論タスクに関連する対象物は、例えば、上記外観検査の事例における検査対象の製品、検出対象の欠陥等である。上記のとおり、既存推論タスク及び対象推論タスクの間で対象物が類似すれば、既存重みセットは、対象重みセットとして活用できる可能性が高い。したがって、当該構成によれば、推論タスクに関連する対象物の類似度に基づいて、対象推論タスク及び各既存推論タスクの間の関連度を適切に算出することができ、これにより、対象推論タスクに適する対象重みセットを決定する作業の自動化を図ることができる。
上記一側面に係るパラメータ調整装置において、前記関連度は、前記各既存推論タスク及び前記対象推論タスクそれぞれを遂行する環境間の類似度に応じて算出されてよい。すなわち、対象推論タスク及び各既存推論タスクの目的の類似性は、それぞれを遂行する環境間の類似度に基づいて算出(又は評価)されてよい。例えば、上記外観検査の事例において、既存の現場と対象の現場との間で、製品に対するセンサの配置、センサの角度、照明条件等の観測条件が類似すると想定する。この場合、得られる観測データに現れる製品に関する要素が似通うため、既存の現場で決定された重みセットは、対象の現場でも活用できる可能性が高いと推測される。つまり、既存推論タスク及び対象推論タスクの間で環境が類似すれば、既存推論タスクに使用された既存重みセットは、対象推論タスクで使用する対象重みセットとして活用できる可能性が高いと推測される。当該構成によれば、このような観点に基づいて、対象推論タスク及び各既存推論タスクの間の関連度を適切に算出することができ、これにより、対象推論タスクに適する対象重みセットを決定する作業の自動化を図ることができる。なお、各環境は、各センサ群とは別のセンサにより測定されてよい。
上記一側面に係るパラメータ調整装置において、前記各対象推論モデルの前記推論結果を統合することは、前記複数の対象の重みに従って、前記複数の対象推論モデルの推論結果の重み付け多数決をすることにより構成されてよい。当該構成によれば、各対象推論モデルの推論が識別(分類)である場合に、各対象推論モデルの推論結果を適切に統合することができ、これにより、対象推論タスクを解いた結果を導出することができる。なお、各既存推論タスクに関しても同様である。すなわち、前記各既存推論モデルの前記推論結果を統合することは、前記複数の既存の重みに従って、前記複数の既存推論モデルの推論結果の重み付け多数決をすることにより構成されてよい。
上記一側面に係るパラメータ調整装置において、前記各対象推論モデルの前記推論結果は、数値により構成されてよい。これに応じて、前記各対象推論モデルの前記推論結果を統合することは、前記複数の対象の重みに従って、前記複数の対象推論モデルの推論結果を重み付けすること、及び重み付けされた各推論結果の平均又は合計を算出すること、により構成されてよい。当該構成によれば、各対象推論モデルの推論が回帰である場合に、各対象推論モデルの推論結果を適切に統合することができ、これにより、対象推論タスクを解いた結果を導出することができる。なお、各既存推論タスクに関しても同様である。すなわち、前記各既存推論モデルの前記推論結果は、数値により構成されてよい。これに応じて、前記各既存推論モデルの前記推論結果を統合することは、前記複数の既存の重みに従って、前記複数の既存推論モデルの推論結果を重み付けすること、及び重み付けされた各推論結果の平均又は合計を算出すること、により構成されてよい。
上記一側面に係るパラメータ調整装置において、前記各対象推論モデルは、前記対象関連タスクの共通の演算に使用される1つ以上の演算パラメータを備えてもよい。これに応じて、前記各対象推論モデルの前記推論結果を統合することは、前記各対象の重みに従って、前記各対象推論モデルの前記1つ以上の演算パラメータの値を重み付けし、前記各対象推論モデルの重み付けされた前記1つ以上の演算演算パラメータの値の平均又は合計を算出すること、により構成されてよい。各対象推論モデルは、例えば、ニューラルネットワーク、回帰モデル(例えば、線形関数)、決定木等の演算パラメータを備える関数式で構成される場合がある。特に、機械学習により対象推論モデルを生成する場合には、各対象推論モデルは、関数式で構成される。対象推論モデルがニューラルネットワークにより構成される場合には、各ニューロン間の結合の重み及び各ニューロンの閾値が演算パラメータの一例である。また、対象推論モデルが回帰モデルにより構成される場合には、係数及び定数項が演算パラメータの一例である。このような場合に、各対象推論モデルの構造を少なくとも部分的に(場合によっては、全体が)共通化することで、タスクの共通の演算に使用される1つ以上の演算パラメータを備えるように各対象推論モデルを構成することがある。当該構成によれば、このように各対象推論モデルが共通の演算に使用される演算パラメータを備える場合に、各対象推論モデルの統合を介して推論結果を適切に統合することができ、これにより、対象推論タスクを解いた結果を導出することができる。なお、各既存推論タスクに関しても同様である。すなわち、前記各既存推論モデルは、前記既存関連タスクの共通の演算に使用される1つ以上の演算パラメータを備えてもよい。これに応じて、前記各既存推論モデルの前記推論結果を統合することは、前記各既存の重みに従って、前記各既存推論モデルの前記1つ以上の演算パラメータの値を重み付けし、前記各既存推論モデルの重み付けされた前記1つ以上の演算演算パラメータの値の平均又は合計を算出すること、により構成されてよい。
上記各形態に係るパラメータ調整装置は、任意の理由及び任意の事例で、複数の推論モデルの推論結果を統合するあらゆる場面に適用されてよい。各推論タスクは、例えば、製品の良否を推論すること、気象に関する事象又は気象の影響を受ける事象を推論すること、人流に関する事象又は人流に影響を与える事象を推論すること、対象者の状態に関する事象を推論すること等であってよい。各推論タスクに利用されるデータの種類及び取得方法は、各事例に応じて適宜選択されてよい。
また、本発明の形態は、上記パラメータ調整装置の形態に限られなくてもよい。本発明の一側面は、上記パラメータ調整装置により決定された既存重みセットを使用して対象推論タスクを遂行するように構成された推論装置であってもよい。なお、推論装置は、対象推論タスクの種類に応じて、検査装置、識別装置、監視装置、予測装置等と読み替えられてよい。
例えば、本発明の一側面に係る推論装置は、対象データを取得するデータ取得部と、前記複数の対象推論モデル、及び上記一側面に係るパラメータ調整装置により決定された前記対象重みセットの前記複数の対象の重みを使用して、取得された前記対象データに対する前記対象推論タスクを解く推論部と、前記対象推論タスクを解いた結果に関する情報を出力する出力部と、を備える。
また、上記各形態に係るパラメータ調整装置及び推論装置それぞれの別の態様として、本発明の一側面は、以上の各構成の全部又はその一部を実現する情報処理方法であってもよいし、プログラムであってもよいし、このようなプログラムを記憶した、コンピュータその他装置、機械等が読み取り可能な記憶媒体であってもよい。ここで、コンピュータ等が読み取り可能な記憶媒体とは、プログラム等の情報を、電気的、磁気的、光学的、機械的、又は、化学的作用によって蓄積する媒体である。また、本発明の一側面は、上記いずれかの形態に係るパラメータ調整装置及び推論装置により構成される推論システムであってもよい。
例えば、本発明の一側面に係るパラメータ調整方法は、コンピュータが、複数の既存推論タスクに関する既存タスク情報を取得するステップと、対象推論タスク及び各既存推論タスクの目的の類似性に応じて、対象推論タスク及び各既存推論タスクの間の関連度を算出するステップと、算出された関連度に応じて、既存タスク情報により示される複数の既存重みセットそれぞれの複数の既存の重みから、対象重みセットを構成する複数の対象の重みを決定するステップと、を実行する情報処理方法である。
また、例えば、本発明の一側面に係るパラメータ調整プログラムは、コンピュータに、複数の既存推論タスクに関する既存タスク情報を取得するステップと、対象推論タスク及び各既存推論タスクの目的の類似性に応じて、対象推論タスク及び各既存推論タスクの間の関連度を算出するステップと、算出された関連度に応じて、既存タスク情報により示される複数の既存重みセットそれぞれの複数の既存の重みから、対象重みセットを構成する複数の対象の重みを決定するステップと、を実行させるためのプログラムである。
本発明によれば、複数の異なる推論タスクが設定される状況において、対象の推論タスクを解くために複数の推論モデルを導入する際のコストを低減することができる。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。
§1 適用例
図1は、本発明を適用した場面の一例を模式的に例示する。本実施形態に係る推論システム100は、パラメータ調整装置1、モデル生成装置2、及び推論装置3を備えている。
図1は、本発明を適用した場面の一例を模式的に例示する。本実施形態に係る推論システム100は、パラメータ調整装置1、モデル生成装置2、及び推論装置3を備えている。
本実施形態では、それぞれ異なる目的を有する複数の推論タスクが既に存在していることを前提に、例えば、既に存在する推論タスクの内容を変更する、新たな目的を有する推論タスクのニーズが生まれる等の任意の事情により、新たな推論タスクが与えられる場面を想定する。既に存在している各推論タスクが既存推論タスクの一例であり、新たな推論タスクが対象推論タスクの一例である。また、各既存推論タスクを解くために、複数の既存推論モデル50が既存推論タスク毎に生成されており、各既存推論タスクは、複数の既存推論モデル50の推論結果の統合により解かれる。各既存推論タスクを解く際(すなわち、各既存推論モデル50の推論結果を統合する際)には、既存重みセット60が使用される。既存重みセット60は、各既存推論モデル50の推論結果の優先度をそれぞれ規定するための複数の既存の重みにより構成される。この既存重みセット60は、既存推論タスク毎に用意される。つまり、複数の既存重みセット60を生成した実績が存在している。更に、対象推論タスクを解くために、複数の対象推論モデル55が用意される。各既存推論タスクと同様に、対象推論タスクは、複数の対象推論モデル55の推論結果の統合により解かれる。本実施形態では、パラメータ調整装置1により、複数の対象推論モデル55の推論結果の統合に使用する対象重みセット65を生成する場面を想定する。「対象」は、重みセットを生成する客体となる推論タスクに関連していることを示し、「既存」は、その対象推論タスクに対して既に存在している(すなわち、過去に重みセットを生成した実績のある)推論タスクに関連していることを示す。
(モデル生成装置)
本実施形態に係るモデル生成装置2は、学習データに基づいて、タスクを遂行する推論モデルを生成するように構成されたコンピュータである。具体的に、モデル生成装置2は、センサ群Sにより学習データを取得する。そして、モデル生成装置2は、取得された学習データを使用して、推論タスクに関連する関連タスクを遂行する能力を獲得した推論モデルを生成する。すなわち、推論モデルは、関連タスクを遂行するよう構成されるように、センサ群Sにより得られる学習データに基づいて生成される。
本実施形態に係るモデル生成装置2は、学習データに基づいて、タスクを遂行する推論モデルを生成するように構成されたコンピュータである。具体的に、モデル生成装置2は、センサ群Sにより学習データを取得する。そして、モデル生成装置2は、取得された学習データを使用して、推論タスクに関連する関連タスクを遂行する能力を獲得した推論モデルを生成する。すなわち、推論モデルは、関連タスクを遂行するよう構成されるように、センサ群Sにより得られる学習データに基づいて生成される。
推論タスクは、センサにより得られるデータに含まれる特徴を推論するあらゆるタスクを含んでよい。推論することは、識別(分類)すること及び回帰することの少なくとも一方により構成されてよい。回帰することは、バウンディングボックス等のデータ内の範囲を特定することを含んでよい。推論することは、未来の事象を予測することを含んでよい。これに応じて、特徴は、未来に現れる要素に関するものであってよい。推論タスクの内容は、適用事例に応じて適宜決定されてよい。具体的な適用事例として、推論タスクは、例えば、製品の良否を推論すること、気象に関する事象又は気象の影響を受ける事象を推論すること、人流に関する事象又は人流に影響を与える事象を推論すること、対象者の状態に関する事象を推論すること等であってよい。
推論タスクの目的は、入力(対象データ)、処理内容、及び出力(推論内容)の少なくともいずれかに関連して規定される。一例として、上記外観検査の事例において、2つの推論タスクの間で観測条件が異なる場合には、入力が異なっているとして、2つの推論タスクの目的は異なっているものと取り扱ってよい。その他の例として、2つの推論タスクの間で、検査対象の製品及び検出対象の欠陥の少なくともいずれかが異なる場合には、処理内容及び推論内容の少なくともいずれかが異なるとして、2つの推論タスクの目的は異なっているものと取り扱ってよい。
これに対して、関連タスクは、推論タスクに関連するタスクである。本実施形態では、推論タスクは、複数の推論モデルの推論結果を統合することにより解かれる。そのため、関連タスクは、推論結果の統合により推論タスクに対する解答を導出可能であれば、推論タスクに関連するあらゆるタスクを含んでよい。運用環境での推論精度を高めるために複数の推論結果を統合する上記ケースでは、関連タスクの内容は、推論タスクと同一であってよい。例えば、推論タスクが、製品の良否を推定する(すなわち、製品を検査する)ことである場合には、関連タスクも、製品の良否を推定することであってよい。また、高次の推論タスクを解くために複数の推論結果を統合するケースでは、関連タスクは、推論タスクよりも低次の特徴を推論することであってよい。「高次」とは、2つ以上の推論モデルの推論結果又はその遂行に利用した情報からより複雑又は抽象的な特徴を推論することに相当する。例えば、推論タスクが、製品の良否を総合的に判定することである場合には、関連タスクは、特定のセンサ群により得られる観測データに基づいて欠陥に関する推論を行うことであってよい。また、例えば、得られるデータが画像データであり、推論タスクが、欠陥に関する推論を行うことである場合に、関連タスクは、欠陥に関連する、例えば、エッジ等の画像の特徴量を抽出することであってよい。
推論モデルは、タスクに対する推論結果を導出可能であれば、その構成は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。推論モデルは、例えば、データテーブル、関数式、ルール等により構成されてよい。関数式は、タスクを遂行する演算処理を実行する(すなわち、推論結果を導出する)ための1又は複数の演算パラメータを備える。このような関数式は、例えば、ニューラルネットワーク、回帰モデル、決定木、サポートベクタマシン等により構成されてよい。推論モデルを生成する方法は、推論モデルの構成に応じて適宜選択されてよい。推論モデルが、データテーブル、関数式等により構成される場合、推論モデルの生成は、統計処理、機械学習等の任意の最適化法により行われてよい。また、推論モデルが、ルール等により構成される場合、推論モデルの生成は、人手により行われてもよい。
センサ群Sは、1つ以上のセンサにより構成される。センサは、例えば、画像センサ(カメラ)、赤外線センサ、音センサ(マイクロフォン)、超音波センサ、光センサ、圧力センサ、気圧センサ、温度センサ等であってよい。センサは、例えば、キーボード、タッチパネル等の入力装置であってよい。また、センサは、例えば、環境センサ、バイタルセンサ、医療検査装置、車載センサ、ホームセキュリティセンサ等であってよい。環境センサは、例えば、気圧計、温度計、湿度計、音圧計、音センサ、紫外線センサ、照度計、雨量計、ガスセンサ等であってよい。バイタルセンサは、例えば、血圧計、脈拍計、心拍計、心電計、筋電計、体温計、皮膚電気反応計、マイクロ波センサ、脳波計、脳磁計、活動量計、血糖値測定器、眼電位センサ、眼球運動計測器等であってよい。医療検査装置は、例えば、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置等であってよい。車載センサは、例えば、画像センサ、Lidar(light detection and ranging)センサ、ミリ波レーダ、超音波センサ、加速度センサ等であってよい。ホームセキュリティセンサは、例えば、画像センサ、赤外線センサ、活性度(音声)センサ、ガス(CO2等)センサ、電流センサ、スマートメータ(家電、照明等の電力使用量を計測するセンサ)等であってよい。センサ群Sを構成する1つ以上のセンサは、推論モデルに習得させるタスクに応じて選択されてよい。
既存推論タスクを解くための複数の既存推論モデル50を用意する場面では、モデル生成装置2は、センサ群Sにより既存学習データ40を取得する。そして、モデル生成装置2は、取得された既存学習データ40に基づいて、既存推論タスクに関連する既存関連タスクを遂行するように構成された既存推論モデル50を生成する。
本実施形態では、異なる既存推論タスク毎に複数の既存推論モデル50が生成される。図1の例では、タスクA及びタスクBが既存推論タスクの一例である。タスクAに対応して複数の既存推論モデル50aが生成され、タスクBに対応して複数の既存推論モデル50bが生成される。また、各既存推論モデル50(50a/50b)は、対応する既存推論タスク(タスクA/タスクB)に関連する既存関連タスクを遂行するよう構成されるように、複数の異なるセンサ群Sそれぞれにより得られる既存学習データ40に基づいて生成される。1つの既存推論タスクに対して、1つのセンサ群Sにより得られる既存学習データ40から2つ以上の既存推論モデル50が生成されてもよいが、典型的には、1つの既存推論モデル50が生成される。
また、複数の既存推論タスクの間で、既存推論モデル50の生成に使用する既存学習データ40の収集に、少なくとも部分的に共通のセンサ群Sが使用される。つまり、1つのセンサ群Sにより得られる既存学習データ40から複数の異なる既存推論タスクそれぞれにそれぞれ使用される複数の既存推論モデル50が生成される。このとき、典型的には、同一のセンサ群Sにおいて、既存推論タスク毎に既存学習データ40が別々に収集され、各既存推論モデル50は、既存推論タスク毎に別々に生成される。すなわち、図1の例では、互いに対応する、タスクAの遂行に使用される既存推論モデル50a及びタスクBの遂行に使用される既存推論モデル50bそれぞれの生成には、同一のセンサ群Sにより得られた異なる既存学習データが用いられる。
例えば、タスクAは、特定の製造ラインにおける製品の第1種の欠陥に関する推論を行うことであるのに対して、タスクBは、その特定の製造ラインにおける製品の第2種の欠陥に関する推論を行うことであってよい。この場合に、タスクAの各既存関連タスクは、特定の製造ラインとは異なる各製造ラインにおける製品の第1種の欠陥に関する推論を行うことであってよい。また、タスクBの各既存関連タスクは、特定の製造ラインとは異なる各製造ラインにおける製品の第2種の欠陥に関する推論を行うことであってよい。このケースにおいて、タスクA及びタスクBの間で、同一のセンサ群Sにより別々に得られた既存学習データ40から各既存推論モデル(50a、50b)が別々に生成されてよい。
しかしながら、各既存推論タスク間の既存推論モデル50の関係は、このような例に限定されなくてよい。ある既存推論タスク及び他の既存推論タスクの間で既存関連タスクの内容が同一である場合、同一のセンサ群Sにより得られた既存学習データから生成された、ある既存推論タスクに使用される既存推論モデルと他の既存推論タスクに使用される既存推論モデルとは同一であってよい。図1の例では、同一のセンサ群Sにより得られた既存学習データに基づいて生成されることで互いに対応する既存推論モデル50a及び既存推論モデル50bが同一であってよい。すなわち、1つのセンサ群Sにより得られた既存学習データ40から生成された1つの既存推論モデル50が異なる既存推論タスク間で共通に使用されてよい。或いは、他の既存推論タスクでは、ある既存推論タスクに使用された既存推論モデルを更新することで得られた既存推論モデルが使用されてよい。既存推論モデルの更新の際、既存学習データの少なくとも一部の変更、修正、追加、又は削除が行われてよい。つまり、それぞれの既存推論モデルの生成に使用された既存学習データは、少なくとも部分的に同一であってよい。
例えば、タスクAは、第1製造ラインにおける製品を検査することであるのに対して、タスクBは、第1製造ラインとは異なる第2製造ラインにおける製品を検査することであってよい。この場合に、各センサ群Sは、第1製造ライン及び第2製造ラインとは異なる他の製造ラインに配置されてよく、各既存推論モデルの遂行する既存関連タスクは、他の製造ラインにおける製品を検査することであってよい。このケースにおいて、タスクA及びタスクBの間で、同一のセンサ群Sにより得られた既存学習データ40から生成された既存推論モデル50が共通に使用されてよい。すなわち、互いに対応する既存推論モデル50a及び既存推論モデル50bは同一であってよい。
一方、対象推論タスクを解くための複数の対象推論モデル55を用意する場面では、モデル生成装置2は、センサ群Sにより対象学習データ45を取得する。そして、モデル生成装置2は、取得された対象学習データ45に基づいて、対象推論タスクに関連する対象関連タスクを遂行するように構成された対象推論モデル55を生成する。
本実施形態では、1つの対象推論タスクに対して複数の対象推論モデル55が生成される。図1の例では、タスクZが対象推論タスクの一例である。各対象推論モデル55は、対象推論タスクに関連する対象関連タスクを遂行するよう構成されるように、複数の異なるセンサ群Sそれぞれにより得られる対象学習データ45に基づいて生成される。各対象推論モデル55及び各センサ群Sとの間の関係は、上記各既存推論モデル50及び各センサ群Sとの間の関係と同様である。また、対象推論タスク及び各既存推論タスクの間の関係は、異なる既存推論タスク間の関係と同様である。これに応じて、対象推論モデル55及び既存推論モデル50の間の関係は、異なる既存推論タスクに使用される既存推論モデル50間の関係と同様である。
すなわち、対象推論タスク及び各既存推論タスクの間で、各推論モデル(50、55)の生成に使用する学習データ(40、45)の収集に、少なくとも部分的に共通のセンサ群Sが使用される。このとき、対象推論タスク及び各既存推論タスクの間で、同一のセンサ群Sにより別々に得られた学習データ(40、45)から各推論モデル(50、55)が別々に生産されてよい。或いは、1つのセンサ群Sにより得られた学習データから生成された推論モデルが既存推論モデル50及び対象推論モデル55として既存推論タスク及び対象推論タスクの間で共通に使用されてよい。この場合、対象学習データ45は、既存学習データ40と同一であってよい。すなわち、既存推論モデル50及び対象推論モデル55は個別に生成されなくてよい。或いは、対象推論タスクでは、既存推論タスクに使用された既存推論モデル50を更新することで得られた対象推論モデル55が使用されてよい。この場合、既存学習データ40の少なくとも一部の変更、修正、追加、又は削除が行われることで、対象学習データ45が得られてよい。
各既存推論タスク及び対象推論タスクの具体例として、タスクA及びタスクBがそれぞれ特定の製造ラインにおける製品の第1種及び第2種それぞれの欠陥に関する推論を行うことであるのに対して、タスクZは、特定の製造ラインにおける製品の、第1種及び第2種とは異なる第3種の欠陥に関する推論を行うことであってよい。その他の具体例として、タスクA及びタスクBがそれぞれ、第1製造ライン及び第2製造ラインそれぞれにおける製品を検査することであるのに対して、タスクZは、第1製造ライン及び第2製造ラインとは異なる第3製造ラインにおける製品を検査することであってよい。
なお、1つのモデル生成装置2により生成される推論モデル(50、55)の範囲は、特に限定されなくてよく、実施の形態に応じて適宜決定されてよい。例えば、生成する推論モデル(50、55)毎にモデル生成装置2が用意されてよい。また、例えば、モデル生成装置2は、センサ群S毎に用意されてよい。この場合、モデル生成装置2は、対応するセンサ群Sにより得られる学習データ(40、45)に基づいて、対応する各既存推論モデル50及び対象推論モデル55を生成してもよい。また、例えば、1つのモデル生成装置2が、全ての推論モデル(50、55)を生成してもよい。
(パラメータ調整装置)
本実施形態に係るパラメータ調整装置1は、推論タスクに適するように、各推論モデルに対する重みを決定する(すなわち、重みセットを生成する)ように構成されたコンピュータである。推論タスクに適するとは、各推論モデルの推論結果(各関連タスクの遂行結果)の統合により導出される解が推論タスクの解として適合していることに相当する。本実施形態では、パラメータ調整装置1は、各対象推論モデル55に対する重みを決定する。
本実施形態に係るパラメータ調整装置1は、推論タスクに適するように、各推論モデルに対する重みを決定する(すなわち、重みセットを生成する)ように構成されたコンピュータである。推論タスクに適するとは、各推論モデルの推論結果(各関連タスクの遂行結果)の統合により導出される解が推論タスクの解として適合していることに相当する。本実施形態では、パラメータ調整装置1は、各対象推論モデル55に対する重みを決定する。
具体的に、パラメータ調整装置1は、複数の既存推論タスクに関する既存タスク情報121を取得する。既存タスク情報121は、各既存推論タスクに適するように予め決定された複数の既存の重みによりそれぞれ構成される複数の既存重みセット60を示す。各既存重みセット60は、人手により生成されてもよい。或いは、各既存重みセット60は、機械学習、その他の最適化法等の任意の最適化法により生成されてもよい。この場合、最適化法には、既存推論タスクを遂行する環境で得られた検証用データが用いられてよい。検証用データは、既存学習データ40と同様に構成されてよい。或いは、各既存重みセット60は、対象重みセット65と同様にパラメータ調整装置1により生成されてもよい。この場合、対象の既存推論タスクは、対象推論タスクと同様に取り扱われてよく、他の既存推論タスクが、そのまま既存推論タスクとして取り扱われてよい。これにより、対象の既存重みセット60は、以下の対象重みセット65と同様の方法で生成されてよい。
次に、パラメータ調整装置1は、対象推論タスク及び各既存推論タスクの目的の類似性に応じて、対象推論タスク及び各既存推論タスクの間の関連度123を算出する。そして、パラメータ調整装置1は、算出された関連度123に応じて、既存タスク情報121により示される各既存重みセット60の複数の既存の重みから、対象重みセット65を構成する複数の対象の重みを決定する。図1の例では、パラメータ調整装置1は、タスクA及びタスクBの各既存重みセット(60a、60b)を含む複数の既存重みセット60それぞれを構成する複数の既存の重みから、タスクZに使用される対象重みセット65を構成する複数の対象の重みを決定する。対象重みセット65の決定された各対象の重みは、各対象推論モデル55の推論結果を統合する際に、対応する対象推論モデル55の推論結果の優先度を規定する。
(推論装置)
本実施形態に係る推論装置3は、生成された推論モデルを使用して、推論タスクを遂行するように構成されたコンピュータである。本実施形態では、推論装置3は、特に、生成された複数の対象推論モデル55及びパラメータ調整装置1により生成された対象重みセット65を使用して、対象推論タスクを遂行する。
本実施形態に係る推論装置3は、生成された推論モデルを使用して、推論タスクを遂行するように構成されたコンピュータである。本実施形態では、推論装置3は、特に、生成された複数の対象推論モデル55及びパラメータ調整装置1により生成された対象重みセット65を使用して、対象推論タスクを遂行する。
具体的に、推論装置3は、対象データを取得する。次に、推論装置3は、複数の対象推論モデル55及びパラメータ調整装置1により生成された対象重みセット65の複数の対象の重みを使用して、取得された対象データに対する対象推論タスクを解く。そして、推論装置3は、対象推論タスクを解いた結果に関する情報を出力する。
なお、推論装置3を含む任意のコンピュータにより、同様の処理手順で、各既存推論モデル50及び既存重みセット60を使用して、各既存推論タスクも遂行されてよい。また、モデル生成装置2及び推論装置3を含む任意のコンピュータにおいて、各推論モデル(50、55)は、単独でタスクの遂行に使用されてもよい。
(小括)
以上のとおり、本実施形態では、目的の類似する推論タスク間では設定される重みも類似するという上記技術的観点に基づき、複数の既存推論タスクそれぞれに対して生成した既存重みセット60の実績(既存タスク情報121)を活用することで、対象推論タスクで使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、本実施形態によれば、複数の異なる推論タスクが設定される状況において、対象の推論タスクを解くために複数の推論モデルを導入する際のコストを低減することができる。
以上のとおり、本実施形態では、目的の類似する推論タスク間では設定される重みも類似するという上記技術的観点に基づき、複数の既存推論タスクそれぞれに対して生成した既存重みセット60の実績(既存タスク情報121)を活用することで、対象推論タスクで使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、本実施形態によれば、複数の異なる推論タスクが設定される状況において、対象の推論タスクを解くために複数の推論モデルを導入する際のコストを低減することができる。
なお、図1の例では、パラメータ調整装置1、モデル生成装置2及び推論装置3は、ネットワークを介して互いに接続されている。ネットワークの種類は、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。ただし、パラメータ調整装置1、モデル生成装置2及び推論装置3の間でデータをやりとりする方法は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、パラメータ調整装置1、モデル生成装置2及び推論装置3のいずれかの組み合わせの間では、記憶媒体を利用して、データがやりとりされてよい。
また、図1の例では、パラメータ調整装置1、モデル生成装置2及び推論装置3は、それぞれ別個のコンピュータにより構成されている。しかしながら、本実施形態に係る推論システム100の構成は、このような例に限定されなくてもよく、実施の形態に応じて適宜決定されてよい。たとえば、パラメータ調整装置1、モデル生成装置2及び推論装置3の少なくともいずれかの組み合わせは一体のコンピュータであってもよい。また、例えば、パラメータ調整装置1、モデル生成装置2及び推論装置3のうちの少なくともいずれかは、複数台のコンピュータにより構成されてもよい。
§2 構成例
[ハードウェア構成]
<パラメータ調整装置>
図2は、本実施形態に係るパラメータ調整装置1のハードウェア構成の一例を模式的に例示する。図2に示されるとおり、本実施形態に係るパラメータ調整装置1は、制御部11、記憶部12、通信インタフェース13、外部インタフェース14、入力装置15、出力装置16、及びドライブ17が電気的に接続されたコンピュータである。なお、図2では、通信インタフェース及び外部インタフェースを「通信I/F」及び「外部I/F」と記載している。後述の図3及び図4でも同様の表記を用いる。
[ハードウェア構成]
<パラメータ調整装置>
図2は、本実施形態に係るパラメータ調整装置1のハードウェア構成の一例を模式的に例示する。図2に示されるとおり、本実施形態に係るパラメータ調整装置1は、制御部11、記憶部12、通信インタフェース13、外部インタフェース14、入力装置15、出力装置16、及びドライブ17が電気的に接続されたコンピュータである。なお、図2では、通信インタフェース及び外部インタフェースを「通信I/F」及び「外部I/F」と記載している。後述の図3及び図4でも同様の表記を用いる。
制御部11は、ハードウェアプロセッサであるCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、プログラム及び各種データに基づいて情報処理を実行するように構成される。CPUは、プロセッサ・リソースの一例である。記憶部12は、メモリ・リソースの一例であり、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。本実施形態では、記憶部12は、パラメータ調整プログラム81、既存タスク情報121、重み情報125等の各種情報を記憶する。
パラメータ調整プログラム81は、対象重みセット65の生成に関する後述の情報処理(図9)をパラメータ調整装置1に実行させるためのプログラムである。パラメータ調整プログラム81は、当該情報処理の一連の命令を含む。既存タスク情報121は、複数の既存の重みにより構成される既存重みセット60を既存推論タスク毎に示す。重み情報125は、生成された対象重みセット65を示す。本実施形態では、重み情報125は、パラメータ調整プログラム81を実行した結果として生成される。
通信インタフェース13は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。パラメータ調整装置1は、この通信インタフェース13を利用して、他の情報処理装置との間で、ネットワークを介したデータ通信を実行してもよい。外部インタフェース14は、例えば、USB(Universal Serial Bus)ポート、専用ポート等であり、外部装置と接続するためのインタフェースである。外部インタフェース14の種類及び数は、接続される外部装置の種類及び数に応じて適宜選択されてよい。
入力装置15は、例えば、マウス、キーボード、マイクロフォン等の入力を行うための装置である。また、出力装置16は、例えば、ディスプレイ、スピーカ等の出力を行うための装置である。ユーザ等のオペレータは、入力装置15及び出力装置16を利用することで、パラメータ調整装置1を操作することができる。
ドライブ17は、例えば、CDドライブ、DVDドライブ等であり、記憶媒体91に記憶されたプログラム等の各種情報を読み込むためのドライブ装置である。記憶媒体91は、コンピュータその他装置、機械等が、記憶されたプログラム等の各種情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。上記パラメータ調整プログラム81及び既存タスク情報121の少なくともいずれかは、記憶媒体91に記憶されていてもよい。パラメータ調整装置1は、この記憶媒体91から、上記パラメータ調整プログラム81及び既存タスク情報121の少なくともいずれかを取得してもよい。なお、図2では、記憶媒体91の一例として、CD、DVD等のディスク型の記憶媒体を例示している。しかしながら、記憶媒体91の種類は、ディスク型に限られなくてもよく、ディスク型以外であってもよい。ディスク型以外の記憶媒体として、例えば、フラッシュメモリ等の半導体メモリを挙げることができる。ドライブ17の種類は、記憶媒体91の種類に応じて任意に選択されてよい。
なお、パラメータ調整装置1の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、プロセッサ・リソースは、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA(field-programmable gate array)、DSP(digital signal processor)等で構成されてよい。記憶部12は、制御部11に含まれるRAM及びROMにより構成されてもよい。通信インタフェース13、外部インタフェース14、入力装置15、出力装置16及びドライブ17の少なくともいずれかは省略されてもよい。パラメータ調整装置1は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、パラメータ調整装置1は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC(Personal Computer)、タブレット端末及びスマートフォンを含む携帯端末等であってもよい。
<モデル生成装置>
図3は、本実施形態に係るモデル生成装置2のハードウェア構成の一例を模式的に例示する。図3に示されるとおり、本実施形態に係るモデル生成装置2は、制御部21、記憶部22、通信インタフェース23、外部インタフェース24、入力装置25、出力装置26、及びドライブ27が電気的に接続されたコンピュータである。
図3は、本実施形態に係るモデル生成装置2のハードウェア構成の一例を模式的に例示する。図3に示されるとおり、本実施形態に係るモデル生成装置2は、制御部21、記憶部22、通信インタフェース23、外部インタフェース24、入力装置25、出力装置26、及びドライブ27が電気的に接続されたコンピュータである。
モデル生成装置2の制御部21~ドライブ27及び記憶媒体92はそれぞれ、上記パラメータ調整装置1の制御部11~ドライブ17及び記憶媒体91それぞれと同様に構成されてよい。制御部21は、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部22は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部22は、モデル生成プログラム82、学習データ(40、45)、学習結果データ(220、225)等の各種情報を記憶する。
モデル生成プログラム82は、各推論モデル(50、55)の生成に関する後述の情報処理(図8)をモデル生成装置2に実行させるためのプログラムである。モデル生成プログラム82は、当該情報処理の一連の命令を含む。既存学習データ40は、既存推論モデル50の生成に使用される。対象学習データ45は、対象推論モデル55の生成に使用される。既存学習結果データ220は、生成された既存推論モデル50に関する情報を示す。対象学習結果データ225は、生成された対象推論モデル55に関する情報を示す。本実施形態では、学習結果データ(220、225)は、モデル生成プログラム82を実行した結果として生成される。
モデル生成プログラム82及び学習データ(40、45)のうちの少なくともいずれかは、記憶媒体92に記憶されていてもよい。これに応じて、モデル生成装置2は、モデル生成プログラム82及び学習データ(40、45)のうちの少なくともいずれかを記憶媒体92から取得してもよい。或いは、モデル生成装置2は、学習データ(40、45)を収集するために、センサ群Sに直接的に接続されてよい。この場合、モデル生成装置2は、通信インタフェース23及び外部インタフェース24のいずれか一方を介してセンサ群Sに接続されてよい。
なお、図3の例では、モデル生成装置2が、既存推論モデル50及び対象推論モデル55の両方を生成することを想定している。しかしながら、上記のとおり、1つのモデル生成装置2により生成される推論モデル(50、55)の範囲は、このような例に限定されなくてもよい。既存推論モデル50及び対象推論モデル55のいずれか一方の生成は省略されてよい。この場合、既存学習データ40及び既存学習結果データ220の組み合わせ並びに対象学習データ45及び対象学習結果データ225の組み合わせのうちの省略された方に対応する組み合わせは省略されてよい。
また、モデル生成装置2の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、モデル生成装置2のプロセッサ・リソースは、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、DSP等で構成されてよい。記憶部22は、制御部21に含まれるRAM及びROMにより構成されてもよい。通信インタフェース23、外部インタフェース24、入力装置25、出力装置26、及びドライブ27の少なくともいずれかは省略されてもよい。モデル生成装置2は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、モデル生成装置2は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC、タブレット端末及びスマートフォンを含む携帯端末等であってよい。
<推論装置>
図4は、本実施形態に係る推論装置3のハードウェア構成の一例を模式的に例示する。図4に示されるとおり、本実施形態に係る推論装置3は、制御部31、記憶部32、通信インタフェース33、外部インタフェース34、入力装置35、出力装置36、及びドライブ37が電気的に接続されたコンピュータである。
図4は、本実施形態に係る推論装置3のハードウェア構成の一例を模式的に例示する。図4に示されるとおり、本実施形態に係る推論装置3は、制御部31、記憶部32、通信インタフェース33、外部インタフェース34、入力装置35、出力装置36、及びドライブ37が電気的に接続されたコンピュータである。
推論装置3の制御部31~ドライブ37及び記憶媒体93はそれぞれ、上記パラメータ調整装置1の制御部11~ドライブ17及び記憶媒体91それぞれと同様に構成されてよい。制御部31は、ハードウェアプロセッサであるCPU、RAM、ROM等を含み、プログラム及びデータに基づいて各種情報処理を実行するように構成される。記憶部32は、例えば、ハードディスクドライブ、ソリッドステートドライブ等で構成される。記憶部32は、推論プログラム83、対象学習結果データ225、重み情報125等の各種情報を記憶する。
推論プログラム83は、推論モデルを使用して、タスクを遂行する後述の情報処理(図12)を推論装置3に実行させるためのプログラムである。推論プログラム83は、当該情報処理の一連の命令を含む。本実施形態では、複数の対象推論モデル55及び対象重みセット65を使用して、対象推論タスクを遂行する情報処理を実行するように構成される。なお、推論装置3は、複数の既存推論モデル50及び既存重みセット60を使用して、既存推論タスクを遂行するように構成されてよい。この場合、推論プログラム83は、既存推論タスクの遂行に関する情報処理の一連の命令を更に含んでよい。また、記憶部32は、既存学習結果データ220を更に記憶してよい。
推論プログラム83、学習結果データ(220、225)、及び重み情報125のうちの少なくともいずれかは、記憶媒体93に記憶されていてもよい。これに応じて、推論装置3は、推論プログラム83、学習結果データ(220、225)、及び重み情報125のうちの少なくともいずれかを記憶媒体93から取得してもよい。また、推論装置3は、対象データを取得するために、センサ群Sに直接的に接続されてよい。この場合、推論装置3は、通信インタフェース33及び外部インタフェース34のいずれか一方を介してセンサ群Sに接続されてよい。
なお、推論装置3の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、推論装置3のプロセッサ・リソースは、複数のハードウェアプロセッサを含んでもよい。ハードウェアプロセッサは、マイクロプロセッサ、FPGA、DSP等で構成されてよい。記憶部32は、制御部31に含まれるRAM及びROMにより構成されてもよい。通信インタフェース33、外部インタフェース34、入力装置35、出力装置36、及びドライブ37の少なくともいずれかは省略されてもよい。推論装置3は、複数台のコンピュータで構成されてもよい。この場合、各コンピュータのハードウェア構成は、一致していてもよいし、一致していなくてもよい。また、推論装置3は、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のPC、タブレット端末及びスマートフォンを含む携帯端末等であってもよい。
[ソフトウェア構成]
<パラメータ調整装置>
図5は、本実施形態に係るパラメータ調整装置1のソフトウェア構成の一例を模式的に例示する。パラメータ調整装置1の制御部11は、記憶部12に記憶されたパラメータ調整プログラム81をRAMに展開する。そして、制御部11は、CPUにより、RAMに展開されたパラメータ調整プログラム81に含まれる命令を解釈及び実行して、各構成要素を制御する。これにより、図5に示されるとおり、本実施形態に係るパラメータ調整装置1は、情報取得部111、関連度算出部112、重み決定部113、及び出力部114をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、パラメータ調整装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。
<パラメータ調整装置>
図5は、本実施形態に係るパラメータ調整装置1のソフトウェア構成の一例を模式的に例示する。パラメータ調整装置1の制御部11は、記憶部12に記憶されたパラメータ調整プログラム81をRAMに展開する。そして、制御部11は、CPUにより、RAMに展開されたパラメータ調整プログラム81に含まれる命令を解釈及び実行して、各構成要素を制御する。これにより、図5に示されるとおり、本実施形態に係るパラメータ調整装置1は、情報取得部111、関連度算出部112、重み決定部113、及び出力部114をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、パラメータ調整装置1の各ソフトウェアモジュールは、制御部11(CPU)により実現される。
情報取得部111は、複数の既存推論タスクに関する既存タスク情報121を取得する。既存タスク情報121は、各既存推論タスクに適するように予め決定された複数の既存の重みによりそれぞれ構成される複数の既存重みセット60を示す。関連度算出部112は、対象推論タスク及び各既存推論タスクの目的の類似性に応じて、対象推論タスク及び各既存推論タスクの間の関連度123を算出する。各既存推論タスクの目的を示す情報は、目的情報70として与えられてよい。図5の例では、既存タスク情報121は、タスクA及びタスクBそれぞれの既存重みセット(60a、60b)を含む複数の既存重みセット60を示す。関連度算出部112は、タスクZ及び各既存推論タスク(タスクA及びタスクBを含む)の目的の類似性に応じて、タスクZ及び各既存推論タスクの間の関連度123を算出する。
重み決定部113は、算出された関連度123に応じて、既存タスク情報121により示される各既存重みセット60を構成する複数の既存の重みから、対象重みセット65を構成する複数の対象の重みを決定する。これにより、重み決定部113は、対象推論タスク(図5の例では、タスクZ)に使用する対象重みセット65を生成する。決定された各対象の重みは、複数の対象推論モデル55の推論結果を統合する際に、対応する対象推論モデル55の推論結果の優先度を設定するのに使用される。出力部114は、決定された複数の対象の重みにより構成される対象重みセット65を示す重み情報125を生成する。そして、出力部114は、所定の出力先に対して、生成された重み情報125を出力する。
<モデル生成装置>
図6は、本実施形態に係るモデル生成装置2のソフトウェア構成の一例を模式的に例示する。モデル生成装置2の制御部21は、記憶部22に記憶されたモデル生成プログラム82をRAMに展開する。そして、制御部21は、CPUにより、RAMに展開されたモデル生成プログラム82に含まれる命令を解釈及び実行して、各構成要素を制御する。これにより、図6に示されるとおり、本実施形態に係るモデル生成装置2は、データ取得部211、生成部212、及び保存処理部213をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、モデル生成装置2の各ソフトウェアモジュールは、上記パラメータ調整装置1と同様に、制御部21(CPU)により実現される。
図6は、本実施形態に係るモデル生成装置2のソフトウェア構成の一例を模式的に例示する。モデル生成装置2の制御部21は、記憶部22に記憶されたモデル生成プログラム82をRAMに展開する。そして、制御部21は、CPUにより、RAMに展開されたモデル生成プログラム82に含まれる命令を解釈及び実行して、各構成要素を制御する。これにより、図6に示されるとおり、本実施形態に係るモデル生成装置2は、データ取得部211、生成部212、及び保存処理部213をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、モデル生成装置2の各ソフトウェアモジュールは、上記パラメータ調整装置1と同様に、制御部21(CPU)により実現される。
データ取得部211は、センサ群Sにより学習データを取得する。生成部212は、取得された学習データを使用して、関連タスクを遂行するよう構成された推論モデルを生成する。保存処理部213は、生成された推論モデルに関する学習結果データを生成する。そして、保存処理部213は、生成された学習結果データを所定の記憶領域に保存する。
既存推論モデル50を生成する場面では、データ取得部211は、センサ群Sにより既存学習データ40を取得する。生成部212は、取得された既存学習データ40に基づいて、既存関連タスクを遂行するように構成された既存推論モデル50を生成する。保存処理部213は、生成された既存推論モデル50に関する既存学習結果データ220を生成し、生成された既存学習結果データ220を所定の記憶領域に保存する。
一方、対象推論モデル55を生成する場面では、データ取得部211は、センサ群Sにより対象学習データ45を取得する。生成部212は、取得された対象学習データ45に基づいて、対象関連タスクを遂行するように構成された対象推論モデル55を生成する。保存処理部213は、生成された対象推論モデル55に関する対象学習結果データ225を生成し、生成された対象学習結果データ225を所定の記憶領域に保存する。
<推論装置>
図7は、本実施形態に係る推論装置3のソフトウェア構成の一例を模式的に例示する。推論装置3の制御部31は、記憶部32に記憶された推論プログラム83をRAMに展開する。そして、制御部31は、CPUにより、RAMに展開された推論プログラム83に含まれる命令を解釈及び実行して、各構成要素を制御する。これにより、図7に示されるとおり、本実施形態に係る推論装置3は、取得部311、推論部312、及び出力部313をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、推論装置3の各ソフトウェアモジュールは、上記パラメータ調整装置1と同様に、制御部31(CPU)により実現される。
図7は、本実施形態に係る推論装置3のソフトウェア構成の一例を模式的に例示する。推論装置3の制御部31は、記憶部32に記憶された推論プログラム83をRAMに展開する。そして、制御部31は、CPUにより、RAMに展開された推論プログラム83に含まれる命令を解釈及び実行して、各構成要素を制御する。これにより、図7に示されるとおり、本実施形態に係る推論装置3は、取得部311、推論部312、及び出力部313をソフトウェアモジュールとして備えるコンピュータとして動作する。すなわち、本実施形態では、推論装置3の各ソフトウェアモジュールは、上記パラメータ調整装置1と同様に、制御部31(CPU)により実現される。
取得部311は、対象データ321を取得する。推論部312は、各対象推論モデル55の対象学習結果データ225を保持することで、複数の対象推論モデル55を備えている。また、推論部312は、重み情報125を保持することで、複数の対象の重みにより構成される対象重みセット65であって、パラメータ調整装置1により生成された対象重みセット65を備えている。推論部312は、複数の対象推論モデル55及び対象重みセット65を使用して、取得された対象データ321に対する対象推論タスク(図7の例では、タスクZ)を解く。具体的には、推論部312は、各対象の重みに従って、取得された対象データ321に対する各対象推論モデル55の推論結果を統合することで、対象推論タスクを解く。出力部313は、対象推論タスクを解いた結果に関する情報を出力する。
なお、既存推論タスクを更に遂行するように推論装置3を構成する場合、推論部312は、対象の既存推論タスクに対応する各既存推論モデル50の既存学習結果データ220を保持することで、対応する複数の既存推論モデル50を備えている。対応する既存重みセット60(複数の既存の重み)は適宜取得されてよい。推論部312は、対応する複数の既存推論モデル50及び既存重みセット60を使用して、取得された対象データに対する対象の既存推論タスク(図7の例では、タスクA等)を解く。出力部313は、対象の既存推論タスクを解いた結果に関する情報を出力する。
<その他>
パラメータ調整装置1、モデル生成装置2、及び推論装置3の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、パラメータ調整装置1、モデル生成装置2、及び推論装置3の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、上記ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。例えば、処理するデータに画像データが含まれる場合、上記ソフトウェアモジュールの一部又は全部が、グラフィックスプロセッシングユニットにより実現されてもよい。また、パラメータ調整装置1、モデル生成装置2、及び推論装置3それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
パラメータ調整装置1、モデル生成装置2、及び推論装置3の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、パラメータ調整装置1、モデル生成装置2、及び推論装置3の各ソフトウェアモジュールがいずれも汎用のCPUによって実現される例について説明している。しかしながら、上記ソフトウェアモジュールの一部又は全部が、1又は複数の専用のプロセッサにより実現されてもよい。例えば、処理するデータに画像データが含まれる場合、上記ソフトウェアモジュールの一部又は全部が、グラフィックスプロセッシングユニットにより実現されてもよい。また、パラメータ調整装置1、モデル生成装置2、及び推論装置3それぞれのソフトウェア構成に関して、実施形態に応じて、適宜、ソフトウェアモジュールの省略、置換及び追加が行われてもよい。
§3 動作例
[モデル生成装置]
図8は、本実施形態に係るモデル生成装置2の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、モデル生成方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
[モデル生成装置]
図8は、本実施形態に係るモデル生成装置2の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、モデル生成方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS101)
ステップS101では、制御部21は、データ取得部211として動作し、センサ群Sにより学習データを取得する。既存推論モデル50を生成する場面では、制御部21は、既存学習データ40を取得する。対象推論モデル55を生成する場面では、制御部21は、対象学習データ45を取得する。
ステップS101では、制御部21は、データ取得部211として動作し、センサ群Sにより学習データを取得する。既存推論モデル50を生成する場面では、制御部21は、既存学習データ40を取得する。対象推論モデル55を生成する場面では、制御部21は、対象学習データ45を取得する。
学習データ(40、45)の構成は、推論モデル(50、55)の生成方法等に応じて、実施の形態に応じて適宜決定されてよい。一例として、統計処理、人手等により推論モデル(50、55)を生成する場合、学習データ(40、45)は、センサ群Sにより推論タスクの対象を観測することで得られた複数件の観測データ(すなわち、訓練データ)を含んでよい。訓練データは、例えば、画像データ、音データ、数値データ、テキストデータ、その他のセンシングデータ等であってよい。同様に、機械学習のうち教師なし学習により推論モデル(50、55)を生成する場合も、学習データ(40、45)は、複数件の訓練データを含んでよい。その他の例として、機械学習のうち教師あり学習により推論モデル(50、55)を生成する場合、学習データ(40、45)は、訓練データ(入力データ)及び正解ラベル(教師信号)の組み合わせによりそれぞれ構成される複数の学習データセットを含んでもよい。正解ラベルは、訓練データに対する関連タスクの正解を示す。その他の例として、機械学習のうち強化学習により推論モデル(50、55)を生成する場合、学習データ(40、45)は、センサ群Sにより観測される状態の遷移及び場合によってその遷移により得られる即時報酬の組み合わせにより構成される状態遷移データを含んでよい。なお、各生成方法における学習データ(40、45)の上記構成は一例に過ぎない。各生成方法における学習データ(40、45)の具体的な構成に関して、実施の形態に応じて、構成要素の省略、置換及び追加が適宜行われてよい。学習データ(40、45)は、コンピュータの動作により自動的に生成されてもよいし、少なくとも部分的にオペレータの操作を含むことで手動的に生成されてもよい。
また、学習データ(40、45)を取得する経路は、実施の形態に応じて適宜選択されてよい。モデル生成装置2がセンサ群Sに直接的に接続される場合、制御部21は、センサ群Sから学習データを直接的に取得してもよい。一方、センサ群Sが他のコンピュータに接続される場合、制御部21は、ネットワーク、記憶媒体等を介して、他のコンピュータにより収集された学習データ(40、45)を取得してもよい。学習データを取得すると、制御部21は、次のステップS102に処理を進める。
(ステップS102)
ステップS102では、制御部21は、生成部212として動作し、取得された学習データ(40、45)に基づいて、推論モデル(50、55)を生成する。
ステップS102では、制御部21は、生成部212として動作し、取得された学習データ(40、45)に基づいて、推論モデル(50、55)を生成する。
推論モデル(50、55)の構成及び生成方法はそれぞれ、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。推論モデル(50、55)は、例えば、データテーブル、関数式、ルール等により構成されてよい。推論モデル(50、55)の生成は、統計処理、機械学習等の任意の最適化法により行われてよい。或いは、推論モデル(50、55)の生成は、人手により行われてよい。機械学習を採用する場合、推論モデル(50、55)の生成には、教師あり学習、教師なし学習、及び強化学習の少なくともいずれが用いられてよい。教師なし学習は、自己教師あり学習及び敵対的学習を含んでもよい。強化学習の方法には、価値ベース、方策ベース又はその両方が採用されてよい。
一例として、生成方法に教師あり学習を採用し、推論モデル(50、55)がニューラルネットワークにより構成される場合を想定する。ニューラルネットワークに含まれる層の数、層の種類、及び層に含まれるニューロン(ノード)の数はそれぞれ、任意に決定されてよい。この場合、制御部21は、学習データ(40、45)に含まれる各学習データセットについて、訓練データの入力に対して正解ラベルに適合する出力値を出力する能力を獲得するように、ニューラルネットワークを訓練する。この訓練処理には、例えば、バッチ勾配降下法、確率的勾配降下法、ミニバッチ勾配降下法等が用いられてよい。また、訓練処理におけるニューラルネットワークに含まれる演算パラメータの調整処理には、誤差逆伝播法が用いられてよい。
訓練処理の一例として、制御部21は、ニューラルネットワークの入力層に訓練データを入力し、ニューラルネットワークの順伝播の演算処理を実行する。順伝播の演算処理は、順伝播の演算処理は、入力側から順に各層に含まれる各ニューロンの発火判定を行うことである。これにより、制御部21は、訓練データに対して関連タスクを遂行した結果に対応する出力値を出力層から取得する。制御部21は、各学習データセットについて、出力層から得られた出力値と正解ラベルとの間の誤差を算出する。制御部21は、誤差逆伝播法により、算出された誤差の勾配を出力層から入力層に逆伝播して、ニューラルネットワークに含まれる各演算パラメータの値の誤差を算出する。そして、制御部21は、算出された誤差に基づいて、各演算パラメータの値を更新する。制御部21は、当該一連の更新処理により、算出される誤差の和が小さくなるように、ニューラルネットワークに含まれる各演算パラメータの値を調整する。制御部21は、例えば、算出される誤差の和が閾値以下になる、所定回数繰り返す等の所定の条件を満たすまで、当該一連の更新処理を繰り返してもよい。これにより、制御部21は、学習データ(40、45)に含まれる各学習データセットについて、訓練データの入力に対して正解ラベルに適合する出力値を出力する能力(すなわち、学習データ(40、45)について関連タスクを適切に遂行する能力)を獲得した推論モデル(50、55)を生成することができる。
推論モデル(50、55)を生成すると、制御部21は、次のステップS103に処理を進める。
(ステップS103)
ステップS103では、制御部21は、保存処理部213として動作し、ステップS102により生成された推論モデル(50、55)に関する情報を学習結果データ(220、225)として生成する。一例として、推論モデル(50、55)が関数式(特に、ニューラルネットワーク)により構成される場合、制御部21は、推論モデル(50、55)の構造及び各演算パラメータの値を示す情報を学習結果データ(220、225)として生成する。推論モデル(50、55)の構造がシステム間で共通化される場合、当該推論モデル(50、55)の構造に関する情報は省略されてよい。そして、制御部21は、生成された学習結果データ(220、225)を所定の記憶領域に保存する。
ステップS103では、制御部21は、保存処理部213として動作し、ステップS102により生成された推論モデル(50、55)に関する情報を学習結果データ(220、225)として生成する。一例として、推論モデル(50、55)が関数式(特に、ニューラルネットワーク)により構成される場合、制御部21は、推論モデル(50、55)の構造及び各演算パラメータの値を示す情報を学習結果データ(220、225)として生成する。推論モデル(50、55)の構造がシステム間で共通化される場合、当該推論モデル(50、55)の構造に関する情報は省略されてよい。そして、制御部21は、生成された学習結果データ(220、225)を所定の記憶領域に保存する。
所定の記憶領域は、例えば、制御部21内のRAM、記憶部22、外部記憶装置、記憶メディア又はこれらの組み合わせであってよい。記憶メディアは、例えば、CD、DVD等であってよく、制御部21は、ドライブ27を介して記憶メディアに学習結果データ(220、225)を格納してもよい。外部記憶装置は、例えば、NAS(Network Attached Storage)等のデータサーバであってよい。この場合、制御部21は、通信インタフェース23を利用して、ネットワークを介してデータサーバに学習結果データ(220、225)を格納してもよい。また、外部記憶装置は、例えば、外部インタフェース24を介してモデル生成装置2に接続された外付けの記憶装置であってよい。学習結果データ(220、225)毎に記憶領域の種別は適宜選択されてよい。学習結果データ(220、225)の保存が完了すると、制御部21は、本動作例に係る処理手順を終了する。1又は複数のモデル生成装置2により、複数の異なるセンサ群Sにより得られる学習データ(40、45)に対して上記ステップS101~ステップS103の処理を実行することで、各センサ群Sにそれぞれ対応する複数の推論モデル(50、55)を生成することができる。
なお、生成された対象学習結果データ225は、任意のタイミングで推論装置3に提供されてよい。例えば、制御部21は、ステップS103の処理として又はステップS103の処理とは別に、対象学習結果データ225を推論装置3に転送してもよい。推論装置3は、この転送を受信することで、対象学習結果データ225を取得してもよい。また、推論装置3は、通信インタフェース33を利用して、モデル生成装置2又はデータサーバにネットワークを介してアクセスすることで、対象学習結果データ225を取得してもよい。また、例えば、推論装置3は、記憶媒体93を介して、対象学習結果データ225を取得してもよい。また、例えば、対象学習結果データ225は、推論装置3に予め組み込まれてもよい。
更に、制御部21は、上記ステップS101~ステップS103の処理を定期又は不定期に繰り返すことで、対象学習結果データ225を更新又は新たに作成してもよい。この繰り返しの際には、対象学習データ45の少なくとも一部の変更、修正、追加、削除等が適宜実行されてよい。そして、制御部21は、更新した又は新たに作成した対象学習結果データ225を任意の方法で推論装置3に提供することで、推論装置3の保持する対象学習結果データ225を更新してもよい。
推論装置3が対象の既存推論タスクを更に遂行するように構成される場合、対象の既存学習結果データ220も同様に、任意のタイミングで推論装置3に提供されてよい。制御部21は、上記ステップS101~ステップS103の処理を繰り返すことで、既存学習結果データ220を更新又は新たに作成してもよい。そして、制御部21は、更新した又は新たに作成した既存学習結果データ220を任意の方法で推論装置3に提供することで、推論装置3の保持する既存学習結果データ220を更新してもよい。既存推論タスクが他のコンピュータで実行される場合も同様である。
[パラメータ調整装置]
図9は、本実施形態に係るパラメータ調整装置1の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、パラメータ調整方法の一例である。ただし、、以下で説明する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
図9は、本実施形態に係るパラメータ調整装置1の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、パラメータ調整方法の一例である。ただし、、以下で説明する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS201)
ステップS201では、制御部11は、情報取得部111として動作し、複数の既存推論タスクに関する既存タスク情報121を取得する。既存タスク情報121は、各既存推論タスクに適するようにそれぞれ生成された複数の既存重みセット60を示す。
ステップS201では、制御部11は、情報取得部111として動作し、複数の既存推論タスクに関する既存タスク情報121を取得する。既存タスク情報121は、各既存推論タスクに適するようにそれぞれ生成された複数の既存重みセット60を示す。
図10は、本実施形態に係る既存タスク情報121の構成の一例を示す。図10の例では、既存タスク情報121は、テーブル形式の構成を有しており、テーブル内の2番目以降の各カラムが、各既存重みセット60に対応している。図10の例では、2番目のカラムがタスクAに対する既存重みセット60に対応しており、3番目のカラムがタスクBに対する既存重みセット60に対応している。1番目のカラムには、既存学習データ40の取得源(すなわち、センサ群S)を識別するための識別情報が格納されている。各レコードの重みは、同一のセンサ群Sにより得られる既存学習データ40に基づいて、各既存推論タスクに対して生成された既存推論モデル50に対応している。各既存重みセット60及び対象重みセット65共に、重みにより規定される優先度は、対応する推論モデル(50、55)を優先する程度を示す。この優先する程度は、例えば、「0」が指定されていることで、推論タスクを解くのに対応する推論モデル(50、55)を使用しないことを含んでよい。なお、既存タスク情報121のデータ形式は、既存重みセット60の情報を保持可能であれば、このようなテーブル形式の例に限定されなくてよく、実施の形態に応じて適宜決定されてよい。
図10の例では、各既存推論タスクに対して、共通のn個のセンサ群Sにより得られる既存学習データ40からn個の既存推論モデル50が生成されている場面を想定している。つまり、異なる既存推論タスク間で既存推論モデル50の生成に使用するセンサ群Sが一致している場面を想定している。しかしながら、各既存推論タスクと既存推論モデルの生成に使用するセンサ群Sとの関係は、このような例に限られなくてもよい。異なる既存推論タスク間で少なくとも部分的に共通のセンサ群Sが既存推論モデル50の生成に使用されていれば、異なる既存推論タスク間で使用するセンサ群Sは必ずしも一致していなくてもよい。複数の既存推論タスクの少なくともいずれかにおいて、他の既存推論タスクに使用する既存推論モデル50の生成に使用されていないセンサ群Sが、既存推論モデル50の生成に使用されてよい。この場合、他の既存推論タスクの既存推論モデル50の生成に使用されていないセンサ群S由来の既存推論モデル50に設定された重みは、対象重みセット65を生成する本動作例に係る一連の処理において無視されてよい。或いは、他の既存推論タスクに対応する重みを適宜補充することで、各既存重みセット60を構成する重みの数が一致するように調整されてよい。重みの補充方法は任意に決定されてよい。例えば、他の既存推論タスクの既存重みセット60に対して、使用しないことを示す重み「0」が補充されてよい。
上記既存タスク情報121は適宜生成されてよい。一例として、既存タスク情報121は、各既存推論タスクに対して既存重みセット60が生成される(すなわち、各既存推論タスクに適するように複数の既存の重みが決定される)度に、その生成の実績情報を手入力又は自動的に蓄積することにより生成されてよい。実績情報の蓄積は、パラメータ調整装置1を含む任意のコンピュータで行われてよい。その結果、既存タスク情報121は、所定の記憶領域に記憶されていてよい。所定の記憶領域は、例えば、制御部11内のRAM、記憶部12、外部記憶装置、記憶メディア又はこれらの組み合わせであってよい。この場合、制御部11は、所定の記憶領域にアクセスすることで、既存タスク情報121を取得することができる。上記図2は、所定の記憶領域として記憶部12が選択されている、又は他の記憶領域にアクセスすることで取得された既存タスク情報121を記憶部12に保存した場面を想定している。既存タスク情報121を取得すると、制御部11は、次のステップS202に処理を進める。
(ステップS202)
ステップS202では、制御部11は、関連度算出部112として動作し、対象推論タスク及び各既存推論タスクの目的の類似性に応じて、対象推論タスク及び各既存推論タスクの間の関連度123を算出する。
ステップS202では、制御部11は、関連度算出部112として動作し、対象推論タスク及び各既存推論タスクの目的の類似性に応じて、対象推論タスク及び各既存推論タスクの間の関連度123を算出する。
各推論タスクの目的を示す情報は適宜取得されてよい。例えば、各既存推論タスクを示す情報は、目的情報70として既存タスク情報121と共に所定の記憶領域に保存されていてもよい。この場合、制御部11は、所定の記憶領域にアクセスすることで、各既存推論タスクを示す情報を取得することができる。或いは、目的情報70は、オペレータの入力等の手作業により取得されてよい。各既存推論タスクの目的を表現可能であれば、目的情報70の構成は、特に限定されなくてよく、実施の形態に応じて適宜決定されてよい。目的情報70は、例えば、画像データ、音データ、数値データ、テキストデータ、その他のセンシングデータ等により構成されてよい。対象推論タスクの目的を示す情報についても同様である。
関連度123を算出する指標は、推論タスクの目的の類似性を評価可能であれば、任意に設定されてよい。指標の一例として、推論タスクに関連する場所間の距離が用いられてよい。すなわち、制御部11は、各既存推論タスクに関連する場所と対象推論タスクに関連する場所との間の距離に応じて関連度123を算出してもよい。推論タスクに関連する場所は、例えば、推論タスクの対象となる場所(例えば、人流を予測する地点、気象を予測する地方等)、推論タスクの遂行対象となる対象データ又は学習データ(40、45)を取得するセンサ群Sの配置場所等の推論タスクの遂行又は推論モデルの生成に関与する場所により規定されてよい。場所を示す情報は、オペレータの入力により得られてもよいし、GPS(Global Positioning System)モジュール等のセンサにより得られてもよい。制御部11は、対象の既存推論タスクに関連する場所と対象推論タスクに関連する場所との間の距離が短いほど、当該対象の既存推論タスク及び対象推論タスクの間の関連度123を大きな値に算出してもよい。他方、制御部11は、距離が長いほど、関連度123を小さな値に算出してもよい。当該算出方法によれば、観測地点に依存し得る推論タスクを解くケースにおいて、対象推論タスク及び各既存推論タスクの間の関連度123を適切に算出することができる。
指標のその他の一例として、各推論タスクを示す用語間の意味的類似度が用いられてよい。すなわち、制御部11は、言語処理のより測定される、各既存推論タスク及び対象推論タスクそれぞれを示す用語間の意味的類似度に応じて関連度123を算出してもよい。意味的類似度は、言語表現の間の意味的な類似の程度を示す。意味的類似度の算出には、公知の言語処理方法が採用されてよい。制御部11は、対象の既存推論タスク及び対象推論タスクの間の意味的類似度が高いほど、当該対象の既存推論タスク及び対象推論タスクの間の関連度123を大きな値に算出してもよい。他方、制御部11は、意味的類似度が低いほど、関連度123を小さな値に算出してよい。当該算出方法によれば、推論タスクの目的が言語化されているケースにおいて、対象推論タスク及び各既存推論タスクの間の関連度123を適切に算出することができる。
また、指標のその他の一例として、推論タスクに関連する対象物の類似度が用いられてよい。すなわち、制御部11は、各既存推論タスク及び対象推論タスクそれぞれに関連する対象物間の類似度に応じて関連度123を算出してもよい。推論タスクに関連する対象物は、推論タスクにより推論される特徴に関するものであり、例えば、推論対象の物体、人物、事象等である。上記外観検査の事例では、対象物は、例えば、検査対象の製品、検出対象の欠陥等である。対象物の類似度は適宜算出されてよい。一例として、対象物が言語化されている場合、上記と同様に、対象物間の類似度は、用語間の意味的類似度として算出されてよい。その他の一例として、外観検査の事例において、対象物が製品であり、製品の型番が与えられている場合、制御部11は、型番の類似度により対象物の類似度を算出してもよい。制御部11は、対象の既存推論タスク及び対象推論タスクそれぞれに関連する対象物間の類似度が高いほど、当該対象の既存推論タスク及び対象推論タスクの間の関連度123を大きな値に算出してもよい。他方、制御部11は、それぞれに関連する対象物間の類似度が低いほど、関連度123を小さな値に算出してもよい。当該算出方法によれば、推論タスクに関連する対象物の類似度に基づいて、対象推論タスク及び各既存推論タスクの間の関連度123を適切に算出することができる。
更に、指標のその他の一例として、推論タスクを遂行する環境の類似度が用いられてよい。すなわち、制御部11は、各既存推論タスク及び対象推論タスクそれぞれを遂行する環境間の類似度に応じて関連度123を算出してもよい。環境は、例えば、観測対象の属性、観測を実施する場所、観測対象に対するセンサの配置、センサの設置角度、センサ以外の外部要因の条件等の観測条件により規定されてよい。環境の類似度は適宜算出されてよい。一例として、環境を示す情報は、センサの観測条件の各項目において数値化されてよい。数値化は手入力により行われてよい。或いは、数値化された環境を示す情報は、推論タスクを遂行する対象データの取得に使用されるセンサ群Sを構成するセンサとは別のセンサ(サブセンサ)により環境を観測することで得られてよい。この場合、制御部11は、得られた数値間の距離により環境間の類似度を算出してもよい。具体的には、制御部11は、数値間の距離が短いほど環境間の類似度が高いと評価してよい。これに応じて、制御部11は、対象の既存推論タスク及び対象推論タスクそれぞれを遂行する環境間の類似度が高いほど、当該対象の既存推論タスク及び対象推論タスクの間の関連度123を大きな値に算出してもよい。他方、制御部11は、それぞれを遂行する環境間の類似度が低いほど、関連度123を小さな値に算出してもよい。当該算出方法によれば、推論タスクを遂行する環境の類似性に基づいて、対象推論タスク及び各既存推論タスクの間の関連度123を適切に算出することができる。
制御部11は、上記いずれかの方法により、対象推論タスク及び各既存推論タスクの目的の類似性を評価することにより、対象推論タスク及び各既存推論タスクの間の関連度123を算出してよい。ただし、各関連度123を算出する方法は、上記の例に限定されなくてよく、実施の形態に応じて適宜決定されてよい。その他の一例として、制御部11は、各既存推論タスク及び対象推論タスクそれぞれを遂行する環境で得られた対象データの間の相関性に応じて各関連度123を算出してもよい。対象推論タスク及び各既存推論タスクの間の関連度123を算出すると、制御部11は、次のステップS203に処理を進める。
(ステップS203)
ステップS203では、制御部11は、重み決定部113として動作し、算出された関連度123に応じて、既存タスク情報121により示される各既存重みセット60を構成する複数の既存の重みから、対象重みセット65を構成する複数の対象の重みを決定する。これにより、制御部11は、対象推論タスクに使用する対象重みセット65を生成する。
ステップS203では、制御部11は、重み決定部113として動作し、算出された関連度123に応じて、既存タスク情報121により示される各既存重みセット60を構成する複数の既存の重みから、対象重みセット65を構成する複数の対象の重みを決定する。これにより、制御部11は、対象推論タスクに使用する対象重みセット65を生成する。
対象重みセット65を生成する方法は、関連度123の高い既存推論タスクの既存重みセット60ほど優先される方法であれば、特に限定されなくてよい。一例として、制御部11は、算出された各関連度123に従って、各既存重みセット60を構成する複数の既存の重みを重み付け加算又は重み付け平均することで、対象重みセット65を構成する複数の対象の重みを算出してよい。この場合、制御部11は、各既存重みセット60の対応する重み同士を加算する。或いは、制御部11は、複数の既存重みセット60のうち最も関連度123の高い既存推論タスクの既存重みセット60を抽出し、抽出された既存重みセット60をそのまま対象重みセット65として採用してもよい。対象重みセット65を生成すると、制御部11は、次のステップS204に処理を進める。
なお、本実施形態では、対象推論タスク及び各既存推論タスクの間で、推論モデル(50、55)の生成に使用される複数の異なるセンサ群Sが一致している場面を想定している。同一のセンサ群S由来の各既存推論モデル50に設定された重みから対応する対象推論モデル55に設定する重みが決定される。しかしながら、対象推論モデル55の生成に使用されるセンサ群Sは、必ずしもこのような条件を満たさなくてもよい。すなわち、対象推論タスク及び各既存推論タスクの間で、推論モデル(50、55)の生成に使用されるセンサ群Sは必ずしも一致していなくてもよい。これにより、各既存推論タスクに使用する各既存推論モデル50の生成に使用されていないセンサ群S由来の対象推論モデル55が存在してもよい。この場合、その対象推論モデル55に設定する重みは、例えば、オペレータの入力等により適宜決定されてよい。
(ステップS204)
ステップS204では、制御部11は、出力部114として動作し、生成された対象重みセット65を示す重み情報125を生成する。そして、制御部11は、所定の出力先に対して、生成された重み情報125を出力する。
ステップS204では、制御部11は、出力部114として動作し、生成された対象重みセット65を示す重み情報125を生成する。そして、制御部11は、所定の出力先に対して、生成された重み情報125を出力する。
所定の出力先は任意に選択されてよい。一例として、所定の出力先は、複数の対象推論モデル55を使用する推論装置3であってよい。制御部11は、通信インタフェース13を利用して、ネットワークを介して重み情報125を推論装置3に送信してもよい。これに応じて、推論装置3において、提供された重み情報125により示される各重みは、各対象推論モデル55の推論結果の統合に使用可能な状態に自動的に設定されてよい。なお、使用可能な状態に各重みを設定する方法は、このような例に限定されなくてよい。例えば、各対象推論モデル55に対して各重みを設定する操作を促すために、提供された重み情報125は、推論装置3の出力装置36等を介して出力されてよい。これにより、各重みの設定は、オペレータの手作業により行われてよい。
その他の一例として、所定の出力先は、出力装置16又は他のコンピュータの出力装置であってよい。この場合も、推論装置3における各重みの設定は、オペレータの手作業により行われてよい。また、更にその他の一例として、所定の出力先は、上記所定の記憶領域であってよい。この場合、重み情報125を出力することは、重み情報125を所定の記憶領域に保存することであってよい。保存された重み情報125は、推論装置3に適宜提供されてよい。これにより、推論装置3において、各重みの設定は、自動的又は手動的に適宜行われてよい。
複数の対象推論モデル55を使用する(すなわち、対象推論タスクを遂行する)他の推論装置が存在する場合、他の推論装置にも同様に重み情報125が提供されてよい。重み情報125の出力が完了すると、制御部11は、本動作例に係る処理手順を終了する。
(統合方法)
なお、対象重みセット65を構成する各対象の重みは、各対象推論モデル55の推論結果を統合する際、対応する対象推論モデル55の推論結果の優先度を規定する。同様に、各既存重みセット60を構成する各既存の重みは、各既存推論モデル50の推論結果を統合する際に、対応する既存推論モデル50の推論結果の優先度を規定する。各重みに従って推論結果を統合する方法は、実施の形態に応じて適宜選択されてよい。
なお、対象重みセット65を構成する各対象の重みは、各対象推論モデル55の推論結果を統合する際、対応する対象推論モデル55の推論結果の優先度を規定する。同様に、各既存重みセット60を構成する各既存の重みは、各既存推論モデル50の推論結果を統合する際に、対応する既存推論モデル50の推論結果の優先度を規定する。各重みに従って推論結果を統合する方法は、実施の形態に応じて適宜選択されてよい。
図11Aは、重みセット(60、65)を使用して、各推論モデル(50、55)の推論結果を統合する方法の一例を模式的に例示する。図11Aの例では、重みセット(60、65)を構成する各重みは、各推論モデル(50、55)の出力値の重み付けに使用される。具体的には、推論内容が識別(分類)である場合、各推論モデル(50、55)の推論結果を統合することは、複数の重みに従って、複数の推論モデル(50、55)の推論結果を重み付け多数決することにより構成されてよい。一方、推論内容が回帰であり、各推論モデル(50、55)の推論結果が数値により構成される場合、各推論モデル(50、55)の推論結果を統合することは、複数の重みに従って、複数の推論モデル(50、55)の推論結果を重み付けすること、及び重み付けされた各推論結果の平均又は合計を算出することにより構成されてよい。これらの場合、出力が統合可能であれば、各推論モデル(50、55)の構成は、一致していてもよいし、一致していなくてもよい。
図11Bは、重みセット(60、65)を使用して、各推論モデル(50、55)の推論結果を統合する方法のその他の一例を模式的に例示する。図11Bの例では、重みセット(60、65)を構成する各重みに従って、各推論モデル(50、55)を少なくとも部分的に統合する。これにより、各推論モデル(50、55)の推論結果を統合する。具体的に、この統合方法を採用する場合、各推論モデル(50、55)は、関連タスクの共通の演算に使用される1つ以上の演算パラメータを備えるように構成される。つまり、各推論モデル(50、55)の構造は少なくとも部分的に一致するように構成される。
一例として、図11Bに例示されるとおり、各推論モデル(50、55)がニューラルネットワークにより構成される場合、各推論モデル(50、55)は、同一のニューロンの数及び同一の結合関係を有する1又は複数の層を備えるように構成される。その他の一例として、各推論モデル(50、55)が回帰モデルにより構成される場合、各推論モデル(50、55)は、同一の演算に使用される係数及び定数項の少なくともいずれかを備えるように構成される。
統合する範囲は、この各推論モデル(50、55)の構造の一致する範囲内から適宜選択されてよい。図11Bの例では、各推論モデル(50、55)は6層のニューラルネットワークにより構成されており、各推論モデル(50、55)の間で入力層から4番目の層まで構造が一致している。そして、入力層から3番目の層までの範囲が統合範囲に選択されている。統合範囲の選択は、例えば、オペレータの指定等により行われてよい。
これに応じて、図11Bに例示されるとおり、各推論モデル(50、55)の推論結果を統合することは、各重みに従って、各推論モデル(50、55)の共通の演算に使用される1つ以上の演算パラメータの値を重み付けし、重み付けされた1つ以上の演算パラメータの値の平均又は合計を算出することにより構成されてよい。図11A及び図11Bの方法によれば、各推論モデル(50、55)の推論結果を適切に統合することができ、これにより、推論タスクを解いた結果を導出することができる。
[推論装置]
図12は、本実施形態に係る推論装置3の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、推論方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
図12は、本実施形態に係る推論装置3の処理手順の一例を示すフローチャートである。以下で説明する処理手順は、推論方法の一例である。ただし、以下で説明する処理手順は一例に過ぎず、各ステップは可能な限り変更されてよい。更に、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。
(ステップS301)
ステップS301では、制御部31は、取得部311として動作し、対象データ321を取得する。対象データ321は、対象推論タスクの遂行対象となるサンプルである。対象データ321は、例えば、画像データ、音データ、数値データ、テキストデータ、その他のセンシングデータ等であってよく、対象推論タスクの内容に応じて選択されてよい。
ステップS301では、制御部31は、取得部311として動作し、対象データ321を取得する。対象データ321は、対象推論タスクの遂行対象となるサンプルである。対象データ321は、例えば、画像データ、音データ、数値データ、テキストデータ、その他のセンシングデータ等であってよく、対象推論タスクの内容に応じて選択されてよい。
対象データ321を取得する方法は、実施の形態に応じて適宜選択されてよい。例えば、上記学習環境とは異なる検査環境で推論タスクを遂行する事例等のように、各対象推論モデル55は、由来するセンサ群Sとは別の他のセンサ群Sであって、対象推論タスクを遂行する環境に配置された他のセンサ群Sにより得られる観測データに使用されることを前提に生成される場合がある(以下、このケースを第1ケースと称する)。この第1ケースでは、対象データ321は、各対象推論モデル55の生成にそれぞれ使用した複数の異なるセンサ群Sとは別の他のセンサ群Sから取得されてよい。
一方、例えば、上記複数の観測地点それぞれの気象予測の結果からある地方の総合的な気象を予測する事例等のように、各対象推論モデル55は、由来するセンサ群Sにより得られる観測データに使用されることを前提に生成される場合がある(以下、このケースを第2ケースと称する)。この第2ケースでは、対象データ321は、各対象推論モデル55の生成にそれぞれ使用した複数の異なるセンサ群Sそれぞれから取得されてよい。
対象データ321を取得する経路は、実施の形態に応じて適宜選択されてよい。推論装置3がセンサ群Sに直接的に接続される場合、制御部31は、センサ群Sから対象データ321を直接的に取得してもよい。一方、センサ群Sが他のコンピュータに接続される場合、制御部31は、ネットワーク、記憶媒体等を介して、他のコンピュータから対象データ321を取得してもよい。対象データ321を取得すると、制御部31は、次のステップS302に処理を進める。
(ステップS302)
ステップS302では、制御部31は、推論部312として動作し、各対象推論モデル55の対象学習結果データ225を参照して、各対象推論モデル55の設定を行う。また、制御部31は、重み情報125を参照して、各対象推論モデル55に対して各対象の重みを設定する。そして、制御部31は、設定された各対象の重みに従って、取得された対象データ321に対する各対象推論モデル55の推論結果を統合する。
ステップS302では、制御部31は、推論部312として動作し、各対象推論モデル55の対象学習結果データ225を参照して、各対象推論モデル55の設定を行う。また、制御部31は、重み情報125を参照して、各対象推論モデル55に対して各対象の重みを設定する。そして、制御部31は、設定された各対象の重みに従って、取得された対象データ321に対する各対象推論モデル55の推論結果を統合する。
制御部31は、上記図11A及び図11Bのいずれの方法を推論結果の統合に採用してよい。図11Aの方法を採用する場合、制御部31は、各対象推論モデル55に対象データ321を入力し、各対象推論モデル55の演算処理を行う。この演算処理により、制御部31は、各対象推論モデル55の出力値を取得する。そして、制御部31は、上記図11Aの方法で、各対象推論モデル55の出力値を重み付けした後に統合する。他方、図11Bの方法を採用する場合、制御部31は、各対象の重みに従って、各対象推論モデル55の統合範囲の演算パラメータの値を統合する。制御部31は、各対象推論モデル55の統合範囲の演算パラメータに統合結果を反映した後、各対象推論モデル55に対象データ321を入力し、各対象推論モデル55の演算処理を行う。この演算処理により、制御部31は、各対象推論モデル55の出力値を取得する。そして、制御部31は、各対象推論モデル55の出力値を統合する。出力値の統合は、多数決、平均又は合計により行われてよい。なお、これらの演算を行う際、上記第1ケースでは、制御部31は、他のセンサ群Sにより得られた対象データ321を各対象推論モデル55に入力する。一方、上記第2ケースでは、制御部31は、各センサ群Sにより得られた対象データ321を対応する対象推論モデル55に入力する。これらの一連の処理により、制御部31は、複数の対象推論モデル55及び対象重みセット65を使用して、対象データ321に対する対象推論タスクを解くことができる。対象推論タスクを解いた結果を取得すると、制御部31は、次のステップS303に処理を進める。
なお、運用前に、制御部31は、対象推論タスクを遂行する環境で得られた検証用データを用いて、対象重みセット65を構成する各対象の重みにより、対象推論タスクの解が適切に得られるか否かを検証してもよい。検証用データは、対象学習データ45と同様に構成されてよい。この場合、制御部31は、機械学習又はその他の最適化法により、検証用データに対して上記統合により導出される解が対象推論タスクの解として適合するように、各対象の重みの値を微調整してもよい。この微調整は、パラメータ調整装置1により行われてもよい。この場合、パラメータ調整装置1は、各対象推論モデル55の対象学習結果データ225を保持することで、各対象推論モデル55を備えてよい。
(ステップS303)
ステップS303では、制御部31は、出力部313として動作し、対象推論タスクを解いた結果に関する情報を出力する。
ステップS303では、制御部31は、出力部313として動作し、対象推論タスクを解いた結果に関する情報を出力する。
出力先及び出力する情報の内容はそれぞれ、実施の形態に応じて適宜決定されてよい。例えば、制御部31は、ステップS302により得られた対象推論タスクを解いた結果をそのまま出力装置36に出力してもよい。また、例えば、制御部31は、対象推論タスクを解いた結果に基づいて、所定の情報処理を実行してもよい。そして、制御部31は、その情報処理を実行した結果を、対象推論タスクを解いた結果に関する情報として出力してもよい。この情報処理を実行した結果の出力には、対象推論タスクを解いた結果に応じて特定のメッセージを出力すること、解いた結果に応じて制御対象装置の動作を制御すること等が含まれてよい。出力先は、例えば、出力装置36、他のコンピュータの出力装置、制御対象装置等であってよい。
対象推論タスクを解いた結果に関する情報の出力が完了すると、制御部31は、本動作例に係る処理手順を終了する。なお、所定期間の間、制御部31は、ステップS301~ステップS303の一連の情報処理を継続的に繰り返し実行してもよい。繰り返すタイミングは、任意であってよい。これにより、推論装置3は、対象推論タスクを継続的に遂行してもよい。推論装置3を含む任意のコンピュータにより、上記ステップS301~ステップS303と同様の処理手順で、既存推論タスクに関しても同様に遂行されてよい。
[特徴]
以上のとおり、本実施形態では、パラメータ調整装置1のステップS202及びステップS203により、複数の既存推論タスクそれぞれに対して生成した既存重みセット60の実績(既存タスク情報121)を活用することで、対象推論タスクで使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、本実施形態によれば、複数の異なる推論タスクが設定される状況において、対象の推論タスクを解くために複数の推論モデルを導入する際のコストを低減することができる。推論装置3では、ステップS302により対象推論タスクを遂行するために、各対象推論モデル55の重みを決定する手間を低減することができる。
以上のとおり、本実施形態では、パラメータ調整装置1のステップS202及びステップS203により、複数の既存推論タスクそれぞれに対して生成した既存重みセット60の実績(既存タスク情報121)を活用することで、対象推論タスクで使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、本実施形態によれば、複数の異なる推論タスクが設定される状況において、対象の推論タスクを解くために複数の推論モデルを導入する際のコストを低減することができる。推論装置3では、ステップS302により対象推論タスクを遂行するために、各対象推論モデル55の重みを決定する手間を低減することができる。
§4 変形例
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良又は変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態に係る推論システム100は、複数の推論モデルを利用して所定種類のデータに対して推論タスクを遂行するあらゆる場面に適用されてよい。
一例として、上記実施形態に係る推論システム100は、異なる環境で得られたセンシングデータに対する推論タスクの精度の向上を図るために、複数の推論モデルの推論結果を統合するケースに適用されてよい。この場合、各推論タスク及び各関連タスクは、互いに同一種のセンシングデータに対して同一種の特徴に関する推論を行うことであってよい。各推論モデル(50、55)は、異なる環境で運用されるセンサ群S由来の学習データ(40、45)に基づいて生成されてよい。環境は、例えば、観測対象の属性、観測を実施する場所、観測対象に対するセンサの配置、センサの設置角度、センサ以外の外部要因の条件等の観測条件により規定されてよい。各既存推論タスクは、既存学習データ40由来の環境とは異なる環境で得られる対象データに対して遂行されるものであってよい。対象推論タスクは、既存学習データ40由来の環境及び各既存推論タスクを遂行する各環境とは更に異なる環境で得られる対象データ321に対して遂行されるものであってよい。
また、その他の一例として、上記実施形態に係る推論システム100は、高次推論タスクを解くために、複数の推論モデルの推論結果を統合するケースに適用されてよい。この場合、各推論タスクは、各関連タスクの推論対象となる特徴よりも高次の特徴に関する推論を行うことであってよい。各推論モデル(50、55)は、互いに異なる低次の特徴に関する推論を行うように構成されてよい。各既存推論タスクは、任意の環境で得られる対象データに対して異なる特徴に関する推論を行うことであってよい。これに対応して、対象推論タスクは、任意の環境で得られる対象データに対して各既存推論タスクとは更に異なる特徴に関する推論を行うことであってよい。或いは、各既存推論タスクは、異なる環境で得られる対象データに対して特定の特徴に関する推論を行うことであってよい。これに対応して、対象推論タスクは、各既存推論タスクを遂行する各環境とは更に異なる環境で得られる対象データに対して特定の特徴に関する推論を行うことであってよい。
具体例として、上記実施形態に係る推論システム100は、例えば、製品の外観検査に関する推論を行う(検査系推論タスクを遂行する)場面、気象に関する事象又は気象の影響を受ける事象を推論する(気象系推論タスクを遂行する)場面、人流に関する事象又は人流の影響を受ける事象を推論する(人流系推論タスクを遂行する)場面、対象者の状態に関する事象を推論する(診断系推論タスクを遂行する)場面等に適用されてよい。以下、適用場面を限定した一具体例を示す。
(A)製品の外観検査を行う場面
図13は、第1具体例に係る検査システム100Aの適用場面の一例を模式的に例示する。第1具体例は、カメラSAにより得られる画像データを利用して、製品RAの外観検査を実施する場面に上記実施形態を適用した例である。第1具体例に係る検査システム100Aは、パラメータ調整装置1、モデル生成装置2、及び検査装置3Aを備える。検査装置3Aは、上記推論装置3の一例である。
図13は、第1具体例に係る検査システム100Aの適用場面の一例を模式的に例示する。第1具体例は、カメラSAにより得られる画像データを利用して、製品RAの外観検査を実施する場面に上記実施形態を適用した例である。第1具体例に係る検査システム100Aは、パラメータ調整装置1、モデル生成装置2、及び検査装置3Aを備える。検査装置3Aは、上記推論装置3の一例である。
第1具体例において取り扱うデータ(学習データ(40、45)、対象データ321)は、カメラSAにより得られる画像データである。カメラSAの種類は、特に限定されなくてよく、実施の形態に応じて適宜選択されてよい。カメラSAは、例えば、一般的なRGBカメラ、深度カメラ、赤外線カメラ等であってよい。カメラSAは、製品RAを撮影可能な場所に適宜配置されてよい。なお、センサ群Sの構成は、このような例に限定されなくてよい。センサ群Sは、カメラSA以外のセンサを含んでよく、これに応じて、取り扱うデータは、画像データ以外のセンシングデータを含んでもよい。
製品RAは、例えば、電子機器、電子部品、自動車部品、薬品、食品等の製造ラインで搬送される製品であってよい。電子部品は、例えば、基盤、チップコンデンサ、液晶、リレーの巻線等であってよい。自動車部品は、例えば、コンロッド、シャフト、エンジンブロック、パワーウィンドウスイッチ、パネル等であってよい。薬品は、例えば、包装済みの錠剤、未包装の錠剤等であってよい。製品RAは、製造過程完了後に生成される最終品であってもよいし、製造過程の途中で生成される中間品であってもよいし、製造過程を経過する前に用意される初期品であってもよい。外観検査の対象となる欠陥は、例えば、傷、汚れ、クラック、打痕、バリ、色ムラ、塗装剥離、異物混入等であってよい。
第1具体例において、各推論モデルの推論結果の統合は、異なる環境での外観検査の精度の向上を図るために行われてよい。この場合、各推論タスク及び各関連タスクは共に、画像データに対して欠陥に関する推論を行うことであってよい。欠陥に関する推論を行うことは、例えば、製品RAに欠陥が含まれているか否かを判定すること、製品RAに欠陥が含まれる確率を判定すること、製品RAに含まれる欠陥の種類を識別すること、製品RAに含まれる欠陥の範囲を特定すること又はこれらの組み合わせにより構成されてよい。各推論モデル(50、55)は、異なる環境で運用されるカメラSA由来の学習データ(40、45)に基づいて生成されてよい。外観検査の環境は、例えば、製造ライン/工場の属性、製品RAの属性、カメラSAの型番、製品RAに対するカメラSAの配置、カメラSAの設置角度、証明条件、外乱光条件、背景条件等の観測条件により規定されてよい。
各既存推論タスクは、既存学習データ40由来の環境とは異なる環境で得られる対象データ(画像データ)に対して遂行されるものであってよい。これに対して、対象推論タスクは、既存学習データ40由来の環境及び各既存推論タスクを遂行する各環境とは更に異なる環境で得られる対象データ321(画像データ)に対して遂行されるものであってよい。具体的な事例の一例として、図13の例において、検査系推論タスクA(ある既存推論タスク)は、第1製造ライン/第1工場で製品RAの欠陥に関する推論を行うものであり、検査系推論タスクB(別の既存推論タスク)は、第1製造ライン/第1工場とは異なる第2製造ライン/第2工場で製品RAの欠陥に関する推論を行うものであってよい。これに応じて、検査系推論タスクZ(対象推論タスク)は、第1製造ライン/第1工場及び第2製造ライン/第2工場とは異なる第3製造ライン/第3工場で製品RAの欠陥に関する推論を行うものであってよい。対象推論タスク及び各既存推論タスクの間の関連度は、例えば、製造ライン/工場の設置場所の近さ、製造ライン/工場の属性(例えば、人口密度、排出されるごみの量等の運用環境に関する特徴)の類似性、製品RAの属性(例えば、種類、構造、外観パターン、型番等)の類似性、その他観測条件の類似性等に応じて算出されてよい。
その他、各推論タスク及び各関連タスクは共に、特定の種類の欠陥に関する推論を行うことであってよい。各既存推論タスクは、異なる種類の欠陥に関する推論を行うものであってよく、対象推論タスクは、各既存推論タスクとは更に異なる種類の欠陥に関する推論を行うものであってよい。具体的な事例の一例として、図13の例において、検査系推論タスクAは、第1種類の欠陥(例えば、傷)に関する推論を行うものであり、検査系推論タスクBは、第1種類とは異なる第2種類の欠陥(例えば、異物混入)に関する推論を行うものであってよい。これに応じて、検査系推論タスクZは、第1種類及び第2種類とは異なる第3種類の欠陥(例えば、塗装剥離)に関する推論を行うものであってよい。この場合、対象推論タスク及び各既存推論タスクの間の関連度は、上記観測条件の類似性の他、例えば、検査対象の欠陥の類似性等に応じて算出されてよい。
或いは、第1具体例において、各推論モデルの推論結果の統合は、高次推論タスクを解くために行われてよい。この場合、各関連タスクは、異なる種類のセンサによりそれぞれ構成されるセンサ群Sの観測データに基づいて欠陥に関する推論を行うことであってよい。これに応じて、各推論タスクは、欠陥に関する推論を総合的に行うことであってよい。各既存推論タスクは、異なる環境で得られる対象データに対して欠陥に関する推論を行うものであってよい。対象推論タスクは、各既存推論タスクを遂行する各環境とは更に異なる環境で得られる対象データ321に対して欠陥に関する推論を行うものであってよい。対象推論タスク及び各既存推論タスクの間の関連度は、上記観測条件の類似性に応じて算出されてよい。
その他、各関連タスクは、特定/任意の種類の欠陥に関して、例えば、エッジ等の画像データの特徴量を抽出することであってよい。これに応じて、各推論タスクは、特定/任意の種類の欠陥に関する推論を行うことであってよい。各既存推論タスクは、既存学習データ40由来の環境とは異なる環境で得られる対象データ(画像データ)に対して特定/任意の種類の欠陥に関する推論を行うものであってよい。これに対して、対象推論タスクは、既存学習データ40由来の環境及び各既存推論タスクを遂行する各環境とは更に異なる環境で得られる対象データ321(画像データ)に対して特定/任意の種類の欠陥に関する推論を行うものであってよい。この場合、対象推論タスク及び各既存推論タスクの間の関連度は、上記観測条件の類似性に応じて算出されてよい。或いは、各既存推論タスクは、異なる種類の欠陥に関する推論を行うものであってよい。これに対して、対象推論タスクは、各既存推論タスクとは更に異なる種類の欠陥に関する推論を行うものであってよい。この場合、対象推論タスク及び各既存推論タスクの間の関連度は、例えば、上記観測条件の類似性、検査対象の欠陥の類似性等に応じて算出されてよい。
これらの他、第1具体例の構成は、上記実施形態と同様であってよい。第1具体例において、モデル生成装置2は、上記実施形態と同様の処理手順により、製品RAの外観検査に使用可能な各推論モデル(50、55)を生成することができる。パラメータ調整装置1は、上記実施形態と同様の処理手順により、対象推論タスクに使用可能な対象重みセット65を生成することができる。
検査装置3Aは、複数の対象推論モデル55及び対象重みセット65を使用して、外観検査に関する対象推論タスクを遂行するように構成されたコンピュータである。検査装置3Aのハードウェア構成及びソフトウェア構成は、上記推論装置3と同様であってよい。検査装置3Aは、提供されるサービス専用に設計された情報処理装置の他、汎用のコンピュータ、PLC(programmable logic controller)等であってもよい。
検査装置3Aは、上記推論装置3と同様の処理手順により、製品RAの外観検査を実行することができる。すなわち、ステップS301では、検査装置3Aの制御部は、検査対象の環境で運用されるカメラSAから製品RAの写る対象データ321(画像データ)を取得する。ステップS302では、制御部は、複数の対象推論モデル55及び対象重みセット65を使用して、対象データ321に写る製品RAの欠陥に関する推論を実行する。
ステップS303では、制御部は、製品RAの検査系推論タスクを解いた結果に関する情報を出力する。例えば、制御部は、製品RAの欠陥に関する推論を解いた結果をそのまま出力装置に出力してもよい。また、例えば、製品RAに欠陥が含まれると判定した場合に、制御部は、そのことを知らせるための警告を出力装置に出力してもよい。また、例えば、製品RAを搬送するコンベア装置に検査装置3Aが接続される場合、制御部は、欠陥推定の結果に基づいて、欠陥のある製品RAと欠陥のない製品RAとを別のラインで搬送されるようにコンベア装置を制御してもよい。
(特徴)
第1具体例によれば、異なる既存の条件(環境、欠陥の種類等)での外観検査のために生成した既存重みセット60の実績を活用することで、新たな条件での外観検査に使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、第1具体例によれば、外観検査について複数の異なる条件が設定される状況において、対象の条件で外観検査を実施するために複数の推論モデルを導入する際のコストを低減することができる。
第1具体例によれば、異なる既存の条件(環境、欠陥の種類等)での外観検査のために生成した既存重みセット60の実績を活用することで、新たな条件での外観検査に使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、第1具体例によれば、外観検査について複数の異なる条件が設定される状況において、対象の条件で外観検査を実施するために複数の推論モデルを導入する際のコストを低減することができる。
(B)気象に関する事象又は気象に影響を受ける事象を推論する場面
図14は、第2具体例に係る予測システム100Bの適用場面の一例を模式的に例示する。第2具体例は、気象に関連するセンサSBにより得られる観測データを利用して、気象に関する事象又は気象に影響を受ける事象を推論(この例では、予測)する場面に上記実施形態を適用した例である。第2具体例に係る予測システム100Bは、パラメータ調整装置1、モデル生成装置2、及び予測装置3Bを備える。予測装置3Bは、上記推論装置3の一例である。なお、以下、説明の便宜上、気象に関する事象及び気象に影響を受ける事象を一括して「気象関連事象」とも記載する。
図14は、第2具体例に係る予測システム100Bの適用場面の一例を模式的に例示する。第2具体例は、気象に関連するセンサSBにより得られる観測データを利用して、気象に関する事象又は気象に影響を受ける事象を推論(この例では、予測)する場面に上記実施形態を適用した例である。第2具体例に係る予測システム100Bは、パラメータ調整装置1、モデル生成装置2、及び予測装置3Bを備える。予測装置3Bは、上記推論装置3の一例である。なお、以下、説明の便宜上、気象に関する事象及び気象に影響を受ける事象を一括して「気象関連事象」とも記載する。
第2具体例において取り扱うデータ(学習データ(40、45)、対象データ321)は、気象に関連する観測を行う1つ以上のセンサSBにより得られる観測データである。センサ群Sを構成するセンサSBは、例えば、画像センサ、温度計、湿度計、雨量計、風向風速計、日照計、照度計、気圧計、紫外線センサ、土壌センサ等であってよい。気象に関する事象の予測項目は、例えば、天候、降水量、温度、湿度、風速、風向、気圧、紫外線量等であってよい。気象に影響を受ける事象の予測項目は、例えば、自然エネルギー(例えば、太陽光、水力、風力、地熱等)の発電量、花粉の飛散量、植物の栽培状況(例えば、病気発生の確率、実/花の数、花の開花の具合、葉の茂り具合、植物の収穫量、収穫時期等)等であってよい。
第2具体例において、各推論モデルの推論結果の統合は、異なる観測地点での気象系推論タスクの精度の向上を図るために行われてよい。この場合、各推論タスク及び各関連タスクは共に、気象関連事象の任意の項目について予測することであってよい。各推論モデル(50、55)は、異なる観測地点で運用されるセンサSB由来の学習データ(40、45)に基づいて生成されてよい。各既存推論タスクは、既存学習データ40由来の観測地点とは異なる観測地点で得られる対象データに対して遂行されるものであってよい。これに対して、対象推論タスクは、既存学習データ40由来の観測地点及び各既存推論タスクを遂行する各観測地点とは更に異なる観測地点で得られる対象データ321に対して遂行されるものであってよい。具体的な事例の一例として、図14の例において、気象系推論タスクA(ある既存推論タスク)は、第1地点における天候を予測することであり、気象系推論タスクB(別の既存推論タスク)は、第1地点とは異なる第2地点における天候を予測することであってよい。これに応じて、気象系推論タスクZ(対象推論タスク)は、第1地点及び第2地点とは異なる第3地点における天候を予測することであってよい。この場合、対象推論タスク及び各既存推論タスクの間の関連度は、例えば、観測地点の近さ、観測地点の環境の類似性、予測項目の類似性等に応じて算出されてよい。なお、上記の例において、観測地点を観測地域に置き換え、各推論モデルの推論結果の統合は、異なる観測地域での気象系推論タスクの精度の向上を図るために行われてよい。このケースも上記と同様に構成可能である。
或いは、第2具体例において、各推論モデルの推論結果の統合は、高次推論タスクを解くために行われてよい。この場合、各関連タスクは、それぞれ異なる特定の観測地点における気象関連事象を予測することであってよい。これに応じて、各推論タスクは、各関連タスクの観測地点を含む地域/地方における気象関連事象を予測することであってよい。各推論モデル(50、55)は、各観測地点で得られる学習データ(40、45)に基づいて、気象関連事象の各推論タスクにおける予測対象の項目に関する推論を行うように生成されてよい。各既存推論タスクは、気象関連事象の異なる項目に関する予測を行うものであってよく、対象推論タスクは、各既存推論タスクとは更に異なる気象関連事象の項目に関する予測を行うものであってよい。対象データ321は、各観測地点で得られる観測データにより構成されてよい。具体的な事例の一例として、図14の例において、気象系推論タスクAは、ある地方における天候を予測することであり、気象系推論タスクBは、その地方における降水量を予測することであってよい。これに応じて、気象系推論タスクZは、その地方の太陽光の発電量を予測することであってよい。この場合、対象推論タスク及び各既存推論タスクの間の関連度は、例えば、予測項目の類似性等に応じて算出されてよい。
これらの他、第2具体例の構成は、上記実施形態と同様であってよい。第2具体例において、モデル生成装置2は、上記実施形態と同様の処理手順により、気象関連事象の予測に使用可能な各推論モデル(50、55)を生成することができる。パラメータ調整装置1は、上記実施形態と同様の処理手順により、対象推論タスクに使用可能な対象重みセット65を生成することができる。
予測装置3Bは、複数の対象推論モデル55及び対象重みセット65を使用して、気象関連事象に関する対象推論タスクを遂行するように構成されたコンピュータである。予測装置3Bのハードウェア構成及びソフトウェア構成は、上記推論装置3と同様であってよい。予測装置3Bは、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のコンピュータ等であってもよい。
予測装置3Bは、上記推論装置3と同様の処理手順により、気象関連事象の予測を実行することができる。すなわち、ステップS301では、予測装置3Bの制御部は、予測対象の観測地点(又は地域/地方)で運用されるセンサSBから対象データ321を取得する。ステップS302では、制御部は、複数の対象推論モデル55及び対象重みセット65を使用して、対象データ321に基づいて気象関連事象の予測を行う。ステップS303では、制御部は、予測結果に関する情報を出力する。
(特徴)
第2具体例によれば、異なる既存の条件(観測地点、予測項目等)での気象関連事象の予測のために生成した既存重みセット60の実績を活用することで、新たな条件での気象関連事象の予測に使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、第2具体例によれば、気象関連事象の予測について複数の異なる条件が設定される状況において、対象の条件で気象関連事象の予測を実施するために複数の推論モデルを導入する際のコストを低減することができる。
第2具体例によれば、異なる既存の条件(観測地点、予測項目等)での気象関連事象の予測のために生成した既存重みセット60の実績を活用することで、新たな条件での気象関連事象の予測に使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、第2具体例によれば、気象関連事象の予測について複数の異なる条件が設定される状況において、対象の条件で気象関連事象の予測を実施するために複数の推論モデルを導入する際のコストを低減することができる。
(C)人流に関する事象又は人流の影響を受ける事象を推論する場面
図15は、第3具体例に係る予測システム100Cの適用場面の一例を模式的に例示する。第3具体例は、人流そのもの又は人流に影響を与える事象を観測するセンサSCにより得られる観測データを利用して、人流に関する事象又は人流の影響を受ける事象(この例では、予測)する場面に上記実施形態を適用した例である。第3具体例に係る予測システム100Cは、パラメータ調整装置1、モデル生成装置2、及び予測装置3Cを備える。予測装置3Cは、上記推論装置3の一例である。なお、以下、説明の便宜上、人流に関する事象及び人流の影響を受ける事象を一括して「人流関連事象」とも記載する。
図15は、第3具体例に係る予測システム100Cの適用場面の一例を模式的に例示する。第3具体例は、人流そのもの又は人流に影響を与える事象を観測するセンサSCにより得られる観測データを利用して、人流に関する事象又は人流の影響を受ける事象(この例では、予測)する場面に上記実施形態を適用した例である。第3具体例に係る予測システム100Cは、パラメータ調整装置1、モデル生成装置2、及び予測装置3Cを備える。予測装置3Cは、上記推論装置3の一例である。なお、以下、説明の便宜上、人流に関する事象及び人流の影響を受ける事象を一括して「人流関連事象」とも記載する。
第3具体例において取り扱うデータ(学習データ(40、45)、対象データ321)は、人流に関連する観測を行う1つ以上のセンサSCにより得られる観測データである。人流は、例えば、駅、街頭等での人の動きであってよい。或いは、人流は、例えば、観測地点の道路における車両(例えば、自動車)の動きであってよい。人流に影響を与える事象は、例えば、気象、電車の運行情報、道路の交通情報等であってよい。これに応じて、センサ群Sを構成するセンサSCは、例えば、カメラ(画像センサ)、ビーコン、気象系のセンサ(例えば、上記センサSB)、入力装置等であってよい。入力装置は、例えば、電車の運行情報、道路の交通情報等の各種情報の入力に使用されてよい。人流に関する事象の予測項目は、例えば、人/車両の通行量、人/車両の混雑度、人/車両の移動経路、人/車両の密度等であってよい。人流の影響を受ける事象は、例えば、観測エリアから任意の目的地点に到着するまでにかかる時間、事故/事件の発生確率、渋滞の発生確率、商品の需要量等であってよい。
第3具体例において、各推論モデルの推論結果の統合は、異なる観測地点での人流系推論タスクの精度の向上を図るために行われてよい。この場合、各推論タスク及び各関連タスクは共に、人流関連事象の任意の項目について予測することであってよい。各推論モデル(50、55)は、異なる観測地点で運用されるセンサSC由来の学習データ(40、45)に基づいて生成されてよい。各既存推論タスクは、既存学習データ40由来の観測地点とは異なる観測地点で得られる対象データに対して遂行されるものであってよい。これに対して、対象推論タスクは、既存学習データ40由来の観測地点及び各既存推論タスクを遂行する各観測地点とは更に異なる観測地点で得られる対象データ321に対して遂行されるものであってよい。具体的な事例の一例として、図15の例において、人流系推論タスクA(ある既存推論タスク)は、ある駅における人の混雑度を予測することであり、人流系推論タスクB(別の既存推論タスク)は、ある交差点における人の混雑度を予測することであってよい。これに応じて、人流系推論タスクZ(対象推論タスク)は、ある商業施設における人の混雑度を予測することであってよい。この場合、対象推論タスク及び各既存推論タスク間の関連度は、例えば、観測地点の近さ、観測地点の環境の類似性、予測項目の類似性等に応じて算出されてよい。なお、上記の例において、観測地点を観測エリアに置き換え、各推論モデルの推論結果の統合は、異なる観測エリアでの気象系推論タスクの精度の向上を図るために行われてよい。このケースも上記と同様に構成可能である。
或いは、第3具体例において、各推論モデルの推論結果の統合は、高次推論タスクを解くために行われてよい。この場合、各関連タスクは、それぞれ異なる特定の観測地点における人流関連事象を予測することであってよい。これに応じて、各推論タスクは、各関連タスクの観測地点を含む観測エリアにおける人流関連事象を予測することであってよい。各推論モデル(50、55)は、各観測地点で得られる学習データ(40、45)に基づいて、人流関連事象の各推論タスクにおける予測対象の項目に関する推論を行うように生成されてよい。各既存推論タスクは、人流関連事象の異なる項目に関する予測を行うものであってよく、対象推論タスクは、各既存推論タスクとは更に異なる人流関連事象の項目に関する予測を行うものであってよい。対象データ321は、各観測地点で得られる観測データにより構成されてよい。具体的な事例の一例として、図15の例において、人流系推論タスクAは、ある観測エリアにおける人の通行量を予測することであり、人流系推論タスクBは、その観測エリアにおける人の移動経路を予測することであってよい。これに応じて、人流系推論タスクZは、その観測エリアにおけるある商品の需要量を予測することであってよい。この場合、対象推論タスク及び各既存推論タスクの間の関連度は、例えば、予測項目の類似性等に応じて算出されてよい。
これらの他、第3具体例の構成は、上記実施形態と同様であってよい。第3具体例において、モデル生成装置2は、上記実施形態と同様の処理手順により、人流関連事象の予測に使用可能な各推論モデル(50、55)を生成することができる。パラメータ調整装置1は、上記実施形態と同様の処理手順により、対象推論タスクに使用可能な対象重みセット65を生成することができる。
予測装置3Cは、複数の対象推論モデル55及び対象重みセット65を使用して、人流関連事象に関する対象推論タスクを遂行するように構成されたコンピュータである。予測装置3Cのハードウェア構成及びソフトウェア構成は、上記推論装置3と同様であってよい。予測装置3Cは、提供されるサービス専用に設計された情報処理装置の他、汎用のサーバ装置、汎用のコンピュータ等であってもよい。
予測装置3Cは、上記推論装置3と同様の処理手順により、人流関連事象の予測を実行することができる。すなわち、ステップS301では、予測装置3Cの制御部は、予測対象の観測地点(又は観測エリア)で運用されるセンサSCから対象データ321を取得する。ステップS302では、制御部は、複数の対象推論モデル55及び対象重みセット65を使用して、対象データ321に基づいて人流関連事象の予測を行う。ステップS303では、制御部は、予測結果に関する情報を出力する。
(特徴)
第3具体例によれば、異なる既存の条件(観測地点、予測項目等)での人流関連事象の予測のために生成した既存重みセット60の実績を活用することで、新たな条件での人流関連事象の予測に使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、第3具体例によれば、人流関連事象の予測について複数の異なる条件が設定される状況において、対象の条件で人流関連事象の予測を実施するために複数の推論モデルを導入する際のコストを低減することができる。
第3具体例によれば、異なる既存の条件(観測地点、予測項目等)での人流関連事象の予測のために生成した既存重みセット60の実績を活用することで、新たな条件での人流関連事象の予測に使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、第3具体例によれば、人流関連事象の予測について複数の異なる条件が設定される状況において、対象の条件で人流関連事象の予測を実施するために複数の推論モデルを導入する際のコストを低減することができる。
(D)対象者の状態に関する事象を推論する場面
図16は、第4具体例に係る診断システム100Dの適用場面の一例を模式的に例示する。第4具体例は、対象者RDの状態を観測するセンサSDにより得られる観測データを利用して、対象者RDの状態に関する事象を推論(診断)する場面に上記実施形態を適用した例である。第4具体例に係る診断システム100Dは、パラメータ調整装置1、モデル生成装置2、及び診断装置3Dを備える。診断装置3Dは、上記推論装置3の一例である。なお、以下、説明の便宜上、対象者RDの状態に関する事象を「診断関連事象」とも記載する。
図16は、第4具体例に係る診断システム100Dの適用場面の一例を模式的に例示する。第4具体例は、対象者RDの状態を観測するセンサSDにより得られる観測データを利用して、対象者RDの状態に関する事象を推論(診断)する場面に上記実施形態を適用した例である。第4具体例に係る診断システム100Dは、パラメータ調整装置1、モデル生成装置2、及び診断装置3Dを備える。診断装置3Dは、上記推論装置3の一例である。なお、以下、説明の便宜上、対象者RDの状態に関する事象を「診断関連事象」とも記載する。
第4具体例において取り扱うデータ(学習データ(40、45)、対象データ321)は、対象者RDの状態を観測する1つ以上のセンサSDにより得られる観測データである。センサ群Sを構成するセンサSDは、例えば、カメラ、赤外線センサ、マイクロフォン、入力装置、バイタルセンサ、医療検査装置等であってよい。バイタルセンサは、例えば、血圧計、脈拍計、心拍計、心電計、筋電計、体温計、皮膚電気反応計、マイクロ波センサ、脳波計、脳磁計、活動量計、血糖値測定器、眼電位センサ、眼球運動計測器等であってよい。医療検査装置は、例えば、CT装置、MRI装置等であってよい。診断関連事象の推論項目は、対象者RDの健康状態に関するものであってよく、例えば、健康であるか否かを判定すること、病気になる予兆があるか否かを判定すること、健康状態の種別を識別すること、対象の病気になる確率を判定すること等であってよい。一例では、対象者RDは、車両の運転者であってよく、上記診断関連事象を推論する場面は、運転者の状態を推論する場面であってよい。この場合、診断関連事象の推論項目は、上記健康状態に関する項目の他、例えば、運転者の眠気度、疲労度、余裕度等の運転可能性に関する項目を含んでもよい。その他の一例では、対象者RDは、工場等で作業を行う作業者であってよく、上記診断関連事象を推論する場面は、作業者の状態を推論する場面であってよい。この場合、診断関連事象の推論項目は、上記健康状態に関する項目の他、例えば、作業者の眠気度、疲労度、余裕度等の作業に対するパフォーマンスに関する項目を含んでもよい。
第4具体例において、各推論モデルの推論結果の統合は、異なる属性の対象者RDに対する診断系推論タスクの精度の向上を図るために行われてよい。この場合、各推論タスク及び各関連タスクは共に、診断関連事象の任意の項目について推論することであってよい。各推論モデル(50、55)は、異なる属性の対象者RD(被験者)に運用されるセンサSD由来の学習データ(40、45)に基づいて生成されてよい。各既存推論タスクは、既存学習データ40由来の対象者RDの属性とは異なる属性の対象者RDについて得られる対象データに対して遂行されるものであってよい。これに対して、対象推論タスクは、既存学習データ40由来の対象者RDの属性及び各既存推論タスクを遂行する対象者RDの各属性とは更に異なる属性の対象者RDについて得られる対象データ321に対して遂行されるものであってよい。具体的な事例の一例として、図16の例において、診断系推論タスクA(ある既存推論タスク)は、20代男性について健康であるか否かを判定することであってよく、診断系推論タスクB(別の既存推論タスク)は、40代男性について健康であるか否かを判定することであってよい。これに応じて、診断系推論タスクZ(対象推論タスク)は、30代男性について健康であるか否かを判定することであってよい。この場合、対象推論タスク及び各既存推論タスク間の関連度は、例えば、対象者RDの属性の類似性、観測条件の類似性、診断項目の類似性等に応じて算出されてよい。対象者RDの属性は、例えば、年齢、身長、体重、性別、生活習慣等により規定されてよい。観測条件は、例えば、センサSDの種別、型番等により規定されてよい。なお、上記の例において、対象者RDの属性を観測条件に置き換え、各推論モデルの推論結果の統合は、異なる観測条件での診断系推論タスクの精度の向上を図るために行われてよい。このケースも上記と同様に構成可能である。
或いは、第4具体例において、各推論モデルの推論結果の統合は、高次推論タスクを解くために行われてよい。この場合、各関連タスクは、異なる種類のセンサSDによりそれぞれ構成されるセンサ群Sの観測データに基づいて診断関連事象に関する推論を行うことであってよい。これに応じて、各推論タスクは、診断関連事象に関する推論を総合的に行うことであってよい。各既存推論タスクは、診断関連事象の異なる項目について推論することであってよい。対象推論タスクは、各既存推論タスクの各推論項目とは更に異なる診断関連事象の項目について推論することであってよい。具体的な事例の一例として、図16の例において、診断系推論タスクAは、第1疾患の予兆があるか否かを判定することであってよく、診断系推論タスクBは、第1疾患とは異なる第2疾患の予兆があるか否かを判定することであってよい。これに応じて、診断系推論タスクZは、第1疾患及び第2疾患とは異なる第3疾患の予兆があるか否かを判定することであってよい。この場合、対象推論タスク及び各既存推論タスク間の関連度は、例えば、診断項目の類似性等に応じて算出されてよい。なお、上記の例において、診断関連事象の項目は、対象者RDの属性又は観測条件に置き換えられてよい。
これらの他、第4具体例の構成は、上記実施形態と同様であってよい。第4具体例において、モデル生成装置2は、上記実施形態と同様の処理手順により、診断関連事象の推論に使用可能な各推論モデル(50、55)を生成することができる。パラメータ調整装置1は、上記実施形態と同様の処理手順により、対象推論タスクに使用可能な対象重みセット65を生成することができる。
診断装置3Dは、複数の対象推論モデル55及び対象重みセット65を使用して、診断関連事象に関する対象推論タスクを遂行するように構成されたコンピュータである。診断装置3Dのハードウェア構成及びソフトウェア構成は、上記推論装置3と同様であってよい。診断装置3Dは、提供されるサービス専用に設計された情報処理装置の他、汎用のコンピュータ、タブレット端末及びスマートフォンを含む携帯端末等であってもよい。
診断装置3Dは、上記推論装置3と同様の処理手順により、診断関連事象の推論を実行することができる。すなわち、ステップS301では、診断装置3Dの制御部は、診断対象の対象者RDに対して運用されるセンサSDから対象データ321を取得する。ステップS302では、制御部は、複数の対象推論モデル55及び対象重みセット65を使用して、対象データ321に基づいて診断関連事象の推論を行う。ステップS303では、制御部は、推論結果に関する情報を出力する。
(特徴)
第4具体例によれば、異なる既存の条件(対象者RDの属性、診断項目等)での診断関連事象の推論のために生成した既存重みセット60の実績を活用することで、新たな条件での診断関連事象の推論に使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、第4具体例によれば、診断関連事象の推論について複数の異なる条件が設定される状況において、対象の条件で診断関連事象の推論を実施するために複数の推論モデルを導入する際のコストを低減することができる。
第4具体例によれば、異なる既存の条件(対象者RDの属性、診断項目等)での診断関連事象の推論のために生成した既存重みセット60の実績を活用することで、新たな条件での診断関連事象の推論に使用する対象重みセット65を生成する作業の少なくとも一部を自動化することができる。したがって、第4具体例によれば、診断関連事象の推論について複数の異なる条件が設定される状況において、対象の条件で診断関連事象の推論を実施するために複数の推論モデルを導入する際のコストを低減することができる。
1…パラメータ調整装置、
11…制御部、12…記憶部、
13…通信インタフェース、14…外部インタフェース、
15…入力装置、16…出力装置、17…ドライブ、
111…情報取得部、112…関連度算出部、
113…重み決定部、114…出力部、
121…既存タスク情報、125…重み情報、
81…パラメータ調整プログラム、91…記憶媒体、
2…モデル生成装置、
21…制御部、22…記憶部、
23…通信インタフェース、24…外部インタフェース、
25…入力装置、26…出力装置、27…ドライブ、
211…データ取得部、212…生成部、
213…保存処理部、
220・225…学習結果データ、
82…モデル生成プログラム、92…記憶媒体、
3…推論装置、
31…制御部、32…記憶部、
33…通信インタフェース、34…外部インタフェース、
35…入力装置、36…出力装置、37…ドライブ、
311…取得部、312…推論部、313…出力部、
321…対象データ、
40…既存学習データ、45…対象学習データ、
50…既存推論モデル、55…対象推論モデル、
60…既存重みセット、65…対象重みセット、
70…目的情報、S…センサ群
11…制御部、12…記憶部、
13…通信インタフェース、14…外部インタフェース、
15…入力装置、16…出力装置、17…ドライブ、
111…情報取得部、112…関連度算出部、
113…重み決定部、114…出力部、
121…既存タスク情報、125…重み情報、
81…パラメータ調整プログラム、91…記憶媒体、
2…モデル生成装置、
21…制御部、22…記憶部、
23…通信インタフェース、24…外部インタフェース、
25…入力装置、26…出力装置、27…ドライブ、
211…データ取得部、212…生成部、
213…保存処理部、
220・225…学習結果データ、
82…モデル生成プログラム、92…記憶媒体、
3…推論装置、
31…制御部、32…記憶部、
33…通信インタフェース、34…外部インタフェース、
35…入力装置、36…出力装置、37…ドライブ、
311…取得部、312…推論部、313…出力部、
321…対象データ、
40…既存学習データ、45…対象学習データ、
50…既存推論モデル、55…対象推論モデル、
60…既存重みセット、65…対象重みセット、
70…目的情報、S…センサ群
Claims (12)
- 複数の既存推論タスクに関する既存タスク情報を取得する情報取得部であって、
前記既存推論タスク毎に、複数の既存推論モデルそれぞれが、前記既存推論タスクに関連する既存関連タスクを遂行するよう構成されるように、複数の異なるセンサ群それぞれより得られる既存学習データに基づいて生成されており、
前記各既存推論タスクは、前記各既存推論モデルの推論結果を統合することにより解かれ、
前記既存タスク情報は、前記各既存推論モデルの前記推論結果を統合する際に、前記各既存推論モデルの推論結果の優先度を規定するための複数の既存の重みであって、前記各既存推論タスクに適するように決定された複数の既存の重みによりそれぞれ構成される複数の既存重みセットを示す、
情報取得部と、
対象推論タスク及び前記各既存推論タスクの目的の類似性に応じて、対象推論タスク及び前記各既存推論タスクの間の関連度を算出する関連度算出部と、
算出された関連度に応じて、前記既存タスク情報により示される前記複数の既存重みセットそれぞれの複数の既存の重みから、対象重みセットを構成する複数の対象の重みを決定する重み決定部であって、
複数の対象推論モデルそれぞれは、前記対象推論タスクに関連する対象関連タスクを遂行するよう構成されるように、前記複数の異なるセンサ群それぞれより得られる対象学習データに基づいて生成され、
前記対象推論タスクは、前記各対象推論モデルの推論結果を統合することにより解かれ、
前記対象重みセットの決定された前記各対象の重みは、前記各対象推論モデルの前記推論結果を統合する際に、対応する対象推論モデルの推論結果の優先度を規定する、
重み決定部と、
を備える、
パラメータ調整装置。 - 前記複数の対象推論モデルを使用する推論装置に対して、前記対象重みセットを示す重み情報を出力する出力部を更に備える、
請求項1に記載のパラメータ調整装置。 - 前記関連度は、前記各既存推論タスクに関連する場所と前記対象推論タスクに関連する場所との間の距離に応じて算出される、
請求項1又は2に記載のパラメータ調整装置。 - 前記関連度は、言語処理により測定される、前記各既存推論タスク及び前記対象推論タスクそれぞれを示す用語間の意味的類似度に応じて算出される、
請求項1から3のいずれか1項に記載のパラメータ調整装置。 - 前記関連度は、前記各既存推論タスク及び前記対象推論タスクそれぞれに関連する対象物間の類似度に応じて算出される、
請求項1から4のいずれか1項に記載のパラメータ調整装置。 - 前記関連度は、前記各既存推論タスク及び前記対象推論タスクそれぞれを遂行する環境間の類似度に応じて算出される、
請求項1から5のいずれか1項に記載のパラメータ調整装置。 - 前記各対象推論モデルの前記推論結果を統合することは、前記複数の対象の重みに従って、前記複数の対象推論モデルの推論結果の重み付け多数決をすることにより構成される、
請求項1から6のいずれか1項に記載のパラメータ調整装置。 - 前記各対象推論モデルの前記推論結果は、数値により構成され、
前記各対象推論モデルの前記推論結果を統合することは、
前記複数の対象の重みに従って、前記複数の対象推論モデルの推論結果を重み付けすること、及び
重み付けされた各推論結果の平均又は合計を算出すること、
により構成される、
請求項1から6のいずれか1項に記載のパラメータ調整装置。 - 前記各対象推論モデルは、前記対象関連タスクの共通の演算に使用される1つ以上の演算パラメータを備え、
前記各対象推論モデルの前記推論結果を統合することは、
前記各対象の重みに従って、前記各対象推論モデルの前記1つ以上の演算パラメータの値を重み付けし、
前記各対象推論モデルの重み付けされた前記1つ以上の演算演算パラメータの値の平均又は合計を算出すること、
により構成される、
請求項1から6のいずれか1項に記載のパラメータ調整装置。 - 対象データを取得するデータ取得部と、
前記複数の対象推論モデル、及び請求項1から9のいずれか1項に記載のパラメータ調整装置により決定された前記対象重みセットの前記複数の対象の重みを使用して、取得された前記対象データに対する前記対象推論タスクを解く推論部と、
前記対象推論タスクを解いた結果に関する情報を出力する出力部と、
を備える、
推論装置。 - コンピュータが、
複数の既存推論タスクに関する既存タスク情報を取得するステップであって、
前記既存推論タスク毎に、複数の既存推論モデルそれぞれが、前記既存推論タスクに関連する既存関連タスクを遂行するよう構成されるように、複数の異なるセンサ群それぞれより得られる既存学習データに基づいて生成されており、
前記各既存推論タスクは、前記各既存推論モデルの推論結果を統合することにより解かれ、
前記既存タスク情報は、前記各既存推論モデルの前記推論結果を統合する際に、前記各既存推論モデルの推論結果の優先度を規定するための複数の既存の重みであって、前記各既存推論タスクに適するように決定された複数の既存の重みによりそれぞれ構成される複数の既存重みセットを示す、
ステップと、
対象推論タスク及び前記各既存推論タスクの目的の類似性に応じて、対象推論タスク及び前記各既存推論タスクの間の関連度を算出するステップと、
算出された関連度に応じて、前記既存タスク情報により示される前記複数の既存重みセットそれぞれの複数の既存の重みから、対象重みセットを構成する複数の対象の重みを決定するステップであって、
複数の対象推論モデルそれぞれは、前記対象推論タスクに関連する対象関連タスクを遂行するよう構成されるように、前記複数の異なるセンサ群それぞれより得られる対象学習データに基づいて生成され、
前記対象推論タスクは、前記各対象推論モデルの推論結果を統合することにより解かれ、
前記対象重みセットの決定された前記各対象の重みは、前記各対象推論モデルの前記推論結果を統合する際に、対応する対象推論モデルの推論結果の優先度を規定する、
ステップと、
を実行する、
パラメータ調整方法。 - コンピュータに、
複数の既存推論タスクに関する既存タスク情報を取得するステップであって、
前記既存推論タスク毎に、複数の既存推論モデルそれぞれが、前記既存推論タスクに関連する既存関連タスクを遂行するよう構成されるように、複数の異なるセンサ群それぞれより得られる既存学習データに基づいて生成されており、
前記各既存推論タスクは、前記各既存推論モデルの推論結果を統合することにより解かれ、
前記既存タスク情報は、前記各既存推論モデルの前記推論結果を統合する際に、前記各既存推論モデルの推論結果の優先度を規定するための複数の既存の重みであって、前記各既存推論タスクに適するように決定された複数の既存の重みによりそれぞれ構成される複数の既存重みセットを示す、
ステップと、
対象推論タスク及び前記各既存推論タスクの目的の類似性に応じて、対象推論タスク及び前記各既存推論タスクの間の関連度を算出するステップと、
算出された関連度に応じて、前記既存タスク情報により示される前記複数の既存重みセットそれぞれの複数の既存の重みから、対象重みセットを構成する複数の対象の重みを決定するステップであって、
複数の対象推論モデルそれぞれは、前記対象推論タスクに関連する対象関連タスクを遂行するよう構成されるように、前記複数の異なるセンサ群それぞれより得られる対象学習データに基づいて生成され、
前記対象推論タスクは、前記各対象推論モデルの推論結果を統合することにより解かれ、
前記対象重みセットの決定された前記各対象の重みは、前記各対象推論モデルの前記推論結果を統合する際に、対応する対象推論モデルの推論結果の優先度を規定する、
ステップと、
を実行させるための、
パラメータ調整プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020042119A JP7396133B2 (ja) | 2020-03-11 | 2020-03-11 | パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム |
US17/800,908 US20230074474A1 (en) | 2020-03-11 | 2021-02-10 | Parameter adjustment apparatus, inference apparatus, parameter adjustment method, and computer-readable storage medium storing a parameter adjustment program |
PCT/JP2021/005063 WO2021182000A1 (ja) | 2020-03-11 | 2021-02-10 | パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム |
CN202180017287.7A CN115176255A (zh) | 2020-03-11 | 2021-02-10 | 参数调整装置、推论装置、参数调整方法以及参数调整程序 |
EP21766836.7A EP4120148A4 (en) | 2020-03-11 | 2021-02-10 | DEVICE FOR PARAMETER SETTING, DERIVATION METHOD, METHOD FOR PARAMETER SETTING AND PROGRAM FOR PARAMETER SETTING |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020042119A JP7396133B2 (ja) | 2020-03-11 | 2020-03-11 | パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021144422A JP2021144422A (ja) | 2021-09-24 |
JP7396133B2 true JP7396133B2 (ja) | 2023-12-12 |
Family
ID=77671542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020042119A Active JP7396133B2 (ja) | 2020-03-11 | 2020-03-11 | パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230074474A1 (ja) |
EP (1) | EP4120148A4 (ja) |
JP (1) | JP7396133B2 (ja) |
CN (1) | CN115176255A (ja) |
WO (1) | WO2021182000A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7084533B1 (ja) | 2021-09-06 | 2022-06-14 | Dmg森精機株式会社 | 表示制御装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072876A (ja) | 2016-10-24 | 2018-05-10 | 富士ゼロックス株式会社 | 感情推定システム、感情推定モデル生成システム |
JP2018147261A (ja) | 2017-03-06 | 2018-09-20 | Kddi株式会社 | モデル統合装置、モデル統合システム、方法およびプログラム |
JP2019095968A (ja) | 2017-11-21 | 2019-06-20 | 日本電信電話株式会社 | 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム |
JP2021140400A (ja) | 2020-03-04 | 2021-09-16 | 株式会社日立製作所 | 学習モデル作成システム及び学習モデル作成方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012026982A (ja) | 2010-07-27 | 2012-02-09 | Panasonic Electric Works Sunx Co Ltd | 検査装置 |
US20170200041A1 (en) * | 2016-01-13 | 2017-07-13 | Regents Of The University Of Minnesota | Multi-modal data and class confusion: application in water monitoring |
US20180314975A1 (en) * | 2017-04-27 | 2018-11-01 | Futurewei Technologies, Inc. | Ensemble transfer learning |
-
2020
- 2020-03-11 JP JP2020042119A patent/JP7396133B2/ja active Active
-
2021
- 2021-02-10 US US17/800,908 patent/US20230074474A1/en active Pending
- 2021-02-10 EP EP21766836.7A patent/EP4120148A4/en active Pending
- 2021-02-10 CN CN202180017287.7A patent/CN115176255A/zh active Pending
- 2021-02-10 WO PCT/JP2021/005063 patent/WO2021182000A1/ja unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018072876A (ja) | 2016-10-24 | 2018-05-10 | 富士ゼロックス株式会社 | 感情推定システム、感情推定モデル生成システム |
JP2018147261A (ja) | 2017-03-06 | 2018-09-20 | Kddi株式会社 | モデル統合装置、モデル統合システム、方法およびプログラム |
JP2019095968A (ja) | 2017-11-21 | 2019-06-20 | 日本電信電話株式会社 | 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム |
JP2021140400A (ja) | 2020-03-04 | 2021-09-16 | 株式会社日立製作所 | 学習モデル作成システム及び学習モデル作成方法 |
Non-Patent Citations (2)
Title |
---|
LI, Zhiqiang, et al.,"Heterogeneous Defect Prediction through Multiple Kernel Learning and Ensemble Learning",Proceedings of the 2017 IEEE International Conference on Software Maintenance and Evolution (ICSME),2017年09月22日,Pages 91-102,ISBN: 978-1-5386-0992-7, <DOI: 10.1109/ICSME.2017.19>. |
LIN, Cong-Kai, et al.,"Exploring Ensemble of Models in Taxonomy-based Cross-Domain Sentiment Classification",Proceedings of the 23rd ACM International Conference on Information and Knowledge Management (CIKM'1,2014年11月07日,Pages 1279-1288,ISBN: 978-1-4503-2598-1, <DOI: 10.1145/2661829.2662071>. |
Also Published As
Publication number | Publication date |
---|---|
JP2021144422A (ja) | 2021-09-24 |
CN115176255A (zh) | 2022-10-11 |
US20230074474A1 (en) | 2023-03-09 |
EP4120148A4 (en) | 2023-11-01 |
WO2021182000A1 (ja) | 2021-09-16 |
EP4120148A1 (en) | 2023-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220139070A1 (en) | Learning apparatus, estimation apparatus, data generation apparatus, learning method, and computer-readable storage medium storing a learning program | |
US12056936B2 (en) | Model generating apparatus, method and program, and prediction apparatus | |
Moursi et al. | An IoT enabled system for enhanced air quality monitoring and prediction on the edge | |
JP7396125B2 (ja) | モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム | |
CN110705115B (zh) | 一种基于深度置信网络的气象预报方法和系统 | |
EP4036561A1 (en) | Data generation system, learning device, data generation device, data generation method, and data generation program | |
JP6216294B2 (ja) | 重回帰分析装置および重回帰分析方法 | |
JP7524045B2 (ja) | データ解析装置、方法およびシステム | |
Mazidi et al. | A health condition model for wind turbine monitoring through neural networks and proportional hazard models | |
Borith et al. | Prediction of machine inactivation status using statistical feature extraction and machine learning | |
JP7396133B2 (ja) | パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム | |
CN113744888B (zh) | 区域流行病趋势预测预警方法及系统 | |
Hu et al. | Digital twin-enhanced predictive maintenance for indoor climate: a parallel LSTM-autoencoder failure prediction approach | |
CN107437112B (zh) | 一种基于改进多尺度核函数的混合rvm模型预测方法 | |
Kim et al. | Data Anomaly Detection for Structural Health Monitoring Based on a Convolutional Neural Network | |
KR102521000B1 (ko) | 플랜트 설비 관리 시스템 및 방법 | |
Cheema et al. | Rainfall Prediction using Big Data Analytics: A Systematic Literature Review | |
Qing-Dao-Er-Ji et al. | Research on data mining algorithm of meteorological observation based on data quality control algorithm | |
Kumar et al. | Multiple layer radial basis neural network with remora regression tree optimum feature extraction for structural health monitoring | |
US20240161259A1 (en) | Inference device, model generation device, inference method, and non-transitory computer storage media | |
EP4064184A1 (en) | Model generation device, estimation device, model generation method, and model generation program | |
Darányi et al. | Fault Diagnostics Based on the Analysis of Probability Distributions Estimated Using a Particle Filter | |
Jin et al. | AF-DHNN: fuzzy clustering and inference-based node fault diagnosis method for fire detection | |
US20230122673A1 (en) | Data generation method, decision method, program, and data generation system | |
Jauregui-Correa | Forecasting the Dynamic Response of Rotating Machinery under Sudden Load Changes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7396133 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |