JP7438187B2 - 技術システムを制御するために機械学習ルーチンを訓練するための方法および装置 - Google Patents

技術システムを制御するために機械学習ルーチンを訓練するための方法および装置 Download PDF

Info

Publication number
JP7438187B2
JP7438187B2 JP2021505837A JP2021505837A JP7438187B2 JP 7438187 B2 JP7438187 B2 JP 7438187B2 JP 2021505837 A JP2021505837 A JP 2021505837A JP 2021505837 A JP2021505837 A JP 2021505837A JP 7438187 B2 JP7438187 B2 JP 7438187B2
Authority
JP
Japan
Prior art keywords
training
training data
data
pic
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021505837A
Other languages
English (en)
Other versions
JP2021533478A (ja
Inventor
シュテファン・デペヴェーク
マルクス・ミヒャエル・ガイペル
ガビー・マルクアルト
ダニエラ・ザイデル
クリストフ・ティーツ
Original Assignee
シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド filed Critical シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド
Publication of JP2021533478A publication Critical patent/JP2021533478A/ja
Application granted granted Critical
Publication of JP7438187B2 publication Critical patent/JP7438187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Description

医用診断機器、画像分析システム、ロボット、自律システム、風力タービン、ガスタービン、または製造設備などの複雑な技術システムの制御において、特定の基準に関する技術システムの性能を最適化するために、機械学習技法を使用することが増加している。特に、技術システムのセンサデータの評価は、訓練済みの機械学習ルーチンによって制御可能である。
教師あり学習法など、幅広い既知の学習方法が、機械学習ルーチンを訓練するために利用可能である。特に、制御すべき技術システムまたは同様の技術システムの履歴もしくは現在の動作データ、またはセンサデータを、訓練データとして使用することができる。
たとえば、医用診断装置では、機械学習ルーチンを訓練して、顕微鏡画像の細胞もしくは組織の種類、または特にトモグラフィ画像の腫瘍を認識し分類することができる。そのような訓練手順には、分類前の医用画像が大量に使用されることが多く、これらが訓練データとして機械学習ルーチンに供給される。したがって、機械学習ルーチンを訓練して、特定の分類を可能な限り良好に再現したり、特定の分類からの逸脱が可能な限り少ない状態で、細胞の種類、組織の種類、または腫瘍を認識したりすることができる。同様に、ガスタービン、製造設備、または他の技術システム向けの機械学習ルーチンを訓練して、センサデータまたは他の動作データに基づき固有の動作状態を認識および/または分類し、かつ/または技術システムの最適な制御を実現することができる。
しかし実際には、認識すべきクラスの一部が、他の認識クラスよりはるかに少ない頻度でしか生じないことがよくある。その結果、非常に希な認識クラスについては、通常、他の認識クラスより著しく少ない訓練データしか利用可能にならない。
しかし、特に医用分野では多くの場合、希な病理学的パターンや変化を正確に認識することが重要である。このような場合、希なクラスからの十分な訓練データが評価されて、こうしたクラスも十分に高い信頼性で認識されるようになるまでに、非常に長い時間がかかることがある。
それにも関わらず、一部の認識クラスは、所与の訓練データに基づき互いを区別するのが、他の認識クラスよりもさらに困難なことがある。このような場合、訓練手順が継続されても、認識の信頼性をもはや有意に改善できないことがよくある。
既存の先行技術によれば、多くの場合、訓練データの量を徐々に増やし、機械学習ルーチンの成功率を観察することによって、上記の状況に対処する。特に希な認識クラスについて成功率を有意に改善できなければ、すぐに訓練が中止されることがある。成功率が恒久的に低いままである場合には、このことも、訓練に使用されるセンサデータが、信頼性の高い認識にうまく適合していないことの標示であると考えられることがある。このような場合、訓練は、異なるセンサデータを用いて継続されるか、繰り返されることが多い。
上記の手順を使用すると、特に希な識別クラスが存在する場合に、必要な訓練の労力が著しく増大することがある。
本発明の目的は、より効率的な訓練を可能にする、技術システムを制御するために機械学習ルーチンを訓練するための方法および装置を特定することである。
この目的は、請求項1に記載の構成を有する方法、請求項13に記載の構成を有する装置、請求項14に記載の構成を有するコンピュータプログラム、および請求項15に記載の構成を有するコンピュータ読取り可能記憶媒体によって達成される。
技術システムを制御するための機械学習ルーチンを訓練するために、技術システムの第1のセンサデータを含む一連の第1の訓練データが、機械学習ルーチンによって読み込まれる。この場合の技術システムは、特に、医用診断装置、画像分析システム、ロボット、自律システム、風力タービン、ガスタービン、または製造設備とすることができる。第1の訓練データを使用して、機械学習ルーチンが訓練され、機械学習ルーチンの複数の学習パラメータが、訓練によって設定される。さらに、訓練中に生じる学習パラメータの値分布が判定され、学習パラメータの判定された値分布の関数として、継続信号が生成される。継続信号に応じて、さらなる一連の第1の訓練データを用いて訓練が継続されるか、訓練のために他の訓練データが要求される。
訓練中に生じる学習パラメータの値分布、および特にそれらの分布幅は、追加の第1の訓練データを供給することによって訓練結果を改善できるか否かを示す早期のインジケータになることがわかる。訓練結果が改善されない場合、質的に異なる訓練データを早期段階で要求し、さらなる訓練に使用することができる。こうして、多くの場合、訓練結果をもはや有意に改善しないさらなる第1の訓練データの供給を、回避することが可能になる。
本発明は、訓練を制御するため、特に、適切な追加の訓練データの供給を有利に制御するために使用することができ、それにより、多くの場合、訓練が著しく改善または短縮される。
本発明による方法を実装するために、対応する装置、コンピュータプログラム製品、および機械読取り可能記憶媒体が提供される。本発明による方法によって、本発明による装置または本発明によるコンピュータプログラム製品、たとえば支援システムの機械学習ルーチン、分析装置、評価装置、または制御装置を訓練することができる。次いで、訓練済み機械学習ルーチンを使用して、技術システムのセンサデータまたは他の動作データを評価、分析、分類、または予測することができる。これに応じて、技術システムを最適なやり方で制御することができる。
本発明による方法、本発明による装置、および本発明によるコンピュータプログラム製品は、たとえば1つまたはそれ以上のプロセッサ、特定用途向け集積回路(ASIC)、デジタルシグナルプロセッサ(DSP)、および/またはいわゆる「フィールドプログラマブルゲートアレイ」(FPGA)によって、具体化または実装することができる。
本発明の有利な実施形態および拡張形態は、従属請求項において特定される。
本発明の有利な実施形態によれば、他の訓練データは、第1の訓練データとは異なる種類であってもよく、第1の訓練データとは異なるように取得されてもよく、第1のセンサデータとは異なるセンサデータを含んでもよく、かつ/または第1の訓練データとは異なるソースから生成されてもよい。特に、他の訓練データは、より高い解像度のもしくはより洗練されたセンサデータ、または他の物理量もしくは化学量の測定データを含んでもよい。
さらに、訓練データを取得するためのセンサのセンサパラメータが修正され、訓練データを取得するようセンサシステムのセンサが誘導され、かつ/またはセンサシステムの固有のセンサデータが訓練データとして選択されるように、センサまたはセンサシステムを、継続信号の関数として制御することができる。
本発明の有利な実施形態によれば、学習パラメータの値分布の分布幅および/またはエントロピー値を判定することができる。分布幅の増大および/またはエントロピー値の増大がある場合には、訓練は、好ましくは、さらなる一連の第1の訓練データを用いて継続することができる。このことは、学習パラメータの値分布の分布幅が大きいまたはエントロピー値が大きいことが、多くの場合、学習パラメータの最適な設定がまだ見いだされていないことの標示と考えられるという意味で有利である。このような場合、第1の訓練データを用いたさらなる訓練によって、訓練結果をさらに改善できると予想できることが多い。それぞれの分布幅は、特に個々の学習パラメータの値分布、学習パラメータのグループの値分布、またはすべての学習パラメータの値分布から判定することができる。
本発明の別の有利な実施形態によれば、学習ルーチンの出力データの値分布を判定し、出力データの値分布の関数として継続信号を形成することができる。
特に、出力データの値分布の分布幅および/またはエントロピー値を判定することができる。分布幅の増大および/またはエントロピー値の増大がある場合には、好ましくは他の訓練データを要求することができる。このことは、出力データの値分布の分布幅が大きいまたはエントロピー値が大きいことが、多くの場合、訓練済み学習ルーチンが不確実な結果しか提供できないことの標示と考えられるという意味で有利である。このような場合、質的に異なる訓練データに切り替えることによって、訓練結果をさらに改善できることが多い。
学習パラメータの値分布または出力データの値分布のそれぞれの分布幅、特に散乱、分散、または標準偏差を判定することができる。
有利には、所与の値分布は、所与の分布幅および/または平均値、好ましくは認識クラスにわたる統計学的なガウス分布もしくはカテゴリ分布によって表し、マッピングし、またはモデル化することができる。こうして、値分布をコンパクトに保存し、効率的に処理することができる。
本発明の有利な拡張形態によれば、第1の訓練データの訓練データ記録を、それぞれ固有の認識クラスに割り当てることができる。好ましくは、認識クラスへの割当ては、それぞれの訓練記録に収納されたクラス仕様によって実現することができる。このようなクラス仕様は、たとえば生物細胞の顕微鏡画像を、認識クラスとしての固有の細胞種類に割り当てることができる。特定の認識クラスについて、この認識クラスに割り当てられた第1の訓練データ記録に基づいて、学習パラメータのクラス固有の値分布を判定することができ、学習パラメータのクラス固有の値分布の関数として、クラス固有の継続信号を生成することができ、クラス固有の継続信号に応じて、この認識クラスに割り当てられた第1の訓練データを用いて訓練を継続できるか、またはこの認識クラスに割り当てられた他の訓練データを要求することができる。こうして、訓練をサポートする訓練データの供給を、クラス固有のやり方で制御することができる。特に、さらなる第1の訓練データを用いた訓練手順の方がより有利になる可能性が高いか、他の訓練データに切り替える方がより有利になる可能性が高いかを、特定の認識クラスについて個々に判定することができる。したがって、特定の認識クラス向けにさらに使用すべき訓練データを、クラス固有に選択することができる。
本発明の特に有利な実施形態によれば、学習パラメータの値分布は、ベイジアンニューラルネットワークを使用する機械学習ルーチンによって判定することができ、学習パラメータは、ベイジアンニューラルネットワークのニューラルの重みによって実現される。値分布は、たとえばマルコフ連鎖モンテカルロ法、ラプラス近似、および/または推論法、特にパラメータフィッティングによって判定することができる。このようなベイジアンニューラルネットワークは、統計学的分布、特に学習パラメータのモデル化に特に好適である。
本発明のさらなる実施形態によれば、サブ機械学習ルーチンの集まりを、機械学習ルーチンによって実行することができ、これにより、学習パラメータのセットが設定される。次いで、学習パラメータの値分布を、学習パラメータのセットにわたる学習パラメータの分布から導き出することができる。
本発明のさらなる実施形態によれば、機械学習ルーチンはニューラルネットワークを実装することができ、学習パラメータは、ニューラルネットワークのニューラルの重みである。ここで、ニューラルネットワークのニューラル構造を、複数回変更することができ、ニューラルネットワークの出力データのセットが、特定の変更形態について判定される。次いで、学習パラメータの値分布を、出力データのセットにわたる出力データの分布から導き出することができる。ニューラル構造を変えるために、ニューラルネットワークのニューロンを、異なるように、好ましくはランダムに、オフに切り替えることができる。このような機能停止は、多くの場合、ドロップアウトと呼ばれる。異なるドロップアウトはそれぞれ、出力データの変更形態を導き出す。修正された出力データの分布と、ドロップアウトのパターンから、学習パラメータの値分布を推論することができる。
本発明の例示的な実施形態を、図面を参照しながら以下でより詳細に説明する。
訓練済み評価装置を有する医用診断装置を概略的に示す図である。 評価装置を訓練するための、本発明による装置を概略的に示す図である。
図1は、少なくとも1つのセンサSと、機械学習法によって訓練される、評価装置AWとを有する技術システムTSとしての医用診断装置の概略的な例を示す。評価装置は、センサSのセンサデータを評価するために使用される。評価デバイスAWは、診断装置TSの一部として実装されてもよく、または診断装置TSの完全にまたは部分的に外部にあってもよい。評価装置AWは、診断装置TSのセンサSと制御ユニットCTLに接続される。プロセッサ制御またはコンピュータ制御の装置CLTは、診断装置TSを制御するために使用される。
この例示的な実施形態において、例示的な診断装置TSは、生物組織もしくは生物細胞の種類または状態、および/または特定の病理学的クラスを、生物組織または生物細胞の顕微鏡画像PICに基づき自動的に認識するように設計されたものと考えられる。次いで、認識に応じて、診断装置TSまたはその制御ユニットCTLにより、さらなる対応、たとえば撮影された生物組織または生物細胞に対する固有の処置もしくは検査、診断もしくは治療の指示の発行、または薬物の投与および/もしくは用量などの自動的な処置対応を開始することができる。
したがって、例示的な本実施形態のセンサSは、好ましくは、生物組織または生物細胞の顕微鏡画像PICを記録し顕微鏡画像PICを評価装置AWに送信する顕微鏡として設計される。代替的にまたはそれに加えて、別の撮像センサ、たとえばカメラ、または別の撮像手順、たとえばトモグラフィ手順または超音波手順が提供されて、2次元および/または3次元の画像が作成されてもよい。
訓練済み評価装置AWは、画像PICに示された組織または細胞を、所定の認識クラスCLに応じて、すなわち、たとえばそれらの種類、状態、または病理学的クラスに応じて分類する。画像PICにおいて認識された組織または細胞のクラスCLは、クラス識別子の形で評価ユニットAWによって制御ユニットCTLに送信される。上ですでに述べたように、送信された認識クラスCLから、制御ユニットCTLは、診断ユニットTSのさらなる挙動を制御する。
代替的にまたは追加的に、技術システムTSとしてのロボット、自律システム、風力タービン、ガスタービン、または製造設備は、専用に訓練された評価装置AWによって制御可能である。この場合の評価装置AWは、技術システムTSの固有の動作状態を、技術システムTSのセンサデータまたは他の動作データに基づき認識および/または分類し、かつ/または制御装置CTLを使用して最適なやり方で技術システムTSを制御するように訓練することができる。
技術システムを制御することは、制御に関するデータおよび制御信号、すなわち技術システムの制御に寄与する信号の出力および使用を意味するとも考えられる。このような制御関連のデータは特に、分類データ、分析データ、予測データ、および/または監視データを含んでもよく、これらを、特に技術システムを監視するため、かつ/または摩耗および/もしくは破損を検出するために使用することができる。
図2は、評価装置AWを訓練するための、本発明による装置TAを概略的に示す。評価ユニットAWは、評価装置AWのすべての処理工程を実行するための1つまたはそれ以上のコンピュータまたはプロセッサPROCと、評価装置AWによって処理されるべきデータを記憶するための、プロセッサPROCに接続された1つまたはそれ以上のメモリMEMとにアクセスできる。
評価装置AWは、複数の分類済み訓練データセットを使用して訓練され、とりわけ例示的な本実施形態において、これらの訓練データセットは、評価ユニットAWに接続されたデータベースDBから読み込まれる。
このデータベースDBから、それぞれが認識クラスCLに割り当てられている顕微鏡画像PICが、分類済みの第1の訓練データPIC(CL)として読み込まれる。特定の認識クラスCLは、たとえば、それぞれの記録画像PICに示された細胞または組織の種類、状態、および/または病理学的クラスを特定する。特定の認識クラスCLへの割当ては、たとえば専門家によって事前に実施することができる。各認識クラスCLは、好ましくは、それぞれの認識クラスCLを識別するクラス識別子の形で、それぞれの分類済み画像PIC(CL)内の画像データPICに加えて記憶される。たとえば、記録画像PICは、撮像センサとしての顕微鏡から、第1のセンサデータとして生成することができる。
さらに、評価装置AWは、分類済み訓練データPIC2(CL)の別のソースSRCに接続させることもできる。ここで利用可能な訓練データPIC2(CL)は、第1の訓練データPIC(CL)とは異なるセンサデータPIC2を含む。他の分類済み訓練データPIC2(CL)では、他のセンサデータもそれぞれ認識クラスCLに割り当てられる。
他のセンサデータPIC2は、特にその種類、品質、取得方法に関して、ならびに/または取得センサおよび/もしくはそのセンサ設定に関して、第1のセンサデータPICとは異なっていてもよい。特に、他のセンサデータPIC2は、より高い画像解像度で、異なる倍率、異なる顕微鏡、異なるカメラ、および/または異なるスペクトル範囲を用いて取得された医用画像を含むことができる。さらに、他のセンサデータPIC2は、他の物理量または化学量を含んでもよく、それらを数値化してもよい。一般的に、他のセンサデータPIC2は、好ましくは第1のセンサデータPICとは異なる認識クラスCLの認識構成、または第1のセンサデータPIC以外の認識クラスCLの認識態様に関係すべきであるか、それらを含むべきである。
他の訓練データPIC2(CL)は、特に認識クラス固有のやり方で、訓練データソースSRCから得られるように評価装置AWによって要求されてもよい。訓練データソースSRCは、追加のデータベース、追加のセンサおよび/またはセンサネットワークを含むことができる。
評価装置AWを訓練するために、分類済みの記録画像PIC(CL)が、評価装置AWの選択モジュールSELによって、一連の第1の訓練データとして最初に読み込まれる。SEL選択モジュールは、評価装置AWのデータ駆動型機械学習ルーチンに画像PICを転送する。
この例示的な実施形態における機械学習ルーチンは、選択モジュールSELに接続されたベイジアンニューラルネットワークBNNによって実装される。ベイジアンニューラルネットワークBNNは、畳み込みニューラルネットワークとして設計される。このような畳み込みニューラルネットワークは、画像処理および画像パターン認識に対して有利に適用可能であることが知られている。これにより実装されたニューラルネットワークBNNまたは機械学習ルーチンは、データ駆動式に訓練することができ、訓練作業中に形成される訓練構造を有する。ニューラルネットワークBNNおよび/またはその訓練構造は、訓練作業によって設定される学習パラメータLPによってパラメータ化される。
訓練作業とは、全般的に、パラメータ化されたシステムモデル、たとえばニューラルネットワークの入力パラメータの、1つまたはそれ以上の出力パラメータ、この場合には認識されることになるクラスCLへのマッピングを最適化することを意味するものと理解される。このマッピングは、訓練フェーズ中に学習されたかつ/または学習されることになる所定の基準に従って、最適化される。特に分類モデルでは、分類誤差、分析誤差、および/または予測誤差を基準として使用することができる。さらに、技術システムTSの制御に関する他の基準が提供されてもよい。訓練構造は、たとえばニューラルネットワークのニューロンのネットワーク構造、および/またはニューロン間の接続の重みを含むことができ、これらは、所定の基準が可能な限り完全に満たされるように、訓練によって形成される。
学習パラメータLPは、訓練によって最適化すべきシステムモデルのモデルパラメータであり、このモデルが、機械学習ルーチンの基礎を形成する。この例示的な実施形態では、学習パラメータLPは、ニューラルネットワークBNNのニューラル接続の重みによって実現される。
この訓練の目的は、ニューラルネットワークBNNが、供給された画像PICを、可能な限り高い頻度で正しい認識クラスCLを用いて分類できるようにすることである。この目的のために、供給された記録画像PICについてニューラルネットワークBNNによって出力された認識クラスOCLが、この記録画像PICの所定の認識クラスCLを可能な限り正確に再現するように、学習パラメータLPが訓練によって設定される。これは、たとえば、出力データとしてニューラルネットワークBNNの出力層によって出力された認識クラスOCLを、選択装置SELによって提供された所定の認識クラスCLと比較することによって実現可能である。この比較の一部として、出力データOCLと、対応する所定の認識クラスCLとの間で距離Dが形成される。この距離Dは、ニューラルネットワークBNNの分類誤差を表す。破線矢印によって図2に示してあるように、距離DはニューラルネットワークBNNにフィードバックされる。フィードバックされた距離Dに基づいて、ニューラルネットワークBNNは、この距離Dを最小限に抑えるように、すなわち出力された認識クラスOCLによって可能な限り良好に所定の認識クラスCLを再現するように訓練される。この目的のために、学習パラメータLPは、距離Dが最小限になるまで、標準的な最適化方法を使用して変更することができる。たとえば、勾配降下法を使用して最小化することができる。
また、ニューラルネットワークBNNは、訓練中に生じる学習パラメータLPの値分布VLPを判定する。値分布VLPを判定する際、おそらく多次元の統計学的ガウス分布に従って学習パラメータLPが分布しており、個々の学習パラメータの分布は互いに独立していると考えることが有利である。次いで、値分布VLPは、分布幅によって、この場合にはこのガウス分布の分散または標準偏差によって表される。ネットワーク内の学習パラメータLPのこのような値分布は、標準的な方法を用いるベイジアンニューラルネットワーク、ここではBNNを使用して、効率的にモデル化および判定することができる。値分布VLPの分布幅の代わりに、またはそれに加えて、値分布VLPのエントロピー値が判定されてもよい。
学習パラメータLPの分布幅が小さいことは、学習パラメータLPがすでに比較的正確に設定されていることの標示、すなわちニューラルネットワークBNNが、第1の訓練データPIC(CL)に基づいて、すでにほぼ最適化されていることの指標であると考えられることがわかる。この場合、第1の訓練データPIC(CL)を用いたさらなる訓練では、わずかな改善しか実現できないと予想することができる。反対に、学習パラメータLPの分布幅が大きいことは、最適条件がまだ見いだされておらず、同種類の訓練データ、ここではPIC(CL)を使用したさらなる訓練により、分類精度を改善できることの標示であると考えられる。
同種類のより多くの訓練データを用いたさらなる訓練によって低減することができる分類の不確実性は、多くの場合、認識論的不確実性と呼ばれる。
ニューラルネットワークBNNによって、ニューラルネットワークBNNの出力データOCLの値分布VOCLも判定される。値分布VOLPを判定する際、おそらく多次元の統計学的なガウス分布またはカテゴリ分布に従って、出力データOCLが認識クラスにわたって分布しており、個々の出力データの分布は互いに独立していると考えることが有利である。次いで、値分布VOCLは、分布幅、この場合にはガウス分布またはカテゴリ分布の分散または標準偏差によって表される。分布幅の代わりに、またはそれに加えて、値分布VOCLのエントロピー値が判定されてもよい。
出力データOCLの分布幅が大きいことは、訓練済みニューラルネットワークBNNが、不確実な分類しか実行できていないことの標示であると考えられることがわかる。同時に、学習パラメータLPの値分布VLPが相対的に小さい場合には、ニューラルネットワークBNNがほとんど完全に訓練されたことを示しており、同種類の訓練データ、ここではPIC(CL)を用いたさらなる訓練によって、分類品質が有意に改善される可能性は非常に低い。しかし、このような場合には、異なる訓練データ、この場合にはPIC2(CL)を用いた訓練を継続することにより、分類品質を有意に改善できることが多い。
同種類の訓練データを用いた継続的な訓練では実質的に改善されないこうした分類の不確実性は、多くの場合、偶然的不確実性と呼ばれる。偶然的不確実性は、たとえば、ランダムなコイントスの予測を試みるとき、または分類に無関係の、または相関していないセンサデータに基づき分類を試みるときに生じる。このような分類は、(無関係な)訓練データの量を増やすことによって改善することはできない。
値分布VLPおよびVOCLは、ニューラルネットワークBNNから評価装置AWの評価モジュールEVALに転送される。評価モジュールEVALは、ニューラルネットワークBNNにリンクされ、訓練作業の進行を評価するために使用される。評価モジュールEVALは、出力データOCLの値分布VOCLと学習パラメータLPの値分布VLPとを使用して、偶然的不確実性と認識論的不確実性の両方を数値化する。これに基づいて、評価モジュールEVALは、利用可能な第1の訓練データ、ここではPIC(CL)を用いたさらなる訓練による、分類の予想される改善について、数値化された改善値を形成する。改善値は、たとえば分布幅VLPとVOCLとの重み付き和に基づいて、導き出すことが可能である。上に述べたように、改善値は、分布幅VLPの低減および分布幅VOCLの増大に伴って改善値が低下するように、導き出されることが好ましい。
改善値に応じて、継続信号CNも生成され、評価モジュールEVALから選択モジュールSELに送信される。継続信号CNは、特に、値分布VLPおよびVOCLと、改善値とを含むことができる。
受信した継続信号CNと、その中に含まれる改善値に応じて、選択モジュールSELは、データベースDBから追加の第1の訓練データPIC(CL)を選択するか、異なる訓練データPIC2(CL)を訓練データソースSRCから得るよう要求する。閾値より上では第1の訓練データPIC(CL)を用いて訓練が継続され、閾値より下では他の訓練データPIC2(CL)が要求されてさらなる訓練に使用されるように、改善値の閾値が特定されてもよい。
代替的にまたはそれに加えて、継続信号CNは、訓練データソースSRCにも送信することができ、たとえばセンサネットワークのセンサに訓練データを取得させる、センサの設定を修正させる、かつ/またはセンサデータを固有に選択させるために、継続信号が使用される。
好ましくは、その後の訓練に使用すべき訓練データの上記の選択は、認識クラス固有に、すなわち訓練データの認識クラスCLごとに個々に実行される。この場合、特定の認識クラスCLについて、認識クラス固有の値分布VLPおよびVOCLが判定され、認識クラス固有の継続信号CNが生成され、認識クラス固有の継続信号CNに応じて、SEL選択モジュールが、関連する認識クラスCLのさらなる第1の訓練データPIC(CL)をデータベースDBから選択するか、関連する認識クラスCLの他の訓練データPIC2(CL)を訓練データソースSRCから得るよう要求する。
本発明による方法を使用して、ニューラルネットワークBNNまたは評価装置AWの訓練を効率的に制御することができる。固有の認識クラスについての分類品質が有意に改善していないことを、おそらくかなり長期間を経てから検出するのではなく、早い段階で、クラス固有の、質的に異なる訓練データを要求し、さらなる訓練に使用することができる。したがって、概して、特に希な個々の認識クラスについて、分類結果を有意に改善しないさらなる訓練データが供給されることを回避することが可能になる。概して、これにより、訓練期間を有意に短縮することができ、かつ/または学習結果を有意に改善することができる。

Claims (14)

  1. 技術システム(TS)を制御するための機械学習ルーチンを訓練するためのコンピュータ実装方法であって、
    a)技術システム(TS)の第1のセンサデータを含む一連の第1の訓練データ(PIC)が、機械学習ルーチンによって読み込まれ、
    b)該機械学習ルーチンが第1の訓練データ(PIC)に基づいて訓練され、機械学習ルーチンの複数の学習パラメータ(LP)が訓練によって設定され、
    c)訓練中に生じる学習パラメータ(LP)の値分布(VLP)が判定され、
    d)学習パラメータ(LP)の判定された値分布(VLP)の関数として継続信号(CN)が生成され、
    e)該継続信号(CN)に応じて、さらなる一連の第1の訓練データ(PIC)を用いて訓練が継続されるか、訓練のために他の訓練データ(PIC2)が要求される、前記方法。
  2. 他の訓練データ(PIC2)は、
    第1の訓練データ(PIC)とは異なる種類である、
    第1の訓練データ(PIC)とは異なるように取得される、
    第1のセンサデータとは異なるセンサデータを含む、かつ/または
    第1の訓練データ(PIC)とは異なるソースから生成される
    ことを特徴とする、請求項1に記載の方法。
  3. 前記第1の訓練データ(PIC)または前記他の訓練データ(PIC2)を取得するためのセンサの設定が修正され、
    前記技術システム(TS)のセンサが、前記第1の訓練データ(PIC)または前記他の訓練データ(PIC2)を取得するように誘導され、かつ/または
    前記技術システム(TS)前記第1のセンサデータが前記第1の訓練データ(PIC)または前記他の訓練データ(PIC2)として選択される
    ように、センサまたは技術システム(TS)が継続信号(CN)に応じて制御されることを特徴とする、請求項1または2に記載の方法。
  4. 学習パラメータ(LP)の値分布(VLP)の分布幅および/またはエントロピー値が判定され、
    分布幅の増大および/またはエントロピー値の増大がある場合には、訓練は、さらなる一連の第1の訓練データ(PIC)を用いて継続される
    ことを特徴とする、請求項1~3のいずれか1項に記載の方法。
  5. 学習ルーチンの出力データ(OCL)の値分布(VOCL)が判定され、
    出力データ(OCL)の値分布(VOCL)の関数として、継続信号(CN)が形成される
    ことを特徴とする、請求項1~4のいずれか1項に記載の方法。
  6. それぞれの値分布(VLP、VOCL)は、分布幅によって表されることを特徴とする、請求項1~のいずれか1項に記載の方法。
  7. 第1の訓練データ(PIC(CL))は、それぞれ固有の認識クラス(CL)に割り当てられ、
    所与の認識クラス(CL)について、この認識クラス(CL)に割り当てられた第1の訓練データ(PIC(CL))に基づいて、
    学習パラメータのクラス固有の値分布が判定され、
    学習パラメータのクラス固有の値分布の関数として、クラス固有の継続信号が生成され、
    クラス固有の継続信号に応じて、訓練は、この認識クラスに割り当てられた第1の訓練データ(PIC(CL))を用いて継続されるか、この認識クラス(CL)に割り当てられた他の訓練データ(PIC2(CL))が要求される
    ことを特徴とする、請求項1~のいずれか1項に記載の方法。
  8. 機械学習ルーチンは、ベイジアンニューラルネットワーク(BNN)を実装することを特徴とする、請求項1~のいずれか1項に記載の方法。
  9. 学習パラメータ(LP)の値分布(VLP)は、ベイジアンニューラルネットワーク(BNN)による機械学習ルーチンによって判定され、学習パラメータ(LP)は、ベイジアンニューラルネットワーク(BNN)の重みであることを特徴とする、請求項1~のいずれか1項に記載の方法。
  10. 機械学習ルーチンは、サブ機械学習ルーチンの集まりを実行し、これにより、学習パラメータのセットが設定され、学習パラメータ(LP)の値分布(VLP)は、学習パラメータのセットにわたる学習パラメータ(LP)の分布から導き出されることを特徴とする、請求項1~のいずれか1項に記載の方法。
  11. 機械学習ルーチンがニューラルネットワークを実装し、学習パラメータ(LP)は、ニューラルネットワークの重みであり、
    ニューラルネットワークの構造が、複数回変更され、ニューラルネットワークの出力データのセットが、所与の変更形態について判定され、
    学習パラメータ(LP)の値分布(VLP)は、出力データのセットにわたる出力データ(OCL)の分布から導き出されることを特徴とする、請求項1~10のいずれか1項に記載の方法。
  12. 技術システム(TS)を制御するための機械学習ルーチンを訓練するための装置(TA)であって、請求項1~11のいずれか1項に記載の方法を実装するように構成された、
    前記装置。
  13. 請求項1~11のいずれか1項に記載の方法を実装するように構成されたコンピュータプログラム製品。
  14. 請求項13に記載のコンピュータプログラム製品を有する機械読取り可能記憶媒体。
JP2021505837A 2018-08-03 2019-07-29 技術システムを制御するために機械学習ルーチンを訓練するための方法および装置 Active JP7438187B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18187335.7 2018-08-03
EP18187335.7A EP3605404B1 (de) 2018-08-03 2018-08-03 Verfahren und vorrichtung zum trainieren einer maschinellen lernroutine zum steuern eines technischen systems
PCT/IB2019/056435 WO2020026107A1 (de) 2018-08-03 2019-07-29 Verfahren und vorrichtung zum trainieren einer maschinellen lernroutine zum steuern eines technischen systems

Publications (2)

Publication Number Publication Date
JP2021533478A JP2021533478A (ja) 2021-12-02
JP7438187B2 true JP7438187B2 (ja) 2024-02-26

Family

ID=63144922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021505837A Active JP7438187B2 (ja) 2018-08-03 2019-07-29 技術システムを制御するために機械学習ルーチンを訓練するための方法および装置

Country Status (6)

Country Link
US (1) US20210201151A1 (ja)
EP (1) EP3605404B1 (ja)
JP (1) JP7438187B2 (ja)
CN (1) CN112534447B (ja)
ES (1) ES2966999T3 (ja)
WO (1) WO2020026107A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021113547A1 (de) * 2021-05-26 2022-12-01 Rwe Renewables Gmbh Verfahren zum Trainieren eines Machine-Learning-Modells verwendbar zum Bestimmen einer Restnutzungsdauer einer Windkraftanlage
JPWO2023166574A1 (ja) * 2022-03-01 2023-09-07

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257140A (ja) 2009-04-23 2010-11-11 Canon Inc 情報処理装置及び情報処理方法
JP2018520404A (ja) 2015-04-28 2018-07-26 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1388812A1 (en) * 2002-07-04 2004-02-11 Ronald E. Dr. Kates Method for training a learning-capable system
US8386401B2 (en) * 2008-09-10 2013-02-26 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data using a plurality of learning machines wherein the learning machine that optimizes a performance function is selected
US9542644B2 (en) * 2013-08-13 2017-01-10 Qualcomm Incorporated Methods and apparatus for modulating the training of a neural device
US20150324689A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Customized classifier over common features
US10282588B2 (en) * 2016-06-09 2019-05-07 Siemens Healthcare Gmbh Image-based tumor phenotyping with machine learning from synthetic data
US20180107926A1 (en) * 2016-10-19 2018-04-19 Samsung Electronics Co., Ltd. Method and apparatus for neural network quantization
US10127659B2 (en) * 2016-11-23 2018-11-13 General Electric Company Deep learning medical systems and methods for image acquisition
WO2018153806A1 (en) * 2017-02-24 2018-08-30 Deepmind Technologies Limited Training machine learning models
CN106980822B (zh) * 2017-03-14 2019-04-05 北京航空航天大学 一种基于选择性集成学习的旋转机械故障诊断方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010257140A (ja) 2009-04-23 2010-11-11 Canon Inc 情報処理装置及び情報処理方法
JP2018520404A (ja) 2015-04-28 2018-07-26 クゥアルコム・インコーポレイテッドQualcomm Incorporated ニューラルネットワークのためのトレーニング基準としてのフィルタ特異性

Also Published As

Publication number Publication date
WO2020026107A1 (de) 2020-02-06
EP3605404C0 (de) 2023-10-04
JP2021533478A (ja) 2021-12-02
EP3605404A1 (de) 2020-02-05
EP3605404B1 (de) 2023-10-04
ES2966999T3 (es) 2024-04-25
CN112534447A (zh) 2021-03-19
US20210201151A1 (en) 2021-07-01
CN112534447B (zh) 2024-05-24

Similar Documents

Publication Publication Date Title
KR101864412B1 (ko) 학습용 데이터 관리방법, 장치 및 프로그램
TWI715703B (zh) 用以偵測一樣本之影像之異常的系統及方法,以及非暫時性電腦可讀媒體
JP2020149711A5 (ja)
KR101822404B1 (ko) Dnn 학습을 이용한 세포이상 여부 진단시스템
CN111767930A (zh) 物联网时序数据异常检测方法及其相关设备
JP7438187B2 (ja) 技術システムを制御するために機械学習ルーチンを訓練するための方法および装置
WO2018203470A1 (en) Learning apparatus, learning method, and learning program
CN110910377B (zh) 一种基于神经网络的脑梗死mri图像识别方法
CN110163844B (zh) 眼底病灶检测方法、装置、计算机设备及存储介质
CN110458904B (zh) 胶囊式内窥镜图像的生成方法、装置及计算机存储介质
TW202024608A (zh) 在半導體製造中使用隨機失效指標
CN115204227A (zh) 基于深度学习的设备故障诊断中不确定性量化校准方法
CN110291539A (zh) 用于生成学习数据的处理方法、系统、程序和存储介质、以及生成学习数据的方法和系统
US20220147869A1 (en) Training trainable modules using learning data, the labels of which are subject to noise
CN112382382B (zh) 一种代价敏感的集成学习分类方法及系统
Jibhakate et al. Early glaucoma detection using machine learning algorithms of VGG-16 and Resnet-50
CN117129698B (zh) 全自动凝血测试仪的异常报警与重测系统及方法
Xie et al. Internal defect inspection in magnetic tile by using acoustic resonance technology
CN116895381A (zh) 阿尔茨海默症预测模型的构建方法、装置、介质、设备
US20220358646A1 (en) Cell activity machine learning
CN113419502B (zh) 基于人工智能的制壳生产过程的工序监测方法与系统
CN113539517A (zh) 时序干预效果的预测方法
Yashodhar et al. Comparison of Transfer Learning algorithm in predicting Alzheimer’s disease
CN118536090B (zh) 一种基于仓储温湿度监测生成粮温场图方法
CN114864056B (zh) 用于对医学图像推理模型进行管理的方法及相关产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240213

R150 Certificate of patent or registration of utility model

Ref document number: 7438187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150