JP7442550B2 - 推論演算装置、モデル訓練装置、及び推論演算システム - Google Patents

推論演算装置、モデル訓練装置、及び推論演算システム Download PDF

Info

Publication number
JP7442550B2
JP7442550B2 JP2021571382A JP2021571382A JP7442550B2 JP 7442550 B2 JP7442550 B2 JP 7442550B2 JP 2021571382 A JP2021571382 A JP 2021571382A JP 2021571382 A JP2021571382 A JP 2021571382A JP 7442550 B2 JP7442550 B2 JP 7442550B2
Authority
JP
Japan
Prior art keywords
inference
model
training
inference model
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021571382A
Other languages
English (en)
Other versions
JP2023514466A (ja
Inventor
ジャオユエ リー
ドン チャイ
ユエンユエン ルー
ホン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Publication of JP2023514466A publication Critical patent/JP2023514466A/ja
Application granted granted Critical
Publication of JP7442550B2 publication Critical patent/JP7442550B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • General Factory Administration (AREA)

Description

本発明は、クラウドコンピューティング技術分野に関し、特に、推論演算装置、モデル訓練装置、推論演算システムに関する。
クラウドコンピューティング技術は、高度な演算能力、高汎用性、高スケーラビリティなどの特徴を有する。また、クラウドコンピューティングでは、アプリケーションがクラウド機器に設置され、ユーザは必要に応じてクラウド機器からアプリケーションサービスを取得することができる。そのため、アプリケーションサービスを取得する利便性、及び全体的な演算資源の使用率を向上させることができる。
一態様では、少なくとも1つのプロセッサとメモリを含む推論演算装置が提供され、前記メモリにはプログラム命令が記憶される。
前記プログラム命令は、前記少なくとも1つのプロセッサによって実行可能であり
デル訓練装置からの第1の推論モデルを受信する動作と、
前記第1の推論モデルに基づいて、生産製造段階で生成された処理待ちデータの推論演算を行い、推論結果を取得し、前記推論結果をユーザ側機器に送信する動作と、
前記第1の推論モデルを更新する必要があるか否かを定めるように、前記第1の推論モデルの性能を評価し、そうである場合、前記第1の推論モデルを更新する動作と、を前記推論演算装置に実行させ、
記第1の推論モデルは、前記モデル訓練装置が、第1の訓練サンプルライブラリに基づいてモデル訓練を行うことで取得されたものであり
前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
前記モデル訓練装置は、クラウド機器を含み
前記推論演算装置は、モデル訓練装置よりもユーザ側機器に近い。
いくつかの実施例では、前記履歴データは、欠陥情報がラベル付けされた製品画像を含み、
前記処理待ちデータは、生産製造段階で生成された原始製品画像を含み、
前記推論結果は、前記原始製品画像における欠陥情含む。
いくつかの実施例では、前記第1の推論モデルに対して行う更新は、
第2の訓練サンプルライブラリに基づいて、モデル訓練を行い、第2の推論モデルを取得するか、又は前記モデル訓練装置にモデル更新要求を送信し、第2の推論モデルを取得することと、
前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、
前記第2の訓練サンプルライブラリは、履歴データからの訓練サンプル、又は前記推論結果からの再判定を受けた訓練サンプル、又は履歴データからの訓練サンプル及び前記推論結果からの再判定を受けた訓練サンプルを含む。
いくつかの実施例では、前記更新条件は、前記第2の推論モデルに対してテストを行い、前記第2の推論モデルが前記テストに合格することを含み、
前記テストは、テストサンプルに基づいて前記第2の推論モデルの性能を評価することを含み、性能が評価要件を満たす場合、テストに合格したと判定される。
いくつかの実施例では、前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む。
いくつかの実施例では、前記更新条件は、前記第2の推論モデルの配置情報を検証し、前記配置情報が、行われる必要のある推論演算と一致することをさらに含む。
いくつかの実施例では、モデル訓練を行って第2の推論モデルを取得するか、又はモデル訓練装置にモデル更新要求を送信し第2の推論モデルを取得する前
われたモデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にあるか否かを判定し、
前記訓練パラメータが前記訓練パラメータ範囲内にある場合、前記モデル訓練を行い、
前記訓練パラメータが前記訓練パラメータ範囲内にない場合、前記モデル訓練装置にモデル更新要求を送信する、動作をさらに実行する。
いくつかの実施例では、前記訓練パラメータは、モデル訓練に必要なデータサイズ、訓練継続時間、および演算能力のうちの少なくとも1つを含む。
いくつかの実施例では、前記第1の推論モデルの性能を評価するための評価パラメータは、推論演算の過程中の前記第1の推論モデルの正解率、適合率、再現率、及びF値のうちの少なくとも1つを含み、
性能評価に基づいて前記第1の推論モデルを更新する必要がある状況は、第1の推論モデルの性能が変動又は低下したことを含み、
前記評価パラメータの連続した期間内の変化状況に基づいて、前記第1の推論モデルの性能が変動又は低下したか否かを判定する。
いくつかの実施例では、性能評価に基づいて前記第1の推論モデルを更新することは、
第3の推論モデルを受信することと、
前記第1の推論モデルと前記第3の推論モデルの性能を比較し、前記第3の推論モデルの性能が前記第1の推論モデルの性能よりも高い場合に、又は前記第1の推論モデルに異常が発生した場合、前記第3の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、
前記第3の推論モデルは、前記モデル訓練装置が前記モデル更新要求を受信していない状況で、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行って取得されたものであり
前記更新後の第1の訓練サンプルライブラリは、前記推論結果からの、再判定を受けた訓練サンプルを含む。
いくつかの実施例では、前記第2の推論モデルを用いて前記第1の推論モデルを更新する場合
記第2の推論モデルの性能を評価し、前記第1の推論モデルの性能と前記第2の推論モデルの性能を比較する動作と、
前記第2の推論モデルの性能が前記第1の推論モデルの性能よりも劣っている場合、前記第2の推論モデルを前記第1の推論モデルにロールバックし、モデル訓練を改めて行う動作、又はモデル訓練を行うように前記モデル訓練装置に改めて要求する動作と、をさらに実行する。
いくつかの実施例では、前記推論結果を取得した後
記推論結果に基づいて、決定命令を生成する動作をさらに実行し、
前記欠陥情報は、欠陥があることが識別された原始製品画像、欠陥位置及び欠陥タイプに関する情報と、を含み、
前記決定命令は、前記原始製品画像の欠陥情報に基づいて、欠陥のある前記原始製品画像に対応する製品に対して、応する欠陥処理を行う。
別の態様では、少なくとも1つのプロセッサとメモリを含むモデル訓練装置が提供され前記メモリにはプログラム命令が記憶され、
前記プログラム命令は、前記少なくとも1つのプロセッサによって実行可能であり
1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
前記第1の推論モデルを推論演算装置に送信する動作と、
前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
前記第2の推論モデルを前記推論演算装置に送信する動作と、を前記モデル訓練装置に実行させ、
前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
前記更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを含む。
いくつかの実施例では、前記第1の訓練サンプルライブラリ、又は前記更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行う過程中に
練タスク情報を生成する動作と、
前記訓練タスク情報に基づいて訓練配置データを生成する動作と、
対応する訓練サンプルライブラリから訓練サンプルを取得し、前記訓練サンプルと前記訓練配置データに基づいてモデル訓練を行い、対応する推論モデルを取得する動作と、を実行する。
いくつかの実施例では、前記対応する訓練サンプルライブラリから訓練サンプルを取得し、前記訓練サンプルと前記訓練配置データに基づいてモデル訓練を行い、対応する推論モデルを取得する過程中に
デル訓練の過程を監視する動作と、
モデル訓練の過程に異常が発生した場合、前記訓練配置データを更新する動作と、
前記訓練サンプルと更新後の訓練配置データに基づいてモデル訓練を行う動作と、をさらに実行する。
いくつかの実施例では、前記第1の推論モデル又は前記第2の推論モデルを前記推論演算装置に送信する前に
応する推論モデルのモデルバージョン情報を検証し、前記モデルバージョン情報が正しいか否かを判定する動作と、
前記モデルバージョン情報が正しい場合、対応する推論モデルを前記推論演算装置に送信する動作と、
前記モデルバージョン情報が正しくない場合、モデルバージョンが要件を満たす推論モデルを検索し、検出された場合は検出された推論モデルを前記推論演算装置に送信、検出されなかった場合通知情報を前記推論演算装置に送信する動作と、をさらに実行する。
いくつかの実施例では、前記モデル訓練装置は、前記第1の訓練サンプルライブラリをさらに含み
記第1の訓練サンプルライブラリを更新する動作と、
前記モデル更新要求を受信していない状況で、前記更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第3の推論モデルを取得する動作と、
前記第3の推論モデルを前記推論演算装置に送信する動作と、をさらに実行する。
さらに別の態様では、プログラム命令が記憶されたコンピュータ可読記憶媒体が提供され、前記プログラム命令は、プロセッサによって実行可能であり、
推論演算装置に、
第1の推論モデルを受信するする動作と、
前記第1の推論モデルに基づいて、工業生産中の処理待ちデータの推論演算を行い、推論結果を取得する動作と、
前記第1の推論モデルを更新する必要があるか否かを判定するように、前記第1の推論モデルの性能を評価し、前記第1の推論モデルを更新する必要がある場合、前記第1の推論モデルを更新する動作と、を実行させ、
前記第1の推論モデルは、第1の訓練サンプルライブラリに基づいて、モデル訓練を行うことで取得されたものであり
前記第1の訓練サンプルライブラリは、履歴データからの訓練サンプルを含む。
さらに別の態様では、プログラム命令が記憶されたコンピュータ可読記憶媒体が提供され、前記プログラム命令は、プロセッサによって実行可能であり、
モデル訓練装置に、
第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
前記第1の推論モデルを推論演算装置に送信する動作と、
前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
前記第2の推論モデルを前記推論演算装置に送信する動作と、を実行させ、
前記第1の推論モデルは、履歴データからの訓練サンプルを含み、
前記更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの再判定を受けた訓練サンプルを用いて前記第1の訓練サンプルライブラリを更新して取得されたものである。
さらに別の態様では、推論演算装置及びモデル訓練装置を含む、推論演算システムが提供され、
前記モデル訓練装置は、少なくとも1つの第2のプロセッサと第2のメモリを含み、
前記第2のメモリには第2のプログラム命令が記憶され、
前記第2のプログラム命令は、前記少なくとも1つの第2のプロセッサによって実行可能であり、
前記モデル訓練装置に、
第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
前記第1の推論モデルを推論演算装置に送信する動作と、
前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
前記第2の推論モデルを前記推論演算装置に送信する動作と、を実行させ、
前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
前記更新後の第1の訓練サンプルライブラリは、前記第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを含み、
前記推論演算装置は、少なくとも1つの第1のプロセッサと第1のメモリを含み、
前記第1のメモリには、第1のプログラム命令が記憶され、
前記第1のプログラム命令は、前記少なくとも1つの第1のプロセッサによって実行可能であり、
前記推論演算装置に、
前記モデル訓練装置からの前記第1の推論モデルを受信する動作と、
前記第1の推論モデルに基づいて、生産製造段階で生成された処理待ちデータの推論演算を行い、推論結果を取得し、前記推論結果をユーザ側機器に送信する動作と、
前記第1の推論モデルを更新する必要があるか否かを判定するように、前記第1の推論モデルの性能を評価し、前記第1の推論モデルを更新する必要がある場合、前記第1の推論モデルを更新する動作と、
を実行させ、
前記モデル訓練装置は、クラウド機器を含み、
前記推論演算装置は、モデル訓練装置よりもユーザ側機器に近い。
関連技術に係るユーザ側-クラウドコンピューティングアーキテクチャの構成を示す概略図である。 関連技術に係るクラウドユーザ側-エッジ側-クラウドコンピューティングアーキテクチャの構成を示す概略図である。 本開示のいくつかの実施例に係る推論演算装置の構成を示す概略図である。 本開示のいくつかの実施例に係る推論演算装置とモデル訓練装置とのインタラクティブを示す図である。 本開示のいくつかの実施例に係るモデル訓練装置の構成を示す概略図である。 本発明のいくつかの実施例に係る推論演算装置とモデル訓練装置との別のインタラクティブを示す図である。 本開示のいくつかの実施例に係る推論演算装置とモデル訓練装置とのもう一つの別のインタラクティブを示す図である。 本開示のいくつかの実施例に係るモデル訓練装置の動作手順のフローチャートである。 本開示のいくつかの実施例に係る別のモデル訓練装置の動作手順のフローチャートである。 本開示のいくつかの実施例に係る推論演算システムの構成を示す概略図である。 本開示のいくつかの実施例に係る推論演算装置の構成とモデル訓練装置の構成とを示す図である。
以下、図面を参照しながら、本開示の幾つかの実施例を説明する。もちろん、ここに説明される実施例は、あくまで本開示の実施例の一部であり、本開示のすべての実施例ではない。本開示の実施例に基づいて、当業者が容易に想到できる他のすべての実施例は、本開示の保護範囲に属するものとする。
工業生産中に、設備、パラメータ、操作、環境干渉などの一環で発生した問題により、製造された製品が工程要件を満たさず、ひいては不良が発生することがある。不良品が発生し続けことを避けるため、各工程の後に要件を満たさない不良品と欠陥品を見つけなくてはならない。
ここで、生産設備の温度、圧力、湿度などのリアルタイム監視データの変化に基づいて、生産システムの稼働状況を予測し、製品の不良や設備の破損などを事前に防ぐことできる。
人工知能の継続的な発展に伴い、工場は、生成された大量の生産データに基づいて機械学習の方法を利用してモデル訓練を行い、推論モデルを取得できる。これによって、工場は、工場の作業員とデータアナリストを代替し、このモデルを後続の生産過程に適用して推論と予測をして、生産効率を向上させ、人件費を削減することができる。
機械学習アルゴリズムは、サポートベクターマシン(support vector machine,SVM)、カスケードアルゴリズム(Adaboost)、決定木、ランダムフォレスト、ニューラルネットワークに基づく深層学習アルゴリズムを含む。
クラウドコンピューティング(Cloud Computing)は、分散コンピューティングの一種であり、ネットワーク「クラウド」を介してデータ演算処理プログラムを複数の小さな演算処理プログラムに分解することができる。クラウドコンピューティングは、高度な演算能力、高可用性、高スケーラビリティなどの特徴を有する。
工場の生産過程では、大量の生産データが生成されている。クラウドコンピューティングは、この大量の生産データを処理するための推論モデルを訓練し、推論モデルにより生産データに対して推論演算を実行できる。
これにより、複数のサーバで構成されるシステム(即ち、クラウド機器)は、ユーザ側機器(即ち、工場の生産設備)によってアップロードされた処理待ちデータに対して推論演算を行って推論結果を取得する。そして、この推論結果を分析してクラウド決定結果を取得し、かつこのクラウド決定結果をユーザ側機器に送信する。これにより生産過程中におけるユビキタスネットワークを実現することができる。
ここで、上記のようなコンピューティングアーキテクチャをユーザ側-クラウドコンピューティングアーキテクチャと呼ぶ。
以下、図1を参照しながら、ユーザ側-クラウドコンピューティングアーキテクチャを例示的に紹介する。
ユーザ側機器300は、処理待ちデータ即ち、生産設備によって生成された生産データをクラウド機器200にアップロードする。
クラウド機器200は、アップロードされた処理待ちデータに対して推論演算を行い、決定結果を取得し、それから決定結果をユーザ側機器300に返送する。
ユーザ側機器300は、受信した決定結果に基づいて、対応する動作を行い、それによってユーザ側機器300の統合管理を実現することができる。
しかしながら、ユーザ側機器300によってアップロードされた処理待ちデータは大量であり、処理待ちデータがアップロードされる過程中に、アップロードが必要とされるネットワーク帯域幅とネットワーク管理権限により、アップロード速度が大いに制限されるため、データ処理の時効性が悪くなる。
また、大量の処理待ちデータがクラウド機器200にアップロードされた後、まず記憶される必要があるため、クラウド機器200の多くのリソースを占有し、クラウド機器に大きな負担をもたらす。
上記のユーザ側‐クラウドコンピューティングアーキテクチャに存在する問題を解決するために、ユーザ側‐エッジ側‐クラウドコンピューティングアーキテクチャを採用すると、生産製造過程中に生成された生産データを処理することができる。
図3~図5に示すように、本開示のいくつかの実施例では、少なくとも1つのプロセッサ110とメモリ120を含む推論演算装置100が提供される。メモリ120にはプログラム命令が記憶される。
ここで、当該プログラム命令は、前記少なくとも1つのプロセッサ110によって実行可能であり、推論演算装置100に、以下の動作S10~S40を実行させる。
まず始めに、推論演算装置100は、モデル訓練装置200から第1の推論モデルを受信する(動作S10)
ここで、第1の推論モデルは、モデル訓練装置200が、第1の訓練サンプルライブラリに基づいて、モデル訓練を行って取得されたものである。
第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含む。
また、当該モデル訓練装置200は、クラウド機器を含む。即ち、モデル訓練装置200は、クラウド機器であってもよい。
一例では、モデル訓練装置200がニューラルネットワークモデルを訓練することは、ネットワークトポロジーを選択するステップと、ネットワークによってモデル化された問題を表す訓練データを使用するステップと、ネットワークモデルが訓練データセットのすべてのインスタンスに対して最小誤差で表現されるまで重みを調整するステップと、を含む。
例えば、モデル訓練装置200は、ニューラルネットワークのための教師あり学習の過程の間、訓練データセット内のインスタンスを表す入力に応答してネットワークによって生成された出力を、当該インスタンスの「正しい」とラベル付けされた出力と比較する。そして、モデル訓練装置200は、前記出力と前記ラベル付けされた出力との差を表す誤差信号を演算し、誤差信号がネットワーク層を通じて逆方向に伝搬する際、当該誤差を最小化にするように前記接続に関連付けられた重みを調整する。
訓練データセットのインスタンスから生成された各々の出力の誤差が最小化されたとき、当該ニューラルネットワークモデルは「訓練済み」と見なされ、人工知能の推論タスクに使用できる。
ニューラルネットワークモデルの推論と訓練の過程中に、大量のパラメータ、アクティブ化値、勾配値のバッファーが関与し、これらの各値は、訓練の反復毎に完全に更新する必要があるため、演算とスループット能力が高く要求される。
GPU(Graphics Processing Unit、グラフィックスプロセッサ)は、簡単なプログラミングモデル、強力な並列能力、広いビデオメモリ帯域幅を有し、深層ニューラルネットワークの訓練に関連する演算を処理する際、極めて効率的である。
従って、複数のGPUが統合されたGPUクラスタを使用することにより、ニューラルネットワークモデルの訓練と推論の速度を効果的に向上させることができる。
推論モデルは、フィードフォワードニューラルネットワークモデル、畳み込みニューラルネットワーク(Convolutional Neural Network、CNNと略称する)モデル、リカレントニューラルネットワーク(RNN、Recurrent Neural Network)モデル、敵対的生成ネットワーク(GAN、Generative Adversarial Network)モデル等のニューラルネットワークモデルであってもよいが、これに限定されず、当業者に知られている他のニューラルネットワークモデルであってもよい。
次に、推論演算装置100は、第1の推論モデルに基づいて、生産製造段階で生成された処理待ちデータの推論演算を行い、推論結果を取得し、当該推論結果をユーザ側機器に送信する(動作S20)。
前記推論演算装置100は、モデル訓練装置よりもユーザ側機器に近い。
一例では、図2に示すように、推論演算装置100はエッジ側機器1’であり、モデル訓練機器200はクラウド機器2’である。
エッジ側機器1’の設置場所は、ユーザ側機器3’とクラウド機器2’の間に位置し、かつユーザ側機器3’の一端に近い。
エッジ側機器1’は、推論モデルを用いて、ユーザ側機器3’からの処理待ちデータに対して推論演算を行い、エッジ側決定結果を取得する。エッジ側機器1’は、このエッジ側決定結果をユーザ側機器3’に送信する
もしくは、エッジ側機器1’は、推論演算が行われた演算結果をクラウド機器2’にアップロードする。この場合、クラウド機器2’、アップロードされた当該決定結果を処理及び分析して、クラウド決定結果を取得する。そして、クラウド機器2’が、クラウド決定結果をユーザ側機器3’に送信する。
別の例では、エッジ側機器1’をユーザ側機器3’に統合してもよい。即ち、ユーザ側機器3’は、生産データを生成すると同時に、生成された生産データに対して推論演算を行う。
エッジ側機器1’は、クラウド機器2’よりもユーザ側機器3’に近いため、処理待ちデータの送信過程にかかる時間が比較的短くなり、データ処理の時効性を向上させることができる。
また、処理待ちデータをクラウド機器2’にアップロードする必要がないため、クラウド機器2’に対するリソースの占有が少なくなり、クラウド機器の負担が軽減される。
また、上記のユーザ側-エッジ側-クラウドコンピューティングアーキテクチャでは、クラウド機器2’は、その高度な演算能力を最大限に活用することができ、リアルタイムで決定をフィードバックする必要ないモデル訓練を行うことができる。
なお、エッジ側機器1’における推論モデルとは、機械学習アルゴリズム等の、特定のアルゴリズムを用いて推論演算を行うアルゴリズム構造である。ここでは、モデル訓練によりエッジ側機器1’の推論演算要件を満たす推論モデルを取得する必要がある。
ただし、モデル訓練とは、多くの訓練サンプルに対して複数回の反復と演算を行うことで、これらの訓練サンプルの特定特徴を抽出し、最終的にその特定特徴を有するデータセットに収束できるアルゴリズム構造とパラメータ値を取得することをいう。つまり、モデル訓練とは、特定特徴を有するデータを識別できる推論モデルを取得することをいう。
ここで、モデル訓練に用いられる大量の訓練データセットサンプル、検証データセット、及び訓練されたモデルをテストするためのテストデータセットは、すべて原始画像サンプルと対応するラベル付き情報を含む。
3つのデータセットの原始画像サンプルは、完全に重複してもよく、部分的に重複してもよく、又は全く重複しなくてもよい。それに対応して、訓練データセット、検証データセット及びテストデータセットは、完全に重複するか、部分的に重複するか、又は全く重複しない。ただし、この3つのデータセットは、全く重複しないこと理想的であり、こうして訓練されたモデルは比較的信頼できる。
例えば、表示パネルの生産過程中では、各工程が完了した後、表示パネルの写真を撮影し、アレイ基板の画像等の表示パネルの画像を取得する。そして、画像に欠陥があるか否か、欠陥タイプと位置を識別することによって、表示パネルの欠陥情報を取得し、欠陥がある表示パネルとその欠陥情報をラベル付けする。そして、異なる欠陥に応じて、対応する修復技術を使用して修復する。
画像識別は、深層学習のニューラルネットワークモデルによりコンピュータビジョン識別を実現することができる。
クラウド機器2’によってサンプル訓練が行われた後、推論モデルエッジ側機器1’に送信される。ユーザ側機器3’が生成した画像は、エッジ側機器1’により推論演算が直接かつ迅速に行われるため、クラウド演算に伝送する帯域幅の負担と遅延を省く。
一例では、ニューラルネットワークモデルにより画像内の欠陥内容を識別する実施方法は、まず始めに、製品画像を一定ピクセルサイズM×Nにスケーリングする。ただし、このスケーリングは行わなくてもよい。
次に、M×N画像をVGGNet、ResNet、MobileNetなどの深層畳み込みニューラルネットワークに送信し、多層畳み込み層、活性化層、プーリング層を通じて、画像全体の特徴マップ(feature maps)を取得する。
次に、特徴マップをスクリーニング・エリア・ネットワーク(ZF/SSD/RPNなど)に入力し、演算により候補領域(proposal region)を取得する。
次に、候補領域に対して畳み込みプーリング等の動作を行い、候補領域の領域特徴マップ(proposal feature)を取得する。
次に、領域特徴マップ(proposal feature)を後続の完全接続ネットワークとsoftmaxネットワークに送信して分類(classification)、即ち、proposalがどんな欠陥かを分類し、最も確率の高い欠陥タイプを最終的な分類結果として取得し、タイプと確率を記録する。
ただし、候補領域(proposal region)の座標とサイズは、欠陥の位置や大きさを意味する。
なお、欠陥モデルに基づいて製品の欠陥内容を識別する方法は、上記の方法に類似する変形又は当業者に知られている他の方法であってもよく、本開示はここで限定されない。
次に、推論演算装置100は、第1の推論モデルを更新する必要があるか否かを判定するために、第1の推論モデルの性能を評価する(動作S30)。
ユーザ側装置3’からの処理待ちデータが連続的に生成及び更新され、新しい特徴を有する処理待ちデータが連続的に出現すると、推論モデルの推論演算能力徐々に低下し、それに伴って、推論モデルによって取得されたエッジ側決定結果の正確さ低下する。
ただし、新しいとは、特徴モデル訓練の時に出現しなかった特徴を指す。
表示パネルの生産製造を例にとると、新型番の製品の生産製造、生産工程の更新とアップグレード、生産設備の更新と交換などの要因により、製造された表示パネルには新しいタイプの欠陥が生じることがある。この新しいタイプの欠陥は、推論モデルがモデルを訓練する時の訓練サンプルに出現しなかったものであるため、推論モデルは新しいタイプの欠陥を識別することができない。そのため、推論モデルが生産製造過程中の欠陥識別と分類の要件を満たさなくなる。
前述のように、推論モデルは、大量の訓練サンプルを用いたモデル訓練によって取得されるものである。
ここで、訓練サンプルは、少なくとも1つのデータによって形成されるデータセットと見なされてもよい。なおかつ、訓練サンプルは、画像、映像、音声などの様々な形態の訓練データを含み得るが、これらに限定されない。
第1の推論モデルを訓練するための大量の訓練サンプルは、第1の訓練サンプルライブラリからのものであり、第1の訓練サンプルライブラリ内の訓練サンプルは、履歴データからの訓練サンプルを含む。
ここで、履歴データとは、既に判断されかつ正解結果がラベル付けされた生産データを指す。履歴データは、例えば、人手による判断を受けた、又は正確に判断可能な他の設備により生産データを判断して取得された、上記のような履歴データである。
履歴データは正解結果がラベル付けされているため、モデル訓練中の訓練サンプルとして使用することができる。
例えば、表示パネルの生産製造を例にとると、第1の推論モデルが処理しようとする処理待ちデータは、生産製造段階で生成された原始製品画像を含み、第1の推論モデルの推論結果は、原始製品画像における欠陥情報を含む。
ここで、原始製品画像は未処理の画像である。
第1の推論モデルは、原始製品画像における欠陥情報を取得するために、例えば、欠陥の位置と欠陥のタイプを識別するために、原始製品画像に対して推論演算を行う必要がある。
上述のような履歴データは、欠陥タイプがラベル付けされた製品画像を含み、ここで、ラベル付けされた欠陥タイプが正解結果である。
なお、推論演算装置100は、第1の推論モデルの性能を評価するとき、第1の推論モデルが推論演算を行った推論結果と正解結果とを比較し、これにより第1の推論モデルの性能を評価することができる。
ここで、正解結果は、人手による判断を受けて、推論演算装置100に入力されるものでありうる。
例えば、表示パネルの生産製造を例にとると、一定期間(例えば、毎日14:00~15:00)の製造ラインの表示パネルの原始製品画像に対して作業者が判断を行って、欠陥のある原始表示パネル画像を判断し、欠陥タイプをラベル付けする。そして、この人手による判断の結果を正解結果として推論演算装置100に入力する。
他の例では、一定数の原始製品画像をランダムに抽出して人手による判断を行い、人手による判断の結果を取得する。
他の例では、指定されたバッチの表示パネルの原始製品画像に対して人手による判断を行い、人手による判断結果を取得する。
例えば、動作S20において、第1の推論モデルに基づいて、生産製造段階で生成された処理待ちデータの推論演算を行う過程中に、動作S30を行って第1の推論モデルの性能を評価する。
推論演算装置100が、第1の推論モデルを更新する必要があると判定した場合、推論演算装置100は、第1の推論モデルを更新する(動作S40)
上記のような推論演算装置100は、第1の推論モデルの性能を評価することによって、第1の推論モデルの性能が現在の推論需要を満たしているか否かを知ることができる。また、推論演算装置100は、性能評価結果に基づいて第1の推論モデルの性能の変化傾向を予め判断することができる。そのため、推論演算装置100は、第1の推論モデルを更新する必要があるか否かを判定することができる。
推論演算装置100は、第1の推論モデルの性能が現在の推論需要を満たさない検知した場合、又は、第1の推論モデルの性能が推論需要を満たさない予め判定によって検知した場合、即ち、第1の推論モデルを更新する必要があると判定した場合、第1の推論モデルを更新する。
これにより、第1の推論モデルの性能をモニタリングすることができ、その性能が推論需要を満たさない場合、それを即時に検知して、第1の推論モデルを更新することができる。そのため、推論演算装置100に用いられる第1の推論モデルの性能が要求を満たすことを保証し、推論演算装置100の推論結果の正確さを向上させることができる。さらに、この推論結果に基づいて行われた決定指令の正確さを向上させることができる。
なお、推論演算装置100の適用シーンは特に限定されず、例えば、推論演算装置100は、エッジ側機器として使用されてもよい。
また、推論演算装置100は、ユーザ側の機器即ち生産機器に統合されてもよい。
一例として、表示パネルの生産製造を例にとると、推論演算装置100は、ユーザ側機器から表示パネルの生産製造段階に生成された原始製品画像を取得し、これらの原始製品画像を、推論演算装置100による処理を要する未処理データとする。
ユーザ側機器は、自動光学検出( Automated Optical Inspection、AOIと略称する)機器、分散ファイルシステム(Distributed File System、DFSと略称する)又は画像サーバを含んでよい。また、当該ユーザ側機器は、例えばファイル転送プロトコル(File Transfer Protocol、FTPと略称する)に基づいた方法を採用し、生産過程中の表示パネルの画像を、原始製品画像、即ち、処理待ちデータとしてリアルタイムでキャプチャしてもよい。
なお、ここでは、処理待ちデータとして画像格式を例示しているが、実際に処理待ちデータは、様々な格式のデータを含んでよい。
例えば、処理待ちデータは、ドキュメントファイル、写真、図面資料、マイクロフィルム、映像、音声などの非構造化データのうちの少なくとも1つを含んでもよい。また、処理待ちデータは、データベースで管理される情報などの構造化情報のうちの少なくとも1つを含んでもよいが、これらに限定されない。
そして、推論演算装置100は、第1の推論モデルに基づいて推論演算を行う。
ここで、ニューラルネットワークモデルが第1の推論モデルである場合を例にとると、ニューラルネットワークモデルは、原始製品画像から欠陥を識別し、欠陥情報をラベル付けする。ラベル付けされた欠陥情報は、以下に列挙するもののうちの少なくとも1つを含む。
欠陥情報は、欠陥タイプについての情報を含んでもよい
例示的に、欠陥タイプとしては、パーティクル(particle)、残渣(remain)、ライン不良(line)、穴(hole)、スプラッシュ(splash)、静電破壊、しわ(wrinkle)、膜変色(film color)、気泡(bubble)などの分類が挙げられる。
なお、これらの分類は、さらにいくつかの等級に区分することができ、例えば、欠陥タイプがパーティクルであり、Pがパーティクルを表す場合、形成されるパーティクルの形態別に、この欠陥タイプはさらに複数の等級に区分することができる。例えば、P0が通常微粒子(Normal Particle)、P1が沈降性微粒子(Wall Particle)、P2が砂微粒子(Sand Particle)などを表す。
欠陥情報は、欠陥位置についての情報を含んでもよい
例示的に、欠陥位置としては、識別された欠陥が位置する回路基板、欠陥が位置する階層、又は欠陥が位置するマスク層などの欠陥位置を示すことができる情報のうちの少なくとも1つを含む。
識別された欠陥がある回路基板に位置する場合を例にとると、欠陥位置は、当該回路基板における当該欠陥の具体的な座標で示すことができる。た、矩形枠又は円形枠などの表示枠によって当該欠陥を選定し、表示枠に関連するある点の座標、例えば、矩形枠のある頂点の座標、又は円形枠の円心の座標で当該欠陥の座標で示すことできる。
欠陥情報は、欠陥とアレイ基板(Array Substrate)の回路素子との関係についての情報を含んでもよいこれは、例えば、欠陥領域が覆ったゲート電極の数、欠陥が完全にゲート電極内にあるか、交わっているか、その近傍にあるか等についての情報である。
欠陥情報は、欠陥のサイズについての情報を含んでもよい欠陥のサイズについての情報は、欠陥の長さ又は欠陥の領域面積であってもよく、例えば、欠陥が有効表示領域に占める面積であってもよい。
また、一例として、上記欠陥情報は、コード(例えば、パーティクルという欠陥タイプの分類に対応するコードはP0~P2である)、座標値、数字、文字記述等、種々の形態で示されてもよい。
一例では、原始製品画像内の欠陥を識別した後、第1の推論モデルは、識別された欠陥に欠陥タイプと欠陥位置をラベル付けする。ここで、識別された欠陥タイプのコードによって、それに対応する欠陥タイプをラベル付けして、矩形線枠で原始画像における欠陥位置をラベル付けして、対応する画像における矩形線枠の座標情報を記録する。
これに基づいて、いくつかの実施例では、第1の推論モデルが処理待ちデータに対して推論演算を行う過程中に、第1の推論モデルの性能を評価する(動作S30)。この場合、一例として、第1の推論モデルの性能を評価するための評価パラメータは、推論演算における第1の推論モデルの正解率(Accuracy)、適合率(Precision)、再現率(Recall)、F値(FScore)のうちの少なくとも1つを含む。
ここで、正解率は、下記の数式(1)によって算出され、適合率は、下記の数式(2)によって算出され、再現率は、下記の数式(3)によって算出され、F値は、以下の数式(4)によって算出される。
Figure 0007442550000001
・・・数式(1)
Figure 0007442550000002
・・・数式(2)
Figure 0007442550000003
・・・数式(3)
Figure 0007442550000004
・・・数式(4)
ここで、TP(True Positive、真陽性)は、演算結果が正であり、実際結果も正であることを示す。つまり、TPは、推論モデルが推論演算を行った後得られた演算結果がA(ここで、Aは結果の一種を意味する)で、実際結果もAであることを示す。この場合、演算結果と実際結果は一致する。
FP(False Positive、偽陽性)は、演算結果が正であるが、実際結果が負であることを示す。つまり、FPは、推論モデルが推論演算を行った後得られた演算結果がAで、実際結果がAでないことを示す。この場合、演算結果と実際結果は一致しない。
FN(False Negative、偽陰性)は、演算結果が負であるが、実際結果が正であることを示す。つまり、FNは、推論モデルが推論演算を行った後得られた演算結果がAではなく、実際結果がAであることを示す。この場合、演算結果と実際結果は一致しない。
TN(True Negative、真陰性)は、演算結果が負であり、実際結果も負であることを示す。つまり、TNは、推論モデルが推論演算を行った後得られた演算結果がAではなく、実際結果もAでないことを示す。この場合、演算結果と実際結果は一致する。
なお、正解率、適合率、再現率、及びF値は、第1推論モデルの性能を特徴付ける評価パラメータである。第1の推論モデルの性能を評価するとき、選択される評価パラメータは、推論演算装置100の実際の推論演算需要に基づいて定められてもよい。
一例として、推論演算装置100の推論演算需要では、適合率がより重視される場合、適合率が、推論モデルの性能を評価するための評価パラメータとして用いられる。
別の例として、第1の推論モデルの性能評価は、F値を用いて行われる。ここで、F値は、適合率と再現率に重み付けして取得した評価パラメータである。
ここで、F値の算出に用いられるβは、重み係数であり、βの大きさを調整することにより、性能評価時の適合率と再現率の偏重比率を調整することができる。βの大きさは、適用する場面に応じて適宜調整することができ、例えば、βを1とすると、第1の推論モデルの性能を評価するとき、適合率と再現率は評価結果に同じ影響を与える。即ち適合率と再現率の偏重比率は同一である。
一例では、推論演算装置100は、第1の推論モデルの推論演算によって、1000枚の画像について猫であるか犬であるかを判断する必要がある。ここで、推論演算装置100の判断結果は、第1の推論モデルの推論演算による決定である。
手による判断によると、この1000枚の画像は、いずれも犬の画像であったとする。即ち、実際結果としては、この1000枚の画像は、いずれも犬の画像であったとする
第1の推論モデルによる推論演算を行い、得られた演算結果は、犬であると判断された画像は720枚、猫であると判断された画像は80枚、残りの200枚は判断できないと判定されたとする
この場合、演算結果が犬であり、実際結果も犬である画像は720枚である。また、演算結果が猫であ、実際結果猫である画像は0枚である。即ちTPは720である。
演算結果が犬であ、実際結果が犬でない画像は0枚である。また、演算結果が猫であ、実際結果が猫でない画像は80枚である。即ちFPは80である。
演算結果が犬ではな、実際結果が犬である画像は280枚である。また、演算結果が猫ではな、実際結果が猫である画像は0枚である。即ちFNは280である。
ただし、演算結果が犬ではないと判断された画像は、演算結果が猫である画像の数と判断できない画像の数とを含む。
演算結果が犬ではなく、実際結果も犬ではない画像は0枚である。また、演算結果が猫ではなく、実際結果も猫ではない画像は920枚である。即ちTNは920である。
ただし、演算結果が猫ではないと判断された画像は、演算結果が犬である画像の数と判断できない画像の数とを含む。
数式(1)、(2)、(3)、及び(4)にTP、FP、FNとTNの値を代入すると、βが1の場合、正解率が0.82、適合率が0.9、再現率が0.72、F値が0.8、ということが得られる。
いくつかの実施例では、推論演算装置100の実際の推論演算需要に基づいて、評価パラメータの下限値を設定する。
例えば、第1推論モデルに対する少なくとも1回の性能評価において、得られた評価パラメータ値がすべて該下限値よりも低い場合、評価結果は、第1の推論モデルの性能が低下したと判定する。また、得られた評価パラメータが下限値以上である場合、評価結果は、第1の推論モデルの性能が要求を満たすと判定する。
また、例えば、数回の連続した性能評価において、得られた評価パラメータが、時々該下限値以上となり、時々該前記下限値より低くなる場合、評価結果は、推論モデルの性能が変動したと判定する。得られたパラメータがいずれも下限値以上である場合、評価結果は、第1の推論モデルの性能が要求を満たすと判定する。
例えば、適合率を評価パラメータとする場合を例にとると、適合率の下限値が0.95に設定され、1回の性能評価で、得られた第1の推論モデルの適合率が0.92である場合、性能が低下したという評価結果になる。別の例では、5回の連続した性能評価において、得られた第1の推論モデル適合率が、順に0.96、093、097、0.92、0.95である場合、性能が変動したという評価結果になる。
幾つかの実施例では、動作S30において、第1の推論モデルの性能を評価することによって、第1の推論モデルを更新する必要がある状況は、第1の推論モデルの性能が変動又は低下したことを含む。ここで、評価パラメータの連続した期間内の変化状況に基づいて、第1の推論モデルの性能が変動又は低下したか否かを判断する。
幾つかの実施例では、図3と図6に示すように、動作S40において第1の推論モデルに対して行う更新として、以下を含む。
第1の推論モデルに対して行う更新は、第2の訓練サンプルライブラリに基づいて、モデル訓練を行い、第2の推論モデルを取得すること(動作S401a)を含む。
また、第1の推論モデルに対して行う更新は、モデル訓練装置200にモデル更新要求を送信し、第2の推論モデルを取得すること(動作S401b)を含む。
ここで、第2の訓練サンプルライブラリは、履歴データからの訓練サンプル、及び/又は推論結果からの、再判定を受けた訓練サンプルを含む。
第1の推論モデルに対して行う更新は、第2の推論モデルを取得し、第2の推論モデルが更新条件を満たす場合、第2の推論モデルを用いて第1の推論モデルを更新すること(動作S402)を含む。
なお、上記「推論結果」とは、動作S20において、第1の推論モデルによる推論演算が行われた後に得られた推論結果を意味する。
ここで、後述する「推論結果からの、再判定を受けた」とは、第1の推論モデルによる推論結果に対して再判定を行うことを意味する。例えば、第1の推論モデルによる推論結果に対して、人手による判断処理を行い、正解結果がラベル付けされた生産データを取得する。
表示パネルの生産製造を例にとると、処理待ちデータは、表示パネルの原始製品画像である。これらの表示パネルの原始製品画像を推論演算装置100に送信し、第1推論モデルによって推論演算を行い、推論結果を取得する。それから当該推論結果を再判定した後、正解結果とラベル付けされた表示パネルの製品画像を取得し、これを第2のサンプル訓練ライブラリの訓練サンプルのソースとする。
第2の訓練サンプルライブラリは、推論結果からの、再判定を受けた訓練サンプルを含む。
推論結果は、生産製造過程中に連続的に推論演算装置100によって生成される。そのため、これを第2の訓練サンプルライブラリの訓練サンプルのソースとする、第2の訓練サンプルライブラリの訓練サンプルをより新しくして、生産製造過程中の生産データで新たに出現された特徴を有する訓練サンプルを含むようにできる。
これにより、推論演算装置100がモデル訓練で新しい訓練サンプルを用いることが確保できるため、第1の推論モデルに比べて、得られた第2の推論モデルは、新たに出現した、新しい特徴を有する処理待ちデータに対する推論演算能力が高い。
第2の推論モデルを用いて第1の推論モデルを更新する場合、推論演算装置100による推論結果の正確さを向上させることができる。
ここで、S401aにおける第2の訓練サンプルライブラリは、一例として、図3に示すように、推論演算装置100当該第2の訓練サンプルライブラリを含み、第2の訓練サンプルライブラリは、メモリ120に記憶される。
他の例として、第2の訓練サンプルライブラリは、他のメモリに記憶され、推論演算装置100は、当該他のメモリから第2の訓練サンプルライブラリを取得してもよい
一例として、図3に示すように、推論演算装置100は、エッジ側機器としてよく、モデル訓練装置は、クラウド機器としてよい。即ち、推論演算装置100(エッジ側機器)は、モデル訓練装置200(クラウド機器)よりもユーザ側装置に近い。
さらに、推論演算装置100は、さらに、有線又は無線の方法で推論演算装置100がユーザ側機器と通信して情報のインタラクションを実現する結合インターフェース150を含んでよい。ここで、結合インターフェース150は、有線又は無線接続を可能にする任意のハードウェア又はソフトウェアのインターフェースであり得る。
推論演算装置100は、さらに、モデル訓練装置200と通信接続して情報のインタラクションを実現するネットワークインターフェース140を含んでよい。
ここで、推論演算装置100は、このネットワークインターフェース140を介して、伝送制御プロトコル/インターネットプロトコル(Transmission Control Protocol/Internet Protocol、TCP/IPと略称する)又はハイパーテキスト転送プロトコル(Hyper Text Transfer Protocol、HTTPと略称する)などのプロトコルのうちの少なくとも1つを利用して、例えば、モデル訓練装置200等の外部と、情報のインタラクションを行う。
例えば、推論演算装置100は、ネットワークインターフェース140を介して、モデル訓練装置200と通信接続し、第1の推論モデルを受信する。又は、S401bにおいてモデル訓練装置200にモデル更新要求を送信し、第2の推論モデルを取得する。即ち、モデル訓練装置200との情報のインタラクションを実現する。
幾つかの実施例では、図6に示すように、第2の推論モデルが満たす必要がある更新条件は、第2の推論モデルに対してテストを行い、第2の推論モデルが前記テストに合格することを含む。
ここで、前記テストは、テストサンプルに基づいて第2の推論モデルの性能を評価することを含む。性能が評価要件を満たす場合、テストに合格したと判定される。
ここで、テストサンプルソースは、特に限定されず、例えば、当該テストサンプルは、前記履歴データ、即ち、正しい識別情報がラベル付けされた生産データから得られる。
また、別の例として、当該テストサンプルは、人手による判断を受けた処理待ちデータから得られる。
また、さらに別の例として、当該テストサンプルの一部は、前記履歴データから得られ、一部は、人手による判断を受けた処理待ちデータから得られるものである。
もちろん、上記のようなテストサンプルソースは、これらに限定されない。
また、一定のテスト頻度や一定のテスト度合いに応じて、複数のテストサンプルの中から特定のテストサンプルを選び出し、これに基づいて少なくとも1つのテストスケジュールを生成してもよい。そして推論演算装置100は、前記少なくとも1つのテストスケジュールに基づいて前記第2の推論モデルをテストしてもよい。
これに基づいて、いくつかの実施例では、上記更新条件は、さらに、第2の推論モデルでグレースケールデプロイを行い、かつグレースケールデプロイの過程中に当該第2の推論モデルの性能を評価し、当該第2の推論モデルの性能が評価要件を満たすことを含む。
ただし、「グレースケールデプロイ」とは、予定時間内に、推論演算装置100が、第2の推論モデルを用いて、処理待ちデータのシミュレーション処理を行うことである。
一例として、グレースケールデプロイの過程中に、推論演算装置100は、第1の推論モデルと第2の推論モデルを同時に用いて、ユーザ側機器から送信された処理待ちデータを処理する。
この過程中に、推論演算装置100は、第1の推論モデルの推論結果を出力する。第2の推論モデルの推論結果は、その性能を評価するためにのみ使用され、本当の推論結果として出力されない。
即ち、推論演算装置100は、グレースケールデプロイの過程中に第2の推論モデルによる推論結果に基づいて決定命令を生成しない。そのため、第2の推論モデルに対するグレースケールは、推論演算手段100が処理待ちデータを処理することに影響を与えず、生産ラインの正常生産にも影響を与えない。
第2の推論モデルに対してシミュレーション処理の過程中の性能を評価することにより、第2の推論モデルの性能が要求を満たすことができるか否かを予測する。
グレースケールデプロイの過程中に、第2の推論モデルが推論演算を行う処理待ちデータは、いずれも人手による判断をさらに行う必要がある。
ここで、人手による判断の結果を正解結果とし、推論演算装置100、人手による判断の結果と第2の推論モデルの推論結果とを比較する。これによって、推論演算装置100は、グレースケールデプロイの過程中に当該第2の推論モデルの性能を評価する。
一例として、ユーザ側機器から送信された表示パネルの原始製品画像の1枚のコピーを、推論演算装置100に送信し、グレースケールデプロイの過程における第2の推論モデルのシミュレーション処理に使用する。そして、もう一枚のコピーを、人手による判断で正解結果を取得するために使用する。推論演算装置100は、推論結果と正解結果とを比較することで、第2の推論モデルに対する性能評価を実現する。
当業者であれば、グレースケールデプロイで第2の推論モデルの性能を評価するとき、同様に、正解率(Accuracy)、適合率(Precision)、再現率(Recall)、及びF値(FScore)のうちの少なくとも1つを評価パラメータとして、第2の推論モデルの性能を評価できることを理解でき、ここでは、特に限定しない。
なお、上記のようなテストとグレースケールデプロイでは、人手による判断を受けた処理待ちデータには、すでに正解結果がラベル付けされていた。従って、正解結果がラベル付けされた処理待ちデータを第1の訓練サンプルライブラリ及び/又は第2の訓練サンプルライブラリに送信して、モデル訓練中の訓練サンプルとすることができる。
これにより第1の訓練サンプルライブラリ及び/又は第2の訓練サンプルライブラリの更新を実現することができる。
ただし、第1の訓練サンプルライブラリは、モデル訓練装置200がモデル訓練を行う際に基づいた訓練サンプルライブラリである。
いくつかの実施例では、上述のような更新条件は、さらに、第2の推論モデルの配置情報を検証し、第2の推論モデルの配置情報が、行われる必要のある推論演算と一致することを含む。
ここで、「行われる必要のある推論演算」は、推論演算装置100が処理待ちデータに対して行う推論演算を指す。
表示パネルの生産製造過程において、欠陥と欠陥タイプを識別する必要がある場合を例にとると、「行われる必要のある推論演算」とは、推論演算装置100が、原始製品画像における欠陥を識別し、さらに欠陥種類を識別する必要があることをいう。
このように、第2の推論モデルの配置情報を検証することにより、第2の推論モデルが伝達過程でそのデータが破壊されたり改ざんされたりしたか否かを検出することができ、推論演算装置100が得られた第2の推論モデルと推論演算装置100の推論演算需要との一致を保証する。
いくつかの実施例では、図6に示すように、第2の訓練サンプルライブラリに基づいてモデル訓練を行う(動作S401a)前に、又は、モデル訓練装置200にモデル更新要求を送信する(S401b)前に、推論演算装置100は、さらに以下の動作を行う。
推論演算装置100は、モデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にあるか否かを判定する(動作S35)
モデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にある場合、推論演算装置100は、モデル訓練を行動作S401a)即ち、このような場合、推論演算装置100は、モデル訓練を行い、第2の推論モデルを取得する。
モデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にない場合、推論演算装置100は、モデル訓練装置200にモデル更新要求を送信する。即ち、このような場合、モデル訓練装置200は、モデル訓練を行い、第2の推論モデルを取得する。
ここで、「設定された訓練パラメータ範囲」とは、推論演算装置100の訓練能力が行われるモデル訓練の要件に合致する場合に対応する訓練パラメータ範囲を意味する。
つまり、行われるモデル訓練の訓練パラメータが設定された訓練パラメータ範囲内にある場合、推論演算装置100のモデル訓練能力は、行われるモデル訓練の要件に合致する。
この場合、推論演算装置100自身のモデル訓練能力は、今回のモデル訓練を完成することができるため、推論演算装置100は、今回のモデル訓練を行うことで第2の推論モデルを取得することができる。
逆に、行われるモデル訓練の訓練パラメータが設定された訓練パラメータの範囲内にない場合、推論演算装置100のモデル訓練能力は、設定されたモデル訓練の要件に合致しない。
この場合、推論演算装置100自身のモデル訓練能力は、今回のモデル訓練を完成することができないため、モデル訓練装置200にモデル更新要求を送信して、モデル訓練装置200により今回のモデル訓練を行い、第2の推論モデルを取得する必要がある。
一例として、モデル訓練装置200は、クラウド機器である。
いくつかの実施例では、上述のような訓練パラメータは、モデル訓練に必要なデータサイズ、訓練継続時間、及び演算能力のうちの少なくとも1つを含む。
例えば、訓練パラメータがモデル訓練時に必要なデータサイズと予測訓練継続時間である場合を例にとる。あるモデル訓練に必要なデータサイズは、2000枚の画像及び対応する2000個のラベルであり、必要な訓練継続時間は、15minであるとする。また、設定されたデータサイズは3000枚の画像及び対応する3000枚のラベルであり、設定された訓練継続時間は、20minであるとする
この場合、モデル訓練に必要なデータサイズが設定されたデータサイズの範囲内にあり、必要な訓練継続時間が設定された訓練時間の範囲内にある。つまり、推論演算装置100のモデル訓練能力がモデル訓練要件に合致し、推論演算装置100は今回のモデル訓練を行う。つまり、S401aを実行する。
逆に、別のモデル訓練に必要なデータサイズが設定されたデータサイズの範囲内でなく、必要な訓練時間が設定された訓練時間の範囲内でない場合、エッジ側機器のモデル訓練能力が今回のモデル訓練要件に合致しないことを意味する。そのため、推論演算装置100は、モデル訓練装置200に今回のモデル訓練を行わせるために、モデル更新要求をモデル訓練装置200に送信する。
このように、推論演算装置100のモデル訓練能力が1回のモデル訓練要件に合致する場合、推論演算装置100にモデル訓練を行わせる。このようにすると、モデル訓練装置200に要求を送信する時間と、モデル訓練装置200からの第2の推論モデルを受信する時間とを省ける。その結果として、推論演算装置100は、よりタイムリーに推論演算需要を満たす推論モデルを取得して、推論モデルを更新することができ、推論結果の正確性をさらに向上させる。
また、上述したようなモデル訓練装置200がクラウド機器である場合、クラウド機器にモデル訓練を全て要求する必要がある場合と比較して、推論演算装置100がモデル訓練要件に合致する場合に、推論演算装置100に自律的にモデル訓練を行わせる場合、クラウド機器の負担を軽減し、クラウド機器リソースの無駄な占有を減らし、クラウド機器のリソース利用率を向上させることができる。
いくつかの実施例では、図6に示すように、第2の推論モデルを用いて第1推論モデルを更新する場合、即ち、S402が実行された場合、推論演算装置100は、以下の動作をさらに実行する。
S402が実行された場合、推論演算装置100は、第2の推論モデルの性能を評価し、第1の推論モデルの性能と第2の推論モデルの性能を比較する(動作S50)
第2の推論モデルの性能が第1の推論モデルの性能よりも劣っている場合、推論演算装置100は、第2の推論モデルを第1の推論モデルにロールバックし、モデル訓練を改めて行うか、又はモデル訓練を行うようにモデル訓練装置200に改めて要求する。
このように、実際に処理待ちデータを処理する過程では、第2の推論モデルの性能が第1の推論モデルの性能よりも劣っている場合、推論演算装置100は、更新後の第2の推論モデルを更新前の第1の推論モデルにロールバックすることができる。その後、推論演算装置100は、モデル訓練を改めて行うか、又はモデル訓練を行うようにモデル訓練装置200に改めて要求することができる。
いくつかの実施例では、図7に示すように、動作S30において、第1の推論モデルの性能を評価し、第1の推論モデルを更新することは以下の動作を含む。
推論演算装置100は、第3の推論モデルを受信する(動作S80)
当該第3の推論モデルは、モデル訓練装置200が推論演算装置100のモデル更新要求を受信していない状況で、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行って取得されたものである。
ここで、更新後の第1の訓練サンプルライブラリは、前記推論結果からの、再判定を受けた訓練サンプルを含む。つまり、更新後の第1の訓練サンプルライブラリは、推論結果からの、再判定を受けた訓練サンプルを用いて、第1の訓練サンプルライブラリを更新することで取得されたものである。
推論演算装置100は、第1の推論モデルと第3の推論モデルの性能を比較する(動作S81)
推論演算装置100は、第3の推論モデルの性能が第1の推論モデルの性能よりも高い又は第1の推論モデルに異常が発生した場合、第3の推論モデルを用いて第1の推論モデルを更新する(動作S82)
こうして、更新後の第1の訓練サンプルライブラリの訓練サンプルはより新しいものとなり、生産準備過程において生産データに新たに出現した特徴を有する訓練サンプルを含み、モデル訓練装置200がモデル訓練中により新しい訓練サンプルを使用することを保証できる。このため、第1の推論モデルに比べて、得られた第3推論モデルは、新たに出現した新しい特徴を持つ処理待ちデータに対する推論演算能力が高い。第3の推論モデルを用いて第1の推論モデルを更新する場合、推論演算装置100による推論結果の正確さを向上させることができる。
また、第1の推論モデルに異常が発生したとは、第1の推論モデルが正しい推論結果を出力できないことを指す。
例えば、第1の推論モデルの性能が突然低下する場合や、第1の推論モデル要件通りに推論結果を出力しなくなる場合や、又は、第1の推論モデルの推論演算時間が長すぎてタイムアウトが深刻となる場合である
即ち、第3の推論モデルは、バックアップ推論モデルとして、第1の推論モデルに異常が発生した場合にそれを置換することができる。
また、第1の推論モデルの性能を評価して、第1の推論モデルを更新する必要がある場合、つまり第1の推論モデルの性能が要件を満たさなくなった場合、推論演算装置100又はモデル訓練装置200がモデル訓練を行っている間に、推論演算装置100は、性能が要件を満たさない第1の推論モデルに代えて第3の推論モデルを用いて処理待ちデータを処理する。これにより推論演算装置100の正常な動作を保証することができる。
いくつかの実施例では、図6に示すように、推論結果を取得した(動作S20)後、推論演算装置100は、さらに、推論結果に基づいて、決定命令を生成する(動作S70)動作を実行する。
ここで、欠陥情報は、欠陥があると識別された原始製品画像、及び欠陥位置と欠陥タイプを含む。決定命令は、原始製品画像の欠陥情報に基づいて、欠陥のある前記原始製品画像に対応する製品に対して、対応する欠陥処理を行うことを含む。
一例として、識別された欠陥タイプに基づいて、この欠陥タイプに対応する修復対策を提供する。
別の例として、履歴データの分析に基づいて、このタイプの欠陥を生じ得る原因を提供する。ただし、欠陥を生じ得る原因とは、例えば、1つ又は複数の工程機器の故障や、幾つかの工程パラメータの設定が合理的でないこと等である。
また別の例として、未知欠陥や大規模な欠陥があった場合、警告を通報する。
なお、決定命令は、推論演算装置100によって生成されなくてもよい。
例えば、推論演算装置100が推論結果を取得した後、推論結果をクラウド機器にアップロードし、クラウド機器が該推論結果に対して演算分析を行い、決定結果命令を生成して、さらに推論演算装置100に返信する。
この場合、推論演算装置100は、前述のユーザ側-エッジ側-クラウド演算アーキテクチャにおけるエッジ側機器として用いられる。
エッジ側装置は、処理待ちデータに対して初歩的な処理(推論演算)を行った後、推論結果をクラウド機器に送信する。クラウド機器は、その高度な演算能力により、決定命令を生成してエッジ側装置に返信する。
これにより、工場生産設備の統一的な計画、管理、配置等を実現することができる。
図5~図6に示すように、本開示のいくつかの実施例では、少なくとも1つのプロセッサ210とメモリ220を含むモデル訓練装置200が提供される。ここで、メモリ120にはプログラム命令が記憶される。
当該プログラム命令は、前記少なくとも1つのプロセッサ210によって実行可能であり、モデル訓練装置200は、以下の動作A10~A40を行う。
モデル訓練装置200は、第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する(動作A10)
ここで、第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含む。
ここで、履歴データとは、人手による判断を受けた生産データであり、正解結果がラベル付けされた生産データである。
一例として、モデル訓練装置200は、メモリ220に記憶された第1の訓練サンプルライブラリを含む。別の例として、第1の訓練サンプルライブラリは、メモリ220以外の他のメモリに記憶される。
モデル訓練装置200は、第1の推論モデルを推論演算装置100に送信する(動作A20)
モデル訓練装置200は、推論演算装置100からのモデル更新要求を受信した場合、以下の動作を行う。
モデル訓練装置200は、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する(動作A30)。ここで、更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを含む。
モデル訓練装置200は、第2の推論モデルを推論演算装置100に送信する(動作A40)
更新後の第1の訓練サンプルライブラリの訓練サンプルは新しく、生産製造過程において生産データに新たに出現した特徴を有する訓練サンプルを含む。これによりモデル訓練装置200がモデル訓練中により新しい訓練サンプルを使用することが保証できる。
更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行った後に得られた第2の推論モデルは、新たに出現した新しい特徴を有する処理待ちデータに対する推論演算能力が高い。
第2の推論モデルを用いて第1の推論モデルを更新すると、推論演算装置100による推論結果の正確さを向上させることができる。
一例として、図5に示すように、モデル訓練装置200は、ネットワークインターフェース240をさらに含む。モデル訓練装置200は、ネットワークインターフェース240を介して、他の機器(例えば、ユーザ側機器及び/又はモデル訓練装置200)と通信接続して、情報のインタラクションを実現することができる。
ここで、モデル訓練装置200は、このネットワークインターフェース240を介して、伝送制御プロトコル/インターネットプロトコル(Transmission Control Protocol/Internet Protocol、TCP/IPと略称する)又はハイパーテキスト転送プロトコル(Hyper Text Transfer Protocol、HTTPと略称する)などのプロトコルのうちの少なくとも1つを利用して、例えば、推論演算装置100等の外部と情報のインタラクションを行う。
例えば、モデル訓練装置200は、ネットワークインターフェース240を介して推論演算モデル100と通信し、第1の推論モデルを推論演算装置100に送信したり、推論演算装置100からのモデル更新要求を受信したり、第2の推論モデルを推論演算装置100に送信したりすることができる。
いくつかの実施例では、第1の訓練サンプルライブラリに基づくモデル訓練の過程中、即ち動作A10において、又は更新後の第1の訓練サンプルライブラリに基づくモデル訓練の過程中、即ち動作A30において、図8に示すように、モデル訓練装置200は、以下の動作を行う。
モデル訓練装置200は、訓練タスク情報を生成する(動作B1)
モデル訓練装置200は、訓練タスク情報に基づいて、訓練配置データを生成する(動作B2)
モデル訓練装置200は、対応する訓練サンプルライブラリから訓練サンプルを取得し、訓練サンプルと訓練配置データに基づいてモデル訓練を行い、対応する推論モデルを取得する(動作B3)
上記の、及び後述する「対応する訓練サンプルライブラリ」と「対応する推論モデル」は、行われるモデル訓練に対するものである。即ち、動作A10が行われると、第1の訓練サンプルライブラリから訓練サンプルを取得し、モデル訓練を行った後、第1の推論モデルを取得する。動作A30が行われると、更新後の第1の訓練サンプルライブラリから訓練サンプルを取得し、モデル訓練を行った後、第2の推論モデルを取得する。
また、訓練タスク情報は、受信した推論演算装置100から送信されたモデル更新要求に基づいて生成され、モデル訓練の訓練要件を含む。
例えば、今回のモデル訓練により得られた第2の推論モデルは、特定の推論演算機能を有し、演算結果を取得できる必要がある。
訓練配置データは、訓練要件に応じて生成された訓練スケジュール情報を含み、訓練スケジュール情報に基づいて今回のモデル訓練に必要な呼び出しの訓練サンプルを知っていることができる。一例として、訓練スケジュール情報は、データ識別子を含み、このデータ識別子によりモデル訓練に必要な呼び出しの訓練サンプルを見つけることができる。
一例として、図9に示すように、B3において、モデル訓練を行う過程で、モデル訓練装置200は、以下の動作をさらに行う。
モデル訓練装置200は、モデル訓練の過程を監視する(動作B31)
モデル訓練装置200は、モデル訓練の過程に異常が発生した場合、訓練配置データを更新する(動作B32)
モデル訓練装置200は、訓練サンプルと更新後の訓練配置データに基づいてモデル訓練を行う(動作B33)
幾つかの実施例では、第1の推論モデルを推論演算装置100に送信する前即ち、図6の動作A20の前、又は第2の推論モデルを推論演算装置100に送信する前即ち、図6の動作A40の前に、モデル訓練装置00は、以下の動作をさらに行う。
モデル訓練装置200は、対応する推論モデルのモデルバージョン情報を検証し、モデルバージョン情報が正しいか否かを判定する。
モデルバージョン情報が正しい場合、対応する推論モデルを推論演算装置100に送信する。
ここで、第1の推論モデルが送信される場合、モデル訓練装置200は、モデルバージョン情報が正しいと判定すると、動作A20を行う。第2の推論モデルが送信される場合、モデル訓練装置200は、モデルバージョン情報が正しいと判定すると、動作A40を行う。
モデルバージョン情報が正しくない場合、モデルバージョンが要件を満たす対応する推論モデルを検索する。検出された場合、モデル訓練装置200は、それを推論演算装置100に送信する。また、検出されなかった場合、モデル訓練装置200は、通知情報を推論演算装置100に送信する。
推論演算装置100は、受信した通知情報に基づいて、モデル訓練を改めて行うようにモデル訓練装置に要求するか、又は動作を停止する。
こうして、第1の推論モデル及び/又は第2の推論モデルを送信する前に、そのモデルのバージョン情報が正しいかどうかを検出することで、正しいバージョンの第1の推論モデル又は第2の推論モデルを推論演算装置100に送信することを保証することができる。
いくつかの実施例では、図5と図7に示すように、モデル訓練装置200は、第1の訓練サンプルライブラリを含み、モデル訓練装置200は、さらに以下の動作を行う。
モデル訓練装置200は、第1の訓練サンプルライブラリを更新する(動作A50)
モデル訓練装置200は、推論演算装置100から送信されたモデル更新要求を受信していない状況で、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第3の推論モデルを取得する(動作A60)
モデル訓練装置200は、第3の推論モデルを推論演算装置100に送信する(動作A70)
なお、第3の推論モデルは、モデル訓練装置200がモデル更新要求を受信していない状況で、モデル訓練を行って取得されたものである。つまり、第3の推論モデルは、モデル訓練装置200が、更新後の第1の訓練サンプルライブラリに基づいて、自らモデル訓練を行って取得されたものである。
第3推論モデルについて、前文で詳細に説明されているので、ここでは省略する。
本開示のいくつかの実施例では、さらに、上記のいずれかの実施例における推論演算装置100に設けられたコンピュータ可読記憶媒体が提供される。
当該コンピュータ可読記憶媒体には、プログラム命令が記憶され、プログラム命令は、推論演算装置100の少なくとも1つのプロセッサ110によって実行可能であり、推論演算装置100に以下の動作S10~S40を実行させる。
推論演算装置100は、第1の推論モデルを受信する(動作S10)
ここで、第1の推論モデルは、第1の訓練サンプルライブラリに基づいて、モデル訓練を行うことで取得されたものであり、第1の訓練サンプルライブラリは、履歴データからの訓練サンプルを含む。
推論演算装置100は、第1の推論モデルに基づいて、工業生産中の処理待ちデータの推論演算を行い、推論結果を取得する(動作S20)
推論演算装置100は、第1の推論モデルを更新する必要があるか否かを定めるように、第1の推論モデルの性能を評価する(動作S30)
推論演算装置100は、第1の推論モデルを更新する必要がある場合、第1の推論モデルを更新する(動作S40)
このコンピュータ可読記憶媒体は、同様に推論結果の正確さを向上させる効果があるが、ここでは詳細を省略する。
本開示のいくつかの実施例では、さらに、上記のいずれかの実施例に記載のモデル訓練装置200に設けられたコンピュータ可読記憶媒体が提供される。
当該コンピュータ可読記憶媒体にはプログラム命令が記憶され、当該プログラム命令は、モデル訓練装置200の少なくとも1つのプロセッサ210によって実行可能であり、モデル訓練装置200に以下の動作A10~A40を実行させる。
モデル訓練装置200は、第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する(動作A10)
第1の訓練サンプルライブラリは、履歴データからの訓練サンプルを含む。
モデル訓練装置200は、第1の推論モデルを推論演算装置100に送信する(動作A20)
モデル訓練装置200は、推論演算装置100からのモデル更新要求を受信した場合、以下の動作A30を実行する。
モデル訓練装置200は、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する(動作A30)
当該更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを用いて第1の訓練サンプルライブラリを更新したものである。
モデル訓練装置200は、第2の推論モデルを推論演算装置100に送信する(動作A40)
このコンピュータ可読記憶媒体は、同様に推論結果の正確さを向上させる効果があるが、ここでは詳細を省略する。
本開示のいくつかの実施例では、図10に示すように、上記のいずれかの実施例に記載の推論演算装置100と、上記のいずれかの実施例に記載のモデル訓練装置200とを含む推論演算システム1000がさらに提供される。
該推論演算システム1000に含まれる推論演算装置100とモデル訓練装置200は、推論結果の正確さを向上させる効果があるため、当該推論演算システム1000も同様に推論結果の正確さを向上させる効果があるが、ここでは詳細を省略する。
なお、本開示の実施例で言及されたプロセッサ(例えば、プロセッサ110とプロセッサ210)は、中央処理装置(Central Processing Unit、CPU)、汎用プロセッサ、デジタルシグナルプロセッサ(Digital Signal Processor、DSP)、特定用途向け集積回路(Application-Specific Integrated Circuit、ASIC)、現場でプログラム可能なゲートアレイ(Field Programmable Gate Array、FPGA)又は他のプログラマブルロジックデバイス、トランジスタロジックデバイス、ハードウェアコンポーネント、又はこれらの任意の組み合わせであってもよい。本開示に記載の様々な例示的なロジックブロックとモジュールを実装又は実行し得る。プロセッサ210は、例えば、1つ又は複数のマイクロプロセッサの組み合わせ、DSPとマイクロプロセッサの組み合わせなどを含む、演算機能を実装する組み合わせであってもよい。
さらに、本開示の実施例で言及されるメモリ(例えば、メモリ120とメモリ220)は、ランダムアクセスメモリ(Random Access Memory、RAM)、フラッシュメモリ、リードオンリメモリ(Read Only Memory、ROM)、消去可能なプログラマブルリードオンリメモリ(Erasable Programmable ROM、EPROM)、電気的に消去可能なプログラマブルリードオンリメモリ(Electrically EPROM、EEPROM)、レジスタ、ハードディスク、モバイルハードディスク、コンパクトディスク(CD-ROM)、又は当技術分野でよく知られている任意の他の形態の記憶媒体であってもよい。
本開示のいくつかの実施例では、推論演算装置500が提供される。図11に示すように、この推論演算装置500は、機能モジュールを機能毎に分ける場合、性能評価モジュール11、推論モデルモジュール13、モデルタスク管理モジュール14を含む。
ここで、モデルタスク管理モジュール14は、モデル訓練装置400からの第1の推論モデルを受信するように構成される。
推論モデルモジュール13は、受信した第1の推論モデルに基づいて、生産製造段階で生成されたユーザ側機器3からの処理待ちデータの推論演算を行い、推論結果を取得し、推論結果をユーザ側機器3に送信するように構成される。
性能評価モジュール11は、第1の推論モデルの性能を評価して、第1の推論モデルを更新する必要があるか否かを定めるように構成される。第1の推論モデルを更新する必要がある場合、モデルタスク管理モジュール14によって第1の推論モデル更新される
幾つかの実施例では、推論演算装置500は、さらに、第2のモデル訓練モジュール12と第2の訓練サンプルライブラリ19とを含む。
第1の推論モデルを更新する必要がある場合、第2のモデル訓練モジュール12、第2の訓練サンプルライブラリ19に基づいてモデル訓練を行い、第2の推論モデルを取得するように構成され又は、性能評価モジュール11がさらにモデル更新要求をモデル訓練装置400に送信して、第2の推論モデルを取得するように構成される。
第2の訓練サンプルライブラリ19は、推論モデルモジュール13及び/又はモデルタスク管理モジュール14からの、モデル訓練に必要な訓練サンプルを記憶する。
これに基づいて、いくつかの実施例では、モデルタスク管理モジュール14は、さらに、モデル訓練装置400からの第2の推論モデルを受信し、受信した第2の推論モデルに対してテスト、グレースケールデプロイ、又は配置情報検証のうちの少なくとも1つを行うように構成される。
一例として、図11に示すように、モデルタスク管理モジュール14は、検証ユニット141、テストユニット142、及びグレースケールデプロイユニット143を含む。
ここで、検証ユニット141は、受信した第2の推論モデルに対して配置情報検証を行うように構成される。
テストユニット142は、受信した第2の推論モデルをテストするように構成される。
グレースケールデプロイユニット143は、受信した第2の推論モデルに対してグレースケールデプロイを行うように構成される。
幾つかの実施例では、推論演算装置500は、モデル訓練決定モジュール18をさらに含む。
当該モデル訓練決定モジュール18は行われるモデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にあるか否かを判断するように構成される。
訓練パラメータが設定された訓練パラメータ範囲内にある場合、性能評価モジュール11にモデル更新要求を第2のモデル訓練モジュール12に送信させる。即ち、第2のモデル訓練モジュール12にモデル訓練を行わせて第2の推論モデルを取得する。
訓練パラメータが設定された訓練パラメータ範囲内にない場合、性能評価モジュール11にモデル更新要求をモデル訓練装置400に送信させる。即ち、モデル訓練装置400にモデル訓練を行わせて第2の推論モデルを取得する。
幾つかの実施例では、推論演算装置500は、第3の推論モデルを受信するように構成されたバックアップモジュール15をさらに含む。
第3の推論モデルの性能が推論モデルモジュール13における第1の推論モデルの性能よりも高い場合、又は推論モデルモジュール13における第1の推論モデルに異常が発生した場合、バックアップモジュール15は、第3の推論モデルをモデルタスク管理モジュール14に送信し、モデルタスク管理モジュール14によって第3の推論モデルを用いて第1の推論モデルを更新する。
幾つかの実施例では、性能評価モジュール11は、さらに、第2の推論モデルに対して性能を評価し、第1の推論モデルの性能と第2の推論モデルの性能とを比較するように構成される。
第2の推論モデルの性能が第1の推論モデルの性能よりも劣っている場合、モデルタスク管理モジュール14は、さらに、第2の推論モデルを第1の推論モデルにロールバックするように構成される。
性能評価モジュール11は、さらに、モデル訓練要求を第2のモデル訓練モジュール12又はモデル訓練装置400に改めて送信するように構成される。
幾つかの実施例では、図11に示すように、推論演算装置500は、推論モデルモジュール13とタスク管理モジュール14の機能を拡張又は修正するように構成された機能拡張管理モジュール16をさらに含む。
例えば、機能拡張管理モジュール16は、導入された推論モデルを受信し、推論モデルモジュール13における推論モデルを、その導入された推論モデルに切り替えるように制御する。
また、図11に示すように、モデル訓練装置400が第1の訓練サンプルライブラリ23を含む場合、機能拡張管理モジュール16は第1の訓練サンプルライブラリの機能をさらに拡張することができる。
一例として、機能拡張管理モジュール16は、機能拡張インターフェースを含む。
いくつかの実施例では、図11に示すように、推論演算装置500は、原始データ集約モジュール17と推論モデルモジュール13とをさらに含む。
ここで、原始データ集約モジュール17は、ユーザ側機器3からの原始データを集約して処理待ちデータを取得し、処理待ちデータを推論モデルモジュール13に送信するように構成される。
本開示のいくつかの実施例では、モデル訓練装置400が提供される。図11に示すように、当該モデル訓練装置400は、機能モジュールを機能毎に分ける場合、訓練管理モジュール21、第1のモデル訓練モジュール22、第1の訓練サンプルライブラリ23を含む。
ここで、第1のモデル訓練モジュール22は、第1の訓練サンプルライブラリ23に基づいてモデル訓練を行い、第1の推論モデルを取得し、及び/又は、更新後の第1の訓練サンプルライブラリ23に基づいてモデル訓練を行い、第2の推論モデルを取得するように構成される。
モデル管理モジュール21は、第1の推論モデル及び/又は第2の推論モデルを推論演算装置500に送信するように構成される。
一例として、図11に示すように、訓練管理モジュール21は、タスク管理ユニット211、訓練スケジューリングユニット212、及びブランチ管理ユニット213を含む。
ここで、タスク管理ユニット211は、推論演算装置500から送信されたモデル更新要求に基づいて、訓練タスク情報を生成するように構成される。
訓練スケジューリングユニット212は、訓練タスク情報に基づいて訓練配置データを生成し、対応する訓練サンプルライブラリから訓練サンプルを取得するように構成される。
ブランチ管理ユニット213は、対応する推論モデルのモデルバージョン情報を検証し、モデルバージョン情報が正しいか否かを判断するように構成される。モデルのバージョン情報が正しい場合、ブランチ管理ユニット213は、さらに、バージョン情報が正しい対応する推論モデルを推論演算装置500に送信するように構成される。
一例として、訓練スケジューリング部212は、さらに、第1のモデル訓練モジュール22のモデル訓練過程を監視し、モデル訓練過程に異常が発生した場合、訓練配置データを更新し、更新後の訓練配置データを第1のモデル訓練モジュール22に送信するように構成される。この場合、第1のモデル訓練モジュール22は、さらに、更新後の訓練配置データと訓練サンプルに基づいてモデル訓練を行うように構成される。
いくつかの実施例では、図11に示すように、モデル訓練装置400は、第1の訓練サンプルライブラリ23をさらに含む。
当該第1の訓練サンプルライブラリ23は、推論演算装置500によって送信された正解結果がラベル付けされた訓練サンプルを受信するように構成される。
例えば、再判定されて正解結果がラベル付けされた後に、推論演算装置500の推論モデルモジュール13の推論結果を第1の訓練サンプルライブラリ23に送信し、それによって第1の訓練サンプルライブラリ23を更新する。
この場合、第1のモデル訓練モジュール22は、さらに、モデル更新要求を受信していないときに、更新後の第1の訓練サンプルライブラリ23に基づいてモデル訓練を行い、第3の推論モデルを取得するように構成される。
一例として、訓練管理モジュール21がブランチ管理ユニット213を含む場合、第1のモデル訓練モジュール22は、第3の推論モデルをブランチ管理ユニット213に送信し、ブランチ管理ユニット213が第3の推論モデルを推論演算装置500に送信するように構成される。
上記は本開示の具体的な実施形態に過ぎず、本開示の保護範囲はこれに限定されず、本開示の技術的範囲内で当業者が容易に想到できる変更又は置換は、すべて本開示の技術的範囲内に包含するものである。従って、本開示の保護範囲は、特許請求の範囲の保護範囲に準ずるものとする。

Claims (18)

  1. 推論演算装置であって、
    少なくとも1つのプロセッサとメモリを含み、
    前記メモリにはプログラム命令が記憶され、
    前記プログラム命令は、少なくとも1つの前記プロセッサによって実行可能であり、
    モデル訓練装置からの第1の推論モデルを受信する動作と、
    前記第1の推論モデルに基づいて、生産製造段階で生成された処理待ちデータの推論演算を行い、推論結果を取得し、前記推論結果をユーザ側機器に送信する動作と、
    前記第1の推論モデルを更新する必要があるか否かを定めるように、前記第1の推論モデルの性能を評価し、そうである場合、前記第1の推論モデルを更新する動作であって、前記第1の推論モデルに対して行う更新は、第2の訓練サンプルライブラリに基づいて、モデル訓練を行い、第2の推論モデルを取得するか、又は前記モデル訓練装置にモデル更新要求を送信し、第2の推論モデルを取得することと、前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、前記第2の訓練サンプルライブラリは、履歴データからの訓練サンプル、又は前記推論結果からの再判定を受けた訓練サンプル、又は履歴データからの訓練サンプル及び前記推論結果からの再判定を受けた訓練サンプルを含む動作と、を前記推論演算装置に実行させ、
    前記第1の推論モデルは、前記モデル訓練装置が、第1の訓練サンプルライブラリに基づいてモデル訓練を行うことで取得されたものであり、
    前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
    前記モデル訓練装置は、クラウド機器を含み、
    前記推論演算装置は、モデル訓練装置よりもユーザ側機器に近
    前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む、
    推論演算装置。
  2. 前記履歴データは、欠陥情報がラベル付けされた製品画像を含み、
    前記処理待ちデータは、生産製造段階で生成された原始製品画像を含み、
    前記推論結果は、前記原始製品画像における欠陥情報を含む、
    請求項1に記載の推論演算装置。
  3. 前記更新条件は、さらに、
    前記第2の推論モデルに対してテストを行い、前記第2の推論モデルが前記テストに合格することを含み、
    前記テストは、テストサンプルに基づいて前記第2の推論モデルの性能を評価することを含み、性能が評価要件を満たす場合、テストに合格したと判定される、
    請求項に記載の推論演算装置。
  4. 前記更新条件は、前記第2の推論モデルの配置情報を検証し、前記配置情報が、行われる必要のある推論演算と一致することをさらに含む、
    請求項に記載の推論演算装置。
  5. モデル訓練を行って第2の推論モデルを取得するか、又はモデル訓練装置にモデル更新要求を送信して第2の推論モデルを取得する前に、
    行われたモデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にあるか否かを判定し、
    前記訓練パラメータが前記訓練パラメータ範囲内にある場合、前記モデル訓練を行い、
    前記訓練パラメータが前記訓練パラメータ範囲内にない場合、前記モデル訓練装置にモデル更新要求を送信する、動作をさらに実行する、
    請求項に記載の推論演算装置。
  6. 前記訓練パラメータは、モデル訓練に必要なデータサイズ、訓練継続時間、および演算能力のうちの少なくとも1つを含む、
    請求項に記載の推論演算装置。
  7. 前記第1の推論モデルの性能を評価するための評価パラメータは、推論演算の過程中の前記第1の推論モデルの正解率、適合率、再現率、及びF値のうちの少なくとも1つを含み、
    性能評価に基づいて前記第1の推論モデルを更新する必要がある状況は、第1の推論モデルの性能が変動又は低下したことを含み、
    前記評価パラメータの連続した期間内の変化状況に基づいて、前記第1の推論モデルの性能が変動又は低下したか否かを判定する、
    請求項1に記載の推論演算装置。
  8. 性能評価に基づいて前記第1の推論モデルを更新することは、
    第3の推論モデルを受信することと、
    前記第1の推論モデルと前記第3の推論モデルとの性能を比較し、前記第3の推論モデルの性能が前記第1の推論モデルの性能よりも高い場合に、又は前記第1の推論モデルに異常が発生した場合に、前記第3の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、
    前記第3の推論モデルは、前記モデル訓練装置が前記モデル更新要求を受信していない状況で、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行って取得されたものであり、
    前記更新後の第1の訓練サンプルライブラリは、前記推論結果からの、再判定を受けた訓練サンプルを含む、
    請求項に記載の推論演算装置。
  9. 前記第2の推論モデルを用いて前記第1の推論モデルを更新する場合、
    前記第2の推論モデルの性能を評価し、前記第1の推論モデルの性能と前記第2の推論モデルの性能を比較する動作と、
    前記第2の推論モデルの性能が前記第1の推論モデルの性能よりも劣っている場合、前記第2の推論モデルを前記第1の推論モデルにロールバックし、モデル訓練を改めて行う動作、又はモデル訓練を行うように前記モデル訓練装置に改めて要求する動作と、をさらに実行する、
    請求項に記載の推論演算装置。
  10. 前記推論結果を取得した後、
    前記推論結果に基づいて、決定命令を生成する動作をさらに実行し、
    前記欠陥情報は、欠陥があることが識別された原始製品画像と、欠陥位置及び欠陥タイプに関する情報と、を含み、
    前記決定命令は、前記原始製品画像の欠陥情報に基づいて、欠陥のある前記原始製品画像に対応する製品に対して、対応する欠陥処理を行う、
    請求項2に記載の推論演算装置。
  11. モデル訓練装置であって、
    少なくとも1つのプロセッサと、メモリと、を含み、
    前記メモリにはプログラム命令が記憶され、
    前記プログラム命令は、少なくとも1つの前記プロセッサによって実行可能であり、
    第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
    前記第1の推論モデルを推論演算装置に送信する動作と、
    前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
    前記第2の推論モデルを前記推論演算装置に送信する動作であって、前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新し、前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む動作と、を前記モデル訓練装置に実行させ、
    前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
    前記更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを含む、
    モデル訓練装置。
  12. 前記第1の訓練サンプルライブラリ、又は前記更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行う過程中に、
    訓練タスク情報を生成する動作と、
    前記訓練タスク情報に基づいて訓練配置データを生成する動作と、
    対応する訓練サンプルライブラリから訓練サンプルを取得し、前記訓練サンプルと前記訓練配置データに基づいてモデル訓練を行い、対応する推論モデルを取得する動作と、を実行する、
    請求項11に記載のモデル訓練装置。
  13. 前記対応する訓練サンプルライブラリから訓練サンプルを取得し、前記訓練サンプルと前記訓練配置データに基づいてモデル訓練を行い、対応する推論モデルを取得する過程中に、
    モデル訓練の過程を監視する動作と、
    モデル訓練の過程に異常が発生した場合、前記訓練配置データを更新する動作と、
    前記訓練サンプルと更新後の訓練配置データに基づいてモデル訓練を行う動作と、をさらに実行する、
    請求項12に記載のモデル訓練装置。
  14. 前記第1の推論モデル又は前記第2の推論モデルを前記推論演算装置に送信する前に、
    対応する推論モデルのモデルバージョン情報を検証し、前記モデルバージョン情報が正しいか否かを判定する動作と、
    前記モデルバージョン情報が正しい場合、対応する推論モデルを前記推論演算装置に送信する動作と、
    前記モデルバージョン情報が正しくない場合、モデルバージョンが要件を満たす推論モデルを検索し、検出された場合は検出された推論モデルを前記推論演算装置に送信し、検出されなかった場合は通知情報を前記推論演算装置に送信する動作と、をさらに実行する、
    請求項1113のいずれか1項に記載のモデル訓練装置。
  15. 前記第1の訓練サンプルライブラリをさらに含み、
    前記第1の訓練サンプルライブラリを更新する動作と、
    前記モデル更新要求を受信していない状況で、前記更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第3の推論モデルを取得する動作と、
    前記第3の推論モデルを前記推論演算装置に送信する動作と、をさらに実行する、
    請求項11に記載のモデル訓練装置。
  16. プログラム命令が記憶され、
    前記プログラム命令は、プロセッサによって実行可能であり、
    推論演算装置に、
    第1の推論モデルを受信する動作と、
    前記第1の推論モデルに基づいて、工業生産中の処理待ちデータの推論演算を行い、推論結果を取得する動作と、
    前記第1の推論モデルを更新する必要があるか否かを判定するように、前記第1の推論モデルの性能を評価し、前記第1の推論モデルを更新する必要がある場合、前記第1の推論モデルを更新する動作であって、前記第1の推論モデルに対して行う更新は、第2の訓練サンプルライブラリに基づいて、モデル訓練を行い、第2の推論モデルを取得するか、又はモデル更新要求を送信し、第2の推論モデルを取得することと、前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、前記第2の訓練サンプルライブラリは、履歴データからの訓練サンプル、又は前記推論結果からの再判定を受けた訓練サンプル、又は履歴データからの訓練サンプル及び前記推論結果からの再判定を受けた訓練サンプルを含む動作と、を実行させ、
    前記第1の推論モデルは、第1の訓練サンプルライブラリに基づいて、モデル訓練を行うことで取得されたものであり、
    前記第1の訓練サンプルライブラリは、履歴データからの訓練サンプルを含
    前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む、
    コンピュータ可読記憶媒体。
  17. プログラム命令が記憶され、
    前記プログラム命令は、プロセッサによって実行可能であり、
    モデル訓練装置に、
    第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
    前記第1の推論モデルを推論演算装置に送信する動作と、
    前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
    前記第2の推論モデルを前記推論演算装置に送信する動作であって、前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新し、前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む動作と、を実行させ、
    前記第1の推論モデルは、履歴データからの訓練サンプルを含み、
    前記更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの再判定を受けた訓練サンプルを用いて、前記第1の訓練サンプルライブラリを更新して取得されたものである、
    コンピュータ可読記憶媒体。
  18. 請求項1~10のいずれか1項に記載の推論演算装置及び請求項11~15のいずれか1項に記載のモデル訓練装置を含
    推論演算システム。
JP2021571382A 2019-12-20 2019-12-20 推論演算装置、モデル訓練装置、及び推論演算システム Active JP7442550B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2019/127048 WO2021120181A1 (zh) 2019-12-20 2019-12-20 推理计算装置、模型训练装置、推理计算系统

Publications (2)

Publication Number Publication Date
JP2023514466A JP2023514466A (ja) 2023-04-06
JP7442550B2 true JP7442550B2 (ja) 2024-03-04

Family

ID=76478141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021571382A Active JP7442550B2 (ja) 2019-12-20 2019-12-20 推論演算装置、モデル訓練装置、及び推論演算システム

Country Status (6)

Country Link
US (1) US20210209488A1 (ja)
EP (1) EP4080407A4 (ja)
JP (1) JP7442550B2 (ja)
KR (1) KR20220117194A (ja)
CN (1) CN113597618A (ja)
WO (1) WO2021120181A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11574246B2 (en) * 2020-01-21 2023-02-07 Microsoft Technology Licensing, Llc Updating training examples for artificial intelligence
KR20220030339A (ko) * 2020-08-27 2022-03-11 삼성디스플레이 주식회사 이물 불량 검출 방법 및 이물 불량 검출 시스템
KR20220049165A (ko) * 2020-10-14 2022-04-21 삼성에스디에스 주식회사 추론 데이터 기반 예측 모델 보정 시스템 및 방법
US12008487B2 (en) * 2020-12-15 2024-06-11 International Business Machines Corporation Inference model optimization
CN114741269B (zh) * 2022-04-14 2022-09-23 网思科技股份有限公司 一种推理系统业务性能评估的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170154246A1 (en) 2015-11-30 2017-06-01 Seematics Systems Ltd Apparatus and method for inferring information using a computer network
JP2019114116A (ja) 2017-12-25 2019-07-11 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
JP2019158684A (ja) 2018-03-14 2019-09-19 オムロン株式会社 検査システム、識別システム、及び識別器評価装置
WO2019229910A1 (ja) 2018-05-30 2019-12-05 株式会社ウフル 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101242549A (zh) * 2007-11-22 2008-08-13 中国移动通信集团山东有限公司 通信网络告警关联的神经网络构建方法
TWI385492B (zh) * 2008-12-16 2013-02-11 Ind Tech Res Inst 機台設備的維護分析系統及其方法
US11127020B2 (en) * 2009-11-20 2021-09-21 Palo Alto Research Center Incorporated Generating an activity inference model from contextual data
SG189840A1 (en) * 2010-10-19 2013-06-28 3M Innovative Properties Co Computer-aided assignment of ratings to digital samples of a manufactured web product
US8700658B2 (en) * 2011-09-01 2014-04-15 Knf Technologies, Inc. Relational meta model and associated domain context-based knowledge inference engine for knowledge discovery and organization
CN103078897B (zh) * 2012-11-29 2015-11-18 中山大学 一种实现Web业务细粒度分类与管理的系统
US10614373B1 (en) * 2013-12-23 2020-04-07 Groupon, Inc. Processing dynamic data within an adaptive oracle-trained learning system using curated training data for incremental re-training of a predictive model
US20150324686A1 (en) * 2014-05-12 2015-11-12 Qualcomm Incorporated Distributed model learning
US20180322623A1 (en) * 2017-05-08 2018-11-08 Aquifi, Inc. Systems and methods for inspection and defect detection using 3-d scanning
WO2018223000A1 (en) * 2017-06-02 2018-12-06 Aspen Technology, Inc. Computer system and method for building and deploying predictive inferential models online
CN107256009B (zh) * 2017-06-30 2019-08-02 武汉理工大学 一种基于深度学习的产品数字模型智能装配系统
CN107316083B (zh) * 2017-07-04 2021-05-25 北京百度网讯科技有限公司 用于更新深度学习模型的方法和装置
CN109754105B (zh) * 2017-11-07 2024-01-05 华为技术有限公司 一种预测方法及终端、服务器
US11030071B2 (en) * 2018-04-16 2021-06-08 Armory, Inc. Continuous software deployment
CN109635171B (zh) * 2018-12-13 2022-11-29 成都索贝数码科技股份有限公司 一种新闻节目智能标签的融合推理系统和方法
US20200193313A1 (en) * 2018-12-14 2020-06-18 Parallel Machines, Inc. Interpretability-based machine learning adjustment during production
CN109740661B (zh) * 2018-12-28 2022-10-28 沈阳工业大学 一种基于模糊评估的油井动液面自适应预测方法
US10481579B1 (en) * 2019-02-28 2019-11-19 Nanotronics Imaging, Inc. Dynamic training for assembly lines
CN110378900B (zh) * 2019-08-01 2020-08-07 北京迈格威科技有限公司 产品缺陷的检测方法、装置及系统
CN110554047B (zh) * 2019-09-06 2021-07-02 腾讯科技(深圳)有限公司 产品缺陷检测数据处理方法、装置、系统和设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170154246A1 (en) 2015-11-30 2017-06-01 Seematics Systems Ltd Apparatus and method for inferring information using a computer network
JP2019114116A (ja) 2017-12-25 2019-07-11 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
JP2019158684A (ja) 2018-03-14 2019-09-19 オムロン株式会社 検査システム、識別システム、及び識別器評価装置
WO2019229910A1 (ja) 2018-05-30 2019-12-05 株式会社ウフル 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Jianguo CHEN et al.,"Distributed Deep Learning Model for Intelligent Video Surveillance Systems with Edge Computing",IEEE Transactions on Industrial Informatics,IEEE,2020年,pp.1-8
川上明久,実践AWS! 企業クラウドの設計パターン 特別編 AIとIoT AIの学習と試行を効率化 エッジのIoTと協調処理,日経SYSTEMS ,日本,日経BP社,2018年01月14日,第310号,pp.54~61

Also Published As

Publication number Publication date
US20210209488A1 (en) 2021-07-08
KR20220117194A (ko) 2022-08-23
WO2021120181A1 (zh) 2021-06-24
EP4080407A4 (en) 2023-02-01
JP2023514466A (ja) 2023-04-06
CN113597618A (zh) 2021-11-02
EP4080407A1 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
JP7442550B2 (ja) 推論演算装置、モデル訓練装置、及び推論演算システム
US20200160207A1 (en) Automated model update based on model deterioration
US11042145B2 (en) Automatic health indicator learning using reinforcement learning for predictive maintenance
JP7393515B2 (ja) 分散型製品欠陥分析システム、方法及びコンピュータ可読記憶媒体
US9569298B2 (en) Multi-stage failure analysis and prediction
US10795655B1 (en) Provisioning of software applications on edge devices in an internet-of-things environment
US20230083744A1 (en) Combined Learned and Dynamic Control System
JP2018513490A (ja) 自動化システムを動作させる方法及び装置
JP2017224027A (ja) データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム
US20230176562A1 (en) Providing an alarm relating to anomaly scores assigned to input data method and system
JP2023547849A (ja) ラベルなしセンサデータを用いた産業システム内の稀な障害の自動化されたリアルタイムの検出、予測、及び予防に関する、方法または非一時的コンピュータ可読媒体
CN114787831B (zh) 改进分类模型的准确性
KR102151756B1 (ko) 작업자 관리 및 중개 방법 및 장치
CN113095508A (zh) 回归模型构建优化方法、设备、介质及计算机程序产品
CN115546218B (zh) 置信度阈值确定方法和装置、电子设备和存储介质
US11995477B2 (en) Verification of updated analytical procedures in monitoring systems
WO2021120179A1 (zh) 产品制造消息处理方法、设备和计算机存储介质
CN113632099B (en) Distributed product defect analysis system, method and computer readable storage medium
US12020516B2 (en) Method and device for processing product manufacturing messages, electronic device, and computer-readable storage medium
US20240160198A1 (en) Industrial data source writeback
US20240160164A1 (en) Industrial automation data quality and analysis
Wang et al. Human-AI Interaction
WO2022177567A1 (en) Dependability assessment framework for railroad asset management
WO2024043888A1 (en) Real time detection, prediction and remediation of machine learning model drift in asset hierarchy based on time-series data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240220

R150 Certificate of patent or registration of utility model

Ref document number: 7442550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150