JP7442550B2 - 推論演算装置、モデル訓練装置、及び推論演算システム - Google Patents
推論演算装置、モデル訓練装置、及び推論演算システム Download PDFInfo
- Publication number
- JP7442550B2 JP7442550B2 JP2021571382A JP2021571382A JP7442550B2 JP 7442550 B2 JP7442550 B2 JP 7442550B2 JP 2021571382 A JP2021571382 A JP 2021571382A JP 2021571382 A JP2021571382 A JP 2021571382A JP 7442550 B2 JP7442550 B2 JP 7442550B2
- Authority
- JP
- Japan
- Prior art keywords
- inference
- model
- training
- inference model
- performance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 586
- 238000004364 calculation method Methods 0.000 title claims description 237
- 230000007547 defect Effects 0.000 claims description 95
- 238000004519 manufacturing process Methods 0.000 claims description 92
- 238000000034 method Methods 0.000 claims description 56
- 238000011156 evaluation Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 48
- 238000012360 testing method Methods 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 16
- 238000003860 storage Methods 0.000 claims description 11
- 230000005856 abnormality Effects 0.000 claims description 10
- 230000002950 deficient Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 4
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 238000009776 industrial production Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 2
- 238000007726 management method Methods 0.000 description 29
- 241000282472 Canis lupus familiaris Species 0.000 description 14
- 238000003062 neural network model Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000003993 interaction Effects 0.000 description 9
- 241000282326 Felis catus Species 0.000 description 8
- 239000002245 particle Substances 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000246 remedial effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- General Factory Administration (AREA)
Description
前記プログラム命令は、前記少なくとも1つのプロセッサによって実行可能であり、
モデル訓練装置からの第1の推論モデルを受信する動作と、
前記第1の推論モデルに基づいて、生産製造段階で生成された処理待ちデータの推論演算を行い、推論結果を取得し、前記推論結果をユーザ側機器に送信する動作と、
前記第1の推論モデルを更新する必要があるか否かを定めるように、前記第1の推論モデルの性能を評価し、そうである場合、前記第1の推論モデルを更新する動作と、を前記推論演算装置に実行させ、
前記第1の推論モデルは、前記モデル訓練装置が、第1の訓練サンプルライブラリに基づいてモデル訓練を行うことで取得されたものであり、
前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
前記モデル訓練装置は、クラウド機器を含み、
前記推論演算装置は、モデル訓練装置よりもユーザ側機器に近い。
前記処理待ちデータは、生産製造段階で生成された原始製品画像を含み、
前記推論結果は、前記原始製品画像における欠陥情報を含む。
第2の訓練サンプルライブラリに基づいて、モデル訓練を行い、第2の推論モデルを取得するか、又は前記モデル訓練装置にモデル更新要求を送信し、第2の推論モデルを取得することと、
前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、
前記第2の訓練サンプルライブラリは、履歴データからの訓練サンプル、又は前記推論結果からの再判定を受けた訓練サンプル、又は履歴データからの訓練サンプル及び前記推論結果からの再判定を受けた訓練サンプルを含む。
前記テストは、テストサンプルに基づいて前記第2の推論モデルの性能を評価することを含み、性能が評価要件を満たす場合、テストに合格したと判定される。
行われたモデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にあるか否かを判定し、
前記訓練パラメータが前記訓練パラメータ範囲内にある場合、前記モデル訓練を行い、
前記訓練パラメータが前記訓練パラメータ範囲内にない場合、前記モデル訓練装置にモデル更新要求を送信する、動作をさらに実行する。
性能評価に基づいて前記第1の推論モデルを更新する必要がある状況は、第1の推論モデルの性能が変動又は低下したことを含み、
前記評価パラメータの連続した期間内の変化状況に基づいて、前記第1の推論モデルの性能が変動又は低下したか否かを判定する。
第3の推論モデルを受信することと、
前記第1の推論モデルと前記第3の推論モデルとの性能を比較し、前記第3の推論モデルの性能が前記第1の推論モデルの性能よりも高い場合に、又は前記第1の推論モデルに異常が発生した場合に、前記第3の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、
前記第3の推論モデルは、前記モデル訓練装置が前記モデル更新要求を受信していない状況で、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行って取得されたものであり、
前記更新後の第1の訓練サンプルライブラリは、前記推論結果からの、再判定を受けた訓練サンプルを含む。
前記第2の推論モデルの性能を評価し、前記第1の推論モデルの性能と前記第2の推論モデルの性能を比較する動作と、
前記第2の推論モデルの性能が前記第1の推論モデルの性能よりも劣っている場合、前記第2の推論モデルを前記第1の推論モデルにロールバックし、モデル訓練を改めて行う動作、又はモデル訓練を行うように前記モデル訓練装置に改めて要求する動作と、をさらに実行する。
前記推論結果に基づいて、決定命令を生成する動作をさらに実行し、
前記欠陥情報は、欠陥があることが識別された原始製品画像と、欠陥位置及び欠陥タイプに関する情報と、を含み、
前記決定命令は、前記原始製品画像の欠陥情報に基づいて、欠陥のある前記原始製品画像に対応する製品に対して、対応する欠陥処理を行う。
前記プログラム命令は、前記少なくとも1つのプロセッサによって実行可能であり、
第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
前記第1の推論モデルを推論演算装置に送信する動作と、
前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
前記第2の推論モデルを前記推論演算装置に送信する動作と、を前記モデル訓練装置に実行させ、
前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
前記更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを含む。
訓練タスク情報を生成する動作と、
前記訓練タスク情報に基づいて訓練配置データを生成する動作と、
対応する訓練サンプルライブラリから訓練サンプルを取得し、前記訓練サンプルと前記訓練配置データに基づいてモデル訓練を行い、対応する推論モデルを取得する動作と、を実行する。
モデル訓練の過程を監視する動作と、
モデル訓練の過程に異常が発生した場合、前記訓練配置データを更新する動作と、
前記訓練サンプルと更新後の訓練配置データに基づいてモデル訓練を行う動作と、をさらに実行する。
対応する推論モデルのモデルバージョン情報を検証し、前記モデルバージョン情報が正しいか否かを判定する動作と、
前記モデルバージョン情報が正しい場合、対応する推論モデルを前記推論演算装置に送信する動作と、
前記モデルバージョン情報が正しくない場合、モデルバージョンが要件を満たす推論モデルを検索し、検出された場合は検出された推論モデルを前記推論演算装置に送信し、検出されなかった場合は通知情報を前記推論演算装置に送信する動作と、をさらに実行する。
前記第1の訓練サンプルライブラリを更新する動作と、
前記モデル更新要求を受信していない状況で、前記更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第3の推論モデルを取得する動作と、
前記第3の推論モデルを前記推論演算装置に送信する動作と、をさらに実行する。
推論演算装置に、
第1の推論モデルを受信するする動作と、
前記第1の推論モデルに基づいて、工業生産中の処理待ちデータの推論演算を行い、推論結果を取得する動作と、
前記第1の推論モデルを更新する必要があるか否かを判定するように、前記第1の推論モデルの性能を評価し、前記第1の推論モデルを更新する必要がある場合、前記第1の推論モデルを更新する動作と、を実行させ、
前記第1の推論モデルは、第1の訓練サンプルライブラリに基づいて、モデル訓練を行うことで取得されたものであり、
前記第1の訓練サンプルライブラリは、履歴データからの訓練サンプルを含む。
モデル訓練装置に、
第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
前記第1の推論モデルを推論演算装置に送信する動作と、
前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
前記第2の推論モデルを前記推論演算装置に送信する動作と、を実行させ、
前記第1の推論モデルは、履歴データからの訓練サンプルを含み、
前記更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの再判定を受けた訓練サンプルを用いて、前記第1の訓練サンプルライブラリを更新して取得されたものである。
前記モデル訓練装置は、少なくとも1つの第2のプロセッサと第2のメモリを含み、
前記第2のメモリには第2のプログラム命令が記憶され、
前記第2のプログラム命令は、前記少なくとも1つの第2のプロセッサによって実行可能であり、
前記モデル訓練装置に、
第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
前記第1の推論モデルを推論演算装置に送信する動作と、
前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
前記第2の推論モデルを前記推論演算装置に送信する動作と、を実行させ、
前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
前記更新後の第1の訓練サンプルライブラリは、前記第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを含み、
前記推論演算装置は、少なくとも1つの第1のプロセッサと第1のメモリを含み、
前記第1のメモリには、第1のプログラム命令が記憶され、
前記第1のプログラム命令は、前記少なくとも1つの第1のプロセッサによって実行可能であり、
前記推論演算装置に、
前記モデル訓練装置からの前記第1の推論モデルを受信する動作と、
前記第1の推論モデルに基づいて、生産製造段階で生成された処理待ちデータの推論演算を行い、推論結果を取得し、前記推論結果をユーザ側機器に送信する動作と、
前記第1の推論モデルを更新する必要があるか否かを判定するように、前記第1の推論モデルの性能を評価し、前記第1の推論モデルを更新する必要がある場合、前記第1の推論モデルを更新する動作と、
を実行させ、
前記モデル訓練装置は、クラウド機器を含み、
前記推論演算装置は、モデル訓練装置よりもユーザ側機器に近い。
ここで、生産設備の温度、圧力、湿度などのリアルタイム監視データの変化に基づいて、生産システムの稼働状況を予測し、製品の不良や設備の破損などを事前に防ぐことができる。
機械学習アルゴリズムは、サポートベクターマシン(support vector machine,SVM)、カスケードアルゴリズム(Adaboost)、決定木、ランダムフォレスト、ニューラルネットワークに基づく深層学習アルゴリズムを含む。
工場の生産過程では、大量の生産データが生成されている。クラウドコンピューティングは、この大量の生産データを処理するための推論モデルを訓練し、推論モデルにより生産データに対して推論演算を実行できる。
これにより、複数のサーバで構成されるシステム(即ち、クラウド機器)は、ユーザ側機器(即ち、工場の生産設備)によってアップロードされた処理待ちデータに対して推論演算を行って推論結果を取得する。そして、この推論結果を分析してクラウド決定結果を取得し、かつこのクラウド決定結果をユーザ側機器に送信する。これにより生産過程中におけるユビキタスネットワークを実現することができる。
ここで、上記のようなコンピューティングアーキテクチャをユーザ側-クラウドコンピューティングアーキテクチャと呼ぶ。
ユーザ側機器300は、処理待ちデータ、即ち、生産設備によって生成された生産データをクラウド機器200にアップロードする。
クラウド機器200は、アップロードされた処理待ちデータに対して推論演算を行い、決定結果を取得し、それから決定結果をユーザ側機器300に返送する。
ユーザ側機器300は、受信した決定結果に基づいて、対応する動作を行い、それによってユーザ側機器300の統合管理を実現することができる。
また、大量の処理待ちデータがクラウド機器200にアップロードされた後、まず記憶される必要があるため、クラウド機器200の多くのリソースを占有し、クラウド機器に大きな負担をもたらす。
ここで、当該プログラム命令は、前記少なくとも1つのプロセッサ110によって実行可能であり、推論演算装置100に、以下の動作S10~S40を実行させる。
ここで、第1の推論モデルは、モデル訓練装置200が、第1の訓練サンプルライブラリに基づいて、モデル訓練を行って取得されたものである。
第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含む。
また、当該モデル訓練装置200は、クラウド機器を含む。即ち、モデル訓練装置200は、クラウド機器であってもよい。
例えば、モデル訓練装置200は、ニューラルネットワークのための教師あり学習の過程の間、訓練データセット内のインスタンスを表す入力に応答してネットワークによって生成された出力を、当該インスタンスの「正しい」とラベル付けされた出力と比較する。そして、モデル訓練装置200は、前記出力と前記ラベル付けされた出力との差を表す誤差信号を演算し、誤差信号がネットワーク層を通じて逆方向に伝搬する際、当該誤差を最小化にするように前記接続に関連付けられた重みを調整する。
訓練データセットのインスタンスから生成された各々の出力の誤差が最小化されたとき、当該ニューラルネットワークモデルは「訓練済み」と見なされ、人工知能の推論タスクに使用できる。
GPU(Graphics Processing Unit、グラフィックスプロセッサ)は、簡単なプログラミングモデル、強力な並列能力、広いビデオメモリ帯域幅を有し、深層ニューラルネットワークの訓練に関連する演算を処理する際、極めて効率的である。
従って、複数のGPUが統合されたGPUクラスタを使用することにより、ニューラルネットワークモデルの訓練と推論の速度を効果的に向上させることができる。
前記推論演算装置100は、モデル訓練装置よりもユーザ側機器に近い。
エッジ側機器1’の設置場所は、ユーザ側機器3’とクラウド機器2’の間に位置し、かつユーザ側機器3’の一端に近い。
エッジ側機器1’は、推論モデルを用いて、ユーザ側機器3’からの処理待ちデータに対して推論演算を行い、エッジ側決定結果を取得する。エッジ側機器1’は、このエッジ側決定結果をユーザ側機器3’に送信する。
もしくは、エッジ側機器1’は、推論演算が行われた演算結果をクラウド機器2’にアップロードする。この場合、クラウド機器2’が、アップロードされた当該決定結果を処理及び分析して、クラウド決定結果を取得する。そして、クラウド機器2’が、クラウド決定結果をユーザ側機器3’に送信する。
別の例では、エッジ側機器1’をユーザ側機器3’に統合してもよい。即ち、ユーザ側機器3’は、生産データを生成すると同時に、生成された生産データに対して推論演算を行う。
また、処理待ちデータをクラウド機器2’にアップロードする必要がないため、クラウド機器2’に対するリソースの占有が少なくなり、クラウド機器の負担が軽減される。
また、上記のユーザ側-エッジ側-クラウドコンピューティングアーキテクチャでは、クラウド機器2’は、その高度な演算能力を最大限に活用することができ、リアルタイムで決定をフィードバックする必要がないモデル訓練を行うことができる。
ただし、モデル訓練とは、多くの訓練サンプルに対して複数回の反復と演算を行うことで、これらの訓練サンプルの特定特徴を抽出し、最終的にその特定特徴を有するデータセットに収束できるアルゴリズム構造とパラメータ値を取得することをいう。つまり、モデル訓練とは、特定特徴を有するデータを識別できる推論モデルを取得することをいう。
3つのデータセットの原始画像サンプルは、完全に重複してもよく、部分的に重複してもよく、又は全く重複しなくてもよい。それに対応して、訓練データセット、検証データセット及びテストデータセットは、完全に重複するか、部分的に重複するか、又は全く重複しない。ただし、この3つのデータセットは、全く重複しないことが理想的であり、こうして訓練されたモデルは比較的信頼できる。
画像識別は、深層学習のニューラルネットワークモデルによりコンピュータビジョン識別を実現することができる。
クラウド機器2’によってサンプル訓練が行われた後、推論モデルはエッジ側機器1’に送信される。ユーザ側機器3’が生成した画像は、エッジ側機器1’により、推論演算が直接かつ迅速に行われるため、クラウド演算に伝送する帯域幅の負担と遅延を省く。
次に、M×N画像をVGGNet、ResNet、MobileNetなどの深層畳み込みニューラルネットワークに送信し、多層畳み込み層、活性化層、プーリング層を通じて、画像全体の特徴マップ(feature maps)を取得する。
次に、特徴マップをスクリーニング・エリア・ネットワーク(ZF/SSD/RPNなど)に入力し、演算により候補領域(proposal region)を取得する。
次に、候補領域に対して畳み込みプーリング等の動作を行い、候補領域の領域特徴マップ(proposal feature)を取得する。
次に、領域特徴マップ(proposal feature)を後続の完全接続ネットワークとsoftmaxネットワークに送信して分類(classification)、即ち、proposalがどんな欠陥かを分類し、最も確率の高い欠陥タイプを最終的な分類結果として取得し、タイプと確率を記録する。
ただし、候補領域(proposal region)の座標とサイズは、欠陥の位置や大きさを意味する。
なお、欠陥モデルに基づいて製品の欠陥内容を識別する方法は、上記の方法に類似する変形又は当業者に知られている他の方法であってもよく、本開示はここで限定されない。
ただし、新しいとは、特徴モデル訓練の時に出現しなかった特徴を指す。
表示パネルの生産製造を例にとると、新型番の製品の生産製造、生産工程の更新とアップグレード、生産設備の更新と交換などの要因により、製造された表示パネルには新しいタイプの欠陥が生じることがある。この新しいタイプの欠陥は、推論モデルがモデルを訓練する時の訓練サンプルに出現しなかったものであるため、推論モデルは新しいタイプの欠陥を識別することができない。そのため、推論モデルが生産製造過程中の欠陥識別と分類の要件を満たさなくなる。
ここで、訓練サンプルは、少なくとも1つのデータによって形成されるデータセットと見なされてもよい。なおかつ、訓練サンプルは、画像、映像、音声などの様々な形態の訓練データを含み得るが、これらに限定されない。
第1の推論モデルを訓練するための大量の訓練サンプルは、第1の訓練サンプルライブラリからのものであり、第1の訓練サンプルライブラリ内の訓練サンプルは、履歴データからの訓練サンプルを含む。
ここで、履歴データとは、既に判断されかつ正解結果がラベル付けされた生産データを指す。履歴データは、例えば、人の手による判断を受けた、又は正確に判断可能な他の設備により生産データを判断して取得された、上記のような履歴データである。
履歴データは正解結果がラベル付けされているため、モデル訓練中の訓練サンプルとして使用することができる。
ここで、原始製品画像は未処理の画像である。
第1の推論モデルは、原始製品画像における欠陥情報を取得するために、例えば、欠陥の位置と欠陥のタイプを識別するために、原始製品画像に対して推論演算を行う必要がある。
上述のような履歴データは、欠陥タイプがラベル付けされた製品画像を含み、ここで、ラベル付けされた欠陥タイプが正解結果である。
なお、推論演算装置100は、第1の推論モデルの性能を評価するとき、第1の推論モデルが推論演算を行った推論結果と正解結果とを比較し、これにより第1の推論モデルの性能を評価することができる。
ここで、正解結果は、人の手による判断を受けて、推論演算装置100に入力されるものでありうる。
他の例では、一定数の原始製品画像をランダムに抽出して人の手による判断を行い、人の手による判断の結果を取得する。
他の例では、指定されたバッチの表示パネルの原始製品画像に対して人の手による判断を行い、人の手による判断結果を取得する。
推論演算装置100は、第1の推論モデルの性能が現在の推論需要を満たさないと検知した場合、又は、第1の推論モデルの性能が推論需要を満たさないと予め判定によって検知した場合、即ち、第1の推論モデルを更新する必要があると判定した場合、第1の推論モデルを更新する。
これにより、第1の推論モデルの性能をモニタリングすることができ、その性能が推論需要を満たさない場合、それを即時に検知して、第1の推論モデルを更新することができる。そのため、推論演算装置100に用いられる第1の推論モデルの性能が要求を満たすことを保証し、推論演算装置100の推論結果の正確さを向上させることができる。さらに、この推論結果に基づいて行われた決定指令の正確さを向上させることができる。
また、推論演算装置100は、ユーザ側の機器、即ち生産機器に統合されてもよい。
ユーザ側機器は、自動光学検出( Automated Optical Inspection、AOIと略称する)機器、分散ファイルシステム(Distributed File System、DFSと略称する)又は画像サーバを含んでよい。また、当該ユーザ側機器は、例えばファイル転送プロトコル(File Transfer Protocol、FTPと略称する)に基づいた方法を採用し、生産過程中の表示パネルの画像を、原始製品画像、即ち、処理待ちデータとしてリアルタイムでキャプチャしてもよい。
なお、ここでは、処理待ちデータとして画像格式を例示しているが、実際に処理待ちデータは、様々な格式のデータを含んでよい。
例えば、処理待ちデータは、ドキュメントファイル、写真、図面資料、マイクロフィルム、映像、音声などの非構造化データのうちの少なくとも1つを含んでもよい。また、処理待ちデータは、データベースで管理される情報などの構造化情報のうちの少なくとも1つを含んでもよいが、これらに限定されない。
ここで、ニューラルネットワークモデルが第1の推論モデルである場合を例にとると、ニューラルネットワークモデルは、原始製品画像から欠陥を識別し、欠陥情報をラベル付けする。ラベル付けされた欠陥情報は、以下に列挙するもののうちの少なくとも1つを含む。
例示的に、欠陥タイプとしては、パーティクル(particle)、残渣(remain)、ライン不良(line)、穴(hole)、スプラッシュ(splash)、静電破壊、しわ(wrinkle)、膜変色(film color)、気泡(bubble)などの分類が挙げられる。
なお、これらの分類は、さらにいくつかの等級に区分することができ、例えば、欠陥タイプがパーティクルであり、Pがパーティクルを表す場合、形成されるパーティクルの形態別に、この欠陥タイプはさらに複数の等級に区分することができる。例えば、P0が通常微粒子(Normal Particle)、P1が沈降性微粒子(Wall Particle)、P2が砂微粒子(Sand Particle)などを表す。
例示的に、欠陥位置としては、識別された欠陥が位置する回路基板、欠陥が位置する階層、又は欠陥が位置するマスク層などの欠陥位置を示すことができる情報のうちの少なくとも1つを含む。
識別された欠陥がある回路基板に位置する場合を例にとると、欠陥位置は、当該回路基板における当該欠陥の具体的な座標で示すことができる。また、矩形枠又は円形枠などの表示枠によって当該欠陥を選定し、表示枠に関連するある点の座標、例えば、矩形枠のある頂点の座標、又は円形枠の円心の座標で当該欠陥の座標で示すこともできる。
ここで、F値の算出に用いられるβは、重み係数であり、βの大きさを調整することにより、性能評価時の適合率と再現率の偏重比率を調整することができる。βの大きさは、適用する場面に応じて適宜調整することができ、例えば、βを1とすると、第1の推論モデルの性能を評価するとき、適合率と再現率は評価結果に同じ影響を与える。即ち適合率と再現率の偏重比率は同一である。
人の手による判断によると、この1000枚の画像は、いずれも犬の画像であったとする。即ち、実際の結果としては、この1000枚の画像は、いずれも犬の画像であったとする。
第1の推論モデルによる推論演算を行い、得られた演算結果は、犬であると判断された画像は720枚、猫であると判断された画像は80枚、残りの200枚は判断できないと判定されたとする。
演算結果が犬であり、実際の結果が犬でない画像は0枚である。また、演算結果が猫であり、実際の結果が猫でない画像は80枚である。即ちFPは80である。
演算結果が犬ではなく、実際の結果が犬である画像は280枚である。また、演算結果が猫ではなく、実際の結果が猫である画像は0枚である。即ちFNは280である。
ただし、演算結果が犬ではないと判断された画像は、演算結果が猫である画像の数と判断できない画像の数とを含む。
演算結果が犬ではなく、実際の結果も犬ではない画像は0枚である。また、演算結果が猫ではなく、実際の結果も猫ではない画像は920枚である。即ちTNは920である。
ただし、演算結果が猫ではないと判断された画像は、演算結果が犬である画像の数と判断できない画像の数とを含む。
また、第1の推論モデルに対して行う更新は、モデル訓練装置200にモデル更新要求を送信し、第2の推論モデルを取得すること(動作S401b)を含む。
ここで、第2の訓練サンプルライブラリは、履歴データからの訓練サンプル、及び/又は推論結果からの、再判定を受けた訓練サンプルを含む。
ここで、後述する「推論結果からの、再判定を受けた」とは、第1の推論モデルによる推論結果に対して再判定を行うことを意味する。例えば、第1の推論モデルによる推論結果に対して、人の手による判断処理を行い、正解結果がラベル付けされた生産データを取得する。
表示パネルの生産製造を例にとると、処理待ちデータは、表示パネルの原始製品画像である。これらの表示パネルの原始製品画像を推論演算装置100に送信し、第1推論モデルによって推論演算を行い、推論結果を取得する。それから当該推論結果を再判定した後、正解結果とラベル付けされた表示パネルの製品画像を取得し、これを第2のサンプル訓練ライブラリの訓練サンプルのソースとする。
推論結果は、生産製造過程中に連続的に推論演算装置100によって生成される。そのため、これを第2の訓練サンプルライブラリの訓練サンプルのソースとすると、第2の訓練サンプルライブラリの訓練サンプルをより新しくして、生産製造過程中の生産データで新たに出現された特徴を有する訓練サンプルを含むようにできる。
これにより、推論演算装置100がモデル訓練で新しい訓練サンプルを用いることが確保できるため、第1の推論モデルに比べて、得られた第2の推論モデルは、新たに出現した、新しい特徴を有する処理待ちデータに対する推論演算能力が高い。
第2の推論モデルを用いて第1の推論モデルを更新する場合、推論演算装置100による推論結果の正確さを向上させることができる。
他の例として、第2の訓練サンプルライブラリは、他のメモリに記憶され、推論演算装置100は、当該他のメモリから第2の訓練サンプルライブラリを取得してもよい。
ここで、推論演算装置100は、このネットワークインターフェース140を介して、伝送制御プロトコル/インターネットプロトコル(Transmission Control Protocol/Internet Protocol、TCP/IPと略称する)又はハイパーテキスト転送プロトコル(Hyper Text Transfer Protocol、HTTPと略称する)などのプロトコルのうちの少なくとも1つを利用して、例えば、モデル訓練装置200等の外部と、情報のインタラクションを行う。
ここで、テストサンプルソースは、特に限定されず、例えば、当該テストサンプルは、前記履歴データ、即ち、正しい識別情報がラベル付けされた生産データから得られる。
また、別の例として、当該テストサンプルは、人の手による判断を受けた処理待ちデータから得られる。
また、さらに別の例として、当該テストサンプルの一部は、前記履歴データから得られ、一部は、人の手による判断を受けた処理待ちデータから得られるものである。
もちろん、上記のようなテストサンプルソースは、これらに限定されない。
一例として、グレースケールデプロイの過程中に、推論演算装置100は、第1の推論モデルと第2の推論モデルを同時に用いて、ユーザ側機器から送信された処理待ちデータを処理する。
この過程中に、推論演算装置100は、第1の推論モデルの推論結果を出力する。第2の推論モデルの推論結果は、その性能を評価するためにのみ使用され、本当の推論結果として出力されない。
即ち、推論演算装置100は、グレースケールデプロイの過程中に第2の推論モデルによる推論結果に基づいて決定命令を生成しない。そのため、第2の推論モデルに対するグレースケールは、推論演算手段100が処理待ちデータを処理することに影響を与えず、生産ラインの正常生産にも影響を与えない。
グレースケールデプロイの過程中に、第2の推論モデルが推論演算を行う処理待ちデータは、いずれも人の手による判断をさらに行う必要がある。
ここで、人の手による判断の結果を正解結果として、推論演算装置100は、人の手による判断の結果と第2の推論モデルの推論結果とを比較する。これによって、推論演算装置100は、グレースケールデプロイの過程中に当該第2の推論モデルの性能を評価する。
これにより第1の訓練サンプルライブラリ及び/又は第2の訓練サンプルライブラリの更新を実現することができる。
ただし、第1の訓練サンプルライブラリは、モデル訓練装置200がモデル訓練を行う際に基づいた訓練サンプルライブラリである。
表示パネルの生産製造過程において、欠陥と欠陥タイプを識別する必要がある場合を例にとると、「行われる必要のある推論演算」とは、推論演算装置100が、原始製品画像における欠陥を識別し、さらに欠陥種類を識別する必要があることをいう。
このように、第2の推論モデルの配置情報を検証することにより、第2の推論モデルが伝達過程でそのデータが破壊されたり改ざんされたりしたか否かを検出することができ、推論演算装置100が得られた第2の推論モデルと推論演算装置100の推論演算需要との一致を保証する。
モデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にある場合、推論演算装置100は、モデル訓練を行う(動作S401a)。即ち、このような場合、推論演算装置100は、モデル訓練を行い、第2の推論モデルを取得する。
モデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にない場合、推論演算装置100は、モデル訓練装置200にモデル更新要求を送信する。即ち、このような場合、モデル訓練装置200は、モデル訓練を行い、第2の推論モデルを取得する。
つまり、行われるモデル訓練の訓練パラメータが、設定された訓練パラメータ範囲内にある場合、推論演算装置100のモデル訓練能力は、行われるモデル訓練の要件に合致する。
この場合、推論演算装置100自身のモデル訓練能力は、今回のモデル訓練を完成することができるため、推論演算装置100は、今回のモデル訓練を行うことで第2の推論モデルを取得することができる。
逆に、行われるモデル訓練の訓練パラメータが、設定された訓練パラメータの範囲内にない場合、推論演算装置100のモデル訓練能力は、設定されたモデル訓練の要件に合致しない。
この場合、推論演算装置100自身のモデル訓練能力は、今回のモデル訓練を完成することができないため、モデル訓練装置200にモデル更新要求を送信して、モデル訓練装置200により今回のモデル訓練を行い、第2の推論モデルを取得する必要がある。
一例として、モデル訓練装置200は、クラウド機器である。
この場合、モデル訓練に必要なデータサイズが設定されたデータサイズの範囲内にあり、必要な訓練継続時間が設定された訓練時間の範囲内にある。つまり、推論演算装置100のモデル訓練能力がモデル訓練要件に合致し、推論演算装置100は今回のモデル訓練を行う。つまり、S401aを実行する。
ここで、更新後の第1の訓練サンプルライブラリは、前記推論結果からの、再判定を受けた訓練サンプルを含む。つまり、更新後の第1の訓練サンプルライブラリは、推論結果からの、再判定を受けた訓練サンプルを用いて、第1の訓練サンプルライブラリを更新することで取得されたものである。
例えば、第1の推論モデルの性能が突然低下する場合や、第1の推論モデルが要件通りに推論結果を出力しなくなる場合や、又は、第1の推論モデルの推論演算時間が長すぎてタイムアウトが深刻となる場合である。
即ち、第3の推論モデルは、バックアップ推論モデルとして、第1の推論モデルに異常が発生した場合に、それを置換することができる。
また、第1の推論モデルの性能を評価して、第1の推論モデルを更新する必要がある場合、つまり第1の推論モデルの性能が要件を満たさなくなった場合、推論演算装置100又はモデル訓練装置200がモデル訓練を行っている間に、推論演算装置100は、性能が要件を満たさない第1の推論モデルに代えて第3の推論モデルを用いて処理待ちデータを処理する。これにより推論演算装置100の正常な動作を保証することができる。
一例として、識別された欠陥タイプに基づいて、この欠陥タイプに対応する修復対策を提供する。
別の例として、履歴データの分析に基づいて、このタイプの欠陥を生じ得る原因を提供する。ただし、欠陥を生じ得る原因とは、例えば、1つ又は複数の工程機器の故障や、幾つかの工程パラメータの設定が合理的でないこと等である。
また別の例として、未知欠陥や大規模な欠陥があった場合、警告を通報する。
例えば、推論演算装置100が推論結果を取得した後、推論結果をクラウド機器にアップロードし、クラウド機器が該推論結果に対して演算分析を行い、決定結果命令を生成して、さらに推論演算装置100に返信する。
この場合、推論演算装置100は、前述のユーザ側-エッジ側-クラウド演算アーキテクチャにおけるエッジ側機器として用いられる。
エッジ側装置は、処理待ちデータに対して初歩的な処理(推論演算)を行った後、推論結果をクラウド機器に送信する。クラウド機器は、その高度な演算能力により、決定命令を生成してエッジ側装置に返信する。
これにより、工場生産設備の統一的な計画、管理、配置等を実現することができる。
当該プログラム命令は、前記少なくとも1つのプロセッサ210によって実行可能であり、モデル訓練装置200は、以下の動作A10~A40を行う。
ここで、第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含む。
更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行った後に得られた第2の推論モデルは、新たに出現した新しい特徴を有する処理待ちデータに対する推論演算能力が高い。
第2の推論モデルを用いて第1の推論モデルを更新すると、推論演算装置100による推論結果の正確さを向上させることができる。
例えば、今回のモデル訓練により得られた第2の推論モデルは、特定の推論演算機能を有し、演算結果を取得できる必要がある。
当該コンピュータ可読記憶媒体には、プログラム命令が記憶され、プログラム命令は、推論演算装置100の少なくとも1つのプロセッサ110によって実行可能であり、推論演算装置100に以下の動作S10~S40を実行させる。
ここで、第1の推論モデルは、第1の訓練サンプルライブラリに基づいて、モデル訓練を行うことで取得されたものであり、第1の訓練サンプルライブラリは、履歴データからの訓練サンプルを含む。
当該コンピュータ可読記憶媒体にはプログラム命令が記憶され、当該プログラム命令は、モデル訓練装置200の少なくとも1つのプロセッサ210によって実行可能であり、モデル訓練装置200に以下の動作A10~A40を実行させる。
第1の訓練サンプルライブラリは、履歴データからの訓練サンプルを含む。
当該更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを用いて第1の訓練サンプルライブラリを更新したものである。
推論モデルモジュール13は、受信した第1の推論モデルに基づいて、生産製造段階で生成された、ユーザ側機器3からの処理待ちデータの推論演算を行い、推論結果を取得し、推論結果をユーザ側機器3に送信するように構成される。
性能評価モジュール11は、第1の推論モデルの性能を評価して、第1の推論モデルを更新する必要があるか否かを定めるように構成される。第1の推論モデルを更新する必要がある場合、モデルタスク管理モジュール14によって、第1の推論モデルが更新される。
第1の推論モデルを更新する必要がある場合、第2のモデル訓練モジュール12は、第2の訓練サンプルライブラリ19に基づいてモデル訓練を行い、第2の推論モデルを取得するように構成され、又は、性能評価モジュール11がさらにモデル更新要求をモデル訓練装置400に送信して、第2の推論モデルを取得するように構成される。
第2の訓練サンプルライブラリ19は、推論モデルモジュール13及び/又はモデルタスク管理モジュール14からの、モデル訓練に必要な訓練サンプルを記憶する。
テストユニット142は、受信した第2の推論モデルをテストするように構成される。
グレースケールデプロイユニット143は、受信した第2の推論モデルに対してグレースケールデプロイを行うように構成される。
当該モデル訓練決定モジュール18は、行われるモデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にあるか否かを判断するように構成される。
訓練パラメータが設定された訓練パラメータ範囲内にある場合、性能評価モジュール11にモデル更新要求を第2のモデル訓練モジュール12に送信させる。即ち、第2のモデル訓練モジュール12にモデル訓練を行わせて第2の推論モデルを取得する。
訓練パラメータが設定された訓練パラメータ範囲内にない場合、性能評価モジュール11にモデル更新要求をモデル訓練装置400に送信させる。即ち、モデル訓練装置400にモデル訓練を行わせて第2の推論モデルを取得する。
第3の推論モデルの性能が推論モデルモジュール13における第1の推論モデルの性能よりも高い場合、又は推論モデルモジュール13における第1の推論モデルに異常が発生した場合、バックアップモジュール15は、第3の推論モデルをモデルタスク管理モジュール14に送信し、モデルタスク管理モジュール14によって第3の推論モデルを用いて第1の推論モデルを更新する。
第2の推論モデルの性能が第1の推論モデルの性能よりも劣っている場合、モデルタスク管理モジュール14は、さらに、第2の推論モデルを第1の推論モデルにロールバックするように構成される。
性能評価モジュール11は、さらに、モデル訓練要求を、第2のモデル訓練モジュール12又はモデル訓練装置400に改めて送信するように構成される。
訓練スケジューリングユニット212は、訓練タスク情報に基づいて訓練配置データを生成し、対応する訓練サンプルライブラリから訓練サンプルを取得するように構成される。
ブランチ管理ユニット213は、対応する推論モデルのモデルバージョン情報を検証し、モデルバージョン情報が正しいか否かを判断するように構成される。モデルのバージョン情報が正しい場合、ブランチ管理ユニット213は、さらに、バージョン情報が正しい対応する推論モデルを推論演算装置500に送信するように構成される。
当該第1の訓練サンプルライブラリ23は、推論演算装置500によって送信された正解結果がラベル付けされた訓練サンプルを受信するように構成される。
例えば、再判定されて正解結果がラベル付けされた後に、推論演算装置500の推論モデルモジュール13の推論結果を第1の訓練サンプルライブラリ23に送信し、それによって第1の訓練サンプルライブラリ23を更新する。
この場合、第1のモデル訓練モジュール22は、さらに、モデル更新要求を受信していないときに、更新後の第1の訓練サンプルライブラリ23に基づいてモデル訓練を行い、第3の推論モデルを取得するように構成される。
Claims (18)
- 推論演算装置であって、
少なくとも1つのプロセッサとメモリを含み、
前記メモリにはプログラム命令が記憶され、
前記プログラム命令は、少なくとも1つの前記プロセッサによって実行可能であり、
モデル訓練装置からの第1の推論モデルを受信する動作と、
前記第1の推論モデルに基づいて、生産製造段階で生成された処理待ちデータの推論演算を行い、推論結果を取得し、前記推論結果をユーザ側機器に送信する動作と、
前記第1の推論モデルを更新する必要があるか否かを定めるように、前記第1の推論モデルの性能を評価し、そうである場合、前記第1の推論モデルを更新する動作であって、前記第1の推論モデルに対して行う更新は、第2の訓練サンプルライブラリに基づいて、モデル訓練を行い、第2の推論モデルを取得するか、又は前記モデル訓練装置にモデル更新要求を送信し、第2の推論モデルを取得することと、前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、前記第2の訓練サンプルライブラリは、履歴データからの訓練サンプル、又は前記推論結果からの再判定を受けた訓練サンプル、又は履歴データからの訓練サンプル及び前記推論結果からの再判定を受けた訓練サンプルを含む動作と、を前記推論演算装置に実行させ、
前記第1の推論モデルは、前記モデル訓練装置が、第1の訓練サンプルライブラリに基づいてモデル訓練を行うことで取得されたものであり、
前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
前記モデル訓練装置は、クラウド機器を含み、
前記推論演算装置は、モデル訓練装置よりもユーザ側機器に近く、
前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む、
推論演算装置。 - 前記履歴データは、欠陥情報がラベル付けされた製品画像を含み、
前記処理待ちデータは、生産製造段階で生成された原始製品画像を含み、
前記推論結果は、前記原始製品画像における欠陥情報を含む、
請求項1に記載の推論演算装置。 - 前記更新条件は、さらに、
前記第2の推論モデルに対してテストを行い、前記第2の推論モデルが前記テストに合格することを含み、
前記テストは、テストサンプルに基づいて前記第2の推論モデルの性能を評価することを含み、性能が評価要件を満たす場合、テストに合格したと判定される、
請求項1に記載の推論演算装置。 - 前記更新条件は、前記第2の推論モデルの配置情報を検証し、前記配置情報が、行われる必要のある推論演算と一致することをさらに含む、
請求項1に記載の推論演算装置。 - モデル訓練を行って第2の推論モデルを取得するか、又はモデル訓練装置にモデル更新要求を送信して第2の推論モデルを取得する前に、
行われたモデル訓練に必要な訓練パラメータが設定された訓練パラメータ範囲内にあるか否かを判定し、
前記訓練パラメータが前記訓練パラメータ範囲内にある場合、前記モデル訓練を行い、
前記訓練パラメータが前記訓練パラメータ範囲内にない場合、前記モデル訓練装置にモデル更新要求を送信する、動作をさらに実行する、
請求項1に記載の推論演算装置。 - 前記訓練パラメータは、モデル訓練に必要なデータサイズ、訓練継続時間、および演算能力のうちの少なくとも1つを含む、
請求項5に記載の推論演算装置。 - 前記第1の推論モデルの性能を評価するための評価パラメータは、推論演算の過程中の前記第1の推論モデルの正解率、適合率、再現率、及びF値のうちの少なくとも1つを含み、
性能評価に基づいて前記第1の推論モデルを更新する必要がある状況は、第1の推論モデルの性能が変動又は低下したことを含み、
前記評価パラメータの連続した期間内の変化状況に基づいて、前記第1の推論モデルの性能が変動又は低下したか否かを判定する、
請求項1に記載の推論演算装置。 - 性能評価に基づいて前記第1の推論モデルを更新することは、
第3の推論モデルを受信することと、
前記第1の推論モデルと前記第3の推論モデルとの性能を比較し、前記第3の推論モデルの性能が前記第1の推論モデルの性能よりも高い場合に、又は前記第1の推論モデルに異常が発生した場合に、前記第3の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、
前記第3の推論モデルは、前記モデル訓練装置が前記モデル更新要求を受信していない状況で、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行って取得されたものであり、
前記更新後の第1の訓練サンプルライブラリは、前記推論結果からの、再判定を受けた訓練サンプルを含む、
請求項1に記載の推論演算装置。 - 前記第2の推論モデルを用いて前記第1の推論モデルを更新する場合、
前記第2の推論モデルの性能を評価し、前記第1の推論モデルの性能と前記第2の推論モデルの性能を比較する動作と、
前記第2の推論モデルの性能が前記第1の推論モデルの性能よりも劣っている場合、前記第2の推論モデルを前記第1の推論モデルにロールバックし、モデル訓練を改めて行う動作、又はモデル訓練を行うように前記モデル訓練装置に改めて要求する動作と、をさらに実行する、
請求項1に記載の推論演算装置。 - 前記推論結果を取得した後、
前記推論結果に基づいて、決定命令を生成する動作をさらに実行し、
前記欠陥情報は、欠陥があることが識別された原始製品画像と、欠陥位置及び欠陥タイプに関する情報と、を含み、
前記決定命令は、前記原始製品画像の欠陥情報に基づいて、欠陥のある前記原始製品画像に対応する製品に対して、対応する欠陥処理を行う、
請求項2に記載の推論演算装置。 - モデル訓練装置であって、
少なくとも1つのプロセッサと、メモリと、を含み、
前記メモリにはプログラム命令が記憶され、
前記プログラム命令は、少なくとも1つの前記プロセッサによって実行可能であり、
第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
前記第1の推論モデルを推論演算装置に送信する動作と、
前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
前記第2の推論モデルを前記推論演算装置に送信する動作であって、前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新し、前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む動作と、を前記モデル訓練装置に実行させ、
前記第1の訓練サンプルライブラリは、生産製造段階で生成された履歴データからの訓練サンプルを含み、
前記更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの、再判定を受けた訓練サンプルを含む、
モデル訓練装置。 - 前記第1の訓練サンプルライブラリ、又は前記更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行う過程中に、
訓練タスク情報を生成する動作と、
前記訓練タスク情報に基づいて訓練配置データを生成する動作と、
対応する訓練サンプルライブラリから訓練サンプルを取得し、前記訓練サンプルと前記訓練配置データに基づいてモデル訓練を行い、対応する推論モデルを取得する動作と、を実行する、
請求項11に記載のモデル訓練装置。 - 前記対応する訓練サンプルライブラリから訓練サンプルを取得し、前記訓練サンプルと前記訓練配置データに基づいてモデル訓練を行い、対応する推論モデルを取得する過程中に、
モデル訓練の過程を監視する動作と、
モデル訓練の過程に異常が発生した場合、前記訓練配置データを更新する動作と、
前記訓練サンプルと更新後の訓練配置データに基づいてモデル訓練を行う動作と、をさらに実行する、
請求項12に記載のモデル訓練装置。 - 前記第1の推論モデル又は前記第2の推論モデルを前記推論演算装置に送信する前に、
対応する推論モデルのモデルバージョン情報を検証し、前記モデルバージョン情報が正しいか否かを判定する動作と、
前記モデルバージョン情報が正しい場合、対応する推論モデルを前記推論演算装置に送信する動作と、
前記モデルバージョン情報が正しくない場合、モデルバージョンが要件を満たす推論モデルを検索し、検出された場合は検出された推論モデルを前記推論演算装置に送信し、検出されなかった場合は通知情報を前記推論演算装置に送信する動作と、をさらに実行する、
請求項11~13のいずれか1項に記載のモデル訓練装置。 - 前記第1の訓練サンプルライブラリをさらに含み、
前記第1の訓練サンプルライブラリを更新する動作と、
前記モデル更新要求を受信していない状況で、前記更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第3の推論モデルを取得する動作と、
前記第3の推論モデルを前記推論演算装置に送信する動作と、をさらに実行する、
請求項11に記載のモデル訓練装置。 - プログラム命令が記憶され、
前記プログラム命令は、プロセッサによって実行可能であり、
推論演算装置に、
第1の推論モデルを受信する動作と、
前記第1の推論モデルに基づいて、工業生産中の処理待ちデータの推論演算を行い、推論結果を取得する動作と、
前記第1の推論モデルを更新する必要があるか否かを判定するように、前記第1の推論モデルの性能を評価し、前記第1の推論モデルを更新する必要がある場合、前記第1の推論モデルを更新する動作であって、前記第1の推論モデルに対して行う更新は、第2の訓練サンプルライブラリに基づいて、モデル訓練を行い、第2の推論モデルを取得するか、又はモデル更新要求を送信し、第2の推論モデルを取得することと、前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新することと、を含み、前記第2の訓練サンプルライブラリは、履歴データからの訓練サンプル、又は前記推論結果からの再判定を受けた訓練サンプル、又は履歴データからの訓練サンプル及び前記推論結果からの再判定を受けた訓練サンプルを含む動作と、を実行させ、
前記第1の推論モデルは、第1の訓練サンプルライブラリに基づいて、モデル訓練を行うことで取得されたものであり、
前記第1の訓練サンプルライブラリは、履歴データからの訓練サンプルを含み、
前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む、
コンピュータ可読記憶媒体。 - プログラム命令が記憶され、
前記プログラム命令は、プロセッサによって実行可能であり、
モデル訓練装置に、
第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第1の推論モデルを取得する動作と、
前記第1の推論モデルを推論演算装置に送信する動作と、
前記推論演算装置からのモデル更新要求を受信した場合、更新後の第1の訓練サンプルライブラリに基づいてモデル訓練を行い、第2の推論モデルを取得する動作と、
前記第2の推論モデルを前記推論演算装置に送信する動作であって、前記第2の推論モデルが更新条件を満たす場合、前記第2の推論モデルを用いて前記第1の推論モデルを更新し、前記更新条件は、前記第2の推論モデルに対してグレースケールデプロイを行い、かつ前記グレースケールデプロイの過程中に前記第2の推論モデルの性能を評価し、前記第2の推論モデルの性能が評価要件を満たすことをさらに含む動作と、を実行させ、
前記第1の推論モデルは、履歴データからの訓練サンプルを含み、
前記更新後の第1の訓練サンプルライブラリは、第1の推論モデルの推論結果からの再判定を受けた訓練サンプルを用いて、前記第1の訓練サンプルライブラリを更新して取得されたものである、
コンピュータ可読記憶媒体。 - 請求項1~10のいずれか1項に記載の推論演算装置及び請求項11~15のいずれか1項に記載のモデル訓練装置を含む、
推論演算システム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/127048 WO2021120181A1 (zh) | 2019-12-20 | 2019-12-20 | 推理计算装置、模型训练装置、推理计算系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023514466A JP2023514466A (ja) | 2023-04-06 |
JP7442550B2 true JP7442550B2 (ja) | 2024-03-04 |
Family
ID=76478141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021571382A Active JP7442550B2 (ja) | 2019-12-20 | 2019-12-20 | 推論演算装置、モデル訓練装置、及び推論演算システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210209488A1 (ja) |
EP (1) | EP4080407A4 (ja) |
JP (1) | JP7442550B2 (ja) |
KR (1) | KR20220117194A (ja) |
CN (1) | CN113597618A (ja) |
WO (1) | WO2021120181A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11574246B2 (en) * | 2020-01-21 | 2023-02-07 | Microsoft Technology Licensing, Llc | Updating training examples for artificial intelligence |
KR20220030339A (ko) * | 2020-08-27 | 2022-03-11 | 삼성디스플레이 주식회사 | 이물 불량 검출 방법 및 이물 불량 검출 시스템 |
KR20220049165A (ko) * | 2020-10-14 | 2022-04-21 | 삼성에스디에스 주식회사 | 추론 데이터 기반 예측 모델 보정 시스템 및 방법 |
US12008487B2 (en) * | 2020-12-15 | 2024-06-11 | International Business Machines Corporation | Inference model optimization |
CN114741269B (zh) * | 2022-04-14 | 2022-09-23 | 网思科技股份有限公司 | 一种推理系统业务性能评估的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170154246A1 (en) | 2015-11-30 | 2017-06-01 | Seematics Systems Ltd | Apparatus and method for inferring information using a computer network |
JP2019114116A (ja) | 2017-12-25 | 2019-07-11 | オムロン株式会社 | データ生成装置、データ生成方法及びデータ生成プログラム |
JP2019158684A (ja) | 2018-03-14 | 2019-09-19 | オムロン株式会社 | 検査システム、識別システム、及び識別器評価装置 |
WO2019229910A1 (ja) | 2018-05-30 | 2019-12-05 | 株式会社ウフル | 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101242549A (zh) * | 2007-11-22 | 2008-08-13 | 中国移动通信集团山东有限公司 | 通信网络告警关联的神经网络构建方法 |
TWI385492B (zh) * | 2008-12-16 | 2013-02-11 | Ind Tech Res Inst | 機台設備的維護分析系統及其方法 |
US11127020B2 (en) * | 2009-11-20 | 2021-09-21 | Palo Alto Research Center Incorporated | Generating an activity inference model from contextual data |
SG189840A1 (en) * | 2010-10-19 | 2013-06-28 | 3M Innovative Properties Co | Computer-aided assignment of ratings to digital samples of a manufactured web product |
US8700658B2 (en) * | 2011-09-01 | 2014-04-15 | Knf Technologies, Inc. | Relational meta model and associated domain context-based knowledge inference engine for knowledge discovery and organization |
CN103078897B (zh) * | 2012-11-29 | 2015-11-18 | 中山大学 | 一种实现Web业务细粒度分类与管理的系统 |
US10614373B1 (en) * | 2013-12-23 | 2020-04-07 | Groupon, Inc. | Processing dynamic data within an adaptive oracle-trained learning system using curated training data for incremental re-training of a predictive model |
US20150324686A1 (en) * | 2014-05-12 | 2015-11-12 | Qualcomm Incorporated | Distributed model learning |
US20180322623A1 (en) * | 2017-05-08 | 2018-11-08 | Aquifi, Inc. | Systems and methods for inspection and defect detection using 3-d scanning |
WO2018223000A1 (en) * | 2017-06-02 | 2018-12-06 | Aspen Technology, Inc. | Computer system and method for building and deploying predictive inferential models online |
CN107256009B (zh) * | 2017-06-30 | 2019-08-02 | 武汉理工大学 | 一种基于深度学习的产品数字模型智能装配系统 |
CN107316083B (zh) * | 2017-07-04 | 2021-05-25 | 北京百度网讯科技有限公司 | 用于更新深度学习模型的方法和装置 |
CN109754105B (zh) * | 2017-11-07 | 2024-01-05 | 华为技术有限公司 | 一种预测方法及终端、服务器 |
US11030071B2 (en) * | 2018-04-16 | 2021-06-08 | Armory, Inc. | Continuous software deployment |
CN109635171B (zh) * | 2018-12-13 | 2022-11-29 | 成都索贝数码科技股份有限公司 | 一种新闻节目智能标签的融合推理系统和方法 |
US20200193313A1 (en) * | 2018-12-14 | 2020-06-18 | Parallel Machines, Inc. | Interpretability-based machine learning adjustment during production |
CN109740661B (zh) * | 2018-12-28 | 2022-10-28 | 沈阳工业大学 | 一种基于模糊评估的油井动液面自适应预测方法 |
US10481579B1 (en) * | 2019-02-28 | 2019-11-19 | Nanotronics Imaging, Inc. | Dynamic training for assembly lines |
CN110378900B (zh) * | 2019-08-01 | 2020-08-07 | 北京迈格威科技有限公司 | 产品缺陷的检测方法、装置及系统 |
CN110554047B (zh) * | 2019-09-06 | 2021-07-02 | 腾讯科技(深圳)有限公司 | 产品缺陷检测数据处理方法、装置、系统和设备 |
-
2019
- 2019-12-20 CN CN201980003145.8A patent/CN113597618A/zh active Pending
- 2019-12-20 JP JP2021571382A patent/JP7442550B2/ja active Active
- 2019-12-20 WO PCT/CN2019/127048 patent/WO2021120181A1/zh unknown
- 2019-12-20 EP EP19955399.1A patent/EP4080407A4/en active Pending
- 2019-12-20 KR KR1020227001528A patent/KR20220117194A/ko unknown
- 2019-12-20 US US17/044,276 patent/US20210209488A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170154246A1 (en) | 2015-11-30 | 2017-06-01 | Seematics Systems Ltd | Apparatus and method for inferring information using a computer network |
JP2019114116A (ja) | 2017-12-25 | 2019-07-11 | オムロン株式会社 | データ生成装置、データ生成方法及びデータ生成プログラム |
JP2019158684A (ja) | 2018-03-14 | 2019-09-19 | オムロン株式会社 | 検査システム、識別システム、及び識別器評価装置 |
WO2019229910A1 (ja) | 2018-05-30 | 2019-12-05 | 株式会社ウフル | 顔認証を用いた入国審査システム、入国審査方法、プログラム、および認証装置 |
Non-Patent Citations (2)
Title |
---|
Jianguo CHEN et al.,"Distributed Deep Learning Model for Intelligent Video Surveillance Systems with Edge Computing",IEEE Transactions on Industrial Informatics,IEEE,2020年,pp.1-8 |
川上明久,実践AWS! 企業クラウドの設計パターン 特別編 AIとIoT AIの学習と試行を効率化 エッジのIoTと協調処理,日経SYSTEMS ,日本,日経BP社,2018年01月14日,第310号,pp.54~61 |
Also Published As
Publication number | Publication date |
---|---|
US20210209488A1 (en) | 2021-07-08 |
KR20220117194A (ko) | 2022-08-23 |
WO2021120181A1 (zh) | 2021-06-24 |
EP4080407A4 (en) | 2023-02-01 |
JP2023514466A (ja) | 2023-04-06 |
CN113597618A (zh) | 2021-11-02 |
EP4080407A1 (en) | 2022-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7442550B2 (ja) | 推論演算装置、モデル訓練装置、及び推論演算システム | |
US20200160207A1 (en) | Automated model update based on model deterioration | |
US11042145B2 (en) | Automatic health indicator learning using reinforcement learning for predictive maintenance | |
JP7393515B2 (ja) | 分散型製品欠陥分析システム、方法及びコンピュータ可読記憶媒体 | |
US9569298B2 (en) | Multi-stage failure analysis and prediction | |
US10795655B1 (en) | Provisioning of software applications on edge devices in an internet-of-things environment | |
US20230083744A1 (en) | Combined Learned and Dynamic Control System | |
JP2018513490A (ja) | 自動化システムを動作させる方法及び装置 | |
JP2017224027A (ja) | データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム | |
US20230176562A1 (en) | Providing an alarm relating to anomaly scores assigned to input data method and system | |
JP2023547849A (ja) | ラベルなしセンサデータを用いた産業システム内の稀な障害の自動化されたリアルタイムの検出、予測、及び予防に関する、方法または非一時的コンピュータ可読媒体 | |
CN114787831B (zh) | 改进分类模型的准确性 | |
KR102151756B1 (ko) | 작업자 관리 및 중개 방법 및 장치 | |
CN113095508A (zh) | 回归模型构建优化方法、设备、介质及计算机程序产品 | |
CN115546218B (zh) | 置信度阈值确定方法和装置、电子设备和存储介质 | |
US11995477B2 (en) | Verification of updated analytical procedures in monitoring systems | |
WO2021120179A1 (zh) | 产品制造消息处理方法、设备和计算机存储介质 | |
CN113632099B (en) | Distributed product defect analysis system, method and computer readable storage medium | |
US12020516B2 (en) | Method and device for processing product manufacturing messages, electronic device, and computer-readable storage medium | |
US20240160198A1 (en) | Industrial data source writeback | |
US20240160164A1 (en) | Industrial automation data quality and analysis | |
Wang et al. | Human-AI Interaction | |
WO2022177567A1 (en) | Dependability assessment framework for railroad asset management | |
WO2024043888A1 (en) | Real time detection, prediction and remediation of machine learning model drift in asset hierarchy based on time-series data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7442550 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |