JPWO2020178687A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020178687A5
JPWO2020178687A5 JP2021547725A JP2021547725A JPWO2020178687A5 JP WO2020178687 A5 JPWO2020178687 A5 JP WO2020178687A5 JP 2021547725 A JP2021547725 A JP 2021547725A JP 2021547725 A JP2021547725 A JP 2021547725A JP WO2020178687 A5 JPWO2020178687 A5 JP WO2020178687A5
Authority
JP
Japan
Prior art keywords
computer implementation
training
implementation model
model
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021547725A
Other languages
English (en)
Other versions
JP2022522641A (ja
JP7413392B2 (ja
Publication date
Priority claimed from US16/295,062 external-priority patent/US11809966B2/en
Application filed filed Critical
Publication of JP2022522641A publication Critical patent/JP2022522641A/ja
Publication of JPWO2020178687A5 publication Critical patent/JPWO2020178687A5/ja
Application granted granted Critical
Publication of JP7413392B2 publication Critical patent/JP7413392B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (22)

  1. データ処理システムにおいて、コンピュータ実施モデルをトレーニングするための方法であって、
    前記データ処理システムによって、前記コンピュータ実施モデルのトレーニングの複数のインスタンスを実行することであって、前記コンピュータ実施モデルのトレーニングの各インスタンスは、異なるトレーニング・データ・セットを用いて前記コンピュータ実施モデルをトレーニングして、トレーニングされたコンピュータ実施モデルの異なるインスタンスを生成することを含む、前記実行することと、
    トレーニングの各インスタンス後に、前記トレーニングされたコンピュータ実施モデルの対応するインスタンスを実行することによって、コンピュータ実施モデル結果を生成することと、
    前記データ処理システムによって、前記トレーニングされたコンピュータ実施モデルのインスタンスの対応する識別子および対応するコンピュータ実施モデル結果に関連付けて、前記コンピュータ実施モデルのトレーニングの前記インスタンスの差を記録することと、
    前記データ処理システムによって、前記記録された差および前記対応するコンピュータ実施モデル結果を分析することと、
    前記データ処理システムによって、記録された差と、対応するコンピュータ実施モデル結果との間の相関を示す出力を生成することと、
    を含む、方法。
  2. 前記コンピュータ実施モデルのトレーニングの複数のインスタンスを実行することは、
    前記データ処理システムによって、トレーニング・データの第1のバージョンおよび1つまたは複数のハイパーパラメータの第1のセットを用いて、前記コンピュータ実施モデルに対し第1のトレーニング動作を実行して、前記コンピュータ実施モデルの第1のトレーニングされたインスタンスを生成することと、
    前記データ処理システムによって、前記トレーニング・データの第2のバージョンおよび1つまたは複数のハイパーパラメータの第2のセットを用いて、前記コンピュータ実施モデルに対し第2のトレーニング動作を実行して、前記コンピュータ実施モデルの第2のトレーニングされたインスタンスを生成することと、
    を含む、請求項1に記載の方法。
  3. 前記コンピュータ実施モデルのトレーニングの前記インスタンスの変更を記録することは、
    前記データ処理システムによって、前記第1のトレーニング動作の第1の識別子を、前記トレーニング・データの第1のバージョンおよび前記1つまたは複数のハイパーパラメータの第1のセットと相関付ける第1の追跡データ構造を生成することと、
    前記データ処理システムによって、前記第2のトレーニング動作の第2の識別子を、前記トレーニング・データの第2のバージョンおよび前記1つまたは複数のハイパーパラメータの第2のセットと相関付ける第2の追跡データ構造を生成することと、
    を含む、請求項2に記載の方法。
  4. コンピュータ実施モデル結果を生成することは、
    前記コンピュータ実施モデルの前記第1のインスタンスの実行から第1のモデル結果を生成することと、
    前記コンピュータ実施モデルの前記第2のインスタンスの実行から第2のモデル結果を生成することとを含み、前記記録された差および前記対応するコンピュータ実施モデル結果を分析することは、前記データ処理システムによって、前記第1の追跡データ構造、前記第2の追跡データ構造、前記第1のモデル結果および前記第2のモデル結果に対しアナリティクスを実行して、前記第1のモデル結果と前記第2のモデル結果との差と相関する、前記第1のトレーニング動作と前記第2のトレーニング動作との差を特定することを含む、請求項3に記載の方法。
  5. 前記トレーニング・データの第2のバージョンは、前記トレーニング・データの第1のバージョンの変更バージョンである、請求項2に記載の方法。
  6. 前記出力を生成することは、
    前記記録された差および対応するコンピュータ実施モデル結果に基づいて、どの変更が前記コンピュータ実施モデルの正確性を増大させるかを特定することによって、前記コンピュータ実施モデルのトレーニングを変更してトレーニング・データを改善するための1つまたは複数の推薦を生成することを更に含む、請求項1に記載の方法。
  7. 前記生成された1つまたは複数の推薦を実施するためにコンピュータ動作を自動的に実行することを更に含み、前記コンピュータ動作は、前記コンピュータ実施モデルのトレーニングを改善するエンティティとして前記1つまたは複数の推薦において指定されたエンティティを含む新たなトレーニング・データを得ること、前記コンピュータ実施モデルのトレーニングを劣化させるエンティティとして前記1つまたは複数の推薦において指定されたエンティティを除去すること、前記コンピュータ実施モデルの少なくとも1つのハイパーパラメータを変更すること、または前記コンピュータ実施モデルのトレーニングを実行するのに用いられるコンピュータ・モデル・トレーニング・ツールを変更することのうちの少なくとも1つを含む、請求項6に記載の方法。
  8. 前記コンピュータ実施モデルをトレーニングするのに用いられるトレーニング・データを、トレーニング・データの前のバージョンに戻すことができるように、前記コンピュータ実施モデルをトレーニングするのに用いられるトレーニング・データのインスタンスを追跡することを更に含む、請求項1に記載の方法。
  9. 前記分析することは、前記記録された差および前記対応するコンピュータ実施モデル結果に対しトレンド分析を実行することを含む、請求項1に記載の方法。
  10. 前記コンピュータ実施モデルのトレーニングの前記複数のインスタンスは、1つまたは複数のロケーションにおける異なるコンピュータ実施モデル開発者によって前記コンピュータ実施モデルの異なるコピーをトレーニングして、前記トレーニングされたコンピュータ実施モデルのインスタンスの異なるサブセットを生成することを含み、前記方法は、前記異なるコンピュータ実施モデル開発者からの前記トレーニングされたコンピュータ実施モデルのインスタンスの全ての前記サブセットにわたって実行される、請求項1に記載の方法。
  11. コンピュータ・プログラムであって、請求項1ないし10のいずれか1項に記載の方法の各ステップをコンピュータに実行させるための、コンピュータ・プログラム。
  12. 請求項11に記載のコンピュータ・プログラムを記録した、コンピュータ可読記憶媒体。
  13. 装置であって、
    プロセッサと、
    前記プロセッサに結合されたメモリであって、前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
    前記コンピュータ実施モデルのトレーニングの複数のインスタンスを実行することであって、前記コンピュータ実施モデルのトレーニングの各インスタンスは、異なるトレーニング・データ・セットを用いて前記コンピュータ実施モデルをトレーニングして、トレーニングされたコンピュータ実施モデルの異なるインスタンスを生成することを含む、前記実行することと、
    トレーニングの各インスタンス後に、前記トレーニングされたコンピュータ実施モデルの対応するインスタンスを実行することによって、コンピュータ実施モデル結果を生成することと、
    前記トレーニングされたコンピュータ実施モデルのインスタンスの対応する識別子および対応するコンピュータ実施モデル結果に関連付けて、前記コンピュータ実施モデルのトレーニングの前記インスタンスの差を記録することと、
    前記記録された差および前記対応するコンピュータ実施モデル結果を分析することと、
    記録された差と、対応するコンピュータ実施モデル結果との間の相関を示す出力を生成することと、
    を行わせる、前記メモリと、
    を備える、装置。
  14. 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、
    前記データ処理システムによって、トレーニング・データの第1のバージョンおよび1つまたは複数のハイパーパラメータの第1のセットを用いて、前記コンピュータ実施モデルに対し第1のトレーニング動作を実行して、前記コンピュータ実施モデルの第1のトレーニングされたインスタンスを生成することと、
    前記データ処理システムによって、トレーニング・データの第2のバージョンおよび1つまたは複数のハイパーパラメータの第2のセットを用いて、前記コンピュータ実施モデルに対し第2のトレーニング動作を実行して、前記コンピュータ実施モデルの第2のトレーニングされたインスタンスを生成することと、
    によって、前記コンピュータ実施モデルのトレーニングの複数のインスタンスを実行させる、請求項13に記載の装置。
  15. 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、
    前記データ処理システムによって、前記第1のトレーニング動作の第1の識別子を、前記トレーニング・データの第1のバージョンおよび前記1つまたは複数のハイパーパラメータの第1のセットと相関付ける第1の追跡データ構造を生成することと、
    前記データ処理システムによって、前記第2のトレーニング動作の第2の識別子を、前記トレーニング・データの第2のバージョンおよび前記1つまたは複数のハイパーパラメータの第2のセットと相関付ける第2の追跡データ構造を生成することと、
    によって、前記コンピュータ実施モデルのトレーニングの前記インスタンスの変更を記録させる、請求項14に記載の装置。
  16. 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、
    前記コンピュータ実施モデルの前記第1のインスタンスの実行から第1のモデル結果を生成することと、
    前記コンピュータ実施モデルの前記第2のインスタンスの実行から第2のモデル結果を生成することとによって、コンピュータ実施モデル結果を生成させ、前記記録された差および前記対応するコンピュータ実施モデル結果を分析することは、前記データ処理システムによって、前記第1の追跡データ構造、前記第2の追跡データ構造、前記第1のモデル結果および前記第2のモデル結果に対しアナリティクスを実行して、前記第1のモデル結果と前記第2のモデル結果との差と相関する、前記第1のトレーニング動作と前記第2のトレーニング動作との差を特定することを含む、請求項15に記載の装置。
  17. 前記トレーニング・データの第2のバージョンは、前記トレーニング・データの第1のバージョンの変更バージョンである、請求項14に記載の装置。
  18. 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、
    前記記録された差および対応するコンピュータ実施モデル結果に基づいて、どの変更が前記コンピュータ実施モデルの正確性を増大させるかを特定することによって、前記コンピュータ実施モデルのトレーニングを変更してトレーニング・データを改善するための1つまたは複数の推薦を生成することによって、前記出力を生成させる、請求項13に記載の装置。
  19. 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
    前記生成された1つまたは複数の推薦を実施するためのコンピュータ動作を自動的に実行させ、前記コンピュータ動作は、前記コンピュータ実施モデルのトレーニングを改善するエンティティとして前記1つまたは複数の推薦において指定されたエンティティを含む新たなトレーニング・データを得ること、前記コンピュータ実施モデルのトレーニングを劣化させるエンティティとして前記1つまたは複数の推薦において指定されたエンティティを除去すること、前記コンピュータ実施モデルの少なくとも1つのハイパーパラメータを変更すること、または前記コンピュータ実施モデルのトレーニングを実行するのに用いられるコンピュータ・モデル・トレーニング・ツールを変更することのうちの少なくとも1つを含む、請求項18に記載の装置。
  20. 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
    前記コンピュータ実施モデルをトレーニングするのに用いられるトレーニング・データを、トレーニング・データの前のバージョンに戻すことができるように、前記コンピュータ実施モデルをトレーニングするのに用いられるトレーニング・データのインスタンスを追跡させる、請求項13に記載の装置。
  21. 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、前記記録された差および前記対応するコンピュータ実施モデル結果に対しトレンド分析を実行することによって、前記記録された差および前記対応するコンピュータ実施モデル結果を分析させる、請求項13に記載の装置。
  22. 前記コンピュータ実施モデルの異なるコピーは、1つまたは複数のロケーションにおける異なるコンピュータ実施モデル開発者によってトレーニングされ、前記装置は、前記異なるコンピュータ実施モデル開発者からの前記トレーニングされたコンピュータ実施モデルの前記インスタンスの全てのサブセットにわたって動作可能である、請求項13に記載の装置。
JP2021547725A 2019-03-07 2020-02-28 トレーニング・データと性能トレンドとの相関付けに基づいたコンピュータ・モデル機械学習 Active JP7413392B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/295,062 US11809966B2 (en) 2019-03-07 2019-03-07 Computer model machine learning based on correlations of training data with performance trends
US16/295,062 2019-03-07
PCT/IB2020/051708 WO2020178687A1 (en) 2019-03-07 2020-02-28 Computer model machine learning based on correlations of training data with performance trends

Publications (3)

Publication Number Publication Date
JP2022522641A JP2022522641A (ja) 2022-04-20
JPWO2020178687A5 true JPWO2020178687A5 (ja) 2022-06-07
JP7413392B2 JP7413392B2 (ja) 2024-01-15

Family

ID=72336425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021547725A Active JP7413392B2 (ja) 2019-03-07 2020-02-28 トレーニング・データと性能トレンドとの相関付けに基づいたコンピュータ・モデル機械学習

Country Status (6)

Country Link
US (2) US11809966B2 (ja)
JP (1) JP7413392B2 (ja)
CN (1) CN113557535A (ja)
DE (1) DE112020000227T5 (ja)
GB (1) GB2596438A (ja)
WO (1) WO2020178687A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11625642B2 (en) * 2018-04-22 2023-04-11 Trendalyze Inc. Method for converting nominal to ordinal or continuous variables using time-series distances
US20200303060A1 (en) * 2019-03-18 2020-09-24 Nvidia Corporation Diagnostics using one or more neural networks
US11562178B2 (en) * 2019-04-29 2023-01-24 Oracle International Corporation Adaptive sampling for imbalance mitigation and dataset size reduction in machine learning
US11573833B2 (en) * 2019-07-31 2023-02-07 EMC IP Holding Company LLC Allocating cores to threads running on one or more processors of a storage system
US20210233166A1 (en) * 2020-01-28 2021-07-29 David B. Coulter System and Method Of Lender, Borrower, and Employee Driven Enrollment
US11494703B2 (en) * 2020-02-26 2022-11-08 Opendoor Labs Inc. Machine learning model registry
US11568279B2 (en) * 2020-06-09 2023-01-31 Sap Se Anomaly detection for automated information technology processes
US20220139514A1 (en) 2020-11-03 2022-05-05 Nuance Communications, Inc. Communication System and Method
KR102493655B1 (ko) * 2020-12-01 2023-02-07 가천대학교 산학협력단 인공지능 모델 훈련 데이터셋의 관리방법
US20220199211A1 (en) * 2020-12-22 2022-06-23 Nuance Communications, Inc. AI Platform System and Method

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6879944B1 (en) 2000-03-07 2005-04-12 Microsoft Corporation Variational relevance vector machine
US7080052B2 (en) 2001-04-19 2006-07-18 International Business Machines Corporation Method and system for sample data selection to test and train predictive algorithms of customer behavior
AU2009251043A1 (en) 2009-01-07 2010-07-22 The University Of Sydney A method and system of data modelling
US20110125734A1 (en) 2009-11-23 2011-05-26 International Business Machines Corporation Questions and answers generation
US8458074B2 (en) * 2010-04-30 2013-06-04 Corelogic Solutions, Llc. Data analytics models for loan treatment
US9454733B1 (en) 2012-08-15 2016-09-27 Context Relevant, Inc. Training a machine learning model
DE102013213397A1 (de) 2013-07-09 2015-01-15 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bereitstellen von Stützstellendaten für ein datenbasiertes Funktionsmodell
JP2015087973A (ja) 2013-10-31 2015-05-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 生成装置、生成方法、およびプログラム
US9886670B2 (en) 2014-06-30 2018-02-06 Amazon Technologies, Inc. Feature processing recipes for machine learning
US20160358099A1 (en) 2015-06-04 2016-12-08 The Boeing Company Advanced analytical infrastructure for machine learning
JP6703264B2 (ja) 2016-06-22 2020-06-03 富士通株式会社 機械学習管理プログラム、機械学習管理方法および機械学習管理装置
US20180025286A1 (en) 2016-07-25 2018-01-25 International Business Machines Corporation Detecting trends in evolving analytics models
US10832308B2 (en) 2017-04-17 2020-11-10 International Business Machines Corporation Interpretable rule generation using loss preserving transformation
US11113599B2 (en) 2017-06-22 2021-09-07 Adobe Inc. Image captioning utilizing semantic text modeling and adversarial learning
US10635939B2 (en) * 2018-07-06 2020-04-28 Capital One Services, Llc System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis
CN109189767B (zh) 2018-08-01 2021-07-23 北京三快在线科技有限公司 数据处理方法、装置、电子设备及存储介质
US10528891B1 (en) * 2018-08-23 2020-01-07 SigOpt, Inc. Systems and methods for implementing an intelligent machine learning optimization platform for multiple tuning criteria
US11392859B2 (en) * 2019-01-11 2022-07-19 Microsoft Technology Licensing, Llc Large-scale automated hyperparameter tuning

Similar Documents

Publication Publication Date Title
De Weerdt et al. Active trace clustering for improved process discovery
GB2596438A (en) Computer model machine learning based on correlations of training data with performance trends
Souza et al. Provenance data in the machine learning lifecycle in computational science and engineering
US9740595B2 (en) Method and apparatus for producing a benchmark application for performance testing
CN111506504B (zh) 基于软件开发过程度量的软件安全性缺陷预测方法及装置
JPWO2020178687A5 (ja)
Li et al. Comparing programmer productivity in OpenACC and CUDA: An empirical investigation
Sharma et al. Evaluating tree explanation methods for anomaly reasoning: A case study of SHAP TreeExplainer and TreeInterpreter
CN110990285B (zh) 一种ui自动化测试方法及装置
Chejara et al. How to build more generalizable models for collaboration quality? lessons learned from exploring multi-context audio-log datasets using multimodal learning analytics
O'neal et al. GPU performance estimation using software rasterization and machine learning
Hübner et al. Using interaction data for continuous creation of trace links between source code and requirements in issue tracking systems
Wu et al. Analytical performance modeling for top-k query processing
Krawczuk et al. Anomaly detection in scientific workflows using end-to-end execution gantt charts and convolutional neural networks
CN111008140B (zh) 一种跨平台的ui自动化测试方法及装置
Gudmundsdottir et al. A demonstration of interactive analysis of performance measurements with viska
Sudan et al. Prediction of success and complex event processing in E-learning
Ahremark et al. Benchmarking a machine learning model in the transformation from PyTorch to CoreML
Richter et al. Model-aware clustering of non-conforming traces
Patel et al. Preliminary Scaling Characterization of TPCx-AI
Ju et al. Teamscope: Scalable Team Evaluation via Automated Metric Mining for Communication, Organization, Execution, and Evolution
Tan et al. Proxyqa: An alternative framework for evaluating long-form text generation with large language models
Dwarakanath et al. Software Defect Prediction Using Deep Semantic Feature Learning
US20230409976A1 (en) Rewriting method and information processing apparatus
US20230095571A1 (en) Methods and systems of sequential latent inference of complex knowledge