JPWO2020178687A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2020178687A5 JPWO2020178687A5 JP2021547725A JP2021547725A JPWO2020178687A5 JP WO2020178687 A5 JPWO2020178687 A5 JP WO2020178687A5 JP 2021547725 A JP2021547725 A JP 2021547725A JP 2021547725 A JP2021547725 A JP 2021547725A JP WO2020178687 A5 JPWO2020178687 A5 JP WO2020178687A5
- Authority
- JP
- Japan
- Prior art keywords
- computer implementation
- training
- implementation model
- model
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims 12
- 238000004590 computer program Methods 0.000 claims 2
- 238000005094 computer simulation Methods 0.000 claims 2
Claims (22)
- データ処理システムにおいて、コンピュータ実施モデルをトレーニングするための方法であって、
前記データ処理システムによって、前記コンピュータ実施モデルのトレーニングの複数のインスタンスを実行することであって、前記コンピュータ実施モデルのトレーニングの各インスタンスは、異なるトレーニング・データ・セットを用いて前記コンピュータ実施モデルをトレーニングして、トレーニングされたコンピュータ実施モデルの異なるインスタンスを生成することを含む、前記実行することと、
トレーニングの各インスタンス後に、前記トレーニングされたコンピュータ実施モデルの対応するインスタンスを実行することによって、コンピュータ実施モデル結果を生成することと、
前記データ処理システムによって、前記トレーニングされたコンピュータ実施モデルのインスタンスの対応する識別子および対応するコンピュータ実施モデル結果に関連付けて、前記コンピュータ実施モデルのトレーニングの前記インスタンスの差を記録することと、
前記データ処理システムによって、前記記録された差および前記対応するコンピュータ実施モデル結果を分析することと、
前記データ処理システムによって、記録された差と、対応するコンピュータ実施モデル結果との間の相関を示す出力を生成することと、
を含む、方法。 - 前記コンピュータ実施モデルのトレーニングの複数のインスタンスを実行することは、
前記データ処理システムによって、トレーニング・データの第1のバージョンおよび1つまたは複数のハイパーパラメータの第1のセットを用いて、前記コンピュータ実施モデルに対し第1のトレーニング動作を実行して、前記コンピュータ実施モデルの第1のトレーニングされたインスタンスを生成することと、
前記データ処理システムによって、前記トレーニング・データの第2のバージョンおよび1つまたは複数のハイパーパラメータの第2のセットを用いて、前記コンピュータ実施モデルに対し第2のトレーニング動作を実行して、前記コンピュータ実施モデルの第2のトレーニングされたインスタンスを生成することと、
を含む、請求項1に記載の方法。 - 前記コンピュータ実施モデルのトレーニングの前記インスタンスの変更を記録することは、
前記データ処理システムによって、前記第1のトレーニング動作の第1の識別子を、前記トレーニング・データの第1のバージョンおよび前記1つまたは複数のハイパーパラメータの第1のセットと相関付ける第1の追跡データ構造を生成することと、
前記データ処理システムによって、前記第2のトレーニング動作の第2の識別子を、前記トレーニング・データの第2のバージョンおよび前記1つまたは複数のハイパーパラメータの第2のセットと相関付ける第2の追跡データ構造を生成することと、
を含む、請求項2に記載の方法。 - コンピュータ実施モデル結果を生成することは、
前記コンピュータ実施モデルの前記第1のインスタンスの実行から第1のモデル結果を生成することと、
前記コンピュータ実施モデルの前記第2のインスタンスの実行から第2のモデル結果を生成することとを含み、前記記録された差および前記対応するコンピュータ実施モデル結果を分析することは、前記データ処理システムによって、前記第1の追跡データ構造、前記第2の追跡データ構造、前記第1のモデル結果および前記第2のモデル結果に対しアナリティクスを実行して、前記第1のモデル結果と前記第2のモデル結果との差と相関する、前記第1のトレーニング動作と前記第2のトレーニング動作との差を特定することを含む、請求項3に記載の方法。 - 前記トレーニング・データの第2のバージョンは、前記トレーニング・データの第1のバージョンの変更バージョンである、請求項2に記載の方法。
- 前記出力を生成することは、
前記記録された差および対応するコンピュータ実施モデル結果に基づいて、どの変更が前記コンピュータ実施モデルの正確性を増大させるかを特定することによって、前記コンピュータ実施モデルのトレーニングを変更してトレーニング・データを改善するための1つまたは複数の推薦を生成することを更に含む、請求項1に記載の方法。 - 前記生成された1つまたは複数の推薦を実施するためにコンピュータ動作を自動的に実行することを更に含み、前記コンピュータ動作は、前記コンピュータ実施モデルのトレーニングを改善するエンティティとして前記1つまたは複数の推薦において指定されたエンティティを含む新たなトレーニング・データを得ること、前記コンピュータ実施モデルのトレーニングを劣化させるエンティティとして前記1つまたは複数の推薦において指定されたエンティティを除去すること、前記コンピュータ実施モデルの少なくとも1つのハイパーパラメータを変更すること、または前記コンピュータ実施モデルのトレーニングを実行するのに用いられるコンピュータ・モデル・トレーニング・ツールを変更することのうちの少なくとも1つを含む、請求項6に記載の方法。
- 前記コンピュータ実施モデルをトレーニングするのに用いられるトレーニング・データを、トレーニング・データの前のバージョンに戻すことができるように、前記コンピュータ実施モデルをトレーニングするのに用いられるトレーニング・データのインスタンスを追跡することを更に含む、請求項1に記載の方法。
- 前記分析することは、前記記録された差および前記対応するコンピュータ実施モデル結果に対しトレンド分析を実行することを含む、請求項1に記載の方法。
- 前記コンピュータ実施モデルのトレーニングの前記複数のインスタンスは、1つまたは複数のロケーションにおける異なるコンピュータ実施モデル開発者によって前記コンピュータ実施モデルの異なるコピーをトレーニングして、前記トレーニングされたコンピュータ実施モデルのインスタンスの異なるサブセットを生成することを含み、前記方法は、前記異なるコンピュータ実施モデル開発者からの前記トレーニングされたコンピュータ実施モデルのインスタンスの全ての前記サブセットにわたって実行される、請求項1に記載の方法。
- コンピュータ・プログラムであって、請求項1ないし10のいずれか1項に記載の方法の各ステップをコンピュータに実行させるための、コンピュータ・プログラム。
- 請求項11に記載のコンピュータ・プログラムを記録した、コンピュータ可読記憶媒体。
- 装置であって、
プロセッサと、
前記プロセッサに結合されたメモリであって、前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
前記コンピュータ実施モデルのトレーニングの複数のインスタンスを実行することであって、前記コンピュータ実施モデルのトレーニングの各インスタンスは、異なるトレーニング・データ・セットを用いて前記コンピュータ実施モデルをトレーニングして、トレーニングされたコンピュータ実施モデルの異なるインスタンスを生成することを含む、前記実行することと、
トレーニングの各インスタンス後に、前記トレーニングされたコンピュータ実施モデルの対応するインスタンスを実行することによって、コンピュータ実施モデル結果を生成することと、
前記トレーニングされたコンピュータ実施モデルのインスタンスの対応する識別子および対応するコンピュータ実施モデル結果に関連付けて、前記コンピュータ実施モデルのトレーニングの前記インスタンスの差を記録することと、
前記記録された差および前記対応するコンピュータ実施モデル結果を分析することと、
記録された差と、対応するコンピュータ実施モデル結果との間の相関を示す出力を生成することと、
を行わせる、前記メモリと、
を備える、装置。 - 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、
前記データ処理システムによって、トレーニング・データの第1のバージョンおよび1つまたは複数のハイパーパラメータの第1のセットを用いて、前記コンピュータ実施モデルに対し第1のトレーニング動作を実行して、前記コンピュータ実施モデルの第1のトレーニングされたインスタンスを生成することと、
前記データ処理システムによって、トレーニング・データの第2のバージョンおよび1つまたは複数のハイパーパラメータの第2のセットを用いて、前記コンピュータ実施モデルに対し第2のトレーニング動作を実行して、前記コンピュータ実施モデルの第2のトレーニングされたインスタンスを生成することと、
によって、前記コンピュータ実施モデルのトレーニングの複数のインスタンスを実行させる、請求項13に記載の装置。 - 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、
前記データ処理システムによって、前記第1のトレーニング動作の第1の識別子を、前記トレーニング・データの第1のバージョンおよび前記1つまたは複数のハイパーパラメータの第1のセットと相関付ける第1の追跡データ構造を生成することと、
前記データ処理システムによって、前記第2のトレーニング動作の第2の識別子を、前記トレーニング・データの第2のバージョンおよび前記1つまたは複数のハイパーパラメータの第2のセットと相関付ける第2の追跡データ構造を生成することと、
によって、前記コンピュータ実施モデルのトレーニングの前記インスタンスの変更を記録させる、請求項14に記載の装置。 - 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、
前記コンピュータ実施モデルの前記第1のインスタンスの実行から第1のモデル結果を生成することと、
前記コンピュータ実施モデルの前記第2のインスタンスの実行から第2のモデル結果を生成することとによって、コンピュータ実施モデル結果を生成させ、前記記録された差および前記対応するコンピュータ実施モデル結果を分析することは、前記データ処理システムによって、前記第1の追跡データ構造、前記第2の追跡データ構造、前記第1のモデル結果および前記第2のモデル結果に対しアナリティクスを実行して、前記第1のモデル結果と前記第2のモデル結果との差と相関する、前記第1のトレーニング動作と前記第2のトレーニング動作との差を特定することを含む、請求項15に記載の装置。 - 前記トレーニング・データの第2のバージョンは、前記トレーニング・データの第1のバージョンの変更バージョンである、請求項14に記載の装置。
- 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、
前記記録された差および対応するコンピュータ実施モデル結果に基づいて、どの変更が前記コンピュータ実施モデルの正確性を増大させるかを特定することによって、前記コンピュータ実施モデルのトレーニングを変更してトレーニング・データを改善するための1つまたは複数の推薦を生成することによって、前記出力を生成させる、請求項13に記載の装置。 - 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
前記生成された1つまたは複数の推薦を実施するためのコンピュータ動作を自動的に実行させ、前記コンピュータ動作は、前記コンピュータ実施モデルのトレーニングを改善するエンティティとして前記1つまたは複数の推薦において指定されたエンティティを含む新たなトレーニング・データを得ること、前記コンピュータ実施モデルのトレーニングを劣化させるエンティティとして前記1つまたは複数の推薦において指定されたエンティティを除去すること、前記コンピュータ実施モデルの少なくとも1つのハイパーパラメータを変更すること、または前記コンピュータ実施モデルのトレーニングを実行するのに用いられるコンピュータ・モデル・トレーニング・ツールを変更することのうちの少なくとも1つを含む、請求項18に記載の装置。 - 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、
前記コンピュータ実施モデルをトレーニングするのに用いられるトレーニング・データを、トレーニング・データの前のバージョンに戻すことができるように、前記コンピュータ実施モデルをトレーニングするのに用いられるトレーニング・データのインスタンスを追跡させる、請求項13に記載の装置。 - 前記メモリは命令を含み、前記命令は、前記プロセッサによって実行されると、前記プロセッサに、少なくとも、前記記録された差および前記対応するコンピュータ実施モデル結果に対しトレンド分析を実行することによって、前記記録された差および前記対応するコンピュータ実施モデル結果を分析させる、請求項13に記載の装置。
- 前記コンピュータ実施モデルの異なるコピーは、1つまたは複数のロケーションにおける異なるコンピュータ実施モデル開発者によってトレーニングされ、前記装置は、前記異なるコンピュータ実施モデル開発者からの前記トレーニングされたコンピュータ実施モデルの前記インスタンスの全てのサブセットにわたって動作可能である、請求項13に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/295,062 US11809966B2 (en) | 2019-03-07 | 2019-03-07 | Computer model machine learning based on correlations of training data with performance trends |
US16/295,062 | 2019-03-07 | ||
PCT/IB2020/051708 WO2020178687A1 (en) | 2019-03-07 | 2020-02-28 | Computer model machine learning based on correlations of training data with performance trends |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022522641A JP2022522641A (ja) | 2022-04-20 |
JPWO2020178687A5 true JPWO2020178687A5 (ja) | 2022-06-07 |
JP7413392B2 JP7413392B2 (ja) | 2024-01-15 |
Family
ID=72336425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021547725A Active JP7413392B2 (ja) | 2019-03-07 | 2020-02-28 | トレーニング・データと性能トレンドとの相関付けに基づいたコンピュータ・モデル機械学習 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11809966B2 (ja) |
JP (1) | JP7413392B2 (ja) |
CN (1) | CN113557535A (ja) |
DE (1) | DE112020000227T5 (ja) |
GB (1) | GB2596438A (ja) |
WO (1) | WO2020178687A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11625642B2 (en) * | 2018-04-22 | 2023-04-11 | Trendalyze Inc. | Method for converting nominal to ordinal or continuous variables using time-series distances |
US20200303060A1 (en) * | 2019-03-18 | 2020-09-24 | Nvidia Corporation | Diagnostics using one or more neural networks |
US11562178B2 (en) * | 2019-04-29 | 2023-01-24 | Oracle International Corporation | Adaptive sampling for imbalance mitigation and dataset size reduction in machine learning |
US11573833B2 (en) * | 2019-07-31 | 2023-02-07 | EMC IP Holding Company LLC | Allocating cores to threads running on one or more processors of a storage system |
US20210233166A1 (en) * | 2020-01-28 | 2021-07-29 | David B. Coulter | System and Method Of Lender, Borrower, and Employee Driven Enrollment |
US11494703B2 (en) * | 2020-02-26 | 2022-11-08 | Opendoor Labs Inc. | Machine learning model registry |
US11568279B2 (en) * | 2020-06-09 | 2023-01-31 | Sap Se | Anomaly detection for automated information technology processes |
US20220139514A1 (en) | 2020-11-03 | 2022-05-05 | Nuance Communications, Inc. | Communication System and Method |
KR102493655B1 (ko) * | 2020-12-01 | 2023-02-07 | 가천대학교 산학협력단 | 인공지능 모델 훈련 데이터셋의 관리방법 |
US20220199211A1 (en) * | 2020-12-22 | 2022-06-23 | Nuance Communications, Inc. | AI Platform System and Method |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6879944B1 (en) | 2000-03-07 | 2005-04-12 | Microsoft Corporation | Variational relevance vector machine |
US7080052B2 (en) | 2001-04-19 | 2006-07-18 | International Business Machines Corporation | Method and system for sample data selection to test and train predictive algorithms of customer behavior |
AU2009251043A1 (en) | 2009-01-07 | 2010-07-22 | The University Of Sydney | A method and system of data modelling |
US20110125734A1 (en) | 2009-11-23 | 2011-05-26 | International Business Machines Corporation | Questions and answers generation |
US8458074B2 (en) * | 2010-04-30 | 2013-06-04 | Corelogic Solutions, Llc. | Data analytics models for loan treatment |
US9454733B1 (en) | 2012-08-15 | 2016-09-27 | Context Relevant, Inc. | Training a machine learning model |
DE102013213397A1 (de) | 2013-07-09 | 2015-01-15 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Bereitstellen von Stützstellendaten für ein datenbasiertes Funktionsmodell |
JP2015087973A (ja) | 2013-10-31 | 2015-05-07 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 生成装置、生成方法、およびプログラム |
US9886670B2 (en) | 2014-06-30 | 2018-02-06 | Amazon Technologies, Inc. | Feature processing recipes for machine learning |
US20160358099A1 (en) | 2015-06-04 | 2016-12-08 | The Boeing Company | Advanced analytical infrastructure for machine learning |
JP6703264B2 (ja) | 2016-06-22 | 2020-06-03 | 富士通株式会社 | 機械学習管理プログラム、機械学習管理方法および機械学習管理装置 |
US20180025286A1 (en) | 2016-07-25 | 2018-01-25 | International Business Machines Corporation | Detecting trends in evolving analytics models |
US10832308B2 (en) | 2017-04-17 | 2020-11-10 | International Business Machines Corporation | Interpretable rule generation using loss preserving transformation |
US11113599B2 (en) | 2017-06-22 | 2021-09-07 | Adobe Inc. | Image captioning utilizing semantic text modeling and adversarial learning |
US10635939B2 (en) * | 2018-07-06 | 2020-04-28 | Capital One Services, Llc | System, method, and computer-accessible medium for evaluating multi-dimensional synthetic data using integrated variants analysis |
CN109189767B (zh) | 2018-08-01 | 2021-07-23 | 北京三快在线科技有限公司 | 数据处理方法、装置、电子设备及存储介质 |
US10528891B1 (en) * | 2018-08-23 | 2020-01-07 | SigOpt, Inc. | Systems and methods for implementing an intelligent machine learning optimization platform for multiple tuning criteria |
US11392859B2 (en) * | 2019-01-11 | 2022-07-19 | Microsoft Technology Licensing, Llc | Large-scale automated hyperparameter tuning |
-
2019
- 2019-03-07 US US16/295,062 patent/US11809966B2/en active Active
-
2020
- 2020-02-28 GB GB2112847.5A patent/GB2596438A/en not_active Withdrawn
- 2020-02-28 DE DE112020000227.6T patent/DE112020000227T5/de active Pending
- 2020-02-28 JP JP2021547725A patent/JP7413392B2/ja active Active
- 2020-02-28 CN CN202080018682.2A patent/CN113557535A/zh active Pending
- 2020-02-28 WO PCT/IB2020/051708 patent/WO2020178687A1/en active Application Filing
-
2023
- 2023-09-26 US US18/372,978 patent/US20240020579A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
De Weerdt et al. | Active trace clustering for improved process discovery | |
GB2596438A (en) | Computer model machine learning based on correlations of training data with performance trends | |
Souza et al. | Provenance data in the machine learning lifecycle in computational science and engineering | |
US9740595B2 (en) | Method and apparatus for producing a benchmark application for performance testing | |
CN111506504B (zh) | 基于软件开发过程度量的软件安全性缺陷预测方法及装置 | |
JPWO2020178687A5 (ja) | ||
Li et al. | Comparing programmer productivity in OpenACC and CUDA: An empirical investigation | |
Sharma et al. | Evaluating tree explanation methods for anomaly reasoning: A case study of SHAP TreeExplainer and TreeInterpreter | |
CN110990285B (zh) | 一种ui自动化测试方法及装置 | |
Chejara et al. | How to build more generalizable models for collaboration quality? lessons learned from exploring multi-context audio-log datasets using multimodal learning analytics | |
O'neal et al. | GPU performance estimation using software rasterization and machine learning | |
Hübner et al. | Using interaction data for continuous creation of trace links between source code and requirements in issue tracking systems | |
Wu et al. | Analytical performance modeling for top-k query processing | |
Krawczuk et al. | Anomaly detection in scientific workflows using end-to-end execution gantt charts and convolutional neural networks | |
CN111008140B (zh) | 一种跨平台的ui自动化测试方法及装置 | |
Gudmundsdottir et al. | A demonstration of interactive analysis of performance measurements with viska | |
Sudan et al. | Prediction of success and complex event processing in E-learning | |
Ahremark et al. | Benchmarking a machine learning model in the transformation from PyTorch to CoreML | |
Richter et al. | Model-aware clustering of non-conforming traces | |
Patel et al. | Preliminary Scaling Characterization of TPCx-AI | |
Ju et al. | Teamscope: Scalable Team Evaluation via Automated Metric Mining for Communication, Organization, Execution, and Evolution | |
Tan et al. | Proxyqa: An alternative framework for evaluating long-form text generation with large language models | |
Dwarakanath et al. | Software Defect Prediction Using Deep Semantic Feature Learning | |
US20230409976A1 (en) | Rewriting method and information processing apparatus | |
US20230095571A1 (en) | Methods and systems of sequential latent inference of complex knowledge |