JP2023511327A - モデル訓練方法および装置 - Google Patents
モデル訓練方法および装置 Download PDFInfo
- Publication number
- JP2023511327A JP2023511327A JP2022543575A JP2022543575A JP2023511327A JP 2023511327 A JP2023511327 A JP 2023511327A JP 2022543575 A JP2022543575 A JP 2022543575A JP 2022543575 A JP2022543575 A JP 2022543575A JP 2023511327 A JP2023511327 A JP 2023511327A
- Authority
- JP
- Japan
- Prior art keywords
- model
- server
- inference
- input data
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 229
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000011156 evaluation Methods 0.000 claims abstract description 226
- 238000004891 communication Methods 0.000 claims abstract description 23
- 230000015654 memory Effects 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000013480 data collection Methods 0.000 description 29
- 238000007726 management method Methods 0.000 description 27
- 230000000694 effects Effects 0.000 description 20
- 238000013473 artificial intelligence Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 239000013598 vector Substances 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 239000000872 buffer Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000032683 aging Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/045—Explanation of inference; Explainable artificial intelligence [XAI]; Interpretable artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Debugging And Monitoring (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
20 第2のサーバ
101 データ収集モジュール
102 モデル訓練モジュール
103 第1のモデル記憶モジュール
104 第2のモデル記憶モジュール
105 モデル推論管理モジュール
201 モデル再訓練管理モジュール
202 モデル評価モジュール
2021 評価ポリシー構成モジュール
2022 データ収集モジュール
2023 モデル評価メトリック査定モジュール
300 ニューラルネットワーク処理ユニット
301 入力メモリ
302 重みメモリ
303 演算回路
304 コントローラ
305 記憶ユニットアクセスコントローラ
306 ユニファイドメモリ
307 ベクトル計算ユニット307
308 累算器
309 命令フェッチバッファ
310 バスインターフェースユニット
400 モデル訓練装置
401、407 プロセッサ
402 通信線
403 メモリ
404 通信インターフェース
405 出力デバイス
406 入力デバイス
801、901 取得ユニット
802 推論ユニット
803 評価ユニット
804、903 送信ユニット
902 決定ユニット
904 処理ユニット
Claims (19)
- 第1のサーバおよび第2のサーバを含むシステムに適用されるモデル訓練方法であって、前記第1のサーバは、プライベートクラウド内に配置され、モデル推論のために使用され、前記第2のサーバは、パブリッククラウド内に配置され、モデル訓練のために使用され、前記方法は、
前記第1のサーバによって、前記第2のサーバから第1の訓練モデルを取得するステップと、
前記第1のサーバによって、モデル推論のための前記第1の訓練モデルに入力データを入力して推論結果を取得するステップと、
前記第1のサーバによって、前記推論結果およびモデル評価メトリックに基づいて前記第1の訓練モデルを評価して前記モデル評価メトリックの評価結果を取得するステップと、
少なくとも1つのモデル評価メトリックの評価結果が前記モデル評価メトリックに対応する所定の閾値以下である場合、前記第1のサーバによって、前記第1の訓練モデルのための再訓練命令を前記第2のサーバに送信するステップであって、前記再訓練命令は、前記第1の訓練モデルを再訓練するように前記第2のサーバに命令する、ステップと
を含むモデル訓練方法。 - 前記第1のサーバによって、モデル推論のための前記第1の訓練モデルに入力データを入力して推論結果を取得する前記ステップの後に、前記方法は、
前記第1のサーバによって、前記入力データおよび前記推論結果を前記第2のサーバに送信するステップであって、前記入力データおよび前記推論結果は、前記第1の訓練モデルを再訓練するために使用される、ステップ
をさらに含む、請求項1に記載のモデル訓練方法。 - 前記モデル評価メトリックは、前記推論結果の正確さ、前記推論結果の精度、前記推論結果の再現率、前記推論結果のF1スコアF1-score、および前記推論結果の受信者操作特性ROC曲線下面積AUCのうちの少なくとも1つを含む、請求項1または2に記載のモデル訓練方法。
- 前記方法は、モデル評価メトリックのすべての評価結果が前記モデル評価メトリックに対応する所定の閾値を超える場合、前記第1のサーバによって、前記第1の訓練モデルのための再訓練命令を前記第2のサーバに送信することをスキップするステップを含む、請求項1から3のいずれか一項に記載のモデル訓練方法。
- 第1のサーバおよび第2のサーバを含むシステムに適用されるモデル訓練方法であって、前記第1のサーバは、プライベートクラウド内に配置され、モデル推論のために使用され、前記第2のサーバは、パブリッククラウド内に配置され、モデル訓練のために使用され、前記方法は、
前記第2のサーバによって、前記第1のサーバから第1の訓練モデルのための再訓練命令、入力データ、および推論結果を取得するステップであって、前記再訓練命令は、前記第1の訓練モデルを再訓練するように前記第2のサーバに命令し、前記入力データは前記第1のサーバによって前記第1の訓練モデルに入力されるデータであり、前記推論結果は、前記第1のサーバがモデル推論のための前記第1の訓練モデルに前記入力データを入力した後に取得された結果である、ステップと、
前記第2のサーバによって、前記入力データおよび前記推論結果に基づいて再訓練サンプルセットを決定するステップと、
前記第2のサーバによって、前記再訓練サンプルセットに基づいて前記第1の訓練モデルを再訓練して第2の訓練モデルを決定するステップであって、前記第2の訓練モデルは、前記第1の訓練モデルに置き換わるために使用される、ステップと、
前記第2のサーバによって、前記第2の訓練モデルを前記第1のサーバに送信するステップと
を含むモデル訓練方法。 - 前記第2のサーバによって、前記第1のサーバから第1の訓練モデルのための再訓練命令、入力データ、および推論結果を取得する前記ステップは、具体的には、
前記第2のサーバによって、前記第1のサーバから受信した前記再訓練命令に応答して前記入力データおよび前記推論結果を取得するステップ
を含む、請求項5に記載のモデル訓練方法。 - 前記第2のサーバによって、前記入力データおよび前記推論結果に基づいて再訓練サンプルセットを決定する前記ステップは、具体的には、
前記第2のサーバによって、前記入力データに注釈を付けて注釈付き入力データを取得するステップと、
前記第2のサーバによって、前記注釈付き入力データおよび前記推論結果を前記再訓練サンプルセットに記憶するステップと
を含む、請求項5または6に記載のモデル訓練方法。 - 前記第2のサーバによって、前記入力データに注釈を付けて前記注釈付き入力データを取得する前記ステップの前に、前記方法は、
前記推論結果が正確な推論結果である場合、前記第2のサーバによって、前記推論結果および前記推論結果に対応する入力データを確保しておくステップ、または
前記推論結果が不正確な推論結果である場合、前記第2のサーバによって、前記推論結果および前記推論結果に対応する入力データを削除するか、または前記第2のサーバによって、前記推論結果を前記入力データに対応する正確な推論結果に置き換えるステップ
をさらに含む、請求項7に記載のモデル訓練方法。 - 第1のサーバおよび第2のサーバを含むシステムに適用されるモデル訓練装置であって、前記第1のサーバは、プライベートクラウド内に配置され、モデル推論のために使用され、前記第2のサーバは、パブリッククラウド内に配置され、モデル訓練のために使用され、前記第1のサーバとして機能する前記装置は、
前記第2のサーバから第1の訓練モデルを取得するように構成された取得ユニットと、
モデル推論のための前記第1の訓練モデルに入力データを入力して推論結果を取得するように構成された推論ユニットと、
前記推論結果およびモデル評価メトリックに基づいて前記第1の訓練モデルを評価して前記モデル評価メトリックの評価結果を取得するように構成された評価ユニットと、
少なくとも1つのモデル評価メトリックの評価結果が前記モデル評価メトリックに対応する所定の閾値以下である場合、前記第1の訓練モデルのための再訓練命令を前記第2のサーバに送信するように構成された送信ユニットであって、前記再訓練命令は、前記第1の訓練モデルを再訓練するように前記第2のサーバに命令する、送信ユニットと
を含む、モデル訓練装置。 - 前記送信ユニットは、前記入力データおよび前記推論結果を前記第2のサーバに送信するようにさらに構成されており、前記入力データおよび前記推論結果は、前記第1の訓練モデルを再訓練するために使用される、
請求項9に記載のモデル訓練装置。 - 前記モデル評価メトリックは、前記推論結果の正確さ、前記推論結果の精度、前記推論結果の再現率、前記推論結果のF1スコアF1-score、および前記推論結果の受信者操作特性ROC曲線下面積AUCのうちの少なくとも1つを含む、請求項9または10に記載のモデル訓練装置。
- 前記送信ユニットは、モデル評価メトリックのすべての評価結果が前記モデル評価メトリックに対応する所定の閾値を超える場合、前記第1の訓練モデルのための再訓練命令を前記第2のサーバに送信することをスキップするようにさらに構成されている、
請求項9から11のいずれか一項に記載のモデル訓練装置。 - 第1のサーバおよび第2のサーバを含むシステムに適用されるモデル訓練装置であって、前記第1のサーバは、プライベートクラウド内に配置され、モデル推論のために使用され、前記第2のサーバは、パブリッククラウド内に配置され、モデル訓練のために使用され、前記第2のサーバとして機能する前記装置は、
前記第1のサーバから第1の訓練モデルのための再訓練命令、入力データ、および推論結果を取得するように構成された取得ユニットであって、前記再訓練命令は、前記第1の訓練モデルを再訓練するように前記第2のサーバに命令し、前記入力データは前記第1のサーバによって前記第1の訓練モデルに入力されるデータであり、前記推論結果は、前記第1のサーバがモデル推論のための前記第1の訓練モデルに前記入力データを入力した後に取得された結果である、取得ユニットと、
前記入力データおよび前記推論結果に基づいて再訓練サンプルセットを決定するように構成された決定ユニットであって、
前記決定ユニットは、前記再訓練サンプルセットに基づいて前記第1の訓練モデルを再訓練して第2の訓練モデルを決定するようにさらに構成されており、前記第2の訓練モデルは、前記第1の訓練モデルに置き換わるために使用される、決定ユニットと、
前記第2の訓練モデルを前記第1のサーバに送信するように構成された送信ユニットと
を含むモデル訓練装置。 - 前記取得ユニットは、具体的には、前記第1のサーバから受信した前記再訓練命令に応答して前記入力データおよび前記推論結果を取得するように構成されている、
請求項13に記載のモデル訓練装置。 - 前記決定ユニットは、具体的には、前記入力データに注釈を付けて注釈付き入力データを取得するように構成されており、
前記決定ユニットは、具体的には、前記注釈付き入力データおよび前記推論結果を前記再訓練サンプルセットに記憶するようにさらに構成されている、
請求項13または14に記載のモデル訓練装置。 - 前記決定ユニットは、前記推論結果が正確な推論結果である場合、前記第2のサーバによって、前記推論結果および前記推論結果に対応する入力データを確保しておくように構成されており、
前記決定ユニットは、前記推論結果が不正確な推論結果である場合、前記第2のサーバによって、前記推論結果および前記推論結果に対応する入力データを削除するか、または前記第2のサーバによって、前記推論結果を前記入力データに対応する正確な推論結果に置き換えるようにさらに構成されている、
請求項15に記載のモデル訓練装置。 - モデル訓練装置であって、前記装置は、プロセッサ、メモリ、および通信インターフェースを含み、前記通信インターフェースは、別のデバイスまたは通信ネットワークと通信するように構成されており、前記メモリは、1つ以上のプログラムを記憶するように構成されており、前記1つ以上のプログラムは、コンピュータ実行可能命令を含み、前記装置が作動すると、前記プロセッサは、前記メモリに記憶された前記コンピュータ実行可能命令を実行して、前記装置が請求項1から4または5から8のいずれか一項に記載のモデル訓練方法を実行することを可能にする、モデル訓練装置。
- コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体はプログラム命令を記憶しており、前記プログラム命令がプロセッサによって実行されると、請求項1から4または5から8のいずれか一項に記載のモデル訓練方法が実行される、コンピュータ可読記憶媒体。
- 命令を含むコンピュータプログラム製品であって、前記コンピュータプログラム製品がコンピュータにおいてプロセッサによって実行されると、前記コンピュータは、請求項1から4または5から8のいずれか一項に記載のモデル訓練方法を実行することが可能にされる、コンピュータプログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010049320.1A CN113128686A (zh) | 2020-01-16 | 2020-01-16 | 模型训练方法及装置 |
CN202010049320.1 | 2020-01-16 | ||
PCT/CN2020/113610 WO2021143155A1 (zh) | 2020-01-16 | 2020-09-04 | 模型训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023511327A true JP2023511327A (ja) | 2023-03-17 |
Family
ID=76772124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022543575A Pending JP2023511327A (ja) | 2020-01-16 | 2020-09-04 | モデル訓練方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220351081A1 (ja) |
EP (1) | EP4080419A4 (ja) |
JP (1) | JP2023511327A (ja) |
CN (1) | CN113128686A (ja) |
WO (1) | WO2021143155A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220049165A (ko) * | 2020-10-14 | 2022-04-21 | 삼성에스디에스 주식회사 | 추론 데이터 기반 예측 모델 보정 시스템 및 방법 |
WO2023092428A1 (zh) * | 2021-11-25 | 2023-06-01 | 华为技术有限公司 | 数据价值评估方法和相关产品 |
CN116233857A (zh) * | 2021-12-02 | 2023-06-06 | 华为技术有限公司 | 通信方法和通信装置 |
CN114741269B (zh) * | 2022-04-14 | 2022-09-23 | 网思科技股份有限公司 | 一种推理系统业务性能评估的方法 |
CN114707654B (zh) * | 2022-06-06 | 2022-08-23 | 浙江大学 | 基于人工智能框架的算法训练推理性能可视化方法及装置 |
CN115146737B (zh) * | 2022-07-21 | 2024-03-29 | 中国电信股份有限公司 | 匹配模型的建模方法、防护实现方法及相关设备 |
CN117993744A (zh) * | 2022-10-31 | 2024-05-07 | 华为技术有限公司 | 模型评估方法和装置 |
CN116819964B (zh) * | 2023-06-20 | 2024-02-06 | 小米汽车科技有限公司 | 模型优化方法、模型优化装置、电子设备、车辆和介质 |
CN116594846A (zh) * | 2023-07-14 | 2023-08-15 | 支付宝(杭州)信息技术有限公司 | 推理服务监控方法及装置 |
CN117114141B (zh) * | 2023-10-20 | 2024-02-27 | 安徽蔚来智驾科技有限公司 | 模型训练的方法、评估方法、计算机设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201812646A (zh) * | 2016-07-18 | 2018-04-01 | 美商南坦奧美克公司 | 分散式機器學習系統、分散式機器學習方法、以及產生代用資料之方法 |
CN113762504A (zh) * | 2017-11-29 | 2021-12-07 | 华为技术有限公司 | 模型训练系统、方法和存储介质 |
US11270201B2 (en) * | 2017-12-29 | 2022-03-08 | Intel Corporation | Communication optimizations for distributed machine learning |
WO2019172868A1 (en) * | 2018-03-05 | 2019-09-12 | Clinc, Inc. | Systems and method for automatically configuring machine learning models |
GB201805296D0 (en) * | 2018-03-29 | 2018-05-16 | Benevolentai Tech Limited | Shortlist Selection Model For Active Learning |
CN109543829A (zh) * | 2018-10-15 | 2019-03-29 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 在终端和云端上混合部署深度学习神经网络的方法和系统 |
CN110276387B (zh) * | 2019-06-12 | 2023-06-23 | 深圳前海微众银行股份有限公司 | 一种模型的生成方法及装置 |
-
2020
- 2020-01-16 CN CN202010049320.1A patent/CN113128686A/zh active Pending
- 2020-09-04 EP EP20913624.1A patent/EP4080419A4/en active Pending
- 2020-09-04 WO PCT/CN2020/113610 patent/WO2021143155A1/zh unknown
- 2020-09-04 JP JP2022543575A patent/JP2023511327A/ja active Pending
-
2022
- 2022-07-14 US US17/865,106 patent/US20220351081A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN113128686A (zh) | 2021-07-16 |
EP4080419A4 (en) | 2023-06-14 |
US20220351081A1 (en) | 2022-11-03 |
WO2021143155A1 (zh) | 2021-07-22 |
EP4080419A1 (en) | 2022-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023511327A (ja) | モデル訓練方法および装置 | |
US10644962B2 (en) | Continuous monitoring for performance evaluation of service interfaces | |
US10394693B2 (en) | Quantization of data streams of instrumented software | |
TWI620075B (zh) | 用於雲端巨量資料運算架構之伺服器及其雲端運算資源最佳化方法 | |
Das et al. | Performance optimization for edge-cloud serverless platforms via dynamic task placement | |
CN108776934B (zh) | 分布式数据计算方法、装置、计算机设备及可读存储介质 | |
EP3221789A1 (en) | Method and system for code offloading in mobile computing | |
CN103002005A (zh) | 云服务监测系统 | |
US20170351546A1 (en) | Resource predictors indicative of predicted resource usage | |
Gao et al. | On exploiting dynamic execution patterns for workload offloading in mobile cloud applications | |
US20230177527A1 (en) | Block chain system, and biological product monitoring method and device | |
US11630851B2 (en) | Systems and methods for providing predictions to applications executing on a computing device | |
WO2023103390A1 (zh) | 任务处理方法、任务处理装置、电子设备以及存储介质 | |
CN109614227A (zh) | 任务资源调配方法、装置、电子设备及计算机可读介质 | |
WO2022103575A1 (en) | Techniques for modifying cluster computing environments | |
da Silva et al. | Online machine learning for auto-scaling in the edge computing | |
CN112948223A (zh) | 一种监测运行情况的方法和装置 | |
US20210004658A1 (en) | System and method for provisioning of artificial intelligence accelerator (aia) resources | |
US20220076661A1 (en) | Duration based task monitoring of artificial intelligence voice response systems | |
CN114564249A (zh) | 推荐调度引擎、推荐调度方法及计算机可读存储介质 | |
CN111598390A (zh) | 服务器高可用性评估方法、装置、设备和可读存储介质 | |
Munige | Near Real-Time Processing of Voluminous, High-Velocity Data Streams for Continuous Sensing Environments | |
US12001310B2 (en) | Approximating activity loads in databases using smoothed time series | |
US11303649B2 (en) | Maintaining electronic communications session continuity during session inactivity | |
Li et al. | Holistic Evaluation Metrics: Use Case Sensitive Evaluation Metrics for Federated Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220825 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220825 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240131 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240422 |