JP2023501257A - 機械学習技術における予測精度を向上させるための最適な重みの特定 - Google Patents
機械学習技術における予測精度を向上させるための最適な重みの特定 Download PDFInfo
- Publication number
- JP2023501257A JP2023501257A JP2022525521A JP2022525521A JP2023501257A JP 2023501257 A JP2023501257 A JP 2023501257A JP 2022525521 A JP2022525521 A JP 2022525521A JP 2022525521 A JP2022525521 A JP 2022525521A JP 2023501257 A JP2023501257 A JP 2023501257A
- Authority
- JP
- Japan
- Prior art keywords
- student model
- model
- weights
- training
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 101
- 238000010801 machine learning Methods 0.000 title claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 116
- 238000004590 computer program Methods 0.000 claims abstract description 31
- 238000012360 testing method Methods 0.000 claims abstract description 29
- 230000004044 response Effects 0.000 claims description 21
- 238000003860 storage Methods 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000003066 decision tree Methods 0.000 claims description 10
- 238000005516 engineering process Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 21
- 230000002787 reinforcement Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 7
- 238000013179 statistical model Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000004931 aggregating effect Effects 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
だけ増分され、ここで、αは学習率係数であり、Nは正の整数であり、g_kはケースkに対する教師モデルの出力である。
だけ増分され、ここで、αは学習率係数であり、Nは正の整数であり、g_kはケースkに対する教師モデルの出力である。教師モデル301が更新される増分量Δwは、以下のように示すこともできる。
ここで、rは各試行における強化値であり、wijは量Δwijだけ増分されたネットワークのパラメータであり、αは学習率係数であり、Nは正の整数であり、gkはケースkに対する教師モデルの出力である。
Claims (25)
- 機械学習技術における予測精度を向上させるためのコンピュータ実装方法であって、
教師モデルを構築することであり、前記教師モデルが各データ・ケースに対する重みを生成する、前記構築することと、
訓練データおよび前記教師モデルによって生成された重みを用いて現在の生徒モデルを訓練することと、
前記現在の生徒モデルによって状態特徴を生成することと、
前記状態特徴を用いて前記教師モデルによって新しい重みを生成することと、
前記訓練データおよび前記新しい重みを用いて候補生徒モデルを訓練することと、
前記訓練データおよびテスト・データを用いて前記現在の生徒モデルを前記候補生徒モデルと比較して、どちらが観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成することと、
停止規則が満たされないことに応答して、前記教師モデルを前記報酬で更新することと、
前記停止規則が満たされたことに応答して、前記新しい重みおよび前記現在の生徒モデルをユーザに返すことであり、前記返された生徒モデルが前記観察されたターゲットの予測を提供する、前記返すことと
を含む方法。 - 前記予測が前記観察されたターゲットにどれだけ近いかに基づいて、前記候補生徒モデルが前記現在の生徒モデルよりも前記観察されたターゲットのより優れた予測を生成するかどうかを判定すること
をさらに含む、請求項1に記載の方法。 - 前記候補生徒モデルが前記現在の生徒モデルよりも優れた前記観察されたターゲットの予測を生成することに応答して、前記現在の生徒モデルを前記候補生徒モデルで更新し、現在の重みを前記新しい重みで更新すること
をさらに含む、請求項2に記載の方法。 - 前記新しい重みを用いて前記更新された生徒モデルによって新しい状態特徴を生成することと、
前記新しい状態特徴を用いて前記教師モデルによって新しい重みの第2のセットを生成することと
をさらに含む、請求項3に記載の方法。 - 前記訓練データおよび前記新しい重みの第2のセットを用いて前記候補生徒モデルを訓練することと、
前記訓練データおよび前記テスト・データを用いて前記更新された生徒モデルを前記候補生徒モデルと比較して、どちらが前記観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成することと
をさらに含む、請求項4に記載の方法。 - 前記候補生徒モデルが前記現在の生徒モデルよりも優れた前記観察されたターゲットの予測を生成しないことに応答して、前記状態特徴を用いて前記更新された教師モデルによって新しい重みの第2のセットを生成すること
をさらに含む、請求項2に記載の方法。 - 前記訓練データおよび前記新しい重みの第2のセットを用いて前記候補生徒モデルを訓練することと、
前記訓練データおよび前記テスト・データを用いて前記現在の生徒モデルを前記候補生徒モデルと比較して、どちらが前記観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成することと
をさらに含む、請求項6に記載の方法。 - 前記停止規則が、指定された試行回数に達すること、指定された訓練時間に達すること、予測精度の収束、およびユーザ主導による終了のうちの1つまたは複数を含む、請求項1に記載の方法。
- 前記教師モデルがニューラル・ネットワークを含み、前記生徒モデルが決定木およびニューラル・ネットワークのうちの1つを含む、請求項1に記載の方法。
- 機械学習技術における予測精度を向上させるための、プログラム・コードが具現化されたコンピュータ可読記憶媒体を備えるコンピュータ・プログラム製品であって、前記プログラム・コードが、
教師モデルを構築し、前記教師モデルが各データ・ケースに対する重みを生成し、
訓練データおよび前記教師モデルによって生成された重みを用いて現在の生徒モデルを訓練し、
前記現在の生徒モデルによって状態特徴を生成し、
前記状態特徴を用いて前記教師モデルによって新しい重みを生成し、
前記訓練データおよび前記新しい重みを用いて候補生徒モデルを訓練し、
前記訓練データおよびテスト・データを用いて前記現在の生徒モデルを前記候補生徒モデルと比較して、どちらが観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成し、
停止規則が満たされないことに応答して、前記教師モデルを前記報酬で更新し、
前記停止規則が満たされたことに応答して、前記新しい重みおよび前記現在の生徒モデルをユーザに返し、前記返された生徒モデルが前記観察されたターゲットの予測を提供する
ためのプログラミング命令を含む、
コンピュータ・プログラム製品。 - 前記プログラム・コードが、
前記予測が前記観察されたターゲットにどれだけ近いかに基づいて、前記候補生徒モデルが前記現在の生徒モデルよりも前記観察されたターゲットのより優れた予測を生成するかどうかを判定する
ためのプログラミング命令をさらに含む、
請求項10に記載のコンピュータ・プログラム製品。 - 前記プログラム・コードが、
前記候補生徒モデルが前記現在の生徒モデルよりも優れた前記観察されたターゲットの予測を生成することに応答して、前記現在の生徒モデルを前記候補生徒モデルで更新し、現在の重みを前記新しい重みで更新する
ためのプログラミング命令をさらに含む、
請求項11に記載のコンピュータ・プログラム製品。 - 前記プログラム・コードが、
前記新しい重みを用いて前記更新された生徒モデルによって新しい状態特徴を生成し、
前記新しい状態特徴を用いて前記教師モデルによって新しい重みの第2のセットを生成する
ためのプログラミング命令をさらに含む、
請求項12に記載のコンピュータ・プログラム製品。 - 前記プログラム・コードが、
前記訓練データおよび前記新しい重みの第2のセットを用いて前記候補生徒モデルを訓練し、
前記訓練データおよび前記テスト・データを用いて前記更新された生徒モデルを前記候補生徒モデルと比較して、どちらが前記観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成する
ためのプログラミング命令をさらに含む、
請求項13に記載のコンピュータ・プログラム製品。 - 前記プログラム・コードが、
前記候補生徒モデルが前記現在の生徒モデルよりも優れた前記観察されたターゲットの予測を生成しないことに応答して、前記状態特徴を用いて前記更新された教師モデルによって新しい重みの第2のセットを生成する
ためのプログラミング命令をさらに含む、
請求項11に記載のコンピュータ・プログラム製品。 - 前記プログラム・コードが、
前記訓練データおよび前記新しい重みの第2のセットを用いて前記候補生徒モデルを訓練し、
前記訓練データおよび前記テスト・データを用いて前記現在の生徒モデルを前記候補生徒モデルと比較して、どちらが前記観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成する
ためのプログラミング命令をさらに含む、
請求項15に記載のコンピュータ・プログラム製品。 - 前記停止規則が、指定された試行回数に達すること、指定された訓練時間に達すること、予測精度の収束、およびユーザ主導による終了のうちの1つまたは複数を含む、請求項10に記載のコンピュータ・プログラム製品。
- システムであって、
機械学習技術における予測精度を向上させるためのコンピュータ・プログラムを記憶するメモリと、
前記メモリに接続されたプロセッサであり、前記コンピュータ・プログラムのプログラム命令を実行するように構成された、前記プロセッサとを備え、前記プログラム命令が、
教師モデルを構築することであり、前記教師モデルが各データ・ケースに対する重みを生成する、前記構築することと、
訓練データおよび前記教師モデルによって生成された重みを用いて現在の生徒モデルを訓練することと、
前記現在の生徒モデルによって状態特徴を生成することと、
前記状態特徴を用いて前記教師モデルによって新しい重みを生成することと、
前記訓練データおよび前記新しい重みを用いて候補生徒モデルを訓練することと、
前記訓練データおよびテスト・データを用いて前記現在の生徒モデルを前記候補生徒モデルと比較して、どちらが観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成することと、
停止規則が満たされないことに応答して、前記教師モデルを前記報酬で更新することと、
前記停止規則が満たされたことに応答して、前記新しい重みおよび前記現在の生徒モデルをユーザに返すことであり、前記返された生徒モデルが前記観察されたターゲットの予測を提供する、前記返すことと
を含む、
システム。 - 前記コンピュータ・プログラムの前記プログラム命令が、
前記予測が前記観察されたターゲットにどれだけ近いかに基づいて、前記候補生徒モデルが前記現在の生徒モデルよりも前記観察されたターゲットのより優れた予測を生成するかどうかを判定すること
をさらに含む、請求項18に記載のシステム。 - 前記コンピュータ・プログラムの前記プログラム命令が、
前記候補生徒モデルが前記現在の生徒モデルよりも優れた前記観察されたターゲットの予測を生成することに応答して、前記現在の生徒モデルを前記候補生徒モデルで更新し、現在の重みを前記新しい重みで更新すること
をさらに含む、請求項19に記載のシステム。 - 前記コンピュータ・プログラムの前記プログラム命令が、
前記新しい重みを用いて前記更新された生徒モデルによって新しい状態特徴を生成することと、
前記新しい状態特徴を用いて前記教師モデルによって新しい重みの第2のセットを生成することと
をさらに含む、請求項20に記載のシステム。 - 前記コンピュータ・プログラムの前記プログラム命令が、
前記訓練データおよび前記新しい重みの第2のセットを用いて前記候補生徒モデルを訓練することと、
前記訓練データおよび前記テスト・データを用いて前記更新された生徒モデルを前記候補生徒モデルと比較して、どちらが前記観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成することと
をさらに含む、請求項21に記載のシステム。 - 前記コンピュータ・プログラムの前記プログラム命令が、
前記候補生徒モデルが前記現在の生徒モデルよりも優れた前記観察されたターゲットの予測を生成しないことに応答して、前記状態特徴を用いて前記更新された教師モデルによって新しい重みの第2のセットを生成すること
をさらに含む、請求項19に記載のシステム。 - 前記コンピュータ・プログラムの前記プログラム命令が、
前記訓練データおよび前記新しい重みの第2のセットを用いて前記候補生徒モデルを訓練することと、
前記訓練データおよび前記テスト・データを用いて前記現在の生徒モデルを前記候補生徒モデルと比較して、どちらが前記観察されたターゲットを予測するのにより優れているかを判定することによって報酬を生成することと
をさらに含む、請求項23に記載のシステム。 - 前記停止規則が、指定された試行回数に達すること、指定された訓練時間に達すること、予測精度の収束、およびユーザ主導による終了のうちの1つまたは複数を含む、請求項18に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/684,396 | 2019-11-14 | ||
US16/684,396 US11443235B2 (en) | 2019-11-14 | 2019-11-14 | Identifying optimal weights to improve prediction accuracy in machine learning techniques |
PCT/IB2020/060581 WO2021094923A1 (en) | 2019-11-14 | 2020-11-10 | Identifying optimal weights to improve prediction accuracy in machine learning techniques |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023501257A true JP2023501257A (ja) | 2023-01-18 |
JP7471408B2 JP7471408B2 (ja) | 2024-04-19 |
Family
ID=75908006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022525521A Active JP7471408B2 (ja) | 2019-11-14 | 2020-11-10 | 機械学習技術における予測精度を向上させるための最適な重みの特定 |
Country Status (8)
Country | Link |
---|---|
US (2) | US11443235B2 (ja) |
JP (1) | JP7471408B2 (ja) |
KR (1) | KR20220066163A (ja) |
CN (1) | CN114616577A (ja) |
AU (1) | AU2020385049B2 (ja) |
DE (1) | DE112020005610T5 (ja) |
GB (1) | GB2603445A (ja) |
WO (1) | WO2021094923A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210182660A1 (en) * | 2019-12-16 | 2021-06-17 | Soundhound, Inc. | Distributed training of neural network models |
US11551083B2 (en) | 2019-12-17 | 2023-01-10 | Soundhound, Inc. | Neural network training from private data |
CN115335830A (zh) * | 2020-03-23 | 2022-11-11 | 谷歌有限责任公司 | 利用权重共享的神经架构搜索 |
US11663522B2 (en) * | 2020-04-27 | 2023-05-30 | Microsoft Technology Licensing, Llc | Training reinforcement machine learning systems |
US11620576B1 (en) * | 2020-06-22 | 2023-04-04 | Amazon Technologies, Inc. | Systems and methods for knowledge transfer in machine learning |
US11497001B2 (en) * | 2020-11-19 | 2022-11-08 | Kabushiki Kaisha Toshiba | Edge-intelligence for stability guaranteed real-time control systems |
US20230196067A1 (en) * | 2021-12-17 | 2023-06-22 | Lemon Inc. | Optimal knowledge distillation scheme |
US11386368B1 (en) * | 2022-03-04 | 2022-07-12 | John Schneider | Method for matching students with teachers to achieve optimal student outcomes |
CN115359062B (zh) * | 2022-10-24 | 2023-01-24 | 浙江华是科技股份有限公司 | 通过半监督实例分割标定监控目标的方法及系统 |
CN116564292B (zh) * | 2023-06-27 | 2024-02-13 | 镁佳(北京)科技有限公司 | 语音分类模型训练方法、语音分类方法、装置及设备 |
CN116594349B (zh) * | 2023-07-18 | 2023-10-03 | 中科航迈数控软件(深圳)有限公司 | 机床预测方法、装置、终端设备以及计算机可读存储介质 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009103025A2 (en) * | 2008-02-15 | 2009-08-20 | Biometallix, Llc | Reactor for extracting metals from metal sulfide containing materials and methods of use |
US10318882B2 (en) * | 2014-09-11 | 2019-06-11 | Amazon Technologies, Inc. | Optimized training of linear machine learning models |
US20160071017A1 (en) | 2014-10-15 | 2016-03-10 | Brighterion, Inc. | Method of operating artificial intelligence machines to improve predictive model training and performance |
KR102492318B1 (ko) | 2015-09-18 | 2023-01-26 | 삼성전자주식회사 | 모델 학습 방법 및 장치, 및 데이터 인식 방법 |
US20170132528A1 (en) | 2015-11-06 | 2017-05-11 | Microsoft Technology Licensing, Llc | Joint model training |
US10755172B2 (en) | 2016-06-22 | 2020-08-25 | Massachusetts Institute Of Technology | Secure training of multi-party deep neural network |
CN109643347A (zh) * | 2016-08-11 | 2019-04-16 | 推特公司 | 检测与社交媒体平台的脚本化或其他异常交互 |
JP6938980B2 (ja) | 2017-03-14 | 2021-09-22 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理方法及びプログラム |
US11748684B2 (en) * | 2017-03-31 | 2023-09-05 | Raytheon Technologies Corp. | Predictive analytics systems and methods |
JP6820815B2 (ja) | 2017-09-07 | 2021-01-27 | 株式会社日立製作所 | 学習制御システム及び学習制御方法 |
US10257072B1 (en) | 2017-09-28 | 2019-04-09 | Cisco Technology, Inc. | Weight initialization for random neural network reinforcement learning |
US20190102693A1 (en) * | 2017-09-29 | 2019-04-04 | Facebook, Inc. | Optimizing parameters for machine learning models |
US20190102709A1 (en) * | 2017-10-03 | 2019-04-04 | Invight, Inc. | Systems and methods for coordinating venue systems and messaging control |
WO2019096754A1 (en) | 2017-11-20 | 2019-05-23 | Koninklijke Philips N.V. | Training first and second neural network models |
US10643602B2 (en) | 2018-03-16 | 2020-05-05 | Microsoft Technology Licensing, Llc | Adversarial teacher-student learning for unsupervised domain adaptation |
US11423501B2 (en) * | 2018-10-30 | 2022-08-23 | Oracle International Corporation | Machine learning for optimal student guidance |
US20200134445A1 (en) * | 2018-10-31 | 2020-04-30 | Advanced Micro Devices, Inc. | Architecture for deep q learning |
US11656620B2 (en) * | 2018-12-31 | 2023-05-23 | Luminar, Llc | Generating environmental parameters based on sensor data using machine learning |
US20200218940A1 (en) * | 2019-01-08 | 2020-07-09 | International Business Machines Corporation | Creating and managing machine learning models in a shared network environment |
US11119250B2 (en) * | 2019-01-15 | 2021-09-14 | International Business Machines Corporation | Dynamic adaption of vessel trajectory using machine learning models |
US20200257980A1 (en) * | 2019-02-08 | 2020-08-13 | International Business Machines Corporation | Training optimization for neural networks with batch norm layers |
US11093862B2 (en) * | 2019-03-21 | 2021-08-17 | International Business Machines Corporation | Locality aware data loading for machine learning |
US11586930B2 (en) * | 2019-04-16 | 2023-02-21 | Microsoft Technology Licensing, Llc | Conditional teacher-student learning for model training |
CN110175628A (zh) | 2019-04-25 | 2019-08-27 | 北京大学 | 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法 |
CN110472494A (zh) * | 2019-06-21 | 2019-11-19 | 深圳壹账通智能科技有限公司 | 脸部特征提取模型训练方法、脸部特征提取方法、装置、设备及存储介质 |
US20200401949A1 (en) * | 2019-06-24 | 2020-12-24 | Microsoft Technology Licensing, Llc | Optimizing machine learned models based on dwell time of networked-transmitted content items |
US11276023B1 (en) * | 2019-09-06 | 2022-03-15 | Amazon Technologies, Inc. | Machine learning optimization for fraud detection |
US11640528B2 (en) * | 2019-10-22 | 2023-05-02 | Baidu Usa Llc | Method, electronic device and computer readable medium for information processing for accelerating neural network training |
US11755946B2 (en) * | 2019-11-08 | 2023-09-12 | International Business Machines Corporation | Cumulative reward predictor training |
WO2021095176A1 (ja) * | 2019-11-13 | 2021-05-20 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
-
2019
- 2019-11-14 US US16/684,396 patent/US11443235B2/en active Active
-
2020
- 2020-11-10 CN CN202080075087.2A patent/CN114616577A/zh active Pending
- 2020-11-10 KR KR1020227013741A patent/KR20220066163A/ko active Search and Examination
- 2020-11-10 DE DE112020005610.4T patent/DE112020005610T5/de active Pending
- 2020-11-10 WO PCT/IB2020/060581 patent/WO2021094923A1/en active Application Filing
- 2020-11-10 AU AU2020385049A patent/AU2020385049B2/en active Active
- 2020-11-10 GB GB2207662.4A patent/GB2603445A/en not_active Withdrawn
- 2020-11-10 JP JP2022525521A patent/JP7471408B2/ja active Active
-
2022
- 2022-05-27 US US17/827,495 patent/US20220292401A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN114616577A (zh) | 2022-06-10 |
US11443235B2 (en) | 2022-09-13 |
KR20220066163A (ko) | 2022-05-23 |
JP7471408B2 (ja) | 2024-04-19 |
GB2603445A (en) | 2022-08-03 |
DE112020005610T5 (de) | 2022-09-01 |
AU2020385049A1 (en) | 2022-04-28 |
US20210150407A1 (en) | 2021-05-20 |
US20220292401A1 (en) | 2022-09-15 |
WO2021094923A1 (en) | 2021-05-20 |
GB202207662D0 (en) | 2022-07-06 |
AU2020385049B2 (en) | 2023-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7471408B2 (ja) | 機械学習技術における予測精度を向上させるための最適な重みの特定 | |
US11537852B2 (en) | Evolving graph convolutional networks for dynamic graphs | |
US11556850B2 (en) | Resource-aware automatic machine learning system | |
KR20170034258A (ko) | 모델 학습 방법 및 장치, 및 데이터 인식 방법 | |
JP2023512135A (ja) | オブジェクト推薦方法及び装置、コンピュータ機器並びに媒体 | |
US20210383205A1 (en) | Taxonomy Construction via Graph-Based Cross-domain Knowledge Transfer | |
US20200311541A1 (en) | Metric value calculation for continuous learning system | |
US20210248465A1 (en) | Hierarchical multi-agent imitation learning with contextual bandits | |
CN114270365A (zh) | 基于弹性质心的聚类 | |
Lin | Online semi-supervised learning in contextual bandits with episodic reward | |
US11488007B2 (en) | Building of custom convolution filter for a neural network using an automated evolutionary process | |
US20230113524A1 (en) | Reactive voice device management | |
US11593680B2 (en) | Predictive models having decomposable hierarchical layers configured to generate interpretable results | |
US20240046128A1 (en) | Dynamic causal discovery in imitation learning | |
US11443735B2 (en) | Method for generating filled pause detecting model corresponding to new domain and device therefor | |
CN111090740B (zh) | 一种用于对话系统的知识图谱生成方法 | |
Luo et al. | Sampling-based adaptive bounding evolutionary algorithm for continuous optimization problems | |
JP7466702B2 (ja) | プロトタイプオプションの発見による解釈可能な模倣学習 | |
US20220198255A1 (en) | Training a semantic parser using action templates | |
US20220358388A1 (en) | Machine learning with automated environment generation | |
US11875127B2 (en) | Query response relevance determination | |
Milivojević et al. | Long short-term memory forecasting for COVID19 data | |
Dobrić et al. | Interpolative boolean networks | |
US20230108135A1 (en) | Neuro-symbolic reinforcement learning with first-order logic | |
US20230403204A1 (en) | Method, electronic device, and computer program product for information-centric networking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471408 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |