JP2019525329A - 複数の機械学習タスクに関する機械学習モデルのトレーニング - Google Patents
複数の機械学習タスクに関する機械学習モデルのトレーニング Download PDFInfo
- Publication number
- JP2019525329A JP2019525329A JP2019502693A JP2019502693A JP2019525329A JP 2019525329 A JP2019525329 A JP 2019525329A JP 2019502693 A JP2019502693 A JP 2019502693A JP 2019502693 A JP2019502693 A JP 2019502693A JP 2019525329 A JP2019525329 A JP 2019525329A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- task
- learning model
- respect
- parameter value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 334
- 238000012549 training Methods 0.000 title claims abstract description 103
- 238000000034 method Methods 0.000 claims abstract description 48
- 230000006870 function Effects 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 19
- 238000003860 storage Methods 0.000 claims description 11
- 230000002787 reinforcement Effects 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000001419 dependent effect Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 14
- 238000009826 distribution Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000026676 system process Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241000009334 Singa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012015 optical character recognition Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Feedback Control In General (AREA)
Abstract
Description
本出願は、2016年7月18日に出願された米国仮出願第62/363,652号の優先権を主張するものである。先の出願の開示は、本出願の開示の一部と考えられ、本出願の開示に参照により組み込まれる。
110 機械学習モデル
112 重要度重み計算エンジン
114 新しいトレーニングデータ
116 トレーニングされたパラメータ値
118 目的関数
120 重要度重み
200 プロセス
300 プロセス
c 分類コンテキスト、タスクコンテキスト
Claims (16)
- 複数のパラメータを有する機械学習モデルをトレーニングする方法であって、
前記機械学習モデルが、前記機械学習モデルの前記第1のパラメータ値を決定するために第1の機械学習タスクに関してトレーニング済みであり、
前記方法が、
前記複数のパラメータの各々に関して、前記第1の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルに対する前記パラメータの重要度のそれぞれの尺度を決定するステップと、
第2の異なる機械学習タスクに関して前記機械学習モデルをトレーニングするためのトレーニングデータを取得するステップと、
前記機械学習モデルが前記第1の機械学習タスクに関して許容可能なレベルの性能を維持しながら前記第2の機械学習タスクに関して許容可能なレベルの性能を達成するように、前記第1のパラメータ値を調整するために前記トレーニングデータに関して前記機械学習モデルをトレーニングすることによって前記第2の機械学習タスクに関して前記機械学習モデルをトレーニングするステップと
を含み、
前記第2の機械学習タスクに関して前記機械学習モデルをトレーニングする間、前記第1の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルにおいてより重要であったパラメータ値が、前記第1の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルにおいてより重要でなかったパラメータ値よりも、前記第1の値から逸脱しないようにより強く制約される、方法。 - 前記第1の機械学習タスクおよび前記第2の機械学習タスクが、異なる教師あり学習タスクである、請求項1に記載の方法。
- 前記第1の機械学習タスクおよび前記第2の機械学習タスクが、異なる強化学習タスクである、請求項1に記載の方法。
- 前記トレーニングデータに関して前記機械学習モデルをトレーニングするステップが、
(i)前記第2の機械学習タスクに関する前記機械学習モデルの性能を測定する第1の項と、
(ii)前記第1のパラメータ値から逸脱するパラメータ値に対してペナルティを課す第2の項であって、前記第1の機械学習タスクに関して許容可能な性能を達成する際により重要でなかったパラメータよりも前記第1の機械学習タスクに関して許容可能な性能を達成する際により重要であったパラメータに対して前記第1の値からの逸脱により重いペナルティを与える、第2の項と
を含む目的関数を最適化するために前記第1のパラメータ値を調整するステップを含む、
請求項1から3のいずれか一項に記載の方法。 - 前記トレーニングデータに関して前記機械学習モデルをトレーニングするステップが、前記トレーニングデータ内の各トレーニング例に関して、
モデルの出力を決定するために前記機械学習モデルの現在のパラメータ値に従って前記機械学習モデルを使用して前記トレーニング例を処理するステップと、
前記モデルの出力、前記トレーニング例に関する目標出力、前記機械学習モデルの前記現在のパラメータ値、および前記機械学習モデルの前記第1のパラメータ値を使用して前記目的関数の勾配を決定するステップと、
前記目的関数を最適化するために前記勾配を使用して前記現在のパラメータ値を調整するステップと
を含む、請求項4に記載の方法。 - 前記第2の項が、前記複数のパラメータの各々に関して、前記パラメータの重要度の前記それぞれの尺度と、前記現在のパラメータ値と前記第1のパラメータ値との間の差との積に依存する、請求項4または5に記載の方法。
- 前記複数のパラメータの各々に関して、前記第1の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルに対する前記パラメータの重要度のそれぞれの尺度を決定するステップが、
前記第1のタスクに関して前記機械学習モデルをトレーニングするために使用された第1のトレーニングデータを前提として、前記複数のパラメータの各々に関して、前記現在のパラメータ値が前記パラメータの正しい値である確率の概算を決定するステップを含む、請求項1から6のいずれか一項に記載の方法。 - 前記複数のパラメータの各々に関して、前記第1の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルに対する前記パラメータの重要度のそれぞれの尺度を決定するステップが、
前記第1の機械学習タスクに関連して前記機械学習モデルの前記複数のパラメータのフィッシャー情報行列(FIM)を決定するステップであって、前記複数のパラメータの各々に関して、前記パラメータの前記重要度の前記それぞれの尺度が、前記FIMの対角項の対応する値である、ステップを含む、請求項1から7のいずれか一項に記載の方法。 - 前記機械学習モデルの前記第2のパラメータ値を決定するために前記第2の機械学習タスクに関して前記機械学習モデルをトレーニングした後、
異なる第3の機械学習タスクに関して前記機械学習モデルをトレーニングするための第3のトレーニングデータを取得するステップと、
前記機械学習モデルが前記第1の機械学習タスクおよび前記第2の機械学習タスクに関して許容可能なレベルの性能を維持しながら前記第3の機械学習タスクに関して許容可能なレベルの性能を達成するように、前記第2のパラメータ値を調整するために前記第3のトレーニングデータに関して前記機械学習モデルをトレーニングすることによって前記第3の機械学習タスクに関して前記機械学習モデルをトレーニングするステップと
をさらに含み、
前記第3の機械学習タスクに関して前記機械学習モデルをトレーニングする間、前記第1の機械学習タスクおよび前記第2の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルにおいてより重要であったパラメータ値が、前記第1の機械学習タスクおよび前記第2の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルにおいてより重要でなかったパラメータ値よりも前記第2の値から逸脱しないようにより強く制約される、
請求項1から8のいずれか一項に記載の方法。 - 前記複数のパラメータの各々に関して、前記第2の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルに対する前記パラメータの重要度のそれぞれの尺度を決定するステップをさらに含み、
前記第3のトレーニングデータに関して前記機械学習モデルをトレーニングするステップが、
(i)前記第3の機械学習タスクに関する前記機械学習モデルの性能を測定する第1の項と、
(ii)第1のパラメータ値から逸脱するパラメータ値に対してペナルティを課す第2の項であって、前記第1の機械学習タスクに関して許容可能な性能を達成する際により重要でなかったパラメータよりも前記第1の機械学習タスクに関して許容可能な性能を達成する際により重要であったパラメータに対して前記第1の値からの逸脱により重いペナルティを与える、第2の項と
(iii)第2のパラメータ値から逸脱するパラメータ値に対してペナルティを課す第3の項であって、前記第2の機械学習タスクに関して許容可能な性能を達成する際により重要でなかったパラメータよりも前記第2の機械学習タスクに関して許容可能な性能を達成する際により重要であったパラメータに対して前記第2の値からの逸脱により重いペナルティを与える、第3の項と
を含む目的関数を最適化するために前記第2のパラメータ値を調整するステップを含む、
請求項9に記載の方法。 - 前記第2の項が、前記複数のパラメータの各々に関して、(i)前記第1の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルに対する前記パラメータの重要度の前記それぞれの尺度と、(ii)前記現在のパラメータ値と前記第1のパラメータ値との間の差との積に依存する、請求項10に記載の方法。
- 前記第3の項が、前記複数のパラメータの各々に関して、(i)前記第2の機械学習タスクに関して許容可能な性能を達成する前記機械学習モデルに対する前記パラメータの重要度の前記それぞれの尺度と、(ii)前記現在のパラメータ値と前記第2のパラメータ値との間の差との積に依存する、請求項10に記載の方法。
- 機械学習タスクを切り替えるときを特定するステップと、それに応じて、前記目的関数の前記第2の項を更新するステップとをさらに含む、請求項4に従属する場合の請求項4から8のいずれか一項に記載の方法。
- 機械学習タスクを切り替えるときを特定するステップが、どのタスクが1つまたは複数のモデルから実行されているのかを推測するステップを含む、請求項13に記載の方法。
- 1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実行されるときに、前記1つまたは複数のコンピュータに、請求項1から14のいずれか一項に記載のそれぞれの方法の動作を実行させるように動作可能である命令を記憶する1つまたは複数の記憶デバイスとを含む、システム。
- 1つまたは複数のコンピュータによって実行されるときに、前記1つまたは複数のコンピュータに、請求項1から14のいずれか一項に記載のそれぞれの方法の動作を実行させる命令を符号化された、コンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662363652P | 2016-07-18 | 2016-07-18 | |
US62/363,652 | 2016-07-18 | ||
PCT/US2017/042542 WO2018017546A1 (en) | 2016-07-18 | 2017-07-18 | Training machine learning models on multiple machine learning tasks |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019525329A true JP2019525329A (ja) | 2019-09-05 |
JP6824382B2 JP6824382B2 (ja) | 2021-02-03 |
Family
ID=59416834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019502693A Active JP6824382B2 (ja) | 2016-07-18 | 2017-07-18 | 複数の機械学習タスクに関する機械学習モデルのトレーニング |
Country Status (7)
Country | Link |
---|---|
US (1) | US20190236482A1 (ja) |
EP (2) | EP4231197B1 (ja) |
JP (1) | JP6824382B2 (ja) |
KR (1) | KR102242516B1 (ja) |
CN (1) | CN109690576A (ja) |
DE (1) | DE202017007641U1 (ja) |
WO (1) | WO2018017546A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022549226A (ja) * | 2019-09-20 | 2022-11-24 | グーグル エルエルシー | 強化学習を用いたデータ評価 |
JP2023510837A (ja) * | 2020-01-28 | 2023-03-15 | ディープ バイオ インク | ニューロン-レベル塑性制御を通じて破局的忘却を克服するための方法およびこれを行うコンピューティングシステム |
KR102510756B1 (ko) * | 2022-09-07 | 2023-03-16 | 서울대학교병원 | 수술 중 또는 수술 후 뇌졸중 예측 장치 및 방법 |
WO2023199479A1 (ja) * | 2022-04-14 | 2023-10-19 | 日本電信電話株式会社 | 学習装置、学習方法、および、学習プログラム |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180314805A1 (en) * | 2017-04-26 | 2018-11-01 | International Business Machines Corporation | Constraint-aware health management |
CN110574048B (zh) * | 2017-06-09 | 2023-07-07 | 渊慧科技有限公司 | 训练动作选择神经网络 |
US11741354B2 (en) * | 2017-08-25 | 2023-08-29 | Ford Global Technologies, Llc | Shared processing with deep neural networks |
US11562287B2 (en) | 2017-10-27 | 2023-01-24 | Salesforce.Com, Inc. | Hierarchical and interpretable skill acquisition in multi-task reinforcement learning |
US10573295B2 (en) * | 2017-10-27 | 2020-02-25 | Salesforce.Com, Inc. | End-to-end speech recognition with policy learning |
WO2019202073A1 (en) * | 2018-04-18 | 2019-10-24 | Deepmind Technologies Limited | Neural networks for scalable continual learning in domains with sequentially learned tasks |
US11544617B2 (en) | 2018-04-23 | 2023-01-03 | At&T Intellectual Property I, L.P. | Network-based machine learning microservice platform |
US10565475B2 (en) * | 2018-04-24 | 2020-02-18 | Accenture Global Solutions Limited | Generating a machine learning model for objects based on augmenting the objects with physical properties |
US11887003B1 (en) * | 2018-05-04 | 2024-01-30 | Sunil Keshav Bopardikar | Identifying contributing training datasets for outputs of machine learning models |
US11645509B2 (en) | 2018-09-27 | 2023-05-09 | Salesforce.Com, Inc. | Continual neural network learning via explicit structure learning |
US11922323B2 (en) * | 2019-01-17 | 2024-03-05 | Salesforce, Inc. | Meta-reinforcement learning gradient estimation with variance reduction |
KR20200100302A (ko) * | 2019-02-18 | 2020-08-26 | 삼성전자주식회사 | 신경망 기반의 데이터 처리 방법, 신경망 트레이닝 방법 및 그 장치들 |
CN111985637A (zh) * | 2019-05-21 | 2020-11-24 | 苹果公司 | 具有多个处理任务的条件执行的机器学习模型 |
CN112054863B (zh) * | 2019-06-06 | 2021-12-21 | 华为技术有限公司 | 一种通信方法及装置 |
KR20210010284A (ko) | 2019-07-18 | 2021-01-27 | 삼성전자주식회사 | 인공지능 모델의 개인화 방법 및 장치 |
WO2021010651A1 (en) * | 2019-07-18 | 2021-01-21 | Samsung Electronics Co., Ltd. | Method and apparatus for artificial intelligence model personalization |
US11531831B2 (en) * | 2019-09-30 | 2022-12-20 | Meta Platforms, Inc. | Managing machine learning features |
US20210150345A1 (en) * | 2019-11-14 | 2021-05-20 | Qualcomm Incorporated | Conditional Computation For Continual Learning |
US11475239B2 (en) * | 2019-11-21 | 2022-10-18 | Paypal, Inc. | Solution to end-to-end feature engineering automation |
CN112836714B (zh) * | 2019-11-22 | 2024-05-10 | 杭州海康威视数字技术股份有限公司 | 一种智能模型的训练方法及装置 |
CN111079938B (zh) * | 2019-11-28 | 2020-11-03 | 百度在线网络技术(北京)有限公司 | 问答阅读理解模型获取方法、装置、电子设备及存储介质 |
WO2021137100A1 (en) * | 2019-12-30 | 2021-07-08 | Element Ai Inc. | Method of and server for training a machine learning algorithm for estimating uncertainty of a sequence of models |
US11562203B2 (en) | 2019-12-30 | 2023-01-24 | Servicenow Canada Inc. | Method of and server for training a machine learning algorithm for estimating uncertainty of a sequence of models |
CN113132765A (zh) * | 2020-01-16 | 2021-07-16 | 北京达佳互联信息技术有限公司 | 码率决策模型训练方法、装置、电子设备及存储介质 |
US11631030B2 (en) | 2020-02-11 | 2023-04-18 | International Business Machines Corporation | Learning with moment estimation using different time constants |
CN111814462B (zh) * | 2020-07-09 | 2021-02-09 | 四川大学 | 基于动态正则化的高效终身关系提取方法及系统 |
CN112001181B (zh) * | 2020-07-17 | 2024-02-13 | 北京百度网讯科技有限公司 | 多语言语义表示模型的训练方法、装置、设备及存储介质 |
US11694038B2 (en) * | 2020-09-23 | 2023-07-04 | Capital One Services, Llc | Systems and methods for generating dynamic conversational responses through aggregated outputs of machine learning models |
US20220114439A1 (en) * | 2020-10-08 | 2022-04-14 | Here Global B.V. | Method, apparatus, and system for generating asynchronous learning rules and/architectures |
CN112698933A (zh) * | 2021-03-24 | 2021-04-23 | 中国科学院自动化研究所 | 在多任务数据流中持续学习的方法及装置 |
WO2024071845A1 (ko) * | 2022-09-28 | 2024-04-04 | 주식회사 메디컬에이아이 | 의료용 인공지능 모델의 구축 방법, 프로그램 및 장치 |
CN115952851A (zh) * | 2022-11-04 | 2023-04-11 | 电子科技大学 | 一种基于信息丢失机制的自监督连续学习方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1173405A (ja) * | 1997-08-27 | 1999-03-16 | Nippon Telegr & Teleph Corp <Ntt> | 神経回路網型逐次学習方法、神経回路網型逐次学習装置および神経回路網型逐次学習プログラムを記録した記録媒体 |
US7444310B2 (en) * | 2002-04-19 | 2008-10-28 | Computer Associates Think, Inc. | Automatic model maintenance through local nets |
US9146546B2 (en) * | 2012-06-04 | 2015-09-29 | Brain Corporation | Systems and apparatus for implementing task-specific learning using spiking neurons |
US9031897B2 (en) * | 2012-03-23 | 2015-05-12 | Nuance Communications, Inc. | Techniques for evaluation, building and/or retraining of a classification model |
US9104961B2 (en) * | 2012-10-08 | 2015-08-11 | Microsoft Technology Licensing, Llc | Modeling a data generating process using dyadic Bayesian models |
US10289962B2 (en) * | 2014-06-06 | 2019-05-14 | Google Llc | Training distilled machine learning models |
US10002329B2 (en) * | 2014-09-26 | 2018-06-19 | Facebook, Inc. | Selection and modification of features used by one or more machine learned models used by an online system |
US20170132528A1 (en) * | 2015-11-06 | 2017-05-11 | Microsoft Technology Licensing, Llc | Joint model training |
-
2017
- 2017-07-18 US US16/319,040 patent/US20190236482A1/en active Pending
- 2017-07-18 EP EP23167994.5A patent/EP4231197B1/en active Active
- 2017-07-18 WO PCT/US2017/042542 patent/WO2018017546A1/en unknown
- 2017-07-18 KR KR1020197004633A patent/KR102242516B1/ko active IP Right Grant
- 2017-07-18 DE DE202017007641.1U patent/DE202017007641U1/de active Active
- 2017-07-18 JP JP2019502693A patent/JP6824382B2/ja active Active
- 2017-07-18 CN CN201780054998.5A patent/CN109690576A/zh active Pending
- 2017-07-18 EP EP17745599.5A patent/EP3485432B1/en active Active
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022549226A (ja) * | 2019-09-20 | 2022-11-24 | グーグル エルエルシー | 強化学習を用いたデータ評価 |
JP7293504B2 (ja) | 2019-09-20 | 2023-06-19 | グーグル エルエルシー | 強化学習を用いたデータ評価 |
JP2023510837A (ja) * | 2020-01-28 | 2023-03-15 | ディープ バイオ インク | ニューロン-レベル塑性制御を通じて破局的忘却を克服するための方法およびこれを行うコンピューティングシステム |
JP7431473B2 (ja) | 2020-01-28 | 2024-02-15 | ディープ バイオ インク | ニューロン-レベル塑性制御を通じて破局的忘却を克服するための方法およびこれを行うコンピューティングシステム |
WO2023199479A1 (ja) * | 2022-04-14 | 2023-10-19 | 日本電信電話株式会社 | 学習装置、学習方法、および、学習プログラム |
KR102510756B1 (ko) * | 2022-09-07 | 2023-03-16 | 서울대학교병원 | 수술 중 또는 수술 후 뇌졸중 예측 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
EP4231197A1 (en) | 2023-08-23 |
KR20190028531A (ko) | 2019-03-18 |
KR102242516B1 (ko) | 2021-04-20 |
EP4231197B1 (en) | 2024-04-24 |
EP3485432A1 (en) | 2019-05-22 |
WO2018017546A1 (en) | 2018-01-25 |
US20190236482A1 (en) | 2019-08-01 |
JP6824382B2 (ja) | 2021-02-03 |
DE202017007641U1 (de) | 2024-01-24 |
CN109690576A (zh) | 2019-04-26 |
EP3485432B1 (en) | 2023-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6824382B2 (ja) | 複数の機械学習タスクに関する機械学習モデルのトレーニング | |
US11783182B2 (en) | Asynchronous deep reinforcement learning | |
US11886992B2 (en) | Training reinforcement learning neural networks | |
CN110476172B (zh) | 用于卷积神经网络的神经架构搜索 | |
CN110235148B (zh) | 训练动作选择神经网络 | |
AU2016297852B2 (en) | Continuous control with deep reinforcement learning | |
US20190354868A1 (en) | Multi-task neural networks with task-specific paths | |
US11907837B1 (en) | Selecting actions from large discrete action sets using reinforcement learning | |
KR20200110400A (ko) | 학습 데이터 증강 정책 | |
JP6728495B2 (ja) | 強化学習を用いた環境予測 | |
EP3586277A1 (en) | Training policy neural networks using path consistency learning | |
US20170213150A1 (en) | Reinforcement learning using a partitioned input state space | |
EP3593292A1 (en) | Training action selection neural networks | |
WO2018189404A1 (en) | Distributional reinforcement learning | |
CN111598253A (zh) | 使用教师退火来训练机器学习模型 | |
CN111989696A (zh) | 具有顺序学习任务的域中的可扩展持续学习的神经网络 | |
JP2020508527A (ja) | ニューラルエピソード制御 | |
US12020155B2 (en) | Reinforcement learning using baseline and policy neural networks | |
US11893480B1 (en) | Reinforcement learning with scheduled auxiliary control | |
US12020164B2 (en) | Neural networks for scalable continual learning in domains with sequentially learned tasks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190306 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6824382 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |