JP2019537133A - 混合エキスパートニューラルネットワーク - Google Patents
混合エキスパートニューラルネットワーク Download PDFInfo
- Publication number
- JP2019537133A JP2019537133A JP2019522815A JP2019522815A JP2019537133A JP 2019537133 A JP2019537133 A JP 2019537133A JP 2019522815 A JP2019522815 A JP 2019522815A JP 2019522815 A JP2019522815 A JP 2019522815A JP 2019537133 A JP2019537133 A JP 2019537133A
- Authority
- JP
- Japan
- Prior art keywords
- output
- expert
- neural network
- gating
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 207
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000008569 process Effects 0.000 claims abstract description 19
- 239000013598 vector Substances 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 34
- 238000003860 storage Methods 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 description 18
- 238000004590 computer program Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000009334 Singa Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Debugging And Monitoring (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
Description
本出願は、2016年11月4日に出願された米国仮特許出願第62/418,135号および2016年12月9日に出願された米国特許仮出願第62/432,497号の優先権を主張する。先の出願の開示は、本出願の開示の一部と見なされ、参照により本出願に組み込まれる。
H(x)i=(x・Wg)i+StandardNormal()・Softplus((x・Wnoise)i)
上式で、Wgは修正された第1の層出力xWgを生成するために第1の層出力xに適用されるゲーティングパラメータのセットであり、Wnoiseはトレーニング可能なノイズパラメータのセットであり、StandardNormal()は、ノイズ値のベクトルをサンプリングするために使用される正規分布である。
G(x)=Softmax(KeepTopK(H(x),k))
102 ニューラルネットワーク
104 第1のニューラルネットワーク層
108 第2のニューラルネットワーク層
110 ゲーティングサブシステム
112 ゲーティングサブネットワーク
114〜122 エキスパートニューラルネットワーク
116 エキスパートニューラルネットワーク
120 エキスパートニューラルネットワーク
124 第1の層出力
126 エキスパート出力
128 エキスパート出力
130 MoEサブネットワーク
132 MoE出力
134 重み付けされたエキスパート出力
136 重み付けされたエキスパート出力
200 処理
300 処理
Claims (14)
- システムであって、
1つまたは複数のコンピュータによって実装され、主ニューラルネットワーク内の第1のニューラルネットワーク層と第2のニューラルネットワーク層との間に混合エキスパート(MoE)サブネットワークを備える前記主ニューラルネットワークを備え、前記MoEサブネットワークが、
各エキスパートニューラルネットワークが、前記エキスパートニューラルネットワークのエキスパートパラメータのそれぞれのセットに従って前記第1のニューラルネットワーク層によって生成された第1の層出力を処理して、それぞれのエキスパート出力を生成するように構成される、複数のエキスパートニューラルネットワークと、
前記第1の層出力に基づいて、前記エキスパートニューラルネットワークのうちの1つまたは複数を選択し、選択されたエキスパートニューラルネットワークごとにそれぞれの重みを決定することと、
前記選択されたエキスパートニューラルネットワークの各々への入力として前記第1の層出力を提供することと、
前記選択されたエキスパートニューラルネットワークによって生成された前記エキスパート出力を前記選択されたエキスパートニューラルネットワークの前記重みに従って結合して、MoE出力を生成することと、
前記MoE出力を前記第2のニューラルネットワーク層への入力として提供することと
を行うように構成されたゲーティングサブシステムと
を備える、システム。 - 前記エキスパートニューラルネットワークが、同じまたは類似のアーキテクチャを有するが異なるパラメータ値を有する、請求項1に記載のシステム。
- 前記選択されたエキスパートニューラルネットワークによって生成された前記エキスパート出力を結合することが、
前記選択されたエキスパートニューラルネットワークの各々によって生成された前記エキスパート出力を、前記選択されたエキスパートニューラルネットワークの前記重みによって重み付けして、重み付けされたエキスパート出力を生成することと、
前記重み付けされたエキスパート出力を合計して、前記MoE出力を生成することと
を備える、請求項1または2に記載のシステム。 - 前記ゲーティングサブシステムがゲーティングサブネットワークを備え、前記ゲーティングサブネットワークが、
前記第1の層出力を処理して、ゲーティングパラメータのセットに従って、前記複数のエキスパートニューラルネットワークの各々に対するそれぞれの重みを含む重みベクトルを生成することと、
前記重みベクトルにおける前記重みに基づいて、前記エキスパートニューラルネットワークのうちの1つまたは複数を選択することと
を行うように構成される、請求項1から3のいずれか一項に記載のシステム。 - 前記重みベクトルが、前記エキスパートニューラルネットワークのうちの少数に対してのみ非ゼロ重みを含むスパースベクトルである、請求項4に記載のシステム。
- 前記エキスパートニューラルネットワークのうちの1つまたは複数を選択することが、
前記重みベクトル内に非ゼロ重みを有するエキスパートニューラルネットワークのみを選択することを備える、請求項4または5に記載のシステム。 - 前記第1の層出力を処理して、ゲーティングパラメータのセットに従って、前記複数のエキスパートニューラルネットワークの各々に対するそれぞれの重みを含む重みベクトルを生成することが、
初期ゲーティング出力を生成することであって、前記初期ゲーティング出力を生成することが、ゲーティングパラメータの前記セットを前記第1の層出力に適用することを備える、前記生成することと、
前記初期ゲーティング出力にスパース化関数を適用して、スパース化初期ゲーティング出力を生成することと、
前記スパース化初期ゲーティング出力にsoftmax関数を適用して、前記重みベクトルを生成することと、
を備える、請求項4から6のいずれか一項に記載のシステム。 - 前記初期ゲーティング出力を生成することが、
ゲーティングパラメータの前記セットを前記第1の層出力に適用して、修正された第1の層出力を生成することと、
調整可能なガウスノイズを前記修正された第1の層出力に追加して、前記初期ゲーティング出力を生成することと
を備える、請求項7に記載のシステム。 - 調整可能なガウスノイズを前記修正された第1の層出力に追加して、前記初期ゲーティング出力を生成することが、
トレーニング可能なノイズパラメータのセットを前記第1の層出力に適用して、初期ノイズ出力を生成することと、
前記初期ノイズ出力に正規分布からサンプリングされたノイズ値のベクトルを要素ごとに乗算して、最終ノイズ出力を生成することと、
前記最終ノイズ出力を前記修正された第1の層出力に追加することと
を備える、請求項8に記載のシステム。 - 前記スパース化関数が、k個の最大値以外の前記初期ゲーティング出力のすべての値を、前記softmax関数によってゼロにマッピングされる値に設定する、請求項7から9のいずれか一項に記載のシステム。
- 前記ゲーティングサブシステムが、親ゲーティングサブネットワークおよび複数の子ゲーティングサブネットワークを備え、前記子ゲーティングサブネットワークの各々が、他の各々の子ゲーティングサブネットワークからの前記複数のエキスパートニューラルネットワークの互いに素なサブセットを管理する、請求項1から3のいずれか一項に記載のシステム。
- 1つまたは複数のコンピュータによって実行されたとき、前記1つまたは複数のコンピュータに請求項1から11のいずれか一項に記載のそれぞれのシステムを実現させる命令を記憶する1つまたは複数のコンピュータ記憶媒体。
- ネットワーク入力を受信するステップと、
請求項1から11のいずれか一項に記載のシステムを使用して前記ネットワーク入力を処理して、前記ネットワーク入力に対するネットワーク出力を生成するステップと
を備える、方法。 - 1つまたは複数のコンピュータによって実行されたとき、前記1つまたは複数のコンピュータに請求項13に記載の方法の動作を実行させる命令を記憶する1つまたは複数のコンピュータ記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662418135P | 2016-11-04 | 2016-11-04 | |
US62/418,135 | 2016-11-04 | ||
US201662432497P | 2016-12-09 | 2016-12-09 | |
US62/432,497 | 2016-12-09 | ||
PCT/US2017/059909 WO2018085643A1 (en) | 2016-11-04 | 2017-11-03 | Mixture of experts neural networks |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019537133A true JP2019537133A (ja) | 2019-12-19 |
JP2019537133A5 JP2019537133A5 (ja) | 2020-12-10 |
JP6853354B2 JP6853354B2 (ja) | 2021-03-31 |
Family
ID=60452764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019522815A Active JP6853354B2 (ja) | 2016-11-04 | 2017-11-03 | 混合エキスパートニューラルネットワーク |
Country Status (5)
Country | Link |
---|---|
US (3) | US10719761B2 (ja) |
EP (2) | EP3535704B1 (ja) |
JP (1) | JP6853354B2 (ja) |
CN (1) | CN109923558A (ja) |
WO (1) | WO2018085643A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023517349A (ja) * | 2020-12-16 | 2023-04-25 | テンセント・アメリカ・エルエルシー | ビデオコーディング方法及び装置 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11379715B2 (en) * | 2017-12-15 | 2022-07-05 | Meta Platforms, Inc. | Deep learning based distribution of content items describing events to users of an online system |
WO2019186996A1 (ja) * | 2018-03-30 | 2019-10-03 | 日本電気株式会社 | モデル推定システム、モデル推定方法およびモデル推定プログラム |
US10846588B2 (en) | 2018-09-27 | 2020-11-24 | Deepmind Technologies Limited | Scalable and compressive neural network data storage system |
CN111325311B (zh) * | 2018-12-14 | 2024-03-29 | 深圳云天励飞技术有限公司 | 用于图像识别的神经网络模型生成方法及相关设备 |
CN109657802B (zh) * | 2019-01-28 | 2020-12-29 | 清华大学深圳研究生院 | 一种混合专家强化学习方法及系统 |
US11093714B1 (en) * | 2019-03-05 | 2021-08-17 | Amazon Technologies, Inc. | Dynamic transfer learning for neural network modeling |
CN110414669A (zh) * | 2019-07-02 | 2019-11-05 | 四川大学 | 一种加速神经网络结构选择的方法 |
CA3094507A1 (en) * | 2019-10-25 | 2021-04-25 | The Governing Council Of The University Of Toronto | Systems, devices and methods for transfer learning with a mixture of experts model |
GB2599180A (en) * | 2020-06-01 | 2022-03-30 | Samsung Electronics Co Ltd | Method for improved binarized neural networks |
US11176495B1 (en) * | 2020-06-21 | 2021-11-16 | Liquidity Capital M. C. Ltd. | Machine learning model ensemble for computing likelihood of an entity failing to meet a target parameter |
WO2022006329A1 (en) * | 2020-06-30 | 2022-01-06 | Google Llc | Attention neural networks with conditional computation |
US20220059200A1 (en) * | 2020-08-21 | 2022-02-24 | Washington University | Deep-learning systems and methods for medical report generation and anomaly detection |
US20220121922A1 (en) * | 2020-10-20 | 2022-04-21 | Deci.Ai Ltd. | System and method for automated optimazation of a neural network model |
CN112487211B (zh) * | 2020-12-15 | 2024-04-26 | 交控科技股份有限公司 | 一种轨道交通知识库构建方法及系统 |
CN116830120A (zh) * | 2021-01-07 | 2023-09-29 | 谷歌有限责任公司 | 具有切换层的神经网络 |
WO2022248676A1 (en) * | 2021-05-27 | 2022-12-01 | Deepmind Technologies Limited | Continual learning neural network system training for classification type tasks |
CN114429195A (zh) * | 2022-01-21 | 2022-05-03 | 清华大学 | 混合专家模型训练的性能优化方法和装置 |
WO2023147140A1 (en) * | 2022-01-28 | 2023-08-03 | Google Llc | Routing to expert subnetworks in mixture-of-experts neural networks |
CN114841315A (zh) * | 2022-04-22 | 2022-08-02 | 北京百度网讯科技有限公司 | 混合专家模型实现方法、系统、电子设备及存储介质 |
CN118194917A (zh) * | 2024-05-17 | 2024-06-14 | 山东浪潮科学研究院有限公司 | 一种基于混合专家模型的语言模型改进结构的方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266688A (ja) * | 1993-03-11 | 1994-09-22 | Toshiba Corp | 大規模情報認識回路 |
JP2000251057A (ja) * | 1999-03-01 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 入力機器用色再現方法及び装置、並びにこの方法のプログラムを記録した記録媒体 |
US20130262096A1 (en) * | 2011-09-23 | 2013-10-03 | Lessac Technologies, Inc. | Methods for aligning expressive speech utterances with text and systems therefor |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0962645A (ja) * | 1995-08-22 | 1997-03-07 | Nippon Telegr & Teleph Corp <Ntt> | 専門家の階層混合モデルの構築的学習方法 |
US6208983B1 (en) * | 1998-01-30 | 2001-03-27 | Sarnoff Corporation | Method and apparatus for training and operating a neural network for detecting breast cancer |
CN100421585C (zh) * | 2003-02-25 | 2008-10-01 | 中国海洋大学 | 建立卷烟叶组配方维护混合专家系统的方法 |
CN101634605B (zh) * | 2009-04-10 | 2011-03-30 | 北京工业大学 | 基于混合推理和神经网络的齿轮箱故障智能诊断方法 |
CN101793887B (zh) * | 2010-01-09 | 2013-03-20 | 中国水产科学研究院黄海水产研究所 | 大菱鲆养殖水质评价的模糊神经网络专家系统的构建方法 |
CN103324981B (zh) * | 2013-05-20 | 2015-12-02 | 浙江大学 | 基于神经网络的放化疗规范化质量控制的量化方法 |
CN103488887B (zh) * | 2013-09-16 | 2016-06-22 | 北京理工大学 | 一种基于混合专家网络的产品可靠性评估方法 |
US9721190B2 (en) * | 2014-12-19 | 2017-08-01 | Google Inc. | Large-scale classification in neural networks using hashing |
US11080587B2 (en) * | 2015-02-06 | 2021-08-03 | Deepmind Technologies Limited | Recurrent neural networks for data item generation |
CN104732274A (zh) * | 2015-03-10 | 2015-06-24 | 华南理工大学 | 一种智能计算机 |
CN105445646A (zh) * | 2015-12-14 | 2016-03-30 | 国家电网公司 | 基于神经网络专家系统的模数电路故障诊断的测试方法 |
CN105913450A (zh) * | 2016-06-22 | 2016-08-31 | 武汉理工大学 | 基于神经网络图像处理的轮胎橡胶炭黑分散度评价方法及系统 |
US10032256B1 (en) * | 2016-11-18 | 2018-07-24 | The Florida State University Research Foundation, Inc. | System and method for image processing using automatically estimated tuning parameters |
-
2017
- 2017-11-03 EP EP17804369.1A patent/EP3535704B1/en active Active
- 2017-11-03 CN CN201780068472.2A patent/CN109923558A/zh active Pending
- 2017-11-03 JP JP2019522815A patent/JP6853354B2/ja active Active
- 2017-11-03 WO PCT/US2017/059909 patent/WO2018085643A1/en active Search and Examination
- 2017-11-03 EP EP24177244.1A patent/EP4398155A2/en active Pending
-
2019
- 2019-04-24 US US16/393,063 patent/US10719761B2/en active Active
-
2020
- 2020-05-20 US US16/879,187 patent/US11790214B2/en active Active
-
2023
- 2023-09-08 US US18/244,171 patent/US20230419079A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266688A (ja) * | 1993-03-11 | 1994-09-22 | Toshiba Corp | 大規模情報認識回路 |
JP2000251057A (ja) * | 1999-03-01 | 2000-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 入力機器用色再現方法及び装置、並びにこの方法のプログラムを記録した記録媒体 |
US20130262096A1 (en) * | 2011-09-23 | 2013-10-03 | Lessac Technologies, Inc. | Methods for aligning expressive speech utterances with text and systems therefor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023517349A (ja) * | 2020-12-16 | 2023-04-25 | テンセント・アメリカ・エルエルシー | ビデオコーディング方法及び装置 |
JP7403747B2 (ja) | 2020-12-16 | 2023-12-25 | テンセント・アメリカ・エルエルシー | ビデオコーディング方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
EP4398155A2 (en) | 2024-07-10 |
US20190251423A1 (en) | 2019-08-15 |
US20200279150A1 (en) | 2020-09-03 |
CN109923558A (zh) | 2019-06-21 |
EP3535704A1 (en) | 2019-09-11 |
WO2018085643A1 (en) | 2018-05-11 |
US10719761B2 (en) | 2020-07-21 |
US20230419079A1 (en) | 2023-12-28 |
US11790214B2 (en) | 2023-10-17 |
EP3535704B1 (en) | 2024-06-26 |
JP6853354B2 (ja) | 2021-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11790214B2 (en) | Mixture of experts neural networks | |
US11790238B2 (en) | Multi-task neural networks with task-specific paths | |
US11875262B2 (en) | Learning neural network structure | |
US11087201B2 (en) | Neural architecture search using a performance prediction neural network | |
US20210150355A1 (en) | Training machine learning models using task selection policies to increase learning progress | |
RU2666308C1 (ru) | Слои пакетной нормализации | |
US20190286984A1 (en) | Neural architecture search by proxy | |
US20220121906A1 (en) | Task-aware neural network architecture search | |
KR20200110400A (ko) | 학습 데이터 증강 정책 | |
WO2019157251A1 (en) | Neural network compression | |
US11922281B2 (en) | Training machine learning models using teacher annealing | |
CN111989696A (zh) | 具有顺序学习任务的域中的可扩展持续学习的神经网络 | |
CN111587441A (zh) | 使用以比特值为条件的回归神经网络生成输出示例 | |
US20220108174A1 (en) | Training neural networks using auxiliary task update decomposition | |
US20240152809A1 (en) | Efficient machine learning model architecture selection | |
US20230107247A1 (en) | Neural networks with transformed activation function layers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200803 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20201029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6853354 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |