JP6963627B2 - 畳み込みニューラルネットワークのためのニューラルアーキテクチャ検索 - Google Patents
畳み込みニューラルネットワークのためのニューラルアーキテクチャ検索 Download PDFInfo
- Publication number
- JP6963627B2 JP6963627B2 JP2019553406A JP2019553406A JP6963627B2 JP 6963627 B2 JP6963627 B2 JP 6963627B2 JP 2019553406 A JP2019553406 A JP 2019553406A JP 2019553406 A JP2019553406 A JP 2019553406A JP 6963627 B2 JP6963627 B2 JP 6963627B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- cell
- output
- convolution
- child
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 92
- 230000001537 neural effect Effects 0.000 title description 11
- 238000013528 artificial neural network Methods 0.000 claims description 81
- 238000000034 method Methods 0.000 claims description 59
- 238000012549 training Methods 0.000 claims description 51
- 230000009471 action Effects 0.000 claims description 46
- 230000033001 locomotion Effects 0.000 claims description 39
- 238000012545 processing Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 16
- 230000000306 recurrent effect Effects 0.000 claims description 14
- 238000010801 machine learning Methods 0.000 claims description 13
- 238000005457 optimization Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims 1
- 238000004590 computer program Methods 0.000 description 14
- 238000010200 validation analysis Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 241000009334 Singa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Description
本出願は、2017年7月21日に出願された米国仮出願第62/535,806号の優先権を主張するものである。先行出願の開示は、本出願の開示の一部とみなされ、参照により本出願の開示に組み込まれる。
102 訓練データ
104 検証セット
110 コントローラニューラルネットワーク
112 出力シーケンスのバッチ、バッチ
120 訓練エンジン
130 コントローラパラメータ更新エンジン
150 アーキテクチャデータ
200 動作ブロック
202 第1の入力隠れ状態
204 第2の入力隠れ状態
206 第1の動作
208 第2の動作
210 組合せ動作
212 出力隠れ状態
214 出力層
216 出力層
218 出力層
220 出力層
222 出力層
224 層
225 更新された隠れ状態、隠れ状態
227 隠れ状態
229 隠れ状態
231 隠れ状態
233 隠れ状態
Claims (22)
- コンピュータ実施方法であって、
複数のコントローラパラメータを有するコントローラニューラルネットワークを用い、前記コントローラパラメータの現在値に従って、出力シーケンスのバッチを生成するステップであって、
前記バッチ内の各出力シーケンスは、セル入力を受信し、かつセル出力を生成するように構成された第1の畳み込みセルについてアーキテクチャを定め、
前記第1の畳み込みセルは、それぞれ1つまたは複数の各入力隠れ状態を受信し、各出力隠れ状態を生成する所定の数の動作ブロックのシーケンスを含み、前記バッチ内の各出力シーケンスは、前記動作ブロックのそれぞれに、
(i)チャイルド畳み込みニューラルネットワークの1つまたは複数の他の構成要素によって生成された出力、(ii)入力画像、または(iii)前記第1の畳み込みセル内の前記動作ブロックのシーケンス中の先行する動作ブロックの出力隠れ状態、のうちの1つまたは複数から選択された前記動作ブロックについての第1の入力隠れ状態に関するソースと、
(i)前記第1の畳み込みセルのシーケンス中の1つまたは複数の先行する畳み込みセルによって生成された出力、(ii)前記入力画像、または(iii)前記第1の畳み込みセル内の前記動作ブロックのシーケンス中の先行する動作ブロックの出力隠れ状態、のうちの1つまたは複数から選択された前記動作ブロックについての第2の入力隠れ状態に関するソースと、
畳み込みニューラルネットワーク動作の所定の組から選択された第1の動作に関する動作タイプと、
前記畳み込みニューラルネットワーク動作の所定の組から選択された第2の動作に関する動作タイプと
を定め、
前記バッチ内の出力シーケンスごとに、
前記出力シーケンスによって定められた前記アーキテクチャを有する前記第1の畳み込みセルの複数のインスタンスを含む前記チャイルド畳み込みニューラルネットワークのインスタンスを生成し、
画像処理タスクを実行するために前記チャイルド畳み込みニューラルネットワークの前記インスタンスを訓練し、
前記画像処理タスク上での前記チャイルド畳み込みニューラルネットワークの前記訓練されたインスタンスの性能を評価して、前記チャイルド畳み込みニューラルネットワークの前記訓練されたインスタンスに関して性能測定基準を決定する、ステップと、
前記チャイルド畳み込みニューラルネットワークの前記訓練されたインスタンスに関する前記性能測定基準を用いて、前記コントローラニューラルネットワークの前記コントローラパラメータの前記現在値を調整するステップと、
前記コントローラパラメータの調整値に従って、前記コントローラニューラルネットワークを使用して、前記第1の畳み込みセルの最終的なアーキテクチャを生成するステップと、
を含む、
方法。 - 前記訓練の後、前記チャイルド畳み込みニューラルネットワークの前記訓練されたインスタンス内の前記第1の畳み込みセルの異なるインスタンスは、異なるパラメータ値を有する、
請求項1に記載の方法。 - 前記第1の畳み込みセル内の各動作ブロックは、
第1の動作を前記第1の入力隠れ状態に適用して第1の出力を生成し、
第2の動作を前記第2の入力隠れ状態に適用して第2の出力を生成し、
組合せ動作を前記第1の出力および前記第2の出力に適用して出力隠れ状態を生成するように構成されている、
請求項1または2に記載の方法。 - 前記バッチ内の各出力シーケンスは、前記第1の畳み込みセルの動作ブロックごとに、
組合せ動作の所定の組から選択された前記組合せ動作に関する動作タイプをさらに定める、
請求項1に記載の方法。 - 前記第1の畳み込みセルは、前記第1の畳み込みセル内のブロックの任意のブロックへの入力として選択されない前記第1の畳み込みセル内の前記ブロックの出力隠れ状態を組み合せることによって前記セル出力を生成するようにさらに構成される、
請求項1または4に記載の方法。 - 前記チャイルド畳み込みニューラルネットワークの前記訓練されたインスタンスに関する前記性能測定基準を用いて、前記コントローラニューラルネットワークの前記コントローラパラメータの前記現在値を調整するステップは、
前記コントローラニューラルネットワークを訓練して、機械学習訓練技術を用いて向上した性能測定基準を有するチャイルド畳み込みニューラルネットワークをもたらす出力シーケンスを生成するステップを含む、
請求項1から5のいずれか一項に記載の方法。 - 前記機械学習訓練技術は方策勾配法である、
請求項6に記載の方法。 - 前記機械学習訓練技術はREINFORCE法である、
請求項6または7に記載の方法。 - 前記機械学習訓練技術は近傍方策最適化(PPO)法である、
請求項6に記載の方法。 - 前記画像処理タスクを実行するために、向上した性能測定基準を有する前記チャイルド畳み込みニューラルネットワークの少なくとも1つを用いるステップをさらに含む、
請求項6から9のいずれか一項に記載の方法。 - 各出力シーケンスは、複数の時間ステップのそれぞれにおいて前記第1の畳み込みセルのそれぞれのハイパーパラメータの値を含む、
請求項1から9のいずれか一項に記載の方法。 - 前記コントローラニューラルネットワークは、再帰型ニューラルネットワークであり、前記再帰型ニューラルネットワークは、
所与の出力シーケンスについて、およびそれぞれの時間ステップにおいて、
前記所与の出力シーケンス中の先行する時間ステップにおける前記ハイパーパラメータの値を入力として受信し、前記入力を処理して再帰型ニューラルネットワークの現在の隠れ状態を更新するように構成された、1つまたは複数の再帰型ニューラルネットワーク層と、
それぞれの出力層が、前記所与の出力シーケンスについて、
前記時間ステップにおいて前記更新された隠れ状態を含む出力層入力を受信し、前記時間ステップにおける前記ハイパーパラメータの可能な値上でスコア分布を定める前記時間ステップに関する出力を生成するように構成された、時間ステップごとの各出力層とを含む、
請求項11に記載の方法。 - 複数のコントローラパラメータを有するコントローラニューラルネットワークを用い、前記コントローラパラメータの現在値に従って、出力シーケンスのバッチを生成するステップは、前記バッチ内の出力シーケンスごとに、および前記複数の時間ステップのそれぞれに、
前記コントローラニューラルネットワークへの入力として、前記出力シーケンス中の前記先行する時間ステップにおける前記ハイパーパラメータの前記値を提供して、前記時間ステップにおける前記ハイパーパラメータの可能な値上でスコア分布を定める前記時間ステップに関する出力を生成するステップと、
前記スコア分布に従って前記可能な値からサンプリングして、前記出力シーケンス中の前記時間ステップにおける前記ハイパーパラメータの前記値を決定するステップとを含む、
請求項12に記載の方法。 - 前記第1の畳み込みセルの前記インスタンス内の畳み込み動作のフィルタの数は、前記チャイルド畳み込みニューラルネットワーク内の前記インスタンスの位置に基づいて異なる、
請求項1から12のいずれか一項に記載の方法。 - 前記第1の畳み込みセルの前記セル出力は、前記セル入力と同じ高さおよび幅を有する、
請求項1から13のいずれか一項に記載の方法。 - 前記バッチ内の各出力シーケンスは、第2のセル入力を受信し、前記第2のセル入力から、高さがより小さい、幅がより小さい、またはこれら両方がより小さい第2のセル出力を生成するように構成された第2の畳み込みセルについてアーキテクチャをさらに定め、
出力シーケンスごとの前記チャイルド畳み込みニューラルネットワークの前記インスタンスは、前記出力シーケンスによって定められた前記アーキテクチャを有する前記第2の畳み込みセルの複数のインスタンスも含む、
請求項14に記載の方法。 - 前記チャイルド畳み込みニューラルネットワークの各インスタンスを訓練するステップは、一定時間が経過するまで各インスタンスを訓練するステップを含む、
請求項1から15のいずれか一項に記載の方法。 - 前記コントローラパラメータの前記調整された値を用いて、前記第1の畳み込みセルについてアーキテクチャを生成するステップと、
前記チャイルド畳み込みニューラルネットワークのインスタンスより少ない前記第1の畳み込みセルのインスタンスを含む畳み込みニューラルネットワークの計算効率の良いアーキテクチャを生成するステップであって、前記畳み込みセルの前記インスタンスは、前記生成されたアーキテクチャを有する、ステップとをさらに含む、
請求項1から16のいずれか一項に記載の方法。 - 前記コントローラパラメータの前記調整された値を用いて、前記第1の畳み込みセルについてアーキテクチャを生成するステップと、
より複雑な画像処理タスクにおいて用いるために、前記チャイルド畳み込みニューラルネットワークのインスタンスより多い前記第1の畳み込みセルのインスタンスを含む畳み込みニューラルネットワークのより大きなアーキテクチャを生成するステップであって、前記第1の畳み込みセルの前記インスタンスは、前記生成されたアーキテクチャを有する、ステップとをさらに含む、
請求項1から16のいずれか一項に記載の方法。 - 前記チャイルド畳み込みニューラルネットワークのインスタンスより多い前記第1の畳み込みセルのインスタンスを含む畳み込みニューラルネットワークを用いて、前記より複雑な画像処理タスクを実行するステップをさらに含む、
請求項19に記載の方法。 - 1つまたは複数のコンピュータと、1つまたは複数の記憶デバイスとを備えるシステムであって、
前記1つまたは複数の記憶デバイスが、前記1つまたは複数のコンピュータに、請求項1から20のいずれか一項に記載の方法を実行させる命令を記憶する、
システム。 - 1つまたは複数のコンピュータに、請求項1から20のいずれか一項に記載の方法を実行させる命令を記憶する、
1つまたは複数のコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762535806P | 2017-07-21 | 2017-07-21 | |
US62/535,806 | 2017-07-21 | ||
PCT/US2018/042456 WO2019018375A1 (en) | 2017-07-21 | 2018-07-17 | NEURONAL ARCHITECTURE RESEARCH FOR CONVOLUTION NEURAL NETWORKS |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020522035A JP2020522035A (ja) | 2020-07-27 |
JP6963627B2 true JP6963627B2 (ja) | 2021-11-10 |
Family
ID=63104074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019553406A Active JP6963627B2 (ja) | 2017-07-21 | 2018-07-17 | 畳み込みニューラルネットワークのためのニューラルアーキテクチャ検索 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10521729B2 (ja) |
EP (1) | EP3583553A1 (ja) |
JP (1) | JP6963627B2 (ja) |
CN (2) | CN110476172B (ja) |
WO (1) | WO2019018375A1 (ja) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11907853B2 (en) * | 2017-10-27 | 2024-02-20 | Deepmind Technologies Limited | Using hierarchical representations for neural network architecture searching |
WO2019096952A1 (en) * | 2017-11-15 | 2019-05-23 | NEC Laboratories Europe GmbH | A system and method for single image object density estimation |
CN110889487A (zh) * | 2018-09-10 | 2020-03-17 | 富士通株式会社 | 神经网络架构搜索装置和方法及计算机可读记录介质 |
US11544536B2 (en) * | 2018-09-27 | 2023-01-03 | Google Llc | Hybrid neural architecture search |
CN113490955B (zh) * | 2019-02-25 | 2024-09-10 | 谷歌有限责任公司 | 用于产生金字塔层的架构的系统和方法 |
CN110009048B (zh) * | 2019-04-10 | 2021-08-24 | 苏州浪潮智能科技有限公司 | 一种神经网络模型的构建方法以及设备 |
CN110175671B (zh) * | 2019-04-28 | 2022-12-27 | 华为技术有限公司 | 神经网络的构建方法、图像处理方法及装置 |
US11537664B2 (en) * | 2019-05-23 | 2022-12-27 | Google Llc | Learning to select vocabularies for categorical features |
CN111684472A (zh) * | 2019-05-31 | 2020-09-18 | 深圳市大疆创新科技有限公司 | 网络结构搜索的方法及装置、计算机存储介质和计算机程序产品 |
WO2020237687A1 (zh) * | 2019-05-31 | 2020-12-03 | 深圳市大疆创新科技有限公司 | 网络结构搜索的方法及装置、计算机存储介质和计算机程序产品 |
CN110288084A (zh) * | 2019-06-06 | 2019-09-27 | 北京小米智能科技有限公司 | 超网络训练方法和装置 |
US11768912B2 (en) * | 2019-07-12 | 2023-09-26 | International Business Machines Corporation | Performing multivariate time series prediction with three-dimensional transformations |
WO2021007743A1 (zh) * | 2019-07-15 | 2021-01-21 | 富士通株式会社 | 搜索神经网络架构的方法和装置 |
CN110674326A (zh) * | 2019-08-06 | 2020-01-10 | 厦门大学 | 一种基于多项式分布学习的神经网络结构检索方法 |
US11443162B2 (en) * | 2019-08-23 | 2022-09-13 | Google Llc | Resource constrained neural network architecture search |
CN112445823A (zh) * | 2019-09-04 | 2021-03-05 | 华为技术有限公司 | 神经网络结构的搜索方法、图像处理方法和装置 |
CN110598629B (zh) * | 2019-09-11 | 2023-06-06 | 北京百度网讯科技有限公司 | 超网络的搜索空间构建方法、装置以及电子设备 |
CN110705573A (zh) * | 2019-09-25 | 2020-01-17 | 苏州浪潮智能科技有限公司 | 一种目标检测模型的自动建模方法及装置 |
CN110609560A (zh) * | 2019-10-29 | 2019-12-24 | 广州高新兴机器人有限公司 | 移动机器人避障规划方法及计算机存储介质 |
WO2021081809A1 (zh) * | 2019-10-30 | 2021-05-06 | 深圳市大疆创新科技有限公司 | 网络结构搜索的方法、装置、存储介质和计算机程序产品 |
CN113361680B (zh) * | 2020-03-05 | 2024-04-12 | 华为云计算技术有限公司 | 一种神经网络架构搜索方法、装置、设备及介质 |
US11568249B2 (en) | 2020-04-07 | 2023-01-31 | International Business Machines Corporation | Automated decision making for neural architecture search |
US11521028B2 (en) | 2020-04-10 | 2022-12-06 | Toyota Research Institute, Inc. | Meta-learning neural architecture search via graph networks on search space lattices |
CN113570029A (zh) * | 2020-04-29 | 2021-10-29 | 华为技术有限公司 | 获取神经网络模型的方法、图像处理方法及装置 |
CN111516700A (zh) * | 2020-05-11 | 2020-08-11 | 安徽大学 | 一种驾驶员分心细粒度监测方法和系统 |
CN111639752B (zh) * | 2020-05-29 | 2023-09-26 | 北京百度网讯科技有限公司 | 用于训练超网络的方法、装置、设备以及存储介质 |
CN113837374A (zh) * | 2020-06-23 | 2021-12-24 | 中兴通讯股份有限公司 | 神经网络的生成方法、设备及计算机可读存储介质 |
CN111860540B (zh) * | 2020-07-20 | 2024-01-12 | 深圳大学 | 基于fpga的神经网络图像特征提取系统 |
US20220067423A1 (en) * | 2020-08-26 | 2022-03-03 | Beijing Didi Infinity Technology And Development Co., Ltd. | Method and system for providing and applying a unified decoding efficiency score with focus on environmental impact |
CN112101428B (zh) * | 2020-08-27 | 2023-11-10 | 上海交通大学 | 一种基于卷积神经网络的图像分类方法及系统 |
CN112036512B (zh) * | 2020-11-03 | 2021-03-26 | 浙江大学 | 基于网络裁剪的图像分类神经网络架构搜索方法和装置 |
US11825371B2 (en) * | 2020-11-11 | 2023-11-21 | Samsung Electronics Co., Ltd. | Method and apparatus for distributing traffic load between different communication cells |
CN112489012A (zh) * | 2020-11-27 | 2021-03-12 | 大连东软教育科技集团有限公司 | 一种用于ct图像识别的神经网络架构方法 |
CN112465838B (zh) * | 2020-12-10 | 2023-01-31 | 桂林理工大学 | 陶瓷晶粒图像分割方法、系统、储存介质及计算机设备 |
US12028188B2 (en) | 2021-05-12 | 2024-07-02 | Analog Devices, Inc. | Digital predistortion with hybrid basis-function-based actuator and neural network |
US12003261B2 (en) * | 2021-05-12 | 2024-06-04 | Analog Devices, Inc. | Model architecture search and optimization for hardware |
CN112949842B (zh) * | 2021-05-13 | 2021-09-14 | 北京市商汤科技开发有限公司 | 神经网络结构搜索方法、装置、计算机设备以及存储介质 |
CN113344283B (zh) * | 2021-06-23 | 2023-11-28 | 国网黑龙江省电力有限公司 | 基于边缘智能的能源互联网新能源消纳能力评估方法 |
CN113688977B (zh) * | 2021-08-30 | 2023-12-05 | 浙江大学 | 面向对抗任务的人机共生强化学习方法、装置、计算设备及存储介质 |
CN116151352B (zh) * | 2023-04-13 | 2024-06-04 | 中浙信科技咨询有限公司 | 基于大脑信息通路整合机制的卷积循环神经网络诊断方法 |
CN116822325B (zh) * | 2023-04-29 | 2023-12-26 | 中国人民解放军63963部队 | 一种总体构型约束下的柴油机性能优化设计方法及系统 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0554012A (ja) | 1991-08-27 | 1993-03-05 | Toshiba Corp | エキスパートシステムを用いた神経回路網自動構築装置 |
US9679258B2 (en) * | 2013-10-08 | 2017-06-13 | Google Inc. | Methods and apparatus for reinforcement learning |
US10275719B2 (en) * | 2015-01-29 | 2019-04-30 | Qualcomm Incorporated | Hyper-parameter selection for deep convolutional networks |
US11080587B2 (en) * | 2015-02-06 | 2021-08-03 | Deepmind Technologies Limited | Recurrent neural networks for data item generation |
WO2017083777A1 (en) * | 2015-11-12 | 2017-05-18 | Google Inc. | Generating larger neural networks |
US11263514B2 (en) * | 2016-01-13 | 2022-03-01 | Google Llc | Processing and generating sets using recurrent neural networks |
US10733532B2 (en) * | 2016-01-27 | 2020-08-04 | Bonsai AI, Inc. | Multiple user interfaces of an artificial intelligence system to accommodate different types of users solving different types of problems with artificial intelligence |
US12014257B2 (en) * | 2017-05-19 | 2024-06-18 | Salesforce, Inc. | Domain specific language for generation of recurrent neural network architectures |
-
2018
- 2018-07-17 CN CN201880022762.8A patent/CN110476172B/zh active Active
- 2018-07-17 JP JP2019553406A patent/JP6963627B2/ja active Active
- 2018-07-17 CN CN202410092735.5A patent/CN117892774A/zh active Pending
- 2018-07-17 EP EP18749981.9A patent/EP3583553A1/en active Pending
- 2018-07-17 WO PCT/US2018/042456 patent/WO2019018375A1/en unknown
- 2018-07-19 US US16/040,067 patent/US10521729B2/en active Active
-
2019
- 2019-11-05 US US16/674,801 patent/US11651259B2/en active Active
-
2023
- 2023-04-20 US US18/137,398 patent/US20230252327A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US10521729B2 (en) | 2019-12-31 |
CN117892774A (zh) | 2024-04-16 |
US11651259B2 (en) | 2023-05-16 |
US20190026639A1 (en) | 2019-01-24 |
US20230252327A1 (en) | 2023-08-10 |
CN110476172B (zh) | 2024-01-30 |
CN110476172A (zh) | 2019-11-19 |
EP3583553A1 (en) | 2019-12-25 |
WO2019018375A1 (en) | 2019-01-24 |
JP2020522035A (ja) | 2020-07-27 |
US20200065689A1 (en) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6963627B2 (ja) | 畳み込みニューラルネットワークのためのニューラルアーキテクチャ検索 | |
JP6828121B2 (ja) | 優先順位付けされた経験メモリを使用したニューラルネットワークの訓練 | |
JP6817431B2 (ja) | ニューラルアーキテクチャ検索 | |
JP6926203B2 (ja) | 補助タスクを伴う強化学習 | |
KR102242516B1 (ko) | 복수의 기계 학습 태스크에 대해 기계 학습 모델들을 훈련 | |
JP7247274B2 (ja) | 非同期深層強化学習 | |
JP7043596B2 (ja) | ニューラルアーキテクチャ検索 | |
JP6827539B2 (ja) | アクション選択ニューラルネットワークをトレーニングすること | |
CN111406267B (zh) | 使用性能预测神经网络的神经架构搜索 | |
CN110520868B (zh) | 用于分布式强化学习的方法、程序产品和存储介质 | |
JP2019517074A (ja) | 疑似カウントを使用する強化学習 | |
CN113806512B (zh) | 机器人对话模型的训练方法、装置、设备及存储介质 | |
JP2024149491A (ja) | 非同期深層強化学習 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210921 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211015 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6963627 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |