JP7366274B2 - ニューラル・ネットワークのための適応的探索方法および装置 - Google Patents
ニューラル・ネットワークのための適応的探索方法および装置 Download PDFInfo
- Publication number
- JP7366274B2 JP7366274B2 JP2022543064A JP2022543064A JP7366274B2 JP 7366274 B2 JP7366274 B2 JP 7366274B2 JP 2022543064 A JP2022543064 A JP 2022543064A JP 2022543064 A JP2022543064 A JP 2022543064A JP 7366274 B2 JP7366274 B2 JP 7366274B2
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- target
- evaluation
- trained
- supernetwork
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 565
- 238000000034 method Methods 0.000 title claims description 224
- 230000003044 adaptive effect Effects 0.000 title claims description 49
- 238000011156 evaluation Methods 0.000 claims description 413
- 230000008569 process Effects 0.000 claims description 109
- 238000012549 training Methods 0.000 claims description 102
- 238000003062 neural network model Methods 0.000 claims description 80
- 230000015654 memory Effects 0.000 claims description 64
- 238000012545 processing Methods 0.000 claims description 56
- 238000004590 computer program Methods 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 14
- 238000009396 hybridization Methods 0.000 claims description 12
- 238000012216 screening Methods 0.000 claims description 6
- 230000029052 metamorphosis Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 31
- 239000013598 vector Substances 0.000 description 27
- 238000010586 diagram Methods 0.000 description 21
- 238000011176 pooling Methods 0.000 description 20
- 230000004913 activation Effects 0.000 description 16
- 210000002569 neuron Anatomy 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 238000010276 construction Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000005070 sampling Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 6
- 239000000872 buffer Substances 0.000 description 5
- 238000005457 optimization Methods 0.000 description 5
- 230000000717 retained effect Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000013480 data collection Methods 0.000 description 4
- 230000001186 cumulative effect Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- MHABMANUFPZXEB-UHFFFAOYSA-N O-demethyl-aloesaponarin I Natural products O=C1C2=CC=CC(O)=C2C(=O)C2=C1C=C(O)C(C(O)=O)=C2C MHABMANUFPZXEB-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Physiology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Measurement Of Resistance Or Impedance (AREA)
Description
本願は、ニューラル・ネットワークの分野に関し、特に、ニューラル・ネットワークのための適応的探索方法および装置に関する。
Claims (24)
- コンピュータによって実行される、ニューラル・ネットワークのための適応的探索方法であって、当該方法は:
探索条件セットを受領するステップであって、前記探索条件セットはターゲット・ハードウェア・プラットフォーム情報、ソース・ニューラル・ネットワークのネットワーク構造情報、および一つまたは複数の評価メトリックを含み、前記ソース・ニューラル・ネットワークの前記ネットワーク構造情報は前記ソース・ニューラル・ネットワークを表すために使用される、ステップと;
ターゲット・ニューラル・ネットワークを出力するステップであって、前記ターゲット・ニューラル・ネットワークは、前記一つまたは複数の評価メトリックに基づいて、トレーニングされたスーパーネットワーク上でサブネット探索プロセスを実行することによって得られ、前記トレーニングされたスーパーネットワークは、トレーニングされるべきスーパーネットワーク上でトレーニング・プロセスを実行することによって得られ、前記トレーニングされるべきスーパーネットワークは、前記ソース・ニューラル・ネットワークのネットワーク構造を拡張することによって得られ、ターゲット・ハードウェア・プラットフォーム上で実行される前記ターゲット・ニューラル・ネットワークの評価結果は、前記ターゲット・ハードウェア・プラットフォーム上で実行される前記ソース・ニューラル・ネットワークの評価結果よりよい、ステップとを含む、
方法。 - 前記一つまたは複数の評価メトリックは:
ニューラル・ネットワーク・モデルの精度評価メトリック、前記ニューラル・ネットワーク・モデルの時間オーバーヘッド評価メトリック、前記ニューラル・ネットワーク・モデルの記憶スペース評価メトリック、前記ニューラル・ネットワーク・モデルの電力消費評価メトリック、前記ニューラル・ネットワーク・モデルのテンソル計算ユニットの利用率評価メトリック、および前記ニューラル・ネットワーク・モデルのメモリ読み出し/書き込み速度評価メトリックのうちの一つまたは複数を含み、
前記ニューラル・ネットワーク・モデルの前記精度評価メトリックは、前記ターゲット・ニューラル・ネットワークの精度が精度閾値以上であることを含み;
前記ニューラル・ネットワーク・モデルの前記時間オーバーヘッド評価メトリックは、前記ターゲット・ニューラル・ネットワークの時間オーバーヘッドが時間オーバーヘッド閾値を超えないことを含み;
前記ニューラル・ネットワーク・モデルの前記記憶スペース評価メトリックは、前記ターゲット・ニューラル・ネットワークによって占有される記憶スペースが記憶スペース閾値を超えないことを含み;
前記ニューラル・ネットワーク・モデルの電力消費評価メトリックは、前記ターゲット・ニューラル・ネットワークの電力消費が電力消費閾値を超えないことを含み;
前記ニューラル・ネットワーク・モデルの前記テンソル計算ユニットの前記利用率評価メトリックは、前記ターゲット・ニューラル・ネットワークの前記テンソル計算ユニットの利用率が前記テンソル計算ユニットの利用率閾値以上であることを含み;
前記ニューラル・ネットワーク・モデルの前記メモリ読み出し/書み込み速度評価メトリックは、前記ターゲット・ニューラル・ネットワークのメモリ読み出し/書き込み速度がメモリ読み出し/書き込み速度閾値以上であることを含む、
請求項1に記載の方法。 - 前記ターゲット・ニューラル・ネットワークが、前記一つまたは複数の評価メトリックに基づいて、トレーニングされたスーパーネットワーク上でサブネット探索プロセスを実行することによって得られることは:
前記ターゲット・ニューラル・ネットワークが、前記一つまたは複数の評価メトリックに基づいて、ターゲット探索範囲において、一つまたは複数の評価されるべき候補サブネット上で前記サブネット探索プロセスを実行することによって得られることを含み、前記ターゲット探索範囲における前記一つまたは複数の評価されるべき候補サブネットは、第1の知識ベースを使用することによって、前記トレーニングされたスーパーネットワークから得られる、
請求項1または2に記載の方法。 - 前記ターゲット・ニューラル・ネットワークが、前記一つまたは複数の評価メトリックに基づいて、トレーニングされたスーパーネットワーク上でサブネット探索プロセスを実行することによって得られることは:
前記ターゲット・ニューラル・ネットワークが、一つまたは複数の評価されるべき候補サブネットの評価結果(単数または複数)に基づいて、前記トレーニングされたスーパーネットワーク上で前記サブネット探索プロセスを実行することによって得られることを含み、前記一つまたは複数の評価されるべき候補サブネットの評価結果(単数または複数)は、前記一つまたは複数の評価メトリックおよび対応情報に基づいて得られ、前記対応情報は、前記ターゲット・ハードウェア・プラットフォーム、M個のニューラル・ネットワークのネットワーク構造、N個の評価メトリック、およびP個の評価結果の間の対応を含み、M、N、Pはすべて正の整数であり、前記M個のニューラル・ネットワークのネットワーク構造は、前記トレーニングされたスーパーネットワークのネットワーク構造に含まれる、
請求項1または2に記載の方法。 - 前記一つまたは複数の評価メトリックは、前記ニューラル・ネットワーク・モデルの前記時間オーバーヘッド評価メトリックを含み、前記ニューラル・ネットワーク・モデルの前記時間オーバーヘッド評価メトリックは、前記ターゲット・ニューラル・ネットワークの前記時間オーバーヘッドが前記時間オーバーヘッド閾値よりも大きくないことを含み;
前記ターゲット・ニューラル・ネットワークが、前記一つまたは複数の評価メトリックに基づいて、トレーニングされたスーパーネットワーク上でサブネット探索プロセスを実行することによって得られることは:
前記ターゲット・ニューラル・ネットワークが、前記ニューラル・ネットワーク・モデルの前記時間オーバーヘッド評価メトリックに基づいて、前記トレーニングされたスーパーネットワークに含まれる一つまたは複数の候補サブネット上でサブネット評価を実行することによって得られることを含む、
請求項2に記載の方法。 - 前記トレーニングされるべきスーパーネットワークが、前記ソース・ニューラル・ネットワークのネットワーク構造を拡張することによって得られることは:
前記トレーニングされるべきスーパーネットワークが、前記ソース・ニューラル・ネットワークのネットワーク構造、第2の知識ベースにおける拡張規則、および前記ターゲット・ハードウェア・プラットフォーム情報に基づいて、水平拡張モードおよび/または垂直拡張モードで得られることを含む、
請求項1ないし5のうちいずれか一項に記載の方法。 - 前記トレーニングされるべきスーパーネットワークにおける第3演算子セットが、第1演算子セットおよび/または派生第2演算子セットを含み、前記第1演算子セットは、前記ソース・ニューラル・ネットワークに含まれる、請求項1ないし6のうちいずれか一項に記載の方法。
- 前記一つまたは複数の評価されるべき候補サブネットの評価結果(単数または複数)が、前記一つまたは複数の評価メトリックおよび対応情報に基づいて得られることは:
前記一つまたは複数の評価されるべき候補サブネットの評価結果(単数または複数)が、前記N個の評価メトリックの間のプロポーション関係に基づいて、かつ前記トレーニングされたスーパーネットワークにおける第3演算子セット内の第1演算子セットおよび/または派生第2演算子セットに対応する評価結果に基づいて、得られ、前記トレーニングされたスーパーネットワークにおける前記第3演算子セットにおける前記第1演算子セットおよび/または前記派生第2演算子セットに対応する前記評価結果は、前記一つまたは複数の評価メトリックおよび前記対応情報に基づいて得られ、前記第1演算子セットは前記ソース・ニューラル・ネットワークに含まれる、
請求項4に記載の方法。 - 前記一つまたは複数の評価されるべき候補サブネットの評価結果(単数または複数)が、前記N個の評価メトリックの間のプロポーション関係に基づいて、かつ前記トレーニングされたスーパーセットにおける第3演算子セット内の第1演算子セットおよび/または派生第2演算子セットに対応する評価結果に基づいて、得られることは:
前記一つまたは複数の評価されるべき候補サブネットの評価結果(単数または複数)が、r個の事前探索プロセスに基づいて決定され、前記r個の事前探索プロセスにおける各事前探索プロセスは:前記第1演算子セットおよび/または前記派生第2演算子セットの評価結果の重みの指定された値と、前記N個の評価メトリックと、該N個の評価メトリック間のプロポーション関係に基づいて、トレーニングされたスーパーネットワークを再トレーニングするステップであって、前記重みは、前記第1演算子セットおよび/または前記派生第2演算子セットの評価結果に対応する、ステップと;評価されるべき候補サブネットおよび該評価されるべき候補サブネットの評価結果を、前記第1演算子セットおよび前記派生第2演算子セットの評価結果に対応する調整された重みに基づいて決定するステップとを実行するために使用され、rは正の整数である、
請求項8に記載の方法。 - 前記N個の評価メトリックは、前記ニューラル・ネットワーク・モデルの前記精度評価メトリックおよび前記ニューラル・ネットワーク・モデルの前記時間オーバーヘッド評価メトリックを含み;対応して、前記N個の評価メトリックの間のプロポーション関係は、前記精度評価メトリックと前記時間オーバーヘッド評価メトリックとの間のプロポーション関係を含む、請求項4が請求項2を引用する場合の、請求項8または9に記載の方法。
- 前記ターゲット・ニューラル・ネットワークが、一つまたは複数の評価されるべき候補サブネットの評価結果(単数または複数)に基づいて、前記トレーニングされたスーパーネットワーク上で前記サブネット探索プロセスを実行することによって得られることは:
K×(n+1)個のターゲット候補サブネットから前記ターゲット・ニューラル・ネットワークを得るステップであって、前記K×(n+1)個のターゲット候補サブネットは、前記一つまたは複数の評価されるべき候補サブネットの評価結果をソートして、最初のK個の評価結果に対応するK個の第1のターゲット候補サブネットを得ることによって得られる、ステップと;前記トレーニングされたスーパーネットワークおよび前記K個の第1のターゲット候補サブネットに基づく第nラウンドの混成および/または変成の後に得られるS個の第2のターゲット候補サブネットを得るステップであって、nはあらかじめ設定されたスクリーニング回数であり、n≧1であり、KおよびSは正の整数であり、S>Kである、ステップと;前記一つまたは複数の評価メトリックおよび前記対応情報に基づいて前記S個の第2のターゲット候補サブネットの評価結果を得て、それらの評価結果をソートして、最初のK個の評価結果に対応するK個の第2のターゲット候補サブネットを得るステップとを実行することを含む、
請求項4に記載の方法。 - 前記ソース・ニューラル・ネットワークはソース・ハードウェア・プラットフォーム上で動作するニューラル・ネットワークであり、または前記ターゲット・ニューラル・ネットワークは前記ターゲット・ハードウェア・プラットフォーム上で動作するニューラル・ネットワークであり;前記ソース・ハードウェア・プラットフォームは前記ターゲット・ハードウェア・プラットフォームとは異なる、請求項1ないし10のうちいずれか一項に記載の方法。
- 前記ソース・ニューラル・ネットワークおよび前記ターゲット・ニューラル・ネットワークは、異なる時間領域において前記ターゲット・ハードウェア・プラットフォーム上で稼働するニューラル・ネットワークである、請求項1ないし10のうちいずれか一項に記載の方法。
- 当該方法はさらに:
前記ターゲット・ハードウェア・プラットフォームを有するデバイスにトレーニングされたターゲット・ニューラル・ネットワークを送信するステップを含み、前記トレーニングされたターゲット・ニューラル・ネットワークは、前記ターゲット・ニューラル・ネットワーク上でトレーニング・プロセスを実行することによって得られる、
請求項1ないし13のうちいずれか一項に記載の方法。 - 前記トレーニングされたターゲット・ニューラル・ネットワークは、ターゲット検出タスクおよび/または画像分類タスクを実行するために前記ターゲット・ハードウェア・プラットフォーム上で実行される、請求項12に記載の方法。
- ニューラル・ネットワークのための適応的探索装置であって、当該装置は受信ユニットと送信ユニットとを有しており、
前記受信ユニットは、探索条件セットを受領するように構成されており、前記探索条件セットはターゲット・ハードウェア・プラットフォーム情報、ソース・ニューラル・ネットワークのネットワーク構造情報、および一つまたは複数の評価メトリックを含み、前記ソース・ニューラル・ネットワークの前記ネットワーク構造情報は前記ソース・ニューラル・ネットワークを表すために使用され;
前記送信ユニットは、ターゲット・ニューラル・ネットワークを出力するように構成されており、前記ターゲット・ニューラル・ネットワークは、前記一つまたは複数の評価メトリックに基づいて、トレーニングされたスーパーネットワーク上でサブネット探索プロセスを実行することによって得られ、前記トレーニングされたスーパーネットワークは、トレーニングされるべきスーパーネットワーク上でトレーニング・プロセスを実行することによって得られ、前記トレーニングされるべきスーパーネットワークは、前記ソース・ニューラル・ネットワークのネットワーク構造を拡張することによって得られ、ターゲット・ハードウェア・プラットフォーム上で実行される前記ターゲット・ニューラル・ネットワークの評価結果は、前記ターゲット・ハードウェア・プラットフォーム上で実行される前記ソース・ニューラル・ネットワークの評価結果よりよい、
装置。 - 一つまたは複数のプロセッサ、
メモリ、および
一つまたは複数のコンピュータ・プログラムを有するサーバーであって、
前記一つまたは複数のコンピュータ・プログラムは前記メモリに記憶されており、前記一つまたは複数のコンピュータ・プログラムは命令を含み、前記命令が前記サーバーによって実行されるとき、前記サーバーは、請求項1ないし15のうちいずれか一項に記載の、ニューラル・ネットワークのための適応的探索方法を実行できるようにされる、
サーバー。 - コンピュータ命令を含むコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令がサーバー上で実行されるとき、前記サーバーは、請求項1ないし15のうちいずれか一項に記載の、ニューラル・ネットワークのための適応的探索方法を実行できるようにされる、コンピュータ読み取り可能な記憶媒体。
- コンピュータに請求項1ないし15のうちいずれか一項に記載の、ニューラル・ネットワークのための適応的探索方法を実行させるためのコンピュータ・プログラム。
- 少なくとも1つのサーバーおよび少なくとも1つの端末装置を含む通信システムであって、前記少なくとも1つのサーバーは、請求項1ないし15のうちいずれか一項に記載の、ニューラル・ネットワークのための適応的探索方法を実行し;前記少なくとも1つの端末装置は、前記少なくとも1つのサーバーに探索条件セットを送信し、前記探索条件セットは、ターゲット・ハードウェア・プラットフォーム情報、ソース・ニューラル・ネットワークのネットワーク構造情報、および一つまたは複数の評価メトリックを含み;前記ソース・ニューラル・ネットワークの前記ネットワーク構造情報は、前記ソース・ニューラル・ネットワークを表すために使用され;前記少なくとも1つの端末装置は、前記少なくとも1つのサーバーによって送信されるトレーニングされたターゲット・ニューラル・ネットワークを受領する、通信システム。
- コンピュータによって実行される、ニューラル・ネットワークのための適応的探索方法であって、当該方法は:
少なくとも1つのサーバーに探索条件セットを送信するステップであって、前記探索条件セットは、ターゲット・ハードウェア・プラットフォーム情報、ソース・ニューラル・ネットワークのネットワーク構造情報、および一つまたは複数の評価メトリックを含み、前記ソース・ニューラル・ネットワークの前記ネットワーク構造情報は、前記ソース・ニューラル・ネットワークを表すために使用される、ステップと;
前記少なくとも1つのサーバーによって送信されたトレーニングされたターゲット・ニューラル・ネットワークを受信するステップであって、前記トレーニングされたターゲット・ニューラル・ネットワークは、前記ターゲット・ニューラル・ネットワーク上のトレーニング・プロセスを実行することによって、前記少なくとも1つのサーバーによって取得され、前記ターゲット・ニューラル・ネットワークは、前記一つまたは複数の評価メトリックに基づいてトレーニングされたスーパーネットワーク上でサブネット探索プロセスを実行することによって、前記少なくとも1つのサーバーによって取得され、前記トレーニングされたスーパーネットワークは、トレーニングされるべきスーパーネットワーク上でトレーニング・プロセスを実行することによって、前記少なくとも1つのサーバーによって取得され、前記トレーニングされるべきスーパーネットワークは、前記ソース・ニューラル・ネットワークのネットワーク構造を拡張することによって、前記少なくとも1つのサーバーによって取得され、ターゲット・ハードウェア・プラットフォーム上で動作する前記ターゲット・ニューラル・ネットワークの評価結果は、前記ターゲット・ハードウェア・プラットフォーム上で動作する前記ソース・ニューラル・ネットワークの評価結果よりもよい、ステップとを含む、
方法。 - 当該方法は:
前記トレーニングされたターゲット・ニューラル・ネットワークを前記ターゲット・ハードウェア・プラットフォームを有するデバイスに送信するかどうかを決定するステップを含む、
請求項21に記載の方法。 - ニューラル・ネットワークのための適応的探索装置であって、当該装置は送信ユニットおよび受信ユニットを有しており、
前記送信ユニットは、少なくとも1つのサーバーに探索条件セットを送信するように構成されており、前記探索条件セットは、ターゲット・ハードウェア・プラットフォーム情報、ソース・ニューラル・ネットワークのネットワーク構造情報、および一つまたは複数の評価メトリックを含み、前記ソース・ニューラル・ネットワークの前記ネットワーク構造情報は、前記ソース・ニューラル・ネットワークを表すために使用され、
前記受信ユニットは、前記少なくとも1つのサーバーによって送信されたトレーニングされたターゲット・ニューラル・ネットワークを受信するように構成されており、前記トレーニングされたターゲット・ニューラル・ネットワークは、前記ターゲット・ニューラル・ネットワーク上のトレーニング・プロセスを実行することによって、前記少なくとも1つのサーバーによって取得され、前記ターゲット・ニューラル・ネットワークは、前記一つまたは複数の評価メトリックに基づいてトレーニングされたスーパーネットワーク上でサブネット探索プロセスを実行することによって、前記少なくとも1つのサーバーによって取得され、前記トレーニングされたスーパーネットワークは、トレーニングされるべきスーパーネットワーク上でトレーニング・プロセスを実行することによって、前記少なくとも1つのサーバーによって取得され、前記トレーニングされるべきスーパーネットワークは、前記ソース・ニューラル・ネットワークのネットワーク構造を拡張することによって、前記少なくとも1つのサーバーによって取得され、ターゲット・ハードウェア・プラットフォーム上で動作する前記ターゲット・ニューラル・ネットワークの評価結果は、前記ターゲット・ハードウェア・プラットフォーム上で動作する前記ソース・ニューラル・ネットワークの評価結果よりもよい、
装置。 - 当該装置はさらに処理ユニットを有しており、
前記処理ユニットは、前記トレーニングされたターゲット・ニューラル・ネットワークを前記ターゲット・ハードウェア・プラットフォームを有するデバイスに送信するかどうかを決定するように構成されている、
請求項23に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010044288.8A CN113128678A (zh) | 2020-01-15 | 2020-01-15 | 神经网络的自适应搜索方法及装置 |
CN202010044288.8 | 2020-01-15 | ||
PCT/CN2021/072294 WO2021143883A1 (zh) | 2020-01-15 | 2021-01-15 | 神经网络的自适应搜索方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023510566A JP2023510566A (ja) | 2023-03-14 |
JP7366274B2 true JP7366274B2 (ja) | 2023-10-20 |
Family
ID=76772137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022543064A Active JP7366274B2 (ja) | 2020-01-15 | 2021-01-15 | ニューラル・ネットワークのための適応的探索方法および装置 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20220351019A1 (ja) |
EP (1) | EP4080416A4 (ja) |
JP (1) | JP7366274B2 (ja) |
KR (1) | KR20220127878A (ja) |
CN (1) | CN113128678A (ja) |
CA (1) | CA3164908A1 (ja) |
WO (1) | WO2021143883A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115409168A (zh) * | 2021-05-29 | 2022-11-29 | 华为云计算技术有限公司 | 神经网络优化方法及其装置 |
CN114037058B (zh) * | 2021-11-05 | 2024-05-17 | 北京百度网讯科技有限公司 | 预训练模型的生成方法、装置、电子设备以及存储介质 |
CN114037057B (zh) * | 2021-11-05 | 2024-03-15 | 北京百度网讯科技有限公司 | 预训练模型的生成方法、装置、电子设备以及存储介质 |
CN116090538A (zh) * | 2021-11-05 | 2023-05-09 | 华为云计算技术有限公司 | 一种模型权重获取方法以及相关系统 |
CN114298272B (zh) * | 2021-12-23 | 2024-09-10 | 安谋科技(中国)有限公司 | 神经网络模型的构建方法、图像处理方法、设备及介质 |
CN114492737B (zh) | 2021-12-31 | 2022-12-09 | 北京百度网讯科技有限公司 | 数据处理方法、装置及电子设备、存储介质及程序产品 |
CN114492769B (zh) * | 2022-04-11 | 2022-08-12 | 飞腾信息技术有限公司 | 数据处理方法、相关设备及系统 |
CN115034368B (zh) * | 2022-06-10 | 2023-09-29 | 小米汽车科技有限公司 | 车载模型训练方法、装置、电子设备、存储介质及芯片 |
WO2023248166A1 (en) * | 2022-06-22 | 2023-12-28 | Dragerwerk AG & Co. KGaA | Physiological characteristic waveform classification with efficient deep network search |
CN115017377B (zh) * | 2022-08-05 | 2022-11-08 | 深圳比特微电子科技有限公司 | 用于搜索目标模型的方法、装置和计算设备 |
WO2024127462A1 (en) * | 2022-12-12 | 2024-06-20 | Nec Corporation | Automatic machine learning development system, automatic machine learning development method and program |
GB2627250A (en) * | 2023-02-17 | 2024-08-21 | Bae Systems Plc | Energy efficient machine learning models |
CN118396069A (zh) * | 2024-07-01 | 2024-07-26 | 星凡星启(成都)科技有限公司 | 一种深度学习模型算子代码的自动生成方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150006444A1 (en) | 2013-06-28 | 2015-01-01 | Denso Corporation | Method and system for obtaining improved structure of a target neural network |
CN110659721A (zh) | 2019-08-02 | 2020-01-07 | 浙江省北大信息技术高等研究院 | 一种目标检测网络的构建方法和系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11188820B2 (en) * | 2017-09-08 | 2021-11-30 | International Business Machines Corporation | Deep neural network performance analysis on shared memory accelerator systems |
CN108985386A (zh) * | 2018-08-07 | 2018-12-11 | 北京旷视科技有限公司 | 获得图像处理模型的方法、图像处理方法及对应装置 |
CN109919315B (zh) * | 2019-03-13 | 2021-10-01 | 科大讯飞股份有限公司 | 一种神经网络的前向推理方法、装置、设备及存储介质 |
CN110363810B (zh) * | 2019-06-14 | 2021-07-16 | 北京百度网讯科技有限公司 | 建立图像检测模型的方法、装置、设备和计算机存储介质 |
CN110533179A (zh) * | 2019-07-15 | 2019-12-03 | 北京地平线机器人技术研发有限公司 | 网络结构搜索方法和装置、可读存储介质、电子设备 |
-
2020
- 2020-01-15 CN CN202010044288.8A patent/CN113128678A/zh active Pending
-
2021
- 2021-01-15 WO PCT/CN2021/072294 patent/WO2021143883A1/zh unknown
- 2021-01-15 KR KR1020227027826A patent/KR20220127878A/ko unknown
- 2021-01-15 EP EP21740665.1A patent/EP4080416A4/en active Pending
- 2021-01-15 JP JP2022543064A patent/JP7366274B2/ja active Active
- 2021-01-15 CA CA3164908A patent/CA3164908A1/en active Pending
-
2022
- 2022-07-14 US US17/864,521 patent/US20220351019A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150006444A1 (en) | 2013-06-28 | 2015-01-01 | Denso Corporation | Method and system for obtaining improved structure of a target neural network |
JP2015011510A (ja) | 2013-06-28 | 2015-01-19 | 株式会社デンソーアイティーラボラトリ | ニューラルネットワーク最適化方法、ニューラルネットワーク最適化装置及びプログラム |
CN110659721A (zh) | 2019-08-02 | 2020-01-07 | 浙江省北大信息技术高等研究院 | 一种目标检测网络的构建方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
EP4080416A4 (en) | 2023-02-01 |
KR20220127878A (ko) | 2022-09-20 |
US20220351019A1 (en) | 2022-11-03 |
CA3164908A1 (en) | 2021-07-22 |
EP4080416A1 (en) | 2022-10-26 |
CN113128678A (zh) | 2021-07-16 |
JP2023510566A (ja) | 2023-03-14 |
WO2021143883A1 (zh) | 2021-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7366274B2 (ja) | ニューラル・ネットワークのための適応的探索方法および装置 | |
WO2022083624A1 (zh) | 一种模型的获取方法及设备 | |
WO2021218517A1 (zh) | 获取神经网络模型的方法、图像处理方法及装置 | |
WO2022068623A1 (zh) | 一种模型训练方法及相关设备 | |
CN111382868B (zh) | 神经网络结构搜索方法和神经网络结构搜索装置 | |
US11907810B2 (en) | Concurrent optimization of machine learning model performance | |
CN110070181A (zh) | 一种用于边缘计算设备的深度学习的优化方法 | |
WO2021233342A1 (zh) | 一种神经网络构建方法以及系统 | |
JP2018533138A (ja) | 選択的バックプロパゲーション | |
WO2021088365A1 (zh) | 确定神经网络的方法和装置 | |
WO2022171066A1 (zh) | 基于物联网设备的任务分配方法、网络训练方法及装置 | |
US20230281973A1 (en) | Neural network model training method, image processing method, and apparatus | |
CN113449859A (zh) | 一种数据处理方法及其装置 | |
WO2023207487A1 (zh) | 一种电路走线确定方法及相关设备 | |
CN112163601A (zh) | 图像分类方法、系统、计算机设备及存储介质 | |
WO2022156475A1 (zh) | 神经网络模型的训练方法、数据处理方法及装置 | |
WO2022252694A1 (zh) | 神经网络优化方法及其装置 | |
WO2023217127A1 (zh) | 一种因果关系确定方法及相关设备 | |
CN115220833A (zh) | 优化神经网络模型的方法和提供图形用户界面的方法 | |
JP2018194974A (ja) | 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法 | |
CN115879508A (zh) | 一种数据处理方法及相关装置 | |
US10990525B2 (en) | Caching data in artificial neural network computations | |
US11704562B1 (en) | Architecture for virtual instructions | |
WO2023197857A1 (zh) | 一种模型切分方法及其相关设备 | |
US20230376659A1 (en) | Vlsi placement optimization using self-supervised graph clustering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220812 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230901 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7366274 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |