JP7488375B2 - ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体 - Google Patents
ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP7488375B2 JP7488375B2 JP2022580186A JP2022580186A JP7488375B2 JP 7488375 B2 JP7488375 B2 JP 7488375B2 JP 2022580186 A JP2022580186 A JP 2022580186A JP 2022580186 A JP2022580186 A JP 2022580186A JP 7488375 B2 JP7488375 B2 JP 7488375B2
- Authority
- JP
- Japan
- Prior art keywords
- network
- neural network
- micro
- units
- optimal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 68
- 238000000034 method Methods 0.000 title claims description 63
- 238000003062 neural network model Methods 0.000 claims description 87
- 238000012549 training Methods 0.000 claims description 60
- 238000012360 testing method Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 25
- 238000004590 computer program Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000010845 search algorithm Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
一実施形態において、上記のステップS300に従って、すべての第3ネットワークの各マイクロユニットを訓練する。訓練後、異なる第3ネットワークのマイクロユニットを並べて異なるニューラルネットワークモデルを得る。例えば、第3ネットワークのマイクロユニットは数が4個で、すべて訓練済みであり、該第3ネットワークの4個の訓練済みのマイクロユニットを並べてマイクロユニット数が4の1つのニューラルネットワークモデルを得る。異なる第3ネットワークの訓練済みマイクロユニットを組み合わせて1つのニューラルネットワークモジュールを得ることもできる。例えば、一つの第3ネットワーク内の訓練済みの2つのマイクロユニットと、もう一つの第3ネットワーク内の訓練済みの1つのマイクロユニットとを組み合わせて、マイクロユニット数が3個のニューラルネットワークモデルを得る。このように、ステップS400が完了すると、複数のニューラルネットワークモデルが得られるため、実際の応用時に適切なニューラルネットワークモデルを選択して異なる端末に配置して、計算能力の消費を効果的に削減することができる。
図6に示すように、NASアルゴリズムの探索空間がマイクロユニット空間であり、マイクロユニットが単入力単出力構造であり、マクロユニットトポロジがシーケンシャル構造であるように定義し、複数のマイクロユニットにより構成されたネットワークモデルは、画像分類問題を解決するために利用され、マルチチャンネル画像データを入力として、画像内容の実際の分類を出力する。ニューラルネットワークの生成方法は以下のようなステップを含む。
図7に示すように、NASアルゴリズムの探索空間がマイクロユニット空間であり、マイクロユニットが二重入力単出力構造であるように定義し、複数のマイクロユニットにより構成されたネットワークモデルは、画像分類問題を解決するために利用され、マルチチャンネル画像データを入力として、画像内容の実際の分類を出力する。ニューラルネットワークの生成方法は以下のようなステップを含む。
図8に示すように、すべてのサイズを有するニューラルネットワークモデルを取得した後、端末を配置する制限条件は、オンライン推論の時間遅延が500msを超えてはならないことであり、ニューラルネットワークモデルのテスト流れは、以下のステップを含む。
Claims (10)
- システムアーキテクチャプラットフォームによって実行されるニューラルネットワークの生成方法であって、
最適マイクロユニットを取得し、前記最適マイクロユニットに基づいて第1ネットワークを構築するステップと、
既定の訓練データセットを用いて前記第1ネットワークを訓練して、第2ネットワークを得るステップと、
マイクロユニットの数が前記第1ネットワークの最適マイクロユニットの数より少ない第3ネットワークを構築し、前記第2ネットワークを用いて前記第3ネットワークの各マイクロユニットを訓練するステップと、
前記第3ネットワーク内の訓練後の前記マイクロユニットに基づいて、ニューラルネットワークモデルを得るステップと、
を含むニューラルネットワークの生成方法。 - 前記最適マイクロユニットに基づいて第1ネットワークを構築する前記ステップは、
事前定義のサイズに従って、前記最適マイクロユニットをN回スタックして前記第1ネットワークを生成し、ここで、Nは2の整数乗であるステップを含む
請求項1に記載のニューラルネットワークの生成方法。 - 第3ネットワークを構築する前記ステップは、
マイクロユニットの数はN/MでN/M>1を満たす第3ネットワークを構築し、ここで、Mは2の整数乗であるステップと、
すべての前記第3ネットワークを初期化するステップと、
を含む請求項2に記載のニューラルネットワークの生成方法。 - 前記第3ネットワーク内の訓練後の前記マイクロユニットに基づいて、ニューラルネットワークモデルを得る前記ステップは、
訓練済みの前記マイクロユニットを結合させて、マイクロユニット数の異なる前記ニューラルネットワークモデルを得るステップであって、前記ニューラルネットワークモデルの数の範囲は2~N個であるステップを含む
請求項3に記載のニューラルネットワークの生成方法。 - 前記第2ネットワークを用いて前記第3ネットワークの各マイクロユニットを訓練する前記ステップは、
前記第2ネットワークを前記訓練データセットと組み合わせて用いて、前記第2ネットワークの局所入出力の方式により前記第3ネットワークの各マイクロユニットを訓練するステップを含む
請求項1から4の何れか一項に記載のニューラルネットワークの生成方法。 - 各前記ニューラルネットワークモデルをテストまたは評価し、既定条件を満たすニューラルネットワークモデルをターゲットニューラルネットワークとして選択するステップをさらに含む
請求項1に記載のニューラルネットワークの生成方法。 - 各前記ニューラルネットワークモデルをテストまたは評価し、既定条件を満たすニューラルネットワークモデルをターゲットニューラルネットワークとして選択する前記ステップは、
既定のテストデータセットを用いて各前記ニューラルネットワークモデルをテストし、各前記ニューラルネットワークモデルのテスト正解率を取得するステップと、
各前記ニューラルネットワークモデルを用いて同じタスクをそれぞれ実行し、各前記ニューラルネットワークモデルの時間遅延を取得するステップと、
ターゲットニューラルネットワークモデルの時間遅延が既定値より低く、且つテスト正解率が最適値であれば、前記ターゲットニューラルネットワークモデルを前記ターゲットニューラルネットワークとして決定するステップと、
を含む請求項6に記載のニューラルネットワークの生成方法。 - 最適マイクロユニットを取得する前記ステップは、
ニューラルネットワークアーキテクチャ探索NASアルゴリズムに従って、既定の探索空間を用いて前記最適マイクロユニットのネットワーク構造を得るステップを含む
請求項1に記載のニューラルネットワークの生成方法。 - メモリと、プロセッサと、メモリに記憶されて且つプロセッサ上で実行できるコンピュータプログラムとを含む機器であって、
前記プロセッサにより前記コンピュータプログラムが実行された場合、請求項1から8の何れか一項に記載のニューラルネットワークの生成方法を実現する
機器。 - コンピュータ実行可能な指令を記憶しているコンピュータ可読記憶媒体であって、
前記コンピュータ実行可能な指令は、請求項1から8の何れか一項に記載のニューラルネットワークの生成方法を実行するように構成された
コンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010581487.2A CN113837374A (zh) | 2020-06-23 | 2020-06-23 | 神经网络的生成方法、设备及计算机可读存储介质 |
CN202010581487.2 | 2020-06-23 | ||
PCT/CN2021/101545 WO2021259262A1 (zh) | 2020-06-23 | 2021-06-22 | 神经网络的生成方法、设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023531538A JP2023531538A (ja) | 2023-07-24 |
JP7488375B2 true JP7488375B2 (ja) | 2024-05-21 |
Family
ID=78964018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022580186A Active JP7488375B2 (ja) | 2020-06-23 | 2021-06-22 | ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4170552A4 (ja) |
JP (1) | JP7488375B2 (ja) |
CN (1) | CN113837374A (ja) |
WO (1) | WO2021259262A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114528975B (zh) * | 2022-01-20 | 2024-09-24 | 传申弘安智能(深圳)有限公司 | 深度学习模型训练方法、系统及介质 |
CN114428677B (zh) * | 2022-01-28 | 2023-09-12 | 北京百度网讯科技有限公司 | 任务处理方法、处理装置、电子设备及存储介质 |
CN118333099B (zh) * | 2024-06-12 | 2024-09-06 | 上海岩芯数智人工智能科技有限公司 | 一种多模态共享神经元网络模型构建方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180268292A1 (en) | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Learning efficient object detection models with knowledge distillation |
JP2019533257A (ja) | 2016-10-28 | 2019-11-14 | グーグル エルエルシー | ニューラルアーキテクチャ検索 |
JP2019535084A (ja) | 2016-10-06 | 2019-12-05 | グーグル エルエルシー | 分離可能な畳み込み層を含む画像処理ニューラルネットワーク |
JP2020071862A (ja) | 2018-10-31 | 2020-05-07 | 株式会社東芝 | コンピュータビジョンシステム及び方法 |
JP2020087288A (ja) | 2018-11-30 | 2020-06-04 | アイシン精機株式会社 | Dnn軽量化装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110476172B (zh) * | 2017-07-21 | 2024-01-30 | 谷歌有限责任公司 | 用于卷积神经网络的神经架构搜索 |
CN109993299B (zh) * | 2017-12-29 | 2024-02-27 | 中兴通讯股份有限公司 | 数据训练方法及装置、存储介质、电子装置 |
CN110298240B (zh) * | 2019-05-21 | 2022-05-06 | 北京迈格威科技有限公司 | 一种汽车用户识别方法、装置、系统及存储介质 |
CN112561027A (zh) * | 2019-09-25 | 2021-03-26 | 华为技术有限公司 | 神经网络架构搜索方法、图像处理方法、装置和存储介质 |
CN111008693B (zh) * | 2019-11-29 | 2024-01-26 | 小米汽车科技有限公司 | 一种基于数据压缩的网络模型构建方法、系统和介质 |
CN111598216B (zh) * | 2020-04-16 | 2021-07-06 | 北京百度网讯科技有限公司 | 学生网络模型的生成方法、装置、设备及存储介质 |
CN111723914A (zh) * | 2020-06-22 | 2020-09-29 | 中山大学 | 一种基于卷积核预测的神经网络架构搜索方法 |
-
2020
- 2020-06-23 CN CN202010581487.2A patent/CN113837374A/zh active Pending
-
2021
- 2021-06-22 EP EP21830012.7A patent/EP4170552A4/en active Pending
- 2021-06-22 WO PCT/CN2021/101545 patent/WO2021259262A1/zh unknown
- 2021-06-22 JP JP2022580186A patent/JP7488375B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019535084A (ja) | 2016-10-06 | 2019-12-05 | グーグル エルエルシー | 分離可能な畳み込み層を含む画像処理ニューラルネットワーク |
JP2019533257A (ja) | 2016-10-28 | 2019-11-14 | グーグル エルエルシー | ニューラルアーキテクチャ検索 |
US20180268292A1 (en) | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Learning efficient object detection models with knowledge distillation |
JP2020071862A (ja) | 2018-10-31 | 2020-05-07 | 株式会社東芝 | コンピュータビジョンシステム及び方法 |
JP2020087288A (ja) | 2018-11-30 | 2020-06-04 | アイシン精機株式会社 | Dnn軽量化装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113837374A (zh) | 2021-12-24 |
EP4170552A1 (en) | 2023-04-26 |
WO2021259262A1 (zh) | 2021-12-30 |
JP2023531538A (ja) | 2023-07-24 |
EP4170552A4 (en) | 2023-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7488375B2 (ja) | ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体 | |
CN110168578B (zh) | 具有任务特定路径的多任务神经网络 | |
US11790212B2 (en) | Quantization-aware neural architecture search | |
CN111406264B (zh) | 神经架构搜索 | |
JP7366274B2 (ja) | ニューラル・ネットワークのための適応的探索方法および装置 | |
CN112116090B (zh) | 神经网络结构搜索方法、装置、计算机设备及存储介质 | |
WO2022027937A1 (zh) | 一种神经网络压缩方法、装置、设备及存储介质 | |
US20160224903A1 (en) | Hyper-parameter selection for deep convolutional networks | |
US20220335304A1 (en) | System and Method for Automated Design Space Determination for Deep Neural Networks | |
CN112163601B (zh) | 图像分类方法、系统、计算机设备及存储介质 | |
CN112513886A (zh) | 信息处理方法、信息处理装置和信息处理程序 | |
US20220398450A1 (en) | Automatically and efficiently generating search spaces for neural network | |
CN118451423A (zh) | 最优知识蒸馏方案 | |
CN114037882A (zh) | 边缘人工智能装置、电子装置及其方法 | |
US20210201133A1 (en) | Method and apparatus with neural network data input and output control | |
CN114511042A (zh) | 一种模型的训练方法、装置、存储介质及电子装置 | |
CN117744759A (zh) | 文本信息的识别方法、装置、存储介质及电子设备 | |
CN116090536A (zh) | 神经网络的优化方法、装置、计算机设备及存储介质 | |
US20220108156A1 (en) | Hardware architecture for processing data in sparse neural network | |
CN116245141B (zh) | 迁移学习架构、方法、电子设备及存储介质 | |
CN116796821A (zh) | 面向3d目标检测算法的高效神经网络架构搜索方法及装置 | |
CN116047330A (zh) | 一种电池性能的预测方法、模型训练方法及相关装置 | |
CN117011118A (zh) | 模型参数更新方法、装置、计算机设备以及存储介质 | |
CN115587616A (zh) | 网络模型训练方法、装置、存储介质及计算机设备 | |
CN115202879B (zh) | 基于多类型智能模型的云边协同调度方法及应用 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221229 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20230725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240402 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7488375 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |