JP2022013658A - オプティマイザ学習方法、装置、電子デバイス、可読記憶媒体及びコンピュータプログラム - Google Patents
オプティマイザ学習方法、装置、電子デバイス、可読記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2022013658A JP2022013658A JP2021049640A JP2021049640A JP2022013658A JP 2022013658 A JP2022013658 A JP 2022013658A JP 2021049640 A JP2021049640 A JP 2021049640A JP 2021049640 A JP2021049640 A JP 2021049640A JP 2022013658 A JP2022013658 A JP 2022013658A
- Authority
- JP
- Japan
- Prior art keywords
- meta
- optimizer
- neural network
- learning model
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000004590 computer program Methods 0.000 title claims abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims abstract description 101
- 238000012549 training Methods 0.000 claims abstract description 78
- 230000015654 memory Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 16
- 230000000694 effects Effects 0.000 abstract description 8
- 238000013135 deep learning Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
Abstract
Description
Claims (11)
- オプティマイザの学習方法であって、
ニューラルネットワークの属性情報、ニューラルネットワークのオプティマイザ情報、及びオプティマイザのパラメータ情報を含む複数のデータセットを含む訓練データを取得し、
各データセットにおけるニューラルネットワークの属性情報およびニューラルネットワークのオプティマイザ情報を入力とし、各データセットにおけるオプティマイザのパラメータ情報を出力として、メタ学習モデルが収束するまで前記メタ学習モデルを訓練する、
ことを含む方法。 - 前記ニューラルネットワークの属性情報は、ニューラルネットワークの構造情報およびニューラルネットワークのタスク情報の少なくとも一方を含む、請求項1に記載の方法。
- 前記各データセットにおけるニューラルネットワークの属性情報およびニューラルネットワークのオプティマイザ情報を入力、各データセットにおけるオプティマイザのパラメータ情報を出力として、メタ学習モデルを訓練することは、
現在のメタ学習モデルのパラメータを第1のパラメータとし、
ノイズを使用して前記第1のパラメータをジッタリングして複数のジッタパラメータを取得し、
前記複数のジッタパラメータに基づいて複数のジッタメタ学習モデルを構築し、
各データセットにおけるニューラルネットワークの属性情報およびニューラルネットワークのオプティマイザ情報を入力とし、各データセットにおけるオプティマイザのパラメータ情報を出力として、前記複数のジッタメタ学習モデルをそれぞれ訓練し、
訓練結果に基づいて、予め設定された条件を満たすジッタメタ学習モデルを最終メタ学習モデルとして選択する、
ことを含む請求項1に記載の方法。 - 前記訓練結果に基づいて、予め設定された条件を満たすジッタメタ学習モデルを最終メタ学習モデルとして選択することは、
訓練結果に基づいて、予め設定された条件を満たすジッタメタ学習モデルのジッタパラメータを特定し、
特定されたジッタパラメータを第1のパラメータとした後、ノイズを用いて第1のパラメータをジッタリングするステップに進行し、
この処理を予め設定された回数で繰り返した後、選択されたジッタメタ学習モデルを最終メタ学習モデルとする、
ことを含む請求項3に記載の方法。 - オプティマイザの学習装置であって、
ニューラルネットワークの属性情報、ニューラルネットワークのオプティマイザ情報、及びオプティマイザのパラメータ情報を含む複数のデータセットを含む訓練データを取得する取得部と、
各データセットにおけるニューラルネットワークの属性情報とニューラルネットワークのオプティマイザ情報とを入力とし、各データセットにおけるオプティマイザのパラメータ情報を出力として、メタ学習モデルが収束するまで前記メタ学習モデルを訓練する訓練部と、
を備える装置。 - 前記取得部により取得されたニューラルネットワークの属性情報は、ニューラルネットワークの構造情報及びニューラルネットワークのタスク情報の少なくとも一方を含む請求項5に記載の装置。
- 前記訓練部は、各データセットにおけるニューラルネットワークの属性情報およびニューラルネットワークのオプティマイザ情報を入力とし、各データセットにおけるオプティマイザのパラメータ情報を出力として、メタ学習モデルを訓練する場合に、
現在のメタ学習モデルのパラメータを第1のパラメータとし、
ノイズを使用して第1のパラメータをジッタリングして複数のジッタパラメータを取得し、
前記複数のジッタパラメータに基づいて、複数のジッタメタ学習モデルを構築し、
各データセットにおけるニューラルネットワークの属性情報およびニューラルネットワークのオプティマイザ情報を入力、各データセットにおけるオプティマイザのパラメータ情報を出力として、前記複数のジッタメタ学習モデルをそれぞれ訓練し、
訓練結果に基づいて、予め設定された条件を満たすジッタメタ学習モデルを最終メタ学習モデルとして選択する、
請求項5に記載の装置。 - 前記訓練部は、訓練結果に基づいて、予め設定された条件を満たすジッタメタ学習モデルを最終メタ学習モデルとして選択する場合に、
訓練結果に基づいて、予め設定された条件を満たすジッタメタ学習モデルのジッタパラメータを特定し、
特定されたジッタパラメータを第1のパラメータとした後、ノイズを用いて第1のパラメータをジッタリングするステップに進行し、
この処理を予め設定された回数で繰り返した後、選択されたジッタメタ学習モデルを最終メタ学習モデルとする、
請求項7に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~4のいずれか一項に記載の方法を実行させる電子デバイス。 - コンピュータに請求項1~4のいずれか一項に記載の方法を実行させるためのコンピュータコマンドが記憶された非一時的なコンピュータ可読記憶媒体。
- コンピュータに請求項1~4のいずれか一項に記載の方法を実行させるためのコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010625746.7A CN112001489A (zh) | 2020-07-01 | 2020-07-01 | 优化器学习的方法、装置、电子设备和可读存储介质 |
CN202010625746.7 | 2020-07-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022013658A true JP2022013658A (ja) | 2022-01-18 |
JP7165226B2 JP7165226B2 (ja) | 2022-11-02 |
Family
ID=73468144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021049640A Active JP7165226B2 (ja) | 2020-07-01 | 2021-03-24 | オプティマイザ学習方法、装置、電子デバイス、可読記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220004867A1 (ja) |
EP (1) | EP3933712A1 (ja) |
JP (1) | JP7165226B2 (ja) |
KR (1) | KR102607536B1 (ja) |
CN (1) | CN112001489A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508004A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 一种文字识别方法、装置、电子设备及存储介质 |
CN115113814B (zh) * | 2022-06-21 | 2024-02-02 | 腾讯科技(深圳)有限公司 | 一种神经网络模型上线方法和相关装置 |
KR102680328B1 (ko) * | 2023-01-25 | 2024-07-01 | 중앙대학교 산학협력단 | 의료 영상 분할을 위한 딥러닝 모델 최적화 방법 및 그 장치 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3610417A1 (en) * | 2017-04-12 | 2020-02-19 | Deepmind Technologies Limited | Black-box optimization using neural networks |
US11397887B2 (en) * | 2017-09-26 | 2022-07-26 | Amazon Technologies, Inc. | Dynamic tuning of training parameters for machine learning algorithms |
US20190244139A1 (en) * | 2018-02-02 | 2019-08-08 | Oracle International Corporation | Using meta-learning for automatic gradient-based hyperparameter optimization for machine learning and deep learning models |
WO2019165462A1 (en) | 2018-02-26 | 2019-08-29 | Google Llc | Unsupervised neural network training using learned optimizers |
KR20200015048A (ko) * | 2018-08-02 | 2020-02-12 | 삼성전자주식회사 | 메타-학습에 기반하여 기계학습의 모델을 선정하는 방법 및 장치 |
KR102184278B1 (ko) | 2018-11-21 | 2020-11-30 | 한국과학기술원 | 메타학습에 기반한 임의의 목표 데이터셋과 모델 구조로의 전이학습 방법 및 시스템 |
US11276151B2 (en) * | 2019-06-27 | 2022-03-15 | Retrace Labs | Inpainting dental images with missing anatomy |
CN111353610A (zh) * | 2020-02-28 | 2020-06-30 | 创新奇智(青岛)科技有限公司 | 一种模型参数确定方法、装置、存储介质及电子设备 |
-
2020
- 2020-07-01 CN CN202010625746.7A patent/CN112001489A/zh active Pending
-
2021
- 2021-03-19 EP EP21163596.6A patent/EP3933712A1/en not_active Ceased
- 2021-03-23 US US17/210,141 patent/US20220004867A1/en active Pending
- 2021-03-24 JP JP2021049640A patent/JP7165226B2/ja active Active
- 2021-03-25 KR KR1020210039189A patent/KR102607536B1/ko active IP Right Grant
Non-Patent Citations (1)
Title |
---|
HARTMANN T. ET AL.: "Meta-Modelling Meta-Learning", 2019 ACM/IEEE 22ND INTERNATIONAL CONFERENCE ON MODEL DRIVEN ENGINEERING LANGUAGES AND SYSTEMS (MODEL, JPN6022015848, 2019, pages 300 - 305, XP033662696, ISSN: 0004758097, DOI: 10.1109/MODELS.2019.00014 * |
Also Published As
Publication number | Publication date |
---|---|
EP3933712A1 (en) | 2022-01-05 |
KR102607536B1 (ko) | 2023-11-29 |
US20220004867A1 (en) | 2022-01-06 |
CN112001489A (zh) | 2020-11-27 |
KR20220003444A (ko) | 2022-01-10 |
JP7165226B2 (ja) | 2022-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102484617B1 (ko) | 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP7036321B2 (ja) | 問答読解モデル取得方法、装置、電子機器、及び記憶媒体 | |
JP7165226B2 (ja) | オプティマイザ学習方法、装置、電子デバイス、可読記憶媒体及びコンピュータプログラム | |
CN110806923B (zh) | 一种区块链任务的并行处理方法、装置、电子设备和介质 | |
KR20220001008A (ko) | 분산 훈련 방법, 시스템, 기기, 저장 매체 및 프로그램 | |
JP2021082308A (ja) | マルチモーダルコンテンツ処理方法、装置、機器及び記憶媒体 | |
CN111144108B (zh) | 情感倾向性分析模型的建模方法、装置和电子设备 | |
JP7095209B2 (ja) | グラフニューラルネットワークをプレトレーニングする方法、プログラム及び装置 | |
JP2022002091A (ja) | 画像編集モデルの構築方法及び装置 | |
JP2021144696A (ja) | モデルパラメータ更新方法及び装置 | |
CN111125451B (zh) | 数据生产加工方法、装置、电子设备及存储介质 | |
JP7192192B2 (ja) | 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 | |
JP7300475B2 (ja) | エンティティ関係マイニング方法、装置、電子デバイス、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN111950293B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111158666B (zh) | 实体归一化处理方法、装置、设备及存储介质 | |
CN110569969A (zh) | 网络模型结构的采样方法、装置以及电子设备 | |
JP7170094B2 (ja) | オペレーター併合方法、装置、電子デバイス、記憶媒体及びコンピュータプログラム | |
CN110852449A (zh) | 模型迁移方法和电子设备 | |
CN111737399A (zh) | 扩展问答集的方法、装置、电子设备和可读存储介质 | |
CN111061743B (zh) | 数据加工方法、装置和电子设备 | |
CN112527474A (zh) | 任务处理方法及装置、设备、可读介质、计算机程序产品 | |
JP7217325B2 (ja) | ネットワークオペレータ処理方法、装置、電子デバイス、記憶媒体及びプログラム | |
EP3958183A1 (en) | Deep learning model adaptation method and apparatus and electronic device | |
CN112507692B (zh) | 建立风格文本生成模型的方法、装置 | |
CN111539225B (zh) | 语义理解框架结构的搜索方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221014 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221021 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7165226 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |