KR20180134739A - 전자 장치 및 학습 모델의 재학습 방법 - Google Patents
전자 장치 및 학습 모델의 재학습 방법 Download PDFInfo
- Publication number
- KR20180134739A KR20180134739A KR1020180010936A KR20180010936A KR20180134739A KR 20180134739 A KR20180134739 A KR 20180134739A KR 1020180010936 A KR1020180010936 A KR 1020180010936A KR 20180010936 A KR20180010936 A KR 20180010936A KR 20180134739 A KR20180134739 A KR 20180134739A
- Authority
- KR
- South Korea
- Prior art keywords
- learning
- learning model
- neurons
- neuron
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 210000002569 neuron Anatomy 0.000 claims abstract description 148
- 238000010606 normalization Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 15
- 230000003362 replicative effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 27
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000010076 replication Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 6
- 238000000926 separation method Methods 0.000 description 6
- 230000000750 progressive effect Effects 0.000 description 5
- 238000000638 solvent extraction Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 3
- 238000006731 degradation reaction Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 241000283070 Equus zebra Species 0.000 description 2
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 229910052709 silver Inorganic materials 0.000 description 2
- 239000004332 silver Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 239000004568 cement Substances 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
Description
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 구체적인 구성을 나타내는 블록도,
도 3은 동적 확장 방법을 설명하기 위한 도면,
도 4는 동적 확장 네트워크에서의 증분 학습에 대한 내용을 설명하기 위한 도면,
도 5는 동적 확장 네트워크에서의 증분 학습 알고리즘을 나타내는 도면,
도 6은 선택적 재학습에 대한 알고리즘을 나타내는 도면,
도 7은 동적 확장 방법에 대한 알고리즘을 나타내는 도면,
도 8은 네트워크 분할 및 복제에 대한 알고리즘을 나타내는 도면,
도 9는 각 학습 모델 및 데이터 세트 각각에 대한 평균 태스크당 평균 성능을 나타내는 도면,
도 10은 각 학습 모델 및 데이터 세트 각각에 대한 네트워크 크기의 정확성을 나타내는 도면,
도 11은 선택적 재훈련의 효과를 나타내는 도면,
도 12는 MNIST-Variation 데이터 세트에 대한 시맨틱 드리프트 실험을 나타내는 도면,
도 13은 본 개시의 일 실시 예에 따른 학습 모델 행성 방법을 설명하기 위한 흐름도,
도 14는 본 개시의 일 실시 예에 따라 동적 확장 네트워크의 증분 학습을 설명하기 위한 흐름도,
도 15는 도 14의 선택적 재학습 단계를 설명하기 위한 흐름도,
도 16은 도 14의 동적 네트워크 확장 단계를 설명하기 위한 흐름도, 그리고,
도 17은 도 14의 네트워크 분리 및 복제 단계를 설명하기 위한 흐름도이다.
120: 프로세서 130: 통신 인터페이스
140: 디스플레이 150: 조작 입력부
Claims (13)
- 학습 모델의 재학습 방법에 있어서,
복수의 뉴런으로 구성되는 학습 모델 및 신규 태스크를 포함하는 데이터 세트를 입력받는 단계;
상기 복수의 뉴런 중 상기 신규 태스크와 관련된 뉴런을 식별하고, 상기 식별된 뉴런에 대해서 상기 신규 태스크와 관련된 파라미터를 선택적 재학습하는 단계; 및
선택적 재학습이 수행된 학습 모델이 기설정된 손실 값을 가지면, 상기 선택적 재학습이 수행된 학습 모델의 크기를 동적으로 확장하여 상기 입력된 학습 모델을 재구성하는 단계;를 포함하는 학습 모델 재학습 방법. - 제1항에 있어서,
상기 선택적 재학습 단계는,
상기 입력된 학습 모델에 대한 손실 함수 및 희소성을 위한 정규화 항을 갖는 목적 함수가 최소화하도록 신규 파라미터 행렬을 산출하고, 상기 산출된 신규 파라미터 행렬을 이용하여 상기 신규 태스크와 관련된 뉴런을 식별하는 학습 모델 재학습 방법. - 제1항에 있어서,
상기 선택적 재학습 단계는,
상기 식별된 뉴런만으로 구성되는 네트워크 파라미터에 대해서 상기 데이터 세트를 이용하여 신규 파라미터 행렬을 산출하고, 상기 산출된 신규 파라미터 행렬을 상기 학습 모델의 식별된 뉴런에 반영하여 선택적 재학습을 수행하는 학습 모델 재학습 방법. - 제1항에 있어서,
상기 입력된 학습 모델을 재구성하는 단계는,
선택적 재학습이 수행된 학습 모델이 기설정된 손실 값을 가지면, 상기 선택적 재학습이 수행된 학습 모델에 레이어별로 고정된 개수의 뉴런을 추가하고, 그룹 희소성을 이용하여 상기 추가된 뉴런 중 불필요한 뉴런을 제거하여 상기 입력된 학습 모델을 재구성하는 학습 모델 재학습 방법. - 제4항에 있어서,
상기 입력된 학습 모델을 재구성하는 단계는,
상기 입력된 학습 모델에 대한 손실 함수, 희소성을 위한 정규화 항 및 그룹 희소성을 위한 그룹 정규화 항을 갖는 목적 함수를 이용하여 상기 추가된 뉴런 중 불필요한 뉴런을 확인하는 학습 모델 재학습 방법. - 제1항에 있어서,
상기 입력된 학습 모델을 재구성하는 단계는,
상기 식별된 뉴런의 변화가 기설정된 값을 가지면, 상기 식별된 뉴런을 복제하여 상기 입력된 학습 모델을 확장하고, 상기 식별된 뉴런은 기존의 값을 갖도록 하여 상기 입력된 학습 모델을 재구성하는 학습 모델 재학습 방법. - 전자 장치에 있어서,
복수의 뉴런으로 구성되는 학습 모델 및 신규 태스크를 포함하는 데이터 세트가 저장된 메모리; 및
상기 복수의 뉴런 중 상기 신규 태스크와 관련된 뉴런을 식별하여 상기 식별된 뉴런에 대해서 상기 신규 태스크와 관련된 파라미터를 선택적 재학습하고, 선택적 재학습이 수행된 학습 모델이 기설정된 손실 값을 가지면 상기 선택적 재학습이 수행된 학습 모델의 크기를 동적으로 확장하여 상기 입력된 학습 모델을 재구성하는 프로세서;를 포함하는 전자 장치. - 제7항에 있어서,
상기 프로세서는,
상기 입력된 학습 모델에 대한 손실 함수 및 희소성을 위한 정규화 항을 갖는 목적 함수가 최소화하도록 신규 파라미터 행렬을 산출하고, 상기 산출된 신규 파라미터 행렬을 이용하여 상기 신규 태스크와 관련된 뉴런을 식별하는 전자 장치. - 제7항에 있어서,
상기 프로세서는,
상기 식별된 뉴런만으로 구성되는 네트워크 파라미터에 대해서 상기 데이터 세트를 이용하여 신규 파라미터 행렬을 산출하고, 상기 산출된 신규 파라미터 행렬을 상기 학습 모델의 식별된 뉴런에 반영하여 선택적 재학습을 수행하는 학습 모델 재학습 방법. - 제7항에 있어서,
상기 프로세서는,
선택적 재학습이 수행된 학습 모델이 기설정된 손실 값을 가지면, 상기 선택적 재학습이 수행된 학습 모델에 레이어별로 고정된 개수의 뉴런을 추가하고, 그룹 희소성을 이용하여 상기 추가된 뉴런 중 불필요한 뉴런을 제거하여 상기 입력된 학습 모델을 재구성하는 전자 장치. - 제10항에 있어서,
상기 프로세서는,
상기 입력된 학습 모델에 대한 손실 함수, 희소성을 위한 정규화 항 및 그룹 희소성을 위한 그룹 정규화 항을 갖는 목적 함수를 이용하여 상기 추가된 뉴런 중 불필요한 뉴런을 확인하는 전자 장치. - 제7항에 있어서,
상기 입력된 학습 모델을 재구성하는 단계는,
상기 식별된 뉴런의 변화가 기설정된 값을 가지면, 상기 식별된 뉴런을 복제하여 상기 입력된 학습 모델을 확장하고, 상기 식별된 뉴런은 기존의 값을 갖도록 하여 상기 입력된 학습 모델을 재구성하는 전자 장치. - 전자 장치에서의 학습 모델의 재학습 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록 매체에 있어서,
상기 학습 모델의 재학습 방법은,
복수의 뉴런으로 구성되는 학습 모델, 및 신규 태스크를 포함하는 데이터 세트를 입력받는 단계;
상기 복수의 뉴런 중 상기 신규 태스크와 관련된 뉴런을 식별하고, 상기 식별된 뉴런에 대해서 상기 신규 태스크와 관련된 파라미터를 선택적 재학습하는 단계; 및
선택적 재학습이 수행된 학습 모델이 기설정된 손실 값을 가지면, 상기 선택적 재학습이 수행된 학습 모델의 크기를 동적으로 확장하여 상기 입력된 학습 모델을 재구성하는 단계;를 포함하는 컴퓨터 판독가능 기록 매체.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/002,617 US11995539B2 (en) | 2017-06-09 | 2018-06-07 | Electronic apparatus and method for re-learning trained model |
US18/659,457 US20240311634A1 (en) | 2017-06-09 | 2024-05-09 | Electronic apparatus and method for re-learning trained model |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762517442P | 2017-06-09 | 2017-06-09 | |
US62/517,442 | 2017-06-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180134739A true KR20180134739A (ko) | 2018-12-19 |
KR102139729B1 KR102139729B1 (ko) | 2020-07-31 |
Family
ID=65009139
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180010925A Active KR102102772B1 (ko) | 2017-06-09 | 2018-01-29 | 전자 장치 및 학습 모델 생성 방법 |
KR1020180010936A Active KR102139729B1 (ko) | 2017-06-09 | 2018-01-29 | 전자 장치 및 학습 모델의 재학습 방법 |
KR1020180010938A Active KR102139740B1 (ko) | 2017-06-09 | 2018-01-29 | 전자 장치 및 학습 모델 최적화 방법 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180010925A Active KR102102772B1 (ko) | 2017-06-09 | 2018-01-29 | 전자 장치 및 학습 모델 생성 방법 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180010938A Active KR102139740B1 (ko) | 2017-06-09 | 2018-01-29 | 전자 장치 및 학습 모델 최적화 방법 |
Country Status (1)
Country | Link |
---|---|
KR (3) | KR102102772B1 (ko) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200078865A (ko) * | 2018-12-24 | 2020-07-02 | 아주대학교산학협력단 | 신경망의 프루닝-재훈련 장치 및 방법 |
KR20200143478A (ko) * | 2019-01-15 | 2020-12-23 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | 네트워크 최적화 방법 및 장치, 이미지 처리 방법 및 장치, 및 기억 매체 |
WO2021125431A1 (ko) * | 2019-12-19 | 2021-06-24 | 주식회사 노타 | 분산 평준화를 통한 딥러닝 모델 초기화 방법 및 장치 |
CN114764629A (zh) * | 2021-01-14 | 2022-07-19 | 新智数字科技有限公司 | 基于损失正则化的安全示险在线持续学习系统 |
US11861504B2 (en) | 2019-06-18 | 2024-01-02 | Samsung Electronics Co., Ltd. | Apparatus for performing class incremental learning and method of operating the apparatus |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102190100B1 (ko) * | 2018-12-27 | 2020-12-11 | (주)아크릴 | 인공 신경망 학습 방법 |
KR20200089588A (ko) | 2019-01-17 | 2020-07-27 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
WO2020149511A1 (ko) * | 2019-01-17 | 2020-07-23 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
KR102209630B1 (ko) * | 2019-01-31 | 2021-01-29 | 경북대학교 산학협력단 | 심층 학습을 이용한 무선 통신 환경 적응 방법 및 장치, 그 방법을 수행하기 위한 기록 매체 |
KR102209646B1 (ko) * | 2019-01-31 | 2021-01-29 | 경북대학교 산학협력단 | 채널 상태 정보를 이용한 채널 인지 방법, 이를 수행하기 위한 기록매체 및 장치 |
KR102046113B1 (ko) | 2019-03-19 | 2019-11-18 | 주식회사 루닛 | 신경망 학습 방법 및 그 장치 |
KR102184283B1 (ko) * | 2019-03-22 | 2020-11-30 | 한국과학기술원 | 기저학습 오토인코더와 그를 기반으로 하는 추천 시스템을 위한 콘텐츠 정보 활용 방법 및 장치 |
KR102491202B1 (ko) * | 2019-09-10 | 2023-01-25 | 주식회사 모빌린트 | 인공 신경망 연산을 수행하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
KR102382336B1 (ko) * | 2019-09-17 | 2022-04-04 | 연세대학교 산학협력단 | 3중 대각행렬식 연산 방법 |
KR102143192B1 (ko) * | 2019-11-12 | 2020-08-10 | 주식회사 루닛 | 신경망 학습 방법 및 그 장치 |
US10970633B1 (en) * | 2020-05-13 | 2021-04-06 | StradVision, Inc. | Method for optimizing on-device neural network model by using sub-kernel searching module and device using the same |
KR102619539B1 (ko) * | 2020-06-22 | 2023-12-29 | 한양대학교 산학협력단 | 다중 gpu 시스템을 위한 신경망의 최적화 방법 및 이를 이용하는 최적화 시스템 |
KR102390553B1 (ko) * | 2020-11-24 | 2022-04-27 | 한국과학기술원 | 연합 학습 방법 및 시스템 |
KR102480899B1 (ko) * | 2021-04-08 | 2022-12-22 | 서울대학교산학협력단 | 다채널 신호를 이용한 모터 고장 진단 방법 및 장치 |
US20210264274A1 (en) * | 2021-05-06 | 2021-08-26 | Intel Corporation | Secret sharing with a neural cryptosystem |
KR102658912B1 (ko) | 2021-09-24 | 2024-04-18 | 한국과학기술원 | 도메인별 최적화를 위한 생성 신경망의 에너지 효율적인 재학습 방법 |
KR102473941B1 (ko) * | 2021-11-30 | 2022-12-06 | 주식회사 튜닙 | 딥러닝 모델 병렬 처리 장치 및 방법 |
KR102572828B1 (ko) | 2022-02-10 | 2023-08-31 | 주식회사 노타 | 신경망 모델을 획득하는 방법 및 이를 수행하는 전자 장치 |
JP7316566B1 (ja) | 2022-05-11 | 2023-07-28 | ノタ、インコーポレイテッド | ニューラルネットワークモデル軽量化方法およびこれを遂行する電子装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0635887A (ja) * | 1992-07-13 | 1994-02-10 | Ricoh Co Ltd | 学習機械 |
WO2016151618A1 (ja) * | 2015-03-23 | 2016-09-29 | 日本電気株式会社 | 予測モデル更新システム、予測モデル更新方法および予測モデル更新プログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102199246B1 (ko) * | 2014-11-18 | 2021-01-07 | 에스케이텔레콤 주식회사 | 신뢰도 측점 점수를 고려한 음향 모델 학습 방법 및 장치 |
US10803378B2 (en) * | 2017-03-15 | 2020-10-13 | Samsung Electronics Co., Ltd | System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions |
-
2018
- 2018-01-29 KR KR1020180010925A patent/KR102102772B1/ko active Active
- 2018-01-29 KR KR1020180010936A patent/KR102139729B1/ko active Active
- 2018-01-29 KR KR1020180010938A patent/KR102139740B1/ko active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0635887A (ja) * | 1992-07-13 | 1994-02-10 | Ricoh Co Ltd | 学習機械 |
WO2016151618A1 (ja) * | 2015-03-23 | 2016-09-29 | 日本電気株式会社 | 予測モデル更新システム、予測モデル更新方法および予測モデル更新プログラム |
Non-Patent Citations (2)
Title |
---|
Kunihito Yamamori 외 2명. Two-Stage Parallel Partial Retraining Scheme for Defective Multi-Layer Neural Networks. 2000년 * |
Vitaly Schetinin. A Learning Algorithm for Evolving Cascade Neural Networks. 2003년 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200078865A (ko) * | 2018-12-24 | 2020-07-02 | 아주대학교산학협력단 | 신경망의 프루닝-재훈련 장치 및 방법 |
KR20200143478A (ko) * | 2019-01-15 | 2020-12-23 | 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 | 네트워크 최적화 방법 및 장치, 이미지 처리 방법 및 장치, 및 기억 매체 |
US11861504B2 (en) | 2019-06-18 | 2024-01-02 | Samsung Electronics Co., Ltd. | Apparatus for performing class incremental learning and method of operating the apparatus |
WO2021125431A1 (ko) * | 2019-12-19 | 2021-06-24 | 주식회사 노타 | 분산 평준화를 통한 딥러닝 모델 초기화 방법 및 장치 |
CN114764629A (zh) * | 2021-01-14 | 2022-07-19 | 新智数字科技有限公司 | 基于损失正则化的安全示险在线持续学习系统 |
Also Published As
Publication number | Publication date |
---|---|
KR102139729B1 (ko) | 2020-07-31 |
KR20180134738A (ko) | 2018-12-19 |
KR20180134740A (ko) | 2018-12-19 |
KR102102772B1 (ko) | 2020-05-29 |
KR102139740B1 (ko) | 2020-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20180134739A (ko) | 전자 장치 및 학습 모델의 재학습 방법 | |
US11995539B2 (en) | Electronic apparatus and method for re-learning trained model | |
EP3467723B1 (en) | Machine learning based network model construction method and apparatus | |
US20220035878A1 (en) | Framework for optimization of machine learning architectures | |
US11144831B2 (en) | Regularized neural network architecture search | |
US11836610B2 (en) | Concurrent training of functional subnetworks of a neural network | |
US20230259778A1 (en) | Generating and utilizing pruned neural networks | |
CN113128678A (zh) | 神经网络的自适应搜索方法及装置 | |
JP2022510782A (ja) | 機械学習モデルの自動生成 | |
JP7279225B2 (ja) | 破滅的忘却の発生を抑えつつ、転移学習を行う方法、情報処理装置及びプログラム | |
US11620525B2 (en) | Dropout for accelerated deep learning in heterogeneous architectures | |
US11625605B2 (en) | Selecting computational kernel variants using neural networks | |
CN117669700B (zh) | 深度学习模型训练方法和深度学习模型训练系统 | |
WO2020209860A1 (en) | Leveraging lagging gradients in machine-learning model training | |
JP2020123270A (ja) | 演算装置 | |
JP7188856B2 (ja) | 動的な画像解像度評価 | |
US20240311634A1 (en) | Electronic apparatus and method for re-learning trained model | |
CN117999560A (zh) | 机器学习模型的硬件感知渐进训练 | |
KR20210103912A (ko) | 뉴럴 네트워크를 학습시키는 학습 방법 및 장치, 뉴럴 네트워크를 이용한 데이터 처리 방법 및 장치 | |
US20230350954A1 (en) | Systems and methods of filtering topics using parts of speech tagging | |
US20220121922A1 (en) | System and method for automated optimazation of a neural network model | |
KR20210148877A (ko) | 전자 장치 및 이의 제어 방법 | |
KR102764179B1 (ko) | 디바이스 인지를 바탕으로 인공지능 기반의 모델을 변환하기 위한 방법 및 장치 | |
KR20210041919A (ko) | 데이터 생성 방법 | |
Pang et al. | A parametric simplex approach to statistical learning problems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20180129 |
|
PA0201 | Request for examination | ||
N231 | Notification of change of applicant | ||
PN2301 | Change of applicant |
Patent event date: 20180524 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20190925 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20200426 |
|
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20200724 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20200727 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |