KR20180035073A - Dnn의 분산 훈련 시스템 및 분산 훈련 방법 - Google Patents
Dnn의 분산 훈련 시스템 및 분산 훈련 방법 Download PDFInfo
- Publication number
- KR20180035073A KR20180035073A KR1020160125105A KR20160125105A KR20180035073A KR 20180035073 A KR20180035073 A KR 20180035073A KR 1020160125105 A KR1020160125105 A KR 1020160125105A KR 20160125105 A KR20160125105 A KR 20160125105A KR 20180035073 A KR20180035073 A KR 20180035073A
- Authority
- KR
- South Korea
- Prior art keywords
- training
- data
- server
- amount
- servers
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 7
- 239000011159 matrix material Substances 0.000 claims description 27
- 230000010354 integration Effects 0.000 claims description 16
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000013499 data model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G06N99/005—
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
Abstract
Description
도 2는 본 발명의 일 실시예에 따른 분산 훈련 시스템을 도시하는 도면이다.
도 3은 분류 서버에 의해 수행되는 과정을 설명하기 위한 의사 코드를 나타내는 도면이다.
도 4는 제어 서버에 의해 수행되는 과정을 설명하기 위한 의사 코드를 나타내는 도면이다.
도 5는 통합 서버에 의해 수행되는 과정을 설명하기 위한 의사 코드를 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 분산 훈련 방법을 설명하기 위한 순서도이다.
210: 분류 서버
230: 제어 서버
250: 훈련 서버
270: 통합 서버
Claims (12)
- 분산 훈련 시스템에 의한 DNN (Deep Neural Network)의 분산 훈련 방법에 있어서,
훈련 데이터를 복수의 데이터 그룹으로 클러스터링하는 단계;
상기 복수의 데이터 그룹 각각에 포함된 데이터의 양에 기초하여, 상기 복수의 데이터 그룹 각각에 대응하는 훈련 파라미터를 설정하는 단계;
복수의 훈련 서버를 통해 상기 복수의 데이터 그룹 및 상기 설정된 훈련 파라미터를 이용하여 복수의 서브 DNN을 훈련하는 단계; 및
상기 훈련 결과에 따라 상기 복수의 훈련 서버 각각에서 도출되는 복수의 서브 DNN의 웨이트 매트릭스를 통합하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 클러스터링하는 단계는,
상기 훈련 데이터의 특성에 따라 상기 훈련 데이터를 복수의 데이터 그룹으로 클러스터링하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 클러스터링하는 단계는,
상기 데이터 그룹의 개수가 상기 훈련 서버의 개수와 동일하도록 상기 훈련 데이터를 클러스터링하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 훈련 파라미터는,
데이터 그룹을 이용하여 서브 DNN을 훈련하는 동안의 웨이트 변화율 및 에포크(epoch) 횟수 중 적어도 하나를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제4항에 있어서,
상기 훈련 파라미터를 설정하는 단계는,
각 데이터 그룹에 포함된 데이터의 양이 많을수록 상기 웨이트 변화율을 크게 설정하고, 상기 에포크 횟수는 작게 설정하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제4항에 있어서,
상기 훈련 파라미터를 설정하는 단계는,
상기 웨이트 변화율을 하기의 수학식 1에 따라 결정하되,
[수학식 1]
η[i] = L * softmaxN[i]
상기 i는 각 데이터 그룹의 인덱스, η은 웨이트 변화율, L은 기 설정된 초기 웨이트 변화율, softmaxN은 각 데이터 그룹에 포함된 데이터의 양을 나타내는 것을 특징으로 하는 분산 훈련 방법.
- 제4항에 있어서,
상기 훈련 파라미터를 설정하는 단계는,
상기 에포크 횟수를 하기의 수학식 2에 따라 결정하되,
[수학식 2]
E[i] = M / softmaxN[i]
상기 i는 각 데이터 그룹의 인덱스, E는 에포크 횟수, M은 기 설정된 초기 에포크 횟수, softmaxN은 각 데이터 그룹에 포함된 데이터의 양을 나타내는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 웨이트 매트릭스를 통합하는 단계는,
상기 복수의 훈련 서버 각각에서 도출되는 웨이트 매트릭스에 각 데이터 그룹에 포함된 데이터의 양에 기초하여 설정된 가중치를 적용한 후, 가중치가 적용된 웨이트 매트릭스를 통합하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제8항에 있어서,
상기 통합된 웨이트 매트릭스는 하기의 수학식 3에 기초하여 계산되되,
[수학식 3]
Wt = (W[0]*a[o]+W[1]*a[1]+ … +W[N]*a[N]) / N
상기 Wt는 통합된 웨이트 매트릭스, W[i]는 i 데이터 그룹을 훈련한 훈련 서버에서 도출된 웨이트 매트릭스, a[i]는 i 데이터 그룹에 포함된 데이터의 양에 기초하여 설정된 가중치, N은 데이터 그룹의 개수를 의미하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 분산 훈련 방법은,
다음 에포크를 위해 상기 통합된 웨이트 매트릭스를 상기 복수의 훈련 서버 각각에 설정하는 단계를 포함하는 것을 특징으로 하는 분산 훈련 방법.
- 제1항에 있어서,
상기 분산 훈련 방법은,
전체 에포크가 완료됨으로써 최종적으로 도출되는 통합 웨이트 매트릭스를 최종 DNN에 설정하는 단계를 더 포함하는 것을 특징으로 하는 분산 훈련 방법.
- DNN (Deep Neural Network)의 분산 훈련 시스템에 있어서,
훈련 데이터를 복수의 데이터 그룹으로 클러스터링하는 분류 서버;
상기 복수의 데이터 그룹 각각에 포함된 데이터의 양에 기초하여, 상기 복수의 데이터 그룹 각각에 대응하는 훈련 파라미터를 설정하는 제어 서버;
상기 복수의 데이터 그룹 및 상기 설정된 훈련 파라미터를 이용하여 복수의 서브 DNN을 훈련하는 복수의 훈련 서버; 및
상기 훈련 결과에 따라 상기 복수의 훈련 서버 각각에서 도출되는 복수의 서브 DNN의 웨이트 매트릭스를 통합하는 통합 서버를 포함하는 것을 특징으로 하는 분산 훈련 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160125105A KR102194280B1 (ko) | 2016-09-28 | 2016-09-28 | Dnn의 분산 훈련 시스템 및 분산 훈련 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160125105A KR102194280B1 (ko) | 2016-09-28 | 2016-09-28 | Dnn의 분산 훈련 시스템 및 분산 훈련 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180035073A true KR20180035073A (ko) | 2018-04-05 |
KR102194280B1 KR102194280B1 (ko) | 2020-12-22 |
Family
ID=61977432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160125105A KR102194280B1 (ko) | 2016-09-28 | 2016-09-28 | Dnn의 분산 훈련 시스템 및 분산 훈련 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102194280B1 (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105006A (zh) * | 2018-10-26 | 2020-05-05 | 杭州海康威视数字技术股份有限公司 | 一种深度学习网络训练系统及方法 |
WO2022136977A1 (en) * | 2020-12-26 | 2022-06-30 | International Business Machines Corporation | Filtering hidden matrix training dnn |
US11521066B2 (en) | 2019-03-26 | 2022-12-06 | Electronics And Telecommunications Research Institute | Method and apparatus for partitioning deep neural networks |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240152640A (ko) | 2023-04-13 | 2024-10-22 | 경희대학교 산학협력단 | 계층적 모바일 네트워크에서 기계학습 방법, 컴퓨터 장치 및 프로그램 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299059A (ja) * | 2006-04-27 | 2007-11-15 | Matsushita Electric Works Ltd | 信号識別方法 |
JP2012022558A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
JP2013073301A (ja) * | 2011-09-27 | 2013-04-22 | Hitachi Ltd | 分散計算機システム及び分散計算機システムの制御方法 |
US20150193695A1 (en) * | 2014-01-06 | 2015-07-09 | Cisco Technology, Inc. | Distributed model training |
US20160125316A1 (en) * | 2014-10-08 | 2016-05-05 | Nec Laboratories America, Inc. | MALT: Distributed Data-Parallelism for Existing ML Applications |
-
2016
- 2016-09-28 KR KR1020160125105A patent/KR102194280B1/ko active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299059A (ja) * | 2006-04-27 | 2007-11-15 | Matsushita Electric Works Ltd | 信号識別方法 |
JP2012022558A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
JP2013073301A (ja) * | 2011-09-27 | 2013-04-22 | Hitachi Ltd | 分散計算機システム及び分散計算機システムの制御方法 |
US20150193695A1 (en) * | 2014-01-06 | 2015-07-09 | Cisco Technology, Inc. | Distributed model training |
US20160125316A1 (en) * | 2014-10-08 | 2016-05-05 | Nec Laboratories America, Inc. | MALT: Distributed Data-Parallelism for Existing ML Applications |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105006A (zh) * | 2018-10-26 | 2020-05-05 | 杭州海康威视数字技术股份有限公司 | 一种深度学习网络训练系统及方法 |
CN111105006B (zh) * | 2018-10-26 | 2023-08-04 | 杭州海康威视数字技术股份有限公司 | 一种深度学习网络训练系统及方法 |
US11521066B2 (en) | 2019-03-26 | 2022-12-06 | Electronics And Telecommunications Research Institute | Method and apparatus for partitioning deep neural networks |
WO2022136977A1 (en) * | 2020-12-26 | 2022-06-30 | International Business Machines Corporation | Filtering hidden matrix training dnn |
GB2621692A (en) * | 2020-12-26 | 2024-02-21 | Ibm | Filtering hidden matrix training DNN |
Also Published As
Publication number | Publication date |
---|---|
KR102194280B1 (ko) | 2020-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110807527B (zh) | 一种基于客群筛选的额度调整方法、装置和电子设备 | |
US11675827B2 (en) | Multimedia file categorizing, information processing, and model training method, system, and device | |
EP3467723B1 (en) | Machine learning based network model construction method and apparatus | |
CN110728317A (zh) | 决策树模型的训练方法、系统、存储介质及预测方法 | |
US9202464B1 (en) | Curriculum learning for speech recognition | |
US20170061330A1 (en) | Method, system and computer program product for learning classification model | |
KR20180035073A (ko) | Dnn의 분산 훈련 시스템 및 분산 훈련 방법 | |
US11893499B2 (en) | Deep forest model development and training | |
US11068655B2 (en) | Text recognition based on training of models at a plurality of training nodes | |
CN111967971A (zh) | 银行客户数据处理方法及装置 | |
US20220043978A1 (en) | Automatic formulation of data science problem statements | |
KR20180107940A (ko) | 음성 인식을 위한 학습 방법 및 장치 | |
CN111510783B (zh) | 确定视频曝光量的方法、装置、电子设备和存储介质 | |
CN111783873A (zh) | 基于增量朴素贝叶斯模型的用户画像方法及装置 | |
CN111461225A (zh) | 聚类系统及其方法 | |
US20200372371A1 (en) | System and a method for optimizing multiple solution identification in a search space | |
Jamail et al. | Current state-of-the-art of clustering methods for gene expression data with RNA-Seq | |
CN110807653A (zh) | 一种筛选用户的方法、装置和电子设备 | |
Ji et al. | scAnnotate: an automated cell-type annotation tool for single-cell RNA-sequencing data | |
JP7361121B2 (ja) | デュアル・ネットワークと共に訓練された主ネットワークを介した多目的タスクの実行 | |
JPH08123464A (ja) | 音声認識用音響モデル生成方法 | |
CN116129888A (zh) | 一种音频数据分类方法、装置、设备及介质 | |
US11942070B2 (en) | Voice cloning transfer for speech synthesis | |
US6789063B1 (en) | Acoustic modeling using a two-level decision tree in a speech recognition system | |
US11928182B1 (en) | Artificial intelligence system supporting semi-supervised learning with iterative stacking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20160928 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20190715 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20160928 Comment text: Patent Application |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20200915 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20201216 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20201217 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20231129 Start annual number: 4 End annual number: 4 |