KR102544531B1 - 연합 학습 시스템 및 방법 - Google Patents
연합 학습 시스템 및 방법 Download PDFInfo
- Publication number
- KR102544531B1 KR102544531B1 KR1020200050980A KR20200050980A KR102544531B1 KR 102544531 B1 KR102544531 B1 KR 102544531B1 KR 1020200050980 A KR1020200050980 A KR 1020200050980A KR 20200050980 A KR20200050980 A KR 20200050980A KR 102544531 B1 KR102544531 B1 KR 102544531B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- learning
- model
- server
- management unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000013523 data management Methods 0.000 claims abstract description 81
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 description 15
- 238000012546 transfer Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Information Transfer Between Computers (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
Abstract
본 발명은, 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성하는 복수의 사용자 단말과, 글로벌 모델을 생성하며, 학습 데이터를 취합하고 이를 이용하여 글로벌 모델을 개선하는 서버와, 글로벌 모델에 관한 모델 데이터와 학습 데이터를 저장 및 관리하며, 모델 데이터를 복수의 사용자 단말로 전달하고, 학습 데이터를 서버로 전달하는 데이터 관리부를 포함하는 연합 학습 시스템을 제공한다.
Description
본 발명은 연합 학습 시스템 및 방법에 관한 것이다.
최근 클라우드 및 빅데이터 분석 및 처리 기술의 발전으로 여러 서비스에서 인공 지능(Artificial Intelligence; AI) 기술이 보편적으로 적용되고 있다. 이와 같이 인공 지능 기술을 서비스에 적용하기 위해서는 많은 양의 데이터를 바탕으로 인공 지능 모델을 학습하는 절차가 선행되어야 한다.
인공 지능 모델의 학습에는 대규모 계산을 수행하기 위해 수많은 컴퓨터 리소스가 필요하다. 클라우드 컴퓨팅 서비스는 복잡한 하드웨어 및 소프트웨어 설치 없이 인공 지능 모델을 학습할 수 있도록 컴퓨팅 인프라를 쉽게 제공할 수 있는 최상의 솔루션이다.
클라우드 컴퓨팅은 리소스의 중앙 집중화를 기반으로 하기 때문에 필요한 모든 데이터를 클라우드 메모리에 저장하고 모델 학습에 활용해야 한다. 데이터 중앙 집중화는 효율성 극대화라는 관점에서 많은 이점을 제공하지만, 사용자 개인 데이터의 유출 위험이 있으며, 특히 이는 데이터 전송이 증가함에 따라 더욱 중요한 비즈니스 이슈가 되고 있다.
최근 이러한 문제를 극복하기 위해 연합 학습(Federated Learning) 시스템과 연합 학습 아키텍처를 지원하기 위한 많은 학습 알고리즘이 도입되고 있다.
연합 학습은, 기존처럼 사용자 개인 데이터를 중앙에 모아서 학습하는 것이 아니라, 사용자 단말에서 사용자 개인 데이터를 기초로 학습한 모델을 중앙으로 취합하는 형식의 학습 방법이다. 이러한 연합 학습은 사용자 개인 데이터를 중앙으로 수집하는 것이 아니기 때문에 사생활 침해 소지가 적다.
연합 학습 시스템을 실제로 사용하려면 매개 변수를 업데이트하는 방법 및 학습 일정과 같은 알고리즘 측면뿐만 아니라 각 장치의 독립적인 데이터 관리와 같은 시스템 측면 및 이기종 시스템과의 효율적인 통신 방법을 고려해야 한다.
또한, 서버와 사용자 단말 간의 네트워크 종속성은 해결해야 할 또 다른 문제이다. 즉, 연합 학습을 수행하려면 각 서버와 다수의 사용자 단말이 밀접하게 서로 연결되어 있어야 하는데, 이 경우 불안정한 네트워크 또는 연결 문제가 발생하면 응답하기 어려운 문제가 있다. 또한, 사용자 단말은 리소스가 부족하고 네트워크 상태가 불안정하더라도 서버와의 데이터 전송이 완료될 때까지 서버로 전송되는 데이터를 유지 관리해야 하는 추가적인 부담이 발생하는 문제가 있다.
상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명은 서버 및 사용자 단말가 비동기적으로 학습 작업을 수행할 수 있는 연합 학습 시스템 및 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명에 따르면, 서버의 작업 부담을 완화하기 위해 데이터 관리부를 도입하고, 이 데이터 관리부를 중심으로 학습 작업을 수행할 수 있는 연합 학습 시스템 및 방법을 제공하는 것을 목적으로 한다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
전술한 과제를 해결하기 위해, 본 발명은, 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성하는 복수의 사용자 단말과, 글로벌 모델을 생성하며, 학습 데이터를 취합하고 이를 이용하여 글로벌 모델을 개선하는 서버와, 글로벌 모델에 관한 모델 데이터와 학습 데이터를 저장 및 관리하며, 모델 데이터를 복수의 사용자 단말로 전달하고, 학습 데이터를 서버로 전달하는 데이터 관리부를 포함하는 연합 학습 시스템을 제공한다.
여기서, 모델 데이터는, 글로벌 모델의 글로벌 매개 변수와, 사용자 단말의 학습 시기 및 학습에 사용될 사용자 데이터의 종류 및 크기 정보를 포함한다.
또한, 사용자 단말은, 모델 데이터를 기초로 학습 계획을 수립하고 학습 계획에 따라 학습을 수행한다.
또한, 학습 데이터는, 로컬 모델 또는 로컬 모델의 로컬 매개 변수이다.
또한, 데이터 관리부는, 학습 데이터의 크기, 생성 일시 및 분포 특성을 포함하는 메타 데이터를 생성한다.
또한, 서버는, 메타 데이터를 기초로, 학습 데이터의 범위 및 개수를 결정하거나, 취합할 학습 데이터를 선택하거나, 학습 데이터의 취합 계획을 수립 또는 변경한다.
또한, 데이터 관리부는, 모델 데이터 및 학습 데이터를 버전 별로 관리한다.
또한, 본 발명은, 서버가 글로벌 모델을 생성하고, 글로벌 모델에 관한 모델 데이터를 데이터 관리부에 등록하는 단계와, 데이터 관리부가 모델 데이터를 복수의 사용자 단말로 전달하는 단계와, 복수의 사용자 단말이 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성하는 단계와, 복수의 사용자 단말이 학습 데이터를 데이터 관리부에 등록하는 단계와, 데이터 관리부가 학습 데이터를 서버로 전달하는 단계와, 서버가 학습 데이터를 취합하여 글로벌 모델을 개선하는 단계를 포함하는 연합 학습 방법을 제공한다.
여기서, 모델 데이터를 상기 데이터 관리부에 등록하는 단계는, 서버가 모델 데이터의 등록을 데이터 관리부에 요청하는 단계와, 데이터 관리부가 모델 데이터를 버전 별로 등록하는 단계를 포함한다.
또한, 모델 데이터를 복수의 사용자 단말로 전달하는 단계는, 복수의 사용자 단말이 모델 데이터를 데이터 관리부에 요청하는 단계와, 데이터 관리부가 최신 버전의 모델 데이터 또는 복수의 사용자 단말이 요청한 버전의 모델 데이터를 복수의 사용자 단말로 전달하는 단계를 포함한다.
또한, 학습 데이터를 데이터 관리부에 등록하는 단계는, 사용자 단말이 학습 데이터의 등록을 데이터 관리부에 요청하는 단계와, 데이터 관리부가 학습 데이터를 버전 별로 등록하는 단계를 포함한다.
또한, 학습 데이터를 서버로 전달하는 단계는, 서버가 학습 데이터를 데이터 관리부에 요청하는 단계와, 데이터 관리부가 최신 버전의 학습 데이터 또는 서버가 요청한 버전의 학습 데이터를 서버로 전달하는 단계를 포함한다.
본 발명에 따르면, 사용자 단말 및 서버가 상호 간의 작업 상태를 고려하지 않고 독립적으로 작업을 수행함으로써, 연합 학습을 유연하게 수행할 수 있으며, 글로벌 모델의 성능을 향상시킬 수 있다.
또한, 본 발명에 따르면, 서버가 사용자 단말 및 네트워크 연결 상태와 상관없이 데이터 관리부에 저장된 데이터만 가져와 연합 학습을 수행할 수 있어, 서버의 부담을 완화할 수 있다.
또한, 본 발명에 따르면, 통신 연결을 서버 및 데이터 관리부 상호 간과 사용자 단말 및 데이터 관리부 상호 간으로 변경함으로써, 대역폭을 감소하고 네트워크 효율성을 높이고, 네트워크 장애에 대비할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 종래의 연합 학습 시스템의 블록도이다.
도 2는 종래의 연합 학습 방법의 순서도이다.
도 3은 본 발명의 실시예에 따른 연합 학습 시스템의 블록도이다.
도 4는 본 발명의 실시예에 따른 연합 학습 방법의 순서도이다.
도 5는 도 4의 모델 데이터를 등록하는 단계의 구체적인 순서도이다.
도 6은 도 4의 모델 데이터를 전달하는 단계의 구체적인 순서도이다.
도 7은 도 4의 학습 데이터를 등록하는 단계의 구체적인 순서도이다.
도 8은 도 4의 학습 데이터를 전달하는 단계의 구체적인 순서도이다.
도 2는 종래의 연합 학습 방법의 순서도이다.
도 3은 본 발명의 실시예에 따른 연합 학습 시스템의 블록도이다.
도 4는 본 발명의 실시예에 따른 연합 학습 방법의 순서도이다.
도 5는 도 4의 모델 데이터를 등록하는 단계의 구체적인 순서도이다.
도 6은 도 4의 모델 데이터를 전달하는 단계의 구체적인 순서도이다.
도 7은 도 4의 학습 데이터를 등록하는 단계의 구체적인 순서도이다.
도 8은 도 4의 학습 데이터를 전달하는 단계의 구체적인 순서도이다.
본 발명의 구성 및 효과를 충분히 이해하기 위하여, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예들을 설명한다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라, 여러 가지 형태로 구현될 수 있고 다양한 변경을 가할 수 있다. 단지, 본 실시예에 대한 설명은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위하여 제공되는 것이다. 첨부된 도면에서 구성요소는 설명의 편의를 위하여 그 크기를 실제보다 확대하여 도시한 것이며, 각 구성요소의 비율은 과장되거나 축소될 수 있다.
'제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 상기 구성요소는 위 용어에 의해 한정되어서는 안 된다. 위 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다. 또한, 단수의 표현은 문맥상 명백하게 다르게 표현하지 않는 한, 복수의 표현을 포함한다. 본 발명의 실시예에서 사용되는 용어는 다르게 정의되지 않는 한, 해당 기술분야에서 통상의 지식을 가진 자에게 통상적으로 알려진 의미로 해석될 수 있다.
도 1은 종래의 연합 학습 시스템의 블록도이고, 도 2는 종래의 연합 학습 방법의 순서도이다.
도 1을 참조하면, 종래의 연합 학습 시스템은, 복수의 사용자 단말(10), 서버(20) 및 스토리지(30)를 포함하여 구성될 수 있다.
서버(20)는, 글로벌 모델을 생성하고, 생성된 글로벌 모델을 스토리지(30)에 저장한다. 그리고, 서버(20)는 스토리지(30)에 저장된 글로벌 모델을 복수의 사용자 단말(10)로 전달한다.
복수의 사용자 단말(10)은 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 모델을 생성한다. 그리고, 복수의 사용자 단말(10)은 학습 모델을 서버(20)로 전달한다.
서버(20)는 학습 데이터를 취합하고 이를 이용하여 글로벌 모델을 개선한다. 그리고, 서버(20)는 개선된 글로벌 모델을 스토리지(30)에 저장하고, 다시 개선된 글로벌 모델을 복수의 사용자 단말(10)로 전달한다. 이와 같은 과정은 글로벌 모델 성능이 일정 수준 이상이 될 때까지 반복될 수 있다.
도 2를 참조하면, 종래의 연합 학습 방법은 선택(Selection) 단계, 구성(Configuration) 단계 및 보고(Reporting) 단계로 구성된다.
먼저, 서버(20)는 글로벌 모델의 글로벌 매개 변수, 학습 계획, 데이터 구조 및 수행할 작업을 포함하는 모델 데이터를 스토리지(30)에 저장한다.
다음, 연합 학습을 수행할 수 있는 복수의 사용자 단말(10a~10e)은 서버(20)에 메시지를 보내 학습 준비가 되었음을 알린다(①). 그리고, 서버(20)는, 복수의 사용자 단말(10a~10e)의 정보를 수집하여, 참여 단말 수와 같은 규칙에 따라 복수의 사용자 단말(10a~10e) 중에서 학습 참여에 가장 적합한 사용자 단말(10~10c)을 선택한다(선택 단계).
다음, 서버(20)는, 스토리지(30)에 저장된 모델 데이터를 읽어(②), 이를 선택된 사용자 단말(10~10c)로 전송한다(③). 그리고, 사용자 단말(10a~10c)은 모델 데이터에 따라 글로벌 모델에 사용자 데이터를 적용하여 학습을 수행한다(④)(구성 단계).
다음, 사용자 단말(10a~10c)은, 학습이 완료되면 학습 데이터 예컨대, 로컬 모델 또는 로컬 모델의 로컬 매개 변수를 서버(20)로 전송한다. 이 때, 불안정한 네트워크 또는 연결 문제로 인해 일부 사용자 단말(10b)의 전송이 실패할 수 있다. 서버(20)는, 사용자 단말(10a, 10c)로부터 학습 데이터를 전송 받으면, 학습 데이터를 취합(Aggregation)하고 이를 이용해 글로벌 모델의 모델 데이터를 개선 한다(⑤). 그리고, 서버(20)는 개선된 글로벌 모델의 모델 데이터를 스토리지(30)에 저장한다(보고 단계).
이와 같이 연합 학습의 한 라운드를 완료되어 모델 데이터가 개선 되면 다음 라운드가 다시 시작될 수 있다. 이 때, 여러 라운드를 반복하여 글로벌 모델 성능이 일정 수준 이상이 되면 전체 연합 학습 과정이 종료된다.
전술한 바와 같이, 종래의 연합 학습 방법에서, 스토리지(30)는 서버(20)가 생성하는 글로벌 모델의 모델 데이터를 저장하는 용도로만 사용되고 있다. 그리고, 서버(20)는, 복수의 사용자 단말(10)의 상태를 확인하여, 적합한 사용자 단말(10)을 선택하고, 취합할 충분한 양의 학습 데이터가 수집되었는지 판단하고, 모델 데이터를 복수의 사용자 단말(10)로 전달하는 등 많은 역할을 수행한다.
또한, 종래의 연합 학습 방법은 서버(20)가 관리해야 할 사용자 단말(10)의 수가 적을 때는 합리적일 수 있지만, 연합 학습에 참여하는 사용자 단말(10)의 수가 대폭 늘어나거나 사용자 단말(10)의 수와 그 특성이 유동적일 경우, 이를 서버(20)가 모두 관리하는 것은 서버(20)에 큰 부담이 된다.
또한, 종래의 연합 학습 방법에 있어서, 자체 환경과 사양을 보유하는 복수의 사용자 단말(10)의 모든 응답은 독립적이기 때문에, 서버(20)는 사용자 단말(10)의 개별 응답의 정확한 수와 시기를 예측할 수 없다. 이와 같이, 서버(20)가 사용자 단말(10)의 개별 응답의 정확한 수와 시기를 예측할 수 없기 때문에, 서버(20)가 모든 사용자 단말(10)의 응답을 관리하는 것은 비효율적이다.
또한, 또한, 종래의 연합 학습 방법에 있어서, 서버(20)와 복수의 사용자 단말(10)은 종속성을 갖는다. 즉, 서버(20)는 사용자 단말(10)의 모든 응답 수집이 완료되어야만 학습 데이터의 취합하여 글로벌 모델의 업데이트를 진행할 수 있으며, 사용자 단말(10) 또는 네트워크에 장애가 발생한 경우 연합 학습 또한 중단될 수 있다. 이에 따라, 학습 계획 수정 및 최적화가 어렵다.
따라서, 연합 학습에 참여하는 사용자 단말(10)의 범위와 수를 동적으로 변경하는 등 다양한 상황에 맞게 재구성할 수 있어야 한다. 그리고, 다양한 연합 학습을 유연하고 효과적으로 진행하기 위해 서버(20) 및 사용자 단말(10) 간 종속성을 완화해야 한다.
도 3은 본 발명의 실시예에 따른 연합 학습 시스템의 블록도이다.
도 3을 참조하면, 본 발명의 실시예에 따른 연합 학습 시스템은, 복수의 사용자 단말(110), 서버(120) 및 데이터 관리부(130)를 포함하여 구성될 수 있다.
사용자 단말(110) 및 서버(120)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 다양한 전자 장치로 구현될 수 있다.
신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는, 매개 변수를 갖는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서, 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터 비젼, 음성 인식, 자연어 처리, 음성 신호 처리 등의 분야에 적용될 수 있다.
복수의 사용자 단말(110)은, 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성한다. 여기서, 학습 데이터는 로컬 모델 또는 로컬 모델의 로컬 매개 변수일 수 있다.
종래의 연합 학습 시스템은 서버(20)가 사용자 단말(10)을 선택하고, 선택된 사용자 단말(10)만 학습에 참여하였지만, 본 발명의 실시예에 따른 연합 학습 시스템은 사용자 단말(10)의 선택 없이 학습 가능한 리소스를 갖는 모든 사용자 단말(110)이 학습에 참여할 수 있다. 이에 따라, 서버(120)가 사용자 단말(110)을 선택해야 하는 부담을 완화할 수 있다.
복수의 사용자 단말(110)은 학습이 완료되면 학습 데이터를 데이터 관리부(130)로 전송한다. 이 때, 복수의 사용자 단말(110)은 생성한 로컬 모델 자체를 전송하거나 로컬 모델의 로컬 매개 변수를 전송할 수 있다.
서버(120)는, 글로벌 모델을 생성하며, 학습 데이터를 취합하고 이를 이용하여 글로벌 모델을 개선한다.
서버(120)는, 글로벌 모델의 모델 데이터를 데이터 관리부(130)로 전송하고, 학습 데이터를 데이터 관리부(130)로부터 전송 받는다.
데이터 관리부(130)는, 글로벌 모델에 관한 모델 데이터와 학습 데이터를 저장 및 관리하며, 모델 데이터를 복수의 사용자 단말(110)로 전달하고, 학습 데이터를 서버(120)로 전달한다.
여기서, 모델 데이터는, 글로벌 모델의 글로벌 매개 변수와, 사용자 단말(110)의 학습 시기 및 학습에 사용될 사용자 데이터의 종류 및 크기 정보를 포함할 수 있다.
이에 따라, 복수의 사용자 단말(110)은, 모델 데이터를 기초로 학습 계획을 수립하고 학습 계획에 따라 학습을 수행할 수 있다.
데이터 관리부(130)는, 학습 데이터의 크기, 생성 일시 및 분포 특성을 포함하는 메타 데이터를 생성하여 이를 기초로 학습 데이터를 관리할 수 있다.
서버(120)는, 메타 데이터를 기초로, 학습 데이터의 범위 및 양을 결정하거나, 취합할 학습 데이터를 선택하거나, 학습 데이터의 취합 계획을 수립 또는 변경할 수 있고, 취합 계획에 따라 학습 데이터를 취합할 수 있다. 예컨대, 서버(120)는 메타 데이터를 기초로 일정 양과 일정 수준 이상의 신뢰도를 갖는 학습 데이터를 선택할 수 있다.
데이터 관리부(130)는, 모델 데이터 및 학습 데이터를 버전 별로 관리할 수 있으며, 이에 대한 자세한 내용은 후술하겠다.
전술한 본 발명의 실시예에 따른 연합 학습 시스템은, 사용자 단말(110) 및 서버(120) 간 작업을 비동기적으로 수행한다. 즉, 사용자 단말(110) 및 서버(120)는 상호 간의 작업 상태를 고려하지 않고 독립적으로 작업을 수행한다. 이에 따라, 연합 학습을 유연하게 수행할 수 있으며, 글로벌 모델의 성능을 향상시킬 수 있다.
또한, 본 발명의 실시예에 따른 연합 학습 시스템은, 사용자 단말(110) 및 서버(120)가 각각 생성한 데이터를 데이터 관리부(130)에 저장하며, 데이터 관리부(130)가 사용자 단말(110) 및 서버(120)에 저장된 데이터를 전달하는 허브 역할을 수행한다. 이 때, 사용자 단말(110) 및 서버(120)는 서로 통신하지 않는다. 이에 따라, 서버(120)는 사용자 단말(110)의 상태 및 네트워크 연결 상태와 상관없이 데이터 관리부(130)에 저장된 데이터만 가져와 연합 학습을 수행할 수 있어, 서버(120)의 부담을 완화할 수 있다.
또한, 본 발명의 실시예에 따른 연합 학습 시스템은, 통신 연결을 종래의 서버(20) 및 스토리지(30) 상호 간과 서버(20) 및 사용자 단말(10) 상호 간에서 서버(120) 및 데이터 관리부(130) 상호 간과 사용자 단말(110) 및 데이터 관리부(130) 상호 간으로 변경함으로써, 대역폭을 감소하고 네트워크 효율성을 높이고, 네트워크 장애에 대비할 수 있다.
도 4는 본 발명의 실시예에 따른 연합 학습 방법의 순서도이고, 도 5는 도 4의 모델 데이터를 등록하는 단계의 구체적인 순서도이고, 도 6은 도 4의 모델 데이터를 전달하는 단계의 구체적인 순서도이고, 도 7은 도 4의 학습 데이터를 등록하는 단계의 구체적인 순서도이고, 도 8은 도 4의 학습 데이터를 전달하는 단계의 구체적인 순서도이다.
이하, 도 3 내지 도 8을 참조하여, 본 발명의 실시예에 따른 연합 학습 방법을 구체적으로 설명하되, 전술한 내용과 동일한 내용에 대해서는 생략하겠다.
사용자 단말(110) 및 서버(120)가 데이터 관리부(130)에 학습 데이터 또는 모델 데이터를 등록하거나 요청하기 위해서는, 태스크명(Task_name), 버전(Version), 모델 위치(Model location) 및 장치명(Device name) 등의 정보를 데이터 관리부(130)로 전송해야 한다.
여기서, 태스크명은 연합 학습을 사용하여 해결할 고유의 학습 작업 이름이다. 여기서, 데이터 관리부(130)는 태스크명에 해당하는 학습 작업을 수행하기 위해 필요한 조건을 사용자 단말(110) 및 서버(120)에 제공할 수 있다. 또한, 사용자 단말(110) 및 서버(120)는 태스크명을 통해 데이터 관리부(130)에 접속하여 원하는 학습 작업을 찾을 수 있다.
버전은 사용자 단말(110) 및 서버(120)가 글로벌 모델의 모델 데이터 및 학습 데이터를 업데이트할 때 사용되는 값으로 플롯(float) 형식이다. 여기서, 하나의 학습 작업에 대해 복수의 서버(120)와 사용자 단말(110)이 연합하여 학습 작업을 할 경우, 이 버전이 학습 결과물을 관리할 수 있는 기준이 된다.
모델 위치는 모델 데이터 또는 학습 데이터가 생성된 위치에 대한 정보이다. 여기서, 글로벌 모델의 모델 데이터가 생성된 위치는 서버(120)이고, 로컬 모델의 학습 데이터가 생성된 위치는 사용자 단말(110)이다.
장치명은 사용자 단말(110) 및 서버(120)의 고유한 아이디 또는 이름이다. 여기서, 데이터 관리부(130)는, 장치명에 해당하는 각 장치들의 성능과 특성을 제공하여, 서버(120)가 사용자 단말(110)이 생성한 학습 데이터를 선택하는데 도움을 줄 수 있다.
사용자 단말(110) 또는 서버(120)가 위와 같은 정보들을 데이터 관리부(130)로 전달하면 데이터 관리부(130)는 전달받은 정보에 해당하는 모델 데이터 또는 사용자 데이터를 등록하거나 사용자 단말(110) 또는 서버(120)로 전달한다.
본 발명의 실시예에 따른 연합 학습 방법은, 먼저, 서버(120)가 글로벌 모델을 생성하고, 글로벌 모델에 관한 모델 데이터를 데이터 관리부(130)에 등록한다(S10).
구체적으로, 서버(120)가 모델 데이터의 등록을 데이터 관리부(130)에 요청한다(S11). 그리고, 데이터 관리부(130)가 모델 데이터를 버전 별로 등록한다. 즉, 데이터 관리부(130)가 모델 데이터의 스토리지가 있는지 확인한다(S12). 이 때, 스토리지가 없는 경우, 스토리지를 생성하고(S13), 생성된 스토리지에 모델 데이터를 저장한다(S14). 그리고, 스토리지가 있는 경우, 데이터 관리부(130)가 모델 데이터의 버전을 확인하고(S15), 모델 데이터의 버전을 데이터 관리부(130)에 저장된 최신 버전과 비교한다. 이 때, 모델 데이터의 버전이 최신 버전 보다 높으면 모델 데이터의 버전을 업그레이드하고(S17), 모델 데이터의 버전이 최신 버전 보다 낮거나 같으면 해당 버전의 모델 데이터를 업데이트한다(S18).
다음, 데이터 관리부(130)가 모델 데이터를 복수의 사용자 단말(110)로 전달한다(S20).
구체적으로, 복수의 사용자 단말(110)이 모델 데이터를 데이터 관리부(130)에 요청한다(S21). 그리고, 데이터 관리부(130)가 최신 버전의 모델 데이터 또는 복수의 사용자 단말(110)이 요청한 버전의 모델 데이터를 복수의 사용자 단말(110)로 전달한다. 즉, 데이터 관리부(130)가 특정 버전의 모델 데이터인지 확인한다(S22). 이 때, 특정 버전의 모델 데이터인 경우 특정 버전의 모델 데이터를 탐색하고(S23), 특정 버전의 모델 데이터가 아닌 경우 최신 버전의 모델 데이터를 탐색한다(S24).
그리고, 데이터 관리부(130)가 특정 버전의 모델 데이터 또는 최신 버전의 모델 데이터 찾기를 완료하였는지 확인한다(S25). 이 때, 모델 데이터를 찾은 경우 찾은 모델 데이터를 사용자 단말(110)로 전송하고(S26), 모델 데이터를 찾지 못한 경우 서버(120)에 최신 버전의 모델 데이터를 요청하여(S27) 전달 받고, 전달 받은 모델 데이터를 사용자 단말(110)로 전달한다(S26).
다음, 복수의 사용자 단말(110)이 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성한다(S30).
다음, 복수의 사용자 단말(110)이 학습 데이터를 데이터 관리부(130)에 등록한다(S40).
구체적으로, 사용자 단말(110)이 학습 데이터의 등록을 데이터 관리부(130)에 요청한다(S41). 그리고, 데이터 관리부(130)가 학습 데이터를 버전 별로 등록한다. 즉, 데이터 관리부(130)가 학습 데이터의 버전을 확인하고(S42), 해당 버전의 학습 데이터가 저장된 스토리지가 있는지 확인한다(S43). 이 때, 스토리지가 있는 경우 해당 스토리지에 학습 데이터를 저장하고(S44), 스토리지가 없는 경우 스토리지를 생성하고(S45) 생성된 스토리지에 학습 데이터를 저장한다(S44).
다음, 데이터 관리부(130)가 학습 데이터를 서버(120)로 전달한다.
구체적으로, 서버(120)가 학습 데이터를 데이터 관리부(130)에 요청한다(S51). 그리고, 데이터 관리부(130)가 최신 버전의 학습 데이터 또는 서버(120)가 요청한 버전의 학습 데이터를 서버(120)로 전달한다. 즉, 데이터 관리부(130)가 최신 버전의 학습 데이터를 탐색하고(S52), 학습 데이터가 취합 조건을 만족하는지 확인한다(S53). 즉, 학습 데이터가 일정 양 이상이고 학습 데이터가 신뢰도가 일정 수준 이상인지 확인한다. 이 때, 학습 데이터가 취합 조건을 만족하지 않을 경우 취합 조건 만족 시까지 대기하고(S54), 학습 데이터가 취합 조건을 만족하는 경우 학습 데이터를 서버(120)로 전달한다. 그리고, 서버(120)는 학습 데이터를 취합하여 이를 기초로 글로벌 모델을 개선한다(S60).
다음, 서버(120)가 개선된 글로벌 모델의 모델 데이터를 데이터 관리부(130)에 등록한다. 그리고, 데이터 관리부(130)가 개선된 글로벌 모델의 모델 데이터를 복수의 사용자 단말(10)로 전달한다. 이와 같은 과정은 글로벌 모델 성능이 일정 수준 이상이 될 때까지 반복될 수 있다.
본 발명의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술되는 청구범위 및 이 청구범위와 균등한 것들에 의해 정해져야 한다.
110: 사용자 단말
120: 서버
130: 데이터 관리부
120: 서버
130: 데이터 관리부
Claims (12)
- 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성하는 복수의 사용자 단말;
상기 글로벌 모델을 생성하며, 상기 학습 데이터를 취합하고 이를 이용하여 상기 글로벌 모델을 개선하는 서버; 및
상기 글로벌 모델에 관한 모델 데이터와 상기 학습 데이터를 저장 및 관리하며, 상기 모델 데이터를 상기 복수의 사용자 단말로 전달하고, 상기 학습 데이터를 상기 서버로 전달하는 데이터 관리부를 포함하고,
상기 데이터 관리부는
상기 학습 데이터의 크기, 생성 일시 및 분포 특성을 포함하는 메타 데이터를 생성하고,
상기 서버는
상기 메타 데이터를 기초로, 상기 학습 데이터의 범위 및 개수를 결정하거나, 취합할 상기 학습 데이터를 선택하거나, 상기 학습 데이터의 취합 계획을 수립 또는 변경하는
연합 학습 시스템.
- 제 1 항에 있어서,
상기 모델 데이터는
상기 글로벌 모델의 글로벌 매개 변수와, 상기 사용자 단말의 학습 시기 및 학습에 사용될 상기 사용자 데이터의 종류 및 크기 정보를 포함하는
연합 학습 시스템.
- 제 2 항에 있어서,
상기 사용자 단말은
상기 모델 데이터를 기초로 학습 계획을 수립하고 상기 학습 계획에 따라 학습을 수행하는
연합 학습 시스템.
- 제 1 항에 있어서,
상기 학습 데이터는
로컬 모델 또는 상기 로컬 모델의 로컬 매개 변수인
연합 학습 시스템.
- 삭제
- 삭제
- 제 1 항에 있어서,
상기 데이터 관리부는
상기 모델 데이터 및 상기 학습 데이터를 버전 별로 관리하는
연합 학습 시스템.
- 서버가 글로벌 모델을 생성하고, 상기 글로벌 모델에 관한 모델 데이터를 데이터 관리부에 등록하는 단계;
상기 데이터 관리부가 상기 모델 데이터를 복수의 사용자 단말로 전달하는 단계;
상기 복수의 사용자 단말이 사용자 데이터를 기초로 상기 글로벌 모델을 학습하여 학습 데이터를 생성하는 단계;
상기 복수의 사용자 단말이 상기 학습 데이터를 상기 데이터 관리부에 등록하는 단계;
상기 데이터 관리부가 상기 학습 데이터를 상기 서버로 전달하는 단계; 및
상기 서버가 상기 학습 데이터를 취합하여 상기 글로벌 모델을 개선하는 단계를 포함하고,
상기 모델 데이터를 상기 데이터 관리부에 등록하는 단계는
상기 서버가 상기 모델 데이터의 등록을 상기 데이터 관리부에 요청하는 단계; 및
상기 데이터 관리부가 상기 모델 데이터를 버전 별로 등록하는 단계를 포함하는
연합 학습 방법.
- 삭제
- 제 8 항에 있어서,
상기 모델 데이터를 상기 복수의 사용자 단말로 전달하는 단계는
상기 복수의 사용자 단말이 상기 모델 데이터를 상기 데이터 관리부에 요청하는 단계; 및
상기 데이터 관리부가 최신 버전의 모델 데이터 또는 상기 복수의 사용자 단말이 요청한 버전의 상기 모델 데이터를 상기 복수의 사용자 단말로 전달하는 단계
를 포함하는 연합 학습 방법.
- 제 8 항에 있어서,
상기 학습 데이터를 상기 데이터 관리부에 등록하는 단계는
상기 사용자 단말이 상기 학습 데이터의 등록을 상기 데이터 관리부에 요청하는 단계; 및
상기 데이터 관리부가 상기 학습 데이터를 버전 별로 등록하는 단계
를 포함하는 연합 학습 방법.
- 제 8 항에 있어서,
상기 학습 데이터를 상기 서버로 전달하는 단계는
상기 서버가 상기 학습 데이터를 상기 데이터 관리부에 요청하는 단계; 및
상기 데이터 관리부가 최신 버전의 학습 데이터 또는 상기 서버가 요청한 버전의 상기 학습 데이터를 상기 서버로 전달하는 단계
를 포함하는 연합 학습 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200050980A KR102544531B1 (ko) | 2020-04-27 | 2020-04-27 | 연합 학습 시스템 및 방법 |
PCT/KR2020/013548 WO2021221242A1 (ko) | 2020-04-27 | 2020-10-06 | 연합 학습 시스템 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200050980A KR102544531B1 (ko) | 2020-04-27 | 2020-04-27 | 연합 학습 시스템 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210132500A KR20210132500A (ko) | 2021-11-04 |
KR102544531B1 true KR102544531B1 (ko) | 2023-06-16 |
Family
ID=78332056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200050980A KR102544531B1 (ko) | 2020-04-27 | 2020-04-27 | 연합 학습 시스템 및 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102544531B1 (ko) |
WO (1) | WO2021221242A1 (ko) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102646338B1 (ko) | 2021-11-03 | 2024-03-11 | 한국과학기술원 | 클라이언트의 개별 데이터 맞춤형 연합 학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램 |
KR20230064535A (ko) | 2021-11-03 | 2023-05-10 | 한국과학기술원 | 글로벌 모델의 방향성을 따르는 로컬 모델 연합 학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램 |
KR102413116B1 (ko) * | 2021-12-02 | 2022-06-23 | 세종대학교산학협력단 | 인공 신경망의 계층 특성에 기반한 연합 학습 방법 |
KR102485748B1 (ko) * | 2022-05-30 | 2023-01-09 | 주식회사 어니스트펀드 | 통계 모델을 위한 연합 학습 방법 및 장치 |
CN114707430B (zh) * | 2022-06-02 | 2022-08-26 | 青岛鑫晟汇科技有限公司 | 一种基于多用户加密的联邦学习可视化系统与方法 |
KR102517728B1 (ko) * | 2022-07-13 | 2023-04-04 | 주식회사 애자일소다 | 연합 학습에 기반한 상품 추천 장치 및 방법 |
KR102573880B1 (ko) * | 2022-07-21 | 2023-09-06 | 고려대학교 산학협력단 | 다중-너비 인공신경망에 기반한 연합 학습 시스템 및 연합 학습 방법 |
KR20240045837A (ko) | 2022-09-30 | 2024-04-08 | 한국과학기술원 | 향상된 표상을 위한 연합 학습 시스템, 클라이언트 장치 및 방법 |
KR20240087336A (ko) | 2022-12-12 | 2024-06-19 | 국립부경대학교 산학협력단 | 연합 학습을 위한 게더 스캐터 기반의 데이터 패턴 분석 공유를 위한 장치 및 방법 |
KR102585904B1 (ko) | 2022-12-14 | 2023-10-06 | 주식회사 딥노이드 | 자기 주도 중앙 제어 기반의 인공지능을 이용한 방사선 영상을 판독하기 위한 장치 및 이를 위한 방법 |
KR102684383B1 (ko) * | 2022-12-22 | 2024-07-12 | 서울과학기술대학교 산학협력단 | 블록체인 기반 부분 모델 동기화 방법 |
WO2024138398A1 (zh) * | 2022-12-27 | 2024-07-04 | 北京小米移动软件有限公司 | 模型训练方法及装置 |
KR20240107806A (ko) | 2022-12-30 | 2024-07-09 | 명지대학교 산학협력단 | 공정성 기반 연합학습을 위한 시스템, 이를 위한 장치 및 이를 위한 방법 |
WO2024162728A1 (ko) * | 2023-01-30 | 2024-08-08 | 울산과학기술원 | 개인화된 연합 학습을 위한 메타 학습 장치 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018057302A1 (en) * | 2016-09-26 | 2018-03-29 | Google Llc | Communication efficient federated learning |
WO2018150550A1 (ja) * | 2017-02-17 | 2018-08-23 | 株式会社日立製作所 | 学習データ管理装置及び学習データ管理方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150324690A1 (en) * | 2014-05-08 | 2015-11-12 | Microsoft Corporation | Deep Learning Training System |
US11087234B2 (en) * | 2016-01-29 | 2021-08-10 | Verizon Media Inc. | Method and system for distributed deep machine learning |
KR102414602B1 (ko) * | 2016-11-03 | 2022-06-30 | 삼성전자주식회사 | 데이터 인식 모델 구축 장치 및 이의 데이터 인식 모델 구축 방법과, 데이터 인식 장치 및 이의 데이터 인식 방법 |
KR102369416B1 (ko) * | 2017-09-18 | 2022-03-03 | 삼성전자주식회사 | 복수의 사용자 각각에 대응하는 개인화 레이어를 이용하여 복수의 사용자 각각의 음성 신호를 인식하는 음성 신호 인식 시스템 |
KR20190081373A (ko) * | 2017-12-29 | 2019-07-09 | (주)제이엘케이인스펙션 | 인공 신경망에 기반한 단말 장치 및 데이터 처리 방법 |
WO2019219846A1 (en) * | 2018-05-17 | 2019-11-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Concepts for distributed learning of neural networks and/or transmission of parameterization updates therefor |
US11593634B2 (en) * | 2018-06-19 | 2023-02-28 | Adobe Inc. | Asynchronously training machine learning models across client devices for adaptive intelligence |
KR20190103088A (ko) | 2019-08-15 | 2019-09-04 | 엘지전자 주식회사 | 연합학습을 통한 단말의 명함을 인식하는 방법 및 이를 위한 장치 |
-
2020
- 2020-04-27 KR KR1020200050980A patent/KR102544531B1/ko active IP Right Grant
- 2020-10-06 WO PCT/KR2020/013548 patent/WO2021221242A1/ko active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018057302A1 (en) * | 2016-09-26 | 2018-03-29 | Google Llc | Communication efficient federated learning |
WO2018150550A1 (ja) * | 2017-02-17 | 2018-08-23 | 株式会社日立製作所 | 学習データ管理装置及び学習データ管理方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20210132500A (ko) | 2021-11-04 |
WO2021221242A1 (ko) | 2021-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102544531B1 (ko) | 연합 학습 시스템 및 방법 | |
CN110191148B (zh) | 一种面向边缘计算的统计函数分布式执行方法及系统 | |
Zhai et al. | Toward reinforcement-learning-based service deployment of 5G mobile edge computing with request-aware scheduling | |
Li et al. | Flexible replica placement for enhancing the availability in edge computing environment | |
CN109151030B (zh) | 一种物联网物体分布式交互系统、方法 | |
CN111669291A (zh) | 基于深度强化学习的虚拟化网络服务功能链部署方法 | |
Huang et al. | Enabling DNN acceleration with data and model parallelization over ubiquitous end devices | |
CN115297008B (zh) | 基于智算网络的协同训练方法、装置、终端及存储介质 | |
CN111935025B (zh) | 一种tcp传输性能的控制方法、装置、设备和介质 | |
CN113515341A (zh) | 一种灵活的分布式ai训练云平台部署方法及相关平台 | |
KR20230065038A (ko) | 쿼리 기반 데이터베이스 연동 딥러닝 분산 시스템 및 그 방법 | |
KR20240082184A (ko) | 딥러닝 프레임워크 응용 서비스 모델의 지속적인 통합 및 배포 시스템 및 그 방법 | |
Li et al. | Neighborhood search-based job scheduling for IoT big data real-time processing in distributed edge-cloud computing environment | |
Luthra et al. | TCEP: Transitions in operator placement to adapt to dynamic network environments | |
CN113240100B (zh) | 基于离散Hopfield神经网络的并行计算方法及系统 | |
CN102981913A (zh) | 支持大规模分布式增量计算的推理控制方法及推理控制系统 | |
US20220374443A1 (en) | Generation of data pipelines based on combined technologies and licenses | |
US11809915B1 (en) | Parallel processing techniques for expediting reconciliation for a hierarchy of forecasts on a computer system | |
CN110798513B (zh) | 物联网设备互联系统及方法 | |
Zheng et al. | A balanced and reliable data replica placement scheme based on reinforcement learning in edge–cloud environments | |
CN111935026A (zh) | 一种数据传输方法、装置、处理设备及介质 | |
Qu et al. | Survivable SFC deployment method based on federated learning in multi-domain network | |
Naseer et al. | Resource discovery in Grids and other distributed environments: States of the art | |
CN116166370A (zh) | 一种基于容器平台的智能推理服务集群化调度方法及系统 | |
Lackinger et al. | Inference Load-Aware Orchestration for Hierarchical Federated Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |