KR20210132500A - 연합 학습 시스템 및 방법 - Google Patents

연합 학습 시스템 및 방법 Download PDF

Info

Publication number
KR20210132500A
KR20210132500A KR1020200050980A KR20200050980A KR20210132500A KR 20210132500 A KR20210132500 A KR 20210132500A KR 1020200050980 A KR1020200050980 A KR 1020200050980A KR 20200050980 A KR20200050980 A KR 20200050980A KR 20210132500 A KR20210132500 A KR 20210132500A
Authority
KR
South Korea
Prior art keywords
data
learning
model
management unit
server
Prior art date
Application number
KR1020200050980A
Other languages
English (en)
Other versions
KR102544531B1 (ko
Inventor
문재원
금승우
김영기
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020200050980A priority Critical patent/KR102544531B1/ko
Priority to PCT/KR2020/013548 priority patent/WO2021221242A1/ko
Publication of KR20210132500A publication Critical patent/KR20210132500A/ko
Application granted granted Critical
Publication of KR102544531B1 publication Critical patent/KR102544531B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • H04L67/28

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)

Abstract

본 발명은, 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성하는 복수의 사용자 단말과, 글로벌 모델을 생성하며, 학습 데이터를 취합하고 이를 이용하여 글로벌 모델을 개선하는 서버와, 글로벌 모델에 관한 모델 데이터와 학습 데이터를 저장 및 관리하며, 모델 데이터를 복수의 사용자 단말로 전달하고, 학습 데이터를 서버로 전달하는 데이터 관리부를 포함하는 연합 학습 시스템을 제공한다.

Description

연합 학습 시스템 및 방법{FEDERATED LEARNING SYSTEM AND METHOD}
본 발명은 연합 학습 시스템 및 방법에 관한 것이다.
최근 클라우드 및 빅데이터 분석 및 처리 기술의 발전으로 여러 서비스에서 인공 지능(Artificial Intelligence; AI) 기술이 보편적으로 적용되고 있다. 이와 같이 인공 지능 기술을 서비스에 적용하기 위해서는 많은 양의 데이터를 바탕으로 인공 지능 모델을 학습하는 절차가 선행되어야 한다.
인공 지능 모델의 학습에는 대규모 계산을 수행하기 위해 수많은 컴퓨터 리소스가 필요하다. 클라우드 컴퓨팅 서비스는 복잡한 하드웨어 및 소프트웨어 설치 없이 인공 지능 모델을 학습할 수 있도록 컴퓨팅 인프라를 쉽게 제공할 수 있는 최상의 솔루션이다.
클라우드 컴퓨팅은 리소스의 중앙 집중화를 기반으로 하기 때문에 필요한 모든 데이터를 클라우드 메모리에 저장하고 모델 학습에 활용해야 한다. 데이터 중앙 집중화는 효율성 극대화라는 관점에서 많은 이점을 제공하지만, 사용자 개인 데이터의 유출 위험이 있으며, 특히 이는 데이터 전송이 증가함에 따라 더욱 중요한 비즈니스 이슈가 되고 있다.
최근 이러한 문제를 극복하기 위해 연합 학습(Federated Learning) 시스템과 연합 학습 아키텍처를 지원하기 위한 많은 학습 알고리즘이 도입되고 있다.
연합 학습은, 기존처럼 사용자 개인 데이터를 중앙에 모아서 학습하는 것이 아니라, 사용자 단말에서 사용자 개인 데이터를 기초로 학습한 모델을 중앙으로 취합하는 형식의 학습 방법이다. 이러한 연합 학습은 사용자 개인 데이터를 중앙으로 수집하는 것이 아니기 때문에 사생활 침해 소지가 적다.
연합 학습 시스템을 실제로 사용하려면 매개 변수를 업데이트하는 방법 및 학습 일정과 같은 알고리즘 측면뿐만 아니라 각 장치의 독립적인 데이터 관리와 같은 시스템 측면 및 이기종 시스템과의 효율적인 통신 방법을 고려해야 한다.
또한, 서버와 사용자 단말 간의 네트워크 종속성은 해결해야 할 또 다른 문제이다. 즉, 연합 학습을 수행하려면 각 서버와 다수의 사용자 단말이 밀접하게 서로 연결되어 있어야 하는데, 이 경우 불안정한 네트워크 또는 연결 문제가 발생하면 응답하기 어려운 문제가 있다. 또한, 사용자 단말은 리소스가 부족하고 네트워크 상태가 불안정하더라도 서버와의 데이터 전송이 완료될 때까지 서버로 전송되는 데이터를 유지 관리해야 하는 추가적인 부담이 발생하는 문제가 있다.
한국공개특허공보 제10-2019-0103088호
상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명은 서버 및 사용자 단말가 비동기적으로 학습 작업을 수행할 수 있는 연합 학습 시스템 및 방법을 제공하는 것을 목적으로 한다.
또한, 본 발명에 따르면, 서버의 작업 부담을 완화하기 위해 데이터 관리부를 도입하고, 이 데이터 관리부를 중심으로 학습 작업을 수행할 수 있는 연합 학습 시스템 및 방법을 제공하는 것을 목적으로 한다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
전술한 과제를 해결하기 위해, 본 발명은, 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성하는 복수의 사용자 단말과, 글로벌 모델을 생성하며, 학습 데이터를 취합하고 이를 이용하여 글로벌 모델을 개선하는 서버와, 글로벌 모델에 관한 모델 데이터와 학습 데이터를 저장 및 관리하며, 모델 데이터를 복수의 사용자 단말로 전달하고, 학습 데이터를 서버로 전달하는 데이터 관리부를 포함하는 연합 학습 시스템을 제공한다.
여기서, 모델 데이터는, 글로벌 모델의 글로벌 매개 변수와, 사용자 단말의 학습 시기 및 학습에 사용될 사용자 데이터의 종류 및 크기 정보를 포함한다.
또한, 사용자 단말은, 모델 데이터를 기초로 학습 계획을 수립하고 학습 계획에 따라 학습을 수행한다.
또한, 학습 데이터는, 로컬 모델 또는 로컬 모델의 로컬 매개 변수이다.
또한, 데이터 관리부는, 학습 데이터의 크기, 생성 일시 및 분포 특성을 포함하는 메타 데이터를 생성한다.
또한, 서버는, 메타 데이터를 기초로, 학습 데이터의 범위 및 개수를 결정하거나, 취합할 학습 데이터를 선택하거나, 학습 데이터의 취합 계획을 수립 또는 변경한다.
또한, 데이터 관리부는, 모델 데이터 및 학습 데이터를 버전 별로 관리한다.
또한, 본 발명은, 서버가 글로벌 모델을 생성하고, 글로벌 모델에 관한 모델 데이터를 데이터 관리부에 등록하는 단계와, 데이터 관리부가 모델 데이터를 복수의 사용자 단말로 전달하는 단계와, 복수의 사용자 단말이 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성하는 단계와, 복수의 사용자 단말이 학습 데이터를 데이터 관리부에 등록하는 단계와, 데이터 관리부가 학습 데이터를 서버로 전달하는 단계와, 서버가 학습 데이터를 취합하여 글로벌 모델을 개선하는 단계를 포함하는 연합 학습 방법을 제공한다.
여기서, 모델 데이터를 상기 데이터 관리부에 등록하는 단계는, 서버가 모델 데이터의 등록을 데이터 관리부에 요청하는 단계와, 데이터 관리부가 모델 데이터를 버전 별로 등록하는 단계를 포함한다.
또한, 모델 데이터를 복수의 사용자 단말로 전달하는 단계는, 복수의 사용자 단말이 모델 데이터를 데이터 관리부에 요청하는 단계와, 데이터 관리부가 최신 버전의 모델 데이터 또는 복수의 사용자 단말이 요청한 버전의 모델 데이터를 복수의 사용자 단말로 전달하는 단계를 포함한다.
또한, 학습 데이터를 데이터 관리부에 등록하는 단계는, 사용자 단말이 학습 데이터의 등록을 데이터 관리부에 요청하는 단계와, 데이터 관리부가 학습 데이터를 버전 별로 등록하는 단계를 포함한다.
또한, 학습 데이터를 서버로 전달하는 단계는, 서버가 학습 데이터를 데이터 관리부에 요청하는 단계와, 데이터 관리부가 최신 버전의 학습 데이터 또는 서버가 요청한 버전의 학습 데이터를 서버로 전달하는 단계를 포함한다.
본 발명에 따르면, 사용자 단말 및 서버가 상호 간의 작업 상태를 고려하지 않고 독립적으로 작업을 수행함으로써, 연합 학습을 유연하게 수행할 수 있으며, 글로벌 모델의 성능을 향상시킬 수 있다.
또한, 본 발명에 따르면, 서버가 사용자 단말 및 네트워크 연결 상태와 상관없이 데이터 관리부에 저장된 데이터만 가져와 연합 학습을 수행할 수 있어, 서버의 부담을 완화할 수 있다.
또한, 본 발명에 따르면, 통신 연결을 서버 및 데이터 관리부 상호 간과 사용자 단말 및 데이터 관리부 상호 간으로 변경함으로써, 대역폭을 감소하고 네트워크 효율성을 높이고, 네트워크 장애에 대비할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 종래의 연합 학습 시스템의 블록도이다.
도 2는 종래의 연합 학습 방법의 순서도이다.
도 3은 본 발명의 실시예에 따른 연합 학습 시스템의 블록도이다.
도 4는 본 발명의 실시예에 따른 연합 학습 방법의 순서도이다.
도 5는 도 4의 모델 데이터를 등록하는 단계의 구체적인 순서도이다.
도 6은 도 4의 모델 데이터를 전달하는 단계의 구체적인 순서도이다.
도 7은 도 4의 학습 데이터를 등록하는 단계의 구체적인 순서도이다.
도 8은 도 4의 학습 데이터를 전달하는 단계의 구체적인 순서도이다.
본 발명의 구성 및 효과를 충분히 이해하기 위하여, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예들을 설명한다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라, 여러 가지 형태로 구현될 수 있고 다양한 변경을 가할 수 있다. 단지, 본 실시예에 대한 설명은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위하여 제공되는 것이다. 첨부된 도면에서 구성요소는 설명의 편의를 위하여 그 크기를 실제보다 확대하여 도시한 것이며, 각 구성요소의 비율은 과장되거나 축소될 수 있다.
'제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 상기 구성요소는 위 용어에 의해 한정되어서는 안 된다. 위 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다. 또한, 단수의 표현은 문맥상 명백하게 다르게 표현하지 않는 한, 복수의 표현을 포함한다. 본 발명의 실시예에서 사용되는 용어는 다르게 정의되지 않는 한, 해당 기술분야에서 통상의 지식을 가진 자에게 통상적으로 알려진 의미로 해석될 수 있다.
도 1은 종래의 연합 학습 시스템의 블록도이고, 도 2는 종래의 연합 학습 방법의 순서도이다.
도 1을 참조하면, 종래의 연합 학습 시스템은, 복수의 사용자 단말(10), 서버(20) 및 스토리지(30)를 포함하여 구성될 수 있다.
서버(20)는, 글로벌 모델을 생성하고, 생성된 글로벌 모델을 스토리지(30)에 저장한다. 그리고, 서버(20)는 스토리지(30)에 저장된 글로벌 모델을 복수의 사용자 단말(10)로 전달한다.
복수의 사용자 단말(10)은 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 모델을 생성한다. 그리고, 복수의 사용자 단말(10)은 학습 모델을 서버(20)로 전달한다.
서버(20)는 학습 데이터를 취합하고 이를 이용하여 글로벌 모델을 개선한다. 그리고, 서버(20)는 개선된 글로벌 모델을 스토리지(30)에 저장하고, 다시 개선된 글로벌 모델을 복수의 사용자 단말(10)로 전달한다. 이와 같은 과정은 글로벌 모델 성능이 일정 수준 이상이 될 때까지 반복될 수 있다.
도 2를 참조하면, 종래의 연합 학습 방법은 선택(Selection) 단계, 구성(Configuration) 단계 및 보고(Reporting) 단계로 구성된다.
먼저, 서버(20)는 글로벌 모델의 글로벌 매개 변수, 학습 계획, 데이터 구조 및 수행할 작업을 포함하는 모델 데이터를 스토리지(30)에 저장한다.
다음, 연합 학습을 수행할 수 있는 복수의 사용자 단말(10a~10e)은 서버(20)에 메시지를 보내 학습 준비가 되었음을 알린다(①). 그리고, 서버(20)는, 복수의 사용자 단말(10a~10e)의 정보를 수집하여, 참여 단말 수와 같은 규칙에 따라 복수의 사용자 단말(10a~10e) 중에서 학습 참여에 가장 적합한 사용자 단말(10~10c)을 선택한다(선택 단계).
다음, 서버(20)는, 스토리지(30)에 저장된 모델 데이터를 읽어(②), 이를 선택된 사용자 단말(10~10c)로 전송한다(③). 그리고, 사용자 단말(10a~10c)은 모델 데이터에 따라 글로벌 모델에 사용자 데이터를 적용하여 학습을 수행한다(④)(구성 단계).
다음, 사용자 단말(10a~10c)은, 학습이 완료되면 학습 데이터 예컨대, 로컬 모델 또는 로컬 모델의 로컬 매개 변수를 서버(20)로 전송한다. 이 때, 불안정한 네트워크 또는 연결 문제로 인해 일부 사용자 단말(10b)의 전송이 실패할 수 있다. 서버(20)는, 사용자 단말(10a, 10c)로부터 학습 데이터를 전송 받으면, 학습 데이터를 취합(Aggregation)하고 이를 이용해 글로벌 모델의 모델 데이터를 개선 한다(⑤). 그리고, 서버(20)는 개선된 글로벌 모델의 모델 데이터를 스토리지(30)에 저장한다(보고 단계).
이와 같이 연합 학습의 한 라운드를 완료되어 모델 데이터가 개선 되면 다음 라운드가 다시 시작될 수 있다. 이 때, 여러 라운드를 반복하여 글로벌 모델 성능이 일정 수준 이상이 되면 전체 연합 학습 과정이 종료된다.
전술한 바와 같이, 종래의 연합 학습 방법에서, 스토리지(30)는 서버(20)가 생성하는 글로벌 모델의 모델 데이터를 저장하는 용도로만 사용되고 있다. 그리고, 서버(20)는, 복수의 사용자 단말(10)의 상태를 확인하여, 적합한 사용자 단말(10)을 선택하고, 취합할 충분한 양의 학습 데이터가 수집되었는지 판단하고, 모델 데이터를 복수의 사용자 단말(10)로 전달하는 등 많은 역할을 수행한다.
또한, 종래의 연합 학습 방법은 서버(20)가 관리해야 할 사용자 단말(10)의 수가 적을 때는 합리적일 수 있지만, 연합 학습에 참여하는 사용자 단말(10)의 수가 대폭 늘어나거나 사용자 단말(10)의 수와 그 특성이 유동적일 경우, 이를 서버(20)가 모두 관리하는 것은 서버(20)에 큰 부담이 된다.
또한, 종래의 연합 학습 방법에 있어서, 자체 환경과 사양을 보유하는 복수의 사용자 단말(10)의 모든 응답은 독립적이기 때문에, 서버(20)는 사용자 단말(10)의 개별 응답의 정확한 수와 시기를 예측할 수 없다. 이와 같이, 서버(20)가 사용자 단말(10)의 개별 응답의 정확한 수와 시기를 예측할 수 없기 때문에, 서버(20)가 모든 사용자 단말(10)의 응답을 관리하는 것은 비효율적이다.
또한, 또한, 종래의 연합 학습 방법에 있어서, 서버(20)와 복수의 사용자 단말(10)은 종속성을 갖는다. 즉, 서버(20)는 사용자 단말(10)의 모든 응답 수집이 완료되어야만 학습 데이터의 취합하여 글로벌 모델의 업데이트를 진행할 수 있으며, 사용자 단말(10) 또는 네트워크에 장애가 발생한 경우 연합 학습 또한 중단될 수 있다. 이에 따라, 학습 계획 수정 및 최적화가 어렵다.
따라서, 연합 학습에 참여하는 사용자 단말(10)의 범위와 수를 동적으로 변경하는 등 다양한 상황에 맞게 재구성할 수 있어야 한다. 그리고, 다양한 연합 학습을 유연하고 효과적으로 진행하기 위해 서버(20) 및 사용자 단말(10) 간 종속성을 완화해야 한다.
도 3은 본 발명의 실시예에 따른 연합 학습 시스템의 블록도이다.
도 3을 참조하면, 본 발명의 실시예에 따른 연합 학습 시스템은, 복수의 사용자 단말(110), 서버(120) 및 데이터 관리부(130)를 포함하여 구성될 수 있다.
사용자 단말(110) 및 서버(120)는 신경망을 학습할 수 있는 컴퓨팅 장치로서, 다양한 전자 장치로 구현될 수 있다.
신경망은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하는, 매개 변수를 갖는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 모드들은 뉴런이 시냅스(synapse)를 통해 신호를 주고 받는 뉴런의 시냅틱 활동을 모의하도록 각각 연결 관계에 따라 데이터를 주고 받을 수 있다. 여기서, 신경망은 신경망 모델에서 발전한 딥러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 신경망 모델의 예는 심층 신경망(DNN, deep neural networks), 합성곱 신경망(CNN, convolutional deep neural networks), 순환 신경망(RNN, Recurrent Boltzmann Machine), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, deep belief networks), 심층 Q-네트워크(Deep Q-Network)와 같은 다양한 딥 러닝 기법들을 포함하며, 컴퓨터 비젼, 음성 인식, 자연어 처리, 음성 신호 처리 등의 분야에 적용될 수 있다.
복수의 사용자 단말(110)은, 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성한다. 여기서, 학습 데이터는 로컬 모델 또는 로컬 모델의 로컬 매개 변수일 수 있다.
종래의 연합 학습 시스템은 서버(20)가 사용자 단말(10)을 선택하고, 선택된 사용자 단말(10)만 학습에 참여하였지만, 본 발명의 실시예에 따른 연합 학습 시스템은 사용자 단말(10)의 선택 없이 학습 가능한 리소스를 갖는 모든 사용자 단말(110)이 학습에 참여할 수 있다. 이에 따라, 서버(120)가 사용자 단말(110)을 선택해야 하는 부담을 완화할 수 있다.
복수의 사용자 단말(110)은 학습이 완료되면 학습 데이터를 데이터 관리부(130)로 전송한다. 이 때, 복수의 사용자 단말(110)은 생성한 로컬 모델 자체를 전송하거나 로컬 모델의 로컬 매개 변수를 전송할 수 있다.
서버(120)는, 글로벌 모델을 생성하며, 학습 데이터를 취합하고 이를 이용하여 글로벌 모델을 개선한다.
서버(120)는, 글로벌 모델의 모델 데이터를 데이터 관리부(130)로 전송하고, 학습 데이터를 데이터 관리부(130)로부터 전송 받는다.
데이터 관리부(130)는, 글로벌 모델에 관한 모델 데이터와 학습 데이터를 저장 및 관리하며, 모델 데이터를 복수의 사용자 단말(110)로 전달하고, 학습 데이터를 서버(120)로 전달한다.
여기서, 모델 데이터는, 글로벌 모델의 글로벌 매개 변수와, 사용자 단말(110)의 학습 시기 및 학습에 사용될 사용자 데이터의 종류 및 크기 정보를 포함할 수 있다.
이에 따라, 복수의 사용자 단말(110)은, 모델 데이터를 기초로 학습 계획을 수립하고 학습 계획에 따라 학습을 수행할 수 있다.
데이터 관리부(130)는, 학습 데이터의 크기, 생성 일시 및 분포 특성을 포함하는 메타 데이터를 생성하여 이를 기초로 학습 데이터를 관리할 수 있다.
서버(120)는, 메타 데이터를 기초로, 학습 데이터의 범위 및 양을 결정하거나, 취합할 학습 데이터를 선택하거나, 학습 데이터의 취합 계획을 수립 또는 변경할 수 있고, 취합 계획에 따라 학습 데이터를 취합할 수 있다. 예컨대, 서버(120)는 메타 데이터를 기초로 일정 양과 일정 수준 이상의 신뢰도를 갖는 학습 데이터를 선택할 수 있다.
데이터 관리부(130)는, 모델 데이터 및 학습 데이터를 버전 별로 관리할 수 있으며, 이에 대한 자세한 내용은 후술하겠다.
전술한 본 발명의 실시예에 따른 연합 학습 시스템은, 사용자 단말(110) 및 서버(120) 간 작업을 비동기적으로 수행한다. 즉, 사용자 단말(110) 및 서버(120)는 상호 간의 작업 상태를 고려하지 않고 독립적으로 작업을 수행한다. 이에 따라, 연합 학습을 유연하게 수행할 수 있으며, 글로벌 모델의 성능을 향상시킬 수 있다.
또한, 본 발명의 실시예에 따른 연합 학습 시스템은, 사용자 단말(110) 및 서버(120)가 각각 생성한 데이터를 데이터 관리부(130)에 저장하며, 데이터 관리부(130)가 사용자 단말(110) 및 서버(120)에 저장된 데이터를 전달하는 허브 역할을 수행한다. 이 때, 사용자 단말(110) 및 서버(120)는 서로 통신하지 않는다. 이에 따라, 서버(120)는 사용자 단말(110)의 상태 및 네트워크 연결 상태와 상관없이 데이터 관리부(130)에 저장된 데이터만 가져와 연합 학습을 수행할 수 있어, 서버(120)의 부담을 완화할 수 있다.
또한, 본 발명의 실시예에 따른 연합 학습 시스템은, 통신 연결을 종래의 서버(20) 및 스토리지(30) 상호 간과 서버(20) 및 사용자 단말(10) 상호 간에서 서버(120) 및 데이터 관리부(130) 상호 간과 사용자 단말(110) 및 데이터 관리부(130) 상호 간으로 변경함으로써, 대역폭을 감소하고 네트워크 효율성을 높이고, 네트워크 장애에 대비할 수 있다.
도 4는 본 발명의 실시예에 따른 연합 학습 방법의 순서도이고, 도 5는 도 4의 모델 데이터를 등록하는 단계의 구체적인 순서도이고, 도 6은 도 4의 모델 데이터를 전달하는 단계의 구체적인 순서도이고, 도 7은 도 4의 학습 데이터를 등록하는 단계의 구체적인 순서도이고, 도 8은 도 4의 학습 데이터를 전달하는 단계의 구체적인 순서도이다.
이하, 도 3 내지 도 8을 참조하여, 본 발명의 실시예에 따른 연합 학습 방법을 구체적으로 설명하되, 전술한 내용과 동일한 내용에 대해서는 생략하겠다.
사용자 단말(110) 및 서버(120)가 데이터 관리부(130)에 학습 데이터 또는 모델 데이터를 등록하거나 요청하기 위해서는, 태스크명(Task_name), 버전(Version), 모델 위치(Model location) 및 장치명(Device name) 등의 정보를 데이터 관리부(130)로 전송해야 한다.
여기서, 태스크명은 연합 학습을 사용하여 해결할 고유의 학습 작업 이름이다. 여기서, 데이터 관리부(130)는 태스크명에 해당하는 학습 작업을 수행하기 위해 필요한 조건을 사용자 단말(110) 및 서버(120)에 제공할 수 있다. 또한, 사용자 단말(110) 및 서버(120)는 태스크명을 통해 데이터 관리부(130)에 접속하여 원하는 학습 작업을 찾을 수 있다.
버전은 사용자 단말(110) 및 서버(120)가 글로벌 모델의 모델 데이터 및 학습 데이터를 업데이트할 때 사용되는 값으로 플롯(float) 형식이다. 여기서, 하나의 학습 작업에 대해 복수의 서버(120)와 사용자 단말(110)이 연합하여 학습 작업을 할 경우, 이 버전이 학습 결과물을 관리할 수 있는 기준이 된다.
모델 위치는 모델 데이터 또는 학습 데이터가 생성된 위치에 대한 정보이다. 여기서, 글로벌 모델의 모델 데이터가 생성된 위치는 서버(120)이고, 로컬 모델의 학습 데이터가 생성된 위치는 사용자 단말(110)이다.
장치명은 사용자 단말(110) 및 서버(120)의 고유한 아이디 또는 이름이다. 여기서, 데이터 관리부(130)는, 장치명에 해당하는 각 장치들의 성능과 특성을 제공하여, 서버(120)가 사용자 단말(110)이 생성한 학습 데이터를 선택하는데 도움을 줄 수 있다.
사용자 단말(110) 또는 서버(120)가 위와 같은 정보들을 데이터 관리부(130)로 전달하면 데이터 관리부(130)는 전달받은 정보에 해당하는 모델 데이터 또는 사용자 데이터를 등록하거나 사용자 단말(110) 또는 서버(120)로 전달한다.
본 발명의 실시예에 따른 연합 학습 방법은, 먼저, 서버(120)가 글로벌 모델을 생성하고, 글로벌 모델에 관한 모델 데이터를 데이터 관리부(130)에 등록한다(S10).
구체적으로, 서버(120)가 모델 데이터의 등록을 데이터 관리부(130)에 요청한다(S11). 그리고, 데이터 관리부(130)가 모델 데이터를 버전 별로 등록한다. 즉, 데이터 관리부(130)가 모델 데이터의 스토리지가 있는지 확인한다(S12). 이 때, 스토리지가 없는 경우, 스토리지를 생성하고(S13), 생성된 스토리지에 모델 데이터를 저장한다(S14). 그리고, 스토리지가 있는 경우, 데이터 관리부(130)가 모델 데이터의 버전을 확인하고(S15), 모델 데이터의 버전을 데이터 관리부(130)에 저장된 최신 버전과 비교한다. 이 때, 모델 데이터의 버전이 최신 버전 보다 높으면 모델 데이터의 버전을 업그레이드하고(S17), 모델 데이터의 버전이 최신 버전 보다 낮거나 같으면 해당 버전의 모델 데이터를 업데이트한다(S18).
다음, 데이터 관리부(130)가 모델 데이터를 복수의 사용자 단말(110)로 전달한다(S20).
구체적으로, 복수의 사용자 단말(110)이 모델 데이터를 데이터 관리부(130)에 요청한다(S21). 그리고, 데이터 관리부(130)가 최신 버전의 모델 데이터 또는 복수의 사용자 단말(110)이 요청한 버전의 모델 데이터를 복수의 사용자 단말(110)로 전달한다. 즉, 데이터 관리부(130)가 특정 버전의 모델 데이터인지 확인한다(S22). 이 때, 특정 버전의 모델 데이터인 경우 특정 버전의 모델 데이터를 탐색하고(S23), 특정 버전의 모델 데이터가 아닌 경우 최신 버전의 모델 데이터를 탐색한다(S24).
그리고, 데이터 관리부(130)가 특정 버전의 모델 데이터 또는 최신 버전의 모델 데이터 찾기를 완료하였는지 확인한다(S25). 이 때, 모델 데이터를 찾은 경우 찾은 모델 데이터를 사용자 단말(110)로 전송하고(S26), 모델 데이터를 찾지 못한 경우 서버(120)에 최신 버전의 모델 데이터를 요청하여(S27) 전달 받고, 전달 받은 모델 데이터를 사용자 단말(110)로 전달한다(S26).
다음, 복수의 사용자 단말(110)이 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성한다(S30).
다음, 복수의 사용자 단말(110)이 학습 데이터를 데이터 관리부(130)에 등록한다(S40).
구체적으로, 사용자 단말(110)이 학습 데이터의 등록을 데이터 관리부(130)에 요청한다(S41). 그리고, 데이터 관리부(130)가 학습 데이터를 버전 별로 등록한다. 즉, 데이터 관리부(130)가 학습 데이터의 버전을 확인하고(S42), 해당 버전의 학습 데이터가 저장된 스토리지가 있는지 확인한다(S43). 이 때, 스토리지가 있는 경우 해당 스토리지에 학습 데이터를 저장하고(S44), 스토리지가 없는 경우 스토리지를 생성하고(S45) 생성된 스토리지에 학습 데이터를 저장한다(S44).
다음, 데이터 관리부(130)가 학습 데이터를 서버(120)로 전달한다.
구체적으로, 서버(120)가 학습 데이터를 데이터 관리부(130)에 요청한다(S51). 그리고, 데이터 관리부(130)가 최신 버전의 학습 데이터 또는 서버(120)가 요청한 버전의 학습 데이터를 서버(120)로 전달한다. 즉, 데이터 관리부(130)가 최신 버전의 학습 데이터를 탐색하고(S52), 학습 데이터가 취합 조건을 만족하는지 확인한다(S53). 즉, 학습 데이터가 일정 양 이상이고 학습 데이터가 신뢰도가 일정 수준 이상인지 확인한다. 이 때, 학습 데이터가 취합 조건을 만족하지 않을 경우 취합 조건 만족 시까지 대기하고(S54), 학습 데이터가 취합 조건을 만족하는 경우 학습 데이터를 서버(120)로 전달한다. 그리고, 서버(120)는 학습 데이터를 취합하여 이를 기초로 글로벌 모델을 개선한다(S60).
다음, 서버(120)가 개선된 글로벌 모델의 모델 데이터를 데이터 관리부(130)에 등록한다. 그리고, 데이터 관리부(130)가 개선된 글로벌 모델의 모델 데이터를 복수의 사용자 단말(10)로 전달한다. 이와 같은 과정은 글로벌 모델 성능이 일정 수준 이상이 될 때까지 반복될 수 있다.
본 발명의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술되는 청구범위 및 이 청구범위와 균등한 것들에 의해 정해져야 한다.
110: 사용자 단말
120: 서버
130: 데이터 관리부

Claims (12)

  1. 사용자 데이터를 기초로 글로벌 모델을 학습하여 학습 데이터를 생성하는 복수의 사용자 단말;
    상기 글로벌 모델을 생성하며, 상기 학습 데이터를 취합하고 이를 이용하여 상기 글로벌 모델을 개선하는 서버; 및
    상기 글로벌 모델에 관한 모델 데이터와 상기 학습 데이터를 저장 및 관리하며, 상기 모델 데이터를 상기 복수의 사용자 단말로 전달하고, 상기 학습 데이터를 상기 서버로 전달하는 데이터 관리부
    를 포함하는 연합 학습 시스템.
  2. 제 1 항에 있어서,
    상기 모델 데이터는
    상기 글로벌 모델의 글로벌 매개 변수와, 상기 사용자 단말의 학습 시기 및 학습에 사용될 상기 사용자 데이터의 종류 및 크기 정보를 포함하는
    연합 학습 시스템.
  3. 제 2 항에 있어서,
    상기 사용자 단말은
    상기 모델 데이터를 기초로 학습 계획을 수립하고 상기 학습 계획에 따라 학습을 수행하는
    연합 학습 시스템.
  4. 제 1 항에 있어서,
    상기 학습 데이터는
    로컬 모델 또는 상기 로컬 모델의 로컬 매개 변수인
    연합 학습 시스템.
  5. 제 1 항에 있어서,
    상기 데이터 관리부는
    상기 학습 데이터의 크기, 생성 일시 및 분포 특성을 포함하는 메타 데이터를 생성하는
    연합 학습 시스템.
  6. 제 5 항에 있어서,
    상기 서버는
    상기 메타 데이터를 기초로, 상기 학습 데이터의 범위 및 개수를 결정하거나, 취합할 상기 학습 데이터를 선택하거나, 상기 학습 데이터의 취합 계획을 수립 또는 변경하는
    연합 학습 시스템.
  7. 제 1 항에 있어서,
    상기 데이터 관리부는
    상기 모델 데이터 및 상기 학습 데이터를 버전 별로 관리하는
    연합 학습 시스템.
  8. 서버가 글로벌 모델을 생성하고, 상기 글로벌 모델에 관한 모델 데이터를 데이터 관리부에 등록하는 단계;
    상기 데이터 관리부가 상기 모델 데이터를 복수의 사용자 단말로 전달하는 단계;
    상기 복수의 사용자 단말이 사용자 데이터를 기초로 상기 글로벌 모델을 학습하여 학습 데이터를 생성하는 단계;
    상기 복수의 사용자 단말이 상기 학습 데이터를 상기 데이터 관리부에 등록하는 단계;
    상기 데이터 관리부가 상기 학습 데이터를 상기 서버로 전달하는 단계; 및
    상기 서버가 상기 학습 데이터를 취합하여 상기 글로벌 모델을 개선하는 단계
    를 포함하는 연합 학습 방법.
  9. 제 8 항에 있어서,
    상기 모델 데이터를 상기 데이터 관리부에 등록하는 단계는
    상기 서버가 상기 모델 데이터의 등록을 상기 데이터 관리부에 요청하는 단계; 및
    상기 데이터 관리부가 상기 모델 데이터를 버전 별로 등록하는 단계
    를 포함하는 연합 학습 방법.
  10. 제 8 항에 있어서,
    상기 모델 데이터를 상기 복수의 사용자 단말로 전달하는 단계는
    상기 복수의 사용자 단말이 상기 모델 데이터를 상기 데이터 관리부에 요청하는 단계; 및
    상기 데이터 관리부가 최신 버전의 모델 데이터 또는 상기 복수의 사용자 단말이 요청한 버전의 상기 모델 데이터를 상기 복수의 사용자 단말로 전달하는 단계
    를 포함하는 연합 학습 방법.
  11. 제 8 항에 있어서,
    상기 학습 데이터를 상기 데이터 관리부에 등록하는 단계는
    상기 사용자 단말이 상기 학습 데이터의 등록을 상기 데이터 관리부에 요청하는 단계; 및
    상기 데이터 관리부가 상기 학습 데이터를 버전 별로 등록하는 단계
    를 포함하는 연합 학습 방법.
  12. 제 8 항에 있어서,
    상기 학습 데이터를 상기 서버로 전달하는 단계는
    상기 서버가 상기 학습 데이터를 상기 데이터 관리부에 요청하는 단계; 및
    상기 데이터 관리부가 최신 버전의 학습 데이터 또는 상기 서버가 요청한 버전의 상기 학습 데이터를 상기 서버로 전달하는 단계
    를 포함하는 연합 학습 방법.
KR1020200050980A 2020-04-27 2020-04-27 연합 학습 시스템 및 방법 KR102544531B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200050980A KR102544531B1 (ko) 2020-04-27 2020-04-27 연합 학습 시스템 및 방법
PCT/KR2020/013548 WO2021221242A1 (ko) 2020-04-27 2020-10-06 연합 학습 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200050980A KR102544531B1 (ko) 2020-04-27 2020-04-27 연합 학습 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20210132500A true KR20210132500A (ko) 2021-11-04
KR102544531B1 KR102544531B1 (ko) 2023-06-16

Family

ID=78332056

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200050980A KR102544531B1 (ko) 2020-04-27 2020-04-27 연합 학습 시스템 및 방법

Country Status (2)

Country Link
KR (1) KR102544531B1 (ko)
WO (1) WO2021221242A1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102413116B1 (ko) * 2021-12-02 2022-06-23 세종대학교산학협력단 인공 신경망의 계층 특성에 기반한 연합 학습 방법
CN114707430A (zh) * 2022-06-02 2022-07-05 青岛鑫晟汇科技有限公司 一种基于多用户加密的联邦学习可视化系统与方法
KR102485748B1 (ko) * 2022-05-30 2023-01-09 주식회사 어니스트펀드 통계 모델을 위한 연합 학습 방법 및 장치
KR102517728B1 (ko) * 2022-07-13 2023-04-04 주식회사 애자일소다 연합 학습에 기반한 상품 추천 장치 및 방법
KR20230064534A (ko) 2021-11-03 2023-05-10 한국과학기술원 클라이언트의 개별 데이터 맞춤형 연합 학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
KR20230064535A (ko) 2021-11-03 2023-05-10 한국과학기술원 글로벌 모델의 방향성을 따르는 로컬 모델 연합 학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
KR102573880B1 (ko) * 2022-07-21 2023-09-06 고려대학교 산학협력단 다중-너비 인공신경망에 기반한 연합 학습 시스템 및 연합 학습 방법
KR102585904B1 (ko) 2022-12-14 2023-10-06 주식회사 딥노이드 자기 주도 중앙 제어 기반의 인공지능을 이용한 방사선 영상을 판독하기 위한 장치 및 이를 위한 방법
KR20240045837A (ko) 2022-09-30 2024-04-08 한국과학기술원 향상된 표상을 위한 연합 학습 시스템, 클라이언트 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018057302A1 (en) * 2016-09-26 2018-03-29 Google Llc Communication efficient federated learning
KR20180049786A (ko) * 2016-11-03 2018-05-11 삼성전자주식회사 데이터 인식 모델 구축 장치 및 이의 데이터 인식 모델 구축 방법과, 데이터 인식 장치 및 이의 데이터 인식 방법
WO2018150550A1 (ja) * 2017-02-17 2018-08-23 株式会社日立製作所 学習データ管理装置及び学習データ管理方法
KR20190031785A (ko) * 2017-09-18 2019-03-27 삼성전자주식회사 복수의 사용자 각각에 대응하는 개인화 레이어를 이용하여 복수의 사용자 각각의 음성 신호를 인식하는 음성 신호 인식 시스템
KR20190081373A (ko) * 2017-12-29 2019-07-09 (주)제이엘케이인스펙션 인공 신경망에 기반한 단말 장치 및 데이터 처리 방법
KR20190103088A (ko) 2019-08-15 2019-09-04 엘지전자 주식회사 연합학습을 통한 단말의 명함을 인식하는 방법 및 이를 위한 장치

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150324690A1 (en) * 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
US11087234B2 (en) * 2016-01-29 2021-08-10 Verizon Media Inc. Method and system for distributed deep machine learning
WO2019219846A1 (en) * 2018-05-17 2019-11-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concepts for distributed learning of neural networks and/or transmission of parameterization updates therefor
US11593634B2 (en) * 2018-06-19 2023-02-28 Adobe Inc. Asynchronously training machine learning models across client devices for adaptive intelligence

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018057302A1 (en) * 2016-09-26 2018-03-29 Google Llc Communication efficient federated learning
KR20180049786A (ko) * 2016-11-03 2018-05-11 삼성전자주식회사 데이터 인식 모델 구축 장치 및 이의 데이터 인식 모델 구축 방법과, 데이터 인식 장치 및 이의 데이터 인식 방법
WO2018150550A1 (ja) * 2017-02-17 2018-08-23 株式会社日立製作所 学習データ管理装置及び学習データ管理方法
KR20190031785A (ko) * 2017-09-18 2019-03-27 삼성전자주식회사 복수의 사용자 각각에 대응하는 개인화 레이어를 이용하여 복수의 사용자 각각의 음성 신호를 인식하는 음성 신호 인식 시스템
KR20190081373A (ko) * 2017-12-29 2019-07-09 (주)제이엘케이인스펙션 인공 신경망에 기반한 단말 장치 및 데이터 처리 방법
KR20190103088A (ko) 2019-08-15 2019-09-04 엘지전자 주식회사 연합학습을 통한 단말의 명함을 인식하는 방법 및 이를 위한 장치

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230064534A (ko) 2021-11-03 2023-05-10 한국과학기술원 클라이언트의 개별 데이터 맞춤형 연합 학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
KR20230064535A (ko) 2021-11-03 2023-05-10 한국과학기술원 글로벌 모델의 방향성을 따르는 로컬 모델 연합 학습 시스템, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
KR102413116B1 (ko) * 2021-12-02 2022-06-23 세종대학교산학협력단 인공 신경망의 계층 특성에 기반한 연합 학습 방법
KR102485748B1 (ko) * 2022-05-30 2023-01-09 주식회사 어니스트펀드 통계 모델을 위한 연합 학습 방법 및 장치
CN114707430A (zh) * 2022-06-02 2022-07-05 青岛鑫晟汇科技有限公司 一种基于多用户加密的联邦学习可视化系统与方法
KR102517728B1 (ko) * 2022-07-13 2023-04-04 주식회사 애자일소다 연합 학습에 기반한 상품 추천 장치 및 방법
KR102573880B1 (ko) * 2022-07-21 2023-09-06 고려대학교 산학협력단 다중-너비 인공신경망에 기반한 연합 학습 시스템 및 연합 학습 방법
KR20240045837A (ko) 2022-09-30 2024-04-08 한국과학기술원 향상된 표상을 위한 연합 학습 시스템, 클라이언트 장치 및 방법
KR102585904B1 (ko) 2022-12-14 2023-10-06 주식회사 딥노이드 자기 주도 중앙 제어 기반의 인공지능을 이용한 방사선 영상을 판독하기 위한 장치 및 이를 위한 방법

Also Published As

Publication number Publication date
KR102544531B1 (ko) 2023-06-16
WO2021221242A1 (ko) 2021-11-04

Similar Documents

Publication Publication Date Title
KR102544531B1 (ko) 연합 학습 시스템 및 방법
Zhai et al. Toward reinforcement-learning-based service deployment of 5G mobile edge computing with request-aware scheduling
Li et al. Flexible replica placement for enhancing the availability in edge computing environment
Zhang et al. A new task offloading algorithm in edge computing
CN109151030B (zh) 一种物联网物体分布式交互系统、方法
CN113590576A (zh) 数据库参数调整方法、装置、存储介质以及电子设备
CN110753107A (zh) 天基云雾计算架构下的资源调度系统、方法和存储介质
Huang et al. Enabling dnn acceleration with data and model parallelization over ubiquitous end devices
CN115297008B (zh) 基于智算网络的协同训练方法、装置、终端及存储介质
CN111935025B (zh) 一种tcp传输性能的控制方法、装置、设备和介质
Tang et al. Latency-aware task scheduling in software-defined edge and cloud computing with erasure-coded storage systems
Luthra et al. TCEP: Transitions in operator placement to adapt to dynamic network environments
Li et al. Neighborhood search-based job scheduling for IoT big data real-time processing in distributed edge-cloud computing environment
Guo et al. Fast replica recovery and adaptive consistency preservation for edge cloud system
CN113014649B (zh) 一种基于深度学习的云物联负载均衡方法、装置及设备
Yu et al. Efficient computation offloading in edge computing enabled smart home
CN113240100A (zh) 基于离散Hopfield神经网络的并行计算方法及系统
KR102602781B1 (ko) 딥러닝 프레임워크 응용 서비스 모델의 지속적인 통합 및 배포 시스템 및 그 방법
CN113515341A (zh) 一种灵活的分布式ai训练云平台部署方法及相关平台
Naseer et al. Resource discovery in Grids and other distributed environments: States of the art
KR20190093785A (ko) IoT 환경에서의 적응적 머신러닝 수행 방법
Zhou et al. An interactive and reductive graph processing library for edge computing in smart society
KR20230065038A (ko) 쿼리 기반 데이터베이스 연동 딥러닝 분산 시스템 및 그 방법
CN116166370A (zh) 一种基于容器平台的智能推理服务集群化调度方法及系统
Al-Karkhi Task Recovery in Self-Organised Multi-Agent Systems for Distributed Domains

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant