KR20200141835A - 머신 러닝 모델 페더레이션 장치 및 방법 - Google Patents
머신 러닝 모델 페더레이션 장치 및 방법 Download PDFInfo
- Publication number
- KR20200141835A KR20200141835A KR1020190068875A KR20190068875A KR20200141835A KR 20200141835 A KR20200141835 A KR 20200141835A KR 1020190068875 A KR1020190068875 A KR 1020190068875A KR 20190068875 A KR20190068875 A KR 20190068875A KR 20200141835 A KR20200141835 A KR 20200141835A
- Authority
- KR
- South Korea
- Prior art keywords
- model
- local
- federation
- learning
- global
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
분산 환경에서 데이터셋을 학습하는 모델을 생성하는 장치로서, 로컬 데이터셋을 학습한 로컬 모델을 생성하는 모델 생성부, 미리 학습되어 저장된 글로벌 모델을 선택하는 모델 선택부, 그리고 상기 로컬 모델과 상기 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 모델 연합부를 포함하는 학습 모델 생성 장치가 제공된다.
Description
본 기재는 분산 환경에서 머신 러닝 데이터셋을 학습하는 모델을 생성하는 장치 및 방법에 관한 것이다.
분산 환경에서 데이터셋을 학습하는 방법에는 중앙 집중 컴퓨터로 모든 데이터셋을 가져와서 훈련시키고 학습 모델을 생성하는 방법이 있다. 디지털 헬스데이터 분석 환경에서 건강검진과 같은 데이터를 중앙 집중 컴퓨터로 처리하는 경우 빅데이터셋의 송수신 통신 부담이 가중되고 로컬데이터셋을 중앙 집중 컴퓨터로 모으는 행위 자체가 개인정보데이터 보호 관련 법에 저촉될 수 있다.
중앙 집중 컴퓨터를 이용하여 학습 가중치를 전달받아 중앙에서 학습 모델을 생성하는 방법은 로컬 학습컴퓨터가 수천 개가 존재할 경우 중앙 집중 컴퓨터의 모델 생성 부하의 증가로 인하여 중앙 집중 컴퓨터의 확장성을 보장할 수 없는 문제점이 있다. 또한, 중앙 집중 컴퓨터를 이용하여 학습 모델을 생성하는 방법은 로컬데이터셋에 대한 데이터셋의 규모 및 데이터셋의 위치를 알 수 없기 때문에, 중앙 집중 컴퓨터에서 임의의 데이터셋에 편향된 머신 러닝 모델이 생성되는 문제점이 있다. 또한, 중앙 집중 컴퓨터를 이용하여 학습 모델을 생성하는 방법은 로컬 학습컴퓨터에서 생성된 가중치를 중앙 집중 컴퓨터에 전달하기 위해 로컬 학습컴퓨터 간 가중치 전달을 위한 고속 통신이 보장되어야 하고, 데이터셋을 훈련하는 동안 항상 온라인 상태가 지속되어야 하는 문제점이 있다.
한 실시예는 분산 환경에서 머신 러닝 데이터셋을 학습하는 모델을 생성하는 장치를 제공한다.
한 실시예는 분산 환경에서 머신 러닝 데이터셋을 학습하는 모델을 생성하는 방법을 제공한다.
한 실시예에 따르면, 분산 환경에서 데이터셋을 학습하는 모델을 생성하는 장치가 제공된다. 상기 학습 모델 생성 장치는 로컬 데이터셋을 학습한 로컬 모델을 생성하는 모델 생성부, 미리 학습되어 저장된 글로벌 모델을 선택하는 모델 선택부, 그리고 상기 로컬 모델과 상기 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 모델 연합부를 포함한다.
상기 모델 생성부는, 로컬 학습컴퓨터의 로컬 데이터셋으로부터 피쳐(feature)를 추출하고, 상기 피쳐에 따라 상기 로컬 데이터셋을 학습한 로컬 모델을 생성하며, 상기 피쳐를 상기 모델 선택부에게 전달할 수 있다.
상기 모델 선택부는, 상기 피쳐에 기반하여 상기 글로벌 모델을 선택할 수 있다.
상기 모델 연합부는, 상기 로컬 모델과 상기 글로벌 모델을 연합하여 후보 페더레이션 모델을 생성하고, 상기 후보 페더레이션 모델에 대해 성능 평가를 수행하며, 상기 성능 평가의 결과에 기반하여 상기 후보 페더레이션 모델 중 하나의 페더레이션 모델을 선택할 수 있다.
상기 학습 모델 생성 장치는 상기 페더레이션 모델을 서버의 글로벌 영역의 제한 영역에 저장하는 모델 저장부를 더 포함할 수 있다.
상기 서버는 비중앙집중 분산 컴퓨터일 수 있다.
상기 저장부는, 상기 페더레이션 모델을 질병 코드 분류에 따라 상기 제한 영역에 저장할 수 있다.
한 실시예에 따르면, 분산 환경에서 데이터셋을 학습하는 모델을 생성하는 방법이 제공된다. 상기 학습 모델 생성 방법은 로컬 데이터셋을 학습한 로컬 모델을 생성하는 단계, 미리 학습되어 저장된 글로벌 모델을 선택하는 단계, 그리고 상기 로컬 모델과 상기 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 단계를 포함한다.
상기 로컬 모델을 생성하는 단계는, 로컬 학습컴퓨터의 상기 로컬 데이터셋으로부터 피쳐(feature)를 추출하고, 상기 피쳐에 따라 상기 로컬 데이터셋을 학습한 로컬 모델을 생성할 수 있다.
상기 글로벌 모델을 선택하는 단계는, 상기 피쳐에 기반하여 상기 글로벌 모델을 선택할 수 있다.
상기 페더레이션 모델을 생성하는 단계는, 상기 로컬 모델과 상기 글로벌 모델을 연합하여 후보 페더레이션 모델을 생성하는 단계, 상기 후보 페더레이션 모델에 대해 성능 평가를 수행하는 단계, 그리고 상기 성능 평가의 결과에 기반하여 상기 후보 페더레이션 모델 중 하나의 페더레이션 모델을 선택하는 단계를 포함할 수 있다.
상기 학습 모델 생성 방법은 상기 페더레이션 모델을 생성하는 단계 이후, 상기 페더레이션 모델을 서버의 글로벌 영역의 제한 영역에 저장하는 단계를 더 포함할 수 있다.
상기 서버는 비중앙집중 분산 컴퓨터일 수 있다.
상기 저장하는 단계는, 상기 페더레이션 모델을 질병 코드 분류에 따라 상기 제한 영역에 저장할 수 있다.
한 실시예에 따르면, 분산 환경에서 데이터셋을 학습하는 모델을 생성하는 장치가 제공된다. 상기 학습 모델 생성 장치는 프로세서 및 메모리를 포함하고, 상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여, 로컬 데이터셋을 학습한 로컬 모델을 생성하는 단계, 미리 학습되어 저장된 글로벌 모델을 선택하는 단계, 그리고 상기 로컬 모델과 상기 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 단계를 수행한다.
로컬 데이터셋 피쳐와 이미 학습한 글로벌 모델 간의 연관성 분석 및 모델 정확성 평가를 통해 선정된 적합 모델에 대해 모델 페더레이션이 수행되므로, 로컬 데이터셋에 의존하는 편향된 학습을 방지할 수 있고, 최적의 모델 생성으로 학습 모델 성능을 향상시킬 수 있다.
또한, 질병 코드 분류에 따라 비중앙집중 분산 컴퓨터의 제한 영역에 페더레이션 모델을 저장함으로써, 의도적이거나 임의의 로컬 데이터셋에 의해 모델이 편향되는 것을 방지할 수 있다.
또한, 로컬 학습컴퓨터의 데이터셋을 통합 학습하기 위해 중앙 집중 컴퓨터를 통해 데이터셋 수집 및 훈련할 필요가 없고, 로컬 학습컴퓨터에서 생성된 가중치를 중앙 집중 컴퓨터에 전달하기 위한 고속 통신이 필요 없게 된다.
도 1은 한 실시예에 따른 비중앙집중 분산 환경에서 머신 러닝 데이터셋의 학습 모델 페더레이션 구조를 나타내는 도면이다.
도 2는 한 실시예에 따른 학습 모델 생성 장치의 블록도이다.
도 3은 한 실시예에 따른 글로벌 영역과 로컬 영역의 구조를 나타내는 도면이다.
도 4 및 도 5는 한 실시예에 따른 학습 모델 생성 방법의 흐름도이다.
도 6은 한 실시예에 따른 학습 모델 생성 장치를 나타내는 블록도이다.
도 2는 한 실시예에 따른 학습 모델 생성 장치의 블록도이다.
도 3은 한 실시예에 따른 글로벌 영역과 로컬 영역의 구조를 나타내는 도면이다.
도 4 및 도 5는 한 실시예에 따른 학습 모델 생성 방법의 흐름도이다.
도 6은 한 실시예에 따른 학습 모델 생성 장치를 나타내는 블록도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 한 실시예에 따른 비중앙집중 분산 환경에서 머신 러닝 데이터셋의 학습 모델 페더레이션 구조를 나타내는 도면이다.
도 1을 참조하면, 로컬 학습컴퓨터(1, 2, 3)는 로컬 위치에 있고, 로컬 학습컴퓨터(1, 2, 3)에서 로컬 데이터셋(5, 6, 7) 학습이 수행된다. 로컬 학습컴퓨터(1, 2, 3)에 의한 로컬 훈련에서 발생한 로컬 모델(13, 14, 15)은 모델 페더레이션하여 원격 위치에 있는 비중앙집중 분산 컴퓨터(9)에 전달된다. 로컬 학습컴퓨터(1, 2, 3)는 이하에서 설명하는 한 실시예에 따른 학습 모델 생성 장치(200)를 포함할 수 있다.
도 2는 한 실시예에 따른 학습 모델 생성 장치의 블록도이다.
도 1 및 도 2를 참조하면, 한 실시예에 따른 학습 모델 생성 장치(200)는, 모델 생성부(210), 모델 선택부(230), 모델 연합부(240)를 포함한다. 한 실시예에 따른 학습 모델 생성 장치(200)는, 모델 검색부(220), 질병 코드 저장부(250), 모델 저장부(260)를 더 포함할 수 있다.
모델 생성부(210)는 로컬 데이터셋을 학습한 로컬 모델을 생성한다.
모델 생성부(210)는 로컬 학습컴퓨터(1, 2, 3)의 로컬 데이터셋으로부터 피쳐(feature)를 추출하고, 피쳐에 따라 로컬 데이터셋을 학습한 로컬 모델을 생성할 수 있다. 모델 생성부(210)는 피쳐를 모델 선택부(230)에게 전달할 수 있다. 모델 생성부(210)는 한 실시예로서, 글로벌 모델의 피쳐에 따라 로컬 데이터셋을 학습한 로컬 모델을 생성할 수 있다.
모델 선택부(230)는 미리 학습되어 저장된 글로벌 모델을 선택한다.
모델 선택부(230)는 모델 검색부(220)가 검색한 글로벌 모델 중 모델 생성부(210)가 추출한 피쳐에 기반하여 글로벌 모델을 선택할 수 있다. 한 실시예로서, 모델 선택부(230)는 모델 생성부(210)가 추출한 피쳐와 질병 코드 저장부(250)에 저장된 질병 코드에 기반하여 글로벌 모델을 선택할 수 있다.
모델 검색부(220)가 검색한 글로벌 모델은 비중앙집중 분산 컴퓨터(또는 글로벌 모델 서버)(9)의 글로벌 영역의 제한 영역에 저장된 글로벌 모델일 수 있다.
모델 연합부(240)는 로컬 모델과 글로벌 모델을 연합하여 페더레이션 모델을 생성한다. 구체적으로, 모델 연합부(240)는 로컬 모델과 글로벌 모델을 연합하여 후보 페더레이션 모델을 생성하고, 후보 페더레이션 모델에 대해 성능 평가를 수행하며, 성능 평가의 결과에 기반하여 후보 페더레이션 모델 중 하나의 페더레이션 모델을 선택할 수 있다. 페더레이션 모델은 새로운 글로벌 모델이다.
모델 연합부(240)는 한 실시예로서, 민감도(sensiticity), 특이도(specificity)를 사용하는 수신자 동작 특징 커브(Receiver Operating Characteristic curve, ROC), 수신자 동작 특징 커브 아래의 면적(Area Under a ROC curve, AUC)를 사용하여 결과를 예측하는 테스트의 정확도를 평가할 수 있다. 모델 연합부(240)는 후보 페더레이션 모델 각각에 대해 평가를 수행하고, 후보 페더레이션 모델 중 최적의 성능을 나타내는 페더레이션 모델을 최종 페더레이션 모델로서 선택할 수 있다. 모델 연합부(240)는 비중앙집중 분산 컴퓨터(또는 글로벌 모델 서버)(9)의 글로벌 영역의 제한 영역에 저장된 글로벌 모델을, 질병 코드 분류에 따라 최종 페더레이션 모델로 업데이트할 수 있다.
모델 저장부(260)는 통신을 통해 페더레이션 모델을 비중앙집중 분산 컴퓨터(또는 글로벌 모델 서버)(9)의 글로벌 영역의 제한 영역에 저장할 수 있다. 구체적으로, 모델 저장부(260)는 최적의 성능을 나타내는 최종 페더레이션 모델을 질병 코드 저장부(250)에 저장된 디지털 헬스데이터 질병 코드 분류에 따라 제한 영역에 저장할 수 있다. 제한 영역에 저장된 페더레이션 모델은 디지털 헬스데이터 질병 분석을 위해 의료관련 기관별로 공유될 수 있다.
도 3은 한 실시예에 따른 글로벌 영역과 로컬 영역의 구조를 나타내는 도면이다.
도 2 및 도 3을 참조하면, 글로벌 영역(31)에는 미리 학습된 모델이 저장될 수 있고, 로컬 영역(33)에는 훈련을 통해 학습할 데이터셋이 저장될 수 있다. 한 실시예로서, 제한 영역(32, G1, G2, G3)에는 질병 코드 분류에 따라 페더레이션 모델이 저장될 수 있다. 로컬 영역(33)은 글로벌 영역(31)의 로컬 데이터셋 접근을 차단한 영역이다.
비중앙집중 분산 컴퓨터(또는 글로벌 모델 서버)(9)는 글로벌 영역(31)과 제한 영역(32, G1, G2, G3)을 포함할 수 있다. 비중앙집중 분산 컴퓨터(또는 글로벌 모델 서버)(9)에서 글로벌 모델들은 같은 질병 코드를 기준으로 상호 공유될 수 있다. 글로벌 모델은 질병 코드 분류가 동일하면 로컬 데이터셋 분석을 위해 고성능의 페더레이션 모델을 생성하고, 데이터 관측치를 분류할 수 있다.
로컬데이터에 대한 접근을 차단해야 하는 환경에서 로컬 데이터의 속성인 질병 코드 분류 및 데이터 피쳐가 동일하면, 모델은 공유될 수 있다. 페더레이션 모델을 통해 모델을 공유함으로써, 성능이 우수한 모델을 생성할 수 있다. 제한 영역(32, G1, G2, G3)마다 데이터 속성이 전혀 다르기 때문에, 제한 영역(32, G1, G2, G3)에 페더레이션 모델을 저장함으로써, 의도하지 않은 데이터셋에 의해 모델이 생성되는 것을 방지할 수 있다.
도 4 및 도 5는 한 실시예에 따른 학습 모델 생성 방법의 흐름도이다.
도 4 및 도 5를 참조하면, 한 실시예에 따른 학습 모델 생성 방법은, 로컬 데이터셋을 학습한 로컬 모델을 생성하는 단계(S100), 미리 학습되어 저장된 글로벌 모델을 선택하는 단계(S200), 그리고 로컬 모델과 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 단계(S300)를 포함한다.
로컬 모델을 생성하는 단계(S100)는 로컬 학습컴퓨터의 로컬 데이터셋으로부터 피쳐(feature)를 추출하고, 피쳐에 따라 로컬 데이터셋을 학습한 로컬 모델을 생성할 수 있다.
글로벌 모델을 선택하는 단계(S200)는 피쳐를 이용하여 글로벌 모델을 선택할 수 있다.
페더레이션 모델을 생성하는 단계(S300)는 로컬 모델과 글로벌 모델을 연합하여 후보 페더레이션 모델을 생성하는 단계(S310), 후보 페더레이션 모델에 대해 성능 평가를 수행하는 단계(S320), 그리고 성능 평가의 결과에 기반하여 후보 페더레이션 모델 중 하나의 페더레이션 모델을 선택하는 단계(S330)를 포함할 수 있다.
페더레이션 모델을 생성하는 단계(S300) 이후, 페더레이션 모델을 서버의 글로벌 영역의 제한 영역에 저장하는 단계(S340)를 더 포함할 수 있다.
서버는 비중앙집중 분산 컴퓨터일 수 있다.
저장하는 단계(S340)는 페더레이션 모델을 질병 코드 분류에 따라 제한 영역에 저장할 수 있다.
로컬 모델을 생성하는 단계(S100), 글로벌 모델을 선택하는 단계(S200), 페더레이션 모델을 생성하는 단계(S300), 후보 페더레이션 모델을 생성하는 단계(S310), 성능 평가를 수행하는 단계(S320), 및 성능 평가의 결과에 기반하여 후보 페더레이션 모델 중 하나의 페더레이션 모델을 선택하는 단계(S330)는 위에서 설명한 도 2의 모델 생성부(210), 모델 선택부(230), 모델 연합부(240), 모델 검색부(220), 질병 코드 저장부(250), 및 모델 저장부(260)의 동작 내용과 동일하므로, 상세한 설명은 생략한다.
도 6은 한 실시예에 따른 학습 모델 생성 장치를 나타내는 블록도이다.
도 6을 참조하면, 한 실시예에 따른 학습 모델 생성 장치는, 컴퓨터 시스템, 예를 들어 컴퓨터 판독 가능 매체로 구현될 수 있다. 컴퓨터 시스템(600)은, 버스(620)를 통해 통신하는 프로세서(610), 메모리(630), 사용자 인터페이스 입력 장치(660), 사용자 인터페이스 출력 장치(670), 및 저장 장치(680) 중 적어도 하나를 포함할 수 있다. 컴퓨터 시스템(600)은 또한 네트워크에 결합된 네트워크 인터페이스(690)를 포함할 수 있다. 프로세서(610)는 중앙 처리 장치(central processing unit, CPU)이거나, 또는 메모리(630) 또는 저장 장치(680)에 저장된 명령을 실행하는 반도체 장치일 수 있다. 메모리(630) 및 저장 장치(680)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리는 ROM(read only memory)(631) 및 RAM(random access memory)(632)를 포함할 수 있다. 본 기재의 실시예는 컴퓨터에 구현된 방법으로서 구현되거나, 컴퓨터 실행 가능 명령이 저장된 비일시적 컴퓨터 판독 가능 매체로서 구현될 수 있다. 한 실시예에서, 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 명령은 본 기재의 적어도 하나의 양상에 따른 방법을 수행할 수 있다.
한 실시예에 따른 학습 모델 생성 장치는 프로세서(610) 및 메모리(630)를 포함하고, 프로세서(610)는 메모리(630)에 저장된 프로그램을 실행하여, 로컬 데이터셋을 학습한 로컬 모델을 생성하는 단계, 미리 학습되어 저장된 글로벌 모델을 선택하는 단계, 그리고 로컬 모델과 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 단계를 수행한다.
한 실시예에 따른 로컬 데이터셋을 학습한 로컬 모델을 생성하는 단계, 미리 학습되어 저장된 글로벌 모델을 선택하는 단계, 그리고 로컬 모델과 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 단계를 수행하는 것을 통해, 학습 모델 생성 장치의 프로세서(610)의 학습 모델 성능을 향상시킬 수 있다. 페더레이션 모델은 데이터셋을 구성하는 피쳐 의존성과 모델 평가에 따라 결정되고 임의의 또는 의도적으로 특정한 데이터셋에 의존하지 않으므로, 학습 모델 성능을 향상시킬 수 있다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
Claims (15)
- 분산 환경에서 데이터셋을 학습하는 모델을 생성하는 장치로서,
로컬 데이터셋을 학습한 로컬 모델을 생성하는 모델 생성부,
미리 학습되어 저장된 글로벌 모델을 선택하는 모델 선택부, 그리고
상기 로컬 모델과 상기 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 모델 연합부
를 포함하는 학습 모델 생성 장치. - 제1항에서,
상기 모델 생성부는,
로컬 학습컴퓨터의 로컬 데이터셋으로부터 피쳐(feature)를 추출하고, 상기 피쳐에 따라 상기 로컬 데이터셋을 학습한 로컬 모델을 생성하며, 상기 피쳐를 상기 모델 선택부에게 전달하는, 학습 모델 생성 장치. - 제2항에서,
상기 모델 선택부는,
상기 피쳐에 기반하여 상기 글로벌 모델을 선택하는, 학습 모델 생성 장치. - 제1항에서,
상기 모델 연합부는,
상기 로컬 모델과 상기 글로벌 모델을 연합하여 후보 페더레이션 모델을 생성하고, 상기 후보 페더레이션 모델에 대해 성능 평가를 수행하며, 상기 성능 평가의 결과에 기반하여 상기 후보 페더레이션 모델 중 하나의 페더레이션 모델을 선택하는, 학습 모델 생성 장치. - 제1항에서,
상기 페더레이션 모델을 서버의 글로벌 영역의 제한 영역에 저장하는 모델 저장부를 더 포함하는, 학습 모델 생성 장치. - 제5항에서,
상기 서버는 비중앙집중 분산 컴퓨터인, 학습 모델 생성 장치. - 제5항에서,
상기 저장부는,
상기 페더레이션 모델을 질병 코드 분류에 따라 상기 제한 영역에 저장하는, 학습 모델 생성 장치. - 분산 환경에서 데이터셋을 학습하는 모델을 생성하는 방법으로서,
로컬 데이터셋을 학습한 로컬 모델을 생성하는 단계,
미리 학습되어 저장된 글로벌 모델을 선택하는 단계, 그리고
상기 로컬 모델과 상기 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 단계
를 포함하는 학습 모델 생성 방법. - 제8항에서,
상기 로컬 모델을 생성하는 단계는,
로컬 학습컴퓨터의 상기 로컬 데이터셋으로부터 피쳐(feature)를 추출하고, 상기 피쳐에 따라 상기 로컬 데이터셋을 학습한 로컬 모델을 생성하는, 학습 모델 생성 방법. - 제9항에서,
상기 글로벌 모델을 선택하는 단계는,
상기 피쳐에 기반하여 상기 글로벌 모델을 선택하는, 학습 모델 생성 방법. - 제8항에서,
상기 페더레이션 모델을 생성하는 단계는,
상기 로컬 모델과 상기 글로벌 모델을 연합하여 후보 페더레이션 모델을 생성하는 단계,
상기 후보 페더레이션 모델에 대해 성능 평가를 수행하는 단계, 그리고
상기 성능 평가의 결과에 기반하여 상기 후보 페더레이션 모델 중 하나의 페더레이션 모델을 선택하는 단계를 포함하는, 학습 모델 생성 방법. - 제8항에서,
상기 페더레이션 모델을 생성하는 단계 이후,
상기 페더레이션 모델을 서버의 글로벌 영역의 제한 영역에 저장하는 단계를 더 포함하는, 학습 모델 생성 방법. - 제12항에서,
상기 서버는 비중앙집중 분산 컴퓨터인, 학습 모델 생성 방법. - 제12항에서,
상기 저장하는 단계는,
상기 페더레이션 모델을 질병 코드 분류에 따라 상기 제한 영역에 저장하는, 학습 모델 생성 방법. - 분산 환경에서 데이터셋을 학습하는 모델을 생성하는 장치로서,
프로세서 및 메모리를 포함하고,
상기 프로세서는 상기 메모리에 저장된 프로그램을 실행하여,
로컬 데이터셋을 학습한 로컬 모델을 생성하는 단계,
미리 학습되어 저장된 글로벌 모델을 선택하는 단계, 그리고
상기 로컬 모델과 상기 글로벌 모델을 연합하여 페더레이션 모델을 생성하는 단계
를 수행하는, 학습 모델 생성 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190068875A KR20200141835A (ko) | 2019-06-11 | 2019-06-11 | 머신 러닝 모델 페더레이션 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190068875A KR20200141835A (ko) | 2019-06-11 | 2019-06-11 | 머신 러닝 모델 페더레이션 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200141835A true KR20200141835A (ko) | 2020-12-21 |
Family
ID=74090828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190068875A KR20200141835A (ko) | 2019-06-11 | 2019-06-11 | 머신 러닝 모델 페더레이션 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200141835A (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949868A (zh) * | 2021-01-29 | 2021-06-11 | 北京邮电大学 | 一种基于区块链的异步联邦学习方法、装置及电子设备 |
WO2023059042A1 (en) * | 2021-10-08 | 2023-04-13 | Samsung Electronics Co., Ltd. | Method, system and apparatus for image orientation correction |
WO2024089064A1 (en) | 2022-10-25 | 2024-05-02 | Continental Automotive Technologies GmbH | Method and wireless communication system for gnb-ue two side control of artificial intelligence/machine learning model |
-
2019
- 2019-06-11 KR KR1020190068875A patent/KR20200141835A/ko unknown
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112949868A (zh) * | 2021-01-29 | 2021-06-11 | 北京邮电大学 | 一种基于区块链的异步联邦学习方法、装置及电子设备 |
WO2023059042A1 (en) * | 2021-10-08 | 2023-04-13 | Samsung Electronics Co., Ltd. | Method, system and apparatus for image orientation correction |
WO2024089064A1 (en) | 2022-10-25 | 2024-05-02 | Continental Automotive Technologies GmbH | Method and wireless communication system for gnb-ue two side control of artificial intelligence/machine learning model |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11783175B2 (en) | Machine learning model training | |
Fu et al. | Toward efficient multi-keyword fuzzy search over encrypted outsourced data with accuracy improvement | |
Chen et al. | Zero-shot visual question answering using knowledge graph | |
US20240095538A1 (en) | Privacy-preserving graphical model training methods, apparatuses, and devices | |
US20220300715A1 (en) | Method, system, and computer program for artificial intelligence answer | |
Xhemali et al. | Naïve bayes vs. decision trees vs. neural networks in the classification of training web pages | |
KR20200141835A (ko) | 머신 러닝 모델 페더레이션 장치 및 방법 | |
US20190171422A1 (en) | Synthesized programming-by-example programs | |
Picard et al. | An application of swarm intelligence to distributed image retrieval | |
CN101398810A (zh) | 自适应服务选择设备及其方法,查询系统及其方法 | |
JP6924571B2 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
Wang et al. | Discover community leader in social network with PageRank | |
US20220027793A1 (en) | Dedicated artificial intelligence system | |
US7970784B2 (en) | Multi-lingual information display in a single language portal | |
Ju et al. | Path planning using a hybrid evolutionary algorithm based on tree structure encoding | |
KR20220009646A (ko) | 인식 모델 성향 분석 기반 연합 학습 추천 장치 및 방법, 사용자 단말에서의 연합 학습 방법 | |
JP6230987B2 (ja) | 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 | |
CN117009539A (zh) | 知识图谱的实体对齐方法、装置、设备及存储介质 | |
Fong et al. | Gesture recognition from data streams of human motion sensor using accelerated PSO swarm search feature selection algorithm | |
CN112699276A (zh) | 用于数据映射的方法、装置和系统 | |
JP5518757B2 (ja) | 文書分類学習制御装置、文書分類装置およびコンピュータプログラム | |
Dash et al. | Discovering interesting rules from biological data using parallel genetic algorithm | |
CN115529350B (zh) | 参数优化方法、装置、电子设备和可读存储介质 | |
US9792561B2 (en) | Learning method, information conversion device, and recording medium | |
Singh | Development of optimization methods to deal with current challenges in engineering design optimization |