KR20210090123A - 분산형 모델 트레이닝 방법, 관련 장치 및 컴퓨터 프로그램 - Google Patents

분산형 모델 트레이닝 방법, 관련 장치 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR20210090123A
KR20210090123A KR1020210084641A KR20210084641A KR20210090123A KR 20210090123 A KR20210090123 A KR 20210090123A KR 1020210084641 A KR1020210084641 A KR 1020210084641A KR 20210084641 A KR20210084641 A KR 20210084641A KR 20210090123 A KR20210090123 A KR 20210090123A
Authority
KR
South Korea
Prior art keywords
distributed
parameter
trainer
training
server
Prior art date
Application number
KR1020210084641A
Other languages
English (en)
Inventor
신수안 우
수에펑 야오
디안하이 위
지화 우
얀준 마
티안 우
하이펑 왕
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210090123A publication Critical patent/KR20210090123A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 분산형 모델 트레이닝 방법, 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램을 공개하고, 딥러닝 기술분야에 관한 것이다. 상기 방법의 일 구체적 실시형태는, 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득하는 단계; 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하는 단계; 및 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행하는 단계를 포함한다. 상기 실시형태는 분산형 모델 트레이닝 방법을 제공하여, 모델의 트레이닝 속도를 향상시킨다.

Description

분산형 모델 트레이닝 방법, 관련 장치 및 컴퓨터 프로그램{DISTRIBUTED MODEL TRAINING METHODS, RELATED DEVICES AND COMPUTER PROGRAM}
본 발명은 컴퓨터 기술의 기술분야에 관한 것이고, 구체적으로 딥러닝 기술분야에 관한 것이며, 특히 분산형 모델 트레이닝 방법, 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램에 관한 것이다.
빅데이터 열풍과 딥러닝 기술의 급속한 발전에 따라 딥러닝에 관한 데이터 규모와 모델 규모는 놀라울 정도로 성장하였다. 빅데이터 + 대형 모델의 이중 과제는 독립형 트레이닝으로 감당할 수 없으며, 비즈니스 요구를 충족시키려면 데이터 병렬 분산형 트레이닝 모드를 사용해야만 한다. 현재, 일반적으로 비집중화 분산형 트레이닝 모드 및 집중화 분산형 트레이닝 모드를 사용한다.
본 발명의 실시예는 분산형 모델 트레이닝 방법, 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램을 제공한다.
제1 양태에 따르면, 본 발명은 분산형 모델 트레이닝 방법을 제공하고, 이는, 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득하는 단계; 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하되, 분산형 내장 파라미터 서버는 분산형 제2 트레이너에 설치되어 있고, 타깃 파라미터는 초기 모델의 부분적 파라미터인 단계; 및 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행하는 단계를 포함한다.
제2 양태에 따르면, 본 발명은 분산형 모델 트레이닝 장치를 제공하고, 이는, 트레이닝 유닛, 타깃 파라미터 업데이트 유닛 및 파라미터 인터랙션 유닛을 포함하며, 트레이닝 유닛은 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득하도록 구성되고; 타깃 파라미터 업데이트 유닛은 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하도록 구성되며, 여기서, 분산형 내장 파라미터 서버는 분산형 제2 트레이너에 설치되어 있고, 타깃 파라미터는 초기 모델의 부분적 파라미터이며; 파라미터 인터랙션 유닛은 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행하도록 구성된다.
제3 양태에 따르면, 전자 기기를 제공하고, 이는, 적어도 하나의 프로세서; 및 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하며; 여기서, 메모리에 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되고, 명령은 적어도 하나의 프로세서에 의해 실행되어, 적어도 하나의 프로세서가 상기 제1 양태 중 어느 하나에 따른 방법을 구현하도록 한다.
제4 양태에 따르면, 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장 매체를 제공하고, 컴퓨터 명령은 컴퓨터가 상기 제1 양태 중 어느 하나에 따른 방법을 구현하도록 사용된다.
제5 양태에 따르면, 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램을 제공하고, 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 상기 제1 양태 중 어느 하나에 따른 방법을 구현한다.
본 발명의 실시예가 제공한 분산형 모델 트레이닝 방법, 장치, 전자 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램은, 먼저, 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득하고; 다음, 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하며, 여기서, 분산형 내장 파라미터 서버는 분산형 제2 트레이너에 설치되어 있고, 타깃 파라미터는 초기 모델의 부분적 파라미터이며; 마지막으로, 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행한다.
본 발명은 분산형 모델 트레이닝 방법을 제공하고, 이종의 분산형 제1 트레이너와 분산형 제2 트레이너, 및 분산형 제2 트레이너에 설치된 분산형 내장 파라미터 서버에 기반하여, 모델의 트레이닝 속도를 향상시킨다.
이 부분에서 설명되는 내용은 본 발명의 실시예의 핵심 또는 중요한 특징을 식별하기 위한 것이 아니며 본 발명의 범위를 한정하기 위한 것도 아님을 이해해야 한다. 본 발명의 다른 특징은 이하 명세서를 통해 쉽게 이해될 것이다.
아래 첨부 도면에 도시된 비제한적인 실시예의 상세한 설명에 대한 열독 및 참조를 통해 본 발명의 다른 특징, 목적 및 장점이 보다 명백해질 것이다.
도 1은 본 발명의 일 실시예가 적용될 수 있는 예시적 시스템 아키텍처이다.
도 2는 본 발명에 따른 분산형 모델 트레이닝 방법의 일 실시예의 흐름도이다.
도 3은 본 발명에 따른 분산형 모델 트레이닝 방법의 일 응용 장면의 모식도이다.
도 4는 본 발명에 따른 분산형 모델 트레이닝 방법의 다른 일 실시예의 흐름도이다.
도 5는 본 발명에 따른 분산형 모델 트레이닝 장치가 협동한 일 실시예의 흐름도이다.
도 6은 본 발명의 실시예를 구현하기 위한 전자 기기/단말 기기 또는 서버의 컴퓨터 시스템에 적용되는 구조 모식도이다.
아래 도면을 참조하여 본 발명의 예시적 실시예를 설명하되, 여기에 이해를 돕기 위한 본 발명의 실시예의 다양한 세부사항들이 포함되지만, 이들은 단지 예시적인 것으로 이해해야 한다. 따라서, 본 기술분야의 통상의 기술자는 본 발명의 범위 및 정신을 벗어나지 않는 전제 하에 여기서 설명된 실시예에 대해 다양한 변형 및 수정을 진행할 수 있음을 이해해야 한다. 마찬가지로, 명확하고 간략한 설명을 위해, 아래의 설명에서 공지된 기술 및 구조에 대한 설명을 생략한다. 모순되지 않는 한 본 발명의 실시예 및 실시예의 특징은 서로 조합될 수 있음을 유의해야 한다.
도 1은 본 발명의 분산형 모델 트레이닝 방법, 장치, 전자 기기 및 컴퓨터 판독 가능 저장 매체의 실시예를 구현할 수 있는 예시적 시스템 아키텍처(100)이다.
도 1에 도시된 바와 같이, 시스템 아키텍처(100)는 단말 기기(101, 102, 103), 네트워크(104) 및 서버(105)를 포함할 수 있다. 네트워크(104)는 단말 기기(101, 102, 103)와 서버(105) 사이에서 통신 링크의 매체를 제공한다. 네트워크(104)는 다양한 연결 타입을 포함할 수 있는 바, 예를 들면 유선, 무선 통신 링크 또는 광섬유 케이블 등이다.
단말 기기(101, 102, 103)는 네트워크 연결을 지원하여 정보 인터랙션 및 데이터 처리를 진행하는 하드웨어 기기 또는 소프트웨어일 수 있다. 단말 기기(101, 102, 103)가 하드웨어인 경우 네트워크 연결, 정보 인터랙션, 디스플레이, 처리 등 기능을 지원하는 다양한 전자 기기일 수 있으며, 스마트폰, 태블릿 PC, 온보드 컴퓨터, 휴대형 랩톱 및 데스크 톱 등을 포함하지만 이에 한정되지 않는다. 단말 기기(101, 102, 103)가 소프트웨어인 경우, 상기 열거된 전자 기기에 설치될 수 있다. 이는 예를 들어 분산형 서비스를 제공하기 위한 다수의 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있거나, 하나의 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있으며, 여기서는 구체적으로 한정하지 않는다.
서버(105)는 다양한 서비스를 제공하는 서버일 수 있고, 예를 들면 단말 기기(101, 102, 103)가 산출하여 얻은 구배 정보를 획득하여 모델 파라미터 업데이트를 진행하는 백그라운드 처리 서버일 수 있다. 예시로서, 서버(105)는 클라우드 서버일 수 있다.
설명해야 할 것은, 서버는 하드웨어일 수 있고, 소프트웨어일 수도 있다. 서버가 하드웨어인 경우, 다수의 서버로 구성된 분산형 서버 클러스터로 구현될 수 있고, 하나의 서버로 구현될 수도 있다. 서버가 소프트웨어인 경우, 다수의 소프트웨어 또는 소프트웨어 모듈(예를 들면 분산형 서비스를 제공하기 위한 소프트웨어 또는 소프트웨어 모듈)로 구현될 수 있거나, 하나의 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있으며, 여기서는 구체적으로 한정하지 않는다.
더 설명해야 할 것은, 본 발명의 실시예에서 제공되는 분산형 모델 트레이닝 방법은 서버에 의해 수행될 수 있고, 단말 기기에 의해 수행될 수도 있으며, 또한 서버와 단말 기기가 서로 결합되어 수행될 수도 있다. 상응하게, 분산형 모델 트레이닝 장치에 포함되는 각각의 부분(예를 들면 각각의 유닛, 각각의 모듈)은 서버에 모두 설치될 수 있고, 단말 기기에 모두 설치될 수도 있으며, 또한 서버와 단말 기기에 각각 설치될 수도 있다.
이해해야 할 것은, 도 1 중의 단말 기기, 네트워크 및 서버의 개수는 예시적인 것일 뿐이다. 실제 필요에 따라 임의의 개수의 단말 기기, 네트워크 및 서버를 구비할 수 있다. 분산형 모델 트레이닝 방법이 수행되는 상기 전자 기기가 다른 전자 기기와 데이터를 전송할 필요가 없는 경우, 상기 시스템 아키텍처는 분산형 모델 트레이닝 방법이 수행되는 상기 전자 기기(예를 들면 서버 또는 단말 기기)만 포함할 수 있다.
계속하여 도 2를 참조하면, 분산형 모델 트레이닝 방법의 일 실시예의 흐름(200)을 도시하고, 아래와 같은 단계를 포함한다.
단계(201)에서, 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득한다.
본 실시예에서, 모델 트레이닝 방법의 수행 주체(예를 들면 도 1 중의 서버)는 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득한다. 여기서, 각 트레이닝 샘플의 배치의 개수는 실제 상황에 기반하여 구체적으로 설정될 수 있다. 예를 들면, 각 트레이닝 샘플의 배치의 개수는 32개이다.
모델 트레이닝 방법이 트레이닝한 모델은 다양한 딥러닝 모델일 수 있고, 콘볼루션 신경망 모델, 순환 신경망 모델, 잔차 네트워크 모델, 적대적 네트워크 모델을 포함하지만 이에 한정되지 않는다. 일반적으로, 상기 수행 주체는 분산형 제2 트레이너를 통해 순전파 산출 과정을 거쳐 손실(Loss)을 획득할 수 있고; 분산형 제2 트레이너를 통해 역전파 산출 과정을 거쳐 구배(Grad) 정보를 획득할 수 있다.
본 실시예에서, 모델 트레이닝 방법에 사용되는 모델 트레이닝 시스템에는 분산형 제1 트레이너, 분산형 제2 트레이너 및 분산형 파라미터 서버가 포함된다. 여기서, 단계(201)에서, 분산형 제1 트레이너는 주로 트레이닝 샘플을 획득하고, 트레이닝 샘플을 대응되는 분산형 제2 트레이너에 전송하기 위해 사용되고; 분산형 제2 트레이너는 주로 트레이닝 샘플에 따라 초기 모델의 트레이닝 과정을 거쳐, 구배 정보를 획득한다.
분산형 제1 트레이너, 분산형 제2 트레이너 및 분산형 파라미터 서버는 빅데이터 규모와 대형 모델 규모의 네트워크 모델의 트레이닝에 적용되기 위해 다수를 포함할 수 있다. 예를 들면, 분산형 제1 트레이너에는 다수의 제1 트레이너가 포함된다.
본 실시예 중의 분산형 제1 트레이너 및 분산형 제2 트레이너는 이종 기기에서 작동되는 트레이너일 수 있음을 이해할 수 있다. 즉, 다른 트레이너가 다른 기기를 사용한다. 예시로서, 분산형 제1 트레이너는 CPU(Central Processing Unit, 중앙 처리 장치) 기반 전자 기기일 수 있고, 분산형 제1 트레이너가 데이터 입력 및 출력 측면에서 더 나은 성능을 구비하도록 하며; 분산형 제2 트레이너는 GPU(Graphics Processing Unit, 그래픽 처리 장치), AI(Artificial Intelligence, 인공 지능) 칩 기반 전자 기기일 수 있고, 분산형 제2 트레이너가 데이터 처리, 산출 측면에서 더 나은 성능을 구비하도록 한다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 분산형 제2 트레이너 중의 각 트레이너는 이종 기기를 사용한다. 예시로서, 분산형 제2 트레이너 중의 각 트레이너는 GPU 기반 GPU 트레이너, NPU 기반 NPU(Neural network Processing Unit, 신경망 프로세싱 유닛) 트레이너, Kunlun 칩(바이두 인공 지능 칩) 기반 Kunlunzi 트레이너를 포함할 수 있다. 본 실시형태에서, 분산형 제2 트레이너 중의 각 트레이너의 성능과 이에 속하는 트레이닝 흐름을 적당히 배합하여, 트레이너의 이용률과 모델의 트레이닝 속도를 향상시킬 수 있다.
단계(202)에서, 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트한다.
본 실시예에서, 상기 수행 주체는 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트한다. 여기서, 분산형 내장 파라미터 서버는 분산형 제2 트레이너에 설치되어 있고, 타깃 파라미터는 초기 모델의 부분적 파라미터이다.
예시로서, 분산형 제2 트레이너 중의 각각의 제2 트레이너의 비디오 메모리에 하나의 분산형 내장 파라미터 서버 중의 하나의 내장 파라미터 서버가 구비되어 있다. 타깃 파라미터에 대해, 상기 수행 주체는 각 트레이닝 샘플 배치를 단위로 할 수 있고, 상기 트레이닝 샘플 배치가 획득한 구배 정보에 기반하여, 분산형 내장 파라미터 서버를 통해 타깃 파라미터의 업데이트를 진행한다.
일반적으로, 네트워크모델의 파라미터는 sparse(희소) 파라미터 및 dense(밀집) 파라미터를 포함한다. 대규모 파라미터의 네트워크 모델에 대해, 희소 파라미터의 데이터 규모는 밀집 파라미터의 데이터 규모보다 훨씬 크다. 본 실시예의 타깃 파라미터 모든 밀집 파라미터와 부분적인 희소 파라미터를 포함할 수 있다. 구배 정보를 통해, 상기 수행 주체는 타깃 파라미터 중 모든 밀집 파라미터와 부분적의 희소 파라미터에 대해 파라미터 업데이트를 진행할 수 있다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 상기 수행 주체는 타깃 파라미터 중의 dense(밀집) 파라미터에 대해, 집단적 통신 방식을 통해, 분산형 제2 트레이너 중의 각 제2 트레이너 사이의 파라미터 업데이트를 진행할 수 있다. 여기서, 집단적 통신 방식은 Reduce, AllReduce와 같은 통신 방식일 수 있다. 구체적으로, 타깃 파라미터 중의 밀집 파라미터에 대해, 상기 수행 주체는 각 트레이닝 샘플의 배치를 단위로 할 수 있고, 집단적 통신 방식을 통해, 분산형 제2 트레이너 사이의 밀집 파라미터에 관련된 업데이트를 진행할 수 있다. 집단적 통신 방식을 사용하여 밀집 파라미터의 업데이트를 진행함으로써, 분산형 제2 트레이너의 뛰어난 통신 능력을 충분히 활용하고, 통신 효율을 향상시키며, 모델의 트레이닝 속도를 향상시킨다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 상기 수행 주체는 타깃 파라미터 중의 희소 파라미터에 대해, 원격 프로시저 호출 방식을 통해, 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행할 수 있다.
구체적으로, 타깃 파라미터 중의 부분적 희소 파라미터에 대해, 상기 수행 주체는 각 트레이닝 샘플의 배치를 단위로 할 수 있고, 획득한 구배 정보를 분산형 내장 파라미터 서버에 전송하며, RPC(Remote Procedure Call, 원격 프로시저 호출) 방식을 통해, 분산형 내장 파라미터 서버는 파라미터 업데이트를 진행하고, 업데이트된 희소 파라미터는 분산형 제2 트레이너에 피드백된다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 상기 수행 주체는 상기 두 가지 통신 방식을 결합하여, 타깃 파라미터 중의 밀집 파라미터에 대해, 집단적 통신 방식을 통해, 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행할 수 있고; 타깃 파라미터 중의 희소 파라미터에 대해, 원격 프로시저 호출 방식을 통해, 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행할 수 있다.
본 실시형태에서, 밀집 파라미터와 희소 파라미터는 다른 통신 방식을 사용하여 파라미터 업데이트를 진행할 수 있고, 파라미터 업데이트 과정 중 통신의 유연성을 향상시킨다.
단계(203)에서, 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행한다.
본 실시예에서, 상기 수행 주체는 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행한다.
본 실시예에서, 상기 수행 주체는 기설정 개수의 트레이닝 샘플을 단위로 하고, 초기 모델 트레이닝이 완료될 때까지 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 수차례 파라미터 인터랙션을 진행한다. 이해할 수 있는 것은, 기설정 개수의 트레이닝 샘플은 타깃 파라미터의 업데이트를 위해 초기 모델을 트레이닝하는데 사용된다. 여기서, 파라미터 인터랙션은, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버 중 업데이트된 타깃 파라미터를 분산형 파라미터 서버에 전송하여, 분산형 파라미터 서버 중 초기 모델의 파라미터 업데이트를 진행하는 동작; 및 분산형 제1 트레이너를 통해, 분산형 파라미터 서버에서 새로운 타깃 파라미터를 획득하고, 새로운 타깃 파라미터를 분산형 내장 파라미터 서버에 로딩하는 동작을 포함한다. 단계(203)에서, 분산형 제1 트레이너는 단계(201)에서 트레이닝 샘플을 획득하는 기능 외에, 파라미터 인터랙션의 기능을 구비하는 것을 알 수 있다.
구체적으로, 상기 수행 주체는 초기 모델 트레이닝이 완료될 때까지 하기와 같은 파라미터 업데이트 동작을 수행한다.
먼저, 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버 중 업데이트된 타깃 파라미터를 분산형 파라미터 서버에 전송하여, 분산형 파라미터 서버 중 초기 모델의 파라미터 업데이트를 진행한다.
다음, 분산형 제1 트레이너를 통해 분산형 파라미터 서버에서 분산형 내장 파라미터 서버가 다음 파라미터 업데이트 동작을 위한 타깃 파라미터를 획득한다.
본 실시형태에서, 기설정 개수의 트레이닝 샘플이 트레이닝을 거칠 때마다, 상기 수행 주체는 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 수행한다. 기설정 개수의 트레이닝 샘플의 트레이닝 과정에서, 상기 수행 주체는 분산형 내장 파라미터 서버를 통해 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행함으로써, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이에서 파라미터 업데이트를 진행하는 인터랙션 빈도를 감소시킨다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 각 트레이너 사이는 메시지 큐의 방식을 통해 정보 인터랙션을 진행한다. 분산형 제1 트레이너 및 분산형 제2 트레이너에는 각각 대응되는 메시지 큐가 구비되어 있다. 상기 수행 주체는 분산형 제1 트레이너 또는 분산형 제2 트레이너에 대해, 상기 트레이너가 대응되는 메시지 큐에 기반하여, 다른 트레이너와 정보 인터랙션을 진행한다. 메시지 큐를 통해 다른 트레이너 사이의 비동기 처리 메커니즘을 구현하여, 정보 처리 효율을 향상시킨다.
본 실시예에서, 초기 모델 트레이닝의 완료에 응답하여, 트레이닝된 타깃 모델을 획득한다. 입력 데이터를 미리 트레이닝된 타깃 모델에 입력하여, 대응되는 출력 데이터를 획득할 수 있다. 예시로서, 트레이닝된 타깃 모델이 안면 인식을 위한 모델인 경우, 안면 객체를 포함하는 이미지를 미리 트레이닝된 타깃 모델에 입력하여, 대응되는 안면 인식 결과를 획득하고; 트레이닝된 타깃 모델이 이미지 분류를 위한 모델인 경우, 입력 이미지를 미리 트레이닝된 타깃 모델에 입력하여, 대응되는 이미지 분류 결과를 획득하며; 트레이닝된 타깃 모델이 음성 인식을 위한 모델인 경우, 음성 데이터를 미리 트레이닝된 타깃 모델에 입력하여, 대응되는 음성 인식 결과를 획득한다.
계속하여 도 3을 참조하면, 도 3은 본 실시예에 따른 모델 트레이닝 방법의 응용 장면의 일 모식도이다. 도 3의 응용 장면에서, 초기 모델은 이미지 분류를 위한 딥러닝 모델이다. 분산형 제1 트레이너(301) 중의 트레이너는 트레이너(3011), 트레이너(3012), 트레이너(3013)를 포함하고 분산형 제2 트레이너(302) 중의 트레이너는 트레이너(3021), 트레이너(3022)를 포함하며 분산형 파라미터 서버(303) 중의 파라미터 서버는 파라미터 서버(3031), 파라미터 서버(3032)를 포함한다. 분산형 내장 파라미터 서버(304) 중의 내장 파라미터 서버는 내장 파라미터 서버(3041), 내장 파라미터 서버(3042)를 포함한다. 여기서, 내장 파라미터 서버(3041)는 분산형 제2 트레이너(302) 중의 트레이너(3021)에 설치되어 있고, 내장 파라미터 서버(3042)는 분산형 제2 트레이너(302) 중의 트레이너(3022)에 설치되어 있다. 분산형 제1 트레이너(301)가 획득한 각 트레이닝 샘플의 배치에 대해, 분산형 제2 트레이너(302)를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득하고; 구배 정보에 따라, 분산형 내장 파라미터 서버(304) 중의 타깃 파라미터를 업데이트한다. 여기서, 타깃 파라미터는 초기 모델의 부분적 파라미터이다. 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너(301)를 통해 분산형 내장 파라미터 서버(304)와 분산형 파라미터 서버(303) 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행한다.
본 실시예에서, 분산형 모델 트레이닝 방법을 제공하고, 이종의 분산형 제1 트레이너와 분산형 제2 트레이너 및 분산형 제2 트레이너에 설치된 분산형 내장 파라미터 서버에 기반하여, 모델의 트레이닝 속도를 향상시킨다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 상기 수행 주체는 모델 트레이닝 과정에서, 부하 균형 전략에 기반하여, 각 트레이너 사이의 컴퓨팅 파워를 조정하여, 각 트레이너의 컴퓨팅 파워가 서로 매칭되도록 한다.
여기서, 컴퓨팅 파워의 매칭은 각 트레이너 사이의 부하 상태 매칭을 특성화하기 위한 것이다. 이로써, 각 트레이너 사이가 최대 부하 상태에 있도록 하여, 각 트레이너 사이의 최적의 작동 상태를 달성하고, 각 트레이너 중 유휴 상태의 트레이너가 존재하는 것을 방지하며, 모델 트레이닝 속도와 트레이너의 이용률을 향상시킨다.
계속하여 도 4를 참조하면, 본 발명에 따른 모델 트레이닝 방법의 다른 일 실시예의 예시적 흐름(400)을 도시하고, 아래와 같은 단계를 포함한다.
단계(401)에서, 데이터 서버를 통해 분산형 파일 시스템에서 트레이닝 샘플 집합을 획득한다.
본 실시예에서, 분산형 모델 트레이닝 방법(예를 들면 도 1 중의 서버)은 데이터 서버를 통해 분산형 파일 시스템에서 트레이닝 샘플 집합을 획득한다.
여기서, 분산형 파일 시스템은 HDFS(Hadoop Distributed File System, Hadoop 분산형 파일 시스템)일 수 있다. 데이터 서버는 분산형 파일 시스템에서 트레이닝 샘플 집합을 미리 획득하여, 분산형 제1 트레이너가 직접 분산형 파일 시스템에서 트레이닝 샘플 집합을 획득하는 것을 방지하고, 트레이닝 샘플의 획득 속도를 향상시키며, 모델의 트레이닝 속도를 향상시킨다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 데이터 서버는 외부 장치 방식으로 설치된다. 상기 수행 주체는 또한 트레이닝 샘플 집합의 데이터 규모에 따라, 데이터 서버 중의 중앙 처리 장치의 장치 개수를 조정할 수 있다. 본 실시형태에서, 데이터 서버 중의 중앙 처리 장치는 데이터의 획득에만 사용되고, 다른 기능을 구비하지 않으며, 데이터 서버 중의 중앙 처리 장치의 장치 개수를 유연하게 설정하여, 트레이닝 샘플을 획득하는 속도를 조정하고, 모델 트레이닝의 유연성을 향상시킨다.
단계(402)에서, 분산형 제1 트레이너를 통해 데이터 서버에서 각 트레이닝 샘플 배치를 획득한다.
본 실시예에서, 데이터 서버는 분산형 제1 트레이너와 분산형 파일 시스템 사이의 캐시 장치로 간주될 수 있음을 이해할 수 있다. 트레이닝 과정에서, 분산형 제1 트레이너는 데이터 서버에서 로컬로 트레이닝 데이터를 지속적으로 가져옴으로써, 분산형 제1 트레이너가 메모리 부족으로 인해, 지속적으로 분산형 파일 시스템 클러스터에서 데이터를 직접 판독하여 판독 속도가 느려지는 문제를 해결한다.
본 실시예에서, 상기 수행 주체는 분산형 제1 트레이너를 통해 데이터 서버에서 각 트레이닝 샘플 배치를 획득한다.
단계(403)에서, 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득한다.
단계(404)에서, 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트한다.
단계(405)에서, 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행한다.
본 실시예에서, 단계(403) 내지 단계(405)는 단계(201) 내지 단계(203)를 참조하여 수행될 수 있고 여기서 더이상 반복하여 설명하지 않는다.
본 실시예에서, 도 4에 도시된 바와 같이, 도 2의 대응되는 실시예와 비교하면, 본 실시예 중의 모델 트레이닝 방법의 흐름(400)은 분산형 제1 트레이너가 데이터 서버에서 트레이닝 샘플을 획득한다는 것을 더 뚜렷하게 설명한다. 이로써, 본 실시예는 트레이닝 샘플의 판독 속도를 향상시키고, 나아가 모델 트레이닝의 속도를 향상시킨다.
또한 도 5를 참조하면, 상기 도 2에 도시된 방법의 구현으로서, 본 발명은 모델 트레이닝 장치의 일 실시예를 제공하고, 상기 장치 실시예는 도 2에 도시된 방법 실시예에 대응되며, 아래에서 기재된 특징 외에, 상기 장치 실시예는 도 2에 도시된 방법 실시예와 동일하거나 상응한 특징, 및 도 2에 도시된 방법 실시예에서 발생되는 동일하거나 상응한 효과를 더 포함할 수 있다. 상기 장치는 구체적으로 다양한 전자 기기에 적용될 수 있다.
도 5에 도시된 바와 같이, 본 실시예의 분산형 모델 트레이닝 장치는, 트레이닝 유닛(501), 타깃 파라미터 업데이트 유닛(502) 및 파라미터 인터랙션 유닛(503)을 포함한다. 트레이닝 유닛(501)은 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득하도록 구성되고; 타깃 파라미터 업데이트 유닛(502)은 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하도록 구성되며, 여기서, 분산형 내장 파라미터 서버는 분산형 제2 트레이너에 설치되어 있고, 타깃 파라미터는 초기 모델의 부분적 파라미터이며; 파라미터 인터랙션 유닛(503)은 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 초기 모델 트레이닝이 완료될 때까지 초기 모델의 파라미터 업데이트를 진행하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 파라미터 인터랙션 유닛(503)은 또한, 초기 모델 트레이닝이 완료될 때까지 하기와 같은 파라미터 업데이트 동작을 수행하되, 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 분산형 제1 트레이너를 통해 분산형 내장 파라미터 서버 중 업데이트된 타깃 파라미터를 분산형 파라미터 서버에 전송하여, 분산형 파라미터 서버 중 초기 모델의 파라미터 업데이트를 진행하는 동작; 및 분산형 제1 트레이너를 통해 분산형 파라미터 서버에서 분산형 내장 파라미터 서버가 다음 파라미터 업데이트 동작을 위한 타깃 파라미터를 획득하는 동작을 수행하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 타깃 파라미터 업데이트 유닛(502)은 또한, 타깃 파라미터 중의 밀집 파라미터에 대해, 집단적 통신 방식을 통해, 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 타깃 파라미터 업데이트 유닛(502)은 또한, 타깃 파라미터 중의 희소 파라미터에 대해, 원격 프로시저 호출 방식을 통해, 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 타깃 파라미터 업데이트 유닛(502)은 또한, 타깃 파라미터 중의 밀집 파라미터에 대해, 집단적 통신 방식을 통해, 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하고; 타깃 파라미터 중의 희소 파라미터에 대해, 원격 프로시저 호출 방식을 통해, 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 상기 장치는, 데이터 서버를 통해 분산형 파일 시스템에서 트레이닝 샘플 집합을 획득하고; 분산형 제1 트레이너를 통해 데이터 서버에서 각 트레이닝 샘플 배치를 획득하도록 구성되는 획득 유닛(미도시)을 더 포함한다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 데이터 서버는 외부 장치 방식으로 설치되고; 장치는, 트레이닝 샘플 집합의 데이터 규모에 따라, 데이터 서버 중의 중앙 처리 장치의 장치 개수를 조정하도록 구성되는 제1 조정 유닛(미도시)을 더 포함한다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 각 트레이너 사이는 메시지 큐의 방식을 통해 정보 인터랙션을 진행한다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 상기 장치는, 모델 트레이닝 과정에서, 부하 균형 전략에 기반하여, 각 트레이너 사이의 컴퓨팅 파워를 조정하여, 각 트레이너의 컴퓨팅 파워가 서로 매칭되도록 구성되는 제2 조정 유닛(미도시)을 더 포함한다.
본 실시예는 분산형 모델 트레이닝 방법을 제공하고, 이종의 분산형 제1 트레이너와 분산형 제2 트레이너 및 분산형 제2 트레이너에 설치된 분산형 내장 파라미터 서버에 기반하여, 모델의 트레이닝 속도를 향상시킨다.
본 발명의 실시예에 따르면, 본 발명은 전자 기기, 판독 가능 저장 매체 및 컴퓨터 프로그램을 더 제공한다.
도 6은 본 발명의 실시예를 구현하기 위한 예시적 전자 기기(600)의 예시적 블록도를 도시한다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본문에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본문에서 설명 및/또는 요구된 본 발명의 구현을 한정하지 않는다.
도 6에 도시된 바와 같이, 기기(600)는 산출 유닛(601)을 포함하고, 이는 판독 전용 메모리(ROM)(602)에 저장된 컴퓨터 프로그램 또는 저장 유닛(608)으로부터 랜덤 액세스 메모리(RAM)(603)에 로딩된 컴퓨터 프로그램에 따라, 다양하고 적절한 동작 및 처리를 실행할 수 있다. RAM(603)에는 기기(600)의 작동에 필요한 다양한 프로그램 및 데이터가 더 저장될 수 있다. 산출 유닛(601), ROM(602) 및 RAM(603)은 버스(604)를 통해 서로 연결될 수 있다. 입력/출력(I/O) 인터페이스(605)도 버스(604)에 연결된다.
기기(600) 중의 다수의 부재가 I/O 인터페이스(605)에 연결되는 바, 이는 키보드, 마우스와 같은 입력 유닛(606); 다양한 타입의 디스플레이, 스피커와 같은 출력 유닛(607); 디스크, CD와 같은 저장 유닛(608); 및 PC 카드, 모뎀, 무선 통신 트랜시버와 같은 통신 유닛(609)을 포함한다. 통신 유닛(609)은 기기(600)가 인터넷과 같은 컴퓨터 네트워크 및/또는 다양한 통신 네트워크를 통해 다른 기기와 정보/데이터를 교환할 수 있도록 한다.
산출 유닛(601)은 처리 및 산출 능력을 구비한 다양한 범용 및/또는 전용 처리 컴포넌트일 수 있다. 산출 유닛(601)의 일부 예시는 중앙 처리 장치(CPU), 그래픽스 처리 장치(GPU), 다양한 전용 인공 지능(AI) 산출 칩, 머신 러닝 모델 알고리즘을 실행하는 다양한 산출 유닛, 디지털 신호 프로세서(DSP), 및 임의의 적절한 프로세서, 컨트롤러, 마이크로컨트롤러 등을 포함하지만 이에 한정되지 않는다. 산출 유닛(601)은 상기 설명된 각각의 방법 및 처리를 실행하는 바, 예를 들면 분산형 모델 트레이닝 방법이다. 예를 들면, 일부 실시예에서, 분산형 모델 트레이닝 방법은 컴퓨터 소프트웨어 프로그램으로 구현될 수 있고, 이는 저장 유닛(608)과 같은 기계 판독 가능 매체에 명시적으로 포함될 수 있다. 일부 실시예에서, 컴퓨터 프로그램의 일부 또는 전부는 ROM(602) 및/또는 통신 유닛(609)을 통해 기기(600)에 로딩 및/또는 장착될 수 있다. 컴퓨터 프로그램이 RAM(603)에 로딩되고 산출 유닛(601)에 의해 실행될 경우, 상기 설명된 분산형 모델 트레이닝 방법의 하나 또는 다수의 단계를 수행할 수 있다. 대체 가능하게, 다른 실시예에서, 산출 유닛(601)은 다른 임의의 적절한 방식(예를 들면, 펌웨어에 의해)을 통해 분산형 모델 트레이닝 방법을 구현하도록 구성될 수 있다.
본문에서 상기 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그래머블 게이트 어레이(FPGA), 전용 집적 회로(ASIC), 전용 표준 제품(ASSP), 시스템 온 칩의 시스템(SOC), 복합 프로그램 가능 논리 소자(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 다수의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
본 발명의 방법을 구현하는 프로그램 코드는 하나 또는 복수의 프로그래밍 언어의 임의의 조합으로 편집할 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 다른 프로그램 가능 데이터 처리 장치의 프로세서 또는 제어기에 제공될 수 있으며, 프로그램 코드는 프로세서 또는 제어기에 의해 실행될 경우, 흐름도 및/또는 블록도에 지정된 기능/작동이 구현되도록 할 수 있다. 프로그램 코드는 완전히 기계에서 실행되거나, 부분적으로 기계에서 실행되거나, 독립형 소프트웨어 패키지로서 기계에서 실행되며, 일부는 원격 기계에서 실행되거나 완전히 원격 기계 또는 서버에서 실행될 수 있다.
본 발명의 컨텍스트에서, 기계 판독 가능 매체는 명령 실행 시스템, 장치 또는 기기에 의해 또는 명령 실행 시스템, 장치 또는 기기와 결합하여 사용하기 위한 프로그램을 포함하거나 저장할 수 있는 유형 매체일 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 상기 내용의 임의의 적절한 조합을 포함할 수 있지만 이에 한정되지 않는다. 기계 판독 가능 저장 매체의 보다 구체적인 예는 하나 또는 복수의 와이어에 기반한 전기 연결, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그램 가능 판독 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, CD-ROM, 광학 저장 기기, 자기 저장 기기 또는 상술한 내용의 임의의 적절한 조합을 포함한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터이고, 사용자는 상기 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백그라운드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로 근거리 통신망(LAN), 광역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 대응되는 컴퓨터에서 실행되고 또한 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다. 서버는 클라우드 컴퓨팅 서버 또는 클라우스 호스트라고도 하는 클라우드 서버일 수 있고, 기존의 물리적 호스트 및 가상 사설 서버(VPS, Virtual Private Server) 서비스에서 존재하는 어려운 관리 및 약한 비즈니스 확장성을 해결하기 위한 클라우드 컴퓨팅 서비스 시스템의 호스트 제품이다.
본 발명의 실시예의 기술적 해결수단에 따르면, 이종의 분산형 제1 트레이너와 분산형 제2 트레이너, 및 분산형 제2 트레이너에 설치된 분산형 내장 파라미터 서버에 기반하여, 모델의 트레이닝 속도를 향상시킨다.
위에서 설명한 다양한 형태의 흐름을 사용하여 단계를 재배열, 추가 또는 삭제할 수 있음을 이해해야 한다. 예를 들어, 본 발명에 기재된 각 단계는 동시에 수행될 수 있거나 순차적으로 수행될 수 있거나 상이한 순서로 수행될 수 있고, 본 발명에서 공개된 기술적 해결수단이 이루고자 하는 결과를 구현할 수만 있으면, 본문은 여기서 한정하지 않는다.
상기 구체적인 실시형태는 본 발명의 보호 범위를 한정하지 않는다. 본 기술분야의 통상의 기술자는 설계 요구 및 다른 요소에 따라 다양한 수정, 조합, 서브 조합 및 대체를 진해할 수 있음을 이해해야 한다. 본 발명의 정신 및 원칙 내에서 진행한 임의의 수정, 등가적 대체 및 개선 등은 모두 본 발명의 보호 범위 내에 속해야 한다.

Claims (21)

  1. 분산형 모델 트레이닝 방법으로서,
    분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득하는 단계;
    상기 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하는 단계 - 상기 분산형 내장 파라미터 서버는 상기 분산형 제2 트레이너에 설치되어 있고, 상기 타깃 파라미터는 초기 모델의 부분적 파라미터임 - ; 및
    기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 상기 분산형 제1 트레이너를 통해 상기 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 상기 초기 모델 트레이닝이 완료될 때까지 상기 초기 모델의 파라미터 업데이트를 진행하는 단계를 포함하는 분산형 모델 트레이닝 방법.
  2. 제1항에 있어서,
    상기 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 상기 분산형 제1 트레이너를 통해 상기 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 상기 초기 모델 트레이닝이 완료될 때까지 상기 초기 모델의 파라미터 업데이트를 진행하는 단계는,
    상기 초기 모델 트레이닝이 완료될 때까지 하기와 같은 파라미터 업데이트 동작을 수행하는 단계를 포함하되,
    기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 상기 분산형 제1 트레이너를 통해 상기 분산형 내장 파라미터 서버 중 업데이트된 타깃 파라미터를 상기 분산형 파라미터 서버에 전송하여, 상기 분산형 파라미터 서버 중 상기 초기 모델의 파라미터 업데이트를 진행하는 동작; 및
    상기 분산형 제1 트레이너를 통해 상기 분산형 파라미터 서버에서 상기 분산형 내장 파라미터 서버가 다음 파라미터 업데이트 동작을 위한 타깃 파라미터를 획득하는 동작을 수행하는 분산형 모델 트레이닝 방법.
  3. 제1항에 있어서,
    상기 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하는 상기 단계는,
    상기 타깃 파라미터 중의 밀집 파라미터에 대해, 집단적 통신 방식을 통해, 상기 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하는 단계를 포함하는 분산형 모델 트레이닝 방법.
  4. 제1항에 있어서,
    상기 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하는 상기 단계는,
    상기 타깃 파라미터 중의 희소 파라미터에 대해, 원격 프로시저 호출 방식을 통해, 상기 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하는 단계를 포함하는 분산형 모델 트레이닝 방법.
  5. 제1항에 있어서,
    상기 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하는 상기 단계는,
    상기 타깃 파라미터 중의 밀집 파라미터에 대해, 집단적 통신 방식을 통해, 상기 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하는 단계; 및
    상기 타깃 파라미터 중의 희소 파라미터에 대해, 원격 프로시저 호출 방식을 통해, 상기 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하는 단계를 포함하는 분산형 모델 트레이닝 방법.
  6. 제1항에 있어서,
    데이터 서버를 통해 분산형 파일 시스템에서 트레이닝 샘플 집합을 획득하는 단계; 및
    상기 분산형 제1 트레이너를 통해 상기 데이터 서버에서 각 트레이닝 샘플 배치를 획득하는 단계를 더 포함하는 분산형 모델 트레이닝 방법.
  7. 제6항에 있어서,
    상기 데이터 서버는 외부 장치 방식으로 설치되고,
    상기 방법은,
    상기 트레이닝 샘플 집합의 데이터 규모에 따라, 상기 데이터 서버 중의 중앙 처리 장치의 장치 개수를 조정하는 단계를 더 포함하는 분산형 모델 트레이닝 방법.
  8. 제1항에 있어서,
    각 트레이너 사이는 메시지 큐의 방식을 통해 정보 인터랙션을 진행하는 분산형 모델 트레이닝 방법.
  9. 제1항에 있어서,
    모델 트레이닝 과정에서, 부하 균형 전략에 기반하여, 각 트레이너 사이의 컴퓨팅 파워를 조정하여, 각 트레이너의 컴퓨팅 파워가 서로 매칭되도록 하는 분산형 모델 트레이닝 방법.
  10. 분산형 모델 트레이닝 장치로서,
    트레이닝 유닛, 타깃 파라미터 업데이트 유닛 및 파라미터 인터랙션 유닛을 포함하고,
    상기 트레이닝 유닛은 분산형 제1 트레이너에 의해 획득된 각 트레이닝 샘플 배치에 대해, 분산형 제2 트레이너를 통해 모델 트레이닝을 진행하여, 구배 정보를 획득하도록 구성되고;
    상기 타깃 파라미터 업데이트 유닛은 상기 구배 정보에 따라, 분산형 내장 파라미터 서버 중의 타깃 파라미터를 업데이트하도록 구성되며, 상기 분산형 내장 파라미터 서버는 상기 분산형 제2 트레이너에 설치되어 있고, 상기 타깃 파라미터는 초기 모델의 부분적 파라미터이며;
    상기 파라미터 인터랙션 유닛은 기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 상기 분산형 제1 트레이너를 통해 상기 분산형 내장 파라미터 서버와 분산형 파라미터 서버 사이의 파라미터 인터랙션을 진행하고, 상기 초기 모델 트레이닝이 완료될 때까지 상기 초기 모델의 파라미터 업데이트를 진행하도록 구성되는 분산형 모델 트레이닝 장치.
  11. 제10항에 있어서,
    상기 파라미터 인터랙션 유닛은 또한,
    상기 초기 모델 트레이닝이 완료될 때까지 하기와 같은 파라미터 업데이트 동작을 수행하되,
    기설정 개수의 트레이닝 샘플의 트레이닝 완료가 확정된 것에 응답하여, 상기 분산형 제1 트레이너를 통해 상기 분산형 내장 파라미터 서버 중 업데이트된 타깃 파라미터를 상기 분산형 파라미터 서버에 전송하여, 상기 분산형 파라미터 서버 중 상기 초기 모델의 파라미터 업데이트를 진행하는 동작; 및 상기 분산형 제1 트레이너를 통해 상기 분산형 파라미터 서버에서 상기 분산형 내장 파라미터 서버가 다음 파라미터 업데이트 동작을 위한 타깃 파라미터를 획득하는 동작을 수행하도록 구성되는 분산형 모델 트레이닝 장치.
  12. 제10항에 있어서,
    상기 타깃 파라미터 업데이트 유닛은 또한,
    상기 타깃 파라미터 중의 밀집 파라미터에 대해, 집단적 통신 방식을 통해, 상기 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하도록 구성되는 분산형 모델 트레이닝 장치.
  13. 제10항에 있어서,
    상기 타깃 파라미터 업데이트 유닛은 또한,
    상기 타깃 파라미터 중의 희소 파라미터에 대해, 원격 프로시저 호출 방식을 통해, 상기 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하도록 구성되는 분산형 모델 트레이닝 장치.
  14. 제10항에 있어서,
    상기 타깃 파라미터 업데이트 유닛은 또한,
    상기 타깃 파라미터 중의 밀집 파라미터에 대해, 집단적 통신 방식을 통해, 상기 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하고; 상기 타깃 파라미터 중의 희소 파라미터에 대해, 원격 프로시저 호출 방식을 통해, 상기 분산형 제2 트레이너 사이의 파라미터 업데이트를 진행하도록 구성되는 분산형 모델 트레이닝 장치.
  15. 제10항에 있어서,
    데이터 서버를 통해 분산형 파일 시스템에서 트레이닝 샘플 집합을 획득하고; 상기 분산형 제1 트레이너를 통해 상기 데이터 서버에서 각 트레이닝 샘플 배치를 획득하도록 구성되는 획득 유닛을 더 포함하는 분산형 모델 트레이닝 장치.
  16. 제15항에 있어서,
    상기 데이터 서버는 외부 장치 방식으로 설치되고,
    상기 장치는, 상기 트레이닝 샘플 집합의 데이터 규모에 따라, 상기 데이터 서버 중의 중앙 처리 장치의 장치 개수를 조정하도록 구성되는 제1 조정 유닛을 더 포함하는 분산형 모델 트레이닝 장치.
  17. 제10항에 있어서,
    각 트레이너 사이는 메시지 큐의 방식을 통해 정보 인터랙션을 진행하는 분산형 모델 트레이닝 장치.
  18. 제10항에 있어서,
    모델 트레이닝 과정에서, 부하 균형 전략에 기반하여, 각 트레이너 사이의 컴퓨팅 파워를 조정하여, 각 트레이너의 컴퓨팅 파워가 서로 매칭되도록 구성되는 제2 조정 유닛을 더 포함하는 분산형 모델 트레이닝 장치.
  19. 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하는 전자 기기로서,
    상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되고, 상기 명령은 상기 적어도 하나의 프로세서에 의해 실행되어, 상기 적어도 하나의 프로세서가 제1항 내지 제9항 중 어느 한 항에 따른 방법을 구현하도록 하는 것을 특징으로 하는 전자 기기.
  20. 컴퓨터 명령이 저장된 비일시적 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 명령은 상기 컴퓨터가 제1항 내지 제9항 중 어느 한 항에 따른 방법을 구현하도록 하는 비일시적 컴퓨터 판독 가능 저장 매체.
  21. 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1항 내지 제9항 중 따른 어느 한 항에 따른 방법을 구현하는 컴퓨터 프로그램.
KR1020210084641A 2020-12-18 2021-06-29 분산형 모델 트레이닝 방법, 관련 장치 및 컴퓨터 프로그램 KR20210090123A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011499413.0 2020-12-18
CN202011499413.0A CN112561078B (zh) 2020-12-18 2020-12-18 分布式的模型训练方法及相关装置

Publications (1)

Publication Number Publication Date
KR20210090123A true KR20210090123A (ko) 2021-07-19

Family

ID=75063239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210084641A KR20210090123A (ko) 2020-12-18 2021-06-29 분산형 모델 트레이닝 방법, 관련 장치 및 컴퓨터 프로그램

Country Status (5)

Country Link
US (1) US20210357814A1 (ko)
EP (1) EP4016399A1 (ko)
JP (1) JP2022058329A (ko)
KR (1) KR20210090123A (ko)
CN (1) CN112561078B (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115629879A (zh) * 2022-10-25 2023-01-20 北京百度网讯科技有限公司 分布式模型训练的负载均衡方法和装置
CN115859508A (zh) * 2022-11-23 2023-03-28 北京百度网讯科技有限公司 流场分析方法、元件模型生成方法、训练方法及装置
CN116187426A (zh) * 2022-11-09 2023-05-30 北京百度网讯科技有限公司 深度学习模型的模型参数多流广播方法及其装置
CN116680060A (zh) * 2023-08-02 2023-09-01 浪潮电子信息产业股份有限公司 面向异构计算系统的任务分配方法、装置、设备和介质
CN117010485A (zh) * 2023-10-08 2023-11-07 之江实验室 边缘场景下的分布式模型训练系统及梯度规约方法
CN117195978A (zh) * 2023-09-19 2023-12-08 北京百度网讯科技有限公司 模型压缩方法、训练方法、文本数据处理方法及装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461290B (zh) * 2020-03-11 2023-09-22 北京百度网讯科技有限公司 模型参数更新方法及装置
CN112860779B (zh) * 2021-03-29 2024-05-24 中信银行股份有限公司 一种批量数据导入方法及装置
CN113094171A (zh) * 2021-03-31 2021-07-09 北京达佳互联信息技术有限公司 数据处理方法、装置、电子设备和存储介质
CN113255931B (zh) * 2021-05-31 2021-10-01 浙江大学 一种在模型训练过程中调整配置参数的方法及装置
CN113742065A (zh) * 2021-08-07 2021-12-03 中国航空工业集团公司沈阳飞机设计研究所 一种基于kubernetes容器集群的分布式强化学习方法及装置
CN114356540B (zh) * 2021-10-30 2024-07-02 腾讯科技(深圳)有限公司 一种参数更新方法、装置、电子设备和存储介质
WO2023079551A1 (en) * 2021-11-08 2023-05-11 R-Stealth Ltd System and method for providing decentralized computing resources
CN114841338B (zh) * 2022-04-06 2023-08-18 北京百度网讯科技有限公司 训练模型参数的方法、决策确定方法、装置及电子设备
CN114723045B (zh) * 2022-04-06 2022-12-20 北京百度网讯科技有限公司 模型训练方法、装置、系统、设备、介质及程序产品
CN114723047B (zh) * 2022-04-15 2024-07-02 支付宝(杭州)信息技术有限公司 任务模型训练方法、装置以及系统
CN114911596B (zh) * 2022-05-16 2023-04-28 北京百度网讯科技有限公司 针对模型训练的调度方法、装置、电子设备和存储介质
CN114862655B (zh) * 2022-05-18 2023-03-10 北京百度网讯科技有限公司 用于模型训练的运行控制方法、装置和电子设备
CN114742645B (zh) * 2022-05-19 2022-09-06 北京淇瑀信息科技有限公司 基于多阶段时序多任务的用户安全等级识别方法及装置
CN115100461B (zh) * 2022-06-13 2023-08-22 北京百度网讯科技有限公司 图像分类模型训练方法、装置、电子设备、介质
CN115186738B (zh) * 2022-06-20 2023-04-07 北京百度网讯科技有限公司 模型训练方法、装置和存储介质
CN115422419A (zh) * 2022-09-14 2022-12-02 北京优特捷信息技术有限公司 一种数据展示方法、装置、电子设备及可读存储介质
CN115600090A (zh) * 2022-09-20 2023-01-13 支付宝(杭州)信息技术有限公司(Cn) 一种模型的所有权验证方法、装置、存储介质及电子设备

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150324690A1 (en) * 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
CN107025205B (zh) * 2016-01-30 2021-06-22 华为技术有限公司 一种分布式系统中的训练模型的方法及设备
EP3443508B1 (en) * 2017-03-09 2023-10-04 Huawei Technologies Co., Ltd. Computer system for distributed machine learning
US20180285759A1 (en) * 2017-04-03 2018-10-04 Linkedin Corporation Online hyperparameter tuning in distributed machine learning
CN108491928B (zh) * 2018-03-29 2019-10-25 腾讯科技(深圳)有限公司 模型参数发送方法、装置、服务器及存储介质
US11315013B2 (en) * 2018-04-23 2022-04-26 EMC IP Holding Company LLC Implementing parameter server in networking infrastructure for high-performance computing
CN109145984B (zh) * 2018-08-20 2022-03-25 联想(北京)有限公司 用于机器训练的方法和装置
CN109635922B (zh) * 2018-11-20 2022-12-02 华中科技大学 一种分布式深度学习参数量化通信优化方法及系统
CN109634759A (zh) * 2018-12-12 2019-04-16 浪潮(北京)电子信息产业有限公司 一种分布式存储系统的配额管理方法、系统及相关组件
CN109951438B (zh) * 2019-01-15 2020-11-20 中国科学院信息工程研究所 一种分布式深度学习的通信优化方法及系统
US20200334524A1 (en) * 2019-04-17 2020-10-22 Here Global B.V. Edge learning
CN110059829A (zh) * 2019-04-30 2019-07-26 济南浪潮高新科技投资发展有限公司 一种异步参数服务器高效并行架构与方法
CN110084378B (zh) * 2019-05-07 2023-04-21 南京大学 一种基于本地学习策略的分布式机器学习方法
CN111047050A (zh) * 2019-12-17 2020-04-21 苏州浪潮智能科技有限公司 一种分布式并行训练方法、设备以及存储介质
CN111461343B (zh) * 2020-03-13 2023-08-04 北京百度网讯科技有限公司 模型参数更新方法及其相关设备
CN111695689B (zh) * 2020-06-15 2023-06-20 中国人民解放军国防科技大学 一种自然语言处理方法、装置、设备及可读存储介质
CN111753997B (zh) * 2020-06-28 2021-08-27 北京百度网讯科技有限公司 分布式训练方法、系统、设备及存储介质
CN111709533B (zh) * 2020-08-19 2021-03-30 腾讯科技(深圳)有限公司 机器学习模型的分布式训练方法、装置以及计算机设备
CN111784002B (zh) * 2020-09-07 2021-01-19 腾讯科技(深圳)有限公司 分布式数据处理方法、装置、计算机设备及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115629879A (zh) * 2022-10-25 2023-01-20 北京百度网讯科技有限公司 分布式模型训练的负载均衡方法和装置
CN116187426A (zh) * 2022-11-09 2023-05-30 北京百度网讯科技有限公司 深度学习模型的模型参数多流广播方法及其装置
CN115859508A (zh) * 2022-11-23 2023-03-28 北京百度网讯科技有限公司 流场分析方法、元件模型生成方法、训练方法及装置
CN116680060A (zh) * 2023-08-02 2023-09-01 浪潮电子信息产业股份有限公司 面向异构计算系统的任务分配方法、装置、设备和介质
CN117195978A (zh) * 2023-09-19 2023-12-08 北京百度网讯科技有限公司 模型压缩方法、训练方法、文本数据处理方法及装置
CN117010485A (zh) * 2023-10-08 2023-11-07 之江实验室 边缘场景下的分布式模型训练系统及梯度规约方法

Also Published As

Publication number Publication date
US20210357814A1 (en) 2021-11-18
JP2022058329A (ja) 2022-04-12
EP4016399A1 (en) 2022-06-22
CN112561078B (zh) 2021-12-28
CN112561078A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
KR20210090123A (ko) 분산형 모델 트레이닝 방법, 관련 장치 및 컴퓨터 프로그램
US20210326762A1 (en) Apparatus and method for distributed model training, device, and computer readable storage medium
US10268679B2 (en) Joint language understanding and dialogue management using binary classification based on forward and backward recurrent neural network
EP3304332B1 (en) Fast read/write between networked computers via rdma-based rpc requests
KR20200109230A (ko) 뉴럴 네트워크 생성 방법 및 장치
US20210374542A1 (en) Method and apparatus for updating parameter of multi-task model, and storage medium
US20230251898A1 (en) Federated computing method, electronic device and storage medium
US20220147695A1 (en) Model training method and apparatus, font library establishment method and apparatus, and storage medium
US20220222507A1 (en) Quantum neural network training method and apparatus, electronic device and medium
KR20220034081A (ko) 적대적 네트워크 모델을 트레이닝하는 방법 및 장치, 문자 라이브러리를 구축하는 방법 및 장치, 전자장비, 저장매체 및 컴퓨터 프로그램
US11232560B2 (en) Method and apparatus for processing fundus image
KR20210156243A (ko) 딥러닝 프레임워크의 훈련 방법, 장치 및 저장 매체
CN111028226A (zh) 算法移植的方法及装置
WO2023005287A1 (zh) 模型预训练方法、装置、电子设备和存储介质
US20230115984A1 (en) Method and apparatus for training model, method and apparatus for generating molecules
CN111966361A (zh) 用于确定待部署模型的方法、装置、设备及其存储介质
CN114020950A (zh) 图像检索模型的训练方法、装置、设备以及存储介质
CN116756564A (zh) 面向任务解决的生成式大语言模型的训练方法和使用方法
CN110009101B (zh) 用于生成量化神经网络的方法和装置
CN112329919B (zh) 模型训练方法及装置
US10552240B2 (en) Automatically generating efficient remote procedure call (RPC) code for heterogeneous systems
US20220414474A1 (en) Search method, electronic device and storage medium based on neural network model
EP4202676A1 (en) Method and apparatus for multi-task scheduling, device and storage medium
CN116341680A (zh) 人工智能模型适配方法、装置、电子设备以及存储介质
JP7265618B2 (ja) 深層学習トレーニングタスクに向けたプロセッサメモリを最適化するための方法及び装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal