KR20210124111A - 모델을 훈련하기 위한 방법, 장치, 기기, 매체 및 프로그램 제품 - Google Patents

모델을 훈련하기 위한 방법, 장치, 기기, 매체 및 프로그램 제품 Download PDF

Info

Publication number
KR20210124111A
KR20210124111A KR1020210126010A KR20210126010A KR20210124111A KR 20210124111 A KR20210124111 A KR 20210124111A KR 1020210126010 A KR1020210126010 A KR 1020210126010A KR 20210126010 A KR20210126010 A KR 20210126010A KR 20210124111 A KR20210124111 A KR 20210124111A
Authority
KR
South Korea
Prior art keywords
model
constraint
sample
training
augmentation
Prior art date
Application number
KR1020210126010A
Other languages
English (en)
Inventor
루오위 구오
위닝 두
웨이웨이 리우
샤오팅 인
치아오 자오
치웬 리우
란 비
샤오광 후
디엔하이 위
얀쥔 마
Original Assignee
베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 filed Critical 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드
Publication of KR20210124111A publication Critical patent/KR20210124111A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시의 예시적인 실시예에 따라 모델을 훈련하기 위한 방법, 장치, 기기, 매체 및 프로그램 제품을 제공한다. 인공 지능 분야에 관한 것이며 특별히 딥 러닝 및 이미지 처리 기술 분야에 관한 것이다. 구체적인 구현 수단은 복수의 오리지널 샘플에 대응하는 복수의 증강 샘플 세트를 결정하는 것; 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라, 동일한 증강 샘플 세트 중의 상이한 증강 샘플에 대한 제1 모델의 출력 간의 차이와 연관되는 제1 제약을 결정하는 것; 복수의 증강 샘플 세트에 기반하여 제1 모델 및 제2 모델에 따라, 동일한 증강 샘플에 대한 제1 모델 및 제2 모델의 출력 간의 차이와 연관되는 제2 제약을 결정하는 것; 및 적어도 제1 제약 및 제2 제약에 기반하여 제1 모델을 훈련하여 훈련을 거친 제1 모델을 획득하는 것을 포함하며, 제1 모델의 복잡도는 제2 모델의 복잡도보다 낮다. 본 개시의 실시예에 따르면 훈련하여 획득한 모델의 성능을 최적화할 수 있다.

Description

모델을 훈련하기 위한 방법, 장치, 기기, 매체 및 프로그램 제품{METHOD AND APPARATUS FOR TRAINING MODEL, DEVICE, MEDIUM AND PROGRAM PRODUCT}
본 개시는 인공 지능 분야에 관한 것이며, 더 구체적으로는 모델을 훈련하기 위한 방법, 장치, 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램 제품에 관한 것이다.
정보 기술의 발전에 따라 신경망은 컴퓨터 비전, 음성 인식 및 정보 검색 등과 같은 다양한 기계 학습 태스크에 광범위하게 사용된다. 광학적 문자 인식(OCR)은 이미지 정보를 편집 및 저장이 더 용이한 텍스트 정보로 전환할 수 있는 기술이다. 신경망을 이용하여 OCR 인식을 진행하는 것은 유효적인 인식 방법인 것으로 검증되었다. 그러나, 훈련된 모델의 정확성은 아직 더 향상할 필요가 있다.
본 개시의 예시적인 실시예에 따라 모델을 훈련하기 위한 방법, 장치, 기기, 컴퓨터 판독 가능 저장 매체 및 컴퓨터 프로그램 제품을 제공한다.
본 개시의 제1 측면에서는 모델을 훈련하기 위한 방법을 제공한다. 해당 방법은 복수의 오리지널 샘플에 대응하는 복수의 증강 샘플 세트를 결정하는 것; 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라, 동일한 증강 샘플 세트 중의 상이한 증강 샘플에 대한 제1 모델의 출력 간의 차이와 연관되는 제1 제약을 결정하는 것; 복수의 증강 샘플 세트에 기반하여 제1 모델 및 제2 모델에 따라, 동일한 증강 샘플에 대한 제1 모델 및 제2 모델의 출력 간의 차이와 연관되는 제2 제약을 결정하는 것; 및 적어도 제1 제약 및 제2 제약에 기반하여 제1 모델을 훈련하여 훈련을 거친 제1 모델을 획득하는 것을 포함하며, 제1 모델의 복잡도는 제2 모델의 복잡도보다 낮다.
본 개시의 제2 측면에서는 모델을 훈련하기 위한 장치를 제공한다. 해당 장치는 복수의 오리지널 샘플에 대응하는 복수의 증강 샘플 세트를 결정하도록 구성된 증강 샘플 결정 모듈;상기 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라, 동일한 증강 샘플 세트 중의 상이한 증강 샘플에 대한 상기 제1 모델의 출력 간의 차이와 연관되는 제1 제약을 결정하도록 구성된 제1 제약 결정 모듈;상기 복수의 증강 샘플 세트에 기반하여 상기 제1 모델 및 제2 모델에 따라, 동일한 증강 샘플에 대한 상기 제1 모델 및 상기 제2 모델의 출력 간의 차이와 연관되도록 구성된 제2 제약 결정 모듈; 및 적어도 상기 제1 제약 및 상기 제2 제약에 기반하여 상기 제1 모델을 훈련함으로써 훈련을 거친 상기 제1 모델을 획득하도록 구성된 제1 모델 훈련 모듈을 포함하며, 상기 제1 모델의 복잡도는 상기 제2 모델의 복잡도에 비해 낮다.
본 개시의 제3 측면에서는 하나 또는 복수의 프로세서; 및 하나 또는 복수의 프로세서에 의해 실행될 때 하나 또는 복수의 프로세서로 하여금 본 개시의 제1 측면에 따른 방법을 구현하게 하는 하나 또는 복수의 프로그램을 저장하기 위한 저장 장치를 포함하는 전자 기기를 제공한다.
본 개시의 제4 측면에서는 하나 또는 복수의 프로세서; 및 하나 또는 복수의 프로세서에 의해 실행될 때 하나 또는 복수의 프로세서로 하여금 본 개시의 제2 측면에 따른 방법을 구현하게 하는 하나 또는 복수의 프로그램을 저장하기 위한 저장 장치를 포함하는 전자 기기를 제공한다.
본 개시의 제5 측면에서는 프로세서에 의해 실행될 때 본 개시의 제1 측면에 따른 방법을 구현하는 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능 매체를 제공한다.
본 개시의 제6 측면에서는 프로세서에 의해 실행될 때 본 개시의 제2 측면에 따른 방법을 구현하는 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능 매체를 제공한다.
본 개시의 제7 측면에서는 프로세서에 의해 실행될 때 본 개시의 제1 측면과 같은 방법을 구현하는 컴퓨터 프로그램 명령어를 포함하는 컴퓨터 프로그램 제품을 제공한다.
본 개시의 제8 측면에서는 프로세서에 의해 실행될 때 본 개시의 제2 측면과 같은 방법을 구현하는 컴퓨터 프로그램 명령어를 포함하는 컴퓨터 프로그램 제품을 제공한다.
발명의 내용 부분에서 설명한 내용은 본 개시의 실시예의 핵심 또는 중요한 특징을 한정하기 위한 것이 아니고, 또한 본 개시의 범위를 제한하기 위한 것이 아님을 이해해야 한다. 본 개시의 기타 특징은 아래의 설명을 통해 용이하게 이해할 수 있을 것이다.
첨부된 도면을 결합하여 아래의 상세한 설명을 참조하면 본 개시의 각 실시예의 상기 및 기타 특징, 장점 및 측면이 더욱 명확해질 것이다. 첨부된 도면에서 동일하거나 유사한 부호는 동일하거나 유사한 요소를 나타낸다. 첨부된 도면은 본 수단을 더 잘 이해하기 위한 것이고 본 개시에 대한 한정은 이루어지지 않는다. 여기에서,
도 1A는 본 개시의 일부 실시예를 구현할 수 있는 데이터 처리의 환경의 예시적인 설명도를 나타내고;
도 1B는 본 개시의 일부 실시예를 구현할 수 있는 모델 훈련의 환경의 예시적인 설명도를 나타내고;
도 2는 본 개시의 일부 실시예에 따른 모델을 훈련하기 위한 예시적인 방법의 흐름도를 나타내고;
도 3은 본 개시의 일부 실시예에 따른 데이터를 처리하기 위한 예시적인 방법의 흐름도를 나타내고;
도 4는 본 개시의 실시예에 따른 모델을 훈련하기 위한 장치의 예시적인 블록도를 나타내고;
도 5는 본 개시의 실시예에 따른 데이터를 처리하기 위한 장치의 예시적인 블록도를 나타내고; 및
도 6은 본 개시의 복수의 실시예를 실시할 수 있는 컴퓨팅 기기의 블록도를 나타낸다.
아래에, 도면을 참조하여 본 개시의 실시예를 더 상세하게 설명한다. 첨부된 도면에서는 본 개시의 일부 실시예를 나타냈지만 이해해야 할 것은, 본 개시는 여기에서 설명하는 실시예에 의해 제한되는 것으로 해석되면 안되고 다양한 형식을 통해 구현될 수 있으며, 반대로 이러한 실시예는 본 개시를 더욱 확실하고 완전하게 이해하게 하기 위하여 제공되는 것이다. 본 개시의 첨부된 도면 및 실시예는 예시적 역할로만 사용되고 본 개시의 보호 범위를 제한하기 위하여 사용하는 것이 아님을 이해해야 한다.
본 개시의 실시예의 설명에서, 용어 "포함" 및 그와 유사한 용어는 개방적 포함, 즉 "∼∼를(을) 포함하지만 ∼∼에 한정되지 않음"으로 이해하여야 한다. 용어 "∼∼에 기반하여"는 "적어도 일부적으로 ∼∼에 기반하여"로 이해하여야 한다. 용어 "일 실시예" 또는 "해당 실시예"는 "적어도 하나의 실시예"로 이해하여야 한다. 용어 "제1""제2"등은 상이한 또는 동일한 대상을 지칭할 수 있다. 하기에는 또한 기타 명확한 정의 및 내포된 정의가 포함될 수도 있다.
본 개시의 실시예에서, 용어 "모델"은 입력을 처리하며 또 대응되는 출력을 제공할 수 있다. 신경망 모델을 예로 들면, 신경망 모델은 일반적으로 입력층, 출력층 및 입력층과 출력층 사이에 있는 하나 또는 복수의 은닉층을 포함한다. 딥 러닝의 응용에서 사용하는 모델("딥 러닝 모델"이라고도 함)은 일반적으로 많은 은닉층을 포함하여 네트워크의 심도를 연장한다. 신경망 모델은 앞층의 출력이 뒤층의 입력으로 사용될 수 있도록 각 층이 순서대로 서로 연결되고, 여기에서, 입력층은 신경망 모델의 입력을 접수하고, 출력층의 출력은 신경망 모델의 최종 출력으로 된다. 신경망 모델은 층마다 하나 또는 복수의 노드(처리 노드 또는 뉴런이라고도 함)를 포함하고 각 노드는 앞의 한 층으로부터의 입력을 처리한다. 본문에서 용어 "신경망", "모델", "네트워크" 및 "신경망 모델"은 서로 바꾸어 사용할 수 있다.
위에서 언급한 바와 같이, 훈련된 모델의 정확성을 향상할 필요가 있다. 종래의 기술 수단에서는 일반적으로 교사 모델 및 학생 모델의 출력만 결정하고, 교사 모델에 의해 학생 모델을 지도하는 것을 통해 모델의 훈련을 완성한다. 종래의 기술 수단의 단점은 동일한 샘플 중의 상이한 샘플에 대한 모델의 출력 간의 연관성을 고려하지 않은 것이다. 따라서 동일한 샘플 중의 상이한 증강 샘플에 대한 모델의 처리 결과가 일치성을 가지지 않게 된다. 이는 종종 모델의 정확도 및 일반성을 낮게 한다.
본 개시의 예시적인 실시예가 모델을 훈련하기 위한 수단을 제출하였다. 해당 수단에서는 우선 오리지널 샘플에 대응하는 증강 샘플 세트를 결정하고, 증강 샘플 세트에는 동일한 오리지널 샘플 중의 상이한 증강 샘플을 포함한다. 그 다음 제1 모델에 따라 제1 제약을 결정하며, 제1 제약은 동일한 증강 샘플 세트 중의 상이한 증강 샘플에 대한 상기 제1 모델의 출력 간의 차이와 연관된다. 계속하여, 제1 모델 및 제2 모델에 따라 제2 제약을 결정하며, 제2 제약은 동일한 증강 모델에 대한 상기 제1 모델 및 상기 제2 모델의 출력 간의 차이와 연관된다. 제1 모델의 복잡도는 제2 모델의 복잡도에 비해 낮다. 그리고 마지막으로 제1 제약 및 제2 제약에 따라 상기 제1 모델을 훈련함으로써 훈련을 거친 제1 모델을 획득하도록 한다. 이러한 방식으로 복잡도가 높은 모델을 이용하여 복잡도가 낮은 모델을 지도하는 훈련을 통해 훈련한 모델의 정확성을 향상할 수 있다. 나아가 동일한 샘플에 대해 상이한 증강 처리를 거친 후의 모델의 출력의 일치성을 동시에 고려하여 훈련한 모델의 일반성을 향상할 수 있다.
도 1A는 본 개시의 일부 실시예를 구현할 수 있는 데이터 처리 환경(100)의 예시적인 설명도를 나타낸다. 도 1A에 도시된 바와 같이, 환경(100)은 컴퓨팅 기기(110)를 포함한다. 컴퓨팅 기기(110)는 예를 들어 개인 컴퓨터, 태블릿, 웨어러블 기기, 클라우드 서버, 메인 프레임 컴퓨터 및 분산형 컴퓨팅 시스템 등 계산 능력을 가진 임의의 기기 일수 있다.
컴퓨팅 기기(110)는 입력(120)을 획득한다. 예를 들어 입력(120)은 이미지, 동영상, 오디오, 텍스트 및/또는 멀티미디어 파일 등 일 수 있다. 컴퓨팅 기기(110)는 입력(120)을 네트워크 모델(130)에 응용함으로써 네트워크 모델(130)을 이용하여 입력(120)에 대응하는 처리 결과(140)를 생성할 수 있다. 일부 실시예에서 네트워크 모델(130)은 OCR 인식 모델, 이미지 분류 모델, 시맨틱 분할 모델, 대상 감지 대상 모델, 또는 기타의 이미지 처리와 관련된 신경망 모델 일 수 있지만 이에 한정되지 않는다. 임의의 적합한 네트워크 구조를 이용하여 네트워크 모델(130)을 구현할 수 있으며, 서포트 벡터 머신(SVM) 모델, 베이스 모델, 랜덤 포레스트 모델, 이를테면 합성곱 신경망(CNN), 순환 신경망(RNN), 심층 신경망(DNN), 심층 강화 학습 네트워크(DQN) 등과 같은 다양한 딥 러닝/신경망 모델을 포함하지만 이에 한정되는 것은 아니다. 본 개시의 범위는 이 측면에서 제한을 받지 않는다.
환경(100)은 훈련 데이터 획득 장치, 모델 훈련 장치 및 모델 응용 장치(미도시)를 포함할 수도 있다. 일부 실시예에서 상기 복수의 장치는 각각 상이한 물리적 컴퓨팅 기기에서 구현할 수 있다. 선택적으로, 상기 복수의 장치 중의 적어도 일부의 장치는 동일한 컴퓨팅 기기에서 구현될 수 있다. 예를 들어 훈련 데이터 획득 장치, 모델 훈련 장치는 동일한 컴퓨팅 기기에서 구현될 수 있고 모델 응용 장치는 다른 컴퓨팅 기기에서 구현될 수 있다.
일부 실시예에서, 모델 훈련 단계에 훈련 데이터 획득 장치는 입력(120)을 획득하고 상기 입력을 모델에 제공할 수 있다. 입력(120)은 오리지널 샘플 및 오리지널 샘플에 대응되는 상이한 증강 샘플일 수 있고, 네트워크 모델(130)은 훈련될 모델이다. 모델 훈련 장치는 입력에 기반하여 네트워크 모델(130)을 훈련할 수 있다. 처리결과(140)는 해당 모델의 상이한 제약에 대한 것일 수 있고, 컴퓨팅 기기(110)는 상이한 제약에 의하여, 훈련 샘플에 대한 모델의 오차가 감소되도록 네트워크 모델(130)의 훈련 파라미터(예를 들어 가중치 및 오프셋 등)를 조정할 수 있다.
선택적으로, 일부 실시예에서 모델 훈련의 마지막 단계에서 입력은 테스트 샘플일 수 있고 처리결과(140)는 훈련을 거친 네트워크 모델(130)의 성능 지표(예를 들어 정확성)에 대한 표징일 수 있으며, 이는 예를 들어 테스트 손실에 의해 나타낼 수 있다.
아래에 도 1B를 참조하여 모델을 훈련하기 위한 환경(150)에 대하여 상세하게 설명한다. 환경(150)은 입력(120)으로서의 오리지널 샘플(122)을 포함할 수 있으며 하나의 오리지널 샘플로 나타냈지만 복수의 오리지널 샘플이 존재할 수도 있으며, 본 개시는 여기에서 제한을 하지 않는다. 일부 실시예에서 샘플은 이미지 데이터일 수 있다. 컴퓨팅 기기(110)(예를 들어 컴퓨팅 기기의 훈련 데이터 획득 장치)는 오리지널 샘플에 대하여 데이터 증강 처리를 진행함으로써 증강 샘플 세트(124)를 획득하도록 구성할 수 있다. 증강 샘플 세트(124)는 제1 증강 샘플(126) 및 제2 증강 샘플(128)을 포함할 수 있으며, 제1 증강 샘플(126) 및 제2 증강 샘플(128)은 각각 상기 오리지널 샘플(122)에 대하여 데이터 증강 처리를 진행하여 획득한 것일 수 있다. 일부 실시예에서 오리지널 샘플에 대응하는 증강 샘플 세트는 오리지널 샘플 자체를 포함하지 않을 수 있다. 일부 예시에서는 이미지 샘플에 대하여, 그 중의 이미지에 대하여 이미지 클리핑, 회전 및 뒤집기를 진행함으로써 이미지의 증강 샘플 세트를 획득할 수 있다. 다른 일부 예시에서는 이미지 샘플에 대하여, 자동 데이터 증강(AutoAugment)과 같은 자동 샘플 증강의 대책을 응용하여 이미지의 증강 훈련 세트를 획득할 수 있다.
컴퓨팅 기기(110)는 제1 증강 샘플(126) 및 제2 증강 샘플(128)을 제1 모델(132) 및 제2 모델(134)의 입력으로 함으로써 제1 출력(162), 제2 출력(164), 제3 출력(166) 및 제4 출력(168)을 각각 결정할 수 있다. 컴퓨팅 기기(110)는 그 다음 상기 출력 및 증강 샘플의 라벨에 따라 제1 제약(142), 제2 제약(144) 및 제3 제약(146)을 각각 결정할 수 있다. 마지막으로 컴퓨팅 기기(110)는 상기 제약에 따라 제1 모델(132)을 훈련할 수 있다.
제1 모델(132)은 훈련될 모델(학생 모델이라고도 할 수 있음)일 수 있으며 해당 모델이 포함한 파라미터의 양이 작고(예를 들어 임계치에 비해 작음), 점용 메모리가 작다(예를 들어 임계치에 비해 작음). 제2 모델(134)은 이미 훈련된 모델(교사 모델이라고도 할 수 있음)일 수 있으며 해당 모델이 포함한 파라미터의 양은 크다(예를 들어 적어도 제1 모델(132)이 포함한 파라미터의 양보다 큼).
다시 도 1A를 참고하면, 훈련을 거친 네트워크 모델은 모델 응용 장치에 제공될 수 있다. 모델 응용 장치는 훈련을 거친 모델 및 입력(120)을 획득할 수 있으며, 또한 입력(120)에 대한 처리 결과(140)를 결정할 수 있다. 모델 응용 단계에서 입력(120)은 처리될 입력 데이터(예를 들어 이미지 데이터)일 수 있으며 네트워크 모델(130)은 훈련을 거친 모델(예를 들어 훈련을 거친 이미지 분류 모델)
Figure pat00001
φ 있으며, 처리 결과(140)는 입력(120)(예를 들어 이미지 데이터)에 대응하는 예측 결과(예를 들어 이미지의 분류 결과, 시맨틱 분할 결과 또는 목표 인식 결과)일 수 있다.
도 1A에 도시된 바와 같은 환경(100) 및 도 1B에 도시된 바와 같은 환경(150)은 단지 본 개시의 실시예가 그 중에서 구현될 수 있는 것의 예시이고 본 개시의 범위를 제한하려는 것이 아님을 이해해야 한다. 본 개시의 실시예는 기타 시스템 또는 아키텍처에도 동일하게 적용된다.
아래에 도 2 내지 도 3과 결합하여 상세한 모델 훈련의 과정에 대하여 나아가 설명한다. 도 2는 본 개시의 실시예에 따른 모델을 훈련하기 위한 과정(200)의 흐름도를 도시하였다. 과정(200)은 도 1에서의 컴퓨팅 기기(110)로 실시할 수 있다. 설명의 편의를 위하여 도 1A 및 도 1B를 참조하여 과정(200)을 설명한다.
도 2의 블록210에서 컴퓨팅 기기(110)는 복수의 오리지널 샘플에 대응하는 복수의 증강 샘플 세트를 결정한다. 예를 들어 컴퓨팅 기기(110)는 이미지 세트 중에서 랜덤으로 B 장의 이미지를 선정하여 복수의 오리지널 샘플로 하고, 그 다음 오리지널 샘플마다를 K 개로 복사할 수 있다. 계속하여 컴퓨팅 기기(110)는 해당 K 장의 동일한 이미지에 대하여 각각 밝음도 변환, 랜덤 클리핑, 랜덤 회전 등 데이터 증강 동작을 진행함으로써 증강 샘플 세트를 형성할 수 있다. 상기 데이터 증강의 예시는 단지 예시적인 것이며, 컴퓨팅 기기(110)는 예를 들어 동영상 데이터 중의 상이한 이미지 프레임에 대하여 다양한 조합을 진행하여 동영상 데이터를 처리할 수도 있으며 또는 적합한 방식으로 텍스트 및 음성 데이터를 처리할 수도 있으며, 본 개시는 여기에서 제한을 하지 않는다.
일부 실시예에서는 모델의 계산량을 감소하기 위하여 컴퓨팅 기기(110)는 증강 샘플 세트에 대하여 추가적인 처리를 진행할 수 있다. 예를 들어 컴퓨팅 기기(110)는 상기 이미지에 대하여 사이즈의 재설정 및 정규화 동작을 진행함으로써 전처리 이미지를 형성할 수 있다.
일부 실시예에서 샘플은 이미지, 동영상, 오디오, 텍스트 및 멀티미디어 파일 중의 적어도 하나를 포함한다.
도 2의 블록220에서 컴퓨팅 기기(110)는 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라 제1 제약을 결정하며, 제1 제약은 동일한 증강 샘플 세트 중의 상이한 증강 샘플에 대한 제1 모델의 출력 간의 차이와 연관된다. 컴퓨팅 기기(110)는 증강 샘플을 결정한 후, 해당 샘플 세트를 제1 모델의 입력으로 하여, 출력을 각각 결정할 수 있다.
일부 실시예에서 컴퓨팅 기기(110)는 증강 샘플 세트 중의 제1 증강 샘플에 기반하여 제1 모델(132)에 따라 제1 분류 결과를 생성할 수 있다. 동일한 증강 샘플 세트 중의 제2 증강 샘플에 기반하여 제1 모델(132)에 따라 제2 분류 결과를 생성한다. 증강 샘플 세트 중의 제3 증강 샘플에 기반하여 제1 모델(132)에 따라 제3 분류 결과를 생성한다. 또한, 그 다음, 제1 분류 결과, 제2 분류 결과 및 제3 분류 결과 간의 차이에 기반하여 제1 제약을 결정한다.
예를 들어 오리지널 샘플은 숫자 1을 포함한 이미지이다. 제1 증강 샘플, 제2 증강 샘플 및 제3 증강 샘플은 각각 해당 오리지널 샘플의 상이한 밝음도, 상이한 방향 및 상이한 크기의 세 가지 증강 샘플이다. 그러면 컴퓨팅 기기(110)는 해당 세 가지 증강 샘플의 제1 모델에서의 출력을 아래와 같이 결정할 수 있다. 제1 분류 결과는 숫자 1의 확률이 80%, 숫자 7의 확률이 15%, 숫자 9의 확률이 5%이고; 제2 분류 결과는 숫자 1의 확률이 60%, 숫자 7의 확률이 25%, 숫자 9의 확률이 15%이며; 제3 분류 결과는 숫자 1의 확률이 40%, 숫자 7의 확률이 30%, 숫자 9의 확률이 30%이다. 그 다음, 컴퓨팅 기기(110)는 상기 세 개의 분류 결과 중의 둘씩의 결과 간의 차이를 계산하여 제1 제약으로 할 수 있다. 컴퓨팅 기기(110)는 매 두 개의 분류 결과 간의 차이의 L2 손실 함수를 계산하고 그 다음 그 평균치를 제1 제약으로 할 수 있다. 상기 오리지널 샘플, 분류 결과 및 손실 함수 유형에 관한 설명은 단지 예시적인 것이며, 상이한 유형의 샘플 및 분류 결과가 존재할 수도 있음을 주의해야 한다.
이해하여야 할 것은 동일한 오리지널 샘플의 상이한 증강 샘플에 대한 모델의 출력 결과는 일치하여야 하며, 컴퓨팅 기기(110)는 제1 제약이 최소화되도록 제1 모델(132)의 파라미터를 조정하고, 이로써 동일한 오리지널 샘플 중의 상이한 증강 샘플의 출력 결과 간의 일치성을 구현할 수 있다. 이에 의해, 상이한 증강 데이터에 대한 모델의 적응 능력을 향상할 수 있고, 이로써 모델의 일반화 성능을 향상할 수 있다.
도 2의 블록230에서 컴퓨팅 기기(110)는 복수의 증강 샘플 세트에 기반하여 제1 모델(132) 및 제2 모델(134)에 따라 제2 제약을 결정하고, 제2 제약은 동일한 증강 샘플에 대한 제1 모델(132) 및 제2 모델(134)의 출력 간의 차이와 연관되며, 제1 모델(132)의 복잡도는 제2 모델(134)의 복잡도보다 낮다. 상기에서 도 1에 따라 설명한 바와 같이, 복잡도가 높은 제2 모델을 이용하여 복잡도가 낮은 제1 모델을 훈련할 수 있다. 예를 들어 동일한 샘플에 대한 제1 모델 및 제2 모델의 출력 간의 차이를 제2 제약으로 결정할 수 있다.
일부 실시예에서 컴퓨팅 기기(110)는 제4 증강 샘플에 기반하여 제1 모델(132)에 따라 제4 분류 결과를 생성할 수 있다. 그 다음, 제4 증강 샘플에 기반하여 제2 모델(134)에 따라 제5 분류 결과를 생성한다. 그리고 마지막으로 제4 분류 결과 및 제5 분류 결과 간의 차이에 기반하여 제2 제약을 결정한다.
예를 들어 동일한 제4 증강 샘플에 관하여, 예를 들어 신호등의 이미지가 포함되어 있다. 제1 모델의 제4 분류 결과는 현재 점등 확률이 적색 신호등 70%, 녹색 신호등 20%, 황색 신호등 10%이며; 제2 모델의 제5 분류 결과는 현재 점등 확률이 적색 신호등 50%, 녹색 신호등 30%, 황색 신호등 20%이다. 그 다음, 컴퓨팅 기기(110)는 상기 간의 차이를 결정하여 제2 제약으로 할 수가 있다. 예를 들어 컴퓨팅 기기(110)는 상기 분류 결과 간의 차이의 크로스 엔트로피 손실을 계산하여 제2 제약으로 할 수가 있다. 이해하여야 할 것은, 컴퓨팅 기기(110)는 제2 제약이 최소화되도록 제1 모델(132)의 파라미터를 조정할 수 있다. 이를 통해 작은 파라미터의 모델이 큰 파라미터의 모델의 인식 정밀도를 구현하도록 할 수 있다.
도 2의 블록240에서 컴퓨팅 기기(110)는 적어도 제1 제약 및 제2 제약에 기반하여 제1 모델을 훈련하여 훈련을 거친 제1 모델을 획득한다. 예를 들어 컴퓨팅 기기(110)는 상기 결정된 제약에 따라 제1 모델의 파라미터를 조정함으로써 훈련을 거친 제1 모델을 획득할 수 있다.
일부 실시예에서 증강 샘플은 증강 샘플의 카테고리를 지시하는 라벨을 가진다. 예를 들어 해당 라벨은 이미지 중의 숫자가 1 또는 켜져 있는 신호등의 색이 녹색 신호등임을 지시할 수 있다. 컴퓨팅 기기(110)는 복수의 증강 샘플 세트에 기반하여 제1 모델(132)에 따라 제3 제약을 결정할 수 있으며, 제3 제약은 증강 샘플에 대한 제1 모델(132)의 출력 및 라벨의 차이와 연관된다. 예를 들어 컴퓨팅 기기(110)는 제1 모델의 출력(예를 들어 분류 결과)과 라벨 간의 차이의 CTC 손실 함수를 결정하여 제3 제약으로 할 수가 있다.
컴퓨팅 기기(110)가 제3 제약을 결정한 후, 컴퓨팅 기기(110)는 제1 제약, 제2 제약, 제3 제약 및 그들과 관련되는 가중치에 기반하여 제1 모델을 훈련하여, 훈련을 거친 제1 모델을 획득할 수 있다.
예를 들어 도 1B를 예시로 하면, 컴퓨팅 기기(110)는 제1 모델(132)에 대해 동일한 오리지널 샘플(122)의 제1 증강 샘플(126) 및 제2 증강 샘플(128)의 제1 출력(162) 및 제2 출력(164) 간의 차이의 제1 제약(142)을 결정할 수 있다. 컴퓨팅 기기(110)는 제1 모델(132) 및 제2 모델(134)에 대한 동일한 증강 샘플(제1 증강 샘플(126), 제2 증강 샘플(128) 또는 이 양자) 간의 출력 사이의 차이(즉 제1 출력(162) 및 제3 출력(166) 간의 차이, 제2 출력(162) 및 제4 출력(168) 간의 차이)의 제2 제약(144)을 결정할 수도 있다. 컴퓨팅 기기(110)는 또한 라벨(160) 및 제1 출력(162) 또는 제2 출력(164) 간의 차이의 제3 제약(146)을 결정할 수도 있다. 컴퓨팅 기기(110)는 아래의 수식(1)에 따라 총 제약을 결정할 수 있다.
총 제약=가중치 1*제1 제약+가중치 2*제2 제약+가중치 3*제3 제약 (1)
여기에서, 가중치는 상이한 응용 수요에 따라 조정할 수 있다. 컴퓨팅 기기(110)는 마지막에 총 제약에 따라 제1 모델(132)의 파라미터를 조정하여 총 제약이 최소화되게 하고, 나아가 훈련을 거친 제1 모델을 획득할 수 있다.
일부 실시예에서 컴퓨팅 기기(110)는 제1 모델(132)에 대한 테스트 결과에 따라 끊임없이 상기 세 개의 가중치를 조정할 수 있다. 예를 들어 만약 컴퓨팅 기기(110)가 모델의 테스트 단계에서 동일한 오리지널 샘플 중의 상이한 증강 샘플에 대한 모델의 출력 사이의 차이가 큰 것이 확인되면, 가중치 1의 값을 가중치 2 및 가중치 3의 값보다 훨씬 더 높게 설정할 수 있다. 이에 의해, 상이한 제약을 표징하는 가중치를 조정함으로써 목표성이 있게 모델을 훈련할 수 있다. 이로써, 고효율 적이고 정확한 모델 훈련을 구현한다.
본 개시의 실시예에 따르면 복잡도가 높은 모델을 이용함으로써 복잡도가 낮은 모델의 훈련을 지도할 수 있으며, 훈련된 모델의 정확성을 향상할 수 있다. 나아가, 동일한 샘플에 대한 상이한 증강 처리를 거친 후의 모델의 출력의 일치성을 동시에 고려함으로써 훈련한 모델의 일반성을 향상할 수 있다.
도 3은 본 개시의 실시예에 따른 데이터를 처리하기 위한 예시적인 방법(300)의 흐름도를 나타낸다. 예를 들어 방법(300)은 도 1A에 도시된 바와 같은 컴퓨팅 기기에 의해 실행할 수 있다.
도 3의 블록310에서 컴퓨팅 기기(110)는 입력 데이터를 획득할 수 있다. 컴퓨팅 기기(110)에는 상기에서 설명한 방식에 따라 훈련을 진행한 훈련을 거친 모델을 배치할 수 있다. 일부 실시예에서 입력 데이터는 이미지 분류를 진행할 이미지 데이터일 수 있으며, 그리고 훈련을 거친 모델은 이미지 분류 모델, 시맨틱 분할 모델 및 목표 인식 모델 중의 하나일 수 있다.
도 3의 블록320에서 컴퓨팅 기기(110)는 훈련을 거친 모델을 이용하여 상기 입력 데이터에 대한 예측 결과를 결정할 수 있다. 예를 들어 상기 입력 데이터가 이미지 분류를 진행할 이미지 데이터일 수 있고 훈련을 거친 모델이 이미지 분류 모델인 실시예에서, 예측 결과는 상기 이미지의 분류 결과이다. 상기 입력 데이터가 시맨틱 분할을 진행할 이미지 데이터일 수 있고 훈련을 거친 모델이 시맨틱 분할 모델인 실시예에서, 예측 결과는 시맨틱 분할 결과이다. 상기 입력 데이터가 대상 인식을 진행할 이미지 데이터일 수 있고 훈련을 거친 모델이 목표 인식 모델인 실시예에서, 예측 결과는 목표 인식 결과이다. 본 개시에 따른 수단은, 기타 이미지 처리와 관련된 태스크 또는 이미지 처리 기술에 기반하여 진행하는 태스크(예를 들어 자율 주행, 자율 주차 등)에 응용할 수도 있다.
도 4는 본 개시의 실시예에 따른 모델을 훈련하기 위한 장치(400)의 예시적인 블록도를 나타낸다. 도 4에 도시된 바와 같이, 장치(400)는 복수의 오리지널 샘플에 대응하는 복수의 증강 샘플 세트를 결정하도록 구성된 증강 샘플 결정 모듈(410); 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라 동일한 증강 샘플 세트 중의 상이한 증강 샘플에 대한 제1 모델의 출력 간의 차이와 연관되는 제1 제약을 결정하도록 구성된 제1 제약 결정 모듈(420); 복수의 증강 샘플 세트에 기반하여 제1 모델 및 제2 모델에 따라, 동일한 증강 샘플에 대한 제1 모델 및 제2 모델의 출력 간의 차이와 연관되는 제2 제약을 결정하도록 구성된 제2 제약 결정 모듈(430); 및 적어도 제1 제약 및 제2 제약에 기반하여 제1 모델을 훈련함으로써 훈련을 거친 제1 모델을 획득하도록 구성된 제1 모델 훈련 모듈(440)을 포함한다, 제1 모델의 복잡도는 제2 모델의 복잡도에 비해 낮다.
일부 실시예에서, 제1 제약 결정 모듈(420)은 증강 샘플 세트 중의 제1 증강 샘플에 기반하여 제1 모델에 따라 제1 분류 결과를 생성하도록 구성된 제1 결과 생성 모듈; 증강 샘플 세트 중의 제2 증강 샘플에 기반하여 제1 모델에 따라 제2 분류 결과를 생성하도록 구성된 제2 결과 생성 모듈; 증강 샘플 세트 중의 제3 증강 샘플에 기반하여 제1 모델에 따라 제3 분류 결과를 생성하도록 구성된 제3 결과 생성 모듈; 및 제1 분류 결과, 제2 분류 결과 및 제3 분류 결과 간의 차이에 기반하여 제1 제약을 결정하도록 구성된 제4 제약 결정 모듈을 포함할 수 있다.
일부 실시예에서 증강 샘플은 증강 샘플의 카테고리를 지시하는 라벨을 가지며, 장치(400)는 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라 제3 제약을 결정하도록 구성된 제5 제약 결정 모듈을 포함할 수도 있으며, 제3 제약은 증강 샘플에 대한 제1 모델의 출력 및 라벨의 차이와 연관될 수 있다.
일부 실시예에서 제1 모델 훈련 모듈(440)은 제1 제약, 제2 제약 및 제3 제약 및 그들과 관련되는 가중치에 기반하여 제1 모델을 훈련하여 훈련을 거친 제1 모델을 획득하도록 구성된 제2 모델 훈련 모듈을 포함할 수 있다.
일부 실시예에서 제2 제약 결정 모듈(430)은 제4 증강 샘플에 기반하여 제1 모델에 따라 제4 분류 결과를 생성하도록 구성된 제4 결과 생성 모듈; 제4 증강 샘플에 기반하여 제2 모델에 따라 제5 분류 결과를 생성하도록 구성된 제5 결과 생성 모듈; 및 제4 분류 결과 및 제5 분류 결과 간의 차이에 기반하여 제2 제약을 결정하도록 구성된 제6 제약 결정 모듈을 포함할 수 있다.
일부 실시예에서 샘플은 이미지, 동영상, 오디오, 텍스트, 및 멀티미디어 파일 중의 적어도 하나를 포함할 수 있다.
도 5는 본 개시의 실시예에 따른 데이터를 처리하기 위한 장치(500)의 예시적인 블록도를 나타낸다. 도 5에 도시된 바와 같이 장치(500)는 입력 데이터를 획득하도록 구성된 데이터 획득 모듈(510); 및 상기에 따른 장치(400)에 의해 훈련한 훈련을 거친 모델을 이용하여 입력 데이터에 대한 예측 결과를 결정하도록 구성된 예측 모듈(520)을 포함한다.
일부 실시예에서 입력 데이터는 이미지의 데이터일 수 있고 훈련을 거친 모델은 이미지 분류 모델, 시맨틱 분할 모델 및 목표 인식 모델 중의 하나일 수 있으며, 예측 결과는 이미지의 분류 결과, 시맨틱 분할 결과 및 목표 인식 결과 중의 대응하는 하나일 수 있다.
도 6은 본 개시의 실시예를 실시하기 위해 사용할 수 있는 예시적인 전자 기기(600)의 예시적인 블록도를 나타낸다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 워크스테이션, 개인 휴대 정보 단말기, 서버, 블레이드 서버, 메인 프레임 컴퓨터 및 기타 적합한 컴퓨터와 같은 다양한 형식의 디지털 컴퓨터를 나타내기 위한 것이다. 전자 기기는 개인 휴대 정보 단말기, 셀룰러폰, 스마트폰, 웨어러블 기기 및 기타 유사한 컴퓨팅 장치와 같은 다양한 형식의 모바일 장치를 나타낼 수도 있다. 본문에 기재된 부품, 그들의 연결 및 관계, 및 그들의 기능은 단지 예시로 할 것이고 본문에서 설명 및/또는 요구한 본 개시의 구현을 제한하려는 것은 아니다.
도 6에 도시한 바와 같이 기기(600)는 읽기 전용 메모리(ROM)(602)에 저장된 컴퓨터 프로그램 또는 저장 유닛(608)으로부터 랜덤 액세스 메모리(RAM)(603)에 로딩된 컴퓨터 프로그램에 따라 다양한 적합한 동작 및 처리를 실행할 수 있는 컴퓨팅 유닛(601)을 포함한다. RAM(603)에는 기기(600)가 동작하는데 필요한 다양한 프로그램 및 데이터를 저장할 수도 있다. 컴퓨팅 유닛(601), ROM(602) 및 RAM(603)은 버스(604)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(605)도 버스(604)에 연결된다.
기기(600) 중의 복수의 부품은 I/O 인터페이스(605)에 연결되며 키보드, 마우스 등과 같은 입력 유닛(606); 다양한 유형의 디스플레이, 스피커 등과 같은 출력 유닛(607); 자기 디스크, 광 디스크 등과 같은 저장 유닛(608); 및 네트워크 카드, 모뎀, 무선 통신 송수신기 등과 같은 통신 유닛(609)을 포함한다. 통신 유닛(609)은 기기(600)로 하여금 인터넷과 같은 컴퓨터 네트워크 및/또는 다양한 통신 네트워크를 통해 기타 기기와 정보/데이터를 교환하도록 허용한다.
컴퓨팅 유닛(601)은 다양한 처리 및 계산 능력을 가진 범용 및/또는 전용 처리 컴포넌트일 수 있다. 컴퓨팅 유닛(601)의 일부 예시는 중앙 처리 유닛(CPU), 그래픽 처리 유닛(GPU), 다양한 전용적인 인공 지능(AI) 컴퓨팅 칩, 기계 학습 모델 알고리즘을 실행하는 다양한 컴퓨팅 유닛, 디지털 신호 프로세서(DSP) 및 임의의 적합한 프로세서, 컨트롤러, 마이크로 컨트롤러 등을 포함하지만 이에 한정되지 않는다. 컴퓨팅 유닛(601)은 상기에서 설명한 각 방법 및 처리, 예를 들어 프로세스(200) 및 프로세스(300)를 실행한다. 예를 들어 일부 실시예에서, 프로세스(200) 및 프로세스(300)는 컴퓨터 소프트웨어 프로그램으로 구현될 수 있으며, 저장 유닛(608)과 같은 기계 판독 가능 매체에 유형적으로 저장될 수 있다. 일부 실시예에서 컴퓨터 프로그램의 부분 또는 전부는 ROM(602) 및/또는 통신 유닛(609)을 통해 기기(600)에 로딩되거나 설치될 수 있다. 컴퓨터 프로그램이 RAM(603)에 로딩되고 컴퓨팅 유닛(601)에 의해 실행될 때 상기에서 설명한 프로세스(200) 및 프로세스(300) 중의 하나 또는 복수의 단계를 실행할 수 있다. 선택적으로, 기타 실시예에서, 컴퓨팅 유닛(801)은 기타 임의의 적합한 방식을 통해(예를 들어 펌웨어에 의해) 프로세스(200) 및 프로세스(300)을 실행하도록 구성될 수 있다.
본문에서 이상 설명한 시스템 및 기술의 다양한 실시 방식은 디지털 전자 회로 시스템, 집적 회로 시스템, 필드 프로그램 가능 게이트 어레이(FPGA), 전용 집적 회로(ASIC), 특정 용도 표준 제품(ASSP), 시스템 온 칩(SOC), 부하 프로그램 가능 논리 소자(CPLD), 컴퓨터 하드웨어, 펌웨어, 소프트웨어 및/또는 이들의 조합에서 구현할 수 있다. 이러한 여러가지 실시 방식은 하나 또는 복수의 컴퓨터 프로그램에서 실시되는 것을 포함할 수 있으며, 상기 하나 또는 복수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있으며, 저장 시스템, 적어도 하나의 입력 장치 및 적어도 하나의 출력 장치로부터 데이터 및 명령어를 수신할 수 있으며, 데이터 및 명령어를 상기 저장 시스템, 상기 적어도 하나의 입력 장치 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
본 개시의 방법을 실시하기 위한 프로그램 코드는 하나 또는 복수의 프로그래밍 언어의 임의의 조합을 채용하여 프로그래밍할 수 있다. 이러한 프로그램 코드는 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그램 가능 데이터 처리 장치의 프로세서 또는 컨트롤러에 제공됨으로써 프로그램 코드가 프로세서 또는 컨트롤러에 의해 실행될 때 흐름도 및/또는 블록도에서 규정한 기능 및/또는 단계가 실시될 수 있도록 한다. 프로그램 코드는 전부 기계에서 실행, 부분적으로 기계에서 실행되고, 독립형 소프트웨어 패키지로서 부분적으로 기계에서 실행되고 부분적으로 원격 기계에서 실행 또는 전부 원격 기계 또는 서버에서 실행될 수 있다.
본 개시의 문맥에서 기계 판독 가능 매체는 유형 매체일 수 있으며, 이는 명령어 실행 시스템, 장치 또는 기기가 사용하거나 명령어 실행 시스템, 장치 또는 기기와 결합하여 사용하기 위한 프로그램을 포함하거나 저장할 수 있다. 기계 판독 가능 매체는 기계 판독 가능 신호 매체 또는 기계 판독 가능 저장 매체일 수 있다. 기계 판독 가능 매체는 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 기기, 또는 상기 콘텐츠의 임의의 적합한 조합을 포함할 수 있지만 이에 한정되지 않는다. 기계 판독 가능 저장 매체의 더 구체적인 예시로는 하나 또는 복수의 와이어를 기반으로 한 전기적 연결, 휴대용 컴퓨터 디스크, 하드 드라이브, 랜덤 액세스 메모리(RAM), 읽기 전용 메모리(ROM), 소거 가능 및 프로그램 가능 읽기 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대용 콤팩트 디스크 읽기 전용 메모리(CD-ROM), 광학적 저장 기기, 자기적 저장 기기 또는 상기 콘텐츠의 임의의 적합한 조합을 포함한다.
사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기에서 설명한 시스템 및 기술을 실시할 수 있으며, 해당 컴퓨터는 사용자에게 정보를 나타내기 위한 디스플레이 장치(예를 들어 CRT(음극선 관) 또는 LCD(액정 디스플레이) 모니터); 및 키보드 및 지향 장치(예를 들어 마우스 또는 트랙볼)를 가지며, 사용자는 해당 키보드 및 해당 지향 장치를 통해 컴퓨터에 입력을 제공할 수 있다. 기타 종류의 장치도 사용자와의 인터랙션을 제공하는 데 사용될 수 있으며, 예를 들어 사용자에게 제공되는 피드백은 임의의 형식의 센싱 피드백(예를 들어 시각적 피드백, 청각적 피드백 또는 촉각적 피드백)일 수 있으며, 또 임의의 형식(소리 입력, 음성 입력 또는 촉각 입력을 포함)으로 사용자로부터의 입력을 접수할 수 있다.
여기에서 설명한 시스템 및 기술을 백그라운드 부품을 포함하는 컴퓨팅 시스템(예를 들어 데이터 서버) 또는 미들웨어 부품을 포함하는 컴퓨팅 시스템(예를 들어 응용 서버) 또는 프런트 엔드 부품을 포함하는 컴퓨팅 시스템(예를 들어 그래픽 사용자 인터페이스 또는 네트워크 브라우저를 가진 사용자 컴퓨터, 사용자는 해당 그래픽 사용자 인터페이스 또는 해당 네트워크 브라우저를 통해 여기에서 설명한 시스템 및 기술의 실시 방식과 인터랙션 할 수 있음), 또는 이러한 백그라운드 부품, 미들웨어 부품 또는 프런트 엔드 부품을 포함하는 임의의 조합의 컴퓨팅 시스템에서 실시할 수 있다. 임의의 형식 또는 매체의 디지털 데이터 통신(예를 들어 통신 네트워크)을 통해 시스템의 부품을 서로 연결할 수 있다. 통신 네트워크의 예시로는 근거리 통신망(LAN), 광역 통신망(WAN) 및 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있으며, 보통 통신 네트워크를 통해 서로 인터랙션 한다. 대응되는 컴퓨터에서 실행하고 또 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 가짐으로써, 클라이언트와 서버의 관계를 생성한다. 서버는 클라우드 서버일 수 있으며, 클라우드 컴퓨팅 서버 또는 클라우드 호스트라고도 불리며, 클라우드 컴퓨팅 서버 체계 중의 하나의 호스트 제품으로서, 기존의 물리적 호스트 및 VPS 서버("Virtual Private Server" 또는 "VPS"로 약칭)에 존재하는 관리 난이도가 크고 업무 확장성이 약한 단점을 해결한다. 서버는 분산형 시스템의 서버이거나 블록체인과 결합된 서버일 수도 있다.
이해해야 할 것은, 위에서 설명한 다양한 형식의 프로세스를 사용하여, 단계를 다시 순서 배열, 추가 또는 삭제할 수 있다. 예를 들어 본 개시에 기재된 각 단계는 병행적으로 실행할 수도 있고 순차적으로 실행할 수도 있으며 상이한 순서로 실행할 수도 있는바, 본 개시에서 개시된 기술적 해결 수단에서 기대하는 결과를 구현할 수만 있으면, 본문은 이에 대해 제한하지 않는다.
상기 구체적인 실시 방식은 본 개시의 보호 범위를 한정하지 않는다. 본 기술 분야에서 통상의 지식을 가진 자들은 설계 요구와 기타 요소에 따라 다양한 수정, 조합, 하위 조합 및 교체를 할 수 있다는 것을 이해해야 한다. 본 개시의 사상 및 원칙 내에서 진행한 임의의 수정, 균등한 교체 및 개선 등은 모두 본 개시의 보호 범위 내에 포함되어야 한다.

Claims (22)

  1. 모델을 훈련하기 위한 방법으로서,
    복수의 오리지널 샘플에 대응하는 복수의 증강 샘플 세트를 결정하는 단계;
    상기 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라, 동일한 증강 샘플 세트 중의 상이한 증강 샘플에 대한 상기 제1 모델의 출력 간의 차이와 연관되는 제1 제약을 결정하는 단계;
    상기 복수의 증강 샘플 세트에 기반하여 상기 제1 모델 및 제2 모델에 따라, 동일한 증강 샘플에 대한 상기 제1 모델 및 상기 제2 모델의 출력 간의 차이와 연관되는 제2 제약을 결정하는 단계; 및
    적어도 상기 제1 제약 및 상기 제2 제약에 기반하여 상기 제1 모델을 훈련하여 훈련을 거친 상기 제1 모델을 획득하는 단계
    를 포함하되, 상기 제1 모델의 복잡도는 상기 제2 모델의 복잡도보다 낮은, 모델을 훈련하기 위한 방법.
  2. 제1항에 있어서,
    상기 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라 제1 제약을 결정하는 단계는,
    증강 샘플 세트 중의 제1 증강 샘플에 기반하여 상기 제1 모델에 따라 제1 분류 결과를 생성하는 것;
    상기 증강 샘플 세트 중의 제2 증강 샘플에 기반하여 상기 제1 모델에 따라 제2 분류 결과를 생성하는 것;
    상기 증강 샘플 세트 중의 제3 증강 샘플에 기반하여 상기 제1 모델에 따라 제3 분류 결과를 생성하는 것; 및
    상기 제1 분류 결과, 상기 제2 분류 결과 및 상기 제3 분류 결과 간의 차이에 기반하여 상기 제1 제약을 결정하는 것
    을 포함하는, 모델을 훈련하기 위한 방법.
  3. 제1항에 있어서,
    증강 샘플은 상기 증강 샘플의 카테고리를 지시하는 라벨을 가지며, 상기 모델을 훈련하기 위한 방법은
    상기 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라 제3 제약을 결정하는 단계를 더 포함하되, 상기 제3 제약은 상기 증강 샘플에 대한 상기 제1 모델의 출력 및 상기 라벨의 차이와 연관되는, 모델을 훈련하기 위한 방법.
  4. 제3항에 있어서,
    적어도 상기 제1 제약 및 상기 제2 제약에 기반하여 상기 제1 모델을 훈련하여 훈련을 거친 상기 제1 모델을 획득하는 단계는,
    상기 제1 제약, 상기 제2 제약 및 상기 제3 제약 및 그들과 관련되는 가중치에 기반하여 상기 제1 모델을 훈련하여 훈련을 거친 상기 제1 모델을 획득하는 것을 포함하는, 모델을 훈련하기 위한 방법.
  5. 제1항에 있어서,
    상기 복수의 증강 샘플 세트에 기반하여 상기 제1 모델 및 제2 모델에 따라 제2 제약을 결정하는 단계는,
    제4 증강 샘플에 기반하여 상기 제1 모델데 따라 제4 분류 결과를 생성하는 것;
    상기 제4 증강 샘플에 기반하여 상기 제2 모델에 따라 제5 분류 결과를 생성하는 것; 및
    상기 제4 분류 결과 및 상기 제5 분류 결과 간의 차이에 기반하여 상기 제2 제약을 결정하는 것
    을 포함하는, 모델을 훈련하기 위한 방법.
  6. 제1항에 있어서,
    샘플은
    이미지,
    동영상,
    오디오,
    텍스트, 및
    멀티미디어 파일
    중 적어도 하나를 포함하는, 모델을 훈련하기 위한 방법.
  7. 데이터를 처리하기 위한 방법으로서,
    입력 데이터를 획득하는 단계; 및
    제1항 내지 제6항 중 어느 한 항에 따른 모델을 훈련하기 위한 방법에 의해 훈련한 훈련을 거친 모델을 이용하여 상기 입력 데이터에 대한 예측 결과를 결정하는 단계
    를 포함하는, 데이터를 처리하기 위한 방법.
  8. 제7항에 있어서,
    상기 입력 데이터는 이미지의 데이터이며, 상기 훈련을 거친 모델은 이미지 분류 모델, 시맨틱 분할 모델 및 목표 인식 모델 중의 하나이며, 그리고 상기 예측 결과는 상기 이미지의 분류 결과, 시맨틱 분할 결과, 목표 인식 결과 중의 대응하는 하나인, 데이터를 처리하기 위한 방법.
  9. 모델을 훈련하기 위한 장치로서,
    복수의 오리지널 샘플에 대응하는 복수의 증강 샘플 세트를 결정하도록 구성된 증강 샘플 결정 모듈;
    상기 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라, 동일한 증강 샘플 세트 중의 상이한 증강 샘플에 대한 상기 제1 모델의 출력 간의 차이와 연관되는 제1 제약을 결정하도록 구성된 제1 제약 결정 모듈;
    상기 복수의 증강 샘플 세트에 기반하여 상기 제1 모델 및 제2 모델에 따라, 동일한 증강 샘플에 대한 상기 제1 모델 및 상기 제2 모델의 출력 간의 차이와 연관되는 제2 제약을 결정하도록 구성된 제2 제약 결정 모듈; 및
    적어도 상기 제1 제약 및 상기 제2 제약에 기반하여 상기 제1 모델을 훈련하여 훈련을 거친 상기 제1 모델을 획득하도록 구성된 제1 모델 훈련 모듈
    을 포함하되, 상기 제1 모델의 복잡도는 상기 제2 모델의 복잡도에 비해 낮은, 모델을 훈련하기 위한 장치.
  10. 제9항에 있어서,
    상기 제1 제약 결정 모듈은
    증강 샘플 세트 중의 제1 증강 샘플에 기반하여 상기 제1 모델에 따라 제1 분류 결과를 생성하도록 구성된 제1 결과 생성 모듈;
    상기 증강 샘플 세트 중의 제2 증강 샘플에 기반하여 상기 제1 모델에 따라 제2 분류 결과를 생성하도록 구성된 제2 결과 생성 모듈;
    상기 증강 샘플 세트 중의 제3 증강 샘플에 기반하여 상기 제1 모델에 따라 제3 분류 결과를 생성하도록 구성된 제3 결과 생성 모듈; 및
    상기 제1 분류 결과, 상기 제2 분류 결과 및 상기 제3 분류 결과 간의 차이에 기반하여 상기 제1 제약을 결정하도록 구성된 제4 제약 결정 모듈
    을 포함하는, 모델을 훈련하기 위한 장치.
  11. 제9항에 있어서,
    증강 샘플은 상기 증강 샘플의 카테고리를 지시하는 라벨을 가지며, 상기 모델을 훈련하기 위한 장치는
    상기 복수의 증강 샘플 세트에 기반하여 제1 모델에 따라 제3 제약을 결정하도록 구성된 제5 제약 결정 모듈도 포함하며, 상기 제3 제약은 상기 증강 샘플에 대한 상기 제1 모델의 출력 및 상기 라벨의 차이와 연관되는, 모델을 훈련하기 위한 장치.
  12. 제11항에 있어서,
    상기 제1 모델 훈련 모듈은
    상기 제1 제약, 상기 제2 제약 및 상기 제3 제약 및 그들과 관련되는 가중치에 기반하여 상기 제1 모델을 훈련하여 훈련을 거친 상기 제1 모델을 획득하도록 구성된 제2 모델 훈련 모듈을 포함하는, 모델을 훈련하기 위한 장치.
  13. 제9항에 있어서,
    상기 제2 제약 결정 모듈은
    제4 증강 샘플에 기반하여 상기 제1 모델에 따라 제4 분류 결과를 생성하도록 구성된 제4 결과 생성 모듈;
    상기 제4 증강 샘플에 기반하여 상기 제2 모델에 따라 제5 분류 결과를 생성하도록 구성된 제5 결과 생성 모듈; 및
    상기 제4 분류 결과 및 상기 제5 분류 결과 간의 차이에 기반하여 상기 제2 제약을 결정하도록 구성된 제6 제약 결정 모듈
    을 포함하는, 모델을 훈련하기 위한 장치.
  14. 제9항에 있어서,
    샘플은
    이미지,
    동영상,
    오디오,
    텍스트, 및
    멀티미디어 파일
    중의 적어도 하나를 포함하는, 모델을 훈련하기 위한 장치.
  15. 데이터를 처리하기 위한 장치로서,
    입력 데이터를 획득하도록 구성된 데이터 획득 모듈; 및
    제9항 내지 제14항 중 어느 한 항에 따른 장치에 의해 훈련한 훈련을 거친 모델을 이용하여 상기 입력 데이터에 대한 예측 결과를 결정하도록 구성된 예측 모듈
    을 포함하는, 데이터를 처리하기 위한 장치.
  16. 제15항에 있어서,
    상기 입력 데이터는 이미지의 데이터이며, 상기 훈련을 거친 모델은 이미지 분류 모델, 시맨틱 분할 모델 및 목표 인식 모델 중의 하나이며 그리고 상기 예측 결과는 상기 이미지의 분류 결과, 시맨틱 분할 결과 및 목표 인식 결과 중의 대응하는 한 항인, 데이터를 처리하기 위한 장치.
  17. 전자 기기로서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결된 메모리
    를 포함하되, 상기 메모리는 상기 적어도 하나의 프로세서에서 실행될 수 있는 명령어를 저장하고 있으며, 상기 명령어는 상기 적어도 하나의 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서로 하여금 제1항 내지 제6항 중 어느 한 항에 따른 모델을 훈련하기 위한 방법을 실행할 수 있게 하는, 전자 기기.
  18. 전자 기기로서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결된 메모리
    를 포함하되, 상기 메모리는 상기 적어도 하나의 프로세서에서 실행될 수 있는 명령어를 저장하고 있으며, 상기 명령어는 상기 적어도 하나의 프로세서에 의해 실행되어 상기 적어도 하나의 프로세서로 하여금 제7항에 따른 데이터를 처리하기 위한 방법을 실행할 수 있게 하는, 전자 기기.
  19. 컴퓨터로 하여금 제1항 내지 제6항 중 어느 한 항에 따른 모델을 훈련하기 위한 방법을 실행하게 하기 위한 컴퓨터 명령어가 저장되어 있는 비휘발성 컴퓨터 판독 가능 저장 매체.
  20. 컴퓨터로 하여금 제7항에 따른 데이터를 처리하기 위한 방법을 실행하게 하기 위한 컴퓨터 명령어가 저장되어 있는 비휘발성 컴퓨터 판독 가능 저장 매체.
  21. 프로세서에 의해 실행될 때 제1항 내지 제6항 중 어느 한 항에 따른 모델을 훈련하기 위한 방법을 구현하는 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품.
  22. 프로세서에 의해 실행될 때 제7항에 따른 데이터를 처리하기 위한 방법을 구현하는 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품.
KR1020210126010A 2021-03-25 2021-09-23 모델을 훈련하기 위한 방법, 장치, 기기, 매체 및 프로그램 제품 KR20210124111A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110321597.X 2021-03-25
CN202110321597.XA CN113033537B (zh) 2021-03-25 2021-03-25 用于训练模型的方法、装置、设备、介质和程序产品

Publications (1)

Publication Number Publication Date
KR20210124111A true KR20210124111A (ko) 2021-10-14

Family

ID=76474029

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210126010A KR20210124111A (ko) 2021-03-25 2021-09-23 모델을 훈련하기 위한 방법, 장치, 기기, 매체 및 프로그램 제품

Country Status (5)

Country Link
US (1) US20220004811A1 (ko)
EP (1) EP3913542A3 (ko)
JP (1) JP7291183B2 (ko)
KR (1) KR20210124111A (ko)
CN (1) CN113033537B (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114429581A (zh) * 2022-01-26 2022-05-03 北京百度网讯科技有限公司 数据处理方法及装置、设备、介质和产品
CN114595923A (zh) * 2022-01-11 2022-06-07 电子科技大学 一种基于深度强化学习的群体教学推荐系统
KR102479679B1 (ko) * 2021-12-31 2022-12-21 주식회사 애자일소다 데이터 증강과 오토 레이블링을 이용한 데이터 구축 장치 및 방법
CN116071621A (zh) * 2023-03-15 2023-05-05 中汽智联技术有限公司 针对感知算法的训练样本生成和验证方法、设备和介质

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420533B (zh) * 2021-07-09 2023-12-29 中铁七局集团有限公司 信息提取模型的训练方法、装置及电子设备
CN113807455A (zh) * 2021-09-26 2021-12-17 北京有竹居网络技术有限公司 构建聚类模型的方法、设备、介质和程序产品
CN116229175B (zh) * 2022-03-18 2023-12-26 北京百度网讯科技有限公司 图像处理方法、装置、设备及存储介质
CN114372477B (zh) * 2022-03-21 2022-06-10 北京百度网讯科技有限公司 文本识别模型的训练方法、文本识别方法及装置
CN114596637B (zh) * 2022-03-23 2024-02-06 北京百度网讯科技有限公司 图像样本数据增强训练方法、装置及电子设备
CN115050238B (zh) * 2022-07-08 2024-03-12 卡斯柯信号有限公司 一种基于真实ctc系统的多模式切换仿真实训系统
CN117253287B (zh) * 2023-09-21 2024-04-26 书行科技(北京)有限公司 基于域泛化的动作预测模型训练方法、相关方法及产品
CN117435981B (zh) * 2023-12-22 2024-03-01 四川泓宝润业工程技术有限公司 机泵设备运行故障诊断方法、装置、存储介质及电子设备

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016037350A1 (en) 2014-09-12 2016-03-17 Microsoft Corporation Learning student dnn via output distribution
US9786270B2 (en) * 2015-07-09 2017-10-10 Google Inc. Generating acoustic models
JP2020140466A (ja) 2019-02-28 2020-09-03 富士通株式会社 訓練データ拡張装置、方法、及びプログラム
KR20220047851A (ko) 2019-08-22 2022-04-19 구글 엘엘씨 샘플 일치 평가를 통한 능동 학습
US20230141896A1 (en) * 2020-03-30 2023-05-11 University Of Florida Research Foundation, Inc. Collaborative feature ensembling adaptation for domain adaptation in unsupervised optic disc and cup segmentation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102479679B1 (ko) * 2021-12-31 2022-12-21 주식회사 애자일소다 데이터 증강과 오토 레이블링을 이용한 데이터 구축 장치 및 방법
CN114595923A (zh) * 2022-01-11 2022-06-07 电子科技大学 一种基于深度强化学习的群体教学推荐系统
CN114429581A (zh) * 2022-01-26 2022-05-03 北京百度网讯科技有限公司 数据处理方法及装置、设备、介质和产品
CN116071621A (zh) * 2023-03-15 2023-05-05 中汽智联技术有限公司 针对感知算法的训练样本生成和验证方法、设备和介质

Also Published As

Publication number Publication date
CN113033537B (zh) 2022-07-01
JP2022006174A (ja) 2022-01-12
JP7291183B2 (ja) 2023-06-14
US20220004811A1 (en) 2022-01-06
CN113033537A (zh) 2021-06-25
EP3913542A2 (en) 2021-11-24
EP3913542A3 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
KR20210124111A (ko) 모델을 훈련하기 위한 방법, 장치, 기기, 매체 및 프로그램 제품
CN111104962B (zh) 图像的语义分割方法、装置、电子设备及可读存储介质
CN112560912B (zh) 分类模型的训练方法、装置、电子设备和存储介质
CN113326764A (zh) 训练图像识别模型和图像识别的方法和装置
US20220004928A1 (en) Method and apparatus for incrementally training model
KR20220122566A (ko) 텍스트 인식 모델의 트레이닝 방법, 텍스트 인식 방법 및 장치
US20200320387A1 (en) Independent and dependent reading using recurrent networks for natural language inference
CN115244587A (zh) 高效基础事实注释
CN112949767A (zh) 样本图像增量、图像检测模型训练及图像检测方法
CN113657483A (zh) 模型训练方法、目标检测方法、装置、设备以及存储介质
KR20230139296A (ko) 포인트 클라우드 처리 모델의 훈련과 포인트 클라우드 인스턴스 분할 방법 및 장치
CN113434683A (zh) 文本分类方法、装置、介质及电子设备
CN113887615A (zh) 图像处理方法、装置、设备和介质
CN114186681A (zh) 用于生成模型簇的方法、装置及计算机程序产品
CN110633716A (zh) 一种目标对象的检测方法和装置
CN114266937A (zh) 模型训练、图像处理方法,装置,设备以及存储介质
CN116824609B (zh) 文档版式检测方法、装置和电子设备
CN113657411A (zh) 神经网络模型的训练方法、图像特征提取方法及相关装置
WO2024040870A1 (zh) 文本图像生成、训练、文本图像处理方法以及电子设备
CN113139463B (zh) 用于训练模型的方法、装置、设备、介质和程序产品
US12046021B2 (en) Machine learning training dataset optimization
CN116229095A (zh) 一种模型训练方法、视觉任务处理方法、装置及设备
JP7242797B2 (ja) 語句処理方法、機器及び記憶媒体
US20230062313A1 (en) Generating 2d mapping using 3d data
US20190026646A1 (en) Method to leverage similarity and hierarchy of documents in nn training

Legal Events

Date Code Title Description
E902 Notification of reason for refusal