KR20210042364A - 딥 러닝 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체 - Google Patents
딥 러닝 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체 Download PDFInfo
- Publication number
- KR20210042364A KR20210042364A KR1020217007097A KR20217007097A KR20210042364A KR 20210042364 A KR20210042364 A KR 20210042364A KR 1020217007097 A KR1020217007097 A KR 1020217007097A KR 20217007097 A KR20217007097 A KR 20217007097A KR 20210042364 A KR20210042364 A KR 20210042364A
- Authority
- KR
- South Korea
- Prior art keywords
- model
- training
- label information
- training set
- label
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G06K9/62—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20096—Interactive definition of curve of interest
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 딥 러닝 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체를 개시한다. 상기 딥 러닝 모델의 트레이닝 방법은, n 라운드의 트레이닝을 거친 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고; n 라운드의 트레이닝을 거친 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하는 단계 - n은 1보다 큰 정수임 - ; 상기 트레이닝 데이터 및 상기 (n+1) 번째 제1 라벨 정보에 기반하여, 제2 모델의 (n+1) 번째 트레이닝 세트를 생성하며, 상기 트레이닝 데이터 및 상기 (n+1) 번째 제2 라벨 정보에 기반하여, 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 생성하는 단계; 및 상기 제2 모델의 (n+1) 번째 트레이닝 세트를 상기 제2 모델에 입력하여, 상기 제2 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하고; 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 상기 제1 모델에 입력하여, 상기 제1 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하는 단계를 포함한다.
Description
관련 출원의 상호 참조
본 발명은 출원번호가 201811646736.0이고, 출원일이 2018년 12월 29일인 중국 특허 출원에 기반해 제출하였고, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 전부 내용은 참조로서 본 발명에 인용된다.
본 발명은 정보 기술분야에 한정되지 않는 정보 기술분야에 관한 것으로, 특히 딥 러닝 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체에 관한 것이다.
딥 러닝 모델은 트레이닝 세트에 대한 트레이닝을 거친 후, 일정한 분류 또는 인식 능력을 구비할 수 있다. 상기 트레이닝 세트는 일반적으로 트레이닝 데이터 및 트레이닝 데이터의 라벨 데이터를 포함한다. 그러나, 일반적으로 라벨 데이터는 수동으로 라벨링한다. 한편으로, 모든 트레이닝 데이터에 대한 순수한 수동 라벨링은, 작업량이 크고, 효율이 낮으며, 라벨 과정에서 인위적 오류가 존재하고; 다른 한편으로, 예를 들어, 이미지 분야의 라벨링과 같은 고정밀도의 라벨링이 필요할 경우, 픽셀 수준의 분할이 필요하며, 순수한 수동 라벨링으로 픽셀 수준 분할을 구현하기에는 난이도가 매우 크고 라벨 정밀도도 보장되기 어렵다.
따라서, 순수한 수동 라벨링된 트레이닝 데이터를 기반으로 하는 딥 러닝 모델의 트레이닝은, 트레이닝 효율이 낮고, 트레이닝된 모델이 트레이닝 데이터 자체의 정밀도가 낮음으로 인해 모델의 분류 또는 인식 능력 정밀도가 예상 효과에 도달하지 못한다.
이를 고려하여, 본 발명의 실시예의 목적은, 딥 러닝 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체를 제공하려는 데 있다.
본 발명의 기술적 해결수단은 하기와 같이 구현된다.
본 발명의 실시예의 제1 양태는 딥 러닝 모델의 트레이닝 방법을 제공하고, 상기 딥 러닝 모델의 트레이닝 방법은,
n 라운드의 트레이닝을 거친 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하며; 및, n 라운드의 트레이닝을 거친 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하는 단계 - n은 1보다 큰 정수임 - ;
상기 트레이닝 데이터 및 상기 (n+1) 번째 제1 라벨 정보에 기반하여, 제2 모델의 (n+1) 번째 트레이닝 세트를 생성하고, 상기 트레이닝 데이터 및 상기 (n+1) 번째 제2 라벨 정보에 기반하여, 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 생성하는 단계; 및
상기 제2 모델의 (n+1) 번째 트레이닝 세트를 상기 제2 모델에 입력하여, 상기 제2 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하며; 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 상기 제1 모델에 입력하여, 상기 제1 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하는 단계를 포함한다.
상기 해결수단에 따르면, 상기 딥 러닝 모델의 트레이닝 방법은,
n이 N보다 작은지 여부를 결정하는 단계를 포함하고, N은 최대 트레이닝 라운드 수이며;
상기 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고, 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하는 단계는,
n이 N보다 작을 경우, 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고, 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하는 단계를 포함한다.
상기 해결수단에 따르면, 상기 트레이닝 데이터 및 상기 트레이닝 데이터의 초기 라벨 정보를 획득하는 단계는,
복수의 분할 타겟이 포함된 트레이닝 이미지 및 상기 분할 타겟의 외접 프레임을 획득하는 단계를 포함하고;
상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계는,
상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하는 단계; 및
상기 트레이닝 데이터 및 상기 라벨 윤곽선에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계를 포함한다.
상기 해결수단에 따르면, 상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계는,
상기 외접 프레임에 기반하여, 중첩 부분이 있는 2 개의 상기 분할 타겟 사이에 분할 경계를 생성하는 단계; 및
상기 트레이닝 데이터 및 상기 분할 경계에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계를 더 포함한다.
상기 해결수단에 따르면, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하는 단계는,
상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 셀 형상과 일치한 상기 외접 프레임의 내접 타원을 드로잉하는 단계를 포함한다.
본 발명의 실시예의 제2 양태는 딥 러닝 모델의 트레이닝 장치를 제공하고, 상기 딥 러닝 모델의 트레이닝 장치는,
n 라운드의 트레이닝을 거친 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하며; 및, n 라운드의 트레이닝을 거친 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하도록 구성된 라벨 모듈 - n은 1보다 큰 정수임 - ;
상기 트레이닝 데이터 및 상기 (n+1) 번째 제1 라벨 정보에 기반하여, 제2 모델의 (n+1) 번째 트레이닝 세트를 생성하고, 상기 트레이닝 데이터 및 상기 (n+1) 번째 제2 라벨 정보에 기반하여, 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 생성하도록 구성된 제1 생성 모듈; 및
상기 제2 모델의 (n+1) 번째 트레이닝 세트를 상기 제2 모델에 입력하여, 상기 제2 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하고; 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 상기 제1 모델에 입력하여, 상기 제1 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하도록 구성된 트레이닝 모듈을 포함한다.
상기 해결수단에 따르면, 상기 딥 러닝 모델의 트레이닝 장치는,
n이 N보다 작은지 여부를 결정하도록 구성된 결정 모듈을 포함하고, N은 최대 트레이닝 라운드 수이며;
상기 라벨 모듈은, n이 N보다 작을 경우, 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고, 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하도록 구성된다.
상기 해결수단에 따르면, 상기 딥 러닝 모델의 트레이닝 장치는,
상기 트레이닝 데이터 및 상기 트레이닝 데이터의 초기 라벨 정보를 획득하도록 구성된 획득 모듈; 및
상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된 제2 생성 모듈을 포함한다.
상기 해결수단에 따르면, 상기 획득 모듈은, 복수의 분할 타겟이 포함된 트레이닝 이미지 및 상기 분할 타겟의 외접 프레임을 획득하도록 구성되고;
상기 제2 생성 모듈은, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하며; 상기 트레이닝 데이터 및 상기 라벨 윤곽선에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된다.
상기 해결수단에 따르면, 상기 제1 생성 모듈은, 상기 외접 프레임에 기반하여, 중첩 부분이 있는 2 개의 상기 분할 타겟 사이에 분할 경계를 생성하고; 상기 트레이닝 데이터 및 상기 분할 경계에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된다.
상기 해결수단에 따르면, 상기 제2 생성 모듈은, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 셀 형상과 일치한 상기 외접 프레임의 내접 타원을 드로잉하도록 구성된다.
본 발명의 실시예의 제3 양태는 컴퓨터 저장 매체를 제공하고, 상기 컴퓨터 저장 매체에는 컴퓨터 실행 가능한 명령어가 저장되며; 상기 컴퓨터는 명령어를 실행할 수 있으며; 상기 컴퓨터 실행 가능한 명령어가 실행된 후, 전술한 전술한 어느 하나의 기술적 해결수단에서 제공되는 딥 러닝 모델의 트레이닝 방법을 구현할 수 있다.
본 발명의 실시예의 제4 양태는 전자 기기를 제공하고, 상기 전자 기기는,
메모리; 및
프로세서를 포함하며, 상기 메모리와 연결되어, 상기 메모리에 저장된 컴퓨터 실행 가능한 명령어를 실행하여 전술한 어느 하나의 기술적 해결수단에서 제공하는 딥 러닝 모델의 트레이닝 방법을 구현한다.
본 발명의 실시예의 제5 양태는 컴퓨터 프로그램 제품을 제공하고, 상기 프로그램 제품은 컴퓨터 실행 가능한 명령어를 포함하며; 상기 컴퓨터 실행 가능한 명령어가 실행된 후, 전술한 어느 하나의 기술적 해결수단에서 제공하는 딥 러닝 모델의 트레이닝 방법을 구현 가능하다.
본 발명의 실시예에서 제공하는 기술적 해결수단은, 딥 러닝 모델을 이용하여, 이전 라운드의 트레이닝이 완료된 후 트레이닝 데이터을 라벨링하여 라벨 정보를 획득하고, 상기 라벨 정보는 다른 하나의 모델의 다음 라운드의 트레이닝의 트레이닝 샘플로 사용되며, 매우 적은 초기 수동 라벨링된 트레이닝 데이터를 이용하여 모델 트레이닝을 수행한 후, 점진적으로 수렴되는 제1 모델 및 제2 모델을 이용하여 출력된 라벨 데이터를 인식하여 다른 모델의 다음 라운드의 트레이닝 샘플로 사용할 수 있다. 이전 라운드의 트레이닝 과정에서 딥 러닝 모델의 모델 파라미터는 대부분 라벨링된 정확한 데이터에 의해 생성되므로, 라벨이 정확하지 않거나 라벨 정밀도가 낮은 소량의 데이터는 딥 러닝 모델의 모델 파라미터에 대한 영향이 작고, 이렇게 여러 번 반복할 수록, 딥 러닝 모델의 라벨 정보는 점점 정확해진다. 점점 정확해진 라벨 정보를 트레이닝 데이터로 이용하면, 딥 러닝 모델의 트레이닝 결과도 점점 좋아지게 된다. 모델은 자체의 라벨 정보를 이용하여 트레이닝 샘플을 구축하므로, 수동 라벨링된 데이터 양을 감소시키고, 수동 라벨링으로 인해 초래되는 저효율 및 인위적 오류를 감소시키며, 모델의 트레이닝 속도가 빠르고 트레이닝 효과가 좋은 특징이 있고, 이러한 방식으로 트레이닝한 딥 러닝 모델을 사용하면, 분류 또는 인식 정확도가 높은 특징이 있다. 또한, 본 실시예에서 적어도 2 개의 모델을 동시에 트레이닝하여, 단일 모델이 하나의 잘못된 특징을 러닝 후 반복에 의해 초래되는 최종 딥 러닝 모델의 비정상적인 러닝 현상을 감소시킨다. 본 실시예에서 하나의 모델의 이전 라운드를 트레이닝한 후 트레이닝 데이터를 라벨링한 결과를, 다른 하나의 모델의 다음 라운드 학습에 사용함으로써, 2 개의 모델을 이용하여 다음 라운드를 위해 트레이닝 데이터를 서로 준비함으로써 단일 모델의 반복으로 인한 특정 오류를 감소시킬 수 있다. 따라서, 모델 학습의 오류 발생 현상을 감소시키며 딥 러닝 모델의 트레이닝 효과를 향상시킬 수 있다.
도 1은 본 발명의 실시예에서 제공하는 첫 번째 딥 러닝 모델의 트레이닝 방법의 흐름 모식도이다.
도 2는 본 발명의 실시예에서 제공하는 두 번째 딥 러닝 모델의 트레이닝 방법의 흐름 모식도이다.
도 3은 본 발명의 실시예에서 제공하는 세 번째 딥 러닝 모델의 트레이닝 방법의 흐름 모식도이다.
도 4는 본 발명의 실시예에서 제공하는 딥 러닝 모델의 트레이닝 장치의 구조 모식도이다.
도 5는 본 발명의 실시예에서 제공하는 트레이닝 세트의 변화 모식도이다.
도 6은 본 발명의 실시예에서 제공하는 전자 기기의 구조 모식도이다.
도 2는 본 발명의 실시예에서 제공하는 두 번째 딥 러닝 모델의 트레이닝 방법의 흐름 모식도이다.
도 3은 본 발명의 실시예에서 제공하는 세 번째 딥 러닝 모델의 트레이닝 방법의 흐름 모식도이다.
도 4는 본 발명의 실시예에서 제공하는 딥 러닝 모델의 트레이닝 장치의 구조 모식도이다.
도 5는 본 발명의 실시예에서 제공하는 트레이닝 세트의 변화 모식도이다.
도 6은 본 발명의 실시예에서 제공하는 전자 기기의 구조 모식도이다.
이하, 명세서 도면 및 구체적 실시예에 결부하여 본 발명의 기술적 해결수단을 더 상세히 설명할 것이다.
도 1에 도시된 바와 같이, 본 실시예에서 제공하는 딥 러닝 모델의 트레이닝 방법은 아래와 같은 단계를 포함한다.
단계 S110에 있어서, n 라운드의 트레이닝을 거친 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고; n 라운드의 트레이닝을 거친 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하며 n은 1보다 큰 정수이다.
단계 S120에 있어서, 상기 트레이닝 데이터 및 상기 (n+1) 번째 제1 라벨 정보에 기반하여, 제2 모델의 (n+1) 번째 트레이닝 세트를 생성하고, 상기 트레이닝 데이터 및 상기 (n+1) 번째 제2 라벨 정보에 기반하여, 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 생성한다.
단계 S130에 있어서, 상기 제2 모델의 (n+1) 번째 트레이닝 세트를 상기 제2 모델에 입력하여, 상기 제2 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하고; 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 상기 제1 모델에 입력하여, 상기 제1 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행한다.
본 실시예에서 제공하는 딥 러닝 모델의 트레이닝 방법은 예를 들어, 다양한 빅 데이터의 모델 트레이닝의 서버와 같은 다양한 전자 기기에 사용될 수 있다.
본 발명의 실시예에서 모든 제1 라벨 정보 및 제2 라벨 정보는 이미지의 라벨 정보를 포함할 수 있지만, 이에 한정되지는 않는다. 상기 이미지는 의료 영상 등을 포함할 수 있다. 상기 의료 영상은 평면(2D) 의료 영상 또는 복수의2D 이미지에 의해 형성된 이미지 시퀀스로 구성된 입체(3D) 의료 영상일 수 있다.
각각의 상기 제1 라벨 정보 및 상기 제2 라벨 정보는, 의료 영상에서 장기 및/또는 조직에 대한 라벨일 수 있고, 셀 내 다양한 셀 구조에 대한 라벨일 수도 있으며, 예를 들어, 셀 핵에 대한 라벨일 수 있다.
본 실시예 중의 단계 S110에서, n 라운드의 트레이닝을 완료한 제1 모델을 이용하여 트레이닝 데이터를 처리하고, 이때 제1 모델은 출력을 획득할 것이며, 상기 출력은 상기 (n+1) 번째 제1 라벨 데이터이고, 상기 (n+1) 번째 제1 라벨 데이터는 트레이닝 데이터에 대응되어, 제2 모델의 (n+1) 번째 트레이닝 세트를 형성하게 된다.
마찬가지로, 상기 단계 S110은 n 라운드의 트레이닝을 완료한 제2 모델을 이용하여 트레이닝 데이터를 처리하고, 이때 제2 모델은 출력을 획득할 것이며, 상기 출력은 상기 (n+1) 번째 제2 라벨 데이터이고, 상기 (n+1) 번째 제2 라벨 데이터는 트레이닝 데이터와 대응되어, 제1 모델의 (n+1) 번째 트레이닝 세트를 형성하게 된다.
본 발명의 실시예에서, 상기 제1 라벨 데이터는 제1 모델이 트레이닝 데이터를 인식하거나 분류하여 얻은 라벨 정보이고; 상기 제2 라벨 데이터는 제2 모델이 트레이닝 데이터를 인식하거나 분류하여 얻은 라벨 정보이다. 본 실시에서, 상기 (n+1) 번째 제1 라벨 데이터는 제2 모델의 (n+1) 번째 라운드의 트레이닝에 사용되고, 상기 (n+1) 번째 제2 라벨 데이터는 제1 모델의 (n+1) 번째 라운드의 트레이닝에 사용된다.
이로써, 본 실시예에서 사용자가 (n+1) 번째 라운드의 트레이닝을 위한 트레이닝 샘플을 수동으로 라벨링할 필요가 없이 제1 모델 및 제2 모델에 대한 (n+1) 번째 라운드의 트레이닝 샘플이 자동으로 생성되어, 샘플을 수동으로 라벨링하는데 소요되는 시간을 절약하고, 딥 러닝 모델의 트레이닝 속도를 향상시키며, 딥 러닝 모델의 수동 라벨링이 정확하지 않거나 정밀하지 않음으로 인해 모델 트레이닝 후의 분류 또는 인식 결과가 정밀하지 않은 현상을 감소시키고, 딥 러닝 모델 트레이닝 후의 분류 또는 인식 결과의 정밀도를 향상시킨다.
또한, 본 실시예에서, 제1 모델의 제1 라벨 데이터는 제2 모델을 트레이닝하고, 제2 모델의 제2 라벨 데이터는 제1 모델을 트레이닝하며, 이로써, 제1 모델 자체의 라벨 데이터가 자체의 다음 라운드의 트레이닝에 사용되어 초래되는 모델 트레이닝의 오류가 강화되는 현상을 억제하고, 이로써, 상기 제1 모델 및 제2 모델의 트레이닝 효과를 향상시킬 수 있다.
일부 실시예에서, 상기 제1 모델 및 제2 모델은 2 개의 독립적인 모델을 가리키지만, 이 2 개의 모델은 동일하거나 다를 수도 있다. 예를 들어, 상기 제1 모델 및 제2 모델은 동일한 타입의 딥 러닝 모델일 수 있거나, 다른 타입의 딥 러닝 모델일 수도 있다.
일부 실시예에서, 상기 제1 모델 및 제2 모델은 네트워크 구조가 상이한 딥 러닝 모델일 수 있고, 예를 들어, 상기 제1 모델은 완전 연결 컨볼루션 네트워크(FULLY CONNECTED NETWORK, FNN)이고, 제2 모델은 일반적인 컨볼루션 신경망(CONVOLUTIONAL NEURAL NETWORK, CNN)일 수 있다. 또 예를 들어, 상기 제1 모델은 순환 신경망일 수 있고, 제2 모델은 FNN 또는 CNN일 수 있다. 또 예를 들어, 상기 제1 모델은 V-NET일 수 있고, 상기 제2 모델은 U-NET 등일 수 있다.
상기 제1 모델 및 제2 모델이 상이하면, 상기 제1 모델 및 제2 모델이 트레이닝을 수행할 경우 동일한 제1 트레이닝 세트에 기반해 동일한 오류가 생성되는 확률은 대폭 감소되고, 여러 번 반복하는 과정에서 제1 모델 및 제2 모델이 동일함으로 인해 오류가 강화되는 현상을 더 억제할 수 있어, 트레이닝 결과를 더 향상시킬 수 있다.
본 실시예에서 일 라운드의 트레이닝을 완료하는 단계는, 제1 모델 및 제2 모델이 모두 각자 트레이닝 세트 중의 각각의 트레이닝 샘플에 대해 적어도 한 번의 학습을 완료하는 단계를 포함한다.
예를 들어, 상기 트레이닝 데이터가 S 개의 이미지인 것으로 예를 들 경우, 제1 트레이닝 샘플은 S 개의 이미지 및 이 S 개의 이미지의 수동 라벨링된 결과일 수 있고, S 개의 이미지에서 하나의 이미지의 라벨 이미지의 정밀도가 낮지만, 제1 모델 및 제2 모델이 제1 라운드의 트레이닝 과정에서, 나머지 S-1 개의 이미지의 라벨 구조 정밀도가 예상 임계값에 도달하면, 이 S-1 개의 이미지 및 이에 대응되는 라벨 데이터가 제1 모델 및 제2 모델의 모델 파라미터에 미치는 영향이 더 크다. 본 실시예에서, 상기 딥 러닝 모델은 신경망을 포함하지만 이에 한정되지 않고; 상기 모델 파라미터는 신경망에서 네트워크 노드의 가중치 및/또는 임계값을 포함하지만 이에 한정되지 않는다. 상기 신경망은, 예를 들어 U-net 또는 V-net과 같은 다양한 타입의 신경망일 수 있다. 상기 신경망은 트레이닝 데이터를 특징 추출하는 인코딩 부분 및 추출한 특징에 기반해 시맨틱(semantic) 정보를 획득하는 디코딩 부분을 포함할 수 있다. 예를 들어, 인코딩 부분은 이미지에서 분할 타겟이 위치한 영역 등을 특징 추출하여 분할 타겟 및 배경을 구분하는 마스크 이미지를 얻을 수 있고, 디코더는 마스크 이미지에 기반해 일부 시맨틱 정보를 얻을 수 있으며, 예를 들어, 픽셀 통계 등 방식을 통해 타겟의 오믹스 특징 등을 획득하고, 상기 오믹스 특징은 타겟의 면적, 부피 및 형상 등 형태 특징, 및/또는, 그레이 스케일 값에 기반해 형성되는 그레이 스케일 값 특징 등을 포함할 수 있다. 상기 그레이 스케일 값 특징은 히스토그램의 통계 특징 등을 포함할 수 있다.
요컨대, 본 실시예에서, 제1 라운드의 트레이닝을 거친 후의 제1 모델 및 제2 모델이 S 개의 이미지를 인식할 경우, 정밀도가 낮은 어느 하나의 이미지를 자동으로 라벨링하고, 다른 S-1 개의 이미지에서 학습 획득한 네트워크 파라미터를 이용하여 라벨링하며, 이때 라벨 정밀도는 다른 S-1 개의 이미지의 라벨 정밀도와 동일하므로, 이 하나의 이미지에 대응되는 제2 라벨 정보는 원래의 제1 라벨 정보에 대한 정밀도에 비해 향상될 수 있다. 이로써, 형성된 제1 모델의 제2 트레이닝 세트는, S 개의 이미지 및 제2 모델이 생성한 제1 라벨 정보로 형성된 트레이닝 데이터를 포함한다. 이로써, 제2 모델의 제2 트레이닝 세트는 트레이닝 데이터 및 제1 모델의 제1 라벨 정보를 포함한다. 제1 모델이 제1 라운드의 트레이닝 시 오류 A가 나타나지만, 제2 라운드의 트레이닝 시, 트레이닝 데이터 및 제2 모델이 출력한 제2 라벨 정보를 사용하고, 제2 모델에서 상기 오류 A가 발생하지 않으면, 제2 라벨 정보는 상기 오류 A의 영향을 받지 않는다. 이로써, 제2 모델의 제2 라벨 정보를 이용하여 제1 모델에 대한 제2 라운드의 트레이닝을 수행함으로써 오류 A가 제1 모델에서 강화되는 것을 억제할 수 있다. 따라서, 본 실시예에서, 제1 모델 및 제2 모델이 트레이닝 과정에서 가장 정확하거나 정밀도가 높은 라벨 정보에 기반해 학습하는 것을 이용하여, 초기 라벨 정밀도가 낮거나 정확하지 않은 샘플의 부정적 영향을 점차적으로 억제할 수 있고, 2 개의 모델의 라벨 데이터가 다음 라운드의 트레이닝에 교차 사용되므로, 트레이닝 샘플을 수동 라벨링으로 인한 오류를 크게 감소할 뿐만 아니라, 자체 반복 특성을 통해 트레이닝 정밀도를 점차적으로 향상시켜, 트레이닝된 제1 모델 및 제2 모델의 정밀도가 예상 효과에 도달하게 할 수 있다.
상기 예시에서 상기 트레이닝 데이터가 이미지인 것을 예로 들 경우, 일부 실시예에서, 상기 트레이닝 데이터는 이미지 이외의 음성 클립 및 상기 이미지 이외의 텍스트 정보 등일 수 있고; 요컨대, 상기 트레이닝 데이터의 형태는 다양하며, 상기 어느 하나에 한정되지 않는다.
일부 실시예에서, 도 2에 도시된 바와 같이, 상기 딥 러닝 모델의 트레이닝 방법은,
n이 N보다 작은지 여부를 결정하는 단계 S100를 포함하고, 여기서, N은 최대 트레이닝 라운드 수이며;
상기 단계 S110은,
n이 N보다 작을 경우, 제n 라운드의 트레이닝을 완료한 제1 모델을 이용해 트레이닝 데이터를 라벨링하여, (n+1) 번째 제1 라벨 정보를 획득하고, 제n 라운드의 트레이닝을 완료한 제2 모델을 이용해 상기 트레이닝 데이터를 라벨링하여, (n+1) 번째 제2 라벨 정보를 획득하는 단계를 포함할 수 있다.
본 실시예에서 (n+1) 번째 트레이닝 세트를 구축하기 전에, 우선, 현재 트레이닝된 라운드 수가 기설정된 최대 트레이닝 라운드 수 N에 도달했는지 여부를 결정하고, 도달되지 않은 경우에만 (n+1) 번째 라벨 정보를 생성하여, 제1 모델 및 제2 모델의 (n+1) 번째 트레이닝 세트를 구축하며, 그렇지 않을 경우, 모델 트레이닝이 완료되었다고 결정하여 상기 딥 러닝 모델의 트레이닝을 정지한다.
일부 실시예에서, 상기 N의 값은 4, 5, 6, 7 또는 8 등 경험 값 또는 통계 값일 수 있다.
일부 실시예에서, 상기 N의 값 범위는 3 내지 10 사이일 수 있고, 상기 N의 값은 트레이닝 기기가 인간-컴퓨터 인터랙션 인터페이스에서 수신한 사용자의 입력 값일 수 있다.
다른 일부 실시예에서, 트레이닝을 정지할지 여부를 결정하는 단계는,
테스트 세트를 이용하여 상기 제1 모델 및 제2 모델을 테스트하고, 테스트 결과가 상기 제1 모델 및 제2 모델의 테스트 세트에서 테스트 데이터에 대한 라벨 결과의 정밀도가 특정 값에 도달된 것으로 나타나면, 상기 제1 모델 및 제2 모델의 트레이닝을 정지하며, 그렇지 않을 경우, 상기 단계 S110에 진입하여 다음 라운드의 트레이닝에 진입하는 단계를 더 포함할 수 있다. 이때, 상기 테스트 세트는 정확한 라벨링된 데이터 세트일 수 있으므로, 하나의 제1 모델 및 제2 모델의 각 라운드의 트레이닝 결과를 평가하여, 제1 모델 및 제2 모델의 트레이닝을 정지할지 여부를 판단한다.
일부 실시예에서, 도 3에 도시된 바와 같이, 상기 딥 러닝 모델의 트레이닝 방법은,
상기 트레이닝 데이터 및 상기 트레이닝 데이터의 초기 라벨 정보를 획득하는 단계 S210; 및
상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계 S220을 포함한다.
본 실시예에서, 상기 초기 라벨 정보는 상기 트레이닝 데이터의 원 라벨 정보일 수 있고, 상기 원 라벨 정보는 수동 라벨 정보일 수 있으며, 다른 기기의 라벨 정보일 수도 있다. 예를 들어, 일정한 라벨 능력을 구비하는 다른 기기의 라벨 정보일 수 있다.
본 실시예에서, 트레이닝 데이터 및 초기 라벨 정보를 획득한 후, 초기 라벨 정보에 기반해 첫 번째 제1 라벨 정보 및 첫 번째 제2 라벨 정보를 생성하게 된다. 여기서 첫 번째 제1 라벨 정보 및 첫 번째 제1 라벨 정보는 상기 초기 라벨 정보 및/또는 상기 초기 표준 정보에 따라 생성된 정밀화된 라벨 정보를 직접 포함할 수 있다.
예를 들어, 트레이닝 데이터가 셀 이미지를 포함하는 이미지이면, 상기 초기 라벨 정보는 상기 셀 이미지의 대략적인 위치를 라벨링한 라벨 정보일 수 있고, 정밀화된 라벨 정보는 상기 셀의 위치를 정확하게 지시하는 위치 라벨일 수 있으며, 요컨대, 본 실시예에서, 상기 정밀화된 라벨 정보의 분할 대상에 대한 라벨 정확도는 상기 초기 라벨 정보의 정확도보다 높을 수 있다.
이로써, 상기 초기 라벨 정보를 수동 라벨링할지라도, 수동 라벨링된 난이도를 낮추고, 수동 라벨링을 간소화한다.
셀 이미지를 예로 들면, 셀의 타원 형태로 인해, 일반적으로 2차원 평면 이미지에서 셀의 외부 윤곽은 모두 타원형으로 나타난다. 상기 초기 라벨 정보는 의사가 수동으로 드로잉한 셀의 외접 프레임일 수 있다. 상기 정밀화된 라벨 정보는, 트레이닝 기기가 수동 라벨링된 외접 프레임에 기반해 생성된 내접 타원일 수 있다. 외접 프레임에 대한 내접 타원을 계산할 경우, 셀 이미지에서 셀 이미지에 속하지 않는 픽셀 개수를 감소시킴으로, 제1 라벨 정보의 정확도는 상기 초기 라벨 정보의 정확도보다 높다.
일부 실시예에서, 상기 단계 S210은, 복수의 분할 타겟이 포함된 트레이닝 이미지 및 상기 분할 타겟의 외접 프레임을 획득하는 단계를 포함할 수 있고;
상기 단계 S220은, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하는 단계; 및 상기 트레이닝 데이터 및 상기 라벨 윤곽선에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계를 포함할 수 있다.
일부 실시예에서, 상기 분할 타겟 형상과 일치한 라벨 윤곽선은 전술한 타원형일 수 있고, 원형, 또는 삼각형 또는 다른 등변형 등 분할 타겟 형상에 일치하는 형상일 수도 있으며, 타원형에 한정되지 않는다.
일부 실시예에서, 상기 라벨 윤곽선은 상기 외접 프레임에 내접되는 것이다. 상기 외접 프레임은 직사각형 프레임일 수 있다.
일부 실시예에서, 상기 단계 S220은,
상기 외접 프레임에 기반하여, 중첩 부분이 있는 2 개의 상기 분할 타겟 사이에 분할 경계를 생성하는 단계; 및
상기 트레이닝 데이터 및 상기 분할 경계에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계를 더 포함한다.
일부 실시예에서, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하는 단계는, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 셀 형상과 일치한 상기 외접 프레임의 내접 타원을 드로잉하는 단계를 포함한다.
일부 이미지에서, 2 개의 분할 타겟 사이에는 중첩이 있고, 본 실시예에서 상기 제1 라벨 정보는, 2 개의 분할 타겟 사이를 중첩하는 분할 경계를 더 포함한다.
예를 들어, 2 개의 셀 이미지에서, 셀 이미지 A가 셀 이미지 B와 중첩되면, 셀 이미지 A의 셀 경계를 드로잉한 후 및 셀 이미지 B의 셀 경계를 드로잉한 후, 2 개의 셀 경계가 교차되어 부분적으로 2 개의 셀 이미지 사이에 교집합이 형성된다. 본 실시예에서, 셀 이미지 A 및 셀 이미지 B 사이의 위치 관계에 따라, 셀 이미지 B의 셀 경계가 셀 이미지 A 내부에 위치한 부분을 제거하고, 셀 이미지 A가 셀 이미지 B에 위치한 부분을 상기 분할 경계로 사용할 수 있다.
요컨대, 본 실시예에서, 상기 단계 S220은, 2 개의 분할 타겟의 위치 관계를 이용하여, 양자의 중첩 부분에서 분할 경계를 드로잉하는 단계를 포함할 수 있다.
일부 실시예에서, 분할 경계를 드로잉할 경우, 2 개의 중첩 경계가 있는 분할 타겟 중 하나의 경계를 수정하여 구현될 수 있다. 경계를 강조하기 위해, 픽셀 확장으로 경계를 굵게 할 수 있다. 예를 들어, 셀 이미지 A의 셀 경계가 상기 중첩 부분에서 셀 이미지 B의 방향으로 기설정된 픽셀만큼 확장되고, 예를 들면 하나 또는 복수의 픽셀만큼 확장되며, 중첩 부분의 셀 이미지 A의 경계를 굵게 하여, 상기 굵어진 경계가 분할 경계로 인식되게 한다.
일부 실시예에서, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하는 단계는, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 셀 형상과 일치한 상기 외접 프레임의 내접 타원을 드로잉하는 단계를 포함한다.
본 실시예에서 분할 타겟이 셀 이미지일 경우, 상기 라벨 윤곽선은 상기 셀 형상의 이 이미지의 외접 프레임의 내접 타원을 포함한다.
본 실시예에서, 상기 제1 라벨 정보는,
상기 셀 이미지의 셀 경계(상기 내접 타원에 대응됨); 및
셀 이미지 사이를 중첩하는 분할 경계 중 적어도 하나를 포함한다.
일부 실시예에서, 상기 분할 타겟은 셀이 아닌 다른 타겟이고, 예를 들어, 분할 타겟은 단체 사진의 얼굴이며, 얼굴의 외접 프레임은 여전히 직사각형 프레임일 수 있지만, 이때 얼굴의 라벨 경계는 계란형 얼굴의 경계 및 원형 얼굴의 경계 등일 수 있고, 이때, 상기 형상은 상기 내접 타원에 한정되지 않는다.
물론 이상은 예시일 뿐이고, 요컨대 본 실시예에서, 상기 제1 모델 및 제2 모델은 다른 하나의 모델의 이전 라운드의 트레이닝 결과를 이용해 트레이닝 데이터의 라벨 정보를 출력하여, 다음 라운드의 트레이닝 세트를 구축하고, 복수의 모델 트레이닝을 반복하여 완료하여, 대량의 트레이닝 샘플을 수동으로 라벨링할 필요가 없어, 트레이닝 속도가 빠르고 반복을 통해 트레이닝 정확도를 향상시킬 수 있다.
도 4에 도시된 바와 같이, 본 발명의 실시예는 딥 러닝 모델의 트레이닝 장치를 제공하고, 상기 딥 러닝 모델의 트레이닝 장치는 아래와 같은 모듈을 포함한다.
라벨 모듈(110)은 n 라운드의 트레이닝을 거친 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고; n 라운드의 트레이닝을 거친 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하도록 구성되며, n은 1보다 큰 정수이다.
제1 생성 모듈(120)은 상기 트레이닝 데이터 및 상기 (n+1) 번째 제1 라벨 정보에 기반하여, 제2 모델의 (n+1) 번째 트레이닝 세트를 생성하며, 상기 트레이닝 데이터 및 상기 (n+1) 번째 제2 라벨 정보에 기반하여, 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 생성하도록 구성된다.
트레이닝 모듈(130)은 상기 제2 모델의 (n+1) 번째 트레이닝 세트를 상기 제2 모델에 입력하여, 상기 제2 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하고; 제1 모델의 상기 (n+1) 번째 트레이닝 세트를 상기 제1 모델에 입력하여, 상기 제1 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하도록 구성된다.
일부 실시예에서, 상기 라벨 모듈(110), 제1 생성 모듈(120) 및 트레이닝 모듈(130)은 프로그램 모듈일 수 있고, 상기 프로그램 모듈은 프로세서에 의해 실행된 후, 상기 딥 러닝 모델의 트레이닝 방법을 구현할 수 있다.
다른 일부 실시예에서, 상기 라벨 모듈(110), 제1 생성 모듈(120) 및 트레이닝 모듈(130)은 소프트웨어 및 하드웨어의 결합 모델일 수 있고; 상기 소프트웨어 및 하드웨어의 결합 모듈은 다양한 프로그래밍 가능 어레이일 수 있으며, 예를 들어, 현장 프로그래밍 가능 어레이 또는 복잡 프로그래밍 가능 어레이일 수 있다.
다른 일부 실시예에서, 상기 라벨 모듈(110), 제1 생성 모듈(120) 및 트레이닝 모듈(130)은 순수한 하드웨어 모듈일 수 있고, 상기 순수한 하드웨어 모듈은 주문형 집적회로일 수 있다.
일부 실시예에서, 상기 딥 러닝 모델의 트레이닝 장치는,
n이 N보다 작은지 여부를 결정하도록 구성된 결정 모듈을 포함하고, 여기서, N은 최대 트레이닝 라운드 수이며;
상기 라벨 모듈은, n이 N보다 작을 경우, 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고; 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하도록 구성된다.
일부 실시예에서, 상기 딥 러닝 모델의 트레이닝 장치는,
상기 트레이닝 데이터 및 상기 트레이닝 데이터의 초기 라벨 정보를 획득하도록 구성된 획득 모듈; 및
상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된 제2 생성 모듈을 포함한다.
일부 실시예에서 상기 획득 모듈은, 복수의 분할 타겟이 포함된 트레이닝 이미지 및 상기 분할 타겟의 외접 프레임을 획득하도록 구성되고;
상기 제2 생성 모듈은, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하며; 상기 트레이닝 데이터 및 상기 라벨 윤곽선에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된다.
일부 실시예에서 상기 제1 생성 모듈은, 상기 외접 프레임에 기반하여, 중첩 부분이 있는 2 개의 상기 분할 타겟 사이에 분할 경계를 생성하고; 상기 트레이닝 데이터 및 상기 분할 경계에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된다.
일부 실시예에서 상기 제2 생성 모듈은, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 셀 형상과 일치한 상기 외접 프레임의 내접 타원을 드로잉하도록 구성된다.
이하, 상기 실시예에 결부하여 하나의 구체적인 예를 제공한다.
예 1에 있어서,
약한 감독(weak supervision) 알고리즘을 서로 학습하여, 이미지의 일부 객체를 포함하는 직사각형 프레임을 입력으로 사용하여, 두 모델은 서로 학습하여, 다른 미지의 도면에서 상기 개체의 픽셀 분할 결과를 출력할 수 있다.
셀 분할을 예로 들면, 처음에 도면의 부분적 셀을 둘러싸는 직사각형 라벨이 있다. 관찰에 의하면 셀 대부분은 타원이고, 따라서 직사각형에서 최대 내접 타원을 드로잉하고, 다양한 타원 사이에 구분선을 드로잉하며, 타원 가장자리에도 구분선을 드로잉한다. 초기 감독(supervision) 신호로서, 2 개의 분할 모델을 트레이닝한다. 다음, 이 분할 모델은 이 이미지에서 예측하여 얻은 예측 이미지 및 초기 라벨링된 이미지의 결합은 새로운 감독 신호로 획득되며, 2 개의 모델은 서로의 통합 결과를 사용하여, 상기 분할 모델을 반복적으로 트레이닝하여, 이미지 분할의 개선된 결과를 찾을 수 있다.
마찬가지로 상기 딥 러닝 모델의 트레이닝 방법을 사용하여, 미지의 라벨이 없는 새로운 이미지에 대해, 2 개의 모듈이 1차로 하나의 결과를 예측한 후, 서로 간의 예측을 사용하여 상기 과정을 반복한다.
도 5에 도시된 바와 같이, 원본 이미지를 라벨링하고, 제2 모델은 하나의 마스크 이미지를 얻어 제1 모델의 제1 트레이닝 세트 및 제2 모델의 제1 트레이닝 세트를 구축하고, 제1 트레이닝 세트를 이용하여 제1 모델 및 제2 모델에 대해 각각 제1 라운드의 트레이닝을 수행한다. 제1라운드의 트레이닝이 완료된 후, 제1 모델을 이용해 이미지 인식을 수행하여 라벨 정보를 얻고, 상기 라벨 정보에 기반해 제2 모델의 제2 트레이닝 세트를 생성한다. 제1 라운드의 트레이닝 후, 제2 모델을 이용해 이미지를 인식하여 라벨 정보를 얻고, 상기 라벨 정보는 제1 모델의 제2 트레이닝 세트를 생성한다. 제1 모델 및 제2 모델에 대해 각각 제2 라운드의 트레이닝을 수행하고; 이로써 반복적으로 교차하여 트레이닝 세트를 형성한 후, 트레이닝을 여러 라운드의 반복 트레이닝을 수행한 후 트레이닝을 정지한다.
관련 기술에서, 제1차 분할 결과의 확률 맵, 피크 값 및 평탄 영역 등의 복잡한 분석을 항상 고려한 후, 영역 성장 등을 실행하므로, 독자에게는, 복제 작업량이 많고 구현이 어렵다. 본 예에서 제공하는 딥 러닝 모델의 트레이닝 방법은, 출력 분할 확률 맵에 대해 어떠한 계산도 수행하지 않고, 라벨 맵과 같이 합집합을 형성한 후, 모델을 트레이닝하며, 이 과정은 쉽게 구현된다.
도 6에 도시된 바와 같이, 본 발명의 실시예는 전자 기기를 제공하고, 상기 전자 기기는,
정보를 저장하는 메모리; 및
프로세서를 포함하며, 상기 메모리와 연결되어, 상기 메모리에 저장된 컴퓨터 실행 가능한 명령어를 실행하여, 전술한 하나 또는 복수의 기술적 해결수단에서 제공하는 도 1 내지 도 3에 따른 방법 중의 하나 또는 복수의 방법 등과 같은 딥 러닝 모델의 트레이닝 방법을 구현할 수 있다.
상기 메모리는, 랜덤 액세스 메모리, 판독 전용 메모리 및 플래시 메모리 등과 같은 다양한 타입의 메모리일 수 있다. 상기 메모리는, 컴퓨터 실행 가능한 명령어 등과 같은 정보를 저장할 수 있다. 상기 컴퓨터 실행 가능한 명령어는, 타겟 프로그램 명령어 및/또는 소스 프로그램 명령어 등과 같은 다양한 프로그램 명령어일 수 있다.
상기 프로세서는 중앙 처리 장치, 마이크로 프로세서, 디지털 신호 프로세서, 프로그래밍 가능 어레이, 디지털 신호 프로세서, 주문형 집적회로 또는 이미지 프로세서 등과 같은 다양한 타입의 프로세서일 수 있다.
상기 프로세서는 버스를 통해 상기 메모리와 연결될 수 있다. 상기 버스는 집적회로 버스 등일 수 있다.
일부 실시예에서, 상기 단말 기기는 통신 인터페이스를 포함할 수 있고, 상기 통신 인터페이스는, 근거리 통신망 인터페이스 및 송수신기 안테나 등과 같은 네트워크 인터페이스를 포함할 수 있다. 상기 통신 인터페이스는 마찬가지로 상기 프로세서와 연결되어, 정보를 송수신할 수 있다.
일부 실시예에서, 상기 전자 기기는 카메라를 더 포함하고, 상기 카메라는 예를 들어, 의료 영상 등과 같은 다양한 이미지를 수집할 수 있다.
일부 실시예에서, 상기 단말 기기는 인간-컴퓨터 인터랙션 인터페이스를 더 포함하고, 예를 들어, 상기 인간-컴퓨터 인터랙션 인터페이스는, 예를 들어, 키보드 및 터치 스크린 등과 같은 다양한 입력/출력 기기를 포함할 수 있다.
본 발명의 실시예는 컴퓨터 저장 매체를 제공하고, 상기 컴퓨터 저장 매체에는 컴퓨터 실행 가능한 명령어가 저장되고; 상기 컴퓨터 실행 가능한 코드가 실행된 후, 전술한 하나 또는 복수의 기술적 해결수단에서 제공하는 예를 들어 도 1 내지 도 3에 따른 방법 중 하나 또는 복수의 방법과 같은 딥 러닝 모델의 트레이닝 방법을 구현할 수 있다.
상기 저장 매체는 모바일 저장 장치, 판독 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 자기 디스크 또는 광 디스크 등 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다. 상기 저장 매체는 비 일시적 저장 매체일 수 있다.
본 발명의 실시예는 컴퓨터 프로그램 제품을 제공하고, 상기 프로그램 제품은 컴퓨터 실행 가능한 명령어를 포함하며; 상기 컴퓨터 실행 가능한 명령어가 실행된 후, 전술한 임의의 실시예에서 제공하는 도 1 내지 도 3에 따른 방법 중 하나 또는 복수의 방법과 같은 딥 러닝 모델의 트레이닝 방법을 구현할 수 있다.
본 발명에서 제공하는 여러 실시예에서, 개시된 기기, 및 방법은, 다른 방식에 의해 구현될 수 있음을 이해해야 한다. 위에서 설명된 기기 실시예는 단지 예시일 뿐이고, 예를 들어, 상기 유닛의 분할은, 논리 기능적 분할일 뿐이며, 실제로 구현될 경우, 예를 들어, 복수의 유닛 또는 컴포넌트가 결합될 수 있거나, 다른 시스템에 통합될 수 있거나, 일부 특징을 무시할 수 있거나 실행하지 않는 등 다른 분할 방식이 있을 수 있다. 또한, 표시되거나 논의된 각 구성부분 간의 커플링, 또는 직접 커플링, 또는 통신 가능한 연결은 일부 인터페이스, 기기 또는 유닛의 간접적 커플링 또는 통신 가능한 연결일 수 있고, 전기적, 기계적 또는 다른 형태일 수 있다.
상기 분리 부재로서 설명된 유닛은 물리적으로 분리된 것일 수 있거나 물리적으로 분리된 것이 아닐 수도 있고, 유닛 디스플레이의 부재로서 물리적 유닛일 수 있거나 물리적 유닛이 아닐 수도 있으며, 즉, 하나의 장소에 위치할 수 있고, 복수의 네트워크 유닛에 분산될 수도 있으며; 실제 필요에 따라, 부분적 또는 전체적 유닛을 선택하여 본 실시예의 해결수단의 목적을 구현할 수 있다.
또한, 본 발명의 각 실시예 중의 각 기능 유닛은 하나의 처리 모듈에 모두 통합될 수 있고, 각 유닛은 각각 하나의 유닛으로 독립될 수도 있으며, 2 개 이상의 유닛은 하나의 유닛에 통합될 수도 있고; 상기 통합된 유닛은 하드웨어의 형태로 구현될 수 있으며, 하드웨어 및 소프트웨어 기능 유닛의 형태로 구현될 수도 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 상기 딥 러닝 모델의 트레이닝 방법의 실시예의 전부 또는 부분적 단계가 프로그램 명령에 관련된 하드웨어에 의해 완료되고, 전술한 프로그램은 컴퓨터 판독 가능한 저장 매체에 저장될 수 있으며, 상기 프로그램이 실행될 경우, 상기 딥 러닝 모델의 트레이닝 방법의 실시예를 포함하는 단계를 실행하고; 전술한 저장 매체는 모바일 저장 장치, 판독 전용 메모리(Read-Only Memory, ROM), 랜덤 액세스 메모리(Random Access Memory, RAM), 자기 디스크 또는 광 디스크 등과 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다는 것을 이해할 수 있을 것이다.
상기 내용은 본 발명의 구체적인 실시형태일 뿐, 본 발명의 보호 범위는이에 한정되지 않으며, 본 기술분야를 숙지한 기술자가 본 발명에 개시된 기술 범위 내에서 쉽게 생각해낼 수 있는 변경 또는 대체는, 모두 본 발명의 보호 범위 내에 포함되어야 한다. 따라서, 본 발명의 보호 범위는 청구 범위의 보호 범위에 따라야 한다.
Claims (15)
- 딥 러닝 모델의 트레이닝 방법으로서,
n 라운드의 트레이닝을 거친 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고; n 라운드의 트레이닝을 거친 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하는 단계 - n 은 1보다 큰 정수임 - ;
상기 트레이닝 데이터 및 상기 (n+1) 번째 제1 라벨 정보에 기반하여, 제2 모델의 (n+1) 번째 트레이닝 세트를 생성하며, 상기 트레이닝 데이터 및 상기 (n+1) 번째 제2 라벨 정보에 기반하여, 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 생성하는 단계; 및
상기 제2 모델의 (n+1) 번째 트레이닝 세트를 상기 제2 모델에 입력하여, 상기 제2 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하고; 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 상기 제1 모델에 입력하여, 상기 제1 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하는 단계를 포함하는 것을 특징으로 하는 딥 러닝 모델의 트레이닝 방법. - 제1항에 있어서,
상기 딥 러닝 모델의 트레이닝 방법은, n이 N보다 작은지 여부를 결정하는 단계를 포함하고, N은 최대 트레이닝 라운드 수이며;
상기 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고, 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하는 단계는,
n이 N보다 작을 경우, 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고, 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 딥 러닝 모델의 트레이닝 방법. - 제1항 또는 제2항에 있어서,
상기 딥 러닝 모델의 트레이닝 방법은,
상기 트레이닝 데이터 및 상기 트레이닝 데이터의 초기 라벨 정보를 획득하는 단계; 및
상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계를 포함하는 것을 특징으로 하는 딥 러닝 모델의 트레이닝 방법. - 제3항에 있어서,
상기 트레이닝 데이터 및 상기 트레이닝 데이터의 초기 라벨 정보를 획득하는 단계는,
복수의 분할 타겟이 포함된 트레이닝 이미지 및 상기 분할 타겟의 외접 프레임을 획득하는 단계를 포함하고;
상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계는,
상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하는 단계; 및
상기 트레이닝 데이터 및 상기 라벨 윤곽선에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계를 포함하는 것을 특징으로 하는 딥 러닝 모델의 트레이닝 방법. - 제4항에 있어서,
상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계는,
상기 외접 프레임에 기반하여, 중첩 부분이 있는 2 개의 상기 분할 타겟 사이에 분할 경계를 생성하는 단계; 및
상기 트레이닝 데이터 및 상기 분할 경계에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하는 단계를 더 포함하는 것을 특징으로 하는 딥 러닝 모델의 트레이닝 방법. - 제4항에 있어서,
상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하는 단계는,
상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 셀 형상과 일치한 상기 외접 프레임의 내접 타원을 드로잉하는 단계를 포함하는 것을 특징으로 하는 딥 러닝 모델의 트레이닝 방법. - 딥 러닝 모델의 트레이닝 장치로서,
n 라운드의 트레이닝을 거친 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고; n 라운드의 트레이닝을 거친 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하도록 구성된 라벨 모듈 - n은 1보다 큰 정수임 - ;
상기 트레이닝 데이터 및 상기 (n+1) 번째 제1 라벨 정보에 기반하여, 제2 모델의 (n+1) 번째 트레이닝 세트를 생성하며, 상기 트레이닝 데이터 및 상기 (n+1) 번째 제2 라벨 정보에 기반하여, 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 생성하도록 구성된 제1 생성 모듈; 및
상기 제2 모델의 (n+1) 번째 트레이닝 세트를 상기 제2 모델에 입력하여, 상기 제2 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하고; 상기 제1 모델의 (n+1) 번째 트레이닝 세트를 상기 제1 모델에 입력하여, 상기 제1 모델에 대해 (n+1) 번째 라운드의 트레이닝을 수행하도록 구성된 트레이닝 모듈을 포함하는 것을 특징으로 하는 딥 러닝 모델의 트레이닝 장치. - 제7항에 있어서,
상기 딥 러닝 모델의 트레이닝 장치는, n이 N보다 작은지 여부를 결정하도록 구성된 결정 모듈을 포함하고, N은 최대 트레이닝 라운드 수이며;
상기 라벨 모듈은, n이 N보다 작을 경우, 제1 모델이 출력한 (n+1) 번째 제1 라벨 정보를 획득하고, 제2 모델이 출력한 (n+1) 번째 제2 라벨 정보를 획득하도록 구성된 것을 특징으로 하는 딥 러닝 모델의 트레이닝 장치. - 제7항 또는 제8항에 있어서,
상기 딥 러닝 모델의 트레이닝 장치는,
상기 트레이닝 데이터 및 상기 트레이닝 데이터의 초기 라벨 정보를 획득하도록 구성된 획득 모듈; 및
상기 초기 라벨 정보에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된 제2 생성 모듈을 포함하는 것을 특징으로 하는 딥 러닝 모델의 트레이닝 장치. - 제9항에 있어서,
상기 획득 모듈은 복수의 분할 타겟이 포함된 트레이닝 이미지 및 상기 분할 타겟의 외접 프레임을 획득하도록 구성되고;
상기 제2 생성 모듈은, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 상기 분할 타겟 형상과 일치한 라벨 윤곽선을 드로잉하며; 상기 트레이닝 데이터 및 상기 라벨 윤곽선에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된 것을 특징으로 하는 딥 러닝 모델의 트레이닝 장치. - 제10항에 있어서,
상기 제1 생성 모듈은, 상기 외접 프레임에 기반하여, 중첩 부분이 있는 2 개의 상기 분할 타겟 사이에 분할 경계를 생성하고; 상기 트레이닝 데이터 및 상기 분할 경계에 기반하여, 상기 제1 모델의 제1 트레이닝 세트 및 상기 제2 모델의 제1 트레이닝 세트를 생성하도록 구성된 것을 특징으로 하는 딥 러닝 모델의 트레이닝 장치. - 제10항에 있어서,
상기 제2 생성 모듈은, 상기 외접 프레임에 기반하여, 상기 외접 프레임 내에서 셀 형상과 일치한 상기 외접 프레임의 내접 타원을 드로잉하도록 구성된 것을 특징으로 하는 딥 러닝 모델의 트레이닝 장치. - 컴퓨터 저장 매체로서,
상기 컴퓨터 저장 매체에는 컴퓨터 실행 가능한 명령어가 저장되고; 상기 컴퓨터 실행 가능한 명령어가 실행된 후, 제1항 내지 제6항 중 어느 한 항에 따른 방법을 구현 가능한 것을 특징으로 하는 컴퓨터 저장 매체. - 전자 기기로서,
메모리; 및
상기 메모리와 연결되어, 상기 메모리에 저장된 컴퓨터 실행 가능한 명령어를 실행하여 전술한 제1항 내지 제6항 중 어느 한 항에 따른 방법을 구현하는 프로세서를 포함하는 것을 특징으로 하는 전자 기기. - 컴퓨터 프로그램 제품으로서,
상기 프로그램 제품은 컴퓨터 실행 가능한 명령어를 포함하고; 상기 컴퓨터 실행 가능한 명령어가 실행된 후, 제1항 내지 제6항 중 어느 한 항에 따른 방법을 구현 가능한 것을 특징으로 하는 컴퓨터 프로그램 제품.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811646736.0A CN109740668B (zh) | 2018-12-29 | 2018-12-29 | 深度模型训练方法及装置、电子设备及存储介质 |
CN201811646736.0 | 2018-12-29 | ||
PCT/CN2019/114497 WO2020134533A1 (zh) | 2018-12-29 | 2019-10-30 | 深度模型训练方法及装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210042364A true KR20210042364A (ko) | 2021-04-19 |
Family
ID=66362835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020217007097A KR20210042364A (ko) | 2018-12-29 | 2019-10-30 | 딥 러닝 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20210224598A1 (ko) |
JP (1) | JP7110493B2 (ko) |
KR (1) | KR20210042364A (ko) |
CN (1) | CN109740668B (ko) |
SG (1) | SG11202103717QA (ko) |
TW (1) | TWI747120B (ko) |
WO (1) | WO2020134533A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022251684A1 (en) * | 2021-05-28 | 2022-12-01 | Visa International Service Association | Metamodel and feature generation for rapid and accurate anomaly detection |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740668B (zh) * | 2018-12-29 | 2021-03-30 | 北京市商汤科技开发有限公司 | 深度模型训练方法及装置、电子设备及存储介质 |
CN110909688B (zh) * | 2019-11-26 | 2020-07-28 | 南京甄视智能科技有限公司 | 人脸检测小模型优化训练方法、人脸检测方法及计算机系统 |
CN113515980B (zh) * | 2020-05-20 | 2022-07-05 | 阿里巴巴集团控股有限公司 | 模型训练方法、装置、设备和存储介质 |
CN111738197B (zh) * | 2020-06-30 | 2023-09-05 | 中国联合网络通信集团有限公司 | 一种训练图像信息处理的方法和装置 |
CN113591893B (zh) * | 2021-01-26 | 2024-06-28 | 腾讯医疗健康(深圳)有限公司 | 基于人工智能的图像处理方法、装置和计算机设备 |
CN113947771B (zh) * | 2021-10-15 | 2023-06-27 | 北京百度网讯科技有限公司 | 图像识别方法、装置、设备、存储介质以及程序产品 |
EP4227908A1 (en) * | 2022-02-11 | 2023-08-16 | Zenseact AB | Iterative refinement of annotated datasets |
CN114627343A (zh) * | 2022-03-14 | 2022-06-14 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、图像处理方法、装置及设备 |
CN114764874B (zh) * | 2022-04-06 | 2023-04-07 | 北京百度网讯科技有限公司 | 深度学习模型的训练方法、对象识别方法和装置 |
CN115600112B (zh) * | 2022-11-23 | 2023-03-07 | 北京结慧科技有限公司 | 获取行为预测模型训练集的方法、装置、设备及介质 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB216635A (en) * | 1923-04-12 | 1924-06-05 | Reginald Mosley Tayler | An improved amusement device |
SG179302A1 (en) * | 2010-09-16 | 2012-04-27 | Advanced Material Engineering Pte Ltd | Projectile with strike point marking |
CN104346622A (zh) * | 2013-07-31 | 2015-02-11 | 富士通株式会社 | 卷积神经网络分类器及其分类方法和训练方法 |
US9633282B2 (en) * | 2015-07-30 | 2017-04-25 | Xerox Corporation | Cross-trained convolutional neural networks using multimodal images |
CN105389584B (zh) * | 2015-10-13 | 2018-07-10 | 西北工业大学 | 基于卷积神经网络与语义转移联合模型的街景语义标注方法 |
CN105550651B (zh) * | 2015-12-14 | 2019-12-24 | 中国科学院深圳先进技术研究院 | 一种数字病理切片全景图像自动分析方法及系统 |
CN105931226A (zh) * | 2016-04-14 | 2016-09-07 | 南京信息工程大学 | 基于深度学习的自适应椭圆拟合细胞自动检测分割方法 |
CN106096531B (zh) * | 2016-05-31 | 2019-06-14 | 安徽省云力信息技术有限公司 | 一种基于深度学习的交通图像多类型车辆检测方法 |
CN106202997B (zh) * | 2016-06-29 | 2018-10-30 | 四川大学 | 一种基于深度学习的细胞分裂检测方法 |
CN106157308A (zh) * | 2016-06-30 | 2016-11-23 | 北京大学 | 矩形目标物检测方法 |
CN107392125A (zh) * | 2017-07-11 | 2017-11-24 | 中国科学院上海高等研究院 | 智能模型的训练方法/系统、计算机可读存储介质及终端 |
CN107967491A (zh) * | 2017-12-14 | 2018-04-27 | 北京木业邦科技有限公司 | 木板识别的机器再学习方法、装置、电子设备及存储介质 |
CN108021903B (zh) * | 2017-12-19 | 2021-11-16 | 南京大学 | 基于神经网络的人工标注白细胞的误差校准方法及装置 |
CN108074243B (zh) * | 2018-02-05 | 2020-07-24 | 志诺维思(北京)基因科技有限公司 | 一种细胞定位方法以及细胞分割方法 |
CN108615236A (zh) * | 2018-05-08 | 2018-10-02 | 上海商汤智能科技有限公司 | 一种图像处理方法及电子设备 |
CN108932527A (zh) * | 2018-06-06 | 2018-12-04 | 上海交通大学 | 使用交叉训练模型检测对抗样本的方法 |
CN109087306A (zh) * | 2018-06-28 | 2018-12-25 | 众安信息技术服务有限公司 | 动脉血管图像模型训练方法、分割方法、装置及电子设备 |
CN109740668B (zh) * | 2018-12-29 | 2021-03-30 | 北京市商汤科技开发有限公司 | 深度模型训练方法及装置、电子设备及存储介质 |
-
2018
- 2018-12-29 CN CN201811646736.0A patent/CN109740668B/zh active Active
-
2019
- 2019-10-30 KR KR1020217007097A patent/KR20210042364A/ko unknown
- 2019-10-30 WO PCT/CN2019/114497 patent/WO2020134533A1/zh active Application Filing
- 2019-10-30 JP JP2021537466A patent/JP7110493B2/ja active Active
- 2019-10-30 SG SG11202103717QA patent/SG11202103717QA/en unknown
- 2019-12-27 TW TW108148214A patent/TWI747120B/zh active
-
2021
- 2021-04-08 US US17/225,368 patent/US20210224598A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022251684A1 (en) * | 2021-05-28 | 2022-12-01 | Visa International Service Association | Metamodel and feature generation for rapid and accurate anomaly detection |
Also Published As
Publication number | Publication date |
---|---|
JP2021536083A (ja) | 2021-12-23 |
SG11202103717QA (en) | 2021-05-28 |
TW202042181A (zh) | 2020-11-16 |
CN109740668A (zh) | 2019-05-10 |
JP7110493B2 (ja) | 2022-08-01 |
CN109740668B (zh) | 2021-03-30 |
TWI747120B (zh) | 2021-11-21 |
US20210224598A1 (en) | 2021-07-22 |
WO2020134533A1 (zh) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210042364A (ko) | 딥 러닝 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체 | |
KR20210028716A (ko) | 딥러닝 모델의 트레이닝 방법, 장치, 전자 기기 및 저장 매체 | |
EP3989119A1 (en) | Detection model training method and apparatus, computer device, and storage medium | |
EP3832541A2 (en) | Method and apparatus for recognizing text | |
KR101640998B1 (ko) | 화상 처리 장치 및 화상 처리 방법 | |
CN109086654B (zh) | 手写模型训练方法、文本识别方法、装置、设备及介质 | |
CN110348294A (zh) | Pdf文档中图表的定位方法、装置及计算机设备 | |
CN109492674B (zh) | 用于目标检测的ssd框架的生成方法及装置 | |
CN110517262B (zh) | 目标检测方法、装置、设备及存储介质 | |
CN112634369A (zh) | 空间与或图模型生成方法、装置、电子设备和存储介质 | |
US20210073628A1 (en) | Deep neural network training method and apparatus, and computer device | |
CN113657483A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN116704519A (zh) | 文字识别方法、装置、电子设备及存储介质 | |
CN114429636B (zh) | 图像扫描识别方法、装置及电子设备 | |
Wang et al. | Detection of glands and villi by collaboration of domain knowledge and deep learning | |
CN116070642A (zh) | 一种基于表情嵌入的文本情感分析方法及相关装置 | |
CN115909376A (zh) | 文本识别方法、文本识别模型训练方法、装置及存储介质 | |
CN115661835A (zh) | 骨科耗材信息识别方法、装置、设备和介质 | |
CN111950482B (zh) | 基于视频学习和文本学习的三元组获取方法及装置 | |
CN114970666A (zh) | 一种口语处理方法、装置、电子设备及存储介质 | |
CN114330542A (zh) | 一种基于目标检测的样本挖掘方法、装置及存储介质 | |
CN108021918B (zh) | 文字识别方法及装置 | |
CN117372286B (zh) | 一种基于Python的图像噪声优化方法及系统 | |
CN115170809B (zh) | 图像分割模型训练、图像分割方法、装置、设备及介质 | |
US20240344832A1 (en) | Training method for map-generation large model and map generation method |