KR20220009451A - Neural network training method and apparatus, electronic device and storage medium - Google Patents

Neural network training method and apparatus, electronic device and storage medium Download PDF

Info

Publication number
KR20220009451A
KR20220009451A KR1020217041454A KR20217041454A KR20220009451A KR 20220009451 A KR20220009451 A KR 20220009451A KR 1020217041454 A KR1020217041454 A KR 1020217041454A KR 20217041454 A KR20217041454 A KR 20217041454A KR 20220009451 A KR20220009451 A KR 20220009451A
Authority
KR
South Korea
Prior art keywords
image block
feature extraction
neural network
sample image
category
Prior art date
Application number
KR1020217041454A
Other languages
Korean (ko)
Inventor
나 왕
타오 송
싱롱 리우
닝 후앙
샤오팅 장
Original Assignee
상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드 filed Critical 상하이 센스타임 인텔리전트 테크놀로지 컴퍼니 리미티드
Publication of KR20220009451A publication Critical patent/KR20220009451A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 출원은 신경망 훈련 방법 및 장치, 전자 기기 및 저장 매체에 관한 것으로, 신경망 모델을 훈련하고, 훈련하여 획득된 신경망 모델에 따라 이미지를 분류하며, 상기 신경망 훈련 방법은, 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하는 단계; 샘플 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분할하여 획득하는 단계; 카테고리 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분류하여, N 개의 카테고리의 샘플 이미지 블록을 획득하는 단계; 및 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하는 단계를 포함한다.The present application relates to a neural network training method and apparatus, an electronic device, and a storage medium, and training a neural network model, classifying an image according to the neural network model obtained by training, the neural network training method comprising: a location of a target region in a sample image obtaining information and category information; dividing and obtaining at least one sample image block according to the location information of the target area in the sample image; classifying at least one sample image block according to the category information to obtain sample image blocks of N categories; and inputting N categories of sample image blocks into the neural network for training.

Description

신경망 훈련 방법 및 장치, 전자 기기 및 저장 매체Neural network training method and apparatus, electronic device and storage medium

관련 출원의 상호 참조Cross-referencing of related applications

본 출원은 출원번호가 202010148544.8이고 출원일자가 2020년 3월 5일인 중국 특허 출원에 기반하여 제출하였고, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본원 발명에 원용된다.This application was filed based on a Chinese patent application with an application number of 202010148544.8 and an filing date of March 5, 2020, and claims the priority of the Chinese patent application, all contents of the Chinese patent application are incorporated herein by reference. do.

본 출원은 컴퓨터 기술분야에 관한 것으로서, 특히 신경망 훈련 방법 및 장치, 전자 기기 및 저장 매체에 관한 것이다.The present application relates to the field of computer technology, and more particularly, to a method and apparatus for training a neural network, an electronic device, and a storage medium.

기계 학습 등 방법은 이미지 처리 분야에서 널리 사용되고 있으며, 예를 들어 일반 이미지 또는 3 차원 이미지의 분류 및 이미지 검출 등 분야에 적용될 수 있다. 예를 들어, 의료 이미지의 처리에서, 기계 학습 방법을 통해 질병을 분류하고 병변 영역을 검출할 수 있다. Methods such as machine learning are widely used in the image processing field, and may be applied to, for example, classification and image detection of general images or 3D images. For example, in the processing of medical images, it is possible to classify diseases and detect lesion regions through a machine learning method.

의료 이미지 처리에서 폐 의료 이미지(예를 들어, 폐 컴퓨터 단층 촬영(CT))의 분류 및 검출은 폐렴, 폐암 등 병변의 검사 및 진단에 중요한 역할을 한다. 수술 전 병변 특징의 조기 발견은 임상적으로 매우 중요하며 임상 결정을 위한 지침을 제공할 수 있다. 그러나 조기 암의 전형적인 방사선적 특징(투명 기포, 흉막 수축 등)이 부족하므로 임상 전문 의사 또는 방사선 전문의가 CT 이미지에서 아형 간유리음영 결절(Ground-Glass Nodule, GGN)의 카테고리를 정확하게 구별하고 진단하기가 어렵다.In medical image processing, classification and detection of lung medical images (eg, lung computed tomography (CT)) plays an important role in examination and diagnosis of lesions such as pneumonia and lung cancer. Early detection of preoperative lesion features is of great clinical importance and can provide guidance for clinical decisions. However, due to the lack of radiological features typical of early cancer (clear bubbles, pleural constriction, etc.), it is difficult for a clinician or radiologist to accurately distinguish and diagnose the category of subtype Ground-Glass Nodule (GGN) on CT images. is difficult

본 출원의 실시예는 신경망 훈련 방법 및 장치, 전자 기기 및 저장 매체를 제공한다.Embodiments of the present application provide a method and apparatus for training a neural network, an electronic device, and a storage medium.

본 출원의 실시예는 신경망 훈련 방법을 제공하며, 상기 신경망 훈련 방법은 신경망 모델을 훈련하고, 훈련하여 획득된 신경망 모델에 따라 이미지를 분류하며, 상기 신경망 훈련 방법은, 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하는 단계; 상기 샘플 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분할하여 획득하는 단계; 상기 카테고리 정보에 따라, 상기 적어도 하나의 샘플 이미지 블록을 분류하여, N 개의 카테고리의 샘플 이미지 블록을 획득하는 단계 - N은 정수이고, N≥1임 - ; 및 상기 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하는 단계를 포함한다.An embodiment of the present application provides a neural network training method, wherein the neural network training method trains a neural network model, classifies an image according to a neural network model obtained by training, and the neural network training method includes: a location of a target region in a sample image obtaining information and category information; dividing and obtaining at least one sample image block according to the location information of the target area among the sample images; classifying the at least one sample image block according to the category information to obtain sample image blocks of N categories, where N is an integer, and N≥1; and inputting the N categories of sample image blocks into a neural network for training.

본 출원의 실시예의 신경망 훈련 방법에 따르면, 샘플 이미지 블록의 세밀한 분류를 획득할 수 있고, 신경망이 이미지를 미세분류할 수 있도록 신경망을 훈련하여, 분류 효율 및 정확도를 향상시킬 수 있다. According to the neural network training method of the embodiment of the present application, it is possible to obtain a fine classification of a sample image block, and train the neural network so that the neural network can fine-classify an image, thereby improving classification efficiency and accuracy.

본 출원의 일부 실시예에서, 상기 샘플 이미지는 의료 영상 사진이다.In some embodiments of the present application, the sample image is a medical imaging photograph.

본 출원의 일부 실시예에서, 상기 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하는 단계는, 상기 의료 영상 사진의 목표 영역에 대해 위치 추적을 수행하여, 상기 목표 영역의 위치 정보를 획득하는 단계; 상기 의료 영상 사진과 관련된 병리학적 사진을 획득하는 단계 - 상기 병리학적 사진은 진단을 거친 병리학적 정보가 포함된 사진임 - ; 상기 병리학적 사진의 각 목표 영역의 병리학적 정보에 따라, 상기 의료 영상 사진의 목표 영역의 카테고리 정보를 결정하는 단계를 포함한다. In some embodiments of the present application, the obtaining of the location information and category information of the target area in the sample image includes performing location tracking on the target area of the medical image to obtain location information of the target area. step; acquiring a pathological picture related to the medical image, wherein the pathological picture is a picture including pathological information that has been diagnosed; and determining category information of the target region of the medical image according to pathological information of each target region of the pathological picture.

본 출원의 일부 실시예에서, 상기 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하는 단계는, 어느 한 샘플 이미지 블록을 상기 신경망에 입력하여 처리하여, 샘플 이미지 블록의 카테고리 예측 정보 및 예측 목표 영역을 획득하는 단계; 적어도 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 분류 손실을 결정하는 단계; 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 분할 손실을 결정하는 단계; 및 상기 분류 손실 및 상기 분할 손실에 따라, 상기 신경망을 훈련하는 단계를 포함한다. In some embodiments of the present application, the training by inputting the N categories of sample image blocks to the neural network includes inputting and processing any one sample image block to the neural network, so as to obtain category prediction information and prediction target of the sample image block. acquiring an area; determining a classification loss according to at least the category prediction information and the category information to which the sample image block belongs; determining a division loss according to the prediction target region and position information of the sample image block; and training the neural network according to the classification loss and the segmentation loss.

본 출원의 일부 실시예에서, 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 분류 손실을 결정하는 단계는, 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 제1 분류 손실을 결정하는 단계; 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리의 범주 센터의 카테고리 정보에 따라, 제2 분류 손실을 결정하는 단계; 및 상기 제1 분류 손실 및 상기 제2 분류 손실에 대해 가중 합산 처리를 수행하여 상기 분류 손실을 획득하는 단계를 포함한다. In some embodiments of the present application, the determining of the classification loss according to the category prediction information and the category information to which the sample image block belongs includes, according to the category prediction information and the category information to which the sample image block belongs, a first determining a classification loss; determining a second classification loss according to the category prediction information and category information of a category center of a category to which the sample image block belongs; and performing weighted summation processing on the first classification loss and the second classification loss to obtain the classification loss.

이러한 방식을 통해, 훈련 과정에 동일한 카테고리의 샘플 이미지 블록의 카테고리 특징이 더 집중되어, 서로 다른 카테고리의 샘플 이미지 블록의 카테고리 정보 간의 특징 거리가 더 커져, 분류 성능을 향상시키는데 유리하고, 분류 정확도를 향상시킬 수 있다. In this way, the categorical features of the sample image blocks of the same category are more concentrated in the training process, and the feature distance between the category information of the sample image blocks of different categories becomes larger, which is advantageous for improving classification performance and improving classification accuracy. can be improved

본 출원의 일부 실시예에서, 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 분할 손실을 결정하는 단계는, 상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 예측 목표 영역의 제1 가중치 및 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정하는 단계; 및 상기 제1 가중치, 제2 가중치, 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 상기 분할 손실을 결정하는 단계를 포함한다.In some embodiments of the present application, the determining of the division loss according to the location information of the prediction target area and the sample image block includes: according to a first ratio, the number of pixels of the prediction target area occupied in the sample image block; determining a first weight of the prediction target area and a second weight of a sample background area in the sample image block; and determining the division loss according to the first weight, the second weight, the prediction target region, and the position information of the sample image block.

본 출원의 일부 실시예에서, 상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 예측 목표 영역의 제1 가중치 및 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정하는 단계는, 상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 비율을 결정하는 단계; 및 상기 제2 비율을 상기 제1 가중치로 결정하고, 상기 제1 비율을 제2 가중치로 결정하는 단계를 포함한다. In some embodiments of the present application, a first weight of the prediction target area and a second weight of a sample background area in the sample image block are determined according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block The method may include: determining a second ratio of a sample background area in the sample image block according to a first ratio in which the number of pixels of the prediction target area occupies in the sample image block; and determining the second ratio as the first weight and determining the first ratio as the second weight.

이러한 방식을 통해, 목표 영역의 오차와 비 목표 영역의 오차를 균형시킬 수 있고, 네트워크 파라미터 최적화에 도움이 되어, 훈련 효율 및 훈련 효과를 향상시킬 수 있다.In this way, it is possible to balance the error in the target region and the error in the non-target region, and to help optimize network parameters, thereby improving training efficiency and training effect.

본 출원의 일부 실시예에서, 상기 카테고리 정보는 침윤 전립선암 비정형선종증식결절, 제자리 선암 결절, 최소 침습 선암 결절 및 침윤성 선암 결절을 포함한다.In some embodiments of the present application, the category information includes invasive prostate cancer atypical adenomatous proliferative nodule, adenocarcinoma in situ, minimally invasive adenocarcinoma nodule, and invasive adenocarcinoma nodule.

본 출원의 일부 실시예에서, 상기 신경망은 공유 특징 추출 네트워크, 분류 네트워크 및 분할 네트워크를 포함하고, 상기 신경망 훈련 방법은, 처리될 이미지 블록을 상기 공유 특징 추출 네트워크에 입력하여 처리하여, 상기 처리될 이미지 블록의 목표 특징을 획득하는 단계 - 상기 공유 특징 추출 네트워크는 M 개의 공유 특징 추출 블록을 포함하고, i 번째 공유 특징 추출 블록의 입력 특징은 처음 i-1 개의 공유 특징 추출 블록의 출력 특징을 포함하고, i 및 M은 정수이고, 1<i≤M임 - ; 상기 목표 특징을 상기 분류 네트워크에 입력하여 분류 처리하여, 상기 처리될 이미지 블록의 카테고리 정보를 획득하는 단계; 및 상기 목표 특징을 상기 분할 네트워크에 입력하여 분할 처리하여, 상기 처리될 이미지 블록 중 목표 영역을 획득하는 단계를 더 포함한다. In some embodiments of the present application, the neural network includes a shared feature extraction network, a classification network, and a segmentation network, and the neural network training method includes inputting an image block to be processed into the shared feature extraction network and processing it to be processed. obtaining a target feature of an image block, wherein the shared feature extraction network includes M shared feature extraction blocks, and an input feature of an i-th shared feature extraction block includes output features of the first i-1 shared feature extraction blocks and i and M are integers, and 1<i≤M - ; inputting the target feature into the classification network and performing classification processing to obtain category information of the image block to be processed; and inputting the target feature into the segmentation network and performing segmentation processing to obtain a target area among the image blocks to be processed.

이러한 방식을 통해, 공유 특징 추출 네트워크를 통해 목표 특징을 획득할 수 있고, 공유 특징 추출 네트워크의 공유 특징 추출 블록은 그 전의 모든 공유 특징 추출 블록의 출력 특징을 획득하고, 자신의 출력 특징을 후속 모든 공유 특징 추출 블록에 입력할 수 있다. 네트워크 내 기울기 흐름을 강화하여 기울기 소멸 현상을 완화하고, 동시에 특징 추출 및 학습 능력을 향상시킬 수 있으며, 입력된 처리될 이미지 블록을 보다 세밀하게 분류하고 분할 처리하는데 도움이 된다. 처리될 이미지 블록의 보다 세밀한 카테고리 정보 및 목표 영역을 획득하고, 이미지 처리 효율을 향상시킬 수 있다. In this way, the target feature can be obtained through the shared feature extraction network, and the shared feature extraction block of the shared feature extraction network acquires the output features of all the shared feature extraction blocks before it, and adds its output features to all subsequent It can be entered into the shared feature extraction block. By reinforcing the gradient flow in the network, it is possible to alleviate the gradient annihilation phenomenon, and at the same time improve feature extraction and learning ability, and it helps to more precisely classify and segment the input image block to be processed. It is possible to obtain more detailed category information and a target area of an image block to be processed, and improve image processing efficiency.

본 출원의 일부 실시예에서, 처리될 이미지 블록을 상기 공유 특징 추출 네트워크에 입력하여 처리하여, 상기 처리될 이미지 블록의 목표 특징을 획득하는 단계는, 상기 처리될 이미지 블록에 대해 제1 특징 추출 처리를 수행하여, 상기 처리될 이미지 블록의 제1 특징을 획득하는 단계; 상기 제1 특징을 첫 번째 공유 특징 추출 블록에 입력하여, 상기 첫 번째 공유 특징 추출 블록의 출력 특징을 획득하고, 상기 첫 번째 공유 특징 추출 블록의 출력 특징을 후속 M-1 개의 공유 특징 추출 블록에 출력하는 단계; 처음 j-1 개의 공유 특징 추출 블록의 출력 특징을 j 번째 공유 특징 추출 블록에 입력하여, 상기 j 번째 공유 특징 추출 블록의 출력 특징을 획득하는 단계 - j는 정수이고, 1<j<M임 - ; M 번째 공유 특징 추출 블록의 출력 특징에 대해 제2 특징 추출 처리를 수행하여, 상기 처리될 이미지 블록의 제2 특징을 획득하는 단계; 및 상기 제2 특징에 대해 풀링 처리를 수행하여, 상기 목표 특징을 획득하는 단계를 포함한다. In some embodiments of the present application, the step of inputting an image block to be processed into the shared feature extraction network and processing to obtain a target feature of the image block to be processed includes: a first feature extraction process for the image block to be processed to obtain a first characteristic of the image block to be processed; The first feature is input to a first shared feature extraction block to obtain an output feature of the first shared feature extraction block, and the output feature of the first shared feature extraction block is added to subsequent M-1 shared feature extraction blocks. outputting; inputting the output features of the first j-1 shared feature extraction blocks into the j-th shared feature extraction block to obtain the output features of the j-th shared feature extraction block - j is an integer, and 1 < j < M - ; performing a second feature extraction process on the output feature of the M-th shared feature extraction block to obtain a second feature of the image block to be processed; and performing a pooling process on the second feature to obtain the target feature.

본 출원의 일부 실시예에서, 상기 신경망 훈련 방법은 처리될 이미지에 대해 전처리를 수행하여 제1 이미지를 획득하는 단계; 상기 제1 이미지의 목표 영역에 대해 위치 추적을 수행하여, 상기 제1 이미지 중 목표 영역의 위치 정보를 결정하는 단계; 및 상기 제1 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 상기 처리될 이미지 블록을 분할하여 획득하는 단계를 더 포함한다.In some embodiments of the present application, the neural network training method includes: obtaining a first image by performing pre-processing on an image to be processed; determining location information of the target area in the first image by performing location tracking on the target area of the first image; and dividing and obtaining at least one image block to be processed according to the location information of the target region in the first image.

본 출원의 실시예는 신경망 훈련 장치를 제공하며, 상기 신경망 훈련 장치는 신경망 모델을 훈련하고, 훈련하여 획득된 신경망 모델에 따라 이미지를 분류하며, 상기 신경망 훈련 장치는 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하도록 구성된 획득 모듈; 상기 샘플 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분할하여 획득하도록 구성된 제1 분할 모듈; 상기 카테고리 정보에 따라, 상기 적어도 하나의 샘플 이미지 블록을 분류하여, N 개의 카테고리의 샘플 이미지 블록을 획득하도록 구성된 분류 모듈 - N은 정수이고, N≥1임 - ; 및 상기 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하도록 구성된 훈련 모듈을 포함한다.An embodiment of the present application provides an apparatus for training a neural network, the apparatus for training a neural network trains a neural network model, and classifies an image according to a neural network model obtained by training, and the apparatus for training a neural network includes location information of a target region in a sample image and an acquiring module, configured to acquire category information; a first dividing module, configured to divide and obtain at least one sample image block according to the location information of the target region among the sample images; a classification module, configured to classify the at least one sample image block according to the category information to obtain sample image blocks of N categories, wherein N is an integer and N≥1; and a training module configured to train by inputting the N categories of sample image blocks into a neural network.

본 출원의 실시예는 전자 기기를 제공하며, 상기 전자 기기는 프로세서; 및 프로세서에 의해 실행 가능한 컴퓨터 프로그램을 저장하도록 구성된 메모리를 포함하며, 상기 프로세서는 상기 컴퓨터 프로그램에 의해 상술한 신경망 훈련 방법을 실행하도록 구성된다.An embodiment of the present application provides an electronic device, the electronic device comprising: a processor; and a memory configured to store a computer program executable by the processor, wherein the processor is configured to execute the neural network training method described above by the computer program.

본 출원의 실시예는 실행되면 상술한 신경망 훈련 방법을 수행하도록 구성된 컴퓨터 프로그램이 저장된 저장 매체를 제공한다.An embodiment of the present application provides a storage medium in which a computer program configured to perform the above-described neural network training method when executed is stored.

본 출원의 실시예는 컴퓨터 판독가능 코드가 포함된 컴퓨터 프로그램을 제공하며, 상기 컴퓨터 판독가능 코드가 전자 기기에서 실행되면, 전자 기기 중 프로세서는 상술한 신경망 훈련 방법을 구현하도록 구성된다.An embodiment of the present application provides a computer program including computer readable code, and when the computer readable code is executed in an electronic device, a processor of the electronic device is configured to implement the above-described neural network training method.

이해할 것은, 상술한 일반적인 설명과 후술되는 세부 설명은 단지 예시적이고 해석적인 것이지 본 출원을 제한하는 것은 아니다. 본 출원의 다른 특징 및 측면은 이하 첨부 도면을 참조한 예시적인 실시예에 대한 상세한 설명에 따르면 명확해질 것이다.It should be understood that the foregoing general description and the following detailed description are illustrative and interpretative only and not limiting of the present application. Other features and aspects of the present application will become apparent from the following detailed description of exemplary embodiments with reference to the accompanying drawings.

여기서 첨부 도면은 명세서에 포함되어 본 명세서의 일부를 구성하며, 이러한 첨부 도면은 본 출원에 부합하는 실시예를 도시하며, 명세서와 함께 본 출원의 기술적 방안을 설명한다.
도 1은 본 출원의 실시예에 의해 제공된 신경망 훈련 방법의 개략적인 시스템 아키텍처이다.
도 2는 본 출원의 실시예에 의해 제공된 신경망 훈련 방법의 구현 흐름도이다.
도 3은 본 출원의 실시예에 의해 제공된 신경망 훈련 방법의 응용 개략도이다.
도 4는 본 출원의 실시예에 의해 제공된 신경망 훈련 장치의 개략도이다.
도 5는 본 출원의 실시예에 의해 제공된 전자 기기의 개략도이다.
도 6은 본 출원의 실시예에 의해 제공된 다른 전자 기기의 개략도이다.
Here, the accompanying drawings are included in the specification and form a part of the present specification, and the accompanying drawings illustrate embodiments consistent with the present application, and together with the specification describe the technical solutions of the present application.
1 is a schematic system architecture of a neural network training method provided by an embodiment of the present application.
2 is an implementation flowchart of a neural network training method provided by an embodiment of the present application.
3 is an application schematic diagram of a neural network training method provided by an embodiment of the present application.
4 is a schematic diagram of a neural network training apparatus provided by an embodiment of the present application.
5 is a schematic diagram of an electronic device provided by an embodiment of the present application.
6 is a schematic diagram of another electronic device provided by an embodiment of the present application.

이하 첨부도면을 참조하여 본 출원의 각종 예시적인 실시예, 특징 및 측면을 상세히 설명한다. 첨부도면에서 동일한 도면 부호는 기능이 동일하거나 유사한 소자를 나타낸다. 첨부도면에 실시예의 각종 측면을 도시하였으나 특별히 지적하지 않은 한 꼭 비율에 따라 첨부도면을 그린 것은 아니다.Hereinafter, various exemplary embodiments, features and aspects of the present application will be described in detail with reference to the accompanying drawings. In the accompanying drawings, the same reference numerals indicate elements having the same or similar functions. Although various aspects of the embodiment are shown in the accompanying drawings, the accompanying drawings are not drawn according to proportions unless specifically indicated.

여기서 전문 사용된 단어 '예시적인'은 '예, 실시예 또는 설명적으로 사용됨'을 의미한다. 여기서 '예시적'으로 설명된 어느 실시예도 꼭 다른 실시예보다 우수하거나 나은 것으로 해석되는 것은 아니다.The word 'exemplary' used in its entirety herein means 'used as an example, embodiment, or description'. Any embodiment described herein as 'exemplary' is not necessarily to be construed as superior or superior to another embodiment.

본 명세서에서 용어 ‘및/또는’은 관련된 대상의 관련 관계를 설명할 뿐이며, 3가지 관계가 존재할 수 있음을 나타낸다. 예를 들어, A 및/또는 B는 A가 단독으로 존재, A와 B가 동시에 존재, B가 단독으로 존재하는 이 3가지 경우를 나타낼 수 있다. 또한, 본 명세서에서 '적어도 하나'는 복수 중 어느 하나 또는 복수 중 적어도 두 개의 임의의 조합을 나타낸다. 예를 들어, A, B, C 중 적어도 하나를 포함한다는 것은 A, B, C로 구성된 집합에서 선택된 임의의 하나 또는 복수 개의 요소를 포함하는 것을 나타낼 수 있다.In this specification, the term 'and/or' only describes a related relationship of a related object, and indicates that three relationships may exist. For example, A and/or B may represent these three cases in which A exists alone, A and B exist simultaneously, and B exists alone. Also, in the present specification, 'at least one' refers to any one of a plurality or any combination of at least two of the plurality. For example, including at least one of A, B, and C may indicate including any one or a plurality of elements selected from the set consisting of A, B, and C.

또한, 본 출원을 더 잘 설명하기 위하여, 아래의 실시방식에서 많은 구체적인 세부를 제공한다. 통상의 기술자는 일부 세부가 없어도 본 출원을 실시할 수 있음을 이해해야 한다. 일부 실예에서, 통상의 기술자에게 잘 알려진 방법, 수단, 소자 및 회로는 본 출원의 요지를 강조하기 위하여 상세히 설명하지 않는다.Additionally, in order to better explain the present application, numerous specific details are provided in the following embodiments. It should be understood that a person skilled in the art may practice the present application without some details. In some instances, methods, means, elements, and circuits well known to those of ordinary skill in the art have not been described in detail in order to emphasize the subject matter of the present application.

본 출원의 실시예를 더 상세히 설명하기 전에 관련 기술의 결함에 대해 먼저 설명한다. Before describing the embodiments of the present application in more detail, deficiencies in the related art will be first described.

관련 기술에서, 기계 학습 등 방법은 이미지 처리 분야에서 널리 사용되고 있으며, 예를 들어 일반 이미지 또는 3 차원 이미지의 분류 및 이미지 검출 등 분야에 적용될 수 있다.In a related art, a method such as machine learning is widely used in the image processing field, and may be applied to, for example, classification and image detection of a general image or a 3D image.

폐암은 우리 나라에서 가장 흔한 악성 종양 중 하나이며, 그 사망률은 도시나 시골, 남성, 여성 관계없이 모두 암 사망률 중 1위이며, 여기서, 선암은 전체 폐암의 약 40 %를 차지한다. 의료 이미지(예를 들어, 폐 CT 및 저선량 나선 CT)를 사용하여 스크리닝을 수행하여, 점점 더 많은 조기 폐 선암이 발견되어 간유리음영 결절(Ground-Glass Nodule, GGN)로 나타나고 있다. 선암은 침윤 전립선암 비정형샘종증식(Atypical Adenomatous Hyperplasia Of Preinvasive Adenocarcinoma, AAHOPA), 제자리 선암(Adenocarcinoma In Situ, AIS), 최소 침습 선암(Minimally Invasive Adenocarcinoma, MIA) 및 침윤성 선암(Invasive Adenocarcinoma, IA)으로 나뉜다. 선암의 GGN 카테고리는 침윤 전립선암 비정형선종증식결절, 제자리 선암 결절, 최소 침습 선암 결절 및 침윤성 선암 결절을 포함한다. 종양의 크기가 커짐에 따라 생존 기간이 현저하게 줄어들며, 이는 조기 발견 및 진단이 환자 사망률을 줄이는 효과적이고 중요한 방법임을 나타낸다. 따라서, 수술 전에 침윤성 특징을 조기에 발견하는 것은 임상적으로 중요하며 임상 결정을 위한 지침을 제공할 수 있다. Lung cancer is one of the most common malignant tumors in our country, and its mortality rate is the number one among all cancer deaths, regardless of whether it is urban or rural, male or female, where adenocarcinoma accounts for about 40% of all lung cancers. Screening is performed using medical images (eg lung CT and low-dose helix CT), and an increasing number of early lung adenocarcinomas are found and appearing as Ground-Glass Nodule (GGN). Adenocarcinoma is divided into invasive prostate cancer, Atypical Adenomatous Hyperplasia Of Preinvasive Adenocarcinoma (AAHOPA), Adenocarcinoma In Situ (AIS), Minimally Invasive Adenocarcinoma (MIA), and Invasive Adenocarcinoma (IA). . The GGN category of adenocarcinoma includes invasive prostate cancer atypical adenomatous proliferative nodules, adenocarcinoma in situ nodules, minimally invasive adenocarcinoma nodules, and invasive adenocarcinoma nodules. Survival time is significantly reduced as tumor size increases, indicating that early detection and diagnosis are effective and important ways to reduce patient mortality. Therefore, early detection of invasive features before surgery is clinically important and can provide guidance for clinical decisions.

의료 이미지 처리에서 폐 의료 이미지(예를 들어, 폐 CT)의 분류 및 검출은 의료 스크리닝 및 폐렴, 폐암 등 진단의 진단에 중요한 역할을 한다. 관련 기술에서는 기계 학습 등의 방식을 통해 질병의 카테고리를 결정하고 질병 부위를 검출할 수 있다. 예를 들어 입력된 결절의 이미지가 악성 종양인지 양성 종양인지를 예측할 수 있다. 그러나, 관련 기술에서는 예측 결과에 대해 세부적으로 분류하지 않았다. 또한, 초기 암의 전형적인 방사선학적 특징(투명 기포, 흉막 수축 등)이 부족하여 임상적으로 전문가나 방사선 전문의가 CT 이미지로부터 아형 GGN의 카테고리를 정확하게 구별하고 진단하기가 어렵다. 이 경우, 인공 지능 기반 컴퓨터 지원 진단은 결절의 침습성을 평가하는 보다 효과적인 방법이며, 임상 평가 작업에서 중요한 역할을 할 것으로 기대된다. In medical image processing, classification and detection of lung medical images (eg, lung CT) plays an important role in medical screening and diagnosis of diagnoses such as pneumonia and lung cancer. In the related technology, a disease category may be determined and a disease site may be detected through a method such as machine learning. For example, it is possible to predict whether the input nodule image is a malignant tumor or a benign tumor. However, the related art did not classify the prediction results in detail. In addition, it is difficult for clinical experts or radiologists to accurately distinguish and diagnose subtype GGN categories from CT images due to the lack of typical radiological features (clear bubbles, pleural constriction, etc.) of early cancer. In this case, AI-based computer-aided diagnosis is a more effective method to evaluate the invasiveness of nodules, and is expected to play an important role in clinical evaluation work.

도 1을 참조하면, 도 1은 본 출원의 실시예에 의해 제공된 신경망 훈련 방법의 개략적인 시스템 아키텍처이다. 도 1에 도시된 바와 같이, 상기 시스템 아키텍처에는 CT 기기(100), 서버(200), 네트워크(300) 및 단말 기기(400)가 포함된다. 하나의 예시적인 응용을 구현하여 지원하기 위하여, CT 기기(100)는 네트워크(300)를 통해 단말 기기(400)에 연결될 수 있고, 단말 기기(400)는 네트워크(300)를 통해 서버(200)에 연결되고, CT 기기(100)는 CT 이미지를 수집할 수 있다. 예를 들어, X 선 CT 기기 또는 γ선 CT 기기 등 인체의 모 부위의 일정한 두께의 층면을 스캔할 수 있는 단말기일 수 있다. 단말 기기(400)는 노트북 컴퓨터, 태블릿 PC, 데스크탑 컴퓨터, 전용 메시지 기기 등 스크린 표시 기능을 구비한 기기일 수 있다. 네트워크(300)는 광역망 또는 랜, 또는 양자의 조합일 수 있으며, 무선 링크를 사용하여 데이터 전송을 구현한다. Referring to FIG. 1 , FIG. 1 is a schematic system architecture of a neural network training method provided by an embodiment of the present application. As shown in FIG. 1 , the system architecture includes a CT device 100 , a server 200 , a network 300 , and a terminal device 400 . In order to implement and support one exemplary application, the CT device 100 may be connected to the terminal device 400 via the network 300 , and the terminal device 400 may be connected to the server 200 via the network 300 . connected to, the CT device 100 may collect a CT image. For example, it may be a terminal capable of scanning a layer of a certain thickness of a human body, such as an X-ray CT device or a γ-ray CT device. The terminal device 400 may be a device having a screen display function, such as a notebook computer, a tablet PC, a desktop computer, or a dedicated message device. The network 300 may be a wide area network or a LAN, or a combination of both, and implements data transmission using a wireless link.

서버(200)는 본 출원의 실시예에 의해 제공된 신경망 훈련 방법을 기반으로, 설계한 3차원 분류 프레임워크를 통해, 획득된 훈련 의료 영상 사진 중 각 병리 증명을 거친 폐 결절 영역을 작은 이미지 블록으로 자른 후, 이미지 블록을 분류하여 훈련 데이터를 획득하고, 신경망이 훈련 의료 영상 사진에 대해 세밀한 분류를 수행하도록 훈련 데이터를 신경망에 입력하여 훈련하며, 훈련 완료 후 훈련된 신경망 모델을 획득한다. 의료 영상 사진은 병원, 검진 센터 등 기구의 CT 기기(100)에 의해 수집된 환자 또는 검진자의 폐 CT 이미지일 수 있다. 서버(200)는 단말 기기(400)로부터 CT 기기(100)에 의해 수집된 의료 영상 사진을 훈련 의료 영상 사진으로서 획득할 수도 있고, CT 기기로부터 훈련 의료 영상 사진을 획득할 수도 있고, 네트워크로부터 훈련 의료 영상 사진을 획득할 수도 있다. The server 200 converts the pulmonary nodule region that has undergone each pathology proof among the acquired training medical image photos through a three-dimensional classification framework designed based on the neural network training method provided by the embodiment of the present application into a small image block. After cropping, training data is obtained by classifying image blocks, the training data is input to the neural network to perform detailed classification on the training medical image, and training is performed, and a trained neural network model is obtained after training is completed. The medical image may be a lung CT image of a patient or examinee collected by the CT device 100 of an apparatus such as a hospital or an examination center. The server 200 may acquire a medical image image collected by the CT device 100 from the terminal device 400 as a training medical image image, may acquire a training medical image image from the CT device, or may acquire a training medical image image from the network. Medical imaging pictures may also be obtained.

서버(200)는 독립된 물리 서버일 수도 있고, 복수 개의 물리 서버로 구성된 서버 클러스터 또는 분산식 시스템일 수도 있으며, 클라우드 기술 기반의 클라우드 서버일 수도 있다. 클라우드 기술은 광역망 또는 랜 내에서 하드웨어, 소프트웨어, 네트워크 등 일련의 자원을 통합하여, 데이터의 계산, 저장, 처리 및 공유를 구현하는 호스팅 기술을 말한다. 본 출원의 실시예에서, 서버(200)가 클라우드 서버인 경우, 제공된 인공 지능 클라우드 서비스는 신경망 모델을 포함하고, 신경망이 의료 영상 사진을 미세분류하도록 미세분류된 훈련 데이터를 기반으로 신경망을 훈련할 수 있다. The server 200 may be an independent physical server, a server cluster consisting of a plurality of physical servers or a distributed system, or a cloud server based on cloud technology. Cloud technology refers to a hosting technology that integrates a series of resources such as hardware, software, and network within a wide area network or LAN to realize data calculation, storage, processing and sharing. In an embodiment of the present application, when the server 200 is a cloud server, the provided artificial intelligence cloud service includes a neural network model, and the neural network trains the neural network based on the fine-classified training data to fine-classify the medical image. can

실예로서, 서버(200)는 처리될 의료 영상 사진(예를 들어, 폐 CT 이미지)을 수신한 후, 훈련된 신경망에 따라 의료 영상 사진에 대해 분류, 분할 등 처리를 수행하여, 미세분류된 병변 영역을 획득한다. 그 후, 서버(200)는 획득된 미세분류된 병변 영역을 단말 기기(400)로 반환하여 표시하여, 의료진이 볼 수 있도록 한다. As an example, the server 200 receives a medical image to be processed (eg, a lung CT image), and then performs classification, segmentation, etc. processing on the medical image according to the trained neural network, so that the microclassified lesion acquire an area Thereafter, the server 200 returns and displays the obtained microclassified lesion area to the terminal device 400 so that the medical staff can see it.

본 출원의 일부 실시예에서, 서버(200)는 훈련 완료 후, 훈련된 신경망을 단말 기기(400)에 송신할 수 있으며, 단말 기기(400)는 수집된 처리될 의료 영상 사진(예를 들어, 폐 CT 이미지)에 대해 분류, 분할 등 처리를 수행하여 미세분류된 병변 영역을 획득하고 획득된 미세분류된 병변 영역을 자신의 디스플레이 스크린에 표시하여, 의료진이 볼 수 있도록 한다. In some embodiments of the present application, the server 200 may transmit the trained neural network to the terminal device 400 after training is completed, and the terminal device 400 collects the collected medical image to be processed (eg, Lung CT image) is classified, segmented, etc. to obtain a microclassified lesion area, and the obtained microclassified lesion area is displayed on its own display screen so that medical staff can see it.

본 출원의 일부 실시예에서, 신경망 훈련 방법의 시스템 아키텍처에는 CT 기기(100), 네트워크(300) 및 단말 기기(400)가 포함되며, 단말 기기(400)에 의해 훈련 의료 영상 사진을 훈련하여 훈련된 신경망을 획득한 후, 다시 단말 기기(400)에 의해 수집된 처리될 의료 영상 사진(예를 들어, 폐 CT 이미지)에 대해 분류, 분할 등 처리를 수행하여 미세분류된 병변 영역을 획득하고 획득된 미세분류된 병변 영역을 자신의 디스플레이 스크린에 표시하여, 의료진이 볼 수 있도록 한다.In some embodiments of the present application, the system architecture of the neural network training method includes a CT device 100 , a network 300 , and a terminal device 400 , and training by training a training medical image by the terminal device 400 . After acquiring the neural network, a microclassified lesion area is obtained and obtained by performing classification, segmentation, etc. processing on the medical image to be processed (eg, lung CT image) collected by the terminal device 400 again. The microclassified lesion area is displayed on its display screen so that the medical staff can see it.

본 출원의 실시예는 신경망 훈련 방법을 제공하며, 상기 신경망 훈련 방법은 신경망 훈련 장치에 적용되고, 상기 신경망 훈련 장치는 서버일 수 있으며, 신경망 모델을 훈련하고, 훈련하여 획득된 신경망 모델에 따라 이미지를 분류한다. 본 출원의 실시예에 의해 제공된 방법은 컴퓨터 프로그램을 통해 구현될 수 있으며, 상기 컴퓨터 프로그램이 실행될 때, 본 출원의 실시예에 의해 제공된 신경망 훈련 방법 중 각 단계가 완료된다. 일부 실시예에서, 상기 컴퓨터 프로그램은 프로세서에 의해 실행될 수 있다. 도 2는 본 출원의 실시예에 의해 제공된 신경망 훈련 방법의 구현 흐름도이며, 도 2에 도시된 바와 같이, 상기 신경망 훈련 방법은 아래의 단계를 포함한다. An embodiment of the present application provides a neural network training method, the neural network training method is applied to a neural network training device, the neural network training device may be a server, training a neural network model, and training an image according to the acquired neural network model classify The method provided by the embodiment of the present application may be implemented through a computer program, and when the computer program is executed, each step of the neural network training method provided by the embodiment of the present application is completed. In some embodiments, the computer program may be executed by a processor. 2 is an implementation flowchart of a neural network training method provided by an embodiment of the present application, and as shown in FIG. 2 , the neural network training method includes the following steps.

S11 단계에 있어서, 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득한다.In step S11, location information and category information of the target area in the sample image are acquired.

S12 단계에 있어서, 상기 샘플 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분할하여 획득한다.In step S12, at least one sample image block is obtained by dividing the sample image according to the location information of the target region.

S13 단계에 있어서, 상기 카테고리 정보에 따라, 상기 적어도 하나의 샘플 이미지 블록을 분류하여, N 개의 카테고리의 샘플 이미지 블록을 획득하며, N은 정수이고, N≥1이다.In step S13, the at least one sample image block is classified according to the category information to obtain sample image blocks of N categories, where N is an integer, and N≥1.

S14 단계에 있어서, 상기 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련한다.In step S14, the N categories of sample image blocks are input to the neural network for training.

본 출원의 실시예에 의해 제공된 신경망 훈련 방법에 따르면, 샘플 이미지 블록의 세밀한 분류를 획득할 수 있고, 신경망이 이미지를 미세분류할 수 있도록 신경망을 훈련하여, 분류 효율 및 정확도를 향상할 수 있다.According to the neural network training method provided by the embodiment of the present application, it is possible to obtain a fine classification of a sample image block, and train the neural network so that the neural network can fine-classify the image, thereby improving classification efficiency and accuracy.

본 출원의 일부 실시예에서, 상기 신경망 훈련 방법은 단말 기기 또는 다른 처리 기기에 의해 수행될 수 있다. 단말 기기는 사용자 기기(User Equipment, UE), 이동 기기, 사용자 단말기, 단말기, 휴대폰, 무선 전화, 개인 디지털 비서(Personal Digital Assistant, PDA), 핸드헬드형 기기, 컴퓨팅 기기, 차량용 기기, 웨어러블 기기 등일 수 있다. 다른 처리 기기는 서버 또는 클라우드 서버 등일 수 있다. 본 출원의 일부 실시예에서, 상기 신경망 훈련 방법은 프로세서를 통해 메모리에 저장된 컴퓨터 프로그램을 호출하는 방식으로 구현될 수 있다. In some embodiments of the present application, the neural network training method may be performed by a terminal device or other processing device. A terminal device may be a user equipment (UE), a mobile device, a user terminal, a terminal, a mobile phone, a wireless telephone, a personal digital assistant (PDA), a handheld device, a computing device, a vehicle device, a wearable device, etc. can The other processing device may be a server or a cloud server or the like. In some embodiments of the present application, the neural network training method may be implemented by calling a computer program stored in a memory through a processor.

본 출원의 일부 실시예에서, 상기 샘플 이미지는 폐 CT 이미지와 같은 의료 영상 그림이다. 샘플 이미지 블록은 샘플 이미지에 목표 영역이 포함된 이미지 블록일 수 있다. 실예에서, 샘플 이미지는 주석(예를 들어, 카테고리 주석 및 분할 주석)이 달린 3차원 의료 이미지일 수 있고, 샘플 이미지 블록은 3차원 의료 이미지에 결절이 포함된 이미지 블록일 수 있다. In some embodiments of the present application, the sample image is a medical imaging picture, such as a lung CT image. The sample image block may be an image block including a target region in the sample image. In an embodiment, the sample image may be a 3D medical image annotated (eg, category annotation and segmentation annotation), and the sample image block may be an image block in which a nodule is included in the 3D medical image.

본 출원의 일부 실시예에서, S11 단계에서, 신경망 훈련을 위한 샘플 이미지 블록을 획득하고 샘플 이미지 블록에 주석을 달도록, 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 결정할 수 있다. S11 단계는, 의료 영상 사진의 목표 영역에 대해 위치 추적을 수행하여, 상기 목표 영역의 위치 정보를 획득하는 단계; 상기 의료 영상 사진과 관련된 병리학적 사진을 획득하는 단계; 상기 병리학적 사진의 각 목표 영역의 병리학적 정보에 따라, 상기 의료 영상 사진의 목표 영역의 카테고리 정보를 결정하는 단계를 포함한다. 상기 병리학적 사진은 진단을 거친 병리학적 정보가 포함된 사진이고, 의료 이미지 데이터베이스로부터 획득되거나, 의사 등 전문가가 단말기에서 수동으로 주석을 단 후 신경망 훈련 장치에 송신될 수 있다. In some embodiments of the present application, in step S11 , location information and category information of a target region among the sample images may be determined so as to obtain a sample image block for training the neural network and annotate the sample image block. Step S11 may include: performing location tracking on the target area of the medical image to obtain location information of the target area; acquiring a pathological picture related to the medical image; and determining category information of the target region of the medical image according to pathological information of each target region of the pathological picture. The pathological picture is a picture including pathological information that has undergone diagnosis, and may be acquired from a medical image database, or may be manually annotated by an expert such as a doctor in the terminal and then transmitted to the neural network training apparatus.

본 출원의 일부 실시예에서, 샘플 이미지에 대해 리샘플링 처리를 수행하여 1×1×1 해상도의 3차원 이미지를 획득할 수 있다. 또한, 상기 3차원 이미지를 분할한다. 예를 들어, 폐 3차원 의료 이미지에 일부 폐 실질 외부 영역이 존재할 수 있으며, 폐 결절 등 병변은 흔히 폐 실질 내부에 존재하므로, 폐 실질이 존재하는 이미지 블록을 잘라내고(즉, 분할) 상기 이미지 블록에 대해 정규화 처리를 수행한다. 또한, 정규화 처리된 3차원 이미지 중 목표 영역(예를 들어, 병변 영역)에 대해 위치 추적을 수행하여, 목표 영역의 위치 정보를 획득할 수 있다. 예를 들어, 위치 추적을 위한 컨벌루션 신경망을 통해 목표 영역의 위치 정보를 결정하거나, 의사 등 전문가를 통해 목표 영역의 위치 정보 등을 확인할 수 있으며, 본 출원의 실시예는 위치 추적 방식에 대해 한정하지 않는다.In some embodiments of the present application, a 3D image of 1×1×1 resolution may be obtained by performing resampling processing on the sample image. In addition, the 3D image is divided. For example, some regions outside the lung parenchyma may be present in the lung 3D medical image, and lesions such as lung nodules are often present inside the lung parenchyma, so the image block in which the lung parenchyma exists is cut out (i.e. segmented) and the image Normalization processing is performed on the block. In addition, location information of the target area may be obtained by performing location tracking on a target area (eg, a lesion area) in the normalized 3D image. For example, the location information of the target area may be determined through a convolutional neural network for location tracking, or location information of the target area may be confirmed through an expert such as a doctor, and the embodiment of the present application is not limited to the location tracking method. does not

본 출원의 일부 실시예에서, 의료 영상 사진은 관련된 병리학적 사진을 포함할 수 있으며, 의료 영상 사진 중 병변의 카테고리를 결정하는데 사용될 수 있다. 예를 들어, 병변의 카테고리는 간유리음영 결절(Ground-Glass Nodule, GGN)을 포함할 수 있다. 선암은 침윤 전립선암 비정형샘종증식(Atypical Adenomatous Hyperplasia Of Preinvasive Adenocarcinoma, AAHOPA), 제자리 선암(Adenocarcinoma In Situ, AIS), 최소 침습 선암(Minimally Invasive Adenocarcinoma, MIA) 및 침윤성 선암(Invasive Adenocarcinoma, IA)으로 나뉘어 지며, 본 출원의 실시예는 병변의 카테고리에 대해 한정하지 않는다. In some embodiments of the present application, the medical image may include a related pathological photograph, and may be used to determine a category of a lesion in the medical image. For example, a category of lesions may include a Ground-Glass Nodule (GGN). Adenocarcinoma is divided into invasive prostate cancer, Atypical Adenomatous Hyperplasia Of Preinvasive Adenocarcinoma (AAHOPA), Adenocarcinoma In Situ (AIS), Minimally Invasive Adenocarcinoma (MIA), and Invasive Adenocarcinoma (IA). However, the embodiments of the present application are not limited to the category of the lesion.

본 출원의 일부 실시예에서, 병리학적 사진에 따라 각 목표 영역의 병리학적 정보를 획득할 수 있다. 예를 들어, 병리학적 사진은 전문 진단을 거친 사진일 수 있으며, 각 병변에 대한 분석 설명이 포함될 수 있다. 병리학적 사진에 따라 각 목표 영역의 병리학적 정보를 획득하여 의료 영상 사진의 각 목표 영역의 카테고리 정보를 결정할 수 있다.In some embodiments of the present application, pathological information of each target region may be acquired according to the pathological photograph. For example, the pathological picture may be a picture that has undergone a professional diagnosis, and an analysis description for each lesion may be included. By acquiring pathological information of each target region according to the pathological picture, category information of each target region of the medical image may be determined.

본 출원의 일부 실시예에서, 의료 영상 사진에서 병변 영역이 포함된 이미지 블록을 잘라내고(즉, 샘플 이미지 블록을 잘라냄), 목표 영역의 카테고리 정보에 따라, N 개의 카테고리의 샘플 이미지 블록을 획득할 수 있다. 예를 들어, 결절 크기에 대한 통계를 거쳐, 샘플 이미지 블록의 크기를 64×64×64로 결정할 수 있으며, 자르기 및 분류를 거쳐, 4 개 유형(AAHOPA, AIS, MIA 및 IA)의 샘플 이미지 블록을 획득한다. In some embodiments of the present application, an image block including a lesion region is cut out from a medical image photograph (ie, a sample image block is cut out), and sample image blocks of N categories are obtained according to category information of the target region can do. For example, through statistics on nodule size, the size of a sample image block can be determined to be 64×64×64, and after cropping and classification, sample image blocks of 4 types (AAHOPA, AIS, MIA and IA) to acquire

본 출원의 일부 실시예에서, 의료 영상 사진 수가 적고, 주석 난도가 크므로 비용이 높고, 3차원 이미지를 복수 개의 2차원 이미지로 분할하면, 공간 정보가 손실되어 성능이 저하된다. 샘플 이미지 블록에 대해 회전, 평행 이동, 미러링, 줌(zoom) 등 조작을 수행하여 샘플 수를 증가할 수 있다. 또한, 증가된 샘플 이미지 블록을 사용하여 신경망을 훈련함으로써, 신경망의 일반화 능력을 향상시키고, 과적합을 방지할 수 있다. 본 출원의 일부 실시예에서, 양성 및 음성 샘플을 균형시킬 수도 있다. 실예에서, 침윤 전립선암 비정형선종증식결절, 제자리 선암 결절, 최소 침습 선암 결절 및 침윤성 선암 결절 등 악성 결절의 샘플 수에 큰 차이가 있으며, 상술한 방법을 통해 적은 수의 샘플을 증가하여, 양성 및 음성 샘플 수를 균형시킬 수 있다. 본 출원의 실시예는 샘플 수를 증가하는 방식에 대해 한정하지 않는다. In some embodiments of the present application, the cost is high because the number of medical image pictures is small and the difficulty of annotation is large, and when a 3D image is divided into a plurality of 2D images, spatial information is lost and performance is deteriorated. The number of samples can be increased by performing manipulations such as rotation, translation, mirroring, and zooming on the sample image block. In addition, by training the neural network using the increased sample image blocks, the generalization ability of the neural network can be improved and overfitting can be prevented. In some embodiments of the present application, positive and negative samples may be balanced. In an example, there is a large difference in the number of samples of malignant nodules, such as invasive prostate cancer atypical adenomatous proliferative nodules, in situ adenocarcinoma nodules, minimally invasive adenocarcinoma nodules, and invasive adenocarcinoma nodules. The number of negative samples can be balanced. Examples of the present application do not limit the method of increasing the number of samples.

본 출원의 일부 실시예에서, 샘플 이미지 블록을 나누어 신경망에 입력할 수 있다. S14 단계는, 어느 한 샘플 이미지 블록을 상기 신경망에 입력하여 처리하여, 샘플 이미지 블록의 카테고리 예측 정보 및 예측 목표 영역을 획득하는 단계; 적어도 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 분류 손실을 결정하는 단계; 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 분할 손실을 결정하는 단계; 및 상기 분류 손실 및 상기 분할 손실에 따라, 상기 신경망을 훈련하는 단계를 포함할 수 있다.In some embodiments of the present application, the sample image block may be divided and input to the neural network. Step S14 may include inputting one sample image block to the neural network and processing it to obtain category prediction information and a prediction target region of the sample image block; determining a classification loss according to at least the category prediction information and the category information to which the sample image block belongs; determining a division loss according to the prediction target region and position information of the sample image block; and training the neural network according to the classification loss and the segmentation loss.

본 출원의 일부 실시예에서, 상기 신경망은 공유 특징 추출 네트워크, 분류 네트워크 및 분할 네트워크를 포함할 수 있다. 공유 특징 추출 네트워크를 통해 샘플 이미지 블록에 대해 특징 추출을 수행하여, 샘플 이미지 블록의 샘플 목표 특징을 획득하고, 분류 네트워크를 통해 샘플 이미지 블록의 카테고리 예측 정보를 획득할 수 있다. 카테고리 예측 정보에는 오차가 있을 수 있으며, 샘플 예측 카테고리 정보 및 샘플 이미지 블록의 카테고리 주석 정보를 통해, 신경망의 분류 손실을 결정할 수 있다. In some embodiments of the present application, the neural network may include a shared feature extraction network, a classification network, and a segmentation network. By performing feature extraction on the sample image block through the shared feature extraction network, sample target features of the sample image block may be obtained, and category prediction information of the sample image block may be obtained through the classification network. There may be an error in the category prediction information, and the classification loss of the neural network may be determined through the sample prediction category information and the category annotation information of the sample image block.

본 출원의 일부 실시예에서, 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록의 주석 정보에 따라, 분류 손실을 결정하는 단계는, 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록의 주석 정보에 따라, 제 분류 손실을 결정하는 단계; 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리의 범주 센터의 카테고리 정보에 따라, 제2 분류 손실을 결정하는 단계; 및 상기 제1 분류 손실 및 상기 제2 분류 손실에 대해 가중 합산 처리를 수행하여 상기 분류 손실을 획득하는 단계를 포함한다.In some embodiments of the present application, the determining of the classification loss according to the category prediction information and the annotation information of the sample image block includes, according to the category prediction information and the annotation information of the sample image block, a second classification loss. determining; determining a second classification loss according to the category prediction information and category information of a category center of a category to which the sample image block belongs; and performing weighted summation processing on the first classification loss and the second classification loss to obtain the classification loss.

본 출원의 일부 실시예에서, 샘플 이미지 블록의 주석 정보는 카테고리 주석 정보를 포함할 수 있다. 예를 들어, 카테고리 주석 정보는 샘플 이미지 블록 중 결절의 카테고리를 나타내는 정보일 수 있다. 실예에서, 상기 카테고리 예측 정보는 벡터 등의 형태로 표시된 카테고리 정보 일 수 있다. 확률 사전 등을 통해 상기 벡터로 표시된 처리될 이미지 블록이 각 카테고리에 속하는 확률 분포를 결정하고, 나아가 처리될 이미지 블록이 속한 카테고리를 결정할 수 있다. 또한, 카테고리 예측 정보의 벡터는 처리될 이미지 블록의 확률을 직접적으로 나타낼 수 있으며, 실예에서, 상기 벡터의 각 요소는 처리될 이미지 블록이 속한 카테고리의 확률을 각각 나타낸다. In some embodiments of the present application, the annotation information of the sample image block may include category annotation information. For example, the category annotation information may be information indicating a category of a nodule among the sample image blocks. In an embodiment, the category prediction information may be category information displayed in the form of a vector or the like. It is possible to determine a probability distribution in which the image block to be processed, which is represented by the vector, belongs to each category through a probability dictionary or the like, and further to determine a category to which the image block to be processed belongs. In addition, the vector of the category prediction information may directly indicate the probability of the image block to be processed, and in an embodiment, each element of the vector indicates the probability of the category to which the image block to be processed belongs.

본 출원의 일부 실시예에서, 카테고리 예측 정보 및 샘플 이미지 블록의 카테고리 주석 정보에 따라, 제1 분류 손실을 결정할 수 있다. 예를 들어, 카테고리 예측 정보의 벡터와 카테고리 주석 정보의 벡터 간의 특징 거리(예를 들어, 유클리드 거리, 코사인 거리 등)를 결정하고, 특징 거리에 따라 제1 분류 손실

Figure pct00001
을 결정할 수 있다. 예를 들어, softmaxloss 손실함수에 따라 제1 분류 손실
Figure pct00002
을 계산할 수 있다. 실예에서, 이하 공식(1)을 통해 제1 분류 손실
Figure pct00003
을 결정할 수 있다. In some embodiments of the present application, the first classification loss may be determined according to the category prediction information and the category annotation information of the sample image block. For example, determine the feature distance (eg, Euclidean distance, cosine distance, etc.) between the vector of category prediction information and the vector of category annotation information, and the first classification loss according to the feature distance
Figure pct00001
can be decided For example, the first classification loss according to the softmaxloss loss function
Figure pct00002
can be calculated. In the example, the first classification loss through the following formula (1)
Figure pct00003
can be decided

Figure pct00004
(1);
Figure pct00004
(One);

여기서,

Figure pct00005
는 i 번째 샘플 이미지 블록의 카테고리 예측 정보를 나타내고,
Figure pct00006
는 i 번째 샘플 이미지 블록이 속한 카테고리를 나타내고, n은 카테고리 수를 나타낸다.
Figure pct00007
는 완전 연결 계층 중 제
Figure pct00008
카테고리의 가중치를 나타내고,
Figure pct00009
는 완전 연결 계층 중 j 번째 카테고리의 가중치를 나타내고, m은 매번 신경망에 입력된 샘플 이미지 블록 수를 나타내고,
Figure pct00010
는 i 번째 샘플 이미지 블록이 속한 카테고리 바이어스 항목을 나타내고,
Figure pct00011
는 j 번째 카테고리의 바이어스 항목을 나타낸다. here,
Figure pct00005
represents the category prediction information of the i-th sample image block,
Figure pct00006
denotes the category to which the i-th sample image block belongs, and n denotes the number of categories.
Figure pct00007
is the first of the fully connected layers
Figure pct00008
indicates the weight of the category,
Figure pct00009
represents the weight of the j-th category among fully connected layers, m represents the number of sample image blocks input to the neural network each time,
Figure pct00010
represents the category bias item to which the i-th sample image block belongs,
Figure pct00011
denotes a bias item of the j-th category.

본 출원의 일부 실시예에서, 상술한 제1 분류 손실을 사용하여 훈련하면, 서로 다른 카테고리의 카테고리 정보의 클래스 간 특징 거리를 확대할 수 있으며, 나아가 분류 네트워크가 서로 다른 카테고리의 샘플 이미지 블록을 구분할 수 있도록 한다. 그러나, 폐의 복수 개 카테고리의 결절 간의 차이는 분명하지 않으며(예를 들어, 제자리 선암과 최소 침습 선암의 결절의 형태 차이는 크지 않음), 동일한 유형의 결절 간의 형태가 서로 다르므로(예를 들어, 침윤성 선암 등 악성 결절의 형태는 서로 다름), 카테고리 정보의 클래스 간 특징 거리가 작고, 클래스 내 특징 거리가 커져, 제1 분류 손실

Figure pct00012
만 사용하여 훈련된 분류 네트워크의 분류 효과가 좋지 않다. In some embodiments of the present application, when training using the above-described first classification loss, the feature distance between classes of category information of different categories can be expanded, and further, the classification network can distinguish sample image blocks of different categories. make it possible However, the differences between nodules of multiple categories of the lung are not clear (e.g., the differences in the morphology of nodules in in situ and minimally invasive adenocarcinoma are not significant), and because the morphology is different between nodules of the same type (e.g., , the types of malignant nodules such as invasive adenocarcinoma are different), the feature distance between classes of category information is small and the feature distance within the class is large, so the first classification is lost
Figure pct00012
The classification effect of a classification network trained using only

본 출원의 일부 실시예에서, 상술한 문제에 대하여, 제2 분류 손실을 통해 분류 네트워크를 훈련할 수 있다. 실예에서, 복수 개의 샘플 이미지 블록 중 각 카테고리의 범주 센터의 카테고리 정보를 결정할 수 있다. 예를 들어, 복수 개의 샘플 이미지 블록의 클래스 센터의 카테고리 정보에 대해 가중 평균을 수행하거나 샘플 이미지 블록의 카테고리 정보에 대해 클러스터링 처리를 수행하여 클래스 센터 특징 등을 획득할 수 있다. 본 출원의 실시예는 클래스 센터의 카테고리 정보에 대해 한정하지 않는다. In some embodiments of the present application, for the above-described problem, a classification network may be trained through a second classification loss. In an embodiment, category information of a category center of each category among a plurality of sample image blocks may be determined. For example, a class center feature may be acquired by performing a weighted average on category information of class centers of a plurality of sample image blocks or performing clustering processing on category information of sample image blocks. The embodiment of the present application does not limit the category information of the class center.

본 출원의 일부 실시예에서, 샘플 이미지 블록의 카테고리 예측 정보 및 이가 속하는 카테고리의 범주 센터의 카테고리 주석 정보에 따라, 제2 분류 손실을 결정할 수 있다. 예를 들어, 카테고리 예측 정보와 클래스 센터의 카테고리 정보 간의 특징 거리를 결정하고 특징 거리에 따라 제2 분류 손실

Figure pct00013
를 결정할 수 있다. 예를 들어, centerloss 손실함수에 따라 제2 분류 손실
Figure pct00014
를 계산할 수 있다. 제2 분류 손실
Figure pct00015
를 통해 분류 네트워크를 훈련하면, 동일한 유형의 샘플 이미지 블록의 카테고리 정보의 클래스 내 특징 거리를 단축하여, 동일한 유형의 특징 정보가 특징 공간에서 더 집중되도록 할 수 있으며, 샘플 이미지 블록의 카테고리를 결정하는데 도움이 된다. 실예에서, 이하 공식(2)를 통해 제2 분류 손실
Figure pct00016
을 결정할 수 있다.In some embodiments of the present application, the second classification loss may be determined according to the category prediction information of the sample image block and the category annotation information of the category center of the category to which it belongs. For example, determine the feature distance between the category prediction information and the category information of the class center, and the second classification loss according to the feature distance
Figure pct00013
can be decided For example, the second classification loss according to the centerloss loss function
Figure pct00014
can be calculated. Second Classification Loss
Figure pct00015
By training the classification network through , it is possible to shorten the within-class feature distance of the category information of the sample image block of the same type, so that the feature information of the same type is more concentrated in the feature space, and to determine the category of the sample image block. It helps. In the example, the second classification loss through the following formula (2)
Figure pct00016
can be decided

Figure pct00017
(2);
Figure pct00017
(2);

여기서,

Figure pct00018
는 i 번째 샘플 이미지 블록이 속한 카테고리의 범주 센터의 카테고리 주석 정보이다. here,
Figure pct00018
is category annotation information of the category center of the category to which the i-th sample image block belongs.

본 출원의 일부 실시예에서, 제1 분류 손실 및 제2 분류 손실을 통해 분류 손실을 공동으로 결정할 수 있다. 예를 들어, 제1 분류 손실 및 제2 분류 손실에 대해 가중 합산 처리를 수행하여 분류 손실을 획득할 수 있다. 예를 들어, 제1 분류 손실 및 제2 분류 손실의 가중치 비율은 1:0.8이고, 상술한 가중치 비율에 따라 가중 합산을 수행한 후 분류 손실을 획득할 수 있다. 본 출원의 실시예는 가중치 비율에 대해 한정하지 않는다.In some embodiments of the present application, the classification loss may be jointly determined through the first classification loss and the second classification loss. For example, a weighted summation process may be performed on the first classification loss and the second classification loss to obtain a classification loss. For example, the weight ratio of the first classification loss and the second classification loss is 1:0.8, and after performing weighted summation according to the above-described weight ratio, the classification loss may be obtained. The embodiment of the present application does not limit the weight ratio.

이러한 방식을 통해, 훈련 과정에 동일한 카테고리의 샘플 이미지 블록의 카테고리 특징이 더 집중되어, 서로 다른 카테고리의 샘플 이미지 블록의 카테고리 정보 간의 거리가 더 커져, 분류 성능을 향상시키는데 유리하고, 분류 정확도를 향상시킬 수 있다.In this way, the categorical features of sample image blocks of the same category are more concentrated in the training process, and the distance between category information of sample image blocks of different categories becomes larger, which is advantageous for improving classification performance and improving classification accuracy. can do it

본 출원의 일부 실시예에서, 분할 네트워크를 통해 샘플 목표 특징에 대해 분할 처리를 수행하여, 샘플 이미지 블록 중 예측 목표 영역을 획득할 수 있다. 상기 예측 목표 영역에 오차가 있을 수 있으며, 예측 목표 영역과 상기 샘플 이미지 블록의 주석 목표 영역 간의 오차에 따라 분할 손실을 결정하고, 나아가 분할 손실을 통해 훈련할 수 있다. In some embodiments of the present application, segmentation processing may be performed on a sample target feature through a segmentation network to obtain a prediction target area in a sample image block. There may be an error in the prediction target region, and a division loss may be determined according to an error between the prediction target region and the annotation target region of the sample image block, and further, training may be performed through the division loss.

본 출원의 일부 실시예에서, 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 이미지의 주석 정보에 따라, 분할 손실을 결정하는 단계는, 상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 예측 목표 영역의 제1 가중치 및 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정하는 단계 상기 제1 가중치, 제2 가중치, 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 주석 정보에 따라, 상기 분할 손실을 결정하는 단계를 포함한다.In some embodiments of the present application, the determining of the division loss according to the annotation information of the image of the prediction target area and the sample image block includes: the number of pixels of the prediction target area in a first ratio occupied by the sample image block Accordingly, determining a first weight of the prediction target region and a second weight of a sample background region in the sample image block according to the first weight, the second weight, and annotation information of the prediction target region and the sample image block , determining the splitting loss.

본 출원의 일부 실시예에서, 상기 주석 정보는 주석이 달린 분할 영역을 포함하고, 예측 목표 영역과 주석이 달린 분할 영역 간의 오차에 따라 분할 손실을 직접 결정할 수 있다. 그러나, 일반적으로 결절의 직경은 5 밀리미터(millimeter, mm) 내지 30mm 사이이고, 샘플 이미지 블록에서 결절이 위치한 영역과 다른 영역 간에 차지하는 비율 차이가 크므로, 목표 영역과 비 목표 영역 간의 픽셀 수가 불균형하여, 예측 목표 영역의 오차가 분할 손실에서 차지하는 비율이 작아져, 신경망의 최적화 조절에 도움이 되지 않아, 훈련 효율이 낮으며, 훈련 효과가 나쁘다. In some embodiments of the present application, the annotation information may include an annotated segmentation region, and the segmentation loss may be directly determined according to an error between the prediction target region and the annotated segmentation region. However, in general, the diameter of the nodule is between 5 millimeters (mm) and 30 mm, and the difference in the ratio between the area where the nodule is located and other areas in the sample image block is large. , the ratio of the error of the prediction target region to the segmentation loss is small, which does not help in the optimization control of the neural network, so the training efficiency is low and the training effect is bad.

본 출원의 일부 실시예에서, 목표 영역의 픽셀 및 비 목표 영역(즉, 샘플 배경 영역)의 픽셀에 대해 가중 처리를 수행할 수 있다. 실예에서, 예측 목표 영역의 픽셀 수가 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 예측 목표 영역의 제1 가중치 및 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정할 수 있다. 나아가, 분할 손실을 결정할 때, 상술한 두 영역의 픽셀에 대해 가중 처리를 수행하여 목표 영역의 손실과 비 목표 영역의 손실을 균형시킬 수 있다. In some embodiments of the present application, weight processing may be performed on pixels of a target area and pixels of a non-target area (ie, a sample background area). In an embodiment, the first weight of the prediction target area and the second weight of the sample background area in the sample image block may be determined according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block. Further, when determining the division loss, weighting may be performed on the pixels of the two regions to balance the loss of the target region and the loss of the non-target region.

본 출원의 일부 실시예에서, 상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 예측 목표 영역의 제1 가중치 및 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정하는 단계는, 상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 비율을 결정하는 단계 및 상기 제2 비율을 상기 제1 가중치로 결정하고, 상기 제1 비율을 제2 가중치로 결정하는 단계를 포함한다.In some embodiments of the present application, a first weight of the prediction target area and a second weight of a sample background area in the sample image block are determined according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block determining a second ratio of a sample background area in the sample image block according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block; and using the second ratio as the first weight and determining the first ratio as a second weight.

본 출원의 일부 실시예에서, 샘플 이미지 블록에는 예측 목표 영역 및 배경 영역이 포함될 수 있고, 예측 목표 영역의 픽셀 수가 차지하는 비율을 통계하여, 샘플 배경 영역이 차지하는 비율을 결정할 수 있다. 예를 들어, 예측 목표 영역 픽셀 수가 차지하는 제1 비율이 0.2이면, 샘플 배경 영역 픽셀 수가 차지하는 제2 비율은 0.8이다. 본 출원의 실시예는 제1 비율 및 제2 비율에 대해 한정하지 않는다.In some embodiments of the present application, the sample image block may include a prediction target area and a background area, and a ratio occupied by the number of pixels of the prediction target area may be statistic to determine the ratio occupied by the sample background area. For example, if the first ratio occupied by the number of pixels in the prediction target region is 0.2, the second ratio occupied by the number of pixels in the sample background region is 0.8. Examples of the present application do not limit the first ratio and the second ratio.

본 출원의 일부 실시예에서, 예측 목표 영역과 샘플 배경 영역을 균형시키기 위하여, 제2 비율을 예측 목표 영역의 제1 가중치로 결정하고, 제1 비율을 샘플 배경 영역의 제2 가중치로 결정한다. 예를 들어, 예측 목표 영역 픽셀 수가 차지하는 제1 비율이 0.2이면, 예측 목표 영역의 제1 가중치는 0.8이고, 샘플 배경 영역 픽셀 수가 차지하는 제2 비율이 0.8이면, 샘플 배경 영역의 제2 가중치는 0.2이다.In some embodiments of the present application, in order to balance the prediction target area and the sample background area, the second ratio is determined as the first weight of the prediction target area, and the first ratio is determined as the second weight of the sample background area. For example, if the first ratio occupied by the number of pixels in the prediction target region is 0.2, the first weight of the prediction target region is 0.8, and when the second ratio occupied by the number of pixels in the sample background region is 0.8, the second weight of the sample background region is 0.2 to be.

본 출원의 일부 실시예에서, 제1 가중치, 제2 가중치, 예측 목표 영역 및 샘플 이미지 블록의 주석 목표 영역에 따라, 분할 손실을 결정할 수 있다. 실예에서, 예측 목표 영역 및 주석 정보 중 목표 영역의 차이에 따라, 분할 손실을 결정할 수 있다. 예를 들어, 예측 목표 영역 중 픽셀 포인트에 대해 가중을 수행하고 가중치는 제1 가중치이며, 샘플 배경 영역 중 픽셀 포인트에 대해 가중을 수행하고 가중치는 제2 가중치이며, 가중 후 분할 손실

Figure pct00019
을 결정한다. 예를 들어, weightedDiceloss 손실함수에 따라 분할 손실
Figure pct00020
을 계산할 수 있다. 실예에서, 이하 공식 (3)을 통해 분할 손실
Figure pct00021
을 결정할 수 있다.In some embodiments of the present application, the division loss may be determined according to the first weight, the second weight, the prediction target area, and the annotation target area of the sample image block. In an embodiment, the division loss may be determined according to a difference between the prediction target region and the target region among the annotation information. For example, weighting is performed on pixel points in the prediction target area, and the weight is a first weight, weighting is performed on pixel points in the sample background area, and the weight is a second weight, and division loss after weighting
Figure pct00019
to decide For example, split loss according to the weightedDiceloss loss function
Figure pct00020
can be calculated. In the example, the division loss through the following formula (3)
Figure pct00021
can be decided

Figure pct00022
(3);
Figure pct00022
(3);

여기서,

Figure pct00023
이고,
Figure pct00024
=1이면, 제k 픽셀 위치가 예측 목표 영역임을 나타내고,
Figure pct00025
=0이면, 제k 픽셀 위치가 샘플 배경 영역임을 나타내고,
Figure pct00026
는 분할 네트워크가 제k 픽셀 위치에서의 출력을 나타내고, W는 제1 가중치를 나타내고, Y는 제k 픽셀 위치의 분할 주석을 나타낸다. here,
Figure pct00023
ego,
Figure pct00024
=1, indicates that the k-th pixel position is the prediction target area,
Figure pct00025
=0, indicates that the kth pixel position is the sample background area,
Figure pct00026
denotes the output of the segmentation network at the kth pixel position, W denotes the first weight, and Y denotes the segmentation annotation at the kth pixel position.

이러한 방식을 통해, 목표 영역의 오차와 비 목표 영역의 오차를 균형시킬 수 있고, 네트워크 파라미터 최적화에 유리하고, 훈련 효율 및 훈련 효과를 향상시킬 수 있다.In this way, it is possible to balance the error of the target region and the error of the non-target region, it is advantageous for network parameter optimization, and training efficiency and training effect can be improved.

본 출원의 일부 실시예에서, 분류 손실 및 분할 손실에 따라 공유 특징 추출 네트워크, 분할 네트워크 및 분류 네트워크의 종합 네트워크 손실을 결정할 수 있다. 예를 들어, 분류 손실 및 분할 손실에 대해 가중 합산 처리를 수행하여 종합 네트워크 손실을 획득할 수 있다. 실예에서, 이하 공식 (4)에 따라 종합 네트워크 손실

Figure pct00027
을 결정할 수 있다. In some embodiments of the present application, a shared feature extraction network, a segmentation network, and an aggregate network loss of the classification network may be determined according to the classification loss and the segmentation loss. For example, weighted summation processing may be performed on classification loss and segmentation loss to obtain a comprehensive network loss. In the example, the total network loss according to the formula (4) below
Figure pct00027
can be decided

Figure pct00028
(4);
Figure pct00028
(4);

여기서,

Figure pct00029
Figure pct00030
의 가중치를 나타내고,
Figure pct00031
Figure pct00032
의 가중치를 나타내고,
Figure pct00033
Figure pct00034
의 가중치를 나타낸다. 예를 들어,
Figure pct00035
=1.2,
Figure pct00036
=0.8,
Figure pct00037
=2이며, 본 출원의 실시예는 분류 손실 및 분할 손실의 가중치에 대해 한정하지 않는다.here,
Figure pct00029
silver
Figure pct00030
represents the weight of
Figure pct00031
Is
Figure pct00032
represents the weight of
Figure pct00033
silver
Figure pct00034
represents the weight of For example,
Figure pct00035
=1.2,
Figure pct00036
=0.8,
Figure pct00037
=2, and the embodiment of the present application does not limit the weighting of the classification loss and the division loss.

본 출원의 일부 실시예에서, 종합 네트워크 손실을 통해 상술한 신경망의 네트워크 파라미터를 역으로 조정할 수 있다. 예를 들어, 경사하강법을 통해 네트워크 파라미터를 조정하여 네트워크 파라미터를 최적화하고, 분할과 분류 정확도를 향상시킬 수 있다. In some embodiments of the present application, a network parameter of the above-described neural network may be adjusted inversely through a comprehensive network loss. For example, by adjusting the network parameters through gradient descent, the network parameters can be optimized, and the segmentation and classification accuracy can be improved.

본 출원의 일부 실시예에서, 상술한 훈련 방법은 반복적으로 여러번 수행될 수 있으며, 설정된 학습률에 따라 훈련된다. 실예에서, 전 20 개 훈련 주기에서는 0.001*1.1x(여기서, x는 훈련 주기를 나타냄)의 학습률로 훈련할 수 있고, 후속 훈련에서는 제40, 80 및 120 ... 훈련 주기에서 각각 학습률이 절반으로 감소되도록 할 수 있다. 훈련의 초기 단계에서는 네트워크 파라미터가 대폭 최적화되도록 훈련 효율을 향상시키고, 후속 훈련에서는 점진적으로 학습률을 줄여, 네트워크 파라미터를 미세 조정하고, 신경망의 정확도를 향상시키고, 분류 처리 및 분할 처리의 정확도를 향상시킬 수 있다. In some embodiments of the present application, the above-described training method may be repeatedly performed several times, and is trained according to a set learning rate. In an example, you can train with a learning rate of 0.001*1.1 x (where x represents the training period) in all 20 training cycles, and in subsequent training the learning rate is halved in each of the 40th, 80th and 120th training cycles. can be reduced to In the initial stage of training, the training efficiency is improved so that the network parameters are greatly optimized, and in the subsequent training, the learning rate is gradually reduced to fine-tune the network parameters, improve the accuracy of the neural network, and improve the accuracy of classification processing and segmentation processing. can

본 출원의 일부 실시예에서, 훈련 조건이 충족되면, 훈련을 완료하여, 훈련된 공유 특징 추출 네트워크, 분할 네트워크 및 분류 네트워크를 획득할 수 있다. 상기 훈련 조건은 훈련 차수를 포함할 수 있다. 즉, 사전 설정된 훈련 차수에 이르면, 훈련 조건이 충족된다. 상기 훈련 조건은 종합 네트워크 손실이 사전 설정된 임계값보다 작거나 같거나, 사전 설정된 구간에 수렴하는 것을 포함할 수있다. 즉, 종합 네트워크 손실이 사전 설정된 임계값보다 작거나 같거나, 사전 설정된 구간에 수렴하는 경우, 신경망의 정확도가 사용 요구 사항을 충족하는 것으로 간주될 수 있으며, 훈련이 완료될 수 있다. 본 출원의 실시예는 훈련 조건에 대해 한정하지 않는다. In some embodiments of the present application, when a training condition is satisfied, training may be completed to obtain a trained shared feature extraction network, a segmentation network, and a classification network. The training condition may include a training order. That is, when the preset training order is reached, the training condition is satisfied. The training condition may include that the overall network loss is less than or equal to a preset threshold or converges in a preset section. That is, when the overall network loss is less than or equal to a preset threshold or converges to a preset section, the accuracy of the neural network can be considered to meet the usage requirements, and training can be completed. The embodiments of the present application do not limit the training conditions.

본 출원의 일부 실시예에서, 훈련 완료 후, 훈련된 신경망을 테스트할 수 있다. 예를 들어, 폐 3차원 의료 이미지에 결절 영역이 포함된 3차원 이미지 블록을 상술한 신경망에 입력하고, 출력된 분할 결과 및 분류 결과의 정확도를 통계할 수 있다. 예를 들어, 3차원 이미지 블록의 주석 정보와 비교하여 분할 결과 및 분류 결과의 정확도를 확정하면, 신경망의 훈련 효과를 결정할 수 있다. 정확도가 사전 설정된 임계값보다 높으면, 훈련 효과가 좋고 신경망 성능이 좋다고 볼 수 있으며, 처리될 이미지 블록의 카테고리를 획득하고 목표 영역을 분할하는 처리에 사용될 수 있다. 정확도가 사전 설정된 임계값에 도달하지 못하면, 훈련 효과가 좋지 않는 것으로 볼 수 있으며, 다른 샘플 이미지 블록을 사용하여 계속하여 훈련할 수 있다. In some embodiments of the present application, after training is completed, the trained neural network may be tested. For example, the 3D image block including the nodule region in the 3D lung 3D medical image may be input to the above-described neural network, and the accuracy of the output segmentation result and classification result may be statistic. For example, if the accuracy of the segmentation result and the classification result is confirmed by comparing the 3D image block with annotation information, the training effect of the neural network may be determined. If the accuracy is higher than the preset threshold, it can be considered that the training effect is good and the neural network performance is good, and it can be used for processing to obtain the category of the image block to be processed and segment the target region. If the accuracy does not reach the preset threshold, the training effect is considered poor, and training can continue using other sample image blocks.

본 출원의 일부 실시예에서, 훈련된 신경망은 처리될 이미지 블록 중 목표 영역과 카테고리를 모두 모르는 경우, 처리될 이미지 블록의 카테고리 및 목표 영역을 획득할 수 있으며, 처리될 이미지 블록의 카테고리를 알고 있는 경우, 처리될 이미지 블록 중 목표 영역만 획득할 수도 있으며, 또는 처리될 이미지 블록 중 목표 영역을 알고 있는 경우, 처리될 이미지 블록의 카테고리를 획득할 수도 있다. 본 출원의 실시예는 신경망의 사용 방법에 대해 한정하지 않는다.In some embodiments of the present application, when the trained neural network does not know both the target region and the category among the image blocks to be processed, it can acquire the category and target region of the image block to be processed, and knows the category of the image block to be processed. In this case, only the target region among the image blocks to be processed may be acquired, or if the target region among the image blocks to be processed is known, the category of the image block to be processed may be acquired. The embodiments of the present application do not limit the method of using the neural network.

본 출원의 일부 실시예에서, 상술한 훈련 방법을 통해 훈련된 신경망은 처리될 이미지 블록 중 병변 영역 및 병변 카테고리의 결정에 사용될 수 있다. 상기 신경망은 공유 특징 추출 네트워크, 분류 네트워크 및 분할 네트워크를 포함하고, 상기 신경망 훈련 방법은, 처리될 이미지 블록을 공유 특징 추출 네트워크에 입력하여 처리하여, 처리될 이미지 블록의 목표 특징을 획득하는 단계 - 상기 공유 특징 추출 네트워크는 M 개의 공유 특징 추출 블록을 포함하고, i 번째 공유 특징 추출 블록의 입력 특징은 처음 i-1 개의 공유 특징 추출 블록의 출력 특징을 포함하고, i 및 M은 정수이고, 1<i≤M임 - ; 상기 목표 특징을 분류 네트워크에 입력하여 분류 처리하여, 상기 처리될 이미지 블록의 카테고리 정보를 획득하는 단계 및 상기 목표 특징을 분할 네트워크에 입력하여 분할 처리하여, 상기 처리될 이미지 블록 중 목표 영역을 획득하는 단계를 더 포함한다.In some embodiments of the present application, a neural network trained through the above-described training method may be used to determine a lesion region and a lesion category among image blocks to be processed. The neural network includes a shared feature extraction network, a classification network and a segmentation network, and the neural network training method includes: inputting and processing an image block to be processed into a shared feature extraction network to obtain a target feature of the image block to be processed; The shared feature extraction network includes M shared feature extraction blocks, an input feature of an i-th shared feature extraction block includes output features of the first i-1 shared feature extraction blocks, i and M are integers, and 1 <i≤M - ; inputting the target feature into a classification network and performing classification processing to obtain category information of the image block to be processed; further comprising steps.

이러한 방식을 통해, 공유 특징 추출 네트워크를 적용하여 목표 특징을 획득할 수 있고, 공유 특징 추출 네트워크의 공유 특징 추출 블록은 그 전의 모든 공유 특징 추출 블록의 출력 특징을 획득할 수 있고, 자신의 출력 특징을 후속 모든 공유 특징 추출 블록에 입력할 수 있다. 네트워크 내의 기울기 흐름을 강화하여 기울기 소멸 현상을 완화하고, 동시에 특징 추출 및 학습 능력을 향상시킬 수 있으며, 입력된 처리될 이미지 블록을 보다 세밀하게 분류하고 분할 처리하는데 도움이 된다. 처리될 이미지 블록의 보다 세밀한 카테고리 정보 및 목표 영역을 획득하고, 이미지 처리 효율을 향상시킬 수 있다.In this way, the target feature can be obtained by applying the shared feature extraction network, and the shared feature extraction block of the shared feature extraction network can acquire the output features of all previous shared feature extraction blocks, and its output features can be entered into all subsequent shared feature extraction blocks. By reinforcing the gradient flow in the network, it is possible to alleviate the gradient extinction phenomenon, at the same time improve feature extraction and learning capabilities, and help to more precisely classify and segment the input image block to be processed. It is possible to obtain more detailed category information and a target area of an image block to be processed, and improve image processing efficiency.

본 출원의 일부 실시예에서, 상기 처리될 이미지 블록은 처리될 이미지 중 일부 영역일 수 있다. 실예에서, 처리될 이미지로부터 일부 영역을 잘라낼 수 있다. 예를 들어, 목표 대상이 포함된 영역을 잘라낼 수 있다. 예를 들어, 처리될 이미지는 의료 영상 사진이고, 의료 영상 사진에서 병변이 포함된 영역을 잘라낼 수 있다. 예를 들어, 처리될 이미지는 폐 3차원 의료 이미지(예를 들어, 폐 CT 이미지)일 수 있고, 처리될 이미지 블록은 처리될 이미지에서 잘라낸 병변 영역(예를 들어, 결절이 포함된 영역)의 3차원 이미지 블록일 수 있다. 본 출원의 실시예는 처리될 이미지 및 처리될 이미지 블록의 유형에 대해 한정하지 않는다. In some embodiments of the present application, the image block to be processed may be a partial region of the image to be processed. In an embodiment, some area may be cropped from the image to be processed. For example, an area including a target object may be cut out. For example, the image to be processed is a medical image, and a region including a lesion may be cut out from the medical image. For example, the image to be processed may be a lung three-dimensional medical image (eg, a lung CT image), and the image block to be processed is It may be a 3D image block. The embodiments of the present application do not limit the types of images to be processed and image blocks to be processed.

본 출원의 일부 실시예에서, 의료 영상 사진(예를 들어, 폐 3차원 의료 이미지)에서, 의료 영상 사진의 사이즈 및 해상도가 높고, 의료 영상 사진에서, 정상 조직의 영역이 많으므로, 의료 영상 사진에 대해 전처리를 수행하고 병변이 포함된 영역을 잘라내 처리하여, 처리 효율을 향상시킬 수 있다. In some embodiments of the present application, in a medical image (eg, a 3D medical image of the lung), the size and resolution of the medical image are high, and in the medical image, the area of normal tissue is large, so the medical image is It is possible to improve the processing efficiency by performing pre-processing on the lesion and cutting and processing the area containing the lesion.

본 출원의 일부 실시예에서, 상기 신경망 훈련 방법은 처리될 이미지에 대해 전처리를 수행하여 제1 이미지를 획득하는 단계 제1 이미지의 목표 영역에 대해 위치 추적을 수행하여, 상기 제1 이미지 중 목표 영역의 위치 정보를 결정하는 단계 및 상기 제1 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 상기 처리될 이미지 블록을 분할하여 획득하는 단계를 더 포함한다.In some embodiments of the present application, the neural network training method performs pre-processing on an image to be processed to obtain a first image Position tracking is performed on a target area of the first image, and a target area of the first image The method further includes: determining location information of , and dividing and obtaining at least one image block to be processed according to location information of a target region in the first image.

본 출원의 일부 실시예에서, 먼저, 처리될 이미지에 대해 전처리를 수행하여 처리 효율을 향상시킬 수 있다. 예를 들어, 리샘플링, 정규화 등 전처리를 수행할 수 있다. 실예에서, 폐 3차원 의료 이미지에 대해 리샘플링 처리를 수행하여, 해상도가 1×1×1(즉, 각 픽셀은 1mm×1mm×1mm인 입방체의 콘텐츠를 나타냄)인 3차원 이미지를 획득할 수 있다. 또한, 리샘플링된 3차원 이미지의 사이즈를 줄여(예를 들어, 폐 3차원 의료 이미지에 일부 폐가 아닌 영역이 존재할 수 있음), 폐가 위치한 영역을 잘라내, 계산량을 절약하고, 처리 효율을 향상시킬 수 있다. In some embodiments of the present application, first, preprocessing may be performed on an image to be processed to improve processing efficiency. For example, preprocessing such as resampling and normalization can be performed. In an embodiment, the resampling process may be performed on the lung 3D medical image to obtain a 3D image with a resolution of 1×1×1 (that is, each pixel represents the content of a cube with a size of 1 mm×1 mm×1 mm) . In addition, by reducing the size of the resampled 3D image (for example, some non-pulmonary regions may exist in the lung 3D medical image), the region in which the lungs are located can be cropped, saving computation and improving processing efficiency. .

실예에서, 잘라낸 3차원 이미지를 정규화하여 3차원 이미지 중 각 픽셀의 픽셀 값을 0~1의 값 범위 내에 정규화하여, 처리 효율을 향상시킬 수 있다. 정규화 처리를 수행한 후, 상기 제1 이미지를 획득한다. 본 출원의 실시예는 전처리의 방법에 대해 한정하지 않는다.In an embodiment, processing efficiency may be improved by normalizing the cropped 3D image to normalize the pixel value of each pixel in the 3D image within a value range of 0 to 1. After performing normalization processing, the first image is acquired. Examples of the present application do not limit the method of pretreatment.

본 출원의 일부 실시예에서, 제1 이미지 중 목표 영역을 검출할 수 있다. 예를 들어, 위치 검출을 위한 컨볼루션 신경망을 통해 제1 이미지 중 목표 영역을 검출할 수 있다. 실예에서, 컨볼루션 신경망을 이용하여 폐 3차원 의료 이미지 중 결절이 포함된 영역을 검출할 수 있다.In some embodiments of the present application, a target area in the first image may be detected. For example, a target region in the first image may be detected through a convolutional neural network for position detection. In an embodiment, a region including a nodule may be detected in a lung 3D medical image using a convolutional neural network.

본 출원의 일부 실시예에서, 목표 영역을 잘라내 처리될 이미지 블록을 획득할 수 있다. 예를 들어, 폐 3차원 의료 이미지 중 결절이 포함된 영역을 잘라내 처리될 이미지 블록을 획득할 수 있다. 실예에서, 결절의 사이즈에 따라 처리될 이미지 블록의 사이즈를 결정하고 자를 수 있다. 예를 들어, 결절 사이즈에 대한 통계를 거쳐, 처리될 이미지 블록의 사이즈를 64×64×64로 결정하고, 자르기를 거친 후, 하나 또는 복수 개의 처리될 이미지 블록을 획득할 수 있다. In some embodiments of the present application, an image block to be processed may be obtained by cropping the target area. For example, an image block to be processed may be obtained by cutting out a region including a nodule in the lung 3D medical image. In an embodiment, the size of the image block to be processed may be determined and cropped according to the size of the nodule. For example, the size of the image block to be processed may be determined as 64×64×64 through statistics on the nodule size, and after cropping, one or a plurality of image blocks to be processed may be obtained.

본 출원의 일부 실시예에서, 상기 신경망을 통해 처리될 이미지 블록의 카테고리 정보를 결정하고 목표 영역을 분할할 수 있다. 예를 들어, 처리될 이미지 블록은 폐 3차원 의료 이미지 중 결절이 포함된 잘라낸 이미지 블록이다. 신경망을 통해 처리될 이미지 블록 중 결절의 종류(예를 들어, AAHOPA, AIS, MIA 및 IA)를 결정하고, 결절이 위치한 영역을 분할할 수 있다.In some embodiments of the present application, category information of an image block to be processed may be determined and a target region may be segmented through the neural network. For example, the image block to be processed is a cropped image block including nodules in the lung 3D medical image. The type of nodule (eg, AAHOPA, AIS, MIA, and IA) among the image blocks to be processed may be determined through the neural network, and the region in which the nodule is located may be divided.

본 출원의 일부 실시예에서, 분류 및 분할 처리에 사용하도록, 공유 특징 추출 네트워크를 통해 처리될 이미지 블록의 목표 특징을 추출할 수 있다. 처리될 이미지 블록을 공유 특징 추출 네트워크에 입력하여 처리하여 처리될 이미지 블록의 목표 특징을 획득하는 단계는, 처리될 이미지 블록에 대해 제1 특징 추출 처리를 수행하여, 처리될 이미지 블록의 제1 특징을 획득하는 단계 제1 특징을 첫 번째 공유 특징 추출 블록에 입력하여, 첫 번째 공유 특징 추출 블록의 출력 특징을 획득하고, 첫 번째 공유 특징 추출 블록의 출력 특징을 후속 M-1 개의 공유 특징 추출 블록에 출력하는 단계 처음 j-1 개의 공유 특징 추출 블록의 출력 특징을 j 번째 공유 특징 추출 블록에 입력하여, j 번째 공유 특징 추출 블록의 출력 특징을 획득하는 단계 M 번째 공유 특징 추출 블록의 출력 특징에 대해 제2 특징 추출 처리를 수행하여, 처리될 이미지 블록의 제2 특징을 획득하는 단계 및 제2 특징에 대해 풀링 처리를 수행하여, 상기 목표 특징을 획득하는 단계를 포함할 수 있다.In some embodiments of the present application, target features of an image block to be processed may be extracted through a shared feature extraction network for use in classification and segmentation processing. The step of inputting the image block to be processed into the shared feature extraction network to process it to obtain a target feature of the image block to be processed includes: performing a first feature extraction processing on the image block to be processed, so that the first feature of the image block to be processed Input the first feature into the first shared feature extraction block to obtain the output feature of the first shared feature extraction block, and add the output feature of the first shared feature extraction block to the subsequent M-1 shared feature extraction blocks Step of outputting the output features of the first j-1 shared feature extraction blocks to the j-th shared feature extraction block to obtain the output features of the j-th shared feature extraction block To the output features of the M-th shared feature extraction block performing a second feature extraction process on the image block to obtain a second feature of the image block to be processed; and performing a pooling process on the second feature to obtain the target feature.

본 출원의 일부 실시예에서, 먼저, 제1 특징 추출 처리를 수행하여, 예를 들어, 3차원 컨볼루션 계층(Three Dimensional Convolutional Layer), 배치 정규화 계층(Normalization) 및 활성화 계층(Activiation Layer)을 포함하는 네트워크 모듈을 통해 제1 특징 추출 처리를 수행하여, 제1 특징을 획득할 수 있다. 본 출원의 실시예는 제1 특징 추출 처리의 네트워크 계층에 대해 한정하지 않는다.In some embodiments of the present application, first, a first feature extraction process is performed to include, for example, a three-dimensional convolutional layer, a batch normalization layer, and an activation layer. The first feature may be obtained by performing the first feature extraction process through the network module. The embodiment of the present application does not limit the network layer of the first feature extraction process.

본 출원의 일부 실시예에서, 공유 특징 추출 네트워크는 복수 개의 공유 특징 추출 블록을 포함할 수 있으며, 공유 특징 추출 블록은 복수 개의 네트워크 계층(예를 들어, 컨볼루션 계층, 활성화 계층 등)을 포함할 수 있으며, 본 출원의 실시예는 공유 특징 추출 블록에 포함된 네트워크 계층에 대해 한정하지 않는다. 복수 개의 공유 특징 추출 블록을 통해 제1 특징을 처리할 수 있다. 실예에서, 공유 특징 추출 블록 수는 M 개이고, 제1 특징을 첫 번째 공유 특징 추출 블록에 입력할 수 있다. 즉, 첫 번째 공유 특징 추출 블록은 제1 특징을 입력 특징으로 하고, 입력 특징에 대해 특징 추출 처리를 수행하여 출력 특징을 획득할 수 있다. 첫 번째 공유 특징 추출 블록의 출력 특징은 후속 모든 공유 특징 추출 블록에 의해 공유될 수 있다. 즉, 첫 번째 공유 특징 추출 블록의 출력 특징은 후속 M-1 개의 공유 특징 추출 블록에 출력되어 후속 M-1 개의 공유 특징 추출 블록의 입력 특징으로 될 수 있다. In some embodiments of the present application, the shared feature extraction network may include a plurality of shared feature extraction blocks, and the shared feature extraction block may include a plurality of network layers (eg, convolutional layer, activation layer, etc.). Also, the embodiment of the present application is not limited to the network layer included in the shared feature extraction block. The first feature may be processed through a plurality of shared feature extraction blocks. In an embodiment, the number of shared feature extraction blocks is M, and the first feature may be input into the first shared feature extraction block. That is, the first shared feature extraction block may use the first feature as an input feature, and perform feature extraction processing on the input feature to obtain an output feature. The output features of the first shared feature extraction block can be shared by all subsequent shared feature extraction blocks. That is, the output feature of the first shared feature extraction block may be output to the subsequent M-1 shared feature extraction blocks and become input features of the subsequent M-1 shared feature extraction blocks.

본 출원의 일부 실시예에서, 두 번째 공유 특징 추출 블록의 입력 특징은 바로 첫 번째 공유 특징 추출 블록의 출력 특징이고, 두 번째 공유 특징 추출 블록은 그 입력 특징에 대해 특징 추출 처리를 수행한 후, 그 출력 특징을 후속 세 번째 내지 M 번째의 공유 특징 추출 블록에 출력하여 세 번째 내지 M 번째 공유 특징 추출 블록의 입력 특징으로 할 수 있다.In some embodiments of the present application, the input feature of the second shared feature extraction block is an output feature of the first shared feature extraction block, and the second shared feature extraction block performs feature extraction processing on the input feature, The output feature may be output to subsequent third to M-th shared feature extraction blocks to be input features of the third to M-th shared feature extraction blocks.

본 출원의 일부 실시예에서, 세 번째 공유 특징 추출 블록의 입력 특징은 첫 번째 공유 특징 추출 블록의 출력 특징 및 두 번째 공유 특징 추출 블록의 출력 특징이다. 첫 번째 공유 특징 추출 블록의 출력 특징 및 두 번째 공유 특징 추출 블록의 출력 특징은 특징 통합(예를 들어, 평균치, 최대치 등을 계산하는 방식으로 통합하거나 모든 특징 채널을 보류함) 후 세 번째 공유 특징 추출 블록에 입력하거나(즉, 세 번째 공유 특징 추출 블록의 입력 특징은 첫 번째 공유 특징 추출 블록의 출력 특징 및 두 번째 공유 특징 추출 블록의 출력 특징이 통합된 후의 특징일 수 있음), 세 번째 공유 특징 추출 블록은 첫 번째 공유 특징 추출 블록의 출력 특징 및 두 번째 공유 특징 추출 블록의 출력 특징을 모두 입력 특징으로 하고(예를 들어, 세 번째 공유 특징 추출 블록은 특징 통합 계층을 포함할 수 있으며, 해당 계층에 의해 특징 통합 처리를 수행하거나 모든 특징 채널을 보류할 수 있으며, 모든 특징 채널의 특징에 대해 후속 처리를 직접 수행할 수 있다. 즉, 첫 번째 공유 특징 추출 블록의 출력 특징 및 두 번째 공유 특징 추출 블록의 출력 특징에 대해 후속 처리를 수행함), 입력 특징에 대해 특징 추출 처리를 수행하여(예를 들어, 모든 특징 채널의 특징에 대해 직접 특징 추출 처리를 수행하거나, 통합된 특징에 대해 특징 추출 처리를 수행함), 세 번째 공유 특징 추출 블록의 출력 특징을 획득할 수 있다. 세 번째 공유 특징 추출 블록의 출력 특징은 제4 내지 M 번째 공유 특징 추출 블록에 출력되어, 제4 내지 M 번째 공유 특징 추출 블록의 입력 특징으로 될 수 있다.In some embodiments of the present application, the input features of the third shared feature extraction block are output features of the first shared feature extraction block and output features of the second shared feature extraction block. The output features of the first shared feature extraction block and the output features of the second shared feature extraction block are combined with the third shared feature after feature integration (e.g., integrating by calculating average, maximum, etc. or withholding all feature channels). input into the extraction block (i.e., the input features of the third shared feature extraction block may be the features after the output features of the first shared feature extraction block and the output features of the second shared feature extraction block are integrated), or the third shared feature extraction block The feature extraction block has both the output features of the first shared feature extraction block and the output features of the second shared feature extraction block as input features (for example, the third shared feature extraction block may include a feature integration layer; Feature integration processing can be performed by the corresponding layer or all feature channels can be withheld, and subsequent processing can be directly performed on features of all feature channels, that is, the output feature of the first shared feature extraction block and the second shared feature Subsequent processing is performed on output features of the feature extraction block), and feature extraction processing is performed on input features (e.g., direct feature extraction processing is performed on features of all feature channels, or features on integrated features performing extraction processing), to obtain the output feature of the third shared feature extraction block. The output feature of the third shared feature extraction block may be output to the fourth to M-th shared feature extraction blocks, and may be input features of the fourth to M-th shared feature extraction blocks.

본 출원의 일부 실시예에서, j 번째 (j는 정수이고, 1<j<M임) 공유 특징 추출 블록을 예로 들면, 처음 j-1 개의 공유 특징 추출 블록의 출력 특징은 입력 특징으로서 j 번째 공유 특징 추출 블록에 입력될 수 있다. 처음 j-1 개의 공유 특징 추출 블록의 출력 특징에 대해 특징 통합을 수행한 후, 통합된 특징을 j 번째 공유 특징 추출 블록의 입력 특징으로 하거나, 처음 j-1 개의 공유 특징 추출 블록의 출력 특징을 직접 j 번째 공유 특징 추출 블록의 입력 특징으로 할 수 있다(예를 들어, j 번째 공유 특징 추출 블록 내에서 통합을 수행하거나, 모든 특징 채널의 특징에 대해 직접 후속 처리를 수행한다. 즉, 처음 j-1 개의 공유 특징 추출 블록의 출력 특징에 대해 후속 처리를 수행함). j 번째 공유 특징 추출 블록은 그 입력 특징에 대해 특징 추출 처리를 수행하여, j 번째 공유 특징 추출 블록의 출력 특징을 획득하고, 해당 출력 특징을 j+1 번째 내지 M 번째 공유 특징 추출 블록의 입력 특징으로 할 수 있다.In some embodiments of the present application, taking the j-th (j is an integer, and 1<j<M) shared feature extraction block as an example, the output feature of the first j-1 shared feature extraction blocks is the j-th shared feature as an input feature may be input to the feature extraction block. After feature integration is performed on the output features of the first j-1 shared feature extraction blocks, the integrated features are used as input features of the j-th shared feature extraction block, or output features of the first j-1 shared feature extraction blocks are used. It can be directly as the input feature of the j-th shared feature extraction block (e.g., perform integration within the j-th shared feature extraction block, or perform subsequent processing directly on the features of all feature channels. That is, the first j -1 perform subsequent processing on the output features of the shared feature extraction block). The j-th shared feature extraction block performs feature extraction processing on the input feature, obtains the output feature of the j-th shared feature extraction block, and sets the corresponding output feature as the input feature of the j+1-th to M-th shared feature extraction block can be done with

본 출원의 일부 실시예에서, M 번째 공유 특징 추출 블록은 처음 M-1 개의 공유 특징 추출 블록의 출력 특징에 따라, M 번째 공유 특징 추출 블록의 출력 특징을 획득할 수 있다. 또한, 공유 특징 추출 네트워크의 후속 네트워크 계층을 통해 제2 특징 추출 처리를 수행하여(예를 들어, 3차원 컨볼루션 계층, 배치 정규화 계층 및 활성화 계층을 포함하는 네트워크 모듈을 통해 N 번째 공유 특징 추출 블록의 출력 특징에 대해 제2 특징 추출 처리를 수행함), 제2 특징을 획득할 수 있다. 본 출원의 실시예는 제2 특징 추출 처리의 네트워크 계층에 대해 한정하지 않는다. In some embodiments of the present application, the M-th shared feature extraction block may acquire output features of the M-th shared feature extraction block according to output features of the first M-1 shared feature extraction blocks. In addition, by performing the second feature extraction processing through a subsequent network layer of the shared feature extraction network (eg, the Nth shared feature extraction block through a network module including a three-dimensional convolution layer, a batch normalization layer, and an activation layer) performing a second feature extraction process on the output features of ), and a second feature may be obtained. The embodiment of the present application does not limit the network layer of the second feature extraction process.

본 출원의 일부 실시예에서, 제2 특징에 대해 풀링 처리를 수행할 수 있다. 예를 들어, 평균치 풀링 계층을 통해 제2 특징에 대해 풀링 처리를 수행하여 목표 특징을 획득할 수 있다. 본 출원의 실시예는 풀링 처리의 유형에 대해 한정하지 않는다.In some embodiments of the present application, a pooling process may be performed on the second feature. For example, the target feature may be obtained by performing a pooling process on the second feature through the average pooling layer. The embodiments of the present application do not limit the types of pooling processing.

본 출원의 일부 실시예에서, 상술한 처리는 여러번 수행될 수 있다. 예를 들어, 복수 개의 공유 특징 추출 네트워크를 포함할 수 있다. 첫 번째 공유 특징 추출 네트워크는 제1 특징을 입력 특징으로 하고, 공유 특징 추출 블록의 특징 추출 처리, 제2 특징 추출 처리 및 풀링 처리를 거친 후, 첫 번째 공유 특징 추출 네트워크의 출력 특징을 획득할 수 있으며, 두 번째 공유 특징 추출 네트워크는 첫 번째 공유 특징 추출 네트워크의 출력 특징을 입력 특징으로 하고, 공유 특징 추출 블록의 특징 추출 처리, 제2 특징 추출 처리 및 풀링 처리를 거친 후, 두 번째 공유 특징 추출 네트워크의 출력 특징을 획득할 수 있으며, ..., 복수 개의 공유 특징 추출 네트워크를 통해 처리하며, 마지막(예를 들어, 네 번째) 공유 특징 추출 네트워크의 출력 특징을 목표 특징으로 할 수 있다. 본 출원의 실시예는 공유 특징 추출 네트워크 수에 대해 한정하지 않는다.In some embodiments of the present application, the above-described processing may be performed multiple times. For example, it may include a plurality of shared feature extraction networks. The first shared feature extraction network has a first feature as an input feature, and after performing feature extraction processing, second feature extraction processing, and pooling processing of the shared feature extraction block, the output feature of the first shared feature extraction network can be obtained In the second shared feature extraction network, the output features of the first shared feature extraction network are input features, and after the feature extraction processing of the shared feature extraction block, the second feature extraction processing, and the pooling processing are performed, the second shared feature extraction The output feature of the network may be acquired, ..., processed through a plurality of shared feature extraction networks, and the output feature of the last (eg, fourth) shared feature extraction network may be set as the target feature. Embodiments of the present application do not limit the number of shared feature extraction networks.

이러한 방식을 통해, 공유 특징 추출 네트워크를 통해 목표 특징을 획득할 수 있고, 공유 특징 추출 네트워크의 공유 특징 추출 블록은 그 전의 모든 공유 특징 추출 블록의 출력 특징을 획득하고, 자신의 출력 특징을 후속 모든 공유 특징 추출 블록에 입력할 수 있다. 네트워크 내 기울기 흐름을 강화하여 기울기 소멸 현상을 완화하고, 동시에 특징 추출 및 학습 능력을 향상시킬 수 있으며, 입력된 처리될 이미지 블록을 보다 세밀하게 분류하고 분할 처리하는데 유리하다.In this way, the target feature can be obtained through the shared feature extraction network, and the shared feature extraction block of the shared feature extraction network acquires the output features of all the shared feature extraction blocks before it, and adds its output features to all subsequent It can be entered into the shared feature extraction block. By reinforcing the gradient flow in the network, it is possible to alleviate the gradient annihilation phenomenon and at the same time improve the feature extraction and learning ability, and it is advantageous for more precisely classifying and segmenting the input image block to be processed.

본 출원의 일부 실시예에서, 목표 특징에 따라 처리될 이미지 블록의 카테고리 정보를 결정할 수 있고(예를 들어, 처리될 이미지 블록은 폐 3차원 의료 이미지 중 결절 등 병변이 포함된 이미지 블록일 수 있음), 목표 특징에 따라 결절의 카테고리를 결정할 수 있다. 실예에서, 결절의 카테고리를 비정형선종증식결절, 제자리 선암 결절, 최소 침습 선암 결절 또는 침윤성 선암 결절로 결정할 수 있다. In some embodiments of the present application, category information of an image block to be processed may be determined according to a target feature (eg, an image block to be processed may be an image block including a lesion such as a nodule among lung 3D medical images) ), it is possible to determine the category of the nodule according to the target characteristics. In an embodiment, the category of a nodule may be determined as an atypical adenomatous proliferative nodule, an in situ adenocarcinoma nodule, a minimally invasive adenocarcinoma nodule, or an invasive adenocarcinoma nodule.

본 출원의 일부 실시예에서, 분류 네트워크를 통해 목표 특징에 대해 분류 처리를 수행하여, 처리될 이미지 블록의 카테고리 정보를 획득할 수 있다. 실예에서, 분류 네트워크는 복수 개의 네트워크 계층(예를 들어, 컨볼루션 계층, 글로벌 평균 풀링 계층(Global Average Pooling) 및 완전 연결 계층(Fully Connected Layer) 등)을 포함할 수 있고, 상술한 네트워크 계층은 목표 특징에 대해 분류 처리를 수행할 수 있고 카테고리 정보를 출력할 수 있다. 상기 카테고리 정보는 벡터 등의 형태로 표시된 카테고리 정보 일 수 있다. 확률 사전 등을 통해 상기 벡터로 표시된 처리될 이미지 블록이 각 카테고리에 속하는 확률 분포를 결정하고, 나아가 처리될 이미지 블록의 카테고리 정보를 결정할 수 있다. 또는, 카테고리 정보의 벡터는 처리될 이미지 블록의 확률을 직접 나타낼 수 있다. 실예에서, 상기 벡터의 각 요소는 각각 처리될 이미지 블록이 속한 카테고리의 확률을 나타낼 수 있다. 예를 들어, (0.8, 0.8, 0.1)는 처리될 이미지 블록이 첫 번째 카테고리에 속하는 확률이 0.8이고, 두 번째 카테고리에 속하는 확률이 0.1이고, 세 번째 카테고리에 속하는 확률이 0.1임을 나타내고, 확률이 제일 큰 카테고리를 처리될 이미지 블록의 카테고리로 결정할 수 있다. 즉, 처리될 이미지 블록의 카테고리 정보를 첫 번째 카테고리로 결정할 수 있다. 본 출원의 실시예는 카테고리 정보의 표시 방법에 대해 한정하지 않는다.In some embodiments of the present application, classification processing may be performed on a target feature through a classification network to obtain category information of an image block to be processed. In an embodiment, the classification network may include a plurality of network layers (eg, a convolutional layer, a global average pooling layer, a fully connected layer, etc.), and the above-described network layer is Classification processing can be performed on the target feature, and category information can be output. The category information may be category information displayed in the form of a vector or the like. It is possible to determine a probability distribution that the image block to be processed, which is represented by the vector, belongs to each category through a probability dictionary or the like, and further determines category information of the image block to be processed. Alternatively, the vector of category information may directly indicate the probability of the image block to be processed. In an embodiment, each element of the vector may represent a probability of a category to which an image block to be processed each belongs. For example, (0.8, 0.8, 0.1) indicates that the probability that the image block to be processed belongs to the first category is 0.8, the probability that it belongs to the second category is 0.1, and the probability that the image block to be processed belongs to the third category is 0.1, and the probability is The largest category may be determined as the category of the image block to be processed. That is, category information of the image block to be processed may be determined as the first category. The embodiment of the present application does not limit the method of displaying category information.

본 출원의 일부 실시예에서, 목표 특징에 따라 처리될 이미지 블록의 카테고리 정보를 결정할 수 있으며(예를 들어, 처리될 이미지 블록은 폐 3차원 의료 이미지 중 결절 등 병변이 포함된 이미지 블록일 수 있음), 목표 특징에 따라 결절의 위치를 결정하고 이가 위치한 영역을 분할할 수 있다. In some embodiments of the present application, category information of an image block to be processed may be determined according to a target feature (for example, an image block to be processed may be an image block including a lesion such as a nodule among lung 3D medical images) ), the location of the nodule can be determined according to the target characteristics and the region where the tooth is located can be divided.

본 출원의 일부 실시예에서, 분할 네트워크를 통해 분할 처리를 수행하여 처리될 이미지 블록 중 목표 영역을 획득할 수 있다. 예를 들어, 목표 영역을 분할할 수 있다. 실예에서, 분할 네트워크는 업샘플(Upsample) 계층, 완전 연결 계층과 같은 복수 개의 네트워크 계층을 포함할 수 있다. 실예에서, 목표 특징은 공유 특징 추출 네트워크에서 처리될 이미지 블록에 대한 특징 추출, 풀링 등 처리를 거쳐 획득된 특징맵이고, 목표 특징의 해상도는 처리될 이미지 블록보다 낮을 수 있다. 업샘플 계층을 통해 업샘플링 처리를 수행하여, 목표 특징의 특징 채널 수를 감소하고 해상도를 향상시켜, 분할 네트워크에 의해 출력된 특징맵과 처리될 이미지 블록의 해상도가 일치하도록 한다. 예를 들어, 공유 특징 추출 네트워크가 풀링 처리를 4 회 수행하면, 업샘플 계층을 통해 업샘플링 처리를 4 회 수행하여, 분할 네트워크에 의해 출력된 특징맵과 처리될 이미지 블록의 해상도가 일치하도록 할 수 있다. 또한, 분할 네트워크의 출력된 특징맵에서 목표 영역을 분할할 수 있다. 예를 들어, 윤곽선 또는 윤곽면을 통해 결절이 위치한 목표 영역을 결정할 수 있다. 본 출원의 실시예는 분할 네트워크의 네트워크 계층에 대해 한정하지 않는다.In some embodiments of the present application, segmentation processing may be performed through a segmentation network to obtain a target area among image blocks to be processed. For example, the target area may be divided. In an embodiment, the split network may include a plurality of network layers, such as an upsample layer and a fully connected layer. In an embodiment, the target feature is a feature map obtained through processing such as feature extraction and pooling for an image block to be processed in the shared feature extraction network, and the resolution of the target feature may be lower than that of the image block to be processed. The upsampling process is performed through the upsampling layer to reduce the number of feature channels of the target feature and improve the resolution, so that the feature map output by the segmentation network and the resolution of the image block to be processed match. For example, if the shared feature extraction network performs the pooling process 4 times, the upsampling process is performed 4 times through the upsampling layer so that the feature map output by the segmentation network and the resolution of the image block to be processed match can In addition, the target region may be segmented from the output feature map of the segmentation network. For example, the target area in which the nodule is located may be determined through the contour line or the contour surface. Embodiments of the present application do not limit the network layer of the divided network.

본 출원의 일부 실시예에서, 처리될 이미지 블록에서 목표 영역을 분할한 후, 처리될 이미지에서 목표 영역의 위치를 결정할 수도 있다. 예를 들어, 처리될 이미지에서 처리될 이미지 블록의 위치 및 처리될 이미지 블록 중 목표 영역의 위치에 따라, 처리될 이미지에서 목표 영역의 위치를 복원할 수 있다. 실예에서, 폐 의료 이미지에서, 처리될 이미지 블록 중 결절이 위치한 위치를 분할하고, 폐 의료 이미지에서 상기 결절의 위치를 복원할 수 있다. In some embodiments of the present application, after segmenting the target region in the image block to be processed, the position of the target region in the image to be processed may be determined. For example, according to the position of the image block to be processed in the image to be processed and the position of the target region among the image blocks to be processed, the position of the target region in the image to be processed may be restored. In an embodiment, in the lung medical image, the position of the nodule among the image blocks to be processed may be divided, and the position of the nodule may be restored in the pulmonary medical image.

본 출원의 실시예에 의해 제공된 신경망 훈련 방법에 따르면, 샘플 이미지 블록의 세밀한 분류를 획득할 수 있고, 신경망이 이미지를 미세분류할 수 있도록 신경망을 훈련하여, 분류 효율 및 정확도를 향상시킬 수 있다. 또한, 공유 특징 추출 네트워크를 통해 목표 특징을 획득할 수 있고, 공유 특징 추출 네트워크의 공유 특징 추출 블록은 그 전의 모든 공유 특징 추출 블록의 출력 특징을 획득하고, 자신의 출력 특징을 후속 모든 공유 특징 추출 블록에 입력하여, 네트워크 내 기울기 흐름을 강화하여 기울기 소멸 현상을 완화할 수 있으며, 동시에 특징 추출 및 학습 능력을 향상시킬 수 있으며, 입력된 처리될 이미지 블록을 보다 세밀하게 분류하고 분할 처리하는데 도움이 된다. 또한, 처리될 이미지 블록의 보다 세밀한 카테고리 정보 및 목표 영역을 획득하고, 이미지 처리 효율을 향상시킬 수 있다. 또한, 훈련 과정에 동일한 카테고리의 샘플 이미지 블록의 카테고리 정보가 더 집중되어, 서로 다른 카테고리의 샘플 이미지 블록의 카테고리 정보 간의 특징 거리가 더 커질 수 있으며, 목표 영역의 오차와 비 목표 영역의 오차를 균형시켜, 분류 성능을 향상시키는데 도움이 되고, 분류 정확도를 향상시킬 수 있다.According to the neural network training method provided by the embodiment of the present application, it is possible to obtain a fine classification of a sample image block, and train the neural network so that the neural network can fine-classify the image, thereby improving classification efficiency and accuracy. In addition, the target feature can be obtained through the shared feature extraction network, and the shared feature extraction block of the shared feature extraction network acquires the output features of all previous shared feature extraction blocks, and extracts its output features from all subsequent shared features By entering a block, it is possible to alleviate the gradient disappearance phenomenon by strengthening the gradient flow in the network, and at the same time, it can improve the feature extraction and learning ability, and it helps to more precisely classify and segment the input image block to be processed. do. In addition, it is possible to obtain more detailed category information and target area of an image block to be processed, and improve image processing efficiency. In addition, as the category information of the sample image blocks of the same category is more concentrated in the training process, the feature distance between the category information of the sample image blocks of different categories can be increased, and the error of the target area and the error of the non-target area are balanced This can help to improve classification performance and improve classification accuracy.

도 3은 본 출원의 실시예에 의해 제공된 신경망 훈련 방법의 응용 개략도이다. 도 3에 도시된 바와 같이, 샘플 이미지(31)는 의료 영상 사진이고, 샘플 이미지 블록(32)은 의료 영상 사진에서 잘라낸 병변(예를 들어, 결절)이 포함된 이미지 블록이다. 또한, 샘플 이미지 블록은 카테고리 주석을 포함할 수 있다. 예를 들어, 샘플 이미지 블록은 AAHOPA, AIS, MIA 및 IA의 4 개의 카테고리를 포함할 수 있다. 3 is an application schematic diagram of a neural network training method provided by an embodiment of the present application. As shown in FIG. 3 , the sample image 31 is a medical image, and the sample image block 32 is an image block including a lesion (eg, nodule) cut out from the medical image. In addition, the sample image block may include category annotations. For example, the sample image block may include four categories: AAHOPA, AIS, MIA, and IA.

본 출원의 일부 실시예에서, 샘플 이미지 블록(32)을 신경망(33)에 입력하고, 신경망(33)에 포함된 공유 특징 추출 네트워크(331)이 각 배치의 샘플 이미지 블록에 대해 특징 추출을 수행하여, 샘플 이미지 블록의 샘플 목표 특징을 획득하고, 신경망(33)에 포함된 분류 네트워크(332)를 통해 샘플 이미지 블록의 카테고리 예측 정보를 획득할 수 있으며, 공식 (1) 및 공식 (2)를 통해, 신경망의 분류 손실을 결정할 수 있다. 본 출원의 일부 실시예에서, 신경망(33)에 포함된 분할 네트워크(333)는 샘플 이미지 블록(32) 중 예측 목표 영역을 획득할 수 있으며, 공식 (3)에 따라 신경망의 분할 손실을 결정할 수 있다. 분할 손실 및 분류 손실에 대해 가중 합산을 수행하여 신경망의 통합 네트워크 손실을 획득하고 통합 네트워크 손실을 통해 신경망을 훈련할 수 있다. 훈련된 신경망은 의료 영상의 이미지 블록 중 병변 영역 및 병변 카테고리의 결정에 사용될 수 있다.In some embodiments of the present application, a sample image block 32 is input to the neural network 33 , and a shared feature extraction network 331 included in the neural network 33 performs feature extraction on each batch of sample image blocks. Thus, the sample target feature of the sample image block can be obtained, and the category prediction information of the sample image block can be obtained through the classification network 332 included in the neural network 33, and formulas (1) and (2) are Through this, it is possible to determine the classification loss of the neural network. In some embodiments of the present application, the segmentation network 333 included in the neural network 33 may obtain a prediction target region among the sample image blocks 32, and may determine the segmentation loss of the neural network according to formula (3). have. We can perform weighted summation on the division loss and classification loss to obtain the integrative network loss of the neural network, and train the neural network with the integrative network loss. The trained neural network may be used to determine a lesion region and a lesion category among image blocks of a medical image.

본 출원의 일부 실시예에서, 처리될 이미지는 3차원 폐 의료 이미지(예를 들어, 폐 CT 이미지)일 수 있고, 처리될 이미지 블록은 처리될 이미지에서 잘라낸 병변 영역(예를 들어, 결절이 포함된 영역)의 3차원 이미지 블록일 수 있다.In some embodiments of the present application, the image to be processed may be a three-dimensional lung medical image (eg, lung CT image), and the image block to be processed is a lesion region (eg, including a nodule) cut out from the image to be processed. area) may be a 3D image block.

본 출원의 일부 실시예에서, 3차원 의료 이미지에 대해 리샘플링 처리를 수행하여 1×1×1 해상도의 3차원 이미지를 획득하고, 폐가 위치한 영역을 잘라낼 수 있으며, 나아가 폐가 위치한 영역에 대해 정규화를 수행할 수 있다. 본 출원의 일부 실시예에서, 폐가 위치한 영역 중 결절이 위치한 영역을 검출하고 64×64×64의 사이즈로 결절이 위치한 영역을 포함하는 복수 개의 처리될 이미지 블록을 잘라낼 수 있다. In some embodiments of the present application, a resampling process is performed on a 3D medical image to obtain a 3D image of 1×1×1 resolution, a region in which the lung is located may be cut out, and further normalization is performed on the region in which the lung is located can do. In some embodiments of the present application, a region in which the nodule is located among the regions in which the lung is located may be detected and a plurality of image blocks to be processed including the region in which the nodule is located may be cut out to a size of 64×64×64.

본 출원의 일부 실시예에서, 복수 개의 처리될 이미지 블록을 나누어 특징 추출 처리를 수행하여 처리될 이미지 블록의 목표 특징을 획득할 수 있다. 예를 들어, 먼저, 제1 특징 추출 처리를 수행하여(예를 들어, 3차원 컨볼루션 계층, 배치 정규화 계층 및 활성화 계층을 포함하는 네트워크 모듈을 통해 제1 특징 추출 처리를 수행함), 제1 특징을 획득할 수 있다. In some embodiments of the present application, a target feature of the image block to be processed may be obtained by performing feature extraction processing by dividing a plurality of image blocks to be processed. For example, first, a first feature extraction process is performed (eg, a first feature extraction process is performed through a network module including a three-dimensional convolutional layer, a batch normalization layer, and an activation layer), and the first feature can be obtained.

본 출원의 일부 실시예에서, 제1 특징을 공유 특징 추출 네트워크에 입력할 수 있다. 공유 특징 추출 네트워크는 복수 개의 공유 특징 추출 블록을 포함할 수 있다. 실예에서, 공유 특징 추출 블록 수는 M 개이고, 제1 특징을 첫 번째 공유 특징 추출 블록에 입력하여 처리할 수 있으며, 첫 번째 공유 특징 추출 블록의 출력 특징은 후속 M-1 개의 공유 특징 추출 블록에 입력될 수 있다. 두 번째 공유 특징 추출 블록의 입력 특징은 바로 첫 번째 공유 특징 추출 블록의 출력 특징이고, 두 번째 공유 특징 추출 블록은 그 출력 특징을 후속 세 번째 내지 M 번째의 공유 특징 추출 블록에 출력할 수 있다. 세 번째 공유 특징 추출 블록의 입력 특징은 첫 번째 공유 특징 추출 블록의 출력 특징 및 두 번째 공유 특징 추출 블록의 출력 특징이고, 세 번째 공유 특징 추출 블록의 출력 특징은 제4 내지 M 번째 공유 특징 추출 블록에 출력될 수 있다. 유사하게, 처음 j-1 개의 공유 특징 추출 블록의 출력 특징은 j 번째 공유 특징 추출 블록에 입력될 수 있고, j 번째 공유 특징 추출 블록의 출력 특징은 j+1 번째 내지 M 번째 공유 특징 추출 블록에 출력될 수 있다. M 번째 공유 특징 추출 블록은 처음 M-1 개의 공유 특징 추출 블록의 출력 특징에 따라, M 번째 공유 특징 추출 블록의 출력 특징을 획득하고, 제2 특징 추출 처리를 수행할 수 있다. 예를 들어, 3차원 컨볼루션 계층, 배치 정규화 계층 및 활성화 계층을 포함하는 네트워크 모듈을 통해 N 번째 공유 특징 추출 블록의 출력 특징에 대해 제2 특징 추출 처리를 수행하여, 제2 특징을 획득할 수 있다. 본 출원의 일부 실시예에서, 제2 특징에 대해 풀링(예를 들어, 평균치 풀링(Average Pooling)) 처리를 수행하여 목표 특징을 획득할 수 있다.In some embodiments of the present application, the first feature may be input to the shared feature extraction network. The shared feature extraction network may include a plurality of shared feature extraction blocks. In an embodiment, the number of shared feature extraction blocks is M, and the first feature can be input into the first shared feature extraction block and processed, and the output features of the first shared feature extraction block are added to the subsequent M-1 shared feature extraction blocks. can be entered. The input feature of the second shared feature extraction block is the output feature of the first shared feature extraction block, and the second shared feature extraction block may output the output feature to subsequent third to M-th shared feature extraction blocks. The input features of the third shared feature extraction block are the output features of the first shared feature extraction block and the output features of the second shared feature extraction block, and the output features of the third shared feature extraction block are the fourth to Mth shared feature extraction blocks can be output to Similarly, the output features of the first j-1 shared feature extraction blocks may be input to the j-th shared feature extraction block, and the output features of the j-th shared feature extraction block may be input to the j+1-th to M-th shared feature extraction blocks. can be output. The M-th shared feature extraction block may acquire output features of the M-th shared feature extraction block according to the output features of the first M-1 shared feature extraction blocks, and perform a second feature extraction process. For example, the second feature may be obtained by performing second feature extraction processing on the output feature of the N-th shared feature extraction block through a network module including a three-dimensional convolutional layer, a batch normalization layer, and an activation layer. have. In some embodiments of the present application, a pooling (eg, average pooling) process may be performed on the second feature to obtain a target feature.

본 출원의 일부 실시예에서, 상술한 처리는 복수 차(예를 들어, 4 회) 수행될 수 있다. 예를 들어, 복수 개의 공유 특징 추출 네트워크를 포함할 수 있다. 복수 개의 캐스케이딩된 공유 특징 추출 네트워크의 처리를 거쳐, 목표 특징을 획득할 수 있다. In some embodiments of the present application, the above-described processing may be performed multiple times (eg, 4 times). For example, it may include a plurality of shared feature extraction networks. A target feature may be obtained through processing of a plurality of cascaded shared feature extraction networks.

본 출원의 일부 실시예에서, 분류 네트워크는 목표 특징에 대해 분류 처리를 수행하여, 처리될 이미지 블록의 카테고리 정보를 획득할 있다. 예를 들어, 분류 네트워크는 컨볼루션 계층, 글로벌 평균 풀링 계층 및 완전 연결 계층 등을 통해, 처리될 이미지 블록의 카테고리 정보를 획득할 수 있다. In some embodiments of the present application, the classification network may perform classification processing on the target feature to obtain category information of the image block to be processed. For example, the classification network may obtain category information of an image block to be processed through a convolutional layer, a global average pooling layer, and a fully connected layer.

본 출원의 일부 실시예에서, 분할 네트워크는 목표 특징에 대해 분할 처리를 수행하여, 목표 영역(즉, 결절이 위치한 영역)을 획득할 수 있다. 실예에서, 분할 네트워크에 의해 출력된 특징맵과 처리될 이미지 블록의 해상도가 일치하도록, 분할 네트워크는 업샘플 계층을 통해 업샘플링 처리를 4 회 수행하며, 분할 네트워크의 출력된 특징맵에서 목표 영역을 분할할 수 있다. In some embodiments of the present application, the segmentation network may perform segmentation processing on the target feature to obtain a target area (ie, a region in which a nodule is located). In an embodiment, the segmentation network performs the upsampling process 4 times through the upsampling layer so as to match the resolution of the image block to be processed with the feature map output by the segmentation network, and selects the target region from the output feature map of the segmentation network. can be divided

본 출원의 일부 실시예에서, 상술한 신경망은 처리될 이미지 블록 중 목표 영역과 카테고리를 모두 모르는 경우, 처리될 이미지 블록의 카테고리 및 목표 영역을 획득할 수 있으며(예를 들어, 결절이 위치한 영역을 분할하고 결절의 카테고리를 획득할 수 있음), 처리될 이미지 블록의 카테고리를 알고 있는 경우, 처리될 이미지 블록 중 목표 영역만 획득할 수도 있으며(예를 들어, 결절이 위치한 영역을 분할함), 또는 처리될 이미지 블록 중 목표 영역을 알고 있는 경우, 처리될 이미지 블록의 카테고리(예를 들어, 결절의 카테고리를 결정함)를 획득할 수도 있다. In some embodiments of the present application, when the above-described neural network does not know both the target region and the category of the image block to be processed, it may acquire the category and the target region of the image block to be processed (eg, the region in which the nodule is located) segment and obtain the category of the nodule), if the category of the image block to be processed is known, only the target region of the image block to be processed may be acquired (for example, by dividing the region where the nodule is located), or When the target area among the image blocks to be processed is known, the category of the image block to be processed (eg, the category of the nodule is determined) may be acquired.

본 출원의 일부 실시예에서, 상기 이미지 처리 방법은 폐 CT 이미지 등 의료 이미지 중 병변 영역에 대한 분할 및 분류에 사용될 수 있으며, 임상 작업 효율을 향상시키고 진단 누락 및 오진을 감소할 수 있다. 또한, 다른 이미지에 대한 분류 및 목표 영역의 분할에 사용될 수도 있으며, 본 출원의 실시예는 상기 이미지 처리 방법의 응용 분야에 대해 한정하지 않는다. In some embodiments of the present application, the image processing method may be used for segmentation and classification of a lesion region in a medical image, such as a lung CT image, and may improve clinical work efficiency and reduce diagnosis omissions and misdiagnosis. Also, it may be used for classification of other images and segmentation of a target region, and the embodiments of the present application are not limited to the field of application of the image processing method.

이해할 것은, 본 출원에 언급된 상술한 각 방법 실시예는 원리 논리를 위반하지 않으면서 서로 결합되어 결합된 실시예를 형성할 수 있다. 또한, 본 출원의 실시예는 장치, 전자 기기, 컴퓨터 판독가능 저장 매체, 프로그램을 더 제공하며, 상술한 것은 모두 본 출원의 실시예에 의해 제공된 어느 한 방법을 구현할 수 있으며, 상응한 기술적 방안 및 설명은 방법 부분의 상응한 기재를 참조하면 된다. 통상의 기술자는 상술한 방법 실시예에서 각 단계의 기재 순서가 엄격한 수행 순서를 의미하지 않고, 실시 과정에 대해 어떠한 한정을 구성하는 것이 아니며, 각 단계의 수행 순서가 그 기능 및 가능한 내재적 논리로 결정되어야 함을 이해할 수 있다. It should be understood that each of the above-described method embodiments mentioned in the present application may be combined with each other to form a combined embodiment without violating the principle logic. In addition, the embodiments of the present application further provide devices, electronic devices, computer-readable storage media, and programs, and all of the above may implement any one method provided by the embodiments of the present application, and corresponding technical solutions and For the description, reference is made to the corresponding description in the Methods section. A person skilled in the art will know that the description order of each step in the above-described method embodiment does not mean a strict execution order, does not constitute any limitation on the implementation process, and the execution order of each step is determined by its function and possible inherent logic understand that it should be

도 4는 본 출원의 실시예에 의해 제공된 신경망 훈련 장치의 개략도이다. 도 4에 도시된 바와 같이, 상기 신경망 훈련 장치는, 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하도록 구성된 획득 모듈(11); 상기 샘플 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분할하여 획득하도록 구성된 제1 분할 모듈(12); 상기 카테고리 정보에 따라, 상기 적어도 하나의 샘플 이미지 블록을 분류하여, N 개의 카테고리의 샘플 이미지 블록을 획득하도록 구성된 분류 모듈(13) - N은 정수이고, N≥1임 - ; 및 상기 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하도록 구성된 훈련 모듈(14)을 포함한다.4 is a schematic diagram of a neural network training apparatus provided by an embodiment of the present application. As shown in FIG. 4 , the neural network training apparatus includes: an acquisition module 11 configured to acquire location information and category information of a target region in a sample image; a first dividing module 12, configured to divide and obtain at least one sample image block according to the location information of the target region among the sample images; a classification module 13, configured to classify the at least one sample image block according to the category information to obtain sample image blocks of N categories, where N is an integer, and N≥1; and a training module 14, configured to train by inputting the N categories of sample image blocks into a neural network.

본 출원의 일부 실시예에서, 상기 샘플 이미지는 의료 영상 사진이다.In some embodiments of the present application, the sample image is a medical imaging photograph.

본 출원의 일부 실시예에서, 상기 획득 모듈(11)은 또한, 의료 영상 사진의 목표 영역에 대해 위치 추적을 수행하여, 상기 목표 영역의 위치 정보를 획득하고 상기 의료 영상 사진과 관련된 병리학적 사진을 획득하며 - 상기 병리학적 사진은 진단을 거친 병리학적 정보가 포함된 사진임 - ; 상기 병리학적 사진의 각 목표 영역의 병리학적 정보에 따라, 상기 의료 영상 사진의 목표 영역의 카테고리 정보를 결정하도록 구성된다.In some embodiments of the present application, the acquisition module 11 also performs location tracking on a target area of the medical image to obtain location information of the target area and obtains a pathological photograph related to the medical image. to acquire - the pathological photograph is a photograph containing the diagnosed pathological information; and determine category information of the target region of the medical image according to the pathological information of each target region of the pathological picture.

본 출원의 일부 실시예에서, 상기 훈련 모듈(14)은 또한, 어느 한 샘플 이미지 블록을 상기 신경망에 입력하여 처리하여, 샘플 이미지 블록의 카테고리 예측 정보 및 예측 목표 영역을 획득하고 적어도 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 분류 손실을 결정하며 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 분할 손실을 결정하고 상기 분류 손실 및 상기 분할 손실에 따라, 상기 신경망을 훈련하도록 구성된다.In some embodiments of the present application, the training module 14 also inputs any one sample image block to the neural network and processes it to obtain category prediction information and prediction target region of the sample image block, and at least the category prediction information and a classification loss is determined according to the category information to which the sample image block belongs, a division loss is determined according to the prediction target region and location information of the sample image block, and the neural network is constructed according to the classification loss and the division loss. designed to train

본 출원의 일부 실시예에서, 상기 훈련 모듈(14)은 또한, 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 제1 분류 손실을 결정하고 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리의 범주 센터의 카테고리 정보에 따라, 제2 분류 손실을 결정하며 상기 제1 분류 손실 및 상기 제2 분류 손실에 대해 가중 합산 처리를 수행하여 상기 분류 손실을 획득하도록 구성된다. In some embodiments of the present application, the training module 14 is further configured to determine a first classification loss according to the category prediction information and the category information to which the sample image block belongs, and determine whether the category prediction information and the sample image block are determine a second classification loss according to the category information of the category center of the category to which it belongs, and perform weighted summing processing on the first classification loss and the second classification loss to obtain the classification loss.

본 출원의 일부 실시예에서, 상기 훈련 모듈(14)은 또한, 상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 예측 목표 영역의 제1 가중치 및 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정하고 상기 제1 가중치, 제2 가중치, 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 상기 분할 손실을 결정하도록 구성된다. In some embodiments of the present application, the training module 14 is further configured to: according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block, in the first weight of the prediction target area and the sample image block and determine a second weight of the sample background region, and determine the division loss according to the first weight, the second weight, the prediction target region, and the position information of the sample image block.

본 출원의 일부 실시예에서, 상기 훈련 모듈(14)은 또한, 상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 비율을 결정하고 상기 제2 비율을 상기 제1 가중치로 결정하고, 상기 제1 비율을 제2 가중치로 결정하도록 구성된다. In some embodiments of the present application, the training module 14 is further configured to determine, according to a first ratio in which the number of pixels of the prediction target region occupies in the sample image block, a second ratio of a sample background area in the sample image block. and determine the second ratio as the first weight, and determine the first ratio as the second weight.

본 출원의 일부 실시예에서, 상기 카테고리 정보는 침윤 전립선암 비정형선종증식결절, 제자리 선암 결절, 최소 침습 선암 결절 및 침윤성 선암 결절을 포함한다.In some embodiments of the present application, the category information includes invasive prostate cancer atypical adenomatous proliferative nodule, adenocarcinoma in situ, minimally invasive adenocarcinoma nodule, and invasive adenocarcinoma nodule.

본 출원의 일부 실시예에서, 상기 신경망은 공유 특징 추출 네트워크, 분류 네트워크 및 분할 네트워크를 포함하고, 상기 신경망 훈련 장치는, 처리될 이미지 블록을 상기 공유 특징 추출 네트워크에 입력하여 처리하여, 처리될 이미지 블록의 목표 특징을 획득하도록 구성된 획득 모듈 - 상기 공유 특징 추출 네트워크는 M 개의 공유 특징 추출 블록을 포함하고, i 번째 공유 특징 추출 블록의 입력 특징은 처음 i-1 개의 공유 특징 추출 블록의 출력 특징을 포함하고, i 및 M은 정수이고, 1<i≤M임 - ; 상기 목표 특징을 상기 분류 네트워크에 입력하여 분류 처리하여, 상기 처리될 이미지 블록의 카테고리 정보를 획득하도록 구성된 분류 모듈 상기 목표 특징을 상기 분할 네트워크에 입력하여 분할 처리하여, 상기 처리될 이미지 블록 중 목표 영역을 획득하도록 구성된 분할 모듈을 더 포함한다.In some embodiments of the present application, the neural network includes a shared feature extraction network, a classification network, and a segmentation network, and the neural network training apparatus inputs and processes an image block to be processed into the shared feature extraction network to process an image to be processed an acquiring module, configured to acquire a target feature of a block, wherein the shared feature extraction network includes M shared feature extraction blocks, and an input feature of an i-th shared feature extraction block obtains an output feature of the first i-1 shared feature extraction blocks wherein i and M are integers, and 1<i≤M; a classification module, configured to input the target feature into the classification network and perform classification processing to obtain category information of the image block to be processed and a partitioning module configured to obtain

본 출원의 일부 실시예에서, 상기 획득 모듈은 또한, 상기 처리될 이미지 블록에 대해 제1 특징 추출 처리를 수행하여, 상기 처리될 이미지 블록의 제1 특징을 획득하고 상기 제1 특징을 첫 번째 공유 특징 추출 블록에 입력하여, 상기 첫 번째 공유 특징 추출 블록의 출력 특징을 획득하고, 상기 첫 번째 공유 특징 추출 블록의 출력 특징을 후속 M-1 개의 공유 특징 추출 블록에 출력하며 처음 j-1 개의 공유 특징 추출 블록의 출력 특징을 j 번째 공유 특징 추출 블록에 입력하여, 상기 j 번째 공유 특징 추출 블록의 출력 특징을 획득하고 - j는 정수이고, 1<j<M임 - ; M 번째 공유 특징 추출 블록의 출력 특징에 대해 제2 특징 추출 처리를 수행하여, 상기 처리될 이미지 블록의 제2 특징을 획득하며 상기 제2 특징에 대해 풀링 처리를 수행하여, 상기 목표 특징을 획득하도록 구성된다. In some embodiments of the present application, the acquiring module is further configured to perform a first feature extraction process on the to-be-processed image block to acquire a first feature of the to-be-processed image block and to share the first feature with the first input to the feature extraction block to obtain the output features of the first shared feature extraction block, output the output features of the first shared feature extraction block to subsequent M-1 shared feature extraction blocks, and output the first j-1 shared features input the output feature of the feature extraction block to the j-th shared feature extraction block to obtain the output feature of the j-th shared feature extraction block, where j is an integer, and 1<j<M; perform a second feature extraction process on the output feature of the M-th shared feature extraction block to obtain a second feature of the to-be-processed image block, and perform a pooling process on the second feature to obtain the target feature is composed

본 출원의 일부 실시예에서, 상기 신경망 훈련 장치는 처리될 이미지에 대해 전처리를 수행하여 제1 이미지를 획득하도록 구성된 전처리 모듈 상기 제1 이미지의 목표 영역에 대해 위치 추적을 수행하여, 상기 제1 이미지 중 목표 영역의 위치 정보를 결정하도록 구성된 위치 추적 모듈 상기 제1 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 상기 처리될 이미지 블록을 분할하여 획득하도록 구성된 제2 분할 모듈을 더 포함한다.In some embodiments of the present application, the neural network training apparatus is a pre-processing module configured to perform pre-processing on an image to be processed to obtain a first image Position tracking is performed on a target area of the first image, and the first image Position tracking module, configured to determine position information of a target region in the first image, a second dividing module configured to divide and obtain at least one image block to be processed according to position information of a target region in the first image.

일부 실시예에서, 본 출원의 실시예에 의해 제공된 장치에 구비된 기능 또는 포함된 모듈은 위의 방법 실시예에서 설명된 방법을 수행하도록 구성될 수 있으며, 그 구현은 위의 방법 실시예의 설명을 참조하면 된다.In some embodiments, a function or a module included in the apparatus provided by the embodiment of the present application may be configured to perform the method described in the above method embodiment, the implementation of which follows the description of the above method embodiment. Please refer to

본 출원의 실시예는 실행되면 상술한 방법을 수행하는 컴퓨터 프로그램이 저장된 컴퓨터 판독가능 저장 매체를 더 제공한다. 컴퓨터 판독가능 저장 매체는 비 휘발성 컴퓨터 판독가능 저장 매체일 수 있다.An embodiment of the present application further provides a computer-readable storage medium in which a computer program for performing the above-described method is stored when executed. The computer-readable storage medium may be a non-volatile computer-readable storage medium.

본 출원의 실시예는 전자 기기를 더 제공하며, 상기 전자 기기는 프로세서 프로세서에 의해 실행 가능한 컴퓨터 프로그램을 저장하도록 구성된 메모리를 포함하며, 상기 프로세서는 상기 컴퓨터 프로그램을 통해 상술한 방법을 수행하도록 구성된다. 전자 기기는 단말기, 서버 또는 다른 형태의 기기로 제공될 수 있다.An embodiment of the present application further provides an electronic device, wherein the electronic device includes a memory configured to store a computer program executable by a processor processor, wherein the processor is configured to perform the above-described method through the computer program . The electronic device may be provided as a terminal, server, or other type of device.

본 출원의 실시예는 컴퓨터 판독가능 코드가 포함된 컴퓨터 프로그램 제품을 더 제공하며, 컴퓨터 판독가능 코드가 기기에서 실행되면, 기기 중 프로세서는 상술한 어느 한 실시예에 의해 제공된 신경망 훈련 방법의 명령을 실행한다. An embodiment of the present application further provides a computer program product including a computer readable code, wherein when the computer readable code is executed in a device, the processor of the device executes the instructions of the neural network training method provided by any one of the embodiments described above. run

본 출원의 실시예는 실행되면 컴퓨터가 상술한 어느 한 실시예에 의해 제공된 신경망 훈련 방법의 조작을 수행하도록 하는 컴퓨터 판독가능 명령을 저장하도록 구성된 다른 컴퓨터 프로그램 제품을 더 제공한다.Embodiments of the present application further provide another computer program product, configured to store computer-readable instructions that, when executed, cause a computer to perform operations of the neural network training method provided by any one of the above-described embodiments.

도 5는 본 출원의 실시예에 의해 제공된 전자 기기의 개략도이다. 예를 들어, 전자 기기(800)는 휴대폰, 컴퓨터, 디지털 방송 단말기, 메시지 송수신 기기, 게임기, 태블릿 PC, 의료 기기, 운동기구, PDA 등 단말기일 수 있다. 도 5를 참조하면, 전자 기기(800)는 처리 컴포넌트(802), 메모리(804), 전원 컴포넌트(806), 멀티미디어 컴포넌트(808), 오디오 컴포넌트(810), 입력/출력(Input/Output, I/O) 인터페이스(812), 센서 컴포넌트(814) 및 통신 컴포넌트(816) 중의 하나 또는 복수 개 컴포넌트를 포함할 수 있다. 5 is a schematic diagram of an electronic device provided by an embodiment of the present application. For example, the electronic device 800 may be a mobile phone, a computer, a digital broadcasting terminal, a message transmitting/receiving device, a game machine, a tablet PC, a medical device, an exercise device, a PDA, and the like. Referring to FIG. 5 , the electronic device 800 includes a processing component 802 , a memory 804 , a power component 806 , a multimedia component 808 , an audio component 810 , and an Input/Output (I). /O) one or more of an interface 812 , a sensor component 814 , and a communication component 816 .

처리 컴포넌트(802)는 일반적으로 디스플레이, 전화 호출, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작과 같은 전자 기기(800)의 전반적인 동작을 제어한다. 처리 컴포넌트(802)는 상술한 방법의 전부 또는 일부 단계를 완료하도록 명령을 실행하는 하나 또는 복수 개의 프로세서(820)를 포함할 수 있다. 또한, 처리 컴포넌트(802)는 다른 컴포넌트와의 상호작용을 용이하게 하기 위하여 하나 또는 복수개 모듈을 포함할 수 있다. 예를 들어, 처리 컴포넌트(802)는 멀티미디어 컴포넌트(808)와 처리 컴포넌트(802) 간의 상호작용을 용이하게 하기 위하여 멀티미디어 모듈을 포함할 수 있다.The processing component 802 generally controls the overall operation of the electronic device 800 , such as operations related to displays, phone calls, data communications, camera operations, and recording operations. The processing component 802 may include one or more processors 820 executing instructions to complete all or some steps of the method described above. Further, processing component 802 may include one or more modules to facilitate interaction with other components. For example, processing component 802 may include a multimedia module to facilitate interaction between multimedia component 808 and processing component 802 .

메모리(804)는 전자 기기(800)에서의 동작을 지원하기 위하여 각종 유형의 데이터를 저장하도록 구성된다. 이러한 데이터의 실예는 전자 기기(800)에서 동작하는 임의의 애플리케이션 또는 방법의 명령, 연락처 데이터, 전화번호부 데이터, 메시지, 그림, 동영상 등을 포함한다. 메모리(804)는 임의의 유형의 휘발성 또는 비 휘발성 저장 기기 또는 이들의 조합으로 구현될 수 있으며, 예컨대 정적 램(Static Random Access Memory, SRAM), 이이피롬(Electrically Erasable Programmable Read Only Memory, EEPROM), 이피롬(Erasable Programmable Read Only Memory, EPROM), 피롬(Programmable Read Only Memory, PROM), 롬(Read Only Memory, ROM), 자기저장장치, 플래시, 디스크, 광 디스크이다. Memory 804 is configured to store various types of data to support operation in electronic device 800 . Examples of such data include commands, contact data, phone book data, messages, pictures, moving pictures, and the like of any application or method operating in the electronic device 800 . Memory 804 may be implemented in any type of volatile or non-volatile storage device or a combination thereof, such as static random access memory (SRAM), electrically erasable programmable read only memory (EEPROM), Erasable Programmable Read Only Memory (EPROM), PROM (Programmable Read Only Memory, PROM), ROM (Read Only Memory, ROM), magnetic storage device, flash, disk, and optical disk.

전원 컴포넌트(806)는 전자 기기(800)의 각종 컴포넌트에 전력을 공급하며, 전원 관리 시스템, 하나 또는 복수 개의 전원, 및 전자 기기(800)를 위해 전력을 생성, 관리 및 할당하는 것과 관련된 다른 컴포넌트를 포함할 수 있다.The power component 806 supplies power to various components of the electronic device 800 , and includes a power management system, one or more power sources, and other components related to generating, managing, and allocating power for the electronic device 800 . may include

멀티미디어 컴포넌트(808)는 상기 전자 기기(800)와 사용자 사이의 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에서, 스크린은 액정 표시 장치(Liquid Crystal Display, LCD) 및 터치 패널(TouchPanel, TP)을 포함할 수 있다. 스크린이 터치 패널을 포함하는 경우, 스크린은 사용자로부터의 입력 신호를 수신하도록 터치 스크린으로 구현될 수 있다. 터치 패널은 터치, 미끄럼 및 터치 패널 상의 제스처를 검출하도록 하나 또는 복수 개의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 미끄럼 동작의 경계를 검출할 뿐만 아니라, 상기 터치 또는 미끄럼 동작과 관련된 지속시간 및 압력도 검출할 수 있다. 일부 실시예에서, 멀티미디어 컴포넌트(808)는 하나의 전방 카메라 및/또는 후방 카메라를 포함한다. 전자 기기(800)가 촬영 모드 또는 비디오 모드와 같은 동작 모드인 경우, 전방 카메라 및/또는 후방 카메라는 외부의 멀티미디어 데이터를 수신할 수 있다. 전방 카메라 및 후방 카메라 각각은 하나의 고정된 광학 렌즈 시스템이거나 초점 및 광학 줌 능력을 구비할 수 있다.The multimedia component 808 includes a screen that provides one output interface between the electronic device 800 and the user. In some embodiments, the screen may include a liquid crystal display (LCD) and a touch panel (TouchPanel, TP). When the screen includes a touch panel, the screen may be implemented as a touch screen to receive an input signal from a user. The touch panel includes one or more touch sensors to detect touch, sliding and gestures on the touch panel. The touch sensor may not only detect the boundary of a touch or slide action, but also detect a duration and pressure associated with the touch or slide action. In some embodiments, multimedia component 808 includes one front camera and/or one rear camera. When the electronic device 800 is in an operation mode such as a photographing mode or a video mode, the front camera and/or the rear camera may receive external multimedia data. Each of the front and rear cameras may be a single fixed optical lens system or may have focus and optical zoom capabilities.

오디오 컴포넌트(810)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들어, 오디오 컴포넌트(810)는 하나의 마이크로폰(Microphone, MIC)을 포함하며, 전자 기기(800)가 호출 모드, 기록 모드 및 음성 인식 모드와 같은 동작 모드인 경우, 마이크로폰은 외부 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 메모리(804)에 저장되거나 통신 컴포넌트(816)에 의해 송신될 수 있다. 일부 실시예에서, 오디오 컴포넌트(810)는 오디오 신호를 출력하도록 구성된 하나의 스피커를 더 포함한다.The audio component 810 is configured to output and/or input an audio signal. For example, the audio component 810 includes one microphone (Microphone, MIC), and when the electronic device 800 is in an operation mode such as a call mode, a recording mode, and a voice recognition mode, the microphone receives an external audio signal. configured to receive The received audio signal may be stored in memory 804 or transmitted by communication component 816 . In some embodiments, the audio component 810 further includes one speaker configured to output an audio signal.

I/O 인터페이스(812)는 처리 컴포넌트(802)와 주변 장치 인터페이스 모듈 사이에 인터페이스를 제공하며, 상기 주변 장치 인터페이스 모듈은 키보드, 클릭 휠(click wheel), 버튼 등 일 수 있다. 이러한 버튼은 홈페이지 버튼, 음량 버튼, 시작 버튼 및 잠금 버튼을 포함하나 이에 한정되지 않는다.I/O interface 812 provides an interface between processing component 802 and a peripheral interface module, which may be a keyboard, click wheel, button, or the like. Such buttons include, but are not limited to, a home page button, a volume button, a start button, and a lock button.

센서 컴포넌트(814)는 단말 기기(800)에 각 측면의 상태 평가를 제공하도록 구성된 하나 또는 복수 개의 센서를 포함한다. 예를 들어, 센서 컴포넌트(814)는 전자 기기(800)의 온/오프 상태, 컴포넌트의 상대적 위치를 검출할 수 있다. 예를 들어, 상기 컴포넌트는 전자 기기(800)의 표시장치 및 키패드이다. 센서 컴포넌트(814)는 또한 전자 기기(800) 또는 전자 기기(800)의 한 컴포넌트의 위치 변화, 사용자와 전자 기기(800)의 접촉여부, 전자 기기(800)의 방위 또는 가속/감속 및 전자 기기(800)의 온도 변화를 검출할 수도 있다. 센서 컴포넌트(814)는 아무런 물리적 접촉도 없이 부근 물체의 존재를 검출하도록 구성된 근접 센서를 포함할 수 있다. 센서 컴포넌트(814)는 상보성 금속 산화막 반도체(Complementary Metal Oxide Semiconductor, CMOS) 또는 전하 결합 소자(Charge Coupled Device, CCD) 이미지 센서와 같은 광 센서를 더 포함할 수 있으며, 이미징 응용에 사용될 수 있다. 일부 실시예에서, 상기 센서 컴포넌트(814)는 가속도 센서, 자이로스코프 센서, 자기 센서, 압력 센서 또는 온도 센서를 포함할 수도 있다.The sensor component 814 includes one or a plurality of sensors configured to provide the terminal device 800 with an assessment of the status of each side. For example, the sensor component 814 may detect an on/off state of the electronic device 800 and a relative position of the component. For example, the component is a display device and a keypad of the electronic device 800 . The sensor component 814 may also include a change in the position of the electronic device 800 or one component of the electronic device 800 , whether the user and the electronic device 800 are in contact, the orientation or acceleration/deceleration of the electronic device 800 , and the electronic device A temperature change of 800 may be detected. The sensor component 814 may include a proximity sensor configured to detect the presence of a nearby object without any physical contact. The sensor component 814 may further include an optical sensor, such as a Complementary Metal Oxide Semiconductor (CMOS) or Charge Coupled Device (CCD) image sensor, and may be used in imaging applications. In some embodiments, the sensor component 814 may include an acceleration sensor, a gyroscope sensor, a magnetic sensor, a pressure sensor, or a temperature sensor.

통신 컴포넌트(816)는 전자 기기(800)와 다른 기기 간의 유선 또는 무선 방식의 통신을 용이하게 하도록 구성된다. 전자 기기(800)는 WiFi, 2G 또는 3G, 또는 이들의 조합과 같은 통신 표준 기반 무선 네트워크에 접속할 수 있다. 본 출원의 일부 실시예에서, 통신 컴포넌트(816)는 방송 채널을 통해 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 본 출원의 일부 실시예에서, 상기 통신 컴포넌트(816)는 단거리 통신을 촉진하도록, 근거리 무선 통신(Near Field Communication, NFC) 모듈을 더 포함할 수 있다. 예를 들어, NFC모듈은 무선 주파수 인식(Radio Frequency Identification, Radio Frequency) 기술, 적외선 통신 규격(Infrared Data Association, IrDA) 기술, 초광대역(Ultra Wide Band, UWB) 기술, 블루투스(Bluetooth, BT) 기술 및 다른 기술을 기반으로 구현될 수 있다. The communication component 816 is configured to facilitate communication between the electronic device 800 and another device in a wired or wireless manner. The electronic device 800 may access a wireless network based on a communication standard such as WiFi, 2G or 3G, or a combination thereof. In some embodiments of the present application, the communication component 816 receives a broadcast signal or broadcast related information from an external broadcast management system through a broadcast channel. In some embodiments of the present application, the communication component 816 may further include a Near Field Communication (NFC) module to facilitate short-range communication. For example, the NFC module has a radio frequency identification (Radio Frequency) technology, an infrared communication standard (Infrared Data Association, IrDA) technology, an Ultra Wide Band (UWB) technology, and a Bluetooth (BT) technology. and other technologies.

본 출원의 일부 실시예에서, 전자 기기(800)는 하나 또는 복수 개의 응용 주문형 집적회로(Application Specific Integrated Circuit, ASIC), 디지털 신호 프로세서(Digital Signal Process, DSP), 디지털 신호 처리 장치(Digital Signal Process Device, DSPD), 프로그래머블 논리 소자(Programmable Logic Device, PLD), 필드 프로그램 가능 게이트 어레이(Field Programmable Gate Array, FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로프로세서 또는 다른 전자소자로 구현되어 상술한 방법을 수행하도록 구성될 수 있다. In some embodiments of the present application, the electronic device 800 includes one or a plurality of Application Specific Integrated Circuits (ASICs), digital signal processors (DSPs), and digital signal processing devices (Digital Signal Processes). Device, DSPD), a Programmable Logic Device (PLD), a Field Programmable Gate Array (FPGA), a controller, a microcontroller, a microprocessor or other electronic device to perform the method described above. can be configured.

본 출원의 일부 실시예에서, 비 휘발성 컴퓨터 판독가능 저장 매체(예를 들어 컴퓨터 프로그램 명령이 포함된 메모리(804))를 더 제공한다. 상술한 컴퓨터 프로그램 명령은 전자 기기(800)의 프로세서(820)에 의해 실행되어 상술한 방법을 완료할 수 있다. In some embodiments of the present application, a non-volatile computer-readable storage medium (eg, a memory 804 containing computer program instructions) is further provided. The above-described computer program instructions may be executed by the processor 820 of the electronic device 800 to complete the above-described method.

도 6은 본 출원의 실시예에 의해 제공된 다른 전자 기기의 개략도이다. 예를 들어, 전자 기기(1900)는 서버로 제공될 수 있다. 도 6을 참조하면, 전자 기기(1900)는 처리 컴포넌트(1922)를 포함하며, 처리 컴포넌트(1922)는 하나 또는 복수 개의 프로세서, 및 메모리(1932)를 대표로 하는 메모리 자원을 더 포함할 수 있다. 메모리 자원은 처리 컴포넌트(1922)에 의해 실행될 수 있는 명령(예를 들어, 애플리케이션)을 저장하도록 구성된다. 메모리(1932)에 저장된 애플리케이션은 하나 또는 하나 이상의 각각 한 세트의 명령에 대응하는 모듈을 포함할 수 있다. 또한, 처리 컴포넌트(1922)는 상술한 방법을 수행하기 위하여 명령을 실행하도록 구성된다.6 is a schematic diagram of another electronic device provided by an embodiment of the present application. For example, the electronic device 1900 may be provided as a server. Referring to FIG. 6 , the electronic device 1900 includes a processing component 1922 , and the processing component 1922 may further include one or a plurality of processors and a memory resource representative of the memory 1932 . . Memory resources are configured to store instructions (eg, applications) that can be executed by processing component 1922 . Applications stored in memory 1932 may include one or more modules each corresponding to a set of instructions. Further, processing component 1922 is configured to execute instructions to perform the method described above.

전자 기기(1900)는 전자 기기(1900)의 전원 관리를 수행하도록 구성된 하나의 전원 컴포넌트(1926), 전자 기기(1900)를 네트워크에 연결하도록 구성된 하나의 유선 또는 무선 네트워크 인터페이스(1950), 및 하나의 입력 출력(I/O) 인터페이스(1958)를 더 포함할 수 있다. 전자 기기(1900)는 메모리(1932)에 저장된 Windows ServerTM, Mac OS XTM, UnixTM, LinuxTM, FreeBSDTM 등과 같은 운영 시스템을 기반으로 동작할 수 있다.The electronic device 1900 includes one power component 1926 configured to perform power management of the electronic device 1900 , one wired or wireless network interface 1950 configured to connect the electronic device 1900 to a network, and one may further include an input output (I/O) interface 1958 of The electronic device 1900 may operate based on an operating system stored in the memory 1932 , such as Windows Server™, Mac OS X™, Unix™, Linux™, FreeBSD™, or the like.

본 출원의 일부 실시예에서, 비 휘발성 컴퓨터 판독가능 저장 매체(예를 들어 컴퓨터 프로그램 명령이 포함된 메모리(1932))를 더 제공한다. 상술한 컴퓨터 프로그램 명령은 전자 기기(1900)의 처리 컴포넌트(1922)에 의해 실행되어 상술한 방법을 완료할 수 있다. In some embodiments of the present application, a non-volatile computer-readable storage medium (eg, a memory 1932 containing computer program instructions) is further provided. The computer program instructions described above may be executed by the processing component 1922 of the electronic device 1900 to complete the method described above.

본 출원은 시스템, 방법 및/또는 컴퓨터 프로그램 제품일 수 있다. 컴퓨터 프로그램 제품은 프로세서가 본 출원의 각 측면을 구현하도록 구성된 컴퓨터 판독가능 프로그램 명령이 기록된 컴퓨터 판독가능 저장 매체를 포함할 수 있다. The present application may be a system, method and/or computer program product. The computer program product may include a computer readable storage medium having recorded thereon computer readable program instructions configured to cause a processor to implement each aspect of the present application.

컴퓨터 판독가능 저장 매체는 명령 실행 기기에 의해 사용되는 명령을 유지 및 저장하는 유형 기기일 수 있다. 컴퓨터 판독가능 저장 매체는 예를 들어 전기적 저장 기기, 자기적 저장 기기, 광 저장 기기, 전자기 저장 기기, 반도체 저장 기기 또는 이들의 임의의 적절한 조합일 수 있으나 이에 제한되지 않는다. 컴퓨터 판독가능 저장 매체는 휴대용 컴퓨터 디스크, 하드 디스크, 램(Random Access Memory, RAM), 롬(ROM), 이피롬(EPROM 또는 플래시), SRAM, 시디롬(Compact Disk-Read Only Memory, CD-ROM), 디브이디(Digital Video Disc, DVD), 메모리 스틱, 플로피 디스크, 명령이 저장된 펀치 카드 또는 홈 내 돌출 구조와 같은 기계적 인코딩 기기, 및 이들의 임의의 적절한 조합을 포함할 수 있다. 여기서 사용되는 컴퓨터 판독가능 저장 매체는 무선 전파 또는 다른 자유롭게 전파되는 전자기파, 도파관 또는 다른 전송 매체를 통해 전파되는 전자기파(예를 들어, 광섬유 케이블을 통한 광 펄스), 또는 전선을 통해 전송되는 전기 신호와 같은 순간 신호 자체로 해석되지 않는다.The computer-readable storage medium may be a tangible device that holds and stores instructions used by the instruction execution device. The computer-readable storage medium may be, for example, but not limited to, an electrical storage device, a magnetic storage device, an optical storage device, an electromagnetic storage device, a semiconductor storage device, or any suitable combination thereof. Computer-readable storage media include portable computer disks, hard disks, RAM (Random Access Memory, RAM), ROM (ROM), EPROM (EPROM or Flash), SRAM, CD-ROM (Compact Disk-Read Only Memory, CD-ROM) , a Digital Video Disc (DVD), a memory stick, a floppy disk, a punch card on which instructions are stored, or a mechanical encoding device such as a protruding structure in a groove, and any suitable combination thereof. As used herein, a computer-readable storage medium includes radio waves or other freely propagating electromagnetic waves, electromagnetic waves propagating through waveguides or other transmission media (eg, light pulses through fiber optic cables), or electrical signals transmitted over electric wires. It is not interpreted as a signal itself at the same moment.

여기서 설명되는 컴퓨터 판독가능 프로그램 명령은 컴퓨터 판독가능 저장 매체로부터 각 컴퓨팅/처리 기기에 다운로드되거나, 인터넷, 랜, 광역망 및/또는 무선망과 같은 네트워크를 통해 외부 컴퓨터 또는 외부 저장 기기에 다운로드될 수 있다. 네트워크는 구리 전송 케이블, 광섬유 전송, 무선 전송, 라우터, 방화벽, 스위치, 게이트웨이 컴퓨터 및 / 또는 에지 서버를 포함할 수 있다. 각 컴퓨팅/처리 기기 중의 네트워크 어댑터 카드 또는 네트워크 인터페이스는 네트워크로부터 컴퓨터 판독가능 프로그램 명령을 수신하고, 각 컴퓨팅/처리 기기 중의 컴퓨터 판독가능 저장 매체에 저장하도록 컴퓨터 판독가능 프로그램 명령을 전달한다.The computer readable program instructions described herein may be downloaded from a computer readable storage medium to each computing/processing device, or may be downloaded to an external computer or external storage device through a network such as the Internet, a LAN, a wide area network and/or a wireless network. have. The network may include copper transport cables, fiber optic transport, wireless transport, routers, firewalls, switches, gateway computers and/or edge servers. A network adapter card or network interface in each computing/processing device receives computer readable program instructions from the network and communicates the computer readable program instructions for storage in a computer readable storage medium in each computing/processing device.

본 출원의 동작을 수행하도록 구성된 컴퓨터 프로그램 명령은 어셈블리 명령, 명령 세트 아키텍처 (Instruction Set Architecture, ISA) 명령, 기계 명령, 기계 관련 명령, 마이크로 코드, 펌웨어 명령, 상태 설정 데이터, 또는 하나 또는 복수 개의 프로그래밍 언어의 임의의 조합으로 작성된 소스 코드 또는 객체 코드일 수 있다. 상기 프로그래밍 언어에는 Smalltalk, C ++ 등과 같은 객체 지향 프로그래밍 언어, 및 "C" 언어 또는 유사한 프로그래밍 언어와 같은 일반적인 절차적 프로그래밍 언어가 포함된다. 컴퓨터 판독가능 프로그램 명령은 완전히 사용자의 컴퓨터, 부분적으로 사용자의 컴퓨터에서, 독립된 소프트웨어 패키지로서, 부분적으로 사용자의 컴퓨터, 부분적으로 원격 컴퓨터 또는 완전히 원격 컴퓨터 또는 서버에서 실행될 수 있다. 원격 컴퓨터의 경우, 원격 컴퓨터는 임의의 종류의 네트워크(랜 또는 광역망을 포함함)를 통해 사용자 컴퓨터에 연결되거나, 외부 컴퓨터에 연결될 수 있다(예를 들어, 인터넷 서비스 공급자를 이용하여 인터넷을 통해 연결됨). 일부 실시예에서, 전자 회로는 컴퓨터 판독가능 프로그램 명령의 상태 정보를 이용하여 개성화 설정된다. 예를 들어, 프로그래머블 논리 회로, FPGA 또는 프로그램머블 논리 어레이 (Programmable Logic Array, PLA). 상기 전자 회로는 컴퓨터 판독가능 프로그램 명령을 실행하여 본 출원의 각 측면을 구현할 수 있다. The computer program instructions configured to perform the operations of the present application may include assembly instructions, Instruction Set Architecture (ISA) instructions, machine instructions, machine-related instructions, microcode, firmware instructions, state setting data, or one or more programming instructions. It can be source code or object code written in any combination of languages. The programming languages include object-oriented programming languages such as Smalltalk, C++, and the like, and general procedural programming languages such as "C" language or similar programming languages. The computer readable program instructions may be executed entirely on the user's computer, partly on the user's computer, as a separate software package, partly on the user's computer, partly on a remote computer, or on a completely remote computer or server. In the case of a remote computer, the remote computer may be connected to the user's computer via any kind of network (including a LAN or wide area network), or it may be connected to an external computer (eg, via the Internet using an Internet service provider). connected). In some embodiments, the electronic circuitry is personalized using state information in computer readable program instructions. For example, Programmable Logic Circuits, FPGAs or Programmable Logic Arrays (PLAs). The electronic circuitry may execute computer readable program instructions to implement each aspect of the present application.

여기서 본 출원의 실시예에 따른 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및/또는 블록도를 참조하여 본 출원의 각 측면을 설명하였다. 이해할 것은, 흐름도 및/또는 블록도의 각 블록 및 흐름도 및/또는 블록도 중 각 블록의 조합은 모두 컴퓨터 판독가능 프로그램 명령에 의해 구현될 수 있다.Here, each aspect of the present application has been described with reference to flowcharts and/or block diagrams of methods, apparatus (systems) and computer program products according to embodiments of the present application. It will be understood that each block in the flowcharts and/or block diagrams and combinations of blocks in the flowcharts and/or block diagrams may all be implemented by computer readable program instructions.

이러한 컴퓨터 판독가능 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터 또는 다른 프로그램머블 데이터 처리 장치의 프로세서에 제공되어, 이러한 명령이 컴퓨터 또는 다른 프로그램머블 데이터 처리 장치의 프로세서에 의해 실행될 때 흐름도 및/또는 블록도 중 하나 또는 복수 개의 블록에 규정된 기능/동작을 구현하는 장치를 생성하도록 기계을 생성한다. 이러한 컴퓨터 판독가능 명령은 컴퓨터 판독가능 저장 매체에 저장될 수도 있다. 이러한 명령은 컴퓨터, 프로그램머블 데이터 처리 장치 및/또는 다른 기기가 특정의 방식으로 동작하도록 한다. 따라서, 명령이 저장된 컴퓨터 판독가능 저장 매체는 흐름도 및/또는 블록도 중 하나 또는 복수 개의 블록에 규정된 기능/동작의 각 측면을 구현하는 명령을 포함하는 제품을 포함한다.These computer readable program instructions may be provided to a processor of a general purpose computer, special purpose computer, or other programmable data processing device, such that the instructions, when executed by the processor of the computer or other programmable data processing device, are either in flow diagrams and/or block diagrams. or create a machine to create a device that implements the functions/operations specified in a plurality of blocks. These computer readable instructions may be stored in a computer readable storage medium. These instructions cause the computer, programmable data processing device, and/or other device to operate in a particular manner. Accordingly, a computer readable storage medium having instructions stored thereon includes a product including instructions for implementing each aspect of a function/action defined in one or a plurality of blocks of the flowchart and/or block diagrams.

컴퓨터 판독가능 프로그램 명령은 또한 컴퓨터, 다른 프로그램머블 데이터 처리 장치 또는 다른 기기에 로딩되어, 컴퓨터로 구현되는 과정을 생성하기 위해 컴퓨터, 다른 프로그램머블 데이터 처리 장치 또는 다른 기기에서 일련의 동작 단계가 수행되도록 할 수 있다. 따라서, 컴퓨터, 다른 프로그램머블 데이터 처리 장치 또는 다른 기기에서 실행되는 명령은 흐름도 및/또는 블록도 중 하나 또는 복수 개의 블록에 규정된 기능/동작을 구현할 수 있다.The computer readable program instructions may also be loaded into a computer, other programmable data processing device, or other device to cause a series of operational steps to be performed on the computer, other programmable data processing device, or other device to create a computer-implemented process. can do. Accordingly, instructions executed in a computer, other programmable data processing device, or other device may implement functions/operations specified in one or a plurality of blocks in the flowchart and/or block diagram.

첨부 도면 중 흐름도 및 블록도는 본 출원의 복수 개의 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 가능한 구현의 아키텍처, 기능 및 동작을 도시한다. 이점에서, 흐름도 또는 블록도 중 각 블록은 하나의 모듈, 프로그램 세그먼트 또는 명령의 일부를 나타낼 수 있다. 상기 모듈, 프로그램 세그먼트 또는 명령의 일부는 규정된 논리 기능을 구현하도록 구성된 하나 또는 복수 개의 실행 가능한 명령을 포함한다. 일부 대안적인 구현에서, 블록에 표시된 기능은 또한 첨부 도면에 표시된 것과 다른 순서로 발생할 수있다. 예를 들어, 두 개의 연속적인 블록은 실제로 실질적으로 병렬로 실행될 수 있으며, 때로는 관련 기능에 따라 역순으로 실행될 수도 있다. 또한 주의할 것은, 블록도 및/또는 흐름도 중 각 블록, 및 블록도 및/또는 흐름도 중 블록의 조합은 규정된 기능 또는 동작을 수행하는 전용 하드웨어 기반 시스템으로, 또는 전용 하드웨어와 컴퓨터 명령의 조합으로 구현될 수 있다.The flowcharts and block diagrams in the accompanying drawings illustrate the architecture, functionality, and operation of possible implementations of systems, methods, and computer program products according to a plurality of embodiments of the present application. In this regard, each block in the flowchart or block diagram may represent one module, program segment, or part of an instruction. Some of the modules, program segments or instructions include one or a plurality of executable instructions configured to implement defined logical functions. In some alternative implementations, the functions shown in the blocks may also occur in an order other than that shown in the accompanying drawings. For example, two consecutive blocks may actually be executed substantially in parallel, sometimes in reverse order depending on the function involved. It should also be noted that each block in the block diagrams and/or flowcharts, and combinations of blocks in the block diagrams and/or flowcharts, is a dedicated hardware-based system for performing specified functions or operations, or a combination of dedicated hardware and computer instructions. can be implemented.

상기 컴퓨터 프로그램 제품은 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다. 본 출원의 실시예의 실시방식에서, 상기 컴퓨터 프로그램 제품은 컴퓨터 저장 매체로 구현될 수 있다. 다른 실시방식에서, 컴퓨터 프로그램 제품은 소프트웨어 개발 키트(Software Development Kit, SDK)와 같은 소프트웨어 제품으로 구현될 수 있다. The computer program product may be implemented in hardware, software, or a combination thereof. In the embodiment of the present application, the computer program product may be implemented as a computer storage medium. In another embodiment, the computer program product may be implemented as a software product, such as a Software Development Kit (SDK).

이상, 본 출원의 각 실시예를 설명했지만, 상술한 설명은 예시적이며, 철저하지 않으며, 개시된 각 실시예에 제한되지 않는다. 설명된 각 실시예의 범위 및 정신을 벗어나지 않으면서 많은 수정 및 변형이 통상의 기술자에게 명백할 것이다. 본 명세서에서 사용된 용어는 각 실시예의 원리, 실제 응용 또는 관련 기술에 대한 기술적 개선을 가장 잘 설명하거나 본 기술분야의 다른 당업자가 본 명세서에 개시된 각 실시예를 이해할 수 있도록 선택된다.In the above, each embodiment of the present application has been described, but the above description is exemplary, not exhaustive, and is not limited to each disclosed embodiment. Many modifications and variations will be apparent to those skilled in the art without departing from the scope and spirit of each described embodiment. The terminology used herein is selected to best describe the principle, practical application, or technical improvement of the related art of each embodiment, or to enable others skilled in the art to understand each embodiment disclosed herein.

산업상 이용 가능성Industrial Applicability

본 출원은 신경망 훈련 방법 및 장치, 전자 기기 및 저장 매체에 관한 것으로서, 상기 신경망 훈련 방법은 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하는 단계 목표 영역의 위치 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분할하여 획득하는 단계 카테고리 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분류하여, N 개의 카테고리의 샘플 이미지 블록을 획득하는 단계 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하는 단계를 포함한다. 본 출원의 실시예의 신경망 훈련 방법에 따르면, 샘플 이미지 블록의 세밀한 분류를 획득할 수 있고, 신경망이 이미지를 미세분류할 수 있도록 신경망을 훈련하여, 분류 효율 및 정확도를 향상시킬 수 있다.The present application relates to a method and apparatus for training a neural network, an electronic device, and a storage medium, wherein the method for training a neural network includes obtaining location information and category information of a target area from among sample images. According to the location information of the target area, at least one sample Classifying at least one sample image block according to the category information to obtain N categories of sample image blocks by dividing the image blocks include According to the neural network training method of the embodiment of the present application, it is possible to obtain a fine classification of a sample image block, and train the neural network so that the neural network can fine-classify an image, thereby improving classification efficiency and accuracy.

Claims (25)

신경망 훈련 방법으로서,
상기 신경망 훈련 방법은 신경망 모델을 훈련하고, 훈련하여 획득된 신경망 모델에 따라 이미지를 분류하며, 상기 신경망 훈련 방법은,
샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하는 단계;
상기 샘플 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분할하여 획득하는 단계;
상기 카테고리 정보에 따라, 상기 적어도 하나의 샘플 이미지 블록을 분류하여, N 개의 카테고리의 샘플 이미지 블록을 획득하는 단계 - N은 정수이고, N≥1임 - ;
상기 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하는 단계를 포함하는 것을 특징으로 하는 신경망 훈련 방법.
A method for training a neural network, comprising:
The neural network training method trains a neural network model, classifies images according to the neural network model obtained by training, and the neural network training method comprises:
obtaining location information and category information of a target area in a sample image;
dividing and obtaining at least one sample image block according to the location information of the target area among the sample images;
classifying the at least one sample image block according to the category information to obtain sample image blocks of N categories, where N is an integer, and N≥1;
and training by inputting the N categories of sample image blocks into the neural network.
제1항에 있어서,
상기 샘플 이미지는 의료 영상 사진인 것을 특징으로 하는 신경망 훈련 방법.
According to claim 1,
The sample image is a neural network training method, characterized in that the medical image.
제2항에 있어서,
상기 샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하는 단계는,
상기 의료 영상 사진의 목표 영역에 대해 위치 추적을 수행하여, 상기 목표 영역의 위치 정보를 획득하는 단계;
상기 의료 영상 사진과 관련된 병리학적 사진을 획득하는 단계 - 상기 병리학적 사진은 진단을 거친 병리학적 정보가 포함된 사진임 - ;
상기 병리학적 사진의 각 목표 영역의 병리학적 정보에 따라, 상기 의료 영상 사진의 목표 영역의 카테고리 정보를 결정하는 단계를 포함하는 것을 특징으로 하는 신경망 훈련 방법.
3. The method of claim 2,
The step of obtaining location information and category information of the target area in the sample image includes:
obtaining location information of the target area by performing location tracking on the target area of the medical image;
acquiring a pathological picture related to the medical image, wherein the pathological picture is a picture including pathological information that has been diagnosed;
and determining category information of the target region of the medical image according to pathological information of each target region of the pathological picture.
제1항에 있어서,
상기 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하는 단계는,
어느 한 샘플 이미지 블록을 상기 신경망에 입력하여 처리하여, 샘플 이미지 블록의 카테고리 예측 정보 및 예측 목표 영역을 획득하는 단계;
적어도 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 분류 손실을 결정하는 단계;
상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 분할 손실을 결정하는 단계;
상기 분류 손실 및 상기 분할 손실에 따라, 상기 신경망을 훈련하는 단계를 포함하는 것을 특징으로 하는 신경망 훈련 방법.
According to claim 1,
The step of training by inputting the N categories of sample image blocks into the neural network,
inputting one sample image block to the neural network and processing it to obtain category prediction information and a prediction target region of the sample image block;
determining a classification loss according to at least the category prediction information and the category information to which the sample image block belongs;
determining a division loss according to the prediction target region and position information of the sample image block;
and training the neural network according to the classification loss and the segmentation loss.
제4항에 있어서,
상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 분류 손실을 결정하는 단계는,
상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 제1 분류 손실을 결정하는 단계;
상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리의 범주 센터의 카테고리 정보에 따라, 제2 분류 손실을 결정하는 단계;
상기 제1 분류 손실 및 상기 제2 분류 손실에 대해 가중 합산 처리를 수행하여 상기 분류 손실을 획득하는 단계를 포함하는 것을 특징으로 하는 신경망 훈련 방법.
5. The method of claim 4,
Determining a classification loss according to the category prediction information and the category information to which the sample image block belongs includes:
determining a first classification loss according to the category prediction information and the category information to which the sample image block belongs;
determining a second classification loss according to the category prediction information and category information of a category center of a category to which the sample image block belongs;
and performing weighted summation processing on the first classification loss and the second classification loss to obtain the classification loss.
제4항에 있어서,
상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 분할 손실을 결정하는 단계는,
상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 예측 목표 영역의 제1 가중치 및 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정하는 단계;
상기 제1 가중치, 제2 가중치, 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 상기 분할 손실을 결정하는 단계를 포함하는 것을 특징으로 하는 신경망 훈련 방법.
5. The method of claim 4,
Determining a division loss according to the location information of the prediction target area and the sample image block includes:
determining a first weight of the prediction target area and a second weight of a sample background area in the sample image block according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block;
and determining the division loss according to the first weight, the second weight, the prediction target region, and the position information of the sample image block.
제6항에 있어서,
상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 예측 목표 영역의 제1 가중치 및 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정하는 단계는,
상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 비율을 결정하는 단계;
상기 제2 비율을 상기 제1 가중치로 결정하고, 상기 제1 비율을 제2 가중치로 결정하는 단계를 포함하는 것을 특징으로 하는 신경망 훈련 방법.
7. The method of claim 6,
determining the first weight of the prediction target area and the second weight of the sample background area in the sample image block according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block;
determining a second ratio of a sample background area in the sample image block according to a first ratio in which the number of pixels of the prediction target area occupies in the sample image block;
and determining the second ratio as the first weight and determining the first ratio as the second weight.
제1항 내지 제7항 중 어느 한 항에 있어서,
상기 카테고리 정보는 침윤 전립선암 비정형선종증식결절, 제자리 선암 결절, 최소 침습 선암 결절 및 침윤성 선암 결절을 포함하는 것을 특징으로 하는 신경망 훈련 방법.
8. The method according to any one of claims 1 to 7,
The category information is a neural network training method, characterized in that it includes an invasive prostate cancer atypical adenomatous proliferative node, an in situ adenocarcinoma node, a minimally invasive adenocarcinoma node, and an invasive adenocarcinoma node.
제1항 내지 제8항 중 어느 한 항에 있어서,
상기 신경망은 공유 특징 추출 네트워크, 분류 네트워크 및 분할 네트워크를 포함하고;
상기 신경망 훈련 방법은,
처리될 이미지 블록을 상기 공유 특징 추출 네트워크에 입력하여 처리하여, 상기 처리될 이미지 블록의 목표 특징을 획득하는 단계 - 상기 공유 특징 추출 네트워크는 M 개의 공유 특징 추출 블록을 포함하고, i 번째 공유 특징 추출 블록의 입력 특징은 처음 i-1 개의 공유 특징 추출 블록의 출력 특징을 포함하고, i 및 M은 정수이고, 1<i≤M임 - ;
상기 목표 특징을 상기 분류 네트워크에 입력하여 분류 처리하여, 상기 처리될 이미지 블록의 카테고리 정보를 획득하는 단계;
상기 목표 특징을 상기 분할 네트워크에 입력하여 분할 처리하여, 상기 처리될 이미지 블록 중 목표 영역을 획득하는 단계를 더 포함하는 것을 특징으로 하는 신경망 훈련 방법.
9. The method according to any one of claims 1 to 8,
the neural network includes a shared feature extraction network, a classification network and a segmentation network;
The neural network training method is
inputting and processing an image block to be processed into the shared feature extraction network to obtain a target feature of the image block to be processed; The input features of the block include the output features of the first i-1 shared feature extraction blocks, where i and M are integers, and 1<i≤M;
inputting the target feature into the classification network and performing classification processing to obtain category information of the image block to be processed;
The method further comprising the step of inputting the target feature into the segmentation network and performing segmentation processing to obtain a target region among the image blocks to be processed.
제9항에 있어서,
처리될 이미지 블록을 상기 공유 특징 추출 네트워크에 입력하여 처리하여, 상기 처리될 이미지 블록의 목표 특징을 획득하는 단계는,
상기 처리될 이미지 블록에 대해 제1 특징 추출 처리를 수행하여, 상기 처리될 이미지 블록의 제1 특징을 획득하는 단계;
상기 제1 특징을 첫 번째 공유 특징 추출 블록에 입력하여, 상기 첫 번째 공유 특징 추출 블록의 출력 특징을 획득하고, 상기 첫 번째 공유 특징 추출 블록의 출력 특징을 후속 M-1 개의 공유 특징 추출 블록에 출력하는 단계;
처음 j-1 개의 공유 특징 추출 블록의 출력 특징을 j 번째 공유 특징 추출 블록에 입력하여, 상기 j 번째 공유 특징 추출 블록의 출력 특징을 획득하는 단계 - j는 정수이고, 1<j<M임 - ;
M 번째 공유 특징 추출 블록의 출력 특징에 대해 제2 특징 추출 처리를 수행하여, 상기 처리될 이미지 블록의 제2 특징을 획득하는 단계;
상기 제2 특징에 대해 풀링 처리를 수행하여, 상기 목표 특징을 획득하는 단계를 포함하는 것을 특징으로 하는 신경망 훈련 방법.
10. The method of claim 9,
The step of inputting the image block to be processed into the shared feature extraction network and processing it to obtain the target feature of the image block to be processed comprises:
performing a first feature extraction process on the image block to be processed to obtain a first feature of the image block to be processed;
The first feature is input to the first shared feature extraction block to obtain the output feature of the first shared feature extraction block, and the output feature of the first shared feature extraction block is added to the subsequent M-1 shared feature extraction blocks. outputting;
inputting the output features of the first j-1 shared feature extraction blocks into the j-th shared feature extraction block to obtain the output features of the j-th shared feature extraction block - j is an integer, and 1 < j < M - ;
performing a second feature extraction process on the output feature of the M-th shared feature extraction block to obtain a second feature of the image block to be processed;
and performing a pooling process on the second feature to obtain the target feature.
제9항에 있어서,
처리될 이미지에 대해 전처리를 수행하여 제1 이미지를 획득하는 단계;
상기 제1 이미지의 목표 영역에 대해 위치 추적을 수행하여, 상기 제1 이미지 중 목표 영역의 위치 정보를 결정하는 단계;
상기 제1 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 상기 처리될 이미지 블록을 분할하여 획득하는 단계를 더 포함하는 것을 특징으로 하는 신경망 훈련 방법.
10. The method of claim 9,
obtaining a first image by performing pre-processing on the image to be processed;
determining location information of the target area in the first image by performing location tracking on the target area of the first image;
The method of training a neural network according to claim 1, further comprising: dividing and obtaining at least one image block to be processed according to the location information of the target region in the first image.
신경망 훈련 장치로서,
상기 신경망 훈련 장치는 신경망 모델을 훈련하고, 훈련하여 획득된 신경망 모델에 따라 이미지를 분류하며, 상기 신경망 훈련 장치는,
샘플 이미지 중 목표 영역의 위치 정보 및 카테고리 정보를 획득하도록 구성된 획득 모듈;
상기 샘플 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 샘플 이미지 블록을 분할하여 획득하도록 구성된 제1 분할 모듈;
상기 카테고리 정보에 따라, 상기 적어도 하나의 샘플 이미지 블록을 분류하여, N 개의 카테고리의 샘플 이미지 블록을 획득하도록 구성된 분류 모듈 - N은 정수이고, N≥1임 - ;
상기 N 개의 카테고리의 샘플 이미지 블록을 신경망에 입력하여 훈련하도록 구성된 훈련 모듈을 포함하는 것을 특징으로 하는 신경망 훈련 장치.
A neural network training device comprising:
The neural network training device trains a neural network model, and classifies the image according to the neural network model obtained by training, the neural network training device comprising:
an acquiring module, configured to acquire location information and category information of the target region in the sample image;
a first dividing module, configured to divide and obtain at least one sample image block according to location information of a target region among the sample images;
a classification module, configured to classify the at least one sample image block according to the category information to obtain sample image blocks of N categories, wherein N is an integer and N≥1;
and a training module configured to train by inputting the N categories of sample image blocks into the neural network.
제12항에 있어서,
상기 샘플 이미지는 의료 영상 사진인 것을 특징으로 하는 신경망 훈련 장치.
13. The method of claim 12,
The sample image is a neural network training apparatus, characterized in that the medical image.
제13항에 있어서,
상기 획득 모듈은 또한,
상기 의료 영상 사진의 목표 영역에 대해 위치 추적을 수행하여, 상기 목표 영역의 위치 정보를 획득하고;
상기 의료 영상 사진과 관련된 병리학적 사진을 획득하며 - 상기 병리학적 사진은 진단을 거친 병리학적 정보가 포함된 사진임 - ;
상기 병리학적 사진의 각 목표 영역의 병리학적 정보에 따라, 상기 의료 영상 사진의 목표 영역의 카테고리 정보를 결정하도록 구성된 것을 특징으로 하는 신경망 훈련 장치.
14. The method of claim 13,
The acquisition module is also
performing location tracking on the target area of the medical image to obtain location information of the target area;
acquiring a pathological picture related to the medical image, wherein the pathological picture is a picture including pathological information that has been diagnosed;
and determine category information of the target region of the medical image according to the pathological information of each target region of the pathological picture.
제12항에 있어서,
상기 훈련 모듈은 또한,
어느 한 샘플 이미지 블록을 상기 신경망에 입력하여 처리하여, 샘플 이미지 블록의 카테고리 예측 정보 및 예측 목표 영역을 획득하고;
적어도 상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 분류 손실을 결정하며;
상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 분할 손실을 결정하고;
상기 분류 손실 및 상기 분할 손실에 따라, 상기 신경망을 훈련하도록 구성된 것을 특징으로 하는 신경망 훈련 장치.
13. The method of claim 12,
The training module also includes:
input one sample image block to the neural network and process it to obtain category prediction information and a prediction target region of the sample image block;
determine a classification loss according to at least the category prediction information and the category information to which the sample image block belongs;
determine a division loss according to the location information of the prediction target area and the sample image block;
and train the neural network according to the classification loss and the segmentation loss.
제15항에 있어서,
상기 훈련 모듈은 또한,
상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리 정보에 따라, 제1 분류 손실을 결정하고;
상기 카테고리 예측 정보 및 상기 샘플 이미지 블록이 속한 카테고리의 범주 센터의 카테고리 정보에 따라, 제2 분류 손실을 결정하며;
상기 제1 분류 손실 및 상기 제2 분류 손실에 대해 가중 합산 처리를 수행하여 상기 분류 손실을 획득하도록 구성된 것을 특징으로 하는 신경망 훈련 장치.
16. The method of claim 15,
The training module also includes:
determine a first classification loss according to the category prediction information and the category information to which the sample image block belongs;
determine a second classification loss according to the category prediction information and category information of a category center of a category to which the sample image block belongs;
and performing weighted summing processing on the first classification loss and the second classification loss to obtain the classification loss.
제15항에 있어서,
상기 훈련 모듈은 또한,
상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 예측 목표 영역의 제1 가중치 및 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 가중치를 결정하고;
상기 제1 가중치, 제2 가중치, 상기 예측 목표 영역 및 상기 샘플 이미지 블록의 위치 정보에 따라, 상기 분할 손실을 결정하도록 구성된 것을 특징으로 하는 신경망 훈련 장치.
16. The method of claim 15,
The training module also includes:
determine a first weight of the prediction target area and a second weight of a sample background area in the sample image block according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block;
and determine the division loss according to the first weight, the second weight, the prediction target region, and the position information of the sample image block.
제17항에 있어서,
상기 훈련 모듈은 또한,
상기 예측 목표 영역의 픽셀 수가 상기 샘플 이미지 블록에서 차지하는 제1 비율에 따라, 상기 샘플 이미지 블록에서 샘플 배경 영역의 제2 비율을 결정하고;
상기 제2 비율을 상기 제1 가중치로 결정하고, 상기 제1 비율을 제2 가중치로 결정하도록 구성된 것을 특징으로 하는 신경망 훈련 장치.
18. The method of claim 17,
The training module also includes:
determine a second ratio of a sample background area in the sample image block according to a first ratio that the number of pixels of the prediction target area occupies in the sample image block;
and determine the second ratio as the first weight, and determine the first ratio as the second weight.
제12항 내지 제18항 중 어느 한 항에 있어서,
상기 카테고리 정보는 침윤 전립선암 비정형선종증식결절, 제자리 선암 결절, 최소 침습 선암 결절 및 침윤성 선암 결절을 포함하는 것을 특징으로 하는 신경망 훈련 장치.
19. The method according to any one of claims 12 to 18,
The category information is a neural network training apparatus, characterized in that it includes an invasive prostate cancer atypical adenomatous proliferative node, an in situ adenocarcinoma node, a minimally invasive adenocarcinoma node, and an invasive adenocarcinoma node.
제12항 내지 제19항 중 어느 한 항에 있어서,
상기 신경망은 공유 특징 추출 네트워크, 분류 네트워크 및 분할 네트워크를 포함하고;
상기 신경망 훈련 장치는,
처리될 이미지 블록을 상기 공유 특징 추출 네트워크에 입력하여 처리하여, 상기 처리될 이미지 블록의 목표 특징을 획득하도록 구성된 획득 모듈 - 상기 공유 특징 추출 네트워크는 M 개의 공유 특징 추출 블록을 포함하고, i 번째 공유 특징 추출 블록의 입력 특징은 처음 i-1 개의 공유 특징 추출 블록의 출력 특징을 포함하고, i 및 M은 정수이고, 1<i≤M임 - ;
상기 목표 특징을 상기 분류 네트워크에 입력하여 분류 처리하여, 상기 처리될 이미지 블록의 카테고리 정보를 획득하도록 구성된 분류 모듈;
상기 목표 특징을 상기 분할 네트워크에 입력하여 분할 처리하여, 상기 처리될 이미지 블록 중 목표 영역을 획득하도록 구성된 분할 모듈을 더 포함하는 것을 특징으로 하는 신경망 훈련 장치.
20. The method according to any one of claims 12 to 19,
the neural network includes a shared feature extraction network, a classification network and a segmentation network;
The neural network training device,
an acquiring module, configured to input and process an image block to be processed into the shared feature extraction network to obtain a target feature of the image block to be processed, wherein the shared feature extraction network includes M shared feature extraction blocks, the i-th sharing The input features of the feature extraction block include the output features of the first i-1 shared feature extraction blocks, where i and M are integers, and 1<i≤M;
a classification module configured to input the target feature into the classification network and perform classification processing to obtain category information of the image block to be processed;
and a segmentation module configured to input the target feature into the segmentation network and perform segmentation processing to obtain a target region among the image blocks to be processed.
제20항에 있어서,
상기 획득 모듈은 또한,
상기 처리될 이미지 블록에 대해 제1 특징 추출 처리를 수행하여, 상기 처리될 이미지 블록의 제1 특징을 획득하고;
상기 제1 특징을 첫 번째 공유 특징 추출 블록에 입력하여, 상기 첫 번째 공유 특징 추출 블록의 출력 특징을 획득하고, 상기 첫 번째 공유 특징 추출 블록의 출력 특징을 후속 M-1 개의 공유 특징 추출 블록에 출력하며;
처음 j-1 개의 공유 특징 추출 블록의 출력 특징을 j 번째 공유 특징 추출 블록에 입력하여, 상기 j 번째 공유 특징 추출 블록의 출력 특징을 획득하고 - j는 정수이고, 1<j<M임 - ;
M 번째 공유 특징 추출 블록의 출력 특징에 대해 제2 특징 추출 처리를 수행하여, 상기 처리될 이미지 블록의 제2 특징을 획득하며;
상기 제2 특징에 대해 풀링 처리를 수행하여, 상기 목표 특징을 획득하도록 구성된 것을 특징으로 하는 신경망 훈련 장치.
21. The method of claim 20,
The acquisition module is also
performing a first feature extraction process on the image block to be processed to obtain a first feature of the image block to be processed;
The first feature is input to the first shared feature extraction block to obtain the output feature of the first shared feature extraction block, and the output feature of the first shared feature extraction block is added to the subsequent M-1 shared feature extraction blocks. output;
input the output features of the first j-1 shared feature extraction blocks into the j-th shared feature extraction block to obtain the output features of the j-th shared feature extraction block, where j is an integer, and 1<j<M;
performing a second feature extraction process on the output feature of the M-th shared feature extraction block to obtain a second feature of the image block to be processed;
and performing a pooling process on the second feature to obtain the target feature.
제20항에 있어서,
처리될 이미지에 대해 전처리를 수행하여 제1 이미지를 획득하도록 구성된 전처리 모듈;
상기 제1 이미지의 목표 영역에 대해 위치 추적을 수행하여, 상기 제1 이미지 중 목표 영역의 위치 정보를 결정하도록 구성된 위치 추적 모듈;
상기 제1 이미지 중 목표 영역의 위치 정보에 따라, 적어도 하나의 상기 처리될 이미지 블록을 분할하여 획득하도록 구성된 제2 분할 모듈을 더 포함하는 것을 특징으로 하는 신경망 훈련 장치.
21. The method of claim 20,
a pre-processing module, configured to perform pre-processing on the image to be processed to obtain a first image;
a location tracking module configured to perform location tracking on a target area of the first image to determine location information of a target area in the first image;
The neural network training apparatus according to claim 1, further comprising: a second division module configured to divide and obtain at least one image block to be processed according to the location information of the target region in the first image.
전자 기기로서,
프로세서;
프로세서에 의해 실행 가능한 컴퓨터 프로그램을 저장하도록 구성된 메모리를 포함하며,
상기 프로세서는 상기 컴퓨터 프로그램을 통해 제1항 내지 제11항 중 어느 한 항에 따른 신경망 훈련 방법을 실행하도록 구성된 것을 특징으로 하는 전자 기기.
As an electronic device,
processor;
a memory configured to store a computer program executable by the processor;
12. Electronic device, characterized in that the processor is configured to execute the neural network training method according to any one of claims 1 to 11 through the computer program.
컴퓨터 프로그램이 저장된 컴퓨터 판독가능 저장 매체로서,
상기 컴퓨터 프로그램이 실행될 때 제1항 내지 제11항 중 어느 한 항에 따른 신경망 훈련 방법을 실행하도록 구성된 것을 특징으로 하는 컴퓨터 판독가능 저장 매체.
A computer-readable storage medium having a computer program stored therein, comprising:
12. Computer-readable storage medium, characterized in that the computer program is configured to execute the neural network training method according to any one of claims 1 to 11 when the computer program is executed.
컴퓨터 판독가능 코드가 포함된 컴퓨터 프로그램으로서,
상기 컴퓨터 판독가능 코드가 전자 기기에서 실행될 때, 상기 전자 기기 중의 프로세서는 제1항 내지 제11항 중 어느 한 항에 따른 신경망 훈련 방법을 구현하도록 구성된 것을 특징으로 하는 컴퓨터 프로그램
A computer program comprising computer readable code, comprising:
A computer program, characterized in that when the computer readable code is executed in an electronic device, a processor in the electronic device is configured to implement the method of training a neural network according to any one of claims 1 to 11.
KR1020217041454A 2020-03-05 2020-07-07 Neural network training method and apparatus, electronic device and storage medium KR20220009451A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010148544.8 2020-03-05
CN202010148544.8A CN111368923B (en) 2020-03-05 2020-03-05 Neural network training method and device, electronic equipment and storage medium
PCT/CN2020/100715 WO2021174739A1 (en) 2020-03-05 2020-07-07 Neural network training method and apparatus, electronic device and storage medium

Publications (1)

Publication Number Publication Date
KR20220009451A true KR20220009451A (en) 2022-01-24

Family

ID=71208701

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217041454A KR20220009451A (en) 2020-03-05 2020-07-07 Neural network training method and apparatus, electronic device and storage medium

Country Status (5)

Country Link
JP (1) JP2022537974A (en)
KR (1) KR20220009451A (en)
CN (1) CN111368923B (en)
TW (1) TWI770754B (en)
WO (1) WO2021174739A1 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368923B (en) * 2020-03-05 2023-12-19 上海商汤智能科技有限公司 Neural network training method and device, electronic equipment and storage medium
CN111767708A (en) * 2020-07-09 2020-10-13 北京猿力未来科技有限公司 Training method and device of problem solving model and generation method and device of problem solving formula
CN112017162B (en) * 2020-08-10 2022-12-06 上海杏脉信息科技有限公司 Pathological image processing method, pathological image processing device, storage medium and processor
CN112241760A (en) * 2020-08-25 2021-01-19 浙江大学 Automatic black intermediary mining method and system in network petty loan service
US20220084677A1 (en) * 2020-09-14 2022-03-17 Novocura Tech Health Services Private Limited System and method for generating differential diagnosis in a healthcare environment
CN112561893A (en) * 2020-12-22 2021-03-26 平安银行股份有限公司 Picture matching method and device, electronic equipment and storage medium
CN112785565B (en) * 2021-01-15 2024-01-05 上海商汤智能科技有限公司 Target detection method and device, electronic equipment and storage medium
CN112749801A (en) * 2021-01-22 2021-05-04 上海商汤智能科技有限公司 Neural network training and image processing method and device
CN112925938A (en) * 2021-01-28 2021-06-08 上海商汤智能科技有限公司 Image annotation method and device, electronic equipment and storage medium
CN112907517A (en) * 2021-01-28 2021-06-04 上海商汤智能科技有限公司 Image processing method and device, computer equipment and storage medium
US11967084B2 (en) * 2021-03-09 2024-04-23 Ping An Technology (Shenzhen) Co., Ltd. PDAC image segmentation method, electronic device and storage medium
CN113139471A (en) * 2021-04-25 2021-07-20 上海商汤智能科技有限公司 Target detection method and device, electronic equipment and storage medium
AU2021204563A1 (en) * 2021-06-17 2023-01-19 Sensetime International Pte. Ltd. Target detection methods, apparatuses, electronic devices and computer-readable storage media
CN113702719B (en) * 2021-08-03 2022-11-29 北京科技大学 Broadband near-field electromagnetic positioning method and device based on neural network
CN113688975A (en) * 2021-08-24 2021-11-23 北京市商汤科技开发有限公司 Neural network training method and device, electronic equipment and storage medium
CN113793323A (en) * 2021-09-16 2021-12-14 云从科技集团股份有限公司 Component detection method, system, equipment and medium
CN114049315B (en) * 2021-10-29 2023-04-18 北京长木谷医疗科技有限公司 Joint recognition method, electronic device, storage medium, and computer program product
CN113989407B (en) * 2021-12-30 2022-03-25 青岛美迪康数字工程有限公司 Training method and system for limb part recognition model in CT image
CN114332547B (en) * 2022-03-17 2022-07-08 浙江太美医疗科技股份有限公司 Medical object classification method and apparatus, electronic device, and storage medium
CN114839340A (en) * 2022-04-27 2022-08-02 芯视界(北京)科技有限公司 Water quality biological activity detection method and device, electronic equipment and storage medium
KR20240018229A (en) * 2022-08-02 2024-02-13 김민구 A Natural Language Processing System And Method Using A Synapper Model Unit
CN116077066A (en) * 2023-02-10 2023-05-09 北京安芯测科技有限公司 Training method and device for electrocardiosignal classification model and electronic equipment

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6031921B2 (en) * 2012-09-28 2016-11-24 ブラザー工業株式会社 Image processing apparatus and program
US9953425B2 (en) * 2014-07-30 2018-04-24 Adobe Systems Incorporated Learning image categorization using related attributes
CN108229267B (en) * 2016-12-29 2020-10-16 北京市商汤科技开发有限公司 Object attribute detection, neural network training and region detection method and device
CN107330263B (en) * 2017-06-26 2020-07-28 成都知识视觉科技有限公司 Computer-assisted breast invasive ductal carcinoma histological grading method
AU2018352203B2 (en) * 2017-10-16 2021-09-30 Illumina, Inc. Semi-supervised learning for training an ensemble of deep convolutional neural networks
CN108335313A (en) * 2018-02-26 2018-07-27 阿博茨德(北京)科技有限公司 Image partition method and device
CN108520518A (en) * 2018-04-10 2018-09-11 复旦大学附属肿瘤医院 A kind of thyroid tumors Ultrasound Image Recognition Method and its device
CN109285142B (en) * 2018-08-07 2023-01-06 广州智能装备研究院有限公司 Method and device for detecting head and neck tumors and computer readable storage medium
CN109447169B (en) * 2018-11-02 2020-10-27 北京旷视科技有限公司 Image processing method, training method and device of model thereof and electronic system
CN109919961A (en) * 2019-02-22 2019-06-21 北京深睿博联科技有限责任公司 A kind of processing method and processing device for aneurysm region in encephalic CTA image
CN110245657B (en) * 2019-05-17 2021-08-24 清华大学 Pathological image similarity detection method and detection device
CN110210535B (en) * 2019-05-21 2021-09-10 北京市商汤科技开发有限公司 Neural network training method and device and image processing method and device
CN110705555B (en) * 2019-09-17 2022-06-14 中山大学 Abdomen multi-organ nuclear magnetic resonance image segmentation method, system and medium based on FCN
CN110705626A (en) * 2019-09-26 2020-01-17 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and storage medium
CN110796656A (en) * 2019-11-01 2020-02-14 上海联影智能医疗科技有限公司 Image detection method, image detection device, computer equipment and storage medium
CN111368923B (en) * 2020-03-05 2023-12-19 上海商汤智能科技有限公司 Neural network training method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP2022537974A (en) 2022-08-31
TWI770754B (en) 2022-07-11
CN111368923A (en) 2020-07-03
WO2021174739A1 (en) 2021-09-10
CN111368923B (en) 2023-12-19
TW202133787A (en) 2021-09-16

Similar Documents

Publication Publication Date Title
KR20220009451A (en) Neural network training method and apparatus, electronic device and storage medium
WO2021147257A1 (en) Network training method and apparatus, image processing method and apparatus, and electronic device and storage medium
CN112767329B (en) Image processing method and device and electronic equipment
CN109886243B (en) Image processing method, device, storage medium, equipment and system
WO2022151755A1 (en) Target detection method and apparatus, and electronic device, storage medium, computer program product and computer program
US20220198775A1 (en) Image processing method and apparatus, electronic device, storage medium and computer program
CN109829920B (en) Image processing method and device, electronic equipment and storage medium
WO2020211284A1 (en) Image processing method and apparatus, electronic device, and storage medium
JP7297081B2 (en) Image classification method, image classification device, medical electronic device, image classification device, and computer program
US20210319560A1 (en) Image processing method and apparatus, and storage medium
WO2020211293A1 (en) Image segmentation method and apparatus, electronic device and storage medium
CN114820584B (en) Lung focus positioner
TW202109514A (en) Image processing method and device, electronic equipment and storage medium
WO2023050691A1 (en) Image processing method and apparatus, and electronic device, storage medium and program
CN114332554A (en) Training method of image segmentation model, image segmentation method, device and equipment
WO2021259390A2 (en) Coronary artery calcified plaque detection method and apparatus
WO2023142532A1 (en) Inference model training method and apparatus
JP2022548453A (en) Image segmentation method and apparatus, electronic device and storage medium
CN114332553A (en) Image processing method, device, equipment and storage medium
TW202346826A (en) Image processing method
CN114943723B (en) Method for dividing and counting irregular cells and related equipment
WO2023226009A1 (en) Image processing method and device
CN113470828A (en) Classification method and device, electronic equipment and storage medium
CN115171873A (en) Method and device for identifying chronic obstructive pulmonary disease, electronic equipment and storage medium
CN113487537A (en) Information processing method, device and storage medium for breast cancer ultrasonic high-echo halo

Legal Events

Date Code Title Description
A201 Request for examination