KR20210131551A - Method and apparatus for diagnosing white blood cells based on deep learning - Google Patents

Method and apparatus for diagnosing white blood cells based on deep learning Download PDF

Info

Publication number
KR20210131551A
KR20210131551A KR1020200049746A KR20200049746A KR20210131551A KR 20210131551 A KR20210131551 A KR 20210131551A KR 1020200049746 A KR1020200049746 A KR 1020200049746A KR 20200049746 A KR20200049746 A KR 20200049746A KR 20210131551 A KR20210131551 A KR 20210131551A
Authority
KR
South Korea
Prior art keywords
cnn
deep learning
image
leukocyte
white blood
Prior art date
Application number
KR1020200049746A
Other languages
Korean (ko)
Inventor
김종락
Original Assignee
딥헬릭스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 딥헬릭스 주식회사 filed Critical 딥헬릭스 주식회사
Priority to KR1020200049746A priority Critical patent/KR20210131551A/en
Publication of KR20210131551A publication Critical patent/KR20210131551A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials
    • G01N2015/0065Investigating characteristics of particles; Investigating permeability, pore-volume, or surface-area of porous materials biological, e.g. blood
    • G01N2015/008White cells
    • G01N2015/016
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present invention relates to a deep learning-based leukocyte analysis method and device. The method comprises the steps of: segmenting a leukocyte image into sub-images; and classifying the sub-image by a convolutional neural network (CNN)-based classifier to analyze leukocytes. The CNN-based classifier learns the weights of all FC-layers except for an FC-layer following a convolutional layer among a VGG16 network structure and a ResNet50 network structure, wherein the number of data is supplemented by using a five-fold cross-validation technique. Whether the white blood cells are normal can be analyzed.

Description

딥러닝 기반 백혈구 분석 방법 및 장치{METHOD AND APPARATUS FOR DIAGNOSING WHITE BLOOD CELLS BASED ON DEEP LEARNING}Deep learning-based leukocyte analysis method and device {METHOD AND APPARATUS FOR DIAGNOSING WHITE BLOOD CELLS BASED ON DEEP LEARNING}

본 발명은 백혈구 분석 방법 및 장치에 관한 것으로서, 보다 상세하게는 딥러닝에 기반하여 백혈구 이미지를 분석하여 백혈구의 정상 여부를 분석할 수 있는 딥러닝 기반 백혈구 분석 방법 및 장치에 관한 것이다.The present invention relates to a leukocyte analysis method and apparatus, and more particularly, to a deep learning-based leukocyte analysis method and apparatus capable of analyzing whether white blood cells are normal by analyzing a leukocyte image based on deep learning.

백혈구(White Blood Cell)는 크게 다섯 종류가 있다. 호중구(neutrophil), 림프구(lymphocyte), 단구(monocyte), 호산성구(eosinophil), 그리고 호염기구(basophil) 가 그것이다. 각각의 백혈구들은 아래와 같이 서로 매우 다른 기능을 갖고 있고 그 양은 basophil (0-1%), eosinophil (1-5%), lymphocyte (20-45%), monocyte (2-10%) and neutrophil (50-70%)로 분포되어 있다.There are five main types of white blood cells. These are neutrophils, lymphocytes, monocytes, eosinophils, and basophils. Individual leukocytes have very different functions as shown below, and their amounts are basophil (0-1%), eosinophil (1-5%), lymphocyte (20-45%), monocyte (2-10%) and neutrophil (50 -70%).

도 1은 백혈구 감별계산의 정상치 및 임상적 의미를 나타낸 것이고, 도 2는 정상 백혈구, 도 3은 비정상 백혈구를 나타낸 것이다.1 shows the normal values and clinical significance of the leukocyte differential calculation, FIG. 2 shows normal leukocytes, and FIG. 3 shows abnormal leukocytes.

최근 개발된 자동혈구분석기의 경우, 정상적으로 말초혈액에 존재하는 다섯 종류의 백혈구의 감별계산 외에도 악성혈액세포의 존재를 검출하기 위한 지표들을 개발하고 있다. 그러나 자동혈구분석기의 백혈구 감별능력이 완벽하지 않아, 장비에서 비정상적인 결과가 의심되는 경우 필요하며 수거법으로 확인해야 한다.In the case of the recently developed automatic blood cell analyzer, in addition to the differential calculation of the five types of leukocytes normally present in peripheral blood, indicators for detecting the presence of malignant blood cells are being developed. However, the automatic blood cell analyzer's ability to discriminate white blood cells is not perfect, so it is necessary when abnormal results are suspected from the equipment and should be confirmed by a collection method.

수거법을 하는 경우, 경험을 가진 의사와 그렇지 않은 의사의 정확도의 차이가 상당이 크다는 것이다. 이를 극복하고자 최근 인공지능을 활용한 분석법이 소개되고 있다. 그중 가장 일반적으로 적용되는 인공지능 방법은 CNN이고, 전통적인 백혈구 측정 방법은 도 4와 같다.In the case of the collection method, the difference in accuracy between doctors with experience and those without experience is quite large. To overcome this, analysis methods using artificial intelligence have been recently introduced. Among them, the most commonly applied AI method is CNN, and the traditional method for measuring white blood cells is shown in FIG. 4 .

본 발명은 딥러닝에 기반하여 백혈구 이미지를 분석하여 백혈구의 정상 여부를 분석할 수 있는 딥러닝 기반 백혈구 분석 방법 및 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide a method and apparatus for analyzing white blood cells based on deep learning that can analyze whether white blood cells are normal by analyzing a white blood cell image based on deep learning.

특히, 본 발명은 기존의 CNN(Convolutional Neural Network) 기반 분류기(classifier)를 개선하여 보다 효율적으로 백혈구의 정상 여부를 분석할 수 있는 딥러닝 기반 백혈구 분석 방법 및 장치를 제공하는 것을 목적으로 한다.In particular, an object of the present invention is to provide a deep learning-based leukocyte analysis method and apparatus capable of more efficiently analyzing whether leukocytes are normal by improving an existing convolutional neural network (CNN)-based classifier.

상기한 바와 같은 과제를 해결하기 위하여 본 발명은, 딥러닝 기반 백혈구 분석 방법으로서, 백혈구 이미지를 서브 이미지로 세그멘테이션 하는 단계; 및 상기 서브 이미지를 CNN(Convolutional Neural Network) 기반 분류기(classifier)에 의해 분류하여 백혈구를 분석하는 단계를 포함하되, 상기 CNN 기반 분류기는 VGG16 네트워트 구조와 ResNet50 네트워크 구조 중 컨볼루션 레이어(convolutional layer) 다음의 FC-layer를 제외한 모든 FC-layer의 가중치(weight)를 학습하되, five-fold cross-validation 기법을 사용하여 데이터의 개수를 보충한 것을 특징으로 하는 딥러닝 기반 백혈구 분석 방법을 제공한다.In order to solve the above problems, the present invention provides a deep learning-based leukocyte analysis method, comprising: segmenting a leukocyte image into sub-images; and analyzing the leukocytes by classifying the sub-images by a Convolutional Neural Network (CNN)-based classifier, wherein the CNN-based classifier is a VGG16 network structure and a ResNet50 network structure following a convolutional layer We provide a deep learning-based leukocyte analysis method that learns the weights of all FC-layers except for the FC-layer of , but supplements the number of data using a five-fold cross-validation technique.

본 발명의 다른 측면에 의하면, 딥러닝 기반 백혈구 분석 장치로서, 백혈구 이미지를 서브 이미지로 세그멘테이션 하는 세그멘테이션부; 및 상기 서브 이미지를 CNN(Convolutional Neural Network)에 기반하여 분류하여 백혈구를 분석하는 CNN 기반 분류기를 포함하되, 상기 CNN 기반 분류기는 VGG16 네트워트 구조와 ResNet50 네트워크 구조 중 컨볼루션 레이어(convolutional layer) 다음의 FC-layer를 제외한 모든 FC-layer의 가중치(weight)를 학습하되, five-fold cross-validation 기법을 사용하여 데이터의 개수를 보충한 것을 특징으로 하는 딥러닝 기반 백혈구 분석 장치를 제공한다.According to another aspect of the present invention, there is provided a deep learning-based leukocyte analysis apparatus, comprising: a segmentation unit for segmenting a leukocyte image into sub-images; and a CNN-based classifier that analyzes leukocytes by classifying the sub-images based on a Convolutional Neural Network (CNN), wherein the CNN-based classifier is a convolutional layer of a VGG16 network structure and a ResNet50 network structure. It provides a deep learning-based leukocyte analysis device that learns the weights of all FC-layers except the -layer, but supplements the number of data using a five-fold cross-validation technique.

본 발명의 또 다른 측면에 의하면, 딥러닝 기반 백혈구 분석 방법으로서, 백혈구 이미지를 CNN(Convolutional Neural Network) 기반 검출기(detector)에 입력하여 백혈구를 분석하는 단계를 포함하되, 상기 CNN 기반 검출기는, R-CNN, Fast R-CNN, Faster R-CNN, YOLO 중 어느 하나에 의한 알고리즘에 의해 동작하는 것을 특징으로 하는 딥러닝 기반 백혈구 분석 방법을 제공한다.According to another aspect of the present invention, there is provided a deep learning-based leukocyte analysis method, comprising the step of inputting a leukocyte image to a CNN (Convolutional Neural Network)-based detector to analyze the leukocyte, wherein the CNN-based detector comprises: R -CNN, Faster R-CNN, Faster R-CNN, provides a deep learning-based leukocyte analysis method characterized in that it operates by any one of YOLO algorithm.

본 발명의 또 다른 측면에 의하면, 딥러닝 기반 백혈구 분석 장치로서, 백혈구 이미지를 CNN(Convolutional Neural Network)에 기반하여 백혈구를 분석하는 CNN 기반 검출기를 포함하되, 상기 CNN 기반 검출기는, R-CNN, Fast R-CNN, Faster R-CNN, YOLO 중 어느 하나에 의한 알고리즘에 의해 동작하는 것을 특징으로 하는 딥러닝 기반 백혈구 분석 장치를 제공한다.According to another aspect of the present invention, as a deep learning-based leukocyte analysis apparatus, comprising a CNN-based detector that analyzes leukocytes based on a convolutional neural network (CNN) based on a leukocyte image, wherein the CNN-based detector comprises: R-CNN; It provides a deep learning-based leukocyte analysis device, characterized in that it operates by an algorithm by any one of Fast R-CNN, Faster R-CNN, and YOLO.

본 발명에 의하면, 딥러닝에 기반하여 백혈구 이미지를 분석하여 백혈구의 정상 여부를 분석할 수 있는 딥러닝 기반 백혈구 분석 방법 및 장치를 제공할 수 있다. According to the present invention, it is possible to provide a method and apparatus for analyzing white blood cells based on deep learning that can analyze whether white blood cells are normal by analyzing a white blood cell image based on deep learning.

또한, 본 발명은 기존의 CNN(Convolutional Neural Network) 기반 분류기(classifier)를 개선하여 보다 효율적으로 백혈구의 정상 여부를 분석할 수 있는 딥러닝 기반 백혈구 분석 방법 및 장치를 제공할 수 있다.In addition, the present invention can provide a deep learning-based leukocyte analysis method and apparatus capable of more efficiently analyzing whether leukocytes are normal by improving an existing convolutional neural network (CNN)-based classifier.

도 1 내지 도 19는 본 발명을 설명하기 위한 도면이다.1 to 19 are views for explaining the present invention.

이하, 첨부 도면을 참조하여 본 발명에 대해 상세하게 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

우선, 딥 러닝 및 CNN의 기본적인 내용에 대해 설명한다.First, we explain the basics of deep learning and CNN.

딥 러닝(deep learning)은 여러 비선형 변환 기법의 조합을 통해 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업을 시도하는 기계 학습(machine learning) 알고리즘 중 한 분야이다. 이 중 이미지 분류 기법에 이용하는 딥러닝 기법은 CNN(Convolutional Neural Network) 알고리즘이다. Deep learning is a field of machine learning algorithms that attempts to summarize key contents or functions in large amounts of data or complex data through a combination of several nonlinear transformation techniques. Among them, the deep learning technique used for image classification is a Convolutional Neural Network (CNN) algorithm.

CNN 알고리즘은 어떤 이미지를 CNN에 입력시키면, 그 이미지가 종류를 분류해 내는 목적으로 사용된다. 기존의 앞먹임 신경망(feed-forward neural network)의 경우 이미지 픽셀 값들을 1차원 벡터 그대로 입력받아 어떤 종류에 속하는지 분류해낸다. 하지만 같은 고양이 이미지라도 살짝 회전되어 있거나, 크기가 다르거나, 변형이 조금만 생겨도 이미지를 분류하는데 어려움을 겪는다. 이런 경우에는 많은 훈련데이터가 필요했고, 그만큼 훈련시간도 상당히 길어진다는 단점이 있었다. When an image is input to CNN, the CNN algorithm is used for the purpose of classifying the image. In the case of an existing feed-forward neural network, it receives image pixel values as they are as a one-dimensional vector and classifies which type they belong to. However, even if the same cat image is slightly rotated, different in size, or slightly deformed, it is difficult to classify the image. In this case, a lot of training data was required, and there was a disadvantage that the training time was considerably longer.

CNN 알고리즘은 입력된 이미지로부터 이미지의 고유한 특징을 알아내는 피처 맵(feature map)을 만들어낸다. 이미지를 feature map에 통과시킨 값을 앞먹임 신경망에 입력하여 이미지가 어떤 클래스 라벨에 속하는지 분류한다. 그래서 CNN에 사용되는 앞먹임 신경망은 분류기(classifier)로 불리기도 한다. 즉, CNN 알고리즘은 특성 추출 신경망과 classifier를 연결한 구조이다.The CNN algorithm creates a feature map that finds out the unique features of the image from the input image. The value passed through the image to the feature map is input to the neural network to classify which class label the image belongs to. Therefore, the forward neural network used in CNN is also called a classifier. In other words, the CNN algorithm is a structure that connects a feature extraction neural network and a classifier.

도 5는 CNN 네트워크 안에서 어떤 일이 일어나는 것인지를 나타낸 그림이고, 도 6은 기본적인 CNN 구조를 나타낸 것이다.5 is a diagram showing what happens in a CNN network, and FIG. 6 shows a basic CNN structure.

도 5 및 도 6에 나타낸 바와 같이, CNN 알고리즘 중 특성 추출 신경망은 Convolution, activation, sub-sampling 과정을 반복함으로 저차원적인 특성부터 시작해서 고차원적인 특성을 도출해나간 후 최종 특성을 가지고 분류작업을 실시하는 것이다. As shown in Figures 5 and 6, the feature extraction neural network in the CNN algorithm repeats the convolution, activation, and sub-sampling processes, starting with the low-dimensional feature, deriving the higher-dimensional feature, and then performing the classification task with the final feature. will do

CNN 알고리즘은 이미지 픽셀값을 그대로 입력받는 것보다는 이미지를 대표할 수 있는 특성들을 도출해서 신경망에 넣어주는 것이다. 앞먹임 신경망을 이용하면 어떤 특성을 도출해야 분류에 도움이 될지는 사용자의 판단에 따라 결정된 입력 값을 받아 이용한다. 예를 들어 사과와 바나나를 분류하는 문제라면 색에 대한 특성, 길이에 대한 특성, 형태에 대한 특성들을 도출하는 식을 사용자가 만들어야 한다. CNN 알고리즘은 이러한 특성 도출과정을 데이터를 이용한 훈련 과정을 통해 자동화시킨다. The CNN algorithm derives characteristics that can represent images and puts them into the neural network rather than receiving image pixel values as they are. If the front-feed neural network is used, the input value determined by the user's judgment is used to determine which characteristics should be derived to help classification. For example, if it is a problem of classifying apples and bananas, the user must create an expression that derives the characteristics of color, length, and shape. The CNN algorithm automates this feature derivation process through a training process using data.

한편, 이미지를 분류하는 CNN 알고리즘 중 잘 알려진 네트워크 구조는 VGG16 네트워크 구조이다. 도 7은 VGGNET 구조에 대한 간단한 모식도이다.Meanwhile, a well-known network structure among CNN algorithms for classifying images is the VGG16 network structure. 7 is a simple schematic diagram of the VGGNET structure.

VGG 알고리즘은 옥스퍼드 대학의 연구팀 VGG에 의해 개발되어진 모델이다. 이 네트워크 구조는 2014년 이미지넷 이미지 인식 대회에서 준우승을 하였고, layer의 개수가 16개와 19개에 따라 이름이 달라진다. 그 중 16개의 layer를 가진 VGG 네트워크 구조는 VGG-16이라고 불린다. 이러한 VGG알고리즘의 논문은 Karen Simonyan과 Andrew Zisserman에 의해 2015 ICLR에 "Very deep convolutional networks for large-scale image recognition"에 게재되었다.The VGG algorithm is a model developed by VGG, a research team at Oxford University. This network structure took second place in the 2014 ImageNet image recognition contest, and the name changes depending on the number of layers 16 and 19. Among them, the VGG network structure with 16 layers is called VGG-16. This paper on the VGG algorithm was published in "Very deep convolutional networks for large-scale image recognition" at ICLR 2015 by Karen Simonyan and Andrew Zisserman.

VGG-16의 기본적인 네트워크 구조는 도 8과 같다. 도 8에서 표는 논문에 있는 표이고, 그림은 [224x224x3] 이미지 데이터를 이용하는 VGG-16 네트워크 구조를 나타낸다. The basic network structure of the VGG-16 is shown in FIG. 8 . In Fig. 8, the table is a table in the paper, and the figure shows the VGG-16 network structure using [224x224x3] image data.

도 8에 나타낸 바와 같이, VGG-16는 13개의 convolution layer, 3개의 fully connected layer를 가지고 있으며, 총 16개의 layer로 이루어져 있다. As shown in FIG. 8, VGG-16 has 13 convolution layers and 3 fully connected layers, and consists of a total of 16 layers.

여기서 convolution layer란 입력 이미지 데이터로부터 특징을 추출하는 역할을 한다. 이 layer는 특징을 추출하는 filter와 그 값을 비선형 값으로 바꾸어주는 활성 함수(activation function)로 이루어져 있다. 또한 입력 이미지 데이터는 일반적으로 3차원 tensor이다. 그 이유는 이미지 데이터는 한 픽셀 당 RGB 값을 가지고 있기 때문이다. 예를 들어 4x4 이미지 데이터는 [4x4x3]인 3차원 tensor이다. 이런 이미지가 convolution layer의 input으로 들어가면 도 9와 같이 연산된다.Here, the convolution layer plays a role in extracting features from the input image data. This layer consists of a filter that extracts features and an activation function that converts the value into a nonlinear value. Also, the input image data is usually a three-dimensional tensor. This is because image data has RGB values per pixel. For example, 4x4 image data is a 3D tensor of [4x4x3]. When such an image is input to the convolution layer, it is calculated as shown in FIG. 9 .

VGG-16는 convolution layer가 13개를 가지고 있으며, 이 구조의 input data의 크기는 [224x224x3]이미지이다. VGG-16 has 13 convolution layers, and the size of the input data of this structure is [224x224x3] image.

한편, ResNet은 2015년 ILSVRC에서 우승을 차지한 알고리즘이다. ResNet은 마이크로소프트에서 개발한 알고리즘이며, 북경연구소의 중국인 연구진이 개발한 알고리즘이다. ResNet 관련 논문은 "Deep Residual Learning for Image Recognition"이고, 저자는 Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jiao Sun이다. Layer의 수는 ResNet 알고리즘부터 급속도로 깊어졌다. 2014년 ILSVRC에서의 GooLgeNet이 22개의 층으로 구성되었으나 2015년 ILSVRC에서의 ResNet은 152개의 층으로 가지고 참가하였다.Meanwhile, ResNet is the algorithm that won the ILSVRC in 2015. ResNet is an algorithm developed by Microsoft, and an algorithm developed by Chinese researchers at the Beijing Research Institute. The ResNet related paper is "Deep Residual Learning for Image Recognition", and the authors are Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jiao Sun. The number of layers deepened rapidly from the ResNet algorithm. GooLgeNet in ILSVRC in 2014 consisted of 22 layers, but ResNet in ILSVRC in 2015 participated with 152 layers.

도 10을 참조하면, 네트워크가 깊어지면서 top-5 error가 낮아진 것을 확인할 수 있다. 즉, 깊어짐에 따라 성능이 좋아진 것을 확인해볼 수 있다.Referring to FIG. 10 , it can be seen that the top-5 error decreases as the network deepens. In other words, it can be seen that the performance improves as the depth increases.

또한, 도 11의 그래프들을 참조하면, 오히려 더 깊은 구조를 갖는 56층의 네트워크가 20층의 네트워크보다 더 나쁜 성능을 보임을 알 수 있다. 이 그래프들은 기존의 방식으로는 layer를 무조건 깊게 한다고 능사가 아니라는 것을 확인한 것이다. ResNet의 저자들은 residual block을 소개하고, 이 block을 사용한 ResNet 알고리즘을 소개한다.Also, referring to the graphs of FIG. 11 , it can be seen that the 56-layer network having a deeper structure shows worse performance than the 20-layer network. These graphs confirm that it is not possible to unconditionally deepen the layer in the conventional way. The authors of ResNet introduce the residual block and the ResNet algorithm using this block.

1) Residual block1) Residual block

Residual block은 ResNet 알고리즘의 핵심이다. 도 12에서 오른쪽이 Residual Block을 나타내는 데, 기존의 layer와 차이가 있다면 입력값을 출력값에 더해줄 수 있도록 지름길(shortcut)을 하나 만들어준 것 뿐이다.The residual block is the core of the ResNet algorithm. In Fig. 12, the right side shows the Residual Block, and if there is a difference from the existing layer, only one shortcut is made so that the input value can be added to the output value.

기존의 신경망은 입력값

Figure pat00001
를 타겟 값
Figure pat00002
로 사상하는 함수
Figure pat00003
을 얻는 것이 목적이었다. 그러나 ResNet은
Figure pat00004
를 최소화하는 것을 목적으로 하며, 입력 값
Figure pat00005
는 변할 수 없는 값이므로
Figure pat00006
를 0에 가깝게 만드는 것이 목적이 된다.
Figure pat00007
가 0이 되면 출력과 입력이 모두
Figure pat00008
로 같아지게 된다. ResNet에서는
Figure pat00009
이므로
Figure pat00010
을 최소로 해준다는 것은
Figure pat00011
를 최소로 해주는 것과 동일한 의미를 지닌다. 여기서
Figure pat00012
를 residual라고 부른다. 즉, residual을 최소로 만드는 것이므로 ResNet이란 이름이 붙게 되었다.Conventional neural networks are input values
Figure pat00001
is the target value
Figure pat00002
function that maps to
Figure pat00003
The purpose was to obtain However, ResNet
Figure pat00004
It aims to minimize the input value
Figure pat00005
is an immutable value, so
Figure pat00006
The goal is to make it close to 0.
Figure pat00007
When is 0, both output and input are
Figure pat00008
becomes equal to In ResNet
Figure pat00009
Because of
Figure pat00010
that minimizes
Figure pat00011
It has the same meaning as minimizing here
Figure pat00012
is called residual. In other words, since the residual is minimized, the name ResNet was given.

2) ResNet 구조2) ResNet structure

ResNet 알고리즘은 기본적으로 VGG-19 네트워크 구조를 가지고 있다. 예를 들어 ResNet 34는 VGG-19 네트워크 구조에 convolutional layer들을 추가하여 깊게 만든 후에, shortcut들을 추가하는 것이 사실상 전부인 구조이다. ResNet-34에서 shortcut들을 제외한 버전인 plain 네트워크의 구조는 도 13과 같다.The ResNet algorithm basically has a VGG-19 network structure. ResNet 34, for example, is a structure that adds convolutional layers to the VGG-19 network structure to deepen it, and then adds shortcuts. The structure of a plain network, which is a version excluding shortcuts in ResNet-34, is shown in FIG. 13 .

도 13의 그림을 보면 알 수 있듯이 ResNet-34는 처음을 제외하고는 균일하게 3X3 사이즈의 convolutional filter를 사용했다. 그리고 feature map의 크기가 반으로 줄어들 때, feature map의 깊이를 2배로 높였다. As can be seen from the figure of FIG. 13, ResNet-34 used a 3X3 convolutional filter uniformly except for the first. And when the size of the feature map is halved, the depth of the feature map is doubled.

ResNet 알고리즘 개발자들은 과연 shortcut, 즉 Residual block들이 효과가 있는지를 알기 위해 이미지넷에서 18층 및 34층의 plain 네트워크와 ResNet의 성능을 비교했다. ResNet algorithm developers compared the performance of ResNet with plain networks of layers 18 and 34 in ImageNet to see if shortcuts, that is, residual blocks, are effective.

도 14의 그래프에서 plain 네트워크는 layer가 깊어지면서 오히려 에러가 커졌지만, ResNet에서는 layer가 깊어지면서 에러도 작아졌다. 이는 shortcut을 연결해서 잔차(residual)를 최소가 되게 학습한 효과가 있다는 것을 보인다. In the graph of FIG. 14 , the plain network increased the error as the layer deepened, but the error decreased as the layer deepened in ResNet. This shows that there is an effect of learning to minimize residuals by connecting shortcuts.

도 15의 표는 18층, 34층, 50층, 101층, 152층의 ResNet 구조가 어떻게 구성되어 있는가를 잘 나타내주는 표이다. 깊은 구조일수록 성능도 좋다. 즉, 152층의 ResNet이 가장 성능이 뛰어나다. The table of FIG. 15 is a table showing well how the ResNet structure of 18 layers, 34 layers, 50 layers, 101 layers, and 152 layers is configured. The deeper the structure, the better the performance. In other words, ResNet with 152 layers has the best performance.

이러한 구성을 이용하여 백혈구(WBC)를 분류하기 위해서는 WBC 관련 dataset을 사용해야한다.In order to classify white blood cells (WBC) using this configuration, a WBC-related dataset should be used.

공개되어있는 WBC dataset은 kaggle 사이트에 있는 blood cell images와 LISC dataset을 합쳐서 전체의 dataset을 구성한다.The publicly available WBC dataset constitutes the entire dataset by combining the blood cell images and the LISC dataset on the kaggle site.

먼저, kaggle 사이트에 있는 blood cell images에는 백혈구 유형에 따라 4개의 다른 폴더로 그룹화된 4개의 다른 백혈구 유형 각각에 대해 약 100개의 이미지가 있다. 세포 종류는 Eosinophil, Lymphocyte, Monocyte과 Neutrophil이다. 이 데이터 집합에는 총 410개의 이미지를 제공한다.First, the blood cell images on the kaggle site have about 100 images for each of the 4 different leukocyte types grouped into 4 different folders according to the leukocyte type. The cell types are Eosinophil, Lymphocyte, Monocyte and Neutrophil. We provide a total of 410 images in this data set.

LISC dataset은 정상 피험자 8명의 말초혈액에서 채취하여 현미경 슬라이드 100개에서 400개의 샘플을 채취하여 만들어졌다. 현미경 슬라이드는 Gismo-Right 기법을 사용하였으며, 확대 100의 무채색 렌즈를 사용하여 착색된 말초혈액에서 가벼운 현미경(미크로스코프-아시오스코프 40)에 의해 이미지를 획득하였다. 그런 다음 이러한 이미지는 디지털 카메라(Sony Model No. SSCDC50AP)로 기록되어 BMP 형식으로 저장되었다. 이미지의 크기는 720×576픽셀이다. 모두 컬러 이미지로 이란 테헤란에 있는 이맘 호메이니 병원 혈액학과 BMT연구소에서 채취한 것이다. 그리고 이 이미지들은 혈액학자에 의해 basophil, eosinophil, lymphocyte, monocyte, neutrophil으로 총 5개로 분류되었다. 또한, 핵 및 세포질 관련 부위는 전문가에 의해 수동으로 세분화되었다.The LISC dataset was created by collecting 400 samples from 100 microscope slides from the peripheral blood of 8 normal subjects. The microscope slide used Gismo-Right technique, and images were acquired by a light microscope (Microscope-Acioscope 40) from peripheral blood stained using an achromatic lens of magnification 100. These images were then recorded with a digital camera (Sony Model No. SSCDC50AP) and saved in BMP format. The size of the image is 720×576 pixels. All color images were taken at the Imam Khomeini Hospital Hematology Department BMT Lab in Tehran, Iran. And these images were classified into five categories by hematologists: basophil, eosinophil, lymphocyte, monocyte, and neutrophil. In addition, nuclear and cytoplasmic-related regions were manually segmented by experts.

위의 2가지 dataset을 모두 이용하여 VGG-16 알고리즘 및 ResNet50 알고리즘을 학습하였고, 이 알고리즘은 basophil, eosinophil, lymphocyte, monocyte을 분류한다. 본 출원인인 딥헬릭스 주식회사는 학습된 알고리즘들을 보유하고 있다.The VGG-16 algorithm and ResNet50 algorithm were trained using both datasets above, and this algorithm classifies basophil, eosinophil, lymphocyte, and monocyte. Applicant, DeepHelix, Inc., has learned algorithms.

3) VGG-16과 ResNet50을 사용한 WBC 분류3) WBC classification using VGG-16 and ResNet50

VGG-16 알고리즘 및 ResNet50 알고리즘은 1000개의 class를 가진 dataset인 CIFAR-1000을 학습시켰기 때문에 마지막 FC-layer은 1000개의 output을 가진 구조이다. 이런 구조를 바탕으로는 WBC를 분류할 수 없다. 그 이유는 본 출원인이 분류하려는 WBC는 총 4가지 class이며, basophil, eosinophil, lymphocyte, monocyte 이렇게 총 4가지이다.Since the VGG-16 algorithm and ResNet50 algorithm trained CIFAR-1000, a dataset with 1000 classes, the last FC-layer has a structure with 1000 outputs. Based on this structure, WBC cannot be classified. The reason is that the WBC to be classified by the present applicant is a total of four classes, including basophil, eosinophil, lymphocyte, and monocyte.

도 16 및 도 17을 참조하면, 1000개를 분류하는 VGG16 네트워크 구조와 ResNet50 네트워크 구조의 output을 1000개에서 분류하기 위해 4가지의 output으로 조정을 하여 네트워크 구조를 바꾸었다.16 and 17, the network structure was changed by adjusting the output of the VGG16 network structure for classifying 1000 and the output of the ResNet50 network structure from 1000 to 4 outputs.

이러한 점을 참조하여, 본 발명에 대해 설명한다.With reference to these points, this invention is demonstrated.

실시예 1 :Example 1:

본원 발명자는 도 18에 나타낸 바와 같이 백혈구 사진에 VGG-16와 ResNet50을 탑재한 파이프라인을 활용하여 Classify(분류)하였다.The inventors of the present application classify (classify) using a pipeline in which VGG-16 and ResNet50 are mounted on a white blood cell photograph, as shown in FIG. 18 .

본원 발명자는 VGG16 네트워트 구조와 ResNet50 네트워크 구조 중 convolutional layer 다음 FC-layer를 제외한 모든 FC-layer의 weight를 학습하여 공개되지 않은 알고리즘을 보유하고 있다. 두 알고리즘 학습에는 위에 설명한 두 가지 WBC 데이터셋(BCCD & LISC dataset)을 사용하였으며, 80%의 훈련 데이터 셋, 20%의 test 데이터 셋으로 구분하여 학습을 진행하였다. 또, 기존 이미지를 회전, 뒤집은 이미지를 포함하여 학습에 적용하였다. 학습 과정에서 five-fold cross-validation 기법을 사용하여 부족한 data의 개수를 보충하였으며, 최적화된 모델을 선택할 수 있었다.The present inventor has an algorithm that is not disclosed by learning the weights of all FC-layers except for the FC-layer following the convolutional layer among the VGG16 network structure and the ResNet50 network structure. The two WBC datasets (BCCD & LISC dataset) described above were used for learning the two algorithms, and the training was carried out by dividing it into 80% training dataset and 20% test dataset. In addition, the existing images were applied to learning including rotated and inverted images. In the training process, a five-fold cross-validation technique was used to compensate for the insufficient number of data, and an optimized model could be selected.

두 알고리즘을 각각 학습한 결과, VGG-16의 epoch 수는 44, ResNet-50의 epoch 수는 47로 진행하였고, test 데이터 셋 확인한 결과로는 ResNet-50 알고리즘에서 88%를, VGG-16 알고리즘은 75%의 정확도를 확인하였다. 결과적으로 VGG-16보다 ResNet-50 알고리즘이 더 좋은 성능을 보이는 것을 알 수 있다. ResNet-50은 성능에 비해 학습하는데 많은 시간이 소요되고 있다. 이에 반해 VGG-16은 depth가 16이므로 학습시간을 줄일 수 있다. 본원 발명자는 VGG-16의 마지막 단계에 해당하는 Fully connected 단계를 획기적으로 줄여서 학습의 시간을 줄였다.As a result of learning the two algorithms, the number of epochs of VGG-16 was 44 and the number of epochs of ResNet-50 was 47. An accuracy of 75% was confirmed. As a result, it can be seen that the ResNet-50 algorithm shows better performance than VGG-16. ResNet-50 takes a lot of time to learn compared to its performance. On the other hand, since VGG-16 has a depth of 16, the learning time can be reduced. The present inventor dramatically reduced the fully connected stage corresponding to the last stage of VGG-16, thereby reducing the learning time.

실시예 2 : Example 2:

본원 발명자는 도 19에 나타낸 바와 같이 object detector의 방법을 백혈구 구분에 활용하고자 한다. 대표적인 CNN-based detector인 R-CNN[1], Fast R-CNN[2], Faster R-CNN[3], YOLO[4]의 방법을 백혈구 구분에 활용하고자 한다.The present inventor intends to utilize the method of the object detector for leukocyte classification as shown in FIG. 19 . The methods of R-CNN [1], Fast R-CNN [2], Faster R-CNN [3], and YOLO [4], which are representative CNN-based detectors, are used to classify leukocytes.

참고서:reference book:

[1] Girshick R, Donahue J, Darrell T, Malik J. Rich feature hierarchies for accurate object detection and semantic segmentation. Preprint. Available from: arXiv:1311.2524v3 Cited 7 May 2014.[1] Girshick R, Donahue J, Darrell T, Malik J. Rich feature hierarchies for accurate object detection and semantic segmentation. Preprint. Available from: arXiv:1311.2524v3 Cited 7 May 2014.

[2] Girshick R. Fast R-CNN. In: Proceedings of the IEEE International Conference on Computer Vision.2015:1440-1448.[2] Girshick R. Fast R-CNN. In: Proceedings of the IEEE International Conference on Computer Vision.2015:1440-1448.

[3] Ren S, He K, Girshick R, Sun J. Faster R-CNN: Towards real time object detection with region proposal networks. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017; 39(6):1137-1149.[3] Ren S, He K, Girshick R, Sun J. Faster R-CNN: Towards real time object detection with region proposal networks. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017; 39(6):1137-1149.

[4] Redmon J, Divvala S, Girshick R, Farhadi A. You only look once: Unified, real-time object detection.[4] Redmon J, Divvala S, Girshick R, Farhadi A. You only look once: Unified, real-time object detection.

Preprint. Available from: arXiv: 1506.02640v5 Cited 9 May 2016Preprint. Available from: arXiv: 1506.02640v5 Cited 9 May 2016

이하, 본 발명에 의한 실시예를 설명하였으나, 본 발명은 상기 실시예에 한정되는 것이 아니며 기타 다양한 수정 변형 실시가 가능함은 물론이다.Hereinafter, an embodiment according to the present invention has been described, but the present invention is not limited to the above embodiment, and other various modifications and variations are possible.

Claims (4)

딥러닝 기반 백혈구 분석 방법으로서,
백혈구 이미지를 서브 이미지로 세그멘테이션 하는 단계; 및
상기 서브 이미지를 CNN(Convolutional Neural Network) 기반 분류기(classifier)에 의해 분류하여 백혈구를 분석하는 단계
를 포함하되,
상기 CNN 기반 분류기는 VGG16 네트워트 구조와 ResNet50 네트워크 구조 중 컨볼루션 레이어(convolutional layer) 다음의 FC-layer를 제외한 모든 FC-layer의 가중치(weight)를 학습하되, five-fold cross-validation 기법을 사용하여 데이터의 개수를 보충한 것을 특징으로 하는 딥러닝 기반 백혈구 분석 방법.
A deep learning-based leukocyte analysis method, comprising:
segmenting the leukocyte image into sub-images; and
Classifying the sub-image by a Convolutional Neural Network (CNN)-based classifier to analyze leukocytes
including,
The CNN-based classifier learns the weights of all FC-layers except for the FC-layer following the convolutional layer among the VGG16 network structure and the ResNet50 network structure, but using a five-fold cross-validation technique. A deep learning-based leukocyte analysis method characterized by supplementing the number of data.
딥러닝 기반 백혈구 분석 장치로서,
백혈구 이미지를 서브 이미지로 세그멘테이션 하는 세그멘테이션부; 및
상기 서브 이미지를 CNN(Convolutional Neural Network)에 기반하여 분류하여 백혈구를 분석하는 CNN 기반 분류기
를 포함하되,
상기 CNN 기반 분류기는 VGG16 네트워트 구조와 ResNet50 네트워크 구조 중 컨볼루션 레이어(convolutional layer) 다음의 FC-layer를 제외한 모든 FC-layer의 가중치(weight)를 학습하되, five-fold cross-validation 기법을 사용하여 데이터의 개수를 보충한 것을 특징으로 하는 딥러닝 기반 백혈구 분석 장치.
As a deep learning-based leukocyte analysis device,
a segmentation unit that segments the white blood cell image into sub-images; and
A CNN-based classifier that classifies the sub-images based on a Convolutional Neural Network (CNN) and analyzes leukocytes
including,
The CNN-based classifier learns the weights of all FC-layers except for the FC-layer following the convolutional layer among the VGG16 network structure and the ResNet50 network structure, but using a five-fold cross-validation technique. Deep learning-based leukocyte analysis device, characterized in that the number of data is supplemented.
딥러닝 기반 백혈구 분석 방법으로서,
백혈구 이미지를 CNN(Convolutional Neural Network) 기반 검출기(detector)에 입력하여 백혈구를 분석하는 단계
를 포함하되,
상기 CNN 기반 검출기는, R-CNN, Fast R-CNN, Faster R-CNN, YOLO 중 어느 하나에 의한 알고리즘에 의해 동작하는 것을 특징으로 하는 딥러닝 기반 백혈구 분석 방법.
A deep learning-based leukocyte analysis method, comprising:
Step of analyzing the white blood cells by inputting the white blood cell image into a CNN (Convolutional Neural Network) based detector
including,
The CNN-based detector, R-CNN, Fast R-CNN, Faster R-CNN, Deep learning-based leukocyte analysis method, characterized in that it operates by an algorithm by any one of YOLO.
딥러닝 기반 백혈구 분석 장치로서,
백혈구 이미지를 CNN(Convolutional Neural Network)에 기반하여 백혈구를 분석하는 CNN 기반 검출기
를 포함하되,
상기 CNN 기반 검출기는, R-CNN, Fast R-CNN, Faster R-CNN, YOLO 중 어느 하나에 의한 알고리즘에 의해 동작하는 것을 특징으로 하는 딥러닝 기반 백혈구 분석 장치.
As a deep learning-based leukocyte analysis device,
CNN-based detector that analyzes leukocytes based on convolutional neural network (CNN) images of leukocytes
including,
The CNN-based detector, R-CNN, Fast R-CNN, Faster R-CNN, Deep learning-based leukocyte analysis device, characterized in that it operates by any one algorithm by YOLO.
KR1020200049746A 2020-04-24 2020-04-24 Method and apparatus for diagnosing white blood cells based on deep learning KR20210131551A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200049746A KR20210131551A (en) 2020-04-24 2020-04-24 Method and apparatus for diagnosing white blood cells based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200049746A KR20210131551A (en) 2020-04-24 2020-04-24 Method and apparatus for diagnosing white blood cells based on deep learning

Publications (1)

Publication Number Publication Date
KR20210131551A true KR20210131551A (en) 2021-11-03

Family

ID=78505234

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200049746A KR20210131551A (en) 2020-04-24 2020-04-24 Method and apparatus for diagnosing white blood cells based on deep learning

Country Status (1)

Country Link
KR (1) KR20210131551A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4358034A1 (en) * 2022-10-18 2024-04-24 F. Hoffmann-La Roche AG Clinical support system and associated computer-implemented methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4358034A1 (en) * 2022-10-18 2024-04-24 F. Hoffmann-La Roche AG Clinical support system and associated computer-implemented methods

Similar Documents

Publication Publication Date Title
Kutlu et al. White blood cells detection and classification based on regional convolutional neural networks
Khandekar et al. Automated blast cell detection for Acute Lymphoblastic Leukemia diagnosis
Bibin et al. Malaria parasite detection from peripheral blood smear images using deep belief networks
Savkare et al. Automatic detection of malaria parasites for estimating parasitemia
Rachapudi et al. Improved convolutional neural network based histopathological image classification
Di Ruberto et al. A leucocytes count system from blood smear images: Segmentation and counting of white blood cells based on learning by sampling
Makem et al. An efficient algorithm for detection of white blood cell nuclei using adaptive three stage PCA-based fusion
AU2018369869B2 (en) Classification of a population of objects by convolutional dictionary learning with class proportion data
Şengür et al. White blood cell classification based on shape and deep features
Baghel et al. WBCs-Net: Type identification of white blood cells using convolutional neural network
Alqudah et al. Lightweight Deep Learning for Malaria Parasite Detection Using Cell-Image of Blood Smear Images.
Rauf et al. Attention-guided multi-scale deep object detection framework for lymphocyte analysis in IHC histological images
Depto et al. Automatic segmentation of blood cells from microscopic slides: a comparative analysis
Akram et al. Exploiting the multiscale information fusion capabilities for aiding the leukemia diagnosis through white blood cells segmentation
BENDIABDALLAH et al. A comparison of U-net backbone architectures for the automatic white blood cells segmentation
Scheurer et al. Semantic segmentation of histopathological slides for the classification of cutaneous lymphoma and eczema
Sapna et al. Techniques for segmentation and classification of leukocytes in blood smear images-a review
Liu et al. WBCaps: a capsule architecture-based classification model designed for white blood cells identification
Połap et al. Encoder-Decoder based CNN structure for microscopic image identification
KR20210131551A (en) Method and apparatus for diagnosing white blood cells based on deep learning
Magpantay et al. A transfer learning-based deep CNN approach for classification and diagnosis of acute lymphocytic leukemia cells
Lam et al. WBC-based segmentation and classification on microscopic images: a minor improvement
CN113065430A (en) Leukocyte classification method based on fusion of deep learning features and artificial extraction features
Lu et al. Leukocyte segmentation via end-to-end learning of deep convolutional neural networks
Tayebi et al. Histogram of cell types: deep learning for automated bone marrow cytology