WO2020242341A1 - Method for selecting and classifying blood cell types by means of deep convolutional neural networks - Google Patents

Method for selecting and classifying blood cell types by means of deep convolutional neural networks Download PDF

Info

Publication number
WO2020242341A1
WO2020242341A1 PCT/RU2019/000687 RU2019000687W WO2020242341A1 WO 2020242341 A1 WO2020242341 A1 WO 2020242341A1 RU 2019000687 W RU2019000687 W RU 2019000687W WO 2020242341 A1 WO2020242341 A1 WO 2020242341A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood cells
image
convolutional neural
blood
neural networks
Prior art date
Application number
PCT/RU2019/000687
Other languages
French (fr)
Russian (ru)
Inventor
Александр Михайлович ГРОМОВ
Вадим Сергеевич КОНУШИН
Original Assignee
Общество С Ограниченной Ответственностью "Лаб Кмд"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Общество С Ограниченной Ответственностью "Лаб Кмд" filed Critical Общество С Ограниченной Ответственностью "Лаб Кмд"
Publication of WO2020242341A1 publication Critical patent/WO2020242341A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts

Definitions

  • This technical solution in general, relates to the field of computing and medicine, and in particular to a method for the isolation and classification of blood cell types using deep convolutional neural networks.
  • Automated processing and analysis of medical images is a universal tool for medical diagnostics.
  • the classification of blood cells in a microscopic image is, in computer vision terms, an object recognition task.
  • Blood is a complex functional system that provides timely delivery of oxygen and nutrients to tissue cells and the removal of metabolic products from organs and interstitial spaces.
  • the blood system subtly reacts to the effects of environmental factors with a set of specific and non-specific components.
  • An important characteristic of the physiology and pathology of the blood system is the quantitative and qualitative composition of the erythrocyte population.
  • the technical problem to be solved by the claimed technical solution is the creation of a computer-implemented method for the isolation and classification of blood cell types using deep convolutional neural networks, which is characterized in an independent claim. Additional embodiments of the present invention are presented in the dependent claims.
  • the technical result consists in automatic detection and classification of types of blood cells using deep convolutional neural networks.
  • the specified technical result is achieved due to the implementation of a computer-implemented method for the isolation and classification of types of blood cells using deep convolutional neural networks, which consists in performing the stages at which:
  • Normal blood cells are isolated and cut from the image, and the border blood cells are excluded from further analysis;
  • blood cells are classified according to types, while: a set of images is obtained for each image of the cut blood cell using the augmentation method; the set of images obtained for each cell is analyzed and, according to this set, each blood cell is classified by type.
  • the detection of blood cells is determined by the coordinates of the upper left corner, the width and height of the cell.
  • normal blood cells are selected with the coordinates of the bounding rectangle.
  • a deep convolutional neural network is pre-trained based on two datasets: ImageNet 22k and Place 365.
  • a single-stage RetinaNet detector is used to detect blood cells in an image.
  • FIG. 1 illustrates a computer-implemented method for the isolation and classification of blood cell types using deep convolutional neural networks
  • FIG. 2 illustrates a block diagram of the claimed solution
  • FIG. 3 illustrates a detailed description of the detector architecture
  • FIG. 4 illustrates an example of FPN construction
  • FIG. 5 illustrates an example of generating anchors
  • FIG. 6 illustrates an example of visualization of the operation of the augmentation method
  • FIG. 7 illustrates an example of a general arrangement of a computing device. DETAILED DESCRIPTION OF THE INVENTION
  • This technical solution can be implemented on a computer in the form of an automated system (AS) or a computer-readable medium containing instructions for performing the above method.
  • AS automated system
  • the technical solution can be implemented as a distributed computer system.
  • CNN convolutional neural network
  • a deep learning system can combine learning algorithms with and without a teacher, while searching for cells and their further classification — learning with a teacher;
  • Deep neural networks are currently becoming one of the most popular machine learning methods. They show better results compared to alternative methods in areas such as speech recognition, natural language processing, computer vision, medical informatics, etc.
  • One of the reasons for the successful application of deep neural networks is that the network automatically extracts important features from the data. necessary to solve the problem.
  • Augmentation (Test time augmentation - TTL) - transformation of images: rotations, compression, adding noise, magnification, data augmentation, resizing, changing colors, changing the scale, cropping. This is a way to increase the quality of the classifier by averaging the predictions for the image and augmentations of the given image.
  • Blood cells are cells that make up the blood and are formed in the red bone marrow during hematopoiesis. There are three main types of blood cells: erythrocytes (red blood cells), leukocytes (white blood cells), and platelets (platelets).
  • Diagnostics plays an important role in medicine. A timely accurate diagnosis facilitates the choice of a treatment method and significantly increases the likelihood of a patient's recovery.
  • the use of neural networks is one of the ways to improve the efficiency of medical diagnostics.
  • the present invention is directed to providing a computer-implemented method for isolating and classifying blood cell types using deep convolutional neural networks.
  • the recognition of pathological cells can be divided into two stages - detection (detection) of cells and classification of cells.
  • the claimed computer-implemented method for isolating and classifying types of blood cells using deep convolutional neural networks (100) is implemented as follows: In step (101), an image containing blood cells is obtained.
  • step (102) blood cells are detected on the obtained image.
  • the detection of each blood cell is characterized by four numbers, namely, the coordinates of the upper left corner, the width and height of the cell. And everything is counted in pixels.
  • MobileNet-128 The basis of this network is the MobileNet-128 network (the architecture of the MobileNet-128 network is described in the article “MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications” https://arxiv.org/abs/1704.04861), since this network has a more different structure, which allows you to use it to obtain output files of the trained network of a smaller size.
  • RetinaNet is a single unified network consisting of a main neural network structure (NN) for feature extraction, and two auxiliary ones for specific tasks (an example of the RetinaNet architecture is given in the article "Focal Loss for Dense Object Detection” https://arxiv.org/abs/ 1708.02002).
  • the main neural network is responsible for calculating the feature map of objects throughout the input image and is an independent convolution network.
  • the first auxiliary NS (localization NS) performs classification at the output of the main NS; the second auxiliary NN (classification NN) performs regression convolution for the bounding box.
  • the FeaturePyramideNet (FPN) architecture is used to generate spatial feature maps.
  • FPN FeaturePyramideNet
  • Focal Loss function described in the article "Focal Loss for Dense Object Detection” (https://arxiv.org/abs/1708.02002) is used.
  • the claimed solution for the detection of blood cells uses a one-stage detector of the RetinaNet family.
  • Object detection is the output of the four coordinates of the rectangle into which the object of interest is inscribed.
  • FIG. 3 The architecture of a one-stage RetinaNet detector is shown in FIG. 3.
  • the Features Pyramid Netrowk (FPN) built on the MobileNet-128 architecture is used as a backbone.
  • the use of MobileNet-128 gave an increase in the speed of work, while allowing not to worsen the results of metrics.
  • TO the FPN output is joined by two subnets, the first responsible for the classification of anchors, the second for their regression.
  • the FPN Feature Pyramid Network
  • the pyramid consists of 5 levels - Pz, P4, Ps, Rb, P7.
  • the first 3 levels are connected to Cs, C 4 , Cs through a convolutional layer with 256 filters of size 1 X 1.
  • Cs, C4, C 5 correspond to the feature maps of the Mobilenet-128 network, after 3, 4 and 5 sub-sampling layers, each of which reduces input image by 8, 16 and 32 times.
  • Ps is obtained by applying a 256-filter convolutional layer of 1 X 1 size to C5.
  • P4 is obtained by element-wise addition of the result of applying a convolutional layer with 256 filters of size 1 X 1 to Q and the result of doubling Ps, followed by applying a convolutional layer with 256 filters of size 3 X 3 and a convolution step of 1.
  • P3 is obtained in the same way only it is connected to P4 and O (Fig. 4).
  • Pb is obtained by applying a 256-filter convolutional layer of 3 X 3 size and a convolution step of 2 to Ps.
  • P7 is obtained by applying the activation function ReLU and then applying a convolutional layer with 256 filters of size 3 X 3 and a convolution step of 2 to Pb.
  • FIG. 5 shows an example of anchor generation.
  • Each cell is a pixel in the output feature map, a predefined set of anchors is generated for each pixel. This example generates 4 anchors per pixel.
  • Anchors Since RetinaNet is a single-stage detector, unlike Faster R-CNN, where hypotheses are generated by a separate RPN neural network, each pixel of the feature map obtained after FPN (5 maps in total) is assigned a predetermined set of anchors.
  • Anchors have the size 32 2 , 64 2 , 128 2 , 256 2 , 512 2 at the levels P3, P 4 , Ps, Pb, P7, respectively.
  • Three aspect ratios of the anchors are used - ⁇ 1: 1, 1: 2, 2: 1 ⁇ , and 3 scale factors -
  • a total of 9 anchors are generated for each pixel in the feature map, the size of the anchors depends on the level of the pyramid.
  • Each anchor is associated with a vector of length 4 - a regression problem, and a vector of length K, where K is the number of classes, - a classification problem.
  • the anchor is related to the reference rectangles based on the IOU criterion (intersection to union ratio), if IOU is greater than 0.5, then it is considered that the anchor coincides with the reference rectangle, if IOU is less than 0.4, then the anchor refers to the background, otherwise the anchor is ignored.
  • Classification network This network consists of 4 consecutive convolutional layers with 256 3 X 3 filters, each layer is followed by a ReLU activation layer, the last layer is a convolutional layer with K * A number of filters, where A is the number of generated anchors per pixel, and K is the number classes.
  • border cell - a cell located on the border of the image, only half or a third of this cell can be seen. These border cells cannot be classified.
  • step (104) normal blood cells are isolated and cut from the image, and the border blood cells are excluded from further analysis. At the same time, normal blood cells are distinguished by the coordinates of the bounding rectangle.
  • step (105) blood cell types are classified.
  • a set of images is obtained for each image of the excised blood cell using the augmentation method.
  • TTA Test time augmentation approach
  • the architecture used is an averaging of the Resnet-50 and Resnet-101 architectures. It contains 71 layers, hereinafter referred to as Resnet-71.
  • Layer 2 a sequence of convolutions - 64 convolutions, 1 by 1, 64 convolutions, 3 by 3, 256 convolutions, 1 by 1, this sequence is repeated 3 times.
  • Layer 3 - sequence of convolutions - 128 convolutions, 1 by 1, 128 convolutions, 3 by 3, 512 convolutions, 1 by 1, this sequence is repeated 4 times.
  • the convolution has a size of 3 by 3, the step is 2.
  • Layer 4 - a sequence of convolutions - 256 convolutions, 1 by 1, 256 convolutions, 3 by 3, 1024 convolutions, 1 by 1, this sequence is repeated 12 times.
  • the step is 2.
  • Layer 5 a sequence of convolutions - 512 convolutions, 1 by 1, 512 convolutions, 3 by 3, 1024 convolutions, 1 by 1, this sequence is repeated 3 times.
  • the convolution has a size of 3 by 3, the step is 2.
  • Layer 7 is a fully connected layer with the number of elements equal to the number of blood cells.
  • This neural network is first trained on two sets of images - the ImageNet 22k datasets (http://image-net.org/) and the P1ace365 dataset - ImageNet 22k and P1ace365 (http://places2.csail.mit.edu/download. html).
  • the method of TTA augmentation is used - test time augmentation - the classification of not just one image, but a set of images obtained from one, by rotating, displaying and cutting out a part of the image from the original.
  • a schematic visualization of the work of which is presented in figure 6.
  • TTA augmentation method
  • a data processing device which is a computer or system (or means such as a central / graphics processor or microprocessor) that reads and executes a program written to a memory device to perform the functions of the above-described embodiment (s ) implementation, and the method shown in FIG. 1, the steps of which are performed by a computer or apparatus by, for example, reading and executing a program stored in a memory device to perform the functions of the above-described embodiment (s).
  • a program is written to a computer, for example, via a network or from a recording medium of various types serving as a storage device (for example, a computer-readable medium).
  • FIG. 7 a general diagram of a computing device (700) will now be presented with which aspects of the present invention may be implemented.
  • the device (700) contains, combined using a universal bus (710), such components as: at least one processors (701), at least at least one memory (702), data storage means (703), input / output interfaces (704), I / O means (705), networking means (706).
  • a universal bus (710) such components as: at least one processors (701), at least at least one memory (702), data storage means (703), input / output interfaces (704), I / O means (705), networking means (706).
  • the processor (701) performs all the basic computational operations necessary for the operation of the device (700) or the functionality of one or more of its components.
  • the processor (701) executes the necessary machine-readable instructions contained in the main memory (702).
  • Memory (702) can represent one or more devices of various types, such as: RAM, ROM, or their combinations and contains the necessary program logic that provides the required functionality, and an operating system that organizes the interaction interface and data processing protocols. HDD, SSD disks, flash memory, etc. can be used as ROM.
  • the data storage medium (703) can be performed in the form of HDD, SSD disks, raid array, network storage, flash memory, optical information storage devices (CD, DVD, MD, Blue-Ray disks), etc.
  • the means (703) allows performing long-term storage of various types of information, for example, the aforementioned files with user data sets, a database containing records of time intervals measured for each user, user identifiers, etc.
  • Interfaces (704) are standard means for connecting and working with a computer device, for example, USB, RS232, RJ45, LPT, COM, HDMI, PS / 2, Lightning, FireWire, etc.
  • interfaces (704) depends on the specific implementation of the device (700), which can be a personal computer, mainframe, server cluster, thin client, smartphone, laptop, be part of a bank terminal, ATM, etc.
  • a mouse should be used.
  • the hardware implementation of the mouse can be any known.
  • Connecting the mouse to the computer can be either wired, in which the mouse connecting cable is connected to the PS / 2 or USB port located on the system unit of the desktop computer, or wireless, in which the mouse exchanges data via a wireless channel, for example, a radio channel. with a base station, which, in turn, is directly connected to the system unit, for example, to one of the USB ports.
  • a base station which, in turn, is directly connected to the system unit, for example, to one of the USB ports.
  • I / O can also be used: joystick, display (touchscreen), projector, touchpad, keyboard, trackball, light pen, speakers, microphone, etc.
  • Networking tools (706) are selected from a device that provides network reception and transmission of data, for example, Ethernet card, WLAN / Wi-Fi module, Bluetooth module, BLE module, NFC module, IrDa, RFID module, GSM modem (2G, 3G, 4G, 5G), etc.
  • the means (705) provide the organization of data exchange via a wired or wireless data transmission channel, for example, WAN, PAN, LAN, Intranet, Internet, WLAN, WMAN or GSM.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

This technical solution relates in general to the field of computer science and medicine, and specifically to a method for selecting and classifying blood cell types by means of deep convolutional neural networks. The technical result consists in the automatic detection and classification of blood cell types by means of deep convolutional neural networks. A computer-implementable method for selecting and classifying blood cell types by means of deep convolutional neural networks, consisting in carrying out steps in which: an image comprising blood cells is produced; the blood cells are detected in the produced image; normal blood cells and edge blood cells are differentiated; the normal blood cells are selected and cut out of the image, while the edge blood cells are excluded from further analysis; then the blood cells are classified by type, wherein: for each image of a blood cell that has been cut out, a set of images is produced by an augmentation method; the set of images produced for each cell is analyzed, and each blood cell is classified by type based on said set.

Description

Метод для выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей Method for the isolation and classification of blood cell types using deep convolutional neural networks
ОБЛАСТЬ ТЕХНИКИ FIELD OF TECHNOLOGY
Данное техническое решение, в общем, относится к области вычислительной техники и медицины, а в частности к способу выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей. This technical solution, in general, relates to the field of computing and medicine, and in particular to a method for the isolation and classification of blood cell types using deep convolutional neural networks.
УРОВЕНЬ ТЕХНИКИ LEVEL OF TECHNOLOGY
В настоящее время интенсивно развиваются интеллектуальные системы, предназначенные для автоматической обработки медицинских изображений. Автоматизированная обработка и анализ медицинских изображений являются универсальным инструментом медицинской диагностики. At present, intelligent systems are being intensively developed for the automatic processing of medical images. Automated processing and analysis of medical images is a universal tool for medical diagnostics.
Классификация клеток крови на микроскопическом изображении представляет собой, в терминах компьютерного зрения, задачу распознавания объектов. The classification of blood cells in a microscopic image is, in computer vision terms, an object recognition task.
Кровь - сложная функциональная система, обеспечивающая своевременную доставку кислорода и питательных веществ клеткам тканей и удаление продуктов метаболизма из органов и интерстициальных пространств. Система крови тонко реагирует на воздействия факторов среды набором специфических и неспецифических компонентов. Важная характеристика физиологии и патологии системы крови - количественный и качественный состав эритроцитарной популяции. Blood is a complex functional system that provides timely delivery of oxygen and nutrients to tissue cells and the removal of metabolic products from organs and interstitial spaces. The blood system subtly reacts to the effects of environmental factors with a set of specific and non-specific components. An important characteristic of the physiology and pathology of the blood system is the quantitative and qualitative composition of the erythrocyte population.
Визуальная оценка морфологических характеристик клеток крови является неотъемлемой частью анализа крови человека. Определение количества форменных элементов крови разного типа, их соотношения является важным и наиболее частым тестом клинической лабораторной диагностики. Visual assessment of the morphological characteristics of blood cells is an integral part of the analysis of human blood. Determination of the number of blood cells of different types, their ratio is an important and most frequent test of clinical laboratory diagnostics.
Исторически идентификация и счет клеток крови производились с использованием микроскопа в «ручном» режиме, при этом исследуемый образец крови находился в статическом состоянии. В последние годы интенсивно развивается иной подход к идентификации и счету форменных элементов крови - метод цифровой микроскопии. Historically, identification and counting of blood cells were performed using a microscope in a “manual” mode, while the analyzed blood sample was in a static state. In recent years, another approach to the identification and counting of blood cells has been intensively developed - the method of digital microscopy.
В настоящее время это перспективное направление находится в стадии проработки, поиска соответствующих оптимальных алгоритмов и программ для минимизации ошибок при счете форменных элементов крови. Из уровня техники известны решения: CN103745210В «Method and device for classifying white blood cells», патентообладатель AVE SCIENCE & TECHNOLOGY CO., LTD, дата публикации 06.02.2018; US20180322327A1 «Machine learning classification and training for digital microscopy cytology images», патентообладатель TECHCYTE INC., дата публикации 08.11.2018; KR101927852B1 «Method and Apparatus for Identifying Cell Species Using 3D Refractive Index Tomography and Machine Learning Algorithm», дата публикации 13.12.2018, в которых раскрыты способы автоматической дифференцировки клеток периферической крови. At present, this promising direction is in the stage of development, the search for appropriate optimal algorithms and programs to minimize errors in counting blood cells. The following solutions are known from the prior art: CN103745210B "Method and device for classifying white blood cells", patent holder AVE SCIENCE & TECHNOLOGY CO., LTD, publication date 02/06/2018; US20180322327A1 "Machine learning classification and training for digital microscopy cytology images", patented by TECHCYTE INC., Publication date 11/08/2018; KR101927852B1 "Method and Apparatus for Identifying Cell Species Using 3D Refractive Index Tomography and Machine Learning Algorithm", published 13.12.2018, which discloses methods for automatic differentiation of peripheral blood cells.
Кроме того, на текущем уровне техники известно решение от компаний CellaVision (http://www.cellavision.com/en/) и VisionHema (http://visionhemaultimate.ru/), которое представляет собой аппарат с программным обеспечением, в который загружается кассета со слайдами, и система автоматически выполняет подсчет лейкоцитарной формулы и анализ морфологии эритроцитов. In addition, at the current level of technology, a solution is known from the companies CellaVision (http://www.cellavision.com/en/) and VisionHema (http://visionhemaultimate.ru/), which is a device with software, into which slide cassette, and the system automatically performs WBC count and erythrocyte morphology analysis.
Однако, известные из уровня техники решения, предназначенные для автоматической дифференцировки клеток крови, имеют ограниченную функциональность, а именно, в данных решениях отсутствует этап детекции клеток. Кроме того, все вышеперечисленные решения решают только задачу классификации самых простых клеток крови (5 типов). However, the solutions known from the prior art for the automatic differentiation of blood cells have limited functionality, namely, these solutions do not have a cell detection step. In addition, all of the above solutions solve only the problem of classifying the simplest blood cells (5 types).
СУЩНОСТЬ ИЗОБРЕТЕНИЯ SUMMARY OF THE INVENTION
Технической проблемой, на решение которой направлено заявленное техническое решение, является создание компьютерно-реализуемого способа выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей, который охарактеризован в независимом пункте формулы. Дополнительные варианты реализации настоящего изобретения представлены в зависимых пунктах изобретения. The technical problem to be solved by the claimed technical solution is the creation of a computer-implemented method for the isolation and classification of blood cell types using deep convolutional neural networks, which is characterized in an independent claim. Additional embodiments of the present invention are presented in the dependent claims.
Данное техническое решение направлено на устранение недостатков, присущих существующим решениям, известным из уровня техники. This technical solution is aimed at eliminating the disadvantages inherent in existing solutions known from the prior art.
Технический результат заключается в автоматическом детектировании и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей. The technical result consists in automatic detection and classification of types of blood cells using deep convolutional neural networks.
Указанный технический результат достигается благодаря осуществлению компьютерно- реализуемого способа выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей, заключающийся в выполнении этапов, на которых: The specified technical result is achieved due to the implementation of a computer-implemented method for the isolation and classification of types of blood cells using deep convolutional neural networks, which consists in performing the stages at which:
получают изображение, содержащее клетки крови; У осуществляют детектирование, на полученном изображении, клеток крови; get an image containing blood cells; At carry out detection, on the obtained image, blood cells;
У различают нормальные клетки крови и граничные; We distinguish between normal blood cells and borderline;
У выделяют нормальные клетки крови и вырезают их из изображения, а граничные клетки крови исключают из дальнейшего анализа; Normal blood cells are isolated and cut from the image, and the border blood cells are excluded from further analysis;
У после чего осуществляют классификацию клеток крови по типам, при этом: получают для каждого изображения вырезанной клетки крови с применением метода аугментации набор изображений; анализируют полученный для каждой клетки набор изображений и по данному набору классифицируют каждую клетку крови по типу. В частном варианте детектирование клеток крови определяется координатами верхнего левого угла, шириной и высотой клетки. After that, blood cells are classified according to types, while: a set of images is obtained for each image of the cut blood cell using the augmentation method; the set of images obtained for each cell is analyzed and, according to this set, each blood cell is classified by type. In a particular version, the detection of blood cells is determined by the coordinates of the upper left corner, the width and height of the cell.
В другом частном варианте выделяют нормальные клетки крови координатами ограничивающего прямоугольника. In another particular embodiment, normal blood cells are selected with the coordinates of the bounding rectangle.
В другом частном варианте предварительно обучают глубокую сверточную нейронную сеть на основе двух датасетах: ImageNet 22k и Place 365. In another private version, a deep convolutional neural network is pre-trained based on two datasets: ImageNet 22k and Place 365.
В другом частном варианте для обнаружения клеток крови на изображении применяют однокаскадный детектор семейства RetinaNet. In another particular embodiment, a single-stage RetinaNet detector is used to detect blood cells in an image.
ОПИСАНИЕ ЧЕРТЕЖЕЙ DESCRIPTION OF DRAWINGS
Реализация изобретения будет описана в дальнейшем в соответствии с прилагаемыми чертежами, которые представлены для пояснения сути изобретения и никоим образом не ограничивают область изобретения. К заявке прилагаются следующие чертежи: The implementation of the invention will be described in the following in accordance with the accompanying drawings, which are presented to clarify the essence of the invention and in no way limit the scope of the invention. The following drawings are attached to the application:
Фиг. 1 иллюстрирует компьютерно-реализуемый способ выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей; FIG. 1 illustrates a computer-implemented method for the isolation and classification of blood cell types using deep convolutional neural networks;
Фиг. 2 иллюстрирует блок-схему заявленного решения; Фиг. 3 иллюстрирует детальное описание архитектуры детектора; FIG. 2 illustrates a block diagram of the claimed solution; FIG. 3 illustrates a detailed description of the detector architecture;
Фиг. 4 иллюстрирует пример построения FPN; FIG. 4 illustrates an example of FPN construction;
Фиг. 5 иллюстрирует пример генерации якорей; FIG. 5 illustrates an example of generating anchors;
Фиг. 6 иллюстрирует пример визуализация работы метода аугментации; FIG. 6 illustrates an example of visualization of the operation of the augmentation method;
Фиг. 7 иллюстрирует пример общей схемы компьютерного устройства. ДЕТАЛЬНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ FIG. 7 illustrates an example of a general arrangement of a computing device. DETAILED DESCRIPTION OF THE INVENTION
В приведенном ниже подробном описании реализации изобретения приведены многочисленные детали реализации, призванные обеспечить отчетливое понимание настоящего изобретения. Однако, квалифицированному в предметной области специалисту, будет очевидно каким образом можно использовать настоящее изобретение, как с данными деталями реализации, так и без них. В других случаях хороню известные методы, процедуры и компоненты не были описаны подробно, чтобы не затруднять понимание особенностей настоящего изобретения. In the following detailed description of an implementation of the invention, numerous implementation details are set forth to provide a thorough understanding of the present invention. However, it will be obvious to those skilled in the art how the present invention can be used, with or without these implementation details. In other cases, known methods, procedures, and components have not been described in detail so as not to obscure the features of the present invention.
Данное техническое решение может быть реализовано на компьютере, в виде автоматизированной системы (АС) или машиночитаемого носителя, содержащего инструкции для выполнения вышеупомянутого способа. This technical solution can be implemented on a computer in the form of an automated system (AS) or a computer-readable medium containing instructions for performing the above method.
Техническое решение может быть реализовано в виде распределенной компьютерной системы. The technical solution can be implemented as a distributed computer system.
Кроме того, из приведенного изложения будет ясно, что изобретение не ограничивается приведенной реализацией. Многочисленные возможные модификации, изменения, вариации и замены, сохраняющие суть и форму настоящего изобретения, будут очевидными для квалифицированных в предметной области специалистов. In addition, it will be clear from the above description that the invention is not limited to the above implementation. Numerous possible modifications, changes, variations and substitutions, while retaining the spirit and form of the present invention, will be apparent to those skilled in the art.
Введем ряд определений и понятий, которые будут использоваться при описании осуществления заявленного решения. Let us introduce a number of definitions and concepts that will be used to describe the implementation of the declared solution.
Свёрточная нейронная сеть (convolutional neural network, CNN) — специальная архитектура искусственных нейронных сетей, нацеленная на эффективное распознавание изображений, и входящая в состав технологий глубокого обучения (deep learning). A convolutional neural network (CNN) is a special architecture of artificial neural networks aimed at efficient image recognition and is part of deep learning technologies.
Глубокое обучение характеризуется, как класс алгоритмов машинного обучения, который: Deep learning is characterized as a class of machine learning algorithms that:
• использует многослойную систему нелинейных фильтров для извлечения признаков с преобразованиями. Каждый последующий слой получает на входе выходные данные предыдущего слоя. Система глубокого обучения может сочетать алгоритмы обучения с учителем и без учителя, при этом поиск клеток и их дальнейшая классификация— обучение с учителем; • uses a multilayer system of nonlinear filters to extract features with transformations. Each subsequent layer receives the output of the previous layer as input. A deep learning system can combine learning algorithms with and without a teacher, while searching for cells and their further classification — learning with a teacher;
• обладает несколькими слоями выявления признаков или параметров представления данных. При этом признаки организованы иерархически, признаки более высокого уровня являются производными от признаков более низкого уровня; • является частью более широкой области машинного обучения изучения представлений данных; • has several layers of identifying features or parameters of data presentation. In this case, the features are organized hierarchically, the features of a higher level are derived from features of a lower level; • is part of the broader field of machine learning, the study of data representations;
• формирует в процессе обучения слои на нескольких уровнях представлений, которые соответствуют различным уровням абстракции; слои образуют иерархию понятий. • forms in the learning process layers at several levels of representations that correspond to different levels of abstraction; layers form a hierarchy of concepts.
Глубокие нейронные сети в настоящее время становятся одним из самых популярных методов машинного обучения. Они показывают лучшие результаты по сравнению с альтернативными методами в таких областях, как распознавание речи, обработка естественного языка, компьютерное зрение, медицинская информатика и др. Одна из причин успешного применения глубоких нейронных сетей заключается в том, что сеть автоматически выделяет из данных важные признаки, необходимые для решения задачи. Deep neural networks are currently becoming one of the most popular machine learning methods. They show better results compared to alternative methods in areas such as speech recognition, natural language processing, computer vision, medical informatics, etc. One of the reasons for the successful application of deep neural networks is that the network automatically extracts important features from the data. necessary to solve the problem.
Аугментация (Test time augmentation - ТТЛ) - трансформация изображений: повороты, сжатие, добавление шума, увеличение, приумножение данных, изменение размера, изменения цветовой гаммы, изменение масштаба, обрезка. Это способ увеличить качество классификатора за счёт усреднения предсказаний для изображения и аугментаций данного изображения. Augmentation (Test time augmentation - TTL) - transformation of images: rotations, compression, adding noise, magnification, data augmentation, resizing, changing colors, changing the scale, cropping. This is a way to increase the quality of the classifier by averaging the predictions for the image and augmentations of the given image.
Клетки крови, или кровяные клетки,— клетки, входящие в состав крови и образующиеся в красном костном мозге в ходе гемопоэза. Существует три основных типа клеток крови: эритроциты (красные кровяные клетки), лейкоциты (белые кровяные клетки) и тромбоциты (кровяные пластинки). Blood cells, or blood cells, are cells that make up the blood and are formed in the red bone marrow during hematopoiesis. There are three main types of blood cells: erythrocytes (red blood cells), leukocytes (white blood cells), and platelets (platelets).
Диагностика играет в медицине важнейшую роль. Своевременно поставленный точный диагноз облегчает выбор метода лечения и значительно повышает вероятность выздоровления больного. Применение нейронных сетей является одним из способов повышения эффективности медицинской диагностики. Diagnostics plays an important role in medicine. A timely accurate diagnosis facilitates the choice of a treatment method and significantly increases the likelihood of a patient's recovery. The use of neural networks is one of the ways to improve the efficiency of medical diagnostics.
Настоящее изобретение направлено на обеспечение компьютерно-реализуемого способа выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей. The present invention is directed to providing a computer-implemented method for isolating and classifying blood cell types using deep convolutional neural networks.
В заявленном решении распознавание патологических клеток можно разделить на два этапа - детекция (обнаружение) клеток и классификация клеток. In the claimed solution, the recognition of pathological cells can be divided into two stages - detection (detection) of cells and classification of cells.
Как представлено на Фиг. 1, заявленный компьютерно-реализуемый способ выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей (100) реализован следующим образом: На этапе (101) получают изображение, содержащее клетки крови. As shown in FIG. 1, the claimed computer-implemented method for isolating and classifying types of blood cells using deep convolutional neural networks (100) is implemented as follows: In step (101), an image containing blood cells is obtained.
Далее на этапе (102) осуществляют детектирование, на полученном изображении, клеток крови. При этом детектирование каждой клетки крови характеризуется четырьмя цифрами, а именно, координатами верхнего левого угла, шириной и высотой клетки. И все считается в пикселях. Next, at step (102), blood cells are detected on the obtained image. In this case, the detection of each blood cell is characterized by four numbers, namely, the coordinates of the upper left corner, the width and height of the cell. And everything is counted in pixels.
На этапе детектирования клеток крови используется архитектура глубокой сверточной нейронной сети, построенной с использованием RetinaNet (фиг. 3). At the stage of detecting blood cells, the architecture of a deep convolutional neural network built using RetinaNet is used (Fig. 3).
Основой данной сети является сеть MobileNet-128 (архитектура сети MobileNet-128 описана в статье «MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications» https://arxiv.org/abs/1704.04861), поскольку данная сеть имеет более отличающуюся структуру, что позволяет получать с помощью неё выходные файлы обученной сети меньшего размера. The basis of this network is the MobileNet-128 network (the architecture of the MobileNet-128 network is described in the article "MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications" https://arxiv.org/abs/1704.04861), since this network has a more different structure, which allows you to use it to obtain output files of the trained network of a smaller size.
RetinaNet является единой унифицированной сетью, состоящей из основной нейросетевой структуры (НС), для извлечения признаков, и двух вспомогательных для конкретных задач (пример архитектуры RetinaNet приведен в статье «Focal Loss for Dense Object Detection» https://arxiv.org/abs/1708.02002). Основная НС отвечает за вычисление карты признаков объектов по всему входному изображению и является самостоятельной сетью свертки. RetinaNet is a single unified network consisting of a main neural network structure (NN) for feature extraction, and two auxiliary ones for specific tasks (an example of the RetinaNet architecture is given in the article "Focal Loss for Dense Object Detection" https://arxiv.org/abs/ 1708.02002). The main neural network is responsible for calculating the feature map of objects throughout the input image and is an independent convolution network.
Первая вспомогательная НС (НС локализации) выполняет классификацию на выходе основной НС; вторая вспомогательная НС (НС классификации) выполняет регрессионную свертку для ограничивающего блока. The first auxiliary NS (localization NS) performs classification at the output of the main NS; the second auxiliary NN (classification NN) performs regression convolution for the bounding box.
Для формирования карт пространственных признаков используется архитектура сети признаков пирамиды (FeaturePyramideNet (FPN)). В качестве функции потерь применяется функция потери ошибок (Focal Loss), описанная в статье «Focal Loss for Dense Object Detection» https://arxiv.org/abs/1708.02002) . The FeaturePyramideNet (FPN) architecture is used to generate spatial feature maps. As a loss function, the Focal Loss function described in the article "Focal Loss for Dense Object Detection" (https://arxiv.org/abs/1708.02002) is used.
В заявленном решении для детекции клеток крови используется однокаскадный (one- stage) детектор семейства RetinaNet. Детектированием объекта является вывод четырёх координат прямоугольника, в которые вписан объект интереса. The claimed solution for the detection of blood cells uses a one-stage detector of the RetinaNet family. Object detection is the output of the four coordinates of the rectangle into which the object of interest is inscribed.
Архитектура однокаскадного (one-stage) детектора RetinaNet представлена на фиг. 3. The architecture of a one-stage RetinaNet detector is shown in FIG. 3.
В качестве основы (backbone) используются пирамида признаков (Features Pyramid Netrowk, FPN), построенная на архитектуре MobileNet-128. Использование MobileNet-128 дало прирост по скорости работы, позволив при этом не ухудшить результаты метрик. К выходу FPN присоединяется две подсети, первая отвечающая за классификацию якорей, вторая за их регрессию. The Features Pyramid Netrowk (FPN) built on the MobileNet-128 architecture is used as a backbone. The use of MobileNet-128 gave an increase in the speed of work, while allowing not to worsen the results of metrics. TO the FPN output is joined by two subnets, the first responsible for the classification of anchors, the second for their regression.
FPN FPN
FPN (сеть, состоящая из пирамиды признаков) строится поверх сверточной глубокой сети Mobilenet-128. Пирамида состоит из 5 уровней - Рз, Р4, Ps, Рб, Р7. Первые 3 уровня подсоединяются к Сз, С4, Сз через сверточный слой с 256 фильтрам размера 1 X 1. Сз, С4, С 5 соответствуют картам признаков сети Mobilenet-128, после 3, 4 и 5 слоя суб дискретизации, каждый из которых уменьшает входное изображение в 8, 16 и 32 раза. Ps получается применения сверточного слоя с 256 фильтрами размера 1 X 1 к С5. Р4 получается поэлементым сложением результата применения сверточного слоя с 256 фильтрами размера 1 X 1 к Q и результатом увеличения в два раза Ps с последующим применением сверточного слоя с 256 фильтрами размера 3 X 3 и шагом свертки 1. Рз получается аналогичным способом только соединяется он с Р4 и О (фиг.4). Рб получается применением сверточного слоя с 256 фильтрами размера 3 X 3 и шагом свертки 2 к Ps. Р7 получается применением функции активации ReLU с последующим применением сверточного слоя с 256 фильтрами размера 3 X 3 и шагом свертки 2 к Рб. The FPN (Feature Pyramid Network) is built on top of the Mobilenet-128 Convolutional Deep Network. The pyramid consists of 5 levels - Pz, P4, Ps, Rb, P7. The first 3 levels are connected to Cs, C 4 , Cs through a convolutional layer with 256 filters of size 1 X 1. Cs, C4, C 5 correspond to the feature maps of the Mobilenet-128 network, after 3, 4 and 5 sub-sampling layers, each of which reduces input image by 8, 16 and 32 times. Ps is obtained by applying a 256-filter convolutional layer of 1 X 1 size to C5. P4 is obtained by element-wise addition of the result of applying a convolutional layer with 256 filters of size 1 X 1 to Q and the result of doubling Ps, followed by applying a convolutional layer with 256 filters of size 3 X 3 and a convolution step of 1. P3 is obtained in the same way only it is connected to P4 and O (Fig. 4). Pb is obtained by applying a 256-filter convolutional layer of 3 X 3 size and a convolution step of 2 to Ps. P7 is obtained by applying the activation function ReLU and then applying a convolutional layer with 256 filters of size 3 X 3 and a convolution step of 2 to Pb.
На фигуре 5 приведен пример генерации якорей. Каждая ячейка - пиксель в выходной карте признаков, для каждого пикселя генерируется предопределенный набор якорей. В данном примере генерируется 4 якоря на один пиксель. Figure 5 shows an example of anchor generation. Each cell is a pixel in the output feature map, a predefined set of anchors is generated for each pixel. This example generates 4 anchors per pixel.
Генерация якорей. Так как RetinaNet является однокаскадным детектором в отличие от Faster R-CNN, где, гипотезы генерируются отдельной нейронной сетью RPN, каждому пикселю карты признаков, полученных после FPN (всего 5 карт), ставится в соответствие некоторое заранее предопределенное множество якорей. Якоря имеют размер 322, 642, 1282, 2562, 5122 на уровнях Рз, Р4, Ps, Рб, Р7 соответственно. Используется 3 отношения сторон якорей - {1 :1, 1 :2, 2:1 }, и 3 коэффициента масштаба - |2°, 2з, 2з|. Таким образом всего генерируется 9 якорей для каждого пикселя в карте признаков, размер якорей зависит от уровня пирамиды. Каждый якорь ассоциируется с вектором длины 4 - задача регрессии, и вектором длины К, где К количество классов, - задача классификации. Якорь соотносится с эталонными прямоугольниками на основании критерия IOU (отношение пересечения к объединению), если IOU больше чем 0.5, то считается что якорь совпал с эталонным прямоугольником, если IOU меньше 0.4, то якорь относится к фону, иначе якорь игнорируется. Сеть классификации. Данная сеть состоит из 4 последовательных сверточных слоев с 256 фильтрами размерами 3 X 3, после каждого слоя следует слой активации ReLU, последний слой является сверточным слоем с К * А количеством фильтров, где А - количество генерируемых якорей на каждый пиксель, а К - количество классов. Generation of anchors. Since RetinaNet is a single-stage detector, unlike Faster R-CNN, where hypotheses are generated by a separate RPN neural network, each pixel of the feature map obtained after FPN (5 maps in total) is assigned a predetermined set of anchors. Anchors have the size 32 2 , 64 2 , 128 2 , 256 2 , 512 2 at the levels P3, P 4 , Ps, Pb, P7, respectively. Three aspect ratios of the anchors are used - {1: 1, 1: 2, 2: 1}, and 3 scale factors - | 2 °, 2h, 2h |. Thus, a total of 9 anchors are generated for each pixel in the feature map, the size of the anchors depends on the level of the pyramid. Each anchor is associated with a vector of length 4 - a regression problem, and a vector of length K, where K is the number of classes, - a classification problem. The anchor is related to the reference rectangles based on the IOU criterion (intersection to union ratio), if IOU is greater than 0.5, then it is considered that the anchor coincides with the reference rectangle, if IOU is less than 0.4, then the anchor refers to the background, otherwise the anchor is ignored. Classification network. This network consists of 4 consecutive convolutional layers with 256 3 X 3 filters, each layer is followed by a ReLU activation layer, the last layer is a convolutional layer with K * A number of filters, where A is the number of generated anchors per pixel, and K is the number classes.
Сеть регрессии. Данная сеть состоит из 4 последовательных сверточных слоев с 256 фильтрами размерами 3 X 3, после каждого слоя следует слой активации ReLU ReLU = max(0, х) - функция активации нейрона), последний слой является сверточным слоем с 4 * А количеством фильтров, где А - количество генерируемых якорей на каждый пиксель, а коэффициент 4 означает, что для каждого якоря нужно предсказать 4 значения, координаты верхнего левого угла, ширину и высоту. Regression network. This network consists of 4 consecutive convolutional layers with 256 filters of 3 X 3 sizes, after each layer there is an activation layer ReLU ReLU = max (0, x) - neuron activation function), the last layer is a convolutional layer with 4 * A number of filters, where A is the number of generated anchors per pixel, and a factor of 4 means that for each anchor you need to predict 4 values, the coordinates of the upper-left corner, width and height.
Focal loss. Представим, что входное изображение размером 1024x1024 пикселя, тогда для него будет сгенерировано 5 карт размером 128 х 128, 64 х 64, 32 x 32, 16 x 16, 8 x 8, а для каждого пикселя полученных карт еще сгенерируется 9 якорей. 196416 якорей будет всего сгенерировано, причем якорей, соотносящихся с эталоном будет около 0.1 процента от этого числа. Для борьбы с таким дисбалансом используется focal loss: L(Pt) = -(1 - PtY x log(pt), где Focal loss. Imagine that the input image is 1024x1024 pixels, then 5 maps of 128 x 128, 64 x 64, 32 x 32, 16 x 16, 8 x 8 will be generated for it, and 9 anchors will be generated for each pixel of the resulting maps. 196,416 anchors will be generated in total, and the anchors corresponding to the standard will be about 0.1 percent of this number. To combat such an imbalance, focal loss is used: L (P t ) = - (1 - P t Y x log (p t ), where
(p, если у = 1 (p if y = 1
pt = | _ p иначе’ P веРоятность > У - принадлежность к эталонному классу p t = | _ p otherwise e 'P ve R oi nity > Y - belonging to the reference class
Таким образом, чем уверенней детектор в правильном классе, тем меньшее значение будет у ошибки. Thus, the more confident the detector is in the correct class, the lower the error value will be.
На этапе (103) различают нормальные клетки крови и граничные. Граничная клетка - клетка, находящаяся на границе изображения, может быть видна только половина или треть данной клетки. Данные граничные клетки невозможно классифицировать. At step (103), normal blood cells and boundary cells are distinguished. Border cell - a cell located on the border of the image, only half or a third of this cell can be seen. These border cells cannot be classified.
На этапе (104) выделяют нормальные клетки крови и вырезают их из изображения, а граничные клетки крови исключают из дальнейшего анализа. При этом, выделяют нормальные клетки крови координатами ограничивающего прямоугольника. In step (104), normal blood cells are isolated and cut from the image, and the border blood cells are excluded from further analysis. At the same time, normal blood cells are distinguished by the coordinates of the bounding rectangle.
На этапе (105) осуществляют классификацию клеток крови по типам. In step (105), blood cell types are classified.
Получают для каждого изображения вырезанной клетки крови с применением метода аугментации набор изображений. Использование подхода Test time augmentation или ТТА — классификация не просто одного изображения, а набора изображений, полученных из одного, путем поворотов, отображений и вырезаний части изображения, из исходного (см. фиг. 6). Анализируют каждое изображение в полученном наборе изображений для каждой клетки и по данному набору классифицируют каждую клетку крови по типу. A set of images is obtained for each image of the excised blood cell using the augmentation method. Using the Test time augmentation approach, or TTA, is the classification of not just one image, but a set of images obtained from one, by rotating, displaying and cutting out a part of the image from the original (see Fig. 6). Analyze each image in the resulting set of images for each cell and classify each blood cell by type according to this set.
Примеры типов клеток крови и костного мозга, которые могут быть проклассифицированы в заявленном решении с помощью глубоких сверточных нейронных сетей представлены ниже в таблице 1. Examples of blood and bone marrow cell types that can be classified in the claimed solution using deep convolutional neural networks are presented in Table 1 below.
Таблица 1 Table 1
Figure imgf000011_0001
Figure imgf000011_0001
В заявленном решении для классификации используют собственную сеть на основе подхода, который используется в сетях семейства ResNet - «Deep Residual Learning for Image Recognition» https://arxiv.org/abs/1512.03385. In the claimed solution for classification, they use their own network based on the approach that is used in networks of the ResNet family - "Deep Residual Learning for Image Recognition" https://arxiv.org/abs/1512.03385.
Используемая архитектура— это усреднение архитектур Resnet-50 и Resnet-101. В ней 71 слой, в дальнейшем— Resnet-71. The architecture used is an averaging of the Resnet-50 and Resnet-101 architectures. It contains 71 layers, hereinafter referred to as Resnet-71.
Архитектура: Architecture:
1 слой— 64 свертки, размеров 7 на 7, применяемые с шагом 2. BatchNormalization— слой для нормализации весов, функция активации Relu, max pooling, размером 3 на 3, применяемый с шагом 2. Max-pooling — операция для уменьшения размерности и объединения признаков. 1 layer - 64 convolutions, sizes 7 by 7, applied with a step 2. BatchNormalization - layer for normalization of weights, activation function Relu, max pooling, size 3 by 3, applied with step 2. Max-pooling is an operation for dimensionality reduction and feature combining.
2 слой— последовательность сверток— 64 свертки, размером 1 на 1, 64 свертки, размером 3 на 3, 256 сверток, размером 1 на 1, данная последовательность повторяется 3 раза. Layer 2 - a sequence of convolutions - 64 convolutions, 1 by 1, 64 convolutions, 3 by 3, 256 convolutions, 1 by 1, this sequence is repeated 3 times.
3 слой— последовательность сверток— 128 свертки, размером 1 на 1, 128 свертки, размером 3 на 3, 512 сверток, размером 1 на 1, данная последовательность повторяется 4 раза. В первой из четырех последовательностей, у свертки, с размером 3 на 3, шаг— 2. Layer 3 - sequence of convolutions - 128 convolutions, 1 by 1, 128 convolutions, 3 by 3, 512 convolutions, 1 by 1, this sequence is repeated 4 times. In the first of the four sequences, the convolution has a size of 3 by 3, the step is 2.
4 слой— последовательность сверток— 256 свертки, размером 1 на 1, 256 свертки, размером 3 на 3, 1024 сверток, размером 1 на 1, данная последовательность повторяется 12 раз. В первой из 12 последовательностей, у свертки, с размером 3 на 3, шаг— 2. Layer 4 - a sequence of convolutions - 256 convolutions, 1 by 1, 256 convolutions, 3 by 3, 1024 convolutions, 1 by 1, this sequence is repeated 12 times. In the first of 12 sequences, in a convolution, with a size of 3 by 3, the step is 2.
5 слой— последовательность сверток— 512 свертки, размером 1 на 1, 512 свертки, размером 3 на 3, 1024 сверток, размером 1 на 1, данная последовательность повторяется 3 раза. В первой из трех последовательностей, у свертки, с размером 3 на 3, шаг— 2. Layer 5 - a sequence of convolutions - 512 convolutions, 1 by 1, 512 convolutions, 3 by 3, 1024 convolutions, 1 by 1, this sequence is repeated 3 times. In the first of the three sequences, the convolution has a size of 3 by 3, the step is 2.
На слоях 2, 3, 4 и 5 перед каждой сверткой применяется BatchNormalization и функция активация Relu. On layers 2, 3, 4, and 5, BatchNormalization and Relu are applied before each convolution.
6 слой— BatchNormalization, функция активации Relu, затем применяется average pooling, операция похожа max-pooling, с размером 7 на 7. Layer 6 - BatchNormalization, Relu activation function, then average pooling is applied, the operation is similar to max-pooling, with a size of 7 by 7.
7 слой - полносвязный слой, с количеством элементов равным количеству клеток крови. Layer 7 is a fully connected layer with the number of elements equal to the number of blood cells.
Данная нейронная сеть сначала обучается на двух наборах изображений - наборы данных ImageNet 22k (http://image-net.org/) и набор данных Р1асе365 - ImageNet 22k и Р1асе365 (http://places2.csail.mit.edu/download.html). This neural network is first trained on two sets of images - the ImageNet 22k datasets (http://image-net.org/) and the P1ace365 dataset - ImageNet 22k and P1ace365 (http://places2.csail.mit.edu/download. html).
Также для улучшения точности работы классификатора сети используется метод аугментации ТТА — test time augmentation - классификация не просто одного изображения, а набора изображений, полученных из одного, путем поворотов, отображений и вырезаний части изображения, из исходного. Схематичная визуализация работы которого представлена на фигуре 6. Also, to improve the accuracy of the network classifier, the method of TTA augmentation is used - test time augmentation - the classification of not just one image, but a set of images obtained from one, by rotating, displaying and cutting out a part of the image from the original. A schematic visualization of the work of which is presented in figure 6.
Детальное описание работы метода аугментации (ТТА). A detailed description of the operation of the augmentation method (TTA).
К каждой клетки крови применяется следующий набор преобразований— 23 поворота с шагом 15 градусов (15 * 23 = 345, 24 поворот вернет клетку в исходное состояние), для всех 24 изображений делается отображение, а также делается небольшое вырезание изображения - случайным образом выбирается новая высота и ширина изображения и изображение такого размера вырезается из оригинального изображения. Новая высота и новая ширина составляют 95-100 процентов оригинальной высоты и ширины, точное значение процента выбирается случайным образом. Таким образом, из изображения одной клетки получается - 47 изображений - 23 поворота * 2 (так как применяется отображение) + 1 (отображение исходного изображения), итого выполняется классификация 48 изображений, относящихся к одной клетки. После этого результаты классификации аккумулируются и на основе среднего гармонического выбирается итоговый ответ. The following set of transformations is applied to each blood cell - 23 rotations with a step of 15 degrees (15 * 23 = 345, 24 rotations will return the cell to its original state), for all 24 images, a mapping is done, and a small cut is also done images - a new image height and width is randomly selected and an image of that size is cropped from the original image. The new height and new width are 95-100 percent of the original height and width, and the exact percentage is randomly selected. Thus, from the image of one cell, 47 images are obtained - 23 rotations * 2 (since the mapping is applied) + 1 (the original image is displayed), in total 48 images belonging to one cell are classified. After that, the results of the classification are accumulated and the final answer is selected on the basis of the harmonic mean.
Быстрая и точная диагностика обеспечивает более быстрое и эффективное лечение. Хорошо известно, что в этой области не так много квалифицированных специалистов. Fast and accurate diagnosis provides faster and more effective treatment. It is well known that there are not many qualified specialists in this field.
Фотографии крови, которые должны быть отправлены в медицинские организации, где работают эксперты. Все это требует времени и увеличивает нагрузку на экспертов. Возможность получения предварительного анализа с помощью нейронных сетей позволяют сократить время и работу. Мнение экспертов будет необходимо только в сложных и неопределенных случаях. Photographs of blood to be sent to medical organizations where experts work. All this takes time and increases the workload for experts. The ability to get preliminary analysis using neural networks can reduce time and work. An expert opinion will be needed only in difficult and uncertain cases.
В результате все это повысит качество медицинской помощи, займет меньше времени у врачей и даст больше информации для решения о лечении. As a result, all this will improve the quality of medical care, take less time from doctors and provide more information for decisions about treatment.
Аспекты настоящего изобретения могут быть также реализованы с помощью устройства обработки данных, являющимся вычислительной машиной или системой (или таких средств, как центральный/графический процессор или микропроцессор), которая считывает и исполняет программу, записанную на запоминающее устройство, чтобы выполнять функции вышеописанного варианта(ов) осуществления, и способа, показанного на Фиг. 1, этапы которого выполняются вычислительной машиной или устройством путем, например, считывания и исполнения программы, записанной на запоминающем устройстве, чтобы исполнять функции вышеописанного варианта(ов) осуществления. С этой целью программа записывается на вычислительную машину, например, через сеть или со среды для записи различных типов, служащей в качестве запоминающего устройства (например, машиночитаемой среды). Aspects of the present invention may also be implemented with a data processing device, which is a computer or system (or means such as a central / graphics processor or microprocessor) that reads and executes a program written to a memory device to perform the functions of the above-described embodiment (s ) implementation, and the method shown in FIG. 1, the steps of which are performed by a computer or apparatus by, for example, reading and executing a program stored in a memory device to perform the functions of the above-described embodiment (s). To this end, a program is written to a computer, for example, via a network or from a recording medium of various types serving as a storage device (for example, a computer-readable medium).
На Фиг. 7 далее будет представлена общая схема компьютерного устройства (700), с помощью которого могут быть реализованы аспекты настоящего изобретения. FIG. 7, a general diagram of a computing device (700) will now be presented with which aspects of the present invention may be implemented.
В общем случае устройство (700) содержит объединенные с помощью универсальной шины (710) такие компоненты, как: по меньшей мере один процессоров (701), по меньшей мере одну память (702), средство хранения данных (703), интерфейсы ввода/вывода (704), средство В/В (705), средства сетевого взаимодействия (706). In the general case, the device (700) contains, combined using a universal bus (710), such components as: at least one processors (701), at least at least one memory (702), data storage means (703), input / output interfaces (704), I / O means (705), networking means (706).
Процессор (701) выполняет все основные вычислительные операции, необходимые для функционирования устройства (700) или функциональности одного или более его компонентов. Процессор (701) исполняет необходимые машиночитаемые команды, содержащиеся в оперативной памяти (702). The processor (701) performs all the basic computational operations necessary for the operation of the device (700) or the functionality of one or more of its components. The processor (701) executes the necessary machine-readable instructions contained in the main memory (702).
Память (702), как правило, может представлять одно или более устройств различного типа, таких как: ОЗУ, ПЗУ или их сочетания и одержит необходимую программную логику, обеспечивающую требуемый функционал, и операционную систему, организующую интерфейс взаимодействия и протоколы обработки данных. В качестве ПЗУ может использоваться HDD, SSD диски, флэш-память и т.п. Memory (702), as a rule, can represent one or more devices of various types, such as: RAM, ROM, or their combinations and contains the necessary program logic that provides the required functionality, and an operating system that organizes the interaction interface and data processing protocols. HDD, SSD disks, flash memory, etc. can be used as ROM.
Средство хранения данных (703) может выполняться в виде HDD, SSD дисков, рейд массива, сетевого хранилища, флэш-памяти, оптических накопителей информации (CD, DVD, MD, Blue-Ray дисков) и т.п. Средство (703) позволяет выполнять долгосрочное хранение различного вида информации, например, вышеупомянутых файлов с наборами данных пользователей, базы данных, содержащих записи измеренных для каждого пользователя временных интервалов, идентификаторов пользователей и т.п. The data storage medium (703) can be performed in the form of HDD, SSD disks, raid array, network storage, flash memory, optical information storage devices (CD, DVD, MD, Blue-Ray disks), etc. The means (703) allows performing long-term storage of various types of information, for example, the aforementioned files with user data sets, a database containing records of time intervals measured for each user, user identifiers, etc.
Интерфейсы (704) представляют собой стандартные средства для подключения и работы с компьютерным устройством, например, USB, RS232, RJ45, LPT, COM, HDMI, PS/2, Lightning, FireWire и т.п. Interfaces (704) are standard means for connecting and working with a computer device, for example, USB, RS232, RJ45, LPT, COM, HDMI, PS / 2, Lightning, FireWire, etc.
Выбор интерфейсов (704) зависит от конкретного исполнения устройства (700), которое может представлять собой персональный компьютер, мейнфрейм, серверный кластер, тонкий клиент, смартфон, ноутбук, быть частью банковского терминала, банкомата и т.п. The choice of interfaces (704) depends on the specific implementation of the device (700), which can be a personal computer, mainframe, server cluster, thin client, smartphone, laptop, be part of a bank terminal, ATM, etc.
В качестве средств В/В данных (705) в любом воплощении системы, реализующей описываемый способ, должна использоваться мышь. Аппаратное исполнение мыши может быть любым известным. Подключение мыши к компьютеру может быть, как проводным, при котором соединительный кабель мыши подключен к порту PS/2 или USB, расположенному на системном блоке настольного компьютера, так и беспроводным, при котором мышь осуществляет обмен данными по каналу беспроводной связи, например, радиоканалу, с базовой станцией, которая, в свою очередь, непосредственно подключена к системному блоку, например, к одному из USB-портов. Помимо мыши, в составе средств В/В данных также может использоваться: джойстик, дисплей (сенсорный дисплей), проектор, тачпад, клавиатура, трекбол, световое перо, динамики, микрофон и т.п. As means of I / O data (705) in any embodiment of a system that implements the described method, a mouse should be used. The hardware implementation of the mouse can be any known. Connecting the mouse to the computer can be either wired, in which the mouse connecting cable is connected to the PS / 2 or USB port located on the system unit of the desktop computer, or wireless, in which the mouse exchanges data via a wireless channel, for example, a radio channel. with a base station, which, in turn, is directly connected to the system unit, for example, to one of the USB ports. In addition to the mouse, as part of the funds Data I / O can also be used: joystick, display (touchscreen), projector, touchpad, keyboard, trackball, light pen, speakers, microphone, etc.
Средства сетевого взаимодействия (706) выбираются из устройства, обеспечивающий сетевой прием и передачу данных, например, Ethernet карту, WLAN/Wi-Fi модуль, Bluetooth модуль, BLE модуль, NFC модуль, IrDa, RFID модуль, GSM модем (2G, 3G, 4G, 5G) и т.п. С помощью средств (705) обеспечивается организация обмена данными по проводному или беспроводному каналу передачи данных, например, WAN, PAN, ЛВС (LAN), Интранет, Интернет, WLAN, WMAN или GSM. Networking tools (706) are selected from a device that provides network reception and transmission of data, for example, Ethernet card, WLAN / Wi-Fi module, Bluetooth module, BLE module, NFC module, IrDa, RFID module, GSM modem (2G, 3G, 4G, 5G), etc. The means (705) provide the organization of data exchange via a wired or wireless data transmission channel, for example, WAN, PAN, LAN, Intranet, Internet, WLAN, WMAN or GSM.
В настоящих материалах заявки было представлено предпочтительное раскрытие осуществление заявленного технического решения, которое не должно использоваться как ограничивающее иные, частные воплощения его реализации, которые не выходят за рамки испрашиваемого объема правовой охраны и являются очевидными для специалистов в соответствующей области техники. In the present application materials, the preferred disclosure of the implementation of the claimed technical solution was presented, which should not be used as limiting other, particular embodiments of its implementation, which do not go beyond the scope of the claimed scope of legal protection and are obvious to specialists in the relevant field of technology.

Claims

Формула Formula
1. Компьютерно-реализуемый способ выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей, заключающийся в выполнении этапов, на которых: получают изображение, содержащее клетки крови; S осуществляют детектирование, на полученном изображении, клеток крови; различают нормальные клетки крови и граничные; выделяют нормальные клетки крови и вырезают их из изображения, а граничные клетки крови исключают из дальнейшего анализа; после чего осуществляют классификацию клеток крови по типам, при этом: получают для каждого изображения вырезанной клетки крови с применением метода аугментации набор изображений; анализируют полученный для каждой клетки набор изображений и по данному набору классифицируют каждую клетку крови по типу. 1. A computer-implemented method for isolating and classifying types of blood cells using deep convolutional neural networks, which consists in performing the stages at which: get an image containing blood cells; S carry out detection, on the obtained image, blood cells; distinguish between normal blood cells and border; normal blood cells are isolated and cut out from the image, and border blood cells are excluded from further analysis; after that, the blood cells are classified by types, while: a set of images is obtained for each image of the cut blood cell using the augmentation method; the set of images obtained for each cell is analyzed and, according to this set, each blood cell is classified by type.
2. Способ по п.1, характеризующийся тем, что детектирование клеток крови определяется координатами верхнего левого угла, шириной и высотой клетки. 2. The method according to claim 1, characterized in that the detection of blood cells is determined by the coordinates of the upper left corner, the width and height of the cell.
3. Способ по п.1, характеризующийся тем, что выделяют нормальные клетки крови координатами ограничивающего прямоугольника. 3. The method according to claim 1, characterized in that normal blood cells are isolated by the coordinates of the bounding box.
4. Способ по п.1, характеризующийся тем, что предварительно обучают глубокую сверточную нейронную сеть на основе двух датасетах: ImageNet 22k и Place 365. 4. The method according to claim 1, characterized in that a deep convolutional neural network is pre-trained based on two datasets: ImageNet 22k and Place 365.
5. Способ по п.1, характеризующийся тем, что для обнаружения клеток крови на изображении применяют однокаскадный детектор семейства RetinaNet. 5. The method according to claim 1, characterized in that a single-stage detector of the RetinaNet family is used to detect blood cells in the image.
PCT/RU2019/000687 2019-05-27 2019-09-27 Method for selecting and classifying blood cell types by means of deep convolutional neural networks WO2020242341A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
RU2019116212A RU2732895C1 (en) 2019-05-27 2019-05-27 Method for isolating and classifying blood cell types using deep convolution neural networks
RU2019116212 2019-05-27

Publications (1)

Publication Number Publication Date
WO2020242341A1 true WO2020242341A1 (en) 2020-12-03

Family

ID=72922323

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/RU2019/000687 WO2020242341A1 (en) 2019-05-27 2019-09-27 Method for selecting and classifying blood cell types by means of deep convolutional neural networks

Country Status (2)

Country Link
RU (1) RU2732895C1 (en)
WO (1) WO2020242341A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508951A (en) * 2021-02-03 2021-03-16 中国科学院自动化研究所 Methods and products for determining endoplasmic reticulum phenotype and methods for drug screening
CN112597852A (en) * 2020-12-15 2021-04-02 深圳大学 Cell sorting method, cell sorting device, electronic apparatus, and storage medium
CN114742803A (en) * 2022-04-20 2022-07-12 大连工业大学 A Platelet Aggregation Detection Method Combining Deep Learning and Digital Image Processing Algorithms
WO2023284117A1 (en) * 2021-07-12 2023-01-19 武汉大学 Blood testing instrument, and blood testing and recognition system and method
RU2814825C1 (en) * 2023-04-03 2024-03-05 Мария Вячеславовна Кузнецова Method of determining adhesive activity of lactobacilli and/or bifidobacteria of probiotic or autoprobiotic preparation and method of individual selection of these preparations

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020639A (en) * 2012-11-27 2013-04-03 河海大学 Method for automatically identifying and counting white blood cells
US20160350914A1 (en) * 2015-05-28 2016-12-01 Tokitae Llc Image analysis systems and related methods
CN107423815A (en) * 2017-08-07 2017-12-01 北京工业大学 A kind of computer based low quality classification chart is as data cleaning method
CN109255364A (en) * 2018-07-12 2019-01-22 杭州电子科技大学 A kind of scene recognition method generating confrontation network based on depth convolution
CN109554432A (en) * 2018-11-30 2019-04-02 苏州深析智能科技有限公司 A kind of cell type analysis method, analytical equipment and electronic equipment
US20190114771A1 (en) * 2017-10-12 2019-04-18 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for acquiring information

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102884550B (en) * 2010-05-06 2016-03-16 皇家飞利浦电子股份有限公司 For the registration of image data of dynamic Perfusion CT
KR101995764B1 (en) * 2017-08-25 2019-07-03 (주)뉴옵틱스 Cytometry apparatus and method
US10460440B2 (en) * 2017-10-24 2019-10-29 General Electric Company Deep convolutional neural network with self-transfer learning
CN109360198A (en) * 2018-10-08 2019-02-19 北京羽医甘蓝信息技术有限公司 Bone marrwo cell sorting method and sorter based on deep learning

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020639A (en) * 2012-11-27 2013-04-03 河海大学 Method for automatically identifying and counting white blood cells
US20160350914A1 (en) * 2015-05-28 2016-12-01 Tokitae Llc Image analysis systems and related methods
CN107423815A (en) * 2017-08-07 2017-12-01 北京工业大学 A kind of computer based low quality classification chart is as data cleaning method
US20190114771A1 (en) * 2017-10-12 2019-04-18 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for acquiring information
CN109255364A (en) * 2018-07-12 2019-01-22 杭州电子科技大学 A kind of scene recognition method generating confrontation network based on depth convolution
CN109554432A (en) * 2018-11-30 2019-04-02 苏州深析智能科技有限公司 A kind of cell type analysis method, analytical equipment and electronic equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597852A (en) * 2020-12-15 2021-04-02 深圳大学 Cell sorting method, cell sorting device, electronic apparatus, and storage medium
CN112597852B (en) * 2020-12-15 2024-05-24 深圳大学 Cell classification method, cell classification device, electronic device, and storage medium
CN112508951A (en) * 2021-02-03 2021-03-16 中国科学院自动化研究所 Methods and products for determining endoplasmic reticulum phenotype and methods for drug screening
WO2023284117A1 (en) * 2021-07-12 2023-01-19 武汉大学 Blood testing instrument, and blood testing and recognition system and method
CN114742803A (en) * 2022-04-20 2022-07-12 大连工业大学 A Platelet Aggregation Detection Method Combining Deep Learning and Digital Image Processing Algorithms
RU2814825C1 (en) * 2023-04-03 2024-03-05 Мария Вячеславовна Кузнецова Method of determining adhesive activity of lactobacilli and/or bifidobacteria of probiotic or autoprobiotic preparation and method of individual selection of these preparations

Also Published As

Publication number Publication date
RU2732895C1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
JP7583041B2 (en) A multi-instance learner for tissue image classification
US11901077B2 (en) Multiple instance learner for prognostic tissue pattern identification
US11756318B2 (en) Convolutional neural networks for locating objects of interest in images of biological samples
US12228723B2 (en) Point-of-care-computational microscopy based-systems and methods
US20200143542A1 (en) Image processing systems and methods for displaying multiple images of a biological specimen
RU2732895C1 (en) Method for isolating and classifying blood cell types using deep convolution neural networks
AU2014237346B2 (en) System and method for reviewing and analyzing cytological specimens
CN116580394A (en) A Leukocyte Detection Method Based on Multiscale Fusion and Deformable Self-Attention
JP7705405B2 (en) Systematic characterization of objects in biological samples
Reddy Deep learning-based detection of hair and scalp diseases using CNN and image processing
CN117859123A (en) Full slide image search
Foucart et al. Artifact identification in digital pathology from weak and noisy supervision with deep residual networks
Wu et al. An improved Yolov5s based on transformer backbone network for detection and classification of bronchoalveolar lavage cells
CN113822846A (en) Method, apparatus, device and medium for determining region of interest in medical image
Kalbhor et al. DeepCerviCancer-deep learning-based cervical image classification using colposcopy and cytology images
Barua et al. A deep learning approach for automated classification of Corneal Ulcers
Aof et al. An Innovative Leukemia Detection System using Blood Samples via a Microscopic Accessory
Şahbaz Tumor detection in breast cancer histopathological images using convolutional neural networks
Kulkarni et al. Bridging Traditional and Modern AI Techniques for Breast Cancer Histopathology
Khan et al. A Cloud Edge Collaboration of Food Recognition Using Deep Neural Networks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19930268

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19930268

Country of ref document: EP

Kind code of ref document: A1