WO2019190358A1 - Method of automated analysis of digital fluorographic images - Google Patents
Method of automated analysis of digital fluorographic images Download PDFInfo
- Publication number
- WO2019190358A1 WO2019190358A1 PCT/RU2019/050035 RU2019050035W WO2019190358A1 WO 2019190358 A1 WO2019190358 A1 WO 2019190358A1 RU 2019050035 W RU2019050035 W RU 2019050035W WO 2019190358 A1 WO2019190358 A1 WO 2019190358A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- pathologies
- neural networks
- images
- digital
- analysis
- Prior art date
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/56—Details of data transmission or power supply, e.g. use of slip rings
- A61B6/563—Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B42/00—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means
- G03B42/02—Obtaining records using waves other than optical waves; Visualisation of such records by using optical means using X-rays
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
Definitions
- the claimed technical solution relates to the field of digital imaging in medicine and is intended for the automated analysis of fluorographic images of the chest of patients for changes or pathologies in the lung area.
- the claimed solution can be used in mobile complexes to accelerate the processing of images, in clinics for pre-processing images, ranking by importance for reading images by a doctor.
- a well-known automated system for the diagnosis of medical images using deep convolutional neural networks (US patent 9,589,374 B1, 03/07/2017).
- This invention discloses methods for applying deep convolutional neural networks (SNA) to the analysis of medical images for real-time diagnosis.
- SNA deep convolutional neural networks
- the above invention uses the analysis of CT and MRI images, which are processed using two convolutional neural networks and other software modules, to obtain a response with the likelihood of areas of interest in the patient’s images, which are necessary for further analysis by the attending physician.
- the technical problem of the claimed solution to be solved is to minimize the error of false positives of the SNA ensemble and, accordingly, increase the recognition accuracy of areas of interest when analyzing graphic information, due to the new principle of teaching the SNA ensemble and their subsequent work based on the training.
- FIG. 1 illustrates an automated fluorographic image analysis system.
- FIG. 2 illustrates an example of an input image.
- FIG. 3 illustrates a processed image using the inventive system.
- a key feature of the technical solution is the training method and structure of the convolutional neural network. To achieve a technical result, apply:
- the first network is configured to work only with hazardous areas (pathologies of the first kind), the second and third networks are configured with all areas, but with different thresholds and architecture.
- FIG. 1 shows a view of a system for automated analysis of fluorographic images.
- pos. 1 input image (digital X-ray photograph)
- pos. 2 client module for remote image analysis (work is possible without it)
- the system for the automated analysis of fluorographic images is software.
- TensorFlow and Keras machine learning libraries are used. BY can work on any modern computer with a graphics processor from Nvidia or on Jetson TX2 mobile platforms.
- FIG. 2 shows an example of an input image.
- transformations were applied to the input images.
- Segmentation maps are formed from the marked areas and fed to the training input along with the source images.
- the weights in the layers are reweighed for better convergence, based on the reliability of what doctors note (data from doctors / comparison of different markings). There is a choice of more or less reliable classes.
- the input image is fed into the trained network, and the output is three segmentation cards with weights in each pixel of the entire image, but the cards are active only in those places where pathologies are highlighted.
- FIG. 3 illustrates an example of the operation of an image processing system. Image analysis can be performed both locally and remotely.
- Client module 2 is used for remote access. Any suitable computer device (personal computer, laptop, tablet, etc.) can be used as module 2.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Primary Health Care (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
Abstract
The claimed technical solution relates to the field of digital image processing in medicine and is intended for the automated analysis of fluorographic images of the chest of patients as regards changes or pathologies present in the lung area. With the aid of a client module, at least one initial digital fluorographic image is uploaded to a set of convolutional neural networks. With the aid of the set of neural networks, one or more of the uploaded digital fluorographic images are sequentially processed to identify areas of interest according to the response of each neural network. The resultant processing during the neural network response is transmitted to a module for analyzing and combining the convolutional network output, which processes and applies the output from the set of neural networks to the initial digital image to identify pathologies if they are present.
Description
СПОСОБ АВТОМАТИЗИРОВАННОГО АНАЛИЗА ЦИФРОВЫХ ФЛЮОРОГРАФИЧЕСКИХ СНИМКОВ METHOD FOR AUTOMATED ANALYSIS OF DIGITAL FLUOROGRAPHIC IMAGES
ОБЛАСТЬ ТЕХНИКИ FIELD OF TECHNOLOGY
[1] Заявленное техническое решение относится к области обработки цифровых изображений в медицине и предназначено для автоматизированного выполнения анализа флюорографических снимков грудной клетки пациентов на предмет наличия изменений или патологий в области легких. Заявленное решение может применяться в мобильных комплексах для ускорения обработки снимков, в поликлиниках для предобработки снимков, ранжирования по степени важности для чтения снимков врачом. [1] The claimed technical solution relates to the field of digital imaging in medicine and is intended for the automated analysis of fluorographic images of the chest of patients for changes or pathologies in the lung area. The claimed solution can be used in mobile complexes to accelerate the processing of images, in clinics for pre-processing images, ranking by importance for reading images by a doctor.
УРОВЕНЬ ТЕХНИКИ BACKGROUND
[2] Известна автоматизированная система диагностики медицинских изображений с использованием глубоких сверточных нейронных сетей (патент США 9,589,374 В1, 07.03.2017). Данное изобретение раскрывает методы применения глубоких сверточных нейронных сетей (СНС) к анализу медицинских изображений для диагностики в режиме реального времени. В приведенном изобретении применяется анализ КТ и МРТ снимков, которые обрабатываются с применением двух сверточных нейронных сетей и других программных модулей, для получения отклика с вероятностью наличия областей интереса на снимках пациента, которые необходимы для дальнейшего анализа лечащим врачом. [2] A well-known automated system for the diagnosis of medical images using deep convolutional neural networks (US patent 9,589,374 B1, 03/07/2017). This invention discloses methods for applying deep convolutional neural networks (SNA) to the analysis of medical images for real-time diagnosis. The above invention uses the analysis of CT and MRI images, which are processed using two convolutional neural networks and other software modules, to obtain a response with the likelihood of areas of interest in the patient’s images, which are necessary for further analysis by the attending physician.
[3] В статье «Automatic Liver and Tumor Segmentation of CT and MRI Volumes Using Cascaded Fully Convolutional Neural Networks» (Patrick Ferdinand Christ et al. Computer Vision and Pattern Recognition (cs.CV); Artificial Intelligence (cs.AI). 20.02.2017) рассматриваются подходы к автоматизированному анализу КТ и МРТ снимков для и выявления патологий печени, при этом используется сверточная нейронная сеть U-NET типа.
[4] Известно также применение ансамбля из трех СНС для анализа медицинских изображений на предмет наличия релевантной информации, в зависимости от типа обучения СНС. В совокупности использования ансамбля из трех СНС такой подход позволяет получать более точные данные с минимизацией ошибок распознавания (Костин К.А. Магистерская диссертация «Адаптивный классификатор патологий для компьютерной диагностики заболеваний с использованием сверточных нейронных сетей по медицинским изображениям и видеоданным». 30.05.2017). [3] In the article “Automatic Liver and Tumor Segmentation of CT and MRI Volumes Using Cascaded Fully Convolutional Neural Networks” (Patrick Ferdinand Christ et al. Computer Vision and Pattern Recognition (cs.CV); Artificial Intelligence (cs.AI). 20.02 .2017), approaches to the automated analysis of CT and MRI images for detecting liver pathologies are considered, using the U-NET type convolutional neural network. [4] It is also known to use an ensemble of three SNA for the analysis of medical images for the availability of relevant information, depending on the type of training of the SNA. In the aggregate use of an ensemble of three SNAs, this approach allows one to obtain more accurate data with minimization of recognition errors (Kostin K.A. Master's thesis "Adaptive classifier of pathologies for computer diagnosis of diseases using convolutional neural networks for medical images and video data. 05/30/2017) .
[5] Данное решение является, по своей технической сути, наиболее близким аналогом. Основным недостатком данного решения является такая настройка СНС, которая не подразумевает разделения откликов по весомым коэффициентам с их последующим перевзешиванием в слоях каждой СНС и разделением обучающей выборке по типу патологий в процессе обучения ансамбля, что приводит к достаточно высокой степени появления ошибок в ходе распознавания изменений структур на флюорографических снимках. При этом данное решение, как таковое, не используется для анализа флюорографических снимков. [5] This solution is, in its technical essence, the closest analogue. The main disadvantage of this solution is the adjustment of the SNA that does not imply the separation of responses by weighted coefficients with their subsequent re-weighing in the layers of each SNA and the separation of the training sample by the type of pathologies during the ensemble training, which leads to a rather high degree of errors during recognition of structural changes in fluorographic images. Moreover, this solution, as such, is not used for the analysis of fluorographic images.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ SUMMARY OF THE INVENTION
[6] Решаемой технической проблемой заявленного решения является минимизации ошибки ложных срабатываний ансамбля СНС и, соответственно, увеличение точности распознавания областей интереса при анализе графический информации, за счет нового принципа обучения ансамбля СНС и их последующей работы на основании выполненного обучения. [6] The technical problem of the claimed solution to be solved is to minimize the error of false positives of the SNA ensemble and, accordingly, increase the recognition accuracy of areas of interest when analyzing graphic information, due to the new principle of teaching the SNA ensemble and their subsequent work based on the training.
[7] Технический результат совпадает с решаемой технической проблемой. [7] The technical result coincides with the technical problem being solved.
[8] Благодаря автоматизированной системе время анализа флюорографических снимков значительно уменьшается, при этом точность обнаружения патологий устанавливается на высоком уровне и снижается влияние человеческого фактора.
ОПИСАНИЕ ЧЕРТЕЖЕЙ [8] Thanks to the automated system, the analysis time of fluorographic images is significantly reduced, while the accuracy of detection of pathologies is set at a high level and the influence of the human factor is reduced. DESCRIPTION OF DRAWINGS
[9] Фиг. 1 иллюстрирует систему автоматизированного анализа флюорографических снимков. [9] FIG. 1 illustrates an automated fluorographic image analysis system.
[10] Фиг. 2 иллюстрирует пример входного изображения. [10] FIG. 2 illustrates an example of an input image.
[11] Фиг. 3 иллюстрирует обработанное изображение с помощью заявленной системы. [11] FIG. 3 illustrates a processed image using the inventive system.
ОСУЩЕСТВЛЕНИЕ ИЗОБРЕТЕНИЯ DETAILED DESCRIPTION OF THE INVENTION
[12] Ключевая особенность технического решения заключается в способе обучения и структуре сверточной нейронной сети. Для достижения технического результата применяется: [12] A key feature of the technical solution is the training method and structure of the convolutional neural network. To achieve a technical result, apply:
1. Размеченная специальным образом база флюорографических снимков для обучения с классификацией каждой области. 1. A specially marked base of fluorographic images for training with classification of each area.
2. Использование ансамбля из трех сверточных нейронных сетей типа U-NET с разными настройками и организацией входных данных для обучения. 2. Using an ensemble of three convolutional neural networks of the U-NET type with different settings and organization of input data for training.
3. Перевзвешивание классов в соответствии с их важностью в выборке. 3. Reweighting classes according to their importance in the sample.
4. Комбинация выходных изображений для увеличения обучающей базы. 4. The combination of output images to increase the training base.
[13] Первая сеть настроена на работу только с опасными областями (патологии 1го рода), вторая и третья сети - со всеми областями, но с разными порогами и архитектурой. [13] The first network is configured to work only with hazardous areas (pathologies of the first kind), the second and third networks are configured with all areas, but with different thresholds and architecture.
[14] Области разбиты на две группы: опасные и неопасные. Все области в группах классифицированы по типам патологий. Использовалась следующая классификация: [14] The regions are divided into two groups: hazardous and non-hazardous. All areas in the groups are classified by type of pathology. The following classification was used:
Патологии 1го рода (опасные) Pathologies of the 1st kind (dangerous)
I. Инфильтрация (фокус) - свыше 1,5 см. I. Infiltration (focus) - over 1.5 cm.
II. Полость II. Cavity
III. Пневмоторакс III. Pneumothorax
IV. Гидроторакс IV. Hydrothorax
V. Очаг V. Hearth
VI. Патологические изменения корней лёгких
VII. Уровень жидкости VI. Pathological changes in the roots of the lungs VII. Fluid level
VIII. Очаги Viii. Foci
Патологии 2го рода (неопасные) Pathologies of the 2nd kind (non-hazardous)
I. Интерстициальные изменения в лёгочной паренхиме I. Interstitial changes in the pulmonary parenchyma
II. Цирроз II. Cirrhosis
III. Фиброторакс III. Fibrothorax
IV. Изменения плевры IV. Pleural changes
V. Кальцинаты / обызвествления V. Calcifications / Calcifications
VI. Диафрагмальная грыжа VI. Diaphragmatic hernia
VII. Изменения в костях VII. Bone changes
VIII. Цепочки металлических швов Viii. Chains of metal seams
IX. Инородные тела IX. Foreign bodies
X. Участок повышенной прозрачности (не полость) X. A plot of high transparency (not a cavity)
XI. Ателектаз Xi. Atelectasis
XII. Изменения в органах средостения XII. Changes in the mediastinal organs
[15] На Фиг. 1 представлен вид системы по автоматизированному анализу флюорографических снимков. [15] In FIG. 1 shows a view of a system for automated analysis of fluorographic images.
поз. 1 - входное изображение (цифровой флюорографический снимок) поз. 2 - клиентский модуль для удаленного анализа изображений (работа возможна и без него) pos. 1 - input image (digital X-ray photograph) pos. 2 - client module for remote image analysis (work is possible without it)
поз. 3 - модуль загрузки изображений pos. 3 - image loading module
поз. 4 - сверточная нейронная сеть N°1 pos. 4 - convolutional neural network N ° 1
поз. 5 - сверточная нейронная сеть N°2 pos. 5 - convolutional neural network N ° 2
поз. 6 - сверточная нейронная сеть N°3 pos. 6 - convolutional neural network N ° 3
поз. 7 - модуль анализа и объединения результатов работы сверточных сетей, вывод изображений pos. 7 - module for analysis and integration of the results of convolutional networks, output
поз. 8 - обработанное изображение. pos. 8 - processed image.
[16] Система автоматизированного анализа флюорографических снимков представляет собой программное обеспечение. Для реализации используются библиотеки для машинного обучения TensorFlow и Keras. ПО
может работать на любом современном компьютере с графическим процессором от Nvidia или на мобильных платформах Jetson ТХ2. [16] The system for the automated analysis of fluorographic images is software. For implementation, TensorFlow and Keras machine learning libraries are used. BY can work on any modern computer with a graphics processor from Nvidia or on Jetson TX2 mobile platforms.
[17] Автоматизированный анализ флюорографических снимков выполняется с помощью трех сверточных нейронных сетей типа U-NET. Для обучения подготовлена специальная база снимков. На снимках отмечены области с изменениями структуры легких, которые свидетельствуют о наличии туберкулеза или других патологиях, как опасных для здоровья человека, так и неопасных. Области разбиты на две группы: опасные и неопасные. Все области в группах классифицированы по типам патологий. Использовалась следующая классификация: [17] Automated analysis of fluorographic images is performed using three convolutional neural networks of the U-NET type. A special database of images has been prepared for training. The images show areas with changes in the structure of the lungs, which indicate the presence of tuberculosis or other pathologies, both hazardous to human health and non-hazardous. Regions are divided into two groups: hazardous and non-hazardous. All areas in the groups are classified by type of pathology. The following classification was used:
Патологии 1го рода (опасные) Pathologies of the 1st kind (dangerous)
I. Инфильтрация (фокус) - свыше 1,5 см. I. Infiltration (focus) - over 1.5 cm.
II. Полость II. Cavity
III. Пневмоторакс III. Pneumothorax
IV. Гидроторакс IV. Hydrothorax
V. Очаг V. Hearth
VI. Патологические изменения корней лёгких VI. Pathological changes in the roots of the lungs
VII. Уровень жидкости VII. Fluid level
VIII. Очаги Viii. Foci
Патологии 2го рода (неопасные) Pathologies of the 2nd kind (non-hazardous)
I. Интерстициальные изменения в лёгочной паренхиме I. Interstitial changes in the pulmonary parenchyma
II. Цирроз II. Cirrhosis
III. Фиброторакс III. Fibrothorax
IV. Изменения плевры IV. Pleural changes
V. Кальцинаты / обызвествления V. Calcifications / Calcifications
VI. Диафрагмальная грыжа VI. Diaphragmatic hernia
VII. Изменения в костях VII. Bone changes
VIII. Цепочки металлических швов Viii. Chains of metal seams
IX. Инородные тела IX. Foreign bodies
X. Участок повышенной прозрачности (не полость)
XL Ателектаз X. A plot of high transparency (not a cavity) XL Atelectasis
XII. Изменения в органах средостения. XII. Changes in the mediastinal organs.
[18] На Фиг. 2 представлен пример входного изображения. Для увеличения базы применялись трансформации к входным изображениям. Из отмеченных областей формируются сегментационные карты и подаются на вход обучения вместе с исходными изображениями. [18] In FIG. 2 shows an example of an input image. To increase the base, transformations were applied to the input images. Segmentation maps are formed from the marked areas and fed to the training input along with the source images.
[19] На вход первой сети подаются карты только с опасными областями, на вход второй и третей, карты со всеми областями, но они имеют разные пороги и архитектуру. Архитектура: Unet (8 сфорачивающих слоёв, 8 разворачивающих слоёв, 32 стартовых фильтра, каждый слой х1.5 фильтров на свёртке, х1.5 фильтров на разворачивании. Вход - 1 канал, выход - 1 канал). Подбор пороговых значений осуществляется экспериментально по картине на выходе. [19] Cards with hazardous areas are only sent to the entrance of the first network, cards with all areas to the entrance of the second and third, but they have different thresholds and architecture. Architecture: Unet (8 folding layers, 8 expanding layers, 32 start filters, each layer x1.5 filters on a convolution, x1.5 filters on a roll-out. Input - 1 channel, output - 1 channel). The selection of threshold values is carried out experimentally from the picture at the output.
[20] В процессе обучения веса в слоях перевзвешиваются для лучшей сходимости, на основании достоверности того что отмечают врачи (данные от врачей/сравнение разных разметок). Происходит выбор более и менее достоверных классов. В обученную сеть на вход подается исходное изображение, а на выходе получается три сегментационных карты с весами в каждом пикселе всего изображения, но карты активны только в тех местах где происходит выделение патологий. [20] During the training process, the weights in the layers are reweighed for better convergence, based on the reliability of what doctors note (data from doctors / comparison of different markings). There is a choice of more or less reliable classes. The input image is fed into the trained network, and the output is three segmentation cards with weights in each pixel of the entire image, but the cards are active only in those places where pathologies are highlighted.
[21] В остальных точках вероятность изменений близка к нулю. Данные карты обрабатываются, выделяются области с повышенным откликом, характеризующие в разных слоях, патологии разного типа, их площадь и вес, результаты сравниваются с порогами, которые экспериментально подобраны и установлены для каждой сети. [21] At other points, the probability of changes is close to zero. The map data is processed, areas with increased response are distinguished, which characterize pathologies of different types in different layers, their area and weight, the results are compared with thresholds that are experimentally selected and set for each network.
[22] Обработка отклика нейронной сети происходит без нейронной сети, «вручную». Ищется общая энергетика отклика, максимальный отклик и оценивается площадь превышения пороговых значений. Все пороги и алгоритмы подобранны эмпирически.
[23] Загрузка изображения (цифрового флюорографического снимка) на обработку происходить с помощью специального программного модуля 3. Изображение поочередно обрабатывается каждой сверточной нейронной сетью, каждая из которых на основании полученного в ходе обучения опыта выдает суждение, при наличие подозрительного участка, подсвечивает его. Следующий программный модуль 7 собирает результаты работы всех трех сетей, объединяет их и накладывает на исходное изображение. Модуль вывода изображения 8 выводит обработанный снимок с выделенным патологическим участком, в случае его наличия. Отклик от сетей отображается разным цветом и разной интенсивностью в зависимости от величины отклика. [22] Processing the response of a neural network occurs without a neural network, "manually". The overall response energetics, maximum response are searched for and the area of exceeding threshold values is estimated. All thresholds and algorithms are selected empirically. [23] Downloading the image (digital X-ray photograph) for processing takes place using a special software module 3. The image is processed sequentially by each convolutional neural network, each of which, based on the experience gained during the training, gives a judgment, highlighting it if there is a suspicious area. The next program module 7 collects the results of all three networks, combines them and superimposes them on the original image. The output module image 8 displays the processed image with a selected pathological area, if any. The response from the networks is displayed in different colors and different intensities depending on the magnitude of the response.
[24] Фиг. 3 иллюстрирует пример работы системы по обработке изображений. Анализ изображений может выполняться как локально, так и дистанционно. Для дистанционного доступа используется клиентский модуль 2. В качестве модуля 2 может применяться любое пригодное компьютерное устройство (персональный компьютер, ноутбук, планшет и т.п.). [24] FIG. 3 illustrates an example of the operation of an image processing system. Image analysis can be performed both locally and remotely. Client module 2 is used for remote access. Any suitable computer device (personal computer, laptop, tablet, etc.) can be used as module 2.
[25] Данный способ возможен только при доступе к сети Интернет. В этом случае клиентская часть программы 2 удаленно подключается к серверу где развернута система автоматизированного анализа флюорографических снимков и реализует передачу изображения для анализа, а также прием и вывод результата обработки.
[25] This method is only possible when accessing the Internet. In this case, the client part of program 2 remotely connects to the server where the automated system for the analysis of fluorographic images is deployed and implements the transmission of the image for analysis, as well as the reception and output of the processing result.
Claims
ФОРМУЛА ИЗОБРЕТЕНИЯ CLAIM
Способ автоматизированного анализа цифровых флюорографических снимков с помощью автоматизированной системы анализа флюорографических снимков на предмет обнаружения патологий, содержащий этапы, на которых: A method for the automated analysis of digital fluorographic images using an automated system for the analysis of fluorographic images for the detection of pathologies, comprising stages in which:
- осуществляют с помощью клиентского модуля загрузку по меньшей мере одного исходного цифрового флюорографического снимка в ансамбль сверточных нейросетей, причем ансамбль сверточных нейросетей содержит три нейросети, в котором одна из сетей настроена на обработку и выявление опасных патологий 1го рода, а остальные сети на обработку и выявление опасных патологий 1го рода и неопасных патологий 2го рода, и каждая сеть обучена с применением уникальных для данной сети пороговых значений; - using the client module, at least one source digital digital X-ray image is loaded into the ensemble of convolutional neural networks, the ensemble of convolutional neural networks containing three neural networks, in which one of the networks is configured to process and identify dangerous pathologies of the first kind, and the remaining networks to process and identify dangerous pathologies of the 1st kind and non-dangerous pathologies of the 2nd kind, and each network is trained using threshold values unique to this network;
выполняют с помощью упомянутого ансамбля нейросетей последовательную обработку загруженного одного или более цифровых флюорографических снимков для выявления областей интереса в зависимости от отклика каждой нейросети; using the said ensemble of neural networks, sequential processing of the loaded one or more digital fluorographic images is performed to identify areas of interest depending on the response of each neural network;
- полученную обработку в ходе отклика нейросетей передают в модуль анализа и объединения результатов работы сверточных сетей, который осуществляет обработку и наложение результатов работы ансамбля нейросетей на исходный загруженный цифровой снимок для выявления патологий при их наличии.
- the received processing during the response of the neural networks is transmitted to the analysis and integration module of the convolutional network, which processes and superimposes the results of the ensemble of neural networks on the original downloaded digital image to identify pathologies if any.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
RU2018110728A RU2684181C1 (en) | 2018-03-27 | 2018-03-27 | Method for automated analysis of digital fluorography images |
RU2018110728 | 2018-03-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019190358A1 true WO2019190358A1 (en) | 2019-10-03 |
Family
ID=66089777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/RU2019/050035 WO2019190358A1 (en) | 2018-03-27 | 2019-03-27 | Method of automated analysis of digital fluorographic images |
Country Status (2)
Country | Link |
---|---|
RU (1) | RU2684181C1 (en) |
WO (1) | WO2019190358A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9589374B1 (en) * | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
US20170286769A1 (en) * | 2005-09-05 | 2017-10-05 | Alpvision S.A. | Means for using microstructure of materials surface as a unique identifier |
US20180071452A1 (en) * | 2016-09-13 | 2018-03-15 | Siemens Healthcare Gmbh | System and Method for Optimizing Contrast Imaging of a Patient |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9325243D0 (en) * | 1993-12-09 | 1994-02-09 | New Royal Holloway & Bedford | Automatic monitoring system |
WO2017055412A1 (en) * | 2015-09-30 | 2017-04-06 | Siemens Healthcare Gmbh | Method and system for classification of endoscopic images using deep decision networks |
-
2018
- 2018-03-27 RU RU2018110728A patent/RU2684181C1/en active
-
2019
- 2019-03-27 WO PCT/RU2019/050035 patent/WO2019190358A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170286769A1 (en) * | 2005-09-05 | 2017-10-05 | Alpvision S.A. | Means for using microstructure of materials surface as a unique identifier |
US9589374B1 (en) * | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
US20180071452A1 (en) * | 2016-09-13 | 2018-03-15 | Siemens Healthcare Gmbh | System and Method for Optimizing Contrast Imaging of a Patient |
Also Published As
Publication number | Publication date |
---|---|
RU2684181C1 (en) | 2019-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11151721B2 (en) | System and method for automatic detection, localization, and semantic segmentation of anatomical objects | |
CN108830155B (en) | A method for segmentation and identification of cardiac coronary arteries based on deep learning | |
CN109523535B (en) | A preprocessing method for lesion images | |
CN109124662B (en) | Rib center line detection device and method | |
CN111862044A (en) | Ultrasound image processing method, apparatus, computer equipment and storage medium | |
US20230206435A1 (en) | Artificial intelligence-based gastroscopy diagnosis supporting system and method for improving gastrointestinal disease detection rate | |
JP7638269B2 (en) | Image processing for stroke characterization | |
Kushol et al. | Contrast enhancement of medical x-ray image using morphological operators with optimal structuring element | |
Kim et al. | Asbestosis diagnosis algorithm combining the lung segmentation method and deep learning model in computed tomography image | |
Chen et al. | Detection of various dental conditions on dental panoramic radiography using Faster R-CNN | |
CN117115220B (en) | Image processing method, service providing method, device, equipment and storage medium | |
CN118037714A (en) | GPU-based medical endoscope image processing method, system and medium | |
CN117036905A (en) | Capsule endoscope image focus identification method based on HSV color space color attention | |
Monroy et al. | Automated chronic wounds medical assessment and tracking framework based on deep learning | |
Rao et al. | OTONet: deep neural network for precise otoscopy image classification | |
Velusamy et al. | Faster Region‐based Convolutional Neural Networks with You Only Look Once multi‐stage caries lesion from oral panoramic X‐ray images | |
Nonthasaen et al. | Sex estimation from Thai hand radiographs using convolutional neural networks | |
Gupta et al. | Implementation of classification system for brain cancer using backpropagation network and MRI | |
US20220277445A1 (en) | Artificial intelligence-based gastroscopic image diagnosis assisting system and method | |
TP et al. | Deepcpd: deep learning with vision transformer for colorectal polyp detection | |
Galagan et al. | Automation of polycystic ovary syndrome diagnostics through machine learning algorithms in ultrasound imaging | |
Bohlouli et al. | Enhancing breast cancer detection from thermographic images: a hybrid approach using transfer learning and generative adversarial networks | |
Sumathi et al. | Efficient two stage segmentation framework for chest x-ray images with U-Net model fusion | |
RU2684181C1 (en) | Method for automated analysis of digital fluorography images | |
CN118351061A (en) | Image processing method, device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19775352 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19775352 Country of ref document: EP Kind code of ref document: A1 |