KR101900200B1 - Method of tuberculosis diagnosis based on a deep-learning - Google Patents

Method of tuberculosis diagnosis based on a deep-learning Download PDF

Info

Publication number
KR101900200B1
KR101900200B1 KR1020170109766A KR20170109766A KR101900200B1 KR 101900200 B1 KR101900200 B1 KR 101900200B1 KR 1020170109766 A KR1020170109766 A KR 1020170109766A KR 20170109766 A KR20170109766 A KR 20170109766A KR 101900200 B1 KR101900200 B1 KR 101900200B1
Authority
KR
South Korea
Prior art keywords
image
tuberculosis
photographing
learning
slide
Prior art date
Application number
KR1020170109766A
Other languages
Korean (ko)
Inventor
최명진
김태영
김문기
박현우
박준호
신소연
정해영
Original Assignee
(주)인스페이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인스페이스 filed Critical (주)인스페이스
Priority to KR1020170109766A priority Critical patent/KR101900200B1/en
Priority to CN201880001432.0A priority patent/CN109997199A/en
Priority to PCT/KR2018/010053 priority patent/WO2019045480A1/en
Application granted granted Critical
Publication of KR101900200B1 publication Critical patent/KR101900200B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

A tuberculosis diagnosis method based on deep learning according to the present invention includes: a step of acquiring an image from a sputum slide manufactured for training using an image capturing apparatus; a learning step of learning a deep learning model to be used for tuberculosis determination with the acquired image; a verification step of verifying the accuracy of the deep learning model learned through the learning step; a step of determining whether a tuberculosis diagnosis is negative or positive by using a weight value of the deep learning model learned through the learning step and the verification step; and a display step of providing a diagnosis result to a user by displaying the diagnosis result from the tuberculosis determining step on a monitor. Accordingly, the present invention can quickly and conveniently diagnose tuberculosis germs.

Description

딥러닝 기반 결핵 검사 방법{METHOD OF TUBERCULOSIS DIAGNOSIS BASED ON A DEEP-LEARNING}[0001] METHOD OF TUBERCULOSIS DIAGNOSIS BASED ON A DEEP-LEARNING [0002]

본 발명은 결핵 검사 방법에 관한 것으로, 더욱 상세하게는 객담도말 결핵 검사의 자동화를 통해 검사 오차를 줄일 수 있는 딥러닝 기반 결핵 검사 방법에 관한 것이다.The present invention relates to a tuberculosis testing method, and more particularly, to a deep running-based tuberculosis testing method capable of reducing an inspection error through automation of a tuberculosis test.

생활 및 의료수준이 향상되고 있음에도 불구하고 결핵 환자 수가 지속적으로 증가하는 추세이며, 국제보건기구(WHO) 자료에 의하면 2013년 한 해 동안 발생한 결핵 감염 인구는 9백만 명으로, 이 중 150만 명이 사망하고 있으며, 국내 역시 결핵환자가 다시 증가하고 있는 경향을 보이고 있으며 OECD국가 중 1위를 기록하고 있다.The number of tuberculosis patients is growing steadily, despite the improvement in living and medical status. According to the WHO data, the number of tuberculosis infected during the year of 2013 is 9 million, of which 1.5 million died The number of patients with tuberculosis is increasing again in Korea, and it is the number one in OECD countries.

결핵의 진단 방법으로는 객담 도말 검사, 객담 배양 검사, 약제 감수성 검사, 흉부방사선 촬영 및 투베르쿨린 피부반응검사(Tuberculin Skin Test, TST) 등이 있다.Methods for diagnosis of tuberculosis include sputum smear test, sputum culture test, drug susceptibility test, chest X-ray and tuberculin skin test (TST).

그 중 객담 도말 검사와 배양이 가장 널리 이용되고 있으며, 특히 일선 보건소에서는 객담 도말 검사가 필수적으로 수행되고 있어 매우 중요한 검사로 평가되고 있다.Among them, sputum smear test and cultivation are most widely used. Especially, a sputum smear test is essential in a public health center and it is evaluated as a very important test.

객담 도말 검사는 결핵균의 배출 여부를 확인하기 위해 환자의 가래(객담)를 슬라이드에 얇게 펴서 바른 후 염색을 하여 현미경으로 결핵균의 존재 여부를 확인하는 검사방법이다.Sputum smear test is a test method to confirm the presence of Mycobacterium tuberculosis by microscopic examination of the patient's sputum (thin sputum) by thinly spreading it on the slide to confirm whether or not the tuberculosis is released.

이러한 객담 도말 검사는 비교적 단순한 실험 조작과 빠른 시간에 결과를 판정할 수 있어 보편적으로 사용되지만, 검사자의 숙련도에 따라 검사 결과의 정확도가 달라질 수 있기 때문에 결핵의 유무 및 치료 경과를 예측하는데 어려움을 겪고 있다.Although this sputum smear test is widely used because it can determine the results with relatively simple experimental manipulation and quick time, accuracy of the test results may vary according to the skill of the tester, so that it is difficult to predict the presence of tuberculosis and the progress of treatment have.

또한 일반적으로 객담도말 검사를 위해 사용되는 현미경의 경우 검사를 할 때마다 검사자가 슬라이드를 1 개씩 재물대에 올려놓고, 슬라이드의 위치와 초점을 바꿔가며 육안으로 일일이 결핵균 여부를 확인하고, 검사가 끝난 후 다른 슬라이드로 교체해야 하는 번거로움이 있다.In addition, in the case of a microscope used for sputum smear test in general, the inspector puts one slide on the floor at each inspection, changes the position and focus of the slide, There is a need to replace the slide with another slide.

이를 개선하기 위해 영상처리를 이용한 특징 추출 및 추출한 특징을 학습 시키는 기계학습을 이용한 자동화 방안에 대한 연구가 진행되었으나 실제 검사를 대체 할 만큼의 민감도, 특이도를 보이지 못하여 실제 제품 또는 서비스에 적용되기에는 어려움이 있다.In order to improve this, studies on automation method using machine learning which learns feature extraction and extracted features using image processing have been carried out. However, since it does not show enough sensitivity and specificity to replace actual inspection, There is a difficulty.

또한 자동 검사를 위한 촬영 장비의 경우 슬라이드의 놓여진 자세에 따라 혹은 도말된 객담의 형태에 따라 초점이 일정하지 않기 때문에 자동 촬영을 하더라도 초점이 맞지 않아 결핵균의 형태를 구분하기 어려운 문제가 있다.In addition, since the focus is not constant depending on the posture of the slides or the type of sputum smear, there is a problem that it is difficult to distinguish the type of mycobacteria because the focus is not adjusted even if the automatic photographing is performed.

또한 일일이 육안으로 결핵을 확인하는 방법이기 때문에 검사자의 육안에 피로감을 불러 일으키는 문제점이 있다.In addition, since it is a method of confirming tuberculosis with naked eyes, there is a problem that the tester causes visual fatigue.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은 영상처리 기술과 딥러닝 기술을 적용하여 슬라이드의 촬영부터 검사까지의 객담 도말 검사 과정을 자동화함으로써 간단한 조작으로 빠르고 편리하게 결핵균 검출이 가능한 딥러닝기반 결핵검사방법을 제공하는 데 있다.It is an object of the present invention to solve the above-mentioned problems, and it is an object of the present invention to provide a deep learning method capable of quickly and conveniently detecting a tubercle bacillus by a simple operation by automating a sputum smear test process from shooting to inspection of a slide by applying an image processing technique and a deep learning technique And to provide a method for testing tuberculosis.

영상 촬영 장비를 이용하여 훈련용으로 제작된 객담도말 슬라이드로부터 영상을 획득하는 단계; 상기 획득한 영상으로 결핵 판정에 사용될 딥러닝 모델을 학습하기 위한 학습 단계; 상기 학습단계를 통해 학습된 딥러닝 모델의 정확도를 검증하기 위한 검증단계; 상기 학습 단계와 상기 검증 단계를 통해 학습된 딥러닝 모델의 가중치 값을 이용하여 결핵 음성 또는 양성 여부를 판정하는 단계;및 상기 결핵 판정단계를 통해 나온 검사 결과를 모니터에 표출함으로써 사용자에게 제공하는 표출단계;를 제공한다.,Acquiring an image from a sputum slide formed for training using a video imaging device; A learning step for learning a deep learning model to be used for tuberculosis determination with the acquired image; A verification step of verifying the accuracy of the deep learning model learned through the learning step; Determining whether the tuberculosis voice is positive or negative using the weight value of the learned deep learning model through the learning step and the verification step, and displaying the test result from the tuberculosis determining step on a monitor to provide the result to the user Step.

상기 획득한 영상으로 결핵 판정에 사용 될 딥러닝 모델을 학습하기 위한 학습단계는 훈련 영상 촬영 장비를 포함하는 훈련 영상 촬영 단계, 상기 촬영된 훈련 영상을 전송하는 훈련영상 전송단계, 상기 딥러닝 모델을 학습하기 위해 필요한 데이터를 수집하는 훈련데이터 수집단계, 상기 딥러닝 모델을 학습하기 위해 필요한 데이터를 생성하는 훈련데이터 생성단계 및 상기 훈련 데이터로 학습시키는 딥러닝 모델 학습단계를 포함할 수 있다.The learning step for learning the deep learning model to be used for the tuberculosis determination using the acquired image may include a training image capturing step including a training image capturing device, a training image transmitting step for transmitting the captured training image, A training data collection step of collecting data necessary for learning, a training data generation step of generating data necessary for learning the deep learning model, and a deep learning model learning step of learning with the training data.

상기 검증 단계에서는 상기 학습단계의 훈련 데이터 수집 단계에서 수집된 데이터 중 일부를 검증을 위해 사용하며, 검증 소프트웨어는 딥러닝 모델을 통해 나온 판정 결과와 배양 결과를 통해 판정된 결핵의 음성 또는 양성 결과를 비교하여 딥러닝 모델의 민감도, 특이도 및 정확도를 계산할 수 있다.In the verification step, a part of the data collected in the training data collection step of the learning step is used for verification. The verification software uses the determination result obtained through the deep learning model and the negative or positive result of the tuberculosis determined through the culture result The sensitivity, specificity and accuracy of the deep learning model can be calculated by comparison.

상기 판정단계는 상기 촬영 계획 단계를 통해 계산된 촬영 범위에 따라 검체 슬라이드로부터 영상을 단층 또는복층 촬영하는 검체 영상 촬영 단계, 상기 검체 영상 촬영 단계를 통해 촬영된 단층 또는 복층 영상을 입력으로 받아 상기 학습 단계와 상기 검증 단계를 통해 학습된 객체 분류 모델 또는 객체 검출 모델의 가중치 값을 이용하여 결핵 음성 또는 양성 여부를 판정하는 검체 판정 단계; 및 상기 검체 판정 단계에서 판정된 결과를 표출하는 검사 결과 표출 단계를 포함할 수 있다.Wherein the determining step includes a sample image photographing step of photographing an image from a sample slide according to a photographing range calculated through the photographing planning step in a single layer or a multi-layer photographing, a step of taking a single layer or a multi- A sample determining step of determining whether a tuberculosis is negative or positive using a weight value of an object classification model or an object detection model learned through the verification step; And a test result display step of displaying a result determined in the sample determination step.

이러한 특징에 따르면, 본 발명은 객담 도말 검사를 자동화함으로써 조작이 간편해지며, 편리하게 결핵균 검출이 가능한 효과가 있다.According to this aspect, the present invention has an effect that the operation is simplified by automating sputum smear inspection and the detection of mycobacteria is convenient.

또한, 검사자가 수동으로 현미경을 관찰하지 않아도 되며, 검사자의 숙련도에 따른 검사 오차를 줄일 수 있는 효과가 있다.In addition, it is not necessary for the examiner to observe the microscope manually, and the inspection error according to the proficiency of the examiner can be reduced.

도 1은 본 발명의 일 실시예에 따른 결핵 연구원 내 설치된 영상촬영 장비이다.
도 2는 본 발명의 일 실시예에 따른 객체 별 포커스 계산 방법이다.
도 3은 본 발명의 일 실시예에 따른 객체 검출 모델의 훈련 데이터 수집 프로그램의 구성도이다.
도 4는 본 발명의 일 실시예에 따른 Z축 포커스 이동 시 화면이다.
도 5는 본 발명의 일 실시예에 따른 이미지 확대 또는 축소 시 화면이다.
도 6은 본 발명의 일 실시예에 따른 Z축 이동 시 이미지 변화이다.
도 7은 본 발명의 일 실시예에 따른 객체 분류 모델의 훈련 데이터 수집 프로그램 사용자 인터페이스다.
도 8은 본 발명의 일 실시예에 따른 촬영 계획 단계이다.
1 is a photographing apparatus installed in the TB research institute according to an embodiment of the present invention.
FIG. 2 is a method for calculating focus by object according to an embodiment of the present invention.
3 is a block diagram of a training data collection program of an object detection model according to an embodiment of the present invention.
4 is a view illustrating a Z-axis focus movement according to an embodiment of the present invention.
5 is a screen for enlarging or reducing an image according to an embodiment of the present invention.
6 is an image change in Z-axis movement according to an embodiment of the present invention.
FIG. 7 is a training data collection program user interface of an object classification model according to an embodiment of the present invention.
8 is a photographing planning step according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

그러면 첨부한 도면을 참고로 하여 본 발명의 일 실시예에 따른 딥러닝 기반결핵 검사 방법에 대하여 설명한다.Hereinafter, a deep-run-based TB inspection method according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 결핵 연구원 내 설치된 영상촬영 장비이고, 도 2는 본 발명의 일 실시예에 따른 객체 별 포커스 계산 방법이고, 도 3은 본 발명의 일 실시예에 따른 객체 검출 모델의 훈련 데이터 수집 프로그램의 구성도이고, 도 4는 본 발명의 일 실시예에 따른 Z축 포커스 이동 시 화면이고, 도 5는 본 발명의 일 실시예에 따른 이미지 확대 또는 축소 시 화면, 도 6은 본 발명의 일 실시예에 따른 Z축 이동 시 이미지 변화이고, 도 7은 본 발명의 일 실시예에 따른 객체 분류 모델의 훈련 데이터 수집 프로그램 사용자 인터페이스이고 그리고 도 8은 본 발명의 일 실시예에 따른 촬영 계획 단계이다.FIG. 1 is an image capturing apparatus installed in a TB research institute according to an embodiment of the present invention. FIG. 2 is a method of calculating focus according to an object according to an embodiment of the present invention. FIG. 4 is a screen for moving a Z-axis focus according to an embodiment of the present invention, and FIG. 5 is a view for explaining a screen for zooming in or zooming out an image according to an embodiment of the present invention. 6 is an image change in Z-axis movement according to an embodiment of the present invention, FIG. 7 is a training data collection program user interface of an object classification model according to an embodiment of the present invention, and FIG. 8 is an embodiment .

Figure 112017083879715-pat00001
Figure 112017083879715-pat00001

먼저, 본 발명의 구성은 표 1과 같이 크게 데이터와 딥러닝모델, 그리고 데이터와 딥러닝 모델을 이용한 세가지 단계로 구성된다.As shown in Table 1, the structure of the present invention is largely composed of three steps using data, a deep learning model, and data and a deep learning model.

상기 데이터는 단층 형태의 데이터와 복층 형태로 구성된다.The data is composed of a single-layer type data and a multi-layer type.

상기 단층 형태 데이터는 하나의 XY축에서 하나의 Z축에서 촬영된 이미지를 의미한다.The monolayer data means an image taken on one Z-axis in one X-axis.

상기 복층 형태의 태이터는 하나의 XY축 선상에서 Z축을 이동시키면서 촬영된 여러 장의 이미지 세트를 의미한다.The multi-layered type means a plurality of sets of images taken while moving the Z axis on one XY-axis line.

상기 딥러닝 모델은 분류모델과 검출모델로 구성된다.The deep learning model is composed of a classification model and a detection model.

상기 분류모델이란 이미지 상에서 객체를 추출한 후 추출된 객체들을 미리 학습된 가지 수의 클래스로 분류(Classification)하는 모델을 의미한다.The classification model refers to a model that extracts objects from an image and classifies the extracted objects into classes of previously learned classes.

상기 검출모델은 찾고자 하는 객체들을 미리 학습시킨 후 이미지 상에 해당 객체들의 유무와 위치를 검출(Detection)하는 모델을 의미한다.The detection model refers to a model in which objects to be searched are learned in advance and then the presence and position of the objects are detected on an image (Detection).

따라서 분류모델과 검출모델은 각 모델을 학습시키기 위한 훈련 데이터와 적용되는 분야에서 차이가 있다.Therefore, the classification and detection models differ in the training data and the applied fields for learning each model.

본 발명에서는 두 모델 각각의 특성을 활용하고 정확도를 비교하기 위해 두 가지 모델을 모두 적용하였다.In the present invention, both models are applied in order to utilize the characteristics of each model and to compare the accuracy.

상기 세가지 단계는 상기 데이터와 딥러닝 모델을 이용하여 실제 결핵의 검사에 사용될 판정모델을 제작하는 과정이다.The three steps are the process of preparing a judgment model to be used for the examination of actual tuberculosis using the data and the deep learning model.

상기 세가지 단계는 학습단계, 검증단계 및 판정단계로 구성된다.The three steps consist of a learning step, a verification step and a judgment step.

먼저 상기 학습단계는 결핵 판정에 사용될 딥러닝 모델을 학습하기 위한 단계로, 훈련 영상 촬영 장비를 포함하는 훈련 영상 촬영 단계, 상기 촬영된 훈련 영상을 전송하는 훈련영상 전송단계, 상기 딥러닝 모델을 학습하기 위해 필요한 데이터를 수집하는 훈련데이터 수집단계, 상기 딥러닝 모델을 학습하기 위해 필요한 데이터를 생성하는 훈련데이터 생성단계 및 상기 훈련 데이터로 학습시키는 딥러닝 모델 학습단계를 포함하여 구성하고 있다.The learning step is a step for learning a deep learning model to be used in the tuberculosis determination. The learning step includes a training image capturing step including a training image capturing device, a training image transmitting step for transmitting the captured training image, A training data generation step of generating data necessary for learning the deep learning model, and a deep learning model learning step of learning with the training data.

도 1과 도 2를 참조하여 훈련 영상 촬영 단계를 상세하게 설명한다.The training image capturing step will be described in detail with reference to FIG. 1 and FIG.

도 1과 도 2를 참조하면, 본 발명의 일 실시예에 따른 딥러닝 기반 결핵검사 방법은 먼저 영상 촬영 장비를 이용하여 훈련용으로 제작된 객담도말 슬라이드로부터 영상을 획득한다. Referring to FIGS. 1 and 2, a deep-running-based tuberculosis testing method according to an embodiment of the present invention acquires an image from a sputum slide prepared for training using an imaging apparatus.

상기 영상 촬영 장비는 제어PC, 3축(XYZ) 재물대, 광학계, 형광 조명계 및 형광 카메라를 포함하여 구성한다.The image capturing device includes a control PC, a three-axis (XYZ) platform, an optical system, a fluorescent illumination system, and a fluorescent camera.

상기 제어PC를 이용하여 3축 재물대와 조명계 및 형광카메라의 동작을 제어하여 도말된 객담 슬라이드로부 영성을 촬영한다. 이때, 영상 촬영할 때 Z축을 이동시키면서 여러 장을 촬영하는 복층 촬영을 제공한다.By using the control PC, the operation of the three-axis station, the illumination system, and the fluorescence camera is controlled, and the sputum slide is photographed with the smudged sputum slide. At this time, it provides a multi-layer photographing in which a plurality of photographs are taken while moving the Z-axis when photographing.

복층 촬영의 경우, 하나의 XY지점에서 Z축을 일정 간격만큼 여러 번 이동시키면서 영상을 촬영하는 방식으로, XY 축을 이동 시키면서 동작을 반복하여 촬영한다. 이 경우 총 촬영되는 영상의 개수는 X축 이동횟수와 Y축 이동횟수의 합에 Z축 이동 횟수를 곱한 것과 같다. 이와 같이 하나의 슬라이드를 복층 촬영할 경우 하나의 고정된 포커스가 아닌 여러 포커스의 영상을 획득할 수 있기 때문에, 슬라이드 재물대에 고정 시 슬라이드가 평평하게 고정되지 않은 경우에 발생할 수 있는 포커스 문제를 해결할 수 있다. 또한 도말면 내에서 객체 간 Z축의 위치 차이로 인해, 하나의 FOV(Field Of View)에서 객체 별로 서로 다른 포커스를 갖는 문제를 해결할 수 있다.In the case of the multi-layer imaging, the operation is repeated while moving the XY axis by capturing an image while moving the Z-axis at a predetermined distance from the XY point several times. In this case, the total number of images to be photographed is equal to the sum of the number of movements of the X axis and the number of movements of the Y axis multiplied by the number of movements of the Z axis. In this way, when one slide is photographed in a multi-layered manner, it is possible to acquire images of various focuses rather than one fixed focus, so that it is possible to solve the focus problem that may occur when the slide is not fixed flat on the slide fixture . Also, due to the difference in position of the Z axis between objects in the smear plane, it is possible to solve the problem of having different focuses for each object in one FOV (Field Of View).

동일한 위치에서 촬영된 이미지 내에서 객체 간 서로 다른 포커스를 갖는 경우 도면 2의 방법을 통해 객체별 개별 포커스를 구한다.If there are different focuses among the objects in the image taken at the same position, the individual focus for each object is obtained by the method of FIG.

도면 2를 참조하면, Step 1은 동일한 XY위치에서 Z축을 이동하며 촬영한 이미지 pic 1~3을 나타낸다. A~D는 이미지에 촬영된 객체들을 의미한다. 도면 2의 Step 2와 같이 한 장의 이미지에서 객체마다 서로 다른 포커스를 갖는 경우, 객체 추출을 통해 모든 이미지에서 객체를 검출한다. 이때, 객체 추출을 위한 방법으로는 Connected component, Watershed, Determinant of hessian, Difference of Gaussian 및 Laplacian of Gaussian 등의 알고리즘을 사용한다.Referring to FIG. 2, Step 1 shows the photographed images pic 1 to pic 3 moving in the Z-axis at the same XY position. A to D represent objects photographed in the image. As shown in Step 2 of FIG. 2, if objects have different focuses in one image, objects are detected in all images through object extraction. At this time, algorithms such as Connected component, Watershed, Determinant of hessian, Difference of Gaussian and Laplacian of Gaussian are used for object extraction.

Z축이 다른 여러 장의 이미지 중 어떤 한 장의 이미지에서 객체가 하나라도 검출된 경우 해당 객체를 검출한 좌표를 구하고, 다른 Z축 이미지의 동일한 좌표에 위치한 객체를 동일한 객체로 판단하여 객체의 Z축 위치에 따른 선명도(Sharpness)를 계산한다. 선명도란 카메라를 통해 촬영된 객체의 형태를 구분하는 경계를 나타내는 수치로서, 그 경계가 선명하고 정확할수록 높은 수치를 갖는다. 선명도의 계산을 위해서 ISO 12233 표준인 Slanted edge algorithm을 사용하였다.If any object is detected in any one of several images of different Z-axes, the coordinates of the detected object are obtained, and the object located at the same coordinates of another Z-axis image is determined as the same object, To calculate the sharpness (Sharpness). Sharpness is a numerical value indicating the boundary of the shape of an object photographed by the camera, and has a higher value as the boundary is clearer and more accurate. For the calculation of sharpness, the Slanted edge algorithm, ISO 12233 standard, was used.

이와 같이, 이미지 전체에 대한 포커스가 아닌 촬영된 객체 별 포커스를 개별적으로 계산함으로써 객체 별로 서로 다른 포커스를 갖는 문제를 해결할 수 있으며, 포커스가 변함에 따라 객체의 형태가 민감하게 변형되는 문제를 해결할 수 있다.In this way, by separately calculating the focus of each photographed object, not focusing on the entire image, it is possible to solve the problem of having different focuses for each object, and it is possible to solve the problem that the shape of the object is sensitively deformed as the focus changes have.

상기 훈련 영상 전송 단계에서는 영상 촬영 장비를 통해 촬영된 영상을 파일 전송프로토콜을 이용하여 자동으로 수집용 서버에 전송한다. In the training image transmission step, the image captured through the image capturing device is automatically transmitted to the collection server using a file transfer protocol.

훈련 영상 전송 시, 대량의 슬라이드 영상을 원활하게 전송하기 위하여 영상 촬영과 수집 단계를 분리하여 파이프라이닝 된 기술을 적용하였다.In order to smoothly transmit a large number of slide images during the training image transmission, the image capture and acquisition steps are separated and a pipelined technique is applied.

영상 촬영 직후 영상을 바로 전송할 경우, 파일을 전송하는 시간만큼 다음 슬라이드에 대한 촬영 대기 시간이 길어지기 때문에 슬라이드를 촬영하기에 비효율 적이다. 이러한 문제를 해결하기 위해 슬라이드 촬영과 슬라이드 전송이 독립적으로 이루어질 수 있도록, 즉 다음 슬라이드를 촬영하는 동안 영상 전송은 시스템 백그라운드에서 계속 전송될 수 있도록 영상 촬영과 영상 전송단계를 분리하여 대량 슬라이드의 연속적인 촬영 및 전송이 가능하다.When the image is directly transmitted immediately after the image is shot, the waiting time for the next slide is longer by the time of transferring the file, which is inefficient for shooting the slide. In order to solve this problem, it is necessary to separate the image shooting and the image transmission step so that the slide shooting and the slide transmission can be independently performed, that is, during the shooting of the next slide, Shooting and transmission are possible.

상기 훈련 데이터 수집 단계에서는 상기 훈련 영상 전송 단계를 통해 서버에 저장된 영상과 훈련 데이터 수집 프로그램을 이용하여 훈련 데이터를 수집한다.In the training data collection step, the training data is collected using the image stored in the server and the training data collection program through the training image transmission step.

훈련 데이터 수집 프로그램은 영상 촬영 장비를 통해 수집용 서버에 저장된 영상을 웹 또는 모바일 어플리케이션 형태로 PC또는 터치스크린 기기를 통해 다수의 임상 병리사에게 제공된다. The training data collection program provides the images stored on the collection server through the imaging equipment to a number of clinical pathologists through a PC or a touch screen device in the form of a web or mobile application.

훈련 데이터 수집 프로그램의 경우 검출모델 및 분류모델 두 종류의 딥러닝 모델에 적합한 데이터의 수집을 위해 각 모델 별로 별도의 수집 프로그램을 갖는다.For the training data collection program, the detection model and the classification model have separate collection programs for each model to collect data suitable for the two types of deep learning models.

먼저 객체 검출 모델을 위한 훈련 데이터 수집 프로그램의 경우, 다수의 임상병리사가 영상 내 객체 중 결핵균으로 확인되는 객체를 터치스크린 기기를 이용하여 별도로 표시한 후 저장함으로써 결핵균과 그 외 객체에 대한 딥러닝 모델 훈련용 데이터를 수집한다.In the case of the training data collection program for the object detection model, a plurality of clinical pathologists display the object identified as the tuberculosis in the image separately by using the touch screen device, Collect training data.

이때, 터치스크린 기기를 이용하여 데이터 수집할 때, 손가락 터치뿐만 아니라 정전식 터치펜(Capacitive Touch Pen)으로도 데이터 수집이 가능하다.At this time, when collecting data using the touch screen device, it is possible to collect data not only by the finger touch but also by the capacitive touch pen.

도 3을 참조하면, 객체 검출 모델의 훈련 데이터 수집 프로그램은 슬라이드를 선택하는 슬라이드 선택부(11), 상기 슬라이드 선택부(11)에서 선택된 슬라이드에 여러가지 기능을 첨부할 수 있는 도구선택부(12), 상기 선택된 슬라이드의 포커스를 이동시키는 포커스이동부(13) 및 선택된 슬라이드 화면배율을 조절하는 크기조절부(14)를 포함하여 구성하고 있다.3, the training data collection program of the object detection model includes a slide selection unit 11 for selecting a slide, a tool selection unit 12 for attaching various functions to a slide selected by the slide selection unit 11, A focus moving unit 13 for moving the focus of the selected slide, and a size adjusting unit 14 for adjusting the magnification of the selected slide screen.

상기 슬라이드 선택부(11)를 클릭하면 훈련 데이터 촬영 장비를 통해 촬영된 슬라이드 목록을 확인할 수 있고, 수집을 시작하고자 하는 슬라이드ID를 선택하면 해당 슬라이드에 대한 훈련 데이터 수집을 시작할 수 있다.When the slide selection unit 11 is clicked, the slide list photographed through the training data photographing equipment can be confirmed. If the slide ID to start the collection is selected, the training data collection for the slide can be started.

상기 도구 선택부(12)는 사용자가 가장 마지막으로 선택한 결핵균 영역을 취소할 수 있는 뒤로가기 버튼, 결핵균 영역 선택 시 사용하는 펜의 굵기 설정, 펜 색상 설정, 이미지 원본 크기로 보기, 원본과 사용자가 선택한 객체 영역과의 비교 버튼, 선택영역의 일부를 지울 수 있는 지우개, 이미지의 이동모드와 그리기 모드를 선택할 수 있는 이미지 이동 또는 그리기 버튼 및 수집 정보 저장 버튼 등을 포함하여 구성하고 있다.The tool selection unit 12 includes a back button for canceling the most recently selected mycobacterial area selected by the user, a pen size setting used for selecting the tubercle bacillus region, a pen color setting, an image original size view, A comparison button with the selected object area, an eraser capable of erasing a part of the selected area, an image movement mode and an image movement or drawing button for selecting a drawing mode, and a save information storage button.

상기 포커스 이동부(13)는 복층 촬영 영상의 Z축 포커스를 이동시키며 확인할 수 있다.The focus shifting unit 13 can confirm the Z-axis focus of the multi-layered image by moving the focus.

상기 크기 조절부(14)는 이미지를 확대시키거나 축소시키는 기능을 제공한다.The size adjuster 14 provides a function of enlarging or reducing an image.

도 6의 (a)는 Z축 포커스 이동에 따른 이미지 변화에 대한 개념도이고, (b)는 Z축 포커스 이동에 다른 이미지 변화에 대한 예시를 나타낸 도면이다.6 (a) is a conceptual view of an image change due to Z-axis focus movement, and FIG. 6 (b) is an illustration of another image change in Z-axis focus movement.

도 7을 참조하면, 객체 분류 모델을 위한 훈련 데이터 수집 프로그램의 경우, 다수의 임상병리사가 영상 내 객체 중 결핵균으로 확인되는 객체를 Yes, 결핵균이 아닌 것으로 확인되는 객체를 No로 체크할 수 있도록 구성되어 있다.Referring to FIG. 7, in the case of a training data collection program for an object classification model, a plurality of clinical pathologists construct an object in which an object identified as a tubercle bacterium among the objects in the image is Yes, and an object identified as a non- .

객체 분류 모델은 영역 데이터를 수집하는 객체 검출 모델과는 달리 패치 이미지에 대한 클래스를 구별하기 때문에 터치스크린 기기를 이용하여 영역을 그리는 방식으로 수집할 필요가 없으며 PC에서 마우스를 이용하여 딥러닝 모델 훈련 데이터를 수집한다. Since the object classification model distinguishes the class of the patch image unlike the object detection model that collects the area data, it is not necessary to collect the area by using the touch screen device, and the deep learning model training Collect the data.

다음으로 상기 훈련 데이터 생성 단계는 훈련 데이터 수집 단계를 통해 수집된 데이터를 딥러닝 모델에 학습 가능한 형태로 가공하여 훈련용 데이터셋(Dataset)을 생성한다.Next, in the training data generation step, the data collected through the training data collection step is processed into a learning form in a deep learning model to generate a training data set (Dataset).

결핵을 판정하기 위한 딥러닝 모델은 객체 분류 모델(Object Classification Model)과 객체 검출 모델(Object Detection Model)의 두 가지 방법을 사용하며, 각 모델에 적합한 형태로 데이터셋을 구분하여 생성한다.Deep learning models for tuberculosis use two methods, Object Classification Model and Object Detection Model, and generate datasets in a form suitable for each model.

먼저 상기 객체 분류 모델의 경우, 결핵균과 결핵균이 아닌 객체에 대한 패치 이미지와 라벨 데이터를 각각 생성한다. 패치 이미지는 Connected Component, Watershed, Determinant of hessian, Difference of Gaussian, Laplacian of Gaussian 등의 객체 추출 영상처리 알고리즘을 이용하여 객체를 추출한 후, 객체 하나하나에 대한 이미지를 새로 만들어서 생성한다. 패치 이미지는 N*N(예를 들면, 64*64 또는 128*128)의 크기를 갖는다.First, in the case of the object classification model, a patch image and label data for an object other than the Mycobacterium tuberculosis and the Mycobacterium tuberculosis are respectively generated. The patch image is extracted by using object extraction algorithm such as Connected Component, Watershed, Determinant of hessian, Difference of Gaussian, and Laplacian of Gaussian. Then, a new image is created for each object. The patch image has a size of N * N (e.g., 64 * 64 or 128 * 128).

이때 생성되는 데이터셋의 형태는 단층 형태 또는 복층 형태로 생성된다. 상기 단층형태의 데이터셋의 경우 객체 별로 계산된 포커스에 해당하는 하나의 Z축에 대한 결핵균 패치 이미지와 결핵균 또는 결핵균이 아닌 객체 라벨을 갖는다. 상기 복층 형태의 데이터셋의 경우, 동일한 결핵균 또는 결핵균이 아닌 객체에 대한 여러 Z축 이미지를 하나로 조합하여 하나의 3차원 샘플로 생성하고 해당 샘플의 라벨 데이터로 구성한다. 각각의 패치 이미지에 대한 라벨 데이터는 상기 훈련데이터 수집단계를 통해 수집된 라벨링 된 값을 이용하여 생성한다.At this time, the data set to be generated is generated in a single layer form or a multi layer form. In the case of the single-layered data set, the image has a TB image of one Z-axis corresponding to the focus calculated on an object-by-object basis, and an object label that is not a M. tuberculosis or M. tuberculosis. In the case of the multi-layered data set, a plurality of Z-axis images for an object other than the same Mycobacterium tuberculosis or Mycobacterium tuberculosis are combined into a single three-dimensional sample to form the label data of the corresponding sample. The label data for each patch image is generated using the labeled values collected through the training data collection step.

객체 검출 모델의 경우, 이미지 상에 결핵균이 포함된 원본 이미지와 결핵균영역에 대한 바운딩박스 정보를 라벨로 갖는다. 이 때 결핵균에 해당하는 모든 영역에 대한 바운딩박스 정보를 포함해야 하며, 이미지 1장 내에 여러 개의 결핵균이 존재하는 경우 모두 라벨링한다. 객체 분류 모델과 마찬가지로 단층과 복층 형태로 촬영된 이미지 모두에 대해 검사가 가능하지만 데이터셋의 형태는 단층 형태만 생성한다. 데이터셋의 경우 하나의 Z축에 대한 결핵균 영역 이미지와 결핵균 영역에 대한 바운딩 박스 라벨을 갖는다. In the case of the object detection model, the original image containing the Mycobacterium on the image and the bounding box information on the Mycobacterial area are labeled. In this case, it is necessary to include the bounding box information for all regions corresponding to the Mycobacterium tuberculosis, and if there are several Mycobacterium tuberculosis bacteria in one image, they are all labeled. Like the object classification model, it is possible to check both images taken in single layer and multiple layer form, but the form of dataset only creates a single layer form. For the dataset, it has an image of mycobacterial zone for one Z-axis and a bounding box label for mycobacterial zone.

딥러닝 모델 학습 단계에서는 상기 훈련 데이터 생성 단계를 통해 객체 분류 모델과 객체 검출 모델에 맞게 생성된 데이터셋을 이용하여 딥러닝 모델을 학습한다.In the deep learning model learning step, the deep learning model is learned by using the data set generated according to the object classification model and the object detection model through the training data generation step.

객체 분류 모델인 경우, 훈련 데이터 생성 단계를 통해 생성된 패치 이미지와 1:1로 대응되는 라벨 데이터를 이용하여 결핵균과 결핵균이 아닌 객체를 분류하는 분류 모델을 학습시킨다. 패치 이미지는 모델의 입력(Input)으로, 라벨 데이터는 해당 패치 이미지의 분류 결과(Output)로 주는 end-to-end 방식으로 학습하며, Convolutional Neural Network(CNN)를 사용하여 모델을 구성한다.In the case of the object classification model, a classification model for classifying objects other than the Mycobacterium tuberculosis and the Mycobacterium tuberculosis is learned by using the label data corresponding to 1: 1 with the patch image generated through the training data generation step. The patch image is learned by the input of the model and the label data is processed by the end-to-end method that gives the output result of the patch image. The model is constructed using the Convolutional Neural Network (CNN).

학습된 결과는 모델의 구조(architecture)와 가중치(weight) 값으로 저장된다. 객체 분류 모델은 결핵균뿐만 아니라 결핵균이 아닌 객체에 대해서도 학습하는데, 이 경우 형태와 크기가 규칙적이지 않기 때문에 모델의 정확도를 떨어뜨리는 원인이 될 수 있다.The learned results are stored as the model's architecture and weight values. The object classification model learns not only about the Mycobacterium tuberculosis but also about the non-TB microbes, which can cause the accuracy of the model to deteriorate because the shape and size are not regular.

객체 검출 모델의 경우, 훈련 데이터 생성 단계를 통해 생성된 결핵균에 대한 이미지와 바운딩박스 라벨 데이터를 이용하여 결핵균을 검출하는 모델을 학습시킨다.In the case of the object detection model, a model for detecting the Mycobacterium tuberculosis is learned by using the image of the tuberculosis produced through the training data generation step and the bounding box label data.

객체 분류 모델과 마찬가지로 이미지를 모델의 입력으로 라벨 데이터를 결과로 주고 모델을 학습시키는 end-to-end 학습 방법이지만, 결핵균이 아닌 객체에 대해서는 검출할 필요가 없기 때문에 결핵균에 대해서만 학습한다는 점에서 차이가 있다. 때문에 결핵균이 아닌 객체에 대해 학습할 경우 발생할 수 있는 판정 오류를 줄일 수 있다. 또한 객체 분류 모델의 경우 패치 이미지를 별도로 생성하여 훈련이 필요하지만 객체 검출 모델의 경우 원본 이미지와 결핵균 영역을 나타내는 바운딩박스 정보만을 활용하여 패치 이미지의 생성 과정 없이 학습이 가능하다.As with the object classification model, it is an end-to-end learning method that learns the model by learning the label data from the input of the model. However, since it is not necessary to detect objects that are not Mycobacteria, . Therefore, it is possible to reduce judgment errors that may occur when learning about objects other than Mycobacterium tuberculosis. In the case of the object classification model, it is necessary to create a patch image separately, but in the case of the object detection model, it is possible to learn without generating the patch image by using only the bounding box information indicating the original image and the region of the M. tuberculosis.

상기 검증 단계는 상기 학습단계를 통해 학습된 딥러닝 모델의 정확도를 검증하기 위한 단계로, 검증 소프트웨어로 구성된다.The verification step is a step for verifying the accuracy of the deep learning model learned through the learning step, and is composed of verification software.

상기 검증 단계에서는 상기 학습단계의 훈련 데이터 수집 단계에서 수집된 데이터 중 일부를 검증을 위해 사용한다. 이 때 학습단계에 사용한 훈련 데이터와 검증단계에서 사용되는 검증 데이터는 중복되지 않도록 구분하여 사용한다.In the verification step, a part of the data collected in the training data collection step of the learning step is used for verification. At this time, the training data used in the learning step and the verification data used in the verification step are used so as not to overlap each other.

검증 소프트웨어는 딥러닝 모델을 통해 나온 판정 결과와 배양 결과를 통해 판정된 결핵의 음성 또는 양성 결과를 비교하여 딥러닝 모델의 민감도, 특이도 및 정확도를 계산한다.The verification software calculates the sensitivity, specificity, and accuracy of the deep learning model by comparing the negative results or the positive results of the determined tuberculosis with the determined results from the deep learning model and the culture results.

상기 판정단계는 상기 학습단계와 상기 검증단계를 거쳐 학습 및 검증된 딥러닝 모델을 이용하여 실제 결핵 검사를 수행하는 단계로, 촬영 계획 단계, 검체 영상 촬영 단계, 검체 판정 단계 및 검사 결과 표출 단계를 포함하여 구성한다,The determining step is a step of performing an actual tuberculosis examination using the learned and verified deep learning model through the learning step and the verification step and includes steps of photographing planning step, sample image photographing step, sample determination step, Including,

또한 상기 결핵 판정단계를 통해 나온 검사 결과를 모니터에 표출함으로써 사용자에게 제공하는 표출단계를 포함하여 구성한다.And an exposing step of displaying the result of the examination through the tuberculosis determining step on a monitor to provide the result to a user.

먼저 상기 촬영 계획 단계는 검체 슬라이드로부터 검사용 영상을 촬영하기 이전에 재물대 위에 장착된 슬라이드의 자세를 보정하기 위한 단계이며, 촬영 계획 단계를 통해 슬라이드의 3차원 자세를 예측함으로써 슬라이드를 재물대에 고정 시 슬라이드가 평평하게 고정되지 않는 경우에 발생할 수 있는 포커스 문제를 해결할 수 있다. 또한 도말면 내에서 객체 간 Z축의 위치 차이로 인해, 하나의 FOV에서 객체 별로 서로 다른 포커스를 갖는 문제를 해결할 수 있다. 촬영 계획 단계는 다시 촬영계획용 영상촬영 단계, 선명도 계산단계 및 촬영범위 계산단계로 구성된다.The photographing planning step is a step for correcting the posture of the slide mounted on the flooring before the photographing of the inspection image from the sample slide, and the slide is fixed to the flooring by predicting the three- It is possible to solve the focus problem that may occur when the slide is not fixed flat. Also, due to the difference in position of the Z axis between objects in the smear plane, it is possible to solve the problem of having different focuses for each object in one FOV. The photographing planning step is further composed of a photographing step for photographing plan, a sharpness calculating step and a photographing range calculating step.

상기 촬영 계획용 영상 촬영 단계에서는 슬라이드의 바코드 부착 영역을 제외한 도말 영역의 가장자리를 따라 최소 4개 이상의 지점을 미리 지정하고, 해당 지점에서 영상을 촬영한다. 이 때, 각 지점에서 Z축을 n번 이동하면서 촬영한다. In the imaging plan imaging step, at least four or more points are previously specified along the edge of the smear area excluding the bar code attachment area of the slide, and the image is taken at the corresponding point. At this time, the Z-axis is moved n times at each point.

상기 선명도 계산 단계에서는 촬영 계획용 영상 촬영 단계를 통해 복층으로 촬영된 이미지를 이용하여 각 지점에서의 선명도가 가장 높은 peak 점을 가장 선명한, 즉 가장 포커스가 잘 맞는 Z축 위치로 판단한다.In the sharpness calculation step, the peak point having the highest sharpness at each point is determined as the sharpest, that is, the Z-axis position with the best focus, by using the images photographed in the multi-layer through the image taking step for the shooting plan.

상기 촬영 범위 계산 단계에서는 상기 촬영 계획용 영상 촬영 단계와 선명도 계산 단계를 통해 각 지점에서 계산된 Z축 peak 위치 정보를 이용하여 슬라이드의 자세에 대한 3차원 프로파일을 도출한다. 이렇게 도출된 슬라이드 자세 정보를 이용하여 실제 검사 시 촬영 범위를 계산한다.In the shooting range calculation step, a three-dimensional profile of the slide posture is derived using the Z-axis peak position information calculated at each point through the imaging plan imaging step and the sharpness calculation step. Using this derived slide posture information, the shooting range is calculated during the actual inspection.

도 8은 촬영 계획 단계를 구성하는 촬영 계획용 영상 촬영 단계, 선명도 계산 단계, 촬영 범위 계산 단계를 도식화 한 것이다. 도 8에서는 발명의 구체적인 설명을 위해 촬영 지점의 개수를 6개로 표현하였으나, 촬영 지점 개수는 한정되어 있지 않으며 적용 예에 따라 축소 또는 확장이 가능하다.8 is a schematic diagram of a photographing plan image capturing step, a sharpness calculating step, and a photographing range calculating step constituting a photographing planning step. In FIG. 8, the number of photographing points is represented by six for the purpose of explaining the invention, but the number of photographing points is not limited, and it can be reduced or expanded according to the application example.

도면 8의 (a)를 참조하면 P1~P6은 장착된 슬라이드의 자세 보정을 위해 미리 지정된 6 지점을 나타낸 것이다. XY축을 이동시키면서 6 지점을 이동하고, 각 지점에서는 Z축을 이동시키면서 복층으로 영상을 획득한다.Referring to FIG. 8 (a), P1 to P6 are six points designated in advance for attitude correction of the mounted slide. Moves 6 points while moving the XY axis, and obtains images in multiple layers while moving the Z axis at each point.

도면 8의 (b)를 참조하면 선명도 계산 단계에 대한 예시를 나타낸 도면으로, P1~P6의 각 지점에 Z축으로 복층 촬영된 영상으로부터 선명도를 계산한다.Referring to FIG. 8 (b), the sharpness calculation step is illustrated. In FIG. 8 (b), the sharpness is calculated from the images photographed in the Z-axis direction at the respective points P1 to P6.

Z1부터 Zn까지 촬영된 총 n 장의 이미지에서 계산된 선명도 중 가장 값이 큰 peak 점을 가장 선명한 Z축 포커스로 판단한다. 도면 8의 (b)에서 굵은 글씨로 표시된 Z축 점들이 선명도를 통해 계산된 가장 선명한 Z축 포커스를 가리킨다.The peak point having the highest value among the calculated sharpnesses in the total of n images taken from Z1 to Zn is determined as the sharpest Z-axis focus. The Z-axis points indicated in bold in Figure 8 (b) indicate the sharpest Z-axis focus calculated through sharpness.

도면 8의 (c)를 참조하면 선명도 계산 단계를 통해 6 지점에서 계산된 가장 선명한 Z축 포커스를 이용하여 장착된 슬라이드의 3차원 자세를 예측한 예시이다.Referring to FIG. 8 (c), an example of predicting the three-dimensional posture of a mounted slide using the sharpest Z-axis focus calculated at six points through the sharpness calculation step.

상기 검체 영상 촬영 단계에서는 상기 촬영 계획 단계를 통해 계산된 촬영 범위에 따라 검체 슬라이드로부터 영상을 단층 또는 복층 촬영한다. 촬영 계획 단계를 통해 계산된 영역만을 촬영하기 때문에 슬라이드 내의 불필요한 영역에 대한 촬영을 최소화할 수 있으며 그만큼 검사 시간을 축소할 수 있다. 촬영된 영상은 제어 PC 내부에 임시로 저장된다.In the sample image photographing step, an image is taken as a single-layer or multi-layer image from a specimen slide according to the photographing range calculated through the photographing planning step. Since only the calculated area is photographed through the photographing planning step, the photographing of unnecessary areas in the slide can be minimized and the inspection time can be reduced accordingly. The captured image is temporarily stored in the control PC.

상기 검체 판정 단계에서는 검체 영상 촬영 단계를 통해 촬영된 단층 또는 복층 영상을 입력으로 받아 상기 학습 단계와 상기 검증 단계를 통해 학습된 객체분류 모델 또는 객체 검출 모델의 가중치 값을 이용하여 결핵 음성 또는 양성 여부를 판정한다.In the sample determination step, a single layer or a multi-layer image photographed through a sample imaging step is inputted, and weight values of the object classification model or the object detection model learned through the learning step and the verification step are used to determine the tuberculosis voice or benignity .

상기 검체 판정 단계는 단층 형태의 데이터셋으로 훈련된 딥러닝 모델을 통해 판정하는 단층 모드 또는 복층 형태의 데이터셋으로 훈련된 딥러닝 모델을 통해 판정하는 복층모드 두 가지 방법을 포함한다.The sample determination step includes two methods of determining through a deep learning model trained with a deep learning model trained with a single layer data set, or a deep learning model trained with a multi-layer data set.

검체 판정 시, 학습 단계를 통해 학습된 객체 분류 모델과 객체 검출 모델 두 가지 방법을 사용한다.When the sample is judged, the object classification model and the object detection model learned through the learning step are used.

먼저 객체 분류 모델의 경우, 검체 영상 촬영 단계를 통해 단층 또는 복층으로 촬영된 영상으로부터 모든 객체를 검출한다. 단층 모드일 경우, 영상 내의 모든 객체를 검출하고 패치 이미지를 생성한다. 복층 모드일 경우, 모든 층에서 객체들을 모두 검출하고 이미지 상의 객체 위치를 이용하여 동일한 객체끼리 그룹핑하여 3차원 형태의 패치 이미지로 생성한다. 단층 혹은 복층 패치이미지로 검출된 객체들은 결핵균과 결핵균이 아닌 객체로 분류하고, 결핵균으로 분류된 객체의 개수를 세어 검체 슬라이드의 음성 또는 양성을 판정한다.First, in the case of the object classification model, all objects are detected from a single-layer or multi-layered image through a sample imaging step. In the single layer mode, all objects in the image are detected and a patch image is generated. In the case of the multi-layer mode, all objects are detected at all layers, and the same object is grouped using the object position on the image to generate a three-dimensional patch image. Objects detected with a single layer or multi-layer patch image are classified as objects other than Mycobacterium tuberculosis and M. tuberculosis, and the number of objects classified as Mycobacterium tuberculosis is counted to determine whether the sample slides are negative or positive.

다음으로 객체 검출 모델의 경우, 검체 영상 촬영 단계를 통해 촬영된 단층 또는 복층으로 영상을 촬영하고 영상으로부터 모든 결핵균을 검출한다. 단층 모드일 경우, 단층 영상 내의 결핵균의 영역 및 위치를 검출한다. 복층 모드일 경우, 모든 층에서 결핵균을 검출하고 위치상 중복되는 결핵균은 동일한 결핵균으로 판단한다. 단층 또는 복층 영상으로부터 추출된 결핵균의 개수를 세어 검체 슬라이드의 음성 또는 양성을 판정한다.Next, in the case of the object detection model, images are taken in single layer or multiple layers taken through a sample imaging step and all of the mycobacteria are detected from the images. In the case of the single layer mode, the region and location of mycobacteria in the tomographic image are detected. In the case of the multi-layer mode, the Mycobacterium tuberculosis is detected in all the layers and the mycobacteria that are overlapped in position are judged to be the same. The number of tubercle bacilli extracted from the monolayer or multilayer images is counted to judge whether the sample slide is negative or positive.

이때, 상기 객체 분류 모델과 상기 검출 모델은 검체의 음성 또는 양성 판정 시에 WHO의 객담도말 검사 가이드라인에 따라 판정한다.At this time, the object classification model and the detection model are determined according to WHO's sputum score examination guidelines at the time of determination of a voice or a positive of a sample.

검사 결과 표출 단계에서는 결핵 판정 모듈을 통해 나온 검사 결과를 모니터에 표출함으로써 사용자에게 제공된다.In the test result presentation stage, the test result from the tuberculosis judgment module is presented to the user by displaying the result on the monitor.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

11: 슬라이드 선택부 12: 도구선택부
13: 포커스 이동부 14: 크기 조절부
11: Slide selector 12: Tool selector
13: focus shifter 14: size adjuster

Claims (4)

제어PC, 3축(XYZ) 재물대, 광학계, 형광조명계 및 형광카메라를 포함하는 영상 촬영 장비를 이용하여 훈련용으로 제작된 객담도말 슬라이드로부터 단층촬영과 복층촬영하여 영상을 획득하는 단계, 상기 획득한 영상을 파일전송프로토콜을 이용하여 자동으로 수집용 서버에 전송하고, 슬라이드 촬영과 슬라이드 이미지 전송이 독립적으로 이루어질 수 있도록 영상 전송단계를 분리하여 대량 슬라이드를 연속적으로 촬영 및 전송하는 훈련영상 전송단계, 상기 훈련영상 전송단계를 통해 서버에 저장된 영상과 훈련 데이터 수집 프로그램을 이용하여 훈련데이터를 수집하는 단계, 및 상기 훈련데이터 수집단계를 통해 수집된 데이터를 딥러닝 모델에 학습 가능한 형태로 가공하여 훈련용 데이터셋을 생성하고, 이 데이터셋은 객체분류모델 또는 객체검출모델에 적합한 단층형태 또는 복층형태로 데이터셋을 구분하는 훈련데이터 생성단계;
상기 훈련 데이터 생성 단계를 통해 생성된 데이터셋을 상기 객체 분류 모델과 객체 검출 모델에 학습시키는 단계를 포함하는 학습단계;
상기 학습단계를 통해 학습된 딥러닝 모델을 바탕으로 검증소프트웨어를 사용하여 정확도를 검증하기 위한 검증단계;
상기 학습단계와 상기 검증단계를 거처 학습 및 검증된 딥러닝 모델을 이용하여 실제 혈액 검사를 수행하기 위해 검체 슬라이드로부터 검사용 영상을 촬영하기 이전에 재물대 위에 장착된 슬라이드를 보정하고 촬영 범위를 지정하는 촬영 계획 단계, 상기 촬영 계획단계를 통해 계산된 촬영 범위에 따라 검체 슬라이드로부터 영상을 단층 또는 복층 촬영하는 검체 영상 촬영단계, 상기 검체 영상 촬영단계를 통해 촬영된 단층 또는 복층 영상을 인가 받아 상기 학습 단계와 상기 검증 단계를 통해 학습된 상기 객체분류 모델 또는 객체검출모델의 가중치 값을 이용하여 결핵 음성 또는 양성 여부를 판단하는 검체 판단 단계를 포함하는 판정단계; 및
상기 결핵 판정단계를 통해 나온 검사 결과를 모니터에 표출함으로써 사용자에게 제공하는 표출단계;를 포함하는 것을 특징으로 하는 딥러닝 기반 결핵 검사방법.
A step of acquiring an image by tomography and a multi-layer photographing from a sputum slide prepared for training by using a radiographic apparatus including a control PC, a three-axis (XYZ) scale, an optical system, a fluorescent illumination system and a fluorescent camera, A training image transmission step of continuously capturing and transmitting a large number of slides by separating the image transmission steps so that one image is automatically transmitted to the collection server using a file transfer protocol, Collecting training data by using a video and a training data collection program stored in a server through the training video transmission step and processing the data collected through the training data collection step into a learning- A data set is generated, which is an object classification model or object detection model. Training data generating step that separates the data set in the form of a suitable single-layer or multi-layer form in;
Learning the data set generated through the training data generation step to the object classification model and the object detection model;
A verification step of verifying accuracy using verification software based on the deep learning model learned through the learning step;
Before performing the actual blood test using the learned and verified deep learning model through the learning step and the verification step, the slides mounted on the table are corrected before the test images are taken from the sample slides, A step of photographing, a step of taking a single-layer or a multi-layer image of an image from a sample slide according to a photographing range calculated through the photographing planning step, a step of receiving a single-layer or multi- And a sample judgment step of judging whether a tuberculosis voice is positive or not using the weight value of the object classification model or the object detection model learned through the verification step; And
And displaying the result of the examination through the tuberculosis judging step to a user by displaying it on a monitor.
제 1항에 있어서,
상기 촬영 계획 단계는 슬라이드의 바코드 부착 영역을 제외한 도말영역의 가장자리를 따라 적어도 4개 이상의 지점을 미리 지정하고 해당 지점에서 영상을 촬영하며 각 지점에서 Z축을 적어도 10번 이동하면서 촬영하는 촬영 계획용 영상촬영 단계;
상기 촬영 계획용 영상촬영 단계를 통해 미리 지정된 해당 지점에서 복층으로 촬영된 이미지를 이용하여 각 지점에서의 선명도가 가장 높은 peak 점을 가장 포커스가 잘 맞는 Z축 위치로 판단하는 선명도 계산단계;
상기 선명도 계산단계를 통해 계산된 Z축의 peak점 위치 정보를 이용하여 슬라이드의 3차원 프로파일을 도출하고, 도출된 슬라이드 자세 정보를 이용하여 실제 검사 시 촬영범위를 계산하는 촬영범위 계산단계;를 더 포함하는 것을 특징으로 하는 딥러닝 기반 결핵 검사방법.
The method according to claim 1,
The photographing planning step is a step of designating at least four or more points along the edge of the smearing area excluding the bar code attaching area of the slide, taking an image at the corresponding point, and photographing the photographing plan for moving the Z axis at least ten times A photographing step;
A sharpness calculation step of determining a peak point having the highest sharpness at each point as a Z-axis position with the best focus by using an image photographed in a plurality of layers at a predetermined point through the imaging plan imaging step;
Deriving a three-dimensional profile of the slide using the peak point position information of the Z-axis calculated through the sharpness calculation step, and calculating a shooting range at the actual inspection using the derived slide orientation information Wherein the deep-run-based tuberculosis test method comprises the steps of:
삭제delete 삭제delete
KR1020170109766A 2017-08-30 2017-08-30 Method of tuberculosis diagnosis based on a deep-learning KR101900200B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170109766A KR101900200B1 (en) 2017-08-30 2017-08-30 Method of tuberculosis diagnosis based on a deep-learning
CN201880001432.0A CN109997199A (en) 2017-08-30 2018-08-30 Tuberculosis inspection method based on deep learning
PCT/KR2018/010053 WO2019045480A1 (en) 2017-08-30 2018-08-30 Tuberculosis diagnosis method based on deep-learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170109766A KR101900200B1 (en) 2017-08-30 2017-08-30 Method of tuberculosis diagnosis based on a deep-learning

Publications (1)

Publication Number Publication Date
KR101900200B1 true KR101900200B1 (en) 2018-11-05

Family

ID=64328894

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170109766A KR101900200B1 (en) 2017-08-30 2017-08-30 Method of tuberculosis diagnosis based on a deep-learning

Country Status (3)

Country Link
KR (1) KR101900200B1 (en)
CN (1) CN109997199A (en)
WO (1) WO2019045480A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022164214A1 (en) * 2021-01-28 2022-08-04 (주) 제이엘케이 Apparatus and method for detecting spots within diagnostic kit result image
US11448874B2 (en) 2019-10-18 2022-09-20 Samsung Electronics Co., Ltd. Method and apparatus for correction of aberration

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222393A (en) * 2019-10-12 2020-06-02 浙江大学 Self-learning neural network-based method for detecting signet ring cells in pathological section
CN111462087B (en) * 2020-04-01 2022-07-26 腾讯医疗健康(深圳)有限公司 Image detection method, device and system based on artificial intelligence and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140010433A1 (en) * 2010-11-03 2014-01-09 Ajay Divekar System and method for improved detection of objects of interest in image data by management of false positives
KR20140091176A (en) * 2013-01-10 2014-07-21 삼성전자주식회사 Apparatus and method for lesion diagnosis
US10395764B2 (en) * 2015-01-06 2019-08-27 Aic Innovations Group, Inc. Method and apparatus for recognition of patient activity
KR20170047423A (en) * 2015-10-22 2017-05-08 한국디지털병원수출사업협동조합 Automatic diagnosis system of digital xray based on cad
KR20170061222A (en) * 2015-11-25 2017-06-05 한국전자통신연구원 The method for prediction health data value through generation of health data pattern and the apparatus thereof
KR101725125B1 (en) * 2016-01-22 2017-04-10 고려대학교 산학협력단 Malaria diagnostic kit and diagnostic method using malarias motility
CN107103187B (en) * 2017-04-10 2020-12-29 四川省肿瘤医院 Lung nodule detection grading and management method and system based on deep learning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11448874B2 (en) 2019-10-18 2022-09-20 Samsung Electronics Co., Ltd. Method and apparatus for correction of aberration
WO2022164214A1 (en) * 2021-01-28 2022-08-04 (주) 제이엘케이 Apparatus and method for detecting spots within diagnostic kit result image

Also Published As

Publication number Publication date
WO2019045480A1 (en) 2019-03-07
CN109997199A (en) 2019-07-09

Similar Documents

Publication Publication Date Title
KR101900200B1 (en) Method of tuberculosis diagnosis based on a deep-learning
EP3776458B1 (en) Augmented reality microscope for pathology with overlay of quantitative biomarker data
CN111474701B (en) Pathological microscopic image real-time acquisition and analysis system, method, device and medium
US9684960B2 (en) Automated histological diagnosis of bacterial infection using image analysis
AU2014237346B2 (en) System and method for reviewing and analyzing cytological specimens
AU2012328140B2 (en) System and method for identifying eye conditions
CN105193380B (en) Diagnosis support device and diagnosis support method
CN111128382B (en) Artificial intelligence multimode imaging analysis device
US20220114725A1 (en) Microscopy System and Method for Checking Input Data
JPWO2018034057A1 (en) Defect inspection apparatus, defect inspection method, and program
WO2014108896A1 (en) Device and method for body moles mapping and tracking
US20200311931A1 (en) Method for analyzing image of biopsy specimen to determine cancerous probability thereof
US20190236851A1 (en) Method of interactive quantification of digitized 3d objects using an eye tracking camera
JP2010075354A (en) Blood capillary blood flow measurement apparatus, blood capillary blood flow measurement method, and program
JP2008139143A (en) Method and apparatus for forming specimen image
Batliner et al. Automated areas of interest analysis for usability studies of tangible screen-based user interfaces using mobile eye tracking
CN111289510B (en) In-vitro diagnostic device, image switching method, and readable storage medium
Tuan et al. The improved faster r-cnn for detecting small facial landmarks on vietnamese human face based on clinical diagnosis
CN114612389B (en) Fundus image quality evaluation method and device based on multi-source multi-scale feature fusion
GB2610426A (en) System and method for identifying and counting biological species
US20200193596A1 (en) Method And System For Identifying And Classifying Structures In A Blood Sample
JP2022121167A (en) Image processing device, control method of image processing device, and program
CN111951261A (en) Control method, computer device and control system for in-vitro biological sample examination process
Abdeta et al. Pulmonary Tuberculosis Bacilli Detection from Sputum Smear Microscopy Images Using K-Nearest Neighbor Classifier
US20220151544A1 (en) Dual position scanner and integrated system for skin cancer mapping and tracking

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant