KR102383495B1 - Medical image data extraction method - Google Patents

Medical image data extraction method Download PDF

Info

Publication number
KR102383495B1
KR102383495B1 KR1020210072051A KR20210072051A KR102383495B1 KR 102383495 B1 KR102383495 B1 KR 102383495B1 KR 1020210072051 A KR1020210072051 A KR 1020210072051A KR 20210072051 A KR20210072051 A KR 20210072051A KR 102383495 B1 KR102383495 B1 KR 102383495B1
Authority
KR
South Korea
Prior art keywords
image
processing unit
data processing
data
captured image
Prior art date
Application number
KR1020210072051A
Other languages
Korean (ko)
Inventor
이재구
Original Assignee
라크(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라크(주) filed Critical 라크(주)
Priority to KR1020210072051A priority Critical patent/KR102383495B1/en
Application granted granted Critical
Publication of KR102383495B1 publication Critical patent/KR102383495B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Abstract

The present invention relates to a medical image data extraction method for extracting medical image data which can be learned by a deep learning algorithm. According to the present invention, the method comprises: a first step of loading, by a pre-processing unit, a tissue image stored in a database and capturing a labeling area after enlarging the tissue image to generate a captured image; a second step of loading, by a data processing unit, the captured image from the pre-processing unit and adjusting the size of the captured image to the magnification of the plurality of objective lenses through a plurality of objective lenses; a third step of dividing, by the data processing unit, the captured image whose size has been adjusted to a plurality of magnifications into one or more regions without overlapping regions; a fourth step of determining, by the data processing unit, a lesion present in a region image of each region to assign labeling data to the lesion and remove the region image to which the labeling data is not assigned; and a fifth step of generating, by the data processor, an output image on the basis of a convolution operation between a filter and the region image to which the labeling data is assigned.

Description

의료 영상데이터 추출 방법{Medical image data extraction method}Medical image data extraction method

본 발명은 의료 영상데이터 추출 방법에 관한 것으로, 보다 상세하게는 딥러닝 알고리즘이 학습할 수 있는 의료 영상데이터를 추출하는 방법에 관한 것이다.The present invention relates to a method for extracting medical image data, and more particularly, to a method for extracting medical image data that can be learned by a deep learning algorithm.

현대 의학에서 효과적인 질병의 진단 및 환자의 치료를 위해 의료 영상은 매우 중요한 도구이다. 또한, 영상 기술 발달은 더욱 정교한 의료 영상 데이터를 획득 가능하게 하고 있다. 이러한 정교함의 대가로 데이터의 양은 점차 방대해지고 있어 의료 영상 데이터를 인간의 시각에 의존하여 분석하는 데 어려움이 많다. 이에, 최근 십여 년 동안 임상 의사 결정 지원 시스템 및 컴퓨터 보조 판독 시스템은 의료 영상 자동 분석에 있어서 필수적인 역할을 수행하여 왔다.Medical imaging is a very important tool for effective disease diagnosis and patient treatment in modern medicine. In addition, the development of imaging technology makes it possible to acquire more sophisticated medical image data. In exchange for such sophistication, the amount of data is gradually increasing, so it is difficult to analyze medical image data depending on the human perspective. Accordingly, clinical decision support systems and computer-aided reading systems have played an essential role in automatic medical image analysis for the past decade or so.

종래의 임상 의사 결정 지원 시스템 또는 컴퓨터 보조 판독 시스템은 병변 영역을 검출하여 표시하거나 판독 정보를 의료진 또는 의료 종사자 등(이하 사용자)에게 제시한다.A conventional clinical decision support system or computer-aided reading system detects and displays a lesion area or presents reading information to a medical staff or a medical worker (hereinafter referred to as a user).

일례로, 대한민국 공개특허공보 제10-2017-0017614호에 개시된 '의료 영상 기반의 질환 진단 정보 산출 방법 및 장치'에서는, 분석 대상 객체가 촬영된 관심 영역을 검출하고, 변동계수를 산출하고, 변동계수 이미지를 작성하고 이를 기준 샘플과 비교하는 단계를 포함하고, CT, MRI, MRa 및 초음파 영상 촬영 장치 등을 통해 획득된 의료 영상을 활용하여 환자의 질환 정도를 진단하는 효과를 언급하고 있다.For example, in the 'method and apparatus for calculating disease diagnosis information based on medical images' disclosed in Korean Patent Application Laid-Open No. 10-2017-0017614, a region of interest in which an analysis target object is photographed is detected, a coefficient of variation is calculated, and variation It includes the step of creating a counting image and comparing it with a reference sample, and refers to the effect of diagnosing the degree of disease of a patient using medical images acquired through CT, MRI, MRa, and ultrasound imaging devices.

특히, 근래에 딥러닝(Deep learning)과 같은 기계 학습(Machine learning)을 기반으로 하는 인공지능(AI) 기술은 의료 영상데이터를 이용하여 환자의 질병을 판독하는데 있어 비약적인 발전을 가져오는데 바탕이 되고 있다.In particular, in recent years, artificial intelligence (AI) technology based on machine learning such as deep learning is the basis for bringing a leap forward in reading a patient's disease using medical image data. there is.

딥러닝이란 사람의 신경세포(Biological Neuron)를 모사하여 기계가 학습하도록 하는 인공신경망(Artificial Neural Network) 기반의 기계 학습법을 의미한다. 최근, 딥러닝 기술은 이미지 인식 분야에서 비약적으로 발전하고 있고, 의료 영상데이터를 이용한 판독 분야에서도 널리 사용되고 있다.Deep learning refers to an artificial neural network-based machine learning method that simulates human biological neurons and allows machines to learn. Recently, deep learning technology has developed rapidly in the field of image recognition and is widely used in the field of reading using medical image data.

의료 영상에서의 딥러닝 기술은 질병을 포함하는 다수의 의료 영상데이터와 해당 질병을 학습 데이터로 이용하여 기계 학습이 진행되어 기계 학습 모델(이하, '판독 모델'이라 함)이 생성되고, 판독 대상 의료 영상데이터가 판독 모델에 입력되면 병변 여부를 진단하게 된다.In the deep learning technology in medical images, machine learning is performed using a number of medical image data including diseases and the diseases as learning data to generate a machine learning model (hereinafter referred to as a 'reading model'), and a target to be read When the medical image data is input to the reading model, the presence of a lesion is diagnosed.

상기와 같이, 딥러닝 기반의 기계 학습법은 판독 모델을 생성하는데 사용되는 학습 데이터, 예컨대, 다수의 병변 영상데이터와 다수의 정상 영상데이터를 수집하고, 수집된 병변 영상데이터와 정상 영상데이터를 학습하여 생성된 판독 모델이 새로이 입력된 판독 대상 의료 영상데이터의 병변 여부를 판독하게 되는 바, 다양하면서도 많은 학습 데이터가 학습에 사용될 때 판독 결과의 정확성을 높일 수 있다. 뿐만 아니라, 판독 대상 의료 영상데이터와 학습 데이터가 유사할 때 판독 결과의 정확성이 높아질 수 있다.As described above, the deep learning-based machine learning method collects learning data used to generate a reading model, for example, a plurality of lesion image data and a plurality of normal image data, and learns the collected lesion image data and normal image data. Since the generated reading model reads whether the newly input medical image data to be read is a lesion or not, it is possible to increase the accuracy of the reading result when a variety of learning data is used for learning. In addition, when the reading target medical image data and the training data are similar, the accuracy of the reading result may be increased.

대한민국 공개특허공보 제10-2017-0017614호Republic of Korea Patent Publication No. 10-2017-0017614

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 복수의 대물렌즈로 딥러닝 알고리즘이 학습할 의료 영상데이터의 배율을 조절하여 다수의 의료 영상데이터를 추출할 수 있는 의료 영상데이터 추출 방법을 제공하는데 목적이 있다.Therefore, the present invention has been devised to solve the above problems, and medical image data extraction capable of extracting a plurality of medical image data by adjusting the magnification of the medical image data to be learned by the deep learning algorithm with a plurality of objective lenses The purpose is to provide a method.

또한, 본 발명은 딥러닝 알고리즘이 학습할 수 있도록 의료 영상데이터의 보정 및 크롭(crop)이 이루어지는 의료 영상데이터 추출 방법을 제공하는데 목적이 있다.Another object of the present invention is to provide a method for extracting medical image data in which correction and cropping of medical image data are performed so that a deep learning algorithm can learn.

다만, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood

상기와 같은 목적을 달성하기 위한 기술적 방법인 의료 영상데이터 추출 방법에 있어서, 전처리부가 데이터베이스에 저장된 조직 이미지를 로딩하고, 상기 조직 이미지를 확대한 후에 라벨링 영역을 캡쳐하여 캡쳐 이미지를 생성하는 제1 단계; 데이터 처리부가 상기 전처리부로부터 상기 캡쳐 이미지를 로딩하고, 복수의 대물렌즈를 통해 상기 캡쳐 이미지의 크기를 상기 복수의 대물렌즈의 배율로 조절하는 제2 단계; 상기 데이터 처리부가 복수의 배율로 크기가 조절된 캡쳐 이미지를 구역의 중복없이 하나 이상의 구역으로 분할하는 제3 단계; 상기 데이터 처리부가 상기 각 구역의 구역 이미지에 존재하는 병변을 판단하여 상기 병변에 라벨링 데이터를 부여하고, 상기 라벨링 데이터가 부여되지 않은 구역 이미지를 제거하는 제4 단계; 및 상기 데이터 처리부가 상기 라벨링 데이터가 부여된 구역 이미지와 필터 간의 합성곱 연산에 기반하여 출력 이미지를 생성하는 제5 단계;를 포함할 수 있다.In the medical image data extraction method, which is a technical method for achieving the above object, a first step of generating a captured image by a preprocessor loading a tissue image stored in a database, enlarging the tissue image, and then capturing a labeling area ; a second step of a data processing unit loading the captured image from the preprocessing unit, and adjusting the size of the captured image through a plurality of objective lenses to the magnifications of the plurality of objective lenses; a third step of dividing, by the data processing unit, the captured image whose size is adjusted by a plurality of magnifications into one or more regions without overlapping regions; a fourth step of, by the data processing unit, determining a lesion present in the regional image of each region, assigning labeling data to the lesion, and removing the region image to which the labeling data is not assigned; and a fifth step of generating, by the data processing unit, an output image based on a convolution operation between a filter and a region image to which the labeling data is applied.

또한, 상기 제2 단계는, 상기 데이터 처리부에 구비된 제1 디스플레이가 배율로 크기가 조절되기 전의 캡쳐 이미지를 출력하는 단계; 상기 데이터 처리부에 하나 이상 구비된 LED 램프가 상기 제1 디스플레이에 광을 조사하는 단계; 상기 복수의 대물렌즈가 상기 제1 디스플레이로부터의 반사광을 상기 데이터 처리부에 구비된 제2 디스플레이에 집광하는 단계; 및 상기 제2 디스플레이에 상기 복수의 배율로 크기가 조절된 캡쳐 이미지가 출력되는 단계;를 포함할 수 있다.In addition, the second step may include: outputting a captured image before the size of the first display provided in the data processing unit is adjusted by the magnification; irradiating light to the first display by one or more LED lamps provided in the data processing unit; condensing, by the plurality of objective lenses, the reflected light from the first display on a second display provided in the data processing unit; and outputting the captured image whose size is adjusted to the plurality of magnifications on the second display.

그리고 상기 제3 단계는, 상기 데이터 처리부가 산출 알고리즘을 통해 상기 제2 디스플레이에 출력된 캡쳐 이미지의 배율 및 체적치를 산출하는 단계; 상기 데이터 처리부가 이미지 분할 알고리즘을 이용하여 상기 산출 알고리즘을 통해 산출된 배율당 기설정된 구역의 개수로 상기 캡쳐 이미지의 구역을 분할하는 단계; 및 상기 데이터 처리부가 상기 산출 알고리즘을 통해 상기 각 구역의 체적치를 산출하고, 상기 캡쳐 이미지의 배율 및 체적치, 상기 각 구역의 체적치가 상기 제2 디스플레이에 출력되도록 하는 단계;를 포함할 수 있다.The third step may include: calculating, by the data processing unit, a magnification and a volume value of the captured image output to the second display through a calculation algorithm; dividing, by the data processing unit, a region of the captured image by a preset number of regions per magnification calculated through the calculation algorithm using an image division algorithm; and calculating, by the data processing unit, the volume value of each zone through the calculation algorithm, and outputting the magnification and volume value of the captured image, and the volume value of each zone to the second display.

또한, 상기 제5 단계는, 상기 데이터 처리부가 상기 출력 이미지를 생성하기 위하여, 거리에 따른 가중치가 부여된 양방향 필터(Bilateral Filter)를 이용할 수 있다.In addition, in the fifth step, in order to generate the output image, the data processing unit may use a Bilateral Filter to which a weight is given according to a distance.

그리고 상기 제5 단계는, 상기 데이터 처리부가 상기 양방향 필터와 상기 구역 이미지 내 객체의 경계를 검출하는 경계 필터를 이용하여 상기 출력 이미지를 생성할 수 있다.In the fifth step, the data processing unit may generate the output image using the bidirectional filter and a boundary filter for detecting a boundary of an object in the area image.

또한, 상기 의료 영상데이터 추출 방법은, 상기 데이터 처리부가 상기 출력 이미지가 딥러닝 알고리즘에 적용 가능하도록 회전, 반전, 축소 또는 확대, 색상 조정 중 적어도 하나의 방식으로 상기 출력 이미지를 보정하는 제6 단계;를 포함할 수 있다.In addition, the medical image data extraction method includes a sixth step of correcting the output image by the data processing unit using at least one of rotation, inversion, reduction or enlargement, and color adjustment so that the output image can be applied to a deep learning algorithm. ; may be included.

그리고 상기 제6 단계는, 상기 데이터 처리부가 상기 출력 이미지의 명도 및/또는 채도 조정을 통해 상기 출력 이미지의 색상 조정이 이루어지도록 할 수 있다.In the sixth step, the data processing unit may adjust the color of the output image by adjusting the brightness and/or saturation of the output image.

또한, 상기 의료 영상데이터 추출 방법은, 상기 데이터 처리부가 보정된 상기 출력 이미지를 상기 딥러닝 알고리즘에 적용 가능한 사이즈로 크롭(crop)시키는 제7 단계;를 더 포함할 수 있다.The method for extracting medical image data may further include a seventh step of cropping the corrected output image by the data processing unit to a size applicable to the deep learning algorithm.

그리고 상기 제1 단계는, 상기 전처리부가 캡쳐보드를 구비하여 HD, FHD, QHD, UHD 중 적어도 하나의 해상도로 라벨링 영역을 캡쳐할 수 있다.And, in the first step, the pre-processing unit may include a capture board to capture the labeling area with at least one resolution of HD, FHD, QHD, and UHD.

본 발명은 복수의 대물렌즈를 이용한 배율 조절을 통해 딥러닝 알고리즘이 학습할 의료 영상데이터를 다양하게 추출하는 효과가 있다.The present invention has an effect of variously extracting medical image data to be learned by a deep learning algorithm through magnification adjustment using a plurality of objective lenses.

또한, 본 발명은 의료 영상데이터의 보정 및 크롭을 통해 딥러닝 알고리즘의 학습 데이터와 유사한 의료 영상데이터를 딥러닝 알고리즘에 제공하여 딥러닝 알고리즘의 판독 결과의 정확성이 향상되도록 하는 효과가 있다.In addition, the present invention has the effect of improving the accuracy of the reading result of the deep learning algorithm by providing medical image data similar to the learning data of the deep learning algorithm to the deep learning algorithm through correction and cropping of the medical image data.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

도 1은 본 발명의 일 실시예에 따른 의료 영상데이터 추출 장치의 개략적인 블록도이다.
도 2는 전처리부가 로딩하는 일례의 조직 이미지이다.
도 3은 데이터 처리부가 로딩하는 일례의 캡쳐 이미지 및 구역 이미지이다.
도 4는 데이터 처리부가 생성하는 일례의 출력 이미지이다.
도 5는 본 발명의 일 실시예에 따른 의료 영상데이터 추출 방법에 대한 동작 흐름도이다.
도 6은 캡쳐 이미지 로딩 및 배율 조절 단계의 세부 동작 흐름도이다.
도 7은 캡쳐 이미지 구역 분할 단계의 세부 동작 흐름도이다.
도 8은 출력 이미지 생성 단계의 세부 동작 흐름도이다.
1 is a schematic block diagram of an apparatus for extracting medical image data according to an embodiment of the present invention.
2 is an example tissue image loaded by the preprocessor.
3 is an example of a captured image and a region image loaded by the data processing unit.
4 is an example output image generated by the data processing unit.
5 is an operation flowchart of a method for extracting medical image data according to an embodiment of the present invention.
6 is a detailed operation flowchart of the capture image loading and magnification adjustment steps.
7 is a detailed operation flowchart of the capture image segmentation step.
8 is a detailed operation flowchart of the step of generating an output image.

이하에서는, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment may have various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.

본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of the terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component. When a component is referred to as being “connected to” another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. Meanwhile, other expressions describing the relationship between elements, that is, "between" and "between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprise" or "have" are not intended to refer to the specified feature, number, step, action, component, part or any of them. It is intended to indicate that a combination exists, and it should be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms defined in the dictionary should be interpreted as being consistent with the meaning of the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present invention.

도 1은 본 발명의 일 실시예에 따른 의료 영상데이터 추출 장치의 개략적인 블록도이고, 도 2는 전처리부가 로딩하는 일례의 조직 이미지이며, 도 3은 데이터 처리부가 로딩하는 일례의 캡쳐 이미지 및 구역 이미지이고, 도 4는 데이터 처리부가 생성하는 일례의 출력 이미지이다.1 is a schematic block diagram of an apparatus for extracting medical image data according to an embodiment of the present invention, FIG. 2 is an example tissue image loaded by the preprocessor, and FIG. 3 is an example captured image and region loaded by the data processing unit image, and FIG. 4 is an example output image generated by the data processing unit.

도 1 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 의료 영상데이터 추출 장치는 전처리부(10) 및 데이터 처리부(20)가 구비되고, 상기 전처리부(10) 및 데이터 처리부(20)는 데이터(이미지, 영상, 텍트) 및 각종 통신 신호를 네트워크를 통해 송수신할 수 있다. 또한, 의료 영상데이터 추출 장치는 데이터 저장 및 처리의 기능을 가지는 모든 종류의 서버, 단말 또는 디바이스를 포함할 수 있다.1 to 4 , the apparatus for extracting medical image data according to an embodiment of the present invention includes a pre-processing unit 10 and a data processing unit 20, and the pre-processing unit 10 and the data processing unit 20 can transmit and receive data (image, video, text) and various communication signals through the network. Also, the apparatus for extracting medical image data may include all types of servers, terminals, or devices having functions of data storage and processing.

상기 의료 영상데이터 추출 장치는 네트워크를 통해 상기 전처리부(10) 및 데이터 처리부(20)에서 생성된 데이터의 공유가 이루어지도록 하고, 이러한 네트워크는 구체적으로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 유무선 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, Wifi 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.The apparatus for extracting medical image data allows the data generated by the pre-processing unit 10 and the data processing unit 20 to be shared through a network, and these networks are specifically 3GPP (3rd Generation Partnership Project) network, LTE (Long) network. Term Evolution) network, 5G network, WIMAX (World Interoperability for Microwave Access) network, wired and wireless Internet (Internet), LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal) Area Network), Bluetooth (Bluetooth) network, Wifi network, NFC (Near Field Communication) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. may be included, but is not limited thereto.

상기 의료 영상데이터 추출 장치는 병변이 포함된 의료 영상데이터인 조직 이미지(100), 캡쳐 이미지(200), 구역 이미지(300) 및 출력 이미지(400)가 각각 저장되는 데이터베이스를 포함하며, 딥러닝 알고리즘의 학습에 이용될 출력 이미지(400)를 딥러닝 알고리즘에 송신한다. 이에, 본 발명의 딥러닝 알고리즘은 출력 이미지(400)를 통해 학습하여 의료 영상데이터를 추출하는 것이 가능해진다.The apparatus for extracting medical image data includes a database in which a tissue image 100, a capture image 200, a region image 300, and an output image 400, which are medical image data including lesions, are stored, respectively, and a deep learning algorithm The output image 400 to be used for learning of is transmitted to the deep learning algorithm. Accordingly, the deep learning algorithm of the present invention becomes possible to extract medical image data by learning through the output image 400 .

전처리부(10)는 데이터베이스로부터 조직 이미지(100)를 로딩하고, 조직 이미지(100)를 일정 배율로 확대시킨 후에 딥러닝 알고리즘이 학습할 라벨링 영역을 캡쳐하여 캡쳐 이미지(200)를 생성하며, 상기 캡쳐 이미지(200)가 데이터베이스에 저장되도록 한다. 이때, 일정 배율은 후술될 대물렌즈(23)의 복수 배율 중 적어도 하나의 배율과 동일한 배율일 수 있다.The preprocessor 10 loads the tissue image 100 from the database, enlarges the tissue image 100 at a certain magnification, and then captures the labeling area to be learned by the deep learning algorithm to generate the captured image 200, The captured image 200 is stored in the database. In this case, the predetermined magnification may be the same magnification as at least one of a plurality of magnifications of the objective lens 23 to be described later.

상기 전처리부(10)는 조직 이미지(100)로부터 라벨링 영역을 캡쳐하기 위해 캡쳐보드(11)가 구비된다.The pre-processing unit 10 is provided with a capture board 11 to capture the labeling area from the tissue image (100).

캡쳐보드(11)는 조직 이미지(100)의 라벨링 영역을 HD(High Definition), FHD(Full High Definition), QHD(Quad High Definition), UHD(Ultra High Definition)중 적어도 하나의 해상도로 캡쳐하여 상기 해상도의 캡쳐 이미지(200)를 생성한다. 다만, 캡쳐보드(11)가 라벨링 영역을 캡쳐하는 해상도는 이에 한정되는 것은 아니다.The capture board 11 captures the labeling area of the tissue image 100 in at least one resolution of HD (High Definition), FHD (Full High Definition), QHD (Quad High Definition), UHD (Ultra High Definition), and the A captured image 200 of resolution is generated. However, the resolution at which the capture board 11 captures the labeling area is not limited thereto.

데이터 처리부(20)는 전처리부(10)로부터 생성된 캡쳐 이미지(200)를 데이터베이스로부터 로딩하며, 로딩한 캡쳐 이미지(200)의 배율을 조절하기 위해 제1 디스플레이(21), LED 램프(22), 대물렌즈(23) 및 제2 디스플레이(24)가 구비된다.The data processing unit 20 loads the captured image 200 generated by the pre-processing unit 10 from the database, and the first display 21 and the LED lamp 22 to adjust the magnification of the loaded captured image 200 . , an objective lens 23 and a second display 24 are provided.

제1 디스플레이(21)는 데이터베이스로부터 대물렌즈(23)의 배율로 크기가 조절되기 전 상태의 캡쳐 이미지(200)를 로딩하고, 로딩된 캡쳐 이미지(200)를 출력한다.The first display 21 loads the captured image 200 in a state before the size is adjusted by the magnification of the objective lens 23 from the database, and outputs the loaded captured image 200 .

LED 램프(22)는 대물렌즈(23)의 광학축을 둘러싸 제1 디스플레이(21)에 출력된 캡쳐 이미지(200)를 향해 광을 조사하는 LED가 구비되고, 제1 디스플레이(21)에 출력된 캡쳐 이미지(200)를 향해 조사되는 광이 복수로 구비된 대물렌즈(23) 각각에 반사되도록 하기 위해 복수로 구비될 수 있다.The LED lamp 22 is provided with an LED that surrounds the optical axis of the objective lens 23 and irradiates light toward the captured image 200 output to the first display 21 , and the capture output to the first display 21 . A plurality of light irradiated toward the image 200 may be provided so as to be reflected by each of the plurality of objective lenses 23 .

대물렌즈(23)는 복수의 LED 램프(22)에 의해 발생되는 제1 디스플레이(21)로부터의 반사광이 제2 디스플레이(24)에 각각 집광되도록 하고, 캡쳐 이미지(200)가 복수의 배율로 크기가 조절되도록 하기 위해 복수로 구비될 수 있다.The objective lens 23 allows the reflected light from the first display 21 generated by the plurality of LED lamps 22 to be focused on the second display 24, respectively, and the captured image 200 is sized at a plurality of magnifications. It may be provided in plurality in order to be adjusted.

이때, 대물렌즈(23)는 캡쳐 이미지(200)의 배율을 200 %(40x), 100 %(20x), 50 %(10x), 25 %(5x), 20 %(4x)로 조절할 수 있다. 다만, 대물렌즈(23)의 배율은 이에 한정된 것은 아니다.In this case, the objective lens 23 may adjust the magnification of the captured image 200 to 200% (40x), 100% (20x), 50% (10x), 25% (5x), or 20% (4x). However, the magnification of the objective lens 23 is not limited thereto.

상기 대물렌즈(23)는 캡쳐 이미지(200)의 배율 조절을 통해 딥러닝 알고리즘이 학습할 의료 영상데이터를 다양하게 추출하는 효과가 있다.The objective lens 23 has an effect of variously extracting medical image data to be learned by the deep learning algorithm by adjusting the magnification of the captured image 200 .

제2 디스플레이(24)는 각각의 대물렌즈(23)와 1:1로 대응하여 상기 대물렌즈(23)가 집광시키는 캡쳐 이미지(200)를 출력하고, 각각의 대물렌즈(23)와 1:1로 대응하기 위해 복수로 구비되는 것이 바람직하다.The second display 24 outputs the captured image 200 condensed by the objective lens 23 in 1:1 correspondence with each objective lens 23, and 1:1 with each objective lens 23 It is preferable to be provided in plurality in order to respond to .

상기 복수의 제2 디스플레이(24)는 사용자가 확인 가능한 디스플레이 일 수 있으며, 적어도 하나의 제2 디스플레이(24)는 캡쳐 이미지(200)의 출력 뿐만 아니라, 구역 이미지(300) 및 출력 이미지(400)를 출력하여 사용자에게 구역 이미지(300) 및 출력 이미지(400)를 제공하는 디스플레이일 수 있다.The plurality of second displays 24 may be displays that can be checked by a user, and at least one second display 24 not only outputs the captured image 200 , but also a region image 300 and an output image 400 . It may be a display that outputs the region image 300 and the output image 400 to the user.

상기 데이터 처리부(20)는 캡쳐 이미지(200)의 구역(250)을 분할하기 위해 산출 알고리즘(25) 및 이미지 분할 알고리즘(26)이 더 구비된다.The data processing unit 20 is further provided with a calculation algorithm 25 and an image segmentation algorithm 26 to segment the region 250 of the captured image 200 .

산출 알고리즘(25)은 복수의 제2 디스플레이(24)에 각각 출력된 캡쳐 이미지(200)의 배율 및 체적치를 각각 산출하고, 이미지 분할 알고리즘(26)을 통해 캡쳐 이미지(200)의 구역(250)을 도 3에 도시된 바와 같이 가로(칸) 8 x 세로(줄) 4로 분할시킬 수 있다. 또한, 상기 구역(250)의 분할이 완료되면 상기 구역(250)의 체적치를 산출하며, 캡쳐 이미지(200)의 배율 및 체적치, 상기 구역(250)의 체적치가 캡쳐 이미지(200)와 함께 복수의 제2 디스플레이(24)에 각각 출력되도록 한다.The calculation algorithm 25 calculates the magnification and volume values of the captured image 200 respectively output to the plurality of second displays 24, respectively, and the region 250 of the captured image 200 through the image segmentation algorithm 26 as shown in FIG. 3 , can be divided into 8 horizontal (column) x vertical (line) 4 sections. In addition, when the division of the region 250 is completed, the volume value of the region 250 is calculated, and the magnification and volume value of the captured image 200 and the volume value of the region 250 are plural together with the captured image 200 . to be respectively output to the second display 24 of

이때, 산출 알고리즘(25)이 캡쳐 이미지(200)의 구역(250)을 분할하는 것은 가로 8 x 세로 4로 한정되는 것은 아니며, 구역(250)의 분할 개수는 캡쳐 이미지(200)의 배율에 따라 달라질 수 있다.At this time, the division of the region 250 of the captured image 200 by the calculation algorithm 25 is not limited to 8 x 4 in width, and the number of divisions in the region 250 depends on the magnification of the captured image 200 . may vary.

이미지 분할 알고리즘(26)은 산출 알고리즘(25)을 통해 산출된 배율당 기설정된 구역의 개수로 캡쳐 이미지(200)의 구역(250)을 분할하여 각 구역(250) 당 하나 이상의 구역 이미지(300)를 추출한다.The image segmentation algorithm 26 divides the regions 250 of the captured image 200 by the number of preset regions per magnification calculated through the calculation algorithm 25, so that one or more region images 300 per each region 250 to extract

상기 데이터 처리부(20)는 구역 이미지(300) 중에서 병변의 여부를 판단하여 병변에 라벨링 데이터(350)를 부여하고, 라벨링 데이터(350)가 부여되지 않은 노이즈 데이터를 제거한다. 구체적으로, 상기 데이터 처리부(20)는 병변 판단 알고리즘(미도시)을 구비하며, 상기 병변 판단 알고리즘을 통해 병변의 여부를 판단하여 병변이 존재하는 제1 구역 이미지(300a)의 병변에 라벨링 데이터(350)를 부여하고, 노이즈 제거 알고리즘(미도시)을 구비하여 병변이 미존재함에 따라 라벨링 데이터(350)가 부여되지 않은 제2 구역 이미지(300b)를 구역 이미지(300)로부터 제거한다.The data processing unit 20 determines whether there is a lesion in the region image 300 , assigns the labeling data 350 to the lesion, and removes the noise data to which the labeling data 350 is not attached. Specifically, the data processing unit 20 includes a lesion determination algorithm (not shown), and by determining whether a lesion exists through the lesion determination algorithm, labeling data ( 350), and a noise removal algorithm (not shown) is provided to remove the second region image 300b to which the labeling data 350 is not assigned as the lesion does not exist from the region image 300 .

상기 데이터 처리부(20)는 합성곱 신경망을 구축하여 라벨링 데이터(350)가 부여된 구역 이미지(300)와 필터 간의 합성곱 연산을 기반으로 출력 이미지(400)를 생성한다. 구체적으로, 상기 데이터 처리부(20)는 각 픽셀의 주변 요소들로부터 가중 평균을 구하며, 중심 픽셀 값과의 밝기 차이에 의해 결정되는 가중치를 사용하는 양방향 필터(Bilateral Filter)를 단독 이용하거나, 상기 양방향 필터와 구역 이미지(300) 내 객체의 경계를 검출하는 경계 필터를 결합한 필터를 이용하는 합성곱 연산으로 구역 이미지(300)를 보정(또는 영상 처리)하여 구역 이미지(300)와 동일 개수의 출력 이미지(400)를 생성한다. 다만, 필터는 이에 한정되는 것은 아니며 평균 블러링 필터, 미디안 블러링 필터, 가이디드 이미지 필터 등이 더 포함되어 구역 이미지(300)와의 합성곱 연산이 이루어질 수 있다.The data processing unit 20 constructs a convolutional neural network to generate an output image 400 based on a convolution operation between the region image 300 to which the labeling data 350 is given and the filter. Specifically, the data processing unit 20 obtains a weighted average from the surrounding elements of each pixel, and either uses the Bilateral Filter alone, which uses a weight determined by the difference in brightness from the central pixel value, or the bidirectional filter. The area image 300 is corrected (or image processed) by a convolution operation using a filter that combines a filter and a boundary filter that detects the boundary of an object in the area image 300, so that the area image 300 has the same number of output images ( 400) is created. However, the filter is not limited thereto, and an average blurring filter, a median blurring filter, a guided image filter, and the like may be further included to perform a convolution operation with the regional image 300 .

상기 데이터 처리부(20)는 생성된 출력 이미지(400)가 딥러닝 알고리즘에 적용 가능한 상태가 되도록 하기 위해 출력 이미지(400)의 회전, 반전, 축소 또는 확대, 색상 조정 중 적어도 하나의 방식으로 출력 이미지(400)를 보정한다. 구체적으로, 상기 데이터 처리부(20)는 출력 이미지(400)의 0~360°의 회전, 상하 및/또는 좌우 반전, 상하 및/또는 좌우의 축소, 상하 및/또는 좌우의 확대, 명도 및/또는 채도 조정을 출력 이미지(400)를 보정한다.The data processing unit 20 rotates, inverts, reduces or enlarges the output image 400, and adjusts the color of the output image 400 so that the generated output image 400 can be applied to the deep learning algorithm. (400) is corrected. Specifically, the data processing unit 20 rotates 0 to 360° of the output image 400, up and down and/or left and right inversion, up and down and/or left and right reduction, up and down and/or left and right enlargement, brightness and/or Calibrate the output image 400 to adjust the saturation.

상기 출력 이미지(400)의 보정 과정은 출력 이미지(400)가 이미 딥러닝 알고리즘에 적용 가능한 형태라면 생략될 수 있다.The correction process of the output image 400 may be omitted if the output image 400 is already applicable to a deep learning algorithm.

상기 데이터 처리부(20)는 출력 이미지(400)가 딥러닝 알고리즘에 적용 가능한 사이즈로 변형되도록 하기 위해 출력 이미지(400)를 크롭(crop)시킨다. 이때, 출력 이미지(400)가 이미 딥러닝 알고리즘에 적용 가능한 사이즈라면 크롭 과정이 생략될 수 있다.The data processing unit 20 crops the output image 400 so that the output image 400 is transformed to a size applicable to the deep learning algorithm. At this time, if the output image 400 is already a size applicable to the deep learning algorithm, the cropping process may be omitted.

상기 데이터 처리부(20)는 출력 이미지(400)의 보정 및 크롭을 통해 딥러닝 알고리즘의 학습 데이터와 유사한 출력 이미지(400)를 딥러닝 알고리즘에 제공하여 딥러닝 알고리즘의 판독 결과의 정확성이 향상되도록 하는 효과가 있다.The data processing unit 20 provides the deep learning algorithm with an output image 400 similar to the learning data of the deep learning algorithm through correction and cropping of the output image 400 to improve the accuracy of the reading result of the deep learning algorithm It works.

도 5는 본 발명의 일 실시예에 따른 의료 영상데이터 추출 방법에 대한 동작 흐름도이고, 도 6은 캡쳐 이미지 로딩 및 배율 조절 단계의 세부 동작 흐름도이며, 도 7은 캡쳐 이미지 구역 분할 단계의 세부 동작 흐름도이고, 도 8은 출력 이미지 생성 단계의 세부 동작 흐름도이다.5 is an operation flowchart of a method for extracting medical image data according to an embodiment of the present invention, FIG. 6 is a detailed operation flowchart of a capture image loading and magnification adjustment step, and FIG. 7 is a detailed operation flowchart of a captured image region division step and FIG. 8 is a detailed operation flowchart of the step of generating an output image.

도 5 내지 도 8에 도시된 의료 영상데이터 추출 방법은 상기 본 발명의 일 실시예에 따른 의료 영상데이터 추출 장치에 의해 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 의료 영상데이터 추출 장치에 대하여 설명된 내용은 의료 영상데이터 추출 방법에 대한 설명에도 동일하게 적용될 수 있다.The method of extracting medical image data shown in FIGS. 5 to 8 may be performed by the apparatus for extracting medical image data according to an embodiment of the present invention. Accordingly, even if omitted below, the description of the apparatus for extracting medical image data may be equally applied to the description of the method of extracting medical image data.

먼저, 전처리부(10)는 조직 이미지(100)를 데이터베이스로부터 로딩하고, 캡쳐보드(11)를 통해 특정 해상도의 라벨링 영역을 캡쳐하여 캡쳐 이미지(200)를 생성할 수 있다(S10).First, the preprocessor 10 may load the tissue image 100 from the database, and capture the labeling area of a specific resolution through the capture board 11 to generate the captured image 200 (S10).

캡쳐 이미지(200)가 데이터베이스에 저장된 후, 데이터 처리부(20)는 캡쳐 이미지(200)를 데이터베이스로부터 로딩하고, 캡쳐 이미지(200)의 배율을 조절할 수 있다(S20).After the captured image 200 is stored in the database, the data processing unit 20 may load the captured image 200 from the database and adjust the magnification of the captured image 200 ( S20 ).

이때, 상기 캡쳐 이미지(200) 로딩 및 배율 조절 단계(S20)에서의 동작 흐름은 도 6에 도시된 바와 같이 세분화될 수 있다. 구체적으로, 제1 디스플레이(21)는 캡쳐 이미지(200)를 데이터베이스로부터 로딩(S21)하여 출력할 수 있고, LED 램프(22)는 제1 디스플레이(21)에 출력된 캡쳐 이미지(200)를 향해 광을 조사할 수 있으며(S22), 대물렌즈(23)는 제1 디스플레이(21)의 반사광을 집광(S23)할 수 있고, 제2 디스플레이(24)는 대물렌즈(23)가 집광시키는 대물렌즈(23)의 배율로 크기가 조절된 캡쳐 이미지(200)를 출력할 수 있다(S24).In this case, the operation flow in the loading and magnification adjustment step S20 of the captured image 200 may be subdivided as shown in FIG. 6 . Specifically, the first display 21 may load the captured image 200 from the database (S21) and output it, and the LED lamp 22 is directed toward the captured image 200 output to the first display 21 Light can be irradiated (S22), the objective lens 23 can collect the reflected light of the first display 21 (S23), and the second display 24 is an objective lens that the objective lens 23 focuses The captured image 200 whose size is adjusted at a magnification of (23) may be output (S24).

캡쳐 이미지(200)의 배율 조절 후, 데이터 처리부(20)는 배율이 조절된 캡쳐 이미지(200)의 구역(250)을 분할(S30)하여, 구역 이미지(300)를 추출할 수 있다.After adjusting the magnification of the captured image 200 , the data processing unit 20 may divide ( S30 ) the region 250 of the captured image 200 whose magnification has been adjusted to extract the region image 300 .

이때, 상기 캡쳐 이미지(200)의 구역(250) 분할 단계(S30)에서의 동작 흐름은 도 7에 도시된 바와 같이 세분화될 수 있다. 구체적으로, 데이터 처리부(20)는 산출 알고리즘(25)을 통해 제2 디스플레이(24)에 출력된 캡쳐 이미지(200)의 배율 및 체적치를 산출할 수 있고(S31), 이미지 분할 알고리즘(26)을 통해 배율당 기설정된 구역의 개수로 제2 디스플레이(24)에 출력된 캡쳐 이미지(200)의 구역(250)을 분할할 수 있으며(S32), 산출 알고리즘(25)을 통해 각 구역(250)의 체적치를 산출(S33)하여, 제2 디스플레이(24)에 캡쳐 이미지(200)의 배율 및 체적치, 각 구역(250)의 체적치를 출력시킬 수 있다(S34).In this case, the operation flow in the segmentation step S30 of the region 250 of the captured image 200 may be subdivided as shown in FIG. 7 . Specifically, the data processing unit 20 may calculate the magnification and volume value of the captured image 200 output to the second display 24 through the calculation algorithm 25 (S31), and the image segmentation algorithm 26 The region 250 of the captured image 200 output to the second display 24 can be divided by the preset number of regions per magnification through (S32), and through the calculation algorithm 25, each region 250 is By calculating the volume value (S33), the magnification and volume value of the captured image 200 and the volume value of each region 250 may be output on the second display 24 (S34).

한편, 본 발명의 일 실시예에서 캡쳐 이미지(200)는 200 %(40x), 100 %(20x), 50 %(10x), 25 %(5x), 20 %(4x)의 배율로 크기가 조절될 수 있으며, 데이터 처리부(20)가 이미지 분할 알고리즘(26)을 통해 캡쳐 이미지(200)의 구역(250)을 분할하기 위한 배율당 기설정된 구역의 개수 기준은 이하의 [표 1]과 같다.Meanwhile, in an embodiment of the present invention, the captured image 200 is sized at a magnification of 200% (40x), 100% (20x), 50% (10x), 25% (5x), and 20% (4x). The number of preset regions per magnification for the data processing unit 20 to divide the regions 250 of the captured image 200 through the image segmentation algorithm 26 is as shown in Table 1 below.

배율magnification 캡쳐 이미지의 크기size of captured image 구역area XX YY 가로horizontal 세로length 구역 합계Area Total 40x40x 76807680 128128 1616 88 128128 20x20x 38403840 3232 88 44 3232 10x10x 19201920 88 44 22 88 5x5x 960960 44 22 1One 22 4x4x 768768 1One 1One 1One 1One 총 구역수total number of districts 171171

상기 [표 1]을 참조하면, 상기 데이터 처리부(20)는 복수의 제2 디스플레이(24)에 각각 출력된 캡쳐 이미지(200)의 구역을 총 171개로 분할시켜 구역 이미지(300)를 추출할 수 있다. 다만, 이에 한정되는 것은 아니며 구역 이미지(300)는 구역(250) 내에서 이동하면서 각 구역(250)당 최대 8개까지 추출될 수 있다. 이에, 구역 이미지(300)는 최소 171개에서 최대 1,368개까지 추출될 수 있다.Referring to [Table 1], the data processing unit 20 can extract the region image 300 by dividing the region of the captured image 200 output to the plurality of second displays 24 into a total of 171 regions. there is. However, the present invention is not limited thereto, and a maximum of eight region images 300 may be extracted for each region 250 while moving within the region 250 . Accordingly, the region image 300 may be extracted from a minimum of 171 to a maximum of 1,368.

구역 이미지(300)의 추출 후, 데이터 처리부(20)는 구역 이미지(300) 중 제1 구역 이미지(300a)의 병변에 라벨링 데이터(350)를 부여하고, 병변이 존재하지 않아 라벨링 데이터(350)가 미부여되는 제2 구역 이미지(300b)를 노이즈 데이터로 판단하여 제거할 수 있다(S40).After the region image 300 is extracted, the data processing unit 20 gives the labeling data 350 to the lesion of the first region image 300a of the region image 300, and the lesion does not exist so that the labeling data 350 is not present. It is determined that the second area image 300b to which is not given is noise data and may be removed ( S40 ).

라벨링 데이터(350) 부여 및 노이즈 제거 후, 데이터 처리부(20)는 라벨링 데이터(350)가 부여된 구역 이미지(300)와 필터 간의 합성곱 연산을 기반으로 출력 이미지(400)를 생성할 수 있다(S50).After applying the labeling data 350 and removing noise, the data processing unit 20 may generate an output image 400 based on a convolution operation between the region image 300 to which the labeling data 350 is applied and the filter ( S50).

이때, 상기 출력 이미지(400) 생성 단계(S50)에서의 동작 흐름은 도 8에 도시된 바와 같이 세분화될 수 있다. 구체적으로, 데이터 처리부(20)는 라벨링 데이터(350)가 부여된 구역 이미지(300)에 양방향 필터를 적용(S51)하여 출력 이미지(400)를 생성하거나(S53), 양방향 필터 및 경계 필터를 적용(S52)하여 출력 이미지(400)를 생성할 수 있다(S53).In this case, the operation flow in the step S50 of generating the output image 400 may be subdivided as shown in FIG. 8 . Specifically, the data processing unit 20 applies the bidirectional filter to the region image 300 to which the labeling data 350 is given (S51) to generate the output image 400 (S53), or applies the bidirectional filter and the boundary filter (S52) to generate the output image 400 (S53).

출력 이미지(400) 생성 후, 데이터 처리부(20)는 출력 이미지(400)가 딥러닝 알고리즘에 적용 가능하도록 보정할 수 있고(S60), 보정이 완료된 출력 이미지(400)가 딥러닝 알고리즘에 적용 가능한 사이즈가 되도록 크롭시킬 수 있다(S70).After generating the output image 400, the data processing unit 20 may correct the output image 400 to be applicable to the deep learning algorithm (S60), and the corrected output image 400 may be applicable to the deep learning algorithm It can be cropped to the size (S70).

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of the preferred embodiments of the present invention disclosed as described above is provided to enable any person skilled in the art to make and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way in combination with each other. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.

10: 전처리부, 11: 캡쳐보드,
20: 데이터 처리부, 21: 제1 디스플레이,
22: LED 램프, 23: 대물렌즈,
24: 제2 디스플레이, 25: 산출 알고리즘,
26: 이미지 분할 알고리즘, 100: 조직 이미지,
200: 캡쳐 이미지, 250: 구역,
300: 구역 이미지, 350: 라벨링 데이터,
400: 출력 이미지.
10: preprocessor, 11: capture board,
20: data processing unit, 21: first display;
22: LED lamp, 23: objective lens,
24: second display, 25: calculation algorithm;
26: image segmentation algorithm, 100: tissue image,
200: captured image, 250: area,
300: zone image, 350: labeling data,
400: Output image.

Claims (9)

전처리부가 데이터베이스에 저장된 조직 이미지를 로딩하고, 상기 조직 이미지를 확대한 후에 라벨링 영역을 캡쳐하여 캡쳐 이미지를 생성하는 제1 단계;
데이터 처리부가 상기 전처리부로부터 상기 캡쳐 이미지를 로딩하고, 상기 로딩된 캡쳐 이미지를 출력하는 제1 디스플레이에 출력된 캡쳐 이미지를 복수의 대물렌즈를 통해 복수의 배율로 크기가 조절된 캡쳐 이미지로 출력하도록 하는 제2 단계;
상기 데이터 처리부가 복수의 배율로 크기가 조절된 캡쳐 이미지를 구역의 중복없이 하나 이상의 구역으로 분할하는 제3 단계;
상기 데이터 처리부가 상기 각 구역의 구역 이미지에 존재하는 병변을 판단하여 상기 병변에 라벨링 데이터를 부여하고, 상기 라벨링 데이터가 부여되지 않은 구역 이미지를 제거하는 제4 단계; 및
상기 데이터 처리부가 상기 라벨링 데이터가 부여된 구역 이미지와 필터 간의 합성곱 연산에 기반하여 출력 이미지를 생성하는 제5 단계;를 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
A first step of generating a captured image by the preprocessor loading the tissue image stored in the database, and capturing the labeling area after magnifying the tissue image;
The data processing unit loads the captured image from the preprocessor, and outputs the captured image output to the first display for outputting the loaded captured image as a captured image whose size is adjusted at a plurality of magnifications through a plurality of objective lenses. a second step;
a third step of dividing, by the data processing unit, the captured image whose size is adjusted by a plurality of magnifications into one or more regions without overlapping regions;
a fourth step of determining, by the data processing unit, a lesion existing in a regional image of each region, assigning labeling data to the lesion, and removing an image of a region to which the labeling data is not assigned; and
and a fifth step of the data processing unit generating an output image based on a convolution operation between the region image to which the labeling data is applied and a filter.
제 1 항에 있어서,
상기 제2 단계는,
상기 데이터 처리부에 구비된 제1 디스플레이가 배율로 크기가 조절되기 전의 캡쳐 이미지를 출력하는 단계;
상기 데이터 처리부에 하나 이상 구비된 LED 램프가 상기 제1 디스플레이에 광을 조사하는 단계;
상기 복수의 대물렌즈가 상기 제1 디스플레이로부터의 반사광을 상기 데이터 처리부에 구비된 제2 디스플레이에 집광하는 단계; 및
상기 제2 디스플레이에 상기 복수의 배율로 크기가 조절된 캡쳐 이미지가 출력되는 단계;를 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
The method of claim 1,
The second step is
outputting the captured image before the size of the first display provided in the data processing unit is adjusted by the magnification;
irradiating light to the first display by one or more LED lamps provided in the data processing unit;
condensing, by the plurality of objective lenses, the reflected light from the first display on a second display provided in the data processing unit; and
and outputting the captured image whose size is adjusted to the plurality of magnifications on the second display.
제 2 항에 있어서,
상기 제3 단계는,
상기 데이터 처리부가 산출 알고리즘을 통해 상기 제2 디스플레이에 출력된 캡쳐 이미지의 배율 및 체적치를 산출하는 단계;
상기 데이터 처리부가 이미지 분할 알고리즘을 이용하여 상기 산출 알고리즘을 통해 산출된 배율당 기설정된 구역의 개수로 상기 캡쳐 이미지의 구역을 분할하는 단계; 및
상기 데이터 처리부가 상기 산출 알고리즘을 통해 상기 각 구역의 체적치를 산출하고, 상기 캡쳐 이미지의 배율 및 체적치, 상기 각 구역의 체적치가 상기 제2 디스플레이에 출력되도록 하는 단계;를 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
3. The method of claim 2,
The third step is
calculating, by the data processing unit, a magnification and a volume value of the captured image output to the second display through a calculation algorithm;
dividing, by the data processing unit, a region of the captured image by a preset number of regions per magnification calculated through the calculation algorithm using an image division algorithm; and
and calculating, by the data processing unit, the volume value of each zone through the calculation algorithm, and outputting the magnification and volume value of the captured image and the volume value of each zone to the second display. Medical image data extraction method.
제 1 항에 있어서,
상기 제5 단계는,
상기 데이터 처리부가 상기 출력 이미지를 생성하기 위하여, 거리에 따른 가중치가 부여된 양방향 필터(Bilateral Filter)를 이용하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
The method of claim 1,
The fifth step is
The method for extracting medical image data, characterized in that the data processing unit uses a Bilateral Filter to which a weight according to a distance is assigned to generate the output image.
제 4 항에 있어서,
상기 제5 단계는,
상기 데이터 처리부가 상기 양방향 필터와 상기 구역 이미지 내 객체의 경계를 검출하는 경계 필터를 이용하여 상기 출력 이미지를 생성하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
5. The method of claim 4,
The fifth step is
and the data processing unit generates the output image by using the bidirectional filter and a boundary filter for detecting a boundary of an object in the area image.
제 1 항에 있어서,
상기 데이터 처리부가 상기 출력 이미지가 딥러닝 알고리즘에 적용 가능하도록 회전, 반전, 축소 또는 확대, 색상 조정 중 적어도 하나의 방식으로 상기 출력 이미지를 보정하는 제6 단계;를 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
The method of claim 1,
A sixth step of correcting the output image by the data processing unit in at least one of rotation, inversion, reduction or enlargement, and color adjustment so that the output image can be applied to a deep learning algorithm; How to extract data.
제 6 항에 있어서,
상기 제6 단계는,
상기 데이터 처리부가 상기 출력 이미지의 명도 및/또는 채도 조정을 통해 상기 출력 이미지의 색상 조정이 이루어지도록 하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
7. The method of claim 6,
The sixth step is
The method for extracting medical image data, characterized in that the data processing unit adjusts the color of the output image by adjusting the brightness and/or saturation of the output image.
제 6 항에 있어서,
상기 데이터 처리부가 보정된 상기 출력 이미지를 상기 딥러닝 알고리즘에 적용 가능한 사이즈로 크롭(crop)시키는 제7 단계;를 더 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
7. The method of claim 6,
A seventh step of cropping the corrected output image by the data processing unit to a size applicable to the deep learning algorithm;
제 1 항에 있어서,
상기 제1 단계는,
상기 전처리부가 캡쳐보드를 구비하여 HD, FHD, QHD, UHD 중 적어도 하나의 해상도로 라벨링 영역을 캡쳐하는 것을 특징으로 하는 의료 영상데이터 추출 방법.
The method of claim 1,
The first step is
The method of extracting medical image data, characterized in that the pre-processing unit includes a capture board to capture the labeling area in at least one of HD, FHD, QHD, and UHD resolution.
KR1020210072051A 2021-06-03 2021-06-03 Medical image data extraction method KR102383495B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210072051A KR102383495B1 (en) 2021-06-03 2021-06-03 Medical image data extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210072051A KR102383495B1 (en) 2021-06-03 2021-06-03 Medical image data extraction method

Publications (1)

Publication Number Publication Date
KR102383495B1 true KR102383495B1 (en) 2022-04-08

Family

ID=81182836

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210072051A KR102383495B1 (en) 2021-06-03 2021-06-03 Medical image data extraction method

Country Status (1)

Country Link
KR (1) KR102383495B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170017614A (en) 2015-08-07 2017-02-15 원광대학교산학협력단 Method and apparatus for computing diagnosis of sickness based on ct or mri image
KR20190105180A (en) * 2018-02-23 2019-09-16 광운대학교 산학협력단 Apparatus for Lesion Diagnosis Based on Convolutional Neural Network and Method thereof
KR20200038120A (en) * 2018-10-02 2020-04-10 한림대학교 산학협력단 Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images
KR20210034921A (en) * 2019-09-23 2021-03-31 모니터코퍼레이션 주식회사 Method for validating nodule information in medical image
KR20210043764A (en) * 2019-10-11 2021-04-22 서울여자대학교 산학협력단 Method for predicting tumor treatment response based on deep learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170017614A (en) 2015-08-07 2017-02-15 원광대학교산학협력단 Method and apparatus for computing diagnosis of sickness based on ct or mri image
KR20190105180A (en) * 2018-02-23 2019-09-16 광운대학교 산학협력단 Apparatus for Lesion Diagnosis Based on Convolutional Neural Network and Method thereof
KR20200038120A (en) * 2018-10-02 2020-04-10 한림대학교 산학협력단 Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images
KR20210034921A (en) * 2019-09-23 2021-03-31 모니터코퍼레이션 주식회사 Method for validating nodule information in medical image
KR20210043764A (en) * 2019-10-11 2021-04-22 서울여자대학교 산학협력단 Method for predicting tumor treatment response based on deep learning

Similar Documents

Publication Publication Date Title
Ma et al. Structure and illumination constrained GAN for medical image enhancement
Shen et al. Modeling and enhancing low-quality retinal fundus images
CN110123347B (en) Image processing method and device for breast molybdenum target
JP2014064941A (en) Method for calculating brightness level of digital x-ray image for medical application
CN113436070B (en) Fundus image splicing method based on deep neural network
US9867586B2 (en) Stereo X-ray tube based suppression of outside body high contrast objects
KR102383495B1 (en) Medical image data extraction method
CN116030042B (en) Diagnostic device, method, equipment and storage medium for doctor's diagnosis
CN110598652B (en) Fundus data prediction method and device
Pathak et al. Development of portable and robust cataract detection and grading system by analyzing multiple texture features for Tele-Ophthalmology
Hu et al. Multi-image stitching for smartphone-based retinal fundus stitching
CN114983334A (en) Slit lamp self-adjustment control method based on machine vision and slit lamp
JP2019208832A (en) Dental analysis system and dental analysis X-ray system
KR102257998B1 (en) Apparatus and method for cell counting
EP2693397A1 (en) Method and apparatus for noise reduction in an imaging system
KR20220169134A (en) Apparauts, system, method and program for deciphering tomography image of common bile duct stone using artificial intelligence
Zhang et al. A fundus image enhancer based on illumination-guided attention and optic disc perception GAN
CN116596861B (en) Dental lesion recognition method, system, equipment and storage medium
CN110246096B (en) Fitting correction method and device for scattered X-ray
CN114418920B (en) Endoscope multi-focus image fusion method
KR101917305B1 (en) Optometer and image processing method thereof
CN117670862A (en) Fundus lesion diagnosis system based on artificial intelligence automatic analysis
Wang et al. Focus-aware and deep restoration network with transformer for multi-focus image fusion
CN114638879A (en) Medical pupil size measuring system
Zhang et al. Large depth-of-field image fusion method for complex gyration class mechanical parts

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant