KR102383495B1 - Medical image data extraction method - Google Patents
Medical image data extraction method Download PDFInfo
- Publication number
- KR102383495B1 KR102383495B1 KR1020210072051A KR20210072051A KR102383495B1 KR 102383495 B1 KR102383495 B1 KR 102383495B1 KR 1020210072051 A KR1020210072051 A KR 1020210072051A KR 20210072051 A KR20210072051 A KR 20210072051A KR 102383495 B1 KR102383495 B1 KR 102383495B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- processing unit
- data processing
- data
- captured image
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/001—Image restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Abstract
Description
본 발명은 의료 영상데이터 추출 방법에 관한 것으로, 보다 상세하게는 딥러닝 알고리즘이 학습할 수 있는 의료 영상데이터를 추출하는 방법에 관한 것이다.The present invention relates to a method for extracting medical image data, and more particularly, to a method for extracting medical image data that can be learned by a deep learning algorithm.
현대 의학에서 효과적인 질병의 진단 및 환자의 치료를 위해 의료 영상은 매우 중요한 도구이다. 또한, 영상 기술 발달은 더욱 정교한 의료 영상 데이터를 획득 가능하게 하고 있다. 이러한 정교함의 대가로 데이터의 양은 점차 방대해지고 있어 의료 영상 데이터를 인간의 시각에 의존하여 분석하는 데 어려움이 많다. 이에, 최근 십여 년 동안 임상 의사 결정 지원 시스템 및 컴퓨터 보조 판독 시스템은 의료 영상 자동 분석에 있어서 필수적인 역할을 수행하여 왔다.Medical imaging is a very important tool for effective disease diagnosis and patient treatment in modern medicine. In addition, the development of imaging technology makes it possible to acquire more sophisticated medical image data. In exchange for such sophistication, the amount of data is gradually increasing, so it is difficult to analyze medical image data depending on the human perspective. Accordingly, clinical decision support systems and computer-aided reading systems have played an essential role in automatic medical image analysis for the past decade or so.
종래의 임상 의사 결정 지원 시스템 또는 컴퓨터 보조 판독 시스템은 병변 영역을 검출하여 표시하거나 판독 정보를 의료진 또는 의료 종사자 등(이하 사용자)에게 제시한다.A conventional clinical decision support system or computer-aided reading system detects and displays a lesion area or presents reading information to a medical staff or a medical worker (hereinafter referred to as a user).
일례로, 대한민국 공개특허공보 제10-2017-0017614호에 개시된 '의료 영상 기반의 질환 진단 정보 산출 방법 및 장치'에서는, 분석 대상 객체가 촬영된 관심 영역을 검출하고, 변동계수를 산출하고, 변동계수 이미지를 작성하고 이를 기준 샘플과 비교하는 단계를 포함하고, CT, MRI, MRa 및 초음파 영상 촬영 장치 등을 통해 획득된 의료 영상을 활용하여 환자의 질환 정도를 진단하는 효과를 언급하고 있다.For example, in the 'method and apparatus for calculating disease diagnosis information based on medical images' disclosed in Korean Patent Application Laid-Open No. 10-2017-0017614, a region of interest in which an analysis target object is photographed is detected, a coefficient of variation is calculated, and variation It includes the step of creating a counting image and comparing it with a reference sample, and refers to the effect of diagnosing the degree of disease of a patient using medical images acquired through CT, MRI, MRa, and ultrasound imaging devices.
특히, 근래에 딥러닝(Deep learning)과 같은 기계 학습(Machine learning)을 기반으로 하는 인공지능(AI) 기술은 의료 영상데이터를 이용하여 환자의 질병을 판독하는데 있어 비약적인 발전을 가져오는데 바탕이 되고 있다.In particular, in recent years, artificial intelligence (AI) technology based on machine learning such as deep learning is the basis for bringing a leap forward in reading a patient's disease using medical image data. there is.
딥러닝이란 사람의 신경세포(Biological Neuron)를 모사하여 기계가 학습하도록 하는 인공신경망(Artificial Neural Network) 기반의 기계 학습법을 의미한다. 최근, 딥러닝 기술은 이미지 인식 분야에서 비약적으로 발전하고 있고, 의료 영상데이터를 이용한 판독 분야에서도 널리 사용되고 있다.Deep learning refers to an artificial neural network-based machine learning method that simulates human biological neurons and allows machines to learn. Recently, deep learning technology has developed rapidly in the field of image recognition and is widely used in the field of reading using medical image data.
의료 영상에서의 딥러닝 기술은 질병을 포함하는 다수의 의료 영상데이터와 해당 질병을 학습 데이터로 이용하여 기계 학습이 진행되어 기계 학습 모델(이하, '판독 모델'이라 함)이 생성되고, 판독 대상 의료 영상데이터가 판독 모델에 입력되면 병변 여부를 진단하게 된다.In the deep learning technology in medical images, machine learning is performed using a number of medical image data including diseases and the diseases as learning data to generate a machine learning model (hereinafter referred to as a 'reading model'), and a target to be read When the medical image data is input to the reading model, the presence of a lesion is diagnosed.
상기와 같이, 딥러닝 기반의 기계 학습법은 판독 모델을 생성하는데 사용되는 학습 데이터, 예컨대, 다수의 병변 영상데이터와 다수의 정상 영상데이터를 수집하고, 수집된 병변 영상데이터와 정상 영상데이터를 학습하여 생성된 판독 모델이 새로이 입력된 판독 대상 의료 영상데이터의 병변 여부를 판독하게 되는 바, 다양하면서도 많은 학습 데이터가 학습에 사용될 때 판독 결과의 정확성을 높일 수 있다. 뿐만 아니라, 판독 대상 의료 영상데이터와 학습 데이터가 유사할 때 판독 결과의 정확성이 높아질 수 있다.As described above, the deep learning-based machine learning method collects learning data used to generate a reading model, for example, a plurality of lesion image data and a plurality of normal image data, and learns the collected lesion image data and normal image data. Since the generated reading model reads whether the newly input medical image data to be read is a lesion or not, it is possible to increase the accuracy of the reading result when a variety of learning data is used for learning. In addition, when the reading target medical image data and the training data are similar, the accuracy of the reading result may be increased.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 복수의 대물렌즈로 딥러닝 알고리즘이 학습할 의료 영상데이터의 배율을 조절하여 다수의 의료 영상데이터를 추출할 수 있는 의료 영상데이터 추출 방법을 제공하는데 목적이 있다.Therefore, the present invention has been devised to solve the above problems, and medical image data extraction capable of extracting a plurality of medical image data by adjusting the magnification of the medical image data to be learned by the deep learning algorithm with a plurality of objective lenses The purpose is to provide a method.
또한, 본 발명은 딥러닝 알고리즘이 학습할 수 있도록 의료 영상데이터의 보정 및 크롭(crop)이 이루어지는 의료 영상데이터 추출 방법을 제공하는데 목적이 있다.Another object of the present invention is to provide a method for extracting medical image data in which correction and cropping of medical image data are performed so that a deep learning algorithm can learn.
다만, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood
상기와 같은 목적을 달성하기 위한 기술적 방법인 의료 영상데이터 추출 방법에 있어서, 전처리부가 데이터베이스에 저장된 조직 이미지를 로딩하고, 상기 조직 이미지를 확대한 후에 라벨링 영역을 캡쳐하여 캡쳐 이미지를 생성하는 제1 단계; 데이터 처리부가 상기 전처리부로부터 상기 캡쳐 이미지를 로딩하고, 복수의 대물렌즈를 통해 상기 캡쳐 이미지의 크기를 상기 복수의 대물렌즈의 배율로 조절하는 제2 단계; 상기 데이터 처리부가 복수의 배율로 크기가 조절된 캡쳐 이미지를 구역의 중복없이 하나 이상의 구역으로 분할하는 제3 단계; 상기 데이터 처리부가 상기 각 구역의 구역 이미지에 존재하는 병변을 판단하여 상기 병변에 라벨링 데이터를 부여하고, 상기 라벨링 데이터가 부여되지 않은 구역 이미지를 제거하는 제4 단계; 및 상기 데이터 처리부가 상기 라벨링 데이터가 부여된 구역 이미지와 필터 간의 합성곱 연산에 기반하여 출력 이미지를 생성하는 제5 단계;를 포함할 수 있다.In the medical image data extraction method, which is a technical method for achieving the above object, a first step of generating a captured image by a preprocessor loading a tissue image stored in a database, enlarging the tissue image, and then capturing a labeling area ; a second step of a data processing unit loading the captured image from the preprocessing unit, and adjusting the size of the captured image through a plurality of objective lenses to the magnifications of the plurality of objective lenses; a third step of dividing, by the data processing unit, the captured image whose size is adjusted by a plurality of magnifications into one or more regions without overlapping regions; a fourth step of, by the data processing unit, determining a lesion present in the regional image of each region, assigning labeling data to the lesion, and removing the region image to which the labeling data is not assigned; and a fifth step of generating, by the data processing unit, an output image based on a convolution operation between a filter and a region image to which the labeling data is applied.
또한, 상기 제2 단계는, 상기 데이터 처리부에 구비된 제1 디스플레이가 배율로 크기가 조절되기 전의 캡쳐 이미지를 출력하는 단계; 상기 데이터 처리부에 하나 이상 구비된 LED 램프가 상기 제1 디스플레이에 광을 조사하는 단계; 상기 복수의 대물렌즈가 상기 제1 디스플레이로부터의 반사광을 상기 데이터 처리부에 구비된 제2 디스플레이에 집광하는 단계; 및 상기 제2 디스플레이에 상기 복수의 배율로 크기가 조절된 캡쳐 이미지가 출력되는 단계;를 포함할 수 있다.In addition, the second step may include: outputting a captured image before the size of the first display provided in the data processing unit is adjusted by the magnification; irradiating light to the first display by one or more LED lamps provided in the data processing unit; condensing, by the plurality of objective lenses, the reflected light from the first display on a second display provided in the data processing unit; and outputting the captured image whose size is adjusted to the plurality of magnifications on the second display.
그리고 상기 제3 단계는, 상기 데이터 처리부가 산출 알고리즘을 통해 상기 제2 디스플레이에 출력된 캡쳐 이미지의 배율 및 체적치를 산출하는 단계; 상기 데이터 처리부가 이미지 분할 알고리즘을 이용하여 상기 산출 알고리즘을 통해 산출된 배율당 기설정된 구역의 개수로 상기 캡쳐 이미지의 구역을 분할하는 단계; 및 상기 데이터 처리부가 상기 산출 알고리즘을 통해 상기 각 구역의 체적치를 산출하고, 상기 캡쳐 이미지의 배율 및 체적치, 상기 각 구역의 체적치가 상기 제2 디스플레이에 출력되도록 하는 단계;를 포함할 수 있다.The third step may include: calculating, by the data processing unit, a magnification and a volume value of the captured image output to the second display through a calculation algorithm; dividing, by the data processing unit, a region of the captured image by a preset number of regions per magnification calculated through the calculation algorithm using an image division algorithm; and calculating, by the data processing unit, the volume value of each zone through the calculation algorithm, and outputting the magnification and volume value of the captured image, and the volume value of each zone to the second display.
또한, 상기 제5 단계는, 상기 데이터 처리부가 상기 출력 이미지를 생성하기 위하여, 거리에 따른 가중치가 부여된 양방향 필터(Bilateral Filter)를 이용할 수 있다.In addition, in the fifth step, in order to generate the output image, the data processing unit may use a Bilateral Filter to which a weight is given according to a distance.
그리고 상기 제5 단계는, 상기 데이터 처리부가 상기 양방향 필터와 상기 구역 이미지 내 객체의 경계를 검출하는 경계 필터를 이용하여 상기 출력 이미지를 생성할 수 있다.In the fifth step, the data processing unit may generate the output image using the bidirectional filter and a boundary filter for detecting a boundary of an object in the area image.
또한, 상기 의료 영상데이터 추출 방법은, 상기 데이터 처리부가 상기 출력 이미지가 딥러닝 알고리즘에 적용 가능하도록 회전, 반전, 축소 또는 확대, 색상 조정 중 적어도 하나의 방식으로 상기 출력 이미지를 보정하는 제6 단계;를 포함할 수 있다.In addition, the medical image data extraction method includes a sixth step of correcting the output image by the data processing unit using at least one of rotation, inversion, reduction or enlargement, and color adjustment so that the output image can be applied to a deep learning algorithm. ; may be included.
그리고 상기 제6 단계는, 상기 데이터 처리부가 상기 출력 이미지의 명도 및/또는 채도 조정을 통해 상기 출력 이미지의 색상 조정이 이루어지도록 할 수 있다.In the sixth step, the data processing unit may adjust the color of the output image by adjusting the brightness and/or saturation of the output image.
또한, 상기 의료 영상데이터 추출 방법은, 상기 데이터 처리부가 보정된 상기 출력 이미지를 상기 딥러닝 알고리즘에 적용 가능한 사이즈로 크롭(crop)시키는 제7 단계;를 더 포함할 수 있다.The method for extracting medical image data may further include a seventh step of cropping the corrected output image by the data processing unit to a size applicable to the deep learning algorithm.
그리고 상기 제1 단계는, 상기 전처리부가 캡쳐보드를 구비하여 HD, FHD, QHD, UHD 중 적어도 하나의 해상도로 라벨링 영역을 캡쳐할 수 있다.And, in the first step, the pre-processing unit may include a capture board to capture the labeling area with at least one resolution of HD, FHD, QHD, and UHD.
본 발명은 복수의 대물렌즈를 이용한 배율 조절을 통해 딥러닝 알고리즘이 학습할 의료 영상데이터를 다양하게 추출하는 효과가 있다.The present invention has an effect of variously extracting medical image data to be learned by a deep learning algorithm through magnification adjustment using a plurality of objective lenses.
또한, 본 발명은 의료 영상데이터의 보정 및 크롭을 통해 딥러닝 알고리즘의 학습 데이터와 유사한 의료 영상데이터를 딥러닝 알고리즘에 제공하여 딥러닝 알고리즘의 판독 결과의 정확성이 향상되도록 하는 효과가 있다.In addition, the present invention has the effect of improving the accuracy of the reading result of the deep learning algorithm by providing medical image data similar to the learning data of the deep learning algorithm to the deep learning algorithm through correction and cropping of the medical image data.
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able
도 1은 본 발명의 일 실시예에 따른 의료 영상데이터 추출 장치의 개략적인 블록도이다.
도 2는 전처리부가 로딩하는 일례의 조직 이미지이다.
도 3은 데이터 처리부가 로딩하는 일례의 캡쳐 이미지 및 구역 이미지이다.
도 4는 데이터 처리부가 생성하는 일례의 출력 이미지이다.
도 5는 본 발명의 일 실시예에 따른 의료 영상데이터 추출 방법에 대한 동작 흐름도이다.
도 6은 캡쳐 이미지 로딩 및 배율 조절 단계의 세부 동작 흐름도이다.
도 7은 캡쳐 이미지 구역 분할 단계의 세부 동작 흐름도이다.
도 8은 출력 이미지 생성 단계의 세부 동작 흐름도이다.1 is a schematic block diagram of an apparatus for extracting medical image data according to an embodiment of the present invention.
2 is an example tissue image loaded by the preprocessor.
3 is an example of a captured image and a region image loaded by the data processing unit.
4 is an example output image generated by the data processing unit.
5 is an operation flowchart of a method for extracting medical image data according to an embodiment of the present invention.
6 is a detailed operation flowchart of the capture image loading and magnification adjustment steps.
7 is a detailed operation flowchart of the capture image segmentation step.
8 is a detailed operation flowchart of the step of generating an output image.
이하에서는, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment may have various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.
본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of the terms described in the present invention should be understood as follows.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component. When a component is referred to as being “connected to” another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. Meanwhile, other expressions describing the relationship between elements, that is, "between" and "between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprise" or "have" are not intended to refer to the specified feature, number, step, action, component, part or any of them. It is intended to indicate that a combination exists, and it should be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms defined in the dictionary should be interpreted as being consistent with the meaning of the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present invention.
도 1은 본 발명의 일 실시예에 따른 의료 영상데이터 추출 장치의 개략적인 블록도이고, 도 2는 전처리부가 로딩하는 일례의 조직 이미지이며, 도 3은 데이터 처리부가 로딩하는 일례의 캡쳐 이미지 및 구역 이미지이고, 도 4는 데이터 처리부가 생성하는 일례의 출력 이미지이다.1 is a schematic block diagram of an apparatus for extracting medical image data according to an embodiment of the present invention, FIG. 2 is an example tissue image loaded by the preprocessor, and FIG. 3 is an example captured image and region loaded by the data processing unit image, and FIG. 4 is an example output image generated by the data processing unit.
도 1 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 의료 영상데이터 추출 장치는 전처리부(10) 및 데이터 처리부(20)가 구비되고, 상기 전처리부(10) 및 데이터 처리부(20)는 데이터(이미지, 영상, 텍트) 및 각종 통신 신호를 네트워크를 통해 송수신할 수 있다. 또한, 의료 영상데이터 추출 장치는 데이터 저장 및 처리의 기능을 가지는 모든 종류의 서버, 단말 또는 디바이스를 포함할 수 있다.1 to 4 , the apparatus for extracting medical image data according to an embodiment of the present invention includes a
상기 의료 영상데이터 추출 장치는 네트워크를 통해 상기 전처리부(10) 및 데이터 처리부(20)에서 생성된 데이터의 공유가 이루어지도록 하고, 이러한 네트워크는 구체적으로 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 유무선 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, Wifi 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.The apparatus for extracting medical image data allows the data generated by the
상기 의료 영상데이터 추출 장치는 병변이 포함된 의료 영상데이터인 조직 이미지(100), 캡쳐 이미지(200), 구역 이미지(300) 및 출력 이미지(400)가 각각 저장되는 데이터베이스를 포함하며, 딥러닝 알고리즘의 학습에 이용될 출력 이미지(400)를 딥러닝 알고리즘에 송신한다. 이에, 본 발명의 딥러닝 알고리즘은 출력 이미지(400)를 통해 학습하여 의료 영상데이터를 추출하는 것이 가능해진다.The apparatus for extracting medical image data includes a database in which a
전처리부(10)는 데이터베이스로부터 조직 이미지(100)를 로딩하고, 조직 이미지(100)를 일정 배율로 확대시킨 후에 딥러닝 알고리즘이 학습할 라벨링 영역을 캡쳐하여 캡쳐 이미지(200)를 생성하며, 상기 캡쳐 이미지(200)가 데이터베이스에 저장되도록 한다. 이때, 일정 배율은 후술될 대물렌즈(23)의 복수 배율 중 적어도 하나의 배율과 동일한 배율일 수 있다.The
상기 전처리부(10)는 조직 이미지(100)로부터 라벨링 영역을 캡쳐하기 위해 캡쳐보드(11)가 구비된다.The
캡쳐보드(11)는 조직 이미지(100)의 라벨링 영역을 HD(High Definition), FHD(Full High Definition), QHD(Quad High Definition), UHD(Ultra High Definition)중 적어도 하나의 해상도로 캡쳐하여 상기 해상도의 캡쳐 이미지(200)를 생성한다. 다만, 캡쳐보드(11)가 라벨링 영역을 캡쳐하는 해상도는 이에 한정되는 것은 아니다.The
데이터 처리부(20)는 전처리부(10)로부터 생성된 캡쳐 이미지(200)를 데이터베이스로부터 로딩하며, 로딩한 캡쳐 이미지(200)의 배율을 조절하기 위해 제1 디스플레이(21), LED 램프(22), 대물렌즈(23) 및 제2 디스플레이(24)가 구비된다.The
제1 디스플레이(21)는 데이터베이스로부터 대물렌즈(23)의 배율로 크기가 조절되기 전 상태의 캡쳐 이미지(200)를 로딩하고, 로딩된 캡쳐 이미지(200)를 출력한다.The
LED 램프(22)는 대물렌즈(23)의 광학축을 둘러싸 제1 디스플레이(21)에 출력된 캡쳐 이미지(200)를 향해 광을 조사하는 LED가 구비되고, 제1 디스플레이(21)에 출력된 캡쳐 이미지(200)를 향해 조사되는 광이 복수로 구비된 대물렌즈(23) 각각에 반사되도록 하기 위해 복수로 구비될 수 있다.The
대물렌즈(23)는 복수의 LED 램프(22)에 의해 발생되는 제1 디스플레이(21)로부터의 반사광이 제2 디스플레이(24)에 각각 집광되도록 하고, 캡쳐 이미지(200)가 복수의 배율로 크기가 조절되도록 하기 위해 복수로 구비될 수 있다.The
이때, 대물렌즈(23)는 캡쳐 이미지(200)의 배율을 200 %(40x), 100 %(20x), 50 %(10x), 25 %(5x), 20 %(4x)로 조절할 수 있다. 다만, 대물렌즈(23)의 배율은 이에 한정된 것은 아니다.In this case, the
상기 대물렌즈(23)는 캡쳐 이미지(200)의 배율 조절을 통해 딥러닝 알고리즘이 학습할 의료 영상데이터를 다양하게 추출하는 효과가 있다.The
제2 디스플레이(24)는 각각의 대물렌즈(23)와 1:1로 대응하여 상기 대물렌즈(23)가 집광시키는 캡쳐 이미지(200)를 출력하고, 각각의 대물렌즈(23)와 1:1로 대응하기 위해 복수로 구비되는 것이 바람직하다.The
상기 복수의 제2 디스플레이(24)는 사용자가 확인 가능한 디스플레이 일 수 있으며, 적어도 하나의 제2 디스플레이(24)는 캡쳐 이미지(200)의 출력 뿐만 아니라, 구역 이미지(300) 및 출력 이미지(400)를 출력하여 사용자에게 구역 이미지(300) 및 출력 이미지(400)를 제공하는 디스플레이일 수 있다.The plurality of
상기 데이터 처리부(20)는 캡쳐 이미지(200)의 구역(250)을 분할하기 위해 산출 알고리즘(25) 및 이미지 분할 알고리즘(26)이 더 구비된다.The
산출 알고리즘(25)은 복수의 제2 디스플레이(24)에 각각 출력된 캡쳐 이미지(200)의 배율 및 체적치를 각각 산출하고, 이미지 분할 알고리즘(26)을 통해 캡쳐 이미지(200)의 구역(250)을 도 3에 도시된 바와 같이 가로(칸) 8 x 세로(줄) 4로 분할시킬 수 있다. 또한, 상기 구역(250)의 분할이 완료되면 상기 구역(250)의 체적치를 산출하며, 캡쳐 이미지(200)의 배율 및 체적치, 상기 구역(250)의 체적치가 캡쳐 이미지(200)와 함께 복수의 제2 디스플레이(24)에 각각 출력되도록 한다.The
이때, 산출 알고리즘(25)이 캡쳐 이미지(200)의 구역(250)을 분할하는 것은 가로 8 x 세로 4로 한정되는 것은 아니며, 구역(250)의 분할 개수는 캡쳐 이미지(200)의 배율에 따라 달라질 수 있다.At this time, the division of the
이미지 분할 알고리즘(26)은 산출 알고리즘(25)을 통해 산출된 배율당 기설정된 구역의 개수로 캡쳐 이미지(200)의 구역(250)을 분할하여 각 구역(250) 당 하나 이상의 구역 이미지(300)를 추출한다.The
상기 데이터 처리부(20)는 구역 이미지(300) 중에서 병변의 여부를 판단하여 병변에 라벨링 데이터(350)를 부여하고, 라벨링 데이터(350)가 부여되지 않은 노이즈 데이터를 제거한다. 구체적으로, 상기 데이터 처리부(20)는 병변 판단 알고리즘(미도시)을 구비하며, 상기 병변 판단 알고리즘을 통해 병변의 여부를 판단하여 병변이 존재하는 제1 구역 이미지(300a)의 병변에 라벨링 데이터(350)를 부여하고, 노이즈 제거 알고리즘(미도시)을 구비하여 병변이 미존재함에 따라 라벨링 데이터(350)가 부여되지 않은 제2 구역 이미지(300b)를 구역 이미지(300)로부터 제거한다.The
상기 데이터 처리부(20)는 합성곱 신경망을 구축하여 라벨링 데이터(350)가 부여된 구역 이미지(300)와 필터 간의 합성곱 연산을 기반으로 출력 이미지(400)를 생성한다. 구체적으로, 상기 데이터 처리부(20)는 각 픽셀의 주변 요소들로부터 가중 평균을 구하며, 중심 픽셀 값과의 밝기 차이에 의해 결정되는 가중치를 사용하는 양방향 필터(Bilateral Filter)를 단독 이용하거나, 상기 양방향 필터와 구역 이미지(300) 내 객체의 경계를 검출하는 경계 필터를 결합한 필터를 이용하는 합성곱 연산으로 구역 이미지(300)를 보정(또는 영상 처리)하여 구역 이미지(300)와 동일 개수의 출력 이미지(400)를 생성한다. 다만, 필터는 이에 한정되는 것은 아니며 평균 블러링 필터, 미디안 블러링 필터, 가이디드 이미지 필터 등이 더 포함되어 구역 이미지(300)와의 합성곱 연산이 이루어질 수 있다.The
상기 데이터 처리부(20)는 생성된 출력 이미지(400)가 딥러닝 알고리즘에 적용 가능한 상태가 되도록 하기 위해 출력 이미지(400)의 회전, 반전, 축소 또는 확대, 색상 조정 중 적어도 하나의 방식으로 출력 이미지(400)를 보정한다. 구체적으로, 상기 데이터 처리부(20)는 출력 이미지(400)의 0~360°의 회전, 상하 및/또는 좌우 반전, 상하 및/또는 좌우의 축소, 상하 및/또는 좌우의 확대, 명도 및/또는 채도 조정을 출력 이미지(400)를 보정한다.The
상기 출력 이미지(400)의 보정 과정은 출력 이미지(400)가 이미 딥러닝 알고리즘에 적용 가능한 형태라면 생략될 수 있다.The correction process of the
상기 데이터 처리부(20)는 출력 이미지(400)가 딥러닝 알고리즘에 적용 가능한 사이즈로 변형되도록 하기 위해 출력 이미지(400)를 크롭(crop)시킨다. 이때, 출력 이미지(400)가 이미 딥러닝 알고리즘에 적용 가능한 사이즈라면 크롭 과정이 생략될 수 있다.The
상기 데이터 처리부(20)는 출력 이미지(400)의 보정 및 크롭을 통해 딥러닝 알고리즘의 학습 데이터와 유사한 출력 이미지(400)를 딥러닝 알고리즘에 제공하여 딥러닝 알고리즘의 판독 결과의 정확성이 향상되도록 하는 효과가 있다.The
도 5는 본 발명의 일 실시예에 따른 의료 영상데이터 추출 방법에 대한 동작 흐름도이고, 도 6은 캡쳐 이미지 로딩 및 배율 조절 단계의 세부 동작 흐름도이며, 도 7은 캡쳐 이미지 구역 분할 단계의 세부 동작 흐름도이고, 도 8은 출력 이미지 생성 단계의 세부 동작 흐름도이다.5 is an operation flowchart of a method for extracting medical image data according to an embodiment of the present invention, FIG. 6 is a detailed operation flowchart of a capture image loading and magnification adjustment step, and FIG. 7 is a detailed operation flowchart of a captured image region division step and FIG. 8 is a detailed operation flowchart of the step of generating an output image.
도 5 내지 도 8에 도시된 의료 영상데이터 추출 방법은 상기 본 발명의 일 실시예에 따른 의료 영상데이터 추출 장치에 의해 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 의료 영상데이터 추출 장치에 대하여 설명된 내용은 의료 영상데이터 추출 방법에 대한 설명에도 동일하게 적용될 수 있다.The method of extracting medical image data shown in FIGS. 5 to 8 may be performed by the apparatus for extracting medical image data according to an embodiment of the present invention. Accordingly, even if omitted below, the description of the apparatus for extracting medical image data may be equally applied to the description of the method of extracting medical image data.
먼저, 전처리부(10)는 조직 이미지(100)를 데이터베이스로부터 로딩하고, 캡쳐보드(11)를 통해 특정 해상도의 라벨링 영역을 캡쳐하여 캡쳐 이미지(200)를 생성할 수 있다(S10).First, the
캡쳐 이미지(200)가 데이터베이스에 저장된 후, 데이터 처리부(20)는 캡쳐 이미지(200)를 데이터베이스로부터 로딩하고, 캡쳐 이미지(200)의 배율을 조절할 수 있다(S20).After the captured
이때, 상기 캡쳐 이미지(200) 로딩 및 배율 조절 단계(S20)에서의 동작 흐름은 도 6에 도시된 바와 같이 세분화될 수 있다. 구체적으로, 제1 디스플레이(21)는 캡쳐 이미지(200)를 데이터베이스로부터 로딩(S21)하여 출력할 수 있고, LED 램프(22)는 제1 디스플레이(21)에 출력된 캡쳐 이미지(200)를 향해 광을 조사할 수 있으며(S22), 대물렌즈(23)는 제1 디스플레이(21)의 반사광을 집광(S23)할 수 있고, 제2 디스플레이(24)는 대물렌즈(23)가 집광시키는 대물렌즈(23)의 배율로 크기가 조절된 캡쳐 이미지(200)를 출력할 수 있다(S24).In this case, the operation flow in the loading and magnification adjustment step S20 of the captured
캡쳐 이미지(200)의 배율 조절 후, 데이터 처리부(20)는 배율이 조절된 캡쳐 이미지(200)의 구역(250)을 분할(S30)하여, 구역 이미지(300)를 추출할 수 있다.After adjusting the magnification of the captured
이때, 상기 캡쳐 이미지(200)의 구역(250) 분할 단계(S30)에서의 동작 흐름은 도 7에 도시된 바와 같이 세분화될 수 있다. 구체적으로, 데이터 처리부(20)는 산출 알고리즘(25)을 통해 제2 디스플레이(24)에 출력된 캡쳐 이미지(200)의 배율 및 체적치를 산출할 수 있고(S31), 이미지 분할 알고리즘(26)을 통해 배율당 기설정된 구역의 개수로 제2 디스플레이(24)에 출력된 캡쳐 이미지(200)의 구역(250)을 분할할 수 있으며(S32), 산출 알고리즘(25)을 통해 각 구역(250)의 체적치를 산출(S33)하여, 제2 디스플레이(24)에 캡쳐 이미지(200)의 배율 및 체적치, 각 구역(250)의 체적치를 출력시킬 수 있다(S34).In this case, the operation flow in the segmentation step S30 of the
한편, 본 발명의 일 실시예에서 캡쳐 이미지(200)는 200 %(40x), 100 %(20x), 50 %(10x), 25 %(5x), 20 %(4x)의 배율로 크기가 조절될 수 있으며, 데이터 처리부(20)가 이미지 분할 알고리즘(26)을 통해 캡쳐 이미지(200)의 구역(250)을 분할하기 위한 배율당 기설정된 구역의 개수 기준은 이하의 [표 1]과 같다.Meanwhile, in an embodiment of the present invention, the captured
상기 [표 1]을 참조하면, 상기 데이터 처리부(20)는 복수의 제2 디스플레이(24)에 각각 출력된 캡쳐 이미지(200)의 구역을 총 171개로 분할시켜 구역 이미지(300)를 추출할 수 있다. 다만, 이에 한정되는 것은 아니며 구역 이미지(300)는 구역(250) 내에서 이동하면서 각 구역(250)당 최대 8개까지 추출될 수 있다. 이에, 구역 이미지(300)는 최소 171개에서 최대 1,368개까지 추출될 수 있다.Referring to [Table 1], the
구역 이미지(300)의 추출 후, 데이터 처리부(20)는 구역 이미지(300) 중 제1 구역 이미지(300a)의 병변에 라벨링 데이터(350)를 부여하고, 병변이 존재하지 않아 라벨링 데이터(350)가 미부여되는 제2 구역 이미지(300b)를 노이즈 데이터로 판단하여 제거할 수 있다(S40).After the
라벨링 데이터(350) 부여 및 노이즈 제거 후, 데이터 처리부(20)는 라벨링 데이터(350)가 부여된 구역 이미지(300)와 필터 간의 합성곱 연산을 기반으로 출력 이미지(400)를 생성할 수 있다(S50).After applying the
이때, 상기 출력 이미지(400) 생성 단계(S50)에서의 동작 흐름은 도 8에 도시된 바와 같이 세분화될 수 있다. 구체적으로, 데이터 처리부(20)는 라벨링 데이터(350)가 부여된 구역 이미지(300)에 양방향 필터를 적용(S51)하여 출력 이미지(400)를 생성하거나(S53), 양방향 필터 및 경계 필터를 적용(S52)하여 출력 이미지(400)를 생성할 수 있다(S53).In this case, the operation flow in the step S50 of generating the
출력 이미지(400) 생성 후, 데이터 처리부(20)는 출력 이미지(400)가 딥러닝 알고리즘에 적용 가능하도록 보정할 수 있고(S60), 보정이 완료된 출력 이미지(400)가 딥러닝 알고리즘에 적용 가능한 사이즈가 되도록 크롭시킬 수 있다(S70).After generating the
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of the preferred embodiments of the present invention disclosed as described above is provided to enable any person skilled in the art to make and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way in combination with each other. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.
본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.
10: 전처리부, 11: 캡쳐보드,
20: 데이터 처리부, 21: 제1 디스플레이,
22: LED 램프, 23: 대물렌즈,
24: 제2 디스플레이, 25: 산출 알고리즘,
26: 이미지 분할 알고리즘, 100: 조직 이미지,
200: 캡쳐 이미지, 250: 구역,
300: 구역 이미지, 350: 라벨링 데이터,
400: 출력 이미지.10: preprocessor, 11: capture board,
20: data processing unit, 21: first display;
22: LED lamp, 23: objective lens,
24: second display, 25: calculation algorithm;
26: image segmentation algorithm, 100: tissue image,
200: captured image, 250: area,
300: zone image, 350: labeling data,
400: Output image.
Claims (9)
데이터 처리부가 상기 전처리부로부터 상기 캡쳐 이미지를 로딩하고, 상기 로딩된 캡쳐 이미지를 출력하는 제1 디스플레이에 출력된 캡쳐 이미지를 복수의 대물렌즈를 통해 복수의 배율로 크기가 조절된 캡쳐 이미지로 출력하도록 하는 제2 단계;
상기 데이터 처리부가 복수의 배율로 크기가 조절된 캡쳐 이미지를 구역의 중복없이 하나 이상의 구역으로 분할하는 제3 단계;
상기 데이터 처리부가 상기 각 구역의 구역 이미지에 존재하는 병변을 판단하여 상기 병변에 라벨링 데이터를 부여하고, 상기 라벨링 데이터가 부여되지 않은 구역 이미지를 제거하는 제4 단계; 및
상기 데이터 처리부가 상기 라벨링 데이터가 부여된 구역 이미지와 필터 간의 합성곱 연산에 기반하여 출력 이미지를 생성하는 제5 단계;를 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.A first step of generating a captured image by the preprocessor loading the tissue image stored in the database, and capturing the labeling area after magnifying the tissue image;
The data processing unit loads the captured image from the preprocessor, and outputs the captured image output to the first display for outputting the loaded captured image as a captured image whose size is adjusted at a plurality of magnifications through a plurality of objective lenses. a second step;
a third step of dividing, by the data processing unit, the captured image whose size is adjusted by a plurality of magnifications into one or more regions without overlapping regions;
a fourth step of determining, by the data processing unit, a lesion existing in a regional image of each region, assigning labeling data to the lesion, and removing an image of a region to which the labeling data is not assigned; and
and a fifth step of the data processing unit generating an output image based on a convolution operation between the region image to which the labeling data is applied and a filter.
상기 제2 단계는,
상기 데이터 처리부에 구비된 제1 디스플레이가 배율로 크기가 조절되기 전의 캡쳐 이미지를 출력하는 단계;
상기 데이터 처리부에 하나 이상 구비된 LED 램프가 상기 제1 디스플레이에 광을 조사하는 단계;
상기 복수의 대물렌즈가 상기 제1 디스플레이로부터의 반사광을 상기 데이터 처리부에 구비된 제2 디스플레이에 집광하는 단계; 및
상기 제2 디스플레이에 상기 복수의 배율로 크기가 조절된 캡쳐 이미지가 출력되는 단계;를 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.The method of claim 1,
The second step is
outputting the captured image before the size of the first display provided in the data processing unit is adjusted by the magnification;
irradiating light to the first display by one or more LED lamps provided in the data processing unit;
condensing, by the plurality of objective lenses, the reflected light from the first display on a second display provided in the data processing unit; and
and outputting the captured image whose size is adjusted to the plurality of magnifications on the second display.
상기 제3 단계는,
상기 데이터 처리부가 산출 알고리즘을 통해 상기 제2 디스플레이에 출력된 캡쳐 이미지의 배율 및 체적치를 산출하는 단계;
상기 데이터 처리부가 이미지 분할 알고리즘을 이용하여 상기 산출 알고리즘을 통해 산출된 배율당 기설정된 구역의 개수로 상기 캡쳐 이미지의 구역을 분할하는 단계; 및
상기 데이터 처리부가 상기 산출 알고리즘을 통해 상기 각 구역의 체적치를 산출하고, 상기 캡쳐 이미지의 배율 및 체적치, 상기 각 구역의 체적치가 상기 제2 디스플레이에 출력되도록 하는 단계;를 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.3. The method of claim 2,
The third step is
calculating, by the data processing unit, a magnification and a volume value of the captured image output to the second display through a calculation algorithm;
dividing, by the data processing unit, a region of the captured image by a preset number of regions per magnification calculated through the calculation algorithm using an image division algorithm; and
and calculating, by the data processing unit, the volume value of each zone through the calculation algorithm, and outputting the magnification and volume value of the captured image and the volume value of each zone to the second display. Medical image data extraction method.
상기 제5 단계는,
상기 데이터 처리부가 상기 출력 이미지를 생성하기 위하여, 거리에 따른 가중치가 부여된 양방향 필터(Bilateral Filter)를 이용하는 것을 특징으로 하는 의료 영상데이터 추출 방법.The method of claim 1,
The fifth step is
The method for extracting medical image data, characterized in that the data processing unit uses a Bilateral Filter to which a weight according to a distance is assigned to generate the output image.
상기 제5 단계는,
상기 데이터 처리부가 상기 양방향 필터와 상기 구역 이미지 내 객체의 경계를 검출하는 경계 필터를 이용하여 상기 출력 이미지를 생성하는 것을 특징으로 하는 의료 영상데이터 추출 방법.5. The method of claim 4,
The fifth step is
and the data processing unit generates the output image by using the bidirectional filter and a boundary filter for detecting a boundary of an object in the area image.
상기 데이터 처리부가 상기 출력 이미지가 딥러닝 알고리즘에 적용 가능하도록 회전, 반전, 축소 또는 확대, 색상 조정 중 적어도 하나의 방식으로 상기 출력 이미지를 보정하는 제6 단계;를 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.The method of claim 1,
A sixth step of correcting the output image by the data processing unit in at least one of rotation, inversion, reduction or enlargement, and color adjustment so that the output image can be applied to a deep learning algorithm; How to extract data.
상기 제6 단계는,
상기 데이터 처리부가 상기 출력 이미지의 명도 및/또는 채도 조정을 통해 상기 출력 이미지의 색상 조정이 이루어지도록 하는 것을 특징으로 하는 의료 영상데이터 추출 방법.7. The method of claim 6,
The sixth step is
The method for extracting medical image data, characterized in that the data processing unit adjusts the color of the output image by adjusting the brightness and/or saturation of the output image.
상기 데이터 처리부가 보정된 상기 출력 이미지를 상기 딥러닝 알고리즘에 적용 가능한 사이즈로 크롭(crop)시키는 제7 단계;를 더 포함하는 것을 특징으로 하는 의료 영상데이터 추출 방법.7. The method of claim 6,
A seventh step of cropping the corrected output image by the data processing unit to a size applicable to the deep learning algorithm;
상기 제1 단계는,
상기 전처리부가 캡쳐보드를 구비하여 HD, FHD, QHD, UHD 중 적어도 하나의 해상도로 라벨링 영역을 캡쳐하는 것을 특징으로 하는 의료 영상데이터 추출 방법.The method of claim 1,
The first step is
The method of extracting medical image data, characterized in that the pre-processing unit includes a capture board to capture the labeling area in at least one of HD, FHD, QHD, and UHD resolution.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210072051A KR102383495B1 (en) | 2021-06-03 | 2021-06-03 | Medical image data extraction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210072051A KR102383495B1 (en) | 2021-06-03 | 2021-06-03 | Medical image data extraction method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102383495B1 true KR102383495B1 (en) | 2022-04-08 |
Family
ID=81182836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210072051A KR102383495B1 (en) | 2021-06-03 | 2021-06-03 | Medical image data extraction method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102383495B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170017614A (en) | 2015-08-07 | 2017-02-15 | 원광대학교산학협력단 | Method and apparatus for computing diagnosis of sickness based on ct or mri image |
KR20190105180A (en) * | 2018-02-23 | 2019-09-16 | 광운대학교 산학협력단 | Apparatus for Lesion Diagnosis Based on Convolutional Neural Network and Method thereof |
KR20200038120A (en) * | 2018-10-02 | 2020-04-10 | 한림대학교 산학협력단 | Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images |
KR20210034921A (en) * | 2019-09-23 | 2021-03-31 | 모니터코퍼레이션 주식회사 | Method for validating nodule information in medical image |
KR20210043764A (en) * | 2019-10-11 | 2021-04-22 | 서울여자대학교 산학협력단 | Method for predicting tumor treatment response based on deep learning |
-
2021
- 2021-06-03 KR KR1020210072051A patent/KR102383495B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170017614A (en) | 2015-08-07 | 2017-02-15 | 원광대학교산학협력단 | Method and apparatus for computing diagnosis of sickness based on ct or mri image |
KR20190105180A (en) * | 2018-02-23 | 2019-09-16 | 광운대학교 산학협력단 | Apparatus for Lesion Diagnosis Based on Convolutional Neural Network and Method thereof |
KR20200038120A (en) * | 2018-10-02 | 2020-04-10 | 한림대학교 산학협력단 | Apparatus and method for diagnosing gastric lesion using deep learning of endoscopic images |
KR20210034921A (en) * | 2019-09-23 | 2021-03-31 | 모니터코퍼레이션 주식회사 | Method for validating nodule information in medical image |
KR20210043764A (en) * | 2019-10-11 | 2021-04-22 | 서울여자대학교 산학협력단 | Method for predicting tumor treatment response based on deep learning |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ma et al. | Structure and illumination constrained GAN for medical image enhancement | |
Shen et al. | Modeling and enhancing low-quality retinal fundus images | |
CN110123347B (en) | Image processing method and device for breast molybdenum target | |
JP2014064941A (en) | Method for calculating brightness level of digital x-ray image for medical application | |
CN113436070B (en) | Fundus image splicing method based on deep neural network | |
US9867586B2 (en) | Stereo X-ray tube based suppression of outside body high contrast objects | |
KR102383495B1 (en) | Medical image data extraction method | |
CN116030042B (en) | Diagnostic device, method, equipment and storage medium for doctor's diagnosis | |
CN110598652B (en) | Fundus data prediction method and device | |
Pathak et al. | Development of portable and robust cataract detection and grading system by analyzing multiple texture features for Tele-Ophthalmology | |
Hu et al. | Multi-image stitching for smartphone-based retinal fundus stitching | |
CN114983334A (en) | Slit lamp self-adjustment control method based on machine vision and slit lamp | |
JP2019208832A (en) | Dental analysis system and dental analysis X-ray system | |
KR102257998B1 (en) | Apparatus and method for cell counting | |
EP2693397A1 (en) | Method and apparatus for noise reduction in an imaging system | |
KR20220169134A (en) | Apparauts, system, method and program for deciphering tomography image of common bile duct stone using artificial intelligence | |
Zhang et al. | A fundus image enhancer based on illumination-guided attention and optic disc perception GAN | |
CN116596861B (en) | Dental lesion recognition method, system, equipment and storage medium | |
CN110246096B (en) | Fitting correction method and device for scattered X-ray | |
CN114418920B (en) | Endoscope multi-focus image fusion method | |
KR101917305B1 (en) | Optometer and image processing method thereof | |
CN117670862A (en) | Fundus lesion diagnosis system based on artificial intelligence automatic analysis | |
Wang et al. | Focus-aware and deep restoration network with transformer for multi-focus image fusion | |
CN114638879A (en) | Medical pupil size measuring system | |
Zhang et al. | Large depth-of-field image fusion method for complex gyration class mechanical parts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |