KR102043672B1 - System and method for lesion interpretation based on deep learning - Google Patents

System and method for lesion interpretation based on deep learning Download PDF

Info

Publication number
KR102043672B1
KR102043672B1 KR1020190036959A KR20190036959A KR102043672B1 KR 102043672 B1 KR102043672 B1 KR 102043672B1 KR 1020190036959 A KR1020190036959 A KR 1020190036959A KR 20190036959 A KR20190036959 A KR 20190036959A KR 102043672 B1 KR102043672 B1 KR 102043672B1
Authority
KR
South Korea
Prior art keywords
image
read
reading
patch
deep learning
Prior art date
Application number
KR1020190036959A
Other languages
Korean (ko)
Inventor
최우식
김태규
이용은
배준호
김화평
박무성
Original Assignee
주식회사 딥노이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥노이드 filed Critical 주식회사 딥노이드
Priority to KR1020190036959A priority Critical patent/KR102043672B1/en
Application granted granted Critical
Publication of KR102043672B1 publication Critical patent/KR102043672B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

The present invention relates to a system and a method for deciphering a lesion based on deep learning. According to the present invention, the system for deciphering a lesion comprises: a patch generation unit to generate a plurality of image patches for deciphering different from each other on an area to be deciphered in a medical image to be deciphered; a deep learning-based deciphering unit which has a deciphering model pre-learned with lesion images and normal images as learning data, and receives the image patches for deciphering to decipher the status of a legion of the image patches for deciphering by the deciphering model; a patch overlapping unit to give weights to the image patches for deciphering in accordance with deciphering results of the deep learning-based deciphering unit, and match the image patches for deciphering to correspond to each other to overlap the image patches for deciphering; and a deciphering control unit to sum up the weights between pixels corresponding to each other of the image patches for deciphering overlapped by the patch overlapping unit to calculate a weight sum value, and compare the weight sum value of the pixels and a preset reference value to detect a legion in the area to be deciphered. Accordingly, the medical image to be deciphered can be robustly and accurately deciphered in spite of changes of the photographing position, size, and direction of the medical image to be deciphered to detect the status of a legion and the position of the legion.

Description

딥러닝 기반의 병변 판독 시스템 및 방법{SYSTEM AND METHOD FOR LESION INTERPRETATION BASED ON DEEP LEARNING}Deep learning-based lesion reading system and method {SYSTEM AND METHOD FOR LESION INTERPRETATION BASED ON DEEP LEARNING}

본 발명은 딥러닝 기반의 병변 판독 시스템 및 방법에 관한 것으로서, 보다 상세하게는 판독 대상 의료 영상의 촬영 위치, 사이즈, 방향 등의 변화에도 강인하게 판독 대상 의료 영상을 보다 정확하게 판독할 수 있는는 딥러닝 기반의 병변 판독 시스템 및 방법에 관한 것이다.The present invention relates to a deep learning-based lesion reading system and method, and more particularly, deep learning that can more accurately read a medical image to be read even when the position, size, or direction of the medical image to be read is changed. To a lesion based reading system and method.

현대 의학에서 효과적인 질병의 진단 및 환자의 치료를 위해 의료 영상은 매우 중요한 도구이다. 또한, 영상 기술 발달은 더욱 정교한 의료 영상 데이터를 획득 가능하게 하고 있다. 이러한 정교함의 대가로 데이터의 양은 점차 방대해지고 있어 의료 영상 데이터를 인간의 시각에 의존하여 분석하는 데 어려움이 많다. 이에, 최근 십여 년 동안 임상 의사 결정 지원 시스템 및 컴퓨터 보조 판독 시스템은 의료 영상 자동 분석에 있어서 필수적인 역할을 수행하여 왔다.In modern medicine, medical imaging is a very important tool for effective diagnosis and treatment of patients. In addition, advances in imaging technology have enabled the acquisition of more sophisticated medical image data. In exchange for the sophistication, the amount of data is gradually increasing, which makes it difficult to analyze medical image data depending on human vision. Thus, in recent decades, clinical decision support systems and computer-aided reading systems have played an essential role in automated medical image analysis.

종래의 임상 의사 결정 지원 시스템 또는 컴퓨터 보조 판독 시스템은 병변 영역을 검출하여 표시하거나 판독 정보를 의료진 또는 의료 종사자 등(이하 사용자)에게 제시한다.Conventional clinical decision support systems or computer-aided reading systems detect and display lesion areas or present reading information to medical personnel or healthcare practitioners and the like (hereinafter, users).

일례로, 한국 공개특허 제10-2017-0017614호에 개시된 '의료 영상 기반의 질환 진단 정보 산출 방법 및 장치'에서는, 분석 대상 객체가 촬영된 관심 영역을 검출하고, 변동계수를 산출하고, 변동계수 이미지를 작성하고 이를 기준 샘플과 비교하는 단계를 포함하고, CT, MRI 및 초음파 영상 촬영 장치 등을 통해 획득된 의료 영상을 활용하여 환자의 질환 정도를 진단하는 효과를 언급하고 있다.For example, in the method and apparatus for calculating medical diagnosis based on medical image disclosed in Korean Patent Laid-Open No. 10-2017-0017614, a region of interest in which an object to be analyzed is photographed is detected, a coefficient of variation is calculated, and a coefficient of variation It includes the step of creating an image and comparing it with a reference sample, and mentions the effect of diagnosing the degree of disease of the patient using medical images acquired through CT, MRI, and ultrasound imaging apparatus.

특히, 근래에 딥러닝(Deep learning)과 같은 기계 학습(Machine learning)을 기반으로 하는 인공지능(AI) 기술은 의료 영상을 이용하여 환자의 질병을 판독하는데 있어 비약적인 발전을 가져오는데 바탕이 되고 있다.In particular, artificial intelligence (AI) technology based on machine learning, such as deep learning, has recently been the basis for a dramatic advance in the reading of patients' diseases using medical images. .

딥러닝이란 사람의 신경세포(Biological Neuron)를 모사하여 기계가 학습하도록 하는 인공신경망(Artificial Neural Network) 기반의 기계 학습법을 의미한다. 최근, 딥러닝 기술은 이미지 인식 분야에서 비약적으로 발전하고 있고, 의료 영상을 이용한 판독 분야에서도 널리 사용되고 있다.Deep learning refers to a machine learning method based on an artificial neural network that simulates a human neuron and allows a machine to learn. Recently, deep learning technology has been rapidly developed in the field of image recognition and widely used in the field of reading using medical images.

의료 영상에서의 딥러닝 기술은 질병을 포함하는 다수의 의료 영상과 해당 질병을 학습 데이터로 하여 기계 학습이 진행되어 기계 학습 모델(이하, '판독 모델'이라 함)이 생성되고, 판독 대상 의료 영상이 판독 모델에 입력되면 병변 여부를 진단하게 된다.In the deep learning technology of a medical image, machine learning is performed using a plurality of medical images including a disease and the disease as learning data, and a machine learning model (hereinafter referred to as a 'reading model') is generated, and a medical image to be read Input to this reading model will diagnose the lesion.

상기와 같이, 딥러닝 기반의 기계 학습법은 판독 모델을 생성하는데 사용되는 학습 데이터, 예컨대, 다수의 병변 영상과 다수의 정상 영상을 수집하고, 수집된 병변 영상과 정상 영상을 학습하여 생성된 판독 모델이 새로이 입력된 판독 대상 의료 영상의 병변 여부를 판독하게 되는 바, 다양하면서도 많은 학습 데이터가 학습에 사용될 때 판독 결과의 정확성을 높일 수 있다. 뿐만 아니라, 판독 대상 의료 영상이 학습 데이터와 유사할 때, 판독 결과의 정확성이 높아질 수 있다.As described above, the deep learning-based machine learning method collects training data used to generate a reading model, for example, a plurality of lesion images and a plurality of normal images, and a read model generated by learning the collected lesion images and the normal images. Since the newly inputted medical object image is read as a lesion, it is possible to increase the accuracy of the reading result when a variety of learning data are used for learning. In addition, when the medical image to be read is similar to the training data, the accuracy of the reading result may be increased.

그런데, 의료 영상의 경우, 의료 영상의 촬영 당시의 촬영 환경, 예를 들어, 환자의 자세, 촬영 장비와 환자와의 거리, 촬영 장비의 촬영 각도 등에 따라 동일한 환자를 촬영하더라도 서로 다른 형태의 의료 영상이 촬영될 수 있다. 또한, 병변의 형태 또한 사람마다 다르고, 촬영 방향에 따라 그 형태가 달라질 수 있다.However, in the case of a medical image, even if the same patient is photographed according to a photographing environment at the time of photographing the medical image, for example, the posture of the patient, the distance between the photographing equipment and the patient, the photographing angle of the photographing equipment, and the like, This can be taken. In addition, the shape of the lesion also varies from person to person, and the shape may vary depending on the photographing direction.

따라서, 원본 의료 영상 그대로를 판독 모델에 입력하게 되면 상기와 같은 요인으로 인해 학습 데이터와 다른 특성을 가질 수 있어, 판독 결과의 정확성을 장담할 수 없는 문제점이 있다.Therefore, when the original medical image is input directly into the reading model, it may have different characteristics from the training data due to the above factors, and thus there is a problem that the accuracy of the reading result cannot be guaranteed.

이에, 본 발명은 상기와 같은 문제점을 해소하기 위해 안출된 것으로서, 판독 대상 의료 영상의 촬영 위치, 사이즈, 방향 등의 변화에도 강인하게 판독 대상 의료 영상을 보다 정확하게 판독할 수 있는는 딥러닝 기반의 병변 판독 시스템 및 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention has been made to solve the above problems, deep learning-based lesions that can read the medical image to be read more accurately, even robustly to the change in the recording position, size, direction, etc. of the medical image to be read Its purpose is to provide a reading system and method.

상기 목적은 본 발명에 따라, 딥러닝 기반의 병변 판독 시스템에 있어서, 판독 대상 의료 영상 내의 판독 대상 영역에서 상호 상이한 복수의 판독용 영상 패치를 생성하는 패치 생성부와; 병변 영상과 정상 영상을 학습 데이터로 기 학습된 판독 모델을 가지며, 각각의 상기 판독용 영상 패치를 입력받아 상기 판독 모델을 통해 각각의 상기 판독용 영상 패치의 병변 여부를 판독하는 딥러닝 기반 판독부와; 상기 딥러닝 기반 판독부의 판독 결과에 따라 각각의 상기 판독용 영상 패치에 가중치를 부여하고, 각각의 상기 판독용 영상 패치를 상호 대응하도록 매칭시켜 중첩시키는 패치 중첩부와; 상기 패치 중첩부에 의해 중첩된 상기 판독용 영상 패치의 상호 대응하는 픽셀들 간의 상기 가중치를 합산하여 가중치 합산값을 산출하고, 각각의 픽셀의 상기 가중치 합산값과 기 설정된 기준값과 비교하여 상기 판독 대상 영역 내의 병변을 검출하는 판독 제어부를 포함하는 것을 특징으로 하는 딥러닝 기반의 병변 판독 시스템에 의해서 달성된다.According to an aspect of the present invention, there is provided a deep learning-based lesion reading system, comprising: a patch generator for generating a plurality of reading image patches different from each other in a region to be read in a medical image to be read; A deep learning-based reading unit having a reading model pre-trained from the lesion image and the normal image as training data, and receiving each of the reading image patches and reading the lesions of each of the reading image patches through the reading model; Wow; A patch overlapping unit which weights each of the reading image patches according to a reading result of the deep learning based reading unit, matches and overlaps each of the reading image patches to correspond to each other; The weighted sum is calculated by summing the weights between the corresponding pixels of the read image patches superimposed by the patch overlapping unit, and comparing the weighted sum of the respective pixels with a preset reference value. A deep learning based lesion reading system comprising a read control for detecting lesions in the area.

여기서, 상기 패치 생성부는 각각의 상기 판독용 영상 패치의 추출 위치, 사이즈, 및 회전 각도 중 적어도 하나가 상이하도록 상기 판독용 영상 패치를 생성하며; 상기 패치 중첩부는 상기 판독용 영상 패치의 추출 위치, 사이즈 및 회전 각도를 재조절하여 중첩시킬 수 있다.Wherein the patch generator generates the read image patches such that at least one of the extraction position, the size, and the rotation angle of each read image patch is different; The patch overlapping part may be overlapped by readjusting the extraction position, the size, and the rotation angle of the read image patch.

또한, 상기 패치 중첩부는 상기 딥러닝 기반 판독부에 의해 상기 판독용 영상 패치가 병변으로 판독된 경우 양의 가중치를 해당 판독용 영상 패치의 각 픽셀에 부여하고, 상기 판독용 영상 패치가 정상으로 판독된 경우 음의 가중치를 해당 판독용 영상 패치의 픽셀에 부여할 수 있다.The patch superimposing unit may assign a positive weight to each pixel of the read image patch when the read image patch is read as a lesion by the deep learning based read unit, and the read image patch is read normally. In this case, a negative weight may be assigned to the pixel of the read image patch.

그리고, 상기 판독 대상 의료 영상은 3차원 영상을 포함하며; 상기 패치 생성부는 3차원의 판독용 영상 패치를 생성할 수 있다.The medical image to be read includes a 3D image; The patch generator may generate a three-dimensional image patch for reading.

그리고, 상기 판독 대상 의료 영상은 3차원의 뇌혈관 영상을 포함하며, 상기 패치 생성부는 상기 뇌혈관 영상 내의 뇌혈관을 따라 상호 중첩되도록 3차원의 상기 판독용 영상 패치를 생성할 수 있다.The medical image to be read may include a three-dimensional cerebrovascular image, and the patch generator may generate the three-dimensional readout image patch so as to overlap each other along the cerebrovascular in the cerebrovascular image.

한편, 상기 목적은 본 발명의 다른 실시 형태에 따라, 딥러닝 기반의 병변 판독 방법에 있어서, (a) 병변 영상과 정상 영상을 학습 데이터로 기 학습된 판독 모델이 등록되는 단계와; (b) 판독 대상 의료 영상 내의 판독 대상 영역으로부터 상호 상이한 복수의 판독용 영상 패치가 생성되는 단계와; (c) 각각의 상기 판독용 영상 패치가 상기 판독 모델에 입력되어 각각의 판독용 영상 패치의 병변 여부가 판독되는 단계와; (d) 각각의 상기 판독용 영상 패치의 병변 여부에 따라 각각의 상기 판독용 영상 패치에 가중치가 부여되는 단계와; (e) 상기 가중치가 부여된 상기 판독용 영상 패치가 상호 대응하도록 매칭되어 중첩되는 단계와; (f) 중첩된 상기 판독용 영상 패치의 상호 대응하는 픽셀들 간의 상기 가중치를 합산하여 가중치 합산값가 산출되는 단계와; (g) 각각의 픽셀의 상기 가중치 합산값과 기 설정된 기준값이 비교되어 상기 판독 대상 영역의 병변이 검출되는 단계를 포함하는 것을 특징으로 하는 딥러닝 기반의 병변 판독 방법에 의해서도 달성된다.According to another aspect of the present invention, there is provided a deep learning-based lesion reading method comprising the steps of: (a) registering a readout model pre-learned with training data of a lesion image and a normal image; (b) generating a plurality of reading image patches different from each other from a region to be read within the medical image to be read; (c) inputting each read image patch to the read model to read whether a read image patch is lesioned or not; (d) weighting each of the reading image patches according to whether or not each of the reading image patches is lesioned; (e) matching and overlapping the weighted reading image patches to correspond to each other; (f) calculating a weighted sum value by summing the weights of the pixels corresponding to each other of the overlapping readout image patches; and (g) comparing the weighted sum value of each pixel with a predetermined reference value to detect the lesion of the region to be read, which is achieved by the deep learning based lesion reading method.

여기서, 상기 (b) 단계에서는 각각의 상기 판독용 영상 패치의 추출 위치, 사이즈, 및 회전 각도 중 적어도 하나가 상이하도록 상기 판독용 영상 패치가 생성되며; 상기 (e) 단계에서는 상기 판독용 영상 패치의 추출 위치, 사이즈 및 회전 각도가 재조절되어 중첩될 수 있다.Wherein in step (b), the readout image patch is generated such that at least one of the extraction position, the size, and the rotation angle of each readout image patch is different; In the step (e), the extraction position, size and rotation angle of the read image patch may be readjusted and overlapped.

또한, 상기 (d) 단계에서는 상기 (c) 단계에서 상기 판독용 영상 패치가 병변으로 판독된 경우 양의 가중치가 해당 판독용 영상 패치의 각 픽셀에 부여되고, 상기 (c) 단계에서 상기 판독용 영상 패치가 정상으로 판독된 경우 음의 가중치가 해당 판독용 영상 패치의 픽셀에 부여할 수 있다.In the step (d), when the reading image patch is read as a lesion in step (c), a positive weight is assigned to each pixel of the reading image patch, and in step (c), the reading When the image patch is read normally, a negative weight may be assigned to the pixels of the read image patch.

그리고, 상기 판독 대상 의료 영상은 3차원 영상을 포함하며; 상기 (b) 단계에서는 3차원의 판독용 영상 패치가 생성될 수 있다.The medical image to be read includes a 3D image; In step (b), a three-dimensional image patch for reading may be generated.

그리고, 상기 판독 대상 의료 영상은 3차원의 뇌혈관 영상을 포함하며, 상기 (b) 단계에서는 상기 뇌혈관 영상 내의 뇌혈관을 따라 상호 중첩되도록 3차원의 상기 판독용 영상 패치가 생성될 수 있다.In addition, the medical image to be read includes a three-dimensional cerebrovascular image, and in the step (b), the three-dimensional image patch for reading may be generated to overlap each other along the cerebrovascular in the cerebrovascular image.

상기와 같은 구성에 따라, 본 발명에 따르면, 판독 대상 의료 영상의 촬영 위치, 사이즈, 방향 등의 변화에도 강인하게 판독 대상 의료 영상을 보다 정확하게 판독하여, 병변 여부와 그 위치까지 검출할 수 있는 딥러닝 기반의 병변 판독 시스템 및 방법이 제공된다.According to the configuration as described above, according to the present invention, a dip that can more accurately read the medical image to be read, even if the location of the medical image to be read, the position, size, direction, etc. more accurately, to detect whether the lesion and even its position Learning-based lesion reading systems and methods are provided.

도 1은 본 발명에 따른 딥러닝 기반의 병변 판독 시스템의 구성을 나타낸 도면이고,
도 2는 본 발명에 따른 딥러닝 기반의 병변 판독 시스템에서 판독 대상 의료 영상의 예를 나타낸 도면이고,
도 3은 본 발명에 따른 딥러닝 기반의 병변 판독 시스템에서 판독용 영상 패치의 예들을 나타낸 도면이고,
도 4 내지 도 6은 본 발명에 따른 딥러닝 기반의 병변 판독 시스템에서 병변을 추출하는 과정을 설명하기 위한 도면이고,
도 7은 본 발명에 따른 딥러닝 기반의 병변 판독 방법을 설명하기 위한 도면이고,
도 8은 본 발명에 따른 딥러닝 기반의 병변 판독 시스템이 3차원 영상에서 병변을 추출하는 방법의 예를 설명하기 위한 도면이다.
1 is a view showing the configuration of a deep learning-based lesion reading system according to the present invention,
2 is a view showing an example of a medical image to be read in the deep learning-based lesion reading system according to the present invention,
3 is a view showing examples of the image patch for reading in the deep learning-based lesion reading system according to the present invention,
4 to 6 are views for explaining a process of extracting lesions in the deep learning-based lesion reading system according to the present invention,
7 is a view for explaining a deep learning-based lesion reading method according to the present invention,
FIG. 8 is a diagram for explaining an example of a method of extracting a lesion from a 3D image by a deep learning-based lesion reading system according to the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하에서는 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세히 설명한다.Hereinafter, with reference to the accompanying drawings will be described embodiments of the present invention;

도 1은 본 발명에 따른 딥러닝 기반의 병변 판독 시스템의 구성을 나타낸 도면이다. 도 1을 참조하여 본 발명에 따른 딥러닝 기반의 병변 판독 시스템은 패치 생성부(130), 딥러닝 기반 판독부(140), 패치 중첩부(150) 및 판독 제어부(110)를 포함한다. 또한, 본 발명에 따른 딥러닝 기반의 병변 판독 시스템은 원본 영상 저장부(120)를 포함할 수 있다.1 is a view showing the configuration of a deep learning-based lesion reading system according to the present invention. Referring to FIG. 1, a deep learning based lesion reading system according to the present invention includes a patch generator 130, a deep learning based reader 140, a patch overlapping unit 150, and a read controller 110. In addition, the deep learning-based lesion reading system according to the present invention may include an original image storage unit 120.

판독 대상 의료 영상은 의료 영상 촬영 장비나, 의료 영상 촬영 장비를 보유한 병원 등으로부터 전송되어 원본 영상 저장부(120)에 저장된다. 본 발명에 따른 판독 대상 의료 영상은 딥러닝 기반으로 병변의 판독이 가능한 2차원의 X-ray 영상, CT 영상이나 MRI 영상과 같은 3차원 의료 영상을 포함할 수 있다.The medical image to be read is transmitted from the medical imaging apparatus, a hospital having the medical imaging apparatus, or the like, and is stored in the original image storage unit 120. The medical image to be read according to the present invention may include a three-dimensional medical image such as a two-dimensional X-ray image, a CT image or an MRI image capable of reading a lesion on a deep learning basis.

패치 생성부(130)는 판독 대상 의료 영상 내의 판독 대상 영역에서 복수의 판독용 영상 패치를 생성한다. 여기서, 복수의 판독용 영상 패치는 상호 상이하게 생성되는데, 본 발명에서는 판독 대상 영역에서 판독용 영상 패치의 추출 위치, 사이즈, 회전 각도 중 적어도 하나 이상이 상이하도록 생성되는 것을 예로 한다.The patch generator 130 generates a plurality of image patches for reading in the region to be read in the medical image to be read. Here, the plurality of reading image patches are generated differently from each other. In the present invention, for example, at least one or more of the extraction position, the size, and the rotation angle of the reading image patch are different in the reading target area.

도 2는 본 발명에 따른 딥러닝 기반의 병변 판독 시스템에서 판독 대상 의료 영상의 예를 나타낸 도면이다. 도 2에 도시된 영상은 인간의 뇌를 촬영한 CT 영상으로 한 단면을 나타내고 있다. 도 2에서 붉은색 직사각형 박스를 판독 대상 영역으로 가정하면, 패치 생성부(130)는 판독 대상 영역으로부터 복수의 판독용 영상 패치를 추출하여 생성한다.2 is a view showing an example of a medical image to be read in the deep learning-based lesion reading system according to the present invention. The image shown in FIG. 2 shows a cross section taken as a CT image of a human brain. In FIG. 2, assuming that the red rectangular box is a read target region, the patch generator 130 extracts and generates a plurality of read image patches from the read target region.

도 3은 도 2의 판독 대상 영역으로부터 4개의 판독용 영상 패치를 생성한 예를 나타내고 있다. 도 3에 도시된 예에서는 판독용 영상 패치를 판독 대상 영역 내에서 추출 위치를 달리하여 생성한 예를 나타내고 있다. 도 3에 도시된 예에서 흰색 부분이 병변 영역으로, 그 위치가 각각의 판독용 영상 패치에서 서로 다른 위치에 있음을 확인할 수 있다.FIG. 3 shows an example in which four read image patches are generated from the read target area in FIG. In the example shown in Fig. 3, an example in which a patch for reading an image is generated with different extraction positions in a region to be read is shown. In the example shown in FIG. 3, the white part is the lesion area, and it can be seen that the position is at a different position in each read image patch.

여기서, 상술한 바와 같이, 학습 데이터를 이용한 딥러닝 과정에서도, 도 2의 붉은색 박스 내의 영상이 병변 영상으로 학습 데이터로 사용될 때, 판독용 영상 패치의 생성과 동일한 방법으로 다수의 병변 영상을 생성하여 학습에 사용함으로써, 최종적으로 병변의 판독 정확성을 향상시킬 수 있다.Here, as described above, in the deep learning process using the training data, when the image in the red box of FIG. 2 is used as the training data as the lesion image, a plurality of lesion images are generated in the same manner as the generation of the read image patch. By using it for learning, the reading accuracy of the lesion can be finally improved.

한편, 상기와 같이, 패치 생성부(130)에 의해 복수의 판독용 영상 패치가 생성되면, 딥러닝 기반 판독부(140)는 기 등록된 판독 모델을 이용하여 각각의 판독용 영상 패치의 병변 여부를 판독하게 된다. 하나의 판독 대상 영역 내에서 추출된 판독용 영상 패치의 경우에도 추출 위치, 회전 각도, 사이즈 등에 따라 병변 여부에 대한 판독이 달라질 수 있는데, 예컨대, 도 3의 (a)에 도시된 판독용 영상 패치의 경우 병변 영역의 일부만을 포함하고 있어, 병변으로 판독되지 않을 수 있다.Meanwhile, as described above, when a plurality of read image patches are generated by the patch generator 130, the deep learning-based read unit 140 may identify lesions of each read image patch using a pre-registered read model. Will be read. In the case of the readout image patch extracted in one read target area, the readout of the lesion may vary according to the extraction position, the rotation angle, the size, and the like. For example, the readout image patch shown in FIG. In this case, only a part of the lesion area may be included and thus may not be read as a lesion.

패치 중첩부(150)는 딥러닝 기반 판독부(140)의 판독 결과에 따라 각각의 판독용 패치 영상에 가중치를 부여한다. 본 발명에서는 패치 중첩부(150)가 딥러닝 기반 판독부(140)에 의해 판독용 영상 패치가 병변으로 판독되는 경우, 양의 가중치, 예를 들어, +1의 가중치를 해당 판독용 영상 패치의 각 픽셀에 부여할 수 있다. 그리고, 패치 중첩부(150)는 딥러닝 판독부(140)에 의해 판독용 영상 패치가 정상으로 판독된 경우, 음의 가중치, 예를 들어 -1의 가중치를 해당 판독용 영상 패치의 각 픽셀에 부여한다.The patch overlapping unit 150 weights each patch image for reading according to the reading result of the deep learning based reading unit 140. In the present invention, when the patch overlap unit 150 reads the image patch for reading by the deep learning-based reading unit 140 as a lesion, a positive weight, for example, a weight of +1 is applied to the image patch for reading. Can be given to each pixel. When the reading patch is normally read by the deep learning reading unit 140, the patch overlapping unit 150 assigns a negative weight, for example, a weight of -1 to each pixel of the reading patch. Grant.

그리고, 패치 중첩부(150)는 모든 판독용 영상 패치에 대해 가중치의 부여가 완료되면, 복수의 판독용 영상 패치를 상호 대응하도록 매칭시켜 중첩시킨다. 도 4를 참조하여 보다 구체적으로 설명하면, 도 4의 (a)가 하나의 판독용 영상 패치라 가정하고, 내부의 각 칸이 하나의 픽셀이라 가정하면, 도 4의 (b)는 하나의 판독 대상 영역 내에서 복수개의 판독용 영상 패치가 그 추출 위치를 달리하여 추출된 후, 각각의 위치에 매칭되어 중첩된 예를 나타낸 도면이다.When the weighting is completed for all the read image patches, the patch overlapping unit 150 matches and overlaps the plurality of read image patches to correspond to each other. More specifically with reference to FIG. 4, assuming that (a) of FIG. 4 is one read image patch, and that each cell inside is one pixel, FIG. 4 (b) is one read. A plurality of reading image patches are extracted at different extraction positions in the target area, and then matched to each position to show an example of overlapping.

이 때, 상술한 바와 같이, 판독용 영상 패치의 추출 과정에서 추출 위치를 달리하여 추출하는 경우, 도 4의 (b)에 도시된 바와 같이, 해당 위치에 매칭시켜 중첩시키는 것은 물론, 판독용 영상 패치를 추출하여 회전 각도를 조절하거나 사이즈를 변화시킨 경우, 중첩 전에 이를 재조절하여 중첩에 적용하게 된다.In this case, as described above, in the case of extracting by extracting a different extraction position in the extraction process of the read image patch, as shown in FIG. If the patch is extracted and the rotation angle is adjusted or the size is changed, the patch is readjusted before the overlap and applied to the overlap.

한편, 판독 제어부(110)는 패치 중첩부(150)에 의해 중첩된 판독용 영상 패치의 상호 대응하는 픽셀들 간의 가중치를 합산하여 각 픽셀별로 가중치 합산값을 산출한다. 그리고, 판독 제어부(110)는 각각의 픽셀의 가중치 합산값과 기 설정된 기준값을 비교하여, 판독 대상 영역 내의 병변을 검출하게 된다.Meanwhile, the read control unit 110 calculates a weighted sum value for each pixel by summing weights among pixels corresponding to each other in the read image patches superimposed by the patch overlapping unit 150. The read control unit 110 compares the weighted sum value of each pixel with a preset reference value to detect lesions in the read object area.

도 5는 판독 대상 영역 내의 각각의 픽셀에 가중치 합산값이 합산된 값들의 예를 도시하고 있다. 즉, 복수의 판독용 영상 패치는 딥러닝 기반 판독부(140)의 판독 결과에 따라 가중치로 -1 또는 +1의 가중치를 가지게 되는데, 병변으로 판독된 판독용 영상 패치가 많이 중첩될수록 해당 픽셀의 가중치 합산값이 커지게 된다.Fig. 5 shows an example of values in which a weighted sum is added to each pixel in the read object area. That is, the plurality of reading image patches have a weight of -1 or +1 as a weight depending on the reading result of the deep learning based reading unit 140. As the number of reading image patches read as lesions overlaps, The weighted sum is increased.

그리고, 판독 제어부(110)는 기준값을, 도 5의 예에서 35로 설정하고 35 이상의 가중치 합산값을 갖는 픽셀의 위치가 병변 위치로 검출하게 되면, 판독 대상 영역에 병변이 존재하는지 여부 뿐 만 아니라 그 위치까지 검출이 가능하게 된다. 도 6은 상기와 같은 과정을 통해 판독 대상 영역에서 추출된 예로, 붉은색 박스 안에 붉은색으로 표시된 영역이 병변으로 검출된 영역을 나타낸다.In addition, when the reading control unit 110 sets the reference value to 35 in the example of FIG. 5 and detects the position of the pixel having a weighted sum value of 35 or more as the lesion position, not only whether the lesion exists in the reading target area but also Detection up to that position is possible. FIG. 6 illustrates an example in which a region marked in red in a red box is detected as a lesion as an example extracted from the region to be read through the above process.

이하에서는, 도 7을 참조하여 본 발명에 따른 딥러닝 기반의 병변 판독 방법에 대해 설명한다.Hereinafter, a deep learning based lesion reading method according to the present invention will be described with reference to FIG. 7.

먼저, 상술한 바와 같이, 판독 모델이 등록된 상태에서(S70), 판독 대상 의료 영상이 입력되면(S71), 판독 대상 의료 영상의 판독 대상 영역으로부터 복수의 판독용 영상 패치가 생성된다(S72).First, as described above, in a state in which the read model is registered (S70), when a read target medical image is input (S71), a plurality of read image patches are generated from the read target region of the read target medical image (S72). .

그런 다음, 판독 모델을 통해 판독용 영상 패치의 병변 여부가 순차적으로 판독되는데(S73), 해당 판독용 영상 패치의 병변 여부에 따라 가중치가 부여된다(S74). 그리고, 모든 판독용 영상 패치에 대한 판독이 완료될 때까지(S75), S73 단계 및 S74 단계가 반복적으로 수행된다.Thereafter, whether or not the reading image patch is lesioned is sequentially read through the reading model (S73), and weighted according to whether the reading image patch is lesioning (S74). Then, steps S73 and S74 are repeatedly performed until the reading of all the read image patches is completed (S75).

그런 다음, 모든 판독용 영상 패치에 대한 판독과 가중치의 부여가 완료되면, 상술한 바와 같이, 모든 판독용 영상 패치를 중첩시켜(S76), 각 픽셀에 대한 가중치 합산값을 산출함으로써, 판독 대상 영역 내의 병변 여부 및 병변의 위치가 검출된다(S77).Then, when reading and weighting of all the read image patches are completed, as described above, all read image patches are superimposed (S76) to calculate the weighted sum value for each pixel, whereby the read target area The presence of the lesion and the location of the lesion in the detection (S77).

전술한 실시예에서는 판독 대상 의료 영상이 2차원적인 영상인 것을 예로 하여 설명하였다. 이외에도 본 발명에 따른 판독 대상 의료 영상은 3차원 영상을 포함할 수 있다. 도 8은 CT 영상에서 추출된 혈관으로 뇌혈관(BV)에 대한 3차원 뇌혈관 영상의 예를 나타낸 도면이다.In the above-described embodiment, the medical image to be read is described as an example of a two-dimensional image. In addition, the medical image to be read according to the present invention may include a 3D image. 8 is a diagram illustrating an example of a three-dimensional cerebrovascular image of cerebrovascular (BV) with blood vessels extracted from a CT image.

여기서, 판독 대상 의료 영상의 3차원 영상인 경우, 패치 생성부(130)는 3차원의 판독용 영상 패치를 생성하게 되는데, 도 8에서는 큐브 형태의 패치(3D_CP)가 생성되는 것을 예로 하고 있다. 이 경우, 판독 모델 또한 3차원 영상을 학습 데이터로 하여 학습이 진행된다.Herein, in the case of a 3D image of the medical image to be read, the patch generator 130 generates a 3D image patch for reading. In FIG. 8, a patch 3D_CP is formed in a cube. In this case, the reading model is also trained using the three-dimensional image as the training data.

이 때, 패치 생성부(130)는 뇌혈관 영상 내의 뇌혈관(BV)을 따라 상호 중첩되도록 3차원의 판독용 영상 패치를 생성할 수 있으며, 뇌혈관(BV)을 따라 순차적으로 판독하는 과정을 통해, 뇌혈관(BV)을 따라 뇌동맥류와 같은 뇌혈관 질환이 발생하였는지 여부와, 그 위치를 검출할 수 있게 된다.At this time, the patch generation unit 130 may generate a three-dimensional image patch for reading so as to overlap each other along the cerebrovascular (BV) in the cerebrovascular image, and sequentially read along the cerebrovascular (BV) Through this, it is possible to detect whether a cerebrovascular disease such as a cerebral aneurysm has occurred along the cerebrovascular (BV) and its location.

비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.Although some embodiments of the invention have been shown and described, it will be apparent to those skilled in the art that the embodiments may be modified without departing from the spirit or spirit of the invention. . It is intended that the scope of the invention be defined by the claims appended hereto and their equivalents.

110 : 판독 제어부 120 : 원본 영상 저장부
130 : 패치 생성부 140 : 딥러닝 기반 판독부
150 : 패치 중첩부
110: reading control unit 120: original image storage unit
130: patch generation unit 140: deep learning based reading unit
150: patch overlap

Claims (10)

딥러닝 기반의 병변 판독 시스템에 있어서,
판독 대상 의료 영상 내의 판독 대상 영역에서 상호 상이한 복수의 판독용 영상 패치를 생성하는 패치 생성부와;
병변 영상과 정상 영상을 학습 데이터로 기 학습된 판독 모델을 가지며, 각각의 상기 판독용 영상 패치를 입력받아 상기 판독 모델을 통해 각각의 상기 판독용 영상 패치의 병변 여부를 판독하는 딥러닝 기반 판독부와;
상기 딥러닝 기반 판독부의 판독 결과에 따라 각각의 상기 판독용 영상 패치에 가중치를 부여하고, 각각의 상기 판독용 영상 패치를 상호 대응하도록 매칭시켜 중첩시키는 패치 중첩부와;
상기 패치 중첩부에 의해 중첩된 상기 판독용 영상 패치의 상호 대응하는 픽셀들 간의 상기 가중치를 합산하여 가중치 합산값을 산출하고, 각각의 픽셀의 상기 가중치 합산값과 기 설정된 기준값과 비교하여 상기 판독 대상 영역 내의 병변을 검출하는 판독 제어부를 포함하는 것을 특징으로 하는 딥러닝 기반의 병변 판독 시스템.
In a deep learning-based lesion reading system,
A patch generator for generating a plurality of read image patches different from each other in a read target region in the read target medical image;
A deep learning-based reading unit having a reading model pre-trained from the lesion image and the normal image as training data, and receiving each of the reading image patches and reading the lesions of each of the reading image patches through the reading model; Wow;
A patch overlapping unit which weights each of the reading image patches according to a reading result of the deep learning based reading unit, matches and overlaps each of the reading image patches to correspond to each other;
The weighted sum is calculated by summing the weights between the corresponding pixels of the readout image patches superimposed by the patch overlapping unit, and comparing the weighted sum of each pixel with a preset reference value. Deep learning-based lesion reading system comprising a read control for detecting lesions in the area.
제1항에 있어서,
상기 패치 생성부는 각각의 상기 판독용 영상 패치의 추출 위치, 사이즈, 및 회전 각도 중 적어도 하나가 상이하도록 상기 판독용 영상 패치를 생성하며;
상기 패치 중첩부는 상기 판독용 영상 패치의 추출 위치, 사이즈 및 회전 각도를 재조절하여 중첩시키는 것을 특징으로 하는 딥러닝 기반의 병변 판독 시스템.
The method of claim 1,
The patch generation unit generates the read image patches such that at least one of an extraction position, a size, and a rotation angle of each read image patch is different;
The deep overlap-based lesion reading system of claim 1, wherein the patch overlapping unit re-adjusts the extraction position, size, and rotation angle of the read image patch.
제1항에 있어서,
상기 패치 중첩부는 상기 딥러닝 기반 판독부에 의해 상기 판독용 영상 패치가 병변으로 판독된 경우 양의 가중치를 해당 판독용 영상 패치의 각 픽셀에 부여하고, 상기 판독용 영상 패치가 정상으로 판독된 경우 음의 가중치를 해당 판독용 영상 패치의 픽셀에 부여하는 것을 특징으로 하는 딥러닝 기반의 병변 판독 시스템.
The method of claim 1,
The patch superimposing unit assigns a positive weight to each pixel of the read image patch when the read image patch is read as a lesion by the deep learning based read unit, and when the read image patch is read normally. Deep learning based lesion reading system, characterized in that the negative weight is assigned to the pixels of the image patch for reading.
제1항에 있어서,
상기 판독 대상 의료 영상은 3차원 영상을 포함하며;
상기 패치 생성부는 3차원의 판독용 영상 패치를 생성하는 것을 특징으로 하는 딥러닝 기반의 병변 판독 시스템.
The method of claim 1,
The medical image to be read includes a three-dimensional image;
The patch generation unit deep learning-based lesion reading system, characterized in that for generating a three-dimensional image patch for reading.
제4항에 있어서,
상기 판독 대상 의료 영상은 3차원의 뇌혈관 영상을 포함하며,
상기 패치 생성부는 상기 뇌혈관 영상 내의 뇌혈관을 따라 상호 중첩되도록 3차원의 상기 판독용 영상 패치를 생성하는 것을 특징으로 하는 딥러닝 기반의 병변 판독 시스템.
The method of claim 4, wherein
The medical image to be read includes a three-dimensional cerebrovascular image,
The patch generation unit deep learning-based lesion reading system, characterized in that for generating the three-dimensional image patch for reading so as to overlap each other along the cerebrovascular in the cerebrovascular image.
딥러닝 기반의 병변 판독 방법에 있어서,
(a) 병변 영상과 정상 영상을 학습 데이터로 기 학습된 판독 모델이 등록되는 단계와;
(b) 판독 대상 의료 영상 내의 판독 대상 영역으로부터 상호 상이한 복수의 판독용 영상 패치가 생성되는 단계와;
(c) 각각의 상기 판독용 영상 패치가 상기 판독 모델에 입력되어 각각의 판독용 영상 패치의 병변 여부가 판독되는 단계와;
(d) 각각의 상기 판독용 영상 패치의 병변 여부에 따라 각각의 상기 판독용 영상 패치에 가중치가 부여되는 단계와;
(e) 상기 가중치가 부여된 상기 판독용 영상 패치가 상호 대응하도록 매칭되어 중첩되는 단계와;
(f) 중첩된 상기 판독용 영상 패치의 상호 대응하는 픽셀들 간의 상기 가중치를 합산하여 가중치 합산값가 산출되는 단계와;
(g) 각각의 픽셀의 상기 가중치 합산값과 기 설정된 기준값이 비교되어 상기 판독 대상 영역의 병변이 검출되는 단계를 포함하는 것을 특징으로 하는 딥러닝 기반의 병변 판독 방법.
In the deep learning-based lesion reading method,
(a) registering a readout model previously trained on the lesion image and the normal image as learning data;
(b) generating a plurality of reading image patches different from each other from a region to be read within the medical image to be read;
(c) inputting each read image patch to the read model to read whether a read image patch is lesioned or not;
(d) weighting each of the reading image patches according to whether or not each of the reading image patches is lesioned;
(e) matching and overlapping the weighted reading image patches to correspond to each other;
(f) calculating a weighted sum value by summing the weights of the pixels corresponding to each other in the overlapping readout image patches;
and (g) comparing the weighted sum of each pixel with a predetermined reference value to detect lesions in the region to be read.
제6항에 있어서,
상기 (b) 단계에서는 각각의 상기 판독용 영상 패치의 추출 위치, 사이즈, 및 회전 각도 중 적어도 하나가 상이하도록 상기 판독용 영상 패치가 생성되며;
상기 (e) 단계에서는 상기 판독용 영상 패치의 추출 위치, 사이즈 및 회전 각도가 재조절되어 중첩되는 것을 특징으로 하는 딥러닝 기반의 병변 판독 방법.
The method of claim 6,
In the step (b), the reading image patch is generated such that at least one of an extraction position, a size, and a rotation angle of each reading image patch is different;
In the step (e), deep learning-based lesion reading method, characterized in that the extraction position, size and rotation angle of the read image patch is readjusted and superimposed.
제6항에 있어서,
상기 (d) 단계에서는
상기 (c) 단계에서 상기 판독용 영상 패치가 병변으로 판독된 경우 양의 가중치가 해당 판독용 영상 패치의 각 픽셀에 부여되고,
상기 (c) 단계에서 상기 판독용 영상 패치가 정상으로 판독된 경우 음의 가중치가 해당 판독용 영상 패치의 픽셀에 부여하는 것을 특징으로 하는 딥러닝 기반의 병변 판독 방법.
The method of claim 6,
In step (d)
In the step (c), when the read image patch is read as a lesion, a positive weight is assigned to each pixel of the read image patch,
Deep learning-based lesion reading method characterized in that the negative weight is given to the pixels of the read image patch when the read image patch is read normally in step (c).
제6항에 있어서,
상기 판독 대상 의료 영상은 3차원 영상을 포함하며;
상기 (b) 단계에서는 3차원의 판독용 영상 패치가 생성되는 것을 특징으로 하는 딥러닝 기반의 병변 판독 방법.
The method of claim 6,
The medical image to be read includes a three-dimensional image;
In the step (b), deep learning-based lesion reading method characterized in that for generating a three-dimensional image patch for reading.
제9항에 있어서,
상기 판독 대상 의료 영상은 3차원의 뇌혈관 영상을 포함하며,
상기 (b) 단계에서는 상기 뇌혈관 영상 내의 뇌혈관을 따라 상호 중첩되도록 3차원의 상기 판독용 영상 패치가 생성되는 것을 특징으로 하는 딥러닝 기반의 병변 판독 방법.
The method of claim 9,
The medical image to be read includes a three-dimensional cerebrovascular image,
In the step (b), deep learning-based lesion reading method characterized in that the three-dimensional image patch for reading is generated so as to overlap each other along the cerebrovascular in the cerebrovascular image.
KR1020190036959A 2019-03-29 2019-03-29 System and method for lesion interpretation based on deep learning KR102043672B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190036959A KR102043672B1 (en) 2019-03-29 2019-03-29 System and method for lesion interpretation based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190036959A KR102043672B1 (en) 2019-03-29 2019-03-29 System and method for lesion interpretation based on deep learning

Publications (1)

Publication Number Publication Date
KR102043672B1 true KR102043672B1 (en) 2019-11-12

Family

ID=68577317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190036959A KR102043672B1 (en) 2019-03-29 2019-03-29 System and method for lesion interpretation based on deep learning

Country Status (1)

Country Link
KR (1) KR102043672B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200083303A (en) * 2018-12-27 2020-07-08 (주)제이엘케이 Apparatus and method for increasing learning data using patch matching
WO2021149875A1 (en) * 2020-01-20 2021-07-29 주식회사 아이도트 Cerebral aneurysm rupture prediction system
WO2021187699A1 (en) * 2020-03-19 2021-09-23 주식회사 아이도트 Carotid ultrasound diagnosis system
WO2022065798A1 (en) * 2020-09-28 2022-03-31 주식회사 딥바이오 Pathological image analysis result output method and computing system for performing same
KR102481191B1 (en) * 2022-03-28 2022-12-26 주식회사 에이비스 Method for high speed analysing medical image using deep learning

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150077184A (en) * 2013-12-27 2015-07-07 삼성전자주식회사 Apparatus and Method for determining similarity between lesions in medical image
KR101880678B1 (en) * 2016-10-12 2018-07-20 (주)헬스허브 System for interpreting medical images through machine learnings
KR20180123810A (en) * 2017-05-10 2018-11-20 주식회사 딥노이드 Data enrichment processing technology and method for decoding x-ray medical image
KR101961215B1 (en) * 2017-08-25 2019-03-27 남정림 Apparatus and method for estimating bone age based on image processing and machine learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150077184A (en) * 2013-12-27 2015-07-07 삼성전자주식회사 Apparatus and Method for determining similarity between lesions in medical image
KR101880678B1 (en) * 2016-10-12 2018-07-20 (주)헬스허브 System for interpreting medical images through machine learnings
KR20180123810A (en) * 2017-05-10 2018-11-20 주식회사 딥노이드 Data enrichment processing technology and method for decoding x-ray medical image
KR101961215B1 (en) * 2017-08-25 2019-03-27 남정림 Apparatus and method for estimating bone age based on image processing and machine learning

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200083303A (en) * 2018-12-27 2020-07-08 (주)제이엘케이 Apparatus and method for increasing learning data using patch matching
KR102336003B1 (en) 2018-12-27 2021-12-08 (주)제이엘케이 Apparatus and method for increasing learning data using patch matching
WO2021149875A1 (en) * 2020-01-20 2021-07-29 주식회사 아이도트 Cerebral aneurysm rupture prediction system
WO2021187699A1 (en) * 2020-03-19 2021-09-23 주식회사 아이도트 Carotid ultrasound diagnosis system
WO2022065798A1 (en) * 2020-09-28 2022-03-31 주식회사 딥바이오 Pathological image analysis result output method and computing system for performing same
KR102481191B1 (en) * 2022-03-28 2022-12-26 주식회사 에이비스 Method for high speed analysing medical image using deep learning

Similar Documents

Publication Publication Date Title
KR102043672B1 (en) System and method for lesion interpretation based on deep learning
AU2017292642B2 (en) System and method for automatic detection, localization, and semantic segmentation of anatomical objects
CN109069097B (en) Dental three-dimensional data processing device and method thereof
US20200194117A1 (en) Systems, methods, and media for remote trauma assessment
CN108744306A (en) Subject positioning device, subject localization method, subject finder and radiation treatment systems
JP2005519685A (en) Pixel coding method, image processing method, and image processing method for qualitative recognition of an object reproduced by one or more pixels
CA3110581C (en) System and method for evaluating the performance of a user in capturing an image of an anatomical region
US20210059758A1 (en) System and Method for Identification, Labeling, and Tracking of a Medical Instrument
EP3858245B1 (en) Automatic recognition method for measurement point in cephalo image
AU2021100684A4 (en) DEPCADDX - A MATLAB App for Caries Detection and Diagnosis from Dental X-rays
CN111466952B (en) Real-time conversion method and system for ultrasonic endoscope and CT three-dimensional image
KR102103281B1 (en) Ai based assistance diagnosis system for diagnosing cerebrovascular disease
Zeng et al. A 2.5 D deep learning-based method for drowning diagnosis using post-mortem computed tomography
GB2471302A (en) Equipment and system for recording irregularities on an object
KR102545906B1 (en) Data processing method using a learning model
CN115105062B (en) Hip and knee joint coordination evaluation method, device and system and storage medium
KR102442093B1 (en) Methods for improving surface registration in surgical navigation systems
KR102095731B1 (en) Mra image learning method and assistance diagnosis method for blood vessel lesion of deep learning based assistance diagnosis system
WO2020263002A1 (en) Blood vessel segmentation method
CN112790778A (en) Collecting mis-alignments
KR20200051289A (en) Apparatus and method for diagnosing disease based on iris image
US11430203B2 (en) Computer-implemented method for registering low dimensional images with a high dimensional image, a method for training an aritificial neural network useful in finding landmarks in low dimensional images, a computer program and a system for registering low dimensional images with a high dimensional image
US11599191B2 (en) Automatic localization of a structure
US20240020823A1 (en) Assistance diagnosis system for lung disease based on deep learning and assistance diagnosis method thereof
KR20230166023A (en) Method and apparatus for providing ar images

Legal Events

Date Code Title Description
GRNT Written decision to grant