KR102208358B1 - Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer - Google Patents

Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer Download PDF

Info

Publication number
KR102208358B1
KR102208358B1 KR1020180152514A KR20180152514A KR102208358B1 KR 102208358 B1 KR102208358 B1 KR 102208358B1 KR 1020180152514 A KR1020180152514 A KR 1020180152514A KR 20180152514 A KR20180152514 A KR 20180152514A KR 102208358 B1 KR102208358 B1 KR 102208358B1
Authority
KR
South Korea
Prior art keywords
nodule
image
follow
images
analysis
Prior art date
Application number
KR1020180152514A
Other languages
Korean (ko)
Other versions
KR20200065751A (en
Inventor
양이화
이진아
김재훈
문정원
Original Assignee
양이화
이진아
김재훈
문정원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 양이화, 이진아, 김재훈, 문정원 filed Critical 양이화
Priority to KR1020180152514A priority Critical patent/KR102208358B1/en
Publication of KR20200065751A publication Critical patent/KR20200065751A/en
Application granted granted Critical
Publication of KR102208358B1 publication Critical patent/KR102208358B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]

Abstract

CT 영상을 이용하여 폐 결절이 암일 확률에 대해 예측하는 시스템에 관한 것이다. 실시예를 통해 개인 및 의원은 폐암검진 CT영상의 판독결과를 신속하게 획득할 수 있고, CT 영상 판독결과의 정확성을 향상시킬 수 있도록 한다. 또한, 온라인을 통해 사용자는 자신의 CT 영상 판독 결과를 언제든지 조회할 수 있고, 추적 검사 시 수시로 이전 결과와 비교하여 자신의 의료 영상 정보를 관리 할 수 있도록 한다.The present invention relates to a system for predicting the probability that a lung nodule is cancer using CT images. Through the embodiment, individuals and clinics can quickly obtain a reading result of a lung cancer screening CT image and improve the accuracy of the CT image reading result. In addition, through online, users can view their CT image reading results at any time, and manage their own medical image information by comparing them with previous results from time to time during follow-up tests.

Description

인공지능을 이용한 폐암진단 시스템, 폐암검진 CT 판독서버 및 폐암진단방법{Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer} Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer}

CT 영상을 이용하여 폐 결절이 암일 확률에 대해 예측하는 시스템에 관한 것이다. 구체적으로, 인공지능을 이용한 폐암 검진 CT 판독 서버 및 CT 판독 방법에 관한 것이다. The present invention relates to a system for predicting the probability that a lung nodule is cancer using CT images. Specifically, it relates to a lung cancer screening CT reading server and a CT reading method using artificial intelligence.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the content described in this section is not prior art to the claims of this application, and inclusion in this section is not admitted to be prior art.

컴퓨터 단층촬영(CT, Computed Tomography)은 X선 촬영과 달리 인체를 가로로 자른 횡단면상을 획득한다. CT는 단순 X선 촬영에 비해 구조물이 겹쳐지는 것이 적어 구조물 및 병변을 좀더 명확히 볼 수 있는 장점이 있다. 또한 CT 촬영은 MRI에 비하여 검사비가 싸고, 검사 시간이 짧기 때문에, 대부분의 장기 및 질환에서 병변이 의심되고 정밀검사를 시행해야 할 필요가 있을 때 기본이 되는 검사법이다. Computed tomography (CT), unlike X-ray imaging, acquires a cross-sectional image of a human body horizontally cut. CT has the advantage of being able to see structures and lesions more clearly because structures overlap less than simple X-rays. In addition, CT scanning is a basic examination method when a lesion is suspected in most organs and diseases and requires detailed examination because it is cheaper than MRI and the examination time is short.

최근에는 다중채널 CT(MDCT, multi-detector CT)가 보급되면서 촬영 후 영상을 재구성하여 MRI처럼 원하는 단면상 및 입체적인 삼차원(3D) 영상도 자유로이 얻을 수 있게 되었고, CT 촬영영상을 의료기관에서 수집할 수도 있다.Recently, with the spread of multi-channel CT (MDCT, multi-detector CT), it is possible to freely obtain desired cross-sectional and three-dimensional (3D) images like MRI by reconstructing images after shooting, and CT images can be collected at medical institutions. .

하지만, CT 영상을 판독하는 전문의는 한정적이고, 의료 영상 판독을 의뢰할 수 있는 시스템이 갖춰져 있지 않은 실정이다. 이로 인해 개인이 CT 촬영영상을 소유하더라도 온라인으로 신뢰성 있는 판독을 의뢰할 수 없다. 또한, 결절의 암 판정과 같이 정확한 판정 결과 도출이 매우 중요한 영상판독 결과의 신뢰도를 향상시킬 수 있는 시스템이 부재한 실정이다. However, the number of specialists who read CT images is limited, and there is no system for requesting medical image readings. For this reason, even if an individual owns CT images, it is not possible to request reliable reading online. In addition, there is no system capable of improving the reliability of image reading results, which is very important for deriving accurate determination results, such as cancer determination of nodules.

1. 한국 특허출원 제10-2018-0070722호(2018.06.20)1. Korean Patent Application No. 10-2018-0070722 (2018.06.20) 2. 한국 특허출원 제10-2016-0131976호(2016.10.12)2. Korean Patent Application No. 10-2016-0131976 (2016.10.12)

CT 영상을 이용하여 폐 결절이 암일 확률에 대해 예측하는 CT 판독서버 및 폐암진단방법, 폐암진단 시스템을 제공한다.It provides a CT reading server, a lung cancer diagnosis method, and a lung cancer diagnosis system that predicts the probability that a lung nodule is cancer using CT images.

실시예에 따른 인공지능을 이용한 폐암검진 CT 판독서버는 전처리된 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지 또는 3차원 프리 노듈 큐브 및 팔로업 노듈 큐브를 포함하는 연속된 CT(Computed Tomography) 이미지 각각을 복수개의 단위 이미지로 분할한 1차 레이어로 마스킹하고, 1차 레이어에 포함된 단위 이미지 각각의 특징을 추출하고, 추출된 단위 이미지 별 특징 수를 산출하고, 상기 프리-노듈이미지와 팔로업-노듈이미지에 포함된 결절의 더블링타임(DT, Doubling Time)과 폐결절 볼륨 백분율 변화(PVC, Percentage Volume change)를 산출하는 산출모듈; 연속된 CT 이미지 각각에서 추출된 특징정보를 수집하고, 수집된 특징정보에 학습된 가중치를 반영하고 가중치가 일정수준 미만인 특징정보는 필터링 하여 분석유효정보를 추출하는 추출모듈; 추출된 유효정보에 연속된 CT 이미지 분석결과로 산출된 더블링 타임 및 폐결절 볼륨 변화를 부가하여 분석데이터를 생성하고, 분석데이터에서 최종분석유효정보를 추출하여 최종분석데이터를 생성하는 생성모듈; 및 생성된 최종분석데이터를 학습된 암 진단 데이터 세트와 비교하여 결절의 암 확률을 연산하는 연산모듈; 을 포함한다.The lung cancer screening CT reading server using artificial intelligence according to the embodiment includes a pre-processed pre-nodule image and a follow up-nodule image or a three-dimensional pre-nodule cube and a follow-up nodule cube. Masking each continuous CT (Computed Tomography) image as a primary layer divided into a plurality of unit images, extracting features of each unit image included in the primary layer, and calculating the number of features for each extracted unit image. And a calculation module for calculating a doubling time (DT) of a nodule included in the pre-nodule image and the follow-up-nodule image and a percentage change in pulmonary nodule volume (PVC); An extraction module that collects feature information extracted from each of the continuous CT images, reflects the learned weight in the collected feature information, and filters feature information whose weight is less than a certain level to extract analysis valid information; A generation module for generating analysis data by adding the doubling time and pulmonary nodule volume change calculated as a result of continuous CT image analysis to the extracted valid information, and extracting final analysis valid information from the analysis data to generate final analysis data; And a calculation module for calculating a cancer probability of a nodule by comparing the generated final analysis data with the learned cancer diagnosis data set. Includes.

다른 실시예에 따른 인공지능을 이용한 온라인 폐암 진단 시스템은 엑스레이, 폐결절 CT 이미지 및 건강검진정보를 포함하는 개인 건강정보를 수집하는 사용자 단말; 환자의 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지를 포함하는 폐결절 CT 이미지를 수집하는 의료기관서버; 및 사용자 단말 또는 의료기관서버로부터 폐결절 CT 이미지를 전달받아, 폐결절이 암일 확률을 산출하고, 산출결과를 의료기관 서버 및 사용자 단말로 전송하는 폐암검진 CT 판독서버; 를 포함한다.An online lung cancer diagnosis system using artificial intelligence according to another embodiment includes a user terminal for collecting personal health information including X-rays, CT images of lung nodules, and health checkup information; A medical institution server for collecting CT images of pulmonary nodules including a patient's pre-nodule image and follow up-nodule image; And a lung cancer screening CT reading server that receives the CT image of a lung nodule from a user terminal or a medical institution server, calculates a probability that the lung nodule is cancer, and transmits the calculated result to the medical institution server and the user terminal. Includes.

다른 실시예에 따른 인공지능을 이용한 폐암검진 CT 판독서버의 폐암진단과정은 (A) 산출모듈은 전처리된 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지 또는 3차원 프리 노듈 큐브 및 팔로업 노듈 큐브를 포함하는 연속된 CT 이미지 각각을 복수개의 단위 이미지로 분할한 1차 레이어로 마스킹 하고, 1차 레이어에 포함된 단위 이미지 각각의 특 추출하고, 추출된 단위 이미지 별 특징 수를 산출하는 단계; (B) 산출모듈은 프리-노듈이미지와 팔로업-노듈이미지에 포함된 결절의 더블링타임(DT, Doubling Time)과, 폐결절 볼륨 백분율 변화(PVC, Percentage Volume change)를 산출하는 단계; (C) 추출모듈은 연속된 CT 이미지 각각에서 추출된 특징정보를 수집하고, 수집된 특징정보에 학습된 가중치를 반영하고 가중치가 일정수준 미만인 특징정보는 필터링 하여 분석유효정보를 추출하는 단계; (D) 생성모듈은 추출된 유효정보에 연속된 CT 이미지 분석결과로 산출된 더블링 타임 및 폐결절 볼륨 변화를 부가하여 분석데이터를 생성하고, 분석데이터에서 최종분석유효정보를 추출하여 최종분석데이터를 생성하는 단계; 및 (E) 연산모듈은 생성된 최종분석데이터를 학습된 암 진단 데이터 세트와 비교하여 결절의 암 확률을 연산하는 단계; 를 포함한다.The lung cancer diagnosis process of the CT reading server for lung cancer screening using artificial intelligence according to another embodiment is (A) the calculation module includes a pre-processed pre-nodule image and a follow up-nodule image or 3 Each consecutive CT image including the dimensional pre-nodule cube and the follow-up nodule cube is masked with a primary layer divided into a plurality of unit images, and special extraction of each unit image included in the primary layer, and the extracted unit image Calculating the number of star features; (B) the calculation module includes calculating a nodule doubling time (DT, Doubling Time) and a pulmonary nodule volume percentage change (PVC) included in the pre-nodule image and the follow-up-nodule image; (C) the extraction module collects feature information extracted from each of the continuous CT images, reflects the learned weight in the collected feature information, and filters feature information whose weight is less than a certain level to extract analysis valid information; (D) The generation module generates analysis data by adding the doubling time and pulmonary nodule volume change calculated as a result of continuous CT image analysis to the extracted valid information, and extracts the final analysis valid information from the analysis data to generate final analysis data. Step to do; And (E) calculating the cancer probability of the nodule by comparing the generated final analysis data with the learned cancer diagnosis data set. Includes.

개인 및 의원에서 시행된 폐암검진 CT영상의 판독결과를 신속하게 획득할 수 있고, CT 영상 판독결과의 정확성을 향상시킬 수 있다. 또한, 온라인을 통해 사용자는 자신의 CT 영상 판독을 의뢰할 수 있고, 결과를 언제든지 조회할 수 있고, 추적 검사 시 수시로 이전 결과와 비교하여 자신의 의료 영상 정보를 관리 할 수 있다. It is possible to quickly obtain the reading result of the CT image for lung cancer screening conducted in individuals and clinics, and improve the accuracy of the CT image reading result. In addition, through online, the user can request to read his or her CT image, view the result at any time, and manage his/her medical image information by comparing it with previous results at any time during follow-up examination.

CT 영상 판독 서버는 인공지능을 이용하여 영상 데이터를 분석하고 데이터 처리 효율을 향상시키고 영상 판독 정확성을 함께 향상시킬 수 있다. The CT image reading server can analyze image data using artificial intelligence, improve data processing efficiency, and improve image reading accuracy.

CT 영상 판독 시스템 도입을 통해 개인 판독의, 의원, 및 병원이 온라인으로 의료영상 판독을 수행할 수 있게 하여, 개인 및 의료기관의 수익창출을 도모할 수 있다. Through the introduction of a CT image reading system, it is possible to create profits for individuals and medical institutions by allowing individual readers, clinics, and hospitals to perform medical image reading online.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the above effects, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 실시예에 따른 인공지능을 이용한 온라인 폐암진단시스템을 나타낸 도면
도 2는 실시예에 따른 CT 판독서버(100)의 폐암 확률연산과정을 설명하기 위한 도면
도 3은 실시예에 따른 CT 판독서버(100)의 블록도
도 4는 실시예에 따른 폐암확률진단 과정을 나타낸 도면
도 5는 실시예에 따른 산출모듈의 구체적인 데이터 처리 블록을 나타낸 도면
도 6은 실시예에 따른 이미지 특징 추출과정을 나타낸 도면
도 7은 실시예에 따른 인공지능을 이용한 폐암검진 CT 판독서버의 폐암진단 방법의 데이터 처리 흐름을 나타낸 도면
도 8은 S710 단계인 연속된 이미지의 특징추출과정을 나타낸 도면
도 9는 연속된 CT 이미지(프리노듈이미지, 팔로업노듈이미지) 예를 나타낸 도면
1 is a diagram showing an online lung cancer diagnosis system using artificial intelligence according to an embodiment
Figure 2 is a diagram for explaining the lung cancer probability calculation process of the CT reading server 100 according to the embodiment
3 is a block diagram of a CT reading server 100 according to an embodiment
4 is a diagram showing a lung cancer probability diagnosis process according to an embodiment
5 is a diagram showing a detailed data processing block of a calculation module according to an embodiment
6 is a diagram showing an image feature extraction process according to an embodiment
7 is a diagram showing a data processing flow of a lung cancer diagnosis method of a lung cancer screening CT reading server using artificial intelligence according to an embodiment
8 is a view showing a feature extraction process of a continuous image in step S710
9 is a diagram showing an example of a continuous CT image (prenodule image, follow-up nodule image)

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, and the general knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have it, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.

도 1은 실시예에 따른 인공지능을 이용한 온라인 폐암진단시스템을 나타낸 도면이다.1 is a diagram showing an online lung cancer diagnosis system using artificial intelligence according to an embodiment.

도 1을 참조하면, 실시예에 따른 폐암진단 시스템은 CT 판독서버(100), 사용자 단말(200) 및 의료기관 서버(600)를 포함하여 구성될 수 있다.Referring to FIG. 1, the lung cancer diagnosis system according to the embodiment may include a CT reading server 100, a user terminal 200, and a medical institution server 600.

사용자 단말(200)은 CT 촬영을 수행한 환자의 엑스레이, CT 영상, 폐결절 CT 이미지 등 환자의 개인 건강정보를 수집하고, CT 이미지 판독을 위해 건강정보를 요청하는 서버로 개인 별 건강정보를 전송할 수 있다.The user terminal 200 collects patient's personal health information, such as X-rays, CT images, and CT images of lung nodules of the patient who performed CT scans, and transmits individual health information to a server that requests health information for reading the CT image. have.

의료기관 서버(600)는 환자의 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지를 포함하는 연속적인 폐결절 CT 이미지를 수집하고, 환자들의 건강정보를 수집 및 업데이트 할 수 있다. The medical institution server 600 collects continuous pulmonary nodule CT images including pre-nodule images and follow up-nodule images of patients, and collects and updates health information of patients. I can.

폐암진단 CT 판독서버(100)는 사용자 단말(200) 또는 의료기관서버(600)로부터 폐결절 CT 이미지를 전달받아, 폐결절이 암일 확률을 산출하고, 산출결과를 의료기관 서버(600) 및 사용자 단말(200)로 전송한다.The lung cancer diagnosis CT reading server 100 receives a CT image of a lung nodule from the user terminal 200 or the medical institution server 600, calculates the probability that the lung nodule is cancer, and transmits the calculated result to the medical institution server 600 and the user terminal 200. Transfer to.

실시예에서 폐암진단 시스템은 결제 시스템 서버(500), 데이터베이스 서버(300), 의료인 단말(400) 및 보안시스템 서버(700)을 더 포함하여 구성될 수 있다. 결제 시스템 서버(500)는 폐암진단 시스템에서 CT 이미지 판독이 수행될 때 판독 비용을 결제한다. 데이터베이스 서버(300)는 폐암확률 연산에 필요한 레퍼런스 데이터, 데이터 세트 및 환자들의 의료정보를 저장할 수 있다. 레퍼런스 데이터에는 연속 CT 영상에서 추출한 폐결절 이미지 데이터 등이 포함될 수 있다.In the embodiment, the lung cancer diagnosis system may further include a payment system server 500, a database server 300, a medical personnel terminal 400, and a security system server 700. The payment system server 500 pays the reading cost when the CT image reading is performed in the lung cancer diagnosis system. The database server 300 may store reference data, a data set, and medical information of patients necessary for calculating a lung cancer probability. The reference data may include lung nodule image data extracted from a continuous CT image.

의료인 단말(400)은 폐암진단 시스템에 가입된 의사의 사용자 단말로서, CT 이미지 판독 결과를 확인하거나 CT 이미지 판독을 직접 수행하거나, 이상 결절 진단 및 소견생성을 수행할 수 있다. 보안시스템 서버(700)는 폐암진단 시스템에 포함된 각 서버들의 데이터 및 개인정보 보안을 수행한다.The medical practitioner terminal 400 is a user terminal of a doctor subscribed to the lung cancer diagnosis system, and may check a CT image reading result, directly perform a CT image reading, or perform abnormal nodule diagnosis and findings. The security system server 700 secures data and personal information of each server included in the lung cancer diagnosis system.

도 2는 실시예에 따른 CT 판독서버(100)의 폐암 확률연산과정을 설명하기 위한 도면이다.2 is a view for explaining a lung cancer probability calculation process of the CT reading server 100 according to an embodiment.

도 2를 참조하면, 판독서버(1000)의 네트워크 A는 이미지 전처리(preprocessing) 과정이 수행된 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지를 입력 받는다. 이후, 연속된 두개의 CT 이미지로부터 특징을 추출하고 연속된 두 이미지에서 결절의 더블링 타임과 결절의 볼륨 변화율을 산출한다. 네트워크 A에서 추출된 각 이미지들의 특징정보는 판독서버의 네트워크 B로 전달된다. 네트워크 B에서는 추출된 특징들을 통합하고, 3차원 컨볼루션 뉴럴 네트워크(3D Convolutional neural network)를 이용하여 분석유효정보와 분석데이터를 선정한다. 이후 분석데이터에 폐 결절 볼륨과 볼륨의 변화율 정보를 부가한다. 이후 최종 분석데이터를 추출하여 최종 분석데이터를 학습 데이터 세트와 비교하여 폐결절의 암일 확률을 출력한다. Referring to FIG. 2, network A of the reading server 1000 receives a pre-nodule image and a follow up-nodule image on which an image preprocessing process has been performed. Thereafter, features are extracted from two consecutive CT images, and the doubling time of the nodule and the rate of change in the volume of the nodule are calculated from the two consecutive images. Feature information of each image extracted from network A is transmitted to network B of the reading server. In Network B, the extracted features are integrated, and analysis valid information and analysis data are selected using a 3D convolutional neural network. Afterwards, the pulmonary nodule volume and volume change rate information are added to the analysis data. After that, the final analysis data is extracted, and the final analysis data is compared with the training data set to output the probability of lung nodule cancer.

도 3은 실시예에 따른 CT 판독서버(100)의 블록도이다.3 is a block diagram of a CT reading server 100 according to an embodiment.

도 3을 참조하면, 실시예에 따른 CT 판독서버(100)는 네트워크 A와 네트워크 B로 구성될 수 있다. 네트워크 A는 연속된 CT 이미지의 특징을 추출하고 연속된 CT이미지의 분석 결과를 이용해 더블링 타임 및 폐결절 볼륨 변화율을 산출한다. 네트워크 B는 네트워크 A에서 추출된 특징을 수집하여 최종분석데이터를 생성하고 이를 통해 결절의 암 확률을 산출한다. 이를 위해, 네트워크 A는 산출모듈(110)을 포함하여 구성될 수 있고, 네트워크 B는 추출모듈(130), 생성모듈(150) 및 연산모듈(170)을 포함하여 구성될 수 있다. 본 명세서에서 사용되는 '모듈' 이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.Referring to Figure 3, the CT reading server 100 according to the embodiment may be composed of a network A and a network B. Network A extracts features of continuous CT images and calculates the doubling time and pulmonary nodule volume change rate using the analysis results of the continuous CT images. Network B collects features extracted from network A, generates final analysis data, and calculates the cancer probability of the nodule. To this end, network A may be configured to include a calculation module 110, and network B may be configured to include an extraction module 130, a generation module 150, and a calculation module 170. The term'module' used in this specification should be interpreted as being capable of including software, hardware, or a combination thereof, depending on the context in which the term is used. For example, the software may be machine language, firmware, embedded code, and application software. As another example, the hardware may be a circuit, a processor, a computer, an integrated circuit, an integrated circuit core, a sensor, a MEMS (Micro-Electro-Mechanical System), a passive device, or a combination thereof.

이하, 서버의 데이터 처리 블록 기능에 대한 이해를 돕기 위해, 실시예에 따른 폐암확률진단 과정을 나타낸 도 4를 함께 참조하여 설명한다.Hereinafter, in order to help understand the function of the data processing block of the server, a description will be given with reference to FIG. 4 showing a lung cancer probability diagnosis process according to an embodiment.

산출모듈(110)은 전처리된 프리-노듈(pre-nodule)이미지 및 팔로업-노듈(followup-nodule)이미지를 입력받아, 각각의 이미지에 복수개의 단위 이미지로 분할한 1차 레이어로 마스킹하고, 1차 레이어에 포함된 단위 이미지 각각의 특징을 추출한다. 실시예에서 단위이미지 특징에는 이미지에 포함된 객체의 에지, 색, 객체의 크기 등 이미지에 포함된 객체의 세부정보를 나타내는 정보들이 포함될 수 있다. 더 구체적으로, 1차 레이어에서 추출되는 단위이미지 특징은 세그멘테이션된 각 이미지 영역의 에지(edge)일이고, 2차 레이어에서 추출되는 단위이미지 특징은 선(line) 또는 면(plane)일 수 있으며, 3차 레이어에서 추출되는 특징은 전체적인 형상(shape) 또는 윤곽(contour)일 수 있다. 즉, 1차 레이어에서 고차 레이어로 진행할수록 단순한 1차원적인 특징에서 더 복잡한 2차원, 그리고 3차원적인 디멘션(dimension)의 이미지 특징을 추출하게 된다. 또한, 산출모듈(110)은 추출된 단위 이미지 별 특징 수를 산출한다. 또한, 연속된 CT 이미지의 분석결과를 기반으로 상기 프리-노듈이미지와 팔로업-노듈이미지에 포함된 결절의 더블링타임(DT, Doubling Time)과, 폐결절 볼륨 백분율 변화(PVC, Percentage Volume change)를 연산한다.The calculation module 110 receives the pre-processed pre-nodule image and follow-up-nodule image, masks each image with a first layer divided into a plurality of unit images, Features of each unit image included in the first layer are extracted. In an embodiment, the unit image feature may include information indicating detailed information of an object included in the image, such as an edge, color, and size of an object included in the image. More specifically, the unit image feature extracted from the first layer may be an edge of each segmented image area, and the unit image feature extracted from the second layer may be a line or a plane, Features extracted from the third layer may be an overall shape or a contour. That is, the more complex the two-dimensional and three-dimensional image features are extracted from the simple one-dimensional feature as the first layer proceeds to the higher-order layer. In addition, the calculation module 110 calculates the number of features for each extracted unit image. In addition, based on the analysis result of the continuous CT image, the doubling time (DT, Doubling Time) of the nodules included in the pre-nodule image and the follow-up-nodule image, and the percentage change in the pulmonary nodule volume (PVC) are determined. Calculate.

실시예에서 산출모듈(110)에 입력되는 이미지는 연속된 CT 이미지뿐만 아니라, 연속된 복셀(voxcel)도 포함될 수 있다. 복셀(voxel)은 체적 요소로서, 3차원 공간에서 정규 격자 단위의 값을 나타낸다. 복셀이라는 용어는 부피 (volume)와 픽셀 (pixel)을 조합한 혼성어로서, 2차원 이미지 데이터가 픽셀로 표시되는 것에 대한 비유이다. 복셀은 의료 및 과학 데이터 시각화 및 분석에 자주 사용된다. 픽셀뿐만 아니라 복셀 자체는 공간의 좌표를 갖지 않지만 다른 복셀 군과의 위치 관계 (즉, 하나의 입체 이미지를 구성하는 데이터 구조의 각 위치)에서 짐작할 수 있다. 즉 실시예에서 산출모듈은 복셀형태인 3차원 프리노듈 큐브와 팔로업노듈 큐브를 입력받아 입력된 큐브의 각각의 특징을 추출하고 연속적으로 입력된 큐브 정보를 통해 더블링 타입 및 결절의 볼륨 변화율을 산출할 수 있다. 실시예에서 CT 판독서버는 전처리 모듈(도면 미도시)를 더 포함하여 연속된 CT 이미지를 복셀 형태의 3차원 큐브로 변환할 수 있다.In the embodiment, the image input to the calculation module 110 may include not only a continuous CT image, but also a continuous voxcel. A voxel is a volume element and represents a value in a regular grid unit in a three-dimensional space. The term voxel is a hybrid word that combines volume and pixel, and is a metaphor for displaying two-dimensional image data as pixels. Voxels are often used for visualization and analysis of medical and scientific data. Not only the pixels but also the voxels themselves do not have spatial coordinates, but can be guessed from the positional relationship with other voxel groups (that is, each position of the data structure constituting one stereoscopic image). That is, in the embodiment, the calculation module receives the voxel type 3D prenodule cube and follow-up nodule cube, extracts each feature of the input cube, and calculates the doubling type and the volume change rate of the nodule through successively input cube information. can do. In an embodiment, the CT reading server may further include a preprocessing module (not shown) to convert a continuous CT image into a voxel-shaped 3D cube.

네트워크 B의 추출모듈(130)은 프리-노듈이미지와 팔로업-노듈이미지 또는 3차원 프리노듈 큐브와 팔로업 노듈 큐브에서 추출된 각각의 특징정보를 수집하고, 수집된 특징정보에 학습된 가중치를 반영한다. 이후 가중치가 일정수준 미만인 특징정보는 필터링 하여 분석유효정보를 추출한다. 도 4를 참조하여 설명하면, 추출모듈(130)은 산출모듈(110)로부터 프리 노듈의 512byte 특징정보와 팔로업 노듈의 512 byte 특징 정보를 수집하여 총 1024 byte 특징정보(a)를 생성할 수 있다. 이후 추출모듈(130)은 1024 byte 특징정보에 미리 학습된 가중치를 반영하여 가중치가 일정 수준 이상인 64 byte의 분석유효정보(b)만을 추출할 수 있다. 실시예에서 분석유효정보(b)는 특징정보에서 암 확률 연산에 필요 없는 정보를 필터링 한 정보가 될 수 있다. 실시예에서는 특징정보(a)의 메타데이터가 많은 순서로 가중치를 반영하거나, 객체의 에지 부분이 포함된 정도에 따라 가중치를 반영하여 가중치가 일정 수준 이상인 정보를 분석유효 정보(b)로 추출할 수 있고, 가중치 반영에 딥러닝 등 인공지능 알고리즘을 이용할 수 있다.The extraction module 130 of the network B collects each feature information extracted from the pre-nodule image and the follow-up-nodule image or the three-dimensional pre-nodule cube and the follow-up nodule cube, and applies the learned weight to the collected feature information. Reflect. After that, the feature information whose weight is less than a certain level is filtered to extract the analysis valid information. Referring to FIG. 4, the extraction module 130 may generate a total of 1024 bytes of feature information (a) by collecting 512 byte feature information of the pre-nodule and 512 byte feature information of the follow-up nodule from the calculation module 110. have. Thereafter, the extraction module 130 may extract only the analysis valid information (b) of 64 bytes having a weight equal to or greater than a certain level by reflecting the weight learned in advance to the 1024 byte feature information. In an embodiment, the analysis valid information (b) may be information obtained by filtering information not necessary for calculating cancer probability from the feature information. In the embodiment, the weight is reflected in the order in which the metadata of the feature information (a) is many, or the information having a weight of a certain level or higher is extracted as the analysis valid information (b) by reflecting the weight according to the degree to which the edge portion of the object is included. In addition, artificial intelligence algorithms such as deep learning can be used to reflect weights.

생성모듈(150)은 분석유효정보에서 메타데이터가 일정 수준 이상인 데이터만을 추출하거나, 인공지능 알고리즘을 적용하여 분석예비데이터를 생성하고, 생성된 분석예비데이터에 산출모듈(110)로부터 전달받은 프리-노듈이미지와 팔로업-노듈이미지의 폐결절 볼륨 변화 정보를 부가하여 분석데이터(c)를 생성한다. 여기서 폐결절 볼륨 변화 정보의 예시는 더블링 타임 및 Percentage Volume Change(PVC)가 될 수 있다. 최종 분석데이터를 생성하기 위한 전 단계에서 활용되는 데이터는 총 4개일 수 있으며, 이 데이터들 중 2개는 프리-노듈 이미지 와 팔로업-노듈 이미지에서 추출되고 선별된 이미지 특징이고, 나머지 2개의 데이터는 폐결절 볼륨 변화 정보로써 위에서 예시한 더블링 타임 및 PVC가 활용될 수 있다.The generation module 150 extracts only data having metadata of a certain level or higher from the analysis valid information, or generates analysis preliminary data by applying an artificial intelligence algorithm, and the generated preliminary analysis data received from the calculation module 110 Analysis data (c) is generated by adding information on the volume change of the lung nodule of the nodule image and the follow-up-nodule image. Here, examples of pulmonary nodule volume change information may be doubling time and Percentage Volume Change (PVC). There can be a total of 4 data used in the previous step to generate the final analysis data, and two of these data are image features extracted and selected from the pre-nodule image and the follow-up-nodule image, and the remaining two data. Is the pulmonary nodule volume change information, and the doubling time and PVC illustrated above can be used.

분석예비데이터는 분석유효정보에서 중요한 정보만을 다시 추출한 데이터가 될 수 있다. 이후 생성모듈(150)은 분석데이터(c)에서 딥러닝 모델 등 인공지능 알고리즘을 통해 가장 중요한 데이터만을 선정하여 최종 분석데이터(d)를 생성한다. The analysis preliminary data may be data obtained by re-extracting only important information from the analysis valid information. Thereafter, the generation module 150 selects only the most important data from the analysis data c through an artificial intelligence algorithm such as a deep learning model to generate the final analysis data d.

연산모듈(170)은 최종 분석데이터(d)를 미리 학습된 암 진단 데이터 세트와 비교하여 결절의 암 확률을 연산한다.The calculation module 170 compares the final analysis data d with a previously learned cancer diagnosis data set to calculate a cancer probability of a nodule.

도 4를 참조하면, 실시예에서 CT 영상 진단에 이용된 3D CNN 모델의 경우 2가지의 네트워크(Network A, Network B)로 구성되어 있다. 실시예에서 네트워크 A와 네트워크 B는 서로 분리시켜 학습을 수행할 수 있다. 네트워크 A 각각에는 3차원 큐브(3D Cube) 형태를 지닌 하나의 결절이 입력되고 네트워크 A를 학습하기 위해서 가지고 있는 모든 결절들을 학습데이터로 사용하며, 폐암과 관련된 특징들을 찾아낼 수 있도록 학습시킨다. 네트워크 B의 경우 2개의 폐결절의 특징과 볼륨변화정보를 입력으로 하고 결과로는 폐 결절의 암 확률을 제공하도록 한다. 실시예에서는 네트워크 학습을 위해서 로테이션(Rotation)과 플립(flip)을 이용한 데이터 확대(data augmentation) 기법을 사용할 수 있다.Referring to FIG. 4, in the case of a 3D CNN model used for CT image diagnosis in an embodiment, it is composed of two networks (Network A and Network B). In an embodiment, network A and network B may be separated from each other to perform learning. One nodule in the form of a 3D cube is input to each network A, and all nodules are used as learning data to learn the network A, and learn to find features related to lung cancer. In the case of network B, the characteristics and volume change information of two pulmonary nodules are input, and as a result, the probability of cancer of the pulmonary nodule is provided. In an embodiment, a data augmentation technique using rotation and flip may be used for network learning.

도 4를 참조하면, 네트워크 A에서는 프리노듈이미지와 팔로업 노듈 이미지 또는 3차원 프리 노듈 큐브 및 팔로업 노듈 큐브를 입력하여 연속된 두 이미지와 큐브에서 특징을 추출한다. 도 4에는 연속된 두 이미지와 큐브에서 3차에 걸친 특징추출과정이 나타나 있다. 1차 특징추출과정에서는 연속된 두 이미지와 큐브를 전달받아 2개의 3차원 특징을 산출할 수 있다. 이 결과 1차 특징추출과정에서는 각각 (32x32x32)x2 크기의 특징데이터가 산출된다.Referring to FIG. 4, in network A, a prenodule image and a follow-up nodule image or a 3D pre-nodule cube and a follow-up nodule cube are input to extract features from two consecutive images and cubes. Fig. 4 shows a feature extraction process from two consecutive images and three orders of magnitude of the cube. In the first feature extraction process, two consecutive images and a cube can be received and two three-dimensional features can be calculated. As a result, in the first feature extraction process, feature data of (32x32x32)x2 size is calculated.

2차 특징추출과정에서는 1차 특징추출결과 생성된 (32x32x32)x2 크기의 데이터에서 최대 특징을 가진 단위이미지들만 남기는 특징추출과정(Max pooling)을 다시 수행한다. 이 결과 2차 추출과정에서 4개의 특징 값이 산출되고 (16x16x16)x4 크기의 데이터가 생성될 수 있다. 3차 특징추출과정까지 반복 수행하는 경우, 3차 특징추출과정에서는 2차 특징추출결과 생성된 데이터에서 다시 최대 특징을 가진 단위이미지들만 필터링 한다. 이 결과 3차 특징추출과정에서는 (8x8x8)x8 크기의 데이터가 생성될 수 있다. 실시예에서는 최대 특징추출(Max pooling) 과정을 반복하여 연속된 이미지에서 특징데이터들만 추출하여 네트워크 B로 전달하게 된다. 이후 네트워크 B에서는 연속된 이미지의 특징데이터를 병합한 분석이미지(a)를 생성하고, 이를 머신러닝결과에 기반하여 암 판정에 필요한 유효데이터를 반복 추출한다. 이후, 프리노듈과 팔로업 노듈의 볼륨 변화정보(volume change information)를 삽입한 분석데이터(c)를 생성하고, 분석데이터(c)에서 최종 분석데이터(d)를 추출한다. 실시예에서 추출과정에서는 미리 구축된 암 판정을 위한 딥러닝 및 머신러닝 결과를 이용하여 최종 분석데이터(d)를 추출할 수 있다. 이후, 네트워크 B는 최종 분석데이터를 통해 폐결절이 암인지 판단한다.In the second feature extraction process, from the (32x32x32)x2 size data generated as a result of the first feature extraction, the feature extraction process (Max pooling) is performed again, leaving only the unit images with the maximum features. As a result, in the second extraction process, four feature values are calculated, and data having a size of (16x16x16)x4 may be generated. When the third feature extraction process is repeatedly performed, in the third feature extraction process, only the unit images having the largest feature are filtered again from the data generated as a result of the second feature extraction. As a result, data of (8x8x8)x8 size can be generated in the third feature extraction process. In the embodiment, the maximum feature extraction (Max pooling) process is repeated to extract only feature data from a continuous image and transmit it to the network B. After that, the network B generates an analysis image (a) in which the feature data of the consecutive images are merged, and it repeatedly extracts valid data necessary for cancer determination based on the machine learning result. After that, the analysis data (c) in which the volume change information of the prenodule and the follow-up nodule is inserted is generated, and the final analysis data (d) is extracted from the analysis data (c). In an exemplary embodiment, in the extraction process, the final analysis data (d) may be extracted using the results of deep learning and machine learning for cancer determination that have been built in advance. Thereafter, network B determines whether the lung nodule is cancer based on the final analysis data.

도 5는 실시예에 따른 산출모듈의 구체적인 데이터 처리 블록을 나타낸 도면이다. 5 is a diagram illustrating a detailed data processing block of a calculation module according to an embodiment.

도 5를 참조하면, 산출모듈(110)은 생성부(111), 연산부(113) 및 판단부(115)를 포함하여 구성될 수 있다. 산출모듈(110)의 기능 이해를 돕기 위해 도 5를 설명할 때, 이미지 특징추출과정을 나타낸 도 6을 함께 설명한다.Referring to FIG. 5, the calculation module 110 may include a generator 111, an operation unit 113, and a determination unit 115. When FIG. 5 is described to help understand the function of the calculation module 110, FIG. 6 showing an image feature extraction process will be described together.

생성부(111)는 일정수의 단위 이미지로 구성된 2차 레이어를 생성하고, 2차 레이어를 구성하는 단위 이미지 중 특징 개수가 가장 많은 최대특징값이미지를 추출하고, 복수개의 2차 레이어 각각에서 추출된 최대특징값이미지들을 수집하여 n차 분석 이미지를 생성한다. 도 6에 도시된 바와 같이, 실시예에서 생성부(111)는 4개의 단위 이미지를 포함하는 2차 레이어(L21, L22, L23, L24)를 생성하고, 2차 레이어를 구성하는 단위 이미지 중 특징 개수가 가장 많은 최대특징값이미지를 추출한다. 실시예에서는 2차 레이어 2,1,1,7에서는 최대 특징 값으로 7을 나타낸 이미지가 추출되고, 2차 레이어 2,1,6,1에서는 최대 특징 값으로 6을 나타낸 이미지가 추출되고, 마찬가지 과정을 거쳐 6 및 8을 최대 특징 값으로 나타낸 이미지가 추출된다. The generation unit 111 generates a secondary layer consisting of a certain number of unit images, extracts the maximum feature value image having the largest number of features among the unit images constituting the secondary layer, and extracts from each of the plurality of secondary layers. The nth order analysis image is generated by collecting the maximum feature value images. As shown in FIG. 6, in the embodiment, the generation unit 111 generates secondary layers L21, L22, L23, and L24 including four unit images, and features among the unit images constituting the secondary layer. The maximum feature value image with the largest number is extracted. In the embodiment, an image representing 7 as the maximum feature value is extracted from the secondary layers 2,1,1,7, and an image representing 6 as the maximum feature value is extracted from the secondary layers 2,1,6,1. Through the process, images representing 6 and 8 as maximum feature values are extracted.

이후 생성부(111)는 복수개의 2차 레이어 각각에서 추출된 최대 특징 값 이미지들을 수집하여 n차 분석이미지를 생성한다. 도 6을 참조하면, 최대 특징 값을 7,6,6,8로 나타낸 단위이미지를 수집하여 2차 분석이미지(e2)를 생성한다. 이후, 7,6,6,8 중 최대 특징 값인 8을 추출하여 3차 분석이미지(e3)을 생성할 수 있다. 실시예에서는 3차 분석 실시예까지 설명하였으나 최대값 추출과정(Max pooling)을 통한 특징추출은 n회까지 반복될 수 있고, 이에 따라 n차 분석이미지를 생성할 수 있다. Thereafter, the generation unit 111 collects the maximum feature value images extracted from each of the plurality of secondary layers to generate an n-th analysis image. Referring to FIG. 6, a second analysis image e2 is generated by collecting unit images representing the maximum feature values as 7,6,6,8. Thereafter, the third analysis image e3 may be generated by extracting 8, which is the maximum feature value among 7,6,6,8. In the embodiment, up to the third analysis embodiment has been described, but the feature extraction through the maximum pooling process may be repeated up to n times, thereby generating an nth analysis image.

연산부(113)는 입력된 연속 CT 이미지 및 연속된 3차원 노듈 큐브 데이터의 특징정보를 이용하여 더블링 타임(DT)과 결절 볼륨 변화율을 연산한다.The operation unit 113 calculates the doubling time DT and the nodule volume change rate by using the input continuous CT image and characteristic information of the continuous 3D nodule cube data.

더블링 타임은 수학식 1을 통해 산출될 수 있다.The doubling time may be calculated through Equation 1.

수학식 1 Equation 1

Figure 112018120246165-pat00001
Figure 112018120246165-pat00001

DT=더블링 타임(doubling time)DT=doubling time

V1: 프리-노듈(pre-nodule)이미지의 결절 볼륨V1: Nodule volume of pre-nodule image

V2: 팔로업-노듈(follow up-nodule) 이미지의 결절 볼륨V2: Nodule volume in follow up-nodule images

T1: 기준시점(baseline), T2: 스캔 완료 후 시점(diagnostic scan time)T1: Baseline, T2: Diagnostic scan time

폐결절 볼륨 백분율 변화는 수학식 2를 통해 산출될 수 있다.The percentage change in the pulmonary nodule volume may be calculated through Equation 2.

수학식 2Equation 2

Figure 112018120246165-pat00002
Figure 112018120246165-pat00002

PVC: 폐결절 볼륨 백분율 변화PVC: Percent change in pulmonary nodule volume

V2: 팔로업-노듈(follow up-nodule)이미지 결절의 볼륨V2: follow up-nodule image nodule volume

V1: 프리-노듈(pre-nodule)이미지 결절의 볼륨V1: Volume of pre-nodule image nodules

판단부(115)는 n차 분석 이미지가 최대 특징 수를 포함하는 경우, 프리-노듈 이미지와 팔로업-노듈이미지의 최대특징값이미지 정보를 추출모듈로 전달한다. 또한, 판단부(115)는 더블링 타임 및 폐결절 볼륨 백분율 변화 데이터도 네트워크 B의 추출모듈로 전달한다.When the n-th analysis image includes the maximum number of features, the determination unit 115 transmits the pre-nodule image and the maximum feature value image information of the follow-up-nodule image to the extraction module. In addition, the determination unit 115 transmits the doubling time and pulmonary nodule volume percentage change data to the extraction module of the network B.

이하에서는 실시예에 따른 온라인 폐암진단방법에 대해서 차례로 설명한다. 온라인 폐암진단 방법의 작용(기능)은 폐암검진 CT 판독서버 및 폐암검진 시스템상의 기능과 본질적으로 같은 것이므로 도 1 내지 도 6과 중복되는 설명은 생략하도록 한다. Hereinafter, an online lung cancer diagnosis method according to an embodiment will be sequentially described. Since the function (function) of the online lung cancer diagnosis method is essentially the same as the function of the lung cancer screening CT reading server and the lung cancer screening system, the overlapping description of FIGS. 1 to 6 will be omitted.

도 7은 실시예에 따른 인공지능을 이용한 폐암검진 CT 판독서버의 폐암진단 방법의 데이터 처리 흐름을 나타낸 도면이다.7 is a diagram showing a data processing flow of a lung cancer diagnosis method of a lung cancer screening CT reading server using artificial intelligence according to an embodiment.

S710 단계에서는 연속된 CT 이미지인 프리 노듈이미지와 팔로업 노듈이미지에서 각각의 특징을 추출한다. S710 단계에서는 연속된 CT 이미지를 복셀 형태로 변환하여 3차원 프리 노듈 큐브 및 팔로업 노듈 큐브를 생성하고, 프리 노듈 큐브와 팔로업 노듈 큐브의 각각을 분석하여 3차원 큐브에 포함된 특징을 추출 할 수 있다.In step S710, each feature is extracted from the continuous CT image, the pre-nodule image and the follow-up nodule image. In step S710, a 3D pre-nodule cube and a follow-up nodule cube are generated by converting the continuous CT image into a voxel form, and features included in the 3D cube are extracted by analyzing each of the pre-nodule cube and the follow-up nodule cube. I can.

S720 단계에서는 산출모듈에서 결절의 더블링 타임 및 폐결절 볼륨 백분율을 산출한다.In step S720, the calculation module calculates the nodule doubling time and the pulmonary nodule volume percentage.

S730 단계에서 추출모듈은 연속된 CT 이미지 각각에서 추출된 특징정보를 수집하고, 수집된 특징정보에 학습된 가중치를 반영하고 가중치가 일정수준 미만인 특징정보는 필터링 하여 분석유효정보를 생성한다.In step S730, the extraction module collects feature information extracted from each successive CT image, reflects the learned weight in the collected feature information, and filters feature information whose weight is less than a certain level to generate analysis valid information.

S740 단계에서 생성모듈은 추출된 유효정보에 상기 연속된 CT 이미지 분석결과로 산출된 더블링 타임 및 폐결절 볼륨 변화를 부가하여 분석데이터를 생성하고, S750 단계에서는 분석데이터에서 최종분석유효정보를 추출하여 최종분석데이터를 생성한다. In step S740, the generation module generates analysis data by adding the doubling time and pulmonary nodule volume change calculated as the result of the continuous CT image analysis to the extracted valid information. In step S750, the final analysis valid information is extracted from the analysis data Generate analysis data.

S760 단계에서 연산모듈은 생성된 최종분석데이터를 학습된 암 진단 데이터 세트와 비교하여 결절의 암 확률을 연산한다. In step S760, the calculation module calculates the cancer probability of the nodule by comparing the generated final analysis data with the learned cancer diagnosis data set.

도 8은 S710 단계인 연속된 이미지의 특징추출과정을 나타낸 도면이다. 8 is a view showing a feature extraction process of a continuous image in step S710.

S711 단계에서는 생성부에서 일정수의 단위 이미지로 구성된 2차 레이어를 생성한다.In step S711, the generation unit generates a secondary layer composed of a predetermined number of unit images.

S713 단계에서는 2차 레이어를 구성하는 단위 이미지 중 특징 개수가 가장 많은 최대특징값이미지를 추출하고, 복수개의 2차 레이어 각각에서 추출된 최대특징값이미지들을 수집하여 n차 분석 이미지를 생성한다.In step S713, the maximum feature value image having the largest number of features among the unit images constituting the second layer is extracted, and the maximum feature value images extracted from each of the plurality of secondary layers are collected to generate an nth-order analysis image.

S715 단계에서는 판단부에서 n차 분석 이미지가 최대 특징 값을 포함하는 경우, 연속된 CT 이미지의 최대특징값이미지 정보를 각각을 생성모듈로 전달한다.In step S715, when the nth analysis image includes the maximum feature value in the determination unit, each of the maximum feature value image information of the continuous CT images is transmitted to the generation module.

도 9는 연속된 CT 이미지(프리노듈이미지, 팔로업노듈이미지) 예를 나타낸 도면이다.9 is a diagram showing an example of a continuous CT image (prenodule image, follow-up nodule image).

도 9에 도시된 바와 같이, 실시예에 따른 인공지능을 이용한 폐암검진 CT 판독서버는 프리노듈이미지(1-1,2-1,3-1)와 팔로업노듈이미지(1-2,2-2,3-2)를 연속적으로 입력받고, 두 연속된 이미지를 이용한 분석데이터와 최종분석데이터를 생성하고 최종분석데이터를 통해 암 판정을 수행한다. As shown in Fig. 9, the lung cancer screening CT reading server using artificial intelligence according to the embodiment includes prenodule images (1-1, 2-1, 3-1) and follow-up nodule images (1-2,2- 2,3-2) are continuously inputted, analysis data and final analysis data are generated using two consecutive images, and cancer determination is performed through the final analysis data.

실시예에 따른 인공지능을 이용한 폐암진단 시스템, 폐암검진 CT 판독서버 및 폐암진단방법은 개인 및 의원에서 시행된 폐암검진 CT영상의 판독결과를 신속하게 획득할 수 있고, CT 영상 판독결과의 정확성을 향상시킬 수 있다. 또한, 온라인을 통해 사용자는 자신의 CT 영상 판독 결과를 언제든지 조회할 수 있고, 추적 검사 시 수시로 이전 결과와 비교하여 자신의 의료 영상 정보를 관리 할 수 있도록 한다. CT 영상 판독 서버는 인공지능을 이용하여 분석해야 할 영상 데이터의 크기를 최소화 함으로써, 데이터 처리 효율을 향상시키고 영상 판독 정확성을 함께 향상시킬 수 있도록 한다. 또한, CT 영상 판독 시스템 도입을 통해 개인 의료인 및 3차 병원이 온라인으로 의료영상 판독을 수행할 수 있게 하여, 개인 및 의료기관의 수익창출을 도모할 수 있다.The lung cancer diagnosis system using artificial intelligence according to the embodiment, the lung cancer screening CT reading server, and the lung cancer diagnosis method can quickly obtain the reading results of the lung cancer screening CT images conducted in individuals and clinics, and improve the accuracy of the CT image reading results. Can be improved. In addition, through online, users can view their CT image reading results at any time, and manage their own medical image information by comparing them with previous results from time to time during follow-up tests. The CT image reading server minimizes the size of image data to be analyzed using artificial intelligence, thereby improving data processing efficiency and improving image reading accuracy. In addition, through the introduction of a CT image reading system, individual medical personnel and tertiary hospitals can perform online medical image reading, thereby promoting profit creation for individuals and medical institutions.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed contents are only examples, and various changes can be made by those of ordinary skill in the art without departing from the gist of the claims claimed in the claims, so the scope of protection of the disclosed contents is It is not limited to the examples.

Claims (14)

인공지능을 이용한 폐암검진 CT 판독서버에 있어서,
전처리된 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지 또는 3차원 프리 노듈 큐브 및 팔로업 노듈 큐브를 포함하는 연속된 CT(Computed Tomography) 이미지 각각을 복수개의 단위 이미지로 분할한 1차 레이어로 마스킹하고, 1차 레이어에 포함된 단위 이미지 각각의 특징을 추출하고, 상기 추출된 단위 이미지 별 특징 수를 산출하고, 상기 프리-노듈이미지와 팔로업-노듈이미지에 포함된 결절의 더블링타임(DT, Doubling Time)과 폐결절 볼륨 백분율 변화(PVC, Percentage Volume change)를 산출하는 산출모듈;
상기 연속된 CT 이미지 각각에서 추출된 특징정보를 수집하고, 수집된 특징정보에 학습된 가중치를 반영하고 가중치가 일정수준 미만인 특징정보는 필터링 하여 분석유효정보를 추출하는 추출모듈;
상기 추출된 유효정보에 상기 연속된 CT 이미지 분석결과로 산출된 더블링 타임 및 폐결절 볼륨 변화를 부가하여 분석데이터를 생성하고, 상기 분석데이터에서 최종분석유효정보를 추출하여 최종분석데이터를 생성하는 생성모듈; 및
상기 생성된 최종분석데이터를 학습된 암 진단 데이터 세트와 비교하여 결절의 암 확률을 연산하는 연산모듈; 을 포함하는 폐암검진 CT 판독서버.
In the lung cancer screening CT reading server using artificial intelligence,
Pre-processed pre-nodule image and follow up-nodule image or continuous CT (Computed Tomography) image including three-dimensional pre-nodule cube and follow-up nodule cube, respectively, as a plurality of units Masking with a primary layer divided into images, extracting features of each unit image included in the primary layer, calculating the number of features for each extracted unit image, and calculating the number of features for each of the extracted unit images, and the pre-nodule image and the follow-up-nodule image. A calculation module for calculating a doubling time (DT) and a percentage change in a pulmonary nodule volume (PVC) of the included nodule;
An extraction module that collects feature information extracted from each of the continuous CT images, reflects the learned weight in the collected feature information, filters feature information whose weight is less than a certain level, and extracts analysis valid information;
A generation module for generating analysis data by adding the doubling time and pulmonary nodule volume change calculated as the result of the continuous CT image analysis to the extracted valid information, and extracting final analysis valid information from the analysis data to generate final analysis data ; And
A calculation module for calculating a cancer probability of a nodule by comparing the generated final analysis data with a learned cancer diagnosis data set; Lung cancer screening CT reading server comprising a.
제 1항에 있어서, 상기 산출모듈은
일정수의 단위 이미지로 구성된 2차 레이어를 생성하고, 상기 2차 레이어를 구성하는 단위 이미지 중 특징 개수가 가장 많은 최대특징값이미지를 추출하고, 복수개의 2차 레이어 각각에서 추출된 최대특징값이미지들을 수집하여 n차 분석 이미지를 생성하는 생성부;
상기 n차 분석 이미지가 최대 특징 값을 포함하는 경우, 상기 연속된 CT 이미지의 최대특징값이미지 정보를 각각을 생성모듈로 전달하는 판단부; 및
상기 프리-노듈이미지와 팔로업-노듈이미지에 포함된 결절의 더블링타임(DT, Doubling Time)과, 폐결절 볼륨 백분율 변화(PVC, Percentage Volume change)를 연산하는 연산부; 를 포함하고
상기 판단부는
상기 n차 분석이미지가 최대 특징 값을 포함하지 않는 경우, 상기 n차 분석이미지를 상기 생성부로 다시 입력하여 n+1차 분석이미지를 생성하도록 하는 것을 특징으로 하는 폐암검진 CT 판독서버.
The method of claim 1, wherein the calculation module
A secondary layer consisting of a certain number of unit images is generated, the maximum feature value image with the largest number of features is extracted from the unit images constituting the secondary layer, and the maximum feature value image extracted from each of the plurality of secondary layers A generator that collects the data and generates an n-th analysis image;
A determination unit for transmitting each of the maximum feature value image information of the consecutive CT images to a generation module when the n-th analysis image includes a maximum feature value; And
A calculation unit for calculating a doubling time (DT) of a nodule included in the pre-nodule image and the follow-up-nodule image, and a percentage change in a pulmonary nodule volume (PVC); Including
The determination unit
When the n-th analysis image does not include a maximum feature value, the n-th analysis image is input again to the generation unit to generate an n+1st analysis image.
제 1항에 있어서, 상기 산출모듈은
수학식 1
Figure 112018120246165-pat00003

DT=더블링 타임(doubling time)
V1: 프리-노듈(pre-nodule)이미지의 결절 볼륨
V2: 팔로업-노듈(follow up-nodule) 이미지의 결절 볼륨
T1: 기준시점(baseline), T2: 스캔촬영 완료 후 시점(diagnostic scan time)
을 이용하여 더블링 타임을 산출하고
수학식 2
Figure 112018120246165-pat00004

PVC: 폐결절 볼륨 백분율 변화
V2: 팔로업-노듈(follow up-nodule)이미지 결절의 볼륨
V1: 프리-노듈(pre-nodule)이미지 결절의 볼륨
를 이용하여 폐결절 볼륨 백분율 변화를 산출하는 것을 특징으로 하는 폐암검진 CT 판독서버.
The method of claim 1, wherein the calculation module
Equation 1
Figure 112018120246165-pat00003

DT=doubling time
V1: Nodule volume of pre-nodule image
V2: Nodule volume in follow up-nodule images
T1: baseline, T2: time after completion of scan shooting (diagnostic scan time)
Calculate the doubling time using
Equation 2
Figure 112018120246165-pat00004

PVC: Percent change in pulmonary nodule volume
V2: follow up-nodule image nodule volume
V1: Volume of pre-nodule image nodules
Lung cancer screening CT reading server, characterized in that calculating the percentage change in the volume of lung nodules using.
제 1항에 있어서, 상기 산출모듈은
전처리된 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지 각각의 1차 레이어에 포함된 단위 이미지에서, 에지(edge), 객체 및 색상을 포함하는 특징 및 특징개수를 산출하는 것을 특징으로 하는 폐암검진 CT 판독서버.
The method of claim 1, wherein the calculation module
In the unit image included in the primary layer of each of the pre-processed pre-nodule image and follow up-nodule image, the number of features and features including edges, objects and colors Lung cancer screening CT reading server, characterized in that to calculate.
제 1항에 있어서, 상기 폐암검진 CT 판독서버는
프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지의 전처리를 수행하여 복셀(voxcel)형식의 3차원 프리 노듈 큐브 및 3차원 팔로업 노듈 큐브를 생성하는 전처리 모듈; 을 더 포함하는 것을 특징으로 하는 폐암검진 CT 판독서버.
The method of claim 1, wherein the lung cancer screening CT reading server
A pre-processing module that performs pre-processing of a pre-nodule image and a follow up-nodule image to generate a 3D pre-nodule cube and a 3D follow-up nodule cube in a voxcel format; Lung cancer screening CT reading server, characterized in that it further comprises.
인공지능을 이용한 온라인 폐암 진단 시스템에 있어서,
엑스레이, 폐결절 CT 이미지 및 건강검진정보를 포함하는 개인 건강정보를 수집하는 사용자 단말;
환자의 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지를 포함하는 폐결절 CT 이미지를 수집하는 의료기관서버; 및
상기 사용자 단말 또는 의료기관서버로부터 폐결절 CT 이미지를 전달받아, 폐결절이 암일 확률을 산출하고, 상기 산출결과를 의료기관 서버 및 사용자 단말로 전송하는 폐암검진 CT 판독서버;를 포함하며,
상기 폐암검진 CT 판독서버는,
프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지의 전처리를 수행하여 복셀(voxcel)형식의 3차원 프리 노듈 큐브 및 3차원 팔로업 노듈 큐브를 생성하는 전처리 모듈;
전처리된 프리-노듈(pre-nodule)이미지와 팔로업-노듈(follow up-nodule)이미지 또는 3차원 프리 노듈 큐브 및 팔로업 노듈 큐브를 포함하는 연속된 CT 이미지 각각을 복수개의 단위 이미지로 분할한 1차 레이어로 마스킹하고, 1차 레이어에 포함된 단위 이미지 각각의 특징을 추출하고, 상기 추출된 단위 이미지 별 특징 수를 산출하고, 상기 프리-노듈이미지와 팔로업-노듈이미지에 포함된 결절의 더블링타임(DT, Doubling Time)과, 폐결절 볼륨 백분율 변화(PVC, Percentage Volume change)를 산출하는 산출모듈;
상기 연속된 CT 이미지 각각에서 추출된 특징정보를 수집하고, 수집된 특징정보에 학습된 가중치를 반영하고 가중치가 일정수준 미만인 특징정보는 필터링 하여 분석유효정보를 추출하는 추출모듈;
상기 추출된 유효정보에 상기 연속된 CT 이미지 분석결과로 산출된 더블링 타임 및 폐결절 볼륨 변화를 부가하여 분석데이터를 생성하고, 상기 분석데이터에서 최종분석유효정보를 추출하여 최종분석데이터를 생성하는 생성모듈; 및
상기 생성된 최종분석데이터를 학습된 암 진단 데이터 세트와 비교하여 결절의 암 확률을 연산하는 연산모듈;을 포함하는 것을 특징으로 하는 온라인 폐암진단 시스템.
In the online lung cancer diagnosis system using artificial intelligence,
A user terminal for collecting personal health information including X-rays, CT images of pulmonary nodules, and health examination information;
A medical institution server for collecting CT images of lung nodules including pre-nodule images and follow up-nodule images of patients; And
Including; a lung cancer screening CT reading server for receiving the CT image of the lung nodule from the user terminal or the medical institution server, calculating the probability that the lung nodule is cancer, and transmitting the calculation result to the medical institution server and the user terminal,
The lung cancer screening CT reading server,
A pre-processing module that performs pre-processing of a pre-nodule image and a follow up-nodule image to generate a 3D pre-nodule cube and a 3D follow-up nodule cube in a voxcel format;
A pre-processed pre-nodule image and a follow up-nodule image or a continuous CT image including a three-dimensional pre-nodule cube and a follow-up nodule cube are divided into a plurality of unit images. Masking with the first layer, extracting features of each unit image included in the first layer, calculating the number of features for each extracted unit image, and determining the number of nodules included in the pre-nodule image and the follow-up-nodule image. A calculation module for calculating a doubling time (DT) and a percentage change in a pulmonary nodule volume (PVC);
An extraction module that collects feature information extracted from each of the continuous CT images, reflects the learned weight in the collected feature information, filters feature information whose weight is less than a certain level, and extracts analysis valid information;
A generation module for generating analysis data by adding the doubling time and pulmonary nodule volume change calculated as the result of the continuous CT image analysis to the extracted valid information, and extracting final analysis valid information from the analysis data to generate final analysis data ; And
And an operation module that compares the generated final analysis data with a learned cancer diagnosis data set to calculate a cancer probability of a nodule.
삭제delete 제 6항에 있어서, 상기 산출모듈은
일정수의 단위 이미지로 구성된 2차 레이어를 생성하고, 상기 2차 레이어를 구성하는 단위 이미지 중 특징 개수가 가장 많은 최대특징값이미지를 추출하고, 복수개의 2차 레이어 각각에서 추출된 최대특징값이미지들을 수집하여 n차 분석 이미지를 생성하는 생성부;
상기 n차 분석 이미지가 최대 특징 값을 포함하는 경우, 상기 연속된 CT 이미지의 최대특징값이미지 정보를 각각을 생성모듈로 전달하는 판단부; 및
상기 프리-노듈이미지와 팔로업-노듈이미지에 포함된 결절의 더블링타임(DT, Doubling Time)과, 폐결절 볼륨 백분율 변화(PVC, Percentage Volume change)를 연산하는 연산부; 를 포함하고
상기 판단부는
상기 n차 분석이미지가 최대 특징 값을 포함하지 않는 경우, 상기 n차 분석이미지를 상기 생성부로 다시 입력하여 n+1차 분석이미지를 생성하도록 하는 것을 특징으로 하는 온라인 폐암진단 시스템.
The method of claim 6, wherein the calculation module
A secondary layer consisting of a certain number of unit images is generated, the maximum feature value image with the largest number of features is extracted from the unit images constituting the secondary layer, and the maximum feature value image extracted from each of the plurality of secondary layers A generator that collects the data and generates an n-th analysis image;
A determination unit for transmitting each of the maximum feature value image information of the consecutive CT images to a generation module when the n-th analysis image includes a maximum feature value; And
A calculation unit for calculating a doubling time (DT) of a nodule included in the pre-nodule image and the follow-up-nodule image, and a percentage change in a pulmonary nodule volume (PVC); Including
The determination unit
When the n-th analysis image does not include a maximum feature value, the n-th analysis image is input again to the generation unit to generate an n+1st analysis image.
제 6항에 있어서, 상기 산출모듈은
수학식 1
Figure 112020105347837-pat00005

DT=더블링 타임(doubling time)
V1: 프리-노듈(pre-nodule)이미지의 결절 볼륨
V2: 팔로업-노듈(follow up-nodule) 이미지의 결절 볼륨
T1: 기준시점(baseline), T2: 스캔 완료 후 시점(diagnostic scan time)
을 이용하여 더블링 타임을 산출하고
수학식 2
Figure 112020105347837-pat00006

PVC: 폐결절 볼륨 백분율 변화
V2: 팔로업-노듈(follow up-nodule)이미지 결절의 볼륨
V1: 프리-노듈(pre-nodule)이미지 결절의 볼륨
를 이용하여 폐결절 볼륨 백분율 변화를 산출하는 것을 특징으로 하는 온라인 폐암진단 시스템.
The method of claim 6, wherein the calculation module
Equation 1
Figure 112020105347837-pat00005

DT=doubling time
V1: Nodule volume of pre-nodule image
V2: Nodule volume in follow up-nodule images
T1: Baseline, T2: Diagnostic scan time
Calculate the doubling time using
Equation 2
Figure 112020105347837-pat00006

PVC: Percent change in pulmonary nodule volume
V2: follow up-nodule image nodule volume
V1: Volume of pre-nodule image nodules
Online lung cancer diagnosis system, characterized in that to calculate the percentage change in the volume of the lung nodule using.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020180152514A 2018-11-30 2018-11-30 Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer KR102208358B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180152514A KR102208358B1 (en) 2018-11-30 2018-11-30 Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180152514A KR102208358B1 (en) 2018-11-30 2018-11-30 Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer

Publications (2)

Publication Number Publication Date
KR20200065751A KR20200065751A (en) 2020-06-09
KR102208358B1 true KR102208358B1 (en) 2021-01-28

Family

ID=71082135

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180152514A KR102208358B1 (en) 2018-11-30 2018-11-30 Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer

Country Status (1)

Country Link
KR (1) KR102208358B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008067851A (en) * 2006-09-13 2008-03-27 Toshiba Corp Computer-aided diagnosis apparatus, x-ray ct equipment and image processor
JP2015528372A (en) 2012-09-13 2015-09-28 ザ リージェンツ オブ ザ ユニヴァーシティー オブ カリフォルニアThe Regents Of The University Of California System and method for automatically detecting pulmonary nodules in medical images
US20160125598A1 (en) 2013-06-09 2016-05-05 M.T.R Target Ltd Apparatus and method for automated detection of lung cancer
KR101768812B1 (en) 2016-07-05 2017-08-17 고려대학교 산학협력단 Computer intervened diagnosis system and program at pulmonary nodules in thoracic CT scans
KR101857624B1 (en) 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9778723B2 (en) 2015-12-28 2017-10-03 Micron Technology, Inc. Apparatuses and methods for exiting low power states in memory devices
KR20160131976A (en) 2016-10-28 2016-11-16 주식회사 케이씨씨 Curable composition having improved gloss and compatibility for preparing silicon elastomer, process for the preparation thereof and silicone elastomer prepared therefrom

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008067851A (en) * 2006-09-13 2008-03-27 Toshiba Corp Computer-aided diagnosis apparatus, x-ray ct equipment and image processor
JP2015528372A (en) 2012-09-13 2015-09-28 ザ リージェンツ オブ ザ ユニヴァーシティー オブ カリフォルニアThe Regents Of The University Of California System and method for automatically detecting pulmonary nodules in medical images
US20160125598A1 (en) 2013-06-09 2016-05-05 M.T.R Target Ltd Apparatus and method for automated detection of lung cancer
KR101768812B1 (en) 2016-07-05 2017-08-17 고려대학교 산학협력단 Computer intervened diagnosis system and program at pulmonary nodules in thoracic CT scans
KR101857624B1 (en) 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same

Also Published As

Publication number Publication date
KR20200065751A (en) 2020-06-09

Similar Documents

Publication Publication Date Title
US11443428B2 (en) Systems and methods for probablistic segmentation in anatomical image processing
US11257259B2 (en) Topogram prediction from surface data in medical imaging
US11430140B2 (en) Medical image generation, localizaton, registration system
EP3355273B1 (en) Coarse orientation detection in image data
CN109753866A (en) With the medical image object detection of the dense feature pyramid network architecture in machine learning
US10803354B2 (en) Cross-modality image synthesis
JP6885517B1 (en) Diagnostic support device and model generation device
US20200401854A1 (en) Method and system for image segmentation and identification
CN105027163A (en) Scan region determining apparatus
Pradhan et al. Transforming view of medical images using deep learning
CN112529834A (en) Spatial distribution of pathological image patterns in 3D image data
Chagas et al. A new approach for the detection of pneumonia in children using CXR images based on an real-time IoT system
Pradhan et al. Machine learning model for multi-view visualization of medical images
KR102208358B1 (en) Lung Cancer Diagnosis System Using Artificial Intelligence, Server and Method for Diagnosing Lung Cancer
Xu et al. RUnT: A network combining residual U-Net and transformer for vertebral edge feature fusion constrained spine CT image segmentation
AU2019204365B1 (en) Method and System for Image Segmentation and Identification
US20230087494A1 (en) Determining image similarity by analysing registrations
Alsmirat et al. Deep learning-based disk herniation computer aided diagnosis system from mri axial scans
KR20220095401A (en) Apparatus and method for diagnosing facial fracture based on artificial intelligence
US20240005479A1 (en) System and method for cardiovascular risk prediction and computer readable medium thereof
Amara et al. Augmented Reality for medical practice: a comparative study of Deep learning models for Ct-scan segmentation
EP3794550B1 (en) Comparison of a region of interest along a time series of images
Jayasingh et al. Medical Image Diagnosis Using Deep Learning Classifiers for COVID-19
CN113706443A (en) Image prediction method, device, equipment and readable storage medium
Hadad et al. Multiple Step of Image Processing and ANN for Diagnosing Lung Diseases: Review Study

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right