KR102423048B1 - Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence - Google Patents

Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence Download PDF

Info

Publication number
KR102423048B1
KR102423048B1 KR1020200122302A KR20200122302A KR102423048B1 KR 102423048 B1 KR102423048 B1 KR 102423048B1 KR 1020200122302 A KR1020200122302 A KR 1020200122302A KR 20200122302 A KR20200122302 A KR 20200122302A KR 102423048 B1 KR102423048 B1 KR 102423048B1
Authority
KR
South Korea
Prior art keywords
artificial intelligence
aortic dissection
computed tomography
feature
electronic device
Prior art date
Application number
KR1020200122302A
Other languages
Korean (ko)
Other versions
KR20220039307A (en
Inventor
이윤재
김원희
김재국
최현영
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020200122302A priority Critical patent/KR102423048B1/en
Publication of KR20220039307A publication Critical patent/KR20220039307A/en
Application granted granted Critical
Publication of KR102423048B1 publication Critical patent/KR102423048B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Epidemiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Pulmonology (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 시스템의 제어 방법이 제공된다. 상기 제어 방법은, 전자 장치가, 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 획득하는 단계; 상기 전자 장치가, 획득된 상기 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 인공지능 모델에 입력하는 단계; 상기 전자 장치가, 상기 인공지능 모델에 의해 출력된 결과값을 바탕으로 대동맥 박리증 여부를 판단하는 단계; 를 포함한다.A control method of a system for judging aortic dissection based on a non-contrast computed tomography image using artificial intelligence is provided. The control method may include: acquiring, by the electronic device, at least one non-contrast computed tomography image; inputting, by the electronic device, the acquired at least one non-contrast computed tomography image into an artificial intelligence model; determining, by the electronic device, whether or not aortic dissection based on a result value output by the artificial intelligence model; includes

Description

인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 시스템의 제어 방법, 장치 및 프로그램{Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence}BACKGROUND ART Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence }

본 발명은 인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 시스템의 제어 방법, 장치 및 프로그램에 관한 것이다. The present invention relates to a control method, apparatus and program for a system for judging aortic dissection based on a non-contrast computed tomography image using artificial intelligence.

컴퓨터 단층촬영(computed tomography, computerized tomography, CT)은 비침습적인 생체 영상화 방법이다. 컴퓨터 단층촬영은 신체의 각 부분이나 장기의 정상과 비정상적인 해부학적, 병리학적 정보를 얻기 위하여, 인체의 여러 각도에서 엑스선 단층 촬영을 시행하여 인체 단면(횡단면상) 영상을 구하고, 이를 컴퓨터 전산/재구성을 통하여 3차원으로 구현하는 것을 특징으로 한다. 컴퓨터 단층촬영은 반복적으로 실시가 가능하기에 질병의 진행과 치유과정 등의 경과를 관찰하는데 용이하며, MRI에 비하여 검사비는 저렴하고, 검사 시간이 짧은 장점이 있다.Computed tomography (computerized tomography, CT) is a non-invasive bioimaging method. In order to obtain normal and abnormal anatomical and pathological information of each part or organ of the body, computed tomography performs X-ray tomography from various angles of the human body to obtain cross-sectional (cross-sectional) images of the human body, and then computes/reconstructs these images. It is characterized in that it is implemented in three dimensions through Because computed tomography can be repeatedly performed, it is easy to observe disease progression and healing processes, and compared to MRI, the examination cost is low and the examination time is short.

다만, 컴퓨터 단층촬영 중 질병을 정확하게 진단하기 위해서는 정맥혈관을 통해 조영제를 주입한다. 컴퓨터 단층촬영 결과에서 암 등의 부위는 대부분의 조영제(contrast agent)에 의하여 조영이 증강되어 정상 조직에 비하여 밝게 보여 정상 조직과 구분되며, 이를 통해 질병을 판단할 수 있다.However, in order to accurately diagnose a disease during computed tomography, a contrast medium is injected through a venous blood vessel. As a result of computed tomography, a region such as cancer is distinguished from normal tissue because contrast is enhanced by most contrast agents, and thus it is distinguished from normal tissue.

대동맥 박리증 또한 상술한 조영증강 컴퓨터 단층 촬영을 통해 박리 여부를 판단할 수 있다. 특히, 대동맥 박리증은 비조영증강 컴퓨터 단층촬영 이미지로는 정확한 진단을 내리는 것이 어려운 것이 현실이다.Aortic dissection can also be determined through the above-described contrast-enhanced computed tomography. In particular, it is difficult to make an accurate diagnosis of aortic dissection using non-contrast-enhanced computed tomography images.

그러나 응급환자의 경우 조영제를 사용하기 위해 신장기능을 파악하기 위해 기다려야 하는 시간 동안 환자의 상태는 악화되고 있는 실정이며, 이를 기다리지 않고 비조영 증강 컴퓨터 단층 촬영 검사를 시행하는 경우 정확한 진단이 안되어 결국, 조영제를 사용하여 조영증강 컴퓨터 단층촬영 검사를 다시 진행할 수밖에 없는 경우도 발생한다.However, in the case of emergency patients, the patient's condition is worsening during the time they have to wait to check the kidney function to use the contrast agent. In some cases, there is no other choice but to perform a contrast-enhanced computed tomography scan using a contrast agent.

삭제delete

등록특허공보 제10-2058348/호, 2019.12.24Registered Patent Publication No. 10-2058348/, 2019.12.24

본 발명이 해결하고자 하는 과제는 인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 시스템의 제어 방법, 장치 및 프로그램을 제공하는 것이다.An object of the present invention is to provide a control method, apparatus and program for a system for judging aortic dissection based on a non-contrast computed tomography image using artificial intelligence.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 시스템의 제어 방법은, 전자 장치가, 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 획득하는 단계; 상기 전자 장치가, 획득된 상기 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 인공지능 모델에 입력하는 단계; 상기 전자 장치가, 상기 인공지능 모델에 의해 출력된 결과값을 바탕으로 대동맥 박리증 여부를 판단하는 단계; 를 포함한다.According to an aspect of the present invention for solving the above problems, there is provided a control method for a system for judging aortic dissection based on a non-contrast computed tomography image using artificial intelligence, in which an electronic device includes at least one non-contrast computed tomography image. acquiring an image; inputting, by the electronic device, the acquired at least one non-contrast computed tomography image into an artificial intelligence model; determining, by the electronic device, whether or not aortic dissection based on a result value output by the artificial intelligence model; includes

이때, 상기 인공지능 모델은, 이미지 각 픽셀의 RGB 수치 값을 이용한 RNN 알고리즘 및 이미지 자체를 이용한 CNN 알고리즘 중 적어도 하나의 알고리즘에 의해 동작할 수 있다.In this case, the artificial intelligence model may operate by at least one of an RNN algorithm using RGB numerical values of each pixel of an image and a CNN algorithm using the image itself.

이때, 상기 비조영 컴퓨터 단층 촬영 이미지를 인공지능 모델에 입력하는 단계는, 상기 적어도 하나의 컴퓨터 단층 촬영 이미지 중 관심 영역을 추출하고, 관심 영역의 경계를 획득하는 단계; 상기 획득된 관심 영역을 바탕으로 피쳐값을 획득하는 단계;를 포함하고, 상기 대동맥 박리증 여부를 판단하는 단계는, 상기 피쳐값을 바탕으로 대동맥 박리증 여부를 판단하는 단계; 를 포함할 수 있다.In this case, the step of inputting the non-contrast computed tomography image to the AI model may include: extracting a region of interest from among the at least one computed tomography image and obtaining a boundary of the region of interest; acquiring a feature value based on the acquired region of interest; and determining whether aortic dissection includes: determining whether aortic dissection based on the feature value; may include.

이때, 상기 피쳐값을 획득하는 단계는, 상기 관심 영역을 DCNN(Deep Convolutional Neural Networks) 모델에 입력하여 획득된 심층 피처(Deep feature)를 제1 피처로 획득하는 단계; 상기 관심 영역을 GLCM(Grey Level Co-oc-currence Matrix)을 기반으로 획득된 텍스쳐 피처를 제2 피처로 획득하는 단계; 상기 관심 영역을 바탕으로 획득된 푸리에 기술자(Fourier shape descriptor)를 제3 피처로 획득하는 단계;를 포함하고, 상기 대동맥 박리증 여부를 판단하는 단계는, 상기 제1 피처를 제1 인공지능 모델에 입력하여 제1 결과값을 획득하는 단계; 상기 제2 피처를 제2 인공지능 모델에 입력하여 제2 결과값을 획득하는 단계; 상기 제3 피처를 제3 인공지능 모델에 입력하여 제3 결과값을 획득하는 단계; 및 상기 제1 결과값 내지 상기 제3 결과값을 바탕으로 대동맥 박리증 여부를 판단하는 단계;를 포함할 수 있다.In this case, the obtaining of the feature value may include: obtaining a deep feature obtained by inputting the region of interest into a DCNN (Deep Convolutional Neural Networks) model as a first feature; acquiring a texture feature obtained based on a gray level co-oc-currence matrix (GLCM) in the region of interest as a second feature; Acquiring a Fourier shape descriptor obtained based on the region of interest as a third feature; and determining whether the aortic dissection is performed by inputting the first feature into a first AI model. to obtain a first result value; obtaining a second result value by inputting the second feature into a second artificial intelligence model; obtaining a third result value by inputting the third feature into a third artificial intelligence model; and determining whether aortic dissection is present based on the first result value to the third result value.

이때, 상기 제1 결과값 내지 상기 제3 결과값을 바탕으로 대동맥 박리증 여부를 판단하는 단계는, 상기 제1 인공지능 모델, 상기 제2 인공지능 모델 및 상기 제3 인공지능 모델을 앙상블하여 대동맥 박리증 여부를 판단할 수 있다.In this case, the step of determining whether aortic dissection based on the first result value to the third result value includes ensemble of the first artificial intelligence model, the second artificial intelligence model, and the third artificial intelligence model to have aortic dissection. can determine whether

이때, 상기 제어 방법은, 상기 전자 장치가, 상기 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 바탕으로 관심 영역을 획득하는 단계; 상기 전자 장치가, 상기 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 관심 영역 이미지 및 비관심 영역 이미지로 구분하는 단계; 상기 관심 영역 이미지와 상기 비관심 영역 이미지에 서로 다른 가중치를 적용하여 상기 인공지능 모델을 학습시키는 단계; 를 포함할 수 있다.In this case, the control method may include: acquiring, by the electronic device, a region of interest based on the at least one non-contrast computed tomography image; dividing, by the electronic device, the at least one non-contrast computed tomography image into an ROI image and a non-ROI image; training the AI model by applying different weights to the region of interest image and the image of the non-interest region; may include.

이때, 상기 대동맥 박리증 여부를 판단하는 단계는, 상기 제1 결과값 내지 상기 제3 결과값을 바탕으로 판단된 대동맥 박리증 여부에 대한 정확도를 산출하는 단계; 상기 전자 장치가, 환자 단말로부터 대동맥 박리증과 관련된 환자 정보를 획득하는 단계; 상기 환자 정보를 바탕으로 상기 정확도를 보정하는 단계; 및 상기 보정된 정확도를 바탕으로 대동맥 박리증 여부를 판단하는 단계; 를 포함할 수 있다.In this case, the determining whether or not the aortic dissection includes: calculating an accuracy of whether the aortic dissection is determined based on the first to the third result values; obtaining, by the electronic device, patient information related to aortic dissection from a patient terminal; calibrating the accuracy based on the patient information; and determining whether aortic dissection is present based on the corrected accuracy. may include.

이때, 상기 제어 방법은, 환자 단말은, 기 설정된 시간 간격으로 주변 환경 정보를 획득하는 단계; 상기 환자 단말은, 상기 주변 환경 정보를 바탕으로 사고 발생 여부를 획득하는 단계; 상기 환자 단말은, 사고가 발생한 경우, 주변 상황에 대한 환자 정보를 획득하는 단계;를 포함할 수 있다.In this case, the control method may include: acquiring, by the patient terminal, information about the surrounding environment at a preset time interval; obtaining, by the patient terminal, whether an accident has occurred based on the surrounding environment information; The patient terminal, when an accident occurs, obtaining patient information about the surrounding situation; may include.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

상술한 본 발명의 다양한 실시예에 따라, 비조영 컴퓨터 단층촬영 이미지로 대동맥 박리증을 판단할 수 있는 효과가 발생한다.According to the above-described various embodiments of the present invention, there is an effect of judging aortic dissection by a non-contrast computed tomography image.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 시스템도이다.
도 2는 본 발명의 일 실시예에 따른, 인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 방법을 설명하기 위한 흐름도이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 대동맥 박리증의 검사 결과와 관련된 컴퓨터 단층 촬영 이미지이다.
도 5는 본 발명의 일 실시예에 따른 비조영 컴퓨터 단층 촬영 이미지를 인공지능 모델에 입력하여 출력된 이미지를 설명하기 위한 예시도이다.
도 6 내지 도 8은 본 발명의 일 실시예에 따른 인공지능 모델의 동작을 설명하기 위한 예시도이다.
도 9는 본 발명의 일 실시예에 따른 장치의 구성도이다.
1 is a system diagram according to an embodiment of the present invention.
2 is a flowchart illustrating a method for determining aortic dissection based on a non-contrast computed tomography image using artificial intelligence, according to an embodiment of the present invention.
3 and 4 are computed tomography images related to a test result of aortic dissection according to an embodiment of the present invention.
5 is an exemplary diagram for explaining an image output by inputting a non-contrast computed tomography image to an artificial intelligence model according to an embodiment of the present invention.
6 to 8 are exemplary views for explaining the operation of the artificial intelligence model according to an embodiment of the present invention.
9 is a block diagram of an apparatus according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and those of ordinary skill in the art to which the present invention pertains. It is provided to fully inform those skilled in the art of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural, unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, “part” or “module” is not meant to be limited to software or hardware. A “part” or “module” may be configured to reside on an addressable storage medium or may be configured to reproduce one or more processors. Thus, by way of example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or additional components and “parts” or “modules”. can be further separated.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. A spatially relative term should be understood as a term that includes different directions of components during use or operation in addition to the directions shown in the drawings. For example, when a component shown in the drawing is turned over, a component described as “beneath” or “beneath” of another component may be placed “above” of the other component. can Accordingly, the exemplary term “below” may include both directions below and above. Components may also be oriented in other orientations, and thus spatially relative terms may be interpreted according to orientation.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means all types of hardware devices including at least one processor, and may be understood as encompassing software configurations operating in the corresponding hardware device according to embodiments. For example, a computer may be understood to include, but is not limited to, smart phones, tablet PCs, desktops, notebooks, and user clients and applications running on each device.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and at least a portion of each step may be performed in different devices according to embodiments.

도 1은 본 발명의 일 실시예에 따른 시스템도이다.1 is a system diagram according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 시스템은, 전자 장치(100) 및 컴퓨터 단층 촬영 장치(이하, CT장치(200))를 포함한다. A system according to an embodiment of the present invention includes an electronic device 100 and a computed tomography (CT) device (hereinafter, CT device 200).

본 발명에 따른 전자 장치(100)는 프로세서, 메모리, 통신부를 포함할 수 있다The electronic device 100 according to the present invention may include a processor, a memory, and a communication unit.

프로세서는 전자 장치(100)의 전반적인 동작을 제어한다.The processor controls the overall operation of the electronic device 100 .

프로세서는 RAM, ROM, 메인 CPU, 제1 내지 n 인터페이스, 버스를 포함할 수 있다. 이때, RAM, ROM, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다. The processor may include a RAM, a ROM, a main CPU, first to n interfaces, and a bus. In this case, the RAM, ROM, main CPU, first to n interfaces, etc. may be connected to each other through a bus.

ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴 온 명령이 입력되어 전원이 공급되면, 메인 CPU는 ROM에 저장된 명령어에 따라 메모리에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU는 메모리에 저장된 각종 어플리케이션 프로그램을 RAM에 복사하고, RAM에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM stores an instruction set for booting the system, and the like. When a turn-on command is input and power is supplied, the main CPU copies the O/S stored in the memory to the RAM according to the command stored in the ROM, and executes the O/S to boot the system. When booting is completed, the main CPU copies various application programs stored in the memory to the RAM, and executes the application programs copied to the RAM to perform various operations.

메인 CPU는 메모리에 액세스하여, 메모리에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고 메인 CPU는 메모리에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU accesses the memory and performs booting using the O/S stored in the memory. In addition, the main CPU performs various operations using various programs, contents, data, etc. stored in the memory.

제1 내지 n 인터페이스는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.

메모리는 전자 장치(100)를 구동시키기 위한 O/S(Operating System)가 저장될 수 있다. 또한, 메모리는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 프로그램이나 어플리케이션이 저장될 수도 있다. 메모리는 프로그램 또는 어플리케이션의 실행 중에 입력되거나 설정 또는 생성되는 각종 데이터 등과 같은 다양한 정보가 저장될 수 있다. The memory may store an operating system (O/S) for driving the electronic device 100 . Also, the memory may store various software programs or applications for operating the electronic device 100 according to various embodiments of the present disclosure. The memory may store various information such as various data input, set, or generated during execution of a program or application.

또한, 메모리는 본 개시의 다양한 실시 예들에 따라 전자 장치(100)가 동작하기 위한 각종 소프트웨어 모듈을 포함할 수 있으며, 프로세서는 메모리에 저장된 각종 소프트웨어 모듈을 실행하여 본 개시의 다양한 실시 예들에 따른 전자 장치(100)의 동작을 수행할 수 있다.In addition, the memory may include various software modules for operating the electronic device 100 according to various embodiments of the present disclosure, and the processor executes various software modules stored in the memory to enable electronic devices according to various embodiments of the present disclosure. An operation of the device 100 may be performed.

또한, 메모리는 카메라에 의해 촬영된 공간 이미지 및 외부로부터 수신한 다양한 이미지를 저장할 수 있다. 이를 위해, 메모리(150)는 플래시 메모리(Flash Memory) 등과 같은 반도체 메모리나 하드디스크(Hard Disk) 등과 같은 자기 저장 매체 등을 포함할 수 있다.Also, the memory may store spatial images captured by the camera and various images received from the outside. To this end, the memory 150 may include a semiconductor memory such as a flash memory or a magnetic storage medium such as a hard disk.

통신부는 외부 장치와 통신을 수행할 수 있다. 특히, 통신부는 와이파이 칩, 블루투스 칩, NFC칩, 무선 통신 칩 등과 같은 다양한 통신 칩을 포함할 수 있다. 이때, 와이파이 칩, 블루투스 칩, NFC 칩은 각각 LAN 방식, WiFi 방식, 블루투스 방식, NFC 방식으로 통신을 수행한다. 와이파이 칩이나 블루투스칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신 하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. 특히, 통신부는 외부 장치로부터 다양한 정보를 수신할 수 있다. The communication unit may communicate with an external device. In particular, the communication unit may include various communication chips such as a Wi-Fi chip, a Bluetooth chip, an NFC chip, a wireless communication chip, and the like. At this time, the Wi-Fi chip, the Bluetooth chip, and the NFC chip perform communication in a LAN method, a WiFi method, a Bluetooth method, and an NFC method, respectively. In the case of using a Wi-Fi chip or a Bluetooth chip, various types of connection information such as an SSID and a session key are first transmitted and received, and then various types of information can be transmitted and received after communication connection using this. The wireless communication chip refers to a chip that performs communication according to various communication standards, such as IEEE, ZigBee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE). In particular, the communication unit may receive various information from an external device.

다만, 전자 장치(100)의 구성은 상술한 구성에 한정되는 것은 아니고, 다양한 구성을 더 포함할 수 있음은 물론이다. 예를 들어, 전자 장치(100)는 디스플레이 및 입력부등의 구성을 더 포함할 수 있음은 물론이다.However, the configuration of the electronic device 100 is not limited to the above-described configuration, and it goes without saying that various configurations may be further included. For example, it goes without saying that the electronic device 100 may further include a display and an input unit.

디스플레이는 다양한 형태의 디스플레이 패널로 구현될 수 있다. 예를 들어, 디스플레이 패널은 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes), AM-OLED(Active-Matrix Organic Light-Emitting Diode), LcoS(Liquid Crystal on Silicon) 또는 DLP(Digital Light Processing) 등과 같은 다양한 디스플레이 기술로 구현될 수 있다. 또한, 디스플레이는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(100)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다.The display may be implemented with various types of display panels. For example, the display panel is a Liquid Crystal Display (LCD), Organic Light Emitting Diodes (OLED), Active-Matrix Organic Light-Emitting Diode (AM-OLED), Liquid Crystal on Silicon (LcoS), or Digital Light Processing (DLP). It may be implemented with various display technologies, such as. In addition, the display may be coupled to at least one of a front area, a side area, and a rear area of the electronic device 100 in the form of a flexible display.

입력부는 사용자 명령을 입력 받을 수 있다. 입력부는 다양한 형태로 구성될 수 있다. 예를 들어 입력부는 디스플레이 및 터치 감지부(미도시)와 결합하여 터치 스크린으로 구현될 수 있다. 그러나 이러한 구성에 한정되는 것은 아니며, 입력부는 버튼을 포함하거나, 외부 리모컨으로 구성될 수 있으며, 음성 입력을 위한 마이크로 구성될 수도 있으며, 카메라와 결합하여 모션 입력을 수행할 수도 있다.The input unit may receive a user command. The input unit may be configured in various forms. For example, the input unit may be implemented as a touch screen in combination with a display and a touch sensing unit (not shown). However, the present invention is not limited thereto, and the input unit may include a button or may be configured as an external remote control, may be configured as a microphone for voice input, or may perform motion input in combination with a camera.

CT 장치(200)는 비조영 컴퓨터 단층 촬영 이미지를 전자 장치(100)로 전송하기 위한 구성이다.The CT device 200 is configured to transmit a non-contrast computed tomography image to the electronic device 100 .

도 2는 본 발명의 일 실시예에 따른, 인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method for determining aortic dissection based on a non-contrast computed tomography image using artificial intelligence, according to an embodiment of the present invention.

단계 S110에서, 전자 장치(100)는, 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 획득할 수 있다.In operation S110 , the electronic device 100 may acquire at least one non-contrast computed tomography image.

단계 S120에서, 전자 장치(100)는, 획득된 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 인공지능 모델에 입력할 수 있다.In operation S120 , the electronic device 100 may input the acquired at least one non-contrast computed tomography image to the artificial intelligence model.

이때, 인공지능 모델은 CNN(Convolution Nueral Network)모델일 수 있으며, 도 6에 도시된 바와 같이 동작할 수 있으나, 이에 한정되는 것은 아니다. 즉, 본 발명에 따른 인공지능 모델은 이미지 자체를 입력 받는 CNN 알고리즘 뿐만 아니라, 이미지 각 픽셀의 RGB 수치 값을 입력 받는 RNN 알고리즘일 수 있다.At this time, the artificial intelligence model may be a CNN (Convolution Nueral Network) model, and may operate as shown in FIG. 6 , but is not limited thereto. That is, the artificial intelligence model according to the present invention may be a CNN algorithm that receives the image itself as well as an RNN algorithm that receives the RGB numerical values of each pixel of the image.

일 실시예로, 전자 장치(100)는, 적어도 하나의 컴퓨터 단층 촬영 이미지 중 관심 영역을 추출하고, 관심 영역의 경계를 획득할 수 있다.As an embodiment, the electronic device 100 may extract a region of interest from at least one computed tomography image and obtain a boundary of the region of interest.

이후, 전자 장치(100)는, 획득된 관심 영역을 바탕으로 피쳐값을 획득할 수 있다.Thereafter, the electronic device 100 may acquire a feature value based on the acquired ROI.

단계 S130에서, 도 3 및 도 4에 도시된 바와 같이, 전자 장치(100)는, 인공지능 모델에 의해 출력된 결과값을 바탕으로 대동맥 박리증 여부를 판단할 수 있다. 도 3은 대동맥 박리증인 경우의 컴퓨터 단층 촬영 이미지를 나타내고, 도 4는 정상인 경우의 컴퓨터 단층 촬영 이미지를 나타낸다.In operation S130, as shown in FIGS. 3 and 4 , the electronic device 100 may determine whether aortic dissection is present based on a result value output by the artificial intelligence model. 3 shows a computed tomography image in the case of aortic dissection, and FIG. 4 shows a computed tomography image in the normal case.

구체적으로, 전자 장치(100)는 대동맥 박리증을 검출하기 위하여 인공지능 모델에 비조영 컴퓨터 단층 촬영 이미지를 입력하여, 인공지능 모델을 학습시킬 수 있다. 이를 위해, 전자 장치(100)는 이미지 획득부, 데이터 생성부, 데이터 전처리부, 학습부 및 판단부를 포함할 수 있다. 다만, 전자 장치(100)의 구성이 앞서 개시된 것들로 한정되는 것은 아니다. 예를 들어, 전자 장치(100)는 정보를 저장하기 위한 데이터베이스를 더 포함할 수 있다.Specifically, the electronic device 100 may train the artificial intelligence model by inputting a non-contrast computed tomography image to the artificial intelligence model in order to detect aortic dissection. To this end, the electronic device 100 may include an image acquisition unit, a data generation unit, a data preprocessor, a learning unit, and a determination unit. However, the configuration of the electronic device 100 is not limited to those disclosed above. For example, the electronic device 100 may further include a database for storing information.

구체적으로, 이미지 획득부는 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 획득할 수 있다. Specifically, the image acquisition unit may acquire at least one non-contrast computed tomography image.

데이터 생성부는 데이터 세트를 생성할 수 있다. 이때 데이터 세트는 악성으로 판정된 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 그루핑한 세트를 의미할 수 있다. 또는 데이터 세트는 정상으로 판정된 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 그루핑한 세트를 의미할 수 있다.The data generator may generate a data set. In this case, the data set may mean a grouping set of at least one non-contrast computed tomography image determined to be malicious. Alternatively, the data set may mean a grouping set of at least one non-contrast computed tomography image determined to be normal.

또는, 데이터 세트는 비조영 컴퓨터 단층 촬영 이미지에 대응되는 환자에 대한 정보를 매칭한 세트를 의미할 수 있다. 이 경우, 환자 정보는 환자의 성별, 나이, 키, 몸무게, 가족력 등의 다양한 정보를 포함할 수 있다. 환자 정보는 이하 설명되는 학습부에서 합성곱신경망 구조의 결과물과 함께 완전 연결 신경망에 입력되는 데이터일 수 있다.Alternatively, the data set may refer to a set in which information about a patient corresponding to a non-contrast computed tomography image is matched. In this case, the patient information may include various information such as the patient's gender, age, height, weight, family history, and the like. The patient information may be data input to the fully connected neural network together with the result of the convolutional neural network structure in the learning unit to be described below.

또한, 데이터 생성부는 딥러닝 알고리즘 적용을 위한 학습용 데이터 세트 및 검증용 데이터 세트를 생성할 수 있다. 데이터 세트를 인공신경망 학습에 요구되는 학습용 데이터 세트 및 인공신경망의 학습의 진행 정보를 검증하기 위한 검증용 데이터 세트로 분류하여 데이터 세트를 생성할 수 있다. 일 실시예로, 데이터 생성부는 CT 장치(200)으로부터 획득된 비조영 컴퓨터 단층 촬영 이미지 중 랜덤하게 학습용 데이터 세트에 활용될 이미지 및 검증용 데이터 세트에 활용된 이미지를 분류할 수 있다. 또한, 데이터 생성부는 검증용 데이터 세트를 선택한 나머지를 데이터 세트를 학습용 데이터 세트로 사용할 수 있다. 검증용 데이터 세트는 랜덤하게 선택될 수 있다. 검증용 데이터 세트 및 학습용 데이터 세트의 비율은 미리 설정된 기준값에 의해 결정될 수 있다. 이때, 미리 설정된 기준값은 검증용 데이터 세트의 비율이 10%, 학습용 데이터 세트의 비율이 90%로 설정될 수 있으나, 이에 한정되는 것은 아니다. In addition, the data generator may generate a training data set and a verification data set for applying the deep learning algorithm. The data set may be generated by classifying the data set into a training data set required for artificial neural network learning and a validation data set for verifying learning progress information of the artificial neural network. In an embodiment, the data generator may randomly classify an image to be used for the training data set and an image used for the verification data set from among the non-contrast computed tomography images acquired from the CT apparatus 200 . In addition, the data generator may use the remainder of the selection of the data set for verification as the data set for training. The data set for verification may be randomly selected. A ratio of the data set for verification and the data set for training may be determined by a preset reference value. In this case, as for the preset reference value, the ratio of the verification data set may be set to 10% and the ratio of the training data set to 90%, but is not limited thereto.

데이터 생성부는 과적합 상태를 방지하기 위해 학습용 데이터 세트 및 검증용 데이터 세트를 구분하여 데이터 세트를 생성할 수 있다. 예를 들어, 신경망 구조의 학습 특성상 학습용 데이터 세트는 과적합 상태가 될 수 있기 때문에, 데이터 생성부는 검증용 데이터 세트를 활용하여, 인공신경망의 과적합 상태가 되는 것을 방지할 수 있다.The data generator may generate a data set by dividing a data set for training and a data set for verification in order to prevent an overfitting state. For example, since the training data set may be in an overfitting state due to the learning characteristics of the neural network structure, the data generator may prevent the artificial neural network from becoming overfitted by using the verification data set.

이때, 검증용 데이터 세트는 학습용 데이터 세트와 중복되지 않는 데이터 세트일 수 있다. 검증용 데이터는 인공신경망 구축에 사용되지 않은 데이터이므로, 검증 작업 시에 인공신경망에서 처음 접하는 데이터일 수 있다. 따라서 검증용 데이터 세트는 새로운 이미지(학습에 사용되지 않은 신규 이미지)가 입력으로 들어올 경우, 인공신경망의 성능 평가에 적절한 데이터 세트일 수 있다. In this case, the data set for verification may be a data set that does not overlap with the data set for training. Since the data for verification is data that has not been used in the construction of the artificial neural network, it may be data that is first encountered in the artificial neural network during verification work. Therefore, the data set for verification may be a data set suitable for evaluating the performance of an artificial neural network when a new image (a new image not used for training) is input.

전처리부는 딥러닝 알고리즘에 적용 가능하도록 데이터 세트를 전처리할 수 있다. 전처리부는 딥러닝 알고리즘에서 인식 성능을 높이고 환자 간 영상과의 유사성을 최소화하기 위해 데이터 세트를 전처리할 수 있다. 딥러닝 알고리즘은 합성곱신경망(Convolutional Neural Networks) 구조와 완전연결 심층 신경망 (Fully-connected Neural Networks) 구조 두 부분으로 이루어질 수 있다. The preprocessor may preprocess the data set to be applicable to the deep learning algorithm. The preprocessor can preprocess the data set to improve recognition performance in deep learning algorithms and to minimize similarity with images between patients. A deep learning algorithm can consist of two parts: a structure of convolutional neural networks and a structure of fully-connected neural networks.

한편, 본원의 일 실시예에 따르면, 전처리부는 5단계의 전처리 과정을 수행할 수 있다. 비조영 컴퓨터 단층 촬영 이미지를, 자르기, 평행 이동, 색상 조정, 뒤집기 중 적어도 하나의 전처리 과정을 수행할 수 있다. Meanwhile, according to an embodiment of the present application, the preprocessor may perform a preprocessing process of five steps. At least one of cropping, translation, color adjustment, and flipping of the non-contrast computed tomography image may be performed.

전처리부는 미리 설정된 기준값에 대응되도록 전처리 과정을 수행할 수 있다. 미리 설정된 기준값은 사용자가 임의로 지정한 값일 수 있다. 또한, 미리 설정된 기준값을 획득된 비조영 컴퓨터 단층 촬영 이미지의 평균값에 의해 결정된 값을 수 있다. 전처리부를 거친 데이터 세트는 학습부로 제공될 수 있다. The preprocessor may perform a preprocessing process to correspond to a preset reference value. The preset reference value may be a value arbitrarily designated by a user. In addition, the preset reference value may be a value determined by the average value of the acquired non-contrast computed tomography images. The data set passed through the preprocessor may be provided to the learning unit.

학습부는 전처리 과정을 거친 데이터 세트를 입력으로 하고 병변 분류 결과에 관한 항목을 출력으로 하는 학습을 통해 인공신경망을 구축할 수 있다. The learning unit can build an artificial neural network through learning that takes as an input a data set that has undergone a preprocessing process and outputs an item related to a lesion classification result as an output.

본원의 일 실시예에 따르면, 학습부는 합성곱신경망(Convolutional Neural Networks) 구조와 완전연결 심층 신경망 (Fully-connected Neural Networks) 구조 두 부분으로 이루어진 딥러닝 알고리즘을 적용하여 병변 분류 결과를 출력으로 할 수 있다. 완전연결 심층 신경망은 노드 간에 횡적/종적으로 2차원적 연결을 이루고, 서로 같은 층에 위치한 노드 간에는 연결 관계가 존재하지 않으며, 바로 인접한 층에 위치한 노드들 간에만 연결 관계가 존재할 수 있다는 것을 특징으로 하는 신경망이다. According to an embodiment of the present application, the learning unit can output the lesion classification result by applying a deep learning algorithm consisting of two parts: a Convolutional Neural Networks structure and a Fully-connected Neural Networks structure. have. A fully connected deep neural network is characterized in that two-dimensional connections are made horizontally/vertically between nodes, there is no connection relationship between nodes located on the same layer, and only between nodes located in the immediately adjacent layer. is a neural network that

학습부는 전처리 과정을 거친 학습용 데이터 세트를 입력으로 하는 합성곱신경망과, 합성곱신경망의 출력을 완전연결 심층 신경망의 입력으로 하는 학습을 통한 훈련 모델을 구축할 수 있다. The learning unit can build a training model through learning using a convolutional neural network as an input to a training data set that has undergone pre-processing as an input, and a fully connected deep neural network using the output of the convolutional neural network as an input.

본원의 일 실시예에 따르면 합성곱신경망은 비조영 컴퓨터 단층 촬영 이미지를 분석하는 복수의 특정 특징 패턴을 추출할 수 있다. 이때, 추출된 특정 특징 패턴은 완전연결 심층 신경망에서 최종 분류를 하는데 사용될 수 있다. According to an embodiment of the present application, the convolutional neural network may extract a plurality of specific feature patterns for analyzing a non-contrast computed tomography image. In this case, the extracted specific feature pattern can be used for final classification in a fully connected deep neural network.

합성곱신경망(Convolutional Neural Networks)은 음성 인식이나 이미지 인식에서 주로 사용되는 신경망의 한 종류이다. 다차원 배열 데이터를 처리하도록 구성되어 있어, 컬러 이미지와 같은 다차원 배열 처리에 특화되어 있다. 따라서 이미지 인식 분야에서 딥러닝을 활용한 기법은 대부분 합성곱신경망을 기초로 할 수 있다. Convolutional Neural Networks are a type of neural network mainly used in speech recognition and image recognition. It is configured to process multidimensional array data, and is specialized for multidimensional array processing such as color images. Therefore, most of the techniques using deep learning in the image recognition field can be based on convolutional neural networks.

합성곱신경망(CNN)은 이미지를 하나의 데이터가 아닌, 여러 개로 분할하여 처리할 수 있다. 이렇게 하면 이미지가 왜곡되더라도 이미지의 부분적 특성을 추출할 수 있어 올바른 성능을 낼 수 있다. A convolutional neural network (CNN) can process an image by dividing it into several pieces, not just one piece of data. In this way, even if the image is distorted, the partial characteristics of the image can be extracted and correct performance can be achieved.

합성곱신경망은 복수의 층 구조로 이루어질 수 있다. 각각의 층을 구성하는 요소는 합성곱 층, 활성화 함수, max pooling 층, 활성화 함수, dropout 층으로 구성될 수 있다. 합성곱 층은 kernel이라 불리는 필터 역할을 하여 전체 이미지(또는 생성된 새로운 특징 패턴)를 부분적으로 처리한 것들이 이미지와 같은 크기의 새로운 특징 패턴(feature pattern)을 추출할 수 있다. 합성곱 층은 특징 패턴에서 활성화 함수를 통해 특징 패턴의 값들을 처리하기 편하게 보정할 수 있다. max pooling 층은 일부 비조영 컴퓨터 단층 촬영 이미지를 샘플링(sampling) 하여 크기를 조절하여 이미지의 크기를 줄일 수 있다. 합성곱신경망은 합성곱 층 및 max pooling 층을 거쳐, 특징 패턴(feature pattern)의 크기는 줄어들게 되지만, 복수의 kernel 활용을 통해 복수의 특징 패턴(feature pattern)을 추출할 수 있다. dropout층은 합성곱신경망의 가중치들을 훈련할 때 효율적인 훈련을 위해 일부 가중치들을 의도적으로 고려하지 않는 방법일 수 있다. 한편, dropout층은 훈련된 모델을 통해 실제 테스트를 하는 경우에는 적용하지 않을 수 있다. The convolutional neural network may have a plurality of layer structures. The elements constituting each layer may be composed of a convolutional layer, an activation function, a max pooling layer, an activation function, and a dropout layer. The convolutional layer acts as a filter called a kernel, so that partial processing of the entire image (or a new feature pattern generated) can extract a new feature pattern of the same size as the image. The convolutional layer can easily correct the values of the feature pattern through an activation function in the feature pattern. The max pooling layer can reduce the size of the image by sampling some non-contrast computed tomography images and adjusting the size. The convolutional neural network goes through the convolutional layer and the max pooling layer, so that the size of the feature pattern is reduced, but a plurality of feature patterns can be extracted by utilizing a plurality of kernels. The dropout layer may be a method that does not intentionally consider some weights for efficient training when training the weights of the convolutional neural network. On the other hand, the dropout layer may not be applied when an actual test is performed through a trained model.

합성곱신경망에서 추출된 복수의 특징 패턴(feature pattern)은 다음 단계인 완전연결 심층 신경망으로 전달되어 분류 작업을 하는 데 활용될 수 있다. 합성곱신경망은 층의 개수를 조절할 수 있다. 합성곱신경망은 층의 개수는 모델 훈련을 위한 훈련용 데이터의 양에 맞추어 조절함으로써 보다 안정된 모델을 구축할 수 있다. A plurality of feature patterns extracted from the convolutional neural network can be transferred to the next step, a fully connected deep neural network, and used for classification. Convolutional neural networks can control the number of layers. Convolutional neural networks can build more stable models by adjusting the number of layers according to the amount of training data for model training.

또한, 학습부는 전처리 과정을 거친 학습용 데이터 세트를 합성곱신경망의 입력으로 하고, 합성곱신경망의 출력 및 환자 정보를 완전연결 심층 신경망의 입력으로 하는 학습을 통한 판단(훈련) 모델을 구축할 수 있다. 달리 말해, 학습부는 전처리 과정을 거친 이미지 데이터가 우선적으로 합성곱신경망으로 들어가도록 하고, 합성곱신경망을 거치고 나온 결과물이 완전연결 심층 신경망에 들어가도록 할 수 있다. 또한, 학습부는 임의로 추출된 특징(feature)들은 합성곱신경망을 거치지 않고, 곧바로 완전연결 심층 신경망으로 들어가도록 할 수 있다. In addition, the learning unit can build a judgment (training) model through learning that uses the pre-processed learning data set as an input to the convolutional neural network, and the output of the convolutional neural network and patient information as input to the fully connected deep neural network. . In other words, the learning unit may allow the image data that has undergone the preprocessing process to enter the convolutional neural network preferentially, and the result from the convolutional neural network to enter the fully connected deep neural network. In addition, the learning unit may allow arbitrarily extracted features to enter the fully connected deep neural network without going through the convolutional neural network.

학습부는 트레이닝 데이터를 딥러닝 알고리즘 구조(합성곱신경망을 거쳐 완전연결 심층 신경망으로 형성된 구조)에 적용시켜 도출되는 결과와 실제 결과와의 오차를 비교하여 해당 오차에 해당하는 만큼 신경망 구조의 가중치를 점차적으로 변화시켜주는 역전파(backpropagation) 알고리즘을 통해 결과가 피드백되어 학습될 수 있다. 역전파(backpropagation) 알고리즘은 결과의 오차(실제값과 결과값이 차이)를 줄이기 위해 각 노드에서 다음 노드로 이어지는 가중치를 조절하는 것일 수 있다. 학습부는 학습용 데이터 세트와 검증용 데이터 세트를 이용하여 신경망을 학습시켜 가중치 매개 변수를 구하여 최종 판단 모델을 도출하는 것일 수 있다. The learning unit compares the error between the result obtained by applying the training data to the deep learning algorithm structure (structure formed into a fully connected deep neural network through a convolutional neural network) with the actual result, and gradually increases the weight of the neural network structure as much as the error corresponds to the error. The result can be fed back and learned through a backpropagation algorithm that changes it to . The backpropagation algorithm may be to adjust the weight from each node to the next node in order to reduce the error of the result (the difference between the actual value and the result value). The learning unit may be to derive a final judgment model by learning a neural network using a training data set and a verification data set to obtain a weight parameter.

판단부는 신규 데이터 세트를 전처리 과정을 거친 후 인공신경망을 통해 병변부 판단을 수행할 수 있다. 달리 말해, 판단부는 앞서 설명된 학습부에서 도출된 최종 판단 모델을 이용하여 신규 데이터에 대한 판단을 도출할 수 있다. 신규 데이터는 사용자가 판단하고자 하는 비조영 컴퓨터 단층 촬영 이미지를 포함하는 데이터 일 수 있다. 신규 데이터 세트는 신규 비조영 컴퓨터 단층 촬영 이미지를 환자 정보와 연계하여 생성된 데이터 세트일 수 있다. 신규 데이터 세트는 전처리부의 전처리 과정을 거쳐 딥러닝 알고리즘에 적용 가능한 상태로 전처리될 수 있다. 이후 전처리된 신규 데이터 세트는 학습부에 입력되어, 학습 파라미터를 기반으로 비조영 컴퓨터 단층 촬영 이미지가 판단될 수 있다. The determination unit may preprocess the new data set and then determine the lesion through the artificial neural network. In other words, the determination unit may derive a determination on the new data by using the final determination model derived from the learning unit described above. The new data may be data including a non-contrast computed tomography image to be determined by the user. The new data set may be a data set generated by associating a new non-contrast computed tomography image with patient information. The new data set can be preprocessed in a state applicable to the deep learning algorithm through the preprocessing process of the preprocessor. Thereafter, the pre-processed new data set may be input to the learning unit, and a non-contrast computed tomography image may be determined based on the learning parameters.

상술한 인공지능 모델의 동작에 의하여, 도 5에 도시된 바와 같이, 비조영 컴퓨터 단층 촬영 이미지를 바탕으로 대동맥 박리증을 검출할 수 있다.By the operation of the above-described artificial intelligence model, as shown in FIG. 5 , aortic dissection may be detected based on a non-contrast computed tomography image.

본 발명의 일 실시예에 따라, 전자 장치(100)는, 피쳐값을 바탕으로 대동맥 박리증 여부를 판단할 수 있다.According to an embodiment of the present invention, the electronic device 100 may determine whether aortic dissection is present based on the feature value.

이때, 전자 장치(100)는, 도 7에 도시된 바와 같이, 관심 영역을 DCNN(Deep Convolutional Neural Networks) 모델에 입력하여 획득된 심층 피처(Deep feature)를 제1 피처로 획득하고, 관심 영역을 GLCM(Grey Level Co-oc-currence Matrix)을 기반으로 획득된 텍스쳐 피처를 제2 피처로 획득하고, 관심 영역을 바탕으로 획득된 푸리에 기술자(Fourier shape descriptor)를 제3 피처로 획득할 수 있다.At this time, as shown in FIG. 7 , the electronic device 100 acquires a deep feature obtained by inputting a region of interest into a DCNN (Deep Convolutional Neural Networks) model as a first feature, and selects the region of interest as a first feature. A texture feature obtained based on a gray level co-oc-currence matrix (GLCM) may be obtained as a second feature, and a Fourier shape descriptor obtained based on a region of interest may be obtained as a third feature.

이후, 전자 장치(100)는, 제1 피처를 제1 인공지능 모델에 입력하여 제1 결과값(w1)을 획득하고, 제2 피처를 제2 인공지능 모델에 입력하여 제2 결과값(w2)을 획득하고, 제3 피처를 제3 인공지능 모델에 입력하여 제3 결과값(w3)을 획득할 수 있다.Thereafter, the electronic device 100 inputs the first feature to the first artificial intelligence model to obtain a first result value w1, and inputs the second feature to the second artificial intelligence model to obtain a second result value w2 ), and input the third feature to the third artificial intelligence model to obtain a third result value w3.

이후, 전자 장치(100)는, 제1 결과값 내지 제3 결과값을 바탕으로 대동맥 박리증 여부를 판단할 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 제1 결과값 내지 제3 결과값을 합산하여 양성 또는 악성 여부를 판단할 수 있다.Thereafter, the electronic device 100 may determine whether aortic dissection is present based on the first to third result values. For example, as shown in FIG. 7 , it is possible to determine whether benign or malignant by summing the first to third result values.

한편, 본 발명의 또 다른 실시예로, 제1 인공지능 모델, 제2 인공지능 모델 및 제3 인공지능 모델을 앙상블하여 대동맥 박리증 여부를 판단할 수 있다.Meanwhile, as another embodiment of the present invention, the first AI model, the second AI model, and the third AI model may be ensembled to determine whether aortic dissection is present.

구체적으로, 도 8에 도시된 바와 같이, 제1 인공지능 모델 내지 제3 인공지능 모델은 conv 레이어, ReLU 레이어, Softmax 레이어를 포함할 수 있다. 도 8에 따른 앙상블 모델은, 제1 인공지능 모델 내지 제3 인공지능 모델의 최종 출력값을 앙상블하는 기본적인 앙상블 모델(Simple Ensemble)일 수 있다.Specifically, as shown in FIG. 8 , the first to third artificial intelligence models may include a conv layer, a ReLU layer, and a Softmax layer. The ensemble model according to FIG. 8 may be a basic ensemble model (Simple Ensemble) that ensembles final output values of the first artificial intelligence model to the third artificial intelligence model.

다만, 본 발명의 다양한 실시예에 따라, 앙상블 모델은, ReLU 레이어의 출력값을 각각 다음 레이어로 전달하는 것이 아니라, 각각의 ReLU 레이어의 출력값을 앙상블한 값을 다음 레이어로 전달하는 스텝 와이즈 앙상블(Stepwise Ensemble)모델일 수 있음은 물론이다. 이 경우, 런타임 메모리를 절약할 수 있는 효과가 있다. However, according to various embodiments of the present invention, the ensemble model does not transfer the output value of the ReLU layer to the next layer, but transfers the ensemble value of the output value of each ReLU layer to the next layer. Of course, it can be an ensemble) model. In this case, there is an effect of saving runtime memory.

또 다른 실시예로, 스텝 와이즈 앙상블(Stepwise Ensemble)모델과 유사하나, 필요에 따라 모든 레이어를 앙상블 하는 것이 적절하지 않은 경우 부분적 스텝 와이즈 앙상블(Stepwise Partial Ensemble) 모델이 사용될 수 있다. As another embodiment, it is similar to the Stepwise Ensemble model, but when it is not appropriate to ensemble all layers as needed, a Stepwise Partial Ensemble model may be used.

예컨대, 전자 장치(100)는 제1 인공지능 모델 및 제2 인공지능 모델을 스텝 와이즈 앙상블하고, 제3 인공지능 모델의 결과값은 그대로 출력할 수 있다.For example, the electronic device 100 may perform a step-wise ensemble of the first artificial intelligence model and the second artificial intelligence model, and may output the result value of the third artificial intelligence model as it is.

또 다른 실시예로, 전자 장치(100)의 성능이 제한적인 경우, 전자 장치(100)는 부분적 캐스캐이드 앙상블(Cascade Partial Ensemble) 모델을 적용할 수 있다. 예를 들어, 전자 장치(100)는 제1 인공지능 모델 및 제2 인공지능 모델을 스텝 와이즈 앙상블하고, 앙상블된 출력값을 하나의 인공지능 모델(예를 들어, 제4 인공지능 모델)의 입력값으로하고, 제4 인공지능 모델 및 제3 인공지능 모델의 최종 출력값을 앙상블 할 수 있다. 이러한 캐스캐이드 앙상블 모델은 단계가 거듭될수록 인공 지능 모델의 개수가 줄어들어 메모리를 절약할 수 있다. 즉, 결과값이 유사하다고 예측되는 인공 지능 모델이 복수개 존재하는 경우, 캐스캐이드 앙상블 모델이 이용될 수 있다.As another embodiment, when the performance of the electronic device 100 is limited, the electronic device 100 may apply a cascade partial ensemble model. For example, the electronic device 100 performs a step-wise ensemble of the first artificial intelligence model and the second artificial intelligence model, and the ensembled output value is an input value of one artificial intelligence model (eg, the fourth artificial intelligence model). and the final output values of the fourth artificial intelligence model and the third artificial intelligence model can be ensembled. Such a cascade ensemble model can save memory by reducing the number of artificial intelligence models as the steps are repeated. That is, when there are a plurality of artificial intelligence models predicted to have similar results, a cascade ensemble model may be used.

또 다른 실시예로, 전자 장치(100)는 안정적인 결과 값 도출을 위한 확률적 앙상블(Stochastic Partial Ensemble) 모델을 적용할 수 있음은 물론이다. 확률적 앙상블 모델은, 복수의 인공지능 모델 중 적어도 두개의 인공지능 모델을 앙상블하되, 하나의 출력값이 복수의 인공지능 모델과 앙상블될 수 있으며, 이러한 앙상블이 확률적으로 결정되는 것을 의미한다. 예컨대 확률적 앙상블 모델에서는, 제1 인공지능 모델 및 제2 인공지능 모델이 앙상블되고, 제1 인공지능 모델 및 제3 인공지능 모델이 앙상블되고, 제2 인공지능 모델 및 제3 인공지능 모델이 앙상블되며, 앙상블된 세개의 출력값이 두개의 인공지능 모델의 입력값으로 사용될 수 있다.As another embodiment, of course, the electronic device 100 may apply a stochastic partial ensemble model for deriving a stable result value. The probabilistic ensemble model ensembles at least two artificial intelligence models among a plurality of artificial intelligence models, but one output value may be ensembled with a plurality of artificial intelligence models, and this ensemble is determined probabilistically. For example, in the probabilistic ensemble model, the first artificial intelligence model and the second artificial intelligence model are ensembled, the first artificial intelligence model and the third artificial intelligence model are ensembled, and the second artificial intelligence model and the third artificial intelligence model are ensembled. and the three ensembled output values can be used as input values for two AI models.

한편, 본 발명의 다양한 실시예에 따라, 전자 장치(100)는, 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 바탕으로 관심 영역을 획득할 수 있다.Meanwhile, according to various embodiments of the present disclosure, the electronic device 100 may acquire a region of interest based on at least one non-contrast computed tomography image.

이후, 전자 장치(100)는, 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 관심 영역 이미지 및 비관심 영역 이미지로 구분하고, 관심 영역 이미지와 비관심 영역 이미지에 서로 다른 가중치를 적용하여 인공지능 모델을 학습시킬 수 있음은 물론이다.Thereafter, the electronic device 100 divides at least one non-contrast computed tomography image into an ROI image and a non-ROI image, and applies different weights to the ROI image and the non-ROI image to generate an artificial intelligence model. Of course, it can be learned.

구체적으로, 전자 장치(100)는, 관심 영역에 적용된 가중치가 비관심 영역에 적용된 가중치보다 더 높도록 가중치를 적용시킬 수 있다. 전자 장치(100)는 적용된 가중치에 따라 인공지능 모델을 학습시킬 수 있다. 이후 전자 장치(100)는, 비조영 컴퓨터 단층 촬영 이미지가 입력되면, 학습된 인공지능 모델을 바탕으로 관심 영역 및 비관심 영역을 획득할 수 있음은 물론이다.Specifically, the electronic device 100 may apply the weight so that the weight applied to the ROI is higher than the weight applied to the non-interest region. The electronic device 100 may train the artificial intelligence model according to the applied weight. Thereafter, when a non-contrast computed tomography image is input, the electronic device 100 may acquire a region of interest and a region of non-interest based on the learned artificial intelligence model.

한편, 본 발명의 다양한 실시예에 따라, 전자 장치(100)는 제1 결과값 내지 제3 결과값을 바탕으로 판단된 대동맥 박리증 여부에 관한 판단 결과의 정확성을 나타내는 정확도를 산출할 수 있다.Meanwhile, according to various embodiments of the present disclosure, the electronic device 100 may calculate the accuracy indicating the accuracy of the determination result regarding whether the aortic dissection is determined based on the first result value to the third result value.

이후, 전자 장치(100)는, 환자 단말로부터 대동맥 박리증과 관련된 환자 정보를 획득할 수 있다.Thereafter, the electronic device 100 may acquire patient information related to aortic dissection from the patient terminal.

이후, 전자 장치(100)는, 환자 정보를 바탕으로 정확도를 보정할 수 있다.Thereafter, the electronic device 100 may correct accuracy based on patient information.

이후, 전자 장치(100)는, 보정된 정확도를 바탕으로 대동맥 박리증 여부를 판단할 수 있다.Thereafter, the electronic device 100 may determine whether aortic dissection is present based on the corrected accuracy.

예를 들어, 상기 제1 결과값 내지 제3 결과값을 바탕으로 획득된 정확도가 낮은 경우라도, 환자 고혈압 환자또는 임신중인 상태이거나, 말판 증후군, 이첨판 대동맥 판막, 엘러스-단로스 증후군, 터너 증후군 등의 선천적 요인을 포함하는 경우, 대동맥 박리증이 발생할 확률이 높은 것으로 판단하여 정확도를 보정할 수 있다.For example, even if the accuracy obtained based on the first to third results is low, the patient is a hypertensive patient or is pregnant, Marfan syndrome, bicuspid aortic valve, Ehlers-Danlos syndrome, Turner syndrome, etc. In the case of including congenital factors of the aortic dissection, it is determined that the probability of occurrence of aortic dissection is high and the accuracy can be corrected.

또는, 전자 장치(100)는, 환자의 나이 또는 성별을 바탕으로 정확도가 보정될 수도 있음은 물론이다. 예컨대, 전자 장치(100)는, 환자의 나이대별 대동맥 박리증 발생 현황에 대한 정보를 바탕으로 정확도를 보정할 수 있다.Alternatively, it goes without saying that the accuracy of the electronic device 100 may be corrected based on the patient's age or gender. For example, the electronic device 100 may correct the accuracy based on information on the status of occurrence of aortic dissection for each age of the patient.

한편, 사고 발생으로 인하여 대동맥 박리증이 의심되는 경우가 발생할 수 있다. 이 경우, 사고 당시의 상황 정보를 획득할 수 있다면, 더 정확한 환자의 상태를 파악할 수 있게 된다. 따라서, 전자 장치(100)는 환자 단말로부터 사고 발생지의 정보를 수집하여 대동맥 박리증 여부를 판단할 수 있음은 물론이다.On the other hand, a case of suspected aortic dissection may occur due to the occurrence of an accident. In this case, if the situation information at the time of the accident can be obtained, it is possible to more accurately grasp the condition of the patient. Accordingly, it goes without saying that the electronic device 100 may determine whether aortic dissection is present by collecting information on the accident location from the patient terminal.

구체적으로, 환자 단말은, 기 설정된 시간 간격으로 주변 환경 정보를 획득할 수 있다. 일 실시예로, 환자 단말은, 기 설정된 시간(예를 들어, 5분) 간격으로 환자 단말에 내장된 마이크를 온하여 주변 오디오 소스 정보를 획득할 수 있다. Specifically, the patient terminal may acquire surrounding environment information at preset time intervals. In an embodiment, the patient terminal may acquire information about the surrounding audio source by turning on a microphone built into the patient terminal at a preset time interval (eg, 5 minutes).

한편, 본 발명의 다양한 실시예에 따라, 환자 단말은, 환자 단말의 GPS를 통해 수신되는 위치 정보가 급격히 변경되는 경우, 환자 단말에 내장된 마이크를 온 할 수 있다. 예를 들어, 환자 단말의 위치 변화가 기 설정된 속도 이상에서 급격히 줄어드는 경우, 또는 그 반대의 경우, 환자 단말은 환자 단말에 내장된 마이크를 온 할 수 있음은 물론이다.Meanwhile, according to various embodiments of the present disclosure, the patient terminal may turn on a microphone built into the patient terminal when the location information received through the GPS of the patient terminal is rapidly changed. For example, when the change in the position of the patient terminal rapidly decreases at a preset speed or more, or vice versa, the patient terminal may turn on the microphone built into the patient terminal.

이후, 환자 단말은, 주변 환경 정보를 바탕으로 사고 발생 여부를 획득할 수 있다.Thereafter, the patient terminal may acquire whether an accident has occurred based on the surrounding environment information.

구체적으로, 환자 단말은, 획득된 오디오 소스의 크기를 판단할 수 있다. 예를 들어, 획득된 오디오 소스가 기 설정된 데시벨 이상인 경우, 환자 단말은 사고가 발생하였음을 감지할 수 있다. 또는 환자 단말은 획득된 오디오 소스의 데시벨이 일정 주기로 커지는 경우, 사고가 발생한 것으로 판단할 수 있다. Specifically, the patient terminal may determine the size of the acquired audio source. For example, when the acquired audio source is greater than or equal to a preset decibel, the patient terminal may detect that an accident has occurred. Alternatively, the patient terminal may determine that an accident has occurred when the decibel of the acquired audio source increases at a predetermined period.

또는, 환자 단말은 획득된 오디오 소스 중 사람의 음성을 추출하고, 추출된 음성을 분석할 수 있다. 추출된 음성이 구조와 관련된 음성인 경우, 환자 단말은 사고가 발생할 수 있다. 추출된 음성이 구조와 관련된 음성임을 판단하는 방법은, 기 저장된 음성, 예를 들어, "도와주세요" "누구 없어요"와 같은 음성이 포함되었는지 여부를 판단하는 방법으로 이뤄질 수 있다. 또는, 환자 단말은 자연어 처리(Nature Language Processing, NLP) 기술을 바탕으로 사고 발생 여부를 감지할 수 있다.Alternatively, the patient terminal may extract a human voice from among the acquired audio sources and analyze the extracted voice. When the extracted voice is a voice related to a rescue, an accident may occur in the patient terminal. A method of determining that the extracted voice is a voice related to a structure may be performed by a method of determining whether a pre-stored voice, for example, a voice such as “Help” or “No one” is included. Alternatively, the patient terminal may detect whether an accident has occurred based on natural language processing (NLP) technology.

또 다른 실시예로, 환자 단말은 마이크를 통해 특정음을 수신하면, 사고가 발생한 것으로 판단할 수 있다. 예를 들어, 환자 단말은 구급차의 사이렌 소리를 오디오 소스로 획득한 경우, 사고가 발생한 것으로 판단할 수 있다.In another embodiment, when the patient terminal receives a specific sound through the microphone, it may determine that an accident has occurred. For example, when the patient terminal acquires the sound of an ambulance siren as an audio source, the patient terminal may determine that an accident has occurred.

한편, 본 발명의 일 실시예에 따라, 환자 단말은 기 설정된 제1 시간(예를 들어 1초) 동안 제1 오디오 소스 정보를 획득할 수 있다. Meanwhile, according to an embodiment of the present invention, the patient terminal may acquire the first audio source information for a preset first time (eg, 1 second).

환자 단말은 제1 오디오 소스를 분석하고, 분석 결과가 제1 기준을 만족하는 경우, 기 설정된 제2 시간(예를 들어, 5초)동안 제2 오디오 소스 정보를 획득할 수 있다.The patient terminal analyzes the first audio source, and when the analysis result satisfies the first criterion, the patient terminal may acquire second audio source information for a second preset time (eg, 5 seconds).

환자 단말은 제2 오디오 소스를 분석하고, 분석 결과가 제2기준을 만족하는 경우, 기 설정된 제3시간(예를 들어, 5분)동안 제2 오디오 소스 정보를 획득할 수 있다.The patient terminal analyzes the second audio source, and when the analysis result satisfies the second criterion, the patient terminal may acquire the second audio source information for a third preset time period (eg, 5 minutes).

이는, 오랜 시간 주기적으로 오디오 소스를 수신하면, 환자 단말의 배터리가 빨리 소모되는 문제를 방지하기 위하여, 짧은 시간동안 제1 오디오 소스를 획득하고, 사고 발생 가능성이 존재하면, 기 설정된 제1 시간보다 긴 시간인 기 설정된 제2 시간동안 오디오 소스를 수신하고, 사고 발생 가능성이 높으면, 기 설정된 제3 시간동안 오디오 소스를 수신하기 위함이다.This is to prevent the problem that the battery of the patient terminal is quickly consumed when the audio source is periodically received for a long time, the first audio source is acquired for a short period of time, and if there is a possibility of an accident, the first audio source is longer than the preset first time. This is to receive the audio source for a second preset time, which is a long time, and to receive the audio source for a third preset time when the probability of an accident occurring is high.

이때, 상기 제1 기준은 제1 오디오 소스의 데시벨이 기 설정된 크기 이상인 경우일 수 있다. 즉, 기 설정된 제1 시간은 매우 짧은 시간이므로, 오디오 소스의 크기 정보를 제1 기준으로 획득할 수 있다.In this case, the first criterion may be a case in which the decibel of the first audio source is equal to or greater than a preset level. That is, since the preset first time is a very short time, size information of the audio source may be acquired as the first reference.

한편, 기 설정된 제2 기준은, 제2 오디오 소스가 특정 오디오(예를 들어 구급차의 사이렌 소리)를 포함하는지 여부일 수 있다.Meanwhile, the preset second criterion may be whether the second audio source includes specific audio (eg, ambulance siren sound).

한편, 상기 제3 기준은, 제3 오디오 신호가 특정 음성(예를 들어, "도와주세요" "누구 없어요"와 같은 음성)을 포함하는지 여부일 수 있다.Meanwhile, the third criterion may be whether the third audio signal includes a specific voice (eg, a voice such as “Help” or “No one”).

즉, 상기 제1 기준 및 제3 기준은, 녹음 시간(기 설정된 제1 시간 내지 제3시간)동안 분석이 가능한 최대한의 정보를 의미할 수 있다. 짧은 제1 시간에서는 오디오 소스의 크기만을 판단하고, 제1 시간보다 긴 제2 시간에서는 오디오 소스의 종류를 판단하며, 긴 제3 시간에서는 오디오 소스에 포함된 음성을 분석할 수 있다.That is, the first criterion and the third criterion may mean the maximum amount of information that can be analyzed during the recording time (the first time to the third time preset). At the first short time, only the size of the audio source may be determined, at the second time longer than the first time, the type of the audio source may be determined, and at the long third time, the voice included in the audio source may be analyzed.

삭제delete

삭제delete

도 9는 본 발명의 일 실시예에 따른 장치의 구성도이다.9 is a block diagram of an apparatus according to an embodiment of the present invention.

프로세서(102)는 하나 이상의 코어(core, 미도시) 및 그래픽 처리부(미도시) 및/또는 다른 구성 요소와 신호를 송수신하는 연결 통로(예를 들어, 버스(bus) 등)를 포함할 수 있다.The processor 102 may include one or more cores (not shown) and a graphic processing unit (not shown) and/or a connection path (eg, a bus, etc.) for transmitting and receiving signals to and from other components. .

일 실시예에 따른 프로세서(102)는 메모리(104)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 도 1 내지 도 8과 관련하여 설명된 방법을 수행한다.The processor 102 according to an embodiment performs the method described with respect to FIGS. 1 to 8 by executing one or more instructions stored in the memory 104 .

예를 들어, 프로세서(102)는 메모리에 저장된 하나 이상의 인스트럭션을 실행함으로써 신규 학습용 데이터를 획득하고, 학습된 모델을 이용하여, 상기 획득된 신규 학습용 데이터에 대한 테스트를 수행하고, 상기 테스트 결과, 라벨링된 정보가 소정의 제1 기준값 이상의 정확도로 획득되는 제1 학습용 데이터를 추출하고, 상기 추출된 제1 학습용 데이터를 상기 신규 학습용 데이터로부터 삭제하고, 상기 추출된 학습용 데이터가 삭제된 상기 신규 학습용 데이터를 이용하여 상기 학습된 모델을 다시 학습시킬 수 있다. For example, the processor 102 obtains new training data by executing one or more instructions stored in the memory, and performs a test on the acquired new training data by using the learned model, and the test result, labeling Extracting the first learning data in which the obtained information is obtained with an accuracy greater than or equal to a predetermined first reference value, deleting the extracted first learning data from the new learning data, and removing the new learning data from which the extracted learning data is deleted It is possible to retrain the learned model using

한편, 프로세서(102)는 프로세서(102) 내부에서 처리되는 신호(또는, 데이터)를 일시적 및/또는 영구적으로 저장하는 램(RAM: Random Access Memory, 미도시) 및 롬(ROM: Read-Only Memory, 미도시)을 더 포함할 수 있다. 또한, 프로세서(102)는 그래픽 처리부, 램 및 롬 중 적어도 하나를 포함하는 시스템온칩(SoC: system on chip) 형태로 구현될 수 있다. On the other hand, the processor 102 is a RAM (Random Access Memory, not shown) and ROM (Read-Only Memory: ROM) for temporarily and / or permanently storing a signal (or, data) processed inside the processor 102. , not shown) may be further included. In addition, the processor 102 may be implemented in the form of a system on chip (SoC) including at least one of a graphic processing unit, a RAM, and a ROM.

메모리(104)에는 프로세서(102)의 처리 및 제어를 위한 프로그램들(하나 이상의 인스트럭션들)을 저장할 수 있다. 메모리(104)에 저장된 프로그램들은 기능에 따라 복수 개의 모듈들로 구분될 수 있다.The memory 104 may store programs (one or more instructions) for processing and controlling the processor 102 . Programs stored in the memory 104 may be divided into a plurality of modules according to functions.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of the method or algorithm described in relation to the embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

본 발명의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 발명의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.The components of the present invention may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present invention may be implemented as software programming or software components, and similarly, embodiments may include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, including C, C++ , Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. As mentioned above, although embodiments of the present invention have been described with reference to the accompanying drawings, those skilled in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing its technical spirit or essential features. you will be able to understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

100 : 전자 장치
200 : CT 장치
100: electronic device
200: CT device

Claims (10)

인공지능을 이용한 비조영 컴퓨터 단층촬영 이미지를 바탕으로 대동맥 박리증을 판단하는 시스템의 제어 방법에 있어서,
전자 장치가, 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 획득하는 단계;
상기 전자 장치가, 획득된 상기 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 인공지능 모델에 입력하는 단계;
상기 전자 장치가, 상기 인공지능 모델에 의해 출력된 결과값을 바탕으로 대동맥 박리증 여부를 판단하는 단계; 를 포함하고,
상기 비조영 컴퓨터 단층 촬영 이미지를 인공지능 모델에 입력하는 단계는,
상기 적어도 하나의 컴퓨터 단층 촬영 이미지 중 관심 영역을 추출하고, 관심 영역의 경계를 획득하는 단계;
상기 획득된 관심 영역을 바탕으로 피쳐값을 획득하는 단계;를 포함하고,
상기 대동맥 박리증 여부를 판단하는 단계는,
상기 피쳐값을 바탕으로 대동맥 박리증 여부를 판단하는 단계; 를 포함하고,
상기 피쳐값을 획득하는 단계는,
상기 관심 영역을 DCNN(Deep Convolutional Neural Networks) 모델에 입력하여 획득된 심층 피처(Deep feature)를 제1 피처로 획득하는 단계;
상기 관심 영역을 GLCM(Grey Level Co-oc-currence Matrix)을 기반으로 획득된 텍스쳐 피처를 제2 피처로 획득하는 단계;
상기 관심 영역을 바탕으로 획득된 푸리에 기술자(Fourier shape descriptor)를 제3 피처로 획득하는 단계;를 포함하고,
상기 대동맥 박리증 여부를 판단하는 단계는,
상기 제1 피처를 제1 인공지능 모델에 입력하여 제1 결과값을 획득하는 단계;
상기 제2 피처를 제2 인공지능 모델에 입력하여 제2 결과값을 획득하는 단계;
상기 제3 피처를 제3 인공지능 모델에 입력하여 제3 결과값을 획득하는 단계; 및
상기 제1 결과값 내지 상기 제3 결과값을 바탕으로 대동맥 박리증 여부를 판단하는 단계;를 포함하고,
상기 제1 결과값 내지 상기 제3 결과값을 바탕으로 대동맥 박리증 여부를 판단하는 단계는,
상기 제1 인공지능 모델, 상기 제2 인공지능 모델 및 상기 제3 인공지능 모델을 앙상블하여 대동맥 박리증 여부를 판단하고,
상기 대동맥 박리증 여부를 판단하는 단계는,
상기 제1 결과값 내지 상기 제3 결과값을 바탕으로 판단된 대동맥 박리증 여부에 관한 판단 결과의 정확성을 나타내는 정확도를 산출하는 단계;
상기 전자 장치가, 환자 단말로부터 대동맥 박리증과 관련된 환자 정보를 획득하는 단계;
상기 환자 정보를 바탕으로 상기 정확도를 보정하는 단계; 및
상기 보정된 정확도를 바탕으로 대동맥 박리증 여부를 판단하는 단계; 를 포함하고,
상기 제어 방법은,
환자 단말이, 기 설정된 시간 간격으로 주변 환경 정보를 획득하는 단계;
상기 환자 단말이, 상기 주변 환경 정보를 바탕으로 사고 발생 여부를 획득하는 단계;를 포함하고,
상기 주변 환경 정보를 획득하는 단계는,
상기 환자 단말이, 마이크를 온하여 주변 오디오 소스 정보를 획득하는 단계;를 포함하고,
상기 주변 오디오 소스 정보를 획득하는 단계는,
상기 환자 단말이, 기 설정된 제1 시간 동안 제1 오디오 소스 정보를 획득하는 단계;
상기 환자 단말이, 제1 오디오 소스를 분석하고, 분석 결과가 제1 기준을 만족하는 경우, 기 설정된 제2 시간 동안 제2 오디오 소스 정보를 획득하는 단계;를 포함하고,
상기 제1 기준은
상기 제1 오디오 소스의 데시벨이 기 설정된 크기 이상인 경우이고,
상기 기 설정된 제2 시간은
상기 기 설정된 제1 시간 보다 길고,
상기 사고 발생 여부를 획득하는 단계는
상기 환자 단말이, 획득된 오디오 소스로부터 추출된 음성이 구조와 관련된 음성인 것으로 판단된 경우이거나, 구급차의 사이렌 소리가 상기 오디오 소스로부터 획득된 경우, 사고가 발생한 것으로 판단하는 단계;를 포함하는 제어 방법.
In the control method of a system for judging aortic dissection based on a non-contrast computed tomography image using artificial intelligence,
acquiring, by the electronic device, at least one non-contrast computed tomography image;
inputting, by the electronic device, the acquired at least one non-contrast computed tomography image into an artificial intelligence model;
determining, by the electronic device, whether or not aortic dissection based on a result value output by the artificial intelligence model; including,
The step of inputting the non-contrast computed tomography image to the artificial intelligence model comprises:
extracting a region of interest from the at least one computed tomography image and obtaining a boundary of the region of interest;
Including; acquiring a feature value based on the acquired region of interest;
The step of determining whether the aortic dissection is,
determining whether aortic dissection is present based on the feature value; including,
The step of obtaining the feature value is
obtaining a deep feature obtained by inputting the region of interest into a DCNN (Deep Convolutional Neural Networks) model as a first feature;
acquiring a texture feature obtained based on a gray level co-oc-currence matrix (GLCM) in the region of interest as a second feature;
Including; acquiring a Fourier shape descriptor obtained based on the region of interest as a third feature;
The step of determining whether the aortic dissection is,
obtaining a first result value by inputting the first feature into a first artificial intelligence model;
obtaining a second result value by inputting the second feature into a second artificial intelligence model;
obtaining a third result value by inputting the third feature into a third artificial intelligence model; and
Determining whether or not aortic dissection based on the first result value to the third result value;
The step of determining whether aortic dissection based on the first result value to the third result value comprises:
determining whether or not aortic dissection by ensemble of the first artificial intelligence model, the second artificial intelligence model, and the third artificial intelligence model;
The step of determining whether the aortic dissection is,
calculating an accuracy indicating accuracy of a determination result regarding whether aortic dissection is determined based on the first result value to the third result value;
obtaining, by the electronic device, patient information related to aortic dissection from a patient terminal;
calibrating the accuracy based on the patient information; and
determining whether aortic dissection is present based on the corrected accuracy; including,
The control method is
acquiring, by the patient terminal, surrounding environment information at preset time intervals;
Including, by the patient terminal, whether an accident has occurred based on the surrounding environment information;
The step of obtaining the surrounding environment information includes:
Including, by the patient terminal, turning on the microphone to obtain information about the surrounding audio source;
The step of obtaining the surrounding audio source information includes:
obtaining, by the patient terminal, first audio source information for a first preset time;
The patient terminal analyzes the first audio source, and when the analysis result satisfies the first criterion, acquiring second audio source information for a second preset time period;
The first criterion is
When the decibel of the first audio source is greater than or equal to a preset size,
The preset second time is
longer than the preset first time,
The step of obtaining whether the accident has occurred is
determining, by the patient terminal, that an accident has occurred when it is determined that the voice extracted from the acquired audio source is a voice related to the rescue, or when the siren sound of an ambulance is acquired from the audio source; Way.
제1항에 있어서,
상기 인공지능 모델은, CNN 알고리즘 및 RNN 알고리즘 중 적어도 하나의 알고리즘에 의해 동작하는 것을 특징으로 하는 제어 방법.
According to claim 1,
The artificial intelligence model is a control method, characterized in that it operates by at least one of a CNN algorithm and an RNN algorithm.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제어 방법은,
상기 전자 장치가, 상기 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 바탕으로 관심 영역을 획득하는 단계;
상기 전자 장치가, 상기 적어도 하나의 비조영 컴퓨터 단층 촬영 이미지를 관심 영역 이미지 및 비관심 영역 이미지로 구분하는 단계;
상기 관심 영역 이미지와 상기 비관심 영역 이미지에 서로 다른 가중치를 적용하여 상기 인공지능 모델을 학습시키는 단계; 를 포함하는 제어 방법.
According to claim 1,
The control method is
acquiring, by the electronic device, a region of interest based on the at least one non-contrast computed tomography image;
dividing, by the electronic device, the at least one non-contrast computed tomography image into an ROI image and a non-ROI image;
training the AI model by applying different weights to the region of interest image and the image of the non-interest region; A control method comprising a.
삭제delete 삭제delete 하나 이상의 인스트럭션을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
제1 항의 방법을 수행하는, 장치.
a memory storing one or more instructions; and
a processor executing the one or more instructions stored in the memory;
The processor by executing the one or more instructions,
An apparatus for performing the method of claim 1 .
하드웨어인 컴퓨터와 결합되어, 제1 항의 방법을 수행할 수 있도록 컴퓨터에서 독출가능한 기록매체에 저장된 컴퓨터프로그램.
A computer program stored in a computer-readable recording medium in combination with a computer, which is hardware, to perform the method of claim 1.
KR1020200122302A 2020-09-22 2020-09-22 Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence KR102423048B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200122302A KR102423048B1 (en) 2020-09-22 2020-09-22 Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200122302A KR102423048B1 (en) 2020-09-22 2020-09-22 Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence

Publications (2)

Publication Number Publication Date
KR20220039307A KR20220039307A (en) 2022-03-29
KR102423048B1 true KR102423048B1 (en) 2022-07-19

Family

ID=80996460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200122302A KR102423048B1 (en) 2020-09-22 2020-09-22 Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence

Country Status (1)

Country Link
KR (1) KR102423048B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264465A (en) * 2019-06-25 2019-09-20 中南林业科技大学 A kind of dissection of aorta dynamic testing method based on morphology and deep learning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102058348B1 (en) 2017-11-21 2019-12-24 서울여자대학교 산학협력단 Apparatus and method for classification of angiomyolipoma wihtout visible fat and clear cell renal cell carcinoma in ct images using deep learning and sahpe features
KR102168485B1 (en) * 2018-10-02 2020-10-21 한림대학교 산학협력단 Endoscopic device and method for diagnosing gastric lesion based on gastric endoscopic image obtained in real time

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264465A (en) * 2019-06-25 2019-09-20 中南林业科技大学 A kind of dissection of aorta dynamic testing method based on morphology and deep learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hata, A. et al. Deep learning algorithm for detection of aortic dissection on non-contrast-enhanced CT. Eur Radiol 31, pp.1151-1159. 2020.08.28. 공개*
Xie Yutong, et al. Fusing texture, shape and deep model-learned information at decision level for automated classification of lung nodules on chest CT. Information Fusion 42(2018). 2017.10.25. 공개.*

Also Published As

Publication number Publication date
KR20220039307A (en) 2022-03-29

Similar Documents

Publication Publication Date Title
US11276497B2 (en) Diagnosis assistance system and control method thereof
US11151721B2 (en) System and method for automatic detection, localization, and semantic segmentation of anatomical objects
JP7058373B2 (en) Lesion detection and positioning methods, devices, devices, and storage media for medical images
KR101857624B1 (en) Medical diagnosis method applied clinical information and apparatus using the same
KR101864380B1 (en) Surgical image data learning system
CN109886933B (en) Medical image recognition method and device and storage medium
EP3477589B1 (en) Method of processing medical image, and medical image processing apparatus performing the method
KR20190088375A (en) Surgical image data learning system
JP6878923B2 (en) Image processing equipment, image processing system, and image processing program
US11461599B2 (en) Classification of images based on convolution neural networks
CN112561908B (en) Mammary gland image focus matching method, device and storage medium
KR20190115713A (en) Device for vessel detection and retinal edema diagnosis using multi-functional neurlal network and method for detecting and diagnosing same
KR102423048B1 (en) Control method, device and program of system for determining aortic dissection based on non-contrast computed tomography images using artificial intelligence
KR102421765B1 (en) Control method, device and program of system for determining Pulmonary Thrombo-embolism based on non-contrast computed tomography images using artificial intelligence
CN113705595A (en) Method, device and storage medium for predicting degree of abnormal cell metastasis
KR102407587B1 (en) Acute myocardial infarction judgment method, device and program
KR102446345B1 (en) Control method, apparatus and program for lesion determination system obtained by breast imaging
Purwanithami et al. Hemorrhage diabetic retinopathy detection based on fundus image using neural network and FCM segmentation
WO2022103659A1 (en) System and method for detecting medical conditions
KR102580279B1 (en) Method for providing the necessary information for a diagnosis of alzheimer's disease and apparatus for executing the method
Dharani et al. Diabetic Retinopathy classification through fundus images using Deep Learning
WO2024129894A2 (en) Detecting and quantifying hyperreflective foci (hrf) in retinal patients
KR102400525B1 (en) System control method, device and program for acquiring 3D position information based on 2D breast image
CN115397334A (en) Ultrasonic diagnostic apparatus and method for operating ultrasonic diagnostic apparatus
KR20240100003A (en) Control method of electronic device identifying filming position of capsule endoscope, computer program, and electronic device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant