KR102097743B1 - Apparatus and Method for analyzing disease based on artificial intelligence - Google Patents

Apparatus and Method for analyzing disease based on artificial intelligence Download PDF

Info

Publication number
KR102097743B1
KR102097743B1 KR1020190090280A KR20190090280A KR102097743B1 KR 102097743 B1 KR102097743 B1 KR 102097743B1 KR 1020190090280 A KR1020190090280 A KR 1020190090280A KR 20190090280 A KR20190090280 A KR 20190090280A KR 102097743 B1 KR102097743 B1 KR 102097743B1
Authority
KR
South Korea
Prior art keywords
image
disease
neural network
medical
abnormal region
Prior art date
Application number
KR1020190090280A
Other languages
Korean (ko)
Inventor
배준호
이용은
정종훈
최우식
김태규
Original Assignee
주식회사 딥노이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥노이드 filed Critical 주식회사 딥노이드
Priority to KR1020190090280A priority Critical patent/KR102097743B1/en
Application granted granted Critical
Publication of KR102097743B1 publication Critical patent/KR102097743B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

According to one embodiment disclosed in the present document, an apparatus for reading a disease based on artificial intelligence comprises: a memory including at least one instruction; and a processor. Since the at least one instruction is executed, the processor may generate a feature map image as a medical image is encoded based on one nerve network, generate a restored image on the medical image by decoding the feature map image based on the nerve network, detect an abnormal area where a disease is suspected based on a difference between the medical image and the restored image, generate an abnormal area image by cutting the abnormal area from the feature map image, and determine position information on an affected area and disease information corresponding to the abnormal area image based on another nerve network. The apparatus may generate the feature map image related to the abnormal area based on unsupervised learning.

Description

인공지능 질환 판독 장치 및 방법{Apparatus and Method for analyzing disease based on artificial intelligence}Apparatus and Method for analyzing disease based on artificial intelligence}

본 문서에서 개시되는 다양한 실시 예들은, 인공지능 기반 영상 판독 기술과 관련된다.Various embodiments disclosed in this document relate to artificial intelligence-based image reading technology.

영상전문의는 의료 영상(예: x-ray, CT 영상)을 판독하여 질병을 진단하고 판독문을 작성할 수 있다. 그런데, 한 해에 전문의 자격을 받는 의료인의 수는 한정적이고, 그 중 영상전문의(Radiologist)의 비율은 극히 낮다. 그래서, 영상전문의가 부족한 중소규모의 병원은 즉각적으로 질병진단을 하지 못하거나, 영상전문의의 노동 환경이 열악해지고 있다. 이러한 문제를 개선하고자, 영상전문의를 보조 또는 대체할 수 있는 인공지능 시스템의 관심이 늘고 있다. Imaging specialists can read medical images (eg x-rays, CT images) to diagnose diseases and write out readings. However, the number of medical practitioners qualified as a specialist in a year is limited, and among them, the proportion of radiologists is extremely low. So, small and medium-sized hospitals that lack video specialists cannot immediately diagnose diseases, or the working environment of video specialists is getting worse. To improve these problems, the interest of artificial intelligence systems that can assist or replace imaging specialists is increasing.

인공지능 시스템은 대부분 지도학습(supervised learning) 기반으로 학습을 진행한다. 예를 들어, 사람(예: 영상전문의)이 인공지능에게 정답을 알려주면, 인공지능 시스템이 데이터(예: 의료 영상)와 정답을 비교해가면서 데이터의 특성을 학습한다. 상기 정답을 만드는 과정을 레이블링(Labeling)이라고 하고 정답을 레이블(Label)이라고 한다. AI systems mostly learn based on supervised learning. For example, when a person (e.g., an imaging specialist) gives artificial intelligence the correct answer, the AI system learns the characteristics of the data by comparing the correct answer with data (e.g., medical image). The process of making the correct answer is called labeling and the correct answer is called label.

그런데, 의료 관련 레이블은 전문의만 생성할 수 있고, 레이블을 생성 가능한 전문의의 수가 적으므로, 레이블링 데이터(정답과 연관된 데이터)의 생성에 오랜 시간이 걸리고 노동량이 상당할 수 있다. 따라서, 영상전문의가 의료 영상 학습을 위하여 대량의 레이블링 작업을 하기는 어려울 수 있다. However, since medical-related labels can be generated only by specialists, and the number of specialists capable of generating labels is small, the generation of labeling data (data associated with the correct answer) may take a long time and the amount of labor may be considerable. Therefore, it may be difficult for an imaging specialist to perform a large amount of labeling work for medical image learning.

본 문서에 개시되는 다양한 실시 예들은 비지도 학습에 기반하여 비정상 영역에 관련된 특징지도 영상을 생성할 수 있는 인공지능 질환 판독 장치 및 방법을 제공할 수 있다.Various embodiments disclosed in this document may provide an apparatus and method for reading AI disease based on unsupervised learning, capable of generating feature map images related to abnormal regions.

본 문서에 개시되는 일 실시 예에 따른 인공지능 질환 판독 장치는, 적어도 하나의 인스트럭션을 포함하는 메모리; 및 프로세서를 포함하고, 상기 프로세서는, 상기 적어도 하나의 인스트럭션을 실행함에 따라, 일 신경망에 기반하여 의료 영상을 인코딩(encoding)함에 따라 특징지도 영상을 생성하고, 상기 일 신경망에 기반하여 상기 특징지도 영상을 디코딩(decoding)하여 상기 의료 영상에 대한 복원 영상을 생성하고, 상기 의료 영상과 상기 복원 영상 간의 차이에 기반하여 질환이 의심되는 비정상 영역을 검출하고, 상기 특징지도 영상에서 상기 비정상 영역을 잘라냄에 따라 비정상 영역 영상을 생성하고, 다른 신경망에 기반하여 상기 비정상 영역 영상에 대응하는 환부 위치 정보 및 질환 정보를 결정할 수 있다. An apparatus for reading AI disease according to an embodiment disclosed in the present document may include a memory including at least one instruction; And a processor, wherein the processor generates a feature map image by encoding a medical image based on one neural network as the at least one instruction is executed, and the feature map based on the one neural network. Decoding an image generates a reconstructed image for the medical image, detects an abnormal region suspected of a disease based on a difference between the medical image and the reconstructed image, and cuts the abnormal region from the feature map image An abnormal region image may be generated according to the smell, and lesion location information and disease information corresponding to the abnormal region image may be determined based on another neural network.

또한, 본 문서에 개시되는 일 실시 예에 따른 인공지능 질환 판독 방법은, 일 신경망에 기반하여 의료 영상을 인코딩(encoding)함에 따라 특징지도 영상을 생성하는 동작; 상기 일 신경망에 기반하여 상기 특징지도 영상을 디코딩(decoding)하여 복원 영상을 생성하는 동작; 상기 의료 영상과 상기 복원 영상 간에 임계치 이상 차이가 있는 영역이 존재하면, 상기 차이가 있는 영역을 비정상 영역으로 검출하는 동작; 상기 특징지도 영상에서 상기 비정상 영역을 잘라냄에 따라 비정상 영역 영상을 생성하는 동작; 및 다른 신경망에 기반하여 상기 비정상 영역 영상에 대응하는 환부 위치 정보 및 질환 정보를 결정하는 동작을 포함할 수 있다.In addition, the method for reading AI disease according to an embodiment disclosed in the present disclosure includes: generating a feature map image by encoding a medical image based on a neural network; Generating a reconstructed image by decoding the feature map image based on the neural network; Detecting an area having a difference as an abnormal area when an area having a difference of a threshold or more exists between the medical image and the reconstructed image; Generating an abnormal region image by cutting the abnormal region from the feature map image; And determining location information and disease information corresponding to the abnormal region image based on another neural network.

본 문서에 개시되는 다양한 실시 예들에 따르면, 비지도 학습에 기반하여 비정상 영역에 관련된 특징지도 영상을 생성할 수 있으므로, 학습을 위한 레이블링 작업량을 줄일 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.According to various embodiments disclosed in the present document, a feature map image related to an abnormal region may be generated based on unsupervised learning, so that the amount of labeling work for learning can be reduced. In addition, various effects that can be directly or indirectly identified through this document may be provided.

도 1은 일 실시예에 따른 인공지능 질환 판독 장치의 구현 환경을 나타낸다.
도 2는 일 실시예에 따른 인공지능 질환 판독 장치의 구성도를 나타낸다.
도 3은 일 실시예에 따른 인공지능 질환 판독 방법의 제1 흐름도를 나타낸다.
도 4는 일 실시예에 따른 인공지능 질환 판독 방법의 제2 흐름도를 나타낸다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
1 shows an implementation environment of an AI disease reading apparatus according to an embodiment.
2 is a block diagram of an AI disease reading apparatus according to an embodiment.
3 is a first flowchart of an AI disease reading method according to an embodiment.
4 is a second flowchart of an AI disease reading method according to an embodiment.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.

도 1은 일 실시예에 따른 인공지능 질환 판독 장치의 구현 환경을 나타낸다.1 shows an implementation environment of an AI disease reading apparatus according to an embodiment.

일 실시예에 따르면, 의료 기록 저장 장치(100)는 의료 영상을 획득 및 저장하는 컴퓨팅 장치로서, 의료 영상을 적어도 하나의 네트워크를 통해 인공지능 질환 판독 장치(200)로 송신할 수 있다. 예를 들어, 의료 기록 저장 장치(100)는 의료 영상 및 의료 영상에 대한 판독문 생성 요청을 인공지능 질환 판독 장치(200)로 송신할 수 있다. 상기 의료 기록 저장 장치(100)는 x선 촬영장치, 컴퓨터단층촬영장치(CT), 자기공명촬영장치(MRI), 초음파 영상 기기, 내시경 촬영기 중 적어도 하나를 포함하는 촬영 장치일 수 있다. 상기 의료 기록 저장 장치(100)는 의료기관, 의료연구기관, 및 건강보험공단과 같은 기관의 의료 기록 저장 시스템(예: PACS(picture archiving communication system), EMR(electronic medical record) 시스템)을 포함할 수 있다. 상기 의료 영상은 예를 들면, x-ray 영상, CT 영상, MRI 영상, 초음파 영상 및 내시경 영상과 같은 진단방사선과 영상을 포함할 수 있다. 다양한 실시예에 따르면, 의료 기록 저장 장치(100)는 의료기록에 관련된 전자문서를 인공지능 질환 판독 장치(200)에 송신할 수 있다. According to an embodiment, the medical record storage device 100 is a computing device that acquires and stores a medical image, and may transmit the medical image to the AI disease reading device 200 through at least one network. For example, the medical record storage device 100 may transmit a request for generating a medical image and a reading statement for the medical image to the AI disease reading device 200. The medical record storage device 100 may be an imaging device including at least one of an x-ray imaging device, a computed tomography (CT) device, a magnetic resonance imaging device (MRI), an ultrasound imaging device, and an endoscopic imaging device. The medical record storage device 100 may include a medical record storage system (eg, picture archiving communication system (PACs), electronic medical record (EMR) system) of an institution such as a medical institution, a medical research institution, and a health insurance corporation. have. The medical image may include, for example, diagnostic radiation and images such as x-ray images, CT images, MRI images, ultrasound images, and endoscopy images. According to various embodiments, the medical record storage device 100 may transmit an electronic document related to the medical record to the AI disease reading device 200.

일 실시예에 따르면, 인공지능 질환 판독 장치(200)는 의료 기록 저장 장치(100)로부터 의료 영상(하나 또는 복수의 의료 영상들)을 획득하고, 복수의 신경망들에 기반하여 의료 영상에 관련된 질환 여부를 판독하고 의료 영상에 대한 판독 결과를 의료 기록 저장 장치(100)에 송신할 수 있다.According to an embodiment, the AI disease reading device 200 obtains a medical image (one or more medical images) from the medical record storage device 100 and based on a plurality of neural networks, the disease related to the medical image Whether to read and transmit the result of reading the medical image to the medical record storage device 100.

인공지능 질환 판독 장치(200)는 제1 신경망(또는, 오토 인코더(auto encoder) 알고리즘)에 기반하여 획득된 의료 영상에 포함된 비정상 영역(예: 질환 의심 영역)를 검출할 수 있다. 상기 제1 신경망은 비지도 학습 기반의 신경망으로서 예를 들면, Stacked auto encoder(AE) 및 VAE(Variational Auto-Encoder) 알고리즘에 기반하여 결정된 것일 수 있다. 상기 제1 신경망은 질환이 없는 동물(또는, 사람)에 관련된 복수의 의료 영상(이하, "정상 학습 영상"이라 함)들을 인코딩(encording)한 후 인코딩된 영상을 복원하는 과정을 반복하면서 정상 학습 영상의 특징들을 추출 가능하도록 결정된 것일 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 제1 신경망에 기반하여 의료 영상(입력 영상)을 차원 축소 인코딩한 후 인코딩된 영상을 복원하고, 입력 영상과 복원 영상 간에 임계치 이상의 차이가 있는 영역을 비정상 영역으로 검출할 수 있다. 인공지능 질환 판독 장치(200)는 제1 신경망에 기반하여 의료 영상으로부터 비정상 영역을 검출하면, 의료 영상의 인코딩 과정에서 생성된 특징지도 영상에서 비정상 영역에 대응하는 영역을 추출(예: crop)하여 비정상 영역 영상을 생성할 수 있다.The apparatus for reading AI disease 200 may detect an abnormal region (eg, a disease suspect region) included in a medical image obtained based on a first neural network (or an auto encoder algorithm). The first neural network is an unsupervised learning-based neural network, and may be determined based on, for example, a stacked auto encoder (AE) and a VAE (Variational Auto-Encoder) algorithm. The first neural network is normal learning while repeating a process of encoding a plurality of medical images (hereinafter referred to as "normal learning images") related to an animal (or human) without disease, and then restoring the encoded images. It may be determined to extract characteristics of an image. For example, the AI disease reading apparatus 200 reconstructs an encoded image after dimensionally encoding a medical image (input image) based on the first neural network, and an area having a difference of a threshold value or more between the input image and the reconstructed image Can be detected as an abnormal area. The AI disease reading apparatus 200 extracts (eg, crops) an area corresponding to the abnormal area from the feature map image generated in the encoding process of the medical image when detecting the abnormal region from the medical image based on the first neural network An abnormal region image can be generated.

인공지능 질환 판독 장치(200)는 제2 신경망에 기반하여 비정상 영역에 대응하는 환부 위치 정보를 결정할 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 제2 신경망에 기반하여 비정상 영역에 관련된 특징지도 영상과 복수의 제1 기준 영상들 간의 유사도를 확인함에 따라, 비정상 영역에 대응하는 환부 위치 정보를 결정할 수 있다. 상기 복수의 제1 기준 영상들은 질환이 없는 복수의 신체 부위들을 촬영한 영상의 특징지도 영상(또는, 상기 촬영한 영상)으로서, 각기 복수의 신체 부위 명칭(예: 두부, 흉부, 복부)들과 관련(예: 레이블링)된 영상일 수 있다. 상기 환부 위치 정보는 예를 들면, 신체 부위 명칭, 상, 하, 좌 및 우와 같은 방향 정보 중 적어도 하나를 포함할 수 있다.The apparatus for reading AI disease 200 may determine the location information of the affected area corresponding to the abnormal region based on the second neural network. For example, the artificial intelligence disease reading apparatus 200 checks the degree of similarity between the feature map image related to the abnormal region and the plurality of first reference images based on the second neural network, thereby providing the affected part location information corresponding to the abnormal region. Can decide. The plurality of first reference images are feature map images (or the captured images) of images of a plurality of body parts having no disease, respectively, and a plurality of body part names (eg, head, chest, abdomen) It may be a related (eg, labeled) image. The affected part location information may include at least one of body part names, direction information such as upper, lower, left and right, for example.

인공지능 질환 판독 장치(200)는 제3 신경망에 기반하여 비정상 영역에 대응하는 질환 정보를 결정할 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 제3 신경망에 기반하여 비정상 영역 영상과 복수의 제2 기준 영상들 간의 유사도를 확인함에 따라 비정상 영역에 대응하는 질환 정보를 결정할 수 있다. 상기 복수의 제2 기준 영상들은 예를 들면, 각기 복수의 질환이 있는 신체 부위(또는, 신체기관)를 촬영한 영상의 특징지도 영상(또는, 상기 촬영한 영상)으로서, 각기 복수의 질환 명칭들과 관련된 영상일 수 있다. 다른 예를 들어, 인공지능 질환 판독 장치(200)는 복수의 제2 기준 영상들과 비정상 영역 영상 간의 유사도에 기반하여 질환 정보를 확인할 수 없으면, 비정상 소견 정보를 출력할 수 있다.The AI disease reading apparatus 200 may determine disease information corresponding to the abnormal region based on the third neural network. For example, the AI disease reading apparatus 200 may determine disease information corresponding to the abnormal region by checking the similarity between the abnormal region image and the plurality of second reference images based on the third neural network. The plurality of second reference images are, for example, feature map images (or the photographed images) of images of body parts (or body organs) having a plurality of diseases, respectively, and a plurality of disease names It may be a video related to. For another example, if the disease information cannot be identified based on the similarity between the plurality of second reference images and the abnormal region image, the AI disease reading apparatus 200 may output abnormal finding information.

인공지능 질환 판독 장치(200)는 제4 신경망에 기반하여 의료 영상에 대응하는 질환 정보 및 환부 위치 정보를 설명하는 판독문(문장)을 생성할 수 있다. 상기 제4 신경망은 딥러닝 기반의 RNN(recurrent neural network) 또는 기억소자 형태를 활용한 LSTM(Long Short Term Memory Model)에 기반하여 의료 기록에 관련된 전자 문서를 학습함에 따라 결정된 것일 수 있다. 상기 판독문은 예를 들면, 제1 신경망에 기반하여 결정된 제1 정보(예: 검출/미검출 안내 정보), 제2 신경망에 기반하여 결정된 환부의 생물 조직학적 위치를 나타내는 제2 정보(예: 환부 위치 정보) 및 제3 신경망에 기반하여 확인된 질환 유무를 나타내는 제3 정보(예: 질환 정보 또는 비정상 소견 정보) 중 적어도 하나를 포함하는 텍스트일 수 있다.The AI disease reading apparatus 200 may generate a reading statement (sentence) describing disease information corresponding to a medical image and location information on the affected area based on the fourth neural network. The fourth neural network may be determined by learning an electronic document related to medical records based on a deep learning-based recurrent neural network (LNN) or a long short term memory model (LSTM) utilizing a memory device type. The readout may include, for example, first information determined based on the first neural network (eg, detection / non-detection guidance information), and second information indicating the biohistological location of the affected area determined based on the second neural network (eg, affected area) It may be text including at least one of location information) and third information (eg, disease information or abnormal finding information) indicating presence or absence of a disease identified based on the third neural network.

인공지능 질환 판독 장치(200)는 의료 영상에 대한 분석 결과 데이터를 의료 기록 저장 장치(100)에 제공할 수 있다. 상기 분석 결과 데이터는 예를 들면, 판독문, 마스킹 영상, 연산된 점수(예: 유사도 확률) 및 각 신경망의 연산결과(예: 각종 그래프) 중 적어도 하나를 출력할 수 있다. 상기 마스킹 영상은 의료 영상 또는 특징지도 영상에 중첩되어, 비정상 영역을 예컨대, 히트 맵(heat map) 형태 또는 점 오브젝트로 표시할 수 있다.The AI disease reading device 200 may provide analysis result data for a medical image to the medical record storage device 100. The analysis result data may output, for example, at least one of a readout, a masking image, a calculated score (eg, similarity probability), and a calculation result of each neural network (eg, various graphs). The masking image is superimposed on the medical image or the feature map image, and the abnormal region may be displayed, for example, in the form of a heat map or a point object.

의료 기록 저장 장치(100)는 인공지능 질환 판독 장치(200)로부터 분석 결과 데이터를 수신하면, 의료 영상과 관련하여 저장할 수 있다. 이후, 분석 결과 데이터는 의료 영상에 대한 분석 결과 데이터를 필요로 하는 대상(예: 전문의)에 의하여 검토되거나, 다른 머신 러닝을 위한 레이블링 데이터로 이용될 수 있다. When the analysis result data is received from the AI disease reading device 200, the medical record storage device 100 may store it in connection with a medical image. Thereafter, the analysis result data may be reviewed by an object (eg, a specialist) who needs analysis result data for a medical image, or used as labeling data for other machine learning.

또한, 상술한 실시예에 따르면, 인공지능 질환 판독 장치(200)는 영상전문의의 업무를 보조 또는 대체할 수 있으므로, 영상전문의가 상대적으로 많은 대형병원과 그렇지 못한 소형병원 간의 격차를 줄일 수 있다. In addition, according to the above-described embodiment, since the AI disease reading apparatus 200 can assist or replace the work of an imaging specialist, it is possible to close a gap between a large number of large hospitals and small hospitals where imaging specialists do not.

더 나아가, 상술한 실시예에 따르면, 인공지능 질환 판독 장치(200)는 영상전문의의 업무량을 줄이고, 의료 서비스의 대상을 확대할 수 있어, 결과적으로 의료 서비스의 질을 향상시킬 수 있다.Furthermore, according to the above-described embodiment, the AI disease reading apparatus 200 can reduce the workload of an imaging specialist and expand the target of medical services, resulting in improved quality of medical services.

도 2는 일 실시예에 따른 인공지능 질환 판독 장치의 구성도를 나타낸다.2 is a block diagram of an AI disease reading apparatus according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 인공지능 질환 판독 장치(200)는 통신 회로(210), 메모리(220) 및 프로세서(230)를 포함할 수 있다. 일 실시 예에서, 인공지능 질환 판독 장치(200)는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함할 수 있다. 또한, 인공지능 질환 판독 장치(200)의 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다. Referring to FIG. 2, the apparatus for reading AI disease 200 according to an embodiment may include a communication circuit 210, a memory 220, and a processor 230. In one embodiment, the AI disease reading apparatus 200 may omit some components or further include additional components. In addition, some of the components of the AI disease reading apparatus 200 are combined to be composed of one individual, and the functions of the corresponding components before combining may be performed in the same way.

통신 회로(210)는 인공지능 질환 판독 장치(200)와 다른 장치(예: 의료 기록 저장 장치(100)) 간의 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 회로(210)는 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 다른 장치(의료 기록 저장 장치(100))와 통신할 수 있다.The communication circuit 210 may support the establishment of a communication channel or a wireless communication channel between the AI disease reading device 200 and another device (eg, the medical record storage device 100), and performing communication through the established communication channel. have. The communication circuit 210 may include a wireless communication module (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (eg, a local area network (LAN) communication module, or power line Communication module). The corresponding communication module among these communication modules may be a first network (eg, a short-range communication network such as Bluetooth, WiFi direct, or an infrared data association (IrDA)) or a second network (eg, a cellular network, the Internet, or a computer network (eg, a LAN). Or it may communicate with other devices (medical record storage device 100) through a telecommunication network (WAN).

메모리(220)는 인공지능 질환 판독 장치(200)의 적어도 하나의 구성요소(예: 프로세서(230))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는 예를 들어, 소프트웨어 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 예를 들어, 메모리(220)는 의료 영상에 포함된 비정상 영역, 질환 정보 및 환부 위치 정보를 검출 가능한 적어도 하나의 인스트럭션을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.The memory 220 may store various data used by at least one component (eg, the processor 230) of the AI disease reading device 200. The data can include, for example, input data or output data for software and related commands. For example, the memory 220 may store at least one instruction capable of detecting abnormal region, disease information, and lesion location information included in the medical image. The memory 220 may include volatile memory or nonvolatile memory.

프로세서(230)는 상기 적어도 하나의 인스트럭션을 실행함에 따라 인공지능 질환 판독 장치(200)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 프로세서(230)는 예를 들어, 중앙처리장치(CPU), 그래픽처리장치(GPU), 마이크로프로세서, 애플리케이션 프로세서(application processor), 주문형 반도체(ASIC(application specific integrated circuit), FPGA(field programmable gate arrays)) 중 적어도 하나를 포함할 수 있으며, 복수의 코어를 가질 수 있다.The processor 230 may control at least one other component (eg, hardware or software component) of the AI disease reading apparatus 200 as executing the at least one instruction, and perform various data processing or calculations. Can be done. The processor 230 includes, for example, a central processing unit (CPU), a graphics processing unit (GPU), a microprocessor, an application processor, an application specific integrated circuit (ASIC), and field programmable gate arrays (FPGAs). )), And may have a plurality of cores.

프로세서(230)는 획득부(231), 전처리부(233), 판독부(235), 판독문 생성부(237) 및 결과 작성부(239)를 포함할 수 있다. 획득부(231), 전처리부(233), 판독부(235), 판독문 생성부(237) 및 결과 작성부(239)는 각기 별도의 하드웨어 모듈이거나, 또는 적어도 하나의 프로세서에 의하여 구현되는 소프트웨어 구성요소일 수 있다. 예를 들어, 획득부(231), 전처리부(233), 판독부(235), 판독문 생성부(237) 및 결과 작성부(239)가 수행하는 기능은 하나의 프로세서에 의하여 수행되거나, 각각 별도의 프로세서에 의하여 수행될 수 있다. The processor 230 may include an acquisition unit 231, a pre-processing unit 233, a reading unit 235, a reading statement generation unit 237, and a result writing unit 239. The acquisition unit 231, the pre-processing unit 233, the reading unit 235, the reading statement generation unit 237, and the result creation unit 239 are separate hardware modules, or software components implemented by at least one processor It can be an element. For example, functions performed by the acquiring unit 231, the pre-processing unit 233, the reading unit 235, the reading statement generating unit 237, and the result writing unit 239 are performed by one processor or separately. It can be performed by the processor.

일 실시예에 따르면, 획득부(231)는 통신 회로(210)를 통해 의료 기록 저장 장치(예: 도 1의 의료 기록 저장 장치(100))로부터 지정된 방식으로 영상 데이터를 획득하고, 획득된 영상 데이터를 메모리(220)에 저장할 수 있다. 예를 들어, 획득부(231)는 의료 기록 저장 장치(100)로부터 바이너리 파일(binary file)을 비동기 방식으로 획득하고, 획득된 바이너리 파일을 메모리(220)의 메시지 큐(message queue)에 저장할 수 있다. 획득부(231)는 상기 저장된 바이너리 파일을 지정된 포맷의 영상(예: JPEG)으로 변환할 수 있다. 상술한 실시예에서, 획득부(231)는 메시지 큐 방식으로 영상 데이터를 송수신함에 따라 영상 데이터의 송수신 속도를 향상시킬 수 있고, 영상 데이터의 처리 부하를 개선할 수 있다. 상기 의료 영상은 예를 들면, x-ray 영상, CT 영상, MRI 영상, 초음파 영상 및 내시경 영상과 같은 진단방사선과 영상을 포함할 수 있다. 상기 의료 기록 저장 장치(100)는 EMR(electronic medical record) 시스템을 포함할 수 있다. According to an embodiment, the acquisition unit 231 acquires image data in a specified manner from a medical record storage device (eg, the medical record storage device 100 of FIG. 1) through the communication circuit 210, and the acquired image Data may be stored in the memory 220. For example, the acquisition unit 231 may acquire a binary file from the medical record storage device 100 in an asynchronous manner, and store the obtained binary file in a message queue of the memory 220 have. The acquisition unit 231 may convert the stored binary file into an image (eg, JPEG) of a specified format. In the above-described embodiment, the acquiring unit 231 may improve the transmission / reception speed of the image data and the processing load of the image data by transmitting and receiving the image data in a message queue method. The medical image may include, for example, diagnostic radiation and images such as x-ray images, CT images, MRI images, ultrasound images, and endoscopy images. The medical record storage device 100 may include an electronic medical record (EMR) system.

일 실시예에 따르면, 전처리부(233)는 메모리(220)로부터 의료 영상을 획득하고, 획득된 의료 영상을 전처리하여 자체 포맷으로 변환할 수 있다. 상기 포맷의 변환은 스케일(크기, 해상도), 콘트라스트, 밝기, 칼라 밸런스, 휴(hue)/saturation에 대한 일관성을 유지하기 위한 것일 수 있다. 상기 포맷의 변환은 측정(또는, 촬영 과정)에서 발생한 노이즈 제거를 위한 것일 수 있다. 상기 지정된 변환은 전경과 배경 간의 대비를 강화하기 위한 것일 수 있다. 예를 들어, 전처리부(233)는 의료 영상의 해상도를 지정된 해상도로 변환하고, 의료 영상의 크기를 지정된 크기로 변환할 수 있다. 전처리부(233)는 수신된 3차원 의료 영상을 2차원 영상으로 변환함에 따라 영상의 차원을 축소할 수 있다. 다른 예를 들어, 전처리부(233)는 의료 영상의 강도(또는, 밝기)(intensity) 값을 분석하여 히스토그램(histogram)을 구성하고, 구성된 히스토그램을 기반으로 의료 영상에 대한 히스토그램 균일화(histogram equalization)를 수행할 수 있다. 상기 균일화된 영상은 사물과 배경 사이의 대비가 강화될 수 있다. 이와 달리, 전처리부(233)는 의료 영상에 포함된 강도 값들 중에서 지정된 강도 값이 강조되도록 의료 영상에 대한 히스토그램 균일화를 수행할 수 있다. 예를 들어, 전처리부(233)는 의료 영상에 포함된 오브젝트들 중 분류에 이용될 오브젝트에 대응하는 강도 값이 강조되도록(예: 커지도록) 히스토그램 균일화를 수행할 수 있다. 또 다른 예로, 전처리부(233)는 통계 기반 데이터에 기반하여 의료 영상으로부터 노이즈를 제거할 수 있다. 예를 들면, 의료 영상은 환자 또는 측정기(예: CT 촬영기, MRI 촬영기)의 움직임으로 인한 노이즈를 포함하는데, 상기 움직임으로 인하여 영상에 발생된 노이즈는 일정 패턴을 가진다. 이에, 전처리부(233)는 메모리(220)에 저장된 보정 데이터에 기반하여 의료 영상에 포함된 상기 움직임으로 인한 노이즈를 제거(예: bias correction)할 수 있다. 상기 보정 데이터는 상기 움직임으로 인한 노이즈의 일정 패턴을 제거할 수 있도록 마련될 수 있다. According to an embodiment, the pre-processing unit 233 may acquire a medical image from the memory 220 and pre-process the obtained medical image to convert it into its own format. The format conversion may be to maintain consistency for scale (size, resolution), contrast, brightness, color balance, and hue / saturation. The format conversion may be for removing noise generated during measurement (or a photographing process). The designated conversion may be to enhance contrast between the foreground and the background. For example, the pre-processing unit 233 may convert the resolution of the medical image to a specified resolution and the size of the medical image to a specified size. The pre-processing unit 233 may reduce the dimension of the image by converting the received 3D medical image into a 2D image. For another example, the pre-processing unit 233 analyzes the intensity (or intensity) value of the medical image to construct a histogram, and histogram equalization for the medical image based on the configured histogram. You can do In the uniformized image, contrast between an object and a background may be enhanced. Alternatively, the pre-processing unit 233 may perform a histogram equalization on the medical image so that the designated intensity value is emphasized among the intensity values included in the medical image. For example, the pre-processing unit 233 may perform histogram equalization such that an intensity value corresponding to an object to be used for classification among objects included in the medical image is emphasized (eg, increased). As another example, the pre-processor 233 may remove noise from the medical image based on statistical data. For example, the medical image includes noise due to movement of a patient or a measuring device (eg, CT imager, MRI imager), and noise generated in the image due to the motion has a certain pattern. Accordingly, the pre-processor 233 may remove noise (eg, bias correction) due to the motion included in the medical image based on the correction data stored in the memory 220. The correction data may be provided to remove a certain pattern of noise due to the movement.

판독부(235)는 제1 신경망에 기반하여 정규화(또는, 전처리)된 영상에 포함된 비정상 영역(예: 질환 의심 영역)를 검출할 수 있다. 상기 제1 신경망은 비지도 학습 기반의 신경망으로서 예를 들면, Stacked auto encoder(AE) 및 VAE(Variational Auto-Encoder) 알고리즘에 기반하여 결정된 것일 수 있다. 상기 제1 신경망은 예를 들면, Resnet(residual network), Desenet(densely connected convolutional networks) 및 Mobilenet 중 적어도 하나의 신경망 알고리즘의 조합으로 구성될 수 있다. 상기 제1 신경망은 질환이 없는 신체(예: 사람 또는 동물의 신체)에 관련된 복수의 의료 영상(이하, "정상 학습 영상"이라 함)들을 인코딩(encoding)한 후 인코딩된 영상을 복원하는 과정을 반복하면서 정상 학습 영상의 특징들을 추출 가능하도록 결정된 것일 수 있다. 상기 정상 학습 영상은 복수 종류의 신체 부위(예: 뇌, 복부, 흉부)에 관한 복수 종류의 의료 영상(예: x-ray 영상, CT 영상, MRI 영상)들을 포함할 수 있다. 예를 들어, 판독부(235)는 제1 신경망에 기반하여 정규화된 영상(입력 영상)을 차원 축소 인코딩한 후 인코딩된 영상을 복원하고, 입력 영상과 복원 영상 간에 임계치 이상의 차이가 있는 영역을 비정상 영역으로 검출할 수 있다. 제1 신경망은 정상 학습 영상에 기반하여 결정된 것이므로, 제1 신경망에 기반하여 비정상 영역을 포함하는 의료 영상을 인코딩하는 경우, 입력 영상과 출력 영상 간의 차이는 클 수 있다. 이에, 판독부(235)는 이러한 차이를 이용하여 의료 영상으로부터 정상적이지 않은 것으로 의심되는 비정상 영역을 용이하게 검출할 수 있다. 상술한 실시예에 따르면, 판독부(235)는 질환에 대한 정보 없이 비지도 학습에 기반하여 의료 영상으로부터 비정상 영역의 특징점들을 검출할 수 있으므로, 비정상 영역의 특징점들을 검출하기 위한 신경망 설계(또는, 결정) 시에 수많은 질환 종류 별로 일일이 확인하여 생성된 레이블링된 학습 데이터를 필요로 하던, 종래의 질환 검출 알고리즘의 문제점을 개선할 수 있다.The reader 235 may detect an abnormal region (eg, a suspected disease region) included in the normalized (or preprocessed) image based on the first neural network. The first neural network is an unsupervised learning-based neural network, and may be determined based on, for example, a stacked auto encoder (AE) and a VAE (Variational Auto-Encoder) algorithm. The first neural network may be configured by, for example, a combination of at least one neural network algorithm among Resnet (residual network), Desenet (densely connected convolutional networks), and Mobilenet. The first neural network encodes a plurality of medical images (hereinafter referred to as "normal learning images") related to a disease-free body (eg, a human or animal body) and restores the encoded image. It may be determined to be able to extract features of the normal learning image while repeating. The normal learning image may include a plurality of medical images (eg, x-ray images, CT images, MRI images) of a plurality of body parts (eg, brain, abdomen, and chest). For example, the reading unit 235 reconstructs the encoded image after dimensionally encoding the normalized image (input image) based on the first neural network, and abnormally detects an area having a difference of a threshold value or more between the input image and the reconstructed image. Can be detected as an area. Since the first neural network is determined based on the normal learning image, when encoding a medical image including an abnormal region based on the first neural network, the difference between the input image and the output image may be large. Accordingly, the reading unit 235 can easily detect an abnormal area suspected of being abnormal from the medical image using the difference. According to the above-described embodiment, since the reading unit 235 can detect feature points of the abnormal region from the medical image based on unsupervised learning without information about the disease, a neural network design (or, for detecting feature points of the abnormal region) Decision) It is possible to improve the problems of the conventional disease detection algorithm, which requires labeled learning data generated by checking each disease type at a time.

판독부(235)는 제1 신경망에 기반하여 정규화된 영상으로부터 비정상 영역을 검출하면, 정규화된 영상을 인코딩하는 과정에서 추출된 특징지도 영상에서 출력 영상의 비정상 영역에 대응하는 영역을 확인할 수 있다. 판독부(235)는 확인된 영역을 지정된 형상(예: 사각형)으로 잘라냄(crop)에 따라 비정상 영역 영상을 생성할 수 있다. 이 같이, 비정상 영역 영상은 특징지도 영상의 일부 영역 영상일 수 있다. 다양한 실시예에 따르면, 판독부(235)는 확인된 영역에 포함된 특징점들을 비정상 영역에 대응하는 특징점들로 레이블링(labeling)할 수 있다. 판독부(235)는 정규화된 영상으로부터 상기 비정상 영역을 검출한 경우에는 검출 안내 정보를 생성하고, 정규화된 영상으로부터 상기 비정상 영역을 검출하지 못한 경우에는 미검출 안내 정보를 생성할 수 있다.When the detection unit 235 detects an abnormal region from the normalized image based on the first neural network, the reader 235 may check an area corresponding to the abnormal region of the output image in the feature map image extracted in the process of encoding the normalized image. The reader 235 may generate an abnormal area image according to a crop of the identified area into a specified shape (eg, a square). As such, the abnormal region image may be a partial region image of the feature map image. According to various embodiments, the reading unit 235 may label feature points included in the identified region with feature points corresponding to the abnormal region. The reading unit 235 may generate detection guide information when the abnormal region is detected from the normalized image, and generate non-detection guide information when the abnormal region is not detected from the normalized image.

판독부(235)는 제2 신경망에 기반하여 비정상 영역에 대응하는 환부 위치 정보를 확인할 수 있다. 상기 제2 신경망은 고속 연산 가능한 알고리즘 예를 들면, Mobilenet 알고리즘 및 Xception 알고리즘 중 적어도 하나의 알고리즘에 기반하여 결정된 것일 수 있다. 상기 특징지도 영상은 복수 계층의 특징지도 영상들을 조합(예: 하나의 영상으로 합침)한 것이므로, 해당 특징지도 영상들을 한꺼번에 연산하려면, 처리 시간이 길어질 수 있다. 하지만, 제2 신경망은 적어도 하나의 알고리즘에 기반하여 복수 계층의 특징지도 영상들의 차원을 줄여가면서 특징점들을 추출(depthwise separable convolution)함에 따라 빠르게 특징지도 영상으로부터 신체 부위를 검출할 수 있다. 상기 제2 신경망은 다른 예를 들면, 질환이 없는 복수의 신체 부위들에 관련된 복수의 제1 기준 영상을 학습함에 따라 결정될 수 있다. 상기 복수의 제1 기준 영상들은 예를 들면, 질환이 없는 복수의 신체 부위들에 대한 촬영 영상(신체 부위 영상)들에 관련된 특징지도 영상(또는, 상기 촬영 영상)일 수 있다. 상기 제1 기준 영상들은 각기 복수의 신체 부위 명칭(예: 두부, 흉부, 복부)들과 관련(예: 레이블링)된 영상일 수 있다. 예를 들어, 판독부(235)는 제2 신경망에 기반하여 비정상 영역 영상과 복수의 제1 기준 영상들 간의 유사도를 확인할 수 있다. 판독부(235)는 상기 비정상 영역 영상과 제1 지정된 유사도 이상 유사한 제1 기준 영상을 확인하면, 확인된 제1 기준 영상에 관련된 레이블 데이터에 기반하여 비정상 영역에 대응하는 환부 위치 정보를 생성할 수 있다. 상기 환부 위치 정보는 예를 들면, 신체 부위 명칭, 상, 하, 좌 및 우와 같은 방향 정보 중 적어도 하나를 포함할 수 있다. 상기 방향 정보는 확인된 신체 부위에서 상, 하, 좌 및 우측 중 어느 방향에 위치하는지를 나타내는 정보일 수 있다. The reading unit 235 may check the location information of the affected area corresponding to the abnormal region based on the second neural network. The second neural network may be determined based on at least one of a high-speed computational algorithm, for example, a Mobilenet algorithm and an Xception algorithm. Since the feature map images are a combination of multiple layer feature map images (eg, merged into one image), to calculate the feature map images all at once, the processing time may be long. However, the second neural network may rapidly detect a body part from the feature map image by extracting feature points while reducing the dimension of the multi-layer feature map images based on at least one algorithm. The second neural network may be determined by learning a plurality of first reference images related to a plurality of body parts having no disease, for example. The plurality of first reference images may be, for example, a feature map image (or the photographed image) related to photographed images (body image) of a plurality of body parts without disease. The first reference images may be images associated with a plurality of body part names (eg, head, chest, and abdomen) (eg, labeled). For example, the reading unit 235 may check the similarity between the abnormal region image and the plurality of first reference images based on the second neural network. When the reader 235 checks the first reference image similar to the abnormality region image and the first designated similarity degree or higher, based on the label data related to the identified first reference image, the readout location information corresponding to the abnormal region may be generated. have. The affected part location information may include at least one of body part names, direction information such as upper, lower, left and right, for example. The direction information may be information indicating which of the upper, lower, left and right directions is located in the identified body part.

판독부(235)는 제3 신경망에 기반하여 비정상 영역에 대응하는 질환 정보를 결정할 수 있다. 상기 제3 신경망은 예를 들면, Resnet 기반의 분류기로서, 질환 정보를 분류하도록 지도 학습에 기반한 학습 결과로 생성된 것일 수 있다. 상기 제3 신경망은 다른 예를 들면, 질환이 있는 복수의 신체 부위에 관련된 제2 기준 영상들을 학습함에 따라 생성된 것일 수 있다. 상기 복수의 제2 기준 영상들은 예를 들면, 각기 각기 질환이 있는 복수의 신체 부위(또는, 신체기관)에 대한 촬영 영상에 관련된 특징지도 영상(또는, 상기 촬영 영상)일 수 있다. 상기 복수의 제2 기준 영상들은 각기 복수의 질환 명칭들과 관련(예: 레이블링)될 수 있다. 예를 들어, 판독부(235)는 제3 신경망에 기반하여 비정상 영역 영상과 복수의 제2 기준 영상들 간의 유사도를 확인하고, 비정상 영역 영상과 제2 지정된 유사도 이상 유사한 제2 기준 영상을 확인하면, 확인된 제2 기준 영상에 관련된 레이블 데이터에 기반하여 비정상 영역에 대응하는 질환 정보를 결정할 수 있다. 한편, 판독부(235)는 복수의 제2 기준 영상들 중 비정상 영역 영상과 제2 지정된 유사도 이상 유사한 제2 기준 영상을 확인할 수 없으면, 비정상 소견 정보를 생성할 수 있다. 상술한 실시예에서, 판독부(235)는 환부 위치 정보 및 비정상 소견 정보를 상기 비정상 영역 영상과 관련하여 생성할 수 있다.The reading unit 235 may determine disease information corresponding to the abnormal region based on the third neural network. The third neural network is, for example, a Resnet-based classifier, and may be generated as a learning result based on supervised learning to classify disease information. The third neural network may be generated by learning second reference images related to a plurality of body parts having a disease, for example. The plurality of second reference images may be, for example, a feature map image (or the captured image) related to a captured image of a plurality of body parts (or body organs) each having a disease. The plurality of second reference images may be associated with a plurality of disease names (eg, labeling). For example, if the reader 235 checks the similarity between the abnormal region image and the plurality of second reference images based on the third neural network, and if the second reference image is similar to the abnormal region image and the second designated similarity or higher, , Disease information corresponding to an abnormal region may be determined based on label data related to the identified second reference image. On the other hand, if the second reference image similar to the second designated similarity or higher than the abnormal region image among the plurality of second reference images cannot be identified, the reading unit 235 may generate abnormal finding information. In the above-described embodiment, the reading unit 235 may generate lesion location information and abnormal finding information in relation to the abnormal region image.

판독문 생성부(237)는 제4 신경망에 기반하여 의료 영상에 대응하는 질환 정보 및 환부 위치 정보를 설명하는 판독문(문장)을 생성할 수 있다. 상기 제4 신경망은 딥러닝 기반의 RNN(recurrent neural network) 또는 기억소자 형태를 활용한 LSTM(Long Short Term Memory Model)에 기반하여 의료 기록에 관련된 전자 문서를 학습함에 따라 생성된 것일 수 있다. 상기 판독문은 예를 들면, 제1 신경망에 기반하여 결정된 제1 정보(예: 검출/미검출 안내 정보), 제2 신경망에 기반하여 결정된 환부의 생물 조직학적 위치를 나타내는 제2 정보(예: 환부 위치 정보) 및 제3 신경망에 기반하여 확인된 질환 유무를 나타내는 제3 정보(예: 질환 정보 또는 비정상 소견 정보) 중 적어도 하나를 포함하는 텍스트일 수 있다. 예를 들어, 판독문 생성부(237)는 비정상 영역 영상에 기반하여 생성된 환부 위치 정보 및 질환 정보를 확인하면, 환부 위치 정보 및 질환 정보를 설명하는 판독문을 특징지도 생성할 수 있다. 다른 예를 들어, 판독문 생성부(237)는 의료 영상에 기반하여 생성된 미검출 안내 정보를 확인하면, 정상 상태임을 안내하는 판독문을 생성할 수 있다. 또 다른 예로, 판독문 생성부(237)는 의료 영상에 기반하여 환부 위치 정보 또는 질환 정보를 결정할 수 없을 경우에는 비정상 소견 정보를 안내하는 판독문을 작성할 수 있다.The reading statement generation unit 237 may generate a reading statement (sentence) describing disease information corresponding to a medical image and location information of a lesion based on the fourth neural network. The fourth neural network may be generated by learning electronic documents related to medical records based on a deep learning-based recurrent neural network (RNN) or a long short term memory model (LSTM) utilizing a memory device type. The readout may include, for example, first information determined based on the first neural network (eg, detection / non-detection guidance information), and second information indicating the biohistological location of the affected area determined based on the second neural network (eg, affected area) It may be text including at least one of location information) and third information (eg, disease information or abnormal finding information) indicating presence or absence of a disease identified based on the third neural network. For example, the readout generating unit 237 may generate a feature map of a readout statement describing the affected location information and the disease information, when confirming the affected location information and disease information generated based on the abnormal region image. For another example, if the undetected guide information generated based on the medical image is checked, the read statement generation unit 237 may generate a read statement to guide the normal state. As another example, the reading statement generation unit 237 may create a reading statement that guides abnormal finding information when it is not possible to determine the location information or the disease information based on the medical image.

판독문 생성부(237)는 의료 영상, 특징지도 영상 또는 비정상 영역 영상 중 적어도 하나의 영상과 관련되도록 상기 판독문을 생성할 수 있다. 예를 들어, 판독문 생성부(237)는 판독문 상의 어느 정보(예: 제2 정보)가 선택되면, 비정상 영역 영상이 표시될 수 있도록(open) 판독문을 생성할 수 있다. 상술한 실시예에서, 종래 기술에서는 단순히 템플릿 내에 신체 부위, 질환 정보를 기입하는 단순한 형태의 판독문을 제공할 뿐이었지만, 판독문 생성부(237)는 전문가에 의해 작성된 전자 문서를 머신 러닝에 기반하여 학습함에 따라 상기 전자 문서와 유사한 수준의 복합 문장 형태의 판독문을 생성할 수 있다.  The reading statement generation unit 237 may generate the reading statement to be associated with at least one of a medical image, a feature map image, or an abnormal area image. For example, if any information (eg, second information) on the readout is selected, the readout generation unit 237 may generate a readout so that the abnormal region image is displayed. In the above-described embodiment, the prior art merely provided a simple form of reading text in which body parts and disease information are written in the template, but the reading text generating unit 237 learns electronic documents created by experts based on machine learning. By doing so, it is possible to generate a read sentence in the form of a compound sentence similar to the level of the electronic document.

결과 작성부(239)는 의료 영상에 대한 분석 결과 데이터를 생성할 수 있다. 상기 분석 결과 데이터는 예를 들면, 판독문, 의료 영상, 특징 지도 영상, 마스킹 영상(예: 비정상 영역 영상), 각 신경망의 연산 점수(예: 유사도 확률) 및 각 신경망의 연산 결과(예: 각종 그래프) 중 적어도 하나를 포함할 수 있다. 상기 마스킹 영상은 의료 영상(또는 특징지도 영상)에 중첩되어, 비정상 영역을 예컨대, 히트 맵(heat map) 형태 또는 점 오브젝트로 표시할 수 있다. 예를 들어, 결과 작성부(239)는 판독문을 표시하고, 판독문의 일정 영역(예: 판독부의 상단, 특정 텍스트)을 선택하면, 의료 영상, 마스킹 영상, 연관된 점수 및 각 신경망의 연산결과 중 적어도 하나를 선택적으로 표시 가능한 상기 분석 결과 데이터를 생성할 수 있다. The result creation unit 239 may generate analysis result data for a medical image. The analysis result data includes, for example, read statements, medical images, feature map images, masking images (eg, abnormal area images), computational scores of each neural network (eg, similarity probability), and computational results of each neural network (eg, various graphs) ). The masking image is superimposed on a medical image (or feature map image), and the abnormal region may be displayed, for example, in the form of a heat map or a point object. For example, when the result creation unit 239 displays a reading statement and selects a certain region of the reading statement (eg, a top portion of the reading portion, specific text), at least one of a medical image, a masking image, an associated score, and a calculation result of each neural network The analysis result data capable of selectively displaying one may be generated.

결과 작성부(239)는 지정된 양식에 맞추어 분석 결과 데이터를 인공지능 질환 판독 장치(200)의 디스플레이 또는 의료 기록 저장 장치(100)를 통해 제공(예: 표시)할 수 있다. 예를 들어, 결과 작성부(239)는 지정된 웹 페이지를 통해 지정된 포맷으로 분석 결과 데이터를 의료 기록 저장 장치(100)에 표시할 수 있다. The result creation unit 239 may provide (eg, display) the analysis result data according to a designated form through the display of the AI disease reading device 200 or the medical record storage device 100. For example, the result creation unit 239 may display the analysis result data in the specified format through the designated web page on the medical record storage device 100.

상술한 실시예에 따르면, 인공지능 질환 판독 장치(200)는 질환이 없는 신체의 의료 영상을 학습한 신경망에 기반하여 의료 영상으로부터 비정상 영역 및 비정상 영역에 대응하는 특징지도 영상을 검출할 수 있다. 이 같이, 인공지능 질환 판독 장치(200)는 비지도 학습에 기반하므로 의료 영상으로부터 비정상 영역 및 비정상 영역의 특징점들을 추출하기 위하여 대용량 레이블링 데이터를 필요로 하던 종래의 문제점을 개선할 수 있다. According to the above-described embodiment, the artificial intelligence disease reading apparatus 200 may detect a feature map image corresponding to an abnormal region and an abnormal region from the medical image based on a neural network learning a medical image of the body without the disease. As described above, since the AI disease reading apparatus 200 is based on unsupervised learning, it is possible to improve a conventional problem that requires large-capacity labeling data to extract abnormal regions and feature points of abnormal regions from medical images.

또한, 인공지능 질환 판독 장치(200)는 비지도 학습에 기반하여 추출된 특징지도 영상 중 일부 영역(비정상 영역 영상)만을 이용하여 비정상 영역에 대응하는 환부 위치 정보 및 질환 정보를 결정할 수 있으므로, 환부 위치 및 질환 결정을 위한 연산량을 줄일 수 있다.In addition, the AI disease reading apparatus 200 may determine the affected part location information and the disease information corresponding to the abnormal region using only some regions (non-normal region images) of the feature map images extracted based on unsupervised learning, so It is possible to reduce the amount of computation for determining location and disease.

뿐만 아니라, 인공지능 질환 판독 장치(200)는 의료 영상으로부터 환부 위치 정보 또는 질환 정보를 검출하지 못하더라도, 비정상 영역 정보 및 이상 소견 정보를 출력할 수 있다. 따라서, 종래 모든 의료 영상을 확인해야 했던 영상전문의가 비정상 영역이 검출된 의료 영상만을 확인하도록 지원할 수 있어, 영상전문의의 업무량을 크게 줄일 수 있다.In addition, the AI disease reading apparatus 200 may output abnormal area information and abnormal finding information even if it is unable to detect the affected part location information or the disease information from the medical image. Therefore, an imaging specialist who had to check all medical images in the related art can support to check only the medical image in which the abnormal region has been detected, thereby greatly reducing the workload of the imaging specialist.

도 3은 일 실시예에 따른 인공지능 질환 판독 방법의 제1 흐름도를 나타낸다.3 is a first flowchart of an AI disease reading method according to an embodiment.

도 3을 참조하면, 동작 310에서, 인공지능 질환 판독 장치(200)는 제1 신경망에 기반하여 의료 영상을 인코딩(encoding)함에 따라 특징지도 영상을 생성할 수 있다. 상기 제1 신경망은 질환이 없는 신체(예: 사람)에 관련된 복수의 의료 영상(이하, "정상 학습 영상"이라 함)들을 인코딩(encording) 후 복원하는 과정을 반복하여 정상 학습 영상의 특징들을 추출 가능하도록 결정된 것일 수 있다. 동작 310에서, 의료 영상은 전처리됨에 따라 지정된 포맷으로 정규화된 영상일 수 있다.Referring to FIG. 3, in operation 310, the apparatus for reading AI disease 200 may generate a feature map image by encoding a medical image based on the first neural network. The first neural network extracts features of a normal learning image by repeating a process of encoding and restoring a plurality of medical images (hereinafter referred to as "normal learning images") related to a disease-free body (eg, a person). It may have been determined to be possible. In operation 310, the medical image may be an image normalized to a designated format as it is preprocessed.

동작 320에서, 인공지능 질환 판독 장치(200)는 제1 신경망에 기반하여 특징지도 영상을 디코딩(decoding)하여 의료 영상에 대한 복원 영상을 생성할 수 있다. In operation 320, the AI disease reading apparatus 200 may generate a reconstructed image for the medical image by decoding the feature map image based on the first neural network.

동작 330에서, 인공지능 질환 판독 장치(200)는 상기 의료 영상과 상기 복원 영상 간의 차이에 기반하여 질환이 의심되는 비정상 영역을 검출할 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 의료 영상과 복원 영상 간에 임계치 이상의 차이가 있는 영역이 있으면, 확인된 영역을 비정상 영역으로 검출할 수 있다.In operation 330, the artificial intelligence disease reading apparatus 200 may detect an abnormal area in which a disease is suspected based on a difference between the medical image and the reconstructed image. For example, the AI disease reading apparatus 200 may detect the identified region as an abnormal region when there is an area having a difference of a threshold or more between the medical image and the reconstructed image.

동작 340에서, 인공지능 질환 판독 장치(200)는 특징지도 영상에서 상기 복원 영상의 비정상 영역에 대응하는 영역을 잘라냄에 따라 비정상 영역 영상을 생성할 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 특징지도 영상 중에서 복원 영상의 비정상 영역을 지정된 형상(예: 사각형)으로 잘라냄(crop)에 따라 비정상 영역 영상을 생성할 수 있다. In operation 340, the artificial intelligence disease reading apparatus 200 may generate an abnormal region image by cutting an area corresponding to the abnormal region of the reconstructed image from the feature map image. For example, the AI disease reading apparatus 200 may generate an abnormal region image according to a cropping of an abnormal region of the reconstructed image in a specified shape (eg, a rectangle) among the feature map images.

동작 350에서, 인공지능 질환 판독 장치(200)는 비정상 영역 영상을 제2 및 제3 신경망에 입력하고, 제2 신경망 및 제3 신경망에 기반하여 비정상 영역에 대응하는 환부 위치 정보 및 질환 정보를 결정할 수 있다. In operation 350, the artificial intelligence disease reading apparatus 200 inputs an abnormal region image into the second and third neural networks, and determines the affected area location information and the disease information corresponding to the abnormal region based on the second neural network and the third neural network. You can.

도 4는 일 실시예에 따른 인공지능 질환 판독 방법의 제2 흐름도를 나타낸다.4 is a second flowchart of an AI disease reading method according to an embodiment.

도 4를 참조하면, 동작 410에서, 인공지능 질환 판독 장치(200)는 다른 전자 장치(예: 의료 기록 저장 장치(예: 도 1의 의료 기록 저장 장치(100)) 또는 자체 메모리(예: 도 2의 메모리(220)))로부터 의료 영상을 획득할 수 있다. 다른 전자 장치는 x선 촬영장치, 컴퓨터단층촬영장치(CT), 자기공명촬영장치(MRI), 초음파 영상 기기, 내시경 촬영기 중 적어도 하나를 포함하는 촬영 장치일 수 있다. 의료 기록 저장 장치(100)는 PACS(picture archiving communication system), EMR(electronic medical record) 시스템을 포함할 수 있다. 상기 의료 영상은 예를 들면, x-ray 영상, CT 영상, MRI 영상, 초음파 영상 및 내시경 영상과 같은 진단방사선과 영상을 포함할 수 있다. Referring to FIG. 4, in operation 410, the AI disease reading device 200 may be another electronic device (eg, a medical record storage device (eg, the medical record storage device 100 of FIG. 1)) or its own memory (eg, FIG. 2, memory 220)). Another electronic device may be an imaging device including at least one of an x-ray imaging apparatus, a computed tomography (CT) apparatus, a magnetic resonance imaging apparatus (MRI), an ultrasound imaging apparatus, and an endoscopic imaging apparatus. The medical record storage device 100 may include a picture archiving communication system (PAC) and an electronic medical record (EMR) system. The medical image may include, for example, diagnostic radiation and images such as x-ray images, CT images, MRI images, ultrasound images, and endoscopy images.

동작 420에서, 인공지능 질환 판독 장치(200)는 획득된 의료 영상을 전처리하여 자체 포맷으로 변환할 수 있다. 상기 포맷의 변환은 예를 들면, 스케일(크기, 해상도), 콘트라스트, 밝기, 칼라 밸런스, 휴(hue)/saturation에 대한 일관성을 유지하기 위한 것일 수 있다. 상기 포맷의 변환은 측정(또는, 촬영 과정)에서 발생한 노이즈 제거를 위한 것일 수 있다. 상기 지정된 변환은 전경과 배경 간의 대비를 강화하기 위한 것일 수 있다.In operation 420, the AI disease reading apparatus 200 may preprocess the obtained medical image and convert it into its own format. The format conversion may be, for example, to maintain consistency for scale (size, resolution), contrast, brightness, color balance, and hue / saturation. The format conversion may be for removing noise generated during measurement (or a photographing process). The designated conversion may be to enhance contrast between the foreground and the background.

동작 430에서, 인공지능 질환 판독 장치(200)는 제1 신경망에 기반하여 정규화된 영상에서 비정상 영역을 검출할 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 질환이 없는 적어도 하나의 신체에 대한 학습으로 결정된 제1 신경망에 기반하여 정규화된 영상(입력 영상)을 차원 축소 인코딩한 후 인코딩된 영상을 복원할 수 있다. 인공지능 질환 판독 장치(200)는 입력 영상과 복원 영상 간에 임계치 이상의 차이가 있는 영역을 확인하면, 확인된 영역을 비정상 영역으로 검출할 수 있다. 인공지능 질환 판독 장치(200)는 상기 인코딩을 통해 생성된 특징지도 영상에서 출력 영상의 비정상 영역에 대응하는 영역을 잘라내어 비정상 영역 영상을 생성할 수 있다. 동작 430에서, 인공지능 질환 판독 장치(200)는 상기 비정상 영역을 검출한 경우에는 검출 안내 정보를 생성하고, 상기 비정상 영역을 검출하지 못한 경우에는 미검출 안내 정보를 생성할 수 있다.In operation 430, the AI disease reading apparatus 200 may detect an abnormal region in the normalized image based on the first neural network. For example, the AI disease reading apparatus 200 may dimensionally encode the normalized image (input image) based on the first neural network determined by learning about at least one body without disease, and then restore the encoded image. You can. The AI disease reading apparatus 200 may detect the identified region as an abnormal region when a region having a difference of a threshold value or more between the input image and the reconstructed image is identified. The AI disease reading apparatus 200 may generate an abnormal region image by cutting an area corresponding to the abnormal region of the output image from the feature map image generated through the encoding. In operation 430, the artificial intelligence disease reading apparatus 200 may generate detection guidance information when the abnormal region is detected, and generate non-detection guidance information when the abnormal region is not detected.

동작 440에서, 인공지능 질환 판독 장치(200)는 제2 신경망에 기반하여 비정상 영역에 대응하는 환부 위치 정보를 결정할 수 있다. 상기 제2 신경망은 예를 들면, 질환이 없는 복수의 신체 부위들에 관련된 복수의 제1 기준 영상을 학습함에 따라 결정될 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 제2 신경망에 기반하여 비정상 영역 영상과 복수의 제1 기준 영상들 간의 유사도를 확인함에 따라 비정상 영역에 대응하는 환부 위치 정보를 생성할 수 있다. 상기 환부 위치 정보는 예를 들면, 신체 부위 명칭, 상, 하, 좌 및 우와 같은 방향 정보 중 적어도 하나를 포함할 수 있다. In operation 440, the AI disease reading apparatus 200 may determine the affected part location information corresponding to the abnormal region based on the second neural network. The second neural network may be determined, for example, by learning a plurality of first reference images related to a plurality of body parts without disease. For example, the artificial intelligence disease reading apparatus 200 may generate lesion location information corresponding to the abnormal region by checking the similarity between the abnormal region image and the plurality of first reference images based on the second neural network. The affected part location information may include at least one of body part names, direction information such as upper, lower, left and right, for example.

동작 450에서, 인공지능 질환 판독 장치(200)는 제3 신경망에 기반하여 비정상 영역에 대응하는 질환 정보를 결정할 수 있다. 상기 제3 신경망은 예를 들면, 질환이 있는 복수의 신체 부위에 관련된 제2 기준 영상들을 학습함에 따라 생성된 것일 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 제3 신경망에 기반하여 비정상 영역 영상과 복수의 제2 기준 영상들 간의 유사도를 확인함에 따라 비정상 영역에 대응하는 질환 정보를 결정할 수 있다. 동작 450에서, 인공지능 질환 판독 장치(200)는 비정상 영역 영상과 제2 지정된 유사도 이상 유사한 제2 기준 영상을 확인할 수 없으면, 비정상 소견 정보를 생성할 수 있다. In operation 450, the artificial intelligence disease reading apparatus 200 may determine disease information corresponding to the abnormal region based on the third neural network. The third neural network may be, for example, generated by learning second reference images related to a plurality of diseased body parts. For example, the AI disease reading apparatus 200 may determine disease information corresponding to the abnormal region by checking the similarity between the abnormal region image and the plurality of second reference images based on the third neural network. In operation 450, if the AI disease reading apparatus 200 cannot identify the second reference image similar to the abnormality region image and the second designated similarity or higher, the abnormality finding information may be generated.

동작 460에서, 인공지능 질환 판독 장치(200)는 제4 신경망에 기반하여 의료 영상에 대응하는 질환 정보 및 환부 위치 정보를 설명하는 판독문(문장)을 생성할 수 있다. 상기 제4 신경망은 의료 기록에 관련된 전자 문서를 학습함에 따라 결정된 것일 수 있다. 상기 판독문은 예를 들면, 제1 신경망에 기반하여 결정된 제1 정보(예: 검출/미검출 안내 정보), 제2 신경망에 기반하여 결정된 환부의 생물 조직학적 위치를 나타내는 제2 정보(예: 환부 위치 정보) 및 제2 신경망에 기반하여 확인된 질환 유무를 나타내는 제3 정보(예: 질환 정보 또는 비정상 소견 정보) 중 적어도 하나를 포함하는 텍스트일 수 있다. 인공지능 질환 판독 장치(200)는 의료 영상, 특징지도 영상 또는 비정상 영역 영상 중 적어도 하나의 영상과 관련되도록 상기 판독문을 생성할 수 있다. In operation 460, the artificial intelligence disease reading apparatus 200 may generate a reading statement (sentence) describing disease information corresponding to the medical image and location information of the affected area based on the fourth neural network. The fourth neural network may be determined by learning electronic documents related to medical records. The readout may include, for example, first information determined based on the first neural network (eg, detection / non-detection guidance information), and second information indicating the biohistological location of the affected area determined based on the second neural network (eg, affected area) It may be text including at least one of location information) and third information (eg, disease information or abnormal finding information) indicating presence or absence of a disease identified based on the second neural network. The apparatus for reading AI disease 200 may generate the reading statement to be associated with at least one of a medical image, a feature map image, or an abnormal region image.

동작 470에서, 인공지능 질환 판독 장치(200)는 의료 영상에 대한 분석 결과 데이터를 다른 전자 장치에 제공할 수 있다. 상기 분석 결과 데이터는 예를 들면, 판독문, 의료 영상, 마스킹 영상(예: 비정상 영역 영상), 각 신경망의 연산 점수(예: 유사도 확률) 및 각 신경망의 연산결과(예: 각종 그래프) 중 적어도 하나를 포함할 수 있다. 상기 마스킹 영상은 의료 영상 또는 특징지도 영상에 중첩되어, 비정상 영역을 예컨대, 히트 맵(heat map) 형태 또는 점 오브젝트로 표시할 수 있다. 예를 들어, 인공지능 질환 판독 장치(200)는 지정된 웹 페이지를 통해 지정된 포맷으로 분석 결과 데이터를 의료 기록 저장 장치(100)에 제공할 수 있다. In operation 470, the AI disease reading device 200 may provide analysis result data for a medical image to another electronic device. The analysis result data may include, for example, at least one of a readout, a medical image, a masking image (eg, an abnormal region image), a calculation score of each neural network (eg, similarity probability), and a calculation result of each neural network (eg, various graphs). It may include. The masking image is superimposed on the medical image or the feature map image, and the abnormal region may be displayed, for example, in the form of a heat map or a point object. For example, the AI disease reading device 200 may provide analysis result data to the medical record storage device 100 in a designated format through a designated web page.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나”, "A, B 또는 C", "A, B 및 C 중 적어도 하나” 및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that various embodiments of the document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, and include various modifications, equivalents, or substitutes of the embodiment. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly indicates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C" and "A, Each of the phrases such as “at least one of B or C” may include any of the items listed together in the corresponding phrase of the phrases, or any possible combination thereof. Terms such as “first”, “second”, or “first” or “second” can be used to simply distinguish a component from other components, and to separate components from other aspects (eg, importance or Order). Any (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the term “functionally” or “communically” When mentioned, it means that any of the above components can be connected directly to the other components (eg, by wire), wirelessly, or through a third component.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.As used herein, the term "module" may include units implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits. The module may be an integrally configured component or a minimum unit of the component or a part thereof performing one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 인공지능 질환 판독 장치) 의해 읽을 수 있는 저장 매체(storage medium)(예: 메모리(220))(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 인공지능 질환 판독 장치(200))의 프로세서(예: 프로세서(230)는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are one stored in a storage medium (eg, memory 220) (eg, internal memory or external memory) readable by a machine (eg, AI disease reading device). It may be implemented as software (eg, a program) including the above instructions. For example, a processor (eg, processor 230) of a device (eg, AI disease reading device 200) may call and execute at least one of one or more instructions stored from a storage medium. This enables the device to be operated to perform at least one function according to the at least one instruction called, wherein the one or more instructions may include code generated by a compiler or code executable by an interpreter. The storage medium readable by the device may be provided in the form of a non-transitory storage medium, where 'non-transitory' is a device in which the storage medium is tangible, and a signal ( For example, it does not include electromagnetic waves), and this term is used when data is stored semi-permanently and temporarily. Does not distinguish right.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, a method according to various embodiments disclosed in this document may be provided as being included in a computer program product. Computer program products are commodities that can be traded between sellers and buyers. The computer program product is distributed in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store TM ) or two user devices ( It can be distributed (eg, downloaded or uploaded) directly or online between smartphones). In the case of online distribution, at least a portion of the computer program product may be stored at least temporarily in a storage medium readable by a device such as a memory of a manufacturer's server, an application store's server, or a relay server, or may be temporarily generated.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a singular or a plurality of entities. According to various embodiments, one or more components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, modules or programs) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components the same or similar to that performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, or omitted Or, one or more other actions can be added.

Claims (8)

의료 영상에 포함된 비정상 영역, 질환 정보 및 환부 위치 정보를 검출하기 위한 적어도 하나의 인스트럭션을 포함하는 메모리;
비지도 학습 기반의 제1 신경망에 기반하여 상기 의료 영상을 인코딩(encoding)함에 따라 특징지도 영상을 생성하고, 상기 제1 신경망에 기반하여 상기 특징지도 영상을 디코딩(decoding)하여 상기 의료 영상에 대한 복원 영상을 생성하고, 상기 의료 영상과 상기 복원 영상 간의 차이에 기반하여 질환이 의심되는 비정상 영역을 검출하고, 상기 특징지도 영상에서 상기 비정상 영역을 잘라냄에 따라 비정상 영역 영상을 생성하고, 제2 신경망에 기반하여 상기 비정상 영역에 대응하는 환부 위치 정보를 결정하고, 제3 신경망에 기반하여 상기 비정상 영역에 대응하는 질환 정보를 결정하는 판독부; 및
의료 기록에 관련된 전자 문서를 학습함에 따라 생성된 제4 신경망에 기반하여 상기 질환 정보 및 상기 환부 위치 정보를 설명하는 판독문을 생성하는 판독문 생성부를 포함하며,
상기 제1 신경망은,
비지도 학습 기반의 신경망으로서 Stacked auto encoder(AE) 및 VAE(Variational Auto-Encoder) 알고리즘에 기반하여 결정된 상태이며, Resnet(residual network), Desenet(densely connected convolutional networks) 및 Mobilenet 중 적어도 하나의 신경망 알고리즘의 조합으로 구성되며, 질환이 없는 적어도 하나의 신체에 대한 복수의 의료 영상들을 학습함에 따라 결정된 것을 특징으로 하는 인공지능 질환 판독 장치.
A memory including at least one instruction for detecting abnormal region, disease information, and lesion location information included in the medical image;
A feature map image is generated by encoding the medical image based on a first neural network based on non-supervised learning, and the feature map image is decoded based on the first neural network for the medical image. A reconstructed image is generated, an abnormal area in which a disease is suspected is detected based on a difference between the medical image and the reconstructed image, and an abnormal region image is generated by cutting the abnormal region from the feature map image. A reading unit for determining location information corresponding to the abnormal region based on a neural network and determining disease information corresponding to the abnormal region based on a third neural network; And
And a readout generating unit for generating a readout describing the disease information and the affected position information based on a fourth neural network generated by learning an electronic document related to a medical record,
The first neural network,
As a non-supervised learning-based neural network, it is determined based on a stacked auto encoder (AE) and a VAE (Variational Auto-Encoder) algorithm, and at least one neural network algorithm among Resnet (residual network), Desenet (densely connected convolutional networks) and Mobilenet It is composed of a combination, AI disease reading apparatus characterized in that determined by learning a plurality of medical images for at least one body without a disease.
청구항 1에 있어서,
상기 판독부는,
상기 제2 신경망에 기반하여 상기 비정상 영역에 관련된 특징지도 영상과 복수의 제1 기준 영상들 간의 유사도를 확인하여, 상기 비정상 영역에 대응하는 환부 위치 정보를 결정하며,
상기 복수의 제1 기준 영상들은,
질환이 없는 복수의 신체 부위들을 촬영한 영상의 특징지도 영상이며,
상기 환부 위치 정보는,
신체 부위 명칭 및 방향 정보 중 적어도 하나를 포함하는 것을 특징으로 하 인공지능 질환 판독 장치.
The method according to claim 1,
The reading unit,
On the basis of the second neural network, the similarity between the feature map image related to the abnormal region and a plurality of first reference images is checked to determine affected location information corresponding to the abnormal region,
The plurality of first reference images,
It is a feature map image of images of multiple body parts without disease,
The affected part location information,
And it characterized in that it comprises at least one of the body parts and direction designation information AI disease reading apparatus.
청구항 1에 있어서,
상기 판독부는,
상기 제3 신경망에 기반하여 상기 비정상 영역 영상과 복수의 제2 기준 영상들 간의 유사도를 확인하여, 상기 비정상 영역에 대응하는 질환 정보를 결정하며,
상기 복수의 제2 기준 영상들은,
질환이 있는 복수의 신체 부위들을 촬영한 영상의 특징지도 영상인 것을 특징으로 하는 인공지능 질환 판독 장치.
The method according to claim 1,
The reading unit,
Determine the disease information corresponding to the abnormal region by checking the similarity between the abnormal region image and a plurality of second reference images based on the third neural network,
The plurality of second reference images,
AI disease reading device, characterized in that the feature map image of an image of a plurality of body parts with a disease.
청구항 1에 있어서,
의료 기록 저장 장치로부터 바이너리 파일 형태의 상기 의료 영상을 비동기 방식으로 획득하고, 상기 획득된 바이너리 파일을 상기 메모리의 메시지 큐에 저장하는 획득부; 및
상기 획득된 바이너리 파일 형태의 의료 영상을 전처리하여 정규화된 의료 영상을 생성하는 전처리부를 더 포함하는 것을 특징으로 하는 인공지능 질환 판독 장치.
The method according to claim 1,
An acquiring unit acquiring the medical image in the form of a binary file from a medical record storage device in an asynchronous manner and storing the obtained binary file in a message queue of the memory; And
And preprocessing the acquired medical image in the form of a binary file to generate a normalized medical image.
청구항 4에 있어서,
상기 판독문의 일정 영역을 선택할 때, 상기 의료 영상, 상기 특징지도 영상, 상기 비정상 영역 영상, 각 신경망의 연산 점수 및 각 신경망의 연산 결과 중 적어도 하나를 선택적으로 표시 가능한 분석 결과 데이터를 생성하는 결과 작성부를 더 포함하는 것을 특징으로 하는 인공지능 질환 판독 장치.
The method according to claim 4,
When selecting a certain area of the reading statement, writing a result of generating analysis result data capable of selectively displaying at least one of the medical image, the feature map image, the abnormal region image, the computational score of each neural network, and the computational results of each neural network Artificial intelligence disease reading device further comprising a wealth.
삭제delete 삭제delete 판독부에 의해, 비지도 학습 기반의 제1 신경망에 기반하여 의료 영상을 인코딩함에 따라 특징지도 영상을 생성하는 단계;
상기 판독부에 의해, 상기 제1 신경망에 기반하여 상기 특징지도 영상을 디코딩하여 상기 의료 영상에 대한 복원 영상을 생성하는 단계;
상기 판독부에 의해, 상기 의료 영상과 상기 복원 영상 간에 임계치 이상 차이가 있는 영역이 존재 할 때 , 상기 차이가 있는 영역을 비정상 영역으로 검출하는 단계;
상기 판독부에 의해, 상기 특징지도 영상에서 상기 비정상 영역을 잘라냄에 따라 비정상 영역 영상을 생성하는 단계;
상기 판독부에 의해, 제2 신경망에 기반하여 상기 비정상 영역에 대응하는 환부 위치 정보를 결정하는 단계;
상기 판독부에 의해, 제3 신경망에 기반하여 상기 비정상 영역에 대응하는 질환 정보를 결정하는 단계; 및
판독문 생성부에 의해, 의료 기록에 관련된 전자 문서를 학습함에 따라 생성된 제4 신경망에 기반하여 상기 질환 정보 및 상기 환부 위치 정보를 설명하는 판독문을 생성하는 단계를 포함하며,
상기 제1 신경망은,
비지도 학습 기반의 신경망으로서 Stacked auto encoder 및 VAE 알고리즘에 기반하여 결정된 상태이며, Resnet, Desenet 및 Mobilenet 중 적어도 하나의 신경망 알고리즘의 조합으로 구성되며, 질환이 없는 적어도 하나의 신체에 대한 복수의 의료 영상들을 학습함에 따라 결정된 것을 특징으로 하는 인공지능 질환 판독 방법.
Generating a feature map image by encoding a medical image based on a first neural network based on unsupervised learning by the reading unit ;
Generating a reconstructed image of the medical image by decoding the feature map image based on the first neural network by the reading unit ;
Detecting , by the reading unit, the region having the difference as an abnormal region when a region having a threshold difference or more exists between the medical image and the reconstructed image ;
Generating an abnormal area image by cutting the abnormal area from the feature map image by the reading unit ;
Determining, by the reading unit, lesion location information corresponding to the abnormal region based on a second neural network;
Determining, by the reading unit, disease information corresponding to the abnormal region based on a third neural network; And
And generating, by the readout generating unit, a readout describing the disease information and the affected area location information based on a fourth neural network generated by learning an electronic document related to a medical record,
The first neural network,
As a non-supervised learning-based neural network, it is determined based on a stacked auto encoder and a VAE algorithm, and consists of a combination of at least one neural network algorithm among Resnet, Desenet, and Mobilenet, and includes multiple medical images of at least one body without disease AI disease reading method, characterized in that determined by learning them.
KR1020190090280A 2019-07-25 2019-07-25 Apparatus and Method for analyzing disease based on artificial intelligence KR102097743B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190090280A KR102097743B1 (en) 2019-07-25 2019-07-25 Apparatus and Method for analyzing disease based on artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190090280A KR102097743B1 (en) 2019-07-25 2019-07-25 Apparatus and Method for analyzing disease based on artificial intelligence

Publications (1)

Publication Number Publication Date
KR102097743B1 true KR102097743B1 (en) 2020-04-06

Family

ID=70282149

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190090280A KR102097743B1 (en) 2019-07-25 2019-07-25 Apparatus and Method for analyzing disease based on artificial intelligence

Country Status (1)

Country Link
KR (1) KR102097743B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065925A1 (en) * 2020-09-25 2022-03-31 서울대학교병원 Method and apparatus for assisting diagnosis of cardioembolic stroke by using chest radiographic images
KR102389628B1 (en) * 2021-07-22 2022-04-26 주식회사 클라리파이 Apparatus and method for medical image processing according to pathologic lesion property
KR102442591B1 (en) * 2022-01-24 2022-09-13 주식회사 에어스메디컬 Method, program, and apparatus for generating label
WO2022203119A1 (en) * 2021-03-25 2022-09-29 주식회사 에어스 메디컬 System and method for restoring and transmitting medical image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180040287A (en) * 2016-10-12 2018-04-20 (주)헬스허브 System for interpreting medical images through machine learnings
KR101857624B1 (en) * 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same
KR101911061B1 (en) * 2018-03-26 2018-10-23 주식회사 대곤코퍼레이션 System of product defect discrimination using an unsupervised learning based regional convolutional auto-encoder and Method of product defect discrimination using an unsupervised learning based regional convolutional auto-encoder
KR20180138107A (en) * 2017-06-19 2018-12-28 한국과학기술원 Explainable computer­aided diagnosis system and the method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180040287A (en) * 2016-10-12 2018-04-20 (주)헬스허브 System for interpreting medical images through machine learnings
KR20180138107A (en) * 2017-06-19 2018-12-28 한국과학기술원 Explainable computer­aided diagnosis system and the method thereof
KR101857624B1 (en) * 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same
KR101911061B1 (en) * 2018-03-26 2018-10-23 주식회사 대곤코퍼레이션 System of product defect discrimination using an unsupervised learning based regional convolutional auto-encoder and Method of product defect discrimination using an unsupervised learning based regional convolutional auto-encoder

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065925A1 (en) * 2020-09-25 2022-03-31 서울대학교병원 Method and apparatus for assisting diagnosis of cardioembolic stroke by using chest radiographic images
WO2022203119A1 (en) * 2021-03-25 2022-09-29 주식회사 에어스 메디컬 System and method for restoring and transmitting medical image
KR20220133465A (en) * 2021-03-25 2022-10-05 주식회사 에어스 메디컬 System and method for restoring and transmitting medical images
KR102475392B1 (en) * 2021-03-25 2022-12-07 주식회사 에어스메디컬 System and method for restoring and transmitting medical images
KR102389628B1 (en) * 2021-07-22 2022-04-26 주식회사 클라리파이 Apparatus and method for medical image processing according to pathologic lesion property
KR102442591B1 (en) * 2022-01-24 2022-09-13 주식회사 에어스메디컬 Method, program, and apparatus for generating label

Similar Documents

Publication Publication Date Title
KR102097743B1 (en) Apparatus and Method for analyzing disease based on artificial intelligence
US10810735B2 (en) Method and apparatus for analyzing medical image
Tilve et al. Pneumonia detection using deep learning approaches
US10452957B2 (en) Image classification apparatus, method, and program
CN107545309B (en) Image quality scoring using depth generation machine learning models
EP3511942A2 (en) Cross-domain image analysis and cross-domain image synthesis using deep image-to-image networks and adversarial networks
JP6885517B1 (en) Diagnostic support device and model generation device
US11398304B2 (en) Imaging and reporting combination in medical imaging
US10366488B2 (en) Image processing used to estimate abnormalities
CN109492547B (en) Nodule identification method and device and storage medium
CN113947681A (en) Method, apparatus and medium for segmenting medical images
CN111008957A (en) Medical information processing method and device
Eslami et al. Automatic vocal tract landmark localization from midsagittal MRI data
US20230260652A1 (en) Self-Supervised Machine Learning for Medical Image Analysis
CN111226287A (en) Method for analyzing a medical imaging dataset, system for analyzing a medical imaging dataset, computer program product and computer readable medium
Sridhar et al. Lung Segment Anything Model (LuSAM): A Prompt-integrated Framework for Automated Lung Segmentation on ICU Chest X-Ray Images
KR20230049938A (en) Method and apparatus for quantitative analysis of emphysema
Waseem Sabir et al. FibroVit—Vision transformer-based framework for detection and classification of pulmonary fibrosis from chest CT images
US20240193781A1 (en) Contrast state determination device, contrast state determination method, and program
WO2023032438A1 (en) Regression estimation device and method, program, and trained model generation method
US20220398723A1 (en) Calculation method, calculation device, and computer-readable recording medium
KR102553060B1 (en) Method, apparatus and program for providing medical image using spine information based on ai
US20220108124A1 (en) Information processing system, information processing apparatus, information processing method, and non-transitory storage medium
US20230293094A1 (en) Method,apparatus and computer program for reading rotator cuff tear state or muscle fat degeneration disorder based on artificial intelligence
CN117218135A (en) Method and related equipment for segmenting plateau pulmonary edema chest film focus based on transducer

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant