KR101887194B1 - Method for facilitating dignosis of subject based on medical imagery thereof, and apparatus using the same - Google Patents

Method for facilitating dignosis of subject based on medical imagery thereof, and apparatus using the same Download PDF

Info

Publication number
KR101887194B1
KR101887194B1 KR1020180070722A KR20180070722A KR101887194B1 KR 101887194 B1 KR101887194 B1 KR 101887194B1 KR 1020180070722 A KR1020180070722 A KR 1020180070722A KR 20180070722 A KR20180070722 A KR 20180070722A KR 101887194 B1 KR101887194 B1 KR 101887194B1
Authority
KR
South Korea
Prior art keywords
information
medical image
computing device
learning model
image
Prior art date
Application number
KR1020180070722A
Other languages
Korean (ko)
Inventor
이재연
김병수
지현
박세진
정규환
서준범
김남국
Original Assignee
주식회사 뷰노
주식회사 코어라인소프트
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노, 주식회사 코어라인소프트, 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 주식회사 뷰노
Priority to KR1020180070722A priority Critical patent/KR101887194B1/en
Application granted granted Critical
Publication of KR101887194B1 publication Critical patent/KR101887194B1/en
Priority to PCT/KR2018/014305 priority patent/WO2019103440A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/3233
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for supporting the reading of a medical image of a subject and a computing apparatus using the same. Specifically, the computing apparatus according to the present invention acquires the medical image of the subject, generates reading assistance information on the medical image based on a machine learning model from the input of the medical image, and provides the generated reading assistance information to an external entity. Accordingly, the present invention enables medical staff to conveniently write a reading result.

Description

피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치{METHOD FOR FACILITATING DIGNOSIS OF SUBJECT BASED ON MEDICAL IMAGERY THEREOF, AND APPARATUS USING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for supporting reading of a medical image of a subject,

본 발명은 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 컴퓨팅 장치에 관한 것이다. 구체적으로, 본 발명에 따른 컴퓨팅 장치는, 상기 피검체의 의료 영상을 획득하고, 상기 의료 영상의 입력으로부터 기계 학습 모델(machine learning model)에 기초하여 상기 의료 영상에 관한 판독 보조 정보를 생성하며, 생성된 상기 판독 보조 정보를 외부 엔티티(entity)에게 제공한다.The present invention relates to a method for supporting reading of a medical image of a subject and a computing device using the same. Specifically, the computing device according to the present invention acquires a medical image of the subject, generates read assistance information on the medical image based on a machine learning model from the input of the medical image, And provides the generated read assistance information to an external entity.

의료 영상, 특히 흉부 PA(posteroanterior) X선 영상은 신체의 내부, 예컨대, 폐, 기관지, 심장 등의 이상을 관찰할 수 있어 판독용으로 빈번히 이용된다. Medical images, especially chest PA (posteroanterior) X-ray images, are frequently used for reading because they can observe the inside of the body, for example, lungs, bronchi and heart.

흉부 PA X선 영상을 통하여 판독될 수 있는 몇몇 소견들은 영상의학과 의사도 다년간의 수련을 통하여서만 이에 대응되는 특징 및 형태를 가까스로 구분해낼 수 있을 정도로 그 판독이 용이하지 않아 인간인 의사가 쉽게 간과할 수 있다. 특히, 결절(nodule)과 같이 그 판독의 난이도가 높을수록 의사가 고도의 주의를 기울여도 미처 간과하는 경우가 발생할 수 있어 문제가 될 소지가 있다.Some of the findings that can be read through chest PA x-ray imaging are that the surgeon can easily distinguish the corresponding features and forms only through years of training. . In particular, the higher the degree of difficulty of reading, such as a nodule, the more likely it is that the physician may be overlooked even if a high degree of attention is paid.

이와 같이 인간이 쉽게 간과할 수 있는 영상의 판독을 보조하기 위하여, 컴퓨터 보조 진단(CAD; computer aided diagnosis)의 필요성이 대두되었는데, 종래의 CAD 기술은 매우 한정된 영역에서 의사의 판단을 보조함에 그친다.The need for computer aided diagnosis (CAD) has aroused the need to assist in the reading of images that humans can easily overlook, and conventional CAD technology aids physician judgment in very limited areas .

예컨대, 대한민국 공개특허공보 제10-2014-0091176호에는, 병변의 진단을 보조하기 위한 장치 및 방법이 개시되어 있다. 그런데, 이 선행기술문헌에는 병변 주변 영역을 판단하는 판단 모델(혹은 선행기술문헌에서 이와 혼용된 단어로서 ‘판정 모델’)이 수행되는 과정이나 통계학적 내지 전산학적 단계들이 구체적으로 개시되어 있지 않아, 해당 기술분야에서 통상의 지식을 가진 사람(이하 ‘통상의 기술자’라 함)이 그 개시 내용을 읽고 기술을 실시할 수 없다는 문제점이 있다.For example, Korean Patent Laid-Open Publication No. 10-2014-0091176 discloses an apparatus and a method for assisting diagnosis of a lesion. However, this prior art document does not specifically disclose a process in which a judgment model for judging a lesion peripheral region (or a 'judgment model' as a mixed word in the prior art document) is performed, or statistical or computational steps, There is a problem in that a person having a general knowledge in the technical field (hereinafter referred to as " ordinary technician ") can not read the contents of the disclosure and can not carry out the technique.

또한, 대한민국 공개특허공보 제10-2017-0047423호에는, CAD 기반 디지털 엑스레이의 자동 결핵 진단 예측 시스템에 관한 기술 사상이 개시되어 있는바, 여기에서는 대상 폐 이미지에서 결핵 감염 의심 병변을 스크리닝하는 데 kNN(k-nearest neighbors algorithm; k-최근접 이웃 알고리즘) 또는 SVM(support vector machine; 서포트 벡터 머신)을 이용하고 있어 병변 자체를 검출해내기 위한 최적의 하이퍼-파라미터(hyper-parameter)를 찾기 위해 결핵 전문가인 의사에 의하여 반복되는 고된 지도 학습(supervised learning)이 요구되는 단점이 있어 병변의 검출 자체의 신뢰성에 1차적 의문이 있으며, 그렇게 해서 검출된 병변 부분에 대해서도 대상 폐 이미지에 대한 ‘결핵 감염 여부’ 에 관한 2-클래스 분류만이 제공되고 있으므로, 다양한 종류의 소견에 대한 정보가 제공될 수 있는지 의문시될 뿐만 아니라, 개별 소견 및 그에 대한 판독문도 제공되지 않아 결국 의사의 주의 깊은 관찰을 통한 번거로운 별도의 소견 판정 및 판독문 작성이 필요하다는 단점이 있다.Korean Patent Laid-Open Publication No. 10-2017-0047423 discloses a technical idea concerning an automatic tuberculosis diagnostic predicting system of a CAD-based digital X-ray. In this case, in order to screen suspicious lesions of tuberculosis infection in a target lung image, (k-nearest neighbors algorithm) or SVM (support vector machine) to find the optimal hyper-parameter to detect the lesion itself, This is because there is a disadvantage that supervised learning repeated by an expert doctor is required. Therefore, there is a primary question about the reliability of the detection of the lesion itself, and thus, , It is necessary to determine whether information on various types of findings can be provided Not only when, there is a disadvantage that individual findings and also a separate written findings and decision pandokmun cumbersome through careful observation of the end decision-pandokmun need not be provided for them.

따라서 본 발명에서는 이러한 문제점들을 해결하여 의료진으로 하여금 보다 효율적이고 정확하게 흉부 PA X선 영상을 판독하고 그 소견 및 판독문을 간편하게 생성 또는 작성할 수 있게 지원하는 흉부 PA 영상의 판독 지원 방법 및 이를 이용한 장치를 제안하고자 한다. Accordingly, the present invention solves these problems, and provides a method for supporting reading of chest PA images, which enables medical personnel to read chest PA X-ray images more efficiently and accurately, and to easily generate or create the findings and the readings, and a device using the same I want to.

KRKR 10-2014-009117610-2014-0091176 AA KRKR 10-2017-004742310-2017-0047423 AA

본 발명은 AI(artificial intelligence; 인공지능)을 이용하여 흉부 영상 판독의 기초가 되는 정보를 의료진에게 제공함으로써 흉부 영상 판독의 편의를 제공하는 것을 목적으로 한다.The present invention aims to provide convenience of chest image reading by providing information to the medical staff on which the chest image reading is based using AI (artificial intelligence).

또한, 본 발명은 흉부 영상 판독에 적합화된 사용자 인터페이스를 제공함으로써 의료진으로 하여금 신속하고 정확하게 그 판독 결과 데이터가 생성 및 정리될 수 있게 하는 것을 목적으로 한다.In addition, the present invention aims to provide a user interface suitable for chest image reading so that the medical staff can quickly and accurately generate and arrange the read result data.

구체적으로, 본 발명은 주요 소견들의 위치, 형태 등 특성과 폐, 기관지, 심장 등의 구조적 특성과 같은 특징들을 자동으로 파악하여 소견 정보 및 판독문의 생성 또는 작성을 용이하게 하는 것을 목적으로 한다.Specifically, the present invention aims to automatically identify features such as the location and shape of major findings and structural characteristics such as lung, bronchus, and heart, thereby facilitating the generation or creation of diagnostic information and a report.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.The characteristic configuration of the present invention for achieving the object of the present invention as described above and realizing the characteristic effects of the present invention described below is as follows.

본 발명의 일 태양에 따르면, 피검체의 흉부 영상(chest view)의 판독을 지원하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 상기 피검체의 흉부 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, 상기 흉부 영상의 입력으로부터 딥 러닝 모델(deep learning model)에 기초하여 상기 흉부 영상에 관한 판독 보조 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계; 및 (c) 상기 판독 보조 정보가 생성되면, 상기 컴퓨팅 장치가, 상기 판독 보조 정보를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of supporting reading of a chest view of a subject, the method comprising: (a) the computing device acquiring a chest image of the subject, Supporting other devices associated with the device to acquire; (b) supporting the computing device to generate or cause the other device to generate read assistance information regarding the chest image based on a deep learning model from input of the chest image; And (c) when the read assistance information is generated, the computing device provides the read assistance information to an external entity or to provide the other device with assistance.

바람직하게는, 상기 판독 보조 정보는, (i) 상기 흉부 영상에 대한 적어도 하나의 소견 정보, 또는 (ii) 상기 적어도 하나의 소견 정보 및 상기 소견 정보 각각에 대응되는 마스크 영상(mask image)을 포함하되, 상기 마스크 영상은, 상기 흉부 영상의 적어도 일부 위에 중첩됨으로써 상기 마스크 영상에 대응되는 개별 소견 정보를 지지하는 표시로서 제공될 수 있다.Preferably, the read assistance information comprises (i) at least one finding information for the chest image, or (ii) a mask image corresponding to the at least one finding information and the finding information, respectively The mask image may be provided as an indication to support individual observation information corresponding to the mask image by being superposed on at least a part of the chest image.

상기 방법은, (d) 상기 컴퓨팅 장치가, 상기 판독 보조 정보에 관한 평가 정보를 획득하거나 상기 타 장치로 하여금 획득하도록 지원하는 단계를 더 포함할 수 있으며, 상기 평가 정보는 상기 소견 정보 및 상기 소견 정보에 대응되는 판독문의 정보를 포함하되, 상기 판독문은, (i) 상기 외부 엔티티에 의하여 직접 입력된 정보, (ii) 상기 소견 정보에 대응되도록 제공되는 기본 판독문, (iii) 상기 소견 정보에 대응되도록 제공되는 판독문 선택지 중에서 상기 딥 러닝 모델에 의하여 선택된 결과인 선택형 판독문, 또는 (iv) 상기 (i) 내지 (iii) 중 어느 하나가 상기 외부 엔티티에 의하여 수정된 결과일 수 있다.The method may further include the step of (d) supporting the computing device to obtain evaluation information on the read assistance information or to acquire the evaluation information on the read assistance information, wherein the evaluation information includes the finding information and the finding (I) information input directly by the external entity, (ii) a basic reading provided to correspond to the finding information, (iii) correspondence to the finding information, and Or (iv) any one of (i) to (iii) above may be the result of being modified by the external entity.

본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램도 제공된다.According to another aspect of the present invention, there is also provided a computer program stored in a machine readable non-transitory medium, comprising instructions embodied to perform the method according to the invention.

본 발명의 또 다른 태양에 따르면, 피검체의 흉부 영상(chest view)의 판독을 지원하는 컴퓨팅 장치가 제공되는바, 그 컴퓨팅 장치는, 상기 피검체의 흉부 영상을 획득하는 통신부; 및 상기 흉부 영상의 입력으로부터 딥 러닝 모델(deep learning model)에 기초하여 상기 흉부 영상에 관한 판독 보조 정보를 생성하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 생성하도록 지원하는 프로세서를 포함하되, 상기 프로세서는, 상기 판독 보조 정보가 생성되면, 상기 판독 보조 정보를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원한다.According to still another aspect of the present invention, there is provided a computing device for supporting reading of a chest view of a subject, the computing device comprising: a communication unit for acquiring a chest image of the subject; And a processor for generating read assistance information about the chest image based on a deep learning model from an input of the chest image or supporting other devices to be interlocked through the communication unit to generate, Provides the read assistance information to an external entity or to provide the other device with the read assistance information when the read assistance information is generated.

바람직하게는, 프로세서가, 상기 판독 보조 정보에 관한 평가 정보를 획득하거나 상기 타 장치로 하여금 획득하도록 지원할 수 있으며, 상기 평가 정보가 획득되면, 상기 평가 정보에 기초하여 상기 딥 러닝 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원할 수도 있다.Preferably, the processor is capable of acquiring or acquiring evaluation information on the read assistance information, and when the evaluation information is acquired, updating the deep learning model based on the evaluation information, It may also help other devices update.

본 발명에 의하면, 흉부 영상의 판독에 적합화된 사용자 인터페이스가 제공됨으로써, 의료진이 보다 손쉽게 흉부 영상의 특징을 파악할 수 있으며, 판독 보조 정보에 기초하여 편리하게 판독 결과를 작성할 수 있는 효과가 있다.According to the present invention, a user interface suitable for reading the chest image can be provided, so that the medical staff can more easily grasp the characteristics of the chest image, and the reading result can be conveniently generated based on the reading assistance information.

특히, 종래의 흉부 영상 판독 방식에서와 같은 주요 소견, 예컨대 결절을 간과하는 것을 방지할 수 있고, 흉부 영상의 판독에 적합화된 사용자 인터페이스를 제공함으로써 의료진으로 하여금 신속하고 정확하게 그 판독 결과의 데이터가 생성 및 정리될 수 있게 할 수 있는 효과가 있다.Particularly, it is possible to prevent a main feature such as a nodule from being overlooked in a conventional chest image reading method, and to provide a user interface suitable for reading a chest image, so that a medical staff can quickly and accurately read the data So that it can be generated and arranged.

또한, 본 발명에 의하면, 효율적인 데이터의 정리가 가능하여 향후 본 발명의 딥 러닝 모델과 같은 AI의 학습을 위한 추가 데이터 취득에 용이하며, 전문가의 사전 지식(privileged knowledge)을 이용하여, 즉, 사전에 전문가가 판단한 질환 특징을 포함하는 학습 데이터에 기초하여 학습된 정보를 이용하여, 흉부 영상의 판독에 용이하게 이용되는 초기의 특징 정보, 예컨대, 주요 소견에 대한 정보 등이 높은 정확도로 제공될 수 있는 효과가 있다.Further, according to the present invention, it is possible to organize data efficiently, and it is easy to acquire additional data for AI learning such as the deep learning model of the present invention, and to use the expert knowledge, Initial feature information, such as information on a main feature, which is easily used for reading a chest image can be provided with high accuracy by using the learned information based on learning data including a disease characteristic judged by an expert There is an effect.

이에 따라, 본 발명에는 주요 소견들의 위치, 형태 등 특성과 폐, 기관지. 심장 등의 구조적 특성과 같은 특징들을 자동으로 파악하여 소견 정보 및 판독문의 생성 또는 작성을 용이하게 하는 효과가 있으며, 개연성이 매우 높은 판독 보조 정보를 시스템에서 생성하여 비합리적인 판독을 방지함으로써 의료진이 실수할 수 있는 여지를 제거하는 효과가 있으며, 향후 사용자의 사용 경험이 축적됨에 따라 딥 러닝 모델이 지속적으로 갱신되어 그 정확도가 높여질 수 있는 장점이 있다.Accordingly, the present invention includes features such as location and shape of major findings, lung, and bronchus. Heart, and the like, thereby facilitating the generation or creation of diagnostic information and readings. Also, it is possible to prevent unreasonable readings by generating highly probable read assistance information in the system, And it is advantageous that the accuracy of the deep learning model is continuously updated as the user's experience of use is accumulated in the future.

요컨대, 효율적이고 정확한 판독을 가능하게 함으로써 의료진의 시간을 절약하고 진료의 질을 높이고 의료 현장에서의 워크플로(workflow)를 혁신할 수 있는 효과가 있다.In short, by enabling efficient and accurate reading, it is possible to save the time of the medical staff, improve the quality of the medical care, and innovate the workflow in the medical field.

그리고 본 발명에 의하면, 종래에 병원에서 이용하고 있는 흉부 영상, 예컨대 X선 촬영 장비 및 의료영상 저장 전송 시스템(PACS)에서 획득 및 확보된 영상을 그대로 활용할 수 있는바, 본 발명의 방법이 특정 운영체제(operating system)에 종속되지 않음은 물론이다.According to the present invention, it is possible to utilize the images obtained and secured in the chest images conventionally used in hospitals, for example, X-ray imaging equipment and medical image storage transmission system (PACS) it is of course not dependent on the operating system.

본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야의 통상의 기술자에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 이용될 수 있는 딥 러닝 모델의 일 예시로서 CNN(convolutional neural network; 합성곱 신경망)의 주요 개념을 도시한 도면이다.
도 2는 본 발명에 따라 피검체의 흉부 영상(chest view)의 판독을 지원하는 방법(이하 "의료 영상 판독 지원 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 3은 본 발명에 따른 의료 영상 판독 지원 방법을 수행하는 컴퓨팅 장치의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이다.
도 4는 본 발명에 따른 의료 영상 판독 지원 방법을 수행하는 컴퓨팅 장치가 복수로 구성된 경우에 그 복수의 컴퓨팅 장치 간의 상호작용을 도시한 또 다른 예시적 블록도이다.
도 5는 본 발명에 따른 의료 영상 판독 지원 방법의 일 실시예를 예시적으로 나타낸 흐름도이다.
도 6은 본 발명에 따른 의료 영상 판독 지원 방법의 일 실시예에서 딥 러닝 모델을 통하여 판독 보조 정보를 생성하는 다특징 분획 및 분류(multi feature segmentation and classification) 과정을 개념적으로 도시한 도면이다.
도 7a 내지 도 7d는 본 발명에 따른 의료 영상 판독 지원 방법의 딥 러닝 모델에 의해 학습 데이터로서 이용된 실제 데이터를 예시한 도면들이다.
도 8은 본 발명에 따른 의료 영상 판독 지원 방법에서 제공되는 예시적 사용자 인터페이스(UI; user interface)의 구성을 나타낸 도면이다.
도 9는 본 발명에 따른 의료 영상 판독 지원 방법에서 소견 정보가 판독 보조 정보로서 제공되는 예시적 사용자 인터페이스의 구성을 나타낸 도면이다.
도 10 및 도 11은 본 발명에 따른 의료 영상 판독 지원 방법에서 소견 정보에 대응되는 판독문을 사용자가 입력 또는 수정할 수 있도록 제공되는 에시적 사용자 인터페이스의 구성을 나타낸 도면이다.
도 12는 본 발명에 따른 의료 영상 판독 지원 방법에 이용되는 딥 러닝 모델의 성능을 평가하기 위한 도구인 ROC 곡선(ROC curve)를 예시하는 도면이다.
도 13은 본 발명에 따른 의료 영상 판독 지원 방법에서 이용된 딥 러닝 모델의 ROC 곡선을 예시적으로 나타낸 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this application, illustrate embodiments of the invention and, Other drawings can be obtained.
1 is a diagram showing a main concept of a CNN (convolutional neural network) as an example of a deep learning model that can be used in the present invention.
2 is a conceptual diagram schematically showing an exemplary configuration of a computing device that performs a method of supporting reading of a chest view of a subject (hereinafter referred to as "medical image reading support method") according to the present invention .
3 is an exemplary block diagram illustrating the hardware or software components of a computing device that performs a method of supporting medical image reading in accordance with the present invention.
FIG. 4 is another exemplary block diagram illustrating interaction among a plurality of computing devices when a plurality of computing devices performing the medical image reading support method according to the present invention is configured.
5 is a flowchart exemplarily showing an embodiment of a medical image reading support method according to the present invention.
FIG. 6 is a diagram conceptually illustrating a multi-feature segmentation and classification process for generating read assistance information through a deep learning model in an embodiment of a medical image read support method according to the present invention.
7A to 7D are diagrams illustrating actual data used as learning data by a deep learning model of a medical image reading support method according to the present invention.
8 is a diagram illustrating a configuration of an exemplary user interface (UI) provided in the medical image reading support method according to the present invention.
9 is a diagram illustrating a configuration of an exemplary user interface in which diagnostic information is provided as read assistance information in a medical image reading support method according to the present invention.
FIG. 10 and FIG. 11 are diagrams illustrating the configuration of an arbitrary user interface provided to allow a user to input or modify a readout corresponding to feature information in the medical image reading support method according to the present invention.
FIG. 12 is a diagram illustrating an ROC curve (ROC curve) as a tool for evaluating the performance of the deep learning model used in the medical image reading support method according to the present invention.
13 is a diagram illustrating an ROC curve of the deep learning model used in the medical image reading support method according to the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of example, specific embodiments in which the invention may be practiced in order to clarify the objects, technical solutions and advantages of the invention. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention.

본 발명의 상세한 설명 및 청구항들에 걸쳐 ‘DICOM(Digital Imaging and Communications in Medicine; 의료용 디지털 영상 및 통신)’ 표준은 의료용 기기에서 디지털 영상 표현과 통신에 이용되는 여러 가지 표준을 총칭하는 용어인바, DICOM 표준은 미국 방사선 의학회(ACR)와 미국 전기 공업회(NEMA)에서 구성한 연합 위원회에서 발표한다.Throughout the detailed description and claims of the present invention, the term 'DICOM' (Digital Imaging and Communications in Medicine) is a generic term for various standards used in digital image representation and communication in medical devices, The standard is presented at the Joint Committee composed of the American Radiation Medical Association (ACR) and the American Electrical Manufacturers Association (NEMA).

또한, 본 발명의 상세한 설명 및 청구항들에 걸쳐 의료영상 저장 전송 시스템(PACS; Picture Archiving and Communication System)은 DICOM 표준에 맞게 저장, 가공, 전송하는 시스템을 지칭하는 용어이며, X선, CT, MRI와 같은 디지털 의료영상 장비를 이용하여 획득된 의료영상 이미지는 DICOM 형식으로 저장되고 네트워크를 통하여 병원 내외의 단말로 전송이 가능하며, 이에는 판독 결과 및 진료 기록이 추가될 수 있다.In addition, throughout the specification and claims of the present invention, the term "Picture Archiving and Communication System (PACS)" refers to a system for storing, processing and transmitting in accordance with the DICOM standard, Can be stored in the DICOM format and transmitted to the terminals inside and outside the hospital through the network, and the result of reading and the medical record can be added to the medical image.

그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.Throughout the detailed description and claims of the present invention, 'learning' or 'learning' refers to performing machine learning through computing according to a procedure, It will be understood by those of ordinary skill in the art that the present invention is not intended to be so-called.

그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.And throughout the description and claims of this invention, the word 'comprise' and variations thereof are not intended to exclude other technical features, additions, elements or steps. Other objects, advantages and features of the present invention will become apparent to those skilled in the art from this description, and in part from the practice of the invention. The following examples and figures are provided by way of illustration and are not intended to limit the invention.

더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. Moreover, the present invention encompasses all possible combinations of embodiments shown herein. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. It should also be understood that the position or arrangement of individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the present invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Unless otherwise indicated herein or clearly contradicted by context, items referred to in the singular are intended to encompass a plurality unless otherwise specified in the context. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

딥 러닝 모델.Deep learning model.

도 1은 본 발명에 이용될 수 있는 딥 러닝 모델의 일 예시로서 CNN(convolutional neural network; 합성곱 신경망)의 주요 개념을 도시한 도면이다.1 is a diagram showing a main concept of a CNN (convolutional neural network) as an example of a deep learning model that can be used in the present invention.

도 1을 참조하면 본 발명에서 이용되는 딥 러닝 모델(deep learning model)은 인공 신경망을 다층으로 쌓은 형태로 간략하게 설명할 수 있다. 즉, 깊은 구조의 네트워크라는 의미로 심층 신경망(deep neural network; 딥 뉴럴 네트워크)이라고 표현하며, 도 1에 도시된 바와 같이, 다층의 네트워크로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 영상의 특징을 자동으로 학습하고, 이를 통해 목적 함수, 즉 치명적 증상의 예측 정확도의 에러(error)를 최소화시키는 방법으로 네트워크를 학습시켜 나아가는 형태이다. 이는, 인간 두뇌의 신경세포 간의 연결에 비교되는바, 이와 같은 심층 신경망은 AI의 차세대 모델로 자리잡아 가고 있다.Referring to FIG. 1, the deep learning model used in the present invention can be briefly described as a form in which artificial neural networks are stacked in multiple layers. That is, it is expressed as a deep neural network (deep neural network) in the sense of a network of deep structure. As shown in FIG. 1, by learning a large amount of data in a structure of a multi-layer network, And learns the network by a method that minimizes the error of the objective function, that is, the prediction accuracy of the fatal symptom. This is compared to the connections between neurons in the human brain, and such a neural network is becoming a next generation model of AI.

본 발명에서 활용될 수 있는 딥 러닝 모델 중 특히 CNN(convolutional neural network; 합성 신경망)은 이미지와 같은 2차원 이미지의 분류에 적합한 모델로서, 이미지의 각 영역을 복수의 필터를 이용하여 특징 지도(feature map)를 만들어내는 합성층(convolution layer)과 특징 지도의 크기를 줄여 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 sub-sampling layer를 반복함으로써 점, 선, 면 등의 저수준의 특징에서부터 복잡하고 의미 있는 고수준의 특징까지 다양한 수준의 특징을 추출할 수 있게 되며, 최종적으로 추출된 특징을 기존 분류 모델의 입력값으로서 이용하면 더 높은 정확도의 분류 모델을 구축할 수 있게 되는 장점이 있다.Among the deep learning models that can be utilized in the present invention, CNN (Convolutional Neural Network) is a model suitable for classification of two-dimensional images such as images. Each region of an image is divided into feature maps map, and a sub-sampling layer that extracts features that are invariant to changes in position or rotation by reducing the size of the feature map. By repeating the sub-sampling layer, low-level features such as points, lines, It is possible to extract various levels of features from complex to meaningful high-level features. Finally, if the extracted features are used as input values of the existing classification model, it is possible to construct a classification model with higher accuracy .

다음으로, 도 2는 본 발명에 따른 의료 영상 판독 지원 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.Next, Fig. 2 is a conceptual diagram schematically showing an exemplary configuration of a computing device that performs a medical image reading support method according to the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 컴퓨팅 장치(200)는, 통신부(210) 및 프로세서(220)를 포함하며, 상기 통신부(210)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.2, a computing device 200 according to an embodiment of the present invention includes a communication unit 210 and a processor 220. The communication unit 210 communicates with an external computing device (not shown) Communication is possible.

구체적으로, 상기 컴퓨팅 장치(200)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS; network-attached storage) 및 스토리지 영역 네트워크(SAN; storage area network)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 명령어들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.In particular, the computing device 200 may be a computing device, such as a computer, a processor, a memory, a storage, an input and output device, or any other device capable of including components of a conventional computing device; Electronic communication devices, electronic information storage systems such as network-attached storage (NAS) and storage area networks (SAN), and computer software (i.e., computing devices that enable a computing device to function in a particular manner) Commands) to achieve the desired system performance.

이와 같은 컴퓨팅 장치의 통신부(210)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP(transmission control protocol) 세션(session)에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP(user datagram protocol) 데이터그램(datagram)으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(210)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.The communication unit 210 of the computing device can send and receive requests and responses to and from other interworking computing devices. As an example, such requests and responses can be made by the same transmission control protocol (TCP) session But not limited to, a user datagram protocol (UDP) datagram, for example. In addition, in a broad sense, the communication unit 210 may include a keyboard, a mouse, and other external input devices for receiving commands or instructions.

또한, 컴퓨팅 장치의 프로세서(220)는 MPU(micro processing unit), CPU(central processing unit), GPU(graphic processing unit) 또는 TPU(tensor processing unit), 캐시 메모리(cache memory), 데이터 버스(data bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.The processor 220 of the computing device may also be a micro processing unit (MPU), a central processing unit (CPU), a graphics processing unit (GPU) or a tensor processing unit (TPU), a cache memory, a data bus ). ≪ / RTI > It may further include a software configuration of an operating system and an application that performs a specific purpose.

의료 영상 판독 지원 장치.Medical image reading support device.

도 3은 본 발명에 따른 의료 영상 판독 지원 방법을 수행하는 컴퓨팅 장치(“의료 영상 판독 지원 장치”)의 하드웨어 또는 소프트웨어 구성요소를 도시한 예시적 블록도이며, 도 4는 본 발명에 따른 의료 영상 판독 지원 방법을 수행하는 컴퓨팅 장치가 복수로 구성된 경우에 그 복수의 컴퓨팅 장치 간의 상호작용을 도시한 또 다른 예시적 블록도이다.3 is an exemplary block diagram illustrating a hardware or software component of a computing device (" medical image reading support device ") that performs a medical image reading support method in accordance with the present invention, FIG. 8 is yet another exemplary block diagram illustrating interaction between a plurality of computing devices in the case where a plurality of computing devices performing the read support method is configured.

도 3을 참조하여 본 발명에 따른 방법 및 장치의 구성을 개관하면, 컴퓨팅 장치(200)는 그 일 구성요소로서 영상 획득 모듈(310)을 포함할 수 있다. 이와 같은 영상 획득 모듈(310)은 상기 컴퓨팅 장치(200)에 포함된 통신부(210), 또는 상기 통신부(210) 및 프로세서(220)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다.3, the computing device 200 may include an image acquisition module 310 as a component of the method and apparatus according to the present invention. It is to be understood that the image acquisition module 310 may be implemented by the communication unit 210 included in the computing device 200 or by the interlocking of the communication unit 210 and the processor 220, will be.

영상 획득 모듈(310)은, 피검체의 흉부 영상(예컨대, 흉부 PA X선 영상)을 획득할 수 있다. 이 흉부 영상은 도 4에 예시된 X선 영상 촬영 기기(410) 또는 이와 연동되는 의료영상 저장 전송 시스템(PACS; 420)로부터 획득되는 것일 수 있으나, 이에 한정되지는 않는다. 예를 들어, 피검체의 흉부 영상은 X선 영상 촬영 기기(410)를 통하여 촬영되어 DICOM 표준에 따라 PACS(420)에 전송된 후 컴퓨팅 장치(200)의 영상 획득 모듈(310)에 의하여 획득될 수 있다.The image acquisition module 310 may acquire a chest image (e.g., chest PA X-ray image) of the subject. This chest image may be obtained from, but is not limited to, the X-ray imaging device 410 illustrated in FIG. 4 or the medical image storage transmission system (PACS) 420 associated therewith. For example, the chest image of the subject is captured through the X-ray imaging device 410, transmitted to the PACS 420 according to the DICOM standard, and then acquired by the image acquisition module 310 of the computing device 200 .

다음으로, 그 획득된 흉부 영상은 판별 모듈(320)에 전달될 수 있는데, 판별 모듈(320)에서는 딥 러닝 모델에 기초하여 흉부 영상의 특징을 추출하여 상기 흉부 형상에 관한 판독 보조 정보를 생성하는바, 판독 보조 정보에 관하여는 상세하게 후술하기로 한다.Next, the acquired chest image can be transmitted to the discrimination module 320. In the discrimination module 320, the characteristic of the chest image is extracted based on the deep learning model, and the read assistance information on the chest shape is generated The bar and the read assistance information will be described later in detail.

예를 들어 이 딥 러닝 모델은 영상의 일부의 형상 등에 관한 특징을 추출해내기 위하여 분획 네트워크(segmentation networks)를 포함할 수 있는데, 여기에서 이용될 수 있는 분획 네트워크의 실시예는 다음과 같다.For example, this deep-running model may include segmentation networks to extract features relating to the shape of part of an image, etc. An embodiment of a fraction network that can be used here is as follows.

conv(2)-conv-maxpool(2)-conv(2)-conv-conv-maxpool(2)-conv-conv-conv-maxpool(22)-conv-conv-conv-maxpool(2)-conv-conv-dense(256)-dense(1)conv-conv-maxpool (2) -conv-conv-maxpool (2) -conv-conv-maxpool (2) conv-dense (256) -dense (1)

이 실시예의 분획 네트워크에 입력되는 흉부 영상의 데이터는 512x512의 z-score로 변환된 RGB 영상의 포맷이었으며, conv와 maxpool의 stride는 (x)로 표현되었다. 또한, 여기에서 활성화(activation) 함수는 selu가, 마지막 dense layer에는 sigmoid가 이용되었으며, 손실(loss) 함수로는 binary cross entropy가 이용되었는데, 다른 데이터 포맷, conv, maxpool의 stride, 활성화 함수, 손실 함수 등이 이용될 수 있음은 통상의 기술자가 이해할 수 있을 것이다.The data of the chest image input to the fraction network of this embodiment was the RGB image format converted to the z-score of 512x512, and the stride of conv and maxpool was represented by (x). Here, the activation function is selu, the last dense layer is sigmoid, and the loss function is a binary cross entropy. The other data format, conv, maxpool stride, activation function, loss Functions and the like can be used.

다른 실시예로서 타 네트워크에서는 640x640의 RGB 영상에 대하여 개별 채널마다 z-score를 구하고 분획(segment)된 이미지를 입력으로 이용할 수도 있으며, 예를 들어 batch-normalization이 이용될 수도 있으며, 손실 함수로 binary cross entropy가 이용될 수도 있을 것이다. As another example, a z-score may be obtained for each channel for an RGB image of 640x640 in another network, and a segmented image may be used as an input. For example, batch-normalization may be used. Cross entropy may be used.

또 다른 실시예에서는 입력되는 이미지에 대한 전처리로서 업샘플링(upsampling)도 가능한바, 예를 들어 bilinear interpolation을 통하여 길이와 너비를 각각 늘릴 수도 있다.In another embodiment, upsampling may be performed as a preprocessing for an input image. For example, the length and the width may be increased through bilinear interpolation.

또 다른 일 실시예에서는 VGG(visual geometry group) 네트워크 형태의 합성 블록(convolution block)을 적층하고, 그 합성 블록에 완전 연결층(fully-connected layer)을 연결한 분획 네트워크 모델이 이용될 수도 있다.In another embodiment, a fractional network model in which a convolution block in the form of a visual geometry group (VGG) network is stacked and a fully-connected layer is connected to the aggregate block may be used.

전술한 판별 모듈(320)에서 이용되는 딥 러닝 모델의 학습은 판별 모듈(320)에서 이루어질 수도 있으며, 별도의 학습 모듈(330)에 의하여 학습될 수도 있다.Learning of the deep learning model used in the above-described discrimination module 320 may be performed by the discrimination module 320 or may be learned by a separate learning module 330. [

딥 러닝 모델에 기초하여 흉부 영상에 관하여 판독 보조 정보가 추출되면, 그 판독 보조 정보는 상기 판독 보조 정보에 관하여 평가한 평가 정보와 함께 저장 및 전송 모듈(340)을 통하여 저장되거나 외부 엔티티(entity)에 제공되거나 컴퓨팅 장치(200)에 연동되는 타 장치, 예컨대 PACS(420)에 제공될 수 있다.If read assistance information is extracted for the chest image based on the deep learning model, the read assistance information may be stored via the storage and transmission module 340 together with the evaluation information evaluated for the read assistance information, or may be stored in an external entity, Such as a PACS 420, which may be provided to the computing device 200 or interfaced to the computing device 200.

여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치의 사용자, 관리자, 상기 피검체를 담당하는 담당 의료 전문가 등을 포함하나, 이 이외에도 상기 흉부 영상을 판독할 수 있는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다. 예를 들어, 상기 외부 엔티티는 외부의 인공지능 장치일 수도 있다.Here, the external entity includes a user, an administrator of the computing apparatus, a medical professional in charge of the subject, and the like, but it should be understood that any subject can read the chest image something to do. For example, the external entity may be an external artificial intelligence device.

계속해서 도 3을 참조하면, 사용자로부터 상기 평가 정보를 획득할 수 있는 결과 입력 모듈(350), 및 상기 평가 정보에 기초하여 상기 딥 러닝 모델을 갱신할 수 있는 갱신 모듈(360)이 컴퓨팅 장치(200)의 구성요소로서 더 제공될 수 있는바, 이와 같은 모듈들(310 내지 360)은 통신부(210) 및 프로세서(220)에 의하여 구현될 수 있다.3, a result input module 350 capable of obtaining the evaluation information from a user, and an update module 360 capable of updating the deep learning model based on the evaluation information, The modules 310 to 360 may be implemented by the communication unit 210 and the processor 220.

도 3에 나타난 구성요소들은 설명의 편의상 하나의 컴퓨팅 장치(예컨대, single standalone workstation)에서 실현되는 것으로 예시되었으나, 본 발명의 방법을 수행하는 컴퓨팅 장치(200)는 복수로 구성될 수도 있을 것인바, 도 4를 참조하면, 도 3에 예시된 영상 획득 모듈(310) 및 결과 입력 모듈(350)은 사용자에 대한 인터페이스를 제공하기 위한 컴퓨팅 장치인 워크스테이션(workstation; 430)에 포함되는 반면, 판별 모듈(320), 학습 모듈(330) 및 갱신 모듈(360)은 딥 러닝 모델의 기능을 제공하기 위한 컴퓨팅 장치인 AI 엔진(AI engine; 440)에 포함될 수 있을 것이며, 저장 및 전송 모듈(340)은 워크스테이션(430) 및 AI 엔진(440)의 연동에 의하여 구현될 수 있을 것이다. 도 4에서 도시된 바와 같이 워크스테이션(430)과 AI 엔진(440)의 연동은 웹 서비스(web service)에 의할 수 있으나, 이에 한정되지 않음은 물론이다.Although the components shown in FIG. 3 are illustrated as being realized in one computing device (e.g., a single standalone workstation) for convenience of explanation, the computing device 200 performing the method of the present invention may be configured as a plurality, Referring to FIG. 4, the image acquisition module 310 and the result input module 350 illustrated in FIG. 3 are included in a workstation 430, which is a computing device for providing an interface to a user, The learning module 330 and the update module 360 may be included in the AI engine 440 as a computing device for providing the function of the deep learning model and the storage and transmission module 340 The workstation 430 and the AI engine 440. In this case, As shown in FIG. 4, the interworking of the work station 430 and the AI engine 440 may be performed by a web service, but is not limited thereto.

의료 영상 판독 지원 방법. A method of supporting medical image reading.

이제 본 발명에 따른 의료 영상 판독 지원 방법의 일 실시예를 도 5를 참조하여 구체적으로 설명하기로 한다. 도 5는 본 발명에 따른 의료 영상 판독 지원 방법의 일 실시예를 예시적으로 나타낸 흐름도이다.An embodiment of a medical image reading support method according to the present invention will now be described in detail with reference to FIG. 5 is a flowchart exemplarily showing an embodiment of a medical image reading support method according to the present invention.

이 실시예에 따른 의료 영상 판독 지원 방법의 수행에 앞서, 상기 딥 러닝 모델이 미리 학습되는 단계(미도시)를 거쳐야 할 필요가 있는바, 이를 위한 학습 모듈(330)이 상기 프로세서(220)에 의하여 실행될 수 있다.(Not shown) before the deep learning model is learned before the medical image read support method according to this embodiment is performed, and a learning module 330 for the deep learning model is provided to the processor 220 Lt; / RTI >

예컨대, 상기 학습 모듈(330)은 다수의 기존 피검체에 대한 개별 흉부 영상 및 이를 레이블링한 데이터, 예를 들어, 의사가 판단한 질환 등의 소견에 관한 데이터 및 그 소견에 해당되는 부위를 표시한 마스크 데이터(mask data)를 학습 데이터로서 이용하여 상기 딥 러닝 모델을 학습할 수 있다. 이를 위한 딥 러닝 모델의 일 예시로서 몇몇 유형의 분획 네트워크가 효과적임은 전술한 바와 같다.For example, the learning module 330 may include data on individual chest images and data labeled thereon for a plurality of existing subjects, for example, data on findings such as a disease determined by a doctor, and a mask The deep learning model can be learned using mask data as learning data. As an example of the deep learning model for this purpose, some types of fraction networks are effective as described above.

도 5를 참조하면, 이 실시예에 따른 의료 영상 판독 지원 방법은, 앞서 도 3에 관하여 설명한 바와 같이, 우선, 컴퓨팅 장치(200)의 통신부(210)에 의하여 구현되는 영상 획득 모듈(310)이, 상기 피검체의 흉부 영상을 획득하거나 컴퓨팅 장치(200)에 연동되는 타 장치, 예컨대 PACS(420)로 하여금 획득하도록 지원하는 단계(S510)를 포함한다. 여기에서 상기 흉부 영상은, 흉부 PA(posteroanterior) 영상, 예컨대, 흉부 PA X선 영상일 수 있다. 물론 CT 영상, MRI 영상도 가능하고 이들을 이용하면 신뢰성 높은 진단 결과를 얻을 수 있으나, 상세히 후술하는 바와 같이 본 발명의 의료 영상 판독 지원 방법에 의하면 저렴한 비용으로도 매우 정확한 소견 정보를 획득할 수 있다.Referring to FIG. 5, a medical image reading support method according to this embodiment includes an image acquisition module 310 implemented by the communication unit 210 of the computing device 200, as described above with reference to FIG. 3 , Acquiring a chest image of the subject, or assisting another device (e.g., PACS 420) associated with the computing device 200 to acquire (S510). Here, the chest image may be a chest PA (posteroanterior) image, for example, a chest PA x-ray image. Of course, the CT image and the MRI image are also available, and reliable diagnosis results can be obtained by using them. However, according to the medical image reading support method of the present invention as described in detail below, highly accurate diagnostic information can be obtained at low cost.

다음으로, 본 발명의 일 실시예에 따른 의료 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)에 의하여 구현되는 판별 모듈(320)이, 상기 흉부 영상의 입력으로부터 딥 러닝 모델(deep learning model)에 기초하여 상기 흉부 영상으로부터 판독 보조 정보를 생성 또는 제안하거나 상기 타 장치로 하여금 생성 또는 제안하도록 지원하는 단계(S520)와, 상기 컴퓨팅 장치(200)의 통신부(210) 및 프로세서(220)에 의하여 구현되는 저장 및 전송 모듈(340)이 생성 또는 제안된 상기 판독 보조 정보를 외부 엔티티(entity)에 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계(S530)를 더 포함한다.A method of supporting a medical image reading according to an embodiment of the present invention may include a step of determining whether a discrimination module 320 implemented by the processor 220 of the computing device 200 detects a deep learning model (S520) of generating or suggesting read assistance information from the chest image or creating or suggesting the other device based on a deep learning model (S520) of the computing device (200) (S530) of providing or providing to the external entity the read assistance information generated or proposed by the storage and transmission module 340 implemented by the storage and transmission module 220 implemented by the storage and transmission module 340.

여기에서 판독 보조 정보는, 사용자, 예컨대 의사의 상기 흉부 영상에 대한 판독을 보조하도록 사용자에게 제공되는 정보를 지칭하는데, 이 판독 보조 정보는, (i) 상기 흉부 영상에 대한 적어도 하나의 소견 정보, 또는 (ii) 상기 적어도 하나의 소견 정보 및 상기 소견 정보 각각에 대응되는 마스크 영상(mask image)일 수 있는데, 그 마스크 영상은, 상기 흉부 영상의 적어도 일부 위에 중첩됨으로써 상기 마스크 영상에 대응되는 개별 소견 정보를 지지하는 표시로서 제공되며, 바람직하게는 밀도 맵(density map)의 형태를 취할 수 있다.Wherein the read assistance information refers to information provided to a user to assist a user, e.g., a physician, in reading the chest image, the read assistance information comprising (i) at least one finding information for the chest image, Or (ii) a mask image corresponding to each of the at least one feature information and the feature information, wherein the mask image is superimposed on at least a part of the chest image, Is provided as an indication to support information, preferably in the form of a density map.

비록 본 명세서에서는 판독 보조 정보가 사용자에게 제공되어 그 사용자의 판단을 보조하도록 제공되는 것으로 설명되고 있으나, 이는 본 발명이 판독 보조 정보가 그 판독의 ‘보조’에 그치는 범위로 한정된다는 점을 의미하는 것은 아니라는 점을 밝혀 둔다. 본 발명의 변형 실시예로서, 판독 보조 정보가 그 자체로서 판독의 최종 결과로 사용자를 포함한 외부 엔티티에 제공되는 변형례, 판독 보조 정보가 자연어 처리에 의하여 가공되어 최종 결과로 제공되는 변형례도 가능한바, 통상의 기술자는 이를 이해할 수 있을 것이다.Although it is described herein that the read assistance information is provided to the user to assist the user's judgment, this means that the present invention is limited to the extent that the read aid information is limited to the 'aid' of the readout It is not clear. As an alternative embodiment of the present invention, a modification in which the read assistance information is provided to an external entity including the user as the end result of the readout itself, a modification in which the read assistance information is processed by natural language processing and provided as a final result is also possible It will be appreciated by those of ordinary skill in the art.

그리고, 상기 적어도 하나의 소견 정보는, 예를 들어, 상기 피검체의 흉부에 대한 정상(normal) 소견 및 비정상(abnormal) 소견 중에서 선택된 것일 수 있다. 다른 예로서, 상기 적어도 하나의 소견 정보는, 적어도, 결절(nodule) 소견, 경화(consolidation) 소견, 흉막 삼출(pleural effusion) 소견, 기흉(pneumothorax) 소견, 간질 혼탁(interstitial opacity) 소견 및 정상(normal) 소견을 포함하는 군에서 선택된 것일 수 있다.The at least one finding information may be selected from, for example, a normal finding and an abnormal finding of the subject's chest. As another example, the at least one finding information includes at least one of nodule finding, consolidation finding, pleural effusion finding, pneumothorax finding, interstitial opacity finding and normal normal < / RTI > findings.

도 6은 본 발명에 따른 의료 영상 판독 지원 방법의 일 실시예에서 딥 러닝 모델을 통하여 판독 보조 정보를 생성하는 다특징 분획 및 분류(multi feature segmentation and classification) 과정을 개념적으로 도시한 도면이다.FIG. 6 is a diagram conceptually illustrating a multi-feature segmentation and classification process for generating read assistance information through a deep learning model in an embodiment of a medical image read support method according to the present invention.

도 6을 참조하여 본 발명에 따른 딥 러닝 모델의 학습 과정을 보다 상세하게 설명하자면, 딥 러닝 모델의 학습 데이터로서 개별 흉부 영상(610a 및 610b) 및 이를 레이블링한 데이터(620a 및 620b)가 입력되는데, 이 레이블링 데이터는 의사가 판단한 질환 등의 소견에 해당되는 부위를 표시한 마스크 데이터를 포함할 수 있다. 도 6의 예시를 참조하면, 비정상 소견의 흉부 영상(610a)에 대응되는 마스크 데이터가 620a에 표시되어 있으며, 정상 소견의 흉부 영상(610b)에 대응되는 마스크 데이터가 620b에 표시되어 있다.Referring to FIG. 6, the learning process of the deep learning model according to the present invention will be described in more detail. As learning data of the deep learning model, individual chest images 610a and 610b and data 620a and 620b , The labeling data may include mask data indicating a region corresponding to a finding such as a disease judged by a doctor. 6, mask data corresponding to the chest image 610a of abnormal findings is displayed at 620a, and mask data corresponding to the chest image 610b of normal findings is displayed at 620b.

단계(S520)에서, 컴퓨팅 장치(200)는, 상기 딥 러닝 모델에 기초하여 다특징 분획 및 분류(multi feature segmentation and classification)를 수행함으로써 상기 판독 보조 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는데, 도 6을 참조하면, 상기 딥 러닝 모델에 의하여 상기 적어도 하나의 소견 정보 각각의 특징에 대한 ROI 분획(region of interest segmentation; ‘segmentation’으로 표시됨) 및 영상 분류(image classification; ‘classification’으로 표시됨)가 동시에 또는 순차적으로 수행되어, 출력 픽셀 분류(output pixel classification) 정보 및 출력 영상 분류(output image classification) 정보가 판독 보조 정보의 기초 자료(630)로서 생성되며, 이 기초 자료(630)에 따라 소견 정보 및 마스크 영상이 판독 보조 정보로서 생성된다.In step S520, the computing device 200 generates the read assistance information by performing multi-feature segmentation and classification based on the deep learning model or supports to cause the other device to generate Referring to FIG. 6, ROI fractions (indicated by 'segmentation') and image classification ('classification') are generated for each feature of each of the at least one feature information by the deep learning model The output pixel classification information and the output image classification information are generated as the basic information 630 of the read auxiliary information and the basic information 630 of the read auxiliary information is generated Accordingly, the feature information and the mask image are generated as the read assistance information.

도 7a 내지 도 7d는 본 발명에 따른 의료 영상 판독 지원 방법의 딥 러닝 모델에 의해 학습 데이터로서 이용된 실제 데이터(각 도면의 좌측) 및 상기 딥 러닝 모델에 의하여 생성된 마스크 영상(각 도면의 우측)을 예시한 도면들이다.7A to 7D are diagrams showing actual data (left side of each drawing) used as learning data by the deep learning model of the medical image reading support method according to the present invention, and mask images (right side FIG.

도 7a의 좌측에는 영상의학과 전문의에 의하여 결절로 판정된 흉부 영상이 도시되어 있는데, 그 흉부 영상 위에는 전문의에 의하여 그 결절에 해당되는 부분으로 표시된 학습용 마스크 데이터(mask data)가 중첩되게 표시되어 있으며, 도 7a의 우측에는 동일한 흉부 영상에 대해 상기 딥 러닝 모델이 생성한 마스크 영상(mask image)이 동일한 흉부 영상 위에 중첩되게 표시되어 있다. 마찬가지로, 도 7b, 도 7c 및 도 7d에는 각각 경화, 흉막 삼출, 기흉에 대하여 전문의에 의하여 표시된 학습용 마스크 데이터(좌측) 및 딥 러닝 모델에 의하여 생성된 마스크 영상(우측)이 동일한 흉부 영상 위에 중첩되게 표시되어 있다.On the left side of FIG. 7A, a chest image judged to be a nodule by a radiologist is displayed. On the chest image, mask data for learning indicated by a portion corresponding to the nodule by a specialist are superimposed on the chest image, On the right side of FIG. 7A, a mask image generated by the deep learning model for the same chest image is superimposed on the same chest image. Similarly, Figs. 7B, 7C, and 7D show that mask data (left side) and mask image (right side) generated by a deep training model are superimposed on the same chest image, respectively, for hardening, pleural effusion, and pneumothorax Is displayed.

도 8은 본 발명에 따른 의료 영상 판독 지원 방법에서 제공되는 예시적 사용자 인터페이스(UI; user interface)의 구성을 나타낸 도면이다.8 is a diagram illustrating a configuration of an exemplary user interface (UI) provided in the medical image reading support method according to the present invention.

도 8의 사용자 인터페이스 예시를 참조하면, 검사 목록 정보(810), 흉부 영상 정보(820), AI 제안 정보(830) 및 최종 판독문 정보(840)가 상기 사용자 인터페이스를 통하여 제공될 수 있다.8, test list information 810, chest image information 820, AI proposal information 830, and final report information 840 may be provided through the user interface.

이 예시에 따르면, 단계(S510)에서, 상기 컴퓨팅 장치(200) 또는 상기 타 장치, 예컨대 PACS(420)에 의하여 보유, 보관 또는 저장된 개별 피검체의 흉부 영상들의 목록이 바람직하게는 검사 목록 정보(810)로서 소정의 출력 장치, 예컨대 디스플레이 장치 상에 사용자 인터페이스를 통하여 제공될 수 있는바, 상기 출력 장치는 상기 컴퓨팅 장치에 포함되거나 상기 컴퓨팅 장치에 연동된 것일 수 있다. According to this example, in step S510, a list of chest images of individual subjects held, stored, or stored by the computing device 200 or the other device, e.g., PACS 420, 810 via a user interface on a predetermined output device, e.g., a display device, the output device may be included in or associated with the computing device.

이때, 사용자가 검사 목록 정보에 나타난 특정 피검체를 선택함이 감지되면, 컴퓨팅 장치(200)에 의하여 그 특정 피검체의 흉부 영상에 대하여 전술한 단계(S520)가 수행됨으로써 그 특정 피검체의 흉부 영상에 대한 판독 보조 정보가 생성 또는 제안될 수 있을 것인바, 피검체의 흉부 영상, 피검체의 식별번호, 피검체의 신원(이름, 나이, 성별 등), 상기 흉부 영상의 촬영 부위를 나타내는 촬영 부위 식별자 등이 바람직하게는 흉부 영상 정보(820)로서 상기 사용자 인터페이스를 통하여 제공될 수 있으며, 도 8에 예시된 바와 같다. At this time, if it is detected that the user selects the specific test subject shown in the check list information, the computing device 200 performs the above-described step S520 on the chest image of the specific test subject, (Identification name, age, sex, etc.) of the subject, photographing indicating the region of the chest image to be photographed, photographing of the chest image of the subject, A region identifier, and the like may be provided as the chest image information 820 through the user interface, as illustrated in FIG.

이 후에, 단계(S530)에서 별도의 사용자의 추가 조작 없이 또는 사용자의 요청에 응하여, 상기 판독 보조 정보가 상기 출력 장치를 통하여 제공될 수 있을 것인바, 마스크 영상은 흉부 영상 정보(820)의 흉부 영상의 적어도 일부 위에 중첩되게 표시될 수 있으며, 상기 적어도 하나의 소견 정보는 AI 제안 정보(830)로서 상기 사용자 인터페이스를 통하여 제공될 수 있으며, 도 8에 예시된 바와 같다.Thereafter, in step S530, the read assistance information may be provided through the output device without additional user manipulation or in response to a user request, and the mask image may be provided to the thoracic image information 820 And the at least one feature information may be provided through the user interface as AI suggestion information 830, as illustrated in FIG.

바람직하게는, 단계(S530)에서, 상기 딥 러닝 모델에 의하여 상기 적어도 하나의 소견 정보 각각에 대하여 신뢰도(confidence) 값이 구해지면, 컴퓨팅 장치(200)는, 사용자의 추가 조작 없이 또는 사용자의 요청에 응하여, 상기 소정의 출력 장치를 통하여 표시되는 상기 적어도 하나의 소견 정보 각각을 상기 신뢰도 값에 기초하여 내림차순 또는 올림차순으로 정렬하여 표시하거나 상기 신뢰도 값에 기초하여 상기 소견 정보 각각이 AI 제안 정보(830)에서 표시되는 색상, 채도 및 명도 중 적어도 하나를 조절할 수 있다.Preferably, in step S530, if a confidence value is obtained for each of the at least one finding information by the deep learning model, the computing device 200 may calculate the confidence value, The display device displays the at least one feature information displayed through the predetermined output device in a descending or ascending order based on the reliability value or displays each of the feature information based on the reliability value in the AI suggestion information 830 , At least one of the hue, saturation, and brightness displayed on the display screen.

유리하게는, 단계(S530)에서, 상기 딥 러닝 모델에 의하여 생성 또는 제안된 소견 정보는 사용자의 선택에 의하여 수정될 수 있는바, 이는, 예를 들어, AI 제안 정보(830)에 표시된 목록 중의 한 항목을 선택하는 조작에 의하여 이루어질 수 있을 것이다.Advantageously, in step S530, the feature information generated or suggested by the deep learning model can be modified by the user's selection, for example, in the list displayed in the AI suggestion information 830 It can be done by an operation of selecting one item.

도 9는 본 발명에 따른 의료 영상 판독 지원 방법에서 소견 정보가 판독 보조 정보로서 제공되는 예시적 사용자 인터페이스의 구성을 나타낸 도면이다.9 is a diagram illustrating a configuration of an exemplary user interface in which diagnostic information is provided as read assistance information in a medical image reading support method according to the present invention.

도 9의 예시적 사용자 인터페이스에는 AI 제안 정보(830)에 표시된 목록 중의 한 항목인 간질 혼탁(interstitial opacity) 소견에 대하여 선택 표시(832)가 되어 있는데, 이는 상기 딥 러닝 모델에 의하여 생성 또는 제안된 소견 정보 또는 수정된 소견 정보에 해당될 수 있음은 앞서 설명한 바와 같다.In the exemplary user interface of FIG. 9, a selection indication 832 for an interstitial opacity item, which is one of the items displayed in the AI proposal information 830, It can be said that it corresponds to the feature information or the modified feature information as described above.

이와 같은 소견 정보는 하나뿐만 아니라 여러 개가 선택될 수 있다. 다만, 이 소견 정보 간에는 배타적 관계가 있을 수 있는바, 예를 들어, 정상 소견은 그 이외의 모든 소견에 대하여 배타적이다. 이는 논리적, 병리학적으로 성립되지 않는 판독과 비합리적인 판독을 방지하기 위한 것이다.Not only one but also several such information can be selected. However, there may be an exclusive relationship between these findings, for example, normal findings are exclusive of all other findings. This is intended to prevent logical and pathological readings and unreasonable readings.

단계(S530)에서, 바람직하게는, 생성 또는 선택된 소견 정보와 함께 상기 소견 정보에 대응되는 마스크 영상(822)이 흉부 영상의 적어도 일부 위에 중첩(overlay)되게 표시(820)되는바, 도 9에 예시적으로 도시된 바와 같이 밀도 맵(density map)의 형태로 표시될 수도 있다.In step S530, preferably, the mask image 822 corresponding to the finding information is displayed (820) over at least a part of the chest image, together with generated or selected feature information. Or may be displayed in the form of a density map as illustrated by way of example.

다시 도 5를 참조하면, 상기 실시예에 따른 의료 영상 판독 지원 방법은, 단계(S530)의 수행 후에, 컴퓨팅 장치(200)가, 상기 판독 보조 정보에 관한 평가 정보를 획득하거나 상기 타 장치로 하여금 획득하도록 지원하는 단계(S540)를 더 포함한다. 여기에서 상기 평가 정보는 상기 딥 러닝 모델에 의하여 생성 또는 제안되거나 생성 또는 제안된 후 사용자의 선택에 의하여 수정된 소견 정보, 및 그 소견 정보에 대응되는 판독문의 정보를 포함할 수 있다. 그리고 상기 판독문은 (i) 상기 외부 엔티티에 의하여 직접 입력된 정보, (ii) 상기 소견 정보에 대응되도록 제공되는 기본 판독문, (iii) 상기 소견 정보에 대응되도록 제공되는 판독문 선택지 중에서 상기 딥 러닝 모델에 의하여 선택된 결과인 선택형 판독문, 또는 (iv) 상기 (i) 내지 (iii) 중 어느 하나가 상기 외부 엔티티에 의하여 수정된 결과일 수 있다. Referring to FIG. 5 again, the medical image reading support method according to the embodiment may be configured such that, after performing the step S530, the computing device 200 acquires evaluation information on the read assistance information, (Step S540). Here, the evaluation information may include feature information modified by a user's selection after being created, proposed, created or suggested by the deep learning model, and information of a corresponding report corresponding to the feature information. (Ii) a basic reading provided to correspond to the finding information; and (iii) a reading option provided to correspond to the finding information. Or (iv) any of (i) to (iii) above may be the result of being modified by the external entity.

일 예시로서, 단계(S540)는, 컴퓨팅 장치(200)가, 사용자로 하여금 상기 소견 정보에 대응되는 판독문을 선택하도록 상기 소정의 출력 장치를 통하여 사용자 인터페이스를 제공하는 단계(S532; 미도시) 및 상기 사용자의 요청에 응하여, 컴퓨팅 장치(200)가, 상기 소견 정보 및 상기 소견 정보에 대응되는 상기 판독문의 정보를 평가 정보로서 획득하는 단계(S534; 미도시)를 포함할 수 있다.In operation S540, the computing device 200 may provide a user interface (S532) (not shown) through the predetermined output device so that the user can select a report corresponding to the finding information, and In response to the request of the user, the computing device 200 may include the step S534 (not shown) of acquiring the findings information and the information of the report corresponding to the findings information as evaluation information.

여기에서 소견 정보에 따라 제공되는 판독문 선택지는 예를 들어 아래 표 1과 같을 수 있다.Here, the report selection provided according to the findings information may be as shown in Table 1 below, for example.

카테고리category 판독문Report (크기)(size) (영역, 특성)(Area, characteristic) (위치)(location) normalnormal FINDINGS:
Normal size and shape of heart.
Normal pulmonary vascularity.
No abnormality in both lung fields and pleurae.
Normal bony thorax.
CONCLUSION: Normal chest.
FINDINGS:
Normal size and shape of heart.
Normal pulmonary vascularity.
No abnormality in both lung fields and pleurae.
Normal bony thorax.
CONCLUSION: Normal chest.
nodulenodule There is an aboutThere is an about 1cm-sized, 2cm-sized, 3cm-sized1cm-sized, 2cm-sized, 3cm-sized nodulenodule in right upper lung zone, in right middle lung zone, in right lower lung zone, etc...in right upper lung zone, in right middle lung zone, in right lower lung zone, etc ... consolidationconsolidation There isThere is focal, extensive, multifocalfocal, extensive, multifocal consolidationconsolidation pleural effusionpleural effusion There isThere is scanty, small amount of, large amount of, loculatedscanty, small amount of, large amount of, loculated plueral effusionplueral effusion in right hemithorax, in left hemithorax, in both hemithoracesin right hemithorax, in left hemithorax, in both hemithoraces pneumothoraxpneumothorax There isThere is pneumothoraxpneumothorax interstitial opacityinterstitial opacity There isThere is subtle, mild, extensivesubtle, mild, extensive interstitial opacityinterstitial opacity in both basal lungs, in both lungs, etc...in both basal lungs, in both lungs, etc ...

예를 들어, 소견 정보가 정상 소견인 경우, 표 1에 표시된 판독문이 기본 판독문으로 제공되거나 단순히 공란이 기본 판독문으로 제공될 수 있을 것이며, 다른 소견 정보가 선택된 후에 정상 소견이 선택된다면, 그 다른 소견 정보에 대한 판독문의 정보 또는 최종 판독문 정보(840)는 지워질(cleared) 수도 있을 것이다.For example, if the finding information is normal, the report shown in Table 1 may be provided as a default report, or simply a blank may be provided as a base report, and if normal findings are selected after other findings are selected, The information in the readings or final report information 840 for the information may be cleared.

다른 예로서, 가령 소견 정보가 결절 소견인 경우, 표 1을 참조하면, 그 결정 소견에 대한 상기 판독문 선택지는 상기 결절의 크기(예컨대, 1cm-sized, 2cm-sized, 3cm-sized) 및 상기 결절의 위치(예컨대, in right upper lung zone, in right middle lung, in right lower lung zone 등) 중 적어도 하나에 대한 정보를 포함할 수 있는바, 나머지도 이와 마찬가지임을 통상의 기술자는 이해할 수 있을 것이다.As another example, if the finding information is a nodule finding, referring to Table 1, the report selection sheet for that determination finding may be a size (e.g., 1 cm-sized, 2 cm-sized, 3 cm- (E.g., an in right upper lung zone, an in-right middle lung, an in-right lower lung zone, etc.), and the rest are also similar to those of ordinary skill in the art.

이러한 판독문 선택지가 사용자 인터페이스를 통하여 컴퓨팅 장치(200)에 입력되는 과정을 개념적으로 설명하면 다음과 같다.The process of inputting such a read-right option to the computing device 200 through a user interface will be conceptually described below.

도 10 및 도 11은 본 발명에 따른 의료 영상 판독 지원 방법에서 소견 정보에 대응되는 판독문을 사용자가 입력 또는 수정할 수 있도록 제공되는 에시적 사용자 인터페이스의 구성을 나타낸 도면이다.FIG. 10 and FIG. 11 are diagrams illustrating the configuration of an assistive user interface provided to allow a user to input or modify a readout corresponding to feature information in the medical image reading support method according to the present invention.

도 10를 참조하면, AI 제안 정보(830)에 표시된 목록 중의 한 항목인 간질 혼탁(interstitial opacity) 소견이 상기 딥 러닝 모델에 의하여 생성 또는 제안된 것으로 표시되어 있으며, 그 간질 혼탁 소견에 대응되도록 상기 딥 러닝 모델에 의하여 초기의 판독문 정보(‘There is extensive interstitial opacity in both lungs.’로 표시됨)가 선택되어 있다. 그 판독문 정보 가운데 사용자가 선택할 수 있는 부분은 그 외의 부분과 다르게 표시될 수도 있을 것인바, 예컨대, 색상, 채도 및 명도 중 적어도 하나가 상이하도록 표시될 수 있을 것이다. 도 10의 예시에서는 ‘extensive’와 ‘in both lungs’ 부분이 상이하게 표시되어 있다. 이때, 사용자, 예컨대 의사는, 사용자 인터페이스 상에 표시된‘extensive’ 텍스트를 조작함(예컨대, 마우스로 클릭함)으로써 다른 판독문 선택지를 선택할 수 있다. 예컨대, 편의를 위하여 판독문 선택지는 드롭다운 메뉴(drop down menu)로 제공될 수도 있을 것이며, 사용자는 그 드롭다운 메뉴에 표시된 판독문 선택지의 항목들(‘subtle’, ‘mild’, ‘extensive’로 표시됨) 중 어느 하나를 조작하여 선택함으로써 상기 판독문의 정보를 수정할 수 있다.Referring to FIG. 10, an interstitial opacity feature, which is an item in the list displayed in the AI proposal information 830, is generated or suggested by the deep learning model. Initial report information (denoted as 'There is extensive interstitial opacity in both lungs.') Is selected by the deep learning model. The portion of the report information that can be selected by the user may be displayed differently from other portions, for example, at least one of color, saturation, and brightness may be displayed differently. In the example of FIG. 10, 'extensive' and 'in both lungs' portions are marked differently. At this time, a user, e.g., a doctor, can select another read-ahead option by manipulating (e.g., clicking with the mouse) the 'extensive' text displayed on the user interface. For example, a read-only selection may be provided as a drop-down menu for convenience, and the user may select the item of sub-selection ('subtle', 'mild', 'extensive' ), The information of the read-out statement can be modified.

도 11의 사용자 인터페이스를 참조하면, AI 제안 정보(830)에 표시된 목록 중의 한 항목, 즉, 간질 혼탁 소견에 대하여 판독문의 정보가 선택되어 있으며, 그 우측에 위쪽 화살표가 표시된 UI 요소(예컨대, 버튼)가 제공되어 있는데, 사용자가 이를 조작함(예컨대, 그 버튼을 누르는 조작)이 감지되면, 컴퓨팅 장치(200)는, 선택된 판독문의 정보가 텍스트의 형식으로 최종 판독문 정보(840)에 기입되도록 할 수 있다. 이 최종 판독문 정보(840)는 사용자가 직접 수정 또는 편집할 수도 있을 것이다.Referring to the user interface of FIG. 11, information of a report is selected for an item in the list displayed in the AI proposal information 830, i.e., an epileptic turbid appearance, and a UI element (e.g., (E.g., an operation of pressing the button) is detected, the computing device 200 causes the information of the selected report to be written to the final report information 840 in the form of a text . This final report information 840 may be directly modified or edited by the user.

바람직하게는, 단계(S540)에서, 사용자가 최종 판독문 정보(840)에 결론을 더 기입할 수 있는바, 이는 도 11에 예시된 최종 판독문 정보(840)의 하단에 ‘CONCLUSION’이라고 표시된 부분으로 예시된 바와 같다.Preferably, in step S540, the user can further write a conclusion into the final report information 840, which is a portion labeled 'CONCLUSION' at the bottom of the final report information 840 illustrated in FIG. 11 As illustrated.

유리하게는, 단계(S540)에서, 사용자 인터페이스 상에 제공된 ‘저장’ 버튼과 같은 UI 요소에 대한 조작을 통하여 사용자는 평가 정보 혹은 최종 판독문을 외부 엔티티, 예컨대 PACS(420)에 전달 및 저장하게 할 수 있을 것이다.Advantageously, in step S540, the user may manipulate UI elements, such as the 'save' button provided on the user interface, to cause the user to pass and store the evaluation information or final report to an external entity, such as the PACS 420 It will be possible.

이 실시예에서는, 미리 학습된 딥 러닝 모델에 기초하여 흉부 영상의 판독을 지원할 수 있는바, 생성, 제안 또는 수정된 소견 정보 및 이에 대응되는 판독문의 정보를 포함하는 평가 정보를 다시 상기 딥 러닝 모델에 대한 재학습의 자료로 활용한다면, 상기 딥 러닝 모델이 더 정확해질 수 있는 장점이 있으므로, 이러한 장점을 취하기 위하여, 본 발명의 이 실시예에 따른 의료 영상 판독 지원 방법은, 도 5에 도시된 바와 같이, 상기 프로세서(220)가, 상기 평가 정보를 결과 입력 모듈(350)을 통하여 획득하고, 상기 평가 정보에 기초하여 갱신 모듈(360)을 통하여 상기 딥 러닝 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계(S550)를 더 포함할 수 있다. 이때, 이전의 학습 때에는 고려되지 않았던 흉부 영상, 소견 정보 및 판독문의 정보가 추가로 고려되어 이전의 학습 때에 있었던 오류를 바로 잡을 수 있기 때문에 상기 딥 러닝 모델의 정확도가 향상되는바, 데이터가 쌓일수록 본 발명에 따른 의료 영상 판독 지원 방법의 효과가 지속적, 누적적으로 향상되는 장점이 있다. 이를 위한 상기 평가 정보는 의료 전문가 등의 신뢰할 만한 외부 엔티티에 의하여 제공될 필요가 있다.In this embodiment, it is possible to support the reading of the chest image based on the previously learned deep learning model, and evaluation information including information of the created, proposed or modified view information and information corresponding to the generated view information is again sent to the deep learning model The method of supporting reading of a medical image according to this embodiment of the present invention is characterized in that the depth learning model is more accurate than the deep learning model, , The processor 220 acquires the evaluation information through the result input module 350 and updates the deep learning model through the update module 360 based on the evaluation information, (Step S550). At this time, since the chest image, the finding information, and the information of the report which are not taken into consideration in the previous learning are further considered, the error in the previous learning can be corrected, so that the accuracy of the deep learning model is improved, There is an advantage that the effect of the medical image reading support method according to the present invention is continuously and cumulatively improved. The evaluation information for this need to be provided by a trusted external entity, such as a medical professional.

본 발명에 따른 의료 영상 판독 지원 방법의 다른 실시예에서는, 흉부 영상의 판독이 다수의 사용자에 의하여 이루어질 수도 있는바, 이에 따라 흉부 영상의 판독이 지원되는 적어도 하나의 사용자는, 전체 M개의 사용자 그룹 중 제n 사용자 그룹에 포함된 Kn인의 사용자들 중에서 선택됨으로써, 하나의 상기 흉부 영상에 대하여 다수의 판독이 시행될 수 있으며, 이를 통하여 그 판독의 결과인 판독 보조 정보 및 평가 정보 중 적어도 하나에 대한 교차 검증이 이루어질 수도 있을 것이다.In another embodiment of the method for supporting medical image reading according to the present invention, the reading of the chest image may be performed by a plurality of users, whereby at least one user who is supported to read the chest image, A plurality of readings can be performed for one of the chest images by selecting among Kn users included in the n-th user group, and thereby, for at least one of the read assistance information and the evaluation information, Cross-validation may be achieved.

ROC 곡선. ROC curve.

전술한 본 발명의 의료 영상 판독 지원 방법에서 이용되는 딥 러닝 모델은 분류기(classifier)로서의 역할을 하므로, 분류기의 성능을 나타내는 ROC 곡선(receiver operating characteristic curve; 수용자 반응 특성 곡선)을 통하여 그 성능을 확인할 수 있다.Since the deep learning model used in the medical image reading support method of the present invention serves as a classifier, the performance of the deep learning model can be confirmed through an ROC curve (receiver operating characteristic curve) representing the performance of the classifier .

도 12는 딥 러닝 모델의 성능을 평가하기 위한 도구인 ROC 곡선을 예시하는 도면이다. 도 12를 참조하면, 먼저, ROC 곡선 그래프의 가로축에 나타난 수치는 1 - 특이도(specificity) = 위양성률(false positive rate)로서, 특이도는 특이도(specificity) = 진음성(true negative) / (위양성(false positive) + 진음성(true negative))으로 정의되는 값이다. 즉, 특이도는 ‘틀린 것(음성)’을 틀렸다고 판단하는 비율을 뜻하므로, 그래프에서는 좌측으로 기울수록 ‘옳은 것(양성)’을 틀렸다고 판단할 오판의 비율이 줄어든다고 볼 수 있다. 또한 ROC 곡선 그래프의 세로축에 나타난 수치는 민감도(sensitivity) = 진양성률(true positive rate)로서, 민감도는 민감도(sensitivity) = 진양성(true positive) / (진양성(true positive) + 위음성(false negative))로 정의되는 값이다. 즉, 민감도는 ‘옳은 것’을 옳다고 판단할 비율을 뜻하므로, 그래프에서는 위로 기울수록 ‘틀린 것’을 옳다고 오판할 비율이 줄어든다고 볼 수 있다. 따라서 분류기가 올바르게 판단할수록 그래프 곡선의 아래의 면적(AUC; area under curve)은 증가하게 된다. 분류기가 올바르게 판단하는 분류 성능을 하나도 가지고 있지 않을 때에는 AUC는 0.5가 된다. 보통, AUC 수치에 따라 비정보적(AUC = 0.5), 덜 정확한(0.5 < AUC ≤ 0.7), 중등도의 정확한(0.7 < AUC ≤ 0.9), 매우 정확한(0.9 < AUC < 1), 그리고 완벽한 검사(AUC = 1)로 분류할 수 있다.12 is a diagram illustrating an ROC curve as a tool for evaluating the performance of the deep running model. 12, the values on the horizontal axis of the ROC curve graph are 1-specificity = false positive rate, and the specificity is the specificity = true negative / ( False positive + true negative. &Lt; / RTI &gt; In other words, the peculiarity means the ratio of judging 'wrong (voice)' to be wrong. Therefore, it can be said that the percentage of false positives judged to be 'wrong' (positive) In addition, the values on the vertical axis of the ROC curve are the sensitivity = true positive rate, sensitivity = true positive / true positive + false negative )). In other words, the sensitivity means the ratio of judging the 'right' to be right, so the tendency of the graph to be 'up' is that the percentage of mistaken 'wrong' is wrong. Therefore, as the classifier correctly determines, the area under curve (AUC) of the graph curve increases. The AUC is 0.5 when the classifier does not have any classification performance that it judges correctly. Usually, the AUC values are noninformative (AUC = 0.5), less accurate (0.5 <AUC ≤ 0.7), moderate (0.7 <AUC ≤ 0.9), very accurate (0.9 <AUC < AUC = 1).

흉부 PA 영상 데이터를 이용한 본 발명의 예시적 딥 러닝 모델의 테스트. Testing of an exemplary deep-running model of the present invention using chest PA image data.

본 발명에 따른 흉부 영상(chest view) 판독 지원 방법에서 이용된 예시적 딥 러닝 모델의 ROC 곡선의 일 예가 도 13에 도시되어 있다.An example of the ROC curve of the exemplary deep-run model used in the chest view read support method according to the present invention is shown in FIG.

도 13을 참조하면, 본 발명자가 상기 딥 러닝 모델을 이용하여 정상과 비정상을 분류해내는 성능을 A병원(아산병원; Asan Medical Center)으로부터 획득된 피검체에 대하여 평가한 결과의 ROC 곡선이 빨간 색으로 표시되어 있으며, B병원으로부터 획득된 피검체에 대하여 평가한 결과의 ROC 곡선이 파란 색으로 표시되어 있다. Referring to FIG. 13, the ROC curve of the result obtained by evaluating the ability of the present inventor to classify normal and abnormal abnormalities using the above deep learning model with respect to a subject obtained from Asan Medical Center (A hospital) Color, and the ROC curve of the result of the evaluation on the subject obtained from the hospital B is shown in blue.

이 ROC 곡선들의 AUC, 민감도 및 특이도를 정리한 결과는 아래 표 2와 같다.The AUC, sensitivity, and specificity of these ROC curves are summarized in Table 2 below.

AUC(area under curve)AUC (area under curve) 민감도(T=0.5)Sensitivity (T = 0.5) 특이도(T=0.5)Specificity (T = 0.5) 병원 AHospital A 0.990.99 97.6%97.6% 96.7%96.7% 병원 BHospital B 0.980.98 96.5%96.5% 95.5%95.5%

본 발명의 예시적 딥 러닝 모델에 대한 가설 검증. 어떤 모델이 분류 성능을 전혀 가지고 있지 않음 의미하는 AUC = 0.5를 귀무가설, 상기 예시적 딥 러닝 모델이 분류 성능을 가지고 있음을 대립가설로 두고, 가설 검증을 시행하였다. 오류가 나올 확률을 p-value(유의 확률)라고 지칭하면, 소정의 확률보다 p-value가 낮을 때, 귀무가설을 기각하고 대립가설을 채택하는바, 그 소정의 확률을 유의 수준이라고 하며, 통계학에서는 보통 0.05의 값을 유의 수준으로 취한다. 본 발명자들이 확보한 흉부 PA 영상 데이터를 이용하여 밝혀낸 상기 딥 러닝 모델의 유의성은 AUC = 0.98에 대해 p-value가 0.00…인 점에서 알 수 있는 바와 같다. 이 딥 러닝 모델의 p-value는 유의 수준 0.05에 비하여 현저히 낮아 귀무가설이 기각됨은 물론이고 극도로 유의한 분류 성능을 가지고 있다는 점이 증명된다. Hypothesis verification for an exemplary deep-running model of the present invention. Hypothesis testing was conducted with the null hypothesis that AUC = 0.5, which means that no model has classification performance at all, and the hypothetical hypothesis that the exemplary deep learning model has classification performance. If the p-value is lower than the predetermined probability, the null hypothesis is rejected and the alternative hypothesis is adopted. The predetermined probability is referred to as the significance level, , A value of 0.05 is usually taken at a significant level. The significance of the deep learning model, which was found using the chest PA image data obtained by the present inventors, was 0.001 for AUC = 0.98. As can be seen from the point of view. The p-values of this deep learning model are significantly lower than the significance level of 0.05, demonstrating that the null hypothesis is rejected and has an extremely significant classification performance.

덧붙여, 상기 딥 러닝 모델이 분류한 개별 소견 정보를 이에 대응되는 질환별로 평가한 결과는 아래 표 3과 같다. 검증을 위하여 이용된 데이터 세트의 출처(validation dataset source)는 B병원이다.Table 3 shows the results of evaluating the individual findings classified by the deep learning model according to the corresponding diseases. The validation dataset source of the data set used for verification is B hospital.

기흉Pneumothath 경화Hardening 흉막삼출Pleural effusion 결절nodule 간질혼탁Epilepsy turbidity Test 1Test 1 96%96% 94%94% 95%95% 95%95% 89%89%

전술한 표 2 및 표 3에 나타난 수치들은 상기 딥 러닝 모델이 매우 유의한 결과를 보인다는 점을 보여주는바, 즉, 상기 딥 러닝 모델은 고도로 정확한 소견 정보의 생성이 가능한 매우 유의한 모델이라는 점이 판명되었다고 할 수 있다.The numerical values shown in the above Tables 2 and 3 show that the deep learning model shows very significant results, that is, the deep learning model is a very significant model capable of generating highly accurate information. .

이와 같이 본 발명은 전술한 모든 실시예들에 걸쳐, 복수의 질환에 대해 흉부 영상을 스크리닝할 수 있어, 복수의 질환을 예측(prediction)할 수 있을 뿐만 아니라, 그 복수의 질환 각각에 대응되는 병변을 시각화하여 보여줄 수 있고, 진단서(report)의 생성 및 작성도 자동화할 수 있는바, 종래의 의료 전문가들이 그 경험이나 지식에 의존하여 일일이 흉부 PA 영상을 판독하는 것에 비하여 효율적이고 정확한 판독을 가능하게 함으로써 의료진의 시간을 절약하고 진료의 질을 높이고 의료 현장에서의 워크플로(workflow)를 혁신할 수 있는 효과가 있다.As described above, according to the present invention, the chest image can be screened for a plurality of diseases, so that not only a plurality of diseases can be predicted, but also lesions corresponding to the plurality of diseases And it is also possible to automate generation and creation of a report so that conventional medical professionals can efficiently and precisely read out the chest PA image based on their experience or knowledge Thereby saving time for medical staff, improving the quality of medical care, and innovating the workflow in the medical field.

위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명이 소프트웨어 및 하드웨어의 결합을 통하여 달성되거나 하드웨어만으로 달성될 수 있다는 점을 명확하게 이해할 수 있다. 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD, Blu-ray와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드, 바이트코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. Based on the description of the above embodiments, one of ordinary skill in the art can clearly understand that the present invention can be achieved through a combination of software and hardware, or can be accomplished by hardware alone. Objects of the technical solution of the present invention or portions contributing to the prior art can be recorded in a machine-readable recording medium implemented in the form of program instructions that can be executed through various computer components. The machine-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the machine-readable recording medium may be those specially designed and constructed for the present invention or may be those known to those of ordinary skill in the computer software arts. Examples of the machine-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM, DVD, Blu-ray, magneto-optical media such as floptical disks magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by the compiler, as well as bytecode, as well as high-level language code that can be executed by a computer using an interpreter, etc.

상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 CPU, GPU, TPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa. The hardware device may include a processor, such as a CPU, a GPU, a TPU, coupled to a memory, such as ROM / RAM, for storing program instructions, and configured to execute instructions stored in the memory, And the like. In addition, the hardware device may include a keyboard, a mouse, and other external input devices for receiving commands generated by the developers.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.

그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것이다.Equally or equivalently modified such methods will include logically equivalent methods which can yield, for example, the same results as those of the method according to the invention.

Claims (6)

피검체의 의료 영상의 판독을 지원하는 방법에 있어서,
(a) 컴퓨팅 장치가, 상기 피검체의 의료 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계;
(b) 상기 컴퓨팅 장치가, 상기 의료 영상의 입력으로부터 기계 학습 모델(machine learning model)에 기초하여 상기 의료 영상에 관한 판독 보조 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 단계; 및
(c) 상기 판독 보조 정보가 생성되면, 상기 컴퓨팅 장치가, 상기 판독 보조 정보를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계
를 포함하고,
상기 판독 보조 정보는,
(i) 상기 의료 영상에 대한 적어도 하나의 소견 정보, 또는
(ii) 상기 적어도 하나의 소견 정보 및 상기 소견 정보 각각에 대응되는 마스크 영상(mask image)을 포함하되,
상기 마스크 영상은, 상기 의료 영상의 적어도 일부 위에 중첩됨으로써 상기 마스크 영상에 대응되는 개별 소견 정보를 지지하는 표시로서 제공되며,
상기 방법은,
(d) 상기 컴퓨팅 장치가, 상기 판독 보조 정보에 관한 평가 정보를 획득하거나 상기 타 장치로 하여금 획득하도록 지원하는 단계
를 더 포함하되,
상기 평가 정보는 상기 소견 정보 및 상기 소견 정보에 대응되는 판독문의 정보를 포함하며,
상기 판독문은, 초기값으로서,
(i) 상기 소견 정보가 정상 소견인 경우에 상기 정상 소견에 대응되도록 제공되는 기본 판독문, 또는 (ii) 상기 소견 정보가 정상 소견이 아닌 경우에 상기 소견 정보에 대응되도록 제공되는 적어도 한 세트(set)의 복수개의 판독문 선택지 중에서 상기 컴퓨팅 장치에 의하여 상기 기계 학습 모델에 기초하여 선택된 결과인 선택형 판독문으로서 획득되고,
상기 (d) 단계는,
상기 외부 엔티티의 수정 입력이 획득되면, 상기 컴퓨팅 장치가, 상기 외부 엔티티의 수정 입력에 응하여 상기 판독문을 수정하거나 상기 타 장치로 하여금 수정하도록 지원하는 것을 특징으로 하는 의료 영상 판독 지원 방법.
A method of supporting reading of a medical image of a subject,
(a) supporting a computing device to acquire a medical image of the subject or acquire another device associated with the computing device;
(b) supporting the computing device to generate or cause the other device to generate read assistance information about the medical image based on a machine learning model from an input of the medical image; And
(c) when the read assistance information is generated, causing the computing device to provide the read assistance information to an external entity or to provide the other device with the read assistance information
Lt; / RTI &gt;
The read-
(i) at least one finding information for the medical image, or
(ii) a mask image corresponding to each of the at least one finding information and the finding information,
Wherein the mask image is provided as an indication to support individual disposition information corresponding to the mask image by being superposed on at least a portion of the medical image,
The method comprises:
(d) the computing device acquiring evaluation information about the read assistance information or supporting the other device to acquire
Further comprising:
Wherein the evaluation information includes information of the inspection information corresponding to the finding information and the finding information,
The report includes, as an initial value,
(i) a basic report provided so as to correspond to the normal findings when the findings information is normal findings, or (ii) at least one set provided to correspond to the findings information when the findings information is not normal findings A plurality of As a selectable readout which is a result selected by the computing device based on the machine learning model,
The step (d)
Wherein when the modification input of the external entity is obtained, the computing device supports modifying the response or modifying the other device in response to a modification input of the external entity.
제1항에 있어서,
상기 (b) 단계는,
상기 컴퓨팅 장치가, 상기 기계 학습 모델에 기초하여 다특징 분획 및 분류(multi feature segmentation and classification)를 수행함으로써 상기 판독 보조 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하되, 상기 기계 학습 모델에 의하여 상기 적어도 하나의 소견 정보 각각의 특징에 대한 ROI 분획(region of interest segmentation) 및 영상 분류(image classification)가 동시에 또는 순차적으로 수행되는 것을 특징으로 하는 의료 영상 판독 지원 방법.
The method according to claim 1,
The step (b)
Wherein the computing device is adapted to generate or generate the read assistance information by performing multi-feature segmentation and classification based on the machine learning model, Wherein the region of interest segmentation and the image classification for the feature of each of the at least one feature information are simultaneously or sequentially performed.
제1항에 있어서,
(e) 상기 평가 정보가 획득되면, 상기 컴퓨팅 장치가, 상기 평가 정보에 기초하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계
를 더 포함하는 의료 영상 판독 지원 방법.
The method according to claim 1,
(e) when the evaluation information is obtained, the computing device updates the machine learning model or supports the other device to update based on the evaluation information
Wherein the medical image reading support method further comprises:
컴퓨팅 장치로 하여금, 제1항 내지 제3항 중 어느 한 항의 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램.A computer program stored in a machine readable non-transitory medium, comprising instructions embodied in a computer-readable medium for causing a computing device to perform the method of any one of claims 1 to 3. 피검체의 의료 영상의 판독을 지원하는 컴퓨팅 장치에 있어서,
상기 피검체의 의료 영상을 획득하는 통신부; 및
상기 의료 영상의 입력으로부터 기계 학습 모델(machine learning model)에 기초하여 상기 의료 영상에 관한 판독 보조 정보를 생성하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 생성하도록 지원하는 프로세서
를 포함하되,
상기 프로세서는,
상기 판독 보조 정보가 생성되면, 상기 판독 보조 정보를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하고,
상기 판독 보조 정보는,
(i) 상기 의료 영상에 대한 적어도 하나의 소견 정보, 또는
(ii) 상기 적어도 하나의 소견 정보 및 상기 소견 정보 각각에 대응되는 마스크 영상(mask image)을 포함하되,
상기 마스크 영상은, 상기 의료 영상의 적어도 일부 위에 중첩됨으로써 상기 마스크 영상에 대응되는 개별 소견 정보를 지지하는 표시로서 제공되며,
상기 프로세서는,
상기 판독 보조 정보에 관한 평가 정보를 획득하거나 상기 타 장치로 하여금 획득하도록 지원하는 프로세스를 수행하되,
상기 평가 정보는 상기 소견 정보 및 상기 소견 정보에 대응되는 판독문의 정보를 포함하며,
상기 판독문은, 초기값으로서,
(i) 상기 소견 정보가 정상 소견인 경우에 상기 정상 소견에 대응되도록 제공되는 기본 판독문, 또는 (ii) 상기 소견 정보가 정상 소견이 아닌 경우에 상기 소견 정보에 대응되도록 제공되는 적어도 한 세트(set)의 복수개의 판독문 선택지 중에서 상기 컴퓨팅 장치에 의하여 상기 기계 학습 모델에 기초하여 선택된 결과인 선택형 판독문으로서 획득되고,
상기 프로세서는,
상기 외부 엔티티의 수정 입력이 획득되면, 상기 외부 엔티티의 수정 입력에 응하여 상기 판독문을 수정하거나 상기 통신부를 통하여 연동되는 상기 타 장치로 하여금 수정하도록 지원하는 것을 특징으로 하는 의료 영상 판독 지원 장치.
A computing device for supporting reading of a medical image of a subject,
A communication unit for acquiring a medical image of the subject; And
A processor for generating read assistance information on the medical image based on a machine learning model from the input of the medical image or for generating another assistant information through the communication unit,
, &Lt; / RTI &
The processor comprising:
And when the read assistance information is generated, providing the read assistance information to an external entity or providing the other device with assistance,
The read-
(i) at least one finding information for the medical image, or
(ii) a mask image corresponding to each of the at least one finding information and the finding information,
Wherein the mask image is provided as an indication to support individual disposition information corresponding to the mask image by being superposed on at least a portion of the medical image,
The processor comprising:
Performing the process of obtaining evaluation information on the read assistance information or assisting the other device to acquire the evaluation information,
Wherein the evaluation information includes information of the inspection information corresponding to the finding information and the finding information,
The report includes, as an initial value,
(i) a basic report provided so as to correspond to the normal findings when the findings information is normal findings, or (ii) at least one set provided to correspond to the findings information when the findings information is not normal findings ) As a selectable readout that is a result selected by the computing device based on the machine learning model,
The processor comprising:
And when the correction input of the external entity is obtained, corrects the readout in response to the correction input of the external entity or supports the other device linked through the communication unit to correct it.
제5항에 있어서,
프로세서는,
상기 평가 정보가 획득되면, 상기 평가 정보에 기초하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 것을 특징으로 하는 의료 영상 판독 지원 장치.
6. The method of claim 5,
The processor,
And when the evaluation information is acquired, updates the machine learning model or updates the other device based on the evaluation information.
KR1020180070722A 2017-11-21 2018-06-20 Method for facilitating dignosis of subject based on medical imagery thereof, and apparatus using the same KR101887194B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180070722A KR101887194B1 (en) 2018-06-20 2018-06-20 Method for facilitating dignosis of subject based on medical imagery thereof, and apparatus using the same
PCT/KR2018/014305 WO2019103440A1 (en) 2017-11-21 2018-11-21 Method for supporting reading of medical image of subject and device using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180070722A KR101887194B1 (en) 2018-06-20 2018-06-20 Method for facilitating dignosis of subject based on medical imagery thereof, and apparatus using the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170155988A Division KR101874348B1 (en) 2017-11-21 2017-11-21 Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same

Publications (1)

Publication Number Publication Date
KR101887194B1 true KR101887194B1 (en) 2018-08-10

Family

ID=63229792

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180070722A KR101887194B1 (en) 2017-11-21 2018-06-20 Method for facilitating dignosis of subject based on medical imagery thereof, and apparatus using the same

Country Status (1)

Country Link
KR (1) KR101887194B1 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200019572A (en) * 2018-08-14 2020-02-24 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and storage medium
KR102102255B1 (en) * 2019-05-14 2020-04-20 주식회사 뷰노 Method for aiding visualization of lesions in medical imagery and apparatus using the same
KR20200043185A (en) 2018-10-17 2020-04-27 (의료)길의료재단 System and Method for Tagging Reading Phrase in Medical Image and Computer Readable Recording Medium
EP3654343A1 (en) * 2018-11-14 2020-05-20 Qure.Ai Technologies Private Limited Application of deep learning for medical imaging evaluation
KR102108401B1 (en) * 2019-06-27 2020-05-28 주식회사 딥노이드 Identification server by artificial intelligence and image processing system based on pacs including the same
KR20200077086A (en) * 2018-12-20 2020-06-30 사회복지법인 삼성생명공익재단 Sight development and myopia prediction method and system of prematrue infants using deep learning
KR20200077085A (en) * 2018-12-20 2020-06-30 사회복지법인 삼성생명공익재단 Myopia prediction method and system using deep learning
KR102132566B1 (en) 2019-10-24 2020-07-10 주식회사 딥노이드 Apparatus and method for distinguishing lesion
CN111436212A (en) * 2018-11-14 2020-07-21 库雷人工智能科技私人有限公司 Application of deep learning for medical imaging assessment
KR20200092803A (en) * 2019-01-25 2020-08-04 주식회사 딥바이오 Method for annotating pathogenic area using semi-supervised learning and medical diagnosis system performing the same
KR102150682B1 (en) 2019-08-08 2020-09-02 주식회사 딥노이드 Apparatus and method for classifying singularity
KR102152385B1 (en) 2019-08-08 2020-09-04 주식회사 딥노이드 Apparatus and method for detecting singularity
KR20200113927A (en) * 2019-03-27 2020-10-07 주식회사 디알뷰 Medical Image Interpretation Based On Internet Of Things And Method For Providing Information Of Image Interpretation Using The Same
KR20210016171A (en) * 2019-08-01 2021-02-15 동국대학교 산학협력단 The method of providing disease information using medical image
WO2021107306A1 (en) * 2019-11-27 2021-06-03 주식회사 에프앤디파트너스 Device for automatically recommending doctor's opinion on medical image
US11037295B2 (en) 2018-11-09 2021-06-15 Oxipit, Uab Methods, systems and use for detecting irregularities in medical images by means of a machine learning model
WO2021261808A1 (en) * 2020-06-24 2021-12-30 주식회사 뷰노 Method for displaying lesion reading result
WO2022019356A1 (en) * 2020-07-23 2022-01-27 주식회사 딥바이오 Method for annotating pathogenic site of disease by means of semi-supervised learning, and diagnosis system for performing same
DE102023203884A1 (en) 2022-04-26 2023-10-26 Coreline Soft Co., Ltd Medical image diagnostic aid device and method for generating and visualizing aid information based on distributions of signal intensities in medical images
KR20230151865A (en) 2022-04-26 2023-11-02 주식회사 코어라인소프트 Medical image diagnosis assistant apparatus and method generating and visualizing assistant information based on distribution of intensity in medical images
JP7502089B2 (en) 2020-06-03 2024-06-18 キヤノン株式会社 Medical information processing device, medical information processing system, medical information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140065594A (en) * 2012-11-16 2014-05-30 삼성전자주식회사 Computer-aided diagnosis supporting apparatus and method
KR20140091176A (en) 2013-01-10 2014-07-21 삼성전자주식회사 Apparatus and method for lesion diagnosis
KR20140108417A (en) * 2013-02-27 2014-09-11 김민준 Health diagnosis system using image information
KR20150094080A (en) * 2014-02-10 2015-08-19 동명대학교산학협력단 Medical image diagnostic system
KR20170047423A (en) 2015-10-22 2017-05-08 한국디지털병원수출사업협동조합 Automatic diagnosis system of digital xray based on cad

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140065594A (en) * 2012-11-16 2014-05-30 삼성전자주식회사 Computer-aided diagnosis supporting apparatus and method
KR20140091176A (en) 2013-01-10 2014-07-21 삼성전자주식회사 Apparatus and method for lesion diagnosis
KR20140108417A (en) * 2013-02-27 2014-09-11 김민준 Health diagnosis system using image information
KR20150094080A (en) * 2014-02-10 2015-08-19 동명대학교산학협력단 Medical image diagnostic system
KR20170047423A (en) 2015-10-22 2017-05-08 한국디지털병원수출사업협동조합 Automatic diagnosis system of digital xray based on cad

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102560911B1 (en) * 2018-08-14 2023-07-31 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and storage medium
KR20200019572A (en) * 2018-08-14 2020-02-24 캐논 가부시끼가이샤 Image processing apparatus, image processing method, and storage medium
KR20200043185A (en) 2018-10-17 2020-04-27 (의료)길의료재단 System and Method for Tagging Reading Phrase in Medical Image and Computer Readable Recording Medium
US11037295B2 (en) 2018-11-09 2021-06-15 Oxipit, Uab Methods, systems and use for detecting irregularities in medical images by means of a machine learning model
CN111436212A (en) * 2018-11-14 2020-07-21 库雷人工智能科技私人有限公司 Application of deep learning for medical imaging assessment
EP3654343A1 (en) * 2018-11-14 2020-05-20 Qure.Ai Technologies Private Limited Application of deep learning for medical imaging evaluation
US10733727B2 (en) 2018-11-14 2020-08-04 Qure.Ai Technologies Private Limited Application of deep learning for medical imaging evaluation
KR20200077086A (en) * 2018-12-20 2020-06-30 사회복지법인 삼성생명공익재단 Sight development and myopia prediction method and system of prematrue infants using deep learning
KR20200077085A (en) * 2018-12-20 2020-06-30 사회복지법인 삼성생명공익재단 Myopia prediction method and system using deep learning
KR102320581B1 (en) * 2018-12-20 2021-11-03 사회복지법인 삼성생명공익재단 Sight development and myopia prediction method and system of prematrue infants using deep learning
KR102320580B1 (en) * 2018-12-20 2021-11-03 사회복지법인 삼성생명공익재단 Myopia prediction method and system using deep learning
KR20200092803A (en) * 2019-01-25 2020-08-04 주식회사 딥바이오 Method for annotating pathogenic area using semi-supervised learning and medical diagnosis system performing the same
KR102236948B1 (en) 2019-01-25 2021-04-06 주식회사 딥바이오 Method for annotating pathogenic area using semi-supervised learning and medical diagnosis system performing the same
KR20200113927A (en) * 2019-03-27 2020-10-07 주식회사 디알뷰 Medical Image Interpretation Based On Internet Of Things And Method For Providing Information Of Image Interpretation Using The Same
KR102346322B1 (en) * 2019-03-27 2022-01-03 주식회사 디알뷰 Medical Image Interpretation Based On Internet Of Things And Method For Providing Information Of Image Interpretation Using The Same
KR102102255B1 (en) * 2019-05-14 2020-04-20 주식회사 뷰노 Method for aiding visualization of lesions in medical imagery and apparatus using the same
KR102108401B1 (en) * 2019-06-27 2020-05-28 주식회사 딥노이드 Identification server by artificial intelligence and image processing system based on pacs including the same
KR20210016171A (en) * 2019-08-01 2021-02-15 동국대학교 산학협력단 The method of providing disease information using medical image
KR102261408B1 (en) * 2019-08-01 2021-06-09 동국대학교 산학협력단 The method of providing disease information using medical image
KR102152385B1 (en) 2019-08-08 2020-09-04 주식회사 딥노이드 Apparatus and method for detecting singularity
KR102150682B1 (en) 2019-08-08 2020-09-02 주식회사 딥노이드 Apparatus and method for classifying singularity
KR102132566B1 (en) 2019-10-24 2020-07-10 주식회사 딥노이드 Apparatus and method for distinguishing lesion
WO2021107306A1 (en) * 2019-11-27 2021-06-03 주식회사 에프앤디파트너스 Device for automatically recommending doctor's opinion on medical image
KR102325555B1 (en) * 2019-11-27 2021-11-12 주식회사 에프앤디파트너스 Medical image automatic doctor's recommendation device
KR20210065296A (en) * 2019-11-27 2021-06-04 주식회사 에프앤디파트너스 Medical image automatic doctor's recommendation device
JP7502089B2 (en) 2020-06-03 2024-06-18 キヤノン株式会社 Medical information processing device, medical information processing system, medical information processing method, and program
WO2021261808A1 (en) * 2020-06-24 2021-12-30 주식회사 뷰노 Method for displaying lesion reading result
KR20210158682A (en) * 2020-06-24 2021-12-31 주식회사 뷰노 Method to display lesion readings result
KR102492463B1 (en) * 2020-06-24 2023-01-27 주식회사 뷰노 Method to display lesion readings result
WO2022019356A1 (en) * 2020-07-23 2022-01-27 주식회사 딥바이오 Method for annotating pathogenic site of disease by means of semi-supervised learning, and diagnosis system for performing same
DE102023203884A1 (en) 2022-04-26 2023-10-26 Coreline Soft Co., Ltd Medical image diagnostic aid device and method for generating and visualizing aid information based on distributions of signal intensities in medical images
KR20230151865A (en) 2022-04-26 2023-11-02 주식회사 코어라인소프트 Medical image diagnosis assistant apparatus and method generating and visualizing assistant information based on distribution of intensity in medical images

Similar Documents

Publication Publication Date Title
KR101887194B1 (en) Method for facilitating dignosis of subject based on medical imagery thereof, and apparatus using the same
KR101874348B1 (en) Method for facilitating dignosis of subject based on chest posteroanterior view thereof, and apparatus using the same
CN111563523B (en) COPD classification using machine-trained anomaly detection
US11101032B2 (en) Searching a medical reference image
JP6906347B2 (en) Medical image classifiers, methods and programs
JP4911029B2 (en) Abnormal shadow candidate detection method, abnormal shadow candidate detection device
JP2007151645A (en) Medical diagnostic imaging support system
US11996182B2 (en) Apparatus and method for medical image reading assistant providing representative image based on medical use artificial neural network
JP7170000B2 (en) LEARNING SYSTEMS, METHODS AND PROGRAMS
Li et al. A novel radiogenomics framework for genomic and image feature correlation using deep learning
CN111226287B (en) Method, system, program product and medium for analyzing medical imaging data sets
JP2006346094A (en) Method for outputting detected information and medical image processing system
Wang et al. Automatic creation of annotations for chest radiographs based on the positional information extracted from radiographic image reports
WO2020235461A1 (en) Abnormality detection method, abnormality detection program, abnormality detection device, server device, and information processing method
JP2006340835A (en) Displaying method for abnormal shadow candidate, and medical image processing system
JP2022535431A (en) Automatic diagnosis system for cervical cancer
JP2020042810A (en) Medical information processing device, medical information processing method, medical information processing program and medical information processing system
JP2020174861A (en) Information processing device, information processing method, and program
CN111918611A (en) Abnormal display control method for chest X-ray image, abnormal display control program, abnormal display control device, and server device
Singh et al. Semantic segmentation of bone structures in chest X-rays including unhealthy radiographs: A robust and accurate approach
WO2021246013A1 (en) Diagnostic imaging method, diagnostic imaging assisting device, and computer system
US11928817B2 (en) Method for filtering normal medical image, method for interpreting medical image, and computing device implementing the methods
EP4356837A1 (en) Medical image diagnosis system, medical image diagnosis system evaluation method, and program
JP7452068B2 (en) Information processing device, information processing method and program
EP4266255A1 (en) Method and system for generating label of medical image

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]