KR20220094700A - Masking method and system for building medical image data for artificial intelligence learning - Google Patents

Masking method and system for building medical image data for artificial intelligence learning Download PDF

Info

Publication number
KR20220094700A
KR20220094700A KR1020200186186A KR20200186186A KR20220094700A KR 20220094700 A KR20220094700 A KR 20220094700A KR 1020200186186 A KR1020200186186 A KR 1020200186186A KR 20200186186 A KR20200186186 A KR 20200186186A KR 20220094700 A KR20220094700 A KR 20220094700A
Authority
KR
South Korea
Prior art keywords
medical image
image data
masking
learning
training
Prior art date
Application number
KR1020200186186A
Other languages
Korean (ko)
Other versions
KR102659323B1 (en
Inventor
하은주
이정훈
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020200186186A priority Critical patent/KR102659323B1/en
Publication of KR20220094700A publication Critical patent/KR20220094700A/en
Application granted granted Critical
Publication of KR102659323B1 publication Critical patent/KR102659323B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

The present invention relates to a masking method for building medical image data for artificial intelligence learning. The masking method for building medical image data for artificial intelligence learning, includes the following steps of: acquiring a plurality of medical images; preprocessing the plurality of medical images such that the images can be applied to an artificial intelligence algorithm; selecting a medical image to be masked from among the plurality of preprocessed medical images; recommending a position of a predicted region of interest by applying the selected medical image to the artificial intelligence algorithm; masking the medical image considering the selected medical image and the recommended position information of the region of interest, and generating the completely masked medical image as medical image data for learning; and performing learning and prediction by applying the medical image data for learning to a deep learning model. Therefore, the present invention is capable of improving the accuracy of lesion detection.

Description

인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법 및 시스템{MASKING METHOD AND SYSTEM FOR BUILDING MEDICAL IMAGE DATA FOR ARTIFICIAL INTELLIGENCE LEARNING}MASKING METHOD AND SYSTEM FOR BUILDING MEDICAL IMAGE DATA FOR ARTIFICIAL INTELLIGENCE LEARNING}

본원은 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법 및 시스템에 관한 것이다.The present application relates to a masking method and system for constructing medical image data for artificial intelligence learning.

인간의 몸을 구성하고 있는 가장 작은 단위인 세포는 정상적일 때 세포 내 조절기능에 의해 분열하며 성장하고 죽어 없어지기도 하면서 세포 수 균형을 유지한다. 어떤 원인으로 세포가 손상을 받는 경우, 치료를 받아 회복하여 정상적인 세포로 역할을 하게 되지만, 회복이 안 된 경우는 스스로 죽게 된다. 그러나 여러 가지 이유로 인해 이러한 증식과 억제가 조절되지 않는 비정상적인 세포들이 과다하게 증식할 뿐만 아니라 주위 조직 및 장기에 침입하여 종괴 형성 및 정상 조직의 파괴를 초래하는 상태를 암(cancer)이라 정의한다. 암은 이렇듯 억제가 안 되는 세포의 증식으로, 정상적인 세포와 장기의 구조와 기능을 파괴하기에 그 진단과 치료의 중요성은 매우 크다.Cells, the smallest unit constituting the human body, divide and grow, die and disappear due to intracellular regulatory functions when normal, maintaining cell number balance. If a cell is damaged for some reason, it recovers through treatment and functions as a normal cell, but if there is no recovery, it dies on its own. However, for various reasons, abnormal cells whose proliferation and inhibition are not controlled not only proliferate excessively, but also invade surrounding tissues and organs, resulting in mass formation and destruction of normal tissues, which is defined as cancer. Cancer is the proliferation of cells that cannot be suppressed, and it destroys the structure and function of normal cells and organs, so the diagnosis and treatment are very important.

기존의 위에 발생한 신생물은 의사가 위내시경을 통해 내시경 이미지에 포함된 위 내부의 형태 및 크기를 감안하여 위암 여부를 일차적으로 판단하고, 조직검사로 확진을 내렸다. 그러나 이 방법은 의사마다 경험이 달라 진단을 다르게 내릴 수 있으며, 의사가 없는 지역에서는 정확한 진단이 이루어질 수 없는 문제점이 발생한다.In the case of neoplasms in the existing stomach, the doctor first judged whether it was gastric cancer through a gastroscopy, taking into account the shape and size of the stomach included in the endoscopic image, and confirmed the diagnosis by biopsy. However, in this method, different doctors can make different diagnoses due to different experiences, and there is a problem that an accurate diagnosis cannot be made in an area where there is no doctor.

최근 컴퓨터 비전 인식 문제는 다양한 딥러닝 모델을 활용하여 여러 분야로 응용되면서, 각 분야에 맞는 개별적인 신경망(Customizing Model)을 구성하는 중요성은 커지고 있다. 따라서 개발자 및 연구자는 기존의 머신러닝 방식의 학습 데이터를 구성하기 위한 주석 과정(Annotation)은 필수적이며, 학습 데이터의 양에 따라 필요한 노동력과 시간의 규모는 커질 수 있다.Recently, as the computer vision recognition problem is applied to various fields using various deep learning models, the importance of constructing an individual neural network (Customizing Model) for each field is increasing. Therefore, it is essential for developers and researchers to perform an annotation process to compose the learning data of the existing machine learning method, and the required labor and time may increase according to the amount of learning data.

본원의 배경이 되는 기술은 한국공개특허공보 제10-2020-0010661호에 개시되어 있다.The background technology of the present application is disclosed in Korean Patent Application Laid-Open No. 10-2020-0010661.

본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 2차원 이미지화할 수 있는 모든 형태의 영상 이미지에 대해서 중요한 RoI(Region of Intrerest) 또는 병변(Lesion)에 대한 마스킹(Masking) 데이터를 형성할 수 있는 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법 및 시스템을 제공하려는 것을 목적으로 한다.The present application is intended to solve the problems of the prior art described above, and it is possible to form masking data for RoI (Region of Intrerest) or lesion, which is important for all types of image images that can be imaged in two dimensions. The purpose of the present invention is to provide a masking method and system for constructing medical image data for artificial intelligence learning.

다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the embodiments of the present application are not limited to the technical problems described above, and other technical problems may exist.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법은, 복수의 의료 영상 이미지를 획득하는 단계, 상기 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리하는 단계, 전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택하는 단계, 선택된 상기 의료 영상 이미지를 상기 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천하는 단계, 선택된 상기 의료 영상 이미지 및 추천된 관심영역의 위치 정보를 고려하여 상기 마스킹을 수행하고 마스킹이 완료된 의료 영상 이미지를 학습용 의료 영상 데이터로 생성하는 단계 및 상기 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행하는 단계를 포함할 수 있다. As a technical means for achieving the above technical task, the masking method for constructing medical image data for artificial intelligence learning according to an embodiment of the present application includes: acquiring a plurality of medical image images; Pre-processing to be applicable to an intelligent algorithm, selecting a medical image to be masked from among a plurality of pre-processed medical image images, applying the selected medical image to the artificial intelligence algorithm to recommend a location of an expected ROI performing the masking in consideration of the selected medical image image and location information of the recommended region of interest, and generating the masked medical image image as medical image data for training, and applying the medical image data for training to a deep learning model It may include the step of performing learning and prediction by applying.

또한, 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법은, 전처리된 복수의 의료 영상 이미지를 사용자 단말에 제공하는 단계 및 선택된 의료 영상 이미지에 마스킹이 수행될 예상 관심영역의 위치 정보에 대한 사용자 입력 정보를 수신하는 단계를 더 포함하되, 상기 학습용 의료 영상 데이터를 생성하는 단계는, 상기 사용자 입력 정보가 수신된 경우, 사용자의 입력 정보를 관심영역의 위치 정보로 결정하여 상기 학습용 의료 영상 데이터를 생성할 수 있다. In addition, the masking method for constructing medical image data for AI learning includes the steps of providing a plurality of pre-processed medical image images to a user terminal and user input information on location information of an expected region of interest to be masked on the selected medical image image. The method may further include receiving, wherein the generating of the medical image data for learning includes: when the user input information is received, determining the user input information as location information of the region of interest to generate the medical image data for training. can

또한, 상기 예상 관심영역의 위치를 추천하는 단계는, Segmentation 알고리즘 또는 Object Detection 알고리즘을 이용하여 예상 병변 영역을 포함하는 상기 예상 관심영역의 위치를 추천할 수 있다. Also, in the step of recommending the location of the predicted ROI, the location of the predicted ROI including the predicted lesion region may be recommended using a segmentation algorithm or an object detection algorithm.

또한, 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법은, 상기 학습 및 예측을 수행하는 단계 이전에, 상기 학습용 의료 영상 데이터의 사용 목적을 고려하여 상기 학습용 의료 영상 데이터를 복수의 딥러닝 모델 중 어느 하나에 적용 가능한 형태로 데이터 변환을 수행하는 단계를 더 포함할 수 있다. In addition, in the masking method for constructing medical image data for artificial intelligence learning, before performing the learning and prediction, in consideration of the purpose of using the medical image data for learning, any one of a plurality of deep learning models is used with the medical image data for training. It may further include the step of performing data transformation into a form applicable to one.

또한, 상기 데이터 변환을 수행하는 단계는, 상기 학습용 의료 영상 데이터의 사용 목적을 고려하여 상기 학습용 의료 영상 데이터를 이용하여 크롭(crop) 이미지를 생성, 메타 데이터(meta data) 생성, 바이너리 맵 (binary map) 생성 중 어느 하나의 데이터 변환을 수행할 수 있다. In addition, the performing of the data conversion includes generating a crop image using the medical image data for training in consideration of the purpose of using the medical image data for training, generating meta data, and a binary map. map), any one of data transformations can be performed.

본원의 일 실시예에 따르면, 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치는, 복수의 의료 영상 이미지를 획득하는 획득부, 상기 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리하는 전처리부, 전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택하고, 선택된 의료 영상 이미지를 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천하는 추천부, 선택된 상기 의료 영상 이미지 및 추천된 관심영역의 위치 정보를 고려하여 상기 마스킹을 수행하고 마스킹이 완료된 의료 영상 이미지를 학습용 의료 영상 데이터로 생성하는 생성부 및 상기 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행하는 딥러닝부를 포함할 수 있다. According to an embodiment of the present application, a masking device for constructing medical image data for artificial intelligence learning includes an acquisition unit for acquiring a plurality of medical image images, and a pre-processing unit for preprocessing the plurality of medical image images to be applicable to an artificial intelligence algorithm. , a recommendation unit that selects a medical image to be masked from among a plurality of preprocessed medical image images, and recommends a location of an expected ROI by applying the selected medical image to an artificial intelligence algorithm, the selected medical image and the recommended medical image. A generator that performs the masking in consideration of location information of the region of interest and generates a masked medical image as medical image data for training, and deep learning that applies the medical image data for training to a deep learning model to perform learning and prediction may include wealth.

또한, 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치는, 전처리된 복수의 의료 영상 이미지를 사용자 단말에 제공하는 제공부 및 선택된 의료 영상 이미지에 마스킹이 수행될 예상 관심영역의 위치 정보에 대한 사용자 입력 정보를 수신하는 수신부를 더 포함하되, 상기 생성부는, 상기 사용자 입력 정보가 수신된 경우, 사용자의 입력 정보를 관심영역의 위치 정보로 결정하여 상기 학습용 의료 영상 데이터를 생성할 수 있다. In addition, the masking apparatus for constructing medical image data for artificial intelligence learning includes a providing unit that provides a plurality of pre-processed medical image images to a user terminal and a user input for location information of an expected region of interest to be masked on the selected medical image image. The method may further include a receiving unit configured to receive information, wherein, when the user input information is received, the generating unit may determine the user input information as location information of the ROI to generate the training medical image data.

또한, 상기 추천부는, Segmentation 알고리즘 또는 Object Detection 알고리즘을 이용하여 예상 병변 영역을 포함하는 상기 예상 관심영역의 위치를 추천할 수 있다. Also, the recommendation unit may recommend the location of the predicted ROI including the predicted lesion region using a segmentation algorithm or an object detection algorithm.

또한, 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치는, 상기 학습용 의료 영상 데이터의 사용 목적을 고려하여 상기 학습용 의료 영상 데이터를 복수의 딥러닝 모델 중 어느 하나에 적용 가능한 형태로 데이터 변환을 수행하는 변환부를 더 포함할 수 있다.In addition, the masking device for constructing medical image data for artificial intelligence learning performs data conversion into a form applicable to any one of a plurality of deep learning models by converting the medical image data for learning in consideration of the purpose of using the medical image data for learning. It may further include a converter.

또한, 상기 변환부는, 상기 학습용 의료 영상 데이터의 사용 목적을 고려하여 상기 학습용 의료 영상 데이터를 이용하여 크롭(crop) 이미지를 생성, 메타 데이터(meta data) 생성, 바이너리 맵 (binary map) 생성 중 어느 하나의 데이터 변환을 수행할 수 있다. In addition, the conversion unit is configured to generate a crop image using the medical image data for training in consideration of the purpose of using the medical image data for training, generate meta data, and generate a binary map. One data transformation can be performed.

본원의 일 실시예에 따르면, 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 시스템은, 복수의 의료 영상 이미지를 획득하여, 상기 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리를 수행하고, 전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택하고, 선택된 의료 영상 이미지를 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천하고, 선택된 상기 의료 영상 이미지 및 추천된 관심영역의 위치 정보를 고려하여 상기 마스킹을 수행하고 마스킹이 완료된 의료 영상 이미지를 학습용 의료 영상 데이터로 생성하는 마스킹 장치 및 전처리된 복수의 의료 영상 이미지를 제공받고, 선택된 의료 영상 이미지에 마스킹이 수행될 예상 관심영역의 위치 정보에 대한 사용자 입력 정보를 제공하는 사용자 단말을 포함하되, 상기 마스킹 장치는, 상기 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행할 수 있다. According to an embodiment of the present application, a masking system for constructing medical image data for artificial intelligence learning acquires a plurality of medical image images, performs pre-processing to apply the plurality of medical image images to an artificial intelligence algorithm, and pre-processing Selects a medical image to be masked from among a plurality of medical image images, applies the selected medical image to an artificial intelligence algorithm to recommend a location of an expected ROI, and selects a location of the selected medical image and the recommended ROI A masking device that performs the masking in consideration of the information and generates a masked medical image as medical image data for training and a plurality of pre-processed medical image images are provided, and the masking is performed on the selected medical image. A user terminal providing user input information for location information, wherein the masking device may apply the training medical image data to a deep learning model to perform learning and prediction.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present application. In addition to the exemplary embodiments described above, additional embodiments may exist in the drawings and detailed description.

전술한 본원의 과제 해결 수단에 의하면, 2차원 이미지화할 수 있는 모든 형태의 영상 이미지에 대해서 중요한 RoI(Region of Intrerest) 또는 병변(Lesion)에 대한 마스킹(Masking) 데이터를 형성할 수 있다. According to the above-described problem solving means of the present application, it is possible to form masking data for an important RoI (Region of Intrerest) or lesion for all types of image images that can be two-dimensionally imaged.

전술한 본원의 과제 해결 수단에 의하면, 중요한 RoI(Region of Intrerest) 또는 병변(Lesion)에 대한 마스킹(Masking) 데이터를 형성하고 이를 기반으로 딥러닝 학습 및 예측을 수행함으로써, 병변 검출에 소요되는 시간을 줄이고, 병변 검출의 정확도를 향상시킬 수 있다. According to the above-described problem solving means of the present application, by forming masking data for important RoI (Region of Intrerest) or lesion and performing deep learning learning and prediction based on this, time required for lesion detection can be reduced and the accuracy of lesion detection can be improved.

다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.However, the effects obtainable herein are not limited to the above-described effects, and other effects may exist.

도 1은 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 시스템의 개략적인 구성도이다.
도 2는 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치의 개략적인 블록도이다.
도 3은 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치에서 사용자 단말에 제공하는 인터페이스를 예시적으로 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법에 대한 동작 흐름도이다.
1 is a schematic configuration diagram of a masking system for constructing medical image data for AI learning according to an embodiment of the present application.
2 is a schematic block diagram of a masking apparatus for constructing medical image data for artificial intelligence learning according to an embodiment of the present application.
3 is a diagram illustrating an interface provided to a user terminal by a masking apparatus for constructing medical image data for artificial intelligence learning according to an embodiment of the present application.
4 is an operation flowchart of a masking method for constructing medical image data for AI learning according to an embodiment of the present application.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present application pertains can easily carry out. However, the present application may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" or "indirectly connected" with another element interposed therebetween. "Including cases where

본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout this specification, when a member is positioned “on”, “on”, “on”, “on”, “under”, “under”, or “under” another member, this means that a member is positioned on the other member. It includes not only the case where they are in contact, but also the case where another member exists between two members.

본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.Throughout this specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

도 1은 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 시스템의 개략적인 구성도이다. 이하에서는 설명의 편의를 위해 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 시스템을 마스킹 시스템(1)이라 하기로 한다. 또한, 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치를 마스킹 장치(10)라 하기로 한다. 1 is a schematic configuration diagram of a masking system for constructing medical image data for AI learning according to an embodiment of the present application. Hereinafter, for convenience of explanation, a masking system for constructing medical image data for AI learning will be referred to as a masking system 1 . In addition, a masking device for constructing medical image data for AI learning will be referred to as a masking device 10 .

도 1을 참조하면, 마스킹 시스템(1)은 마스킹 장치(10) 및 사용자 단말(20)을 포함할 수 있다. Referring to FIG. 1 , a masking system 1 may include a masking device 10 and a user terminal 20 .

본원의 일 실시예에 따르면, 마스킹 장치(10)는 복수의 의료 영상 이미지를 획득하여, 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리를 수행할 수 있다. 또한, 마스킹 장치(10)는 전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택할 수 있다. 또한, 마스킹 장치(10)는 선택된 의료 영상 이미지를 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천하고, 선택된 의료 영상 이미지 및 추천된 관심영역의 위치 정보를 고려하여 마스킹을 수행할 수 있다. 또한, 마스킹 장치(10)는 마스킹이 완료된 의료 영상 이미지를 학습용 의료 영상 데이터로 생성할 수 있다. 또한, 마스킹 장치(10)는 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행할 수 있다. According to an embodiment of the present disclosure, the masking apparatus 10 may acquire a plurality of medical image images and perform pre-processing to apply the plurality of medical image images to an artificial intelligence algorithm. Also, the masking apparatus 10 may select a medical image to be masked from among a plurality of pre-processed medical image images. Also, the masking apparatus 10 may apply the selected medical image image to an artificial intelligence algorithm to recommend the location of the expected ROI, and perform masking in consideration of the selected medical image image and location information of the recommended ROI. Also, the masking apparatus 10 may generate the masked medical image image as medical image data for training. Also, the masking apparatus 10 may apply the medical image data for training to the deep learning model to perform learning and prediction.

본원의 일 실시예에 따르면, 사용자 단말(20)은 마스킹 장치(10)로부터 전처리된 복수의 의료 영상 이미지를 제공받을 수 있다. 사용자 단말(20)은 디스플레이를 통해 마스킹 장치(10)로부터 제공받은 데이터를 출력할 수 있다. 또한, 사용자 단말(20)은 선택된 의료 영상 이미지에 마스킹이 수행될 예상 관심영역의 위치 정보에 대한 사용자 입력 정보를 마스킹 장치(10)로 제공할 수 있다. According to an embodiment of the present disclosure, the user terminal 20 may receive a plurality of pre-processed medical image images from the masking apparatus 10 . The user terminal 20 may output data provided from the masking device 10 through a display. Also, the user terminal 20 may provide the masking apparatus 10 with user input information on location information of an expected ROI to be masked on the selected medical image image.

본원의 일 실시예에 따르면, 마스킹 장치(10)는 사용자 단말(20)로 RoI (Region of Intrerest) 혹은 병변 (Lesion)에 대한 masking 생성 메뉴를 제공할 수 있다. 예를 들어, 마스킹 장치(10)가 제공하는 어플리케이션 프로그램을 사용자 단말(20)이 다운로드하여 설치하고, 설치된 어플리케이션을 통해 RoI (Region of Intrerest) 혹은 병변 (Lesion)에 대한 masking 생성 메뉴가 제공될 수 있다.According to an embodiment of the present disclosure, the masking apparatus 10 may provide a masking creation menu for a Region of Intrerest (RoI) or a lesion to the user terminal 20 . For example, the user terminal 20 downloads and installs an application program provided by the masking device 10, and a masking creation menu for Region of Intrerest (RoI) or Lesion can be provided through the installed application. have.

마스킹 장치(10)는 사용자 단말(20)과 데이터, 콘텐츠, 각종 통신 신호를 네트워크를 통해 송수신하고, 데이터 저장 및 처리의 기능을 가지는 모든 종류의 서버, 단말, 또는 디바이스를 포함할 수 있다.The masking apparatus 10 may include all kinds of servers, terminals, or devices that transmit and receive data, content, and various communication signals to and from the user terminal 20 through a network, and have functions of storing and processing data.

사용자 단말(20)은 네트워크를 통해 마스킹 장치(10)와 연동되는 디바이스로서, 예를 들면, 스마트폰(Smartphone), 스마트패드(Smart Pad), 태블릿 PC, 웨어러블 디바이스 등과 PCS(Personal Communication System), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말기 같은 모든 종류의 무선 통신 장치 및 데스크탑 컴퓨터, 스마트 TV와 같은 고정용 단말기일 수도 있다. The user terminal 20 is a device that interworks with the masking apparatus 10 through a network, for example, a smart phone, a smart pad, a tablet PC, a wearable device, etc. PCS (Personal Communication System), GSM (Global System for Mobile communication), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W - It may be all kinds of wireless communication devices such as CDMA (W-Code Division Multiple Access) and Wibro (Wireless Broadband Internet) terminals and fixed terminals such as desktop computers and smart TVs.

마스킹 장치(10) 및 사용자 단말(20) 간의 정보 공유를 위한 네트워크의 일 예로는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 유무선 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, Wifi 네트워크, NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함될 수 있으며, 이에 한정된 것은 아니다.An example of a network for sharing information between the masking device 10 and the user terminal 20 is a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, a 5G network, and a World Interoperability for Microwave Access (WIMAX) network. , Wired and Wireless Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, Wifi network, NFC (Near Field) Communication) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. may be included, but is not limited thereto.

도 2는 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치의 개략적인 블록도이다.2 is a schematic block diagram of a masking apparatus for constructing medical image data for artificial intelligence learning according to an embodiment of the present application.

도 2를 참조하면, 마스킹 장치(10)는 획득부(11), 전처리부(12), 추천부(13), 생성부(14), 제공부(15), 수신부(16), 변환부(17), 딥러닝부(18) 및 데이터베이스(19)를 포함할 수 있다. 다만, 마스킹 장치(10)의 구성이 이에 한정되는 것은 아니다. Referring to FIG. 2 , the masking device 10 includes an acquisition unit 11 , a preprocessor 12 , a recommendation unit 13 , a generation unit 14 , a provision unit 15 , a reception unit 16 , and a conversion unit ( 17), a deep learning unit 18 and a database 19 may be included. However, the configuration of the masking device 10 is not limited thereto.

본원의 일 실시예에 따르면, 획득부(11)는 복수의 의료 영상 이미지를 획득할 수 있다. 일예로, 복수의 의료 영상 이미지 데이터는, 의료 초음파(Ultrasound), 컴퓨터단층촬영(CT), 핵의학 영상, 양전자 방출 단층촬영(PET-CT), X-ray, 자기공명영상(MRI), 유방 촬영술(Mammography) 등의 영상의학 이미지를 포함할 수 있다. 이미지의 포맷(format)은 의료이미지데이터 표준인 의료용 디지털 영상 및 통신(Digital Imaging and Communications in Medicine, DICOM)을 포함하여, jpg, jpeg, jpe, jfif, bmp, gif, heic, dib, tif, tiff, svs 등 모든 컴퓨터 이미지 압축포맷을 input으로 할 수 있다.According to an embodiment of the present application, the acquisition unit 11 may acquire a plurality of medical image images. For example, the plurality of medical image image data may include medical ultrasound (Ultrasound), computed tomography (CT), nuclear medicine image, positron emission tomography (PET-CT), X-ray, magnetic resonance imaging (MRI), breast It may include radiology images such as mammography. The format of the image includes jpg, jpeg, jpe, jfif, bmp, gif, heic, dib, tif, tiff, including the medical image data standard, Digital Imaging and Communications in Medicine (DICOM). All computer image compression formats such as , svs, etc. can be input.

또한, 획득부(11)는 획득된 복수의 의료 영상 이미지를 시스템에 업로드(Upload)할 수 있다. 획득부(11)는 HL7 FHIR(Fast Healthcare Interoperability Resources) 표준기술을 활용하여 시스템에 업로드할 수 있으나, 이에 한정되는 것은 아니다. Also, the acquirer 11 may upload a plurality of acquired medical image images to the system. The acquisition unit 11 may upload to the system using the HL7 Fast Healthcare Interoperability Resources (FHIR) standard technology, but is not limited thereto.

본원의 일 실시예에 따르면, 전처리부(12)는 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리할 수 있다. 전처리부(12)는 획득부(11)에서 제공받은 복수의 의료 영상 이미지 데이터를 최종적으로 딥러닝 학습 및 예측을 수행하기로 결정된 이미지 형태로 변환(전처리)할 수 있다. 또한, 전처리부(12)는 디지털 영상 및 통신(Digital Imaging and Communications in Medicine, DICOM)에 포함된 의료기록과 의료정보를 익명화 및 암호화(Hash)함으로써 사용자 개인의 프라이버시를 보호(privacy preserving)할 수 있다. According to an embodiment of the present application, the preprocessor 12 may preprocess a plurality of medical image images to be applicable to an artificial intelligence algorithm. The preprocessor 12 may convert (preprocess) the plurality of medical image image data provided by the acquirer 11 into an image form finally determined to perform deep learning learning and prediction. In addition, the preprocessor 12 anonymizes and encrypts medical records and medical information included in Digital Imaging and Communications in Medicine (DICOM) to protect the privacy of the user (privacy preserving). have.

또한, 전처리부(12)는 추출된 의료 영상 이미지와 관련된 파일들의 중요한 라벨(label), 추가적인 정보들을 포함하여 데이터베이스(19)에 등록할 수 있다. 예를 들어, 전처리부(12)는 파일의 정보 즉, 예측하고자 하는 라벨(없다면 결측치), 그 이외의 필요한 정보들을 json format으로 하여 저장할 수 있다. 여기서, 결측치는 누락된 값, 비어있는 값, 측정 오류로 인해 값이 없는 것을 의미할 수 있다. 다만, 이에 한정되는 것은 아니며, Json format 이외에도 관계형 데이터베이스(relational database) 형태로 저장할 수 있다. Also, the preprocessor 12 may register important labels and additional information of files related to the extracted medical image to the database 19 . For example, the preprocessor 12 may store information of the file, that is, a label to be predicted (missing values if not present), and other necessary information in a json format. Here, the missing value may mean that there is no value due to a missing value, an empty value, or a measurement error. However, the present invention is not limited thereto, and may be stored in a relational database format other than the Json format.

여기서, JSON은 속성-값 쌍 또는 "키-값 쌍"으로 이루어진 데이터 오브젝트를 전달하기 위해 인간이 읽을 수 있는 텍스트를 사용하는 개방형 표준 포맷이다. 관계형 데이터베이스(Relational database)는 키와 값들의 간단한 관계를 테이블화 시킨 매우 간단한 원칙의 전산정보 데이터베이스이다.Here, JSON is an open standard format that uses human-readable text to convey data objects consisting of attribute-value pairs or “key-value pairs”. A relational database is a computerized information database with a very simple principle in which simple relationships between keys and values are tabulated.

일예로, 전처리부(12)는 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 잘라내기(crop), 회전(rotate), 뒤집기(flip), 크기 수정(rescale), 확대(zooming), 제로 필링(zero filling), 롤링(rolling), 색 이탈(color jittering), 노이즈 추가(Noise Addition), 콘트라스트 조정, 밝기 조정(감마 변환), smoothing(평균화 필터), 스케일링, 반전(좌우 / 상하), 이동(수평 / 수직), 부분 마스크(Cut out 및 Random Erasing), 트리밍 (Random Crop), 변형, 변색, 배경 교체, 가우스 변환(Gaussian transformation), 전단(shear), 아핀(affine) 및 이들의 조합들로 이루어진 군으로부터 선택하여 전처리를 수행할 수 있으나, 이에 한정되는 것은 아니다. For example, the preprocessor 12 crops, rotates, flips, rescales, zooms, and zeros a plurality of medical image images to be applicable to an artificial intelligence algorithm. Zero filling, rolling, color jittering, noise addition, contrast adjustment, brightness adjustment (gamma conversion), smoothing (averaging filter), scaling, inversion (left/right/up/down), Shift (horizontal/vertical), partial mask (Cut out and Random Erasing), trim (Random Crop), transform, discolor, background replacement, Gaussian transformation, shear, affine and combinations thereof Pretreatment may be performed by selecting from the group consisting of, but is not limited thereto.

본원의 일 실시예에 따르면, 추천부(13)는 전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택할 수 있다. 또한, 추천부(13)는 선택된 의료 영상 이미지를 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천할 수 있다. 달리 말해, 추천부(13)는 인공지능 알고리즘을 적용하여 예상 병변 영역을 포함하는 예상 관심 영역의 위치를 추천할 수 있다. 예상 관심영역은 객체(예를 들어, 병변)의 경계를 사각형 형상으로 2차원 정의한 것일 수 있다. According to an embodiment of the present disclosure, the recommendation unit 13 may select a medical image to be masked from among a plurality of pre-processed medical image images. Also, the recommendation unit 13 may recommend the location of the expected ROI by applying the selected medical image to the artificial intelligence algorithm. In other words, the recommendation unit 13 may recommend the location of the predicted ROI including the predicted lesion region by applying an artificial intelligence algorithm. The predicted ROI may be a two-dimensional definition of a boundary of an object (eg, a lesion) in a rectangular shape.

일예로, 인공지능 알고리즘은, Segmentation 알고리즘 또는 Object Detection 알고리즘을 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 추천부(13)는 다양한 영상 처리 예를 들어, 가우시안 필터, 아핀변환(Affine transformation), Contrast 조절 등을 수행하여 예상 관심영역의 위치를 추천할 수 있다. As an example, the artificial intelligence algorithm may include a segmentation algorithm or an object detection algorithm. However, the present invention is not limited thereto, and the recommender 13 may recommend the location of the predicted ROI by performing various image processing, for example, a Gaussian filter, an affine transformation, and contrast adjustment.

예를 들어, 도 3의 A 영역을 참조하면, 추천부(13)는 마스킹을 수행할 의료 영상 이미지로 제1영상 이미지(CT 영상 이미지)를 선택할 수 있다. 추천부(13)는 선택된 제1영상 이미지(CT 영상 이미지)를 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천할 수 있다. 여기서, 예상 관심 영역은 예상 병변 영역을 포함할 수 있다. 즉, 추천부(13)는 선택된 의료 영상 이미지에서 병변으로 예측되는 위치에 예상 관심영역을 사각형 형태로 표시하여 병변의 위치를 추천할 수 있다. 도 3에는 예상 관심영역의 위치가 1개만 표시(추천)되었으나, 이에 한정되는 것은 아니며 복수개 표시(추천) 될 수 있다. 즉, 예상 병변이 복수개 존재하는 경우, 추천부(13)는 그에 대응하는 예상 관심영역을 복수개 추천할 수 있다. For example, referring to area A of FIG. 3 , the recommendation unit 13 may select a first image (CT image) as a medical image image to be masked. The recommendation unit 13 may recommend the location of the predicted ROI by applying the selected first image (CT image) to the artificial intelligence algorithm. Here, the predicted ROI may include a predicted lesion region. That is, the recommendation unit 13 may recommend the location of the lesion by displaying the expected ROI in a rectangular shape at a location predicted to be a lesion in the selected medical image. In FIG. 3 , only one location of the predicted ROI is displayed (recommended), but the present invention is not limited thereto, and a plurality of locations may be displayed (recommended). That is, when there are a plurality of predicted lesions, the recommender 13 may recommend a plurality of predicted ROIs corresponding thereto.

또한, 추천부(13)는 제공부(15)를 통해 예상 관심영역의 위치 즉, 주석처리(Annotation)를 수행하고 하는 위치 정보를 사용자 단말(20)로 제공할 수 있다. 사용자는 사용자 단말(20)을 통해 예상 관심영역의 위치와 관련된 수정 및 추가 선택 정보를 입력할 수 있다. 사용자 단말(20)은 사용자의 입력 정보를 수신부(16)를 통해 제공하고, 수신부(16)는 사용자의 입력 정보가 수신된 경우, 추천부(13)로 제공할 수 있다. 추천부(13)는 사용자의 입력 정보를 고려하여 예상 관심영역의 위치를 변경할 수 있다. 예를 들어, 추천부(13)는 선택된 의료 영상 이미지에서 제1위치를 예상 관심 영역의 위치로 추천할 수 있다. 반면, 사용자 단말(20)로부터 선택된 의료 영상 이미지에서 제2위치를 예상 관심 영역의 위치 정보로서 제공한 경우, 추천부(13)는 제2위치 정보를 예상 관심영역의 위치로 변경할 수 있다. 추천부(13)는 사용자의 입력 정보를 반영하여 예상 관심영역의 위치를 정정함으로써, 생성부(14)에 보다 정확한 관심영역(131)을 제공할 수 있다. In addition, the recommender 13 may provide the location of the predicted ROI through the providing unit 15 , that is, location information on which annotation is performed, to the user terminal 20 . The user may input correction and additional selection information related to the location of the predicted ROI through the user terminal 20 . The user terminal 20 may provide the user's input information through the receiving unit 16 , and the receiving unit 16 may provide the user's input information to the recommending unit 13 when the user's input information is received. The recommender 13 may change the location of the predicted ROI in consideration of the user's input information. For example, the recommender 13 may recommend the first location in the selected medical image as the location of the expected ROI. On the other hand, when the second location in the medical image selected by the user terminal 20 is provided as location information of the predicted ROI, the recommender 13 may change the second location information to the location of the predicted ROI. The recommender 13 may provide a more accurate ROI 131 to the generator 14 by correcting the location of the predicted ROI by reflecting the user's input information.

본원의 일 실시예에 따르면, 생성부(14)는 선택된 의료 영상 이미지 및 추천된 관심영역(131)의 위치 정보를 고려하여 마스킹을 수행할 수 있다. 달리 말해, 생성부(14)는 선택된 의료 영상 이미지와 추천부(13)에서 추천된 관심영역의 위치 정보를 기반으로 선택된 의료 영상 이미지 위에 마스킹(Masking)을 수행할 수 있다. 이때, 추천된 관심영역의 위치 정보는 추천부(13)에서 추천된 관심영역의 위치 정보 일 수 있다. 반면, 위치 정보는 추천된 관심영역의 위치 정보는 사용자 입력 정보를 고려하여 변경된 관심영역의 위치 정보일 수 있다. According to an embodiment of the present disclosure, the generator 14 may perform masking in consideration of the selected medical image image and the recommended location information of the ROI 131 . In other words, the generator 14 may perform masking on the selected medical image based on the selected medical image and location information of the ROI recommended by the recommender 13 . In this case, the recommended location information of the ROI may be location information of the ROI recommended by the recommender 13 . On the other hand, the location information of the recommended region of interest may be location information of the region of interest changed in consideration of user input information.

또한, 생성부(14)는 마스킹이 완료된 의료 영상 이미지를 학습용 의료 이미지 데이터를 생성할 수 있다. 일예로, 학습용 의료 이미지 데이터에는, 선택된 의료 영상 이미지와 관련된 정보, 추천된 관심영역의 위치 정보(예들 들어, x, y 좌표 위치, 가로길이, 세로길이) 등이 포함될 수 있다. 생성부(14)는 학습용 의료 이미지 데이터를 데이터베이스(19)에 저장할 수 있다. 일예로, 개별 이미지는 주석(annotation)을 수행하면 자동으로 데이터베이스(19)에 등록될 수 있으며, CT, MRI 등 한 사람에서 시리즈(series)로 다중의 이미지가 등록되는 경우, 개별적 저장 및 시리즈(series)로 저장이 될 수 있다.In addition, the generator 14 may generate medical image data for learning from the masked medical image image. For example, the medical image data for training may include information related to a selected medical image image, location information of a recommended ROI (eg, x and y coordinate locations, horizontal length, vertical length), and the like. The generator 14 may store the medical image data for training in the database 19 . As an example, individual images may be automatically registered in the database 19 when annotation is performed. series) can be saved.

본원의 일 실시예에 따르면, 제공부(15)는 전처리된 복수의 영상 이미지를 사용자 단말(20)에 제공할 수 있다. 제공부(15)는 사용자 인터페이스(User Interface, UI)를 포함하여 전처리된 복수의 영상 이미지를 제공할 수 있다. 사용자는 사용자 단말(20)에 표시된 전처리된 복수의 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택할 수 있다.According to an embodiment of the present application, the providing unit 15 may provide a plurality of pre-processed image images to the user terminal 20 . The providing unit 15 may provide a plurality of pre-processed image images including a user interface (UI). The user may select a medical image to be masked from among a plurality of preprocessed image images displayed on the user terminal 20 .

본원의 일 실시예에 따르면, 수신부(16)는 사용자 단말(20)로부터 마스킹을 수행할 의료 의미지 선택 정보를 수신할 수 있다. 또한, 수신부(16)는 선택된 의료 영상 이미지에 마스킹이 수행될 예상 관심영역의 위치 정보에 대한 사용자 입력 정보를 수신할 수 있다. 이때, 생성부(14)는 수신부(16)로부터 사용자 입력 정보가 수신된 경우, 사용자 입력 정보를 관심영역의 위치 정보로 결정하여 학습용 영상 이미지 데이터를 생성할 수 있다. 달리 말해, 생성부(14)는 추천부(13)에서 추천된 예상 관심영역을 마스킹을 수행할 관심영역의 위치 정보로 결정하여 학습용 의료 영상 데이터를 생성할 수 있다. 반면, 생성부(14)는 사용자 입력 정보를 마스킹을 수행할 관심영역의 위치 정보로 결정하여 학습용 의료 영상 데이터를 생성할 수 있다. According to an embodiment of the present application, the receiver 16 may receive medical semantic selection information to be masked from the user terminal 20 . Also, the receiver 16 may receive user input information on location information of an expected ROI to be masked on the selected medical image. In this case, when the user input information is received from the receiver 16 , the generator 14 may determine the user input information as location information of the ROI to generate image data for learning. In other words, the generator 14 may generate medical image data for training by determining the predicted ROI recommended by the recommender 13 as location information of the ROI to be masked. On the other hand, the generator 14 may generate the medical image data for learning by determining the user input information as location information of the region of interest to be masked.

본원의 일 실시예에 따르면, 변환부(17)는 학습용 의료 영상 데이터의 사용 목적을 고려하여 학습용 의료 영상 데이터를 복수의 딥러닝 모델 중 어느 하나에 적용 가능한 형태로 데이터 변환을 수행할 수 있다. 또한, 변환부(17)는 학습용 의료 영상 데이터의 사용 목적을 고려하여 학습용 의료 영상 데이터를 이용하여 크롭(crop) 이미지를 생성, 메타 데이터(meta data) 생성, 바이너리 맵 (binary map) 생성 중 어느 하나의 데이터 변환을 수행할 수 있다. According to an embodiment of the present application, the transforming unit 17 may perform data transformation on the medical image data for training into a form applicable to any one of a plurality of deep learning models in consideration of the purpose of using the medical image data for training. In addition, in consideration of the purpose of use of the medical image data for training, the converter 17 generates a crop image using the medical image data for learning, generates meta data, or generates a binary map. One data transformation can be performed.

예를 들어, 변환부(17)는 특정 부위(Region) 정보를 통한 딥러닝 학습 모델에 적용하기 위한 형태라면 이미지 크롭(Image Crop)을 수행할 수 있다. 또한, 변환부(17)는 객체 탐지(Object Detection)를 위한 것이면, XML 혹은 Json 형태로 이미지의 좌표를 저장하는 메타 데이터(meta data)를 생성하는 데이터 변환을 수행할 수 있다. 또한, 변환부(17)는 세그먼테이션 맵(Segmentation map)을 생성하는 것이 사용 목적이라면, 이에 상응하는 바이너리 맵(binary map)을 생성하는 데이터 변환을 수행할 수 있다.For example, the transform unit 17 may perform image cropping if it is a form to be applied to a deep learning learning model through specific region information. In addition, if it is for object detection, the transformation unit 17 may perform data transformation for generating metadata for storing image coordinates in XML or Json format. Also, if the purpose of use is to generate a segmentation map, the conversion unit 17 may perform data conversion to generate a binary map corresponding thereto.

변환부(17)는 변환된 데이터를 딥러닝 모델(딥러닝 프레임워크(framework))의 입력(Input)으로 활용할 수 있는 형태로 변환하여 저장할 수 있다. 변환부(17)는 Label에 따라 서로 다른 폴더(Folder)에 저장하거나, 데이터프레임(Data frame)에 메타데이터(meta-data)형태로 파일 이름을 통해 접근할 수 있는 정보를 생성할 수 있다. 일예로, 딥러닝 프레임워크(framework)는 텐서플로(tensorflow), 파이토치(pytorch), 케라스(keras), 카페(caffe), 소네트(Sonnet), MXNet, ONN, 글루온(Gluon), DL4J, 체이너(Chainer), tensorflow.js 등을 포함할 수 있다. The conversion unit 17 may convert the converted data into a form that can be used as an input of a deep learning model (deep learning framework) and store it. The conversion unit 17 may generate information that can be stored in different folders according to the label or accessed through a file name in the form of metadata in a data frame in the form of a file name. For example, deep learning frameworks include tensorflow, pytorch, keras, caffe, Sonnet, MXNet, ONN, Gluon, DL4J, Chainer, tensorflow.js, etc. may be included.

본원의 일 실시예에 따르면, 딥러닝부(18)는 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행할 수 있다. 여기서, 학습 및 예측은 의료 영상 이미지를 기반으로 병변 판단을 의미할 수 있으나, According to an embodiment of the present application, the deep learning unit 18 may apply the medical image data for training to the deep learning model to perform learning and prediction. Here, learning and prediction may mean lesion determination based on a medical image,

본원의 다른 일 실시예에 따르면, 딥러닝부(18)는 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 갑상선 암의 림프절 전이 여부를 진단할 수 있다. According to another embodiment of the present application, the deep learning unit 18 may diagnose whether the thyroid cancer has metastasized to the lymph nodes by applying the medical image data for training to the deep learning model.

먼저, 갑상선 암의 림프절 전이 여부를 진단하기 위해 변환부(17)는 갑상선 암의 림프절 전이 여부를 진단하기 위해, 크롭(crop) 이미지를 생성할 수 있다. 변환부(17)는 크롭 이미지를 증강(augmentation)시킬 수 있다. 훈련 데이터는 전이성 림프절 이미지보다 양성 림프절 수가 많기 때문에 두 라벨의 비율이 비슷하도록 데이터를 증강(augmentation)시켜, 모델의 과적합을 방지하고 모델 성능을 향상시킬 수 있다. 즉, 상기 크롭 이미지를 증강시킴으로써, 제한된 학습 데이터 세트를 기반으로 학습 이미지의 양을 효과적으로 증가시키는 것이다.First, in order to diagnose whether the thyroid cancer has metastasized to the lymph node, the converter 17 may generate a crop image to diagnose whether the thyroid cancer has metastasized to the lymph node. The conversion unit 17 may augment the cropped image. Since the training data has a higher number of benign lymph nodes than the metastatic lymph node image, the data can be augmented so that the ratio of the two labels is similar, preventing overfitting of the model and improving the model performance. That is, by augmenting the cropped image, the amount of training images is effectively increased based on a limited training data set.

변환부(17)는 이미지를 증강시키기 위해 잘라내기(crop), 회전(rotate), 뒤집기(flip), 크기 수정(rescale), 확대(zooming), 제로 필링(zero filling), 롤링(rolling), 색 이탈(color jittering), 노이즈 추가(Noise Addition), 콘트라스트 조정, 밝기 조정(감마 변환), smoothing(평균화 필터), 스케일링, 반전(좌우 / 상하), 이동(수평 / 수직), 부분 마스크(Cut out 및 Random Erasing), 트리밍 (Random Crop), 변형, 변색, 배경 교체, 가우스 변환(Gaussian transformation), 전단(shear), 아핀(affine) 및 이들의 조합들로 이루어진 군으로부터 선택되는 것을 수행하는 것일 수 있으나, 이에 제한되는 것은 아니다.The transform unit 17 crops, rotates, flips, rescales, zooms, zero filling, rolling, etc. to enhance the image. Color jittering, Noise Addition, Contrast Adjustment, Brightness Adjustment (Gamma Conversion), Smoothing (Averaging Filter), Scaling, Invert (Left/Left/Up/Down), Shift (Horizontal/Vertical), Partial Mask (Cut) out and Random Erasing), trimming (Random Crop), transformation, discoloration, background replacement, Gaussian transformation, shear, affine, and combinations thereof However, the present invention is not limited thereto.

예를 들어, 변환부(17)는 영상 각도를 약 ±20º 이내로 무작위로 설정하고, 림프절 주변 부위의 크기를 약 20%까지 무작위로 변경하며, 영상을 림프절 자체를 포함하면서 수평 및 수직으로 무작위로 뒤집는 것을 수행하는 것일 수 있으나, 이에 제한되는 것은 아니다.For example, the transform unit 17 randomly sets the image angle within about ±20º, randomly changes the size of the region around the lymph node by about 20%, and randomly converts the image horizontally and vertically while including the lymph node itself. Inverting may be performed, but is not limited thereto.

또한, 딥러닝부(18)는 컨볼루션 신경망(convolutional neural network, CNN)을 이용하여 증강된 이미지를 학습하여 학습정보를 생성할 수 있다. 예를 들어, 상기 컨볼루션 신경망은 VGG16, VGG19, Xception, InceptionV3, InceptionResNetV2, DenseNet121, DenseNet169, ResNet, EfficientNet, MobileNet 및 이들의 조합들로 이루어진 군으로부터 선택되는 모델인 것일 수 있으나, 이에 제한되는 것은 아니다.In addition, the deep learning unit 18 may generate learning information by learning the augmented image using a convolutional neural network (CNN). For example, the convolutional neural network may be a model selected from the group consisting of VGG16, VGG19, Xception, InceptionV3, InceptionResNetV2, DenseNet121, DenseNet169, ResNet, EfficientNet, MobileNet, and combinations thereof, but is not limited thereto. .

또한, 딥러닝부(18)는 학습 정보에 기초하여 갑상선 암의 림프절 전이 여부를 진단할 수 있다. 또한, 딥러닝부(18)는 히트맵을 생성할 수 있다. 히트맵은 양성과 전이성 림프절을 구별하기 위해 CNN 모델이 초점을 맞춘 위치를 보여줄 수 있다. 이는 악성 종양의 비정상적인 특성이 CNN 에 의해 학습되어 갑상선 암의 림프절 전이 진단의 기초로 사용되었음을 시사하는 것이다. 생성된 히트맵은 원본 CT 영상 이미지에 중첩되어 실제 림프절의 위치와 CNN 모델이 전이 진단에 사용한 영역을 비교할 수 있기 때문에, 사용자는 이를 비교하여 딥러닝 모델이 잘못 판단한 영역을 제거할 수 있으므로 특이도 및 민감성을 더욱 높일 수 있는 장점이 있다. Also, the deep learning unit 18 may diagnose whether the thyroid cancer has metastasized to the lymph nodes based on the learning information. Also, the deep learning unit 18 may generate a heat map. The heatmap can show where the CNN model is focused to differentiate between benign and metastatic lymph nodes. This suggests that the abnormal characteristics of malignant tumors were learned by CNN and used as the basis for the diagnosis of lymph node metastasis of thyroid cancer. The generated heat map is superimposed on the original CT image image to compare the actual lymph node location and the area used by the CNN model for metastasis diagnosis. And there is an advantage of further increasing the sensitivity.

종래 CT 영상의 경우 림프절 전이 및 잔존 조직 영역은 일반적으로 노이즈 인공물질(noise artifacts)의 영향을 받고 다른 영역과 중첩될 수 있는 문제점 및 인접한 조직으로부터 식별이 불가능한 전이 케이스가 있는 문제점이 있어 CT 영상을 곧바로 딥러닝 알고리즘에 활용하기 어려운 한계점이 있었으나, 본원에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법은 CT 영상으로부터 경부 림프절의 병변 영역을 추출하여, 추출된 병변 영역에 대한 크롭 이미지를 학습시킴으로써 높은 민감도, 특이도 및 정확도를 가지는 딥러닝 기반의 갑상선 암의 림프절 전이 진단 방법을 제공할 수 있다.In the case of conventional CT images, lymph node metastasis and remaining tissue regions are generally affected by noise artifacts and overlap with other regions. Although there was a limitation in that it was difficult to directly use the deep learning algorithm, the masking method for constructing medical image data for artificial intelligence learning according to the present application extracts the lesion area of the cervical lymph node from the CT image and learns the crop image for the extracted lesion area. It is possible to provide a method for diagnosing lymph node metastasis of thyroid cancer based on deep learning with high sensitivity, specificity and accuracy.

종래의 딥러닝을 이용한 진단 방법의 경우, 입력한 입력값과 딥러닝에서 예측한 결과값 간의 내부 관계를 설명하기는 어려워 딥러닝의 진단 정확도를 평가하기 어려운 문제점이 있었으나, 본원에 따른 딥러닝 기반의 갑상선 암의 림프절 전이 진단 방법은 히트맵을 생성하여 제공하여 딥러닝 모델이 CT 영상의 어느 부분에 초점을 맞추고 있는지 추론할 수 있으므로, 잘못 판단된 영역을 제거함으로써, 특이도 및 민감성을 높인 진단 방법을 제공할 수 있다.In the case of the conventional diagnosis method using deep learning, it was difficult to explain the internal relationship between the input value and the result predicted by deep learning, so it was difficult to evaluate the diagnostic accuracy of deep learning. of thyroid cancer lymph node metastasis diagnosis method generates and provides a heat map to infer which part of the CT image the deep learning model is focusing on. method can be provided.

도 3은 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치에서 사용자 단말에 제공하는 인터페이스를 예시적으로 나타낸 도면이다.3 is a diagram illustrating an interface provided to a user terminal by a masking apparatus for constructing medical image data for artificial intelligence learning according to an embodiment of the present application.

도 3을 참조하면, 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 장치에서 사용자 단말에 제공하는 인터페이스 즉, 마스킹 인터페이스는, 이미지 및 마스킹 캔버스(Masking Canvas) 영역(A), 도움말 영역(B), 불러오기 영역(C), 히스토리영역(D), 현재 이미지 마스킹(Masking) 정보 확인 영역(E), 리스트 영역(F)을 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, 본원의 구현예에 따라 상술한 복수의 항목 중 일부만 표시되거나 다른 유형의 추가적인 항목이 표시되도록 구현될 수 있다.Referring to FIG. 3 , the interface provided to the user terminal by the masking device for constructing medical image data for artificial intelligence learning, that is, the masking interface, includes an image and a masking canvas area (A), a help area (B), and calling It may include a wrong area (C), a history area (D), a current image masking information confirmation area (E), and a list area (F). However, the present invention is not limited thereto, and according to the exemplary embodiment of the present application, only some of the above-described plurality of items may be displayed or other types of additional items may be displayed.

예시적으로, 이미지 및 마스킹 캔버스(Masking Canvas) 영역(A)은 사용자가 마우스 좌클릭을 통해 이미지 상에서 원하는 사각형(rectangle) 형태의 마스킹(masking)을 그릴 수 있도록 제공하는 영역일 수 있다. 사각형(rectangle) 형태의 마스킹(masking)은 관심영역(141)일 수 있다. 이미지 및 마스킹 캔버스(Masking Canvas) 영역(A)에는 2개 이상의 사각형(rectangle)을 형성될 수 있다. 마스킹 장치(10)는 사용자의 입력 정보로서 마우스 우클릭 정보가 수신되는 경우, 가장 최근에 그린 사각형(rectangle) 마스킹(maskin)을 삭제할 수 있다. For example, the image and masking canvas area A may be an area provided so that a user can draw a desired rectangle masking on the image through left-click of the mouse. The rectangular masking may be the region of interest 141 . Two or more rectangles may be formed in the image and masking canvas area A. The masking apparatus 10 may delete the most recently drawn rectangle maskin when mouse right-click information is received as user input information.

또한, 도움말 영역(B)에는 이 프로그램 즉, 사용자가 인공지능 학습용 의료 영상 데이터를 구축하기 위해 수행되어야 하는 방법과 관련된 정보가 표시될 수 있다. 또한, 불러오기 영역(C)은 사용자가 원하는 데이터를 호출하기 위한 호출창이 포함되어 있을 수 있다. 달리 말해, 마스킹 장치(10)는 불러오기 영역(C)에 포함된 호출창에 입력된 사용자 입력 정보에 기반하여 데이터베이스(19)에 저장된 이미지로부터 인공지능 학습용 의료 영상 데이터를 구축하기 위한 데이터를 호출할 수 있다. 또한, 히스토리영역(D) 은 최근 수정한 데이터의 이름 및 수정중인 데이터의 이름과 관련된 정보가 표시될 수 있다. In addition, information related to this program, that is, a method that a user should perform in order to construct medical image data for AI learning, may be displayed in the help area B. Also, the call area C may include a call window for calling data desired by the user. In other words, the masking device 10 calls data for constructing medical image data for artificial intelligence learning from the image stored in the database 19 based on user input information input to the call window included in the call area C can do. Also, in the history area D, information related to the name of the recently modified data and the name of the data being modified may be displayed.

또한, 현재 이미지 마스킹(Masking) 정보 확인 영역(E)은 마스킹 캔버스(Masking Canvas 상에서 좌클릭을 통해 생성한 모든 사각형(rectangle) 마스킹(masking)의 정보를 표시할 수 있다. 마스킹 장치(10)는 좌상단의 x, y 좌표 위치와 가로길이, 세로길이를 통해 다중의 사각형(rectangle) 마스킹(masking) 데이터 정보를 저장할 수 있다. 또한, 리스트 영역(F)은 최근 수정 파일을 불러오는 리스트 정보를 출력하는 영역일 수 있다. In addition, the current image masking information confirmation area E may display information on all rectangle masking generated by left-clicking on the masking canvas. The masking device 10 may Multiple rectangle masking data information can be stored through the x, y coordinate position, horizontal length, and vertical length of the upper left In addition, the list area (F) is used to output list information that calls the recently modified file. It can be an area.

마스킹 장치(10)에서 사용자 인터페이스를 이용하여 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 웹 툴을 제공함으로써, 사용자는 보다 간편하게 중요한 관심영역 및 병변에 대한 마스킹(Masking) 데이터를 생성할 수 있다. By providing a masking web tool for constructing medical image data for artificial intelligence learning using a user interface in the masking device 10, the user can more conveniently generate masking data for an important region of interest and lesion.

이러한 과정을 거쳐, 마스킹 장치(10)는 2차원 이미지화할 수 있는 모든 형태의 영상 이미지 (Ultrasound, CT, MRI, X-ray)에 대해서 중요한 RoI 혹은 Lesion에 대한 Masking 데이터를 형성할 수 있다.Through this process, the masking apparatus 10 may form masking data for RoI or Lesion, which is important for all types of image images (Ultrasound, CT, MRI, X-ray) that can be imaged in 2D.

이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.Hereinafter, an operation flow of the present application will be briefly reviewed based on the details described above.

도 4는 본원의 일 실시예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법에 대한 동작 흐름도이다.4 is an operation flowchart of a masking method for constructing medical image data for AI learning according to an embodiment of the present application.

도 4에 도시된 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법은 앞서 설명된 마스킹 장치(10)에 의하여 수행될 수 있다. 따라서, 이하 생략된 내용이라고 하더라도 마스킹 장치(10)에 대하여 설명된 내용은 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법에 대한 설명에도 동일하게 적용될 수 있다.The masking method for constructing medical image data for artificial intelligence learning shown in FIG. 4 may be performed by the masking apparatus 10 described above. Therefore, even if omitted below, the description of the masking apparatus 10 may be equally applied to the description of the masking method for constructing medical image data for AI learning.

단계 S110에서, 마스킹 장치(10)는 복수의 의료 영상 이미지를 획득할 수 있다. In operation S110 , the masking apparatus 10 may acquire a plurality of medical image images.

단계 S120에서, 마스킹 장치(10)는 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리할 수 있다. In operation S120, the masking apparatus 10 may pre-process the plurality of medical image images to be applicable to the artificial intelligence algorithm.

단계 S130에서, 마스킹 장치(10)는 전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택할 수 있다. In operation S130 , the masking apparatus 10 may select a medical image image to be masked from among a plurality of preprocessed medical image images.

단계 S140에서, 마스킹 장치(10)는 선택된 의료 영상 이미지를 인공지능 알고리즘에 적용하여 예상 관심 영역의 위치를 추천할 수 있다. In operation S140 , the masking apparatus 10 may recommend the location of the predicted ROI by applying the selected medical image to an artificial intelligence algorithm.

단계 S150에서, 마스킹 장치(10)는 선택된 의료 영상 이미지 및 추천된 관심영역의 위치 정보를 고려하여 마스킹을 수행하고 마스킹이 완료된 의료 영상 이미지를 학습용 의료 영상 데이터로 생성할 수 있다. In operation S150 , the masking apparatus 10 may perform masking in consideration of the selected medical image image and location information of the recommended ROI, and generate the masked medical image as medical image data for training.

단계 S160에서, 마스킹 장치(10)는 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행할 수 있다.In step S160, the masking apparatus 10 may apply the medical image data for training to the deep learning model to perform learning and prediction.

상술한 설명에서, 단계 S110 내지 S160은 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.In the above description, steps S110 to S160 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present application. In addition, some steps may be omitted if necessary, and the order between steps may be changed.

본원의 일 실시 예에 따른 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The masking method for constructing medical image data for AI learning according to an embodiment of the present application may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

또한, 전술한 인공지능 학습용 의료영상 데이터 구축을 위한 마스킹 방법은 기록 매체에 저장되는 컴퓨터에 의해 실행되는 컴퓨터 프로그램 또는 애플리케이션의 형태로도 구현될 수 있다.In addition, the above-described masking method for constructing medical image data for artificial intelligence learning may be implemented in the form of a computer program or application executed by a computer stored in a recording medium.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present application is for illustration, and those of ordinary skill in the art to which the present application pertains will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present application.

1: 마스킹 시스템
10: 마스킹 장치
11: 획득부 12: 전처리부
13: 추천부 14: 생성부
15: 제공부 16: 수신부
17: 변환부 18: 딥러닝부
19: 데이터베이스
20: 사용자 단말
1: Masking system
10: masking device
11: Acquisition unit 12: Pre-processing unit
13: recommendation section 14: generator section
15: providing unit 16: receiving unit
17: transformation unit 18: deep learning unit
19: Database
20: user terminal

Claims (12)

복수의 의료 영상 이미지를 획득하는 단계;
상기 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리하는 단계;
전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택하는 단계;
선택된 상기 의료 영상 이미지를 상기 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천하는 단계;
선택된 상기 의료 영상 이미지 및 추천된 관심영역의 위치 정보를 고려하여 상기 마스킹을 수행하고 마스킹이 완료된 의료 영상 이미지를 학습용 의료 영상 데이터로 생성하는 단계; 및
상기 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행하는 단계,
를 포함하는, 마스킹 방법.
acquiring a plurality of medical imaging images;
pre-processing the plurality of medical image images to be applicable to an artificial intelligence algorithm;
selecting a medical image to be masked from among a plurality of preprocessed medical image images;
applying the selected medical image to the artificial intelligence algorithm to recommend a location of an expected ROI;
performing the masking in consideration of the selected medical image image and location information of the recommended region of interest, and generating the masked medical image data as medical image data for training; and
performing learning and prediction by applying the medical image data for training to a deep learning model;
Including, a masking method.
제1항에 있어서,
전처리된 복수의 의료 영상 이미지를 사용자 단말에 제공하는 단계; 및
선택된 의료 영상 이미지에 마스킹이 수행될 예상 관심영역의 위치 정보에 대한 사용자 입력 정보를 수신하는 단계,
를 더 포함하되,
상기 학습용 의료 영상 데이터를 생성하는 단계는,
상기 사용자 입력 정보가 수신된 경우, 사용자의 입력 정보를 관심영역의 위치 정보로 결정하여 상기 학습용 의료 영상 데이터를 생성하는 것인, 마스킹 방법.
According to claim 1,
providing a plurality of preprocessed medical image images to a user terminal; and
receiving user input information on location information of an expected region of interest to be masked on the selected medical image;
further comprising,
The step of generating the medical image data for learning includes:
When the user input information is received, the masking method of generating the medical image data for learning by determining the user input information as location information of the ROI.
제1항에 있어서,
상기 예상 관심영역의 위치를 추천하는 단계는,
Segmentation 알고리즘 또는 Object Detection 알고리즘을 이용하여 예상 병변 영역을 포함하는 상기 예상 관심영역의 위치를 추천하는 것인, 마스킹 방법.
According to claim 1,
The step of recommending the location of the predicted ROI includes:
The masking method of claim 1, wherein the location of the predicted ROI including the predicted lesion region is recommended using a segmentation algorithm or an object detection algorithm.
제1항에 있어서,
상기 학습 및 예측을 수행하는 단계 이전에,
상기 학습용 의료 영상 데이터의 사용 목적을 고려하여 상기 학습용 의료 영상 데이터를 복수의 딥러닝 모델 중 어느 하나에 적용 가능한 형태로 데이터 변환을 수행하는 단계를 더 포함하는, 마스킹 방법.
According to claim 1,
Before performing the learning and prediction,
In consideration of the purpose of using the medical image data for training, the method further comprising the step of performing data transformation of the medical image data for training into a form applicable to any one of a plurality of deep learning models, the masking method.
제4항에 있어서,
상기 데이터 변환을 수행하는 단계는,
상기 학습용 의료 영상 데이터의 사용 목적을 고려하여 상기 학습용 의료 영상 데이터를 이용하여 크롭(crop) 이미지를 생성, 메타 데이터(meta data) 생성, 바이너리 맵 (binary map) 생성 중 어느 하나의 데이터 변환을 수행하는 것인, 마스킹 방법.
5. The method of claim 4,
The data conversion step includes:
In consideration of the purpose of using the medical image data for training, any one of data conversion among generating a crop image, generating meta data, and generating a binary map is performed using the medical image data for training What to do, the masking method.
복수의 의료 영상 이미지를 획득하는 획득부;
상기 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리하는 전처리부;
전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택하고, 선택된 의료 영상 이미지를 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천하는 추천부;
선택된 상기 의료 영상 이미지 및 추천된 관심영역의 위치 정보를 고려하여 상기 마스킹을 수행하고 마스킹이 완료된 의료 영상 이미지를 학습용 의료 영상 데이터로 생성하는 생성부; 및
상기 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행하는 딥러닝부,
를 포함하는, 마스킹 장치.
an acquisition unit configured to acquire a plurality of medical image images;
a pre-processing unit for pre-processing the plurality of medical image images to be applicable to an artificial intelligence algorithm;
a recommendation unit that selects a medical image to be masked from among a plurality of preprocessed medical image images, and recommends a location of an expected ROI by applying the selected medical image to an artificial intelligence algorithm;
a generator for performing the masking in consideration of the selected medical image image and location information of the recommended region of interest, and generating the masked medical image as medical image data for training; and
A deep learning unit that performs learning and prediction by applying the medical image data for learning to a deep learning model;
Including, a masking device.
제6항에 있어서,
전처리된 복수의 의료 영상 이미지를 사용자 단말에 제공하는 제공부; 및
선택된 의료 영상 이미지에 마스킹이 수행될 예상 관심영역의 위치 정보에 대한 사용자 입력 정보를 수신하는 수신부,
를 더 포함하되,
상기 생성부는,
상기 사용자 입력 정보가 수신된 경우, 사용자의 입력 정보를 관심영역의 위치 정보로 결정하여 상기 학습용 의료 영상 데이터를 생성하는 것인, 마스킹 장치.
7. The method of claim 6,
a provider providing a plurality of pre-processed medical image images to a user terminal; and
a receiver for receiving user input information on location information of an expected region of interest to be masked on the selected medical image;
further comprising,
The generating unit,
When the user input information is received, determining the user input information as location information of the region of interest to generate the training medical image data.
제6항에 있어서,
상기 추천부는,
Segmentation 알고리즘 또는 Object Detection 알고리즘을 이용하여 예상 병변 영역을 포함하는 상기 예상 관심영역의 위치를 추천하는 것인, 마스킹 장치.
7. The method of claim 6,
The recommendation is
The masking apparatus of claim 1, wherein the location of the predicted ROI including the predicted lesion region is recommended using a segmentation algorithm or an object detection algorithm.
제6항에 있어서,
상기 학습용 의료 영상 데이터의 사용 목적을 고려하여 상기 학습용 의료 영상 데이터를 복수의 딥러닝 모델 중 어느 하나에 적용 가능한 형태로 데이터 변환을 수행하는 변환부를 더 포함하는, 마스킹 장치.
7. The method of claim 6,
In consideration of the purpose of using the medical image data for training, the masking device further comprising: a converter configured to convert the medical image data for training into a form applicable to any one of a plurality of deep learning models.
제9항에 있어서,
상기 변환부는,
상기 학습용 의료 영상 데이터의 사용 목적을 고려하여 상기 학습용 의료 영상 데이터를 이용하여 크롭(crop) 이미지를 생성, 메타 데이터(meta data) 생성, 바이너리 맵 (binary map) 생성 중 어느 하나의 데이터 변환을 수행하는 것인, 마스킹 장치.
10. The method of claim 9,
The conversion unit,
In consideration of the purpose of using the medical image data for training, any one of data conversion among generating a crop image, generating meta data, and generating a binary map is performed using the medical image data for training What to do is a masking device.
복수의 의료 영상 이미지를 획득하여, 상기 복수의 의료 영상 이미지를 인공지능 알고리즘에 적용 가능하도록 전처리를 수행하고, 전처리된 복수의 의료 영상 이미지 중 마스킹을 수행할 의료 영상 이미지를 선택하고, 선택된 의료 영상 이미지를 인공지능 알고리즘에 적용하여 예상 관심영역의 위치를 추천하고, 선택된 상기 의료 영상 이미지 및 추천된 관심영역의 위치 정보를 고려하여 상기 마스킹을 수행하고 마스킹이 완료된 의료 영상 이미지를 학습용 의료 영상 데이터로 생성하는 마스킹 장치; 및
전처리된 복수의 의료 영상 이미지를 제공받고, 선택된 의료 영상 이미지에 마스킹이 수행될 예상 관심영역의 위치 정보에 대한 사용자 입력 정보를 제공하는 사용자 단말,
을 포함하되,
상기 마스킹 장치는,
상기 학습용 의료 영상 데이터를 딥러닝 모델에 적용하여 학습 및 예측을 수행하는 것인, 마스킹 시스템.
Obtaining a plurality of medical image images, performing pre-processing to apply the plurality of medical image images to an artificial intelligence algorithm, selecting a medical image to be masked from among the plurality of pre-processed medical image images, and selecting the selected medical image The image is applied to an artificial intelligence algorithm to recommend the location of the expected ROI, and the masking is performed in consideration of the selected medical image image and location information of the recommended ROI, and the masked medical image is used as medical image data for learning. generating masking devices; and
a user terminal that receives a plurality of pre-processed medical image images and provides user input information on location information of an expected region of interest to be masked on the selected medical image image;
including,
The masking device,
A masking system that performs learning and prediction by applying the medical image data for training to a deep learning model.
제1항 내지 제5항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium in which a program for executing the method of any one of claims 1 to 5 on a computer is recorded.
KR1020200186186A 2020-12-29 2020-12-29 Masking method and system for building medical image data for artificial intelligence learning KR102659323B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200186186A KR102659323B1 (en) 2020-12-29 2020-12-29 Masking method and system for building medical image data for artificial intelligence learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200186186A KR102659323B1 (en) 2020-12-29 2020-12-29 Masking method and system for building medical image data for artificial intelligence learning

Publications (2)

Publication Number Publication Date
KR20220094700A true KR20220094700A (en) 2022-07-06
KR102659323B1 KR102659323B1 (en) 2024-04-18

Family

ID=82399883

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200186186A KR102659323B1 (en) 2020-12-29 2020-12-29 Masking method and system for building medical image data for artificial intelligence learning

Country Status (1)

Country Link
KR (1) KR102659323B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102632864B1 (en) * 2023-04-07 2024-02-07 주식회사 카비랩 3D Segmentation System and its method for Fracture Fragments using Semantic Segmentation

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Adrian Rosebrock 외, Auto-Keras and AutoML: A Getting Started Guide, 웹사이트, [online], 2019.01.07., 인터넷: https://pyimagesearch.com/2019/01/07/auto-keras-and-automl-a-getting-started-guide/ *
Kenneth A. Philbrick 외, RIL-Contour: a Medical Imaging Dataset Annotation Tool for and with Deep Learning, Journal of Digital Imaging, 2019.05.14., Vol.32, pp.571-581.* *
Livia Faes 외, The Lancet Digital Health, 2019.09.05., Vol.1, Issue.5, pp.e232-e242. *
Martin J. Willemink 외, Preparing Medical Imaging Data for Machine Learning, Radiology, 2020.02.18., Vol.295, No.1, pp.4-15. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102632864B1 (en) * 2023-04-07 2024-02-07 주식회사 카비랩 3D Segmentation System and its method for Fracture Fragments using Semantic Segmentation

Also Published As

Publication number Publication date
KR102659323B1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
Emami et al. Generating synthetic CTs from magnetic resonance images using generative adversarial networks
Chaudhari et al. Prospective deployment of deep learning in MRI: a framework for important considerations, challenges, and recommendations for best practices
Lee et al. Machine friendly machine learning: interpretation of computed tomography without image reconstruction
Li et al. Comparison of supervised and unsupervised deep learning methods for medical image synthesis between computed tomography and magnetic resonance images
JP2019525364A (en) System and method for anonymizing health data and modifying and editing health data across geographic regions for analysis
US9646393B2 (en) Clinically driven image fusion
US11393095B2 (en) Systems and methods for imaging device
Upadhyay et al. Uncertainty-guided progressive GANs for medical image translation
Sanaat et al. Robust-Deep: a method for increasing brain imaging datasets to improve deep learning models’ performance and robustness
US11969265B2 (en) Neural network classification of osteolysis and synovitis near metal implants
US11869120B2 (en) System and method for image reconstruction
KR101885562B1 (en) Method for mapping region of interest in first medical image onto second medical image and apparatus using the same
KR102659323B1 (en) Masking method and system for building medical image data for artificial intelligence learning
Chen et al. Deep learning based unpaired image-to-image translation applications for medical physics: a systematic review
Li et al. Multi-scale residual denoising GAN model for producing super-resolution CTA images
CN111243052A (en) Image reconstruction method and device, computer equipment and storage medium
Park et al. Denoising of pediatric low dose abdominal CT using deep learning based algorithm
Velichko et al. A comprehensive review of deep learning approaches for magnetic resonance imaging liver tumor analysis
Amirkolaee et al. Medical image translation using an edge-guided generative adversarial network with global-to-local feature fusion
CN115841591A (en) Cross-modal medical image synthesis system and method and computer equipment
KR102672010B1 (en) Apparatus and method for diagnosing facial fracture based on artificial intelligence
Liu et al. Abdominal computed tomography localizer image generation: a deep learning approach
Sharan et al. Cascaded model (Conventional+ Deep Learning) for weakly supervised segmentation of left ventricle in cardiac magnetic resonance images
US10347014B2 (en) System and method for image reconstruction
Li et al. 4× Super‐resolution of unsupervised CT images based on GAN

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant