KR102254971B1 - Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence - Google Patents

Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence Download PDF

Info

Publication number
KR102254971B1
KR102254971B1 KR1020190089592A KR20190089592A KR102254971B1 KR 102254971 B1 KR102254971 B1 KR 102254971B1 KR 1020190089592 A KR1020190089592 A KR 1020190089592A KR 20190089592 A KR20190089592 A KR 20190089592A KR 102254971 B1 KR102254971 B1 KR 102254971B1
Authority
KR
South Korea
Prior art keywords
image
enhanced
contrast
mri
artificial intelligence
Prior art date
Application number
KR1020190089592A
Other languages
Korean (ko)
Other versions
KR20210012233A (en
Inventor
황규덕
노영정
임현우
김헌성
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020190089592A priority Critical patent/KR102254971B1/en
Priority to PCT/KR2020/009500 priority patent/WO2021015507A2/en
Publication of KR20210012233A publication Critical patent/KR20210012233A/en
Application granted granted Critical
Publication of KR102254971B1 publication Critical patent/KR102254971B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

본 발명은 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법 및 장치에 관한 것으로서, 그 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법은 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법은, CT 또는 MRI 장치를 이용하여 환자의 특정 부위에 대한 Non-enhanced CT 또는 MRI 영상과 Contrast enhanced CT 또는 MRI 영상을 생성하는 단계; 입력영상을 인공신경망을 이용한 학습을 통해 Contrast enhanced CT 또는 MRI 영상을 생성하여 출력영상으로 획득하는 단계; 학습을 통해 생성된 출력영상과 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용 함수로 생성하는 단계; 및 상기 비용 함수를 상기 인공신경망으로 피드백하여 그 입력영상을 학습하여 비용함수를 최소화하는 단계를 포함한다.
본 발명에 의하면, 비조영증강 CT 영상에서 보이지 않는 병변을 보기 위해 조영증강 CT 영상을 다시 촬영하게 됨으로써 방사선 조사량을 줄일 수 있고, 신장 질환이나 알레르기(allergy) 등으로 조영제를 사용하는 것이 어려운 환자일 경우 조영제를 사용하지 않고도 조영증강 CT나 MRI 영상을 생성함으로써 비조영증강 CT 나 MRI 영상만으로 불충분하게 진단하는 문제를 해결할 수 있다.
The present invention relates to a method and apparatus for converting contrast-enhanced images and non-contrast-enhanced images using artificial intelligence, and the method for converting contrast-enhanced and non-contrast-enhanced images using artificial intelligence And generating a non-enhanced CT or MRI image and a contrast enhanced CT or MRI image for a specific region of a patient using a CT or MRI device; Generating a contrast-enhanced CT or MRI image through learning of an input image using an artificial neural network to obtain an output image; Comparing the output image generated through learning and the target image to obtain similarity or dissimilarity, and generating a cost function; And feedback the cost function to the artificial neural network to learn the input image to minimize the cost function.
According to the present invention, it is possible to reduce the radiation dose by re-taking the contrast-enhanced CT image to see lesions that are not visible in the non-contrast-enhanced CT image, and it is difficult to use a contrast agent due to kidney disease or allergy. In this case, it is possible to solve the problem of insufficient diagnosis with only non-contrast-enhanced CT or MRI images by generating contrast-enhanced CT or MRI images without using a contrast agent.

Description

인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법 및 장치{Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence}TECHNICAL FIELD [Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence}

본 발명은 인공지능을 이용하여 비조영증강(Non-enhanced) CT(Computed Tomography) 또는 MRI(Magnetic Resonance Imaging) 영상을 조영증강(contrast enhanced) CT 또는 MRI 영상으로 변환하고, 역으로 조영증강(contrast enhanced) CT 또는 MRI 영상을 비조영증강(Non-enhanced) CT 또는 MRI 영상으로 변환하는 방법 및 장치에 관한 것이다.The present invention uses artificial intelligence to convert non-enhanced CT (Computed Tomography) or MRI (Magnetic Resonance Imaging) images into contrast enhanced CT or MRI images, and vice versa. enhanced) It relates to a method and apparatus for converting a CT or MRI image into a non-enhanced CT or MRI image.

일반적으로 비조영증강(Non-enhanced) CT 영상과 조영증강(contrast enhanced) CT 영상으로 볼 수 있는 병변이 다르다. 따라서 동시에 Non-enhanced CT 영상과 enhanced CT 영상 둘 다를 촬영하거나 하나의 영상에서 병변이 보이지 않는 경우 다시 촬영하는 경우가 있다. 즉, Non-enhanced CT 영상에서 병변이 보이지 않는 경우 enhanced CT 영상을 다시 촬영하거나 반대로 enhanced CT 영상에서 병변이 보이지 않는 경우 Non-enhanced CT 영상을 다시 촬영한다. 이렇게 다시 촬영할 경우에는 방사선 조사량이 증가하는 문제가 있다. In general, lesions that can be seen with non-enhanced CT images and contrast enhanced CT images are different. Therefore, there are cases in which both non-enhanced CT images and enhanced CT images are taken at the same time, or if the lesion is not visible in one image, the image is taken again. That is, if the lesion is not visible on the non-enhanced CT image, the enhanced CT image is retaken or, conversely, if the lesion is not seen on the enhanced CT image, the non-enhanced CT image is retaken. In this case, there is a problem that the radiation dose increases.

또한 신장 질환이나 알레르기(allergy) 등으로 조영제를 사용하는 것이 어려울 경우가 있다. 이러한 경우에는 non-enhanced 영상만으로 불충분하게 진단하거나 알레르기 등의 어려움을 감수하고 contrast enhanced 영상을 촬영하는 문제가 있다.Also, it may be difficult to use a contrast agent due to kidney disease or allergy. In this case, there is a problem in that the non-enhanced image is insufficiently diagnosed, or the contrast-enhanced image is photographed with the risk of allergy and the like.

따라서 Non-enhanced CT 또는 MRI 영상을 contrast enhanced CT 또는 MRI 영상으로 생성하고, 그 역으로 즉, contrast enhanced CT 또는 MRI 영상을 Non-enhanced CT 또는 MRI 영상으로 변환하는 방법 및 장치가 필요하다. Accordingly, there is a need for a method and apparatus for generating a non-enhanced CT or MRI image as a contrast enhanced CT or MRI image, and vice versa, that is, converting a contrast enhanced CT or MRI image to a non-enhanced CT or MRI image.

대한민국 공개특허공보 공개번호 제10-2018-0117009호Korean Patent Application Publication No. 10-2018-0117009 대한민국 공개특허공보 공개번호 제10-2018-0123810호Republic of Korea Patent Application Publication No. 10-2018-0123810

본 발명이 해결하고자 하는 과제는 종래 기술의 문제와 불편함을 해결하기 위해 창출된 것으로서, 인공지능을 이용하여 비조영증강(Non-enhanced) CT 또는 MRI 영상을 조영증강(contrast enhanced) CT 또는 MRI 영상으로 변환하고, 역으로 조영증강(contrast enhanced) CT 또는 MRI 영상을 비조영증강(Non-enhanced) CT 또는 MRI 영상으로 변환하는, 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법 및 장치를 제공하는 것이다. The problem to be solved by the present invention is created to solve the problems and inconveniences of the prior art, and contrast enhanced CT or MRI images using artificial intelligence Contrast-enhanced image and non-contrast-enhanced image conversion method and apparatus using artificial intelligence that converts to an image and, conversely, a contrast-enhanced CT or MRI image to a non-enhanced CT or MRI image Is to provide.

상기 기술적 과제를 이루기 위한 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법은, CT 또는 MRI 장치를 이용하여 환자의 특정 부위에 대한 Non-enhanced CT 또는 MRI 영상과 Contrast enhanced CT 또는 MRI 영상을 생성하는 단계; 상기 생성된 Non-enhanced CT 또는 MRI 영상을 입력영상으로 하고, Contrast enhanced CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 입력영상을 인공신경망을 이용한 학습을 통해 Contrast enhanced CT 또는 MRI 영상을 생성하여 출력영상으로 획득하는 단계; 상기 학습을 통해 생성된 출력영상과 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용 함수로 생성하는 단계; 및 상기 비용 함수를 상기 인공신경망으로 피드백하여 상기 입력영상을 학습하여 상기 비용 함수를 최소화하는 단계를 포함한다.Contrast-enhanced image and non-contrast-enhanced image conversion method using artificial intelligence according to the present invention for achieving the above technical problem is Non-enhanced CT or MRI image and Contrast enhanced CT for a specific part of a patient using a CT or MRI device. Or generating an MRI image; When the generated non-enhanced CT or MRI image is used as an input image and a contrast enhanced CT or MRI image is referred to as a target image, the input image is learned using an artificial neural network to generate and output a contrast enhanced CT or MRI image. Obtaining an image; Comparing the output image generated through the learning and the target image to obtain a degree of similarity or dissimilarity, and generating a cost function; And learning the input image by feeding back the cost function to the artificial neural network to minimize the cost function.

상기 기술적 과제를 이루기 위한 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법은, CT 또는 MRI 장치를 이용하여 환자의 특정 부위에 대한 Non-enhanced CT 또는 MRI 영상과 Contrast enhanced CT 또는 MRI 영상을 생성하는 단계; 상기 생성된 Contrast enhanced CT 또는 MRI 영상을 입력영상으로 하고, Non-enhanced CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 입력영상을 인공신경망을 이용한 학습을 통해 Non-enhanced CT 또는 MRI 영상을 생성하여 출력영상으로 획득하는 단계; 상기 인공신경망 학습을 통해 생성된 출력영상과 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용 함수로 생성하는 단계; 및 상기 비용 함수를 상기 인공신경망으로 피드백하여 상기 입력영상을 학습하여 상기 비용 함수를 최소화하는 단계를 포함한다.Contrast-enhanced image and non-contrast-enhanced image conversion method using artificial intelligence according to the present invention for achieving the above technical problem is Non-enhanced CT or MRI image and Contrast enhanced CT for a specific part of a patient using a CT or MRI device. Or generating an MRI image; When the generated contrast enhanced CT or MRI image is used as an input image and a non-enhanced CT or MRI image is a target image, the input image is learned using an artificial neural network to generate a non-enhanced CT or MRI image. Obtaining an output image; Comparing the output image generated through the artificial neural network learning with the target image to obtain a degree of similarity or dissimilarity, and generating a cost function; And learning the input image by feeding back the cost function to the artificial neural network to minimize the cost function.

상기 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법은, 상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting) 과 좌우상하변위량(offset 값)을 조정하는 전처리단계를 더 포함할 수 있다. 상기 전처리 단계는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상과 가장 근접한 위치의 타겟영상의 영상을 선택하는 단계를 더 포함할 수 있다. 또한 상기 전처리 단계는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상 전체와 가장 근접한 위치로 선택된 타겟영상 전체 영상을 선택하는 단계를 더 포함할 수 있다. The method of converting a contrast-enhanced image and a non-contrast-enhanced image using artificial intelligence according to the present invention includes a rotational displacement amount (tilting) and a left-right vertical displacement amount (offset value) according to the amount of change in the patient's posture movement of the target image with respect to the input image. It may further include a pre-treatment step of adjusting. The pre-processing step may further include selecting an image of the target image closest to the input image in order to compensate for a difference according to the section thickness of the target image with respect to the input image. In addition, the pre-processing step may further include selecting an entire target image selected as a position closest to the entire input image in order to compensate for a difference according to a section thickness of the target image with respect to the input image.

상기 기술적 과제를 이루기 위한 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치는, CT(Computed Tomography) 또는 MRI(Magnetic Resonance Imaging) 장치를 이용하여 생성된, 환자의 특정 부위에 대한 비조영증강(Non-enhanced) CT 또는 MRI 영상을 입력영상이라 하고, 상기 CT 또는 MRI 장치를 이용하여 생성된 조영증강(Contrast enhanced) CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 비조영증강 입력 영상을 인공지능을 이용하여 학습하여 조영증강 CT 또는 MRI 영상으로 생성하여 출력영상을 제공하는 인공지능 학습부; 및 상기 인공지능 학습부의 학습을 통해 제공된 출력영상과 상기 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용함수(cost function)로 생성하고, 상기 비용함수를 상기 인공지능 학습부로 피드백하여 학습하여 상기 비용 함수 값을 최소화하는 비용함수부를 포함한다.A contrast-enhanced image and non-contrast-enhanced image conversion apparatus using artificial intelligence according to the present invention to achieve the above technical problem is generated using a CT (Computed Tomography) or MRI (Magnetic Resonance Imaging) device, When a non-enhanced CT or MRI image is referred to as an input image, and a contrast enhanced CT or MRI image generated using the CT or MRI device is referred to as a target image, the non-enhanced CT or MRI image is referred to as a target image. An artificial intelligence learning unit that learns an input image using artificial intelligence, generates a contrast-enhanced CT or MRI image, and provides an output image; And comparing the output image provided through the learning of the artificial intelligence learning unit with the target image to obtain a similarity or dissimilarity, generating a cost function, and feeding back the cost function to the artificial intelligence learning unit to learn the cost. It includes a cost function that minimizes the value of the function.

상기 기술적 과제를 이루기 위한 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치는, CT(Computed Tomography) 또는 MRI(Magnetic Resonance Imaging) 장치를 이용하여 생성된, 환자의 특정 부위에 대한 조영증강(Contrast enhanced) CT 또는 MRI 영상을 입력영상이라 하고, 상기 CT 또는 MRI 장치를 이용하여 생성된 비조영증강(non-enhanced) CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 조영증강 입력 영상을 인공지능을 이용하여 학습하여 비조영증강 CT 또는 MRI 영상으로 생성하여 출력영상을 제공하는 인공지능 학습부; 및 상기 인공지능 학습부의 학습을 통해 제공된 출력영상과 상기 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용함수(cost function)로 생성하고, 상기 비용함수를 상기 인공지능 학습부로 피드백하여 학습하여 상기 비용 함수 값을 최소화하는 비용함수부를 포함한다.A contrast-enhanced image and non-contrast-enhanced image conversion apparatus using artificial intelligence according to the present invention to achieve the above technical problem is generated using a CT (Computed Tomography) or MRI (Magnetic Resonance Imaging) device, When a contrast enhanced CT or MRI image is referred to as an input image, and a non-enhanced CT or MRI image generated using the CT or MRI device is referred to as a target image, the contrast enhancement input An artificial intelligence learning unit that learns an image using artificial intelligence, generates a non-contrast enhanced CT or MRI image, and provides an output image; And comparing the output image provided through the learning of the artificial intelligence learning unit with the target image to obtain a similarity or dissimilarity, generating a cost function, and feeding back the cost function to the artificial intelligence learning unit to learn the cost. It includes a cost function that minimizes the value of the function.

상기 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치는, 상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting) 과 좌우상하변위량(offset 값)을 조정하는 전처리부를 더 포함할 수 있다. 상기 전처리부는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상과 가장 근접한 위치의 타겟영상의 영상을 선택하는 것을 더 포함할 수 있다. 또한 상기 전처리부는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상 전체와 가장 근접한 위치로 선택된 타겟영상 전체 영상을 선택하는 것을 더 포함할 수 있다.The apparatus for converting a contrast-enhanced image and a non-contrast-enhanced image using artificial intelligence according to the present invention calculates a rotational displacement amount (tilting) and a left-right vertical displacement amount (offset value) according to the amount of change in the patient's posture movement with respect to the input image. It may further include a pre-processing unit to adjust. The preprocessor may further include selecting an image of the target image closest to the input image in order to compensate for a difference according to the section thickness of the target image with respect to the input image. In addition, the preprocessor may further include selecting an entire target image selected as a position closest to the entire input image in order to compensate for a difference according to a section thickness of the target image with respect to the input image.

본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법 및 장치에 의하면, 비조영증강 CT 영상에서 보이지 않는 병변을 보기 위해 조영증강 CT 영상을 다시 촬영하게 됨으로써 방사선 조사량을 줄일 수 있다. According to the method and apparatus for converting contrast-enhanced and non-contrast-enhanced images using artificial intelligence according to the present invention, it is possible to reduce the radiation dose by re-taking the contrast-enhanced CT image to view the lesions that are not visible in the non-contrast-enhanced CT image. .

그리고 본 발명에 의하면, 신장 질환이나 알레르기(allergy) 등으로 조영제를 사용하는 것이 어려운 환자일 경우 조영제를 사용하지 않고도 조영증강 CT나 MRI 영상을 생성함으로써 비조영증강 CT 나 MRI 영상만으로 불충분하게 진단하는 문제를 해결할 수 있다. 또한 부득이 알레르기 등의 어려움을 감수하고라도 조영증강(contrast enhanced) 영상을 촬영해야 하는 어려움도 해결할 수 있다.And according to the present invention, in the case of a patient having difficulty using a contrast agent due to kidney disease or allergy, by generating a contrast-enhanced CT or MRI image without using a contrast agent, a non-contrast-enhanced CT or MRI image is insufficiently diagnosed. You can solve the problem. In addition, it is possible to solve the difficulty of taking a contrast enhanced image even at the expense of difficulties such as allergies.

도 1는 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치의 일실시예를 블록도로 나타낸 것이다.
도 2는 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치에서 인공지능학습부(120)를 보다 상세히 나타낸 것이다.
도 3은 본 발명에 따른 인공지능 학습된 조영증강 영상 및 비조영증강 영상 변환 장치의 일실시예를 나타낸 것이다.
도 4는 CT 영상에서의 bone window와 bone의 HU(Hounsfield Unit) 값을 나타낸 것이다.
도 5는 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법에서 비조영증강 영상을 조영증강 영상으로 변환하는 일실시예를 흐름도로 나타낸 것이다.
도 6은 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법에서 조영증강 영상을 비조영증강 영상으로 변환하는 일실시예를 흐름도로 나타낸 것이다.
1 is a block diagram showing an embodiment of an apparatus for converting a contrast-enhanced image and a non-contrast-enhanced image using artificial intelligence according to the present invention.
FIG. 2 shows the artificial intelligence learning unit 120 in more detail in the apparatus for converting contrast-enhanced images and non-contrast-enhanced images using artificial intelligence according to the present invention.
3 shows an embodiment of an artificial intelligence-learned contrast-enhanced image and non-contrast-enhanced image conversion apparatus according to the present invention.
Figure 4 shows the bone window and bone HU (Hounsfield Unit) values in the CT image.
5 is a flowchart illustrating an embodiment of converting a non-contrast-enhanced image into a contrast-enhanced image in the method for converting a contrast-enhanced image and a non-contrast-enhanced image using artificial intelligence according to the present invention.
6 is a flowchart illustrating an embodiment of converting a contrast-enhanced image into a non-contrast-enhanced image in the method for converting a contrast-enhanced image and a non-contrast-enhanced image using artificial intelligence according to the present invention.

이하, 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원 시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Since the embodiments described in the present specification and the configurations shown in the drawings are only preferred embodiments of the present invention, and do not represent all the technical spirit of the present invention, various equivalents that can replace them at the time of the present application It should be understood that there may be variations and variations.

도 1는 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치의 일실시예를 블록도로 나타낸 것이다. 도 1을 참조하면, 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치의 일실시예는 인공지능 학습부(120) 및 비용함수부(130)를 포함하여 이루어지고, 전처리부(110)를 더 포함할 수 있다. 1 is a block diagram showing an embodiment of an apparatus for converting a contrast-enhanced image and a non-contrast-enhanced image using artificial intelligence according to the present invention. Referring to FIG. 1, an embodiment of a contrast-enhanced image and non-contrast-enhanced image conversion apparatus using artificial intelligence according to the present invention includes an artificial intelligence learning unit 120 and a cost function unit 130, and preprocessing It may further include a unit 110.

CT(Computed Tomography) 또는 MRI(Magnetic Resonance Imaging) 장치(미도시)를 이용하여 환자의 특정 부위에 대한 비조영증강(Non-enhanced) CT 또는 MRI 영상과 조영증강(Contrast enhanced) CT 또는 MRI 영상을 촬영한다. 상기 환자의 특정 부위는 동일한 환자의 특정 부위일 경우가 많지만, 촬영되는 부위가 동일하면 동일하지 않은 환자의 특정 부위에 대한 Non-enhanced 및 Contrast enhanced CT 또는 MRI 영상을 촬영할 수도 있다. 상기 촬영된 비조영증강(Non-enhanced) CT 또는 MRI 영상은 입력영상이 될 수도 있고 타겟영상이 될 수도 있다. 상기 CT 또는 MRI 장치를 이용하여 촬영된 조영증강(Contrast enhanced) CT 또는 MRI 영상은 상기 비조영증강 CT 또는 MRI 영상이 입력영상일 경우에는 타겟영상이 되고, 상기 비조영증강 CT 또는 MRI 영상이 타겟영상일 경우에는 입력영상이 된다. 여기서, 비조영증강(Non-enhanced) CT 또는 MRI 영상과 조영증강(Contrast enhanced) CT 또는 MRI 영상과 조영증강(Contrast enhanced) CT 또는 MRI 영상은 몇 분 또는 몇 시간의 시차 뿐 아니라 상당한 시차, 예를 들어 몇 일 또는 몇 달, 심지어 몇 년 간격으로 촬영될 수 있다.Non-enhanced CT or MRI images and contrast-enhanced CT or MRI images of specific areas of the patient using a CT (Computed Tomography) or MRI (Magnetic Resonance Imaging) device (not shown). Take a picture. The specific region of the patient is often a specific region of the same patient, but if the region to be photographed is the same, non-enhanced and contrast enhanced CT or MRI images of a specific region of a non-identical patient may be photographed. The photographed non-enhanced CT or MRI image may be an input image or a target image. Contrast enhanced CT or MRI image taken using the CT or MRI device becomes a target image when the non-contrast enhanced CT or MRI image is an input image, and the non-contrast enhanced CT or MRI image is a target In the case of an image, it becomes an input image. Here, non-enhanced CT or MRI images and contrast enhanced CT or MRI images and contrast enhanced CT or MRI images are not only a few minutes or hours of parallax, but also a significant parallax, e.g. For example, it can be taken at intervals of days, months, or even years.

인공지능 학습부(120)는 상기 비조영증강 입력 영상을 인공지능을 이용하여 학습하여 조영증강 CT 또는 MRI 영상으로 변환하여 출력영상으로 제공한다. 또한 인공지능 학습부(120)는 상기 조영증강 입력 영상을 인공지능을 이용하여 학습하여 비조영증강 CT 또는 MRI 영상으로 변환하여 출력영상으로 제공한다. 인공지능 학습부(120)는 인코더(122), 심층신경망(124) 및 디코더(126)을 구비할 수 있다. The artificial intelligence learning unit 120 learns the non-contrast-enhanced input image using artificial intelligence, converts it into a contrast-enhanced CT or MRI image, and provides it as an output image. In addition, the artificial intelligence learning unit 120 learns the contrast-enhanced input image using artificial intelligence, converts it into a non-contrast-enhanced CT or MRI image, and provides it as an output image. The artificial intelligence learning unit 120 may include an encoder 122, a deep neural network 124, and a decoder 126.

도 2는 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치에서 인공지능학습부(120)를 보다 상세히 나타낸 것이다. 도 2를 참조하면, 인코더(122)는 Convolution Neural Network으로 구현될 수 있으며, 복수의 Convolution Layer(210)과 복수의 Pooling Layer(220)으로 구성될 수 있다. 그리고 심층신경망(Deep Neural Nework, 124)은 Fully Connected Layer로 구성할 수 있고, 디코더(126)은 Convolution Neural Network으로 구현될 수 있으며, 복수의 Convolution Layer(230)과 복수의 UnPooling Layer(240)으로 구성될 수 있다. 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치에서의 인공지능학습부(120)는 CNN 뿐만 아니라 simple neural network, recurrent neural network를 사용할 수도 있다. 또한 기존의 예측모델을 사용할 수도 있다. 예를 들어 regression model, surrogate management framework를 사용할 수도 있다.FIG. 2 shows the artificial intelligence learning unit 120 in more detail in the apparatus for converting contrast-enhanced images and non-contrast-enhanced images using artificial intelligence according to the present invention. Referring to FIG. 2, the encoder 122 may be implemented as a convolution neural network, and may include a plurality of convolution layers 210 and a plurality of pooling layers 220. In addition, the deep neural network 124 may be configured as a fully connected layer, and the decoder 126 may be implemented as a convolution neural network, and a plurality of convolution layers 230 and a plurality of unpooling layers 240 may be used. Can be configured. The artificial intelligence learning unit 120 in the apparatus for converting contrast-enhanced and non-contrast-enhanced images using artificial intelligence according to the present invention may use a simple neural network and a recurrent neural network as well as a CNN. It is also possible to use an existing prediction model. For example, a regression model or surrogate management framework can be used.

비용함수부(130)는 인공지능 학습부(120)의 학습을 통해 제공된 출력영상과 상기 타겟영상을 비교하여 출력영상과 타겟영상의 유사도 또는 비유사도를 구하여 비용함수(cost function)로 생성하고, 상기 비용함수를 인공지능 학습부(120)로 피드백하여 학습하고, 상기 피드백을 반복하여 상기 비용 함수 값을 최소화한다. 상기 출력영상과 타겟영상의 유사도 또는 비유사도는 출력영상과 타겟영상의 차를 포함하며, 상기 출력함수와 타겟영상의 차를 구하여 비용함수로 생성할 수 있다. The cost function unit 130 compares the output image provided through the learning of the artificial intelligence learning unit 120 and the target image to obtain the similarity or dissimilarity between the output image and the target image, and generates a cost function, The cost function is fed back to the artificial intelligence learning unit 120 to learn, and the feedback is repeated to minimize the cost function value. The similarity or dissimilarity between the output image and the target image includes a difference between the output image and the target image, and may be generated as a cost function by obtaining the difference between the output function and the target image.

그리고 출력영상과 타겟영상이 서로 같은지 다른지 구분하는 장치 또는 프로그램을 비용함수로 이용할 수도 있다. 즉, 상기 출력영상과 타겟영상의 유사도 또는 비유사도는 출력영상과 타겟영상이 서로 같은지 다른지 구분하는 장치 또는 프로그램을 이용하여 산출할 수 있다. 예를 들어, CT의 경우에는 환자들의 non-enhanced CT, Contrast enhanced CT 이미지에 대해 중복을 허락하여 2개의 이미지를 추출하여 인공지능(예를 들어 Convoluted neural network) 또는 기타 예측모델에 입력(input)으로 넣고 실제 같은 이미지인 경우에는 '같은 이미지'라고 출력하고(프로그램 상에서는 '0'이라는 숫자로 출력할 수도 있음), 이외에는 모두 '다른 이미지'라고 출력(프로그램 상에서는 '1'이라는 숫자 또는 '0~1'사이의 서로 다른 이미지일 확률로 출력할 수도 있음) 하도록 훈련한 장치 또는 프로그램을 사용할 수 있다. In addition, a device or program that distinguishes whether the output image and the target image are the same or different may be used as a cost function. That is, the degree of similarity or dissimilarity between the output image and the target image may be calculated using a device or a program that distinguishes whether the output image and the target image are the same or different. For example, in the case of CT, two images are extracted by allowing overlapping of non-enhanced CT and contrast enhanced CT images of patients   artificial intelligence (e.g., Convoluted neural network)   or input to other predictive models  If the image is actually the same image, it is output as'same image' (in the program, it can also be output as a number of '0'), and all other images are output as'different image' (in the program, the number '1' or '0~) It is also possible to use a device or program that has been trained to be (may be output with a probability of different images between 1').

MRI의 경우에도 동일하게 두 영상이 서로 같은지 다른지 구분하는 장치를 구성할 수 있다.  CT와 MRI이미지 모두를 이용하여 훈련한 두 영상이 서로 같은지 다른지 구분하는 장치를 사용할 수도 있다. 본 발명에서 사용되는 상기 장치는 이렇게 구성된 두 영상이 서로 같은지 다른지 구분하는 장치를 비용함수로 이용할 수 있다. 환자의 non-enhanced CT를 이용하여 Contrast enhanced로 변환한 이미지와 실제 Contrast enhanced 이미지를 두 영상이 서로 같은지 다른지 구분하는 장치가 서로 같은 이미지로 인식할 때까지 본 발명의 장치를 훈련한다.In the case of MRI, it is also possible to configure a device that distinguishes whether two images are the same or different from each other. It is also possible to use a device that distinguishes whether two images trained using both CT and MRI images are the same or different. The device used in the present invention can use a device that distinguishes whether two images configured as described above are the same or different from each other as a cost function. The device of the present invention is trained until the device that distinguishes between the contrast-enhanced image and the actual contrast-enhanced image using the patient's non-enhanced CT recognizes the same image as each other.

반대의 경우에는, 환자의 Contrast enhanced CT이미지를 이용하여 non-enhanced로 변환한 이미지와 실제 non-enhanced CT이미지를 두 영상이 서로 같은지 다른지 구분하는 장치가 서로 같은 이미지로 인식할 때까지 본 발명에서 비용함수로 사용되는 장치를 훈련한다. 이렇게 하는 경우 두 영상의 차이를 전혀 이용하지 않고도 비용함수를 생성할 수 있다.In the opposite case, in the present invention, until the device that distinguishes whether the two images are the same or different from the image converted to non-enhanced using the contrast enhanced CT image of the patient and the actual non-enhanced CT image are recognized as the same image. Train a device to be used as a cost function. In this case, a cost function can be generated without using the difference between the two images at all.

 MRI의 경우에도 동일하게 두 영상이 서로 같은지 다른지 구분하는 장치를 비용함수로 이용하여 환자의 non-enhanced MRI이미지를 이용하여 Contrast enhanced로 변환한 이미지와 실제 Contrast enhanced MRI이미지를 두 영상이 서로 같은지 다른지 구분하는 장치가 서로 같은 이미지로 인식할 때까지 본 발명의 장치를 훈련한다.  반대의 경우에도 환자의 Contrast enhanced MRI이미지를 이용하여 non-enhanced로 변환한 이미지와 실제 non-enhanced MRI이미지를 두 영상이 서로 같은지 다른지 구분하는 장치가 서로 같은 이미지로 인식할 때까지 본 발명의 장치를 훈련한다. In the case of MRI, the image converted to Contrast enhanced using the patient's non-enhanced MRI image and the actual Contrast enhanced MRI image using a device that distinguishes whether two images are the same or different are the same or different from each other. The device of the present invention is trained until the devices that distinguish them recognize each other as the same image. Even in the opposite case, the device of the present invention uses the patient's Contrast enhanced MRI image to convert the image into non-enhanced and the actual non-enhanced MRI image until the device that distinguishes whether the two images are the same or different from each other recognizes the same image. To train.

전처리부(110)는 상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting)과 좌우상하변위량(offset value)을 조정한다. 즉, 전처리부(110)는 비조영증강 CT 또는 MRI 영상을 촬영할 때의 환자 자세와 비조영증강 CT 또는 MRI 영상을 촬영할 때의 환자 자세가 환자의 미세한 움직임으로 인해 차이가 날 수 있다. 상기 차이는 회전변위량(tilting)과 좌우상하변위량(offset value)으로 나타낼 수 있다. 회전변위량(tilting)은 환자의 촬영부위가 틀어진 정도이고, 좌우상하변위량(offset value)은 환자의 촬영부위가 상하 좌우로 이동된 값이다. The preprocessor 110 adjusts a rotational displacement amount (tilting) and a left-right vertical displacement amount (offset value) according to the amount of change in the patient's posture movement of the target image with respect to the input image. That is, the pre-processing unit 110 may have a difference between a patient's posture when taking a non-contrast-enhanced CT or MRI image and a patient's posture when taking a non-contrast-enhanced CT or MRI image due to a minute movement of the patient. The difference can be expressed as a rotational displacement and an offset value. The amount of rotational displacement (tilting) is the degree to which the patient's photographing area is twisted, and the left-right vertical displacement (offset value) is the value in which the patient's photographing area is moved up, down, left and right.

전처리부(110)는 이러한 환자 자세 변경에 대해 alignment를 조정(adjusting)하여 조영증강영상과 비조영증강영상을 matching하여 정확도를 높인다. 상기 alignment 조정은 사람이 수동으로 할 수도 있으나 수동으로 하면 시간과 비용이 많이 소요될 수 있다. The pre-processing unit 110 adjusts the alignment of the patient's posture change to match the enhancement-enhanced image and the non-contrast-enhanced image to increase accuracy. The alignment adjustment may be performed manually by a person, but manual adjustment may take a lot of time and cost.

본 발명에서는 CT 영상일 경우에는 인체 부위 중에서 가장 변화가 적은 부위는 뼈(bone)이므로 bone window 처럼 bone HU(약 1000) 근처에서 cutoff value를 설정하면 비조영증강 영상과 조영증강 영상의 차이가 가장 작도록 alignment를 조정할 수 있다. 도 4는 CT 영상에서의 bone window와 bone의 HU(Hounsfield Unit) 값을 나타낸 것이다. W는 width이고 L은 level 이다. HU(Hounsfield Unit)는 X선이 몸을 투과할 때 부위별 밀도에 의해 흡수정도를 상대적으로 표현한 것으로서, 도 4를 참조하면 bone의 HU는 1000 이고, 물(H2O)의 HU는 0 이고, 공기(air)의 HU는 -1000 이다.In the present invention, in the case of a CT image, the region with the least change among the human body parts is bone, so if a cutoff value is set near the bone HU (about 1000) like a bone window, the difference between the non-contrast enhanced image and the contrast enhanced image is the most. You can adjust the alignment to be small. Figure 4 shows the bone window and bone HU (Hounsfield Unit) values in the CT image. W is the width and L is the level. HU (Hounsfield Unit) is a relative expression of the degree of absorption by the density of each part when X-rays pass through the body. Referring to FIG. 4, the HU of bone is 1000, and the HU of water (H 2 O) is 0. , HU of air is -1000.

CT 촬영에서 뼈(bone)의 이미지 값이 거의 1000 정도의 값을 가지고, CT를 볼 때 bone window가 따로 있다. bone window 를 통해 보면, 데이터는 그대로 있는데, 1000 정도에서만 하얗게 보이고, 나머지는 까맣게 나타남으로써 bone만 볼 수 있게 된다. 이와 같이 보이는 bone 이 강조되어 나타나는 조영증강 영상과 비조영증강영상을 회전 및 상하좌우 이동하면서 alignment를 조정하면 틸팅(tilting)과 오프셋 값(offset value)을 얻을 수 있다. 이렇게 구해진 상기 틸팅(tilting)과 오프셋 값(offset value)을 반영하여 이미지를 돌리고 위치를 변화시켜 조영증강 영상과 비조영증강 영상을 매칭한다.In CT scans, the image value of the bone has a value of about 1000, and there is a separate bone window when viewing the CT. If you look through the bone window, the data is still there, but only about 1000 is white, and the rest is black, so that only the bone can be seen. Adjusting the alignment while rotating the enhancement image and the non-contrast enhancement image, where the visible bone is highlighted, can be obtained by adjusting the alignment. By reflecting the obtained tilting and offset values, the image is rotated and the position is changed to match the enhancement-enhanced image and the non-contrast-enhanced image.

MRI 영상일 경우에는 각 촬영 모드별 bone signal value 근처에서 cutoff value를 설정하여 비조영증강 영상과 조영증강 영상의 차이가 가장 작도록 alignment를 조정한다. In the case of an MRI image, a cutoff value is set near the bone signal value for each imaging mode, and the alignment is adjusted so that the difference between the non-contrast-enhanced image and the contrast-enhanced image is smallest.

또한 전처리부(110)는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상과 가장 근접한 위치의 영상의 위치를 선택하여 타겟영상으로 할 수 있다. alignment를 조정한 후 근접 위치의 영상을 타겟 영상으로 선택한다. 또한 전처리부(110)는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 입력영상 전체와 가장 근접한 위치로 선택된 타겟 영상 전체를 선택할 수 있다. 상기 입력영상 전체와 선택된 타겟영상 전체를 이용하여 학습하여 정확도를 높일 수 있다.In addition, the preprocessor 110 may select a position of an image closest to the input image to compensate for a difference according to the section thickness of the target image with respect to the input image and set it as a target image. After adjusting the alignment, select a video at a nearby location as the target video. In addition, the preprocessor 110 may select the entire target image selected as the closest position to the entire input image in order to compensate for a difference according to the section thickness of the target image with respect to the input image. Accuracy can be improved by learning using the entire input image and the selected target image.

즉, 이미지 전체를 같이 넣고 한꺼번에 학습시킨다. 예를 들어 입력영상을 100장을 촬영한 후, 데이터가 이미지 한 장당 10개 값이 있다면 100장이면 1000개의 데이터가 있다. 1000개의 데이터를 하나의 데이터 세트로 하여 한명 당 데이터 세트는 하나가 되고, 하나의 데이터 세트를 한 번에 학습시킨다. 이렇게 하면 CNN의 계수 결정이 빠르게 수렴될 수 있다. 그렇게 하지 않고 이미지 한 장을 하나의 데이터 세트로 하여 하나씩 학습하면 이미지의 수가 많으면 CNN의 계수가 다르게 될 수 있어 학습의 정확도가 낮아질 수 있다.That is, put the whole image together and train it all at once. For example, after taking 100 input images, if there are 10 values per image, there are 1000 data for 100 images. With 1000 data as one data set, one data set per person becomes one, and one data set is trained at a time. In this way, the coefficient determination of the CNN can converge quickly. Without doing so, if one image is trained one by one as one data set, if the number of images is large, the CNN coefficients may be different, which may lower the learning accuracy.

도 3은 본 발명에 따른 인공지능 학습된 조영증강 영상 및 비조영증강 영상 변환 장치의 일실시예를 나타낸 것이다. 도 3을 참조하면, 입력영상(310)으로 비조영증강 CT 또는 MRI 영상을 본 발명에 따른 인공지능 학습된 조영증강 영상 및 비조영증강 영상 변환 장치(320)에 입력하면, 조영증강 CT 또는 MRI 영상이 출력영상(330)으로 출력된다. 역으로 입력영상(310)으로 조영증강 CT 또는 MRI 영상을 본 발명에 따른 인공지능 학습된 조영증강 영상 및 비조영증강 영상 변환 장치(320)에 입력하면, 비조영증강 CT 또는 MRI 영상이 출력영상(330)으로 출력된다.3 shows an embodiment of an artificial intelligence-learned contrast-enhanced image and non-contrast-enhanced image conversion apparatus according to the present invention. 3, when inputting a non-contrast-enhanced CT or MRI image as an input image 310 to the artificial intelligence-learned contrast-enhanced image and non-contrast-enhanced image conversion apparatus 320 according to the present invention, contrast-enhanced CT or MRI The image is output as an output image 330. Conversely, when a contrast-enhanced CT or MRI image is input to the artificial intelligence-learned contrast-enhanced image and non-contrast-enhanced image conversion device 320 according to the present invention as the input image 310, the non-contrast-enhanced CT or MRI image is output image It is output as 330.

도 5는 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법에서 비조영증강 영상을 조영증강 영상으로 변환하는 일실시예를 흐름도로 나타낸 것이다. 도 5를 참조하면, CT 또는 MRI 장치를 이용하여 환자의 인체를 촬영하여 Non-enhanced CT 또는 MRI 영상과 Contrast enhanced CT 또는 MRI 영상을 생성한다.(S510단계) 상기 환자의 인체는 동일한 환자의 인체일 경우가 많지만, 촬영되는 인체 부위가 동일하면 동일하지 않은 환자의 인체를 촬영하여 Non-enhanced 및 Contrast enhanced CT 또는 MRI 영상을 생성할 수도 있다.5 is a flowchart illustrating an embodiment of converting a non-contrast-enhanced image into a contrast-enhanced image in the method for converting a contrast-enhanced image and a non-contrast-enhanced image using artificial intelligence according to the present invention. Referring to FIG. 5, a non-enhanced CT or MRI image and a contrast enhanced CT or MRI image are generated by photographing the human body of a patient using a CT or MRI device. (S510) The human body of the patient is the same as the human body of the patient. In many cases, if the body part to be photographed is the same, a non-enhanced and contrast enhanced CT or MRI image may be generated by photographing the human body of a non-identical patient.

상기 생성된 Non-enhanced CT 또는 MRI 영상을 입력영상으로 하고, Contrast enhanced CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting) 과 좌우상하변위량(offset 값)을 조정하는 전처리를 수행한다.(S520단계) 상기 전처리(S520단계)는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상과 가장 근접한 위치의 타겟영상의 영상을 선택하는 것을 더 포함할 수 있다. 또한 상기 전처리(S520단계)는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상 전체와 가장 근접한 위치로 선택된 타겟영상 전체 영상을 선택할 수 있다.When the generated non-enhanced CT or MRI image is used as an input image, and a contrast enhanced CT or MRI image is referred to as a target image, a tilting amount according to the amount of change in the patient's posture movement with respect to the input image and Pre-processing of adjusting the left and right displacement amount (offset value) is performed. (S520) The pre-processing (S520) is the closest to the input image in order to compensate for the difference according to the section thickness of the target image with respect to the input image. It may further include selecting an image of the target image of the location. In addition, in the pre-processing (S520), in order to compensate for a difference according to the section thickness of the target image with respect to the input image, the entire target image image selected as the closest position to the entire input image may be selected.

상기 전처리 과정이 수행되면, 입력영상을 인공신경망을 이용한 학습을 통해 Contrast enhanced CT 또는 MRI 영상을 생성하여 출력영상으로 획득한다.(S530단계) 상기 학습을 통해 생성된 출력영상과 타겟영상을 비교하여 차를 구하여 비용 함수로 생성한다.(S540단계) 상기 비용 함수를 상기 인공신경망으로 피드백하여 상기 입력영상을 학습하여 상기 비용 함수를 최소화한다.(S550단계)When the pre-processing process is performed, the input image is acquired as an output image by generating a contrast enhanced CT or MRI image through learning using an artificial neural network (step S530) by comparing the output image generated through the learning with the target image. The difference is obtained and generated as a cost function (step S540). The cost function is fed back to the artificial neural network to learn the input image to minimize the cost function (step S550).

도 6은 본 발명에 따른 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법에서 조영증강 영상을 비조영증강 영상으로 변환하는 일실시예를 흐름도로 나타낸 것이다. 도 6을 참조하면, CT 또는 MRI 장치를 이용하여 환자의 인체를 촬영하여 Non-enhanced CT 또는 MRI 영상과 Contrast enhanced CT 또는 MRI 영상을 생성한다.(S610단계) 상기 환자의 인체는 동일한 환자의 인체일 경우가 많지만, 촬영되는 인체 부위가 동일하면 동일하지 않은 환자의 인체를 촬영하여 Non-enhanced 및 Contrast enhanced CT 또는 MRI 영상을 생성할 수도 있다.상기 생성된 contrast enhanced CT 또는 MRI 영상을 입력영상으로 하고, non-enhanced CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting) 과 좌우상하변위량(offset 값)을 조정하는 전처리를 수행한다.(S620단계) 상기 전처리(S620단계)는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상과 가장 근접한 위치의 타겟영상의 영상을 선택하는 것을 더 포함할 수 있다. 또한 상기 전처리(S620단계)는 상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상 전체와 가장 근접한 위치로 선택된 타겟영상 전체 영상을 선택할 수 있다.6 is a flowchart illustrating an embodiment of converting a contrast-enhanced image into a non-contrast-enhanced image in the method for converting a contrast-enhanced image and a non-contrast-enhanced image using artificial intelligence according to the present invention. Referring to FIG. 6, a non-enhanced CT or MRI image and a contrast enhanced CT or MRI image are generated by photographing the human body of a patient using a CT or MRI device. (S610) The human body of the patient is the same as the human body of the patient. In many cases, if the body parts to be photographed are the same, a non-enhanced and contrast enhanced CT or MRI image may be generated by photographing the human body of a non-identical patient. The generated contrast enhanced CT or MRI image is used as an input image. And, when a non-enhanced CT or MRI image is a target image, pre-processing is performed to adjust the amount of rotational displacement (tilting) and the amount of left and right vertical displacement (offset value) according to the amount of change in the patient's posture movement with respect to the input image. (Step S620) The preprocessing (Step S620) further includes selecting an image of the target image closest to the input image to compensate for a difference according to the section thickness of the target image with respect to the input image. I can. In addition, in the pre-processing (S620), in order to compensate for a difference according to the section thickness of the target image with respect to the input image, the entire target image image selected as the closest position to the entire input image may be selected.

상기 전처리 과정이 수행되면, 입력영상을 인공신경망을 이용한 학습을 통해 non-enhanced CT 또는 MRI 영상을 생성하여 출력영상으로 획득한다.(S630단계) 상기 학습을 통해 생성된 출력영상과 타겟영상을 비교하여 차를 구하여 비용 함수로 생성한다.(S640단계) 상기 비용 함수를 상기 인공신경망으로 피드백하여 상기 입력영상을 학습하여 상기 비용 함수를 최소화한다.(S650단계)When the pre-processing process is performed, a non-enhanced CT or MRI image is generated through learning using an artificial neural network to obtain an input image as an output image (step S630). The output image generated through the learning and the target image are compared. The difference is calculated and generated as a cost function (step S640). The cost function is fed back to the artificial neural network to learn the input image to minimize the cost function (step S650).

본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터(정보 처리 기능을 갖는 장치를 모두 포함한다)가 읽을 수 있는 코드로서 구현될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 장치의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 본 명세서에서, “부”는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.The present invention can be implemented as a computer-readable code (including all devices having an information processing function) on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording devices include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage devices. In addition, in the present specification, the “unit” may be a hardware component such as a processor or a circuit, and/or a software component executed by a hardware configuration such as a processor.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical idea of the attached registration claims.

110 : 전처리부 120 : 인공지능학습부
122 : 인코더(CNN) 124 : 심층신경망(Deep Neural Network)
126 : 디코더(CNN) 130 : 비용함수(cost function)부
210 : Convolution Layer 220 : Pooling Layer
230 : Unpooling Layer 240 : Convolution Layer
310 : 입력영상 320 : 영상변환장치
330 : 출력영상
110: pre-processing unit 120: artificial intelligence learning unit
122: Encoder (CNN) 124: Deep Neural Network
126: decoder (CNN) 130: cost function unit
210: Convolution Layer 220: Pooling Layer
230: Unpooling Layer 240: Convolution Layer
310: input image 320: image conversion device
330: output image

Claims (10)

인공지능 학습부가, CT 또는 MRI 장치를 이용하여 환자의 특정 부위에 대한 Non-enhanced CT 또는 MRI 영상과 Contrast enhanced CT 또는 MRI 영상을 생성하는 단계;
인공지능 학습부가, 상기 생성된 Non-enhanced CT 또는 MRI 영상을 입력영상으로 하고, Contrast enhanced CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 입력영상을 인공신경망을 이용한 학습을 통해 Contrast enhanced CT 또는 MRI 영상을 생성하여 출력영상으로 획득하는 단계;
비용함수부가, 상기 학습을 통해 생성된 출력영상과 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용 함수로 생성하는 단계; 및
비용함수부가, 상기 비용 함수를 상기 인공신경망으로 피드백하여 상기 입력영상을 학습하여 상기 비용 함수를 최소화하는 단계;를 포함하고,
전처리부가, 상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting) 과 좌우상하변위량(offset 값)을 조정하는 전처리단계;를 더 포함하는 것을 특징으로 하는 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법.
Generating, by an artificial intelligence learning unit, a non-enhanced CT or MRI image and a contrast enhanced CT or MRI image for a specific region of the patient using a CT or MRI device;
When the artificial intelligence learning unit uses the generated non-enhanced CT or MRI image as an input image and the contrast enhanced CT or MRI image is a target image, the input image is learned using an artificial neural network. Generating an image and obtaining an output image;
Calculating, by the cost function unit, a similarity or dissimilarity by comparing the output image generated through the learning with the target image, and generating a cost function; And
Including, by a cost function unit, learning the input image by feeding back the cost function to the artificial neural network to minimize the cost function,
The pre-processing unit further comprises a pre-processing step of adjusting a rotational displacement amount (tilting) and a left-right vertical displacement amount (offset value) according to the amount of change in the patient's posture movement of the target image with respect to the input image; Augmented image and non-contrast enhanced image conversion method.
인공지능 학습부가, CT 또는 MRI 장치를 이용하여 환자의 특정 부위에 대한 Non-enhanced CT 또는 MRI 영상과 Contrast enhanced CT 또는 MRI 영상을 생성하는 단계;
인공지능 학습부가, 상기 생성된 Contrast enhanced CT 또는 MRI 영상을 입력영상으로 하고, Non-enhanced CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 입력영상을 인공신경망을 이용한 학습을 통해 Non-enhanced CT 또는 MRI 영상을 생성하여 출력영상으로 획득하는 단계;
비용함수부가, 상기 인공신경망 학습을 통해 생성된 출력영상과 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용 함수로 생성하는 단계; 및
비용함수부가, 상기 비용 함수를 상기 인공신경망으로 피드백하여 상기 입력영상을 학습하여 상기 비용 함수를 최소화하는 단계;를 포함하고,
전처리부가, 상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting) 과 좌우상하변위량(offset 값)을 조정하는 전처리단계;를 더 포함하는 것을 특징으로 하는 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법.
Generating, by an artificial intelligence learning unit, a non-enhanced CT or MRI image and a contrast enhanced CT or MRI image for a specific region of the patient using a CT or MRI device;
When the artificial intelligence learning unit uses the generated Contrast enhanced CT or MRI image as an input image and a non-enhanced CT or MRI image as a target image, the input image is non-enhanced CT or through learning using an artificial neural network. Generating an MRI image and obtaining an output image;
Comparing the output image generated through the artificial neural network learning and the target image to obtain a degree of similarity or dissimilarity, and generating a cost function as a cost function; And
Including, by a cost function unit, learning the input image by feeding back the cost function to the artificial neural network to minimize the cost function,
The pre-processing unit further comprises a pre-processing step of adjusting a rotational displacement amount (tilting) and a left-right vertical displacement amount (offset value) according to the amount of change in the patient's posture movement of the target image with respect to the input image; Augmented image and non-contrast enhanced image conversion method.
삭제delete 제1항 또는 제2항에 있어서, 상기 전처리부에 의한 전처리 단계는
상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상과 가장 근접한 위치의 타겟영상의 영상을 선택하는 단계를 더 포함하는 것을 특징으로 하는 인공지능을 이용한 조영증강 영상 및 비조영증강 영상변환 방법.
The method of claim 1 or 2, wherein The pretreatment step is
A contrast-enhanced image using artificial intelligence, further comprising the step of selecting an image of the target image closest to the input image in order to compensate for a difference according to the section thickness of the target image with respect to the input image. Non-contrast enhanced image conversion method.
제1항 또는 제2항에 있어서, 상기 전처리부에 의한 전처리 단계는
상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상 전체와 가장 근접한 위치로 선택된 타겟영상 전체 영상을 선택하는 단계를 더 포함하는 것을 특징으로 하는 특징으로 하는 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 방법.
The method of claim 1 or 2, wherein The pretreatment step is
Artificial intelligence, characterized in that it further comprises the step of selecting an entire target image image selected as a position closest to the entire input image in order to compensate for a difference according to the section thickness of the target image with respect to the input image. Contrast-enhanced image and non-contrast-enhanced image conversion method using.
CT(Computed Tomography) 또는 MRI(Magnetic Resonance Imaging) 장치를 이용하여 생성된, 환자의 특정 부위에 대한 비조영증강(Non-enhanced) CT 또는 MRI 영상을 입력영상이라 하고, 상기 CT 또는 MRI 장치를 이용하여 생성된 조영증강(Contrast enhanced) CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 비조영증강 입력 영상을 인공지능을 이용하여 학습하여 조영증강 CT 또는 MRI 영상으로 생성하여 출력영상을 제공하는 인공지능 학습부; 및
상기 인공지능 학습부의 학습을 통해 제공된 출력영상과 상기 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용함수(cost function)로 생성하고, 상기 비용함수를 상기 인공지능 학습부로 피드백하여 학습하여 상기 비용 함수 값을 최소화하는 비용함수부;를 포함하고,
상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting) 과 좌우상하변위량(offset 값)을 조정하는 전처리부;를 더 포함하는 것을 특징으로 하는 특징으로 하는 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치.
A non-enhanced CT or MRI image of a specific part of the patient, created using a CT (Computed Tomography) or MRI (Magnetic Resonance Imaging) device, is called an input image, and the CT or MRI device is used. When the resulting contrast enhanced CT or MRI image is referred to as a target image, artificial intelligence that learns the non-contrast enhanced input image using artificial intelligence and generates a contrast-enhanced CT or MRI image to provide an output image Learning department; And
The artificial intelligence learning unit compares the output image provided through learning with the target image to obtain a similarity or dissimilarity, generates a cost function, and feeds the cost function back to the artificial intelligence learning unit to learn the cost function. Including; a cost function unit for minimizing the value,
A pre-processing unit for adjusting the amount of rotational displacement (tilting) and the amount of left and right vertical displacement (offset value) according to the amount of change in the patient's posture movement of the target image with respect to the input image; Augmented image and non-contrast enhanced image conversion device.
CT(Computed Tomography) 또는 MRI(Magnetic Resonance Imaging) 장치를 이용하여 생성된, 환자의 특정 부위에 대한 조영증강(Contrast enhanced) CT 또는 MRI 영상을 입력영상이라 하고, 상기 CT 또는 MRI 장치를 이용하여 생성된 비조영증강(non-enhanced) CT 또는 MRI 영상을 타겟영상이라 할 때, 상기 조영증강 입력 영상을 인공지능을 이용하여 학습하여 비조영증강 CT 또는 MRI 영상으로 생성하여 출력영상을 제공하는 인공지능 학습부; 및
상기 인공지능 학습부의 학습을 통해 제공된 출력영상과 상기 타겟영상을 비교하여 유사도 또는 비유사도를 구하여 비용함수(cost function)로 생성하고, 상기 비용함수를 상기 인공지능 학습부로 피드백하여 학습하여 상기 비용 함수 값을 최소화하는 비용함수부;를 포함하고,
상기 입력영상에 대한 상기 타겟영상의 환자 자세 움직임 변화량에 따른 회전변위량(tilting) 과 좌우상하변위량(offset 값)을 조정하는 전처리부;를 더 포함하는 것을 특징으로 하는 특징으로 하는 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치.
Contrast enhanced CT or MRI image for a specific part of the patient, created using a Computed Tomography (CT) or Magnetic Resonance Imaging (MRI) device, is called an input image, and is created using the CT or MRI device. When a non-enhanced CT or MRI image is referred to as a target image, artificial intelligence that learns the contrast-enhanced input image using artificial intelligence and generates a non-enhanced CT or MRI image to provide an output image Learning department; And
The artificial intelligence learning unit compares the output image provided through learning with the target image to obtain a similarity or dissimilarity, generates a cost function, and feeds the cost function back to the artificial intelligence learning unit to learn the cost function. Including; a cost function unit for minimizing the value,
A pre-processing unit for adjusting the amount of rotational displacement (tilting) and the amount of left and right vertical displacement (offset value) according to the amount of change in the patient's posture movement of the target image with respect to the input image; Augmented image and non-contrast enhanced image conversion device.
삭제delete 제6항 또는 제7항에 있어서, 상기 전처리부는
상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상과 가장 근접한 위치의 타겟영상의 영상을 선택하는 것을 더 포함하는 것을 특징으로 하는 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치.
The method of claim 6 or 7, wherein the pre-processing unit
Contrast-enhanced image and ratio using artificial intelligence, characterized in that it further comprises selecting an image of the target image closest to the input image in order to compensate for the difference according to the section thickness of the target image with respect to the input image. Contrast-enhanced image conversion device.
제6항 또는 제7항에 있어서, 상기 전처리부는
상기 입력영상에 대한 상기 타겟영상의 section thickness에 따른 차이를 보상하기 위해 상기 입력영상 전체와 가장 근접한 위치로 선택된 타겟영상 전체 영상을 선택하는 것을 더 포함하는 것을 특징으로 하는 인공지능을 이용한 조영증강 영상 및 비조영증강 영상 변환 장치.
The method of claim 6 or 7, wherein the pre-processing unit
A contrast-enhanced image using artificial intelligence, further comprising selecting the entire target image selected as a position closest to the entire input image to compensate for a difference according to the section thickness of the target image with respect to the input image. And a non-contrast-enhanced image conversion device.
KR1020190089592A 2019-07-24 2019-07-24 Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence KR102254971B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190089592A KR102254971B1 (en) 2019-07-24 2019-07-24 Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence
PCT/KR2020/009500 WO2021015507A2 (en) 2019-07-24 2020-07-20 Method and device for converting contrast enhanced image and non-enhanced image by using artificial intelligence

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190089592A KR102254971B1 (en) 2019-07-24 2019-07-24 Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence

Publications (2)

Publication Number Publication Date
KR20210012233A KR20210012233A (en) 2021-02-03
KR102254971B1 true KR102254971B1 (en) 2021-05-21

Family

ID=74194011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190089592A KR102254971B1 (en) 2019-07-24 2019-07-24 Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence

Country Status (2)

Country Link
KR (1) KR102254971B1 (en)
WO (1) WO2021015507A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249278A1 (en) * 2022-06-21 2023-12-28 폴스타헬스케어(주) Artificial-intelligence-based medical image conversion method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102610824B1 (en) * 2022-01-05 2023-12-07 한국전자통신연구원 Method and apparatus for providing user-interactive customized interaction for xr real object transformation
EP4339880A1 (en) * 2022-09-19 2024-03-20 Medicalip Co., Ltd. Medical image conversion method and apparatus
WO2024080612A1 (en) * 2022-10-12 2024-04-18 가톨릭대학교 산학협력단 Device and method for obtaining reconstructed ct image and diagnosing fracture by using x-ray image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130182925A1 (en) 2012-01-12 2013-07-18 Marco Razeto Method of registering image data
JP2017170146A (en) 2016-03-23 2017-09-28 東芝メディカルシステムズ株式会社 Image processing device, magnetic resonance imaging device and image processing method
KR101852112B1 (en) 2016-11-18 2018-04-25 성균관대학교산학협력단 Device and method for contrast enhanced magnetic resonance imaging

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2616520B2 (en) * 1991-08-30 1997-06-04 株式会社島津製作所 Medical image display device
EP1508872A1 (en) * 2003-08-22 2005-02-23 Semeion An algorithm for recognising relationships between data of a database and a method for image pattern recognition based on the said algorithm
KR20180117009A (en) 2017-04-18 2018-10-26 황성관 Artificial Intelligence Method for Augumenting Ultrasound Image
KR20180123810A (en) 2017-05-10 2018-11-20 주식회사 딥노이드 Data enrichment processing technology and method for decoding x-ray medical image
KR102058348B1 (en) * 2017-11-21 2019-12-24 서울여자대학교 산학협력단 Apparatus and method for classification of angiomyolipoma wihtout visible fat and clear cell renal cell carcinoma in ct images using deep learning and sahpe features
KR102060895B1 (en) * 2018-06-01 2020-02-11 연세대학교 산학협력단 Method for producing medical image and device for producing medical image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130182925A1 (en) 2012-01-12 2013-07-18 Marco Razeto Method of registering image data
JP2017170146A (en) 2016-03-23 2017-09-28 東芝メディカルシステムズ株式会社 Image processing device, magnetic resonance imaging device and image processing method
KR101852112B1 (en) 2016-11-18 2018-04-25 성균관대학교산학협력단 Device and method for contrast enhanced magnetic resonance imaging

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문(I.Sumida 외, Deep convolutional neural network for reduction of contrast-enhanced region on CT images, Journal of Radiation Research, Vol.60, No.5, 2019, pp.586-594.(2019.05.24. 공개.))*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023249278A1 (en) * 2022-06-21 2023-12-28 폴스타헬스케어(주) Artificial-intelligence-based medical image conversion method

Also Published As

Publication number Publication date
KR20210012233A (en) 2021-02-03
WO2021015507A2 (en) 2021-01-28
WO2021015507A3 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
KR102254971B1 (en) Method and apparatus for converting contrast enhanced image and non-enhanced image using artificial intelligence
US11257259B2 (en) Topogram prediction from surface data in medical imaging
EP3525171B1 (en) Method and system for 3d reconstruction of x-ray ct volume and segmentation mask from a few x-ray radiographs
US10521927B2 (en) Internal body marker prediction from surface data in medical imaging
US10849585B1 (en) Anomaly detection using parametrized X-ray images
RU2677764C2 (en) Registration of medical images
US11464491B2 (en) Shape-based generative adversarial network for segmentation in medical imaging
WO2012128121A1 (en) Diagnosis assistance system utilizing panoramic radiographs, and diagnosis assistance program utilizing panoramic radiographs
US11284850B2 (en) Reduced interaction CT scanning
CN112641457A (en) Synthetic parametric computed tomography from surface data in medical imaging
CN111524109B (en) Scoring method and device for head medical image, electronic equipment and storage medium
EP3155589A1 (en) Optimization of parameters for segmenting an image
US11941738B2 (en) Systems and methods for personalized patient body modeling
US20080037848A1 (en) System and Method for Corpus Callosum Segmentation in Magnetic Resonance Images
US7352888B2 (en) Method for computer recognition of projection views and orientation of chest radiographs
US8553957B2 (en) Method of processing image and image processing apparatus using the method
EP3865067A1 (en) Patient model estimation from camera stream in medicine
JP7456928B2 (en) Abnormal display control method of chest X-ray image, abnormal display control program, abnormal display control device, and server device
CN113348485A (en) Abnormality detection method, abnormality detection program, abnormality detection device, server device, and information processing method
US20230169657A1 (en) Automatic organ geometry determination
JP4571378B2 (en) Image processing method, apparatus, and program
KR102464422B1 (en) Apparatus, method for providing information needed, and recording medium for diagnosing lung damage
EP3244798B1 (en) Adaptive segmentation for rotational c-arm computed tomography with a reduced angular range
JP7404857B2 (en) Image judgment device, image judgment method and program
EP4344642A1 (en) Computer-implemented method for setting x-ray acquisition parameters

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant