KR20210045577A - Method for planning a non-invaseve treatment using ct image generated from brain mri image based on artificial intelligence - Google Patents

Method for planning a non-invaseve treatment using ct image generated from brain mri image based on artificial intelligence Download PDF

Info

Publication number
KR20210045577A
KR20210045577A KR1020190128738A KR20190128738A KR20210045577A KR 20210045577 A KR20210045577 A KR 20210045577A KR 1020190128738 A KR1020190128738 A KR 1020190128738A KR 20190128738 A KR20190128738 A KR 20190128738A KR 20210045577 A KR20210045577 A KR 20210045577A
Authority
KR
South Korea
Prior art keywords
image
artificial intelligence
invasive treatment
mri
images
Prior art date
Application number
KR1020190128738A
Other languages
Korean (ko)
Other versions
KR102375277B1 (en
Inventor
최동민
박소희
김휘영
장원석
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020190128738A priority Critical patent/KR102375277B1/en
Publication of KR20210045577A publication Critical patent/KR20210045577A/en
Priority to KR1020220030931A priority patent/KR102504022B1/en
Application granted granted Critical
Publication of KR102375277B1 publication Critical patent/KR102375277B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/103Treatment planning systems
    • A61N5/1039Treatment planning systems using functional images, e.g. PET or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1077Beam delivery systems
    • A61N5/1084Beam delivery systems for delivering multiple intersecting beams at the same time, e.g. gamma knives
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Neurology (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Urology & Nephrology (AREA)
  • Dentistry (AREA)
  • Neurosurgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)

Abstract

Provided is a non-invasive treatment planning method based on artificial intelligence. The non-invasive treatment planning method using CT image generated from a brain MRI image based on artificial intelligence, according to an aspect of the present invention, comprises the following steps of: acquiring an MRI image of the patient's brain; generating a synthetic CT image corresponding to the brain MRI image using a learning model generated by machine learning in advance based on an artificial intelligence algorithm; extracting bone tissue information from the synthetic CT image; and setting a non-invasive treatment plan by providing an external energy source based on the lesion information extracted from the MRI image and the bone tissue information.

Description

인공 지능 기반 뇌 MRI영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법{METHOD FOR PLANNING A NON-INVASEVE TREATMENT USING CT IMAGE GENERATED FROM BRAIN MRI IMAGE BASED ON ARTIFICIAL INTELLIGENCE}Non-invasive treatment planning method using CT images generated from artificial intelligence-based brain MRI images{METHOD FOR PLANNING A NON-INVASEVE TREATMENT USING CT IMAGE GENERATED FROM BRAIN MRI IMAGE BASED ON ARTIFICIAL INTELLIGENCE}

본 발명은 인공 지능 기반 뇌 MRI영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법에 관한 것으로, 보다 자세하게는 CT 영상 촬영 없이 MRI 영상 촬영만으로 비침습 치료 계획을 수립하는 방법에 관한 것이다. The present invention relates to a non-invasive treatment planning method using a CT image generated from an artificial intelligence-based brain MRI image, and more particularly, to a method of establishing a non-invasive treatment plan using only MRI imaging without CT imaging.

뇌질환 치료는 침습 치료를 적용할 경우 두개골을 열어야 하므로 치료 위험성이 올라간다. 따라서, 외부에너지원(예: 방사선, 초음파)을 이용하는 비침습 치료가 부각되고 있다. 그러나, 신경계 질환을 치료하는 측면에서, 비침습 치료 계획을 설정하는 과정에서 오차가 커서 병변이 위치한 부위보다 넓은 범위에 외부에너지원에 의한 선량이 주어지면 뇌조직 손상이 생길 수 있고, 병변 부위보다 좁은 범위에 외부에너지원이 제공되면 제대로 치료가 이루어지지 않는 문제점이 있었다.Brain disease treatment increases the risk of treatment because the skull must be opened when invasive treatment is applied. Therefore, non-invasive treatment using external energy sources (eg, radiation, ultrasound) is emerging. However, in terms of treating neurological disorders, if the error is large in the process of setting a non-invasive treatment plan, and a dose from an external energy source is given to a wider range than the area where the lesion is located, damage to the brain tissue may occur. If an external energy source is provided within a narrow range, there is a problem in that treatment is not properly performed.

한편, 뇌질환의 치료에 있어 주요 뇌 부위의 손상을 최소화 하며 치료 효과를 극대화하기 위한 치료법으로 감마나이프 방사선 수술의 임상 적용이 점차 확대되고 있다. 현재 감마나이프 방사선 수술의 적응 질환은 악성 및 양성 뇌종양 등 종양성 질환에서부터 파킨슨씨병과 같은 기능성 뇌질환, 안과 질환 및 뇌혈관 질환 등 다양한 질환의 치료에 이용되고 있으며, 각 질환에 대한 감마나이프 방사선 수술의 적용 또한 지속적으로 증가하고 있다. 이러한 감마나이프 방사선 수술은 프레임 고정-뇌영상 획득-치료계획 수립-치료 시행 4단계로 이루어져 있으며, 치료 계획은 머리에 프레임을 고정한 상태에서 획득한 뇌 MRI(자기공명) 영상 자료를 기반으로 1mm 오차 한도 가정 하에 이루어지게 된다. 특히, 방사선 치료계획의 선량분포를 계산함에 있어서 개인별 골조직(예: 두개골)의 두께와 위치 등이 중요한 고려요소이다.Meanwhile, in the treatment of brain diseases, the clinical application of gamma knife radiation surgery is gradually expanding as a treatment for minimizing damage to major brain regions and maximizing the therapeutic effect. Currently, gamma knife radiosurgery is used to treat a variety of diseases, from neoplastic diseases such as malignant and benign brain tumors to functional brain diseases such as Parkinson's disease, ophthalmic diseases and cerebrovascular diseases, and gamma knife radiation surgery for each disease. The application of the application is also continuously increasing. This gamma knife radiosurgery consists of four steps: frame fixation, brain image acquisition, treatment plan establishment, and treatment implementation, and the treatment plan is 1mm error based on brain MRI (magnetic resonance) image data acquired while the frame is fixed to the head. This is done under the assumption of a limit. In particular, in calculating the dose distribution of a radiation treatment plan, the thickness and location of individual bone tissues (eg, skull) are important factors to consider.

구체적으로, 감마나이프 방사선 수술의 치료계획 수립-치료 시행의 과정 중, 두개골 내 방사선 조사 시 선량 분포는 tissue maximum ratio (TMR) 10 이라는 지표(index)를 이용한 알고리즘에 의해 계산되는데, 이 알고리즘은 방서선 조사 시 에너지 흡수에 가장 큰 영향을 미치는 개개인의 두개골의 차이를 반영하지 않은 알고리즘이라는 한계점이 있었다. 즉, TMR 10 알고리즘은 환자의 머리가 모두 물과 같은 밀도로 동일하게 이루어져 있다는 가정을 전제하나, 실제 뼈의 감쇄상수가 물보다 높기 때문에 방사선이 두개 내로 들어가면서 두개골에서 감쇄된다는 점에서 이를 반영하지 않은 TMR 10 알고리즘은 실제로 방사선량이 부정확한 위치에 부정확하게 들어갈 가능성이 존재한다는 문제점이 있었다. 뇌는 신체의 모든 기능을 총체적으로 담당하는 중요 구조물로써 뇌의 각 부분이 담당하는 기능이 달라 모든 부분이 중요하나, 정확하지 않은 방사선 수술로 방사선이 정상조직에 조사되게 되면 환자에게 신경학적 장애를 유발하거나 생명에 지장을 줄 수 있는 방사선 유발 조직 독성이 나타날 수 있고 방사선량이 일정 수준 이상 들어가야 하는 종양 조직에 정확하지 않은 선량이 들어가게 되면 종양이 재발할 수 있으므로 상기 문제점은 환자 치료에 있어 치명적인 결과를 초래할 수 있다.Specifically, during the process of establishing a treatment plan for gamma knife radiation surgery-during the course of treatment implementation, the dose distribution during intracranial irradiation is calculated by an algorithm using an index of tissue maximum ratio (TMR) 10. There was a limitation in that it was an algorithm that did not reflect the difference in individual skulls, which had the greatest effect on energy absorption during the slow line survey. In other words, the TMR 10 algorithm presupposes that the patient's head is all made up of the same density as water, but does not reflect this in that the radiation is attenuated from the skull as it enters the skull because the attenuation constant of the actual bone is higher than that of water. The TMR 10 algorithm has a problem that there is a possibility that the radiation dose may be incorrectly entered into an incorrect location. The brain is an important structure that is in charge of all functions of the body as a whole, and all parts are important because each part of the brain has different functions, but if radiation is irradiated to normal tissues due to inaccurate radiation surgery, the patient may suffer from neurological disorders. Radiation-induced tissue toxicity that may cause or cause life-threatening may appear, and if an inaccurate dose is entered into a tumor tissue that requires a radiation dose above a certain level, the tumor may recur. Therefore, the above problem has a fatal result in patient treatment. Can result.

최근, CT 영상을 이용하여 개개인의 두개골의 차이를 반영하여 선량을 계산하는 GammaPlanㄾ Convolution이 개발되어 있으나, 1) MRI 기반으로 치료 계획을 수립하는 감마나이프 방사선 수술의 특성 상 추가적인 뇌 CT 촬영이 필요함에 따른 방사선 피폭 증가, 2) 프레임 고정 후 시행하는 뇌 정위적 위치 계산의 기본 영상을 뇌 CT 영상으로 정한 뒤 기존 뇌 MRI 영상을 정합하여 치료 계획을 수립할 경우 영상 간의 정합 오차로 인한 치료 오차가 발생한다는 문제점이 있었다. 즉, CT 영상과 MRI 영상에서 특징점이 추출되고, 추출된 특징점의 매칭을 통해 CT 영상과 MRI 영상 간에 영상 정합이 수행된다. 그러나, CT 영상과 MRI 영상은 해상도, 화질, 시야, 부위별 대조도 등에서 큰 차이를 가지며, 이러한 차이로 인해 서로 다른 영상 간의 영상 정합이 어려우므로 치료 오차가 발생할 가능성이 높은 문제점이 있다.Recently, GammaPlanㄾ Convolution, which calculates the dose by reflecting the difference between individual skulls using CT images, has been developed, but 1) additional brain CT scans are required due to the nature of gamma knife radiation surgery that establishes a treatment plan based on MRI. 2) If the basic image of the brain stereotactic position calculation performed after frame fixation is selected as a brain CT image and then a treatment plan is established by matching the existing brain MRI images, the treatment error due to the registration error between the images is reduced. There was a problem that it occurred. That is, feature points are extracted from the CT image and the MRI image, and image matching is performed between the CT image and the MRI image through matching of the extracted feature points. However, the CT image and the MRI image have a large difference in resolution, image quality, field of view, and contrast for each region, and due to this difference, it is difficult to match images between different images, and thus there is a problem that a treatment error is likely to occur.

한편, 최근에는 기계 학습 알고리즘들 중 딥 러닝(deep learning)이라는 기술이 다양한 분야에서 각광받고 있다. 특히, 객체 인식(object recognition) 분야에서는 딥 러닝의 일종인 CNN(convolutional neural network)이라는 기술이 각광받고 있다. CNN은 사람이 물체를 인식할 때 물체의 기본적인 특징들을 추출한 다음 뇌 속에서 복잡한 계산을 거쳐 그 결과를 기반으로 물체를 인식한다는 가정을 기반으로 만들어진 사람의 뇌 기능을 모사한 모델이다. CNN은 일반적으로 컨볼루션(convolution) 연산을 통해 영상의 특징을 추출하기 위한 다양한 필터와 비선형적인 특성을 더하기 위한 풀링(pooling) 또는 비선형 활성화(non-linear activation) 함수(예: sigmoid, ReLU(rectified linear unit) 등) 등을 사용할 수 있다.Meanwhile, a technology called deep learning among machine learning algorithms has recently been in the spotlight in various fields. In particular, in the field of object recognition, a technology called CNN (convolutional neural network), which is a kind of deep learning, is in the spotlight. CNN is a model that simulates human brain function based on the assumption that when a person recognizes an object, it extracts basic features of an object, then performs complex calculations in the brain and recognizes the object based on the result. CNNs are generally used with various filters for extracting features of an image through a convolution operation, and a pooling or non-linear activation function for adding nonlinear features (e.g., sigmoid, ReLU (rectified)). linear unit), etc.) can be used.

이러한, 딥 러닝에 대한 관심의 증가와 함께, 다양한 의료 기기(예: 초음파, CT(computed tomography), MRI(magnetic resonance imaging) 등) 분야에서도 딥 러닝에 대한 관심이 증가하고 있다.Along with the increasing interest in deep learning, interest in deep learning is also increasing in various medical devices (eg, ultrasound, computed tomography (CT), magnetic resonance imaging (MRI), etc.).

(특허문헌 0001) KR 10-2016-0050326(Patent Document 0001) KR 10-2016-0050326

본 발명이 해결하고자 하는 과제는 비침습 치료를 적용함에 있어서 환자에게 추가적인 외부에너지원 조사를 방지하고 영상간 정합 오차에 따른 치료 오류를 방지할 수 있는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide a CT image generated from an artificial intelligence-based brain MRI image that can prevent additional external energy source irradiation to the patient and prevent treatment errors due to inter-image registration errors in applying non-invasive treatment. It is to provide a non-invasive treatment planning method used.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 인공지능 기반 뇌 MRI(magnetic resonance imaging, 자기공명영상) 영상에서 생성된 CT(computed tomography, 컴퓨터 단층촬영영상) 영상을 이용한 비침습 치료 계획 방법은, 환자의 뇌 MRI 영상을 획득하는 단계; 인공지능 알고리즘을 기반으로 미리 기계학습하여 생성한 학습 모델을 이용하여 상기 뇌 MRI 영상에 대응하는 합성 CT 영상을 생성하는 단계; 상기 합성 CT 영상에서 골조직 정보를 추출하는 단계; 상기 MRI 영상에서 추출한 병변 정보와 상기 골조직 정보에 기반하여 외부 에너지원 제공을 통한 비침습 치료 계획을 설정하는 단계;를 포함한다.A non-invasive treatment planning method using a computed tomography (CT) image generated from an artificial intelligence-based brain magnetic resonance imaging (MRI) image according to an aspect of the present invention for solving the above problems Silver, obtaining a brain MRI image of the patient; Generating a synthetic CT image corresponding to the brain MRI image using a learning model generated by machine learning in advance based on an artificial intelligence algorithm; Extracting bone tissue information from the composite CT image; And setting a non-invasive treatment plan by providing an external energy source based on the lesion information extracted from the MRI image and the bone tissue information.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present invention are included in the detailed description and drawings.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, it has various effects as follows.

본 발명은 두개골을 열지 않고 외부 에너지원에 따른 비침습 치료가 적용되는 신경계 질환 치료에서 방사선 노출 없이 골조직 데이터를 획득할 수 있다.The present invention can obtain bone tissue data without exposure to radiation in the treatment of neurological diseases to which non-invasive treatment according to an external energy source is applied without opening the skull.

또한, 본 발명은 비침습 치료 계획 수립을 위해 별도의 CT 영상을 촬영하지 않음에 따라 환자에게 추가적인 방사선 노출을 방지할 수 있고 환자의 안전성을 높일 수 있다.In addition, according to the present invention, since a separate CT image is not taken to establish a non-invasive treatment plan, additional radiation exposure to the patient can be prevented and the safety of the patient can be improved.

또한, 본 발명은 MRI 영상과 합성 CT 영상을 이용하여 골조직(bone structure)을 반영함에 따라 정확한 비침습 치료 계획을 수립할 수 있고 치료 효율을 높일 수 있다.In addition, according to the present invention, an accurate non-invasive treatment plan can be established and treatment efficiency can be improved by reflecting a bone structure using an MRI image and a synthetic CT image.

또한, 본 발명은 병변 주변의 정상 조직에게 불필요한 외부 에너지원 조사를 방지할 수 있다.In addition, the present invention can prevent unnecessary external energy source irradiation to normal tissues around the lesion.

또한, 본 발명은 인공지능 알고리즘을 이용함에 따라 매우 강인성이 확보된 학습 모델을 생성할 수 있다.In addition, the present invention can generate a learning model with very robustness by using an artificial intelligence algorithm.

또한, 본 발명은 MRI 영상과 CT 영상의 정합 대신 인공지능 알고리즘을 이용하여 합성 CT 영상을 생성함에 따라 영상 처리 속도를 높일 수 있고 오차를 줄일 수 있다.In addition, the present invention generates a composite CT image using an artificial intelligence algorithm instead of matching an MRI image and a CT image, thereby increasing an image processing speed and reducing an error.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1 은 본 발명의 일 실시 예에 따른 비침습 치료 계획 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 비침습 치료 계획 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시 예에 따른 학습 모델 생성 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 CGAN을 설명하기 위한 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 학습 데이터 증강을 설명하기 위한 예시도이다.
도 6 및 도 7은 본 발명의 일 실시 예에 따른 합성 CT 영상의 정밀도를 설명하기 위한 예시도이다.
1 is a block diagram showing a non-invasive treatment planning apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a method of planning a non-invasive treatment according to an embodiment of the present invention.
3 is a flowchart illustrating a method of generating a learning model according to an embodiment of the present invention.
4 is a block diagram illustrating a CGAN according to an embodiment of the present invention.
5 is an exemplary diagram for explaining augmentation of learning data according to an embodiment of the present invention.
6 and 7 are exemplary diagrams for explaining the precision of a composite CT image according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, “comprises” and/or “comprising” do not exclude the presence or addition of one or more other elements other than the mentioned elements. Throughout the specification, the same reference numerals refer to the same elements, and "and/or" includes each and all combinations of one or more of the mentioned elements. Although "first", "second", and the like are used to describe various elements, it goes without saying that these elements are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical idea of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to the orientation.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1 은 본 발명의 일 실시 예에 따른 비침습 치료 계획 장치를 나타낸 블록도이다.1 is a block diagram showing a non-invasive treatment planning apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 비침습 치료 계획 장치(100)는 획득한 MRI 영상과 기존 학습 데이터를 이용하여 비침습 치료의 계획을 수립할 수 있다. 예를 들어, 비침습 치료 계획 장치(100)는 복수의 환자 각각의 MRI 영상과 CT 영상들을 학습데이터로서 인공지능 알고리즘에 입력하여 학습 모델을 생성할 수 있고, 생성한 학습 모델을 이용하여 뇌 MRI 영상에서 CT 영상을 생성할 수 있고, 뇌 MRI 영상과 CT 영상을 이용하여 비침습 치료 계획을 수립할 수 있다. Referring to FIG. 1, a non-invasive treatment planning apparatus 100 according to an embodiment of the present invention may establish a non-invasive treatment plan using an acquired MRI image and existing learning data. For example, the non-invasive treatment planning apparatus 100 may input MRI images and CT images of each of a plurality of patients as learning data into an artificial intelligence algorithm to generate a learning model, and use the generated learning model to generate a brain MRI. CT images can be generated from images, and non-invasive treatment plans can be established using brain MRI images and CT images.

일 실시 예에서, 비침습 치료 계획 장치(100)는 서버일 수 있고, 비침습 치료 계획을 설정할 수 있는 전용 프로그램이 설치될 수 있다. 예를 들어, 비침습 치료 계획 장치(100)는 의료 영상과 학습 데이터를 획득할 수 있는 데이터 획득부(110), 획득한 의료 영상과 학습 데이터를 전처리(예: 데이터 증강, 영상 crop)할 수 있는 데이터 처리부(120), 학습데이터와 인공지능 알고리즘을 이용하여 기계학습을 수행하고 학습 모델을 생성하는 딥러닝 학습부(130), 학습 모델을 이용하여 MRI 영상에서 CT 영상을 생성하는 영상 생성부(140), 병변 정보와 골조직 정보(예: 두개골 데이터)를 이용하여 비침습 치료 계획을 수립하는 치료 계획 설정부(150) 및 학습 결과, 학습 모델, 환자 데이터, 치료 결과 데이터 등을 빅데이터화하여 저장할 수 있는 데이터베이스(160)를 포함할 수 있다.In one embodiment, the non-invasive treatment planning apparatus 100 may be a server, and a dedicated program for setting a non-invasive treatment plan may be installed. For example, the non-invasive treatment planning apparatus 100 may pre-process (e.g., augment data, crop images) the acquired medical images and learning data, and the data acquisition unit 110 capable of acquiring medical images and learning data. A data processing unit 120, a deep learning unit 130 that performs machine learning using learning data and artificial intelligence algorithms, and generates a learning model, and an image generation unit that generates a CT image from an MRI image using a learning model. (140), a treatment plan setting unit 150 that establishes a non-invasive treatment plan using lesion information and bone tissue information (e.g., skull data), and converts learning results, learning models, patient data, and treatment result data into big data. It may include a database 160 that can be stored.

도 2는 본 발명의 일 실시 예에 따른 비침습 치료 계획 방법을 설명하기 위한 흐름도이다. 도 2의 동작들은 도 1의 각 구성들에 의해 수행될 수 있다.2 is a flowchart illustrating a method of planning a non-invasive treatment according to an embodiment of the present invention. The operations of FIG. 2 may be performed by each of the components of FIG. 1.

도 2 를 참조하면, 일 실시 예에서, 동작 21에서, 데이터 획득부(110)가 환자의 뇌 MRI 영상을 획득할 수 있다. 예를 들어, 데이터 획득부(110)는 MRI 영상 촬영 장치로부터 네트워크를 통해 뇌 MRI 영상을 수신할 수 있다. 이외에도 데이터 획득부(110)는 CT 영상 등 의료 영상을 획득 할 수 있다. 여기서 CT 영상은 컴퓨터 단층 촬영(CT; computed tomography)이고 MRI 영상은 자기 공명 영상(MRI; magnetic resonance imaging)이다. 예컨대, MRI 영상과 CT 영상은 복셀 데이터로서, 복수의 슬라이스 즉, 복수 개의 단위 이미지들로 이루어질 수 있다.Referring to FIG. 2, in an embodiment, in operation 21, the data acquisition unit 110 may acquire a brain MRI image of a patient. For example, the data acquisition unit 110 may receive a brain MRI image from an MRI imaging apparatus through a network. In addition, the data acquisition unit 110 may acquire medical images such as CT images. Here, the CT image is computed tomography (CT) and the MRI image is magnetic resonance imaging (MRI). For example, the MRI image and the CT image are voxel data, and may be formed of a plurality of slices, that is, a plurality of unit images.

일 실시 예에서, 동작 22에서, 영상 생성부(140)가 인공지능 알고리즘을 기반으로 미리 기계학습하여 생성한 학습 모델을 이용하여 뇌 MRI 영상에 대응하는 합성 CT 영상을 생성할 수 있다. 예를 들어, 인공지능 알고리즘은 Condicitonal GAN(Generative Adversarial Network)일 수 있다. 기계학습하여 학습 모델을 생성하는 동작은 도 3에서 구체적으로 후술한다.In an embodiment, in operation 22, the image generator 140 may generate a composite CT image corresponding to the brain MRI image using a learning model generated by machine learning in advance based on an artificial intelligence algorithm. For example, the artificial intelligence algorithm may be a Condicitonal Generative Adversarial Network (GAN). The operation of generating a learning model by machine learning will be described in detail later in FIG. 3.

일 실시 예에서, 동작 23에서, 치료 계획 설정부(150)가 합성 CT 영상에서 골조직 정보를 추출할 수 있다. 예를 들어, 골조직은 두개골 등 뇌에 포함된 모든 골조직을 의미할 수 있다. 골조직 정보는 골조직의 두께, 골조직의 밀도 및 골조직의 위치 중 적어도 하나를 포함할 수 있다. 특히, 치료 계획에서 중요한 요소는 두개골의 두께, 밀도 및 위치일 수 있다. 두개골이 외부에너지원의 조사 선량에 가장 큰 영향을 미치는 요소이기 때문이다.In an embodiment, in operation 23, the treatment plan setting unit 150 may extract bone tissue information from the composite CT image. For example, bone tissue may refer to all bone tissues included in the brain, such as a skull. The bone tissue information may include at least one of the thickness of the bone tissue, the density of the bone tissue, and the location of the bone tissue. In particular, important factors in a treatment plan may be the thickness, density and location of the skull. This is because the skull is the factor that has the greatest influence on the irradiation dose of an external energy source.

일 실시 예에서, 동작 24에서, 치료 계획 설정부(150)가 MRI 영상에서 추출한 병변 정보와 골조직 정보에 기반하여 외부 에너지원 제공을 통한 비침습 치료 계획을 설정할 수 있다. 예를 들어, 외부에너지원은 초음파, 방사선일 수 있고 이외에도 환자의 병변을 치료할 수 있으며 환자의 뇌 안으로 전자기파를 방출할 수 있는 것이면 모두 가능하다. 병변 정보는 병변의 위치, 크기, 두께, 병변 주변의 정상 조직의 위치, 크기 및 두께 중 적어도 하나를 포함할 수 있다.In an embodiment, in operation 24, the treatment plan setting unit 150 may set a non-invasive treatment plan by providing an external energy source based on the lesion information and bone tissue information extracted from the MRI image. For example, the external energy source may be ultrasound or radiation, as long as it can treat a patient's lesions and emit electromagnetic waves into the patient's brain. The lesion information may include at least one of the location, size, and thickness of the lesion, and the location, size, and thickness of the normal tissue around the lesion.

일 실시 예에서, 치료 계획 설정부(150)는 병변 정보와 골조직 정보에 기반하여 신경계 질환 치료용 에너지원의 조사 선량, 조사 범위, 조사 방향, 조사 시간 및 3차원 조사 좌표를 결정할 수 있다. 예를 들어, 치료 계획 설정부(150)는 병변 정보와 골조직 정보를 Leksell GammaPlanㄾ-Convolution 알고리즘에 입력하여 방사선의 조사 선량, 조사 범위, 조사 방향, 조사 시간 및 3차원 조사 좌표를 결정할 수 있다.In an embodiment, the treatment plan setting unit 150 may determine an irradiation dose, an irradiation range, an irradiation direction, an irradiation time, and a three-dimensional irradiation coordinate of an energy source for treating neurological diseases based on the lesion information and bone tissue information. For example, the treatment plan setting unit 150 may input lesion information and bone tissue information into the Leksell GammaPlanㄾ-Convolution algorithm to determine the irradiation dose, irradiation range, irradiation direction, irradiation time, and three-dimensional irradiation coordinates of the radiation.

한편, 도면에는 도시되지 않았지만, 치료 계획 설정부(150)는 치료 계획을 수립하기 이전에 합성 CT 영상의 유효성을 검증할 수 있다. 예컨대, 환자의 원본 CT 영상의 하운스필드 유닛(HU: Hounsfield Unit) 값을 연산하고, 합성 CT 영상의 하운스필드 유닛 값을 연산한 이후 원본 CT 영상의 하운스필드 유닛 값과 합성 CT 영상의 하운스필드 유닛 값을 비교함으로써 합성 CT 영상의 유효성을 검증할 수 있다. 예컨대, 합성 CT 영상의 하운스필드 유닛 값이 원본 CT 영상의 하운스필드 유닛 값과 동일하거나 가까울수록 합성 CT 영상이 유효한 자료로 확인할 수 있다. 방사선을 이용한 뇌 치료 시 뇌의 병변에 도달하는 방사선 선량에 가장 많은 영향을 주는 것이 두개골이며, 두개골의 방서선 흡수 선량을 가장 잘 대변하는 것이 하운스필드 유닛이므로 유효성 검증에서 이용할 수 있다.Meanwhile, although not shown in the drawing, the treatment plan setting unit 150 may verify the validity of the composite CT image before establishing a treatment plan. For example, after calculating the Hounsfield Unit (HU) value of the patient's original CT image and calculating the Hounsfield Unit value of the composite CT image, the Hounsfield unit value of the original CT image and the composite CT image By comparing the Hounsfield unit values, the validity of the composite CT image can be verified. For example, as the Hounsfield unit value of the composite CT image is the same as or closer to the Hounsfield unit value of the original CT image, the composite CT image can be confirmed as valid data. In brain treatment using radiation, the skull has the most influence on the radiation dose reaching the lesion of the brain, and the Hounsfield unit best represents the radiation absorbed dose of the skull, so it can be used for validation.

도 3은 본 발명의 일 실시 예에 따른 학습 모델 생성 방법을 설명하기 위한 흐름도이다. 도 4는 본 발명의 일 실시 예에 따른 CGAN을 설명하기 위한 블록도이다. 도 5는 본 발명의 일 실시 예에 따른 학습 데이터 증강을 설명하기 위한 예시도이다. 도 6 및 도 7은 본 발명의 일 실시 예에 따른 합성 CT 영상의 정밀도를 설명하기 위한 예시도이다. 도 3의 동작들은 도 1의 각 구성들에 의해 의해 수행될 수 있다.3 is a flowchart illustrating a method of generating a learning model according to an embodiment of the present invention. 4 is a block diagram illustrating a CGAN according to an embodiment of the present invention. 5 is an exemplary diagram for explaining augmentation of learning data according to an embodiment of the present invention. 6 and 7 are exemplary diagrams for explaining the precision of a composite CT image according to an embodiment of the present invention. The operations of FIG. 3 may be performed by each of the components of FIG. 1.

하기 도 3에서 설명하는 동작들은 복수의 환자들 각각의 MRI 영상과 원본 CT 영상을 포함하는 학습 데이터를 인공지능 알고리즘에 입력하여, 인공지능 알고리즘을 통해 학습 모델을 생성하는 동작들일 수 있다. 여기서 인공지능 알고리즘은 Condicitonal GAN(Generative Adversarial Network)을 이용한다.The operations described in FIG. 3 may be operations of inputting training data including MRI images and original CT images of each of a plurality of patients into an artificial intelligence algorithm, and generating a learning model through the artificial intelligence algorithm. Here, the artificial intelligence algorithm uses Condicitonal GAN (Generative Adversarial Network).

도 3 내지 도 7을 참조하면, 일 실시 예에서, 동작 31에서, 데이터 획득부(110)가 복수의 환자들 각각의 MRI 영상과 원본 CT 영상을 포함하는 학습 데이터를 획득할 수 있다. 예를 들어, 학습데이터는 뇌질환을 가진 복수의 환자들의 뇌 MRI 영상과 뇌 CT 영상 쌍(pair)일 수 있고, 이외에도 뇌와 관련된 질환의 정보가 담긴 의료 영상들을 모두 포함할 수 있다.3 to 7, in an embodiment, in operation 31, the data acquisition unit 110 may acquire training data including MRI images and original CT images of each of a plurality of patients. For example, the learning data may be a pair of brain MRI images and brain CT images of a plurality of patients with brain diseases, and may include all medical images containing information on diseases related to the brain.

일 실시 예에서, 동작 32에서, 데이터 처리부(120)가 학습 데이터를 증강할 수 있다. 예를 들어, 데이터 처리부(120)는 학습 데이터에 포함된 MRI 영상과 원본 CT 영상을 회전(rotation)시키거나 플립(flip)시킴으로써 학습 데이터를 증강(augmentation)시킬 수 있고, 이에 따라 풍부한 학습데이터 량을 확보할 수 있다. 예컨대, 도 5에 개시된 바와 같이 데이터 처리부(120)는 원본 영상을 회전 또는 플립시킴에 따라 데이터 양을 늘릴 수 있다. 물론, 기 확보한 학습 데이터의 양에 따라 동작 32는 생략될 수 있다.In an embodiment, in operation 32, the data processing unit 120 may augment the training data. For example, the data processing unit 120 may augment the learning data by rotating or flipping the MRI image and the original CT image included in the training data, and accordingly, the amount of learning data is abundant. Can be secured. For example, as disclosed in FIG. 5, the data processing unit 120 may increase the amount of data by rotating or flipping the original image. Of course, operation 32 may be omitted depending on the amount of previously secured learning data.

일 실시 예에서, 동작 33에서, 도 4에 도시된 바와 같이 딥러닝 학습부(130)가 학습 데이터에 포함된 MRI 영상을 조건부로 랜덤 노이즈 데이터를 생성자(Generator)에 입력할 수 있다. 예를 들어, 생성자는 FCN(fully convolutional network)일 수 있다. In an embodiment, in operation 33, as illustrated in FIG. 4, the deep learning learning unit 130 conditionally inputs random noise data to a generator based on the MRI image included in the training data. For example, the generator may be a fully convolutional network (FCN).

일 실시 예에서, 동작 34에서, 딥러닝 학습부(130)가 생성자를 통해 합성 CT 영상을 생성할 수 있다. 예를 들어, 생성자는 MRI 영상을 조건부로 하여 랜덤 노이즈 데이터에서 합성 CT 영상을 생성할 수 있다.In an embodiment, in operation 34, the deep learning learning unit 130 may generate a composite CT image through a generator. For example, the generator may conditionally generate a composite CT image from random noise data using an MRI image.

일 실시 예에서, 동작 35에서, 딥러닝 학습부(130)가 생성된 합성 CT 영상(pseudo CT)과 학습 데이터에 포함된 MRI 영상에 대응하는 원본 CT 영상을 판별자(Discriminator)에 입력할 수 있다. 예를 들어, 판별자는 CNN(convolutional neural network)일 수 있다. 물론 이외에도 판별자는 CNN에 한정되지 않으며 심층 신경망(Deep Neural Network, DNN), 순환 신경망(Recurrent Neural Network, RNN)등 영상처리장치의 사용 목적에 따라 달라질 수 있다.In an embodiment, in operation 35, the deep learning learning unit 130 may input the generated synthetic CT image (pseudo CT) and the original CT image corresponding to the MRI image included in the training data into the discriminator. have. For example, the discriminator may be a convolutional neural network (CNN). Of course, the other discriminator is not limited to CNN, and may vary depending on the purpose of use of the image processing device, such as a deep neural network (DNN) or a recurrent neural network (RNN).

일 실시 예에서, 동작 36에서, 딥러닝 학습부(130)가 판별자가 합성 CT 영상이 원본인지 판별할 수 있다. 예를 들어, 판별자는 합성 CT 영상이 진짜(real)라고 본다면 1이라는 확률값을 출력할 수 있고 가짜라고 본다면 0이라는 확률값을 출력할 수 있고 진짜인지 가짜인지 구별이 어렵다면 0.5 확률값을 출력할 수 있다.In an embodiment, in operation 36, the deep learning learning unit 130 may determine whether the discriminator is the original composite CT image. For example, the discriminator can output a probability value of 1 if the composite CT image is real, and output a probability value of 0 if it is considered fake, and if it is difficult to distinguish whether it is real or fake, it can output a probability value of 0.5. .

일 실시 예에서, 동작 37에서, 딥러닝 학습부(130)가 동작 31 내지 동작 36을 반복함으로써 학습 모델을 생성할 수 있다. 예를 들어, 딥러닝 학습부(130)는 생성자를 통해 합성 CT 영상을 생성하는 동작과 판별자를 통해 합성 CT 영상이 원본인지 판별하는 동작을 반복적으로 수행함으로써 학습 모델을 생성할 수 있다. 예컨대, 생성자가 생성한 합성 CT 영상을 판별자가 지속적으로 0.5에 가까운 확률값으로 출력할 경우 상기 학습 모델은 매우 정교한 학습 모델이 될 수 있다. 따라서, 영상 생성부(140)는 생성자를 포함하는 학습 모델을 통해 MRI 영상을 조건으로 하여 정확한 합성 CT 영상을 생성할 수 있다.In an embodiment, in operation 37, the deep learning learning unit 130 may generate a learning model by repeating operations 31 to 36. For example, the deep learning learning unit 130 may generate a learning model by repeatedly performing an operation of generating a synthesized CT image through a generator and an operation of determining whether the synthesized CT image is an original through a discriminator. For example, if the discriminator continuously outputs the synthesized CT image generated by the generator with a probability value close to 0.5, the learning model can be a very sophisticated learning model. Accordingly, the image generator 140 may generate an accurate composite CT image based on an MRI image through a learning model including a generator.

이와 같이, 기존의 analytic 한 방법(MRI의 intensity와 CT의 intensity(HU)를 one-to-one으로 매칭하는 방법 등)들은 MRI와 CT 각각의 영상 quality의 다양한 variability를 모두 반영하지 못하는 한계점이 있지만 본 발명과 같이 CGAN(Conditional Generative Adversarial Network)으로 대표되는 딥러닝 알고리즘을 이용하면 매우 강인성이 확보된 모델을 만들 수 있다. 또한, 본 발명은 GPU(graphics processing unit)에 기반하여 학습된 딥러닝 모델의 추론(inference)과정이 매우 속도가 빠르기 때문에(MR->CT conversion이 매우 빠름, slice당 < 1 sec 미만) 비침습 수술 계획 수립 속도가 현저히 높아질 수 있다.As such, the existing analytic methods (such as one-to-one matching of MRI intensity and CT intensity (HU)) have limitations in that they cannot reflect all of the various variability of the image quality of MRI and CT. When using a deep learning algorithm represented by CGAN (Conditional Generative Adversarial Network) as in the present invention, a model with very robustness can be created. In addition, the present invention is non-invasive because the inference process of the deep learning model learned based on the GPU (graphics processing unit) is very fast (MR->CT conversion is very fast, less than 1 sec per slice). The speed of planning surgery can be significantly increased.

한편, 본 발명의 효과를 확인하기 위해 TCGA(The cancer genome atlas)의 뇌 교모세포종 환자 19명의 CT/MR 영상 pair를 이용하여 Conditional Generative Adversarial Network (CGAN)로 학습하여 MRI 영상으로부터 CT 영상을 합성하는 예비 연구를 진행하였고, 부족한 데이터를 보충하기 위해 data augmentation을 수행하였고, 총 1,580개 slice 영상 pair를 확보하여 학습을 진행하였고, 실제 CT 영상과 비교하였을 때, 다이스 유사계수(Dice similarity coefficient, DSC) 기준으로 0.934의 합성 정확도를 보임을 확인할 수 있었다. 즉, 도 6에 도시된 영상들은 MR-CT 변환 연구결과 예시. 각각에서 (좌) 환자의 MR 영상, (중) 학습된 네트워크로 변환한 CT 영상, (우) 환자의 실제 CT 영상Meanwhile, in order to confirm the effect of the present invention, a CT/MR image pair of 19 patients with glioblastoma cerebral glioblastoma of TCGA (The cancer genome atlas) is used to learn with Conditional Generative Adversarial Network (CGAN) to synthesize CT images from MRI images. Preliminary research was conducted, data augmentation was performed to compensate for insufficient data, and learning was conducted by securing a total of 1,580 slice image pairs, and when compared with actual CT images, Dice similarity coefficient (DSC) As a standard, it was confirmed that the synthesis accuracy of 0.934 was shown. That is, the images shown in FIG. 6 are examples of MR-CT conversion research results. In each, (left) patient's MR image, (middle) CT image converted to a learned network, (right) patient's actual CT image

본 발명의 일 면에 따른 인공지능 기반 뇌 MRI(magnetic resonance imaging, 자기공명영상) 영상에서 생성된 CT(computed tomography, 컴퓨터 단층촬영영상) 영상을 이용한 비침습 치료 계획 방법은, 환자의 뇌 MRI 영상을 획득하는 단계; 인공지능 알고리즘을 기반으로 미리 기계학습하여 생성한 학습 모델을 이용하여 상기 뇌 MRI 영상에 대응하는 합성 CT 영상을 생성하는 단계; 상기 합성 CT 영상에서 골조직 정보를 추출하는 단계; 상기 MRI 영상에서 추출한 병변 정보와 상기 골조직 정보에 기반하여 외부 에너지원 제공을 통한 비침습 치료 계획을 설정하는 단계;를 포함한다.A non-invasive treatment planning method using a computed tomography (CT) image generated from an artificial intelligence-based brain magnetic resonance imaging (MRI) image according to an aspect of the present invention includes an MRI image of a patient's brain. Obtaining a; Generating a synthetic CT image corresponding to the brain MRI image using a learning model generated by machine learning in advance based on an artificial intelligence algorithm; Extracting bone tissue information from the composite CT image; And setting a non-invasive treatment plan by providing an external energy source based on the lesion information extracted from the MRI image and the bone tissue information.

다양한 실시 예에 따르면, 상기 비침습 치료 계획을 설정하는 단계는 상기 병변 정보와 상기 두개골 정보에 기반하여 신경계 질환 치료용 에너지원의 조사 선량, 조사 범위, 조사 방향, 조사 시간 및 3차원 조사 좌표를 결정하는 단계를 포함할 수 있다.According to various embodiments, in the setting of the non-invasive treatment plan, the irradiation dose, irradiation range, irradiation direction, irradiation time, and three-dimensional irradiation coordinates of an energy source for treating neurological diseases are determined based on the lesion information and the skull information. It may include the step of determining.

다양한 실시 예에 따르면, 상기 비침습 치료 계획을 설정하는 단계는 상기 병변 정보와 상기 두개골 정보를 Leksell GammaPlan-Convolution 알고리즘에 입력하여 방사선의 조사 선량, 조사 범위, 조사 방향, 조사 시간 및 3차원 조사 좌표를 결정하는 단계를 포함할 수 있다.According to various embodiments, the step of setting the non-invasive treatment plan includes inputting the lesion information and the skull information to the Leksell GammaPlan -Convolution algorithm to receive the radiation dose, the radiation range, the radiation direction, the radiation time, and the three-dimensional radiation. It may include the step of determining the coordinates.

다양한 실시 예에 따르면, 상기 환자의 원본 CT 영상의 하운스필드 유닛(HU: Hounsfield Unit) 값을 연산하는 단계; 상기 합성 CT 영상의 하운스필드 유닛 값을 연산하는 단계; 및 상기 원본 CT 영상의 하운스필드 유닛 값과 상기 합성 CT 영상의 하운스필드 유닛 값을 비교함으로써 상기 합성 CT 영상의 유효성을 검증하는 단계를 더 포함할 수 있다.According to various embodiments, calculating a Hounsfield Unit (HU) value of the original CT image of the patient; Calculating a Hounsfield unit value of the composite CT image; And verifying validity of the synthesized CT image by comparing a Hounsfield unit value of the original CT image with a Hounsfield unit value of the synthesized CT image.

다양한 실시 예에 따르면, 복수의 환자들 각각의 MRI 영상과 원본 CT 영상을 포함하는 학습 데이터를 상기 인공지능 알고리즘에 입력하여, 상기 인공지능 알고리즘을 통해 상기 학습 모델을 생성하는 단계를 포함할 수 있다.According to various embodiments, it may include inputting training data including MRI images and original CT images of each of a plurality of patients into the artificial intelligence algorithm, and generating the learning model through the artificial intelligence algorithm. .

다양한 실시 예에 따르면, 상기 인공지능 알고리즘은 Condicitonal GAN(Generative Adversarial Network)일 수 있다.According to various embodiments, the artificial intelligence algorithm may be a Condicitonal Generative Adversarial Network (GAN).

다양한 실시 예에 따르면, 상기 학습 모델을 생성하는 단계는, 상기 학습 데이터에 포함된 MRI 영상을 조건부로 랜덤 노이즈 데이터를 생성자(Generator)에 입력하는 단계; 상기 생성자를 통해 합성 CT 영상을 생성하는 단계; 상기 생성된 합성 CT 영상과 상기 학습 데이터에 포함된 상기 MRI 영상에 대응하는 원본 CT 영상을 판별자(Discriminator)에 입력하는 단계; 상기 판별자가 상기 합성 CT 영상이 원본인지 판별하는 단계; 및 상기 생성자를 통해 합성 CT 영상을 생성하는 동작과 상기 판별자를 통해 상기 합성 CT 영상이 원본인지 판별하는 동작을 반복적으로 수행함으로써 상기 학습 모델을 생성하는 단계;를 포함할 수 있다.According to various embodiments of the present disclosure, generating the learning model may include inputting random noise data to a generator conditionally on an MRI image included in the training data; Generating a composite CT image through the generator; Inputting the generated composite CT image and an original CT image corresponding to the MRI image included in the training data into a discriminator; Determining, by the discriminator, whether the synthesized CT image is an original; And generating the learning model by repeatedly performing an operation of generating a composite CT image through the generator and an operation of determining whether the composite CT image is an original through the discriminator.

다양한 실시 예에 따르면, 상기 생성자는 FCN(fully convolutional network)이고, 상기 판별자는 CNN(convolutional neural network)일 수 있다.According to various embodiments, the generator may be a fully convolutional network (FCN), and the discriminator may be a convolutional neural network (CNN).

다양한 실시 예에 따르면, 상기 학습 데이터에 포함된 상기 MRI 영상과 상기 원본 CT 영상을 회전(rotation)시키거나 플립(flip)시킴으로써 상기 학습 데이터를 증강(augmentation)시킬 수 있다.According to various embodiments, the learning data may be augmented by rotating or flipping the MRI image and the original CT image included in the training data.

본 발명의 일 면에 따른 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 프로그램은 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제9항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장될 수 있다.A non-invasive treatment planning program using a CT image generated from an artificial intelligence-based brain MRI image according to an aspect of the present invention is combined with a computer that is hardware, and a medium to execute the method of any one of claims 1 to 9 Can be stored in.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, implemented as a software module executed by hardware, or a combination thereof. Software modules include Random Access Memory (RAM), Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), Flash Memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer-readable recording medium well known in the art to which the present invention pertains.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains can be implemented in other specific forms without changing the technical spirit or essential features. You will be able to understand. Therefore, the embodiments described above are illustrative in all respects, and should be understood as non-limiting.

100 : 비침습 치료 계획 장치
110 : 데이터 획득부
120 : 데이터 처리부
130 : 딥러닝 학습부
140 : 영상 생성부
150 : 치료 계획 설정부
160 : 데이터베이스
100: non-invasive treatment planning device
110: data acquisition unit
120: data processing unit
130: Deep Learning Department
140: image generator
150: treatment plan setting unit
160: database

Claims (10)

인공지능 기반 뇌 MRI(magnetic resonance imaging, 자기공명영상) 영상에서 생성된 CT(computed tomography, 컴퓨터 단층촬영영상) 영상을 이용한 비침습 치료 계획 방법에 있어서,
환자의 뇌 MRI 영상을 획득하는 단계;
인공지능 알고리즘을 기반으로 미리 기계학습하여 생성한 학습 모델을 이용하여 상기 뇌 MRI 영상에 대응하는 합성 CT 영상을 생성하는 단계;
상기 합성 CT 영상에서 골조직 정보를 추출하는 단계;
상기 MRI 영상에서 추출한 병변 정보와 상기 골조직 정보에 기반하여 외부 에너지원 제공을 통한 비침습 치료 계획을 설정하는 단계;를 포함하는 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.
In the non-invasive treatment planning method using computed tomography (CT) images generated from artificial intelligence-based brain magnetic resonance imaging (MRI) images,
Acquiring a brain MRI image of the patient;
Generating a synthetic CT image corresponding to the brain MRI image using a learning model generated by machine learning in advance based on an artificial intelligence algorithm;
Extracting bone tissue information from the composite CT image;
Setting a non-invasive treatment plan by providing an external energy source based on the lesion information extracted from the MRI image and the bone tissue information; How to plan invasive treatment.
제1 항에 있어서,
상기 비침습 치료 계획을 설정하는 단계는 상기 병변 정보와 상기 골조직 정보에 기반하여 신경계 질환 치료용 에너지원의 조사 선량, 조사 범위, 조사 방향, 조사 시간 및 3차원 조사 좌표를 결정하는 단계를 포함하는 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.
The method of claim 1,
The setting of the non-invasive treatment plan includes determining an irradiation dose, an irradiation range, an irradiation direction, an irradiation time, and a three-dimensional irradiation coordinate of an energy source for treating neurological diseases based on the lesion information and the bone tissue information. A non-invasive treatment planning method using a CT image generated from an artificial intelligence-based brain MRI image, characterized in that.
제1 항에 있어서,
상기 비침습 치료 계획을 설정하는 단계는 상기 병변 정보와 상기 골조직 정보를 Leksell GammaPlanㄾ-Convolution 알고리즘에 입력하여 방사선의 조사 선량, 조사 범위, 조사 방향, 조사 시간 및 3차원 조사 좌표를 결정하는 단계를 포함하는 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.
The method of claim 1,
The step of setting the non-invasive treatment plan includes inputting the lesion information and the bone tissue information into the Leksell GammaPlanㄾ-Convolution algorithm to determine the irradiation dose, irradiation range, irradiation direction, irradiation time, and three-dimensional irradiation coordinates. A non-invasive treatment planning method using a CT image generated from an artificial intelligence-based brain MRI image, comprising: a.
제1 항에 있어서,
상기 환자의 원본 CT 영상의 하운스필드 유닛(HU: Hounsfield Unit) 값을 연산하는 단계;
상기 합성 CT 영상의 하운스필드 유닛 값을 연산하는 단계; 및
상기 원본 CT 영상의 하운스필드 유닛 값과 상기 합성 CT 영상의 하운스필드 유닛 값을 비교함으로써 상기 합성 CT 영상의 유효성을 검증하는 단계를 더 포함하는 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.
The method of claim 1,
Calculating a Hounsfield Unit (HU) value of the original CT image of the patient;
Calculating a Hounsfield unit value of the composite CT image; And
Comparing the Hounsfield unit value of the original CT image with the Hounsfield unit value of the synthesized CT image to verify the validity of the synthesized CT image. Non-invasive treatment planning method using CT images.
제1 항에 있어서,
복수의 환자들 각각의 MRI 영상과 원본 CT 영상을 포함하는 학습 데이터를 상기 인공지능 알고리즘에 입력하여, 상기 인공지능 알고리즘을 통해 상기 학습 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.
The method of claim 1,
And generating the learning model through the artificial intelligence algorithm by inputting learning data including MRI images and original CT images of each of a plurality of patients into the artificial intelligence algorithm. Non-invasive treatment planning method using CT images generated from MRI images.
제5 항에 있어서,
상기 인공지능 알고리즘은 Condicitonal GAN(Generative Adversarial Network)인 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.
The method of claim 5,
The artificial intelligence algorithm is a non-invasive treatment planning method using a CT image generated from an artificial intelligence-based brain MRI image, characterized in that the condicitonal GAN (Generative Adversarial Network).
제6 항에 있어서, 상기 학습 모델을 생성하는 단계는,
상기 학습 데이터에 포함된 MRI 영상을 조건부로 랜덤 노이즈 데이터를 생성자(Generator)에 입력하는 단계;
상기 생성자를 통해 합성 CT 영상을 생성하는 단계;
상기 생성된 합성 CT 영상과 상기 학습 데이터에 포함된 상기 MRI 영상에 대응하는 원본 CT 영상을 판별자(Discriminator)에 입력하는 단계;
상기 판별자가 상기 합성 CT 영상이 원본인지 판별하는 단계; 및
상기 생성자를 통해 합성 CT 영상을 생성하는 동작과 상기 판별자를 통해 상기 합성 CT 영상이 원본인지 판별하는 동작을 반복적으로 수행함으로써 상기 학습 모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.
The method of claim 6, wherein generating the learning model comprises:
Inputting random noise data into a generator conditionally on the MRI image included in the training data;
Generating a composite CT image through the generator;
Inputting the generated composite CT image and an original CT image corresponding to the MRI image included in the training data into a discriminator;
Determining, by the discriminator, whether the synthesized CT image is an original; And
And generating the learning model by repeatedly performing an operation of generating a synthetic CT image through the generator and an operation of determining whether the synthesized CT image is the original through the discriminator. Non-invasive treatment planning method using CT images generated from MRI images.
제7 항에 있어서, 상기 생성자는 FCN(fully convolutional network)이고, 상기 판별자는 CNN(convolutional neural network)인 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.The method of claim 7, wherein the generator is a fully convolutional network (FCN) and the discriminator is a convolutional neural network (CNN). 제6 항에 있어서, 상기 학습 데이터에 포함된 상기 MRI 영상과 상기 원본 CT 영상을 회전(rotation)시키거나 플립(flip)시킴으로써 상기 학습 데이터를 증강(augmentation)시키는 것을 특징으로 하는 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 방법.The artificial intelligence-based brain MRI of claim 6, wherein the learning data is augmented by rotating or flipping the MRI image and the original CT image included in the learning data. Non-invasive treatment planning method using CT images generated from images. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제9항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 인공지능 기반 뇌 MRI 영상에서 생성된 CT 영상을 이용한 비침습 치료 계획 프로그램.A non-invasive treatment planning program using a CT image generated from an artificial intelligence-based brain MRI image, which is combined with a computer as hardware and stored in a medium to execute the method of any one of claims 1 to 9.
KR1020190128738A 2019-10-16 2019-10-16 Method for planning a non-invaseve treatment using ct image generated from brain mri image based on artificial intelligence KR102375277B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190128738A KR102375277B1 (en) 2019-10-16 2019-10-16 Method for planning a non-invaseve treatment using ct image generated from brain mri image based on artificial intelligence
KR1020220030931A KR102504022B1 (en) 2019-10-16 2022-03-11 Device for planning a non-invaseve treatment based on artificial intelligence using ct image generated from brain mri image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190128738A KR102375277B1 (en) 2019-10-16 2019-10-16 Method for planning a non-invaseve treatment using ct image generated from brain mri image based on artificial intelligence

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220030931A Division KR102504022B1 (en) 2019-10-16 2022-03-11 Device for planning a non-invaseve treatment based on artificial intelligence using ct image generated from brain mri image

Publications (2)

Publication Number Publication Date
KR20210045577A true KR20210045577A (en) 2021-04-27
KR102375277B1 KR102375277B1 (en) 2022-03-16

Family

ID=75725676

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190128738A KR102375277B1 (en) 2019-10-16 2019-10-16 Method for planning a non-invaseve treatment using ct image generated from brain mri image based on artificial intelligence
KR1020220030931A KR102504022B1 (en) 2019-10-16 2022-03-11 Device for planning a non-invaseve treatment based on artificial intelligence using ct image generated from brain mri image

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220030931A KR102504022B1 (en) 2019-10-16 2022-03-11 Device for planning a non-invaseve treatment based on artificial intelligence using ct image generated from brain mri image

Country Status (1)

Country Link
KR (2) KR102375277B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373767B1 (en) * 2021-07-07 2022-03-14 뉴로핏 주식회사 Method, server and computer program for making treatment strategy of brain lesion patient based on big data
KR102373761B1 (en) * 2021-07-07 2022-03-15 뉴로핏 주식회사 Method, server and computer program for executing stimulus simulation using brain model of brain lesion patient
WO2022220318A1 (en) * 2021-04-15 2022-10-20 연세대학교 산학협력단 Non-invasive treatment planning method using ct image generated from artificial-intelligence-based brain mri image, apparatus therefor, and computer program therefor
KR20230112423A (en) 2022-01-20 2023-07-27 가톨릭관동대학교산학협력단 Medical gender for registration of noninvasive brain stimulation apparatus
KR20230112793A (en) 2022-01-20 2023-07-28 가톨릭관동대학교산학협력단 Treatment method using noninvasive brain stimulation

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240051407A (en) * 2022-10-13 2024-04-22 주식회사 지오비전 Osteoporosis prediction system using deep learning module

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010107084A (en) * 2000-05-25 2001-12-07 정필훈 Device for making models of 3 dimensional bone tissue or soft tissue and application method and model thereof
KR20140008103A (en) * 2012-07-10 2014-01-21 삼성전자주식회사 A method and apparatus for generating a treatment plan to be provided to a focused ultrasound therapy apparatus
KR20160050326A (en) 2014-10-29 2016-05-11 삼성전자주식회사 Image processing apparatus and image processing method, and ultrasound apparatus
KR101857624B1 (en) * 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same
KR20190028880A (en) * 2017-09-11 2019-03-20 숭실대학교산학협력단 Method and appratus for generating machine learning data for botnet detection system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010107084A (en) * 2000-05-25 2001-12-07 정필훈 Device for making models of 3 dimensional bone tissue or soft tissue and application method and model thereof
KR20140008103A (en) * 2012-07-10 2014-01-21 삼성전자주식회사 A method and apparatus for generating a treatment plan to be provided to a focused ultrasound therapy apparatus
KR20160050326A (en) 2014-10-29 2016-05-11 삼성전자주식회사 Image processing apparatus and image processing method, and ultrasound apparatus
KR101857624B1 (en) * 2017-08-21 2018-05-14 동국대학교 산학협력단 Medical diagnosis method applied clinical information and apparatus using the same
KR20190028880A (en) * 2017-09-11 2019-03-20 숭실대학교산학협력단 Method and appratus for generating machine learning data for botnet detection system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Unlicensed reference *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220318A1 (en) * 2021-04-15 2022-10-20 연세대학교 산학협력단 Non-invasive treatment planning method using ct image generated from artificial-intelligence-based brain mri image, apparatus therefor, and computer program therefor
KR102373767B1 (en) * 2021-07-07 2022-03-14 뉴로핏 주식회사 Method, server and computer program for making treatment strategy of brain lesion patient based on big data
KR102373761B1 (en) * 2021-07-07 2022-03-15 뉴로핏 주식회사 Method, server and computer program for executing stimulus simulation using brain model of brain lesion patient
WO2023282407A1 (en) * 2021-07-07 2023-01-12 뉴로핏 주식회사 Big data-based method for establishing treatment strategy for patient with brain lesion, server, and computer program
WO2023282406A1 (en) * 2021-07-07 2023-01-12 뉴로핏 주식회사 Stimulation simulation method using brain model of patient with brain lesion, server, and computer program
US11816796B2 (en) 2021-07-07 2023-11-14 NEUROPHET Inc. Stimulation simulation method, server and computer program using brain model of brain lesion patient
KR20230112423A (en) 2022-01-20 2023-07-27 가톨릭관동대학교산학협력단 Medical gender for registration of noninvasive brain stimulation apparatus
KR20230112793A (en) 2022-01-20 2023-07-28 가톨릭관동대학교산학협력단 Treatment method using noninvasive brain stimulation

Also Published As

Publication number Publication date
KR20220040437A (en) 2022-03-30
KR102375277B1 (en) 2022-03-16
KR102504022B1 (en) 2023-03-02

Similar Documents

Publication Publication Date Title
KR102504022B1 (en) Device for planning a non-invaseve treatment based on artificial intelligence using ct image generated from brain mri image
US10987522B2 (en) Three dimensional localization and tracking for adaptive radiation therapy
US11413475B2 (en) Elasticity imaging-based methods for improved gating efficiency and dynamic margin adjustment in radiation therapy
US10152790B2 (en) Three dimensional localization of a moving target for adaptive radiation therapy
CN107708808B (en) System and method for target tracking during radiation therapy using quality indicators
CN114681813B (en) Automatic radiation therapy planning system, automatic radiation therapy planning method, and storage medium
CN115485019A (en) Automatically planned radiation-based treatment
CN115666717A (en) Method and apparatus for deriving and using virtual volume structures to predict potential collisions in delivering therapeutic radiation
WO2022220318A1 (en) Non-invasive treatment planning method using ct image generated from artificial-intelligence-based brain mri image, apparatus therefor, and computer program therefor

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant