KR102388204B1 - Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method - Google Patents

Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method Download PDF

Info

Publication number
KR102388204B1
KR102388204B1 KR1020200070577A KR20200070577A KR102388204B1 KR 102388204 B1 KR102388204 B1 KR 102388204B1 KR 1020200070577 A KR1020200070577 A KR 1020200070577A KR 20200070577 A KR20200070577 A KR 20200070577A KR 102388204 B1 KR102388204 B1 KR 102388204B1
Authority
KR
South Korea
Prior art keywords
image
region
interest
volume
neural network
Prior art date
Application number
KR1020200070577A
Other languages
Korean (ko)
Other versions
KR20210027057A (en
Inventor
오정수
김재승
오민영
오승준
이상주
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Publication of KR20210027057A publication Critical patent/KR20210027057A/en
Application granted granted Critical
Publication of KR102388204B1 publication Critical patent/KR102388204B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Abstract

본 발명의 일 실시 예에 따른 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법은 인체의 일부를 촬영한 제1 이미지를 수신하는 단계; 기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하는 단계; 및 상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성하는 단계를 포함할 수 있다.A method of extracting a volume of interest region using an artificial neural network according to an embodiment of the present invention comprises: receiving a first image obtained by photographing a part of a human body; extracting a volume-of-interest region and a reference region from the first image by using a pre-trained artificial neural network; and generating an output image including information on the volume of interest region and information on the reference region.

Description

인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치 {METHOD OF EXTRACTING VOLUME OF INTEREST USING ARTIFICIAL NEURAL NETWORK AND VOLUME OF INTEREST EXTRACTION DEVICE PERFORMING METHOD}A method of extracting a volume of interest region using an artificial neural network and an apparatus for extracting a volume of interest region of interest for performing the method

본 발명은 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치에 관한 것이다.The present invention relates to a method for extracting a VOI using an artificial neural network and to an apparatus for extracting a VOI for performing the method.

고령화 사회가 가속화 되면서 치매, 파킨슨증후군 등 퇴행성 뇌질환 환자군의 숫자가 증가하고 있다. 이에 따라, 도파민 및 아밀로이드 추적을 위한 양전자 방사 단층 촬영법(positron emission tomography, PET) 추적자가 국내 외에서 본격적으로 사용된 지 약 10년이 지나는 동안 임상 진료(routine practice)로서의 정량분석에 대한 요구도가 높아지고 있다.As the aging society accelerates, the number of patients with degenerative brain diseases such as dementia and Parkinson's syndrome is increasing. Accordingly, positron emission tomography (PET) tracers for dopamine and amyloid tracking have been used in earnest at home and abroad for about 10 years, and the demand for quantitative analysis as a routine practice is increasing. .

도파민 PT의 경우, F-18 FP-CIT PET의 정량화를 위해 타깃 관심부피영역인 선조체(앞쪽/뒷쪽 조가비핵, 꼬리핵, 배쪽 선조체) 및 계수 정규화를 위한 참조영역인 후두엽 관심부피영역을 Montreal Neurology Institute (MNI) 표준판(Template) 공간 상에 정의하여 활용하여 왔는데, 이러한 방법의 경우, 공간 정규화(spatial normalization)를 위한 시간적, 비용적 노력과 별도의 공간 정규화 엔진이 필요하므로 기술의 개선을 할 필요가 있다.In the case of dopamine PT, for quantification of F-18 FP-CIT PET, the target region of interest, the striatum (anterior/posterior condyle nucleus, caudate nucleus, ventral striatum), and the occipital region of interest, a reference region for coefficient normalization, were used in Montreal Neurology. Institute (MNI) Standard Edition (Template) has been defined and utilized in space, and in this case, time and cost effort for spatial normalization and a separate spatial normalization engine are required, so it is necessary to improve the technology there is

본 발명이 해결하고자 하는 과제는, 딥러닝을 이용하여 기학습된 인공 신경망을 이용하여 인체의 일부에 대한 이미지에서 관심 부피 영역을 추출하는 방법을 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a method of extracting a volume region of interest from an image of a part of a human body using an artificial neural network previously learned using deep learning.

다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved by the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.

본 발명의 일 실시 예에 따른 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법은 인체의 일부를 촬영한 제1 이미지를 수신하는 단계; 기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하는 단계; 및 상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성하는 단계를 포함할 수 있다.A method of extracting a volume of interest region using an artificial neural network according to an embodiment of the present invention comprises: receiving a first image obtained by photographing a part of a human body; extracting a volume-of-interest region and a reference region from the first image by using a pre-trained artificial neural network; and generating an output image including information on the volume of interest region and information on the reference region.

상기 기 학습된 인공 신경망은 상기 인체의 일부를 촬영한 제2 이미지와 함께, 상기 제2 이미지에 대한 관심 부피 영역을 포함하는 제3 이미지를 입력함으로써 학습될 수 있다.The pre-learned artificial neural network may be learned by inputting a third image including a volume region of interest for the second image together with a second image obtained by photographing a part of the human body.

상기 기 학습된 인공 신경망은 상기 인체의 일부를 촬영한 제2 이미지와 함께 상기 제2 이미지의 영상 강도를 변환한 하나 이상의 제3 이미지들을 입력함으로써 학습될 수 있다.The pre-learned artificial neural network may be learned by inputting one or more third images obtained by converting an image intensity of the second image together with a second image obtained by photographing a part of the human body.

상기 하나 이상의 제3 이미지들 각각은 상기 제2 이미지의 영상 강도를 2의 거듭제곱하여 생성될 수 있다.Each of the one or more third images may be generated by multiplying an image intensity of the second image to a power of two.

상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되거나 MRI(Magnetic Resonance Imaging), CT (Computed Tomography) 및 초음파 (Ultrasound sonography) 를 이용하여 촬영될 수 있다.The first image may be captured using positive emission tomography (PET) or magnetic resonance imaging (MRI), computed tomography (CT), and ultrasound sonography (Ultrasound sonography).

상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되었고, 상기 관심 부피 영역은 뇌의 선조체이며, 상기 참조 영역은 뇌의 후두부일 수 있다.The first image may be taken using PET (Positron Emission Tomography), the volume of interest region may be the striatum of the brain, and the reference region may be the occipital part of the brain.

본 발명의 다른 실시 예에 따른 관심 부피 영역 추출 장치는, 기 학습된 인공 신경망을 포함하는 관심 부피 영역 모델에 대한 정보를 저장하는 메모리; 외부의 장치와 정보를 송수신하는 송수신기; 및 상기 메모리 및 상기 송수신기를 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 송수신기를 제어하여 인체의 일부를 촬영한 제1 이미지를 수신하고, 상기 기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하고, 상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성할 수 있다.An apparatus for extracting a VOI according to another embodiment of the present invention includes: a memory for storing information about a VOI model including a pre-trained artificial neural network; a transceiver for transmitting and receiving information to and from an external device; and a processor for controlling the memory and the transceiver, wherein the processor controls the transceiver to receive a first image obtained by photographing a part of the human body, and using the pre-learned artificial neural network, the first image The VOI and the reference region may be extracted from the VOI, and an output image including information on the VOI and information on the reference region may be generated.

본 발명의 실시 예에 의하면, 딥러닝을 이용하여 기학습된 인공 신경망을 이용하여 인체의 일부에 대한 이미지에서 관심 부피 영역을 추출함으로써, 공간 정규화 등의 부가적인 과정없이 도파민 운반체 밀도의 정량 분석 등의 작업을 수행할 수 있다.According to an embodiment of the present invention, by extracting a volume region of interest from an image of a part of the human body using a pre-trained artificial neural network using deep learning, quantitative analysis of dopamine transporter density without additional processes such as spatial normalization, etc. can perform the work of

도 1은 본 발명의 일 실시 예에 따른 관심 부피 영역 추출 모델의 기능을 개념적으로 나타내는 블록도이다.
도 2는 본 발명의 실시 예에 따른 인공 신경망을 학습시키는 방법을 나타낸다.
도 3은 종래의 방법을 이용하여 관심 부피 영역을 추출하는 일 예를 나타낸다.
도 4는 본 발명의 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출한 일 예를 나타낸다.
도 5는 본 발명의 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출하는 관심 부피 영역 추출 장치의 블록도이다.
도 6은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 공간 정규화 기반의 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 나타낸다.
도 7은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 공간 정규화 기반의 방법을 이용하여 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 나타낸다.
도 8은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 도 6에 병기한 도면이다.
도 9는 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법을 이용하여 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 도 7에 병기한 도면이다.
도 10은 본 발명의 일 실시 예에 따라 관심 부피 영역을 추출하는 방법을 나타내는 흐름도이다.
1 is a block diagram conceptually illustrating a function of a volume-of-interest region extraction model according to an embodiment of the present invention.
2 shows a method for learning an artificial neural network according to an embodiment of the present invention.
3 shows an example of extracting a volume region of interest using a conventional method.
4 illustrates an example of extracting a VOI using the VOI extraction model according to an embodiment of the present invention.
5 is a block diagram of an apparatus for extracting a VOI for extracting a VOI using a VOI extraction model according to an embodiment of the present invention.
6 shows the correlation between the FP-CIT uptake ratio obtained using the method according to an embodiment of the present invention and the FP-CIT uptake ratio calculated using the conventional spatial normalization-based method.
7 shows a Blend-Altman plot of the FP-CIT uptake ratio obtained using the method according to an embodiment of the present invention and the FP-CIT uptake ratio obtained using the conventional spatial normalization-based method.
8 is a FP-CIT uptake ratio obtained using a method according to an embodiment of the present invention and a method of performing MR-based spatial normalization after matching PET to MR in order to improve the conventional anatomical accuracy. Fig. 6 shows the correlation between the FP-CIT intake ratio.
9 shows the FP-CIT intake ratio obtained using the method according to an embodiment of the present invention and the conventional method of matching PET to MR to improve anatomical accuracy and then performing MR-based spatial normalization. The Blend-Altman plot of the FP-CIT intake ratio is also shown in FIG. 7 .
10 is a flowchart illustrating a method of extracting a volume region of interest according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention belongs It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시 예에 따른 관심 부피 영역 추출 모델의 기능을 개념적으로 나타내는 블록도이다.1 is a block diagram conceptually illustrating a function of a volume-of-interest region extraction model according to an embodiment of the present invention.

도 1을 참조하면, 관심 부피 영역 추출 모델(10)은 인공 신경망(20)을 포함할 수 있다.Referring to FIG. 1 , the volume region of interest extraction model 10 may include an artificial neural network 20 .

관심 부피 영역 추출 모델(10)은 인체의 일부에 대한 입력 이미지(IN_IMG)를 입력받고, 인공 신경망(20)을 이용하여 관심 부피 영역에 대한 정보 및 참조 영역에 대한 정보를 포함하는 출력 이미지(OUT_IMG)를 생성할 수 있다. 실시 예에 따라, 상기 인체의 일부는 인체의 뇌를 비롯한 기관이나 장기일 수 있다. 실시 예에 따라, 상기 인체의 일부는 공간 정규화를 이용하여 관심 부피 영역을 정의할 수 있는 장기, 기관 등일 수 있다.The VOI extraction model 10 receives an input image IN_IMG of a part of the human body, and uses the artificial neural network 20 to obtain an output image OUT_IMG including information on the VOI and reference region using the artificial neural network 20 . ) can be created. According to an embodiment, the part of the human body may be an organ or an organ including a brain of the human body. According to an embodiment, the part of the human body may be an organ, an organ, etc. capable of defining a volume region of interest using spatial normalization.

본 명세서에서 모델이라 함은 본 명세서에서 설명되는 각각의 명칭에 따른 기능과 동작을 수행할 수 있는 명령어들로 구성된 컴퓨터 프로그램을 의미할 수 있다. 즉, 관심 부피 영역 추출 모델(10)은, 프로세서에 의해 실행되고, 메모리에 저장되는 컴퓨터 프로그램(애플리케이션 소프트웨어)의 일종일 수 있다.In the present specification, a model may mean a computer program composed of instructions capable of performing functions and operations according to respective names described in this specification. That is, the volume region of interest extraction model 10 may be a type of computer program (application software) executed by a processor and stored in a memory.

인공 신경망(20)은 딥러닝 방법을 이용하여 기학습된 신경망일 수 있다. 실시 예에 따라, 인공신경망(20)은 합성곱 신경망(Convolutional Neural Network, CNN)일 수 있다. 인공 신경망(20)을 학습시키는 방법에 대해서는 후술할 도 2a 및 도 2b를 통해서 자세하게 설명하기로 한다.The artificial neural network 20 may be a neural network previously learned using a deep learning method. According to an embodiment, the artificial neural network 20 may be a convolutional neural network (CNN). A method of learning the artificial neural network 20 will be described in detail with reference to FIGS. 2A and 2B, which will be described later.

본 명세서에서, 관심 부피 영역(Volume of Interest, VOI)은 입력 이미지(IN_IMG)에서 추출하고 부각시키고자 하는 영역을 의미하고, 참조 영역은 상기 관심 부피 영역에 대비되는 의미로서, 입력 이미지(IN_IMG)에서 부각시키지 않아야 할 영역을 의미할 수 있다. 예컨대, 파킨슨 증후군 의심 환자의 경우, 의심 환자의 뇌 중에서 선조체 영역의 도파민 운반체의 밀도를 분석할 필요가 있다. 따라서, 입력 이미지(IN_IMG)가 파킨슨 증후군 의심 환자의 뇌를 촬영한 F-18 FP-CIT PET인 경우, 입력 이미지(IN_IMG) 중에서 도파민이 검출되는 선조체(앞쪽/뒷쪽 조가비핵, 꼬리핵, 배쪽 선초체 등)는 관심 부피 영역이 되며, 후두엽은 계수 정규화를 위한 참조 영역이 될 수 있다.In the present specification, the volume of interest (VOI) refers to a region to be extracted and emphasized from the input image IN_IMG, and the reference region is in contrast to the volume of interest region, and the input image IN_IMG. It may mean an area that should not be highlighted in For example, in the case of a suspected Parkinson's syndrome patient, it is necessary to analyze the density of dopamine transporters in the striatal region of the suspected patient's brain. Therefore, if the input image (IN_IMG) is an F-18 FP-CIT PET image of the brain of a patient with suspected Parkinson's syndrome, the striatum (anterior/posterior conchium nucleus, caudate nucleus, ventral striatum) in which dopamine is detected among the input image (IN_IMG). sieve, etc.) becomes a volume region of interest, and the occipital lobe can be a reference region for coefficient normalization.

실시 예에 따라, 입력 이미지(IN_IMG)는 양전자 단층 촬영(Positron Emission Tomography, PET)을 이용하여 생성된 것일 수 있으며, 자기 공명 영상 진단(Magnetic Resonance Imaging, MRI)을 이용하여 생성된 것일 수도 있다. 실시 예에 따라, 입력 이미지(IN_IMG)는 3차원 이미지일 수 있다.According to an embodiment, the input image IN_IMG may be generated using positron emission tomography (PET) or may be generated using magnetic resonance imaging (MRI). According to an embodiment, the input image IN_IMG may be a 3D image.

도 2는 본 발명의 실시 예에 따른 인공 신경망을 학습시키는 방법을 나타낸다.2 shows a method for learning an artificial neural network according to an embodiment of the present invention.

도 2를 참조하면, 인공 신경망(20)은 인체의 일부에 대한 이미지를 입력 받을 경우, 상기 이미지에서 관심 부피 영역을 추출하고, 상기 이미지의 관심 부피 영역 및 참조 영역에 대한 정보를 포함하는 이미지를 생성하도록 학습될 수 있다.Referring to FIG. 2 , when receiving an image of a part of the human body, the artificial neural network 20 extracts a volume of interest region from the image, and generates an image including information on the volume of interest region and reference region of the image. can be learned to generate.

실시 예에 따라, 인공 신경망(20)은, 지도 학습(Supervised Learning) 방식으로 학습될 수 있다. 인공 신경망(20)은 인체의 일부에 대한 참조 이미지(REF_IMG)와 함께, 참조 이미지(REF_IMG)를 입력함으로써 출력하고자 결과로서, 참조 이미지(REF_IMG)에 대한 관심 부피 영역 및 참조 영역에 대한 정보를 포함하는 관심 부피 영역 이미지(VOI_IMG)를 인공 신경망(20)에 입력함으로써, 학습될 수 있다.According to an embodiment, the artificial neural network 20 may be trained in a supervised learning method. The artificial neural network 20 outputs by inputting the reference image REF_IMG together with the reference image REF_IMG for a part of the human body. By inputting the volume region of interest image VOI_IMG to the artificial neural network 20, it can be learned.

실시 예에 따라, 참조 이미지(REF_IMG)의 영상 강도(intensity)를 달리하는 복수의 이미지들을 인공 신경망(20)에 입력함으로써, 인공 신경망(20)을 학습시킬 수 있다. 예컨대, 영상 강도가 0 ~ 1 의 값을 갖도록 참조 이미지(REF_IMG)를 변환하고, 변환된 참조 이미지(REF_IMG)와 함께, 참조 이미지(REF_IMG)의 영상 강도를 2n 배한 n개(여기서, n은 자연수)의 이미지들을 인공 신경망(20)에 입력함으로써, 인공 신경망(20)은 학습될 수 있다. 다만, 여기서, 입력되는 이미지들의 영상 강도는 1을 넘지 않을 수 있다. 즉, 영상 강도를 2n 배함으로 인하여 영상 강도가 1이 넘는 값들은 1로 변환하여 입력할 수 있다. 예컨대, 참조 이미지(REF_IMG)의 영상 강도가 0 ~ 1 의 값을 갖도록 변환한 제1 이미지를, 상기 제1 이미지에서 영상 강도를 2배한 제2 이미지, 상기 제1 이미지에서 영상 강도를 4배한 제3 이미지 및 상기 제1 이미지에서 영상 강도를 8배한 제4 이미지와 함께 입력함으로써, 인공 신경망(20)은 학습될 수 있다.According to an embodiment, the artificial neural network 20 may be trained by inputting a plurality of images having different image intensities of the reference image REF_IMG to the artificial neural network 20 . For example, the reference image REF_IMG is transformed so that the image intensity has a value of 0 to 1, and together with the converted reference image REF_IMG, n times the image intensity of the reference image REF_IMG by 2 n (where n is By inputting images of natural numbers) into the artificial neural network 20 , the artificial neural network 20 may be trained. However, here, the image intensity of the input images may not exceed 1. That is, by multiplying the image intensity by 2 n , values having an image intensity greater than 1 may be converted to 1 and input. For example, a first image in which the image intensity of the reference image REF_IMG is converted to have a value of 0 to 1, a second image in which the image intensity is doubled from the first image, and a fourth image obtained by multiplying the image intensity in the first image By inputting 3 images and a fourth image obtained by multiplying the image intensity by 8 from the first image, the artificial neural network 20 can be trained.

이로 인하여, FP-CIT PET와 같이, 관심 부피 영역인 선조체에 비해 참조 영역인 후두엽이 어두운 경우, 후두엽의 영상 강도를 높게 하여 입력함으로써, 인공 신경망(20)이 후두엽을 보다 잘 인식하게 할 수 있다.For this reason, as in FP-CIT PET, when the occipital lobe, the reference region, is darker than the striatum, which is the volume region of interest, by increasing the image intensity of the occipital lobe and inputting it, the artificial neural network 20 can better recognize the occipital lobe. .

도 3은 종래의 방법을 이용하여 관심 부피 영역을 추출하는 일 예를 나타내고, 도 4는 본 발명의 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출한 일 예를 나타낸다.FIG. 3 shows an example of extracting the VOI using a conventional method, and FIG. 4 shows an example of extracting the VOI using the VOI extraction model according to an embodiment of the present invention.

도 3을 참조하면, 종래의 경우, 인체의 일부를 촬영한 입력 이미지(IN_IMG)가 입력된 경우, 입력 이미지(IN_IMG)에 대해 공간 정규화(spatial normalization)를 수행함으로써 모양이 각기 다른 개별의 이미지를 평균의 이미지로 정규화한 후, 공간 정규화를 수행한 이미지에서 관심 부피 영역을 추출할 수 있었다.Referring to FIG. 3 , in the conventional case, when an input image IN_IMG obtained by photographing a part of a human body is input, spatial normalization is performed on the input image IN_IMG to obtain individual images having different shapes. After normalizing to the image of the average, the volume region of interest could be extracted from the image subjected to spatial normalization.

다만, 도 4를 참조하면, 본 발명의 일 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출하는 경우, 인체의 일부를 촬영한 이미지(IN_IMG)를 입력하는 경우, 공간 정규화 과정을 수행하지 않고도 인체 일부를 촬영한 이미지(IN_IMG)에 대한 관심 부피 영역이 추출된 출력 이미지(OUT_IMG)를 생성할 수 있다.However, referring to FIG. 4 , when extracting the VOI using the VOI extraction model according to an embodiment of the present invention, and inputting an image IN_IMG of a part of the human body, the spatial normalization process It is possible to generate an output image OUT_IMG from which a volume-of-interest region of interest is extracted from an image IN_IMG obtained by photographing a part of a human body without performing .

따라서, 본 발명의 일 실시 예에 따른 관심 부피 영역 추출 모델에 의할 경우, 공간 정규화의 부가적인 과정없이 관심 부피 영역을 추출함으로써, 보다 빠른 시간 내에 정확하게 관심 부피 영역을 추출할 수 있다.Accordingly, according to the VOI extraction model according to an embodiment of the present invention, the VOI can be accurately extracted within a shorter time by extracting the VOI without an additional process of spatial normalization.

도 5는 본 발명의 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출하는 관심 부피 영역 추출 장치의 블록도이다.5 is a block diagram of an apparatus for extracting a VOI for extracting a VOI by using a VOI extraction model according to an embodiment of the present invention.

도 5를 참조하면, 관심 부피 영역 추출 장치(100)는 프로세서(110), 송수신기(120) 및 메모리(130)를 포함할 수 있다.Referring to FIG. 5 , the apparatus 100 for extracting a VOI may include a processor 110 , a transceiver 120 , and a memory 130 .

프로세서(110)는 관심 부피 영역 추출 장치(100)의 전반적인 동작을 제어할 수 있다.The processor 110 may control the overall operation of the VOI extraction apparatus 100 .

프로세서(110)는 송수신기(120)를 이용하여 인체의 일부를 촬영한 입력 이미지(IN_IMG)를 수신할 수 있다. 실시 예에 따라, 입력 이미지(IN_IMG)는 송수신기(120)를 이용하여 수신되지 않고, 관심 부피 영역 추출 장치(100)에 포함된 입력 장치(미도시)를 이용하여 입력될 수도 있다.The processor 110 may receive an input image IN_IMG obtained by photographing a part of the human body using the transceiver 120 . According to an embodiment, the input image IN_IMG may not be received using the transceiver 120 , but may be input using an input device (not shown) included in the VOI extraction apparatus 100 .

프로세서(110)는, 관심 부피 영역 추출 모델(10)을 실행하기 위하여, 관심 부피 영역 추출 모델(10) 및 관심 부피 영역 추출 모델(10)을 실행하기 위해 필요한 정보들을 메모리(130)로부터 로드할 수 있다.The processor 110 is configured to load the VOI extraction model 10 and information necessary for executing the VOI extraction model 10 from the memory 130 to execute the VOI extraction model 10 . can

프로세서(110)는, 관심 부피 영역 추출 모델(10)을 실행하여, 입력 이미지(IN_IMG)로부터 관심 부피 영역 및 참조 영역을 추출하고, 관심 부피 영역에 대한 정보 및 참조 영역에 대한 정보를 포함하는 출력 이미지(OUT_IMG)를 생성할 수 있다.The processor 110 executes the VOI extraction model 10 to extract a VOI and a reference region from the input image IN_IMG, and an output including information on the VOI and information on the reference region. An image (OUT_IMG) can be created.

도 6은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 공간 정규화 기반의 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 나타낸다.6 shows the correlation between the FP-CIT uptake ratio obtained using the method according to an embodiment of the present invention and the FP-CIT uptake ratio calculated using the conventional spatial normalization-based method.

도 6을 참조하면, 도 6에서 X축은 종래의 방법(GT)인 PET를 이용하여 촬영한 이미지에 대해 공간 정규화를 수행하여 구한 정규화된 관심 부피 영역(예컨대, 선조체)에서의 참조 영역(예컨대, 후두엽) 대비 FP-CIT 섭취비(즉, 영역 내 평균 PET 영상 강도의 비율)를 나타내고, Y축은 본 명세서에서 제안하는 방법(DL)으로서, 관심 부피 영역 모델(10)에 PET를 이용하여 촬영한 이미지를 입력함으로써 구한 관심 부피 영역에서의 FP-CIT 섭취비를 나타낸다.Referring to FIG. 6 , in FIG. 6 , the X-axis is a reference region (eg, a striatum) in a normalized volume of interest region (eg, striatum) obtained by performing spatial normalization on an image photographed using a conventional method (GT), PET. occipital lobe) to FP-CIT uptake ratio (that is, the ratio of average PET image intensity within the region), and the Y-axis is the method (DL) proposed in this specification, an image taken using PET in the volume region of interest model 10 represents the FP-CIT uptake ratio in the region of interest obtained by inputting .

또한, 도 6의 (a)는 꼬리핵(Caudate)에서의 FP-CIT 섭취비를 나타내고, 도 6의 (b)는 앞쪽 조가비핵(Ant. Putamen)에서의 FP-CIT 섭취비를 나타내고, 도 6의 (c)는 뒤쪽 조가비핵(Post. Putamen)에서의 FP-CIT 섭취비를 나타내고, 도 6의 (d)는 선조체(Ventral Striatum)에서의 FP-CIT 섭취비를 나타내고, 도 6의 (e)는 후두엽에서의 FP-CIT 섭취비를 나타낸다.In addition, (a) of Figure 6 shows the FP-CIT uptake ratio in the caudate (Caudate), Figure 6 (b) shows the FP-CIT uptake ratio in the anterior clamshell nucleus (Ant. Putamen), Figure 6 (c) shows the FP-CIT uptake ratio in the hind conch nucleus (Post. Putamen), FIG. 6 (d) shows the FP-CIT uptake ratio in the Ventral Striatum, and (e) of FIG. 6 shows the occipital lobe represents the FP-CIT intake ratio in

도 6의 (a) 내지 (e)를 살펴보면, 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)인 관심 부피 영역 모델(10)을 이용하여 구한 FP-CIT 섭취비의 비율과 상관 계수가 각 부위에서 거의 1에 가까우므로, PET 영상에 본 발명의 일 실시예에 따른 관심 부피 영역 추출 방법을 적용하더라도 종래의 방법과 거의 동일한 결과가 나옴을 알 수 있다.6 (a) to (e), the FP-CIT intake ratio obtained using the conventional method (GT) and the FP obtained using the volume region of interest model (10) that is the method (DL) proposed in this specification Since the ratio and correlation coefficient of the -CIT intake ratio are almost 1 at each site, it can be seen that even if the method for extracting the VOI according to an embodiment of the present invention is applied to the PET image, almost the same result as the conventional method is obtained. .

도 7은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 공간 정규화 기반의 방법을 이용하여 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 나타낸다7 shows a Blend-Altman plot of the FP-CIT uptake ratio obtained using the method according to an embodiment of the present invention and the FP-CIT uptake ratio obtained using the conventional spatial normalization-based method.

도 7을 참조하면, 도 7에서 X축은 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)을 이용하여 구한 FP-CIT의 평균을 나타내고, Y축은 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)을 이용하여 구한 FP-CIT 섭취비의 차이를 나타낸다.Referring to FIG. 7 , in FIG. 7 , the X-axis represents the average of the FP-CIT intake ratio obtained using the conventional method (GT) and the FP-CIT obtained using the method (DL) proposed in this specification, and the Y-axis represents the conventional The difference between the FP-CIT intake ratio obtained using the method (GT) of

도 7의 (a) 내지 (d)를 살펴보면, 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)을 이용하여 구한 FP-CIT 섭취비의 차이가 0에 가깝도록 분포하므로, 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)을 이용하여 구한 FP-CIT 섭취비 사이에 높은 상관 관계를 보이며, 종래의 방법의 값의 증가에 따른 유의미한 추세가 없음을 알 수 있다.7 (a) to (d), the difference between the FP-CIT intake ratio obtained using the conventional method (GT) and the FP-CIT intake ratio obtained using the method (DL) proposed in this specification is 0 Since the distribution is close, there is a high correlation between the FP-CIT intake ratio obtained using the conventional method (GT) and the FP-CIT intake ratio obtained using the method (DL) proposed in this specification, and the value of the conventional method It can be seen that there is no significant trend with the increase of

도 8은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 도 6에 병기한 도면이다.8 is a FP-CIT uptake ratio obtained using a method according to an embodiment of the present invention and a method of performing MR-based spatial normalization after matching PET to MR in order to improve the conventional anatomical accuracy. Fig. 6 shows the correlation between the FP-CIT intake ratio.

도 8을 참조하면, 도 8의 붉은색 점은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하여 구한 FP-CIT 섭취비의 상관 관계를 나타내고, 녹색 점은 도 6에서 설명한 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 나타낸다.Referring to FIG. 8 , the red dots in FIG. 8 indicate the FP-CIT intake ratio obtained using the method according to an embodiment of the present invention and the MR-based MR after matching PET to MR in order to improve the conventional anatomical accuracy. The correlation between the FP-CIT intake ratio obtained by performing spatial normalization is shown, and the green dot is the FP-CIT intake ratio obtained using the method according to an embodiment of the present invention described in FIG. 6 and the FP-CIT intake ratio obtained using the conventional method. It shows the correlation of CIT intake ratio.

도 8을 살펴보면, 붉은색 점 또한 녹색 점과 동일하게 x축 값(MR 기반의 종래의 방법을 이용하여 구한 FP-CIT 섭취비)과 y축 값(본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비)의 비율과 상관 계수가 각 부위에서 거의 1에 가까움을 알 수 있다. 따라서, 본 발명의 일 실시예에 따른 관심 부피 영역 추출 방법을 적용하더라도 종래의 해부학적 정확도를 향상시킨 MR을 이용한 방법과 거의 동일한 결과가 나옴을 알 수 있다.Referring to FIG. 8 , the red point also has the same x-axis value (FP-CIT intake ratio obtained using the MR-based conventional method) and the y-axis value (using the method according to an embodiment of the present invention) in the same way as the green point. It can be seen that the ratio of the obtained FP-CIT intake ratio) and the correlation coefficient are almost 1 in each site. Accordingly, it can be seen that, even when the method for extracting the VOI according to the embodiment of the present invention is applied, the results are almost the same as those of the conventional method using MR with improved anatomical accuracy.

도 9는 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법에 의해 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 도 7에 병기한 도면이다.9 is an MR-based space after matching PET to MR in order to improve the conventional anatomical accuracy and the FP-CIT intake ratio obtained using the method according to an embodiment of the present invention. Fig. 7 shows the Blend-Altman plot of the FP-CIT intake ratio obtained by the normalization method.

도 9를 참조하면, 도 9에서 X축은 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법(GT-MR)에 의해 구한 FP-CIT 섭취비와 본 발명의 일 실시예에 따른 방법(DL)을 이용하여 구한 FP-CIT의 평균을 나타내고, Y축은 종래의 MR 기반의 방법(GT-MR)을 이용하여 구한 FP-CIT 섭취비와 본 발명의 일 실시예에 따른 방법(DL)을 이용하여 구한 FP-CIT 섭취비의 차이를 나타낸다.Referring to FIG. 9 , the X-axis in FIG. 9 represents the FP-CIT uptake ratio obtained by the method of performing MR-based spatial normalization (GT-MR) after matching PET to MR in order to improve the conventional anatomical accuracy. An average of FP-CIT obtained using the method (DL) according to an embodiment of the present invention is shown, and the Y-axis is the FP-CIT intake ratio obtained using the conventional MR-based method (GT-MR) and an embodiment of the present invention The difference in the FP-CIT intake ratio obtained using the method (DL) according to the example is shown.

도 9의 붉은색 점은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법(GT-MR)에 의해 구한 FP-CIT 섭취비}의 블랜드-알트먼 플롯을 나타내고, 녹색 점은 도 7에서 설명한 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 방법을 이용하여 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 나타낸다.The red dots in FIG. 9 indicate the FP-CIT uptake ratio obtained using the method according to an embodiment of the present invention and a method of performing MR-based spatial normalization after matching PET to MR in order to improve the conventional anatomical accuracy. A Blend-Altman plot of the FP-CIT uptake ratio obtained by (GT-MR) is shown, and the green dot is the FP-CIT uptake ratio obtained using the method according to an embodiment of the present invention described in FIG. 7 and the conventional method. The Blend-Altman plot of the FP-CIT intake ratio obtained using the

도 9의 (a) 내지 (d)를 살펴보면, 붉은색 점 또한 녹색 점과 동일하게 종래의 MR 기반의 방법(GT-MR)을 이용하여 구한 FP-CIT 섭취비와 본 발명의 일 실시예에 따른 방법(DL)을 이용하여 구한 FP-CIT 섭취비의 차이가 0에 가깝도록 분포함을 확인할 수 있다. 따라서, 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 발명의 일 실시예에 따른 방법(DL)을 이용하여 구한 FP-CIT 섭취비는 높은 상관 관계가 있으며, 종래의 방법의 값의 증가에 따른 유의미한 추세가 없음을 알 수 있다.Referring to (a) to (d) of Fig. 9, the red dot and the green dot are the same as the FP-CIT intake ratio obtained using the conventional MR-based method (GT-MR) according to an embodiment of the present invention. It can be seen that the difference in the FP-CIT intake ratio obtained using the method (DL) is distributed so that it is close to zero. Therefore, there is a high correlation between the FP-CIT intake ratio obtained using the conventional method (GT) and the FP-CIT intake ratio obtained using the method (DL) according to an embodiment of the present invention, and the value of the conventional method It can be seen that there is no significant trend according to the increase.

또한, 붉은색 점은 녹색 점과 거의 동일한 곳에 위치하므로, 본 명세서의 일 실시예에 따른 관심 부피 영역 추출 방법은 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법과 거의 동일한 결과가 나옴을 알 수 있다.In addition, since the red dot is located at almost the same location as the green dot, the method for extracting the VOI according to an embodiment of the present specification matches PET to MR and then MR-based spatial normalization to improve the conventional anatomical accuracy. It can be seen that almost the same result as the method of performing

도 10은 본 발명의 일 실시 예에 따라 관심 부피 영역을 추출하는 방법을 나타내는 흐름도이다.10 is a flowchart illustrating a method of extracting a volume-of-interest region of interest according to an embodiment of the present invention.

도 5 및 도 10을 참조하면, 관심 부피 영역 추출 장치(100)는 인체의 일부를 촬영한 제1 이미지를 수신할 수 있다(S1000).5 and 10 , the apparatus 100 for extracting a volume of interest region may receive a first image obtained by photographing a part of a human body ( S1000 ).

관심 부피 영역 추출 장치(100)는, 인공 신경망(20)을 이용하여, 상기 제1 이미지에서 관심 부피 영역 및 참조 영역을 추출할 수 있다(S1010). 인공 신경망(20)은 인체의 일부에 대한 참조 이미지(REF_IMG)와 함께, 참조 이미지(REF_IMG)를 입력함으로써 출력하고자 결과로서 참조 이미지(REF_IMG)에 대한 관심 부피 영역 및 참조 영역에 대한 정보를 포함하는 관심 부피 영역 이미지(VOI_IMG)를 인공 신경망(20)에 입력함으로써, 학습된 것일 수 있다.The volume-of-interest region extraction apparatus 100 may extract the volume-of-interest region and the reference region from the first image by using the artificial neural network 20 ( S1010 ). The artificial neural network 20 outputs the reference image REF_IMG together with the reference image REF_IMG for a part of the human body, and as a result, includes information on the volume region of interest and the reference region for the reference image REF_IMG. It may be learned by inputting the volume region of interest image VOI_IMG to the artificial neural network 20 .

관심 부피 영역 추출 장치(100)는 상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성할 수 있다(S1020).The VOI extraction apparatus 100 may generate an output image including information on the VOI and information on the reference region (S1020).

본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each block in the block diagram attached to the present invention and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be embodied in the encoding processor of a general purpose computer, special purpose computer, or other programmable data processing equipment, such that the instructions executed by the encoding processor of the computer or other programmable data processing equipment may correspond to each block of the block diagram or Each step of the flowchart creates a means for performing the functions described. These computer program instructions may also be stored in a computer-usable or computer-readable memory which may direct a computer or other programmable data processing equipment to implement a function in a particular way, and thus the computer-usable or computer-readable memory. The instructions stored in the block diagram may also produce an item of manufacture containing instruction means for performing a function described in each block of the block diagram or each step of the flowchart. The computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operational steps are performed on the computer or other programmable data processing equipment to create a computer-executed process to create a computer or other programmable data processing equipment. It is also possible that instructions for performing the processing equipment provide steps for carrying out the functions described in each block of the block diagram and in each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Further, each block or each step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical function(s). It should also be noted that in some alternative embodiments it is also possible for the functions recited in blocks or steps to occur out of order. For example, it is possible that two blocks or steps shown one after another may in fact be performed substantially simultaneously, or that the blocks or steps may sometimes be performed in the reverse order according to the corresponding function.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

10: 관심 부피 영역 추출 모델
20: 인공 신경망
100: 관심 부피 영역 추출 장치
110: 프로세서
120: 송수신기
130: 메모리
10: Volumetric region of interest extraction model
20: artificial neural network
100: volume-of-interest region extraction device
110: processor
120: transceiver
130: memory

Claims (14)

인체의 일부를 촬영한 제1 이미지를 수신하는 단계;
기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하는 단계; 및
상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성하는 단계를 포함하고,
상기 기 학습된 인공 신경망은,
상기 인체의 일부를 촬영한 제2 이미지와 함께, 상기 제2 이미지의 영상 강도를 서로 다른 강도로 변환한 다수의 제3 이미지들을 입력함으로써 학습된 것인,
인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
Receiving a first image of a part of the human body;
extracting a volume-of-interest region and a reference region from the first image by using a pre-trained artificial neural network; and
generating an output image including information on the region of interest and information on the reference region;
The pre-learned artificial neural network,
It is learned by inputting a plurality of third images obtained by converting the image intensity of the second image into different intensities together with the second image of a part of the human body,
A method of extracting a volume region of interest using an artificial neural network.
제1 항에 있어서,
상기 다수의 제3 이미지들 각각은,
상기 제2 이미지에 대한 관심 부피 영역을 포함하는
인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
According to claim 1,
Each of the plurality of third images,
including a volume region of interest for the second image
A method of extracting a volume region of interest using an artificial neural network.
삭제delete 제1 항에 있어서,
상기 다수의 제3 이미지들 각각은 상기 제2 이미지의 영상 강도를 2의 거듭제곱하여 생성되는
인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
According to claim 1,
Each of the plurality of third images is generated by multiplying the image intensity of the second image to a power of two.
A method of extracting a volume region of interest using an artificial neural network.
제1 항에 있어서,
상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되거나 MRI(Magnetic Resonance Imaging)를 이용하여 촬영된
인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
According to claim 1,
The first image is taken by using PET (Positron Emission Tomography) or by using MRI (Magnetic Resonance Imaging).
A method of extracting a volume region of interest using an artificial neural network.
제1 항에 있어서,
상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되었고,
상기 관심 부피 영역은 뇌의 선조체이며, 상기 참조 영역은 뇌의 후두부인
인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
According to claim 1,
The first image was taken using PET (Positron Emission Tomography),
The volume region of interest is the striatum of the brain, and the reference region is the occipital region of the brain
A method of extracting a volume region of interest using an artificial neural network.
기 학습된 인공 신경망을 포함하는 관심 부피 영역 모델에 대한 정보를 저장하는 메모리;
외부의 장치와 정보를 송수신하는 송수신기;
상기 메모리 및 상기 송수신기를 제어하는 프로세서를 포함하고,
상기 프로세서는,
상기 송수신기를 제어하여 인체의 일부를 촬영한 제1 이미지를 수신하고,
상기 기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하고,
상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성하고,
상기 기 학습된 인공 신경망은,
상기 인체의 일부를 촬영한 제2 이미지와 함께, 상기 제2 이미지의 영상 강도를 서로 다른 강도로 변환한 다수의 제3 이미지들을 입력함으로써 학습된 것인,
관심 부피 영역 추출 장치.
a memory for storing information on a volume region of interest model including a pre-trained artificial neural network;
a transceiver for transmitting and receiving information to and from an external device;
a processor for controlling the memory and the transceiver;
The processor is
Controlling the transceiver to receive a first image of a part of the human body,
Extracting a volume-of-interest region and a reference region from the first image using the pre-learned artificial neural network,
generating an output image including information on the region of interest and information on the reference region;
The pre-learned artificial neural network,
It is learned by inputting a plurality of third images obtained by converting the image intensity of the second image into different intensities together with the second image of a part of the human body,
Volumetric region of interest extraction device.
제7 항에 있어서,
상기 다수의 제3 이미지들 각각은,
상기 제2 이미지에 대한 관심 부피 영역을 포함하는
관심 부피 영역 추출 장치.
8. The method of claim 7,
Each of the plurality of third images,
including a volume region of interest for the second image
Volumetric region of interest extraction device.
삭제delete 제7 항에 있어서,
상기 다수의 제3 이미지들 각각은 상기 제2 이미지의 영상 강도를 2의 거듭제곱하여 생성되는
관심 부피 영역 추출 장치.
8. The method of claim 7,
Each of the plurality of third images is generated by multiplying the image intensity of the second image to a power of two.
Volumetric region of interest extraction device.
제7 항에 있어서,
상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되거나 MRI(Magnetic Resonance Imaging)를 이용하여 촬영된
관심 부피 영역 추출 장치.
8. The method of claim 7,
The first image is taken by using PET (Positron Emission Tomography) or by using MRI (Magnetic Resonance Imaging).
Volumetric region of interest extraction device.
제7 항에 있어서,
상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되었고,
상기 관심 부피 영역은 뇌의 선조체이며, 상기 참조 영역은 뇌의 후두부인
관심 부피 영역 추출 장치.
8. The method of claim 7,
The first image was taken using PET (Positron Emission Tomography),
The volume region of interest is the striatum of the brain, and the reference region is the occipital region of the brain
Volumetric region of interest extraction device.
컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
상기 컴퓨터 프로그램은,
제1 항, 제2 항, 제4 항 내지 제6 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 판독 가능한 기록매체.
As a computer-readable recording medium storing a computer program,
The computer program is
A method comprising an instruction for causing a processor to perform the method according to any one of claims 1, 2, 4 to 6
computer readable recording medium.
컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은,
제1 항, 제2 항, 제4 항 내지 제6 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는
컴퓨터 프로그램.
As a computer program stored in a computer-readable recording medium,
The computer program is
A method comprising an instruction for causing a processor to perform the method according to any one of claims 1, 2, 4 to 6
computer program.
KR1020200070577A 2019-08-30 2020-06-10 Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method KR102388204B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190107722 2019-08-30
KR20190107722 2019-08-30

Publications (2)

Publication Number Publication Date
KR20210027057A KR20210027057A (en) 2021-03-10
KR102388204B1 true KR102388204B1 (en) 2022-04-19

Family

ID=75148666

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200070577A KR102388204B1 (en) 2019-08-30 2020-06-10 Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method

Country Status (1)

Country Link
KR (1) KR102388204B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102582731B1 (en) * 2022-09-30 2023-09-25 주식회사 브라이토닉스이미징 Method and system for analyzing brain image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019030410A1 (en) * 2017-08-10 2019-02-14 Aidence B.V Computer-aided diagnostics using deep neural networks
CN109949318A (en) 2019-03-07 2019-06-28 西安电子科技大学 Full convolutional neural networks epileptic focus dividing method based on multi-modal image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742700A (en) * 1995-08-10 1998-04-21 Logicon, Inc. Quantitative dental caries detection system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019030410A1 (en) * 2017-08-10 2019-02-14 Aidence B.V Computer-aided diagnostics using deep neural networks
CN109949318A (en) 2019-03-07 2019-06-28 西安电子科技大学 Full convolutional neural networks epileptic focus dividing method based on multi-modal image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Shorten, C., Khoshgoftaar, T.M. A survey on Image Data Augmentation for Deep Learning. J Big Data 6, 60 (2019).(2019.07.06. 공개)*

Also Published As

Publication number Publication date
KR20210027057A (en) 2021-03-10

Similar Documents

Publication Publication Date Title
Wang et al. 3D auto-context-based locality adaptive multi-modality GANs for PET synthesis
CN108770373B (en) pseudo-CT generation from MR data using a feature regression model
EP3123443B1 (en) Method and device for generating one or more computer tomography images based on magnetic resonance images with the help of tissue class separation
JP2021049424A (en) Pseudo-CT generation from MR data using tissue parameter estimation
US20170072222A1 (en) Method for generating synthetic electron density information for dose calculations based on mri
EP2757955B1 (en) Methods of spatial normalization of positron emission tomography images
JP2014530352A5 (en)
EP3268931A1 (en) Method and apparatus for assessing image registration
JP6469731B2 (en) Optimizing parameters for segmenting images
CN112154342A (en) Medical image conversion
KR102388204B1 (en) Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method
CN114881848A (en) Method for converting multi-sequence MR into CT
KR102222366B1 (en) Method and Device of High Magnetic Field Magnetic Resonance Image Synthesis
Peng et al. Real-Time Markerless Tracking of Lung Tumors Based on 2-D Fluoroscopy Imaging Using Convolutional LSTM
Kang et al. Prediction of standard-dose PET image by low-dose PET and MRI images
KR102586483B1 (en) Medical Image Conversion Method and Device based on Artificial Intelligence
Dovletov et al. Improved MRI-based Pseudo-CT Synthesis via Segmentation Guided Attention Networks.
KR102574761B1 (en) Medical Image Conversion Method and Device with Improved Sharpness
KR102574756B1 (en) Medical Image Conversion Method and Device based on Artificial Intelligence Changing Image Quality
KR102423697B1 (en) System and Method of Generating Spatial Distibution Images of Radiopharmaceuticals using Deep-Learing
KR102574757B1 (en) Medical Image Conversion Method and Device based on Artificial Intelligence In Frequency Domain
US11823399B2 (en) Multi-scan image processing
KR102373370B1 (en) Synthetic ct image generating method for mr image guided radiotherapy and method for setting radiation therapy plan using the same
Mahmood APPLYING DEEP LEARNING TECHNIQUES TO GENERATE MEDICAL IMAGES
KR20230037195A (en) Medical image classification method through image analysis based on machine learning model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant