KR20210027057A - 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치 - Google Patents

인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치 Download PDF

Info

Publication number
KR20210027057A
KR20210027057A KR1020200070577A KR20200070577A KR20210027057A KR 20210027057 A KR20210027057 A KR 20210027057A KR 1020200070577 A KR1020200070577 A KR 1020200070577A KR 20200070577 A KR20200070577 A KR 20200070577A KR 20210027057 A KR20210027057 A KR 20210027057A
Authority
KR
South Korea
Prior art keywords
interest
image
volume
region
neural network
Prior art date
Application number
KR1020200070577A
Other languages
English (en)
Other versions
KR102388204B1 (ko
Inventor
오정수
김재승
오민영
오승준
이상주
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Publication of KR20210027057A publication Critical patent/KR20210027057A/ko
Application granted granted Critical
Publication of KR102388204B1 publication Critical patent/KR102388204B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)

Abstract

본 발명의 일 실시 예에 따른 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법은 인체의 일부를 촬영한 제1 이미지를 수신하는 단계; 기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하는 단계; 및 상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성하는 단계를 포함할 수 있다.

Description

인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치 {METHOD OF EXTRACTING VOLUME OF INTEREST USING ARTIFICIAL NEURAL NETWORK AND VOLUME OF INTEREST EXTRACTION DEVICE PERFORMING METHOD}
본 발명은 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치에 관한 것이다.
고령화 사회가 가속화 되면서 치매, 파킨슨증후군 등 퇴행성 뇌질환 환자군의 숫자가 증가하고 있다. 이에 따라, 도파민 및 아밀로이드 추적을 위한 양전자 방사 단층 촬영법(positron emission tomography, PET) 추적자가 국내 외에서 본격적으로 사용된 지 약 10년이 지나는 동안 임상 진료(routine practice)로서의 정량분석에 대한 요구도가 높아지고 있다.
도파민 PT의 경우, F-18 FP-CIT PET의 정량화를 위해 타깃 관심부피영역인 선조체(앞쪽/뒷쪽 조가비핵, 꼬리핵, 배쪽 선조체) 및 계수 정규화를 위한 참조영역인 후두엽 관심부피영역을 Montreal Neurology Institute (MNI) 표준판(Template) 공간 상에 정의하여 활용하여 왔는데, 이러한 방법의 경우, 공간 정규화(spatial normalization)를 위한 시간적, 비용적 노력과 별도의 공간 정규화 엔진이 필요하므로 기술의 개선을 할 필요가 있다.
본 발명이 해결하고자 하는 과제는, 딥러닝을 이용하여 기학습된 인공 신경망을 이용하여 인체의 일부에 대한 이미지에서 관심 부피 영역을 추출하는 방법을 제공하는 것이다.
다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시 예에 따른 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법은 인체의 일부를 촬영한 제1 이미지를 수신하는 단계; 기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하는 단계; 및 상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성하는 단계를 포함할 수 있다.
상기 기 학습된 인공 신경망은 상기 인체의 일부를 촬영한 제2 이미지와 함께, 상기 제2 이미지에 대한 관심 부피 영역을 포함하는 제3 이미지를 입력함으로써 학습될 수 있다.
상기 기 학습된 인공 신경망은 상기 인체의 일부를 촬영한 제2 이미지와 함께 상기 제2 이미지의 영상 강도를 변환한 하나 이상의 제3 이미지들을 입력함으로써 학습될 수 있다.
상기 하나 이상의 제3 이미지들 각각은 상기 제2 이미지의 영상 강도를 2의 거듭제곱하여 생성될 수 있다.
상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되거나 MRI(Magnetic Resonance Imaging), CT (Computed Tomography) 및 초음파 (Ultrasound sonography) 를 이용하여 촬영될 수 있다.
상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되었고, 상기 관심 부피 영역은 뇌의 선조체이며, 상기 참조 영역은 뇌의 후두부일 수 있다.
본 발명의 다른 실시 예에 따른 관심 부피 영역 추출 장치는, 기 학습된 인공 신경망을 포함하는 관심 부피 영역 모델에 대한 정보를 저장하는 메모리; 외부의 장치와 정보를 송수신하는 송수신기; 및 상기 메모리 및 상기 송수신기를 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 송수신기를 제어하여 인체의 일부를 촬영한 제1 이미지를 수신하고, 상기 기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하고, 상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성할 수 있다.
본 발명의 실시 예에 의하면, 딥러닝을 이용하여 기학습된 인공 신경망을 이용하여 인체의 일부에 대한 이미지에서 관심 부피 영역을 추출함으로써, 공간 정규화 등의 부가적인 과정없이 도파민 운반체 밀도의 정량 분석 등의 작업을 수행할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 관심 부피 영역 추출 모델의 기능을 개념적으로 나타내는 블록도이다.
도 2는 본 발명의 실시 예에 따른 인공 신경망을 학습시키는 방법을 나타낸다.
도 3은 종래의 방법을 이용하여 관심 부피 영역을 추출하는 일 예를 나타낸다.
도 4는 본 발명의 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출한 일 예를 나타낸다.
도 5는 본 발명의 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출하는 관심 부피 영역 추출 장치의 블록도이다.
도 6은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 공간 정규화 기반의 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 나타낸다.
도 7은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 공간 정규화 기반의 방법을 이용하여 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 나타낸다.
도 8은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 도 6에 병기한 도면이다.
도 9는 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법을 이용하여 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 도 7에 병기한 도면이다.
도 10은 본 발명의 일 실시 예에 따라 관심 부피 영역을 추출하는 방법을 나타내는 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른 관심 부피 영역 추출 모델의 기능을 개념적으로 나타내는 블록도이다.
도 1을 참조하면, 관심 부피 영역 추출 모델(10)은 인공 신경망(20)을 포함할 수 있다.
관심 부피 영역 추출 모델(10)은 인체의 일부에 대한 입력 이미지(IN_IMG)를 입력받고, 인공 신경망(20)을 이용하여 관심 부피 영역에 대한 정보 및 참조 영역에 대한 정보를 포함하는 출력 이미지(OUT_IMG)를 생성할 수 있다. 실시 예에 따라, 상기 인체의 일부는 인체의 뇌를 비롯한 기관이나 장기일 수 있다. 실시 예에 따라, 상기 인체의 일부는 공간 정규화를 이용하여 관심 부피 영역을 정의할 수 있는 장기, 기관 등일 수 있다.
본 명세서에서 모델이라 함은 본 명세서에서 설명되는 각각의 명칭에 따른 기능과 동작을 수행할 수 있는 명령어들로 구성된 컴퓨터 프로그램을 의미할 수 있다. 즉, 관심 부피 영역 추출 모델(10)은, 프로세서에 의해 실행되고, 메모리에 저장되는 컴퓨터 프로그램(애플리케이션 소프트웨어)의 일종일 수 있다.
인공 신경망(20)은 딥러닝 방법을 이용하여 기학습된 신경망일 수 있다. 실시 예에 따라, 인공신경망(20)은 합성곱 신경망(Convolutional Neural Network, CNN)일 수 있다. 인공 신경망(20)을 학습시키는 방법에 대해서는 후술할 도 2a 및 도 2b를 통해서 자세하게 설명하기로 한다.
본 명세서에서, 관심 부피 영역(Volume of Interest, VOI)은 입력 이미지(IN_IMG)에서 추출하고 부각시키고자 하는 영역을 의미하고, 참조 영역은 상기 관심 부피 영역에 대비되는 의미로서, 입력 이미지(IN_IMG)에서 부각시키지 않아야 할 영역을 의미할 수 있다. 예컨대, 파킨슨 증후군 의심 환자의 경우, 의심 환자의 뇌 중에서 선조체 영역의 도파민 운반체의 밀도를 분석할 필요가 있다. 따라서, 입력 이미지(IN_IMG)가 파킨슨 증후군 의심 환자의 뇌를 촬영한 F-18 FP-CIT PET인 경우, 입력 이미지(IN_IMG) 중에서 도파민이 검출되는 선조체(앞쪽/뒷쪽 조가비핵, 꼬리핵, 배쪽 선초체 등)는 관심 부피 영역이 되며, 후두엽은 계수 정규화를 위한 참조 영역이 될 수 있다.
실시 예에 따라, 입력 이미지(IN_IMG)는 양전자 단층 촬영(Positron Emission Tomography, PET)을 이용하여 생성된 것일 수 있으며, 자기 공명 영상 진단(Magnetic Resonance Imaging, MRI)을 이용하여 생성된 것일 수도 있다. 실시 예에 따라, 입력 이미지(IN_IMG)는 3차원 이미지일 수 있다.
도 2는 본 발명의 실시 예에 따른 인공 신경망을 학습시키는 방법을 나타낸다.
도 2를 참조하면, 인공 신경망(20)은 인체의 일부에 대한 이미지를 입력 받을 경우, 상기 이미지에서 관심 부피 영역을 추출하고, 상기 이미지의 관심 부피 영역 및 참조 영역에 대한 정보를 포함하는 이미지를 생성하도록 학습될 수 있다.
실시 예에 따라, 인공 신경망(20)은, 지도 학습(Supervised Learning) 방식으로 학습될 수 있다. 인공 신경망(20)은 인체의 일부에 대한 참조 이미지(REF_IMG)와 함께, 참조 이미지(REF_IMG)를 입력함으로써 출력하고자 결과로서, 참조 이미지(REF_IMG)에 대한 관심 부피 영역 및 참조 영역에 대한 정보를 포함하는 관심 부피 영역 이미지(VOI_IMG)를 인공 신경망(20)에 입력함으로써, 학습될 수 있다.
실시 예에 따라, 참조 이미지(REF_IMG)의 영상 강도(intensity)를 달리하는 복수의 이미지들을 인공 신경망(20)에 입력함으로써, 인공 신경망(20)을 학습시킬 수 있다. 예컨대, 영상 강도가 0 ~ 1 의 값을 갖도록 참조 이미지(REF_IMG)를 변환하고, 변환된 참조 이미지(REF_IMG)와 함께, 참조 이미지(REF_IMG)의 영상 강도를 2n 배한 n개(여기서, n은 자연수)의 이미지들을 인공 신경망(20)에 입력함으로써, 인공 신경망(20)은 학습될 수 있다. 다만, 여기서, 입력되는 이미지들의 영상 강도는 1을 넘지 않을 수 있다. 즉, 영상 강도를 2n 배함으로 인하여 영상 강도가 1이 넘는 값들은 1로 변환하여 입력할 수 있다. 예컨대, 참조 이미지(REF_IMG)의 영상 강도가 0 ~ 1 의 값을 갖도록 변환한 제1 이미지를, 상기 제1 이미지에서 영상 강도를 2배한 제2 이미지, 상기 제1 이미지에서 영상 강도를 4배한 제3 이미지 및 상기 제1 이미지에서 영상 강도를 8배한 제4 이미지와 함께 입력함으로써, 인공 신경망(20)은 학습될 수 있다.
이로 인하여, FP-CIT PET와 같이, 관심 부피 영역인 선조체에 비해 참조 영역인 후두엽이 어두운 경우, 후두엽의 영상 강도를 높게 하여 입력함으로써, 인공 신경망(20)이 후두엽을 보다 잘 인식하게 할 수 있다.
도 3은 종래의 방법을 이용하여 관심 부피 영역을 추출하는 일 예를 나타내고, 도 4는 본 발명의 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출한 일 예를 나타낸다.
도 3을 참조하면, 종래의 경우, 인체의 일부를 촬영한 입력 이미지(IN_IMG)가 입력된 경우, 입력 이미지(IN_IMG)에 대해 공간 정규화(spatial normalization)를 수행함으로써 모양이 각기 다른 개별의 이미지를 평균의 이미지로 정규화한 후, 공간 정규화를 수행한 이미지에서 관심 부피 영역을 추출할 수 있었다.
다만, 도 4를 참조하면, 본 발명의 일 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출하는 경우, 인체의 일부를 촬영한 이미지(IN_IMG)를 입력하는 경우, 공간 정규화 과정을 수행하지 않고도 인체 일부를 촬영한 이미지(IN_IMG)에 대한 관심 부피 영역이 추출된 출력 이미지(OUT_IMG)를 생성할 수 있다.
따라서, 본 발명의 일 실시 예에 따른 관심 부피 영역 추출 모델에 의할 경우, 공간 정규화의 부가적인 과정없이 관심 부피 영역을 추출함으로써, 보다 빠른 시간 내에 정확하게 관심 부피 영역을 추출할 수 있다.
도 5는 본 발명의 실시 예에 따른 관심 부피 영역 추출 모델을 이용하여 관심 부피 영역을 추출하는 관심 부피 영역 추출 장치의 블록도이다.
도 5를 참조하면, 관심 부피 영역 추출 장치(100)는 프로세서(110), 송수신기(120) 및 메모리(130)를 포함할 수 있다.
프로세서(110)는 관심 부피 영역 추출 장치(100)의 전반적인 동작을 제어할 수 있다.
프로세서(110)는 송수신기(120)를 이용하여 인체의 일부를 촬영한 입력 이미지(IN_IMG)를 수신할 수 있다. 실시 예에 따라, 입력 이미지(IN_IMG)는 송수신기(120)를 이용하여 수신되지 않고, 관심 부피 영역 추출 장치(100)에 포함된 입력 장치(미도시)를 이용하여 입력될 수도 있다.
프로세서(110)는, 관심 부피 영역 추출 모델(10)을 실행하기 위하여, 관심 부피 영역 추출 모델(10) 및 관심 부피 영역 추출 모델(10)을 실행하기 위해 필요한 정보들을 메모리(130)로부터 로드할 수 있다.
프로세서(110)는, 관심 부피 영역 추출 모델(10)을 실행하여, 입력 이미지(IN_IMG)로부터 관심 부피 영역 및 참조 영역을 추출하고, 관심 부피 영역에 대한 정보 및 참조 영역에 대한 정보를 포함하는 출력 이미지(OUT_IMG)를 생성할 수 있다.
도 6은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 공간 정규화 기반의 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 나타낸다.
도 6을 참조하면, 도 6에서 X축은 종래의 방법(GT)인 PET를 이용하여 촬영한 이미지에 대해 공간 정규화를 수행하여 구한 정규화된 관심 부피 영역(예컨대, 선조체)에서의 참조 영역(예컨대, 후두엽) 대비 FP-CIT 섭취비(즉, 영역 내 평균 PET 영상 강도의 비율)를 나타내고, Y축은 본 명세서에서 제안하는 방법(DL)으로서, 관심 부피 영역 모델(10)에 PET를 이용하여 촬영한 이미지를 입력함으로써 구한 관심 부피 영역에서의 FP-CIT 섭취비를 나타낸다.
또한, 도 6의 (a)는 꼬리핵(Caudate)에서의 FP-CIT 섭취비를 나타내고, 도 6의 (b)는 앞쪽 조가비핵(Ant. Putamen)에서의 FP-CIT 섭취비를 나타내고, 도 6의 (c)는 뒤쪽 조가비핵(Post. Putamen)에서의 FP-CIT 섭취비를 나타내고, 도 6의 (d)는 선조체(Ventral Striatum)에서의 FP-CIT 섭취비를 나타내고, 도 6의 (e)는 후두엽에서의 FP-CIT 섭취비를 나타낸다.
도 6의 (a) 내지 (e)를 살펴보면, 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)인 관심 부피 영역 모델(10)을 이용하여 구한 FP-CIT 섭취비의 비율과 상관 계수가 각 부위에서 거의 1에 가까우므로, PET 영상에 본 발명의 일 실시예에 따른 관심 부피 영역 추출 방법을 적용하더라도 종래의 방법과 거의 동일한 결과가 나옴을 알 수 있다.
도 7은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 공간 정규화 기반의 방법을 이용하여 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 나타낸다
도 7을 참조하면, 도 7에서 X축은 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)을 이용하여 구한 FP-CIT의 평균을 나타내고, Y축은 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)을 이용하여 구한 FP-CIT 섭취비의 차이를 나타낸다.
도 7의 (a) 내지 (d)를 살펴보면, 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)을 이용하여 구한 FP-CIT 섭취비의 차이가 0에 가깝도록 분포하므로, 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 명세서에서 제안하는 방법(DL)을 이용하여 구한 FP-CIT 섭취비 사이에 높은 상관 관계를 보이며, 종래의 방법의 값의 증가에 따른 유의미한 추세가 없음을 알 수 있다.
도 8은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 도 6에 병기한 도면이다.
도 8을 참조하면, 도 8의 붉은색 점은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하여 구한 FP-CIT 섭취비의 상관 관계를 나타내고, 녹색 점은 도 6에서 설명한 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 방법을 이용하여 구한 FP-CIT 섭취비의 상관 관계를 나타낸다.
도 8을 살펴보면, 붉은색 점 또한 녹색 점과 동일하게 x축 값(MR 기반의 종래의 방법을 이용하여 구한 FP-CIT 섭취비)과 y축 값(본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비)의 비율과 상관 계수가 각 부위에서 거의 1에 가까움을 알 수 있다. 따라서, 본 발명의 일 실시예에 따른 관심 부피 영역 추출 방법을 적용하더라도 종래의 해부학적 정확도를 향상시킨 MR을 이용한 방법과 거의 동일한 결과가 나옴을 알 수 있다.
도 9는 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법에 의해 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 도 7에 병기한 도면이다.
도 9를 참조하면, 도 9에서 X축은 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법(GT-MR)에 의해 구한 FP-CIT 섭취비와 본 발명의 일 실시예에 따른 방법(DL)을 이용하여 구한 FP-CIT의 평균을 나타내고, Y축은 종래의 MR 기반의 방법(GT-MR)을 이용하여 구한 FP-CIT 섭취비와 본 발명의 일 실시예에 따른 방법(DL)을 이용하여 구한 FP-CIT 섭취비의 차이를 나타낸다.
도 9의 붉은색 점은 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법(GT-MR)에 의해 구한 FP-CIT 섭취비}의 블랜드-알트먼 플롯을 나타내고, 녹색 점은 도 7에서 설명한 본 발명의 일 실시예에 따른 방법을 이용하여 구한 FP-CIT 섭취비와 종래의 방법을 이용하여 구한 FP-CIT 섭취비의 블랜드-알트먼 플롯을 나타낸다.
도 9의 (a) 내지 (d)를 살펴보면, 붉은색 점 또한 녹색 점과 동일하게 종래의 MR 기반의 방법(GT-MR)을 이용하여 구한 FP-CIT 섭취비와 본 발명의 일 실시예에 따른 방법(DL)을 이용하여 구한 FP-CIT 섭취비의 차이가 0에 가깝도록 분포함을 확인할 수 있다. 따라서, 종래의 방법(GT)을 이용하여 구한 FP-CIT 섭취비와 본 발명의 일 실시예에 따른 방법(DL)을 이용하여 구한 FP-CIT 섭취비는 높은 상관 관계가 있으며, 종래의 방법의 값의 증가에 따른 유의미한 추세가 없음을 알 수 있다.
또한, 붉은색 점은 녹색 점과 거의 동일한 곳에 위치하므로, 본 명세서의 일 실시예에 따른 관심 부피 영역 추출 방법은 종래의 해부학적 정확도를 향상시키기 위해 PET을 MR에 정합시킨 후 MR 기반의 공간 정규화를 수행하는 방법과 거의 동일한 결과가 나옴을 알 수 있다.
도 10은 본 발명의 일 실시 예에 따라 관심 부피 영역을 추출하는 방법을 나타내는 흐름도이다.
도 5 및 도 10을 참조하면, 관심 부피 영역 추출 장치(100)는 인체의 일부를 촬영한 제1 이미지를 수신할 수 있다(S1000).
관심 부피 영역 추출 장치(100)는, 인공 신경망(20)을 이용하여, 상기 제1 이미지에서 관심 부피 영역 및 참조 영역을 추출할 수 있다(S1010). 인공 신경망(20)은 인체의 일부에 대한 참조 이미지(REF_IMG)와 함께, 참조 이미지(REF_IMG)를 입력함으로써 출력하고자 결과로서 참조 이미지(REF_IMG)에 대한 관심 부피 영역 및 참조 영역에 대한 정보를 포함하는 관심 부피 영역 이미지(VOI_IMG)를 인공 신경망(20)에 입력함으로써, 학습된 것일 수 있다.
관심 부피 영역 추출 장치(100)는 상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성할 수 있다(S1020).
본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 관심 부피 영역 추출 모델
20: 인공 신경망
100: 관심 부피 영역 추출 장치
110: 프로세서
120: 송수신기
130: 메모리

Claims (14)

  1. 인체의 일부를 촬영한 제1 이미지를 수신하는 단계;
    기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하는 단계; 및
    상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성하는 단계를 포함하는
    인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
  2. 제1 항에 있어서,
    상기 기 학습된 인공 신경망은,
    상기 인체의 일부를 촬영한 제2 이미지와 함께, 상기 제2 이미지에 대한 관심 부피 영역을 포함하는 제3 이미지를 입력함으로써 학습된
    인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
  3. 제1 항에 있어서,
    상기 기 학습된 인공 신경망은,
    상기 인체의 일부를 촬영한 제2 이미지와 함께 상기 제2 이미지의 영상 강도를 변환한 하나 이상의 제3 이미지들을 입력함으로써 학습된
    인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
  4. 제1 항에 있어서,
    상기 하나 이상의 제3 이미지들 각각은 상기 제2 이미지의 영상 강도를 2의 거듭제곱하여 생성되는
    인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
  5. 제1 항에 있어서,
    상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되거나 MRI(Magnetic Resonance Imaging)를 이용하여 촬영된
    인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
  6. 제1 항에 있어서,
    상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되었고,
    상기 관심 부피 영역은 뇌의 선조체이며, 상기 참조 영역은 뇌의 후두부인
    인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법.
  7. 기 학습된 인공 신경망을 포함하는 관심 부피 영역 모델에 대한 정보를 저장하는 메모리;
    외부의 장치와 정보를 송수신하는 송수신기;
    상기 메모리 및 상기 송수신기를 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 송수신기를 제어하여 인체의 일부를 촬영한 제1 이미지를 수신하고,
    상기 기 학습된 인공 신경망을 이용하여, 상기 제1 이미지로부터, 관심 부피 영역 및 참조 영역을 추출하고,
    상기 관심 부피 영역에 대한 정보 및 상기 참조 영역에 대한 정보를 포함하는 출력 이미지를 생성하는
    관심 부피 영역 추출 장치.
  8. 제7 항에 있어서,
    상기 기 학습된 인공 신경망은,
    상기 인체의 일부를 촬영한 제2 이미지와 함께, 상기 제2 이미지에 대한 관심 부피 영역을 포함하는 제3 이미지를 입력함으로써 학습된
    관심 부피 영역 추출 장치.
  9. 제7 항에 있어서,
    상기 기 학습된 인공 신경망은,
    상기 인체의 일부를 촬영한 제2 이미지와 함께 상기 제2 이미지의 영상 강도를 변환한 하나 이상의 제3 이미지들을 입력함으로써 학습된
    관심 부피 영역 추출 장치.
  10. 제7 항에 있어서,
    상기 하나 이상의 제3 이미지들 각각은 상기 제2 이미지의 영상 강도를 2의 거듭제곱하여 생성되는
    관심 부피 영역 추출 장치.
  11. 제7 항에 있어서,
    상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되거나 MRI(Magnetic Resonance Imaging)를 이용하여 촬영된
    관심 부피 영역 추출 장치.
  12. 제7 항에 있어서,
    상기 제1 이미지는 PET(Positron Emission Tomography)를 이용하여 촬영되었고,
    상기 관심 부피 영역은 뇌의 선조체이며, 상기 참조 영역은 뇌의 후두부인
    관심 부피 영역 추출 장치.
  13. 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
    상기 컴퓨터 프로그램은,
    제1 항 내지 제6 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는
    컴퓨터 판독 가능한 기록매체.
  14. 컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은,
    제1 항 내지 제6 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는
    컴퓨터 프로그램.
KR1020200070577A 2019-08-30 2020-06-10 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치 KR102388204B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190107722 2019-08-30
KR20190107722 2019-08-30

Publications (2)

Publication Number Publication Date
KR20210027057A true KR20210027057A (ko) 2021-03-10
KR102388204B1 KR102388204B1 (ko) 2022-04-19

Family

ID=75148666

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200070577A KR102388204B1 (ko) 2019-08-30 2020-06-10 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치

Country Status (1)

Country Link
KR (1) KR102388204B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102582731B1 (ko) * 2022-09-30 2023-09-25 주식회사 브라이토닉스이미징 뇌영상 분석 방법 및 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11510419A (ja) * 1995-08-10 1999-09-14 ロジコン インコーポレイテッド 定量的の歯科カリエス検査システムおよびその方法
WO2019030410A1 (en) * 2017-08-10 2019-02-14 Aidence B.V COMPUTER-AIDED DIAGNOSIS USING DEEP NEURAL NETWORKS
CN109949318A (zh) * 2019-03-07 2019-06-28 西安电子科技大学 基于多模态影像的全卷积神经网络癫痫病灶分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11510419A (ja) * 1995-08-10 1999-09-14 ロジコン インコーポレイテッド 定量的の歯科カリエス検査システムおよびその方法
WO2019030410A1 (en) * 2017-08-10 2019-02-14 Aidence B.V COMPUTER-AIDED DIAGNOSIS USING DEEP NEURAL NETWORKS
CN109949318A (zh) * 2019-03-07 2019-06-28 西安电子科技大学 基于多模态影像的全卷积神经网络癫痫病灶分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Shorten, C., Khoshgoftaar, T.M. A survey on Image Data Augmentation for Deep Learning. J Big Data 6, 60 (2019).(2019.07.06. 공개)* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102582731B1 (ko) * 2022-09-30 2023-09-25 주식회사 브라이토닉스이미징 뇌영상 분석 방법 및 시스템

Also Published As

Publication number Publication date
KR102388204B1 (ko) 2022-04-19

Similar Documents

Publication Publication Date Title
Wang et al. 3D auto-context-based locality adaptive multi-modality GANs for PET synthesis
CN109938764B (zh) 一种基于深度学习的自适应多部位扫描成像方法及其系统
CN108770373B (zh) 使用特征回归模型根据mr数据的伪ct生成
JP2021049424A (ja) 組織パラメータ推定を用いたmrデータからの疑似ct生成
US10149987B2 (en) Method and system for generating synthetic electron density information for dose calculations based on MRI
US20180174298A1 (en) Method and device for generating one or more computer tomography images based on magnetic resonance images with the help of tissue class separation
US10311603B2 (en) Correcting positron emission tomography image attenuation
JP2016513486A (ja) スキャン範囲決定装置
CN112154342A (zh) 医学图像转换
EP3155589B1 (en) Optimization of parameters for segmenting an image
JP2014530352A5 (ko)
JP2014530352A (ja) 陽電子放射断層撮影画像の空間標準化方法
US20160327622A1 (en) Joint reconstruction of activity and attenuation in emission tomography using magnetic-resonance-based priors
CN111340903A (zh) 基于非衰减校正pet图像生成合成pet-ct图像的方法和系统
CN114881848A (zh) 一种多序列mr转ct的方法
KR102388204B1 (ko) 인공 신경망을 이용하여 관심 부피 영역을 추출하는 방법 및 상기 방법을 수행하는 관심 부피 영역 추출 장치
WO2024111917A1 (ko) 선명성을 향상시킨 의료영상 변환방법 및 그 장치
KR102586483B1 (ko) 인공지능에 의한 의료영상 변환방법 및 그 장치
Lei et al. Generative adversarial network for image synthesis
KR102222366B1 (ko) 딥러닝 기반 고자기장 자기공명영상 합성 방법 및 장치
KR102574756B1 (ko) 화질 전환을 이용한 인공지능에 의한 의료영상 변환방법 및 그 장치
KR102574757B1 (ko) 주파수 영역에서 인공지능에 의한 의료영상 변환방법 및 그 장치
CN104586416B (zh) 衰减图及正电子发射断层图像生成方法和装置
Gupta et al. Analysis and comparison of brain tumor detection and extraction techniques from MRI images
Dovletov et al. Improved MRI-based Pseudo-CT Synthesis via Segmentation Guided Attention Networks.

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant