KR102582731B1 - Method and system for analyzing brain image - Google Patents

Method and system for analyzing brain image Download PDF

Info

Publication number
KR102582731B1
KR102582731B1 KR1020220125467A KR20220125467A KR102582731B1 KR 102582731 B1 KR102582731 B1 KR 102582731B1 KR 1020220125467 A KR1020220125467 A KR 1020220125467A KR 20220125467 A KR20220125467 A KR 20220125467A KR 102582731 B1 KR102582731 B1 KR 102582731B1
Authority
KR
South Korea
Prior art keywords
region
machine learning
brain
learning model
interest
Prior art date
Application number
KR1020220125467A
Other languages
Korean (ko)
Inventor
이재성
강승관
신성아
Original Assignee
주식회사 브라이토닉스이미징
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브라이토닉스이미징 filed Critical 주식회사 브라이토닉스이미징
Priority to KR1020220125467A priority Critical patent/KR102582731B1/en
Application granted granted Critical
Publication of KR102582731B1 publication Critical patent/KR102582731B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Software Systems (AREA)
  • Dentistry (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Neurology (AREA)
  • Quality & Reliability (AREA)
  • Neurosurgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 개시는 적어도 하나의 프로세서에 의해 수행되는 뇌영상 분석 방법이 제공된다. 이 방법은 도파민 신경계를 포함하는 뇌영상을 획득하는 단계 및 획득된 뇌영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하는 단계를 포함하고, 제1 기계학습 모델은, 뇌영상의 전체 영역으로부터 도파민 신경계와 연관된 관심 영역을 추출할 수 있다. The present disclosure provides a brain image analysis method performed by at least one processor. This method includes acquiring a brain image including the dopaminergic nervous system and inputting the obtained brain image into a first machine learning model to obtain a region of interest extracted by the first machine learning model, Machine learning models can extract regions of interest associated with the dopaminergic nervous system from the entire brain image.

Description

뇌영상 분석 방법 및 시스템{METHOD AND SYSTEM FOR ANALYZING BRAIN IMAGE}Brain image analysis method and system {METHOD AND SYSTEM FOR ANALYZING BRAIN IMAGE}

본 개시는 뇌영상 분석 방법 및 시스템에 관한 것으로, 구체적으로, 기계학습 모델을 이용하여 도파민 신경계와 연관된 뇌영상을 분석하는 방법 및 시스템에 관한 것이다.The present disclosure relates to a method and system for analyzing brain images, and specifically, to a method and system for analyzing brain images associated with the dopaminergic nervous system using a machine learning model.

도파민은 뇌신경 세포들 간에 신호를 전달하기 위해 분비되는 신경전달물질 중에 하나로 뇌와 신장 등에서 합성되는 전구물질인 L-DOPA로부터 카르복시기(carboxyl group)을 제거함으로써 생성된다. 도파민은 두뇌의 많은 기능에 관여하며 행동과 인식, 자발적인 움직임, 동기 부여, 처벌과 보상, 프로락틴 생산의 억제, 수면, 기분, 주의, 작업 기억, 학습 등과 관련이 깊다. 또한, 도파민은 뇌의 기저핵에 작용하여 우리가 원하는 대로 몸을 정교하게 움직일 수 있도록 하는 중요한 역할을 한다.Dopamine is one of the neurotransmitters secreted to transmit signals between brain nerve cells and is produced by removing the carboxyl group from L-DOPA, a precursor synthesized in the brain and kidneys. Dopamine is involved in many functions of the brain and is closely related to behavior and cognition, voluntary movement, motivation, punishment and reward, inhibition of prolactin production, sleep, mood, attention, working memory, and learning. In addition, dopamine acts on the basal ganglia of the brain and plays an important role in allowing us to move our bodies precisely as we want.

도파민을 분비하는 뉴런들은 중뇌(midbrain)의 복측피개영역(ventral tegmental area), 흑질(substantia nigra), 시상하부 활꼴핵(arcuate nucleus of hypothalamus) 등에 위치하는데, 이 중 흑질에서는 선조체로의 도파민 신경지배를 하며 이를 흑질-선조체 경로(nigrostriatal pathway)라고 부른다.Neurons that secrete dopamine are located in the ventral tegmental area of the midbrain, the substantia nigra, and the arcuate nucleus of the hypothalamus. Among these, the substantia nigra provides dopamine innervation to the striatum. This is called the nigrostriatal pathway.

도파민을 분비하는 뉴런에서는 티로신(tyrosine)으로부터 L-DOPA를 합성하고, 다시 L-DOPA로부터 도파민을 생성한다. 이렇게 생성된 도파민은 소포성 모노아민 수송체(vesicular monoamine transporter)에 의한 시냅스 주머니(synaptic vesicle)로 이동하여 축삭 말단(axon terminal)에 저장된다. 뉴런의 활동전압(action potential)이 축삭 말단에 도달하면, 시냅스 주머니 있던 도파민이 시냅스 틈(synaptic cleft)으로 유리되며 시냅스 이후 세포막(postsynaptic membrane)에 발현된 도파민 수용체(dopamine receptor)에 결합하여 작용한다. 도파민 수용체에 결합하지 않고 시냅스 틈에 남아 있는 도파민은 도파민 수송체(dopamine transporter)에 의해 다시 축삭 말단으로 재흡수되기도 하며, 모노아민산효소(monoamine oxidase, MAO)에 의해 분해되기도 한다.Neurons that secrete dopamine synthesize L-DOPA from tyrosine and then produce dopamine from L-DOPA. The dopamine produced in this way moves to the synaptic vesicle by the vesicular monoamine transporter and is stored in the axon terminal. When the action potential of the neuron reaches the axon terminal, dopamine in the synaptic pocket is released into the synaptic cleft and acts by binding to the dopamine receptor expressed on the postsynaptic membrane. . Dopamine remaining in the synaptic gap without binding to the dopamine receptor is reabsorbed back into the axon terminal by the dopamine transporter, and is also decomposed by monoamine oxidase (MAO).

파킨슨병은 손떨림, 서동(행동이 느려짐), 경직(근육이 뻣뻣해짐), 상체가 앞으로 기움, 자세 불안정과 같은 운동증상과 우울, 불안, 무감동, 충동 조절 장애, 환시, 정신증 등의 신경 정신 질환, 인지기능 저하, 자율신경계 이상, 수면 장애, 배뇨 장애, 감각 이상과 같은 비운동 증상을 특징으로 하는 신경과 영역의 대표적인 퇴행성 질환이다.Parkinson's disease is characterized by motor symptoms such as hand tremors, bradykinesia (slow movement), rigidity (stiff muscles), upper body leaning forward, and postural instability, as well as neuropsychiatric diseases such as depression, anxiety, apathy, impulse control disorders, hallucinations, and psychosis. , is a representative degenerative disease in the field of neurology characterized by non-motor symptoms such as cognitive decline, autonomic nervous system abnormalities, sleep disorders, urinary disorders, and sensory abnormalities.

파킨슨병의 특징은 흑질의 도파민 신경세포가 원인을 알 수 없는 소실로, 선조체의 도파민이 감소하는 것이다. 파킨슨병의 증상은 흑질의 도파민 신경이 60~80% 정도 소실된 후에 명확하게 나타나며, 방사성동위원소를 이용한 의료영상 검사인 양전자방출단층촬영(positron emission tomography, PET)이나 단일광자방출단층촬영(single-photon emission computed tomography, SPECT)를 이용하여 파킨슨 환자에서 흑질-선조체 경로의 유지 정도를 판단할 수 있다.A characteristic of Parkinson's disease is the unexplained loss of dopamine neurons in the substantia nigra, resulting in a decrease in dopamine in the striatum. Symptoms of Parkinson's disease clearly appear after about 60-80% of the dopaminergic nerves in the substantia nigra are lost, and can be diagnosed through positron emission tomography (PET), a medical imaging test using radioisotopes, or single photon emission tomography (Single Photon Emission Tomography). -Photon emission computed tomography (SPECT) can be used to determine the degree of maintenance of the nigra-striatal pathway in Parkinson's patients.

도파민 신경계에 대한 PET이나 SPECT 영상 검사는 방사성의약품이 특이적 결합을 하는 선조체 등의 특정 영역만 영상 화소 값이 두드러지게 높고, 다른 뇌 영역에서 화소 값이 낮아 뇌의 구조를 정확히 알기 어렵다. 또한 도파민 신경계 이상으로 선조체의 방사성의약품 섭취(uptake)가 낮은 경우 선조체 영역의 구별과 분할이 더욱 어려워진다. In PET or SPECT imaging tests for the dopaminergic nervous system, the image pixel value is noticeably high in certain areas such as the striatum, where radiopharmaceuticals specifically bind, and the pixel value is low in other brain areas, making it difficult to accurately determine the structure of the brain. Additionally, if the uptake of radiopharmaceuticals in the striatum is low due to abnormalities in the dopaminergic nervous system, distinction and division of the striatal region becomes more difficult.

이에 따라, 종래에는 PET이나 SPECT 영상 위에 수동으로(manually) 관심 영역(region of interest, ROI)을 그려 선조체 및 다른 뇌영역의 화소 값을 추출하고 이를 통해 방사성의약품 섭취 정도를 알아내는 방법을 사용하였다. 또는, 자기공명영상(magnetic resonance imaging, MRI)이나 컴퓨터단층촬영(computed tomography, CT)의 해부학적 정보를 이용하여 선조체 등 도파민 신경계 영역을 관심 영역으로 정의한 후 이를 PET, SPECT 영상 위로 복사하여 화소 값을 추출하였다.Accordingly, in the past, a method was used to manually draw a region of interest (ROI) on a PET or SPECT image, extract pixel values of the striatum and other brain regions, and determine the level of radiopharmaceutical intake through this. . Alternatively, use anatomical information from magnetic resonance imaging (MRI) or computed tomography (CT) to define the dopaminergic nervous system region, such as the striatum, as a region of interest, and then copy this onto the PET or SPECT image to determine the pixel value. was extracted.

하지만, PET 및 SPECT 영상위에 직접 수동으로 관심 영역을 그리는 방법은 시간이 오래 걸리고 번거로우며, 관심 영역을 그리는 작업자에 따라 관심 영역의 위치, 모양, 크기 등이 다르고 이에 따라 추출된 화소 값이 달라진다는 한계가 있었다. 또한, MRI나 CT를 이용하는 방법은 추가적인 검사 및 영상이 필요하고, MRI(또는 CT)와 PET(또는 SPECT) 촬영 사이의 환자 움직임 등에 의한 영상 간의 공간 불일치 등이 발생할 수 있다. 이러한 공간 불일치는 MRI 또는 CT에서 정의한 관심 영역을 복사하여 추출한 PET 또는 SPECT 영상에 포함된 화소 값의 오류를 유발할 수 있다.However, the method of manually drawing the region of interest directly on PET and SPECT images is time-consuming and cumbersome, and the location, shape, and size of the region of interest differ depending on the operator drawing the region of interest, and the extracted pixel values vary accordingly. There were limits. In addition, methods using MRI or CT require additional tests and images, and spatial discrepancies between images may occur due to patient movement between MRI (or CT) and PET (or SPECT) imaging. This spatial inconsistency may cause errors in pixel values contained in PET or SPECT images extracted by copying the region of interest defined by MRI or CT.

이에 따라, MRI 또는 CT의 도움 없이 도파민 신경계 PET 또는 SPECT 영상에서 선조체를 포함한 국소 뇌영역의 화소 값을 자동으로 추출하는 방법이 필요하다.Accordingly, there is a need for a method to automatically extract pixel values of local brain regions, including the striatum, from dopaminergic nervous system PET or SPECT images without the help of MRI or CT.

본 개시는 상기와 같은 문제점을 해결하기 위한 뇌영상 분석 방법, 기록매체에 저장된 컴퓨터 프로그램 및 장치(시스템)를 제공한다.The present disclosure provides a brain image analysis method, a computer program stored in a recording medium, and a device (system) to solve the above problems.

본 개시는 방법, 장치(시스템) 및/또는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램, 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 포함한 다양한 방식으로 구현될 수 있다.The present disclosure may be implemented in various ways, including a method, a device (system), and/or a computer program stored in a computer-readable storage medium, and a computer-readable storage medium storing the computer program.

본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 뇌영상 분석 방법은, 도파민 신경계를 포함하는 뇌영상을 획득하는 단계 및 획득된 뇌영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하는 단계를 포함하고, 제1 기계학습 모델은, 뇌영상의 전체 영역으로부터 도파민 신경계와 연관된 관심 영역을 추출할 수 있다. According to an embodiment of the present disclosure, a brain image analysis method performed by at least one processor includes acquiring a brain image including a dopaminergic nervous system and inputting the acquired brain image into a first machine learning model, 1 A step of obtaining a region of interest extracted by a machine learning model, wherein the first machine learning model can extract a region of interest associated with the dopaminergic nervous system from the entire region of the brain image.

또한, 제1 기계학습 모델은, 뇌 템플릿에 기초하여 뇌영상을 변형하고, 변형된 뇌영상의 전체 영역으로부터 관심 영역을 추출할 수 있다. Additionally, the first machine learning model can transform a brain image based on a brain template and extract a region of interest from the entire region of the transformed brain image.

또한, 뇌 템플릿의 크기 또는 형태 중 적어도 하나에 기초하여, 뇌영상의 크기 또는 형태 중 적어도 하나가 변형될 수 있다. Additionally, based on at least one of the size or shape of the brain template, at least one of the size or shape of the brain image may be modified.

또한, 제1 기계학습 모델은, 뇌 템플릿에 포함된 관심 공간 정보에 기초하여, 변형된 뇌영상의 전체 영역으로부터 관심 영역을 추출할 수 있다. Additionally, the first machine learning model can extract a region of interest from the entire area of the transformed brain image based on space of interest information included in the brain template.

또한, 추출된 관심 영역을 획득하는 단계는, 성별, 나이, 뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함하는 사용자 정보를 제1 기계학습 모델로 추가적으로 입력하는 단계를 포함하고, 제1 기계학습 모델은, 사용자 정보에 기초하여 뇌영상의 전체 영역에서 관심 영역의 위치와 크기를 결정할 수 있다. In addition, the step of obtaining the extracted region of interest includes additionally inputting user information including at least one of gender, age, family history of brain disease, or disease of the user into the first machine learning model, and the first machine learning model The model can determine the location and size of the region of interest in the entire brain image area based on user information.

또한, 뇌영상 분석 방법은, 뇌영상을 획득하는 단계 이전에, 학습용 사용자 정보, 학습용 뇌영상 및 레퍼런스 영역을 포함하는 트레이닝셋에 이용하여 제1 기계학습 모델에 대한 학습을 수행하는 단계를 더 포함하고, 제1 기계학습 모델은, 학습용 사용자 정보와 학습용 뇌영상을 기초로 출력된 관심 영역과 레퍼런스 영역 간의 손실이 최소화되도록 학습될 수 있다. In addition, the brain image analysis method further includes the step of performing learning on a first machine learning model using a training set including user information for learning, brain images for learning, and a reference region before acquiring the brain image. And, the first machine learning model can be trained to minimize loss between the region of interest and the reference region output based on user information for learning and brain images for learning.

또한, 뇌영상 분석 방법은, 관심 영역을 획득하는 단계 이후에, 관심 영역에 대한 특징 정보를 제2 기계학습 모델에 입력하여, 제2 기계학습 모델로부터 뇌질병 발병 여부에 대한 정보 또는 뇌질병 진행 정도 중 적어도 하나를 획득하는 단계를 더 포함하고, 제2 기계학습 모델은, 관심 영역의 특징 정보에 기초하여 뇌질병을 판정할 수 있다. In addition, in the brain image analysis method, after the step of acquiring the region of interest, characteristic information about the region of interest is input into a second machine learning model, and from the second machine learning model, information about the occurrence of brain disease or progression of brain disease is obtained. It may further include obtaining at least one of the degrees, and the second machine learning model may determine brain disease based on feature information of the region of interest.

또한, 관심 영역에 대한 특징 정보는, 관심 영역의 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 관심 영역에 포함된 제1 영역과 제2 영역 간의 비율 중 적어도 하나를 포함할 수 있다. Additionally, the feature information about the region of interest may include at least one of the maximum pixel value, minimum pixel value, average pixel value or pixel distribution value, the range of pixel values, or the ratio between the first and second regions included in the region of interest. It can contain one.

또한, 제1 영역은 관심 영역에 포함된 제1 선조체과 연관되고, 제2 영역은 관심 영역에 포함된 제2 선조체와 연관될 수 있다. Additionally, the first region may be associated with the first striatum included in the region of interest, and the second region may be associated with the second striatum included in the region of interest.

상술한 뇌영상 분석 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다. In order to execute the above-described brain image analysis method on a computer, a computer program stored in a computer-readable recording medium may be provided.

본 개시의 일 실시예에 따르면, 정보 처리 시스템은, 메모리 및 메모리와 연결되고, 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로그램은, 도파민 신경계를 포함하는 뇌영상을 획득하고, 획득된 뇌영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하기 위한 명령어들을 포함하고, 제1 기계학습 모델은 뇌영상의 전체 영역에서 도파민 신경계와 연관된 관심 영역을 추출할 수 있다. According to one embodiment of the present disclosure, an information processing system includes a memory and at least one processor connected to the memory and configured to execute at least one computer-readable program included in the memory, and the at least one program includes, Contains instructions for acquiring a brain image including the dopaminergic nervous system, inputting the acquired brain image into a first machine learning model, and obtaining a region of interest extracted by the first machine learning model, and a first machine learning model. can extract regions of interest associated with the dopaminergic nervous system from the entire area of the brain image.

본 개시의 일부 실시예에 따르면, MRI나 CT 영상이 결합되지 않은 뇌영상으로부터 관심 영역을 정확하게 추출할 수 있다. 획득된 관심 영역에 대한 특징 정보에 기초하여 뇌질병을 판정하거나, 뇌질병의 진행 정보가 정확하게 판정될 수 있다. According to some embodiments of the present disclosure, a region of interest can be accurately extracted from a brain image that is not combined with an MRI or CT image. Brain disease can be determined based on the acquired characteristic information about the region of interest, or brain disease progression information can be accurately determined.

본 개시의 일부 실시예에 따르면, MRI나 CT가 결합되어 있지 않은 단독 뇌영상으로부터 관심 영역에 대한 특징 정보가 획득될 수 있으므로, PET/MRI, PET/CT와 같은 고가의 융합 영상기기 사용이 필요하지 않고, 더불어 뇌질병을 판명하는 데까지 비용이 절감되고 속도가 향상될 수 있다. According to some embodiments of the present disclosure, feature information about the region of interest can be obtained from a single brain image that is not combined with MRI or CT, so the use of expensive fusion imaging devices such as PET/MRI or PET/CT is necessary. In addition, costs can be reduced and speed can be improved in diagnosing brain diseases.

본 개시의 일부 실시예에 따르면, 기계학습 모델을 이용하여 뇌영상에 포함된 적어도 하나의 관심 영역이 추출되기 때문에, 조작 미숙으로 발생하는 영상 정량화 에러가 최소화될 수 있고, 더불어 뇌영상 분석에 대한 정확성도 향상될 수 있다.According to some embodiments of the present disclosure, since at least one region of interest included in a brain image is extracted using a machine learning model, image quantification errors resulting from poor manipulation can be minimized, and in addition, it is possible to minimize the error in brain image analysis. Accuracy can also be improved.

본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자('통상의 기술자'라 함)에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are clear to a person skilled in the art (referred to as a ‘person skilled in the art’) in the technical field to which this disclosure pertains from the description of the claims. It will be understandable.

본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따른 정보 처리 시스템이 촬영 장치 및 사용자 단말 각각과 통신 가능하도록 연결된 구성을 나타내는 개요도이다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템의 내부 구성을 나타내는 블록도이다.
도 3은 본 개시의 일 실시예에 따른 정보 처리 시스템에 포함된 프로세서의 내부 구성을 나타내는 블록도이다.
도 4는 본 개시의 일 실시예에 따른 제1 기계학습 모델을 통해 출력되는 데이터를 예시하는 도면이다.
도 5는 본 개시의 일 실시예에 따른, 제1 기계학습 모델이 학습되는 과정을 예시하는 도면이다.
도 6은 제1 기계학습 모델로 입력된 제1 뇌영상과 제1 기계학습 모델로부터 출력된 제2 뇌영상에 대한 예시를 나타내는 도면이다.
도 7은 제1 기계학습 모델로 입력된 제3 뇌영상과 제1 기계학습 모델로부터 출력된 제4 뇌영상에 대한 예시를 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따른, 제2 기계학습 모델을 통해 출력되는 데이터를 예시하는 도면이다.
도 9는 본 개시의 일 실시예에 따른, 제2 기계학습 모델이 학습되는 과정을 예시하는 도면이다.
도 10은 제2 기계학습 모델로 입력된 제5 뇌영상과 제2 기계학습 모델로부터 출력된 제1 관심 영역에 대한 예시를 나타내는 도면이다.
도 11은 제2 기계학습 모델로 입력된 제6 뇌영상과 제2 기계학습 모델로부터 출력된 제2 관심 영역에 대한 예시를 나타내는 도면이다.
도 12는 본 개시의 일 실시예에 따른, 제3 기계학습 모델을 통해 출력되는 데이터를 예시하는 도면이다.
도 13은 본 개시의 일 실시예에 따른, 제3 기계학습 모델이 학습되는 과정을 예시하는 도면이다.
도 14는 본 개시의 일 실시예에 따른, 인공신경망을 포함하는 기계학습 모델의 예시를 나타내는 도면이다.
도 15는 MRI/PET 결합 방식으로 얻은 우측 기저핵의 평균 화소 값과 본 개시의 실시예에 따라 획득한 우측 기저핵의 평균 화소 값을 비교한 그래프이다
도 16은 본 개시의 일 실시예에 따른, 뇌영상 분석 방법을 설명하기 위한 흐름도이다.
Embodiments of the present disclosure will be described with reference to the accompanying drawings described below, in which like reference numerals indicate like elements, but are not limited thereto.
1 is a schematic diagram showing a configuration in which an information processing system according to an embodiment of the present disclosure is connected to communicate with each of a photographing device and a user terminal.
Figure 2 is a block diagram showing the internal configuration of an information processing system according to an embodiment of the present disclosure.
Figure 3 is a block diagram showing the internal configuration of a processor included in an information processing system according to an embodiment of the present disclosure.
Figure 4 is a diagram illustrating data output through a first machine learning model according to an embodiment of the present disclosure.
Figure 5 is a diagram illustrating a process in which a first machine learning model is learned, according to an embodiment of the present disclosure.
Figure 6 is a diagram showing an example of a first brain image input to a first machine learning model and a second brain image output from the first machine learning model.
Figure 7 is a diagram showing an example of a third brain image input to the first machine learning model and a fourth brain image output from the first machine learning model.
Figure 8 is a diagram illustrating data output through a second machine learning model according to an embodiment of the present disclosure.
Figure 9 is a diagram illustrating a process in which a second machine learning model is learned, according to an embodiment of the present disclosure.
Figure 10 is a diagram showing an example of a fifth brain image input to a second machine learning model and a first region of interest output from the second machine learning model.
Figure 11 is a diagram showing an example of a sixth brain image input to a second machine learning model and a second region of interest output from the second machine learning model.
Figure 12 is a diagram illustrating data output through a third machine learning model according to an embodiment of the present disclosure.
Figure 13 is a diagram illustrating a process in which a third machine learning model is learned, according to an embodiment of the present disclosure.
FIG. 14 is a diagram illustrating an example of a machine learning model including an artificial neural network, according to an embodiment of the present disclosure.
Figure 15 is a graph comparing the average pixel value of the right basal ganglia obtained by a combined MRI/PET method with the average pixel value of the right basal ganglia obtained according to an embodiment of the present disclosure.
Figure 16 is a flowchart for explaining a brain image analysis method according to an embodiment of the present disclosure.

이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, specific details for implementing the present disclosure will be described in detail with reference to the attached drawings. However, in the following description, detailed descriptions of well-known functions or configurations will be omitted if there is a risk of unnecessarily obscuring the gist of the present disclosure.

첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.In the accompanying drawings, identical or corresponding components are given the same reference numerals. Additionally, in the description of the following embodiments, overlapping descriptions of identical or corresponding components may be omitted. However, even if descriptions of components are omitted, it is not intended that such components are not included in any embodiment.

개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments and methods for achieving them will become clear by referring to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the present disclosure is complete and that the present disclosure does not convey the scope of the invention to those skilled in the art. It is provided only for complete information.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail. The terms used in this specification are general terms that are currently widely used as much as possible while considering the function in the present disclosure, but this may vary depending on the intention or precedent of a technician working in the related field, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Accordingly, the terms used in this disclosure should be defined based on the meaning of the term and the overall content of the present disclosure, rather than simply the name of the term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.In this specification, singular expressions include plural expressions, unless the context clearly specifies the singular. Additionally, plural expressions include singular expressions, unless the context clearly specifies plural expressions. When it is said that a certain part includes a certain element throughout the specification, this does not mean excluding other elements, but may further include other elements, unless specifically stated to the contrary.

또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만, '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.Additionally, the term 'module' or 'unit' used in the specification refers to a software or hardware component, and the 'module' or 'unit' performs certain roles. However, 'module' or 'unit' is not limited to software or hardware. A 'module' or 'unit' may be configured to reside on an addressable storage medium and may be configured to run on one or more processors. Thus, as an example, a 'module' or 'part' refers to components such as software components, object-oriented software components, class components and task components, processes, functions and properties. , procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, or variables. Components and 'modules' or 'parts' may be combined into smaller components and 'modules' or 'parts' or further components and 'modules' or 'parts'. Could be further separated.

본 개시의 일 실시예에 따르면, '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.According to an embodiment of the present disclosure, a 'module' or 'unit' may be implemented with a processor and memory. 'Processor' should be interpreted broadly to include general-purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, etc. In some contexts, 'processor' may refer to an application-specific integrated circuit (ASIC), programmable logic device (PLD), field programmable gate array (FPGA), etc. 'Processor' refers to a combination of processing devices, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such combination of configurations. You may. Additionally, 'memory' should be interpreted broadly to include any electronic component capable of storing electronic information. 'Memory' refers to random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erasable-programmable read-only memory (EPROM), May also refer to various types of processor-readable media, such as electrically erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, etc. A memory is said to be in electronic communication with a processor if the processor can read information from and/or write information to the memory. The memory integrated into the processor is in electronic communication with the processor.

본 개시에서, '시스템'은 서버 장치와 클라우드 장치 중 적어도 하나의 장치를 포함할 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 시스템은 하나 이상의 서버 장치로 구성될 수 있다. 다른 예로서, 시스템은 하나 이상의 클라우드 장치로 구성될 수 있다. 또 다른 예로서, 시스템은 서버 장치와 클라우드 장치가 함께 구성되어 동작될 수 있다.In the present disclosure, 'system' may include at least one of a server device and a cloud device, but is not limited thereto. For example, a system may consist of one or more server devices. As another example, a system may consist of one or more cloud devices. As another example, the system may be operated with a server device and a cloud device configured together.

또한, 이하의 실시예들에서 사용되는 제1, 제2, A, B, (a), (b) 등의 용어는 어떤 구성요소를 다른 구성요소와 구별하기 위해 사용되는 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지는 않는다.In addition, terms such as first, second, A, B, (a), (b) used in the following embodiments are only used to distinguish one component from another component, and the terms The nature, sequence, or order of the relevant components are not limited.

또한, 이하의 실시예들에서, 어떤 구성요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 또 다른 구성요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 한다.Additionally, in the following embodiments, when a component is described as being 'connected', 'coupled' or 'connected' to another component, the component may be directly connected or connected to the other component. , it should be understood that another component may be 'connected', 'combined', or 'connected' between each component.

또한, 이하의 실시예들에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.In addition, as used in the following embodiments, 'comprises' and/or 'comprising' means that the mentioned component, step, operation, and/or element includes one or more other components, steps, or operations. and/or the presence or addition of elements.

이하, 본 개시의 다양한 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the attached drawings.

도 1은 본 개시의 일 실시예에 따른 정보 처리 시스템(110)이 촬영 장치(120) 및 사용자 단말(130) 각각과 통신 가능하도록 연결된 구성을 나타내는 개요도이다. 여기서, 정보 처리 시스템(110), 촬영 장치(120) 및 사용자 단말(130) 중 복수는 동일한 장소에 위치할 수 있고, 또는 각기 다른 장소에 위치할 수 있다. 여기서, 네트워크(140)는 병원에 구축된 사설 네트워크일 수 있다. 다른 예로서, 촬영 장치(120)는 정보 처리 시스템(110)과 전용선을 통해서 다이렉트로 연결되어 통신할 수 있다. 또 다른 예로서, 정보 처리 시스템(110)은 촬영 장치(120) 또는 사용자 단말(130) 중 적어도 하나와 네트워크(140)를 통해서 통신하지 않을 수도 있다. 이 경우, 정보 처리 시스템(110)은 촬영 장치(120)에 의해 촬영된 뇌영상을 포함하는 파일을, 저장 수단(예컨대, USB 메모리, DVD 등)를 통해서 입력받고, 입력된 파일에 포함된 뇌영상에 대한 분석을 수행할 수 있다. Figure 1 is a schematic diagram showing a configuration in which the information processing system 110 according to an embodiment of the present disclosure is connected to communicate with each of the photographing device 120 and the user terminal 130. Here, a plurality of the information processing system 110, the photographing device 120, and the user terminal 130 may be located in the same location or may be located in different locations. Here, the network 140 may be a private network built in a hospital. As another example, the photographing device 120 may be directly connected to and communicate with the information processing system 110 through a dedicated line. As another example, the information processing system 110 may not communicate with at least one of the photographing device 120 or the user terminal 130 through the network 140. In this case, the information processing system 110 receives a file containing a brain image captured by the imaging device 120 through a storage means (e.g., USB memory, DVD, etc.), and the brain image included in the input file is input. Analysis of video can be performed.

촬영 장치(120)는 환자의 뇌 상태를 촬영하여 기능적 정보가 포함된 의료 영상과 같은 입력 영상 데이터를 획득할 수 있는 장치일 수 있다. 예컨대[, 촬영 장치(120)는 방사성동위원소를 이용한 의료영상 검사인 양전자방출단층촬영(positron emission tomography, PET)이나 단일광자방출단층촬영(single-photon emission computed tomography, SPECT)를 이용하여, 뇌영상을 촬영할 수 있는 장치일 수 있다. The imaging device 120 may be a device capable of acquiring input image data, such as a medical image containing functional information, by imaging the patient's brain state. For example, the imaging device 120 uses positron emission tomography (PET) or single-photon emission computed tomography (SPECT), which are medical imaging tests using radioisotopes, to detect the brain. It may be a device that can capture video.

예컨대, 촬영 장치(120)는 섬광 카메라, 감마 카메라, PET 스캐너 중 적어도 하나를 포함하며, 환자의 뇌 중 전두 피질, 후대상회, 측면 측두엽, 두정엽, 후두엽 피질, 미상핵, 중앙 측두엽, 전측 대상회 중 적어도 한 부분을 촬영할 수 있다. 이때, 방사성 추적자는 환자의 인체에 주입되고, 방사성 추적자가 주입된 환자의 뇌를 촬영 장치(120)가 촬영할 수 있다. 여기서, 방사성 추적자는 도파민 신경계와 관련된 영역들을 영상화하는 물질일 수 있다. 방사성 추적자의 종류에는 F-18, C-11, N-13, O-15 중 적어도 하나인 방사성 동위원소를 포함할 수 있지만, 이에 한정하지 않는다.For example, the imaging device 120 includes at least one of a scintillation camera, a gamma camera, and a PET scanner, and includes one of the frontal cortex, posterior cingulate, lateral temporal lobe, parietal lobe, occipital cortex, caudate nucleus, central temporal lobe, and anterior cingulate in the patient's brain. You can film at least one part. At this time, the radioactive tracer is injected into the patient's body, and the imaging device 120 can image the patient's brain into which the radioactive tracer has been injected. Here, the radioactive tracer may be a substance that images areas related to the dopaminergic nervous system. Types of radioactive tracers may include, but are not limited to, at least one radioactive isotope among F-18, C-11, N-13, and O-15.

사용자 단말(130)은 정보 처리 시스템(110)으로부터, 뇌영상 분석 결과를 수신할 수 있다. 사용자 단말(130)은 뇌영상 분석을 의뢰한 사용자가 보유하고 있는 컴퓨팅 장치일 수 있다. 사용자 단말(130)은 촬영 장치(120)에서 촬영한 뇌영상을 수신하고, 이 뇌영상에 대한 분석을 정보 처리 시스템(110)으로 요청할 수 있다. 또한, 사용자 단말(130)은 뇌영상의 분석 결과를 정보 처리 시스템(110)으로부터 수신할 수 있다. The user terminal 130 may receive brain image analysis results from the information processing system 110. The user terminal 130 may be a computing device owned by a user who has requested brain image analysis. The user terminal 130 may receive a brain image captured by the imaging device 120 and request analysis of the brain image from the information processing system 110. Additionally, the user terminal 130 may receive the analysis results of the brain image from the information processing system 110.

네트워크(140)는 각 장치/단말/시스템들에 대한 통신을 지원하도록 구성될 수 있다. 네트워크(140)는 설치 환경에 따라, 예를 들어, 이더넷(Ethernet), 유선 홈 네트워크(Power Line Communication), 전화선 통신 장치 및 RS-serial 통신 등의 유선 네트워크, 이동통신망, WLAN(Wireless LAN), Wi-Fi, Bluetooth 및 ZigBee 등과 같은 무선 네트워크 또는 그 조합으로 구성될 수 있다. 통신 방식은 제한되지 않으며, 네트워크(140)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식만 아니라 IoT 기기 간의 근거리 무선 통신 역시 포함될 수 있다. 일 실시예에 따르면, 네트워크(140)는 병원에 구축된 사설 네트워크일 수 있다. The network 140 may be configured to support communication for each device/terminal/system. Depending on the installation environment, the network 140 may be, for example, a wired network such as Ethernet, a wired home network (Power Line Communication), a telephone line communication device, and RS-serial communication, a mobile communication network, a wireless LAN (WLAN), It may consist of wireless networks such as Wi-Fi, Bluetooth, and ZigBee, or a combination thereof. The communication method is not limited, and may include not only communication methods utilizing communication networks that the network 140 may include (e.g., mobile communication networks, wired Internet, wireless Internet, broadcasting networks, satellite networks, etc.), but also short-range wireless communication between IoT devices. You can. According to one embodiment, the network 140 may be a private network established in a hospital.

정보 처리 시스템(110)은 뇌영상 분석 등과 연관된 컴퓨터 실행 가능한 프로그램(예를 들어, 다운로드 가능한 애플리케이션) 및 데이터를 저장, 제공 및 실행할 수 있는 하나 이상의 서버 장치 및/또는 데이터베이스, 또는 클라우드 컴퓨팅 서비스 기반의 하나 이상의 분산 컴퓨팅 장치 및/또는 분산 데이터베이스를 포함할 수 있다.The information processing system 110 is one or more server devices and/or databases capable of storing, providing and executing computer executable programs (e.g., downloadable applications) and data associated with brain image analysis, etc., or a cloud computing service-based It may include one or more distributed computing devices and/or distributed databases.

정보 처리 시스템(110)은 촬영 장치(120) 또는 사용자 단말(130)로부터 뇌영상을 수신할 수 있다. 다른 예로서, 정보 처리 시스템(110)은 촬영 장치(120)에 의해 촬영된 뇌영상이 포함된 파일을 저장 수단(예컨대, USB 메모리, DVD 등)를 통해서 입력받을 수도 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은 뇌영상을 미리 학습된 기계학습 모델에 입력하고, 기계학습 모델로부터 출력된 뇌영상의 관심 영역을 획득할 수 있다. 여기서, 관심 영역은 뇌영상의 전체 영역 중에서, 도파민 신경계와 연관된 일부 영역일 수 있다. The information processing system 110 may receive brain images from the imaging device 120 or the user terminal 130. As another example, the information processing system 110 may receive a file containing a brain image captured by the imaging device 120 through a storage means (eg, USB memory, DVD, etc.). According to one embodiment, the information processing system 110 may input a brain image into a pre-trained machine learning model and obtain a region of interest of the brain image output from the machine learning model. Here, the region of interest may be a partial region associated with the dopaminergic nervous system among the entire brain image region.

정보 처리 시스템(110)은 관심 영역에 대한 특징 정보를 생성하고, 이 특징 정보를 또 다른 기계학습 모델에 입력하여, 또 다른 기계학습 모델로부터 뇌영상에 대한 질병 분석 결과를 획득할 수 있다. 아울러, 정보 처리 시스템(110)은 획득한 뇌영상에 대한 질병 분석 결과를 사용자 단말(130)로 전송할 수 있다. The information processing system 110 can generate feature information about the region of interest, input this feature information into another machine learning model, and obtain disease analysis results for brain images from another machine learning model. In addition, the information processing system 110 may transmit the disease analysis results for the acquired brain image to the user terminal 130.

도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템(110)의 내부 구성을 나타내는 블록도이다. 정보 처리 시스템(110)은 메모리(210), 프로세서(220), 통신 모듈(230) 및 입출력 인터페이스(240)를 포함할 수 있다. 도 2에 도시된 바와 같이, 정보 처리 시스템(110)은 통신 모듈(230)을 이용하여 네트워크를 통해 정보 및/또는 데이터를 통신할 수 있도록 구성될 수 있다.Figure 2 is a block diagram showing the internal configuration of the information processing system 110 according to an embodiment of the present disclosure. The information processing system 110 may include a memory 210, a processor 220, a communication module 230, and an input/output interface 240. As shown in FIG. 2, the information processing system 110 may be configured to communicate information and/or data over a network using a communication module 230.

메모리(210)는 비-일시적인(non-transitory) 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(210)는 ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 정보 처리 시스템(110)에 포함될 수 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드(예를 들어, 뇌영상 분석을 위한 코드 등)가 저장될 수 있다. 도 2에서, 메모리(210)는 단일 메모리인 것으로 도시되었지만, 이는 설명의 편의를 위한 것일 뿐이며, 메모리(210)는 복수의 메모리를 포함할 수 있다.Memory 210 may include any non-transitory computer-readable recording medium. According to one embodiment, the memory 210 may include a non-permanent mass storage device, such as a read only memory (ROM), a disk drive, a solid state drive (SSD), or flash memory. You can. As another example, non-perishable mass storage devices such as ROM, SSD, flash memory, disk drive, etc. may be included in the information processing system 110 as a separate persistent storage device that is distinct from memory. Additionally, the memory 210 may store an operating system and at least one program code (eg, code for brain image analysis, etc.). In FIG. 2, the memory 210 is shown as a single memory, but this is only for convenience of explanation, and the memory 210 may include a plurality of memories.

소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 정보 처리 시스템(110)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(230)을 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 통신 모듈(230)을 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 메모리(210)에 로딩될 수 있다.Software components may be loaded from a computer-readable recording medium separate from the memory 210. These separate computer-readable recording media may include recording media directly connectable to the information processing system 110, for example, floppy drives, disks, tapes, DVD/CD-ROM drives, memory cards, etc. It may include a computer-readable recording medium. As another example, software components may be loaded into the memory 210 through the communication module 230 rather than a computer-readable recording medium. For example, at least one program may be loaded into the memory 210 based on a computer program installed by files provided through the communication module 230 by developers or a file distribution system that distributes the installation file of the application. You can.

통신 모듈(230)은 네트워크를 통해 사용자 단말 및/또는 외부 장치와 정보 처리 시스템(110)이 서로 통신하기 위한 구성 또는 기능을 제공할 수 있으며, 정보 처리 시스템(110)이 외부 시스템과 통신하기 위한 구성 또는 기능을 제공할 수 있다. The communication module 230 may provide a configuration or function for the user terminal and/or external device and the information processing system 110 to communicate with each other through a network, and may provide a configuration or function for the information processing system 110 to communicate with the external system. Configuration or functionality can be provided.

또한, 정보 처리 시스템(110)의 입출력 인터페이스(240)는 정보 처리 시스템(110)과 연결되거나 정보 처리 시스템(110)이 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 예를 들면, 입출력 인터페이스(240)는 PCI express 인터페이스, 이더넷(ethernet) 인터페이스 중 적어도 하나를 포함할 수 있다. 도 2에서는 입출력 인터페이스(240)가 프로세서(220)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(240)가 프로세서(220)에 포함되도록 구성될 수 있다. 정보 처리 시스템(110)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은 뇌영상이 포함된 파일을 입력받을 수 있고, 이 경우 입출력 인터페이스(240)는 파일에 포함된 뇌영상을 획득할 수 있다. In addition, the input/output interface 240 of the information processing system 110 is connected to the information processing system 110 or means for interfacing with a device (not shown) for input or output that the information processing system 110 may include. It can be. For example, the input/output interface 240 may include at least one of a PCI express interface and an Ethernet interface. In FIG. 2 , the input/output interface 240 is shown as an element configured separately from the processor 220, but the present invention is not limited thereto, and the input/output interface 240 may be included in the processor 220. Information processing system 110 may include more components than those in FIG. 2 . According to one embodiment, the information processing system 110 may receive a file containing a brain image, and in this case, the input/output interface 240 may acquire the brain image included in the file.

프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 모듈(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어, 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 일 실시예에서, 메모리(210)에는 후술하는 다양한 실시예에 따른 방법들을 실행하기 위한 명령어들을 포함하는 적어도 하나의 프로그램이 저장될 수 있다. 또한, 프로세서(220)는 적어도 하나의 프로그램을 실행하도록 구성될 수 있다.The processor 220 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Commands may be provided to the processor 220 by the memory 210 or the communication module 230. For example, processor 220 may be configured to execute received instructions according to program code stored in a recording device such as memory 210. In one embodiment, the memory 210 may store at least one program including instructions for executing methods according to various embodiments described later. Additionally, the processor 220 may be configured to execute at least one program.

일 실시예에 따르면, 프로그램은 도파민 신경계를 포함하는 뇌영상을 획득하고, 획득된 뇌영상을 기계학습 모델에 입력하여, 기계학습 모델에 의해 추출된 관심 영역을 획득하기 위한 명령어들을 포함할 수 있다. According to one embodiment, the program may include instructions for acquiring a brain image including the dopaminergic nervous system, inputting the acquired brain image into a machine learning model, and obtaining a region of interest extracted by the machine learning model. .

도 3은 본 개시의 일 실시예에 따른 정보 처리 시스템(110)에 포함된 프로세서(220)의 내부 구성을 나타내는 블록도이다. 도 3에 도시된 바와 같이, 프로세서(220)는 모델 학습부(310), 관심 영역 추출부(320) 및 질병 분석부(330)를 포함할 수 있다. Figure 3 is a block diagram showing the internal configuration of the processor 220 included in the information processing system 110 according to an embodiment of the present disclosure. As shown in FIG. 3 , the processor 220 may include a model learning unit 310, a region of interest extracting unit 320, and a disease analysis unit 330.

모델 학습부(310)는 트레이닝셋(training set)을 이용하여 적어도 하나의 기계학습 모델에 대한 학습을 수행할 수 있다. 예컨대, 모델 학습부(310)는 제1 트레이닝셋을 이용하여, 템플릿 기반으로 관심 영역을 추출하는 제1 기계학습 모델을 학습시킬 수 있다. 다른 예로서, 모델 학습부(310)는 제2 트레이닝셋을 이용하여, 개인 맞춤형 관심 영역을 추출하는 제2 기계학습 모델을 학습시킬 수 있다. 또 다른 에로서, 모델 학습부(310)는 제3 트레이닝셋을 이용하여, 관심 영역에 특징 정보에 기초하여 뇌질병을 분석하는 제3 기계학습 모델을 학습시킬 수 있다. 제1 기계학습 모델, 제2 기계학습 모델 및 제3 기계학습 모델이 학습되는 방법에 대해서는, 도 5, 도 9 및 도 13을 참조하여 후술하기로 한다. The model learning unit 310 may perform learning on at least one machine learning model using a training set. For example, the model learning unit 310 may use the first training set to train a first machine learning model that extracts a region of interest based on a template. As another example, the model learning unit 310 may train a second machine learning model that extracts a personalized region of interest using the second training set. As another example, the model learning unit 310 may use the third training set to learn a third machine learning model that analyzes brain disease based on feature information in the region of interest. The method by which the first machine learning model, the second machine learning model, and the third machine learning model are learned will be described later with reference to FIGS. 5, 9, and 13.

관심 영역 추출부(320)는 촬영 장치에서 촬영한 뇌영상을 획득하고, 획득된 뇌영상을 제1 기계학습 모델 또는 제2 기계학습 모델로 입력하고, 뇌영상에 전체 영역 중에서 뇌질병 분석에 필요한 관심 영역을 획득할 수 있다. 여기서, 관심 영역은 도파민 신경계와 관련된 세포 영역을 포함할 수 있으며, 뇌영상에 포함된 일부 영역일 수 있다. 예컨대, 관심 영역은 기저핵, 흑질, 선조체 중 적어도 하나와 연관된 영역일 수 있다. The region of interest extractor 320 acquires a brain image captured by an imaging device, inputs the acquired brain image into a first machine learning model or a second machine learning model, and selects the area required for brain disease analysis among all regions in the brain image. Areas of interest can be obtained. Here, the region of interest may include a cell region related to the dopaminergic nervous system and may be a partial region included in the brain image. For example, the region of interest may be a region associated with at least one of the basal ganglia, substantia nigra, and striatum.

일 실시예에 따르면, 관심 영역 추출부(320)는 뇌영상을 전처리한 후에, 전처리된 뇌영상을 제1 기계학습 모델 또는 제2 기계학습 모델로 입력할 수 있다. 예컨대, 관심 영역 추출부(320)는 뇌영상을 스무딩(smoothing) 처리, 업스케일링(upscaling) 처리, 불필요한 오브젝트 제거 처리 등과 같은 전처리를 수행할 수 있다. 여기서, 불필요한 오브젝트는 뇌질병 분석에 불필요한 오브젝트를 제거하는 전처리로서, 예컨대, 뇌영상에서 뼈와 관련된 오브젝트를 제거함으로써 뇌영상이 전처리될 수 있다. According to one embodiment, the region of interest extractor 320 may preprocess the brain image and then input the preprocessed brain image into a first machine learning model or a second machine learning model. For example, the region of interest extractor 320 may perform preprocessing, such as smoothing processing, upscaling processing, and unnecessary object removal processing, on the brain image. Here, the unnecessary object is preprocessing to remove objects unnecessary for brain disease analysis. For example, the brain image may be preprocessed by removing objects related to bones from the brain image.

관심 영역 추출부(320)는 제1 기계학습 또는 제2 기계학습 모델로 뇌영상을 입력하고, 제1 기계학습 모델 또는 제2 기계학습 모델로부터 출력된 적어도 하나의 관심 영역을 획득할 수 있다. The region of interest extractor 320 may input a brain image into a first machine learning model or a second machine learning model, and obtain at least one region of interest output from the first machine learning model or the second machine learning model.

질병 분석부(330)는 제3 기계학습 모델을 이용하여 뇌질병을 분석할 수 있다. 일 실시예에 따르면, 질병 분석부(330)는 제1 기계학습 모델 또는 제2 기계학습 모델로부터 출력된 관심 영역을 기초로, 제3 기계학습 모델에 입력되는 관심 영역에 대한 특징 정보를 생성할 수 있다. 여기서, 관심 영역에 대한 특징 정보는 화소 값 및/또는 비율 값을 포함할 수 있다. The disease analysis unit 330 can analyze brain disease using a third machine learning model. According to one embodiment, the disease analysis unit 330 generates feature information about the region of interest input to the third machine learning model based on the region of interest output from the first machine learning model or the second machine learning model. You can. Here, feature information about the region of interest may include pixel values and/or ratio values.

일 실시예에 따르면, 질병 분석부(330)는 관심 영역에 포함된 화소 값들을 기초로, 관심 영역의 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값 또는 화소 값의 범위 중 적어도 하나를 산출할 수 있다. According to one embodiment, the disease analysis unit 330 determines at least one of the maximum pixel value, minimum pixel value, average pixel value, pixel distribution value, or range of pixel values of the region of interest, based on the pixel values included in the region of interest. can be calculated.

추가적으로 또는 대안적으로, 질병 분석부(330)는 관심 영역에 포함된 제1 선조체에 해당하는 제1 영역과 제2 선조체에 해당하는 제2 영역 간의 크기 비율을 산출할 수 있다. 예를 들어, 관심 영역은 복수의 선조체 영역을 포함할 수 있고, 이 중에서 제1 선조체에 연관된 제1 영역과 제2 선조체에 연관된 제2 영역 간의 크기 비율이 산출될 수 있다. 가령, 제1 영역은 뇌영상의 좌측 또는 앞 측에 위치하고, 제2 영역은 뇌영상의 우측 또는 뒤 측에 위치할 수 있다. Additionally or alternatively, the disease analysis unit 330 may calculate the size ratio between the first region corresponding to the first striatum and the second region corresponding to the second striatum included in the region of interest. For example, the region of interest may include a plurality of striatum regions, and among these, the size ratio between the first region associated with the first striatum and the second region associated with the second striatum can be calculated. For example, the first area may be located on the left or front side of the brain image, and the second area may be located on the right or back side of the brain image.

질병 분석부(330)는 산출된 적어도 하나의 화소 값 및/또는 비율 값을 포함하는 관심 영역에 대한 특징 정보를 제3 기계학습 모델에 입력하고, 제3 기계학습 모델로부터 출력된 뇌질병 분석 결과를 획득할 수 있다. 여기서, 관심 영역에 대한 특징 정보는, 관심 영역의 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 제1 영역과 제2 영역 간의 비율 값 중 적어도 하나를 포함할 수 있다. 여기서, 뇌질병 분석 결과에는 뇌질병 발병 여부에 대한 정보, 뇌질병이 발병된 경우 뇌질병명 또는 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등) 중 적어도 하나가 포함될 수 있다.The disease analysis unit 330 inputs feature information about the region of interest, including the calculated pixel value and/or ratio value, into a third machine learning model, and the brain disease analysis result output from the third machine learning model. can be obtained. Here, the feature information about the region of interest may include at least one of the maximum pixel value, minimum pixel value, average pixel value or pixel distribution value, range of pixel values, or ratio value between the first region and the second region of the region of interest. You can. Here, the brain disease analysis result may include at least one of information on whether the brain disease has occurred, the name of the brain disease if the brain disease has developed, or the degree of progression of the brain disease (eg, stage 1, stage 2, stage 3, etc.).

도 4는 본 개시의 일 실시예에 따른, 제1 기계학습 모델(410)을 통해 출력되는 데이터를 예시하는 도면이다. 도 4에 예시된 바와 같이 제1 기계학습 모델(410)은 뇌 템플릿 기반의 관심 영역(430)을 출력하도록 구성된 인공지능 기반의 모델일 수 있다. 여기서, 뇌 템플릿은 기준이 되는 뇌 이미지로서, 미리 결정된 크기 및 형태를 가지고 있고, 더불어 적어도 하나의 관심 공간 정보를 포함할 수 있다. 관심 공간 정보는 뇌 템플릿에 설정된 특정 지점과의 상대적인 위치 범위이거나, 픽셀 좌표 범위일 수 있다. 관심 공간 정보는 서로 분리된 복수의 영역 정보를 포함할 수 있다. FIG. 4 is a diagram illustrating data output through the first machine learning model 410 according to an embodiment of the present disclosure. As illustrated in FIG. 4 , the first machine learning model 410 may be an artificial intelligence-based model configured to output a region of interest 430 based on a brain template. Here, the brain template is a reference brain image, has a predetermined size and shape, and may include at least one spatial information of interest. The spatial information of interest may be a relative position range or a pixel coordinate range with a specific point set in the brain template. Space of interest information may include a plurality of region information separated from each other.

촬영 장치에 의해 촬영된 뇌영상(420)이 제1 기계학습 모델(410)로 입력될 수 있다. 제1 기계학습 모델(410)은 뇌영상(420)을 기초로 연산을 수행하여, 뇌 템플릿 기반의 관심 영역(430)을 출력할 수 있다. 일 실시예에 따르면, 제1 기계학습 모델(410)은 뇌 템플릿의 크기 및/또는 형태에 상응하도록 입력 뇌영상(420)을 변형하고, 변형된 뇌영상(420)을 기초로 연산을 수행하여, 뇌영상(420)으로부터 관심 영역(430)을 추출하여 출력할 수 있다. 이때, 제1 기계학습 모델(410)은 뇌 템플릿에 포함된 관심 공간 정보에 기초하여, 변형된 뇌영상(420)의 전체 영역으로부터 관심 영역(430)을 추출할 수 있다.The brain image 420 captured by the imaging device may be input to the first machine learning model 410. The first machine learning model 410 may perform calculations based on the brain image 420 and output a region of interest 430 based on the brain template. According to one embodiment, the first machine learning model 410 transforms the input brain image 420 to correspond to the size and/or shape of the brain template, and performs calculations based on the transformed brain image 420. , the region of interest 430 can be extracted from the brain image 420 and output. At this time, the first machine learning model 410 may extract the region of interest 430 from the entire area of the modified brain image 420 based on the space of interest information included in the brain template.

도 5는 본 개시의 일 실시예에 따른, 제1 기계학습 모델(410)이 학습되는 과정을 예시하는 도면이다. 제1 기계학습 모델(410)에 대한 학습은 정보 처리 시스템에 포함된 적어도 하나의 프로세서(예컨대, 도 3의 모델 학습부)에 의해서 수행될 수 있다. 복수의 학습용 데이터를 포함하는 제1 트레이닝셋이 이용되어, 제1 기계학습 모델(410)이 학습될 수 있다. 제1 트레이닝셋은 학습용 뇌영상 및 레퍼런스 영역을 포함하는 학습용 데이터를 포함할 수 있다. 여기서, 레퍼런스 영역은 학습 과정에서 정답 값(ground truth)으로서 이용되는 척도로서, 학습용 뇌영상에서 도파민 신경계와 연관된 영역일 수 있다. 일 실시예에 따르면, 제1 트레이닝셋에 포함된 레퍼런스 영역과 학습용 뇌영상은 실제로 뇌질병(예컨대, 파킨슨병)을 앓고 있거나 앓았던 환자의 의료 데이터를 기초로 생성될 수 있다. FIG. 5 is a diagram illustrating a process in which the first machine learning model 410 is learned, according to an embodiment of the present disclosure. Learning of the first machine learning model 410 may be performed by at least one processor included in the information processing system (eg, the model learning unit in FIG. 3). A first training set containing a plurality of learning data may be used to learn the first machine learning model 410. The first training set may include learning data including a brain image for learning and a reference region. Here, the reference area is a measure used as a ground truth in the learning process and may be an area associated with the dopaminergic nervous system in learning brain imaging. According to one embodiment, the reference region and learning brain image included in the first training set may be generated based on medical data of a patient who actually suffers from or has suffered from a brain disease (eg, Parkinson's disease).

도 5를 참조하면, 프로세서는 학습용 뇌영상(510)과 뇌 템플릿(520)을 제1 기계학습 모델(410)로 입력할 수 있다. 일부 실시예에서, 뇌 템플릿(520)이 별도로 입력되지 않고, 제1 기계학습 모델(410)에 임베딩될 수도 있다. Referring to FIG. 5 , the processor may input a learning brain image 510 and a brain template 520 into the first machine learning model 410. In some embodiments, the brain template 520 may not be input separately but may be embedded in the first machine learning model 410.

일 실시예에 따르면, 제1 기계학습 모델(410)은 뇌 템플릿(520)의 크기 및/또는 형태에 상응하도록, 학습용 뇌영상(510)의 크기 및/또는 형태를 변형하고, 변형된 학습용 뇌영상(510)으로부터 관심 영역(530)을 추출하고, 추출된 관심 영역(530)을 출력할 수 있다. According to one embodiment, the first machine learning model 410 transforms the size and/or shape of the learning brain image 510 to correspond to the size and/or shape of the brain template 520, and the transformed learning brain A region of interest 530 may be extracted from the image 510 and the extracted region of interest 530 may be output.

학습용 데이터에 포함된 레퍼런스 영역(540)이 추출되고, 제1 기계학습 모델(410)로부터 출력된 관심 영역(530)과 레퍼런스 영역(540) 간에 차이인 손실(loss) 값(550)이 산출되어 제1 기계학습 모델(410)로 피드백될 수 있다. 이때, 지각 기반 손실(perceptual loss) 함수와 같이 다양한 손실 함수가 이용되어, 관심 영역(530)과 레퍼런스 영역(540) 간의 손실 값(550)이 산출될 수 있다. The reference area 540 included in the learning data is extracted, and a loss value 550, which is the difference between the interest area 530 output from the first machine learning model 410 and the reference area 540, is calculated. It can be fed back to the first machine learning model 410. At this time, various loss functions, such as a perceptual loss function, can be used to calculate the loss value 550 between the region of interest 530 and the reference region 540.

피드백된 손실 값(550)이 제1 기계학습 모델(410)에 반영되어, 제1 기계학습 모델(410)에 포함된 적어도 하나의 노드에 대한 가중치가 조절될 수 있다. 여기서, 노드는 인공신경망에 포함된 노드일 수 있다. The fed back loss value 550 may be reflected in the first machine learning model 410 to adjust the weight of at least one node included in the first machine learning model 410. Here, the node may be a node included in an artificial neural network.

제1 트레이닝셋에 포함된 복수의 학습용 데이터가 반복적으로 제1 기계학습 모델(410)에 입력되어 반복적인 학습이 수행되면, 제1 기계학습 모델(410)에 포함된 노드의 가중치가 최적의 값으로 수렴될 수 있다.When a plurality of learning data included in the first training set is repeatedly input to the first machine learning model 410 and repetitive learning is performed, the weight of the node included in the first machine learning model 410 is set to the optimal value. can converge.

도 6은 제1 기계학습 모델로 입력된 제1 뇌영상(610)과 제1 기계학습 모델로부터 출력된 제2 뇌영상(620)에 대한 예시를 나타내는 도면이다. 도 6 및 후술하는 도면에서 입력되는 뇌영상에서 검은색 표시 영역은 설명의 편의를 위한 것으로서, 기계학습 모델에 입력되는 뇌영상에서 별도의 색상으로 표기되는 영역이 존재하지 않을 수 있음을 분명히 해 둔다.FIG. 6 is a diagram illustrating an example of a first brain image 610 input to a first machine learning model and a second brain image 620 output from the first machine learning model. The black displayed area in the brain image input in FIG. 6 and the drawings described below is for convenience of explanation, and it is to be clarified that there may not be an area marked in a separate color in the brain image input to the machine learning model. .

도 6에 제1 뇌영상(610)에서 검은색으로 표시된 영역은 도파민 신경계와 관련된 영역일 수 있다. 제1 기계학습 모델은 뇌 템플릿을 기초로 제1 뇌영상(610)을 변형하여 제2 뇌영상(620)을 생성할 수 있다. 제2 뇌영상(620)에 포함된 검은색 영역이 관심 영역일 수 있다. The area marked in black in the first brain image 610 in FIG. 6 may be an area related to the dopaminergic nervous system. The first machine learning model may generate the second brain image 620 by modifying the first brain image 610 based on the brain template. The black area included in the second brain image 620 may be the area of interest.

일 실시예에 따르면, 제1 기계학습 모델은 제2 뇌영상(620)에서 관심 영역(예컨대, 검은색 영역)만을 추출하여 출력할 수 있다. 일부 실시예에 따르면, 제1 기계학습 모델은 제2 뇌영상(620) 및 관심 영역에 대한 위치 범위(예컨대, 화소 좌표 범위)를 함께 출력할 수 있다. According to one embodiment, the first machine learning model may extract and output only the region of interest (eg, black region) from the second brain image 620. According to some embodiments, the first machine learning model may output the second brain image 620 and the location range (eg, pixel coordinate range) for the region of interest.

도 7은 제1 기계학습 모델로 입력된 제3 뇌영상(710)과 제1 기계학습 모델로부터 출력된 제4 뇌영상(720)에 대한 예시를 나타내는 도면이다. 도 7에 제3 뇌영상(710)에서 검은색으로 표시된 영역은 도파민 신경계와 관련된 영역일 수 있다. 제1 기계학습 모델은 뇌 템플릿을 기초로 제3 뇌영상(710)을 변형하여, 제4 뇌영상(720)을 생성할 수 있다. 제4 뇌영상(720)에 포함된 검은색 영역이 관심 영역일 수 있다. FIG. 7 is a diagram illustrating examples of the third brain image 710 input to the first machine learning model and the fourth brain image 720 output from the first machine learning model. The area marked in black in the third brain image 710 in FIG. 7 may be an area related to the dopaminergic nervous system. The first machine learning model may generate the fourth brain image 720 by modifying the third brain image 710 based on the brain template. The black area included in the fourth brain image 720 may be the area of interest.

일 실시예에 따르면, 제1 기계학습 모델은 제4 뇌영상(720)에서 관심 영역(예컨대, 검은색 영역)만을 추출하여 출력할 수 있다. 일부 실시예에 따르면, 제1 기계학습 모델은 제4 뇌영상(720) 및 관심 영역에 대한 위치 범위(예컨대, 화소 좌표 범위)를 함께 출력할 수 있다.According to one embodiment, the first machine learning model may extract and output only the region of interest (eg, black region) from the fourth brain image 720. According to some embodiments, the first machine learning model may output the fourth brain image 720 and the location range (eg, pixel coordinate range) for the region of interest.

도 8은 본 개시의 일 실시예에 따른, 제2 기계학습 모델(810)을 통해 출력되는 데이터를 예시하는 도면이다. 도 8에 예시된 바와 같이 제2 기계학습 모델(810)은 개인 맞춤형 관심 영역(830)을 출력하도록 구성된 인공지능 기반의 모델일 수 있다. 일 실시예에 따르면, 제2 기계학습 모델(810)에는 사용자 정보가 추가적으로 입력될 수 있다. 여기서, 사용자 정보는 성별, 나이, 뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함할 수 있다. 여기서, 뇌질병 가족력은 사용자의 가족이 앓았거나 앓고 있는 뇌질병 병명을 포함할 수 있다. 또한, 사용자의 질병은 사용자가 앓았거나 앓고 있는 질환에 대한 병명을 포함할 수 있다. 여기서, 사용자의 질병은 뇌질병 이외에 다른 유형의 질병도 포함할 수 있다. FIG. 8 is a diagram illustrating data output through a second machine learning model 810 according to an embodiment of the present disclosure. As illustrated in FIG. 8 , the second machine learning model 810 may be an artificial intelligence-based model configured to output a personalized region of interest 830. According to one embodiment, user information may be additionally input into the second machine learning model 810. Here, the user information may include at least one of gender, age, family history of brain disease, or the user's disease. Here, the brain disease family history may include the name of the brain disease that the user's family has suffered from or is suffering from. Additionally, the user's disease may include the name of the disease that the user has suffered from or is suffering from. Here, the user's disease may include other types of diseases in addition to brain disease.

촬영 장치에 의해 촬영된 뇌영상(820)이 제2 기계학습 모델(810)로 입력될 수 있다. 제2 기계학습 모델(810)은 뇌영상(820) 및 사용자 정보를 기초로 연산을 수행하여, 뇌영상(820)으로부터 개인(사용자) 맞춤형 관심 영역(830)을 추출하여 출력할 수 있다. 일 실시예에 따르면, 제2 기계학습 모델(810)은 사용자 정보에 기초하여 뇌영상(820) 전체에서 관심 대상이 되는 영역의 위치와 크기를 결정하고, 이 결정된 위치와 크기에 기초하여 뇌영상(820)의 전체 영역 중에서 관심 영역(830)을 결정하여 추출할 수 있다. The brain image 820 captured by the imaging device may be input to the second machine learning model 810. The second machine learning model 810 may perform calculations based on the brain image 820 and user information to extract and output a personalized (user) region of interest 830 from the brain image 820. According to one embodiment, the second machine learning model 810 determines the location and size of the region of interest in the entire brain image 820 based on user information, and based on the determined location and size, the second machine learning model 810 determines the location and size of the region of interest in the entire brain image 820. The region of interest 830 can be determined and extracted from the entire region 820.

일 실시예에 따르면, 사용자 정보에 따라 추출되는 관심 영역이 변동될 수 있다. 즉, 사용자 정보에 상이한 경우, 관심 영역의 위치 및/또는 크기가 상이하게 결정될 수 있다. According to one embodiment, the extracted region of interest may change depending on user information. That is, if the user information is different, the location and/or size of the area of interest may be determined differently.

도 9는 본 개시의 일 실시예에 따른, 제2 기계학습 모델(810)이 학습되는 과정을 예시하는 도면이다. 제2 기계학습 모델(810)에 대한 학습은 정보 처리 시스템에 포함된 적어도 하나의 프로세서(예컨대, 도 3의 모델 학습부)에 의해서 수행될 수 있다. 복수의 학습용 데이터를 포함하는 제2 트레이닝셋이 이용되어, 제2 기계학습 모델(810)이 학습될 수 있다. 제2 트레이닝셋은 학습용 뇌영상, 사용자 정보 및 레퍼런스 영역을 포함하는 학습용 데이터를 포함할 수 있다. 여기서, 레퍼런스 영역은 학습 과정에서 정답 값(ground truth)으로서 이용되는 척도로서, 도파민 신경계와 연관된 영역일 수 있다. 또한, 사용자 정보는, 성별, 나이, 뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 제2 트레이닝셋은 실제로 뇌질병(예컨대, 파킨슨병)을 앓고 있거나 앓았던 환자의 의료 데이터를 기초로 생성될 수 있다. FIG. 9 is a diagram illustrating a process in which the second machine learning model 810 is learned, according to an embodiment of the present disclosure. Learning for the second machine learning model 810 may be performed by at least one processor (eg, the model learning unit in FIG. 3) included in the information processing system. A second training set containing a plurality of learning data may be used to learn the second machine learning model 810. The second training set may include learning data including brain images for learning, user information, and a reference region. Here, the reference area is a measure used as a ground truth in the learning process and may be an area associated with the dopaminergic nervous system. Additionally, the user information may include at least one of gender, age, family history of brain disease, or the user's disease. According to one embodiment, the second training set may be generated based on medical data of a patient who actually suffers from or has suffered from a brain disease (eg, Parkinson's disease).

도 9를 참조하면, 프로세서는 학습용 뇌영상(910)과 사용자의 정보(920)를 제2 기계학습 모델(810)로 입력할 수 있다. 일 실시예에 따르면, 제2 기계학습 모델(810)은 사용자 정보(920)에 기초하여, 관심 대상이 되는 영역의 크기와 위치를 결정하고, 결정된 크기와 위치에 상응하는 영역을 관심 영역(930)으로 출력할 수 있다. Referring to FIG. 9 , the processor may input the learning brain image 910 and user information 920 into the second machine learning model 810. According to one embodiment, the second machine learning model 810 determines the size and location of the area of interest based on the user information 920, and selects the area corresponding to the determined size and location as the area of interest 930. ) can be output.

학습용 데이터에 포함된 레퍼런스 영역(940)이 추출되고, 제2 기계학습 모델(810)로부터 출력된 관심 영역(930)과 레퍼런스 영역(940) 간에 차이인 손실(loss) 값(950)이 산출되어 제2 기계학습 모델(810)로 피드백될 수 있다. 이때, 지각 기반 손실 함수와 같이 다양한 손실 함수가 이용되어, 관심 영역(930)과 레퍼런스 영역(940) 간의 손실 값(950)이 산출될 수 있다.The reference area 940 included in the learning data is extracted, and the loss value 950, which is the difference between the interest area 930 output from the second machine learning model 810 and the reference area 940, is calculated. It can be fed back to the second machine learning model 810. At this time, various loss functions, such as a perception-based loss function, can be used to calculate the loss value 950 between the region of interest 930 and the reference region 940.

피드백된 손실 값(950)이 제2 기계학습 모델(810)에 반영되어, 제2 기계학습 모델(810)에 포함된 적어도 하나의 노드에 대한 가중치가 조절될 수 있다. 여기서, 노드는 인공신경망에 포함된 노드일 수 있다. The fed back loss value 950 may be reflected in the second machine learning model 810 to adjust the weight of at least one node included in the second machine learning model 810. Here, the node may be a node included in an artificial neural network.

제2 트레이닝셋에 포함된 복수의 학습용 데이터가 반복적으로 제2 기계학습 모델(810)에 입력되어 반복적인 학습이 수행되면, 제2 기계학습 모델(810)에 포함된 노드의 가중치가 최적의 값으로 수렴될 수 있다.When a plurality of learning data included in the second training set are repeatedly input to the second machine learning model 810 and repetitive learning is performed, the weight of the node included in the second machine learning model 810 is set to the optimal value. can converge.

도 10은 제2 기계학습 모델로 입력된 제5 뇌영상(1010)과 제2 기계학습 모델로부터 출력된 제1 관심 영역(1020)에 대한 예시를 나타내는 도면이다. 도 10에 제5 뇌영상(1010)에서 검은색으로 표시된 영역은 도파민 신경계와 관련된 영역일 수 있다. 제2 기계학습 모델은 사용자 정보에 기초하여, 입력된 뇌영상(1010)에서 관심 대상의 위치와 크기를 결정하고, 결정된 위치와 크기에 해당하는 관심 영역(1020)을 추출하여 출력할 수 있다. 여기서, 관심 영역(1020)은 도파민 신경계와 관련될 수 있다. FIG. 10 is a diagram illustrating an example of the fifth brain image 1010 input to the second machine learning model and the first region of interest 1020 output from the second machine learning model. The area marked in black in the fifth brain image 1010 in FIG. 10 may be an area related to the dopaminergic nervous system. The second machine learning model can determine the location and size of the object of interest in the input brain image 1010 based on user information, extract and output the region of interest 1020 corresponding to the determined location and size. Here, the region of interest 1020 may be related to the dopaminergic nervous system.

도 11은 제2 기계학습 모델로 입력된 제6 뇌영상(1110)과 제2 기계학습 모델로부터 출력된 제2 관심 영역(1120)에 대한 예시를 나타내는 도면이다. 제2 기계학습 모델은 사용자 정보에 기초하여, 입력된 뇌영상(1110)에서 관심 대상의 위치와 크기를 결정하고, 결정된 위치와 크기에 해당하는 관심 영역(1120)을 추출하여 출력할 수 있다. 여기서, 관심 영역(1120)은 도파민 신경계와 관련될 수 있다.FIG. 11 is a diagram illustrating an example of a sixth brain image 1110 input to a second machine learning model and a second region of interest 1120 output from the second machine learning model. The second machine learning model can determine the location and size of the object of interest in the input brain image 1110 based on user information, extract and output the region of interest 1120 corresponding to the determined location and size. Here, the region of interest 1120 may be related to the dopaminergic nervous system.

도 12는 본 개시의 일 실시예에 따른, 제3 기계학습 모델(1210)을 통해 출력되는 데이터를 예시하는 도면이다. 도 12에 예시된 바와 같이 제3 기계학습 모델(1210)은 질병 분석 결과 정보를 출력하도록 구성된 인공지능 기반의 모델일 수 있다. FIG. 12 is a diagram illustrating data output through a third machine learning model 1210 according to an embodiment of the present disclosure. As illustrated in FIG. 12, the third machine learning model 1210 may be an artificial intelligence-based model configured to output disease analysis result information.

관심 영역에 대한 특징 정보(1220)가 제3 기계학습 모델(1210)로 입력될 수 있다. 제3 기계학습 모델(1210)은 관심 영역에 대한 특징 정보(1220)를 기초로 연산을 수행하여, 사용자의 질병 분석 결과 정보(1230)를 출력할 수 있다.Feature information 1220 about the region of interest may be input into the third machine learning model 1210. The third machine learning model 1210 may perform calculations based on feature information 1220 for the region of interest and output the user's disease analysis result information 1230.

일 실시예에 따르면, 제3 기계학습 모델(1210)은 관심 영역에 대한 특징 정보에 포함된 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 제1 영역과 제2 영역 간의 비율 값 중 적어도 하나에 기초하여, 사용자의 뇌질병 발병 여부를 판정할 수 있다. 또한, 제3 기계학습 모델(1210)은 뇌질병이 발병된 경우, 뇌질병명 및 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등)를 판정할 수 있다. 예컨대, 뇌질병은 파킨슨병이거나, 또 다른 뇌질환일 수 있다. According to one embodiment, the third machine learning model 1210 is the maximum pixel value, minimum pixel value, average pixel value or pixel variance value, the range of pixel values, or the first region and the first region and the second pixel value included in the feature information for the region of interest. Based on at least one of the ratio values between the two areas, it can be determined whether the user has brain disease. Additionally, when a brain disease occurs, the third machine learning model 1210 can determine the name of the brain disease and the degree of progression of the brain disease (eg, stage 1, stage 2, stage 3, etc.). For example, the brain disease may be Parkinson's disease or another brain disease.

제3 기계학습 모델(1210)은 뇌질병 발병 여부에 대한 정보 및/또는 뇌질병이 발병된 경우에 뇌질병명 및 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등)를 포함하는 질병 분석 결과 정보(1230)를 출력할 수 있다. The third machine learning model 1210 includes information on whether a brain disease has occurred and/or, if a brain disease has developed, the name of the brain disease and the degree of progression of the brain disease (e.g., stage 1, stage 2, stage 3, etc.). Disease analysis result information (1230) can be output.

도 13은 본 개시의 일 실시예에 따른, 제3 기계학습 모델(1210)이 학습되는 과정을 예시하는 도면이다. 제3 기계학습 모델(1210)에 대한 학습은 정보 처리 시스템에 포함된 적어도 하나의 프로세서(예컨대, 도 3의 모델 학습부)에 의해서 수행될 수 있다. 복수의 학습용 데이터를 포함하는 제3 트레이닝셋이 이용되어, 제3 기계학습 모델(1210)이 학습될 수 있다. 제3 트레이닝셋은 학습용 특징 정보 및 레퍼런스 결과를 포함할 수 있다. 여기서, 학습용 특징 정보는 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 제1 영역과 제2 영역 간의 비율 값 중 적어도 하나를 포함할 수 있다. 또한, 레퍼런스 결과는 학습 과정에서 정답 값(ground truth)으로서 이용되는 척도로서, 학습용 특징 정보와 연관되는 뇌질병에 대한 정보를 포함할 수 있다. 예를 들어, 레퍼런스 결과는 뇌질병 발병 여부에 대한 정보 및/또는 뇌질병이 발병된 경우에, 뇌질병명 및 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등)를 포함할 수 있다. 일 실시예에 따르면, 제3 트레이닝셋에 포함된 학습용 특징 정보와 레퍼런스 결과는, 실제로 뇌질병(예컨대, 파킨슨병)을 앓고 있거나 앓았던 환자의 의료 데이터를 기초로 생성될 수 있다. FIG. 13 is a diagram illustrating a process in which a third machine learning model 1210 is learned, according to an embodiment of the present disclosure. Learning for the third machine learning model 1210 may be performed by at least one processor included in the information processing system (eg, the model learning unit in FIG. 3). A third training set containing a plurality of learning data may be used to learn a third machine learning model 1210. The third training set may include feature information and reference results for learning. Here, the feature information for learning may include at least one of a maximum pixel value, a minimum pixel value, an average pixel value or a pixel distribution value, a range of pixel values, or a ratio value between the first area and the second area. Additionally, the reference result is a measure used as a ground truth in the learning process and may include information about brain disease associated with learning feature information. For example, the reference result may include information on whether a brain disease has occurred and/or, if a brain disease has developed, the name of the brain disease and the degree of progression of the brain disease (e.g., stage 1, stage 2, stage 3, etc.). there is. According to one embodiment, the learning feature information and reference results included in the third training set may be generated based on medical data of a patient who actually suffers from or has suffered from a brain disease (eg, Parkinson's disease).

도 13을 참조하면, 프로세서는 학습용 특징 정보(1310)를 제3 기계학습 모델(1210)로 입력할 수 있다. 일 실시예에 따르면, 제3 기계학습 모델(1310)은 입력된 학습용 특징 정보(1310)에 기초로 연산을 수행하여, 분석 결과(1320)를 출력할 수 있다. 여기서, 분석 결과(1320)는 뇌질병 발병 여부에 대한 정보 및/또는 뇌질병이 발병된 경우에 뇌질병명과 뇌질병의 진행 정도(예컨대, 1기, 2기, 3기 등)를 포함할 수 있다Referring to FIG. 13, the processor may input learning feature information 1310 into the third machine learning model 1210. According to one embodiment, the third machine learning model 1310 may perform calculations based on the input learning feature information 1310 and output an analysis result 1320. Here, the analysis result 1320 may include information on whether a brain disease has occurred and/or, if a brain disease has developed, the name of the brain disease and the degree of progression of the brain disease (e.g., stage 1, stage 2, stage 3, etc.). there is

학습용 데이터에 포함된 레퍼런스 결과(1330)가 추출되고, 제3 기계학습 모델(1210)로부터 출력된 분석 결과(1320)와 레퍼런스 결과(1330) 간에 차이인 손실(loss) 값(1340)이 산출되어 제3 기계학습 모델(410)로 피드백될 수 있다. 일 실시예에 따르면, 손실 값을 산출할 수 있는 다양한 함수가 호출되어, 손실 값(1340)이 산출될 수 있다. The reference result 1330 included in the learning data is extracted, and the loss value 1340, which is the difference between the analysis result 1320 output from the third machine learning model 1210 and the reference result 1330, is calculated. It can be fed back to the third machine learning model 410. According to one embodiment, various functions that can calculate the loss value are called, and the loss value 1340 can be calculated.

피드백된 손실 값(1340)이 제3 기계학습 모델(1210)에 반영되어, 제1 기계학습 모델(1210)에 포함된 적어도 하나의 노드에 대한 가중치가 조절될 수 있다. 여기서, 노드는 인공신경망에 포함된 노드일 수 있다. The fed back loss value 1340 may be reflected in the third machine learning model 1210 to adjust the weight of at least one node included in the first machine learning model 1210. Here, the node may be a node included in an artificial neural network.

제3 트레이닝셋에 포함된 복수의 학습용 데이터가 반복적으로 제3 기계학습 모델(1210)에 입력되어 반복적인 학습이 수행되면, 제3 기계학습 모델(1210)에 포함된 노드의 가중치가 최적의 값으로 수렴될 수 있다.When a plurality of learning data included in the third training set is repeatedly input to the third machine learning model 1210 and repetitive learning is performed, the weight of the node included in the third machine learning model 1210 is set to the optimal value. can converge.

도 14는 본 개시의 일 실시예에 따른, 인공신경망을 포함하는 기계학습 모델(1400)의 예시를 나타내는 도면이다. 기계학습 모델(1400)은 기계 학습(Machine Learning) 기술과 인지과학에서, 생물학적 신경망의 구조에 기초하여 구현된 통계학적 학습 알고리즘 또는 그 알고리즘을 실행하는 구조를 지칭할 수 있다.  즉, 기계학습 모델(1400)은 생물학적 신경망에서와 같이 시냅스의 결합으로 네트워크를 형성한 인공 뉴런인 노드(Node)들이 시냅스의 가중치를 반복적으로 조정하여, 특정 입력에 대응한 올바른 출력과 추론된 출력 사이의 오차가 감소되도록 학습함으로써, 문제 해결 능력을 가지는 기계학습 모델을 나타낸다. FIG. 14 is a diagram illustrating an example of a machine learning model 1400 including an artificial neural network, according to an embodiment of the present disclosure. In machine learning technology and cognitive science, the machine learning model 1400 may refer to a statistical learning algorithm implemented based on the structure of a biological neural network or a structure that executes the algorithm. In other words, the machine learning model 1400 has nodes, which are artificial neurons that form a network by combining synapses, as in a biological neural network, repeatedly adjusting the weights of synapses to produce the correct output and inferred output corresponding to a specific input. It represents a machine learning model with problem-solving capabilities by learning to reduce the error between the two.

일 실시예에 따르면, 기계학습 모델(1400)은 다층의 노드들과 이들 사이의 연결로 구성된 다층 퍼셉트론(MLP: multilayer perceptron)으로 구현될 수 있다.  본 실시예에 따른 기계학습 모델(1400)은 MLP를 포함하는 다양한 인공신경망 구조들 중의 하나를 이용하여 구현될 수 있다.  기계학습 모델(1400)은 외부로부터 입력 신호 또는 데이터를 수신하는 입력층, 입력 데이터에 대응한 출력 신호 또는 데이터를 출력하는 출력층, 입력층과 출력층 사이에 위치하며 입력층으로부터 신호를 받아 특성을 추출하여 출력층으로 전달하는 n개의 은닉층으로 구성된다.  여기서, 출력층은, 은닉층으로부터 신호를 받아 외부로 출력한다. 학습 과정에서, 적어도 하나의 노드와 연관된 가중치가 조정될 수 있다. According to one embodiment, the machine learning model 1400 may be implemented as a multilayer perceptron (MLP) consisting of multiple layers of nodes and connections between them. The machine learning model 1400 according to this embodiment can be implemented using one of various artificial neural network structures including MLP. The machine learning model 1400 is located between an input layer that receives input signals or data from the outside, an output layer that outputs output signals or data corresponding to the input data, and an input layer and an output layer, and extracts characteristics by receiving signals from the input layer. It consists of n hidden layers that are passed to the output layer. Here, the output layer receives a signal from the hidden layer and outputs it to the outside. During the learning process, the weight associated with at least one node may be adjusted.

일 실시예에 따르면, 제1 기계학습 모델, 제2 기계학습 모델, 제3 기계학습 모델 중 적어도 하나는 도 14에 예시된 인공 신경망을 포함하여 구성될 수 있다. 도 14에 예시된 바와 같이, 기계학습 모델(1400)로 뇌영상이 입력되면, 뇌영상의 전체 영역 중에서 뇌질병 분석에 필요한 관심 영역이 출력되어 출력될 수 있다.According to one embodiment, at least one of the first machine learning model, the second machine learning model, and the third machine learning model may be configured to include the artificial neural network illustrated in FIG. 14. As illustrated in FIG. 14 , when a brain image is input to the machine learning model 1400, a region of interest required for brain disease analysis may be output among the entire area of the brain image.

도 15는 MRI/PET 결합 방식으로 얻은 우측 기저핵의 평균 화소 값과 본 개시의 실시예에 따라 획득한 우측 기저핵의 평균 화소 값을 비교한 그래프(1500)이다. 도 15에 예시된 바와 같이, MRI를 이용하지 않고 PET 영상을 기계학습 모델로 입력하여 획득한 관심 영역에 대한 평균 화소 값은, MRI/PET 결합 방식으로 얻은 우측 기저핵의 평균 화소 값과 거의 일치되는 것을 알 수 있다. 이에 따라, 본 개시의 실시예에 따라, 획득된 관심 영역에 대한 평균 화소 값에 대한 정확성이 높음을 알 수 있다. Figure 15 is a graph (1500) comparing the average pixel value of the right basal ganglia obtained by a combined MRI/PET method with the average pixel value of the right basal ganglia obtained according to an embodiment of the present disclosure. As illustrated in Figure 15, the average pixel value for the region of interest obtained by inputting PET images into a machine learning model without using MRI is almost identical to the average pixel value of the right basal ganglia obtained through MRI/PET combined method. You can see that Accordingly, according to the embodiment of the present disclosure, it can be seen that the accuracy of the average pixel value for the obtained region of interest is high.

도 16은 본 개시의 일 실시예에 따른, 뇌영상 분석 방법(1600)을 설명하기 위한 흐름도이다. 도 16에 도시된 방법은, 본 개시의 목적을 달성하기 위한 일 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 또한, 도 16에 도시된 방법은, 도 2에 도시된 정보 처리 시스템에 포함된 적어도 하나의 프로세서에 의해서 수행될 수 있다. 설명의 편의를 위해서 도 2에 도시된 정보 처리 시스템에 포함된 프로세서에 의해서, 도 16에 도시된 각 단계가 수행되는 것으로 설명하기로 한다.FIG. 16 is a flowchart illustrating a brain image analysis method 1600 according to an embodiment of the present disclosure. The method shown in FIG. 16 is only an example to achieve the purpose of the present disclosure, and of course, some steps may be added or deleted as needed. Additionally, the method shown in FIG. 16 may be performed by at least one processor included in the information processing system shown in FIG. 2. For convenience of explanation, it will be described that each step shown in FIG. 16 is performed by a processor included in the information processing system shown in FIG. 2.

먼저, 프로세서는 도파민 신경계를 포함하는 뇌영상을 획득할 수 있다(S1610). 여기서, 뇌영상은 PET 기반의 뇌영상이거나, SPECT 기반의 뇌영상일 수 있다. First, the processor can acquire a brain image including the dopaminergic nervous system (S1610). Here, the brain image may be PET-based brain image or SPECT-based brain image.

그 후, 프로세서는 획득된 뇌영상을 제1 기계학습 모델에 입력하여, 제1 기계학습 모델에 의해 추출된 관심 영역을 획득할 수 있다(S1620). 일 실시예에 따르면, 제1 기계학습 모델은 뇌영상의 전체 영역으로부터 도파민 신경계와 연관된 관심 영역을 추출할 수 있다. Afterwards, the processor may input the acquired brain image into the first machine learning model to obtain the region of interest extracted by the first machine learning model (S1620). According to one embodiment, the first machine learning model may extract a region of interest associated with the dopaminergic nervous system from the entire brain image.

일 실시예에 따르면, 제1 기계학습 모델은 뇌 템플릿에 기초하여 뇌영상을 변형하고, 변형된 뇌영상의 전체 영역으로부터 관심 영역을 추출할 수 있다. 이때, 뇌 템플릿의 크기 또는 형태 중 적어도 하나에 기초하여, 뇌영상의 크기 또는 형태 중 적어도 하나가 변형될 수 있다. 또한, 제1 기계학습 모델은, 뇌 템플릿에 포함된 관심 공간 정보에 기초하여, 변형된 뇌영상의 전체 영역으로부터 관심 영역을 추출할 수 있다. According to one embodiment, the first machine learning model may transform a brain image based on a brain template and extract a region of interest from the entire region of the transformed brain image. At this time, based on at least one of the size or shape of the brain template, at least one of the size or shape of the brain image may be modified. Additionally, the first machine learning model can extract a region of interest from the entire area of the transformed brain image based on space of interest information included in the brain template.

일부 실시예에 따르면, 프로세서는 성별, 나이, 뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함하는 사용자 정보를 제1 기계학습 모델로 추가적으로 입력할 수 있다. 이 경우, 제1 기계학습 모델은, 사용자 정보에 기초하여 뇌영상의 전체 영역에서 관심 영역의 위치와 크기를 결정할 수 있다. 추가적으로, 프로세서는 뇌영상을 획득하기 전에, 학습용 사용자 정보, 학습용 뇌영상 및 레퍼런스 영역을 포함하는 트레이닝셋에 이용하여 제1 기계학습 모델에 대한 학습을 수행할 수 있다. 이 경우, 제1 기계학습 모델은 학습용 사용자 정보와 학습용 뇌영상을 기초로 출력된 관심 영역과 레퍼런스 영역 간의 손실이 최소화되도록 학습될 수 있다. According to some embodiments, the processor may additionally input user information including at least one of gender, age, family history of brain disease, or user's disease into the first machine learning model. In this case, the first machine learning model can determine the location and size of the region of interest in the entire brain image area based on user information. Additionally, before acquiring the brain image, the processor may perform learning on the first machine learning model using a training set including user information for learning, brain images for learning, and a reference region. In this case, the first machine learning model can be trained to minimize loss between the region of interest and the reference region output based on user information for learning and brain images for learning.

그 후, 프로세서는 관심 영역에 대한 특징 정보를 제2 기계학습 모델에 입력하여, 제2 기계학습 모델로부터 뇌질병 발병 여부에 대한 정보 또는 뇌질병 진행 정도 중 적어도 하나를 획득할 수 있다. 여기서, 제2 기계학습 모델은 관심 영역의 특징 정보에 기초하여 뇌질병을 판정할 수 있다. Thereafter, the processor may input feature information about the region of interest into the second machine learning model and obtain at least one of information on whether brain disease occurs or the degree of brain disease progression from the second machine learning model. Here, the second machine learning model can determine brain disease based on characteristic information of the region of interest.

일 실시예에 따르면, 관심 영역에 대한 특징 정보는, 관심 영역의 최대 화소 값, 최소 화소 값, 평균 화소 값 또는 화소 분산 값, 화소 값의 범위 또는 관심 영역에 포함된 제1 영역과 제2 영역 간의 비율 값 중 적어도 하나를 포함할 수 있다. 여기서, 제1 영역은 관심 영역에 포함된 제1 선조체과 연관되고, 제2 영역은 관심 영역에 포함된 제2 선조체와 연관될 수 있다. 도 6의 예시된 제2 뇌영상을 예를 설명하면, 프로세서는 좌측에 위치하며 검은색으로 표시된 제1 영역과 우측에 위치하며 검은색으로 표시된 제2 영역 간의 크기 비율을 산출할 수 있고, 산출된 비율이 관심 영역에 대한 특징 정보로 포함될 수 있다. According to one embodiment, the feature information about the region of interest includes the maximum pixel value, minimum pixel value, average pixel value or pixel distribution value, the range of pixel values, or the first and second regions included in the region of interest. It may include at least one of the ratio values between Here, the first region may be associated with the first striatum included in the region of interest, and the second region may be associated with the second striatum included in the region of interest. Taking the second brain image illustrated in FIG. 6 as an example, the processor can calculate the size ratio between the first region located on the left and marked in black and the second region located on the right and marked in black, and calculate The ratio may be included as feature information for the area of interest.

상술한 흐름도 및 상술한 설명은 일 예시일 뿐이며, 일부 실시예에서는 다르게 구현될 수 있다. 예를 들어, 일부 실시예에서는 각 단계의 순서가 바뀌거나, 일부 단계가 반복 수행되거나, 일부 단계가 생략되거나, 일부 단계가 추가될 수 있다.The above flowchart and above description are only examples and may be implemented differently in some embodiments. For example, in some embodiments, the order of each step may be changed, some steps may be performed repeatedly, some steps may be omitted, or some steps may be added.

상술한 방법은 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 제공될 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록 수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The above-described method may be provided as a computer program stored in a computer-readable recording medium for execution on a computer. Media may be used to continuously store executable programs on a computer, or may be temporarily stored for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and There may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.

본 개시의 방법, 동작 또는 기법들은 다양한 수단에 의해 구현될 수도 있다. 예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다. 본원의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 통상의 기술자들은 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 대체를 명확하게 설명하기 위해, 다양한 예시적인 구성요소들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능적 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는 지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 요구사항들에 따라 달라진다. 통상의 기술자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다.The methods, operations, or techniques of this disclosure may be implemented by various means. For example, these techniques may be implemented in hardware, firmware, software, or a combination thereof. Those skilled in the art will understand that the various illustrative logical blocks, modules, circuits, and algorithm steps described in connection with the disclosure herein may be implemented in electronic hardware, computer software, or combinations of both. To clearly illustrate this interchange of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the specific application and design requirements imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementations should not be interpreted as causing a departure from the scope of the present disclosure.

하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 개시에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다.In a hardware implementation, the processing units used to perform the techniques may include one or more ASICs, DSPs, digital signal processing devices (DSPDs), programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, electronic devices, and other electronic units designed to perform the functions described in this disclosure. , a computer, or a combination thereof.

따라서, 본 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 구성의 조합으로서 구현될 수도 있다.Accordingly, the various illustrative logical blocks, modules, and circuits described in connection with this disclosure may be general-purpose processors, DSPs, ASICs, FPGAs or other programmable logic devices, discrete gate or transistor logic, discrete hardware components, or It may be implemented or performed as any combination of those designed to perform the functions described in. A general-purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller, or state machine. A processor may also be implemented as a combination of computing devices, such as a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other configuration.

펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 비휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령들로서 구현될 수도 있다. 명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 개시에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다.For firmware and/or software implementations, techniques include random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), and PROM ( on computer-readable media such as programmable read-only memory (EPROM), electrically erasable PROM (EEPROM), flash memory, compact disc (CD), magnetic or optical data storage devices, etc. It may also be implemented as stored instructions. Instructions may be executable by one or more processors and may cause the processor(s) to perform certain aspects of the functionality described in this disclosure.

소프트웨어로 구현되는 경우, 상술된 기법들은 하나 이상의 명령들 또는 코드로서 컴퓨터 판독 가능한 매체 상에 저장되거나 또는 컴퓨터 판독 가능한 매체를 통해 전송될 수도 있다. 컴퓨터 판독가능 매체들은 한 장소에서 다른 장소로 컴퓨터 프로그램의 전송을 용이하게 하는 임의의 매체를 포함하여 컴퓨터 저장 매체들 및 통신 매체들 양자를 포함한다. 저장 매체들은 컴퓨터에 의해 액세스될 수 있는 임의의 이용 가능한 매체들일 수도 있다. 비제한적인 예로서, 이러한 컴퓨터 판독가능 매체는 RAM, ROM, EEPROM, CD-ROM 또는 다른 광학 디스크 스토리지, 자기 디스크 스토리지 또는 다른 자기 스토리지 디바이스들, 또는 소망의 프로그램 코드를 명령들 또는 데이터 구조들의 형태로 이송 또는 저장하기 위해 사용될 수 있으며 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체를 포함할 수 있다. 또한, 임의의 접속이 컴퓨터 판독가능 매체로 적절히 칭해진다.When implemented in software, the techniques described above may be stored on or transmitted through a computer-readable medium as one or more instructions or code. Computer-readable media includes both computer storage media and communication media, including any medium that facilitates transfer of a computer program from one place to another. Storage media may be any available media that can be accessed by a computer. By way of non-limiting example, such computer readable media may include RAM, ROM, EEPROM, CD-ROM or other optical disk storage, magnetic disk storage or other magnetic storage devices, or the desired program code in the form of instructions or data structures. It can be used to transfer or store data and can include any other media that can be accessed by a computer. Any connection is also properly termed a computer-readable medium.

예를 들어, 소프트웨어가 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선 (DSL), 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들을 사용하여 웹사이트, 서버, 또는 다른 원격 소스로부터 전송되면, 동축 케이블, 광섬유 케이블, 연선, 디지털 가입자 회선, 또는 적외선, 무선, 및 마이크로파와 같은 무선 기술들은 매체의 정의 내에 포함된다. 본원에서 사용된 디스크(disk) 와 디스크(disc)는, CD, 레이저 디스크, 광 디스크, DVD(digital versatile disc), 플로피디스크, 및 블루레이 디스크를 포함하며, 여기서 디스크들(disks)은 보통 자기적으로 데이터를 재생하고, 반면 디스크들(discs) 은 레이저를 이용하여 광학적으로 데이터를 재생한다. 위의 조합들도 컴퓨터 판독가능 매체들의 범위 내에 포함되어야 한다.For example, if the Software is transmitted from a website, server, or other remote source using coaxial cable, fiber optic cable, twisted pair cable, digital subscriber line (DSL), or wireless technologies such as infrared, radio, and microwave, , fiber optic cable, twisted pair, digital subscriber line, or wireless technologies such as infrared, radio, and microwave are included within the definition of medium. As used herein, disk and disk include CD, laser disk, optical disk, digital versatile disc (DVD), floppy disk, and Blu-ray disk, where disks are usually magnetic. It reproduces data optically, while discs reproduce data optically using lasers. Combinations of the above should also be included within the scope of computer-readable media.

소프트웨어 모듈은, RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터들, 하드 디스크, 이동식 디스크, CD-ROM, 또는 공지된 임의의 다른 형태의 저장 매체 내에 상주할 수도 있다. 예시적인 저장 매체는, 프로세가 저장 매체로부터 정보를 판독하거나 저장 매체에 정보를 기록할 수 있도록, 프로세서에 연결될 수 있다. 대안으로, 저장 매체는 프로세서에 통합될 수도 있다. 프로세서와 저장 매체는 ASIC 내에 존재할 수도 있다. ASIC은 유저 단말 내에 존재할 수도 있다. 대안으로, 프로세서와 저장 매체는 유저 단말에서 개별 구성요소들로서 존재할 수도 있다.A software module may reside in RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, removable disk, CD-ROM, or any other form of storage medium known. An exemplary storage medium may be coupled to the processor such that the processor may read information from or write information to the storage medium. Alternatively, the storage medium may be integrated into the processor. The processor and storage medium may reside within an ASIC. ASIC may exist within the user terminal. Alternatively, the processor and storage medium may exist as separate components in the user terminal.

이상 설명된 실시예들이 하나 이상의 독립형 컴퓨터 시스템에서 현재 개시된 주제의 양태들을 활용하는 것으로 기술되었으나, 본 개시는 이에 한정되지 않고, 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 본 개시에서 주제의 양상들은 복수의 프로세싱 칩들이나 장치들에서 구현될 수도 있고, 스토리지는 복수의 장치들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 장치들은 PC들, 네트워크 서버들, 및 휴대용 장치들을 포함할 수도 있다.Although the above-described embodiments have been described as utilizing aspects of the presently disclosed subject matter in one or more standalone computer systems, the disclosure is not limited thereto and may also be implemented in conjunction with any computing environment, such as a network or distributed computing environment. . Furthermore, aspects of the subject matter of this disclosure may be implemented in multiple processing chips or devices, and storage may be similarly effected across the multiple devices. These devices may include PCs, network servers, and portable devices.

본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 개시의 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.Although the present disclosure has been described in relation to some embodiments in this specification, various modifications and changes may be made without departing from the scope of the present disclosure as can be understood by a person skilled in the art to which the invention pertains. Additionally, such modifications and changes should be considered to fall within the scope of the claims appended hereto.

110 : 정보 처리 시스템
120 : 촬영 장치
130 : 사용자 단말
140 : 네트워크
110: Information processing system
120: shooting device
130: user terminal
140: network

Claims (11)

적어도 하나의 프로세서에 의해서 수행되는, 뇌영상 분석 방법에 있어서,
학습용 사용자 정보, 학습용 뇌영상 및 레퍼런스 영역을 포함하는 트레이닝셋에 이용하여 제1 기계학습 모델에 대한 학습을 수행하는 단계 - 상기 제1 기계학습 모델은 상기 학습용 사용자 정보와 학습용 뇌영상을 기초로 출력된 관심 영역과 상기 레퍼런스 영역 간의 손실이 최소화되도록 학습되고, 상기 학습용 사용자 정보는 학습용 뇌질병 가족력 또는 학습용 사용자 질병 중 적어도 하나를 포함함 - ;
도파민 신경계를 포함하는 뇌영상을 획득하는 단계;
뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함하는 사용자 정보를 획득하는 단계;
상기 획득된 뇌영상 및 상기 획득된 사용자 정보를 제1 기계학습 모델에 입력하여, 상기 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하는 단계; 및
상기 관심 영역에 포함된 제1 영역과 제2 영역의 비율을 포함하는 특징 정보를 제2 기계학습 모델에 입력하여, 상기 제2 기계학습 모델로부터 뇌질병 발병 여부에 대한 정보 또는 뇌질병 진행 정도 중 적어도 하나를 획득하는 단계
를 포함하고,
상기 제1 영역은 상기 뇌영상의 좌측 또는 앞측에 위치한 제1 선조체와 연관되고, 상기 제2 영역은 상기 뇌영상의 우측 또는 뒤측에 위치한 제2 선조체와 연관되고,
상기 제1 기계학습 모델은, 상기 사용자 정보에 기초하여, 상기 뇌영상의 전체 영역에서 도파민 신경계와 연관된 상기 관심 영역의 위치와 크기를 결정하고, 상기 결정된 위치와 크기에 상응하는 상기 관심 영역을 상기 뇌영상의 전체 영역으로부터 추출하고,
상기 제2 기계학습 모델은, 상기 제1 영역과 제2 영역의 비율을 포함하는 특징 정보에 기초하여 뇌질병을 판정하는, 뇌영상 분석 방법.
In a brain image analysis method performed by at least one processor,
Performing learning on a first machine learning model using a training set including user information for learning, brain images for learning, and a reference region - the first machine learning model is output based on the user information for learning and brain images for learning. is learned to minimize loss between the region of interest and the reference region, and the user information for learning includes at least one of a family history of a brain disease for learning or a user disease for learning;
Obtaining a brain image including the dopaminergic nervous system;
Obtaining user information including at least one of a family history of brain disease or a user's disease;
Inputting the acquired brain image and the acquired user information into a first machine learning model to obtain a region of interest extracted by the first machine learning model; and
Characteristic information including the ratio of the first region and the second region included in the region of interest is input to a second machine learning model, and information about whether brain disease occurs or the degree of brain disease progression is obtained from the second machine learning model. Steps to obtain at least one
Including,
The first region is associated with the first striatum located on the left or front of the brain image, and the second region is associated with the second striatum located on the right or rear of the brain image,
The first machine learning model determines the location and size of the region of interest associated with the dopaminergic nervous system in the entire area of the brain image, based on the user information, and selects the region of interest corresponding to the determined location and size. Extracted from the entire brain image area,
The second machine learning model is a brain image analysis method that determines brain disease based on feature information including the ratio of the first area and the second area.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항에 따른 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable recording medium for executing the method according to claim 1 on a computer.
정보 처리 시스템으로서,
메모리; 및
상기 메모리와 연결되고, 상기 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로그램은,
학습용 사용자 정보, 학습용 뇌영상 및 레퍼런스 영역을 포함하는 트레이닝셋에 이용하여 제1 기계학습 모델에 대한 학습을 수행하고 - 상기 제1 기계학습 모델은 상기 학습용 사용자 정보와 학습용 뇌영상을 기초로 출력된 관심 영역과 상기 레퍼런스 영역 간의 손실이 최소화되도록 학습되고, 상기 학습용 사용자 정보는 학습용 뇌질병 가족력 또는 학습용 사용자 질병 중 적어도 하나를 포함함 -,
도파민 신경계를 포함하는 뇌영상을 획득하고,
뇌질병 가족력 또는 사용자의 질병 중 적어도 하나를 포함하는 사용자 정보를 획득하고,
상기 획득된 뇌영상 및 상기 획득된 사용자 정보를 제1 기계학습 모델에 입력하여, 상기 제1 기계학습 모델에 의해 추출된 관심 영역을 획득하고,
상기 관심 영역에 포함된 제1 영역과 제2 영역의 비율을 포함하는 특징 정보를 제2 기계학습 모델에 입력하여, 상기 제2 기계학습 모델로부터 뇌질병 발병 여부에 대한 정보 또는 뇌질병 진행 정도 중 적어도 하나를 획득하기 위한 명령어들을 포함하고,
상기 제1 영역은 상기 뇌영상의 좌측 또는 앞측에 위치한 제1 선조체와 연관되고, 상기 제2 영역은 상기 뇌영상의 우측 또는 뒤측에 위치한 제2 선조체와 연관되고,
상기 제1 기계학습 모델은, 상기 사용자 정보에 기초하여, 상기 뇌영상의 전체 영역에서 도파민 신경계와 연관된 상기 관심 영역의 위치와 크기를 결정하고, 상기 결정된 위치와 크기에 상응하는 상기 관심 영역을 상기 뇌영상의 전체 영역으로부터 추출하고,
상기 제2 기계학습 모델은, 상기 제1 영역과 제2 영역의 비율을 포함하는 특징 정보에 기초하여 뇌질병을 판정하는, 정보 처리 시스템.
As an information processing system,
Memory; and
At least one processor connected to the memory and configured to execute at least one computer-readable program included in the memory
Including,
The at least one program is,
A training set containing learning user information, learning brain images, and a reference region is used to learn a first machine learning model - the first machine learning model is output based on the learning user information and learning brain images. It is learned to minimize loss between the region of interest and the reference region, and the learning user information includes at least one of a family history of a brain disease for learning or a user disease for learning -,
Acquire brain images involving the dopaminergic nervous system,
Obtain user information including at least one of a family history of brain disease or the user's disease,
Inputting the acquired brain image and the acquired user information into a first machine learning model to obtain a region of interest extracted by the first machine learning model,
Characteristic information including the ratio of the first region and the second region included in the region of interest is input to a second machine learning model, and information about whether brain disease occurs or the degree of brain disease progression is obtained from the second machine learning model. Contains instructions for obtaining at least one,
The first region is associated with the first striatum located on the left or front of the brain image, and the second region is associated with the second striatum located on the right or rear of the brain image,
The first machine learning model determines the location and size of the region of interest associated with the dopaminergic nervous system in the entire area of the brain image, based on the user information, and selects the region of interest corresponding to the determined location and size. Extracted from the entire brain image area,
The second machine learning model is an information processing system that determines brain disease based on feature information including the ratio of the first area and the second area.
KR1020220125467A 2022-09-30 2022-09-30 Method and system for analyzing brain image KR102582731B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220125467A KR102582731B1 (en) 2022-09-30 2022-09-30 Method and system for analyzing brain image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220125467A KR102582731B1 (en) 2022-09-30 2022-09-30 Method and system for analyzing brain image

Publications (1)

Publication Number Publication Date
KR102582731B1 true KR102582731B1 (en) 2023-09-25

Family

ID=88190448

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220125467A KR102582731B1 (en) 2022-09-30 2022-09-30 Method and system for analyzing brain image

Country Status (1)

Country Link
KR (1) KR102582731B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102627874B1 (en) * 2023-10-20 2024-01-23 주식회사 뉴큐어엠 Method and system for quantitative analysis of brain imaging based on ct images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200030517A (en) * 2020-03-05 2020-03-20 주식회사 휴런 Parkinson's disease diagnosis apparatus using nigrosome-1 detected by machine learning, and method
KR20210027057A (en) * 2019-08-30 2021-03-10 재단법인 아산사회복지재단 Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method
KR102256345B1 (en) * 2021-02-05 2021-05-28 주식회사 휴런 apparatus and method for providing information on Parkinson's disease using neuromelanin image
KR20220099409A (en) * 2021-01-06 2022-07-13 주식회사 뷰노 Method for classification using deep learning model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210027057A (en) * 2019-08-30 2021-03-10 재단법인 아산사회복지재단 Method of extracting volume of interest using artificial neural network and volume of interest extraction device performing method
KR20200030517A (en) * 2020-03-05 2020-03-20 주식회사 휴런 Parkinson's disease diagnosis apparatus using nigrosome-1 detected by machine learning, and method
KR20220099409A (en) * 2021-01-06 2022-07-13 주식회사 뷰노 Method for classification using deep learning model
KR102256345B1 (en) * 2021-02-05 2021-05-28 주식회사 휴런 apparatus and method for providing information on Parkinson's disease using neuromelanin image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102627874B1 (en) * 2023-10-20 2024-01-23 주식회사 뉴큐어엠 Method and system for quantitative analysis of brain imaging based on ct images

Similar Documents

Publication Publication Date Title
Lohmann et al. Radiomics in radiation oncology—basics, methods, and limitations
US9275451B2 (en) Method, a system, and an apparatus for using and processing multidimensional data
KR102582731B1 (en) Method and system for analyzing brain image
Wang et al. Applications of generative adversarial networks in neuroimaging and clinical neuroscience
Nazari et al. Explainable AI to improve acceptance of convolutional neural networks for automatic classification of dopamine transporter SPECT in the diagnosis of clinically uncertain parkinsonian syndromes
Piccardo et al. The role of the deep convolutional neural network as an aid to interpreting brain [18 F] DOPA PET/CT in the diagnosis of Parkinson’s disease
KR102427709B1 (en) Multi-modality medical images analysis method and apparatus for diagnosing brain disease
Jossinger et al. Locomotor adaptation is associated with microstructural properties of the inferior cerebellar peduncle
Guo et al. Hahn-PCNN-CNN: an end-to-end multi-modal brain medical image fusion framework useful for clinical diagnosis
Agarwal et al. Automated medical diagnosis of Alzheimer´ s disease using an efficient net convolutional neural network
Shah et al. Changes in brain functional connectivity and cognition related to white matter lesion burden in hypertensive patients from SPRINT
Wang et al. Population-specific brain [18F]-FDG PET templates of Chinese subjects for statistical parametric mapping
Iep et al. Relevance of 18F-DOPA visual and semi-quantitative PET metrics for the diagnostic of Parkinson disease in clinical practice: a machine learning-based inference study
Liu et al. A tissue‐fraction estimation‐based segmentation method for quantitative dopamine transporter SPECT
Zhang et al. Unified spatial normalization method of brain PET images using adaptive probabilistic brain atlas
Martí-Juan et al. Detection of lesions in the optic nerve with magnetic resonance imaging using a 3D convolutional neural network
Saito et al. Convolutional neural network-based automatic heart segmentation and quantitation in 123 I-metaiodobenzylguanidine SPECT imaging
US20210125332A1 (en) Diagnosis assisting system, diagnosis assisting method and diagnosis assisting program
Fu et al. Novel data-driven, equation-free method captures spatio-temporal patterns of neurodegeneration in Parkinson's disease: Application of dynamic mode decomposition to PET
Mirzaei et al. Fully automated 3D basal ganglia activity measurement in dopamine transporter scintigraphy (Spectalyzer)
KR102644342B1 (en) Method and system for brain structure segmentation for parkinson's disease diagnosis
Rheault et al. TractEM: evaluation of protocols for deterministic tractography white matter atlas
KR102644343B1 (en) Method and system for providing information for diagnosing parkinson's disease based on machine learning model
KR102627874B1 (en) Method and system for quantitative analysis of brain imaging based on ct images
KR102631389B1 (en) Method and system for generating mri images based on ct images

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant