KR102020157B1 - Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery - Google Patents

Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery Download PDF

Info

Publication number
KR102020157B1
KR102020157B1 KR1020180138182A KR20180138182A KR102020157B1 KR 102020157 B1 KR102020157 B1 KR 102020157B1 KR 1020180138182 A KR1020180138182 A KR 1020180138182A KR 20180138182 A KR20180138182 A KR 20180138182A KR 102020157 B1 KR102020157 B1 KR 102020157B1
Authority
KR
South Korea
Prior art keywords
lesion
image
flair
signal
dwi
Prior art date
Application number
KR1020180138182A
Other languages
Korean (ko)
Other versions
KR102020157B9 (en
Inventor
김원태
강신욱
이명재
김동민
장진성
박종혁
Original Assignee
사회복지법인 삼성생명공익재단
(주)제이엘케이인스펙션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 사회복지법인 삼성생명공익재단, (주)제이엘케이인스펙션 filed Critical 사회복지법인 삼성생명공익재단
Priority to KR1020180138182A priority Critical patent/KR102020157B1/en
Application granted granted Critical
Publication of KR102020157B1 publication Critical patent/KR102020157B1/en
Publication of KR102020157B9 publication Critical patent/KR102020157B9/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

Disclosed are a method for detecting a lesion and checking a status based on FLAIR and a system thereof. The method comprises the steps of: dividing a FLAIR image of a patient into a first FLAIR image signal corresponding to a left hemisphere of the brain of the patient and a second FLAIR image signal corresponding to a right hemisphere of the brain of the patient to use the FLAIR image in diagnosing a disease of the patient; estimating the lesion through artificial intelligence in each of the first and second FLAIR image signals; and calculating a ratio with a corresponding region of the other one of the first and second FLAIR image signals as compared to a lesion region estimated as the lesion in any one of the first and second FLAIR image signals, wherein the calculation results are used to diagnose the progress status of the lesion.

Description

FLAIR 기반 병변 검출과 현황 파악 방법 및 시스템{METHOD AND SYSTEM FOR DETECTING LESION AND DIAGNOSING LESION STATUS BASED ON FLUID ATTENUATION INVERTED RECOVERY}FLAIR-based lesion detection and status determination method and system {METHOD AND SYSTEM FOR DETECTING LESION AND DIAGNOSING LESION STATUS BASED ON FLUID ATTENUATION INVERTED RECOVERY}

본 발명의 실시예는 FLAIR(fluid attenuation inversion recovery) 기반으로 병변 영역을 검출하는 솔루션에 관한 것으로, 보다 구체적으로는, 확산 강조 영상(diffusion weighted imaging, 이하 'DWI 영상'이라 함)의 유무에 상관없이 FLAIR 기반으로 병변을 검출하고 병변의 진행상황 등에 대한 현황을 파악하는, 인공지능 기반의 병변 검출과 현황 파악 방법 및 시스템에 관한 것이다.Embodiment of the present invention relates to a solution for detecting lesion areas based on FLAIR (fluid attenuation inversion recovery), more specifically, correlated with the presence or absence of diffusion weighted imaging (DWI image) The present invention relates to an AI-based lesion detection method and a system and method for detecting lesions based on FLAIR and grasping the progress of lesions.

최근, 의료 영상으로 자기 공명 영상(magnetic resonance imaging, MRI)의 영상이 많이 이용되고 있다. MRI는 인체 조직 내의 수소입자(H+)의 자석 성질을 이용하여 자기장 내에서 조직에 따라 다른 공명/이완 현상 후에 발생하는 에너지를 신호로 포착하여 영상화하는 장치나 그 방법 혹은 그 장치로 획득되는 영상을 지칭한다.Recently, images of magnetic resonance imaging (MRI) have been widely used as medical images. MRI uses the magnetic properties of hydrogen particles (H +) in human tissues to capture and image the energy generated after resonance / relaxation phenomena according to tissues in a magnetic field, or a method or an image acquired by the apparatus. Refers to.

MRI 영상을 이용하여 질환 예컨대 뇌졸중 병변을 검출하기 위하여, MRI 영상 중 뇌의 혈류를 보여주는 관류 강조 영상(perfusion-weighted imaging, PWI)과, 물 분자의 확산을 보여주는 확산 강조 영상(diffusion-weighted imaging, DWI)이 많이 이용되고 있다. 예컨대, DWI는 뇌졸중 병변 코어(core) 영역을 검출하기 위해 이용되고, PWI는 뇌졸중 병변 코어 영역을 포함하여 주변까지 확장된 반음영(penumbra) 영역을 검출하기 위해 이용된다. 특히, DWI은 급성 뇌경색의 진단에 가장 민감한 기법으로 발생 수 분 이내 병변이 나타나 초급성 뇌경색의 치료 결정에 도움을 준다.In order to detect diseases such as stroke lesions using MRI images, perfusion-weighted imaging (PWI) showing the blood flow of the brain in MRI images, and diffusion-weighted imaging showing the diffusion of water molecules, DWI) is widely used. For example, DWI is used to detect stroke lesion core regions, and PWI is used to detect penumbra regions that extend to the periphery, including stroke lesion core regions. In particular, DWI is the most sensitive technique for diagnosing acute cerebral infarction, with lesions appearing within minutes of development, helping to determine the treatment of acute cerebral infarction.

또한, MRI 중 FLAIR(fluid attenuated inversion recovery)는 2500 msec 정도의 긴 반전 시간(TI)과 에코 시간(TE)으로 뇌척수액의 신호를 검게 억제시키는 기법으로 T2 강조 영상에서 놓치기 쉬운 병변을 발견하는데 도움을 준다.In addition, FLAIR (fluid attenuated inversion recovery) is a technique that suppresses signals from cerebrospinal fluid with a long reversal time (TI) and echo time (TE) of about 2500 msec. give.

이와 같이, T2 강조 영상, DWI 영상 및 FLAIR 영상은 병변을 발견하는 데에 유용하여 각종 병소의 발견과 진단에 광범위하게 이용되고 있다. 도 1에서는 여러 가지 스핀에코 영상기법을 보여주고 있는데, (a)는 T1 강조영상(TR/TE: 500/10), (b)는 T2 강조영상(TR/TE: 3000/90), 그리고 (c)는 FLAIR 영상(TR/TE: 500/150)을 각각 나타낸다. TR은 펄스 사이의 시간 간격 즉 반복 시간을 나타낸다.As such, T2-weighted images, DWI images, and FLAIR images are useful for finding lesions and are widely used for the detection and diagnosis of various lesions. Figure 1 shows a variety of spin echo imaging techniques, (a) is a T1 weighted image (TR / TE: 500/10), (b) is a T2 weighted image (TR / TE: 3000/90), and ( c) shows a FLAIR image (TR / TE: 500/150), respectively. TR represents the time interval, or repetition time, between the pulses.

한편, 상기의 의료 영상들 각각은 그 종류에 따라 서로 다른 영상 처리 과정을 거쳐야 하므로, 검출 혹은 진단 장치나 그 운용 시스템이 복잡하고 커지는 단점이 있다.On the other hand, each of the medical images must undergo a different image processing process according to the type, there is a disadvantage that the detection or diagnostic device or its operating system is complicated and large.

또한, 상기의 의료 영상들을 이용하여 종래의 병변 검출 기술 대부분은 의료 영상을 토대로 병변을 진단하는데 있어서 의사 등의 사용자의 참여를 필요로 하거나 사용자를 보조하는 수준에 머물러 있고, 자동으로 병변을 진단하는데는 아직까지 한계가 있다.In addition, most of the conventional lesion detection techniques using the above medical images require the participation of a user such as a doctor or the like to assist the user in diagnosing a lesion based on the medical image, and automatically diagnose the lesion. Is still limited.

최근, 의료 분야에서 기계학습(machine learning)이나 인공지능(artifical intelligence)을 도입하여 활발한 연구개발을 진행 중에 있다. 하지만, 특정 병변 예컨대 뇌졸중 등의 뇌질환과 관련하여 자동으로 병변을 진단하고 병변의 예후를 예측하는 연구개발 결과는 아직까지 미미한 실정이다.Recently, machine learning or artificial intelligence has been introduced in the medical field, and active research and development is underway. However, the results of research and development for automatically diagnosing a lesion and predicting the prognosis of the lesion in relation to a brain disease such as a stroke such as a stroke are still insignificant.

본 발명은 종래기술의 한계를 극복하기 위해 도출된 것으로, 본 발명의 목적은 FLAIR(fluid attenuation inversiont recovery) 영상을 직접적으로 이용하여 자동으로 병변을 검출하고 병변의 진행상태 등에 대한 현황을 파악할 수 있는, FLAIR 기반 병변 검출과 현황 파악 방법 및 장치를 제공하는데 있다.The present invention was derived to overcome the limitations of the prior art, an object of the present invention is to automatically detect lesions using FLAIR (fluid attenuation inversiont recovery) image directly to determine the status of the lesion progress, etc. The present invention provides a method and apparatus for detecting and detecting the status of FLAIR-based lesions.

본 발명의 다른 목적은 FLAIR 영상을 직접 인공지능 신경망으로 분석하여 급성 뇌질환 환자의 정량적인 병변 영역 및 부피를 검출하고 병변의 진행 상황 정보를 제공할 수 있는, FLAIR 기반 병변 검출과 현황 파악 방법 및 장치를 제공하는데 있다.Another object of the present invention is to analyze the FLAIR image by artificial intelligence neural network directly detects the quantitative lesion area and volume of patients with acute brain disease, and to provide the progress information of the lesion, FLAIR-based lesion detection and status determination method and To provide a device.

본 발명의 또 다른 목적은 의료 영상 내 확산 강조 영상(diffusion weighted imaging, 이하 'DWI 영상'이라 함)의 유무에 상관없이 FLAIR 영상을 기반으로 병변을 검출하고 병변의 진행 상황을 파악할 수 있는, FLAIR 기반 병변 검출과 현황 파악 방법 및 장치를 제공하는데 있다.Another object of the present invention is FLAIR, which can detect lesions based on FLAIR images and determine the progress of the lesions, with or without diffusion weighted imaging (DWI imaging) in medical images. To provide a method and apparatus for detecting lesions based on current status.

본 발명의 또 다른 목적은 상기의 FLAIR 기반 병변 검출과 현황 파악 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체를 제공하는데 있다.Another object of the present invention is to provide a computer-readable recording medium recording a program for implementing the above FLAIR-based lesion detection and status determination method.

상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 FLAIR(fluid attenuation inversion recovery) 기반 병변 검출과 현황 파악 방법은, 환자의 FLAIR(fluid attenuated inversion recovery) 영상을, 상기 환자의 병변을 진단하는데 사용하기 위해, 상기 환자의 뇌의 좌반구에 대응하는 제1 FLAIR 영상 신호와 상기 뇌의 우반구에 대응하는 제2 FLAIR 영상 신호로 분할하는 단계; 상기 제1 및 제2 FLAIR 영상 신호들 각각에서 인공지능을 통해 병변을 추정하는 단계; 및 상기 제1 및 제2 FLAIR 영상 신호들 중 어느 하나에서 상기 병변으로 추정된 병변영역과 대비되는 상기 제1 및 제2 FLAIR 영상 신호들 중 나머지 하나의 대응 영역과의 비율을 계산하는 단계를 포함하고, 상기 계산하는 단계에서 생성되는 계산 결과는 상기 병변의 진행 상태를 진단하는데 이용된다.FLAIR (fluid attenuation inversion recovery) based lesion detection and status determination method according to an aspect of the present invention for solving the technical problem, using a FLAIR (fluid attenuated inversion recovery) image of the patient, to diagnose the lesion of the patient To do this, the method comprises: dividing the first FLAIR image signal corresponding to the left hemisphere of the brain of the patient and the second FLAIR image signal corresponding to the right hemisphere of the brain; Estimating a lesion through artificial intelligence in each of the first and second FLAIR image signals; And calculating a ratio of one of the first and second FLAIR image signals to a corresponding region of the other one of the first and second FLAIR image signals compared to the lesion area estimated as the lesion. The calculation result generated in the calculating step is used to diagnose the progress of the lesion.

일실시예에서, FLAIR 기반 병변 검출과 현황 파악 방법은, 상기 계산하는 단계 후에 상기 비율, 상기 병변의 위치 및 상기 병변 영역의 크기를 토대로 상기 병변의 진행 상태를 진단하는 단계를 더 포함할 수 있다.In one embodiment, the FLAIR-based lesion detection and grasping method may further include diagnosing the progress of the lesion based on the ratio, the location of the lesion and the size of the lesion area after the calculating. .

일실시예에서, FLAIR 기반 병변 검출과 현황 파악 방법은, 상기 분할하는 단계 전에, 상기 FLAIR 영상에 대응하는 DWI(diffusion weighted imaging) 영상이 존재하는지를 판단하는 단계를 더 포함하며, 상기 DWI 영상이 존재하는 경우, 상기 분할하는 단계 전에 상기 FLAIR 영상의 사이즈를 조정하는 단계를 더 포함하고, 상기 분할하는 단계 후에 상기 DWI 영상과 상기 FLAIR 영상을 매칭시키는 단계를 더 포함할 수 있다.In an embodiment, the FLAIR-based lesion detection and status determination method may further include determining whether there is a diffusion weighted imaging (DWI) image corresponding to the FLAIR image before the dividing step, wherein the DWI image is present. If so, the method may further include adjusting a size of the FLAIR image before the dividing step, and after the dividing, matching the DWI image and the FLAIR image.

일실시예에서, 상기 조정하는 단계는 상기 DWI 영상의 신호처리 및 ADC(Apparent diffusion coefficient) 계산을 통해 나타난 값을 임계값으로 하는 위치적 정보를 획득하고, 상기 위치적 정보를 토대로 상기 DWI 영상을 상기 FLAIR 영상에 접목시키기 위해 영상의 크기를 조정하도록 구현될 수 있다.In one embodiment, the step of adjusting the position information obtained by the signal processing of the DWI image and the ADC (Apparent diffusion coefficient) calculation to obtain positional information as a threshold value, based on the positional information to obtain the DWI image It may be implemented to adjust the size of the image to be grafted to the FLAIR image.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 FLAIR 기반 병변 검출과 현황 파악 장치는, 컴퓨팅 장치를 포함하거나 컴퓨팅 장치에 탑재되어 FLAIR 기반으로 병변을 추출하고 병변 현황을 파악하는 장치로서, 영역 추출부 및 상기 영역 추출부에 연결되는 병변 상태 파악부를 구비하며, 상기 영역 추출부는, 입력되는 환자의 FLAIR 영상의 영상 신호를, 상기 환자의 병변을 진단하는데 사용하기 위해, 상기 환자의 뇌의 좌반구에 대응하는 제1 FLAIR 영상 신호와 상기 뇌의 우반구에 대응하는 제2 FLAIR 영상 신호로 분할하고, 인공지능을 통해 상기 제1 및 제2 FLAIR 영상 신호들 각각에서 병변을 추정하며; 상기 병변 상태 파악부는, 상기 영역 추출부로부터 받은 상기 제1 및 제2 FLAIR 영상 신호들 중 어느 하나에서 상기 병변으로 추정된 병변영역과 대비되는 상기 제1 및 제2 FLAIR 영상 신호들 중 나머지 하나의 대응 영역과의 비율을 계산하며, 여기서 상기 계산 결과는 상기 병변의 진행 상태를 진단하는데 이용된다.FLAIR-based lesion detection and status determination device according to another aspect of the present invention for solving the above technical problem, including a computing device or mounted on the computing device to extract the lesion based on FLAIR and to determine the current status of the area, And a lesion condition grasping unit connected to an extracting unit and the region extracting unit, wherein the region extracting unit is configured to use an image signal of a FLAIR image of a patient to be input to diagnose a lesion of the patient. Dividing the first FLAIR image signal corresponding to the second FLAIR image signal corresponding to the right hemisphere of the brain and estimating a lesion in each of the first and second FLAIR image signals through artificial intelligence; The lesion state detecting unit may further include one of the first and second FLAIR image signals compared to the lesion region estimated as the lesion in any one of the first and second FLAIR image signals received from the region extractor. The ratio with the corresponding area is calculated, where the result of the calculation is used to diagnose the progress of the lesion.

일실시예에서, FLAIR 기반 병변 검출과 현황 파악 장치는 상기 영역 추출부가 상기 영상 신호의 분할하기 전에, 상기 FLAIR 영상에 대응하는 DWI(diffusion weighted imaging) 영상이 존재하는지를 판단하는 신호 인식부를 더 포함하며, 상기 신호 인식부에 의해 상기 DWI 영상이 존재하는 것으로 인식되면, 상기 영역 추출부가 상기 분할하기 전에 상기 FLAIR 영상의 사이즈를 조정하는 사이즈 조정부를 더 포함하고, 상기 영역 추출부가 분할을 완료한 후에 상기 DWI 영상과 상기 FLAIR 영상을 매칭시키는 영상 매칭부를 더 포함할 수 있다.In one embodiment, the FLAIR-based lesion detection and status determination device further comprises a signal recognition unit for determining whether there is a difference weighted imaging (DWI) image corresponding to the FLAIR image, before the area extractor divides the image signal; And when the signal recognizing unit recognizes that the DWI image exists, the region extracting unit may further include a size adjusting unit adjusting the size of the FLAIR image before the dividing unit, and after the region extracting unit completes the dividing, The apparatus may further include an image matching unit that matches the DWI image and the FLAIR image.

일실시예에서, 상기 사이즈 조정부는 상기 DWI 영상의 신호처리 및 ADC(Apparent diffusion coefficient) 계산을 통해 나타난 값을 임계값으로 하는 위치적 정보를 획득하고, 상기 위치적 정보를 토대로 상기 DWI 영상을 상기 FLAIR 영상에 접목시키기 위해 영상의 크기를 조정할 수 있다.In one embodiment, the size adjusting unit obtains positional information having a threshold value, which is obtained through signal processing of the DWI image and calculating an ADC (Apparent Diffusion Coefficient), and based on the positional information, the size adjustment unit acquires the DWI image. You can resize the image to incorporate it into the FLAIR image.

일실시예에서, FLAIR 기반 병변 검출과 현황 파악 장치는, 상기 병변 상태 파악부에서 계산된 상기 비율, 상기 병변의 위치 및 상기 병변 영역의 크기를 토대로 상기 병변의 진행 상태를 진단하는 최종 진단부를 더 포함할 수 있다.In one embodiment, the FLAIR-based lesion detection and status determination device further comprises a final diagnostic unit for diagnosing the progress of the lesion based on the ratio, the position of the lesion and the size of the lesion area calculated by the lesion state determiner It may include.

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 장치는, 전술한 실시예들 중 어느 하나의 FLAIR 기반 병변 검출과 현황 파악 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체를 포함한다.An apparatus according to another aspect of the present invention for solving the above technical problem includes a computer-readable recording medium recording a program for implementing the FLAIR-based lesion detection and status determination method of any one of the above embodiments.

전술한 FLAIR(fluid attenuation inversion recovery) 기반 병변 검출과 현황 파악 방법 및 장치를 사용하는 경우에는, FLAIR 영상을 직접 인공지능 기반으로 분석하여 정량적인 병변 영역, 부피 및 진행 진황 정보를 생성할 수 있고, 그에 의해 병변 검출과 병변의 진행 상황 등에 대한 현황 파악을 신속하게 수행할 수 있으며, 장치의 간소화와 비용 절감의 효과를 얻을 수 있다.When using the above-described method and apparatus for detecting and presenting a lesion based on FLAIR (fluid attenuation inversion recovery), it is possible to generate quantitative lesion area, volume and progress information by directly analyzing the FLAIR image based on artificial intelligence. As a result, it is possible to quickly perform a status detection on the detection of the lesion and the progress of the lesion, and the effect of simplicity and cost reduction can be obtained.

또한, 본 발명에 의하면, 급성 뇌질환 환자의 FLAIR 영상에서 직접 병변영역 및 병변 진행상황을 자동 진단함으로써 수동적 노력을 감소시키거나 생략할 수 있으고, 전문의 수준으로 치료 필요성을 진단할 수 있는 장점이 있다.In addition, according to the present invention, it is possible to reduce or omit manual efforts by automatically diagnosing lesion areas and progression of lesions directly in FLAIR images of patients with acute brain disease, and to diagnose the necessity of treatment at a specialist level. There is this.

또한, 초급성시기의 출혈, 지주막하 출혈 등의 급성 뇌실내 출혈 그리고 석회화를 포함한 질환 등에서는 MR(magnetic resonance)보다는 CT(computed tomography)가 진단에 우월하다고 알려져 있는데, MR 영상 중 하나인 FLAIR 영상을 본 발명의 방법이나 장치에 활용하면, 상기의 병변에 대하여 CT보다 우수한 병병 검출 성능을 얻을 수 있고, 아울러 병변의 진행 상황 등의 현황을 손쉽게 파악할 수 있는 장점이 있다.Also, in patients with acute intraventricular bleeding such as acute acute hemorrhage, subarachnoid hemorrhage, and diseases including calcification, computed tomography (CT) is superior to MR (magnetic resonance), which is one of the MR imaging FLAIR images. When used in the method or apparatus of the present invention, it is possible to obtain better disease detection performance than CT for the above-described lesions, and also to easily grasp the current status of the lesions.

도 1은 기존의 여러 가지 스핀에코 영상기법을 나타낸 예시도.
도 2는 본 발명의 일 실시예에 따른 FLAIR(fluid attenuation inversion recovery) 기반 병변 검출과 현황 파악 장치를 나타낸 블록도.
도 3은 도 2의 장치의 주요 작동 원리 중 하나를 설명하기 위한 흐름도.
도 4는 도 2의 장치에 채용할 수 있는 합성곱 신경망에 대한 구조도.
도 5는 본 발명의 다른 실시예에 따른 FLAIR 기반 병변 검출과 현황 진단 방법에 대한 흐름도.
도 6은 도 5의 방법을 구현하는 장치 구성의 일실시예에 대한 블록도.
도 7은 도 6의 장치에 결합되거나 연결되는 사용자 단말의 화면에 출력되는 정보를 설명하기 위한 도면.
1 is an exemplary diagram showing various conventional spin echo imaging techniques.
2 is a block diagram showing an apparatus for detecting and detecting a current condition based on FLAIR (fluid attenuation inversion recovery) according to an embodiment of the present invention.
3 is a flow chart for explaining one of the main principles of operation of the apparatus of FIG.
4 is a structural diagram of a convolutional neural network that can be employed in the apparatus of FIG.
5 is a flow chart for a FLAIR-based lesion detection and status diagnosis method according to another embodiment of the present invention.
6 is a block diagram of one embodiment of an apparatus configuration that implements the method of FIG.
FIG. 7 is a diagram for describing information output on a screen of a user terminal coupled or connected to the apparatus of FIG. 6.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the inventive concept disclosed herein are provided only for the purpose of describing the embodiments according to the inventive concept. It may be embodied in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the inventive concept may be variously modified and have various forms, so embodiments are illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments in accordance with the concept of the invention to the specific forms disclosed, and includes all changes, equivalents, or substitutes included in the spirit and scope of the present invention.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함한다" 또는 "가진다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "having" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described herein, but one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, parts, or combinations thereof.

본 명세서에서 사용되는 용어는 다음과 같다.The terminology used herein is as follows.

T2 강조 영상(T2-weighted imaging): 자기공명영상(magnetic resonance imaging, MRI)으로부터 특정 펄스열(pulse sequence)에서 획득하는 기법 혹은 이 기법으로 획득된 영상을 지칭하는 것으로, 영상은 주로 인체 내부 조직의 구조적 정보를 제공한다.T2-weighted imaging: refers to a technique obtained from a magnetic resonance imaging (MRI) in a specific pulse sequence or an image obtained by this technique, which is mainly a Provide structural information.

FLAIR(Fluid attenuated inversion recovery): 긴 역전 시간과 에코 시간으로 뇌척수액의 신호를 약화시켜 T2 강조영상에서 놓치기 쉬운 병변의 발견을 더욱 용이하게 한 자기영상장치를 이용한 신호 획득 기법이나 이 기법으로 획득되는 영상을 지칭한다. FLAIR은 유체 감쇠 반전 복구로 지칭될 수 있다.FLAIR (Fluid attenuated inversion recovery): Signal acquisition using magnetic imaging devices or images acquired using this technique that attenuate the signal of cerebrospinal fluid with long reversal and echo times, making it easier to find lesions that are easy to miss in T2-weighted images. Refers to. FLAIR may be referred to as fluid attenuation inversion recovery.

DWI(Diffusion weighted imaging): 자기공명영상으로부터 획득하는 확산 강조 영상을 주로 지칭하며, 세포 조직 안의 물 분자가 특정 방향으로 확산하는 정도 및 여부에 대한 정보를 제공한다.DWI (Diffusion weighted imaging): refers to diffusion-weighted images obtained from magnetic resonance imaging, and provides information on the extent and whether the water molecules in the cell tissue diffuse in a specific direction.

PWI(Perfusion weighted imaging): 자기공명영상으로부터 획득하는 관류 강조 영상(간단히, 관류 영상)을 주로 지칭하며, 투입된 조영제의 시간에 따른 농도 변화에 대한 정보를 제공한다.Perfusion weighted imaging (PWI): It refers mainly to perfusion-weighted images (simply perfusion images) obtained from magnetic resonance imaging, and provides information on concentration changes over time of injected contrast medium.

Penumbra: 허혈성 사건이나 색전증 등에 의해서 발생하는 영상 내 반음영 영역으로, 산소 운반 기능이 국부적으로 감소되어 저산소 세포 사멸을 일으키거나 수시간 동안 내의 적절한 처치 시 생존가능한 영역을 가리킨다.Penumbra: A semi-shaded area in the image that is caused by an ischemic event or embolism, which locally reduces oxygen transport function, resulting in hypoxic cell death, or a viable area within a few hours of proper treatment.

ADC(Apparent diffusion coefficient): 자기공명영상으로부터 획득하는 겉보기 확산 계수로서, 인체 내부 조직의 확산 방해 요소에 대한 정보를 제공한다.Apparent diffusion coefficient (ADC): An apparent diffusion coefficient obtained from magnetic resonance images, which provides information on diffusion barriers of human internal tissues.

이하 본 발명의 바람직한 실시예를 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.

도 2는 FLAIR(fluid attenuation inversion recovery) 기반 병변 검출과 현황 파악 장치(이하 간략히 '진단 장치'라고 함)를 나타낸 블록도이다.FIG. 2 is a block diagram illustrating a device for detecting and presenting a lesion based on fluid attenuation inversion recovery (FLAIR) (hereinafter, simply referred to as a 'diagnosis device').

도 2를 참조하면, 본 실시예에 따른 진단 장치(100)는 영역 추출부(10) 및 병변 상태 파악부(20)를 통해 입력되는 FLAIR 영상을 처리하여 병변 검출 및 병변 진행상태를 진단하는데 이용되는 신호, 데이터 또는 정보를 출력한다. 진단 장치(100)는 컴퓨팅 장치를 포함하거나 컴퓨팅 장치에 탑재되어 FLAIR 기반으로 병변을 추출하고 병변 현황을 파악하는 장치일 수 있다.Referring to FIG. 2, the diagnostic apparatus 100 according to the present exemplary embodiment is used to process a FLAIR image input through an area extractor 10 and a lesion state determiner 20 to detect a lesion and diagnose a lesion progression state. Output the signal, data or information. The diagnostic apparatus 100 may include a computing device or may be mounted on the computing device to extract a lesion based on FLAIR and determine a current state of the lesion.

본 실시예에 따른 진단 장치(100)의 주된 특징은 FLAIR 영상을 직접 이용하여 인공지능 기반으로 병변 영역을 추정하고, 추정한 병변 영역에 대한 상대 반구 측 영역의 비율을 계산하고, 추정된 병변 영역과 계산된 비율에 기초하여 인공지능 기반으로 병변의 진행 상태를 효과적으로 진단하는데 있다. 계산된 비율이 작으면, 즉 비교 대상의 두 신호들 간의 차이가 작으면 병변이 생긴지 오랜된 것일 수 있다.The main feature of the diagnostic apparatus 100 according to the present embodiment is to estimate a lesion area based on artificial intelligence using a FLAIR image directly, calculate the ratio of the relative hemisphere side area to the estimated lesion area, and estimate the lesion area. Based on the calculated ratio, we can effectively diagnose the progress of the lesion based on artificial intelligence. If the calculated ratio is small, that is, the difference between the two signals to be compared is small, the lesion may be old.

영역 추출부(10)는, 입력되는 환자의 FLAIR 영상의 영상 신호를, 환자의 병변을 진단하는데 사용하기 위해, 환자의 뇌의 좌반구에 대응하는 제1 FLAIR 영상 신호와 환자의 뇌의 우반구에 대응하는 제2 FLAIR 영상 신호로 분할하고, 인공지능을 통해 제1 및 제2 FLAIR 영상 신호들 각각에서 병변을 추정할 수 있다.The region extractor 10 corresponds to the first FLAIR image signal corresponding to the left hemisphere of the patient's brain and the right hemisphere of the patient's brain, in order to use the input image signal of the patient's FLAIR image to diagnose the patient's lesion. The second FLAIR image signal may be divided, and the lesion may be estimated from each of the first and second FLAIR image signals through artificial intelligence.

병변 상태 파악부(20)는, 영역 추출부(10)로부터 받은 제1 및 제2 FLAIR 영상 신호들 중 어느 하나에서 병변으로 추정된 병변영역과 대비되는 제1 및 제2 FLAIR 영상 신호들 중 나머지 하나의 대응 영역과의 비율을 계산할 수 있다. 계산 결과는 인공지능을 통해 병변의 진행 상태를 진단하는데 이용될 수 있다.The lesion state determiner 20 may perform the rest of the first and second FLAIR image signals compared to the lesion region estimated as the lesion in any one of the first and second FLAIR image signals received from the region extractor 10. The ratio with one corresponding area can be calculated. The calculation results can be used to diagnose the progression of the lesion through artificial intelligence.

또한, 본 실시예에 따른 진단 장치(100)이나 이러한 진단 장치(100)를 포함하는 진단 시스템(100A)은 영역 추출부(10)와 병변 상태 파악부(20) 외에 최종 진단부(30)를 더 포함할 수 있다. 최종 진단부(30)는 영역 추출부(10)에서 검출된 병변 영역과, 병변 상태 파악부(20)에서 파악된 병변영역에 대비되는 반구측 대응 영역의 비율(참조 비율) 등을 인공지능으로 학습하여 병변의 진행 상태를 진단할 수 있다. 최종 진단부(30)는 병변 상태 파악부(20)에서 계산된 비율, 영역 검출부(10)에 의해 검출된 병변의 위치 및 병변 영역의 크기를 토대로 병변의 진행 상태를 진단할 수 있다.In addition, the diagnostic apparatus 100 or the diagnostic system 100A including the diagnostic apparatus 100 according to the present exemplary embodiment may include the final diagnosis unit 30 in addition to the region extraction unit 10 and the lesion state determining unit 20. It may further include. The final diagnosis unit 30 uses artificial intelligence as the ratio (reference ratio) of the lesion area detected by the region extraction unit 10 and the hemisphere-side corresponding region compared to the lesion area detected by the lesion state determining unit 20. Learning can diagnose the progress of the lesion. The final diagnosis unit 30 may diagnose the progress state of the lesion based on the ratio calculated by the lesion state determining unit 20, the position of the lesion detected by the region detection unit 10, and the size of the lesion region.

최종 진단부(30)의 진단 결과는 환자의 병변에 대한 진행 상태에 대한 진단 정보일 수 있으나, 이에 한정되지 않고, 의사 등에게 전달되는 진단 결과로서 검출된 병변을 진단하거나 병변의 진행 상태를 예측하는데 보조하도록 가공된 정보 출력 형태를 가질 수 있다.The diagnosis result of the final diagnosis unit 30 may be diagnostic information regarding the progress state of the patient's lesion, but is not limited thereto. The diagnosis result may be diagnosed as a diagnosis result delivered to a doctor or predicted the progress state of the lesion. It may have a form of information output that is processed to assist in doing so.

본 실시예의 진단 장치(100)에 채용가능한 인공지능(70)은 별도의 전처리기, 인식기, 학습기 또는 이들이 조합된 독립적인 기능부 혹은 구성부로서 진단 장치(100)에 연결되는 형태를 구비하거나 각 구성부에 탑재되는 형태를 구비할 수 있다. 인공지능(50)은 인공신경망 외에 기계학습(machine learning, 52) 또는 딥러닝(54)를 포함하도록 설계될 수 있다. 딥러닝(54)은 합성곱 신경망 등을 포함할 수 있다. 이러한 인공지능(70)이나 이를 포함하는 인공지능 시스템은 으로 지칭될 수 있다.The artificial intelligence 70 employable in the diagnostic apparatus 100 of the present embodiment has a form that is connected to the diagnostic apparatus 100 as a separate preprocessor, recognizer, learner, or a combination of independent functional units or components thereof. It can be provided with the form mounted in a component part. Artificial intelligence 50 may be designed to include machine learning 52 or deep learning 54 in addition to neural networks. Deep learning 54 may include a convolutional neural network or the like. Such an artificial intelligence 70 or an artificial intelligence system including the same may be referred to as.

도 3은 도 2의 장치의 주요 작동 원리 중 하나를 설명하기 위한 흐름도이다.3 is a flow chart for explaining one of the main principles of operation of the apparatus of FIG.

도 3을 참조하면, 본 실시예에 따른 FLAIR 기반 병변 검출과 현황 파악 방법(이하 간략히 '진단 방법'이라고 함)은, 반구 나눔 단계(S31), 병변 추정 단계(S32) 및 비율 계산 단계(S33)를 포함한다.Referring to FIG. 3, the FLAIR-based lesion detection and status determination method according to the present embodiment (hereinafter, simply referred to as a 'diagnosis method') includes a hemisphere division step (S31), a lesion estimation step (S32), and a ratio calculation step (S33). ).

반구 나눔 단계(S31)에서는 입력되는 FLAIR 영상을 환자의 뇌의 좌반구 영상과 우반구 영상으로 분리하기 위하여 FLAIR 영상의 영상 신호를 제1 FLAIR 영상 신호와 제2 FLAIR 영상 신호로 분할하도록 이루어질 수 있다. FLAIR 영상은 뇌경색(cerebral infraction), 뇌출혈(cerebral hemorrhage) 등과 같은 급성 뇌졸중(acute stroke)을 앓고 있는 환자의 뇌를 MRI(magnetic resonance imaging) 장치로 촬영한 영상일 수 있다.In the hemispheric dividing step (S31), an image signal of a FLAIR image may be divided into a first FLAIR image signal and a second FLAIR image signal in order to separate the input FLAIR image into a left hemisphere image and a right hemisphere image of the patient's brain. The FLAIR image may be an image of a brain of a patient suffering from an acute stroke, such as cerebral infraction and cerebral hemorrhage, by magnetic resonance imaging (MRI).

병변 추정 단계(S32)에서는 인공지능을 통해 제1 FLAIR 영상과 제2 FLAIR 영상에서 병변 또는 병변 영역을 각각 추정한다.In the lesion estimation step S32, the lesion or the lesion region is estimated in the first FLAIR image and the second FLAIR image through artificial intelligence.

다음, 비율 계산 단계(S33)에서는 병변으로 추정된 병변 영역을 가지는 일측 반구의 병변영역에 대비되는 상대측 반구의 대응 영역을 추출하고, 병변 영역에 대한 대응 영역의 비율을 계산한다.Next, in the ratio calculation step S33, the corresponding region of the hemisphere relative to the lesion region of one hemisphere having the lesion region estimated as the lesion is extracted, and the ratio of the corresponding region to the lesion region is calculated.

위의 단계들을 통해 FLAIR 영상에서 직접 계산된 비율은 병변 검출과 병변의 진행 상태에 대한 정보이며, 이러한 정보는 인공지능 기반의 분석에 의해 환자의 병변의 진행 상태를 진단하는 자료로 효과적으로 이용될 수 있다.The ratios calculated directly from the FLAIR images through the above steps are information on lesion detection and the progress of the lesion, and this information can be effectively used as a data for diagnosing the progress of the lesion by artificial intelligence based analysis. have.

도 4는 도 2의 장치에 채용할 수 있는 합성곱 신경망에 대한 구조도이다.4 is a structural diagram of a convolutional neural network that may be employed in the apparatus of FIG. 2.

본 실시예에 따른 FLAIR 기반 병변 검출 및 현황 파악 장치는 병변 검출 또는 현황 파악을 위해 인공지능 신경망으로 딥러닝 아키텍처를 이용할 수 있다. 딥러닝 아키텍처는 의료 영상들 각각의 병변, 병변영역 또는 병변후보에 대하여 합성곱 신경망(convolutional neural network, CNN), 디컨볼루션(deconvolution), 스킵 컨넥션(skip connection) 등을 사용하여 학습하도록 구현될 수 있다.The FLAIR-based lesion detection and status determination apparatus according to the present embodiment may use a deep learning architecture as an artificial intelligence neural network for lesion detection or status determination. Deep learning architecture can be implemented to learn about the lesion, lesion area, or lesion candidate of each medical image using a convolutional neural network (CNN), deconvolution, skip connection, and the like. Can be.

일례로, 딥러닝 아키텍처는 컨볼루션 네트워크와 디컨볼루션 네트워크 및 숏컷(shortcut)을 포함한 형태를 구비할 수 있다. 도 6에 도시한 바와 같이, 딥러닝 아키텍처는 의료 영상(X)의 국소적인 특징을 추출하기 위하여 3x3 크기의 컬러 컨볼루션 레이어(convolution layer)와 액티베이션 레이어(ReLU)를 쌓고 2x2 크기의 필터를 스트라이드(stride) 1로 적용하여 다음 하위 깊이 레벨로 연결되는 컨볼루션 블록의 연산을 4회 반복하여 수행하고, 그 다음에 2x2 크기의 디컨볼루션 레이어(deconvolution layer)와 액티베이션 레이어(ReLU)를 적용하여 다음 상위 깊이 레벨로 연결된 후 3x3 크기의 컬러 컨볼루션 레이어와 액티베이션 레이어를 쌓는 역컨볼루션 블록의 연산을 4회 반복하여 수행하며, 여기서 각 레벨의 컨볼루션 블록의 연산을 포함한 컨볼루션 네트워크의 각 레벨의 컨볼루션 블록의 이미지에 동일 레벨의 역컨볼루션 네트워크의 대응 레벨의 컨볼루션 결과를 갖다 붙이고(copy and contatenate) 각 블록에서 컨볼루션 연산을 각각 수행하도록 이루어질 수 있다.In one example, the deep learning architecture may have a form including a convolution network and a deconvolution network and a shortcut. As shown in FIG. 6, the deep learning architecture stacks a 3x3 color convolution layer and an activation layer (ReLU) and strides a 2x2 size filter to extract local features of the medical image (X). Apply to (stride) 1 to repeat the calculation of the convolution block to the next lower depth level four times, and then apply a 2x2 deconvolution layer and an activation layer (ReLU) After the connection to the next higher depth level, the operation of the inverse convolution block, which stacks the 3x3 color convolution layer and the activation layer, is repeated four times, where each level of the convolutional network including the operation of the convolution block of each level is performed. Copy and contaten the image of the convolutional block of to the corresponding convolutional level of the inverse convolutional network of the same level. ate) may be configured to perform a convolution operation in each block.

컨볼루션 네트워크와 디컨볼루션 네트워크 내 컨볼루션 블록은 conv-ReLU-conv 레이어들의 조합으로 구현될 수 있다. 그리고, 딥러닝 아키텍처의 출력은 컨볼루션 네트워크이나 디컨볼루션 네트워크에 연결되는 분류기를 통해 얻어질 수 있으나, 이에 한정되지는 않는다. 분류기는 FCN(fully connectivity network) 기법을 이용하여 영상에서 국소적인 특징을 추출하는데 이용될 수 있다.Convolution blocks in the convolutional network and the deconvolutional network may be implemented as a combination of conv-ReLU-conv layers. In addition, the output of the deep learning architecture may be obtained through a classifier connected to a convolution network or a deconvolution network, but is not limited thereto. The classifier can be used to extract local features from an image using a fully connectivity network (FCN) technique.

또한, 딥러닝 아키텍처는 구현에 따라서 컨볼루션 블록 내에 인셉션 모듈(inseption module) 또는 멀티 필터 경로(multi filter pathway)를 추가로 사용하도록 구현될 수 있다. 인셉션 모듈 또는 멀티 필터 경로 내 서로 다른 필터는 1x1 필터를 포함할 수 있다.In addition, the deep learning architecture may be implemented to further use an inception module or multi filter pathway in the convolution block, depending on the implementation. Different filters in the inception module or multi-filter path may include a 1 × 1 filter.

참고로, 딥러닝 아키텍처에서 입력(input) 이미지가 가로 32, 세로 32, 그리고 RGB 채널을 가지는 경우, 입력 이미지(X)의 크기는 [32x32x3]일 수 있다. 딥러닝 아키텍처의 CNN(convloultional neural network)에서 콘볼루션(convolutional, CONV) 레이어는 입력 이미지의 일부 영역과 연결되며, 이 연결된 영역과 자신의 가중치의 내적 연산(dot product)을 계산하도록 설계될 수 있다.For reference, when the input image has 32 horizontal, 32 vertical, and RGB channels in the deep learning architecture, the size of the input image X may be [32x32x3]. In the deep learning architecture's convolutional neural network (CNN), the convolutional (CONV) layer is associated with some regions of the input image and can be designed to calculate the dot product of these linked regions and their weights. .

여기서, ReLU(rectified linear unit) 레이어는 max(0,x)와 같이 각 요소에 적용되는 액티베이션 함수(activation function)이다. ReLU 레이어는 볼륨의 크기를 변화시키지 않는다. POOLING 레이어는 (가로, 세로)로 표현되는 차원에 대해 다운샘플링(downsampling) 또는 서브샘블링(subsampling)을 수행하여 감소된 볼륨을 출력할 수 있다.Here, the rectified linear unit (ReLU) layer is an activation function applied to each element, such as max (0, x). The ReLU layer does not change the size of the volume. The POOLING layer may output a reduced volume by performing downsampling or subsampling on the dimension represented by (horizontal and vertical).

그리고, 전연결(fully-connected, FC) 레이어는 클래스 점수들을 계산하여 예컨대 [1x1x10]의 크기를 갖는 볼륨을 출력할 수 있다. 이 경우, 10개 숫자들은 10개 카테고리에 대한 클래스 점수에 해당한다. 전연결 레이어는 이전 볼륨의 모든 요소와 연결된다. 거기서, 어떤 레이어는 모수(parameter)를 갖지만 어떤 레이어는 모수를 갖지 않을 수 있다. CONV/FC 레이어들은 액티베이션 함수로서 단순히 입력 볼륨만이 아니라 가중치(weight)와 바이어스(bias)를 포함할 수 있다. 한편, ReLU/POOLING 레이어들은 고정된 함수로서, CONV/FC 레이어의 모수들은 각 이미지에 대한 클래스 점수가 해당 이미지의 레이블과 같아지도록 그라디언트 디센트(gradient descent)로 학습될 수 있다.The fully-connected (FC) layer may calculate the class scores and output a volume having a size of, for example, [1 × 1 × 10]. In this case, the ten numbers correspond to class scores for ten categories. The pre-connection layer is connected to all the elements of the previous volume. There, some layers may have parameters but some layers may not have parameters. CONV / FC layers may include weight and bias as well as input volume as an activation function. Meanwhile, the ReLU / POOLING layers are fixed functions, and the parameters of the CONV / FC layer can be learned in gradient descent so that the class score for each image is the same as the label of the image.

도 5는 본 발명의 다른 실시예에 따른 FLAIR 기반 병변 검출과 현황 파악 방법에 대한 흐름도이다.5 is a flow chart of a FLAIR-based lesion detection and status determination method according to another embodiment of the present invention.

도 5를 참조하면, 본 실시예에 따른 진단 방법은 진단 장치에 FLAIR 영상이 입력되지 전에, FLAIR 영상이 입력된 후에, 혹은 영역 추출부에서 FLAIR 영상을 반구별 영상으로 분할하기 전에, FLAIR 영상에 대응하는 DWI(diffusion weighted imaging) 영상이 존재하는지를 판단할 수 있다(S51).Referring to FIG. 5, in the diagnostic method according to the present exemplary embodiment, before the FLAIR image is input to the diagnostic apparatus, after the FLAIR image is input or before the FLAIR image is divided into the hemispherical images by the region extraction unit, the FLAIR image is input to the FLAIR image. It may be determined whether there is a corresponding difference weighted imaging (DWI) image (S51).

상기 단계(S51)의 판단 결과, DWI 영상이 존재하면, 영역 추출부는 사이즈 조정부를 통해 DWI 영상의 사이즈 또는 FLAIR 영상의 사이즈를 조정할 수 있다. 영상의 사이즈 조정은, DWI 영상의 신호처리 및 ADC(Apparent diffusion coefficient) 계산 과정을 통해 나타난 값을 임계값으로 하는 위치적 정보를 획득하고(S52), 획득된 위치적 정보를 토대로 DWI 영상의 크기를 조정하여 FLAIR 영상에 접목시키도록 이루어질 수 있다(S53). 영상 접목은 DWI 영상과 FLAIR 영상을 매칭시키는 것을 포함할 수 있다.As a result of the determination in step S51, if there is a DWI image, the area extractor may adjust the size of the DWI image or the size of the FLAIR image through the size adjusting unit. Image size adjustment is performed by acquiring positional information whose threshold value is obtained through signal processing of the DWI image and calculating an ADC (Apparent diffusion coefficient) (S52), and based on the acquired positional information, the size of the DWI image It may be made to graf the FLAIR image by adjusting (S53). The image graft may include matching the DWI image and the FLAIR image.

다음, FLAIR 영상을 좌반구와 우반구에 대응하는 반구 영상들로 나누고(S54), 각 반구 영상에서 병변을 추출하고, 병변이 추출된 한쪽 반구의 병변 영역과 이 병변 영역에 대비되는 다른쪽 반구의 대응 영역과의 비율을 계산할 수 있다(S55).Next, the FLAIR image is divided into hemisphere images corresponding to the left hemisphere and the right hemisphere (S54), the lesion is extracted from each hemisphere image, and the lesion region of one hemisphere from which the lesion is extracted and the correspondence of the other hemisphere in contrast to the lesion region The ratio with the area can be calculated (S55).

그런 다음, 앞서 계산된 비율, 앞서 검출된 병변영역 등의 정보를 기초하여 인공지능 기반의 학습을 통해 질환 또는 병변의 진행 상태를 진단할 수 있다(S56).Then, the progress of the disease or the lesion may be diagnosed through artificial intelligence-based learning based on the information of the previously calculated ratio and the previously detected lesion area.

한편, 상기의 단계(S51)에서 대응 DWI 영상이 존재하지 않으면, 본 실시예에서는 DWI 영상의 유무에 상관없이 도 3의 단계들을 수행하여 병변 영역을 검출하고 병변의 진행 상태를 파악하도록 이루어질 수 있다.On the other hand, if there is no corresponding DWI image in the step (S51), in the present embodiment may perform the steps of Figure 3 regardless of the presence or absence of the DWI image to detect the lesion area and determine the progress of the lesion .

도 6은 도 5의 방법을 구현하는 장치 구성의 일실시예에 대한 블록도이다.6 is a block diagram of one embodiment of an apparatus configuration that implements the method of FIG.

도 6을 참조하면, 본 실시예에 따른 진단 장치는 컴퓨팅 장치로 구현될 수 있다. 컴퓨팅 장치는 프로그램을 저장하는 메모리(40), 및 메모리(40)에 연결되어 프로그램을 수행하는 프로세서(50)를 구비하고, 구현에 따라서 통신 인터페이스(60)를 더 구비하여 구현될 수 있다.Referring to FIG. 6, the diagnostic apparatus according to the present embodiment may be implemented as a computing device. The computing device may include a memory 40 storing a program and a processor 50 connected to the memory 40 to execute a program, and further include a communication interface 60 according to an implementation.

메모리(40)에는 신호 인식부(10a), 영역 추출부(10), 비율 계산부(20a) 및 최종 진단부(30)가 소프트웨어 모듈 형태로 저장될 수 있고, 이러한 소프트웨어 모듈은 컴퓨팅 장치의 작동에 따라 프로세서(50)에 탑재되어 해당 기능이나 동작을 수행할 수 있다.The memory 40 may store the signal recognizer 10a, the area extractor 10, the ratio calculator 20a, and the final diagnosis unit 30 in the form of a software module, and the software module may be operated by the computing device. The processor 50 may be mounted on the processor 50 to perform a corresponding function or operation.

본 실시예에서, 신호 인식부(10a)는 FLAIR 영상에 대응하는 DWI 영상이 존재하는지를 인식하는 수단이나 구성부를 포함할 수 있다. 영역 추출부(10)는 사이즈 조정부(11), 신호 분할부(12), 영상 매칭부(13) 및 병변 추정부(14)를 구비할 수 있다. 영역 추출부(10) 및 최종 진단부(30)의 기본적인 구성은 도 3을 참조하여 앞서 설명한 대응 구성부에 대응될 수 있다. 그리고, 비율 계산부(20a)는 도 3을 참조하여 앞서 설명한 병변 상태 파악부에 대응될 수 있다.In the present embodiment, the signal recognizer 10a may include a means or a component for recognizing whether a DWI image corresponding to the FLAIR image exists. The area extractor 10 may include a size adjuster 11, a signal splitter 12, an image matcher 13, and a lesion estimator 14. Basic configurations of the area extractor 10 and the final diagnosis unit 30 may correspond to the corresponding components described above with reference to FIG. 3. In addition, the ratio calculator 20a may correspond to the lesion state determiner described above with reference to FIG. 3.

사이즈 조정부(11)는 DWI 영상의 신호처리 및 ADC(Apparent diffusion coefficient) 계산을 통해 나타난 값을 임계값으로 하는 위치적 정보를 획득하고, 상기 위치적 정보를 토대로 DWI 영상을 FLAIR 영상에 접목시키기 위해 영상의 크기를 조정할 수 있다.The size adjusting unit 11 acquires positional information having a threshold value based on the signal processing of the DWI image and calculating an ADC (Apparent Diffusion Coefficient), and integrates the DWI image into the FLAIR image based on the positional information. You can adjust the size of the image.

영상 매칭부(13)는 신호 분할부(12)가 FLAIR 영상은 반구 영상들로 분할한 후에 DWI 영상과 FLAIR 영상을 매칭시키도록 동작할 수 있다.The image matching unit 13 may operate so that the signal dividing unit 12 matches the DWI image and the FLAIR image after the FLAIR image is divided into hemisphere images.

영역 추출부(10) 또는 최종 진단부(30)는 인공지능, 기계학습 또는 딥러닝의 기능을 수행하는 수단이나 구성부를 포함할 수 있다.The area extractor 10 or the final diagnosis unit 30 may include a means or a component for performing a function of artificial intelligence, machine learning, or deep learning.

프로세서(50)는 마이크로프로세서, 연산처리장치 또는 제어장치에 대응할 수 있고, 중앙 처리 장치(CPU)나 코어(core)를 포함할 수 있으며, 메모리(40)에 저장되는 프로그램을 실행하여 전술한 진단 방법을 실행하도록 구현될 수 있다.The processor 50 may correspond to a microprocessor, a processing unit, or a control unit, and may include a central processing unit (CPU) or a core, and execute the program stored in the memory 40 to perform the above-described diagnosis. It can be implemented to execute the method.

통신 인터페이스(60)는 인트라넷, 인터넷, 유선 네트워크, 무선 네트워크, 위성망 또는 이들의 조합을 위한 적어도 하나 이상의 서브통신시스템을 구비할 수 있다. 통신 인터페이스(60)는 MRI 장치나 데이터베이스에 연결되어 FLAIR 영상을 수신하거나 DWI 영상 등을 수신하는데 이용될 수 있다.The communication interface 60 may include at least one sub-communication system for an intranet, the Internet, a wired network, a wireless network, a satellite network, or a combination thereof. The communication interface 60 may be connected to an MRI device or a database and used to receive a FLAIR image or a DWI image.

도 7은 도 6의 장치에 결합되거나 연결되는 사용자 단말의 화면에 출력되는 정보를 설명하기 위한 도면이다.FIG. 7 is a diagram for describing information output on a screen of a user terminal coupled to or connected to the apparatus of FIG. 6.

도 7을 참조하면, 본 실시예에 따른 진단 장치는 급성 뇌질환 환자의 병변에 대한 병변 영역(F2)과 그 참조 비율의 계산 결과에 기초한 정보들을 사용자 단말의 화면(700)상의 해당 표시영역(710, 720, 730)에 출력할 수 있다.Referring to FIG. 7, the diagnostic apparatus according to the present embodiment may display information based on a result of calculation of a lesion area F2 and a reference ratio of a lesion of a patient with an acute brain disease. 710, 720, and 730.

병변 영역(F2)은 제1 표시영역(710)에서 FLAIR 영상(F) 상에 중첩된 형태로 표시될 수 있다. 또한, 병변 영역(F2)은 뇌 영역의 기능적 역할정보를 색상 등으로 표현하는 뇌지도(Ref)에 그 위치와 함께 표시될 수 있다.The lesion area F2 may be displayed in the form overlapping the FLAIR image F in the first display area 710. In addition, the lesion area F2 may be displayed together with its location on the brain map Ref expressing functional role information of the brain area in color or the like.

인공지능에 의한 자동 진단 결과는 뇌 영역의 기능적 역할에 따른 정보로 제2 표시영역(720)에 출력될 수 있다. 일례로, 검출된 병변 영역이 뇌 영역의 기능적 역할 영역들 즉 운동, 감각, 언어, 시각 및 청각 영역들 중 어느 영역과 관련되어 있는지에 대한 정보가 제공될 수 있다.The automatic diagnosis result by the artificial intelligence may be output to the second display area 720 as information according to the functional role of the brain region. In one example, information may be provided as to whether the detected lesion area is associated with functional role areas of the brain area, ie, motor, sensory, language, visual and auditory areas.

전술한 병변 영역(F2)과 병변 진행 상태에 대한 진단 정보는 사용자 인터페이스(740)의 설정에 따라 변경될 수 있다. 일례로, 사용자 인터페이스(740)는 병변 영역이나 그 진행 상태 표현에 대하여 확대, 회전 등을 조작 기능이나 사시도, 육면도, 단면도 등의 선택 기능을 제공할 수 있다. 또한, 사용자 인터페이스(740)는 데이터 출력이나 데이터 출력 포맷 변환 등을 선택하여 실행하기 위한 기능을 구비할 수 있다.The above-described diagnostic information about the lesion area F2 and the lesion progress state may be changed according to the setting of the user interface 740. For example, the user interface 740 may provide an operation function, a perspective view, a six-sided view, a cross-sectional view, and the like for the enlargement and rotation of the lesion area and the progress state representation thereof. In addition, the user interface 740 may include a function for selecting and executing data output or data output format conversion.

사용자 단말은 진단 장치에 연결되는 데스크탑 컴퓨터, 개인휴대단말기(PDA), 모바일 단말, 네트워크 단말, 서버 장치 중 적어도 어느 하나를 포함할 수 있다.The user terminal may include at least one of a desktop computer, a personal digital assistant (PDA), a mobile terminal, a network terminal, and a server device connected to the diagnostic device.

이상에서 설명한 바와 같이, 본 발명에 의하면, FLAIR 영상을 직접 이용하여 인공지능 기반으로 병변 영역을 검출하고 병변의 진행 상태를 진단할 수 있고, 그에 의해 신속하고 효율적인 급성 뇌질환 진단 솔루션을 제공할 수 있다.As described above, according to the present invention, it is possible to directly detect the lesion area and diagnose the progression of the lesion on the basis of artificial intelligence using a FLAIR image, thereby providing a rapid and efficient acute brain disease diagnosis solution. have.

본 발명은 도면을 참조한 실시예를 중심으로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점은 자명하다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments with reference to the drawings, this is merely exemplary, and those skilled in the art will appreciate that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (9)

컴퓨팅 장치의 프로세서에 탑재되는 신호 인식부가 환자의 FLAIR(fluid attenuated inversion recovery) 영상에 대응하는 DWI(diffusion weighted imaging) 영상이 존재하는지를 판단하는 단계;
상기 DWI 영상이 존재하면, 상기 프로세서에 탑재되는 사이즈 조정부가 상기 FLAIR 영상의 사이즈를 조정하는 단계;
상기 프로세서에 탑재되는 신호 분할부가 상기 FLAIR 영상을, 상기 환자의 병변을 진단하는데 사용하기 위해, 상기 환자의 뇌의 좌반구에 대응하는 제1 FLAIR 영상 신호와 상기 뇌의 우반구에 대응하는 제2 FLAIR 영상 신호로 분할하는 단계;
상기 프로세서에 탑재되는 영상 매칭부가 상기 제1 FLAIR 영상 신호에 대응하는 제1 FLAIR 영상과 상기 제2 FLAIR 영상 신호에 대응하는 상기 제2 FLAIR 영상을 상기 DWI 영상과 매칭시키는 단계;
상기 프로세서에 탑재되는 병변 추정부가 상기 영상 매칭부의 매칭 결과에 기초하여 상기 제1 및 제2 FLAIR 영상 신호들 각각에서 인공지능을 통해 병변을 추정하는 단계; 및
상기 프로세서에 탑재되는 병변 상태 파악부가 상기 제1 및 제2 FLAIR 영상 신호들 중 어느 하나에서 상기 병변으로 추정된 병변영역과 대비되는 상기 제1 및 제2 FLAIR 영상 신호들 중 나머지 하나의 대응 영역과의 비율을 계산하는 단계를 포함하고,
상기 조정하는 단계는 상기 DWI 영상의 신호처리 및 ADC(Apparent diffusion coefficient) 계산을 통해 나타난 값을 임계값으로 하는 위치적 정보를 획득하고, 상기 위치적 정보를 토대로 상기 DWI 영상을 상기 FLAIR 영상에 접목시키기 위해 영상의 크기를 조정하며,
상기 계산하는 단계에서 생성되는 계산 결과는 상기 병변의 진행 상태를 진단하는데 이용되는, FLAIR 기반 병변 검출과 현황 파악 방법.
Determining whether a signal recognition unit mounted on a processor of the computing device includes a diffusion weighted imaging (DWI) image corresponding to a fluid attenuated inversion recovery (FLAIR) image of the patient;
Adjusting, by the size adjusting unit mounted on the processor, the size of the FLAIR image if the DWI image exists;
A first FLAIR image signal corresponding to the left hemisphere of the brain of the patient and a second FLAIR image corresponding to the right hemisphere of the brain, for use by the signal splitter mounted on the processor to use the FLAIR image to diagnose the lesion of the patient. Dividing into a signal;
An image matching unit mounted on the processor, matching the first FLAIR image corresponding to the first FLAIR image signal and the second FLAIR image corresponding to the second FLAIR image signal with the DWI image;
Estimating a lesion through artificial intelligence in each of the first and second FLAIR image signals based on a matching result of the image matching unit; And
The lesion state acquiring unit mounted in the processor includes a corresponding region of the other one of the first and second FLAIR image signals compared with the lesion region estimated as the lesion in any one of the first and second FLAIR image signals. Calculating the ratio of
The adjusting may include obtaining positional information having a threshold value, which is obtained through signal processing of the DWI image and calculating an ADC (Apparent Diffusion Coefficient), and grafting the DWI image to the FLAIR image based on the positional information. To resize the video so that
The calculation result generated in the calculating step is used to diagnose the progress of the lesion, FLAIR based lesion detection and grasping method.
청구항 1에 있어서,
상기 계산하는 단계 후에 상기 비율, 상기 병변의 위치 및 상기 병변 영역의 크기를 토대로 상기 병변의 진행 상태를 진단하는 단계를 더 포함하는, FLAIR 기반 병변 검출과 현황 파악 방법.
The method according to claim 1,
And diagnosing the progress of the lesion based on the ratio, the location of the lesion, and the size of the lesion region after the calculating.
삭제delete 삭제delete 컴퓨팅 장치를 포함하거나 컴퓨팅 장치에 탑재되어 FLAIR(fluid attenuated inversion recovery) 기반으로 병변을 추출하고 병변 현황을 파악하는 장치로서,
환자의 FLAIR(fluid attenuated inversion recovery) 영상에 대응하는 DWI(diffusion weighted imaging) 영상이 존재하는지를 판단하는 신호 인식부;
상기 DWI 영상이 존재할 때, 상기 FLAIR 영상의 사이즈를 조정하는 사이즈 조정부;
상기 환자의 FLAIR 영상의 영상 신호를, 상기 환자의 병변을 진단하는데 사용하기 위해, 상기 환자의 뇌의 좌반구에 대응하는 제1 FLAIR 영상 신호와 상기 뇌의 우반구에 대응하는 제2 FLAIR 영상 신호로 분할하는 신호 분할부;
상기 신호 분할부에서 분할된 상기 제1 FLAIR 영상 신호에 대응하는 제1 FLAIR 영상과 상기 제2 FLAIR 영상 신호에 대응하는 상기 제2 FLAIR 영상을 상기 DWI 영상과 매칭시키는 영상 매칭부;
상기 영상 매칭부의 매칭 결과를 토대로 인공지능을 통해 상기 제1 및 제2 FLAIR 영상 신호들 각각에서 병변을 추정하는 병변 추정부;
상기 신호 분할부와 상기 병변 추정부로부터 받은 상기 제1 및 제2 FLAIR 영상 신호들 중 어느 하나에서 상기 병변으로 추정된 병변영역과 대비되는 상기 제1 및 제2 FLAIR 영상 신호들 중 나머지 하나의 대응 영역과의 비율을 계산하는 병변 상태 파악부;를 포함하고,
상기 사이즈 조정부는 상기 DWI 영상의 신호처리 및 ADC(Apparent diffusion coefficient) 계산을 통해 나타난 값을 임계값으로 하는 위치적 정보를 토대로 상기 DWI 영상을 상기 FLAIR 영상에 접목시키기 위해 영상의 크기를 조정하며,
여기서 상기 병변 상태 파악부의 계산 결과는 상기 병변의 진행 상태를 진단하는데 이용되는, FLAIR 기반 병변 검출과 현황 파악 장치.
A device that includes a computing device or is mounted on a computing device and extracts a lesion based on FLAIR (fluid attenuated inversion recovery) and determines the status of the lesion.
A signal recognizer configured to determine whether there is a diffusion weighted imaging (DWI) image corresponding to a fluid attenuated inversion recovery (FLAIR) image of the patient;
A size adjusting unit adjusting the size of the FLAIR image when the DWI image exists;
The image signal of the FLAIR image of the patient is divided into a first FLAIR image signal corresponding to the left hemisphere of the patient's brain and a second FLAIR image signal corresponding to the right hemisphere of the brain for use in diagnosing a lesion of the patient. A signal divider;
An image matching unit for matching the first FLAIR image corresponding to the first FLAIR image signal divided by the signal splitter and the second FLAIR image corresponding to the second FLAIR image signal with the DWI image;
A lesion estimating unit estimating lesions in each of the first and second FLAIR image signals through artificial intelligence based on a matching result of the image matching unit;
Corresponding to the other of the first and second FLAIR image signals compared to the lesion area estimated as the lesion in any one of the first and second FLAIR image signals received from the signal splitter and the lesion estimator Includes; lesion status grasping unit for calculating the ratio with the area;
The size adjusting unit adjusts the size of the image to graf the DWI image to the FLAIR image based on positional information having a threshold value as a threshold value obtained through signal processing of the DWI image and calculating an ADC (Apparent Diffusion Coefficient).
Wherein the calculation result of the lesion state determining unit is used for diagnosing the progress of the lesion, FLAIR-based lesion detection and status determination device.
삭제delete 삭제delete 청구항 5에 있어서,
상기 병변 상태 파악부에서 계산된 상기 비율, 상기 병변의 위치 및 상기 병변 영역의 크기를 토대로 상기 병변의 진행 상태를 진단하는 최종 진단부를 더 포함하는, FLAIR 기반 병변 검출과 현황 파악 장치.
The method according to claim 5,
And a final diagnosis unit for diagnosing the progress of the lesion based on the ratio calculated by the lesion state determining unit, the position of the lesion, and the size of the lesion area.
청구항 1 또는 청구항 2의 FLAIR 기반 병변 검출과 현황 파악 방법을 구현하는 프로그램을 기록한 컴퓨터 판독가능한 기록매체.A computer-readable recording medium having recorded thereon a program for implementing the FLAIR-based lesion detection and status detection method of claim 1.
KR1020180138182A 2018-11-12 2018-11-12 Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery KR102020157B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180138182A KR102020157B1 (en) 2018-11-12 2018-11-12 Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180138182A KR102020157B1 (en) 2018-11-12 2018-11-12 Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery

Publications (2)

Publication Number Publication Date
KR102020157B1 true KR102020157B1 (en) 2019-11-04
KR102020157B9 KR102020157B9 (en) 2019-11-04

Family

ID=68578223

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180138182A KR102020157B1 (en) 2018-11-12 2018-11-12 Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery

Country Status (1)

Country Link
KR (1) KR102020157B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853111A (en) * 2019-11-05 2020-02-28 上海杏脉信息科技有限公司 Medical image processing system, model training method and training device
CN113538352A (en) * 2021-06-30 2021-10-22 沈阳先进医疗设备技术孵化中心有限公司 Method and device for acquiring cerebral apoplexy tissue window evaluation value and storage medium
KR102321601B1 (en) 2020-11-19 2021-11-05 주식회사 휴런 Biological Classification Devices and Methods for Alzheimer's Disease Using Multimodal Brain Image
KR102634008B1 (en) 2023-01-05 2024-02-06 계명대학교 산학협력단 Method and apparatus for predicting early neurological deterioration of patients using multiple artificial intelligence models

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150030974A (en) * 2013-09-13 2015-03-23 재단법인 아산사회복지재단 Method for estimating onset time of infarct region based on brain image
KR20160133188A (en) * 2015-05-12 2016-11-22 부산대학교 산학협력단 Medical image reading apparatus and method for operating medical image reading apparatus
KR101754291B1 (en) * 2017-04-04 2017-07-06 이현섭 Medical image processing system and method for personalized brain disease diagnosis and status determination

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150030974A (en) * 2013-09-13 2015-03-23 재단법인 아산사회복지재단 Method for estimating onset time of infarct region based on brain image
KR20160133188A (en) * 2015-05-12 2016-11-22 부산대학교 산학협력단 Medical image reading apparatus and method for operating medical image reading apparatus
KR101754291B1 (en) * 2017-04-04 2017-07-06 이현섭 Medical image processing system and method for personalized brain disease diagnosis and status determination

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853111A (en) * 2019-11-05 2020-02-28 上海杏脉信息科技有限公司 Medical image processing system, model training method and training device
CN110853111B (en) * 2019-11-05 2020-09-11 上海杏脉信息科技有限公司 Medical image processing system, model training method and training device
KR102321601B1 (en) 2020-11-19 2021-11-05 주식회사 휴런 Biological Classification Devices and Methods for Alzheimer's Disease Using Multimodal Brain Image
EP4002201A1 (en) 2020-11-19 2022-05-25 Heuron Co., Ltd. Biological classification device and method for alzheimer's disease using multimodal brain image
CN113538352A (en) * 2021-06-30 2021-10-22 沈阳先进医疗设备技术孵化中心有限公司 Method and device for acquiring cerebral apoplexy tissue window evaluation value and storage medium
KR102634008B1 (en) 2023-01-05 2024-02-06 계명대학교 산학협력단 Method and apparatus for predicting early neurological deterioration of patients using multiple artificial intelligence models

Also Published As

Publication number Publication date
KR102020157B9 (en) 2019-11-04

Similar Documents

Publication Publication Date Title
KR102020157B1 (en) Method and system for detecting lesion and diagnosing lesion status based on fluid attenuation inverted recovery
KR102214123B1 (en) Method and system for extracting and integratin and evaluating lesion using pwi-dwi mismatch based on artificial intelligence
KR102001790B1 (en) Method and system for classification of vessel segments based on artifical intelligence
CN110853111B (en) Medical image processing system, model training method and training device
KR20190135908A (en) Artificial intelligence based dementia diagnosing method and apparatus
US8805051B2 (en) Image processing and machine learning for diagnostic analysis of microcirculation
El‐Hag et al. Classification of retinal images based on convolutional neural network
CN110858399B (en) Method and apparatus for providing post-examination images of a virtual tomographic stroke
KR102015224B1 (en) Method and apparatus for diagnosing cerebral hemorrhagic and brain tumor lesions based on deep learning
CN112741651B (en) Method and system for processing ultrasonic image of endoscope
WO2020111534A2 (en) Method and system for estimating brain vascular age from medical image
KR102503646B1 (en) Method and Apparatus for Predicting Cerebral Infarction Based on Cerebral Infarction Volume Calculation
KR102336003B1 (en) Apparatus and method for increasing learning data using patch matching
Zhao et al. Attention residual convolution neural network based on U-net (AttentionResU-Net) for retina vessel segmentation
KR102447400B1 (en) Method and Apparatus for Predicting Cerebral Infarction Based on Lesion Area Extraction Using a Deep Learning Model
KR20200114228A (en) Method and system for predicting isocitrate dehydrogenase (idh) mutation using recurrent neural network
JP7129058B2 (en) Medical image diagnosis support device, program, and medical image diagnosis support method
KR102586853B1 (en) Acute ischemic stroke diagnosis apparatus and method using deep-learning model based on 3-d cnn
KR102493242B1 (en) Method and System for Judging Aortic Valve Stenosis Risk and Other Cardiovascular Diseases Risk from Photoplethysmography through Artificial Intelligence Learning
CN115089112A (en) Method and device for establishing post-stroke cognitive disorder risk assessment model and electronic equipment
KR20230106205A (en) Apparatus and methods for classifying neurodegenerative diseases image of amyloid-positive based on deep-learning
Nagarhalli et al. Evaluating the Effectiveness of the Convolution Neural Network in Detecting Brain Tumors
Gadriye et al. Neural network based method for the diagnosis of diabetic retinopathy
KR20220046060A (en) Method and Apparatus for Predicting Cerebral Infarction Based on Cerebral Infarction Severity
CN110916701B (en) Image scanning time prediction method, device, equipment and storage medium

Legal Events

Date Code Title Description
G170 Publication of correction