KR20230059454A - 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치 - Google Patents

초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치 Download PDF

Info

Publication number
KR20230059454A
KR20230059454A KR1020210143665A KR20210143665A KR20230059454A KR 20230059454 A KR20230059454 A KR 20230059454A KR 1020210143665 A KR1020210143665 A KR 1020210143665A KR 20210143665 A KR20210143665 A KR 20210143665A KR 20230059454 A KR20230059454 A KR 20230059454A
Authority
KR
South Korea
Prior art keywords
pancreatic
pancreatic cancer
image
endoscopic
blood vessel
Prior art date
Application number
KR1020210143665A
Other languages
English (en)
Other versions
KR102587670B1 (ko
Inventor
박수현
서강원
서정웅
Original Assignee
이화여자대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이화여자대학교 산학협력단 filed Critical 이화여자대학교 산학협력단
Priority to KR1020210143665A priority Critical patent/KR102587670B1/ko
Priority to PCT/KR2022/007654 priority patent/WO2023075055A1/ko
Publication of KR20230059454A publication Critical patent/KR20230059454A/ko
Application granted granted Critical
Publication of KR102587670B1 publication Critical patent/KR102587670B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Vascular Medicine (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법은 분석장치가 대상자의 췌장 초음파 내시경 영상을 입력받는 단계, 상기 분석장치가 상기 췌장 초음파 내시경 영상을 제1 세그멘테이션 모델에 입력하여 췌장암 영역을 구분하는 단계, 상기 분석장치가 상기 췌장 초음파 내시경 영상을 분류 모델에 입력하여 췌장암의 혈관 침범 여부를 판단하는 단계 및 상기 분석장치가 상기 췌장 초음파 내시경 영상을 제2 세그멘테이션 모델에 입력하여 상기 췌장암 영역의 주변에 위치한 혈관 영역을 구분하는 단계를 포함한다.

Description

초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치{DEEP LEARNING BASED VASCULAR INVASION CLASSIFICATION METHOD FOR PANCREATIC CANCER USING ENDOSCOPIC ULTRASOUND IMAGE AND ANALYSIS APPARATUS}
이하 설명하는 기술은 췌장 초음파 내시경 영상을 이용하여 췌장암의 혈관 침범에 대한 정보를 산출하는 기법에 관한 것이다.
췌장암은 예후가 매우 좋지 않은 대표적인 종양이다. 췌장암 진단시 수술적 치료가 가능한 경우는 20% 미만이며, 수술 시행 후 5년 생존율도 25% 미만으로 전체 췌장암 환자 5년 생존율은 5% 정도로 보고된다. 현재 췌장암 완치가 가능한 방법은 침습적 수술 절제술이 유일하다. 한편, 복강 내 주요 혈관(상장간막동맥, 문맥)이 침범되었을 경우 종양 크기가 작다고 하더라도 수술적 절제가 불가능하다.
미국등록특허 US 제8,047,993호
초음파 내시경(endoscopic ultrasonography, EUS) 개발로 소화관 벽에 발생되는 상피하종양에 대한 평가가 가능하게 되었다. 그러나, EUS를 이용하여도 췌장암에서 혈관 침범은 확인하기 어렵다.
이하 설명하는 기술은 췌장 초음파 내시경 영상을 이용하여 췌장암 혈관 침범 여부를 확인하는 기법을 제공하고자 한다. 나아가, 이하 설명하는 기술은 췌장암 혈관 침범 영역을 시각적으로 제공하는 기법을 제공하고자 한다.
초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법은 분석장치가 대상자의 췌장 초음파 내시경 영상을 입력받는 단계, 상기 분석장치가 상기 췌장 초음파 내시경 영상을 제1 세그멘테이션 모델에 입력하여 췌장암 영역을 구분하는 단계, 상기 분석장치가 상기 췌장 초음파 내시경 영상을 분류 모델에 입력하여 췌장암의 혈관 침범 여부를 판단하는 단계 및 상기 분석장치가 상기 췌장 초음파 내시경 영상을 제2 세그멘테이션 모델에 입력하여 상기 췌장암 영역의 주변에 위치한 혈관 영역을 구분하는 단계를 포함한다.
초음파 내시경 영상을 이용하여 췌장암의 혈관 침범을 분류하는 분석 장치는 대상자의 췌장 초음파 내시경 영상을 입력받는 입력장치, 췌장 초음파 내시경 영상에서 췌장암 영역을 구분하는 제1 세그멘테이션 모델, 췌장 초음파 내시경 영상에서 췌장암의 혈관 침범 여부를 분류하는 분류 모델 및 췌장 초음파 내시경 영상에서 혈관 영상을 구분하는 제2 세그멘테이션 모델을 저장하는 저장장치 및 상기 입력된 췌장 초음파 내시경 영상을 상기 제1 세그멘테이션 모델에 입력하여 췌장암 영역을 구분하고, 상기 입력된 췌장 초음파 내시경 영상을 상기 분류 모델에 입력하여 췌장암의 혈관 침범 여부를 판단하고, 혈관 침범이 발생했다고 판단한 경우 상기 입력된 췌장 초음파 내시경 영상을 상기 제1 세그멘테이션 모델에 입력하여 상기 췌장암 영역의 주변에 위치한 혈관 영역을 구분하는 연산장치를 포함한다.
이하 설명하는 기술은 딥러닝 모델로 췌장 초음파 내시경 영상을 분석하여 췌장암 환자에 대한 수술적 절제술 시행 또는 최소침습적인 다른 치료 방법에 대한 의사 결정을 가능하게 한다. 나아가, 이하 설명하는 기술은 췌장암 혈관 침범 영역에 대한 시각 정보를 제공하여 췌장암 환자에 대한 적합한 치료 방법을 찾는 데 도움을 줄 수 있다.
도 1은 췌장암 혈관 침범을 분석하는 시스템에 대한 예이다.
도 2는 췌장 초음파 내시경 영상을 분석하는 학습 모델에 대한 예이다.
도 3은 혈관 영상 생성 모델의 학습 과정 및 3D 혈관 영상을 생성하는 과정에 대한 예이다.
도 4는 환자의 췌장 초음파 내시경 영상을 분석하는 과정에 대한 예이다.
도 5는 췌장암 혈관 침범을 분석하는 분석장치에 대한 예이다.
이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.
도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
이하 설명하는 기술은 췌장 초음파 내시경 영상을 기준으로 췌장암 영역 및 혈관 침범에 대한 정보를 제공하는 기법이다.
EUS는 방사형 스캔(radial scan) 시스템과 선형주사(linear-array) 시스템으로 나눌 수 있다. 또한, 장기 내 관심 영역에 대한 혈관계 특징을 부각하기 위한 조영 증강 EUS도 개발되었다. 이하 설명하는 기술은 췌장 영역에 대한 EUS 영상을 이용하는 것으로 장비나 영상의 종류에 제한을 두지 않는다. 따라서, 이하 초음파 내시경 영상 또는 EUS 영상은 다양한 형태의 장비 중 어느 하나 또는 다양한 영상 생성 기법 중 어느 하나를 이용하여 산출된 결과물을 포함하는 의미이다.
이하 분석장치가 기계학습모델을 이용하여 EUS 영상에서 혈관 침범을 분류한다고 설명한다. 분석 장치는 데이터 처리가 가능한 다양한 장치로 구현될 수 있다. 예컨대, 분석 장치는 PC, 네트워크상의 서버, 스마트 기기, 전용 프로그램이 임베딩된 칩셋 등으로 구현될 수 있다.
기계 학습 모델은 결정 트리, 랜덤 포레스트(random forest), KNN(K-nearest neighbor), 나이브 베이즈(Naive Bayes), SVM(support vector machine), ANN(artificial neural network) 등이 있다. 특히 이하 설명하는 기술은 ANN을 이용하여 CT 영상에서 병변을 예측할 수 있다.
ANN은 생물의 신경망을 모방한 통계학적 학습 알고리즘이다. 다양한 신경망 모델이 연구되고 있다. 최근 딥러닝 신경망(deep learning network, DNN)이 주목받고 있다. DNN은 입력 계층(input layer)과 출력 계층(output layer) 사이에 여러 개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망 모델이다. DNN은 일반적인 인공신경망과 마찬가지로 복잡한 비선형 관계(non-linear relationship)들을 모델링할 수 있다. DNN은 다양한 유형의 모델이 연구되었다. 예컨대, CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), RBM(Restricted Boltzmann Machine), DBN(Deep Belief Network), GAN(Generative Adversarial Network), RL(Relation Networks) 등이 있다.
도 1은 췌장암 혈관 침범을 분석하는 시스템(100)에 대한 예이다. 도 1에서 분석장치는 컴퓨터 단말(130) 및 서버(140)인 예를 도시하였다.
EUS 장비(110)는 대상자에 대한 EUS 영상을 획득하는 장치이다. EUS 장비(110)가 생성하는 영상은 EMR(Electronic Medical Record, 120)에 저장될 수 있다.
도 1에서 사용자(A)는 컴퓨터 단말(130)을 이용하여 대상자의 영상을 이용하여 병변을 예측할 수 있다. 컴퓨터 단말(130)은 대상자의 EUS 영상을 입력받는다. 컴퓨터 단말(130)은 유선 또는 무선 네트워크를 통해 EUS 장비(110) 또는 EMR(120)로부터 EUS 영상을 입력받을 수 있다. 경우에 따라 컴퓨터 단말(130)은 EUS 장비(110)와 물리적으로 연결된 장치일 수도 있다.
컴퓨터 단말(130)은 딥러닝 모델을 이용하여 EUS 영상을 분석한다. 컴퓨터 단말(130)은 EUS 영상에서 췌장암 영역을 구분할 수 있다. 컴퓨터 단말(130)은 EUS 영상을 분석하여 췌장암 혈관 침범을 분류할 수 있다. 컴퓨터 단말(130)은 EUS 영상을 분석하여 췌장암 혈관 침범에 대한 확률을 산출할 수 있다. 나아가, 컴퓨터 단말(130)은 EUS 영상에서 췌장암 주변 혈관 영역을 재구성하여 3D 영상을 제공할 수도 있다. 사용자 A는 분석 결과 및 영상을 확인할 수 있다.
서버(140)는 EUS 장비(110) 또는 EMR(120)로부터 대상자의 EUS 영상을 수신할 수 있다.
서버(140)는 딥러닝 모델을 이용하여 EUS 영상을 분석한다. 서버(140)는 EUS 영상에서 췌장암 영역을 구분할 수 있다. 서버(140)는 EUS 영상을 분석하여 췌장암 혈관 침범을 분류할 수 있다. 서버(140)는 EUS 영상을 분석하여 췌장암 혈관 침범에 대한 확률을 산출할 수 있다. 나아가, 서버(140)는 EUS 영상에서 췌장암 주변 혈관 영역을 재구성하여 3D 영상을 제공할 수도 있다. 서버(140)는 분석 결과 및 영상은 사용자 A의 단말에 전송할 수 있다. 사용자 A는 분석 결과 및 영상을 확인할 수 있다.
컴퓨터 단말(130) 및/또는 서버(140)는 분석 결과 및 영상을 EMR(120)에 저장할 수도 있다.
도 2는 췌장 초음파 내시경 영상을 분석하는 학습 모델(200)에 대한 예이다. 도 2는 3가지 학습 모델들을 도시한다. 학습 모델들은 종양 영역 분할 모델(210), 혈관 침범 분류 모델(220) 및 혈관 영상 생성 모델(230)이다. 한편, 연구자는 2010년부터 2020년 사이의 췌장암 EUS 검사를 실행한 152명의 환자의 영상 데이터를 활용하여 아래 학습 모델을 구축하였다.
종양 영역 분할 모델(210)은 췌장 EUS 영상에서 췌장암 영역을 분할하는 모델이다. 종양 영역 분할 모델(210)은 딥러닝 모델 중 영상에서 특정 객체를 구분(분할)하는 시멘틱 세그멘테이션(semantic segmentation) 모델일 수 있다.
시멘틱 세그멘테이션 모델은 대표적으로 FCN (fully convolutional network) 과 인코더-디코더 구조를 기반으로 한 U-net 등이 있다. 도 2는 U-net 기반의 세그멘테이션 모델을 예로 도시하였다. U-net은 영상에서 컨텍스트 정보를 얻기 위한 네트워크와 영역화(localization)를 위한 네트워크가 대칭적 구조를 갖는다.
통상적으로 U-net은 마지막 계층을 제외한 나머지 계층들은 각각 ReLU 활성화 함수를 갖는 컨볼루션 계층 및 맥스 풀링 계층을 갖는다. 마지막 계층은 컨볼루션 계층만을 갖는다. 좌측 네트워크는 계층 이동시 다운샘플링이 수행되고, 우측 네트워크는 계층 이동시 업 샘플링이 수행된다.
종양 영역 분할 모델(210)은 췌장 EUS 영상을 입력받아 췌장암 영역을 구분한다. 종양 영역 분할 모델(210)은 췌장 EUS 영상에서 췌장암 영역이 다른 색으로 구분되는 영상을 출력할 수도 있다.
종양 영역 분할 모델(210)은 학습 데이터를 이용하여 사전에 학습되어야 한다. 연구자는 컴퓨터 장치를 이용하여 췌장 EUS 영상에 대한 전처리 및 라벨 데이터를 생성하였다. 연구자는 학습 데이터 각각에 대하여 원본 췌장 EUS 영상에서 초음파 내시경 영역만을 자르고, 췌장암에 해당하는 영역을 마스킹(masking)하여 라벨 데이터를 생성하였다.
일반적으로 의료 영상은 대량의 영상 확보가 어렵기 때문에 학습 데이터 증강(data augmentation)을 수행하기도 한다. 연구자도 학습 데이터 증강을 위하여 전처리된 영상을 일정하게 회전(rotation 및/또는 flip)하여 학습 데이터의 양을 증가시키는 작업을 하였다.
혈관 침범 분류 모델(220)은 췌장 EUS 영상을 입력받아 췌장암이 주변 혈관을 침범하였는지 분류한다. 혈관 침범 분류 모델(220)은 입력 영상의 특징을 추출하여 혈관 침범에 대한 확률값을 산출하는 모델이다. 혈관 침범 분류 모델(220)은 CNN과 같은 모델로 구현될 수 있다. 예컨대, 혈관 침범 분류 모델(220)은 입력 영상의 특징을 추출하는 다수의 컨볼루션 계층들 및 컨볼루션 계층들이 출력하는 특징값을 입력받아 혈관 침범에 대한 확률값을 산출하는 전연결 계층을 포함할 수 있다. 전연결 계층은 소프트맥스 활성 함수를 사용할 수 있다.
혈관 침범 분류 모델(220)은 학습 데이터를 이용하여 사전에 학습되어야 한다. 학습 데이터는 췌장 EUS 영상과 해당 영상의 혈관 침범 정보를 포함한다. 혈관 침범 정보는 해당 환자에 대한 임상적 판단에 해당한다. 한편, 학습 데이터는 전술한 바와 같이 일정하게 전처리 될 수 있고, 데이터 증강되어 마련될 수 있다. 나아가, 전이 학습(transfer learning)을 사용하여 다른 종류의 영상을 이용하여 모델을 초기 학습한 후 췌장 EUS 영상들을 이용하여 혈관 침범 분류 모델(220)을 구축할 수도 있다.
학습된 혈관 침범 분류 모델(220)은 입력되는 췌장 EUS 영상에 대하여 혈관 침범 확률값을 산출한다. 혈관 침범 분류 모델(220)이 출력하는 값은 0~1 사이의 값일 수 있다. 분석장치는 혈관 침범 분류 모델(220)이 출력하는 값을 사용자에게 친숙한 확률 정보로 변환할 수 있다. 분석장치는 췌장 EUS 영상 또는 종양 영역 분할 모델(210)이 산출하는 영상에 혈관 침범에 대한 확률값을 표시할 수 있다. 도 2는 췌장암 영역이 구분된 췌장 EUS 영상에 혈관 침범 확률 75.56%를 표시한 예를 도시한다.
혈관 영상 생성 모델(230)은 입력되는 췌장 EUS 영상에서 췌장암 주변의 혈관을 재구성하여 생성한다. 혈관 영상 생성 모델(230)은 2D 영상에서 혈관 영역만을 구분할 수 있다. 또한, 혈관 영상 생성 모델(230)은 다수의 췌장 EUS 영상에서 혈관 영역을 구분하고, 구분한 영상을 적층(stacking)하여 혈관 영상을 재구성할 수도 있다. 혈관 영상 생성 모델(230)은 췌장암 영역 주변 전체의 혈관을 재구성하지 않고, 혈관 침범이 발생한 영역의 혈관만을 재구성할 수 있다.
혈관 영상 생성 모델(230)은 다양한 유형의 세그멘테이션 모델들 중 어느 하나를 이용하여 구현될 수 있다. 예컨대, 혈관 영상 생성 모델(230)은 U-net과 같은 세그멘테이션 모델로 구현될 수 있다. 연구자는 U-net 기반 세그멘테이션 모델을 이용하여 3차원 혈관 영상을 생성하였다.
도 3은 혈관 영상 생성 모델의 학습 과정 및 3D 혈관 영상을 생성하는 과정에 대한 예이다. 도 3(A)는 혈관 영상 생성 모델(230)의 학습 과정에 대한 예이다. 학습 데이터는 전술한 것과 유사하게 원본 췌장 EUS 영상을 전처리하고 증강하여 마련될 수 있다. 연구자는 U-net 기반 세그멘테이션 모델을 구축하였다. 연구자는 원본 췌장 EUS 영상에서 초음파 내시경 영역을 분리하고, 혈관 영역을 일정하게 마스킹한 영상(라벨값)을 학습 데이터로 마련하였다. 학습 과정에서 혈관 영상 생성 모델(230)은 입력되는 췌장 EUS 영상에 대하여 혈관 영역을 구분한 영상을 생성하고, 알려진 라벨값과 비교하면서 모델의 파라미터를 갱신하는 과정을 반복한다.
도 3(B)는 3D 혈관 영상을 생성하는 예이다. 학습된 혈관 영상 생성 모델(230)은 췌장 EUS 영상을 입력받아 혈관 영역이 분할된 영상을 출력한다. 분석장치는 실제 췌장 EUS 영상에 분할된 영역을 오버레이(overlay)할 수 있다. 이 과정은 하나의 2D 프레임에 대한 처리 과정이다. EUS 장비는 내시경 끝에 장착된 고주파의 초음파 진동자를 이용하여 영상을 생성한다. 이때, 의료진은 내시경을 일정한 방향으로 이동시키면서 연속적인 EUS 영상들을 획득한다. 따라서, 췌장 EUS 영상은 일반적으로 일정 방향의 연속적인 영상들로 구성된다. 혈관 영상 생성 모델(230)은 일정 방향의 연속적인 췌장 EUS 영상들을 하나의 프레임별로 처리하면서 각 영상에 대한 혈관 영역을 분할할 수 있다. 분석장치는 연속적인 췌장 EUS 영상들과 혈관 영역이 표시된 영상을 쌓아가면서 3D 혈관 영상을 재구성할 수 있다.
도 2의 종양 영역 분할 모델(210), 혈관 침범 분류 모델(220) 및 혈관 영상 생성 모델(230)은 서로 개별적인 모델이다. 다만, 다음과 같이 하나의 모델에서 획득한 정보를 다른 모델에 전달하여 협력적으로 영상을 분석하거나 처리할 수도 있다.
먼저, 종양 영역 분할 모델(210)은 입력된 췌장 EUS 영상에서 췌장암 영역을 구분한다. 혈관 침범 분류 모델(220)은 입력된 췌장 EUS 영상에서 혈관 침범 확률을 산출한다. 혈관 침범은 췌장암 주변 영역에서 발생할 가능성이 매우 높다. 따라서, 혈관 침범 분류 모델(220)은 종양 영역 분할 모델(210)이 구분한 췌장암 영역 및 주변 영역을 중심으로 혈관이 침범하였는지 판단할 수 있다. 예컨대, 혈관 침범 분류 모델(220)은 췌장 EUS 영상 및 종양 영역 분할 모델(210)이 산출한 췌장암 영역에 대한 정보를 입력받을 수 있다. 혈관 침범 분류 모델(220)은 췌장암 영역에 대한 정보를 처리하는 어텐션(attention) 계층을 포함할 수 있다. 어텐션 계층은 췌장암 영역에 대하여 중요도를 가중하여 혈관 침범 분류 모델(220)이 췌장암 영역 내지 췌장암 영역의 주변 영역을 중심으로 혈관 침범을 분류하게 할 수 있다.
혈관 영상 생성 모델(230)은 췌장암 주변 혈관을 구분한다. 혈관 영상 생성 모델(230)은 췌장암 영역과 관련 없는 영역의 혈관을 구분할 필요가 없다. 물론, 혈관 영상 생성 모델(230)이 학습 과정에서 췌장암 주변 혈관만을 구분하도록 학습될 수 있다. 나아가, 혈관 영상 생성 모델(230)은 종양 영역 분할 모델(210) 또는 혈관 침범 분류 모델(220)로부터 췌장암 영역 및 췌장암 주변 영역에 대한 정보를 입력받아, 췌장암 주변 영역을 중심으로 혈관을 구분할 수 있다. 예컨대, 혈관 영상 생성 모델(230)은 췌장암 영역에 대한 정보를 입력받은 어텐션 계층을 포함하여 컨텍스트 추출 과정에서 췌장암 영역 및 주변 영역에 대한 정보를 중심으로 혈관 영역의 특징을 추출할 수 있다. 또한, 혈관 영상 생성 모델(230)은 혈관 침범 분류 모델(220)로부터 혈관 침범이 발생한 영상(프레임)에 대한 정보를 입력받을 수 있다. 이 경우, 혈관 영상 생성 모델(230)은 혈관 침범 확률이 높은 영상을 대상으로 혈관을 구분하여 영상을 재구성할 수 있다.
도 4는 환자의 췌장 초음파 내시경 영상을 분석하는 과정(300)에 대한 예이다. 도 2에서 설명한 학습 모델들은 사전에 구축되었다고 전제한다. 분석장치는 특정 환자에 대한 췌장 EUS 영상을 입력받는다(310).
분석장치는 입력된 원본 췌장 EUS 영상에 대하여 일정한 전처리를 할 수도 있다. 이 과정은 학습 데이터를 생성하는 과정에 대응될 수 있다.
분석장치는 세그멘테이션 모델(전술한 종양 영역 분할 모델)에 췌장 EUS 영상을 입력하여 췌장 EUS 영상에서 췌장암 영역을 분할한다(320). 종양 영역 분할 모델은 췌장암 영역이 구분된 췌장 EUS 영상을 출력할 수 있다.
분석장치는 췌장 EUS 영상을 분류 모델(전술한 혈관 침범 분류 모델)에 입력하여 혈관 침범을 분류하고, 혈관 침범의 확률값을 산출할 수 있다(330).
분석장치는 혈관 침범 분류 모델의 출력값을 기준으로 현재 췌장암 환자의 혈관 침범 발생 여부를 판단한다(340). 예컨대, 분석장치는 혈관 침범 분류 모델의 출력값이 0에 가까우면 혈관 침범으로 판단하고, 1에 가까우면 혈관 미침범으로 판단할 수 있다. 또는 분석장치는 일정한 임계값과 혈관 침범 분류 모델의 출력값을 비교하여 혈관 침범 여부를 판단할 수도 있다.
분석장치가 현재 췌장암에서 혈관 침범이 없었다고 분류한 경우(340의 NO), 분석장치는 췌장 EUS 영상에 췌장암 영역이 구분된 영상(종양 영역 분할 모델의 출력물)을 표시할 수 있다(350).
분석장치가 현재 췌장암에서 혈관 침범이 있다고 분류한 경우(340의YES), 분석장치는 췌장 EUS 영상을 다른 세그멘테이션 모델(전술한 혈관 영상 생성 모델)에 입력하여 혈관 영역을 구분한다. 분석장치는 다수의 췌장 EUS 영상에 대하여 혈관 영역을 구분하는 과정을 반복하면서 연속된 췌장 EUS 영상에 대하여 구분한 혈관 영역을 적층하여 3D 혈관 영상을 재구성할 수 있다(360).
분석장치는 췌장 EUS 영상에 췌장암 영역을 구분하고, 혈관 침범 정보(침범 확률)를 함께 화면에 출력할 수 있다(370). 또는 분석장치는 3D 영상으로 재구성한 췌장암 영역 및 췌장암 주변 혈관 영상을 화면에 출력할 수도 있다(370).
도 5는 췌장암 혈관 침범을 분석하는 분석장치(400)에 대한 예이다. 분석장치(400)는 전술한 분석장치(도 1의 130 및 140)에 해당한다. 분석장치(400)는 물리적으로 다양한 형태로 구현될 수 있다. 예컨대, 분석장치(400)는 PC와 같은 컴퓨터 장치, 네트워크의 서버, 데이터 처리 전용 칩셋 등의 형태를 가질 수 있다.
분석장치(400)는 저장장치(410), 메모리(420), 연산장치(430), 인터페이스 장치(440), 통신장치(450) 및 출력장치(460)를 포함할 수 있다.
저장장치(410)는 전술한 학습 모델들을 저장할 수 있다. 학습 모델들은 종양 영역 분할 모델(210), 혈관 침범 분류 모델(220) 및 혈관 영상 생성 모델(230)을 포함한다.
저장장치(410)는 대상자의 췌장 EUS 영상을 저장할 수 있다. 이때 췌장 EUS 영상은 일정 방향으로 연속된 부위에 대한 영상들일 수도 있다.
저장장치(410)는 영상 처리를 위한 다른 프로그램 내지 코드를 저장할 수 있다. 예컨대, 저장장치(410)는 입력된 췌장 EUS 영상을 일정하게 전처리하는 프로그램을 더 저장할 수 있다.
저장장치(410)는 췌장 EUS 영상에서 췌장암 영상을 구분한 영상을 저장할 수 있다.
저장장치(410)는 췌장 EUS 영상에서 주변 혈관 영역을 재구성한 영상을 저장할 수도 있다.
메모리(420)는 분석장치(400)가 췌장 EUS 영상에서 췌장암 영역 구분, 혈관 침범 분류 및/또는 혈관 영역 재구성 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.
인터페이스 장치(440)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(440)는 물리적으로 연결된 입력 장치 또는 외부 저장장치로부터 분석 대상의 췌장 EUS 영상을 입력받을 수 있다. 인터페이스 장치(440)는 분석 결과(영상, 텍스트 등)를 외부 객체에 전달할 수도 있다.
통신장치(450)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신장치(450)는 외부 객체로부터 분석 대상의 췌장 EUS 영상을 수신할 수 있다. 또는 통신장치(450)는 분석 결과(영상, 텍스트 등)를 사용자 단말과 같은 외부 객체에 송신할 수도 있다.
인터페이스 장치(440) 및 통신장치(450)는 사용자 또는 다른 물리적 객체로부터 일정한 데이터를 주고받는 구성이므로, 포괄적으로 입출력장치라고도 명명할 수 있다. 췌장 EUS 영상을 입력받는 기능에 한정하면 인터페이스 장치(440) 및 통신장치(450)는 입력장치라고 할 수도 있다.
연산 장치(430)는 저장장치(410)에 저장된 학습 모델 내지 프로그램 코드를 이용하여 입력되는 췌장 EUS 영상을 처리할 수 있다.
먼저, 연산 장치(430)는 입력된 췌장 EUS 영상에 대한 일정한 전처리를 할 수 있다. 예컨대, 연산 장치(430)는 췌장 EUS 영상에서 초음파 내시경 영상 영역만을 절단(crop)할 수 있다. 이 과정은 모델을 학습할 때 사용한 학습 데이터를 마련하는 과정에 대응된다.
연산 장치(430)는 췌장 EUS 영상을 종양 영역 분할 모델에 입력하여 췌장암 영역이 구분된 영상을 생성한다. 나아가, 연산 장치(430)는 연속적인 췌장 EUS 영상들을 각각 종양 영역 분할 모델에 입력하여 췌장암 영역을 구분할 수 있다. 이 경우, 연산 장치(430)는 췌장암 영역이 구분된 3D 췌장 EUS 영상을 생성할 수 있다.
연산 장치(430)는 췌장 EUS 영상을 혈관 침범 분류 모델에 입력하여 혈관 침범 여부를 분류할 수 있다. 연산 장치(430)는 췌장 EUS 영상만을 혈관 침범 분류 모델에 입력하여 혈관 침범 여부를 분류할 수 있다. 또는 연산 장치(430)는 종양 영역 분할 모델이 구분한 췌장암 영역의 정보와 함께 췌장 EUS 영상을 혈관 침범 분류 모델에 입력하여 혈관 침범 여부를 분류할 수 있다. 연산 장치(430)는 혈관 침범 분류 모델이 출력하는 값을 기준으로 혈관 침범의 확률을 결정할 수 있다. 연산 장치(430)는 대상자의 췌장 EUS 영상에 혈관 침범 확률을 표시되게 할 수 있다.
연산 장치(430)는 췌장 EUS 영상을 혈관 영상 생성 모델에 입력하여 췌장암의 주변 혈관 영역을 구분할 수 있다. 이때, 연산 장치(430)는 종양 영역 분할 모델이 출력하는 췌장암 영역 정보 및 췌장 EUS 영상을 혈관 영상 생성 모델에 입력할 수 있다. 혈관 영상 생성 모델은 입력된 영상 전체를 대상으로 하지 않고, 췌장암 주변 영역 나아가 췌장암 주변 중 혈관 침범 확률이 높은 영역을 대상으로 혈관 영역을 구분할 수 있다. 예컨대, 연산 장치(430)는 연속된 췌장 EUS 영상들 중 혈관 침범 분류 모델이 혈관 침범이 발생했다고 판단한 영상을 혈관 영상 생성 모델에 입력하여 혈관 영역을 구분할 수 있다. 연산 장치(430)는 구분한 혈관 영역을 췌장 EUS 영상에 오버레이하여 혈관 영역을 표현할 수 있다. 연산 장치(430)는 일정한 방향으로 연속된 췌장 EUS 영상들을 각각 혈관 영상 생성 모델에 입력하여 췌장암의 주변 혈관 영역을 구분할 수 있다. 연산 장치(430)는 주변 혈관 영역이 구분된 다수의 췌장 EUS 영상들에서 쌓아서 3D 혈관 영상을 재구성할 수 있다.
연산 장치(430)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.
출력장치(460)는 일정한 정보를 출력하는 장치이다. 출력장치(460)는 데이터 처리 과정에 필요한 인터페이스, 분석 결과 등을 출력할 수 있다. 출력장치(460)는 췌장 EUS 영상에서 췌장암 영역을 구분한 영상, 췌장 EUS 영상에 혈관 침범 확률값이 표시된 영상 및/또는 췌장 EUS 영상에서 혈관 영상이 구분된 영상(3D 혈관 재구성 영상)을 출력할 수 있다.
또한, 상술한 바와 같은 췌장 EUS 영상을 분석하는 방법, 혈관 침범을 분류하는 방법, 혈관 영상을 재구성하는 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.
본 실시례 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.

Claims (8)

  1. 분석장치가 대상자의 췌장 초음파 내시경 영상을 입력받는 단계;
    상기 분석장치가 상기 췌장 초음파 내시경 영상을 제1 세그멘테이션 모델에 입력하여 췌장암 영역을 구분하는 단계;
    상기 분석장치가 상기 췌장 초음파 내시경 영상을 분류 모델에 입력하여 췌장암의 혈관 침범 여부를 판단하는 단계; 및
    상기 분석장치가 상기 췌장 초음파 내시경 영상을 제2 세그멘테이션 모델에 입력하여 상기 췌장암 영역의 주변에 위치한 혈관 영역을 구분하는 단계를 포함하는 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법.
  2. 제1항에 있어서,
    상기 분석장치는 상기 분류 모델이 출력하는 값을 기준으로 혈관 침범에 대한 확률값을 결정하고, 상기 췌장 초음파 내시경 영상에 상기 확률값을 표시하는 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법.
  3. 제1항에 있어서,
    상기 췌장 초음파 내시경 영상은 연속된 다수의 췌장 초음파 내시경 영상들을 포함하고,
    상기 분석장치는 상기 다수의 췌장 초음파 내시경 영상들 각각을 상기 제2 세그멘테이션 모델에 입력하여 혈관 영역을 구분하고, 상기 다수의 췌장 초음파 내시경 영상들에 혈관 영역을 표시한 영상을 적층하여 3차원 혈관 영상을 재구성하는 단계를 더 포함하는 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법.
  4. 제1항에 있어서,
    상기 분류 모델은 상기 제1 세그멘테이션 모델이 출력하는 췌장암 영역에 대한 정보를 더 입력받고, 상기 췌장암 영역 또는 상기 췌장암 영역의 주변 영역에 중요도를 부가하여 상기 혈관 침범 여부를 판단하는 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법.
  5. 제1항에 있어서,
    상기 제2 세그멘테이션 모델은
    상기 제1 세그멘테이션 모델이 출력하는 췌장암 영역에 대한 정보를 더 입력받고, 상기 췌장암 영역 또는 상기 췌장암 영역의 주변 영역에 중요도를 부가하여 상기 혈관 영역을 구분하거나,
    상기 분류 모델이 출력하는 값을 기준으로 혈관 침범이 발생한 영상만을 대상으로 상기 혈관 영역을 구분하는 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법.
  6. 대상자의 췌장 초음파 내시경 영상을 입력받는 입력장치;
    췌장 초음파 내시경 영상에서 췌장암 영역을 구분하는 제1 세그멘테이션 모델, 췌장 초음파 내시경 영상에서 췌장암의 혈관 침범 여부를 분류하는 분류 모델 및 췌장 초음파 내시경 영상에서 혈관 영상을 구분하는 제2 세그멘테이션 모델을 저장하는 저장장치; 및
    상기 입력된 췌장 초음파 내시경 영상을 상기 제1 세그멘테이션 모델에 입력하여 췌장암 영역을 구분하고, 상기 입력된 췌장 초음파 내시경 영상을 상기 분류 모델에 입력하여 췌장암의 혈관 침범 여부를 판단하고, 혈관 침범이 발생했다고 판단한 경우 상기 입력된 췌장 초음파 내시경 영상을 상기 제1 세그멘테이션 모델에 입력하여 상기 췌장암 영역의 주변에 위치한 혈관 영역을 구분하는 연산장치를 포함하는 초음파 내시경 영상을 이용하여 췌장암의 혈관 침범을 분류하는 분석 장치.
  7. 제6항에 있어서,
    상기 연산장치는 상기 분류 모델이 출력하는 값을 기준으로 혈관 침범에 대한 확률값을 결정하고,
    상기 췌장암 영역이 구분된 췌장 초음파 내시경 영상에 상기 확률값을 표시하는 출력장치를 더 포함하는 초음파 내시경 영상을 이용하여 췌장암의 혈관 침범을 분류하는 분석 장치.
  8. 제6항에 있어서,
    상기 입력된 췌장 초음파 내시경 영상은 연속된 다수의 췌장 초음파 내시경 영상들을 포함하고,
    상기 연산장치는 상기 다수의 췌장 초음파 내시경 영상들 각각을 상기 제2 세그멘테이션 모델에 입력하여 혈관 영역을 구분하고, 상기 다수의 췌장 초음파 내시경 영상들에 혈관 영역을 표시한 영상을 적층하여 3차원 혈관 영상을 재구성하는 초음파 내시경 영상을 이용하여 췌장암의 혈관 침범을 분류하는 분석 장치.
KR1020210143665A 2021-10-26 2021-10-26 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치 KR102587670B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210143665A KR102587670B1 (ko) 2021-10-26 2021-10-26 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치
PCT/KR2022/007654 WO2023075055A1 (ko) 2021-10-26 2022-05-30 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210143665A KR102587670B1 (ko) 2021-10-26 2021-10-26 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치

Publications (2)

Publication Number Publication Date
KR20230059454A true KR20230059454A (ko) 2023-05-03
KR102587670B1 KR102587670B1 (ko) 2023-10-10

Family

ID=86160075

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210143665A KR102587670B1 (ko) 2021-10-26 2021-10-26 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치

Country Status (2)

Country Link
KR (1) KR102587670B1 (ko)
WO (1) WO2023075055A1 (ko)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS648955A (en) * 1986-10-16 1989-01-12 Olympus Optical Co Ultrasonic endoscopic apparatus
US8047993B2 (en) 2004-12-08 2011-11-01 Industrial Technology Research Institute Quantitative non-invasive method for detecting degree of malignancy in tumors and application thereof
KR20190125592A (ko) * 2018-04-30 2019-11-07 주식회사 실리콘사피엔스 의료 영상을 이용하여 혈관의 3차원 형상을 생성하기 위한 세그멘테이션 방법
JP6663461B2 (ja) * 2018-08-31 2020-03-11 株式会社アドメテック 内視鏡下癌治療システム
KR102141302B1 (ko) * 2019-03-04 2020-08-04 이화여자대학교 산학협력단 회귀 딥러닝 모델 기반의 영상 객체 검출 방법 및 영상처리장치
KR102163225B1 (ko) * 2018-08-03 2020-10-08 한국과학기술원 뉴럴 네트워크를 이용한 영상 분할 방법 및 그 장치
KR102186632B1 (ko) * 2019-01-07 2020-12-02 재단법인대구경북과학기술원 의료 영상의 분석 모델을 학습시키는 학습 장치 및 그 학습 방법
KR20210020629A (ko) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법
KR20210035381A (ko) * 2019-09-23 2021-04-01 삼성에스디에스 주식회사 의료 진단 방법 및 장치
KR102237198B1 (ko) * 2020-06-05 2021-04-08 주식회사 딥노이드 인공지능 기반의 의료영상 판독 서비스 시스템
KR20210109819A (ko) * 2020-02-28 2021-09-07 주식회사 웨이센 학습 알고리즘 기반 내시경 영상 정보 분석 서비스 프로그램 기록매체
KR20210110435A (ko) * 2020-02-28 2021-09-08 주식회사 웨이센 영상 분류 및 분할이 가능한 시각적 통합 학습 및 검출 모델 기반의 내시경 영상 정보 분석 서비스 프로그램

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6955303B2 (ja) * 2017-04-12 2021-10-27 富士フイルム株式会社 医用画像処理装置および方法並びにプログラム
KR102182357B1 (ko) * 2018-10-25 2020-11-24 고려대학교 산학협력단 Ct 영상 내 간암 영역 기반으로 3차원 분석을 하는 수술 보조 장치 및 방법
KR102144672B1 (ko) * 2020-01-17 2020-08-14 성균관대학교산학협력단 시맨틱 분할을 이용한 인공지능형 초음파 의료 진단 장치 및 이를 이용한 원격 의료 진단 방법

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS648955A (en) * 1986-10-16 1989-01-12 Olympus Optical Co Ultrasonic endoscopic apparatus
US8047993B2 (en) 2004-12-08 2011-11-01 Industrial Technology Research Institute Quantitative non-invasive method for detecting degree of malignancy in tumors and application thereof
KR20190125592A (ko) * 2018-04-30 2019-11-07 주식회사 실리콘사피엔스 의료 영상을 이용하여 혈관의 3차원 형상을 생성하기 위한 세그멘테이션 방법
KR102163225B1 (ko) * 2018-08-03 2020-10-08 한국과학기술원 뉴럴 네트워크를 이용한 영상 분할 방법 및 그 장치
JP6663461B2 (ja) * 2018-08-31 2020-03-11 株式会社アドメテック 内視鏡下癌治療システム
KR102186632B1 (ko) * 2019-01-07 2020-12-02 재단법인대구경북과학기술원 의료 영상의 분석 모델을 학습시키는 학습 장치 및 그 학습 방법
KR102141302B1 (ko) * 2019-03-04 2020-08-04 이화여자대학교 산학협력단 회귀 딥러닝 모델 기반의 영상 객체 검출 방법 및 영상처리장치
KR20210020629A (ko) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 의료 영상에서 딥러닝에 기반한 종양 자동분할 방법
KR20210035381A (ko) * 2019-09-23 2021-04-01 삼성에스디에스 주식회사 의료 진단 방법 및 장치
KR20210109819A (ko) * 2020-02-28 2021-09-07 주식회사 웨이센 학습 알고리즘 기반 내시경 영상 정보 분석 서비스 프로그램 기록매체
KR20210110435A (ko) * 2020-02-28 2021-09-08 주식회사 웨이센 영상 분류 및 분할이 가능한 시각적 통합 학습 및 검출 모델 기반의 내시경 영상 정보 분석 서비스 프로그램
KR102237198B1 (ko) * 2020-06-05 2021-04-08 주식회사 딥노이드 인공지능 기반의 의료영상 판독 서비스 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Semantic Segmentation of Pancreatic Cancer in Endoscopic Ultrasound Images Using Deep Learning Approach. Cancers 2022, 14, 5111 *

Also Published As

Publication number Publication date
KR102587670B1 (ko) 2023-10-10
WO2023075055A1 (ko) 2023-05-04

Similar Documents

Publication Publication Date Title
US11816836B2 (en) Method and system for assessing vessel obstruction based on machine learning
US10482603B1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
Elyan et al. Computer vision and machine learning for medical image analysis: recent advances, challenges, and way forward.
Yousef et al. A holistic overview of deep learning approach in medical imaging
Moses Deep learning applied to automatic disease detection using chest x‐rays
Navarrete-Welton et al. Current applications of artificial intelligence for intraoperative decision support in surgery
EP3375376B1 (en) Source of abdominal pain identification in medical imaging
Tian et al. Self-supervised pseudo multi-class pre-training for unsupervised anomaly detection and segmentation in medical images
Torrents-Barrena et al. TTTS-GPS: Patient-specific preoperative planning and simulation platform for twin-to-twin transfusion syndrome fetal surgery
US20230260652A1 (en) Self-Supervised Machine Learning for Medical Image Analysis
KR20220130855A (ko) 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법
KR20200110111A (ko) 의료영상정보 딥러닝 기반의 동적 다차원 질병진단 방법 및 동적 다차원 질병진단 장치
US20220277445A1 (en) Artificial intelligence-based gastroscopic image diagnosis assisting system and method
Rai et al. A comprehensive analysis of recent advancements in cancer detection using machine learning and deep learning models for improved diagnostics
WO2021193019A1 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
KR20230059454A (ko) 초음파 내시경 영상을 이용한 딥러닝 기반 췌장암의 혈관 침범 분류 방법 및 분석장치
US20220036558A1 (en) Method and system for predicting expression of biomarker from medical image
WO2022071208A1 (ja) 情報処理装置、情報処理方法、プログラム、モデル生成方法及び訓練データ生成方法
WO2021193024A1 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
Maram et al. Brain tumour detection on brats 2020 using u-net
Chen et al. SAM-OCTA: Prompting Segment-Anything for OCTA Image Segmentation
Diez et al. Deep reinforcement learning and convolutional autoencoders for anomaly detection of congenital inner ear malformations in clinical CT images
KR20230090378A (ko) Ct 영상을 이용한 골 전이 검출 방법 및 분석장치
KR20240109600A (ko) Ct 영상을 이용한 골 전이 검출 방법 및 분석장치
KR102600615B1 (ko) 대상체의 움직임에 따른 위치정보 예측 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant