KR20230013042A - 영상 분석을 통해 병변의 재발을 예측하는 방법 - Google Patents

영상 분석을 통해 병변의 재발을 예측하는 방법 Download PDF

Info

Publication number
KR20230013042A
KR20230013042A KR1020227042539A KR20227042539A KR20230013042A KR 20230013042 A KR20230013042 A KR 20230013042A KR 1020227042539 A KR1020227042539 A KR 1020227042539A KR 20227042539 A KR20227042539 A KR 20227042539A KR 20230013042 A KR20230013042 A KR 20230013042A
Authority
KR
South Korea
Prior art keywords
image
interest
anatomical structure
medical
ablation
Prior art date
Application number
KR1020227042539A
Other languages
English (en)
Inventor
에스타니슬라오 우벨
뤼시앙 블롱델
베르탱 나훔
페르낭 바다노
Original Assignee
퀀텀 서지컬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀀텀 서지컬 filed Critical 퀀텀 서지컬
Publication of KR20230013042A publication Critical patent/KR20230013042A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4848Monitoring or testing the effects of treatment, e.g. of medication
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/02Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/02Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques
    • A61B18/0206Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques ultrasonic, e.g. for destroying tissue or enhancing freezing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • A61B18/14Probes or electrodes therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/1815Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Otolaryngology (AREA)
  • Physiology (AREA)
  • Optics & Photonics (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Plasma & Fusion (AREA)
  • Bioinformatics & Computational Biology (AREA)

Abstract

본 발명은 개체(individual)(110)의 관심 해부학적 구조물(130)의 임의의 부분(160)의 절제에 관한 치료후 평가 방법에 관한 것으로, 상기 관심 해부학적 구조물은 하나 이상의 병변(165)을 포함한다.
특히, 치료후 평가 방법은, 인공신경망 유형의 자동 학습법을 이용하여, 개체의 관심 해부학적 구조물에 대한 한 쌍의 수술전 의료 영상과 수술후 의료 영상(170)의 분석을 토대로 상기 개체의 관심 해부학적 구조물의 병변 재발 위험도를 자동으로 평가하는 단계를 포함하며, 상기 방법은 여러 환자들의 동일한 관심 해부학적 구조물의 여러 의료 영상 쌍들이 저장되어 있는 데이터베이스로 소위 훈련 단계(training phase)에서 사전에 훈련되는 것이며, 데이터베이스 내 각각의 의료 영상 쌍은 상기 환자의 관심 해부학적 구조물의 병변 재발 상태와 연계되어 저장된다.
본 발명은 또한 이러한 평가 방법을 위한 명령어들을 저장하는 컴퓨터 메모리 및 프로세서를 포함하는, 전자 장치(150)에 관한 것이다.

Description

영상 분석을 통해 병변의 재발을 예측하는 방법
본 발명은 의료 중재술에 대한 평가 분야에 속한다.
보다 구체적으로, 본 발명은 절제된 병변의 재발 위험도와 연관된 치료후 평가 방법에 관한 것이다.
본 발명은 특히 종양이나 전이와 같은 병변의 재발 위험도를 예측함으로써 최소 침습적 의료 중재술을 평가하는 데 적용될 수 있다. 이러한 최소 침습적 의료 중재술은 예를 들어 간, 폐, 신장 또는 그 외 다른 장기 내 종양과 같은 병변의 경피적 절제술에 해당한다. 일반적으로 경피적 절제술은 하나 이상의 바늘을 피부에 삽입하여 병변에 도달한 후 병변을 파괴하기까지 여러 영상들을 사용한 가이드를 받는 것으로 이루어진다.
의료 중재술의 효과를 평가하고 병변의 재발 위험도를 예측하기 위한 기법이 종래 기술에 공개되어 있다.
이러한 기법은, 예를 들어, 병변 절제 후, 절제 부위가 병변을 수용(또는 포함)하는 범위를 구하는 것으로 이루어진다. 절제 부위의 용적을 병변의 용적과 비교하여 절제연(ablation margin)을 정할 수 있다. 실제로, 최소한 5mm의 절제연을 확보하도록 보통 권고된다.
이러한 절제연을 정하기 위해, 대개는 의료 중재술을 계획할 때 병변의 용적을 구하고, 이를 집도의가 하나 이상의 수술후 영상에서 분할한 절제 부위의 용적과 비교한다.
이의 주요 결점은, 흔히 분할 작업을 수행한 집도의에 따라, 절제 부위의 용적이 대개 부정확하게 정해진다는 것이다. 게다가, 수술후 영상의 질이 종종 좋지 않아, 분할 작업에 불확실성을 가져오는 원인이 된다. 이에 따라 절제연과 병변 재발 위험도 사이의 상관관계를 확립하기가 쉽지 않다.
종래 기술의 기법들을 개선하기 위해, 절제 부위를 자동으로 분할하는 방법들을 이용하는 것이 잘 알려진 관행이다.
이러한 기법이 예를 들어 2019년 9월에 발행된 과학 간행물에 Zhang 등에 의해 "Detection and Monitoring of Thermal Lesions Induced by Microwave Ablation Using Ultrasound Imaging and Convolutional Neural Networks"이란 제목으로 기재되어 있다. 이 간행물에 기재된 분할 방법을 통해, 수술전 초음파 영상과 수술후 초음파 영상을 분할하여 절제 부위의 절제연을 산출할 수 있다.
그러나, 절제 부위의 자동 분할 정확도가 낮기 때문에 상기 간행물에 기재된 분할 방법으로 재발 위험도를 예측할 수 없다. 첫째, 상기 분할 방법은 보통 4mm2로 크기가 고정된 절제 부위 영상의 서브샘플링 매트릭스로 제한되므로, 방법의 용도가 작은 치수의 부위로 제한된다. 또한, 서브샘플링 매트릭스의 위치를 잡기 위해서는 절제 부위의 위치를 알아야 하므로, 상기 방법은 수술전 영상과 수술후 영상에서의 서브샘플링 매트릭스 내부측에 일정한 기준점들이 없는 경우에는 이용하기 어렵다. 끝으로, 2차원 초음파 영상의 특성 및 영상의 질로 인해 관심 해부학적 구조물을 확인하기 어려울 수 있어, 해당 부위의 분할 작업이 정확하지 않게 됨에 따라, 특히 분할된 절제 부위 안에 절제 대상 병변이 포함되지 않는 등 부정확한 관찰을 하게 된다.
게다가, 자동 분할 방법은 균질한 부위들, 즉, 예를 들면, 뼈, 혈관 또는 병변에 대해, 또는 영상에 포함된 부위들의 수가 알려졌을 때, 일관된 결과를 제공한다. 절제 부위는 일반적으로 가스, 괴사된 세포들, 건강한 세포들, 잔류 조영제, 침착된 석회성 물질 등과 같은 다양한 물질로 구성되는 매우 복잡한 부위이기 때문에, 절제 부위의 경우, 얻어지는 분할 결과들이 일관되지 않다. 또한, 대개 흐릿하고 콘트라스트가 낮은 의료 영상들에 분할 작업이 수행되는 것이므로, 영상의 자동 분할을 어렵게 만든다.
기존의 시스템들 중 어느 것도 모든 요구사항을 동시에 충족시킬 수 있게 하지는 못하며, 특히 선명하지 않고/않거나 콘트라스트가 낮은 의료 영상들을 기반으로, 앞서 절제된 병변의 재발 위험도를, 숙련된 집도의의 중재술 없이, 세밀하게 평가할 수 있게 하지 못한다.
본 발명은 전술한 종래 기술의 결점들 전부 또는 그 일부를 시정하는 것을 목적으로 한다.
이를 위해, 본 발명은 개체(individual)의 관심 해부학적 구조물의 임의의 부분의 절제에 관한 치료후 평가 방법을 목표로 하며, 상기 관심 해부학적 구조물은 하나 이상의 병변을 포함하고, 상기 관심 해부학적 구조물의 절제된 부분을 절제 부위라 지칭한다.
절제는 경피적 또는 최소 침습적이며, 일반적으로 하나 이상의 바늘을 피부에 삽입하여 병변에 도달한 후 병변을 파괴하는 것으로 이루어진다. 고주파, 극초단파, 전기천공, 레이저, 극저온 냉동요법, 초음파 등 많은 절제 기법이 가능하다.
관심 해부학적 구조물은 간, 폐, 신장, 또는 병변에 민감한 그 외 다른 장기일 수 있다.
본 발명에 따르면, 치료후 평가 방법은:
- 개체의 관심 해부학적 구조물의 수술후 의료 영상을 획득하는 단계;
- 상기 수술후 영상과, 수술전 의료 영상으로 지칭되는, 외과적 치료 이전에 획득한 개체의 관심 해부학적 구조물의 의료 영상을 재조정하는 단계로서, 이렇게 재조정된 수술전 의료 영상과 수술후 의료 영상으로 개체의 관심 해부학적 구조물에 대한 한 쌍의 의료 영상을 형성하는 것인, 재조정 단계;
- 인공신경망 기반 머신 러닝 방법을 이용하여 개체의 관심 해부학적 구조물의 병변의 재발 위험도를 평가하여 개체의 관심 해부학적 구조물에 대한 상기 한 쌍의 의료 영상을 분석하는 단계로서, 상기 머신 러닝 방법은 환자군의 동일한 관심 해부학적 구조물의 여러 의료 영상 쌍들이 저장되어 있는 데이터베이스로 소위 훈련 단계(training phase)에서 사전에 훈련되는 것이며, 데이터베이스 내 각각의 의료 영상 쌍은 해당 환자의 관심 해부학적 구조물의 병변 재발 상태와 연계되어 저장되는 것인, 단계
를 포함한다.
따라서 병변의 재발 위험도는, 소정의(given) 해부학적 구조물(예를 들어, 치료 대상 관심 해부학적 구조물이 간인 경우, 소정의 해부학적 구조물은 간이다)의 여러 의료 영상 쌍들에 대한 대규모 분석을 수행하는 식으로, 이전의 임상 데이터를 기반으로 예측된다. 이러한 분석을 통해, 숙련된 집도의 없이도, 절제 대상 병변의 재발 위험도를 더 정확하게 예측할 수 있게 된다. 따라서 본 발명에 따른 치료후 평가 방법은, 재발 위험도가 상당한 것으로 판명된 경우에 의료진이 추가 치료의 필요성을 평가할 수 있게 함으로써, 개체에게 적용된 치료에 대해 더 나은 소견을 의료진에게 제공한다.
일반적으로 재발 상태는, 수술후 검진일에, 재발이 관찰되었을 경우에는 소위 양성 수치(positive value)를 갖게 되거나 재발이 관찰되지 않았을 경우에는 소위 음성 수치(negative value)를 갖게 된다.
이 부분과 관련하여 재발 위험도는 일반적으로 0 내지 1 사이의 확률 형태를 취한다.
유리하게는, 재발 위험도는 치료후 기설정된 날짜에 평가되며, 재발 상태가 양성인 경우 데이터베이스 내 각각의 의료 영상 쌍은 재발 날짜와 연계되어 저장된다.
상기 날짜는 예를 들어 절제 치료 이후 1개월, 3개월, 6개월, 1년, 2년, 5년 또는 심지어 10년일 수 있다.
"수술전 의료 영상"이란 용어는 절제 치료 전에 획득한 의료 영상을 의미하는 것으로 이해하면 되고, "수술후 의료 영상"이란 용어는 절제 치료 후에 획득한 의료 영상을 의미하는 것으로 이해하면 된다.
본 발명의 일부 특정 구현 모드에서, 데이터베이스 내 훈련 영상 쌍들의 전부 또는 일부는, 재조정 이후, 하나 이상의 병변을 포함하는 절제 부위의 주변을 따라 크롭핑되되, 영상들은 기설정된 크기의 공통 프레임에 맞추어 크롭핑되며, 상기 공통 프레임 내부에는, 크롭핑된 영상 쌍들의 절제 부위 중심 세트에 의해 개별 지점들(distinct points)의 무리가 형성된다.
따라서, 절제 부위의 위치를 공통 프레임 내에 분산시킴으로써, 머신 러닝 방법의 예측 오차를 줄일 수 있다. 모든 절제 부위가 공통 프레임 내의 동일한 위치에 있는 경우 머신 러닝 방법은 주로 이러한 특정 위치에 절제 부위가 놓인 영상 쌍들을 고려하게 되므로, 절제 부위가 다른 위치에 있게 되면 예측 오류가 발생한다.
본 발명의 일부 특정 구현 모드에서, 데이터베이스 내의 앞서 크롭핑된 모든 의료 영상 쌍들에 있어서, 영상에 포함된 개체 신체 부분을 단일 크기의 여러 기본 단위들로 분할하되, 이러한 기본 단위들의 개수를, 절제 부위에 의해 범위가 획정된 인체 부분과 상기 영상에 포함된 개체 신체 부분의 나머지 간에, 거의 똑같이 두 부분으로 나눈다.
다시 말해, 기본 단위들의 개수를, 절제 부위에 의해 범위가 획정된 인체 부분과 데이터베이스 내 크롭핑된 영상 쌍들에 포함된 개체 신체 부분 간에, 거의 똑같이 두 부분으로 나눈다.
절제 부위에 해당하는 기본 단위들과 비절제 부위에 해당하는 기본 단위들 간의 등가 분포를 한 영상 수준에서 분석할 수 있거나 또는 모든 영상 수준에서 전체적으로 분석할 수 있다는 점에 유의해야 한다.
기본 단위는 일반적으로 2차원 영상의 경우에는 픽셀로 지칭되고 3차원 영상의 경우에는 복셀로 지칭된다.
거의 똑같이 나뉜 부분들이란, 두 기본 단위 세트들이 동일한 개수의 기본 단위들로 구성된 경우, 또는 이러한 두 세트들 각각의 기본 단위 개수의 차이가 예를 들어 상기 두 세트들의 기본 단위 개수의 5% 미만인 경우를 의미하는 것으로 이해하면 된다.
본 발명의 일부 특정 구현 모드에서, 의료 영상 쌍들의 데이터베이스는 절제 부위가 없는 적어도 한 쌍의 영상을 포함한다.
따라서 머신 러닝 방법은 절제술이 수행되지 않은 부위에 대한 적어도 한 쌍의 영상을 갖도록 최적으로 훈련된다.
본 발명의 일부 특정 구현 모드에서, 치료후 평가 방법은, 재발 위험도가 기설정된 임계치를 초과하는 경우, 추가 절제 마스크를 정하는 단계를 또한 포함한다.
따라서 치료후 평가 방법을 이용하여 재발 위험도를 개선하기 위한 치료 제안이 추정된다. 이러한 추가 치료 제안은 비강제적(non-binding)이므로 의료진이 따르거나 따르지 않을 수 있다는 점에 유의해야 한다.
추가 절제 마스크는 추가 치료 중에 절제할 부위에 대한 표시(display)란 점에 유의해야 한다. 일반적으로, 재발 위험도가 임계치(예컨대, 0.5)를 초과하였을 때, 예를 들면,
- 수술전 영상과 수술후 영상에서 각각 병변과 절제 부위를 검출 및 분할한 후에; 그리고
- 하나 이상의 재발 위치가 정해진 후에,
절제 마스크를 생성한다.
상기 검출 및 분할은 또한 자동으로 수행되거나 집도의에 의해 수동으로 수행될 수 있다.
본 발명의 일부 특정 구현 모드에서, 추가 절제 마스크를 정하는 단계는 개체의 관심 해부학적 구조물의 수술후 영상에서 절제 부위를 분할하는 하위 단계를 포함한다.
이러한 분할 단계는 자동으로 수행되거나 집도의에 의해 수동으로 수행될 수 있다. 보통, 절제 부위는 영상에서 사전에 검출되며, 한 명 이상의 집도의가 영상에서 해당 위치를 지목했다는 점에 유의해야 한다.
본 발명의 일부 특정 구현 모드에서, 추가 절제 마스크를 정하는 단계는 개체의 관심 해부학적 구조물의 수술후 영상에서 절제 부위를 검출하는 하위 단계를 포함한다.
본 발명의 일부 특정 구현 모드에서, 추가 절제 마스크를 정하는 단계는 개체의 관심 해부학적 구조물의 수술전 영상에서 병변 부위를 검출하는 하위 단계를 포함한다.
이에 따라, 의료 영상에서 검출한 병변 주위로 분할 단계가 수행될 수 있다.
본 발명의 일부 특정 구현 모드에서, 추가 절제 마스크를 정하는 단계는,
- 절제 부위와 병변 간의 절제연,
- 병변의 질량 중심과 절제 부위의 질량 중심 간의 거리,
- 주변의 건강한 조직과 관련하여 구별되는 절제 부위 가장자리들의 균일성 및 선명도,
- 병변의 용적과 절제 부위의 용적 사이의 비율,
- 관심 해부학적 구조물의 중앙에 기준한 병변의 위치
를 포함하는 목록에서 선택된 하나 이상의 위험도 예측인자의 함수로서 재발 위치를 구하는 하위 단계를 포함한다.
본 발명의 일부 특정 구현 모드에서, 의료 영상은 3차원 영상이다.
3차원 영상은, 예를 들어, 기설정된 축을 따라 대체로 일정한 간격으로 촬영된 2차원 의료 영상들의 집합에 해당할 수 있다는 점에 유의해야 한다.
본 발명의 일부 특정 구현 모드에서, 각각의 수술전 영상은 제1 영상 획득 기법을 이용하여 획득되고, 각각의 수술후 영상은 제2 영상 획득 기법을 이용하여 획득되되, 제1 기법과 제2 기법은 동일하거나 상이하다.
본 발명의 일부 특정 구현 모드에서, 치료후 평가 방법은 또한 추가 절제 마스크에 의해 범위가 획정되는 절제 부위의 표적 지점까지의 의료 기구의 궤적을 제시하는 단계를 포함한다.
궤적을 계획하는 단계라고도 지칭되는, 궤적을 제시하는 단계는, 추가 치료 이전에, 특히 개체에 제공되는 모든 의학적 조치 이전에, 수행된다는 점에 유의해야 한다. 또한 이러한 궤적은 비강제적이므로 의료진이 따르거나 따르지 않을 수 있다는 점에 유의해야 한다.
본 발명의 일부 특정 구현 모드에서, 치료후 평가 방법은 또한 집도의가 의료 기구의 계획된 궤적을 따르도록 보조하는 단계를 포함한다.
본 발명의 일부 특정 구현 모드에서, 계획된 궤적 및/또는 가이드 표식을 증강 현실 장치의 화면에 실시간으로 표시한다.
또한 본 발명은, 전술한 구현 모드들 중 어느 하나에 따른 방법의 명령어들을 저장하는 컴퓨터 메모리 및 프로세서를 포함하는, 전자 장치에 관한 것이다.
이러한 전자 장치는 예를 들어 제어 장치, 내비게이션 시스템, 로봇 장치 또는 증강 현실 장치일 수 있다. 상기 제어 장치는 특히 수술실에 배치되어 있는 컴퓨터일 수 있거나, 또는 원격 서버일 수 있다.
다시 말해, 본 발명은 개체의 관심 해부학적 구조물의 임의의 부분의 절제에 관한 치료후 평가 방법의 명령어들을 저장하는 컴퓨터 메모리 및 프로세서를 포함하는 전자 장치에 관한 것으로, 상기 관심 해부학적 구조물에 하나 이상의 병변이 포함되어 있으며, 상기 관심 해부학적 구조물의 절제된 부분을 절제 부위라 지칭하고, 상기 프로세서는, 명령어들을 실행할 때,
- 개체의 관심 해부학적 구조물의 수술후 의료 영상을 획득하도록 구성되고;
- 상기 수술후 영상과, 수술전 의료 영상으로 지칭되는, 외과적 치료 이전에 획득한 개체의 관심 해부학적 구조물의 의료 영상을 재조정하도록 구성되되, 이렇게 재조정된 수술전 의료 영상과 수술후 의료 영상으로 개체의 관심 해부학적 구조물에 대한 한 쌍의 의료 영상을 형성하며;
- 인공신경망 기반 머신 러닝 방법을 이용하여 개체의 관심 해부학적 구조물의 병변의 재발 위험도를 평가하여, 개체의 관심 해부학적 구조물에 대한 상기 한 쌍의 의료 영상을 분석하도록 구성되되, 상기 머신 러닝 방법은 환자군의 동일한 관심 해부학적 구조물의 여러 의료 영상 쌍들이 저장되어 있는 데이터베이스로 소위 훈련 단계에서 사전에 훈련되는 것이며, 데이터베이스 내 각각의 의료 영상 쌍은 상기 환자의 관심 해부학적 구조물의 병변 재발 상태와 연계되어 저장된다.
본 발명의 일부 특정 실시예에서, 상기 프로세서는 치료 후 기설정된 날짜에 재발 위험도를 평가하도록 구성되며, 재발 상태가 양성인 경우 데이터베이스 내 각각의 의료 영상 쌍은 또한 재발 날짜와 연계되어 저장된다.
본 발명의 일부 특정 실시예에서, 추가로 상기 프로세서는, 데이터베이스 내 영상 쌍들의 전부 또는 일부를, 재조정 이후, 훈련 영상 쌍들의 전부 또는 일부의 수술후 영상에 포함된 절제 부위의 주변을 따라 크롭핑하되, 영상들을 기설정된 크기의 공통 프레임에 맞추어 크롭핑하도록 구성되며, 상기 공통 프레임 내부에는, 크롭핑된 영상 쌍들의 절제 부위 중심 세트에 의해 개별 지점들(distinct points)의 무리가 형성된다.
본 발명의 일부 특정 실시예에서, 데이터베이스 내의 앞서 크롭핑된 모든 의료 영상 쌍들에 있어서, 추가로 상기 프로세서는 영상에 포함된 개체 신체 부분을 단일 크기의 여러 기본 단위들로 분할하되, 이러한 기본 단위들의 개수를, 절제 부위에 의해 범위가 획정된 인체 부분과 상기 영상에 포함된 개체 신체 부분의 나머지 간에, 거의 똑같이 두 부분으로 나누도록 구성된다.
본 발명의 일부 특정 실시예에서, 의료 영상 쌍들의 데이터베이스는 절제 부위가 없는 적어도 한 쌍의 영상을 포함한다.
본 발명의 일부 특정 실시예에서, 추가로 상기 프로세서는, 재발 위험도가 기설정된 임계치보다 큰 경우, 추가 절제 마스크를 정하도록 구성된다.
본 발명의 일부 특정 실시예에서, 추가로 상기 프로세서는, 추가 절제 마스크를 정할 때, 개체의 관심 해부학적 구조물의 수술후 영상에서 절제 부위를 검출하도록 구성된다.
본 발명의 일부 특정 실시예에서, 추가로 상기 프로세서는, 추가 절제 마스크를 결정할 때, 개체의 관심 해부학적 구조물의 수술후 영상에서 절제 부위를 분할하도록 구성된다.
본 발명의 일부 특정 실시예에서, 추가로 상기 프로세서는, 추가 절제 마스크를 결정할 때, 개체의 관심 해부학적 구조물의 수술전 영상에서 병변을 검출하도록 구성된다.
본 발명의 일부 특정 실시예에서, 추가로 상기 프로세서는, 추가 절제 마스크를 결정할 때, 개체의 관심 해부학적 구조물의 수술전 영상에서 병변을 분할하도록 구성된다.
본 발명의 일부 특정 실시양태에서, 추가로 상기 프로세서는, 추가 절제 마스크를 결정할 때,
- 절제 부위와 병변 간의 절제연,
- 병변의 질량 중심과 절제 부위의 질량 중심 간의 거리,
- 주변의 건강한 조직과 관련하여 구별되는 절제 부위 가장자리들의 균일성 및 선명도,
- 병변의 용적과 절제 부위의 용적 사이의 비율,
- 관심 해부학적 구조물의 중앙에 기준한 병변의 위치
를 포함하는 목록에서 선택된 하나 이상의 위험도 예측인자의 함수로서 재발 위치를 구하도록 구성된다.
본 발명의 일부 특정 실시예에서, 의료 영상은 3차원 영상이다.
본 발명의 일부 특정 실시예에서, 각각의 수술전 영상은 제1 영상 획득 기법을 이용하여 획득되고, 각각의 수술후 영상은 제2 영상 획득 기법을 이용하여 획득되되, 제1 기법과 제2 기법은 동일하거나 상이하다.
본 발명의 다른 이점, 목적 및 구체적인 특징들은, 첨부된 도면을 참조하여, 본 발명의 주제를 구성하는 장치 및 방법의 하나 이상의 특정 실시예에 대한 하기의 비제한적인 설명으로부터 명백해질 것이다.
도 1은 의료 중재술의 개략도이다.
도 2는 도 1에 나타낸 의료 중재술의 치료후 평가 방법의 개요도이다.
도 3은 절제 부위를 강조 표시한 3차원 의료 영상들의 한 예로서, 해당 영상은 도 2를 참조로 설명되는 방법에 이용된다.
도 4는 4개의 의료 영상들의 한 예로서, 각각은 집도의가 수동으로 범위를 획정한 절제 마스크 및 도 2를 참조로 설명되는 방법에 따라 인공신경망이 예측한 절제 마스크를 포함한다.
도 5는 도 2를 참조로 설명되는 방법의 한 단계를 통해 병변과 절제 부위가 자동으로 분할된 의료 영상의 한 예이다.
도 6은 도 2를 참조로 설명되는 방법으로 제시될 수 있는, 추가적 절제의 한 예를 나타낸다.
본 설명을 제한 없이 제공하고자 하며, 일 실시예의 각 특징은 유리한 방식으로 임의의 다른 실시예의 임의의 다른 특징과 조합될 수 있다.
이하, 도면들이 실제 크기에 비례하여 도시된 것이 아니라는 점에 유의해야 한다.
특정 구현 모드의 예
도 1은 수술대(115)에 누워 있는 개체(110)를 의료 기구(120)로 치료하고 있는 의료 중재술의 개략도이다. 본 발명의 비제한적 예로서, 본 의료 중재술은 의료 기구(120)(이 경우, 반강성 니들)를 사용하여 관심 해부학적 구조물(130)(이 경우, 개체(110)의 간) 내 병변(165)을 절제하는 시술에 해당한다. 이 경우, 의료 중재술은 개체(110)의 신체를 개방하지 않은 상태로 행해지는 경피적 시술이다.
집도의(140)가 의료 기구(120)를 조작할 때 유리하게는 가이드 장치를 통해 안내해 줄 수 있으며, 본 발명의 비제한적 예에 의하면, 이러한 가이드 장치는 집도의(140)가 착용하는 헤드셋과 같은 증강 현실 장치다. 의료 기구(120)는 또한 의료용 로봇 장치(125)와도 합체(associate)될 수 있다.
헤드셋(150)은 반투명한 스크린(155)을 포함함으로써 집도의가 정상적으로 볼 수 있도록 한다. 관심 해부학적 구조물(130) 내 식별된 병변(165) 주위의 부위(160)(절제 부위로 지칭) 절제를 통한 치료 목적으로, 집도의(140)의 의료 기구(120) 조작을 가이드해 줄 수 있는 마커들을 표시하도록 영상을 오버레이된 형태로 화면(155) 상에 표시한다. 상기 마커들에는 특히 수술 전에 획득된 관심 해부학적 구조물(130)의 의료 영상(170)에서 미리 추정한 절제 마스크가 포함될 수 있다. 이하, 의료 영상(170)을 수술전 의료 영상(170)으로 지칭하기로 한다.
수술이 완료되면, 이러한 수술적 치료는 도 2의 개요도에 나타낸 바와 같이 절제의 치료후 평가 방법(200)을 이용하여 평가되며, 상기 평가 방법의 명령어들은 케이블이나 무선 기술을 통해 헤드셋(155)에 연결된 전자 제어 장치(181)의 컴퓨터 메모리(180)에 저장되어 있다. 전자 제어 장치(181)의 컴퓨터 프로세서(182)에 의해 명령어들을 처리하는 치료후 평가 방법(200)을 통해 특히 병변과 연관된 재발 위험도를 파악할 수 있으므로, 수술 시 수행된 외과적 치료가 충분했는지 또는 예를 들어 추가 절제술을 수행하는 식으로 치료를 지속하는 것이 바람직한지 검증(verify)하게 된다.
전자 제어 장치(181)가 유리하게는 헤드셋(150)에 통합될 수 있다는 점에 유의해야 한다.
치료후 평가 방법(200)은 관심 해부학적 구조물(130)의 수술후 의료 영상을 획득하는 제1 단계(210)를 포함한다.
수술전 의료 영상과 수술후 의료 영상을 바람직하게는 컴퓨터 단층 촬영을 이용하여 획득한다는 점에 유의해야 한다. 대안으로는, 이들 의료 영상을 자기공명영상 장치를 사용하여 획득할 수 있다.
수술전 의료 영상을 획득하는 데 이용하는 기법과 수술후 의료 영상을 획득하는 데 이용하는 기법은 바람직하게는 유사하거나 심지어 동일하다.
다시 말해, 수술전과 수술후의 의료 영상들을 획득하는 데 이용하는 기법이 유리하게는 머신 러닝 방법의 훈련 데이터베이스에서 의료 영상들을 획득하는 데 이용되는 기법과 동일하다.
한편, 수술후 의료 영상을 획득하는 데 이용하는 기법이 수술전 의료 영상을 획득하는 데 이용하는 기법과 상이할 수 있다.
이 경우, 수술전 의료 영상을 획득하는 데 이용하는 기법과 수술후 의료 영상을 획득하는 데 이용하는 기법이 유리하게는 머신 러닝 방법의 훈련 데이터베이스에서 의료 영상들을 획득하는 데 이용되는 기법들과 동일하다.
본 발명의 비제한적인 실시예에서, 수술전과 수술후의 의료 영상들은 유리하게는 3차원 형태로 획득한 영상들이다. 실제로, 3차원 형태로 획득한 각각의 의료 영상은 일반적으로 2차원 의료 영상들의 집합에 해당하며, 각 2차원 의료 영상은 기설정된 축을 따라 일정한 간격으로 촬영된, 관심 해부학적 구조물(130)의 한 단면에 해당한다. 관심 해부학적 구조물의 3차원 표현은 이러한 2차원 의료 영상들을 모아서 재구성될 수 있다. 따라서 "3차원 영상"이란 용어는 의료 영상들의 집합과 3차원 표현 둘 다를 의미하는 것으로 이해하면 된다. "복셀"이란 용어는 3차원 영상의 해상도와 관련된 기본 단위를 의미하는 것으로 이해하면 된다.
대안으로, 수술전과 수술후의 의료 영상들을 각각 2차원 형태로 획득한다. 이 경우 2차원 영상의 해상도와 관련된 기본 단위는 보통 픽셀로 지칭된다.
수술전과 수술후의 의료 영상들은 전체 관심 해부학적 구조물을 포함하고 있는 영상들이거나, 또는 기설정된 프레임 내에서 절제 부위 주변을 크롭핑한 영상들이다. 3차원 영상에서는 절제 부위를 둘러싸는 프레임이 입방체(cube)인 한편 2차원 영상에서의 프레임은 정사각형이다.
"바운딩 박스(bounding box)"로도 알려진, 절제 부위를 둘러싸는 프레임은, 집도의의 동작을 따라, 절제 부위 주변에 자동으로 생성될 수 있다. 이러한 동작의 예는 집도의가 절제 부위에 속하는 수술후 의료 영상 내의 한 지점을 가리키는 것일 수 있고, 그러면 그 지점 주변으로 프레임이 생성된다. 예를 들어, 크기가 작은 병변들, 즉, 예를 들어, 최대 직경이 대략 5cm ± 10%, 또는 더욱 바람직하게는 최대 직경이 대략 3cm ± 10%인 병변들에 대한 최소 침습적 절제 치료와 관련하여, 입방체의 각 모서리 혹은 정사각형의 각 변은 크기가 5 내지 10 cm이다.
도 3은 절제 부위(310)가 프레임(320)에 둘러싸인 3차원 의료 영상(300)의 예시도이다. 프레임(320)은 입방체이며, 각각 시상면, 수평면 및 관상면을 따라 절취된 단면도들(340, 350, 360) 상의 정사각형들(330)에 상응한다.
도 2를 참조로 설명되는 방법(200)의 제2 단계(220)에서는, 수술전 의료 영상(170)과 함께 수술후 의료 영상을 재조정한다. 두 의료 영상의 해부학적 구조물 지점들 간에 매칭되는 부분들을 찾기 위한 재조정 단계는 당업자가 숙지하고 있는 방법을 이용하여 수행하면 된다. 상기 재조정 단계는 강체적으로(rigidly), 다시 말해 영상들 내의 모든 지점을 동일한 방식으로 변환시키는 등으로 수행될 수 있거나, 또는 비강체적으로, 다시 말해 영상의 각 지점을 특정 변환시키는 등으로 수행될 수 있다.
이렇게 재조정된 2개의 수술전 영상 및 수술후 영상으로 개체(110)의 관심 해부학적 구조물(130)에 대한 한 쌍의 의료 영상을 형성한다.
그런 다음 제3 단계(230)에서, 상기 관심 해부학적 구조물(130)에 대한 한 쌍의 의료 영상을 머신 러닝 방법인 인공신경망으로 분석하여, 절제 치료와 연관된 재발 위험도를 자동으로 평가한다.
이를 위해, 인공신경망은, 예비(preliminary) 훈련 단계(290)에서, 환자군의 동일한 관심 해부학적 구조물(이 경우, 간)의 여러 의료 영상 쌍들이 저장된 데이터베이스로 사전에 훈련되었다. 각각의 의료 영상 쌍은 관심 해부학적 구조물(130)의 것과 동일한 기능을 갖는 관심 해부학적 구조물의 수술전 영상과 수술후 영상으로 구성된다.
유리하게는, 개체(110)의 관심 해부학적 구조물(130)에 대한 한 쌍의 의료 영상은 인공신경망의 훈련 데이터베이스 내 여러 의료 영상 쌍들에 대한 기법과 동일한 기법을 이용하여 획득한다. 다시 말해, 수술전 의료 영상들은 제1 의료 이미징 기법을 이용하여 획득하고, 수술후 의료 영상들은 상기 제1 의료 이미징 기법과 동일하거나 상이할 수 있는 제2 의료 이미징 기법을 이용하여 획득한다. 동일한 유형의 의료 영상, 다시 말해, 수술전 의료 영상들 및/또는 수술후 의료 영상들에 대해 매개변수들이 상이할 수 있더라도 동일한 기법을 이용하면, 서로 다른 의료 이미징 기법들과 연관되는 바이어스를 줄임으로써, 인공신경망에 의해 얻어지는 결과를 개선할 수 있게 된다.
개체(110)의 관심 해부학적 구조물(130)의 의료 영상들을 크롭핑할 때, 이들 의료 영상의 입방체 또는 정사각형의 치수와 인공신경망 훈련에 이용되는 입방체 또는 정사각형의 치수가 동일한 것이 유리하다.
인공신경망을 훈련시키기 위해, 데이터베이스 내 각각의 의료 영상 쌍을 개체의 간 병변 재발 상태(재발이 되었는지 여부를 나타내는 상태)와 연계시킨다(가능하게는, 재발 날짜와 연계시킨다). 이러한 각각의 의료 영상 쌍이 대개는 다른 개체에서 유래된 것이라는 점에 유의해야 한다.
인공신경망 훈련 단계(290)는 보통 여러 단계로 수행된다:
- 훈련 단계(291);
- 유효성 확인(validation) 단계(292);
- 테스트 단계(293).
따라서, 여러 의료 영상 쌍들의 데이터베이스는 서로 다른 의료 영상 쌍들을 포함하는 3개의 데이터베이스로 나뉜다. 이들 3개의 데이터베이스는 각각 훈련 베이스, 유효성 확인 베이스 및 테스트 베이스로 지칭된다. 본 발명의 비제한적 예에서, 의료 영상 데이터베이스 내 의료 영상 쌍들 중 60 내지 98%는 훈련 베이스에 그룹화되고, 1 내지 20%는 유효성 확인 베이스에 그룹화되며, 1 내지 20%는 테스트 데이터베이스에 그룹화된다. 이들 퍼센트는 표시로 주어지는 것으로서, 의료 영상 데이터베이스 내 영상들의 개수에 따라 정해진다.
인공신경망 훈련 단계(290)의 처음 두 단계(291, 292)는 여러 번 반복될 수 있는 주요 단계들이다. 세 번째 테스트 단계는 그 자체로서는 선택 사항이다.
훈련 단계(290)의 제1 단계(291)에서는, 훈련 베이스 내 의료 영상 쌍들을 기반으로 인공신경망의 각 뉴런에 대한 가중치(W) 및 바이어스(b)를 정한다.
훈련 베이스가 유리하게는 절제 부위가 없는 의료 영상 쌍들을 포함할 수 있다는 점에 유의해야 한다.
또한, 데이터베이스 내 영상 세트가 비절제 부위에 속하는 복셀 개수 만큼의 복셀들을 절제 부위에 포함하는 것이 바람직할 수 있다. 이 비율은 집도의들이 수동으로 정한 복셀 분류를 토대로 하여 산출된다.
다시 말해, 데이터베이스 내의 모든 크롭핑된 의료 영상 쌍들에 있어서, 영상에 포함된 개체 신체 부분을 단일 크기의 여러 기본 단위들로 분할하고, 이러한 기본 단위들의 개수를, 절제 부위에 의해 범위가 획정된 인체 부분과 상기 영상에 포함된 개체 신체 부분의 나머지 간에, 거의 똑같이 두 부분으로 나눈다.
거의 똑같이 두 부분으로 나눈다란 의미는, 두 기본 단위 세트들이 동일한 개수의 기본 단위들로 구성된 경우, 또는 이러한 두 세트들 각각의 기본 단위 개수의 차이가 예를 들어 상기 두 세트들의 기본 단위 개수의 5% 미만인 경우를 의미하는 것으로 이해하면 된다.
더욱이, 재조정된 의료 영상 쌍들 중 일부에서의 절제 부위 위치를 유리하게는 랜덤 방식으로 영상의 중앙을 기준으로 무작위로 이동시킬 수 있어, 주로 프레임의 중앙에 있는 영역이 절제 부위인 것으로 학습했을 수 있는 인공신경망에 바이어스가 유입되는 것을 막을 수 있다. 특히, 집도의에 의해 절제 부위 주변에 정확하기 않게 프레임이 넣어진 일부 의료 영상들이 있다. 따라서, 병변의 위치를 프레임의 중앙에 지정할 때 이러한 바이어스를 제한하기 위해 유리하게는 유계(bounded) 랜덤 변수를 프레임들의 위치에 추가한다.
훈련 단계(290)의 제2 단계(292)는, 유효성 확인 데이터베이스 내 의료 영상 쌍들로부터, 인공신경망의 각 뉴런에 대해 사전에 정해진 가중치(W)와 바이어스(b)의 유효성을 확인함으로써, 인공신경망의 결과(구체적으로는 예측 오류)를 검증할 수 있도록, 즉, 유효성 확인 베이스 내 각각의 의료 영상 쌍에 대해, 인공신경망을 이용하여 얻은 재발 위험도를 의료 영상 쌍과 연계된 재발 상태와 각각 비교함으로써 검증할 수 있도록 한다.
이러한 제2 단계가 끝났을 때 예측 오차가 너무 큰 경우에는 동일한 의료 영상 쌍들을 재사용하여 인공신경망을 재훈련시키기 위해 전술한 두 단계, 즉 훈련 단계(291)와 유효성 확인 단계(292)를 다시 구현함으로써, 각 뉴런의 가중치(W) 및 바이어스(b)의 값을 더 정확하게 수정하도록 한다.
대안으로는, 인공신경망의 재훈련 시, 제1 단계(291)는, 훈련을 위해, 훈련 데이터베이스 내 의료 영상 쌍들과, 유효성 확인 베이스 내 의료 영상 쌍들 중 일부를 고려하여, 의료 영상 쌍들을 재샘플링(resampling)하는 방식을 이용한다. 그런 후 유효성 확인 베이스 내의 나머지 의료 영상 쌍들을 사용하여, 제1 재훈련 단계가 끝났을 때 얻은 가중치(W) 및 바이어스(b)의 유효성을 확인한다.
인공신경망의 재훈련은 예측 오류가 허용 수준이 될 때까지, 즉, 기설정된 값보다 낮아질 때까지, 필요한 대로 여러 번 수행될 수 있다는 점에 유의해야 한다.
훈련 단계(290)의 두 단계(291, 292)가 적어도 한 번 구현된 후에는, 테스트 데이터베이스 내 의료 영상 쌍들을 이용하여, 실행가능한 제3 테스트 단계(293)에서 인공신경망의 최종 성능을 테스트할 수 있다. 훈련 베이스 및 유효성 확인 베이스 내 의료 영상 쌍들과 별개인 상기 의료 영상 쌍들은 각 뉴런에 대한 매개변수들(W 및 b)로 구성된 인공신경망이 직면하게 될 수 있는 모든 상황에서 인공신경망이 재발 위험도를 정확하게 예측할 수 있는지 검증할 수 있도록 한다. 하지만, 유효성 확인 단계(292)와는 달리, 이러한 실행가능한 제3 테스트 단계(293)로 인해 인공신경망을 위한 새로운 훈련 주기가 발생하지는 않는다.
테스트 단계(293)에서 사용되는 영상들은, 인공신경망의 예측 능력을 최적으로 테스트하기 위해, 관심 해부학적 구조물 내 다양한 위치 및 크기의 절제 부위를 수용하도록 전반적으로 신중하게 선택된다는 점에 유의해야 한다.
외과적 치료와 연관된 재발 위험도의 예측은, 각각 재발 상태와 연관된 의료 영상 쌍들의 데이터베이스를 토대로 사전에 훈련된 인공신경망이 직접 구한다.
이렇게 연관된 재발 상태는, 예를 들어, 절제술 이후 소정의 기간 내에 병변 재발이 없었을 때에는 0(음성 상태)이고, 또는 절제술 이후 소정의 기간 내에 병변 재발이 있었을 때에는 1(양성 상태)이다. 재발 상태의 추정과 관련하여 바람직한 기간은 6개월이다. 그러나, 재발 상태가 양성인 경우에는 재발 날짜와 연관시킴으로써, 절제술 이후 다양한 날짜에서의 재발 상태를 추정하는 것이 가능하다. 예를 들어, 절제술 이후 6개월마다, 또는 절제술 이후 1개월, 3개월, 6개월, 1년, 2년, 5년 또는 10년마다, 해당되는 의료 영상 쌍과 연계된 재발 상태들을 예측하도록 인공신경망을 훈련시킬 수도 있다.
병변의 재발 위험도 수치는 일반적으로 0 내지 1 사이의 확률 형태를 취한다.
재발 위험도 수치가 기설정된 임계치(즉, 소정의 기간 내에 재발할 가능성의 확률)보다 큰 경우, 치료후 평가 방법(200)의 제4 단계(240)에서 추가 절제 마스크를 추정하는 식으로, 치료후 평가 방법(200)에 의해 추가 치료가 제안될 수 있다. 이러한 추가적, 비강제적 치료는 예를 들면 절제연이 소정의 값(예컨대, 5mm)보다 작은 영역에서의 추가 절제에 해당한다.
추가 절제 마스크를 생성하는 단계(240)는 일반적으로 도 2에서 참조번호 241 내지 245로 표시된 5개의 하위 단계들을 포함한다.
하위 단계(241)에서는, 개체(110)의 관심 해부학적 구조물(130)의 수술전 영상에서 병변(165)을 검출한다. 이러한 검출은 자동으로 수행되거나 집도의에 의해 수동으로 수행될 수 있다.
하위 단계(242)에서, 제2 인공신경망은 제2 데이터베이스로부터의 의료 영상들을 학습한 것을 토대로 관심 해부학적 구조물의 적어도 한 병변 주변에 절제 마스크를 생성한다. 상기 제2 데이터베이스에서, 대부분의 의료 영상은 간 병변을 보이는 환자에서 사전에 검출하여 분할한 절제 부위를 포함한다.
도 4는 이러한 제2 데이터베이스 내의 4개의 의료 영상(400)을 예시한다. 절제 부위(410)의 범위를 획정한 집도의가 수동으로 각 의료 영상(400)에 어노테이션(annotation)을 표시하였다. 인공신경망은 절제 마스크(420)를 생성하였다.
제2 데이터베이스 내 각각의 의료 양상에 대해, 훈련의 적절성을 높이고 그에 따른, 제2 인공신경망에 의해 얻은 분석 결과의 적절성을 증가시키도록, 유리하게는 적어도 2명의 집도의가 수동으로 절제 부위를 정했다는 점에 유의해야 한다. 구체적으로, 도 4의 영상들(400)에서와 같이 특히 영상의 콘트라스트가 낮은 경우, 집도의가 절제 부위를 구분하기가 어려울 수 있다. 그러므로 여러 명의 집도의로 하여금 의료 영상에 어노테이션을 표시하도록 함으로써, 절제 부위의 식별을 향상시킬 수 있다. 따라서, 본 발명의 비제한적 예로, 재조정된, 수술전 의료 영상 및 수술후 의료 영상 쌍과 연관된 절제 부위는 집도의들이 제시한 절제 부위들의 조합에 해당한다. 대안적 예로, 한 의료 영상과 연관된 절제 부위는 집도의들이 제시한 절제 부위들의 교차영역, 의견 일치가 된 부분, 또는 판정된 부분에 해당할 수 있다. 더 나아가, 의료 영상의 복셀들을 절제 부위 또는 비절제 부위로 분류하도록 인공신경망을 훈련시킨다.
대안으로, 의료 영상 내 절제 부위의 범위를 획정하는 데 있어서 단 한 명의 어노테이션 작업 전문가의 도움으로 훈련이 수행될 수도 있다. 그러므로 집도의의 경험은 제2 인공신경망으로 하여금 절제 부위의 범위 획정을 잘 수행할 수 있도록 하는 데 중요하다.
또한, 제2 데이터베이스가 제1 데이터베이스와 동일한 이점들을 가지도록 하여 제2 인공신경망의 훈련 바이어스(구체적으로, 절제 부위가 없는 영상을 포함할 수 있다는 것, 절제 부위들의 위치가 체계적으로 영상의 중앙에 있지는 않다는 것, 그리고 데이터베이스 내 영상 세트가 영상에서 볼 수 있는 해부학적 구조물의 비절제 부위에 속하는 복셀 개수 만큼의 복셀들을 절제 부위에 포함하는 것)를 제한할 수 있다는 점에 유의해야 한다.
제2 인공신경망은 개체의 관심 해부학적 구조물(130)에 대한 수술후 의료 영상의 각 복셀을 절제 부위 또는 비절제 부위로 분류한다. 이러한 예측은 관심 해부학적 구조물(130)의 해당되는 의료 영상 쌍에 중첩(superimpose)되는 절제 마스크 형태를 취할 수 있다. 절제 마스크는 일반적으로 제2 인공신경망이 예측한 절제 부위에 속하는 복셀들로 재조정된다. 절제 마스크의 범위는 대개 2차원 영상의 맥락에서 한 영역 또는 윤곽에 의해 획정된다는 점에 유의해야 한다.
하위 단계(243)에서는, 개체(110)의 관심 해부학적 구조물(130)의 수술전 의료 영상에서 병변(165)을 자동으로 분할한다. 대안으로, 이러한 분할은 집도의에 의해 수동으로 수행된다.
병변의 자동 분할은 당업자가 숙지하고 있는 방법들을 이용하여 수행하면 된다. 예를 들어, 분할 단계는 영상의 히스토그램에 기초한 방법(이를테면, 오츠(Otsu) 방법)을 이용하거나 딥러닝 방법을 이용하여 수행된다.
이러한 하위 분할 단계(243)를, 수술전 의료 영상(500)을 나타내는 도 5에 예시하였다. 여기서는 병변(510)의 3차원 위치와 절제 부위(520)의 3차원 위치를 구하기 위해 딥러닝 방법을 기반으로 자동 분할이 수행된 예이다. 앞서 사용된 2개의 인공신경망과 별개인 제3 인공신경망을 사용하여 동등한 결과를 얻을 수 있다.
그런 후, 하위 단계(244)에서는, 이전에 설정된 절제 마스크와 분할된 병변 사이를 절제연으로 정한다. 상기 절제연은 최소 마진, 즉 분할된 병변과 절제 마스크 사이의 최소 거리에 해당한다. 다시 말해, 절제연은 병변의 한 지점과 절제 부위의 한 지점 사이에서 산출된 최소 거리에 해당하며, 병변의 모든 지점에 대해 산출된다.
절제연을 구함으로써, 병변이 실제로 절제 부위에 수용(또는 포함)되도록 보장할 수 있다.
도 6은 재발 위험이 있는 병변(600)에 대한 절제 치료 후 추가 절제의 예를 나타낸다. 치료후 평가 방법(200)을 통해, 병변(600)과 절제 부위(610) 사이의 절제연(605)이 충분하지 못했던 영역들을 식별한 후, 추가 절제 마스크(620)를 생성하였다. 절제 부위를 가능한 한 제한하려고 노력하면서 추가 절제 마스크(620)를 생성한다는 점에 유의해야 한다. 절제용 니들이 도달해야 하는 표적 지점들(630)의 범위를 상기 마스크(620) 내에서 추가로 획정할 수 있다.
또한, 하위 단계(245)에서는, 산출된 절제연을 데이터베이스에 저장되어 있는, 재발 상태와 연관된 절제연들의 기준치와 비교함으로써, 재발 위치의 예측을 평가할 수 있다. 예를 들어, 절제연이 5mm 이상이면 재발 위험이 낮은 것으로, 또는 심지어 제로(0)인 것으로 간주된다.
추가로 또는 대안으로, 절제연 외에 재발 위험도 예측인자들을 이용할 수 있다. 이들 다양한 예측인자 중 모두 또는 일부에 가중치를 부여하는 식으로 재발 위치를 예측할 수 있다. 일 예로, 재발 위험도 예측인자들은 다음과 같을 수 있다:
- 병변의 표면 또는 병변의 표면 일부와 절제 부위 간의 거리;
- 병변의 질량 중심과 절제 부위의 질량 중심 간의 거리;
- 특히 피막하 병변의 경우에는 관심 해부학적 구조물에의 피막(capsule) 근접성을 감안한, 병변의 표면 또는 병변의 표면 일부와 절제 부위 간의 거리, 및 병변의 질량 중심과 절제 부위의 질량 중심 간의 거리;
- 주변의 건강한 조직에 대한 절제 부위 가장자리들의 균일도;
- 주변의 건강한 조직과 관련하여 구별되는 절제 부위 가장자리들의 균일성 및 선명도;
- 병변의 용적과 절제 부위의 용적 사이의 비율;
- 관심 해부학적 구조물 내 병변의 위치.
질량 중심의 기준치는 절제연에 따라 정해진다. 절제연이 10mm이고 절제연의 기준치가 5mm라면, 병변의 질량 중심과 절제 부위의 질량 중심 간의 거리는 5mm 이하이어야 한다.
본 방법(200)은 또한 절제 마스크 또는 추가 절제 마스크와 합체된 의료 기구(120)가 따라야 할 궤적을 계획하는 단계(250)를 포함함으로써, 의료 기구(120) 가이드 단계(260)에서, 의료 기구(120)를 다룰 때 계획된 궤적을 따르도록 집도의를 가이드할 수 있다.
계획 방법의 한 예가"Mιthode de planification automatique d'une trajectoire pour une intervention mιdicale" [의료 중재술을 위한 궤적을 자동으로 계획하는 방법]이란 발명의 명칭으로 프랑스 특허출원 제1914780호에 기재되어 있다.
본 발명의 비제한적 예에서, 상기 가이드 단계는, 헤드셋(150)의 화면(155) 상에, 계획된 궤적 및/또는 가이드 표식을 표시하는 것을 포함하는 시각적 단계라는 점에 유의해야 한다.
대안으로는, 의료 기구(120)에 대한 위치 및 방향 정보를 제공하는 내비게이션 시스템을 통해 의료 기구(120)를 가이드할 수 있다. 이는 해당 내비게이션 시스템에 연결된(coupled) 로봇 장치를 사용한 기계적 가이드를 포함할 수 있다.
재발 위험도가 제로나 거의 제로가 될 때까지, 또는 절제연들이 충분할 때까지, 단계 230 내지 단계 260이 반복될 수 있다는 점에 유의해야 한다.

Claims (15)

  1. 개체(110)의 관심 해부학적 구조물(130)의 임의의 부분의 절제에 관한 치료후 평가 방법(200)에 있어서, 상기 관심 해부학적 구조물은 하나 이상의 병변(165, 510, 600)을 포함하며, 상기 관심 해부학적 구조물의 절제된 부분을 절제 부위(160)라 지칭하되, 상기 방법은:
    개체의 관심 해부학적 구조물의 수술후 의료 영상을 획득하는 단계(210);
    상기 수술후 영상과, 수술전 의료 영상으로 지칭되는, 외과적 치료 이전에 획득한 개체의 관심 해부학적 구조물의 의료 영상(170, 500)을 재조정하는 단계(220)로서, 이렇게 재조정된 수술전 의료 영상과 수술후 의료 영상으로 개체의 관심 해부학적 구조물에 대한 한 쌍의 의료 영상을 형성하는 것인, 재조정 단계;
    인공신경망 기반 머신 러닝 방법을 이용하여 개체의 관심 해부학적 구조물의 병변의 재발 위험도를 평가하여 개체의 관심 해부학적 구조물에 대한 상기 한 쌍의 의료 영상을 분석하는 단계로서, 상기 머신 러닝 방법은 환자군의 동일한 관심 해부학적 구조물의 여러 의료 영상 쌍들(300, 400)이 저장되어 있는 데이터베이스로 소위 훈련 단계(training phase)(290)에서 사전에 훈련되는 것이며, 데이터베이스 내 각각의 의료 영상 쌍은 상기 환자의 관심 해부학적 구조물의 병변 재발 상태와 연계되어 저장되는 것인, 단계
    를 포함하는 것을 특징으로 하는 치료후 평가 방법.
  2. 제2항에 있어서,
    재발 위험도는 치료후 기설정된 날짜에 평가되며, 재발 상태가 양성인 경우 데이터베이스 내 각각의 의료 영상 쌍은 재발 날짜와 연계되어 저장되는 것인, 치료후 평가 방법.
  3. 제1항 또는 제2항에 있어서,
    데이터베이스 내 영상 쌍들의 전부 또는 일부는, 재조정 이후, 훈련 영상 쌍들의 전부 또는 일부의 수술후 영상에 포함된 절제 부위의 주변을 따라 크롭핑되되, 영상들은 기설정된 크기의 공통 프레임에 맞추어 크롭핑되며, 상기 공통 프레임 내부에는, 크롭핑된 영상 쌍들의 절제 부위 중심 세트에 의해 개별 지점들(distinct points)의 무리가 형성되는 것인, 치료후 평가 방법.
  4. 제3항에 있어서,
    데이터베이스 내의 앞서 크롭핑된 모든 의료 영상 쌍들에 있어서, 영상에 포함된 개체 신체 부분을 단일 크기의 여러 기본 단위들로 분할하되, 이러한 기본 단위들의 개수를, 절제 부위에 의해 범위가 획정된 인체 부분과 상기 영상에 포함된 개체 신체 부분의 나머지 간에, 거의 똑같이 두 부분으로 나누는 것인, 치료후 평가 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    의료 영상 쌍들의 데이터베이스는 절제 부위가 없는 적어도 한 쌍의 영상을 포함하는 것인, 치료후 평가 방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    재발 위험도가 기설정된 임계치를 초과하는 경우, 추가 절제 마스크를 정하는 단계를 추가로 포함하는, 치료후 평가 방법.
  7. 제6항에 있어서,
    상기 추가 절제 마스크를 정하는 단계는 개체의 관심 해부학적 구조물의 수술후 영상에서 절제 부위를 검출하는 하위 단계를 포함하는 것인, 치료후 평가 방법.
  8. 제6항 또는 제7항에 있어서,
    상기 추가 절제 마스크를 정하는 단계는 개체의 관심 해부학적 구조물의 수술후 영상에서 절제 부위를 분할하는 하위 단계를 포함하는 것인, 치료후 평가 방법.
  9. 제6항 내지 제8항 중 어느 한 항에 있어서,
    상기 추가 절제 마스크를 정하는 단계는 개체의 관심 해부학적 구조물의 수술전 영상에서 병변을 검출하는 하위 단계를 포함하는 것인, 치료후 평가 방법.
  10. 제6항 내지 제9항 중 어느 한 항에 있어서,
    상기 추가 절제 마스크를 정하는 단계는 개체의 관심 해부학적 구조물의 수술전 영상에서 병변을 분할하는 하위 단계를 포함하는 것인, 치료후 평가 방법.
  11. 제6항 내지 제9항 중 어느 한 항에 있어서,
    상기 추가 절제 마스크를 정하는 단계는,
    절제 부위와 병변 간의 절제연,
    병변의 질량 중심과 절제 부위의 질량 중심 간의 거리,
    주변의 건강한 조직과 관련하여 구별되는 절제 부위 가장자리들의 균일성 및 선명도,
    병변의 용적과 절제 부위의 용적 사이의 비율,
    관심 해부학적 구조물의 중앙에 기준한 병변의 위치
    를 포함하는 목록에서 선택된 하나 이상의 위험도 예측인자의 함수로서 재발 위치를 구하는 하위 단계를 포함하는 것인, 치료후 평가 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    의료 영상은 3차원 영상인, 치료후 평가 방법.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    각각의 수술전 영상은 제1 영상 획득 기법을 이용하여 획득되고, 각각의 수술후 영상은 제2 영상 획득 기법을 이용하여 획득되되, 제1 기법과 제2 기법은 동일하거나 상이한 것인, 치료후 평가 방법.
  14. 제1항 내지 제13항 중 어느 한 항에 따른 치료후 평가 방법의 명령어들을 저장하는 컴퓨터 메모리 및 프로세서를 포함하는, 전자 장치(150).
  15. 제14항에 있어서,
    제어 장치, 내비게이션 시스템, 로봇 장치 또는 증강 현실 장치일 수 있는, 전자 장치.
KR1020227042539A 2020-05-20 2021-05-20 영상 분석을 통해 병변의 재발을 예측하는 방법 KR20230013042A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR2005338A FR3110764B1 (fr) 2020-05-20 2020-05-20 Méthode de prédiction de la récidive d’une lésion par analyse d’images
FR2005338 2020-05-20
PCT/FR2021/050906 WO2021234304A1 (fr) 2020-05-20 2021-05-20 Méthode de prédiction de la récidive d'une lésion par analyse d'images

Publications (1)

Publication Number Publication Date
KR20230013042A true KR20230013042A (ko) 2023-01-26

Family

ID=73793239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227042539A KR20230013042A (ko) 2020-05-20 2021-05-20 영상 분석을 통해 병변의 재발을 예측하는 방법

Country Status (9)

Country Link
US (1) US20230172535A1 (ko)
EP (1) EP4154262A1 (ko)
JP (1) JP2023525967A (ko)
KR (1) KR20230013042A (ko)
CN (1) CN113993475A (ko)
CA (1) CA3178587A1 (ko)
FR (1) FR3110764B1 (ko)
IL (1) IL298315A (ko)
WO (1) WO2021234304A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115966309A (zh) * 2023-03-17 2023-04-14 杭州堃博生物科技有限公司 复发位置预测方法、装置、非易失性存储介质及电子设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2679436C (en) * 2007-04-05 2018-10-23 Aureon Laboratories, Inc. Systems and methods for treating, diagnosing and predicting the occurrence of a medical condition
WO2015102951A2 (en) * 2014-01-03 2015-07-09 Mc10, Inc. Catheter or guidewire device including flow sensing and use thereof
JP6782700B2 (ja) * 2014-09-15 2020-11-11 クリフトン ライフ サイエンシズ リミテッド ライアビリティ カンパニー 膵・消化管神経内分泌新生物の診断のための組成物、方法およびキット
CN106408610B (zh) * 2015-04-16 2020-05-19 西门子公司 用边缘空间深度神经网络进行解剖对象检测的方法和系统
EP3295373A1 (en) * 2015-05-11 2018-03-21 Siemens Aktiengesellschaft A system and method for surgical guidance and intra-operative pathology through endo-microscopic tissue differentiation
KR20190070356A (ko) * 2016-11-11 2019-06-20 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 환자 건강 기록들 기반 기구 제어를 갖는 원격조작 수술 시스템
WO2018092071A1 (en) * 2016-11-16 2018-05-24 Navix International Limited Estimators for ablation effectiveness
CN107049475A (zh) * 2017-04-19 2017-08-18 纪建松 肝癌局部消融方法及系统
CN108922602A (zh) * 2018-05-28 2018-11-30 中山大学附属第六医院 基于大数据分析mri图像的直肠癌术前同期新辅助放化疗疗效评估系统和方法
CN110111892A (zh) * 2019-04-29 2019-08-09 杭州电子科技大学 一种nsclc患者术后短期复发转移风险评估系统
CN110189824B (zh) * 2019-06-04 2021-12-21 冯骥良 原发性肝癌根治切除术的预后情况分组方法、装置和系统
CN110251122A (zh) * 2019-06-13 2019-09-20 南方医科大学顺德医院(佛山市顺德区第一人民医院) 一种冠心病风险指数的无损检测系统及方法
CN111128328A (zh) * 2019-10-25 2020-05-08 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) 鼻咽癌结构化影像报告及数据处理系统和方法
CN110782474B (zh) * 2019-11-04 2022-11-15 中国人民解放军总医院 基于深度学习的预测消融术后肝脏肿瘤形态变化的方法

Also Published As

Publication number Publication date
CA3178587A1 (fr) 2021-11-25
IL298315A (en) 2023-01-01
WO2021234304A1 (fr) 2021-11-25
CN113993475A (zh) 2022-01-28
US20230172535A1 (en) 2023-06-08
FR3110764B1 (fr) 2024-05-10
JP2023525967A (ja) 2023-06-20
FR3110764A1 (fr) 2021-11-26
EP4154262A1 (fr) 2023-03-29

Similar Documents

Publication Publication Date Title
JP6671432B2 (ja) 患者装着式の針ガイドの位置合わせおよび動き補償
US11864835B2 (en) Puncture support device for determining safe linear puncture routes by puncture region classification and superimposing of images
JP7483271B2 (ja) テンプレート化されターゲット化されたバイオプシと処置のためのガイダンス及びトラッキングシステム
US10123841B2 (en) Method for generating insertion trajectory of surgical needle
JP6568478B2 (ja) 低侵襲治療のための計画、誘導およびシミュレーションシステムおよび方法
US9757202B2 (en) Method and system of determining probe position in surgical site
JP5134316B2 (ja) 医用画像診断装置
US7340082B2 (en) Method and medical imaging apparatus for determining a slice in an examination volume for data acquisition in the slice
US20070118100A1 (en) System and method for improved ablation of tumors
EP3788596B1 (en) Lower to higher resolution image fusion
CN110123453B (zh) 一种基于无标记增强现实的手术导航系统
CN115590623B (zh) 穿刺路径规划系统
US20230177681A1 (en) Method for determining an ablation region based on deep learning
WO2023216947A1 (zh) 一种用于介入手术的医学影像处理系统和方法
JP4970201B2 (ja) 医用画像診断装置
CN117618109A (zh) 基于mri的乳腺外科手术术前病灶定位及穿刺引导系统
KR20230013042A (ko) 영상 분석을 통해 병변의 재발을 예측하는 방법
EP3500174A1 (en) Method for visualizing a bone
CN116912098A (zh) 用于介入手术医学影像处理方法、系统、装置及存储介质
JP5192751B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
KR20180115122A (ko) 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법
Naik et al. Feature-based registration framework for pedicle screw trajectory registration between multimodal images
US20230419591A1 (en) Method and Apparatus for Evaluating Surgical Corridors in the Skull
WO2023114470A1 (en) Augmented and mixed reality incorporating pathology results in surgical settings
Dempere-Marco et al. Visual search in chest radiology: definition of reference anatomy for analysing visual search patterns