KR20220026534A - 딥러닝 기반의 조직 절제 계획 방법 - Google Patents

딥러닝 기반의 조직 절제 계획 방법 Download PDF

Info

Publication number
KR20220026534A
KR20220026534A KR1020217041779A KR20217041779A KR20220026534A KR 20220026534 A KR20220026534 A KR 20220026534A KR 1020217041779 A KR1020217041779 A KR 1020217041779A KR 20217041779 A KR20217041779 A KR 20217041779A KR 20220026534 A KR20220026534 A KR 20220026534A
Authority
KR
South Korea
Prior art keywords
procedure
planning
image
interest
tissue
Prior art date
Application number
KR1020217041779A
Other languages
English (en)
Inventor
에스타니슬라오 우벨
뤼시앙 블롱델
페르낭 바다노
베르탱 나훔
Original Assignee
퀀텀 서지컬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퀀텀 서지컬 filed Critical 퀀텀 서지컬
Publication of KR20220026534A publication Critical patent/KR20220026534A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/02Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/1815Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/18Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
    • A61B18/20Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00571Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for achieving a particular surgical effect
    • A61B2018/00577Ablation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Theoretical Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Otolaryngology (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Urology & Nephrology (AREA)
  • Electromagnetism (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Plasma & Fusion (AREA)
  • Image Processing (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 환자(30)의 인체구조적 관심 영역(31) 내의 조직(32)을 절제하는 것을 목표로 하는 시술 계획 방법(100) 및 장치에 관한 것이다. 다른 환자의 인체구조적 관심 영역에서의 유사한 조직 절제 시술에 각각 해당하는 학습 요소들을 사용하여 사전에 훈련된 신경망은 인체구조적 관심 영역의 수술전 영상(50)과 계획 매개변수들(P)의 집합을 기반으로 시뮬레이션 영상(51)을 생성한다. 각 학습 요소는 환자의 인체구조적 관심 영역의 수술전 영상(50), 상기 환자에 행해진 시술에 사용된 계획 매개변수들(P), 및 시술 후 상기 환자의 인체구조적 관심 영역의 수술후 영상(52)을 포함한다. 시뮬레이션 영상(51)에 표시된 추정된 절제 부위(34)를 분할하여, 수술전 영상(50)에 표시된 분할된 치료 대상 부위(33)와 비교한다.

Description

딥러닝 기반의 조직 절제 계획 방법
본 발명은 최소 침습 조직 절제 시술 분야에 속한다. 특히, 본 발명은 환자의 인체구조적 관심 영역 내의 조직을 절제하는 것을 목표로 하는 시술 계획 방법 및 장치에 관한 것이다.
환자의 인체구조적 관심 영역(예를 들어, 폐, 신장 또는 간) 내의 조직(예를 들어, 종양)을 절제하는 것을 목표로 하는 시술을 준비하기 위해 일반적으로 시술자는 수술전 영상을 기반으로 시술을 계획한다. 이러한 수술전 영상은 예를 들어 컴퓨터 단층촬영(또는 CT-스캔), 자기공명영상(MRI), 초음파, 양전자 방출 단층촬영(PET 또는 PET-스캔) 등을 통해 획득한다.
조직 절제는 열냉 요법(고주파, 극초단파, 냉동요법), 레이저, 전기천공, 집속 초음파 등 다양한 방법들로 시행될 수 있다. 또한, 각종 유형의 의료 기구(니들, 프로브, 전극 등)를 절제요법에 사용할 수 있다.
종래에는, 특정 의료 기구를 사용하여 예컨대 간세포 암종 또는 종양 전이가 있을 수 있는 환자의 인체구조적 관심 영역 내의 조직을 절제하는 것을 목표로 하는 시술은 상기 기구의 제조업체가 제공하는 의료 기구 데이터를 기반으로 계획된다. 예를 들어, 니들의 순환 전류로 조직 세포들을 파괴하는 데 적합한 특정 절제 니들의 경우, 상기 니들의 제조업체는 치료에 적용된 전력, 치료 기간 등과 같은 다양한 치료 매개변수들에 대해 구할 수 있는 절제 영역에서의 니들 단부를 기준으로 니들의 위치, 형태 및 치수들을 표시한다.
그러나, 특정 치료 매개변수들의 집합의 경우, 제조업체에 의해 표시된 절제 영역은 생체외 측정을 통해 결정된 것으로서, 동일한 치료 매개변수들이 적용되는 환자의 생체 내에서 실제로 구한 절제 영역과 항상 일치하지는 않는다.
일부 조직 절제 계획 방법들은 또한 모델링을 토대로 하여 시술 결과를 시뮬레이션하기도 한다. 예를 들어, 절제 대상 조직의 성질에 기반하여(예를 들면, 종양의 표현형에 기반하여), 그 조직 내에서의 열 확산 또는 전기 전도도와 같은 특성을 추정하여 절제 결과를 시뮬레이션 할 수 있다. 다른 예에 따르면, 해당 조직 내에 또는 그에 근접하여 위치한 혈관들의 냉각 효과를 고려하여 절제 결과를 추정한다. 그런 후에는 이러한 예상 모델에 기반하여 의료 기구 제조업체 데이터를 수정할 수 있다.
하지만 이들 방법은 당업자가 중요하다고 여겨 선택하는 특정 인자들에 의해 제한되기 때문에 종종 정확하지 않다. 더욱이, 이들 방법에서는 때때로 조직의 어떤 특성을 측정하기 위해 환자의 인체구조적 관심 영역에 의료 기구를 삽입(예를 들어, 조직의 전기 임피던스를 측정하기 위해 전극을 삽입)해야 한다.
또한, 동시에 또는 연속적으로 여러 가지 치료를 해야 하는 시술의 경우, 여러 개의 서로 다른 니들들을 사용할 수 있어, 통상적인 계획 방법들에서는 절제 영역이 각 니들과 각 치료에 대해 각각 추정되는 절제 영역들의 합집합에 해당하는 것으로 간주된다. 그러나 항상 그렇지는 않다. 여러 가지 치료를 한다는 사실이 실제로는 각 치료에 대해 구해지는 절제 영역에 영향을 미칠 수 있다. 또한, 이들 통상적인 방법에서는 일반적으로 특정 치료 매개변수들의 집합을 갖는 특정 니들에 대해 구해지는 절제 영역이 언제나 동일할 것으로 간주된다. 다시 말하지만 이는 불완전한 추정일 뿐이다. 실제로, 니들, 사용된 치료 매개변수들, 그리고 또한 환자의 특정 인체구조 특성에 따라, 구해지는 절제 영역이 다르다.
미국 특허출원 US 2018/0028261 A1은 종양 절제 영역을 결정하는 데 있어서 시술자를 보조하는 방법을 개시하고 있다. 이 방법은 종양을 절제해야 하는 환자 인체구조의 수술전 의료 영상을 획득하는 단계를 포함한다. 수술전 의료 영상에서 종양을 분할하고, 머신러닝 알고리즘을 통해 영상을 분석하여 수술전 의료 영상에서의 절제 영역을 결정한다.
이 문헌에서는 종양을 모두 절제하는 것이 일반적으로 잘못된 것이며 따라서 종양 중 절제 대상 부분들을 적절하게 선택하는 것이 최선이라고 여겨진다. 종양 중 가장 혈관이 많은 부분들이 우선적으로 절제해야 하는 가장 위험한 부분들이다. 미국 특허출원 US 2018/0028261 A1에 개시된 방법은 우선적으로 절제해야 하는 종양 부분들을 식별하기 위해 종양에 존재하는 혈관들을 매핑할 것을 제안한다. 상기 문헌에 기재된 방법의 목적은 여러 동일한 절제 영역들의 위치결정을 최적화함으로써 종양을 부분적으로, 단 최적으로, "포함"하는 데에 있다.
그러나, 상기 문헌은, 환자 고유의 일부 매개변수들로 인해, 특정 치료 매개변수들의 집합에 대해 추정된 절제 영역이 실제로 구해진 절제 영역과 다를 수 있다는 문제를 다루지 않았다. 이와 달리, 상기 문헌에서 개시한 방법에서는, 절제 기구가 정해진 경우, 주어진 치료 매개변수들의 집합에 대해 추정되는 절제 영역이 언제나 동일하다. 상기 문헌에서 개시한 방법에서는 여러 개의 동일한 절제 기구가 사용되며, 추정된 절제 영역은 각 기구에 대해 각각 추정된 절제 영역들의 합집합에 해당한다.
따라서 특정 치료 매개변수들의 집합에 대해 실제로 구해지는 절제 영역을 쉽고 정확하게 추정할 수 있게 하는, 환자의 인체구조적 관심 영역 내 조직의 절제 계획 방법이 여전히 필요하다.
본 발명의 목적은 특정 환자에 특정 시술을 행할 때, 절제 부위를 정확하게 추정할 수 있게 하는 해결법을 제안함으로써 선행 기술의 단점들, 특히 위에서 설명한 단점들을 모두 또는 일부 해소하는 데에 있다.
이를 위해, 제1 양태에 따르면, 본 발명은 환자의 인체구조적 관심 영역 내의 조직을 절제하는 것을 목표로 하는 시술 계획 방법을 제시한다. 상기 방법은,
- 인체구조적 관심 영역의 수술전 영상을 획득하는 단계;
- 계획 매개변수들의 집합을 작성하는 단계; 및
- 추정된 절제 부위가 표시된 시뮬레이션 영상을 생성하는 단계
를 포함하되, 상기 시뮬레이션 영상은 상기 수술전 영상, 상기 계획 매개변수들 및 신경망을 기반으로 생성되며, 상기 신경망은 다수의 학습 요소들로 사전에 훈련되되, 각 학습 요소는 다른 환자의 인체구조적 관심 영역에서의 유사한 조직 절제 시술에 각각 해당하며, 각 학습 요소는 상기 다른 환자의 인체구조적 관심 영역의 수술전 영상, 상기 다른 환자에 행해진 상기 시술에 사용된 계획 매개변수들, 및 시술 후 상기 다른 환자의 인체구조적 관심 영역의 수술후 영상을 포함하고, 상기 시뮬레이션 영상은 시술 후의 가능한 결과를 관찰할 수 있도록 한다.
따라서 신경망의 학습 요소는 수술전 영상, 계획 매개변수들의 집합 및 수술후 영상으로 구성된 삼중항 데이터에 해당한다.
수술전 영상과 수술후 영상은 예를 들어 컴퓨터 단층촬영, 자기공명, 초음파, 3차원 회전 혈관 조영술, 양전자 방출 단층촬영 등과 같은 의료 영상화 장치로 획득한다. 수술전 영상은 절제 시술을 시행하기 전에 획득한다. 수술후 영상은 절제 시술을 시행한 후에 획득한다.
신경망의 학습 단계 시, 신경망은, 각 학습 요소에 대해, 특정 수술전 영상과 특정 계획 매개변수들을 이용하여 수술후 영상에서 실제로 획득된 절제 부위가 무엇인지 학습한다. 따라서 신경망은 특정 수술전 영상과 특정 계획 매개변수들의 집합으로부터 실제로 획득되는 절제 부위가 무엇일지 정확하게 추정하도록 훈련된다. 이렇게 추정된 절제 부위는 컴퓨터-생성 영상에 표시된다.
이러한 일련의 절차를 통해, 환자의 인체구조적 관심 영역의 의료 영상에 포함된 모든 정보를 고려하여 절제 부위를 예측할 수 있게 된다. 따라서, 본 발명에 따른 방법에서는 종래 기술의 통상적인 방법들과 달리, 절제 부위의 예측이 전적으로 환자 개개인에 따라 다르다.
신경망의 특정 학습 요소들과 연관된 일부 시술에서는 여러 개의 의료 기구를 사용해야 할 수도 있다. 이에 따라 신경망은, 연관된 수술후 영상들을 분석함으로써, 한 시술에 여러 개의 의료 기구를 사용하였다는 사실이 나중에 얻어지는 결과에 미치는 영향을 학습할 수 있다.
본 발명에 따른 방법에서는 환자의 생체내 측정을 할 필요가 없다. 따라서 시술의 초기 단계에 계획을 수행할 수 있게 한다. 이런 식으로 시술자에게 더 많은 시술 준비 시간을 할애할 수 있다.
특정 구현예에서, 본 발명은, 단독으로 또는 모든 기술적으로 가능한 조합 형태로 후술되는 특징들 중 하나 이상을 추가로 포함할 수 있다.
특정 구현예에서, 상기 방법은 시뮬레이션 영상에 표시된 추정된 절제 부위를 분할하는 단계를 포함한다. 추정된 절제 부위를 분할하는 단계를 통해 상기 절제 부위의 치수를 정의할 수 있으며, 이를 예컨대 수술후 영상에서 식별된 치료 대상 부위와 비교하도록 한다.
특정 구현예에서, 상기 방법은 시뮬레이션 영상에 표시된 추정된 절제 부위의 각 복셀을 상기 복셀에 해당하는 조직의 X선 밀도를 나타내는 "X선 밀도값"으로 불리는 값과 연관시켜, 절제 시술에 대한 조직 반응을 알아내는 단계를 추가로 포함한다. 조직 반응을 알아내는 단계로 바람직한 구현예에 의하면, 컴퓨터 단층촬영(또는 CT-스캔)을 통해 수술전 영상을 획득한다.
"복셀(voxel)"이란 용어는 볼륨(volume)과 요소(element)란 용어들이 합쳐져 축약된 것이다. 복셀은 3차원 디지털 영상에서의 픽셀에 해당한다. 사용된 영상들이 2차원이라면, 복셀이란 용어는 픽셀이란 용어로 대체가 가능하다. 복셀을 사용하면 색계 정보 및 필요하다면 디지털 영상의 기본 부분에 대한 기타 정보를 저장할 수 있게 된다.
"X선 밀도"는 전자기 방사선, 특히 X선이 특정 물질을 통과하는 데 있어서의 상대적 통과 불가능력을 뜻하는 것으로 이해하면 된다. 낮은 X선 밀도값과 절제 부위의 복셀의 연관성이 높다는 것은 상기 복셀에 해당하는 절제 부위 부분이 더 많이 파괴되었다는 것이다. 따라서, "절제 시술에 대한 조직 반응"은 치료 대상 조직의 각 부분이 절제된 비율의 표현을 뜻하는 것으로 이해하면 된다. 예를 들어, X선 밀도값이 기정된 제1 임계값을 초과하는 절제 부위의 복셀들은 50% 이상이 파괴된(이는 치료에 대한 조직 반응이 상대적으로 낮다는 것과 같다) 치료 대상 조직 부분들에 해당한다. 또 다른 예에 따르면, X선 밀도값이 기정된 제2 임계값 미만인 절제 부위의 복셀들은 90% 넘게 파괴된(이는 치료에 대한 조직 반응이 상대적으로 높다는 것과 같다) 치료 대상 조직 부분들에 해당한다. 이로써, 시뮬레이션 영상을 기반으로, 치료에 대한 조직의 예상 반응을 매핑하는 것이 가능해진다.
특정 구현예에서, 추정된 절제 부위를 분할하는 단계는 상기 추정된 절제 부위의 각 복셀이 기정된 임계값을 초과하는 X선 밀도값과 연관되도록 수행된다.
특정 구현예에서, 상기 방법은 추정된 절제 부위의 윤곽선의 각 지점에 대해, 상기 윤곽선에 수직인 방향으로 대상(對象) 지점에서의 X선 밀도값의 구배가 기정된 임계값을 초과하는지 검사하는 단계를 추가로 포함한다. 이러한 일련의 절차를 통해 특히 절제 부위의 윤곽선이 선명한지 여부를 검사할 수 있다. 절제 부위의 윤곽선은 치료된 부위와 치료되지 않은 조직 간의 경계를 표시한다. 이러한 윤곽선의 선명도는 절제술의 질(quality)을 나타낸다.
특정 구현예에서, 상기 방법은, 수술전 영상에서, 시술을 통해 절제하고자 하는 조직에 해당하는 치료 대상 부위를 분할하는 단계와, 시뮬레이션 영상에 표시된 추정된 절제 부위를 수술전 영상에 표시된 치료 대상 부위와 비교하는 단계를 추가로 포함한다.
특히 이러한 일련의 절차를 통해, 추정된 절제 부위가, 충분하되 너무 크지는 않는 여유 공간을 두고, 치료 대상 부위를 포함하고 있는지 여부를 검사할 수 있게 된다. 특히 이를 통해, 작성된 계획 매개변수들이 유효한지 여부를 검사할 수 있게 된다.
특정 구현예에서, 상기 방법은 추정된 절제 부위의 윤곽선이 치료 대상 부위의 윤곽선을 완전히 둘러싸고 있는 경우 그리고 추정된 절제 부위의 윤곽선의 각 지점에 있어서 치료 대상 부위의 윤곽선과 이러한 지점 간의 최소 거리가 기정된 수치 범위 내에 있는 경우에 충족되는 것인 유효성 조건을 검사하는 단계를 추가로 포함한다.
특정 구현예에서, 유효성 조건을 검사하는 단계의 응답이 부정적이라면(다시 말해, 유효성 조건을 충족하지 못하였다면), 상기 방법은 추정된 절제 부위가 유효성 조건을 충족시키도록 새로운 계획 매개변수들의 집합을 작성하는 단계를 포함한다.
특정 구현예에서, 상기 방법은 유효성 조건을 충족하는 여러 개의 새로운 계획 매개변수들의 집합들을 작성하는 단계와, 상기 새로운 계획 매개변수들의 집합들 중에서, 추정된 절제 부위가 최소 치수를 갖는 최적의 계획 매개변수들의 집합을 식별하는 단계를 추가로 포함한다.
특정 구현예에서, 인체구조적 관심 영역은 간이다.
특정 구현예에서, 절제 대상 조직은 종양이다.
특정 구현예에서, 계획 매개변수들은 다음 요소(element)들 중 하나 이상의 요소를 포함한다:
- 병리 유형,
- 치료 유형,
- 치료에 사용되는 의료 기구 유형,
- 치료에 사용되는 의료 기구의 위치 및/또는 방향,
- 의료 기구별 고유의 치료 매개변수들,
- 시술 시 시행되어야 하는 치료 가짓수.
제2 양태에 따르면, 본 발명은 일련의 프로그램 코드 명령어들을 포함한 컴퓨터 프로그램 제품에 관한 것으로, 상기 명령어들이 하나 이상의 프로세서에 의해 실행되면 관련 프로세서 또는 프로세서들은, 신경망을 사용하여, 한편으로는 절제 대상 조직을 포함한 환자의 인체구조적 관심 영역의 수술전 영상 그리고 다른 한편으로는 계획 매개변수들에 기반하여 추정된 절제 부위가 표시된 시뮬레이션 영상을 생성하도록 구성된다. 신경망은 다수의 학습 요소들로 사전에 훈련되도록 구성되며, 이때 각 학습 요소는 다른 환자의 인체구조적 관심 영역에서의 유사한 조직 절제 시술에 각각 해당하고, 각 학습 요소는 상기 다른 환자의 인체구조적 관심 영역의 수술전 영상, 상기 다른 환자에 시행된 상기 조직 절제 시술에 사용된 계획 매개변수들, 및 시술 후 상기 다른 환자의 인체구조적 관심 영역의 수술후 영상을 포함한다.
제3 양태에 따르면, 본 발명은 환자의 인체구조적 관심 영역 내의 조직을 절제하는 것을 목표로 하는 시술 계획 장치에 관한 것이다. 상기 장치는 상기 인체구조적 관심 영역의 수술전 영상, 계획 매개변수들의 집합 및 신경망에 기반하여 시뮬레이션 영상을 생성하도록 구성된 제어부를 포함한다. 신경망은 다수의 학습 요소들로 사전에 훈련되도록 구성되며, 이때 각 학습 요소는 다른 환자의 인체구조적 관심 영역에서의 유사한 조직 절제 시술과 각각 연관된다. 각 학습 요소는 상기 다른 환자의 인체구조적 관심 영역의 수술전 영상, 상기 다른 환자에 시행된 상기 조직 절제 시술에 사용된 계획 매개변수들, 및 시술 후 상기 다른 환자의 인체구조적 관심 영역의 수술후 영상을 포함한다.
특정 구현예에서, 본 발명은, 단독으로 또는 모든 기술적으로 가능한 조합 형태로 후술되는 특징들 중 하나 이상을 추가로 포함할 수 있다.
특정 구현예에서, 상기 계획 장치의 제어부는 시뮬레이션 영상에 표시된 추정된 절제 부위를 분할하도록 추가로 구성된다.
특정 구현예에서, 상기 계획 장치의 제어부는 시뮬레이션 영상에 표시된 추정된 절제 부위의 각 복셀을 상기 복셀에 해당하는 조직의 X선 밀도를 나타내는 "X선 밀도값"으로 불리는 값과 연관시키도록 추가로 구성된다.
특정 구현예에서, 상기 제어부는 추정된 절제 부위를 분할함으로써, 상기 추정된 절제 부위의 각 복셀이 기정된 임계값을 초과하는 X선 밀도값과 연관되도록 구성된다.
특정 구현예에서, 상기 제어부는 추정된 절제 부위의 윤곽선의 각 지점에 대해, 상기 윤곽선에 수직인 방향으로 대상 지점에서의 X선 밀도값의 구배가 기정된 임계값을 초과하는지 검사하도록 구성된다.
특정 구현예에서, 상기 제어부는, 수술전 영상에서, 시술을 통해 절제하고자 하는 조직에 해당하는 치료 대상 부위를 분할하고, 시뮬레이션 영상에 표시된 추정된 절제 부위를 수술전 영상에 표시된 치료 대상 부위와 비교하도록 추가로 구성된다.
특정 구현예에서, 상기 제어부는 추정된 절제 부위의 윤곽선이 치료 대상 부위의 윤곽선을 완전히 둘러싸고 있는 경우 그리고 추정된 절제 부위의 윤곽선의 각 지점에 있어서 치료 대상 부위의 윤곽선과 이러한 지점 간의 최소 거리가 기정된 수치 범위 내에 있는 경우에 충족되는 것인 유효성 조건을 검사하도록 추가로 구성된다.
특정 구현예에서, 상기 제어부는 유효성 조건을 충족하는 하나 이상의 새로운 계획 매개변수들의 집합들을 작성하고, 이러한 새로운 계획 매개변수들의 집합들 중에서, 추정된 절제 부위가 최소 치수를 갖는 최적의 계획 매개변수들의 집합을 식별하도록 추가로 구성된다.
비제한적 예로 제공되는 하기 설명을 읽고 도 1 내지 도 10을 참조함으로써 본 발명을 더 잘 이해하게 될 것이다.
도 1은 본 발명에 따른 시술 계획 장치의 개략도이다.
도 2는 절제 대상 조직을 포함한, 환자의 인체구조적 관심 영역의 수술전 영상의 개략도이다.
도 3은 계획 장치에 의해 생성된 시뮬레이션 영상의 개략도로서, 추정된 절제 부위가 상기 영상에 분할되어 있는 것을 보여준다.
도 4는 환자의 인체구조적 관심 영역 내 조직을 절제한 시술 후의, 절제 부위가 분할되어 있는 인체구조적 관심 영역의 수술후 영상의 개략도이다.
도 5는 환자의 인체구조적 관심 영역 내의 조직을 절제하는 것을 목표로 하는 시술 계획 방법의 주요 단계들을 설명하는 개략도이다.
도 6은 환자의 인체구조적 관심 영역의 수술전 영상의 개략도로서, 치료 대상 부위가 상기 영상에서 분할되어 있는 것을 보여준다.
도 7은 본 발명에 따른 계획 방법의 특정 구현예를 설명하는 개략도이다.
도 8은 본 발명에 따른 계획 방법의 또 다른 특정 구현예를 설명하는 개략도이다.
도 9는 본 발명에 따른 계획 방법을 구현하기 위한 신경망 훈련을 예시한다.
도 10은 본 발명에 따른 계획 방법을 구현하기 위한, 신경망에 의한 시뮬레이션 영상 생성을 예시한다.
이들 도면 중 서로 다른 도면에서의 동일한 참조번호는 동일하거나 유사한 구성요소를 나타낸다. 또한, 명확하게 표현하고자 할 뿐, 달리 표시하지 않는 한, 도시된 구성요소들이 반드시 일정한 비례척으로 표현된 것은 아니다.
도 1은 환자(30)의 인체구조적 관심 영역 내의 조직을 절제하는 것을 목표로 하는 시술 계획 장치(10)를 개략적으로 나타낸다.
이하 설명에서, 비제한적 예로 설명되는 상황은 인체구조적 관심 영역이 간이고, 절제 대상 조직이 종양인 경우이다. 그러나 본 발명은 다른 유형의 절제 대상 조직, 이를테면 피부 병변, 정맥, 신경, 심장 조직, 식도 조직, 또는 심지어 자궁 섬유종에도 적용될 수 있다는 점에 유의해야 한다. 또한, 본 발명은 예를 들어 신장, 폐 등과 같은 다른 인체구조적 관심 영역에도 적용될 수 있다.
계획 장치(10)는 하나 이상의 프로세서를 포함하는 제어부(11), 및 저장 수단(12)(자기 하드 디스크, 전자 메모리, 광디스크 등)을 포함하며, 상기 저장 수단에는 시술 계획 방법의 단계들 중 적어도 일부를 구현하기 위해 실행될 일련의 프로그램 코드 명령어 형태의 컴퓨터 프로그램 제품이 저장되어 있다. 대안으로 또는 추가적으로, 제어부는 계획 방법의 상기 단계들을 구현하는 데 적합한 하나 이상의 프로그램 가능 논리 회로(FGPA, PLD 등), 및/또는 하나 이상의 주문형 집적 회로(ASIC), 및/또는 개별 전자 부품 세트 등을 포함한다.
다시 말해, 제어부(11)는 계획 방법의 상기 단계들을 구현하기 위해 소프트웨어(특정 컴퓨터 프로그램 제품) 및/또는 하드웨어(FPGA, PLD, ASIC, 개별 전자 부품 등)로 구성된, 계획 장치(20)의 수단에 해당한다.
계획 장치(10)는 또한 사용자로 하여금 계획 매개변수들을 장치(10)에 제공할 수 있게 하고/하거나 장치(10)에 의해 생성된 영상 또는 데이터를 표시할 수 있게 하는 그래픽 인터페이스(13)를 포함할 수 있다. 도 1에서 고찰된 예의 경우, 그래픽 인터페이스(13)는 터치스크린에 해당한다. 그러나 그래픽 인터페이스는 키보드, 마우스, 화면 등과 같은 다른 장치를 사용하여 구성될 수도 있다.
계획 장치(10)는 환자(30)의 인체구조적 관심 영역의 수술전 영상과 계획 매개변수들의 집합을 입력 데이터로 이용한다. 계획 장치(10)는 기계 학습 알고리즘을 구현하여 이들 입력 데이터로부터 시뮬레이션 영상을 생성하며, 추정된 절제 부위를 상기 시뮬레이션 영상에 표시한다. 이하 설명에서는, 사용되는 기계 학습 알고리즘의 예로 그리고 비제한적인 방식으로서 신경망을 고려한다.
계획 매개변수들은 예를 들어 치료 대상 병리 유형(예컨대, 간세포 암종 또는 종양 전이), 절제를 위한 치료 유형(고주파, 극초단파, 레이저, 전기천공, 냉동요법 등), 치료를 행하기 위한 의료 기구의 유형, 치료 시 의료 기구의 위치와 방향, 치료 매개변수들(치료 기간, 치료에 적용된 전력 등)를 나타낸다. 시술을 준비하는 시술자는 이들 계획 매개변수를 그래픽 인터페이스(13)에 표시한다.
수술전 영상은 의료 영상화 장치(20), 예를 들어 컴퓨터 단층촬영, 자기공명, 초음파, 3차원 회전 혈관 조영술, 양전자 방출 단층촬영 등으로 획득한다. 수술전 영상에서 절제 대상 조직과 인체구조적 관심 영역을 육안으로 볼 수 있다. 의료 영상화 장치(20)는 계획 장치(10)와 별개인 장치일 수 있다. 그러나 계획 장치(20)와 의료 영상화 장치(20)가 함께 하나의 동일한 물리적 개체를 구성할 수 있음은 물론이다. 계획 장치(20)와 의료 영상화 장치(20)가 서로 별개인 경우, 수술전 영상은 무선 통신 수단을 통해 계획 장치(10)로 전송될 수 있다. 예를 들어, 수술전 영상은 디지털화되어 무선 통신 수단을 통해 계획 장치(10)로 전송된다. 다른 예에 따르면, 상기 디지털화된 수술전 영상은 USB(Universal Serial Bus) 유형의 주변기기에 의해 계획 장치(10)에 제공될 수 있다.
신경망은 학습 요소들로 사전에 훈련되며, 이때 각 학습 요소는 앞서 다른 환자에 시행된, 인체구조적 관심 영역에서의 유사한 조직 절제 시술에 각각 해당한다. 각 학습 요소는 상기 다른 환자의 인체구조적 관심 영역의 수술전 영상, 상기 다른 환자에 행해진 상기 시술에 사용된 계획 매개변수들, 및 시술 후 상기 다른 환자의 인체구조적 관심 영역의 수술후 영상을 포함한다. 다시 말해, 신경망은 특정 계획 매개변수들로 특정 수술전 영상에 대해 수술후 영상에서 실제로 획득된 절제 부위가 무엇인지 "학습"함으로써 훈련된다.
시술이 계획되었던 환자와 동일한 환자에 시행된 과거 시술이 당연히 신경망의 한 학습 요소가 될 수 있다는 점(따라서, "다른 환자"란 용어를 엄밀한 의미로 이해해서는 안된다)에 유의해야 한다.
바람직하게는, 신경망의 학습 요소들 중 수술전 의료 영상은 시술을 계획하기 위한 입력 데이터로 이용되는 수술전 의료 영상과 동일한 유형이다.
학습 요소를 작성하는 데 사용되거나 계획 방법에 대한 입력 데이터로 이용되는 의료 영상은 의료 영상화 장치(20)에서 직접 획득한 영상에 상응할 수 있다. 그러나 이러한 의료 영상이 의료 영상화 장치(20)에서 획득한 영상의 단지 일부일 수 있음은 물론이다. 다시 말해서, 예를 들면, 주로 환자의 인체구조적 관심 영역을 나타내는 의료 영상이나 또는 치료 대상 조직이 위치한 상기 인체구조적 관심 영역의 일부를 신경망에 제공하기 위해, 의료 영상화 장치(20)에서 획득한 영상을 재구성하는 것도 구상할 수 있다.
도 2는 절제 대상 조직(32)을 포함하는 인체구조적 관심 영역(31)의 수술전 영상(50)을 개략적으로 나타낸다. 이러한 수술전 영상(50)은 예를 들어 수술을 계획하기 위한 입력 데이터로 이용되는 수술전 영상에 해당한다. 다른 예에 따르면, 이러한 수술전 영상(50)은 신경망을 훈련시키는 데 사용되는 학습 요소에 포함될 수 있다.
도 3은 계획 장치(10)에 의해 생성된 시뮬레이션 영상(51)의 개략도로서, 추정된 절제 부위(34)가 상기 영상에서 분할되어 있는 것을 보여준다. 도 3에서 고려되고 예시된 예의 경우, 시뮬레이션 영상(51)은 도 2에 나타낸 수술전 영상(50)을 입력 데이터로 이용하여 계획 장치(10)에 의해 생성된다.
도 4는 조직(32)을 절제한 시술 후의 인체구조적 관심 영역(31)의 수술후 영상(52)을 개략적으로 나타낸다. 이러한 수술후 영상(52)은, 도 1의 수술전 영상(50)과 함께, 신경망 훈련에 사용되는 학습 요소를 작성하는 데 사용될 수 있다. 도 4에 나타낸 수술후 영상(52)에는 시술 후 실제로 구한 절제 부위(35)가 분할되어 있다. 그러나, 시술 후 실제로 구한 절제 부위(35)를 반드시 분할해야 수술후 영상(52)을 신경망의 학습 요소를 작성하는 데 사용할 수 있게 되는 것은 아니다. 더 나아가, 신경망의 학습 요소를 작성하는 데 사용되는 영상을 분할하지 않는 것이 바람직하다.
영상 분할에는 여러 가지 방법이 있다. "분할"은 기정된 기준에 따라 영상에 영역들 또는 윤곽선들을 정의하는 것을 목표로 하는 영상 처리 작업을 뜻하는 것으로 이해하면 된다. 당업자라면 이들 방법을 잘 알고 있을 것으로 생각된다. 추정되거나 실제로 구한 절제 부위를 분할함으로써 상기 절제 부위의 치수를 정의하는 것이 가능하다.
도 5는 환자(30)의 인체구조적 관심 영역(31) 내의 조직(32)을 절제하는 것을 목표로 하는 시술 계획 방법(100)의 주요 단계들을 설명하는 개략도이다.
계획 방법(100)은,
- 인체구조적 관심 영역(31)의 수술전 영상(50)을 획득하는 단계(101);
- 계획 매개변수들의 집합을 작성하는 단계(102);
- 수술전 영상(50)과 계획 매개변수를 입력 데이터로 이용하고, 사전 훈련된 신경망을 사용하여 시뮬레이션 영상(51)을 생성하는 단계(103); 및
- 신경망에 의해 생성된 시뮬레이션 영상(51)에 표시된 추정된 절제 부위(34)를 분할하는 단계(104)
를 포함한다. 수술전 영상을 획득하는 단계(101)는 시술자가 예를 들어 도 1을 참조하여 설명된 영상화 장치(20)를 사용함으로써 시행한다.
계획 매개변수들의 집합을 작성하는 단계(102)는 시술자가, 예를 들어 도 1을 참조하여 설명된 계획 장치(10)의 그래픽 인터페이스(13)를 통해, 시행할 시술과 관련된 매개변수들(병리 유형, 치료 유형, 사용되는 의료 기구 유형, 의료 기구의 위치와 방향, 치료 매개변수들 등)을 입력함으로써 시행한다. 그러나 이들 매개변수의 일부가 자동으로 작성될 수도 있음은 물론이다. 예를 들어, 의료 기구의 최적 위치와 방향은 학습 알고리즘에 의해 자동으로 작성될 수 있다.
시뮬레이션 영상(51)을 생성하는 단계(103) 및 추정된 절제 부위(34)를 분할하는 단계(104)는 예를 들어 계획 장치(10)의 제어부(11)에서 구현된 신경망에 의해 시행된다.
시술자가 계획 방법(100)에 입력 데이터로 제공되었던 계획 매개변수들을 사용한 경우, 시술자는 생성된 시뮬레이션 영상(51)을 보면서 시술 후의 가능한 결과를 관찰할 수 있게 된다.
추정된 절제 부위(34)의 치수는 절제 대상 조직에 상응하는 치료 대상 부위와 비교하여 더 크거나 더 작을 수 있다.
시뮬레이션 영상(51)에 표시된, 추정된 절제 부위(34)를 분할하는 단계(104)는 본 발명에 필수적이지 않으므로 선택적인 단계이라는 점에 유의해야 한다. 특히, 절제 부위는 상기 추정된 절제 부위(34)를 분할하지 않아도 시뮬레이션 영상(51)에서 시술자가 식별할 수 있다.
도 6은 도 2의 수술전 영상(50)에 해당하는 수술전 영상(50')의 개략도로서, 절제 대상 조직(32)에 상응하는 치료 대상 부위(33)가 상기 영상에서 분할되어 있는 것을 보여준다. 추정된 절제 부위(34)의 치수를 치료 대상 부위(33)의 치수와 비교하는 것이 좋다. 사실, 이때는 치료 대상 부위의 일부를 구성하지 않는 건강한 조직의 대부분이 파괴되지 않도록 절제 부위의 치수를 최소화하는 동시에, 치료 대상 부위에 충분히 치료가 행해지는지 검사하는 것이 가장 좋다.
도 7은 본 발명에 따른 계획 방법(100)을 구체적으로 구현하는 데 있어서의 주요 단계들을 개략적으로 설명한다. 도 5를 참조하여 앞서 설명한 단계들에 추가로, 도 7에 설명한 특정 구현예는,
- 수술전 영상(50)에서, 시술을 통해 절제하고자 하는 조직(32)에 해당하는 치료 대상 부위(33)를 분할하는 단계(105);
- 시뮬레이션 영상에 표시된, 추정된 절제 부위(34)를 치료 대상 부위(33)와 비교하는 단계(106); 및
- 유효성 조건을 검사하는 단계(107)
를 포함한다. 예를 들어, 추정된 절제 부위(34)의 윤곽선이 치료 대상 부위(33)의 윤곽선을 완전히 둘러싸고 있는 경우 그리고 추정된 절제 부위(34)의 윤곽선의 각 지점에 있어서 치료 대상 부위(33)의 윤곽선과 이러한 지점 간의 최소 거리가 기정된 수치 범위 내에 있는 경우는 유효성 조건을 충족한 것으로 검증된다. 예를 들어, 기정된 수치 범위는 5㎜ 내지 10㎜에 속하는 값들을 가리킨다. 한편 다른 유효성 조건들도 구상 가능하며, 이들 조건 역시 본 발명의 변형예에 지나지 않는다.
유효성 조건을 검사하는 단계(107)의 응답이 부정적이라면, 시술자는 예를 들어 계획 매개변수들을 수정한 후 한 번 더 시뮬레이션을 실행하기로 결정할 수 있다.
다른 예에 따르면, 도 7에 예시한 것처럼, 방법(100)은 추정된 절제 부위(34)의 유효성 조건을 충족하는 새로운 매개변수들의 집합을 계획 장치(10)를 통해 자동으로 작성하는 단계(108)를 포함할 수 있다. 이러한 작성 단계(108)는 예를 들어 통상의 계획 데이터 공간 탐색 및 최적화 방법으로 수행된다.
도 8은 본 발명에 따른 계획 방법(100)의 또 다른 특정 구현예를 설명한다. 본 특정 구현예에 의하면, 계획 방법(100)은 몇 가지 새로운 계획 매개변수들의 집합들을 작성하는 단계(109)를 포함한다. 도 8에 설명한 대로, 각각의 새로운 계획 매개변수들의 집합에 대해, 시뮬레이션 영상을 생성하는 단계(103), 추정된 절제 부위를 분할하는 단계(104), 치료 대상 부위를 추정된 절제 부위와 비교하는 단계(106), 및 유효성 조건을 검사하는 단계(107)가 수행된다. 다음으로 상기 방법(100)은 유효성 조건을 충족하는 것으로 검증된 새로운 계획 매개변수들의 집합들 중에서 최적의 계획 매개변수들의 집합을 식별하는 단계(110)를 포함한다. 예를 들어, 최적의 계획 매개변수들의 집합은 유효성 조건을 충족하는 것으로 검증된 동시에, 추정된 절제 부위(34)를 최소 치수로 가능하게 하는 계획 매개변수들에 해당한다. 따라서, 시술 도중, 건강한 조직이 최소한으로 절제될 수 있게 한다.
도 8의 예에서는 새로운 계획 매개변수들의 집합들의 작성과 검증이 동시에 이루어진다는 점에 유의해야 한다. 그러나 새로운 계획 매개변수들의 집합들은 차례로 반복적으로 작성될 수 있음은 물론이다. 필요한 경우, 하나의 새로운 계획 매개변수들의 집합은 이전에 작성된 다른 하나의 새로운 계획 매개변수들의 집합의 함수로서 및/또는 시술자가 처음에 선택한 계획 매개변수들의 함수로서 작성될 수 있다.
신경망이 생성한 시뮬레이션 영상(51)에서, 추정된 절제 부위의 획득 및 분할에는 여러 가지 방법이 구상될 수 있다.
첫 번째 방법에 따르면, 추정된 절제 부위는 수술전 영상(50)에 오버레이된 이진 영상으로 표시되어, 그 결과로 생성되는 영상(51)을 형성한다. 이 경우, 이진 영상의, 추정된 절제 부위의 외부에 위치한 각 복셀은 값이 0이고 추정된 절제 부위의 내부에 위치한 각 복셀은 0이 아닌 고정 값을 갖는다. 값이 0이 아닌 복셀은 이진 영상에서 특정 색상으로 나타난다. 반면에 값이 0인 복셀은 투명하여, 이진 영상이 수술전 영상에 오버레이되어 생성되는 영상에 영향을 미치지 않는다. 간단히 말해, 사용된 영상들이 2차원이라면, 복셀이란 용어는 픽셀이란 용어로 대체가 가능하다.
두 번째 방법에 따르면, 추정된 절제 부위는 절제 시술에 대한 인체구조적 관심 영역(31) 내 조직 반응의 함수로서 시뮬레이션 영상(51)에서 분할된다. 이를 위해, 신경망은 시뮬레이션 영상(51)에 표시된 추정된 절제 부위(34)의 각 복셀을 상기 복셀에 해당하는 조직의 X선 밀도를 나타내는 "X선 밀도값"으로 불리는 값과 연관시켜, 절제 시술에 대한 조직 반응을 알아낸다.
X선 밀도는 전자기 방사선, 예를 들어, 의료 영상화 장치(20)에서 발생된 X선이 환자의 인체구조적 관심 영역(31) 내 조직을 통과하는 데 있어서의 상대적 통과 불가능력을 나타낸다(영상화 장치에서 방출되는 X선으로 종양을 절제하고자 함이 아니며, 여기서 논의된 "X선 밀도값"은 방사선 치료 매개변수들과 무관하다). 신경망에 의해 시뮬레이션 영상(51)에 표시된 절제 부위는 대체로 영상에서의 괴사 영역에 해당하는데, 이때 괴사 영역은 절제되지 않은, 환자의 인체구조적 관심 영역 부분보다 낮은 X선 밀도값을 나타낸다. 낮은 X선 밀도값과 절제 부위의 복셀의 연관성이 높다는 것은 상기 복셀에 해당하는 절제 부위 부분이 더 많이 파괴되었다는 것이다. 따라서, "절제 시술에 대한 조직 반응"은 치료 대상 조직의 각 부분이 절제된 비율의 표현을 뜻하는 것으로 이해하면 된다. 예를 들어, X선 밀도값이 기정된 제1 임계값을 초과하는 절제 부위의 복셀들은 50% 이상이 파괴된 치료 대상 조직 부분들에 해당한다. 또 다른 예에 따르면, X선 밀도값이 기정된 제2 임계값 미만인 절제 부위의 복셀들은 90% 넘게 파괴된 치료 대상 조직 부분들에 해당한다. 이로써, 시뮬레이션 영상을 기반으로, 치료에 대한 조직의 예상 반응을 매핑하는 것이 가능해진다.
이어서, 추정된 절제 부위(34)를 분할하는 단계(104)는 예를 들어 상기 추정된 절제 부위의 각 복셀이 기정된 임계값을 초과하는 X선 밀도값과 연관되도록 수행될 수 있다. 이에 따라, 절제 부위의 분할 윤곽선 안쪽에 위치한 임의의 조직이 원하는 특정 비율을 상회하여(예를 들어, 90% 초과) 파괴되었음을 보장할 수 있다.
복셀과 연관된 X선 밀도값은 예를 들어 하운스필드 유닛(HU) 스케일을 기반으로 정의된다.
특정 구현예에서, 계획 방법(100)은 추정된 절제 부위(34)의 윤곽선의 각 지점에 대해, 상기 윤곽선에 수직인 방향으로 대상 지점에서의 X선 밀도값의 구배가 기정된 임계값을 초과하는지 검사하는 단계를 포함한다. 구배는 윤곽선에 수직인 방향으로 대상 지점에서의 X선 밀도값의 변동성을 나타낸다("윤곽선에 수직인 방향"은 대상 지점을 통과하는 윤곽선의 접선에 직각인 방향을 뜻하는 것으로 이해하면 된다). 이러한 일련의 절차를 통해 특히 절제 부위의 윤곽선이 선명한지 여부를 검사할 수 있다. 절제 부위의 윤곽선은 치료된 부위와 치료되지 않은 조직 간의 경계를 표시한다. 이러한 윤곽선의 선명도는 절제술의 질을 나타낸다. 추정된 절제 부위(34)의 윤곽선의 한 지점에서, 구배가 클수록 절제 부위와 절제되지 않은 건강한 조직 사이의 X선 밀도값 변동이 더 크다.
때로는, 절제 부위를 나타내는 의료 영상에서, 상기 절제 부위를 둘러싸고 있는 얇은 두께의 링 모양 흰색 형태가 관찰되기도 한다. 이 링의 존재 여부가 절제술의 질을 나타낼 수 있다. 추정된 절제 부위(34)의 각 지점에서 구배를 산출한 후 이 구배를 기정된 임계값과 비교하여, 절제술의 질에 대한 추정 신뢰도를 높일 수 있게 된다(예를 들어, 윤곽선의 모든 지점에서 구배가 기정된 임계값을 초과한 경우에는, 의료 영상에서 흰색 링이 육안으로 직접 보이지 않더라도 절제술의 질이 우수한 것으로 간주될 수 있다).
바람직한 구현예에서, 신경망은 합성곱 신경망이다. 합성곱 신경망은 특히 영상 인식에 아주 적합하다. 이러한 신경망(40)을 도 9와 도 10에 개략적으로 예시하였다. 신경망(40)은 여러 계층으로 구성된 인공 뉴런을 포함한다. 영상의 어느 한정된 부분을 합성곱 함수를 통해 처리하는 처리용 뉴런과 출력 풀링 뉴런이 있다. 처리용 뉴런의 출력 집합으로 중간 영상을 재구성할 수 있고, 이러한 중간 영상은 그 다음 계층을 위한 기초 역할을 하게 된다. 신경망(40)은 또한 이전 계층들의 모든 출력에 연결된 완전연결 계층(41), 및 시뮬레이션 영상(51)을 생성하는 출력에서의 예측 계층(42)을 포함한다. 특히, 시뮬레이션 영상(51)의 각 복셀에 X선 밀도값을 할당할 수 있게 하는 것이 예측 계층(42)이다.
도 9는 신경망(40)의 훈련 단계(또는 학습 단계)를 개략적으로 예시한다. 신경망은 학습 요소들로 훈련되며, 이때 각 학습 요소는 앞서 환자의 인체구조적 관심 영역에서의 조직 절제 시술에 각각 해당한다. 각 학습 요소는 환자의 인체구조적 관심 영역의 수술전 영상(50), 상기 환자에 행해진 시술에 사용된 계획 매개변수들(P), 및 시술 후 상기 환자의 인체구조적 관심 영역의 수술후 영상(52)을 포함한다.
이용가능한 계획 매개변수들(P) 중에서, 다음을 언급할 수 있다:
- 병리 유형 ρ: 예를 들어, 병리는 간세포 암종 또는 종양 전이일 수 있다. 병리의 특정 유형은 매개변수 ρ의 특정 값과 연관이 있을 수 있다.
- 치료 유형 τ: 조직 절제는 예를 들어 극초단파, 고주파, 냉동요법, 전기천공, 레이저, 집속 초음파 등을 통해 시행될 수 있다. 치료의 특정 유형은 매개변수 τ의 특정 값과 연관이 있을 수 있다.
- 의료 기구 위치의 좌표들 x, y, z(예를 들어, 니들 포인트 위치): 기정된 기준 프레임(예를 들어, 수술전 영상의 기준 프레임)으로 표현할 수 있다.
- 사용대상 기준 프레임 내에서의 의료 기구의 방향(예를 들어, 니들의 방향)을 나타내는 각도들 α, β, γ.
- 의료 기구의 유형 λ: 의료 기구의 특정 유형(모델, 제조업체 등)은 매개변수 λ의 특정 값과 연관이 있을 수 있다.
- 치료 매개변수 ε: 치료 유형을 기반으로 다양한 치료 매개변수들(예를 들어, 치료 기간 또는 치료에 적용된 전력)을 정의할 수 있다.
여러 개의 의료 기구를 사용하여 여러 가지 치료를 동시에 시행할 때, 계획 매개변수들(P)는 다음과 같이 표현될 수 있다: P = [ρ1, τ1, x1, y1, z1, α1, β1, γ1, λ1, ε1, ..., ρN, τN, xN, yN, zN, αN, βN, γN, λN, εN], 이때 N은 치료 가짓수를 나타낸다.
훈련 시, 각 학습 요소에 대해, 신경망(40)은, 각 뉴런을 대상으로, 계획 매개변수들(P)과 결부된 수술전 영상(50)을 토대로 수술후 영상(52)에 가급적 유사한 시뮬레이션 영상(51)을 획득할 수 있도록 하는 가중치 및 편향 집합을 작성한다.
전체 비용 함수를 연산하는 데 이용되는 손실 함수를 활용하여, 신경망(40)은 시뮬레이션 영상(51)에서의 추정된 절제 부위(34)를 수술후 영상(52)의 실제 절제 부위와 비교한다. 그런 후, 이러한 전체 비용 함수를 최소화하는 가중치 및 편향 매개변수들을 최적화 프로세스를 통해 검색한다. 상기 최적화 프로세스는 반복적으로 수행될 수 있다.
바람직하게는, 모든 병리 및 구상된 모든 치료를 포함한 과거 시술들이 학습 요소에 해당한다.
도 10은 환자의 인체구조적 관심 영역에서의 조직 절제 시술을 위한, 신경망(40)에 의한 계획 단계를 개략적으로 예시한다. 신경망(40)은 환자의 상기 인체구조적 관심 영역의 수술전 영상(50) 및 시술자에 의해 작성된 계획 매개변수들(P)을 입력 데이터로 수신한다. 신경망은 관심 조직과 그 부근을 묘사하는 수술전 영상(50)의 특성들을 선택하며, 이러한 특성들에 따라 절제 부위를 수정하게 될 수도 있다. 그런 후 신경망은 추정된 절제 부위를 나타내는 시뮬레이션 영상(51)을 생성한다. 그러면 시뮬레이션 영상(51)에 표시된 추정된 절제 부위를 수술전 영상(50')에 표시된 치료 대상 부위와 비교할 수 있게 된다. 추정된 절제 부위가 만족스럽지 않은 경우(예를 들어, 추정된 절제 부위가 치료하고자 하는 모든 부위를 포함하지 않고 있거나 너무 큰 여유 공간을 둔 채로 포함한 경우), 시술자가 새로운 계획 매개변수들을 정의할 수 있거나 계획 장치(10)를 통해 자동으로 새로운 계획 매개변수들이 정의될 수 있다. 만족스러운 추정 절제 부위를 획득할 수 있도록 하는 계획 매개변수들의 집합이 작성될 수 있다. 이러한 매개변수들을 나중에 수술 당일에 사용하게 된다. 이들 계획 매개변수를 예를 들면 시술 시 시술자를 보조하는 의료용 로봇을 구성하는 데 사용할 수 있다. 일부 매개변수들, 특히 의료 기구의 위치 및 방향과 관련된 매개변수들은, 필요한 경우, 시술을 계획하는 데 이용되는 수술전 영상(50)과 수술 도중에 획득한 수술 중의 영상(intraoperative image) 간의 재정렬을 통해 조정될 수도 있다.
본 발명에 따른 계획 방법(100)에는 환자에 시행되는 어떠한 외과적(수술) 단계도 포함되지 않는다는 점에 유의해야 한다. 본 발명은 사실 계획 방법(100)이며, 이러한 계획 방법(100)의 후속으로, 적절히 계획된 시술을 가능하다면 수일 후에 행하는 것이다. 또한, 다른 환자들에 시술들이 시행된 후에 신경망의 훈련 단계가 수행된다. 이러한 시술둘이 신경망의 훈련 단계의 일부를 구성하는 것으로 간주해서는 안 된다.
또한, 절제를 완료하기 위해 적용해야 할 추가 치료를 정하기 위해, 신경망(40)이 이미 일부 절제된 조직이 보이는 영상을 입력받을 수 있다는 점에 유의해야 한다. 따라서 여러 가지 치료를 연속적으로 시행해야 하는 시술의 경우, 본 발명에 따른 방법을 여러 차례 반복함으로써, 초기에 계획된 치료를 개선할 수 있다.
위의 설명은 본 발명의 다양한 특징 및 이점들을 통해 본 발명이 제시한 목적을 달성한다는 것을 명확하게 예시하고 있다. 특히, 환자의 인체구조적 관심 영역의 의료 영상에 포함된 모든 정보를 고려하여 절제 부위를 예측한다. 따라서 절제 부위의 예측은 전적으로 환자 개개인에 따라 다르다. 또한, 신경망은 한 시술에 여러 개의 의료 기구를 사용하는 것이 이런 경우에 절제 부위를 더 정확하게 추정하는데 어떤 영향을 미치는지 학습할 수 있다. 또한, 본 발명에 따른 계획 방법에서는 환자의 생체내 측정을 할 필요가 없으며, 이는 시술의 초기 단계에 계획을 수행할 수 있게 하여 시술자에게 더 많은 시술 준비 시간을 할애한다. 치료에 대한 조직 반응 추정을 통해 절제 결과를 훨씬 더 정확하게 예측할 수 있다.

Claims (21)

  1. 환자(30)의 인체구조적 관심 영역(31) 내의 조직(32)을 절제하는 것을 목표로 하는 시술 계획 방법(100)으로서, 상기 시술 계획 방법(100)은
    - 인체구조적 관심 영역(31)의 수술전 영상(50)을 획득하는 단계(101); 및
    - 계획 매개변수들(P)의 집합을 작성하는 단계(102)
    를 포함하고, 상기 시술 계획 방법(100)은,
    - 추정된 절제 부위(34)가 표시된 시뮬레이션 영상(51)을 생성하는 단계(103)를 포함하되, 상기 시뮬레이션 영상은 상기 수술전 영상(50), 상기 계획 매개변수들(P) 및 신경망(40)을 기반으로 생성되며, 상기 신경망은 다수의 학습 요소들로 사전에 훈련되되, 각 학습 요소는 다른 환자의 인체구조적 관심 영역에서의 유사한 조직 절제 시술에 각각 해당하며, 각 학습 요소는 상기 다른 환자의 인체구조적 관심 영역의 수술전 영상(50), 상기 다른 환자에 행해진 상기 시술에 사용된 계획 매개변수들(P), 및 시술 후 상기 다른 환자의 인체구조적 관심 영역의 수술후 영상(52)을 포함하고, 상기 시뮬레이션 영상(51)은 시술 후의 가능한 결과를 관찰할 수 있도록 하는 것을 특징으로 하는 시술 계획 방법(100).
  2. 제1항에 있어서, 시뮬레이션 영상(51)에 표시된 추정된 절제 부위(34)를 분할하는 단계(104)를 추가로 포함하는 것을 특징으로 하는 시술 계획 방법(100).
  3. 제2항에 있어서, 시뮬레이션 영상(51)에 표시된 추정된 절제 부위(34)의 각 복셀을 상기 복셀에 해당하는 조직의 X선 밀도를 나타내는, "X선 밀도값"으로 불리는 값과 연관시켜, 절제 시술에 대한 조직 반응을 알아내는 단계를 추가로 포함하는 것을 특징으로 하는 시술 계획 방법(100).
  4. 제3항에 있어서, 추정된 절제 부위(34)를 분할하는 단계(104)는 상기 추정된 절제 부위(34)의 각 복셀이 기정된 임계값을 초과하는 X선 밀도값과 연관되도록 수행되는 것을 특징으로 하는 시술 계획 방법(100).
  5. 제3항 또는 제4항에 있어서, 추정된 절제 부위(34)의 윤곽선의 각 지점에 대해, 상기 윤곽선에 수직인 방향으로 대상(對象) 지점에서의 X선 밀도값의 구배가 기정된 임계값을 초과하는지 검사하는 단계를 추가로 포함하는 것을 특징으로 하는 시술 계획 방법(100).
  6. 제2항 내지 제5항 중 어느 한 항에 있어서,
    - 수술전 영상(50)에서, 시술을 통해 절제하고자 하는 조직(32)에 해당하는 치료 대상 부위(33)를 분할하는 단계(105)와,
    - 시뮬레이션 영상에 표시된 추정된 절제 부위(34)를 치료 대상 부위(33)와 비교하는 단계(106)
    를 추가로 포함하는 것을 특징으로 하는 시술 계획 방법(100).
  7. 제6항에 있어서, 추정된 절제 부위(34)의 윤곽선이 치료 대상 부위(33)의 윤곽선을 완전히 둘러싸고 있는 경우 그리고 추정된 절제 부위(34)의 윤곽선의 각 지점에 있어서 치료 대상 부위(33)의 윤곽선과 이러한 지점 간의 최소 거리가 기정된 수치 범위 내에 있는 경우에 충족되는 것인 유효성 조건을 검사하는 단계(107)를 추가로 포함하는 것을 특징으로 하는 시술 계획 방법(100).
  8. 제7항에 있어서, 유효성 조건을 검사하는 단계(107)의 응답이 부정적이라면, 추정된 절제 부위(34)가 유효성 조건을 충족시키도록 새로운 계획 매개변수들의 집합을 작성하는 단계(108)를 포함하는 것을 특징으로 하는 시술 계획 방법(100).
  9. 제7항에 있어서, 유효성 조건을 충족하는 여러 개의 새로운 계획 매개변수들의 집합들을 작성하는 단계(109)와, 상기 새로운 계획 매개변수들의 집합들 중에서, 추정된 절제 부위(34)가 최소 치수를 갖는 최적의 계획 매개변수들의 집합을 식별하는 단계(110)를 포함하는 것을 특징으로 하는 시술 계획 방법(100).
  10. 제1항 내지 제9항 중 어느 한 항에 있어서, 인체구조적 관심 영역이 간인, 시술 계획 방법(100).
  11. 제1항 내지 제10항 중 어느 한 항에 있어서, 절제 대상 조직이 종양인, 시술 계획 방법(100).
  12. 제1항 내지 제11항 중 어느 한 항에 있어서, 계획 매개변수들(P)은 다음 요소(element)들:
    - 병리 유형,
    - 치료 유형,
    - 치료에 사용되는 의료 기구 유형,
    - 치료에 사용되는 의료 기구의 위치 및/또는 방향,
    - 의료 기구별 고유의 치료 매개변수들,
    - 시술 시 시행되어야 하는 치료 가짓수.
    중 하나 이상의 요소를 포함하는, 시술 계획 방법(100).
  13. 컴퓨터 프로그램 제품으로서,
    일련의 프로그램 코드 명령어들을 포함하되, 상기 명령어들이 하나 이상의 프로세서에 의해 실행되면 관련 프로세서 또는 프로세서들은, 신경망(40)을 사용하여, 한편으로는 절제 대상 조직(32)을 포함한 환자(30)의 인체구조적 관심 영역(31)의 수술전 영상(50) 그리고 다른 한편으로는 계획 매개변수들(P)에 기반하여 추정된 절제 부위(34)가 표시된 시뮬레이션 영상(51)을 생성하도록 구성되며, 상기 신경망은 다수의 학습 요소들로 사전에 훈련되도록 구성되며, 이때 각 학습 요소는 다른 환자의 인체구조적 관심 영역에서의 유사한 조직 절제 시술에 각각 해당하고, 각 학습 요소는 상기 다른 환자의 인체구조적 관심 영역의 수술전 영상(50), 상기 다른 환자에 시행된 상기 조직 절제 시술에 사용된 계획 매개변수들(P), 및 시술 후 상기 다른 환자의 인체구조적 관심 영역의 수술후 영상(52)을 포함하는 것을 특징으로 하는 컴퓨터 프로그램 제품.
  14. 환자(30)의 인체구조적 관심 영역(31) 내의 조직(32)을 절제하는 것을 목표로 하는 시술 계획 장치(10)로서, 상기 시술 계획 장치(10)는,
    - 상기 인체구조적 관심 영역의 수술전 영상(50), 계획 매개변수들(P)의 집합 및 신경망(40)에 기반하여 시뮬레이션 영상(51)을 생성하도록 구성된 제어부(11)를 포함하되, 상기 신경망은 다수의 학습 요소들로 사전에 훈련되도록 구성되며, 각 학습 요소는 다른 환자의 인체구조적 관심 영역에서의 유사한 조직 절제 시술과 각각 연관되고, 각 학습 요소는 상기 다른 환자의 인체구조적 관심 영역의 수술전 영상(50), 상기 다른 환자에 시행된 상기 조직 절제 시술에 사용된 계획 매개변수들(P), 및 시술 후 상기 다른 환자의 인체구조적 관심 영역의 수술후 영상(52)을 포함하는 것을 특징으로 하는 시술 계획 장치(10).
  15. 제14항에 있어서, 상기 제어부(11)는 시뮬레이션 영상(51)에 표시된 추정된 절제 부위(34)를 분할하도록 추가로 구성된, 시술 계획 장치(10).
  16. 제15항에 있어서, 상기 제어부(11)는 시뮬레이션 영상(51)에 표시된 추정된 절제 부위(34)의 각 복셀을 상기 복셀에 해당하는 조직의 X선 밀도를 나타내는 "X선 밀도값"으로 불리는 값과 연관시키도록 추가로 구성된, 시술 계획 장치(10).
  17. 제16항에 있어서, 상기 제어부(11)는 추정된 절제 부위(34)를 분할함으로써, 상기 추정된 절제 부위(34)의 각 복셀이 기정된 임계값을 초과하는 X선 밀도값과 연관되도록 구성된, 시술 계획 장치(10).
  18. 제16항 또는 제17항에 있어서, 상기 제어부(11)는 추정된 절제 부위(34)의 윤곽선의 각 지점에 대해, 상기 윤곽선에 수직인 방향으로 대상 지점에서의 X선 밀도값의 구배가 기정된 임계값을 초과하는지 검사하도록 구성된, 시술 계획 장치(10).
  19. 제14항 내지 제18항 중 어느 한 항에 있어서, 상기 제어부(11)는, 수술전 영상(50)에서, 시술을 통해 절제하고자 하는 조직(32)에 해당하는 치료 대상 부위(33)를 분할하고, 시뮬레이션 영상(51)에 표시된 추정된 절제 부위(34)를 치료 대상 부위(33)와 비교하도록 추가로 구성된, 시술 계획 장치(10).
  20. 제19항에 있어서, 상기 제어부(11)는 추정된 절제 부위(34)의 윤곽선이 치료 대상 부위(33)의 윤곽선을 완전히 둘러싸고 있는 경우 그리고 추정된 절제 부위(34)의 윤곽선의 각 지점에 있어서 치료 대상 부위(33)의 윤곽선과 이러한 지점 간의 최소 거리가 기정된 수치 범위 내에 있는 경우에 충족되는 것인 유효성 조건을 검사하도록 추가로 구성된, 시술 계획 장치(10).
  21. 제20항에 있어서, 상기 제어부(11)는 유효성 조건을 충족하는 하나 이상의 새로운 계획 매개변수들의 집합들을 작성하고, 이러한 새로운 계획 매개변수들의 집합들 중에서, 추정된 절제 부위(34)가 최소 치수를 갖는 최적의 계획 매개변수들의 집합을 식별하도록 추가로 구성된, 시술 계획 장치(10).
KR1020217041779A 2019-06-27 2020-06-25 딥러닝 기반의 조직 절제 계획 방법 KR20220026534A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FRFR1907000 2019-06-27
FR1907000A FR3095332B1 (fr) 2019-06-27 2019-06-27 Méthode de planification d’une ablation de tissus basée sur l’apprentissage profond
PCT/EP2020/067777 WO2020260433A1 (fr) 2019-06-27 2020-06-25 Méthode de planification d'une ablation de tissus basée sur l'apprentissage profond

Publications (1)

Publication Number Publication Date
KR20220026534A true KR20220026534A (ko) 2022-03-04

Family

ID=67957128

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217041779A KR20220026534A (ko) 2019-06-27 2020-06-25 딥러닝 기반의 조직 절제 계획 방법

Country Status (9)

Country Link
US (1) US20220233242A1 (ko)
EP (1) EP3965684A1 (ko)
JP (1) JP7455862B2 (ko)
KR (1) KR20220026534A (ko)
CN (1) CN114007538B (ko)
CA (1) CA3138208A1 (ko)
FR (1) FR3095332B1 (ko)
IL (1) IL289162A (ko)
WO (1) WO2020260433A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210038314A1 (en) * 2019-08-11 2021-02-11 phenoMapper, LLC Method and System for Personalized Treatment Planning in Ablation of Cancerous Tissue
FR3128051A1 (fr) * 2021-10-07 2023-04-14 Quantum Surgical Dispositif pour la prédiction d’un type de traitement optimal pour l’ablation percutanée d’une lésion
CN114209419B (zh) * 2021-12-14 2024-07-05 上海交通大学医学院附属瑞金医院 一种消融治疗设备
CN115147022B (zh) * 2022-09-05 2022-12-02 中国科学院地质与地球物理研究所 一种复杂山区长大线状工程的工程地质区划方法及系统
WO2024059693A2 (en) * 2022-09-14 2024-03-21 Mayo Foundation For Medical Education And Research Generating synthetic medical images, feature data for training image segmentation, and inpainted medical images using generative models
FR3143313A1 (fr) * 2022-12-16 2024-06-21 Quantum Surgical Dispositif d’assistance à la planification d’une intervention mini-invasive sur un os
FR3143314A1 (fr) * 2022-12-16 2024-06-21 Quantum Surgical Dispositif d’assistance à la planification d’une intervention mini-invasive

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5464013A (en) * 1984-05-25 1995-11-07 Lemelson; Jerome H. Medical scanning and treatment system and method
US20070053491A1 (en) * 2005-09-07 2007-03-08 Eastman Kodak Company Adaptive radiation therapy method with target detection
US20090238434A1 (en) * 2008-03-24 2009-09-24 Gilbert Feke Method for reproducing the spatial orientation of an immobilized subject in a multi-modal imaging system
US20070092864A1 (en) * 2005-09-30 2007-04-26 The University Of Iowa Research Foundation Treatment planning methods, devices and systems
JP5530183B2 (ja) * 2007-01-24 2014-06-25 コーニンクレッカ フィリップス エヌ ヴェ Rf焼灼プランナ
US8267927B2 (en) * 2007-01-24 2012-09-18 Koninklijke Philips Electronics N.V. Advanced ablation planning
US20080287783A1 (en) * 2007-05-16 2008-11-20 General Electric Company System and method of tracking delivery of an imaging probe
CN101859341A (zh) * 2009-04-13 2010-10-13 盛林 影像引导消融治疗手术规划装置
US9317911B2 (en) * 2009-05-05 2016-04-19 Koninklijke Philips N.V. Automatic assessment of confidence in imaging data
US10729499B2 (en) 2011-07-28 2020-08-04 Koninklijke Philips N.V. Ablation planning system
US9277956B2 (en) 2011-11-09 2016-03-08 Siemens Medical Solutions Usa, Inc. System for automatic medical ablation control
MY179739A (en) * 2013-03-15 2020-11-12 Synaptive Medical Inc Planning, navigation and simulation systems and methods for minimally invasive therapy
SG11201507611UA (en) 2013-03-15 2015-10-29 Synaptive Medical Barbados Inc Intramodal synchronization of surgical data
US20150093007A1 (en) * 2013-09-30 2015-04-02 Median Technologies System and method for the classification of measurable lesions in images of the chest
JP6845136B2 (ja) 2014-12-04 2021-03-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 治療プランニング・システム、治療プラン生成方法及び記憶媒体
US20180028261A1 (en) 2015-02-17 2018-02-01 Koninklijke Philips N.V. Device and method for assisting in tissue ablation
JP6688536B2 (ja) * 2016-09-07 2020-04-28 エレクタ、インク.Elekta, Inc. 放射線療法治療計画のモデルを学習して放射線療法の線量分布を予測するためのシステムおよび方法
CN107049475A (zh) * 2017-04-19 2017-08-18 纪建松 肝癌局部消融方法及系统
CN107545137A (zh) * 2017-08-16 2018-01-05 强深智能医疗科技(昆山)有限公司 肿瘤放射治疗计划智能优化方法
CN107441637B (zh) * 2017-08-30 2019-06-07 南方医科大学 调强放疗计划中三维剂量分布的预测方法及其应用
US20190159823A1 (en) * 2017-11-28 2019-05-30 Metal Industries Research & Development Centre Pre-surgical planning apparatus and pre-surgical planning method
CA3085448A1 (en) * 2017-12-13 2019-06-29 Washington University System and method for determining segments for ablation
CN109077804A (zh) * 2018-08-19 2018-12-25 天津大学 一种基于ct图像的微波消融治疗计划方法
CN109166613A (zh) * 2018-08-20 2019-01-08 北京东方瑞云科技有限公司 基于机器学习的放射治疗计划评估系统及方法

Also Published As

Publication number Publication date
US20220233242A1 (en) 2022-07-28
WO2020260433A1 (fr) 2020-12-30
JP7455862B2 (ja) 2024-03-26
CN114007538B (zh) 2024-03-29
CA3138208A1 (en) 2020-12-30
EP3965684A1 (fr) 2022-03-16
IL289162A (en) 2022-02-01
CN114007538A (zh) 2022-02-01
JP2022537875A (ja) 2022-08-31
FR3095332B1 (fr) 2023-07-21
FR3095332A1 (fr) 2020-10-30

Similar Documents

Publication Publication Date Title
KR20220026534A (ko) 딥러닝 기반의 조직 절제 계획 방법
US20240013474A1 (en) Treatment procedure planning system and method
US10327851B2 (en) Method and apparatus for ablation planning and control
US9147289B2 (en) Method for visualizing the quality of an ablation process
US11908584B2 (en) Methods and systems for modeling a necrotized tissue volume in an ablation procedure
CN106473807B (zh) 使用回溯迷宫问题解决方案的自动ent外科手术预先计划
CN113966204B (zh) 为医疗介入自动规划轨迹的方法
WO2018175094A1 (en) Methods, apparatuses and storage mediums for ablation planning and performance
JP5478832B2 (ja) 医用画像処理装置、及び医用画像処理プログラム
US10524823B2 (en) Surgery assistance apparatus, method and program
EP2640292A1 (en) System and method for probabilistic ablation planning
JPWO2005039416A1 (ja) 治療支援用画像処理装置
EP2484286B1 (en) Device and method for displaying medical image and program
JP2023526909A (ja) ディープラーニングに基づいてアブレーション領域を決定する方法
US20230394672A1 (en) Medical image processing apparatus, medical image processing method, and program
JP2020512096A (ja) 3次元超音波体積内の関心オブジェクトを視覚化する少なくとも1つの最終2次元画像の決定
JP2024513661A (ja) 腫瘍セグメンテーションの視覚化のための方法および装置
JP2023525967A (ja) 画像分析によって病変部の再発を予測するための方法
CN112488289A (zh) 预测数据组的提供
US11941808B2 (en) Medical image processing device, medical image processing method, and storage medium
EP4083914A1 (en) Image processing device and method
CN117043816A (zh) 用于肿瘤分割的可视化的方法和装置
JP2022099314A (ja) 解剖学的マップ上に形成された予定線上への注釈の表示