JP2023525967A - 画像分析によって病変部の再発を予測するための方法 - Google Patents
画像分析によって病変部の再発を予測するための方法 Download PDFInfo
- Publication number
- JP2023525967A JP2023525967A JP2022564079A JP2022564079A JP2023525967A JP 2023525967 A JP2023525967 A JP 2023525967A JP 2022564079 A JP2022564079 A JP 2022564079A JP 2022564079 A JP2022564079 A JP 2022564079A JP 2023525967 A JP2023525967 A JP 2023525967A
- Authority
- JP
- Japan
- Prior art keywords
- ablation
- post
- interest
- image
- anatomy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003902 lesion Effects 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 71
- 238000010191 image analysis Methods 0.000 title 1
- 238000002679 ablation Methods 0.000 claims abstract description 176
- 210000003484 anatomy Anatomy 0.000 claims abstract description 76
- 230000002980 postoperative effect Effects 0.000 claims abstract description 44
- 238000011282 treatment Methods 0.000 claims abstract description 43
- 238000013528 artificial neural network Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 29
- 238000011156 evaluation Methods 0.000 claims abstract description 28
- 238000010801 machine learning Methods 0.000 claims description 12
- 238000001356 surgical procedure Methods 0.000 claims description 9
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 abstract description 3
- 230000011218 segmentation Effects 0.000 description 19
- 238000012360 testing method Methods 0.000 description 9
- 210000004185 liver Anatomy 0.000 description 8
- 238000010200 validation analysis Methods 0.000 description 7
- 238000010317 ablation therapy Methods 0.000 description 4
- 238000002059 diagnostic imaging Methods 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 210000001519 tissue Anatomy 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 238000011298 ablation treatment Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 210000003734 kidney Anatomy 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 208000004434 Calcinosis Diseases 0.000 description 1
- 206010027476 Metastases Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000002308 calcification Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000004520 electroporation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 230000009401 metastasis Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001338 necrotic effect Effects 0.000 description 1
- 238000011205 postoperative examination Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4848—Monitoring or testing the effects of treatment, e.g. of medication
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B18/02—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B18/02—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques
- A61B18/0206—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by cooling, e.g. cryogenic techniques ultrasonic, e.g. for destroying tissue or enhancing freezing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B18/04—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
- A61B18/12—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
- A61B18/14—Probes or electrodes therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B18/18—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B18/18—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
- A61B18/1815—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using microwaves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B18/00—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
- A61B18/18—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves
- A61B18/20—Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by applying electromagnetic radiation, e.g. microwaves using laser
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61N—ELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
- A61N7/00—Ultrasound therapy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
- A61B2034/104—Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Otolaryngology (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Electromagnetism (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- General Engineering & Computer Science (AREA)
- Fuzzy Systems (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
Abstract
本発明は、個人(110)の関心対象の解剖学的構造(130)の一部(160)のアブレーションを治療後に評価するための方法であって、関心対象の解剖学的構造は、少なくとも1つの病変部(165)を含む、方法に関する。治療後評価方法は、特に、ニューラルネットワーク型の自動学習方法を用いて、個人の関心対象の解剖学的構造の術前及び術後医用画像(170)の対の分析に基づいて、個人の関心対象の解剖学的構造の病変部の再発のリスクを自動的に評価するステップを含み、前記方法は、いわゆる訓練段階中、複数の個人に同一の関心対象の解剖学的構造の医用画像の複数の対を含むデータベース上に事前ロードされ、データベースの各医用画像対は、前記患者の関心対象の解剖学的構造の病変部の再発ステータスに関連付けられる。本発明は、プロセッサと、そのような評価方法の命令を記憶するコンピュータメモリとを含む電子装置(150)にも関する。
Description
発明の技術分野
本発明の分野は、医療介入の評価の分野である。
本発明の分野は、医療介入の評価の分野である。
本発明は、より具体的には、アブレーションされた病変部の再発のリスクの治療後評価のための方法に関する。
本発明は、特に、腫瘍などの病変部の再発又は転移のリスクを予測することにより、低侵襲医療介入を評価することに応用可能である。そのような低侵襲医療介入は、例えば、病変部、例えば肝臓、肺、腎臓又は任意の他の器官における腫瘍の経皮的アブレーションに対応する。経皮的アブレーションは、一般的に、病変部に到達し、及びそれを破壊するために、皮膚を通した1つ以上の針の挿入を誘導するために画像を使用することを含む。
従来技術の説明
従来技術では、介入の効果を評価し、及び病変部の再発のリスクを予測するための技法が開示されている。
従来技術では、介入の効果を評価し、及び病変部の再発のリスクを予測するための技法が開示されている。
そのような技法は、例えば、病変部のアブレーションに続いて、アブレーション領域が病変部を網羅する程度を特定することを含む。アブレーション領域の体積を病変部の体積と比較することにより、アブレーションマージンを特定することが可能である。実際、一般的に、少なくとも5ミリメートルのアブレーションマージンを有することが推奨されている。
これらのマージンを特定するために、病変部の体積は、一般的に、介入を計画するときに特定され、少なくとも1つの術後画像上で術者によってセグメント化されるアブレーション領域の体積と比較される。
主な欠点は、アブレーション領域の体積が、一般的に、多くの場合にセグメント化を行った術者に依存して不正確に特定されることである。さらに、術後画像の質が悪いことが多く、それによりセグメント化に不確実性を導入する一因となる。従って、アブレーションマージンと、病変部の再発のリスクとの相関関係を確立することは、困難である。
従来技術からの技法を改善するために、アブレーション領域を自動的にセグメント化するための方法を使用することが知られている。
そのような技法は、例えば、2019年9月に公開された、Zhang et alによる「Detection and Monitoring of Thermal Lesions Induced by Microwave Ablation Using Ultrasound Imaging and Convolutional Neural Networks」という名称の科学刊行物で説明されている。この刊行物で説明されているセグメント化方法は、術前の超音波画像及び術後の超音波画像をセグメント化することにより、アブレーション領域のマージンを計算することを可能にする。
しかしながら、この刊行物で説明されたセグメント化方法では、アブレーション領域の自動セグメント化の精度が低いため、再発のリスクを予測することが不可能である。第1に、セグメント化方法は、アブレーション領域の画像のサブサンプリング行列に限定され、そのサイズは、固定され、一般的に4mm2に等しいため、この方法の使用を寸法の小さい領域に限定する。さらに、サブサンプリング行列の位置を設定するためにアブレーション領域の位置を知ることが必要であり、術前及び術後画像のサブサンプリング行列内に一定の基準点がない場合、この方法を使用することを困難にする。最後に、二次元の超音波画像の性質及び品質のため、関心対象の解剖学的構造を突き止めることが困難であり得、その領域のセグメント化を不正確にし、特に、セグメント化されたときのアブレーション領域が、アブレーションされるべき病変部を含まないという不正確な観察を生じる。
さらに、自動セグメント化方法は、均質な領域、すなわち例えば骨、血管若しくは病変部について又は画像が公知の数の領域を含む場合、一貫した結果を与える。アブレーション領域の場合、得られたセグメント化の結果は、アブレーション領域が、一般的に、例えば気体、壊死した細胞、健康な細胞、造影剤残留物、石灰化などの様々な物質からなる非常に複雑な領域であるため、一貫性がない。さらに、一般的に、セグメント化は、一般的に不鮮明でコントラストが乏しい医用画像で行われ、画像を自動的にセグメント化することを困難にする。
現在のシステムのいずれも、具体的には、経験を積んだ術者の介入を必要とすることなく、特に不明瞭な及び/又はコントラストが乏しい医用画像に基づいて、以前にアブレーションされた病変部の再発のリスクを細かく評価することを可能にする技法を提供するという要求される必要性の全てを同時に満たすことを可能にしない。
発明の概要
本発明は、従来技術の上述の欠点の全て又はいくつかを修正することを目的とする。
本発明は、従来技術の上述の欠点の全て又はいくつかを修正することを目的とする。
この目的のために、本発明は、個人の関心対象の解剖学的構造の一部のアブレーションの治療後評価のための方法であって、関心対象の解剖学的構造は、少なくとも1つの病変部を含み、関心対象の解剖学的構造のアブレーションされた一部は、アブレーション領域と呼ばれる、方法を目的とする。
アブレーションは、経皮的又は低侵襲であり、これは、一般的に、病変部に到達し、及びそれを破壊するために、皮膚を通して少なくとも1つの針を挿入することを含む。複数のアブレーション技法が可能である:高周波、マイクロ波、エレクトロポレーション、レーザ、冷凍、超音波など。
関心対象の解剖学的構造は、肝臓、肺、腎臓又は病変部になりやすい任意の他の器官であり得る。
本発明によれば、治療後評価方法は、
- 個人の関心対象の解剖学的構造の術後医用画像を取得するステップ;
- 術後画像と、術前医用画像と呼ばれる、外科治療前に取得される個人の関心対象の解剖学的構造の医用画像とを再調整するステップであって、再調整された術前医用画像と、再調整された術後医用画像とは、個人の関心対象の解剖学的構造の医用画像の対を形成する、ステップ;
- ニューラルネットワークベースの機械学習方法を使用し、個人の関心対象の解剖学的構造の医用画像の対を分析して、個人の関心対象の解剖学的構造の病変部の再発のリスクを評価するステップであって、前記機械学習方法は、訓練段階と呼ばれるものにおいて、患者の組の同一の関心対象の解剖学的構造の医用画像の複数の対を含むデータベース上で事前に訓練され、データベース中の医用画像の各対は、前記患者の関心対象の解剖学的構造の病変部の再発ステータスに関連付けられる、ステップ
を含む。
- 個人の関心対象の解剖学的構造の術後医用画像を取得するステップ;
- 術後画像と、術前医用画像と呼ばれる、外科治療前に取得される個人の関心対象の解剖学的構造の医用画像とを再調整するステップであって、再調整された術前医用画像と、再調整された術後医用画像とは、個人の関心対象の解剖学的構造の医用画像の対を形成する、ステップ;
- ニューラルネットワークベースの機械学習方法を使用し、個人の関心対象の解剖学的構造の医用画像の対を分析して、個人の関心対象の解剖学的構造の病変部の再発のリスクを評価するステップであって、前記機械学習方法は、訓練段階と呼ばれるものにおいて、患者の組の同一の関心対象の解剖学的構造の医用画像の複数の対を含むデータベース上で事前に訓練され、データベース中の医用画像の各対は、前記患者の関心対象の解剖学的構造の病変部の再発ステータスに関連付けられる、ステップ
を含む。
従って、病変部の再発のリスクは、所与の解剖学的構造、例えば治療されるべき関心対象の解剖学的構造が肝臓である場合には肝臓の医用画像の対の非常に大規模な分析を行うことにより、以前の臨床データに基づいて予測される。この分析は、経験を積んだ術者が存在する必要なく、アブレーションが行われるべき病変部の再発のリスクのより正確な推定を確定することを可能にする。従って、本発明による治療後評価方法は、再発のリスクが重大であるという結果となる場合、医療スタッフが追加的な治療の必要性を評価できるようにすることにより、個人に施される治療を医療スタッフがよりよく考えることができるようにする。
再発ステータスは、一般的に、術後の検査日において、再発が観察された場合の陽性値と呼ばれるもの又は再発が観察されなかった場合の陰性値と呼ばれるもののいずれかを取る。
再発のリスクは、その一部では、一般的に0~1の確率の形式を取る。
有利には、再発のリスクは、治療後の予め決められた日に評価され、データベース中の医用画像の各対は、再発ステータスが陽性である場合、再発日にも関連付けられる。
この日は、アブレーション治療の例えば1カ月、3カ月、6カ月、1年、2年、5年又はさらに10年後であり得る。
術前医用画像という用語は、アブレーション治療前に取得される医用画像を意味すると理解され、及び術後医用画像という用語は、アブレーション治療後に取得される医用画像を意味すると理解される。
本発明のいくつかの特定の実装態様では、データベース中の訓練画像の対の全て又はいくつかは、再調整後、少なくとも1つの病変部を含むアブレーション領域の周りで切り取られ、画像は、予め決められたサイズの共通フレーム内で切り取られ、切り取られた画像の対におけるアブレーション領域の中心の組は、共通フレーム内の別個の箇所の集合を形成する。
従って、共通フレーム内でアブレーション領域の位置を分配することにより、機械学習方法の予測誤差を減らすことが可能になる。アブレーション領域の全てが共通フレーム内で同じ位置にあった場合、機械学習方法は、主に、この特定の位置にアブレーション領域を有する画像の対を考慮するため、アブレーション領域が別の位置にあった場合、予測誤差を生じるであろう。
本発明のいくつかの特定の実装態様では、データベース中の以前に切り取られた医用画像の対の全てについて、画像に含まれる個人の身体の一部は、単一のサイズの複数の基本単位に分けられ、基本単位の数は、アブレーション領域によって範囲を定められる人体の一部と、画像に含まれる個人の身体の一部の残りの部分との間で2つのほぼ等しい部分に分けられる。
換言すると、基本単位の数は、アブレーション領域によって範囲を定められる人体の一部と、データベース中の切り取られた画像の対に含まれる個人の身体の一部の残りの部分との間で2つのほぼ等しい部分に分けられる。
アブレーション領域に対応する基本単位と、非アブレーション領域に対応する基本単位との間の均等な分配は、画像のレベル又は全体的に全ての画像のレベルで分析され得ることが強調されるべきである。
基本単位は、一般的に、二次元画像に関連してピクセル又は三次元画像に関連してボクセルと呼ばれる。
ほぼ等しい部分は、基本単位の2つの組が同じ数の基本単位からなる場合又は2つの組のそれぞれにおける基本単位の数の差が、例えば、2つの組における基本単位の数の5%未満である場合を意味すると理解される。
本発明のいくつかの特定の実装態様では、医用画像の対のデータベースは、アブレーション領域のない画像の少なくとも1つの対を含む。
従って、機械学習方法は、アブレーションが行われなかった画像の少なくとも1つの対を有することによって最適に訓練される。
本発明のいくつかの特定の実装態様では、治療後評価方法は、再発のリスクが、予め決められた閾値を上回る場合、追加的なアブレーションマスクを決定するステップも含む。
従って、治療の提案は、治療後評価方法を使用して再発のリスクを改善するために推定される。この追加的な治療の提案は、強制力がなく、医療スタッフが従っても又は従わなくてもよいことが強調されるべきである。
追加的なアブレーションマスクは、追加的な治療中にアブレーションが行われるべき領域を示す表示であることが強調されるべきである。アブレーションマスクは、一般的に、再発のリスクが、
- 術前画像及び術後画像のそれぞれにおいて、病変部及びアブレーション領域を検出してセグメント化した後;
- 再発の少なくとも1つの位置を決定した後
に閾値、例えば0.5を上回る場合に生成される。
- 術前画像及び術後画像のそれぞれにおいて、病変部及びアブレーション領域を検出してセグメント化した後;
- 再発の少なくとも1つの位置を決定した後
に閾値、例えば0.5を上回る場合に生成される。
検出及びセグメント化は、自動的に又は術者によって手動でさらに実施されている場合がある。
本発明のいくつかの特定の実装態様では、追加的なアブレーションマスクを決定するステップは、個人の関心対象の解剖学的構造の術後画像中のアブレーション領域をセグメント化するサブステップを含む。
セグメント化は、自動的に実施されるか又は術者によって手動で実施され得る。アブレーション領域は、一般的に、画像中で事前に検出され、その場合、少なくとも一人の術者が画像中のその位置を指示していたことが強調されるべきである。
本発明のいくつかの特定の実装態様では、追加的なアブレーションマスクを決定するステップは、個人の関心対象の解剖学的構造の術後画像中のアブレーション領域を検出するサブステップを含む。
本発明のいくつかの特定の実装態様では、追加的なアブレーションマスクを決定するステップは、個人の関心対象の解剖学的構造の術前画像中の病変部を検出するサブステップを含む。
従って、セグメント化は、医用画像中で検出された病変部の周りで実施され得る。
本発明のいくつかの特定の実装態様では、追加的なアブレーションマスクを決定するステップは、
- アブレーション領域と病変部との間のアブレーションマージン、
- 病変部の質量中心とアブレーション領域の質量中心との間の距離、
- 周囲の健康な組織に対するアブレーション領域の縁の規則性及び鮮明さ、
- 病変部の体積とアブレーション領域の体積との間の比率、
- 関心対象の解剖学的構造の中心に対する病変部の位置
を含むリストから選択される少なくとも1つのリスク予測因子に応じて、再発の位置を決定するサブステップを含む。
- アブレーション領域と病変部との間のアブレーションマージン、
- 病変部の質量中心とアブレーション領域の質量中心との間の距離、
- 周囲の健康な組織に対するアブレーション領域の縁の規則性及び鮮明さ、
- 病変部の体積とアブレーション領域の体積との間の比率、
- 関心対象の解剖学的構造の中心に対する病変部の位置
を含むリストから選択される少なくとも1つのリスク予測因子に応じて、再発の位置を決定するサブステップを含む。
本発明のいくつかの特定の実装態様では、医用画像は、三次元画像である。
三次元画像は、例えば、予め規定された軸に沿って一般的に一定間隔で撮られた二次元画像の集合体に対応し得ることが強調されるべきである。
本発明のいくつかの特定の実装態様では、各術前画像は、第1の画像取得技術を使用して取得され、及び各術後画像は、第2の画像取得技術を使用して取得され、第1の技術及び第2の技術は、同一であるか又は異なる。
本発明のいくつかの特定の実装態様では、治療後評価方法は、追加的なアブレーションマスクによって規定されたアブレーション領域の標的点までの医療器具の軌道を提案するステップも含む。
軌道を計画するステップとも呼ばれ得る、軌道を提案するこのステップは、追加的な治療、特に個人への何らかの医療行為前に実施されることが強調されるべきである。この軌道には、強制力がなく、及び医療スタッフが従っても又は従わなくてもよいことも強調されるべきである。
本発明のいくつかの特定の実装態様では、治療後評価方法は、医療器具の計画された軌道に従うように術者を支援するステップも含む。
本発明のいくつかの特定の実装態様では、計画された軌道及び/又は誘導指示は、拡張現実装置のスクリーン上にリアルタイムで表示される。
本発明は、プロセッサと、上述の実装態様のいずれか1つに記載の方法の命令を記憶するコンピュータメモリとを含む電子装置にも関する。
そのような電子装置は、例えば、制御装置、ナビゲーションシステム、ロボット装置又は拡張現実装置であり得る。制御装置は、特に手術室に存在するコンピュータ又はリモートサーバであり得る。
換言すると、本発明は、プロセッサと、個人の関心対象の解剖学的構造の一部のアブレーションの治療後評価方法の命令を記憶するコンピュータメモリとを含む電子装置であって、関心対象の解剖学的構造は、少なくとも1つの病変部を含み、関心対象の解剖学的構造のアブレーションされた一部は、アブレーション領域と呼ばれ、プロセッサは、命令の実行時、
- アブレーション領域の全て又は一部を含む、個人の関心対象の解剖学的構造の術後医用画像を取得すること;
- 術後画像と、術前医用画像と呼ばれる、外科治療前に取得される個人の関心対象の解剖学的構造の医用画像とを再調整することであって、再調整された術前医用画像と、再調整された術後医用画像とは、個人の関心対象の解剖学的構造の医用画像の対を形成する、再調整すること;
- ニューラルネットワークベースの機械学習方法を使用し、個人の関心対象の解剖学的構造の医用画像の対を分析して、個人の関心対象の解剖学的構造の病変部の再発のリスクを評価することであって、前記機械学習方法は、訓練段階と呼ばれるものにおいて、患者の組の同一の関心対象の解剖学的構造の医用画像の複数の対を含むデータベース上で事前に訓練され、データベース中の医用画像の各対は、前記患者の関心対象の解剖学的構造の病変部の再発ステータスに関連付けられる、評価すること
を行うように構成される、電子装置に関する。
- アブレーション領域の全て又は一部を含む、個人の関心対象の解剖学的構造の術後医用画像を取得すること;
- 術後画像と、術前医用画像と呼ばれる、外科治療前に取得される個人の関心対象の解剖学的構造の医用画像とを再調整することであって、再調整された術前医用画像と、再調整された術後医用画像とは、個人の関心対象の解剖学的構造の医用画像の対を形成する、再調整すること;
- ニューラルネットワークベースの機械学習方法を使用し、個人の関心対象の解剖学的構造の医用画像の対を分析して、個人の関心対象の解剖学的構造の病変部の再発のリスクを評価することであって、前記機械学習方法は、訓練段階と呼ばれるものにおいて、患者の組の同一の関心対象の解剖学的構造の医用画像の複数の対を含むデータベース上で事前に訓練され、データベース中の医用画像の各対は、前記患者の関心対象の解剖学的構造の病変部の再発ステータスに関連付けられる、評価すること
を行うように構成される、電子装置に関する。
本発明のいくつかの特定の実施形態では、プロセッサは、治療後の予め決められた日に再発のリスクを評価するように構成され、データベース中の医用画像の各対は、再発ステータスが陽性である場合、再発日にも関連付けられる。
本発明のいくつかの特定の実施形態では、プロセッサは、再調整後、データベース中の画像の対の全て又はいくつかを、訓練画像の対の全て又はいくつかの術後画像に含まれるアブレーション領域の周りで切り取るようにさらに構成され、画像は、予め決められたサイズの共通フレーム内で切り取られ、切り取られた画像の対におけるアブレーション領域の中心の組は、共通フレーム内の別個の箇所の集合を形成する。
本発明のいくつかの特定の実施形態では、データベース中の以前に切り取られた医用画像の対の全てについて、プロセッサは、画像に含まれる個人の身体の一部を単一のサイズの複数の基本単位に分けるようにさらに構成され、基本単位の数は、アブレーション領域によって範囲を定められる人体の一部と、画像に含まれる個人の身体の一部の残りの部分との間で2つのほぼ等しい部分に分けられる。
本発明のいくつかの特定の実施形態では、医用画像の対のデータベースは、アブレーション領域のない画像の少なくとも1つの対を含む。
本発明のいくつかの特定の実施形態では、プロセッサは、再発のリスクが、予め決められた閾値を上回る場合、追加的なアブレーションマスクを決定するようにさらに構成される。
本発明のいくつかの特定の実施形態では、プロセッサは、追加的なアブレーションマスクを決定する場合、個人の関心対象の解剖学的構造の術後画像中のアブレーション領域を検出するようにさらに構成される。
本発明のいくつかの特定の実施形態では、プロセッサは、追加的なアブレーションマスクを決定する場合、個人の関心対象の解剖学的構造の術後画像中のアブレーション領域をセグメント化するようにさらに構成される。
本発明のいくつかの特定の実施形態では、プロセッサは、追加的なアブレーションマスクを決定する場合、個人の関心対象の解剖学的構造の術前画像中の病変部を検出するようにさらに構成される。
本発明のいくつかの特定の実施形態では、プロセッサは、追加的なアブレーションマスクを決定する場合、個人の関心対象の解剖学的構造の術前画像中の病変部をセグメント化するようにさらに構成される。
本発明のいくつかの特定の実施形態では、追加的なアブレーションマスクを決定する場合、プロセッサは、
- アブレーション領域と病変部との間のアブレーションマージン、
- 病変部の質量中心とアブレーション領域の質量中心との間の距離、
- 周囲の健康な組織に対するアブレーション領域の縁の規則性及び鮮明さ、
- 病変部の体積とアブレーション領域の体積との間の比率、
- 関心対象の解剖学的構造の中心に対する病変部の位置
を含むリストから選択される少なくとも1つのリスク予測因子に応じて、再発の位置を決定するようにさらに構成される。
- アブレーション領域と病変部との間のアブレーションマージン、
- 病変部の質量中心とアブレーション領域の質量中心との間の距離、
- 周囲の健康な組織に対するアブレーション領域の縁の規則性及び鮮明さ、
- 病変部の体積とアブレーション領域の体積との間の比率、
- 関心対象の解剖学的構造の中心に対する病変部の位置
を含むリストから選択される少なくとも1つのリスク予測因子に応じて、再発の位置を決定するようにさらに構成される。
本発明のいくつかの特定の実施形態では、医用画像は、三次元画像である。
本発明のいくつかの特定の実施形態では、各術前画像は、第1の画像取得技術を使用して取得され、及び各術後画像は、第2の画像取得技術を使用して取得され、第1の技術及び第2の技術は、同一であるか又は異なる。
図の簡単な説明
本発明の他の利点、目的及び特定の特徴は、添付図面を参照して、本発明の主題を形成する装置及び方法の少なくとも1つの特定の実施形態の以下の非限定的な説明から明らかになる。
本発明の他の利点、目的及び特定の特徴は、添付図面を参照して、本発明の主題を形成する装置及び方法の少なくとも1つの特定の実施形態の以下の非限定的な説明から明らかになる。
発明の詳細な説明
本記載は、限定されることなく与えられ、一実施形態の各特徴は、有利な方法で任意の他の実施形態の任意の他の特徴と組み合わせることができる。
本記載は、限定されることなく与えられ、一実施形態の各特徴は、有利な方法で任意の他の実施形態の任意の他の特徴と組み合わせることができる。
以下では、図面が縮尺通りではないことに留意されたい。
1つの特定の実装態様の例
図1は、台115に横たわっている個人110が医療器具120を用いて治療される医療介入の概略図を示す。本発明の非限定的な本例では、医療介入は、この場合には半硬質の針である医療器具120により、この場合には個人110の肝臓である関心対象の解剖学的構造130における病変部165のアブレーションに対応する。この場合、医療介入は、経皮的処置であり、その間、個人110の身体は、開放されない。
図1は、台115に横たわっている個人110が医療器具120を用いて治療される医療介入の概略図を示す。本発明の非限定的な本例では、医療介入は、この場合には半硬質の針である医療器具120により、この場合には個人110の肝臓である関心対象の解剖学的構造130における病変部165のアブレーションに対応する。この場合、医療介入は、経皮的処置であり、その間、個人110の身体は、開放されない。
術者140による医療器具120の取り扱いは、本発明の非限定的な本例では、拡張現実装置、例えば術者140によって装着されるヘッドセット150である誘導装置によって有利に誘導され得る。医療器具120は、ロボット医療機器125にも関連付けられ得る。
ヘッドセット150は、半透明のスクリーン155を含み、術者が正常に見ることを可能にする。画像がオーバーレイ形式でスクリーン155上に表示されて、マーカを表示し、それにより医療器具120の取り扱い時、アブレーションにより、関心対象の解剖学的構造130において特定される病変部165の周りのアブレーション領域と呼ばれる領域160を治療する目的で術者140を誘導することを可能にする。マーカは、特にアブレーションマスクを含み得、アブレーションマスクは、手術前に取得された関心対象の解剖学的構造130の医用画像170上で事前に推定された。医用画像170は、以下では術前医用画像170と呼ばれる。
手術終了時、手術的治療は、図2の概要に示されるようなアブレーションの治療後の評価のための方法200を使用して評価され、その命令は、ケーブル又は無線技術によってヘッドセット155に接続された電子制御装置181のコンピュータメモリ180に記憶される。治療後評価方法200は、その命令が電子制御装置181のコンピュータプロセッサ182によって処理され、特に病変部に関連付けられる再発のリスクを決定することを可能にし、手術中に実施された外科治療が十分であるかどうか又は例えば追加的なアブレーションを実施することにより、治療を継続することが好ましいかどうかを検証する。
電子装置181は、有利には、ヘッドセット150に組み込まれ得ることが強調されるべきである。
治療後評価方法200は、関心対象の解剖学的構造130の術後医用画像を取得する第1のステップ210を含む。
術前及び術後の医用画像は、好ましくは、コンピュータ断層撮影を使用して取得されることが強調されるべきである。代替として、それらの画像は、磁気共鳴イメージング装置を使用して取得され得る。
術前医用画像及び術後医用画像を取得するために使用される技術は、好ましくは、同様であるか又はさらに同一である。
換言すると、術前医用画像及び術後医用画像を取得するために使用される技術は、有利には、機械学習方法の訓練データベース中の医用画像を取得するために使用されるものと同一である。
しかしながら、術後医用画像を取得するために使用される技術は、術前医用画像を取得するために使用される技術と異なり得る。
この場合、術前医用画像及び術後医用画像を取得するために使用される技術は、有利には、機械学習方法の訓練データベース中の医用画像を取得するために使用されるものと同一である。
術前及び術後の医用画像は、有利には、本発明の非限定的な本例では、三次元で取得された画像である。実際に、三次元で取得された各医用画像は、一般的に、予め決められた軸に沿って一定間隔で撮られた関心対象の解剖学的構造130の断面にそれぞれ対応する複数の二次元医用画像の集合体に対応する。関心対象の解剖学的構造の三次元表示は、この二次元医用画像の集合体から再構成され得る。従って、三次元画像という用語は、医用画像の集合体及び三次元表示の両方を意味すると理解される。ボクセルという用語は、三次元画像の解像度に関する基本単位を意味すると理解される。
代替として、術前及び術後の医用画像は、それぞれ二次元で取得される。そのため、二次元画像の解像度に関する基本単位は、一般にピクセルと呼ばれる。
術前及び術後の医用画像は、関心対象の解剖学的構造全体を含むか、又は予め規定されたフレーム内でアブレーション領域の周りで切り取られる画像である。三次元画像では、アブレーション領域を囲むフレームは、立方体に対応する。他方では、二次元画像では、フレームは、正方形に対応する。
「バウンディングボックス」としても公知のアブレーション領域を囲むフレームは、術者による行為に続いて、アブレーション領域の周りに自動的に生成され得る。そのような行為は、例えば、術者が、アブレーション領域に属する術後医用画像内の箇所を示し、及びフレームがこの箇所の周りに生成されるという事実に対応し得る。例として、小さい病変部、すなわち例えば最大直径が5cm±10%程度又はさらに好ましくは最大直径が3cm±10%程度の病変部での低侵襲アブレーション治療に関連して、立方体の各辺又は正方形の各辺は、5~10cmである。
図3は、アブレーション領域310がフレーム320によって囲まれる三次元医用画像300の図である。フレーム320は、立方体であり、それぞれ矢状像、軸位像及び冠状像に沿った断面図340、350及び360の正方形330に対応する。
術後医用画像は、図2に示す方法200の第2のステップ220において、術前医用画像170によって再調整される。2つの医用画像の解剖学的構造箇所の適合を見つけるための再調整は、当業者に公知の方法を使用して実施される。再調整は、厳格に、すなわち画像中の全ての箇所が同じように変化されるか、又は厳格にではなく、すなわち画像中の各箇所が特定の変化を有し得るように実施され得る。
2つの再調整された術前画像及び術後画像は、個人110の関心対象の解剖学的構造130の医用画像の対を形成する。
そのため、関心対象の解剖学的構造130の医用画像の対は、第3のステップ230において、アブレーション治療に関連付けられた再発のリスクを自動的に評価するために、機械学習方法であるニューラルネットワークによって分析される。
この目的のために、ニューラルネットワークは、予備訓練段階290において、患者の組の同一の関心対象の解剖学的構造、従ってこの場合には肝臓の医用画像の対のデータベース上で事前に訓練されている。医用画像の各対は、関心対象の解剖学的構造130の機能と同一の機能を有する関心対象の解剖学的構造の術前画像及び術後画像を含む。
有利には、個人110の関心対象の解剖学的構造130の医用画像の対は、ニューラルネットワークの訓練データベース中の対における医用画像と同じ技術を使用して取得される。換言すると、術前医用画像は、第1の医用画像技術を使用して取得され、及び術後医用画像は、第1の医用画像技術と同一であるか又は異なり得る第2の医用画像技術を使用して取得される。場合により異なるパラメータを用いて、同じタイプの医用画像、すなわち術前医用画像及び/又は術後医用画像に同一の技術を使用することは、別々の医用画像技術に関連付けられたバイアスを減らすことにより、ニューラルネットワークによって得られる結果を改善することを可能にする。
個人110の関心対象の解剖学的構造130の医用画像が切り取られるとき、これらの医用画像の立方体又は正方形の寸法は、有利には、ニューラルネットワークを訓練するために使用される立方体又は正方形の寸法と同一である。
ニューラルネットワークを訓練するために、データベース中の医用画像の各対は、人の肝臓の病変部の再発ステータスに関連付けられ、そのステータスは、再発が起こったかどうかを場合により再発日に関連付けて示す。これらの医用画像の対のそれぞれは、一般的に、別々の人に由来することが強調されるべきである。
ニューラルネットワークを訓練する段階290は、一般的に、いくつかのステップ:
- 訓練ステップ291;
- 検証ステップ292;
- テストステップ293
で実施される。
- 訓練ステップ291;
- 検証ステップ292;
- テストステップ293
で実施される。
従って、医用画像の対のデータベースは、医用画像の別々の対を含む3つのデータベースに分割される。3つのデータベースは、それぞれ訓練ベース、検証ベース及びテストベースと呼ばれる。本発明の非限定的な本例では、医用画像のデータベース中の医用画像の対の60~98%が訓練ベースに分類され、1~20%が検証ベースに分類され、及び1~20%がテストベースに分類される。一般的に医用画像のデータベース中の画像数に依存する百分率は、ここでは指標として与えられる。
ニューラルネットワークを訓練する段階290の最初の2つのステップ291及び292は、数回繰り返され得る主ステップである。第3のテストステップは、その一部に関して任意選択である。
訓練段階290の第1のステップ291では、ニューラルネットワークの各ニューロンのための重みW及びバイアスbは、訓練ベース中の医用画像の対から決定される。
訓練ベースは、有利には、アブレーション領域のない画像の対を含み得ることが強調されるべきである。
さらに、データベース中の画像の組は、アブレーション領域に属するボクセルを、非アブレーション領域に属するボクセルと同じ数だけ含むことが好ましい場合がある。この割合は、術者によって手動で決定されるようなボクセルの分類に基づいて計算される。
換言すると、データベース中の切り取られた医用画像の対の全てについて、画像に含まれる個人の身体の一部は、単一のサイズの複数の基本単位に分けられ、基本単位の数は、アブレーション領域によって範囲を定められる人体の一部と、画像に含まれる個人の身体の一部の残りの部分との間で2つのほぼ等しい部分に分けられる。
ほぼ等しい部分は、基本単位の2つの組が同じ数の基本単位からなる場合又は2つの組のそれぞれにおける基本単位の数の差が、例えば、2つの組における基本単位の数の5%未満である場合を意味すると理解される。
さらに、再調整された医用画像の対のいくつかにおけるアブレーション領域の位置は、有利には、アブレーション領域が主にフレームの中心の領域であると学習するであろうニューラルネットワークへのバイアスの導入を回避するために、ランダムに画像の中心に対してランダムにシフトされ得る。具体的には、アブレーション領域の周りで術者によって不正確にフレームされる医用画像がいくつかある。従って、有利には、有界確率変数がフレームの位置に加えられて、フレームの中心における病変部の位置決めにおいてこのバイアスを限定する。
訓練段階290の第2のステップ292は、検証ベース中の医用画像の対から、ニューラルネットワークの各ニューロンに対して事前に決定される重みW及びバイアスbを有効にすることを可能にして、ニューラルネットワークの結果、特に予測誤差を検証する、すなわち検証データベース中の医用画像の各対、すなわちニューラルネットワークを使用して得られた再発のリスクと、医用画像の対に関連付けられた再発ステータスとのそれぞれの比較によって検証する。
この第2のステップの最後での予測誤差が大きすぎる場合、訓練291及び検証292の2つのステップが再度実施されて、同じ医用画像の対を再使用することによってニューラルネットワークを再訓練して、各ニューロンの重みW及びバイアスbの値を改善する。
代替として、ニューラルネットワークを再訓練している間、第1のステップ291は、訓練のために、訓練データベース中の医用画像の対と、検証ベース中の医用画像の対のいくつかとを考慮することにより、医用画像の対の再サンプリングを使用する。その後、検証ベース中の医用画像の対の残りを使用して、第1の再訓練ステップの最後に得られた重みW及びバイアスbを有効にする。
ニューラルネットワークは、予測誤差が許容可能になるまで、すなわち予め決められた値を下回るまで、必要な回数にわたって再訓練され得ることが強調されるべきである。
訓練段階290の2つのステップ291及び292が少なくとも一回実施されると、予定される第3のテストステップ293において、テストベース中の医用画像の対を用いて、ニューラルネットワークの最終的な性能がテストされ得る。訓練及び検証ベース中の医用画像の対とは別であるこれらの医用画像の対は、各ニューロンに関するパラメータW及びbによって構成されるようなニューラルネットワークが、ニューラルネットワークが直面する傾向がある全ての状況において再発のリスクを正確に予測することを可能にするかどうかを検証することを可能にする。しかしながら、検証ステップ292と異なり、この予定される第3のテストステップ293は、ニューラルネットワークのための新しい訓練サイクルをもたらさない。
テストステップ293において使用された画像は、一般的に、ニューラルネットワークの予測能力を最適にテストするために、関心対象の解剖学的構造中のアブレーション領域の様々な位置及びサイズを網羅するように慎重に選択されることが強調されるべきである。
外科治療に関連付けられた再発のリスクの予測は、再発ステータスにそれぞれ関連付けられた医用画像の対のデータベース上で事前に訓練されたニューラルネットワークによって直接得られる。
関連する再発ステータスは、例えば、アブレーション後の所与の期間内に病変部の再発がなかった場合には0(陰性ステータス)に、又はアブレーション後の所与の期間内に病変部の再発があった場合には1(陽性ステータス)に等しい。再発ステータスの推定に関連付けられた期間は、好ましくは、6カ月である。しかしながら、再発ステータスが陽性である場合、再発日を関連付けることにより、アブレーション後の様々な日に再発ステータスを推定することが可能である。例えば、ニューラルネットワークは、アブレーション後6カ月毎の又はアブレーションの1カ月、3カ月、6カ月、1年、2年、5年若しくは10年後の、医用画像の対に関連付けられた再発ステータスを予測するためにも訓練され得る。
病変部の再発のリスクの値は、一般的に、0~1の確率の形式を取る。
再発のリスクの値が、予め決められた閾値を上回る場合、すなわち場合により所与の期間内に発生する再発の確率の場合、治療後評価方法200の第4のステップ240において推定される追加的なアブレーションマスクを推定することにより、治療後評価方法200によって追加的な治療が提案され得る。この追加的な強制力のない治療は、例えば、アブレーションマージンが所与の値、例えば5ミリメートルを下回る領域における追加的なアブレーションに対応する。
追加的なアブレーションマスクを生成するステップ240は、一般的に、図2において241~245を付された5つのサブステップを含む。
サブステップ241では、病変部165は、個人110の関心対象の解剖学的構造130の術前医用画像において検出される。この検出は、自動的に実施されるか又は術者によって手動で実施され得る。
サブステップ242では、第2のデータベースからの医用画像の学習に基づいて、第2のニューラルネットワークにより、関心対象の解剖学的構造の少なくとも1つの病変部の周りにアブレーションマスクが生成される。この第2のデータベースでは、医用画像の大部分は、肝臓の病変部を示す患者で事前に検出されてセグメント化されるアブレーション領域を含む。
図4は、この第2のデータベース中の4つの医用画像400を示す。各医用画像400は、アブレーション領域410の範囲を定めた術者によって手動で注釈が付けられている。ニューラルネットワークは、アブレーションマスク420を生成した。
第2のデータベース中の各医用画像では、アブレーション領域は、有利には、訓練、従って第2のニューラルネットワークによって得られる分析結果の関連性を高めるために、少なくとも2人の術者によって手動で決定されたことが強調されるべきである。具体的には、特に図4の画像400におけるように画像中のコントラストが乏しい場合、術者がアブレーション領域の範囲を定めることが困難であり得る。従って、医用画像に注釈を付けるために数人の術者を用いることにより、アブレーション領域の特定を改善することが可能になる。従って、本発明の非限定的な本例では、再調整された術前及び術後医用画像の対に関連付けられたアブレーション領域は、複数の術者によって提案されたアブレーション領域の統合に対応する。代替として、医用画像に関連付けられたアブレーション領域は、複数の術者によって提案されたアブレーション領域の交わり、合意又は裁決に対応し得る。ニューラルネットワークは、医用画像のボクセルをアブレーション領域又は非アブレーション領域に分類するようにさらに訓練される。
代替として、訓練は、医用画像中のアブレーション領域の範囲を定める一人の熟練した注釈者を用いて実施され得る。そのため、術者の経験は、第2のニューラルネットワークが、良好に範囲を定められるアブレーション領域に到達できるようにするために重要である。
第2のデータベースは、第2のニューラルネットワークの訓練バイアスを限定するために第1のデータベースと同じ利点を有し得、具体的にはアブレーション領域のない画像を含み得、アブレーション領域の位置は、画像の中心において対称的でなくてもよく、及びデータベース中の画像の組は、画像で見える解剖学的構造部分の非アブレーション領域と同じ数のボクセルをアブレーション領域中に含むことも強調されるべきである。
個人の関心対象の解剖学的構造130の術後医用画像から、第2のニューラルネットワークは、各ボクセルをアブレーション領域又は非アブレーション領域に分類する。この予測は、関心対象の解剖学的構造130の医用画像の対に重ね合わされるアブレーションマスクの形式を取り得る。アブレーションマスクは、一般的に、第2のニューラルネットワークによって予測されるアブレーション領域に属するボクセルに再調整される。アブレーションマスクは、一般的に、二次元画像に関連して、領域又は輪郭によって範囲を定められることが強調されるべきである。
サブステップ243では、病変部165は、個人110の関心対象の解剖学的構造130の術前医用画像上で自動的にセグメント化される。代替として、セグメント化は、術者によって手動で実施される。
病変部は、当業者に公知の方法を使用して自動的にセグメント化される。例えば、セグメント化は、画像のヒストグラムに基づく方法、例えばOtsu法又は深層学習方法を使用して実施される。
このセグメント化サブステップ243を図5に示し、この図は、病変部510及びアブレーション領域520の三次元ロケーションを決定するために、深層学習方法に基づく自動セグメント化が実施される術前医用画像500を示す。以前に使用された2つのニューラルネットワークとは別個の第3のニューラルネットワークを使用して均等な結果を得ることができる。
その後、サブステップ244において、アブレーションマージンは、病変部のセグメント化と、事前に確立されたアブレーションマスクとの間で決定される。アブレーションマージンは、病変部のセグメント化とアブレーションマスクとの間に認められる最小マージン、すなわち最短距離に対応する。換言すると、アブレーションマージンは、病変部の箇所とアブレーション領域の箇所との間で計算された最短距離に対応し、病変部の全ての箇所に関して計算される。
アブレーションマージンを決定することにより、アブレーション領域が実際に病変部を確実に網羅することを可能にする。
図6は、再発のリスクのある病変部600でのアブレーション治療後の追加的なアブレーションの例を示す。治療後評価方法200は、病変部600とアブレーション領域610との間のアブレーションマージン605が不十分であったため、追加的なアブレーションマスク620を生成した領域を特定した。アブレーション領域を可能な限り遠くに限定しながら、追加的なアブレーションマスク620が生成されることが強調されるべきである。そのため、アブレーション針によって到達されるべき標的点630は、マスク620内でさらに規定され得る。
再発の位置の予測は、計算されたアブレーションマージンを、再発ステータスに関連付けられてデータベースに記憶されたアブレーションマージンの基準値と比較することにより、サブステップ245においてさらに評価され得る。例えば、アブレーションマージンが5mm以上である場合、再発のリスクは、低いか又はさらにゼロであると考えられる。
さらに又は代替として、アブレーションマージン以外の再発のリスクの予測因子が使用され得る。再発の位置は、これらの様々な予測因子の全て又はいくつかに重み付けすることによって推定され得る。例として、再発のリスクの予測因子は、
- 病変部の表面又は病変部の表面の一部とアブレーション領域との間の距離;
- 病変部の質量中心とアブレーション領域の質量中心との間の距離;
- 病変部の表面又は病変部の表面の一部とアブレーション領域との間の距離及び特に被膜下病変部の場合、関心対象の解剖学的構造の被膜の近さを考慮して、病変部の質量中心とアブレーション領域の質量中心との間の距離;
- 周囲の健康な組織に対するアブレーション領域の縁の規則性;
- 周囲の健康な組織に対するアブレーション領域の縁の鮮明さ;
- 病変部の体積とアブレーション領域の体積との間の比率;
- 関心対象の解剖学的構造中の病変部の位置
であり得る。
- 病変部の表面又は病変部の表面の一部とアブレーション領域との間の距離;
- 病変部の質量中心とアブレーション領域の質量中心との間の距離;
- 病変部の表面又は病変部の表面の一部とアブレーション領域との間の距離及び特に被膜下病変部の場合、関心対象の解剖学的構造の被膜の近さを考慮して、病変部の質量中心とアブレーション領域の質量中心との間の距離;
- 周囲の健康な組織に対するアブレーション領域の縁の規則性;
- 周囲の健康な組織に対するアブレーション領域の縁の鮮明さ;
- 病変部の体積とアブレーション領域の体積との間の比率;
- 関心対象の解剖学的構造中の病変部の位置
であり得る。
質量中心の基準値は、アブレーションマージンに依存する。アブレーションマージンが10mmに等しく、及びアブレーションマージンの基準値が5mmである場合、病変部の質量中心とアブレーション領域の質量中心との間の距離は、5mm以下である必要がある。
方法200は、アブレーションマスク又は追加的なアブレーションマスクのいずれかに関連付けられた、医療器具120が辿るべき軌道を計画するステップ250も含み、計画された軌道に沿って医療器具120を誘導するステップ260において、医療器具120を取り扱うときに術者を誘導し得る。
計画方法の一例は、「Methode de planification automatique d’une trajectoire pour une intervention medicale」[Method for automatically planning a trajectory for a medical intervention]という名称の仏国特許出願公開第1914780号で説明されている。
誘導は、本発明の非限定的な本例では、目で見ることができ、ヘッドセット150のスクリーン155上において、計画された軌道及び/又は誘導指示を表示することを含むことが強調されるべきである。
代替として、医療器具120は、医療器具120のための位置及び向きの情報を提供するナビゲーションシステムによって誘導され得る。これは、そのようなナビゲーションシステムに結合されたロボット装置を使用する機械的な誘導を含み得る。
ステップ230~260は、再発のリスクがゼロ若しくはほとんどゼロになるまで又はアブレーションマージンが十分になるまで繰り返され得ることが強調されるべきである。
Claims (15)
- 個人(110)の関心対象の解剖学的構造(130)の一部のアブレーションの治療後評価のための方法(200)であって、前記関心対象の解剖学的構造は、少なくとも1つの病変部(165、510、600)を含み、前記関心対象の解剖学的構造の前記アブレーションされた一部は、アブレーション領域(160)と呼ばれる、方法(200)において、
・前記アブレーション領域の全て又は一部を含む、前記個人の前記関心対象の解剖学的構造の術後医用画像を取得するステップ(210);
・前記術後画像と、術前医用画像と呼ばれる、前記外科治療前に取得される前記個人の前記関心対象の解剖学的構造の医用画像(170、500)とを再調整するステップ(220)であって、前記再調整された術前医用画像と、前記再調整された術後医用画像とは、前記個人の前記関心対象の解剖学的構造の医用画像の対を形成する、ステップ(220);
・ニューラルネットワークベースの機械学習方法を使用し、前記個人の前記関心対象の解剖学的構造の前記医用画像の対を分析して、前記個人の前記関心対象の解剖学的構造の前記病変部の再発のリスクを評価するステップであって、前記機械学習方法は、訓練段階(290)と呼ばれるものにおいて、患者の組の同一の関心対象の解剖学的構造の医用画像(300、400)の複数の対を含むデータベース上で事前に訓練され、前記データベース中の医用画像の各対は、前記患者の前記関心対象の解剖学的構造の病変部の再発ステータスに関連付けられる、ステップ
を含むことを特徴とする方法(200)。 - 前記再発のリスクは、前記治療後の予め決められた日に評価され、前記データベース中の医用画像の各対は、前記再発ステータスが陽性である場合、再発日にも関連付けられる、請求項2に記載の治療後評価方法。
- 前記データベース中の前記画像の対の全て又はいくつかは、再調整後、前記訓練画像の対の全て又はいくつかの前記術後画像に含まれるアブレーション領域の周りで切り取られ、前記画像は、予め決められたサイズの共通フレーム内で切り取られ、前記切り取られた画像の対における前記アブレーション領域の中心の組は、前記共通フレーム内の別個の箇所の集合を形成する、請求項1又は2に記載の治療後評価方法。
- 前記データベース中の前記以前に切り取られた医用画像の対の全てについて、前記画像に含まれる前記個人の身体の一部は、単一のサイズの複数の基本単位に分けられ、基本単位の数は、前記アブレーション領域によって範囲を定められる前記人体の一部と、前記画像に含まれる前記個人の前記身体の前記一部の残りの部分との間で2つのほぼ等しい部分に分けられる、請求項3に記載の治療後評価方法。
- 医用画像の対の前記データベースは、アブレーション領域のない画像の少なくとも1つの対を含む、請求項1~4のいずれか一項に記載の治療後評価方法。
- 前記再発のリスクが、予め決められた閾値を上回る場合、追加的なアブレーションマスクを決定するステップも含む、請求項1~5のいずれか一項に記載の治療後評価方法。
- 追加的なアブレーションマスクを決定する前記ステップは、前記個人の前記関心対象の解剖学的構造の前記術後画像中の前記アブレーション領域を検出するサブステップを含む、請求項6に記載の治療後評価方法。
- 追加的なアブレーションマスクを決定する前記ステップは、前記個人の前記関心対象の解剖学的構造の前記術後画像中の前記アブレーション領域をセグメント化するサブステップを含む、請求項6又は7に記載の治療後評価方法。
- 追加的なアブレーションマスクを決定する前記ステップは、前記個人の前記関心対象の解剖学的構造の前記術前画像中の前記病変部を検出するサブステップを含む、請求項6~8のいずれか一項に記載の治療後評価方法。
- 追加的なアブレーションマスクを決定する前記ステップは、前記個人の前記関心対象の解剖学的構造の前記術前画像中の前記病変部をセグメント化するサブステップを含む、請求項6~9のいずれか一項に記載の治療後評価方法。
- 追加的なアブレーションマスクを決定する前記ステップは、
・前記アブレーション領域と前記病変部との間のアブレーションマージン、
・前記病変部の質量中心と前記アブレーション領域の質量中心との間の距離、
・周囲の健康な組織に対する前記アブレーション領域の縁の規則性及び鮮明さ、
・前記病変部の体積と前記アブレーション領域の体積との間の比率、
・前記関心対象の解剖学的構造の中心に対する前記病変部の位置
を含むリストから選択される少なくとも1つのリスク予測因子に応じて、前記再発の位置を決定するサブステップを含む、請求項6~9のいずれか一項に記載の治療後評価方法。 - 前記医用画像は、三次元画像である、請求項1~11のいずれか一項に記載の治療後評価方法。
- 各術前画像は、第1の画像取得技術を使用して取得され、及び各術後画像は、第2の画像取得技術を使用して取得され、前記第1の技術及び前記第2の技術は、同一であるか又は異なる、請求項1~12のいずれか一項に記載の治療後評価方法。
- プロセッサと、請求項1~13のいずれか一項に記載の治療後評価方法の命令を記憶するコンピュータメモリとを含む電子装置(150)。
- 制御装置、ナビゲーションシステム、ロボット装置又は拡張現実装置であり得る、請求項14に記載の電子装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2005338A FR3110764B1 (fr) | 2020-05-20 | 2020-05-20 | Méthode de prédiction de la récidive d’une lésion par analyse d’images |
FR2005338 | 2020-05-20 | ||
PCT/FR2021/050906 WO2021234304A1 (fr) | 2020-05-20 | 2021-05-20 | Méthode de prédiction de la récidive d'une lésion par analyse d'images |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023525967A true JP2023525967A (ja) | 2023-06-20 |
Family
ID=73793239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022564079A Pending JP2023525967A (ja) | 2020-05-20 | 2021-05-20 | 画像分析によって病変部の再発を予測するための方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20230172535A1 (ja) |
EP (1) | EP4154262A1 (ja) |
JP (1) | JP2023525967A (ja) |
KR (1) | KR20230013042A (ja) |
CN (1) | CN113993475A (ja) |
CA (1) | CA3178587A1 (ja) |
FR (1) | FR3110764B1 (ja) |
IL (1) | IL298315A (ja) |
WO (1) | WO2021234304A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115966309A (zh) * | 2023-03-17 | 2023-04-14 | 杭州堃博生物科技有限公司 | 复发位置预测方法、装置、非易失性存储介质及电子设备 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2145276B1 (en) * | 2007-04-05 | 2020-06-10 | Fundação D. Anna Sommer Champalimaud E Dr. Carlos Montez Champalimaud | System and method for handling, diagnose and predict the occurrence of a medical condition |
JP2017502752A (ja) * | 2014-01-03 | 2017-01-26 | エムシー10 インコーポレイテッドMc10,Inc. | 流量センシングを含むカテーテルまたはガイドワイヤデバイスおよびその使用 |
EP3929303A1 (en) * | 2014-09-15 | 2021-12-29 | Clifton Life Sciences LLC | Compositions, methods and kits for diagnosis of a gastroenteropancreatic neuroendocrine neoplasm |
EP3093821B1 (en) * | 2015-04-16 | 2019-10-09 | Siemens Healthcare GmbH | Method and system for anatomical object pose detection using marginal space deep neural networks |
EP3295373A1 (en) * | 2015-05-11 | 2018-03-21 | Siemens Aktiengesellschaft | A system and method for surgical guidance and intra-operative pathology through endo-microscopic tissue differentiation |
KR20230003653A (ko) * | 2016-11-11 | 2023-01-06 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 환자 건강 기록들 기반 기구 제어를 갖는 원격조작 수술 시스템 |
CN110198680B (zh) * | 2016-11-16 | 2022-09-13 | 纳维斯国际有限公司 | 消融有效性估计器 |
CN107049475A (zh) * | 2017-04-19 | 2017-08-18 | 纪建松 | 肝癌局部消融方法及系统 |
CN108922602A (zh) * | 2018-05-28 | 2018-11-30 | 中山大学附属第六医院 | 基于大数据分析mri图像的直肠癌术前同期新辅助放化疗疗效评估系统和方法 |
CN110111892A (zh) * | 2019-04-29 | 2019-08-09 | 杭州电子科技大学 | 一种nsclc患者术后短期复发转移风险评估系统 |
CN110189824B (zh) * | 2019-06-04 | 2021-12-21 | 冯骥良 | 原发性肝癌根治切除术的预后情况分组方法、装置和系统 |
CN110251122A (zh) * | 2019-06-13 | 2019-09-20 | 南方医科大学顺德医院(佛山市顺德区第一人民医院) | 一种冠心病风险指数的无损检测系统及方法 |
CN111128328A (zh) * | 2019-10-25 | 2020-05-08 | 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) | 鼻咽癌结构化影像报告及数据处理系统和方法 |
CN110782474B (zh) * | 2019-11-04 | 2022-11-15 | 中国人民解放军总医院 | 基于深度学习的预测消融术后肝脏肿瘤形态变化的方法 |
-
2020
- 2020-05-20 FR FR2005338A patent/FR3110764B1/fr active Active
-
2021
- 2021-05-20 EP EP21733487.9A patent/EP4154262A1/fr active Pending
- 2021-05-20 CA CA3178587A patent/CA3178587A1/fr active Pending
- 2021-05-20 JP JP2022564079A patent/JP2023525967A/ja active Pending
- 2021-05-20 CN CN202180003922.6A patent/CN113993475A/zh active Pending
- 2021-05-20 IL IL298315A patent/IL298315A/en unknown
- 2021-05-20 KR KR1020227042539A patent/KR20230013042A/ko unknown
- 2021-05-20 US US17/925,752 patent/US20230172535A1/en active Pending
- 2021-05-20 WO PCT/FR2021/050906 patent/WO2021234304A1/fr unknown
Also Published As
Publication number | Publication date |
---|---|
CA3178587A1 (fr) | 2021-11-25 |
CN113993475A (zh) | 2022-01-28 |
US20230172535A1 (en) | 2023-06-08 |
WO2021234304A1 (fr) | 2021-11-25 |
KR20230013042A (ko) | 2023-01-26 |
FR3110764B1 (fr) | 2024-05-10 |
EP4154262A1 (fr) | 2023-03-29 |
FR3110764A1 (fr) | 2021-11-26 |
IL298315A (en) | 2023-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6671432B2 (ja) | 患者装着式の針ガイドの位置合わせおよび動き補償 | |
Al-Kafri et al. | Boundary delineation of MRI images for lumbar spinal stenosis detection through semantic segmentation using deep neural networks | |
US11986252B2 (en) | ENT image registration | |
CN113966204B (zh) | 为医疗介入自动规划轨迹的方法 | |
US7340082B2 (en) | Method and medical imaging apparatus for determining a slice in an examination volume for data acquisition in the slice | |
US20220233242A1 (en) | Method for planning tissue ablation based on deep learning | |
CN108697402A (zh) | 在三维图像中确定深度脑刺激电极的旋转方位 | |
US20130303900A1 (en) | Method and apparatus for processing of stroke ct scans | |
CN111311536A (zh) | 医学图像数据 | |
US20220361807A1 (en) | Assessment of spinal column integrity | |
US20230177681A1 (en) | Method for determining an ablation region based on deep learning | |
CN115590623B (zh) | 穿刺路径规划系统 | |
CN110910342A (zh) | 通过使用深度学习来分析骨骼创伤 | |
CN113614781A (zh) | 用于标识图像中物体的系统和方法 | |
CN113574610A (zh) | 用于成像的系统和方法 | |
CN110049715A (zh) | 用于显示患者的内脏的设备及相关联的显示方法 | |
JP2009082464A (ja) | 画像表示装置および画像表示プログラム | |
JP2023525967A (ja) | 画像分析によって病変部の再発を予測するための方法 | |
Fontanella et al. | Diffusion models for counterfactual generation and anomaly detection in brain images | |
EP3292835B1 (en) | Ent image registration | |
CN115461790A (zh) | 用于对图像中的结构进行分类的方法和装置 | |
JP2020512096A (ja) | 3次元超音波体積内の関心オブジェクトを視覚化する少なくとも1つの最終2次元画像の決定 | |
CN112750519A (zh) | 医学图像数据的匿名化 | |
JP5192751B2 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
US20230419591A1 (en) | Method and Apparatus for Evaluating Surgical Corridors in the Skull |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240111 |