CN113966204B - 为医疗介入自动规划轨迹的方法 - Google Patents

为医疗介入自动规划轨迹的方法 Download PDF

Info

Publication number
CN113966204B
CN113966204B CN202080043606.7A CN202080043606A CN113966204B CN 113966204 B CN113966204 B CN 113966204B CN 202080043606 A CN202080043606 A CN 202080043606A CN 113966204 B CN113966204 B CN 113966204B
Authority
CN
China
Prior art keywords
medical
trajectory
image
score
entry point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080043606.7A
Other languages
English (en)
Other versions
CN113966204A (zh
Inventor
B·纳胡姆
F·巴达诺
L·布隆代尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quantum Surgical
Original Assignee
Quantum Surgical
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quantum Surgical filed Critical Quantum Surgical
Publication of CN113966204A publication Critical patent/CN113966204A/zh
Application granted granted Critical
Publication of CN113966204B publication Critical patent/CN113966204B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Urology & Nephrology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)
  • Electrotherapy Devices (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本发明涉及一种用于自动规划在医疗介入期间由靶向患者(110)的目标解剖结构(130)的医疗器械(120)要遵循的轨迹的方法,所述自动规划方法包括以下步骤:-获取所述目标解剖结构的至少一个医学图像(130);-确定在预先获取的图像上的目标点(145);-根据所述目标解剖结构的医学图像,以及预先确定的目标点来生成轨迹规划参数集,所述规划参数集包括所述医学图像上的进入点的坐标。所述参数集通过使用神经网络类型的机器学习方法来生成。本发明还涉及用于实施所获取的规划参数集的引导装置(150)。

Description

为医疗介入自动规划轨迹的方法
技术领域
本发明的领域是协助规划医疗介入的领域。
更具体地,本发明涉及一种用于自动规划在医疗介入期间医疗器械要执行的轨迹的方法,以及相关联的引导装置。
本发明特别应用于医疗介入的情况,在该医疗介入期间,医疗器械被插入到目标解剖结构中,例如消融器官中的肿瘤,执行活组织检查,执行椎体成形术或骨水泥成形术,或刺激解剖区域。这种介入可任选地由医疗机器人和/或增强现实装置辅助。
现有技术
现有技术已公开的技术使得准备旨在到达患者目标解剖结构中的目标解剖区域(如肺、肾、肝、脑、胫骨、膝、椎骨等)的医疗介入成为可能。
传统上,医疗介入的规划是由操作员基于通过传统医学成像方法获得的医学图像手动执行的。
在规划期间,操作员定义目标解剖结构中的目标点和患者皮肤上接近目标解剖结构的进入点,这两个点定义了医疗介入期间所使用的医疗器械的直线轨迹。这种仪器可以是例如针、探针或电极。
操作员必须注意医疗器械将采取的轨迹,因为该轨迹必须遵守医疗介入的顺利进行所必需的许多约束。例如,重要的是,医疗器械不穿过骨骼或血管,尤其是直径大于3毫米的骨骼或血管,或者医疗器械不穿过重要器官。
为了帮助操作员根据目标点选择进入点,已经开发了规划技术,其中通过将每个相应轨迹与根据预定标准的分数相关联,一个或多个进入点作为先前定义的约束的函数自动提供给操作员。
例如,公开号为US2017/0148213A1、名称为“微创治疗的规划、导航和模拟系统和方法”的专利申请中描述了这种技术。所述专利申请中描述的方法使用常规图像处理算法来确定轨迹,其中图像被分割以便能够最小化与轨迹相关的约束。例如,在对大脑进行手术期间,通过优化几个参数来确定轨迹,如最小化受影响的纤维的数量,皮层沟的界限与目标之间的距离,由该轨迹移位的白色和/或灰色物质的体积。
然而,现有技术中的这种技术的主要缺点是,它们通常基于操作员选择的约束的最小化来创建理论模型,这通常是不完整和有缺陷的。此外,它们需要对图像进行系统分割,以便能够最佳地计算不同的可能轨迹。在某些情况下,这种分割被证明是不精确和不完整的,这可能导致医疗器械所使用的轨迹出现失误。
此外,这些技术没有考虑医疗器械(例如针)在将其端部插入患者体内时的可能变形。
最后,有经验的操作员还会定期介入,以便从图像中选择要避开的区域如血管,以及医疗器械必须经过的区域,以便确定医疗器械的最佳轨迹。
操作员的介入被证明是令人厌烦的和限制性的,因为它们需要操作员在介入类型方面的大量注意力和经验。
当前的系统中都不能同时满足所有需求,即提供一种改进的技术,用于自动规划旨在到达患者目标解剖结构中的目标的医疗介入,该技术独立于操作员,同时具有更精确和更可靠的规划。
发明内容
本发明旨在克服上述现有技术的全部或部分缺陷。
为此,本发明涉及一种用于自动规划在医疗介入期间由靶向患者目标解剖结构的医疗器械遵循的轨迹的方法,所述自动规划方法包括以下步骤:
-获取所述目标解剖结构的至少一个医学图像;
-确定在预先获取的图像上的目标点;
-根据所述目标解剖结构的医学图像,以及预先确定的目标点来生成轨迹规划参数集,所述规划参数集包括所述医学图像上的进入点的坐标。
在医疗介入之前使用的这种方法使得在医疗器械的操作期间提供指导医师或外科医生的参数集成为可能,所述医疗器械可以是针、探针、电极或能够使用连接到患者的参考点以插入到患者体内的任何其它医疗器械。该参考点通常是三维的,以便在空间中引导医疗器械。
医疗介入的目的是到达患者身体的目标解剖区域,例如为了消融器官中的肿瘤,进行活组织检查,进行椎体成形术或骨水泥成形术,或刺激解剖区域。目标解剖区域位于患者目标解剖结构内或表面处。这种目标解剖结构,例如是肺、肾、肝、胫骨、膝、脊椎或脑。
用于规划的医学图像,例如通过计算机断层扫描、磁共振成像、超声、正电子发射断层扫描或任何其他医学成像方法获得。
根据本发明,所述参数集通过实施神经网络类型的自动学习方法来生成,该方法针对所谓的医学训练图像集预先进行训练,每个医学训练图像包括与患者的目标解剖结构相似的目标解剖结构,每个医学训练图像与预先已经确定的目标点和至少一个进入点的坐标相关联。
因此,任何操作员都可以使用该规划方法,其只需要在医学图像上选择一个目标点。
应当注意的是,该规划方法基于类似医学图像的机器学习,其中每个医学图像都与一个进入点和一个目标点相关联。
类似的医学图像被理解为是指通过相同或等效的成像方法获得的图像,并且在对任何个人拍摄的医学图像中包括相同的目标解剖结构。应当注意的是,医学介入的类型、医疗器械的类型或靶向的目标解剖结构可以不同,而不影响所获得的规划参数的精度。事实上,学习使得分析新图像成为可能,以确定由操作员在患者目标解剖结构的医学图像上选择的目标点的最佳轨迹。
需要注意的是,医学训练图像通常与个体在进行医学介入期间实际使用的进入点以及器械在其插入后实际到达的目标点相关联。为了完成该医学训练图像集,可以将与操作员选择的假定进入点相关联的医学图像添加到该医学训练图像集中。
此外,有利地,自动规划方法基于非分割的医学图像的学习,也就是说,根据图像一部分中存在的组织、器官或血管的类型来表征图像的全部或部分。因此,通过所述规划方法对图像的处理更快速。
医学训练图像集通常包含在数据库或医学图像库中。
所述自动规划方法通常为至少一个可能的轨迹提供规划参数。当自动规划方法为几个可能的轨迹提供规划参数时,操作员通常手动选择对他来说最好的轨迹。应该注意的是,当轨迹满足特定于医疗介入的多个标准时,如相对于组织界面(例如皮肤,肝包膜等)的入射角,轨迹上血管、器官或骨结构的接近度等,通常认为轨迹是最佳的。
需要注意的是,自动规划方法是在任何医疗、手术或治疗动作之前实施的。
在本发明的特定实施方案中,所述机器学习方法根据获取的医学图像和在所述获取的医学图像中预先确定的目标点来确定进入点的坐标。
在本发明的特定实施方案中,所述机器学习方法首先生成分别以2D或3D获取的医学图像的每个像素或体素是进入点的概率,所述进入点的坐标对应于具有最大概率的像素或体素的坐标。
在本发明的特定实施方案中,相似医学图像集包括多个相同图像,每个相同图像与不同的进入点相关联。
因此,因为医学图像集包括医疗器械的可能的轨迹变化,改善了学习。
有利地,相似医学图像集包括多个相同图像,每个相同图像与由不同操作员选择的不同进入点相关联。
因此,所获得的规划参数更精确,因为它们对特定操作员的选择不敏感。应当注意,所获得的规划参数的精度取决于在学习阶段参与分析同一医学图像的操作员数量。
优选地,相似医学图像集包括至少三个相同的图像,每个相同的图像与由不同操作员选择的不同进入点相关联。
因此,至少三个操作员参与生成包括在学习阶段使用的医学图像集的数据库。
在本发明的特定实施方案中,将与所述目标解剖结构相关的信息与医学图像集中的每个医学图像相关联,所述信息包括所述目标解剖结构中存在的目标解剖结构或肿瘤的类型,所述机器学习方法针对仅限于与相同类型的解剖结构或肿瘤相关联的图像的多个医学图像集进行训练。
在本发明的特定实施方案中,自动规划方法还包括以下步骤:将分数分配给在所述规划参数集的进入点与在获取的图像上预先确定的目标点之间限定的轨迹。
因此,帮助操作员从自动规划方法提供的可能轨迹中选择轨迹。通常根据特定于医疗介入的标准来分配分数。
在规划参数集的进入点和在所获取的图像上预先确定的目标点之间定义的轨迹通常是直线的。然而,可以设想该轨迹是曲线的,例如基本上沿着具有最大曲率半径的圆的弧,以便考虑该医疗器械的刚性。通常,曲线轨迹是凹的或凸的。换言之,曲线轨迹的导数通常在进入点和目标点之间通常具有恒定符号,负或正。
优选地,轨迹分数的分配为以下标准中至少一个的函数:
-血管的接近度;
-器官的接近度;
-骨骼结构的接近度;
-相对于组织界面的入射角;
-轨迹的长度;
-轨迹穿过的组织的脆弱性。
在本发明的特定实施方案中,轨迹分数的分配考虑了医疗器械在与组织界面接触时变形的概率。
在医疗器械具有柔性部分时通常发生这种变形,即在与组织界面接触时能够变形,例如在医疗器械插入并穿过患者皮肤期间。
在本发明的特定实施方案中,轨迹分数的分配考虑了和与所述规划轨迹相似的轨迹相关联的复发率或恢复时间。
因此,如果规划轨迹导致患者的复发率或恢复时间太大或太长,则分配给所述轨迹的分数受到负面影响。
在本发明的特定实施方案中,所述自动规划方法还包括将分配给所述轨迹的分数与阈值分数进行比较的步骤,当轨迹分数大于或等于所述阈值分数时,所述轨迹被验证。
在本发明的特定实施方案中,所述自动规划方法还包括当分配给所述轨迹的分数低于阈值分数时修改进入点的步骤。
在本发明的特定实施方案中,所述获取的医学图像是二维或三维的。
在本发明的特定实施方案中,所述医学图像通过磁共振、超声、计算机断层扫描或正电子发射断层扫描来获取。
本发明还涉及一种医疗器械的引导装置,包括用于根据规划参数集来引导医疗器械的器具,所述规划参数集是通过根据前述实施方案中任一个所述的自动规划方法获得的。
所述引导装置为机器人引导装置、与机器人装置相关联或不相关联的导航系统、增强现实装置、患者特异性引导装置或患者解剖结构的三维模型。
应当注意的是,所述医疗器械的引导装置使得伴随执行医疗介入的从业者成为可能。
附图说明
本发明的其他优点、目的和具体特征将从以下参照附图对作为本发明主题的装置和方法的至少一个具体实施方案的非限制性描述中显现,其中:
图1是医疗介入的示意图,在该医疗介入期间,根据由本发明的自动规划方法建立的参数集来引导医疗器械;
图2是根据本发明特定实施方案的自动规划方法的框图;
图3是在图2的规划方法的第一步骤期间获取的医学图像的实例;
图4是在由图2的方法实现的神经网络的训练期间使用的医学图像的实例;
图5是由图2的方法实现的神经网络的训练阶段的示意图;
图6是由图2的方法实现并根据图5的训练阶段训练的神经网络的发展的示意图;
图7是由图2的方法实现并且根据替代性训练阶段训练的神经网络的发展示意图,
图8示出了同一患者的两个医学图像,一个插入有医疗器械,另一个对应于没有医疗器械的同一视图,在学习被配置为定义医疗器械的曲线轨迹的神经网络时使用所述图像。
发明详述
该描述没有限制地给出,实施方案的每个特征能够以有利的方式与任何其它实施方案的任何其它特征组合。
这里应当注意,附图不是按比例绘制的。
具体实施方案的实例
图1是医疗介入的示意图,在该医疗介入期间,借助于医疗器械120来治疗躺在工作台115上的患者110。在本发明的当前非限制性实例中,医疗介入对应于通过医疗器械120来消融目标解剖结构130中的肿瘤,目标解剖结构130在此处为患者110的肝脏,在这种情况下医疗器械120为半刚性针。这里的医疗介入是经皮手术,在该手术中患者110的身体没有开刀。此外,可以根据不同的治疗参数来进行医疗介入。这样的治疗参数例如是消融治疗的持续时间和功率、在通过电穿孔治疗的情况下施加的电压、或在通过射频治疗的情况下施加的频率。应当注意,本实例是以说明的方式给出的,并且本领域技术人员可以使用针对患者的目标解剖结构的任何医疗器械来针对任何类型的医疗介入实施以下描述的本发明。
在本实例中,借助于预先建立的规划参数集,有利地,由装置150沿着直线路径引导医疗器械120,所述规划参数集包括患者110的皮肤水平处的进入点140的坐标,或者甚至包括在与患者110相关联的三维参考系中遵循的角度,以便瞄准预先确定的目标点145。通过根据本发明的自动规划方法200来建立规划参数集,如图2中以框图的形式所示。
用于自动规划在医疗介入期间医疗器械120要遵循的轨迹的方法200,包括获取患者110的目标解剖结构130的至少一个医学图像的第一步骤210。
通常在医疗介入之前,使用专用于医疗成像的设备来获取医学图像,如磁共振成像(MRI)装置、CT扫描仪、光谱扫描仪或超声装置。
图3示出了通过计算机断层扫描获取的医学图像300的一个实例,该图像示出了对应于患者110的目标解剖130的模型(通常称为体模)。医学图像300对应于根据基本上垂直于患者110的脊柱轴线的平面的患者110的截面图。除了目标解剖结构130外,医学图像300还特别地揭示了脊柱的椎骨310和六根肋骨320。
在预先获取的医学图像300中,在自动规划方法200的第二步骤220期间,由操作员手动或者通过图像分析自动地确定目标点145。
目标点145与医学图像300中的坐标相关联。这些坐标是二维或三维的,取决于所获取的医学图像的类型。在二维医学图像300的情况下,目标点145基本上对应于图像的一个像素。在三维医学图像300的情况下,目标点145基本上对应于图像的一个体素。
为了从医学图像300和从目标点145确定用于规划医疗器械120要遵循的轨迹的参数集的进入点坐标,在自动规划方法200的第三步骤230期间加载机器学习算法,这里为神经网络类型。
在学习阶段290期间,神经网络已经针对医学训练图像集预先进行了训练,每个医学训练图像包括与目标解剖结构130相似的目标解剖结构。所述医学训练图像通常是针对一组个体获得的,每个医学训练图像与目标点和进入点的坐标相关联,这些目标点和进入点的坐标通常由至少一个操作员预先确定。
有利地,医学训练图像集包括多次相同的医学图像,但是与通常由至少三个操作员确定的不同进入点相关联。
图4示出了每次包括相同目标点420的相同医学图像400的实例。该医学图像400在医学训练图像集中,包括九次,已经由三个独立的操作员01、02和03处理,每个操作员提供三个进入点,分别是41001、41002和41003
有利地,神经网络的训练可以限于与给定信息项相关联的图像,如目标解剖结构的类型或目标解剖结构中存在的肿瘤类型,以便通过降低神经网络获取的规划参数集的可变性来增加一致性。
应当注意,训练神经网络可能存在硬件限制,尤其是当医学训练图像集包括目标解剖结构的三维图像时。为了克服这些硬件限制,可以降低每个医学图像的分辨率,但存在降低神经网络获得的参数精度的风险。还可以将训练限制在平行于预定平面的轨迹,如垂直于患者脊柱轴线的平面。克服硬件限制的另一种解决方案是使用通常称为张量处理器单元的芯片,这些芯片专用于机器学习。
如图5中更详细示出的,训练神经网络的阶段290通常包括两个可以重复的主要步骤510、520,并且需要包含医学图像集的数据库501,其中每个图像与一个进入点和一个目标点相关联。任选地,关于用于执行介入的器械特性的信息,如器械的长度或器械的刚度系数,也与数据库501的每个医学图像相关联。在训练阶段290之后,可以实施可能的测试阶段550。
医学图像的数据库501被分成包括不同医学图像的三个数据库502、503、504。三个数据库502、503、504分别称为训练数据库、验证数据库和测试数据库。
在本发明的当前非限制性实例中,数据库501的60-98%的医学图像在训练数据库502中被分为一组、数据库501的1至20%的医学图像在验证库503中被分为一组、以及数据库501的1-20%的医学图像在测试数据库504被分为一组。这里通过指示给出了百分比,通常是数据库501中图像数量的函数。
在训练阶段的第一步骤510期间,训练数据库502的医学图像515用于确定神经网络530的每个神经元的权重W和偏差b,所述权重W和偏差b用于获取轨迹规划参数集的进入点的坐标。
为了确定每个神经元的权重W和偏差b,根据两个变量将训练数据库502的每个医学图像515推荐给神经网络530,第一变量5151仅包括目标点ce,第二变量5152包括目标点ce和预定的进入点p。根据所述医学图像的所述第一变量5151,神经网络530然后对进入点p'的位置进行预测535。将预测的进入点p'的坐标和与医学图像的第二变量5152相关联的预定的进入点p的位置坐标进行比较。预测的进入点p'的坐标和预定的进入点p的坐标之间的误差,被用于调整神经网络530的每个神经元的参数W和b。在训练阶段的第一步骤510结束时,获得模型518。
在训练阶段的第二步骤520期间,有利地,不同于医学图像515,该验证数据库503的所述医学图像525被用于验证神经网络530的每个神经元的权重W和偏差b。
在训练阶段290的第二步骤520期间,仅包括目标点cv的位置的每个医学图像的变量5251被推荐给神经网络530。然后神经网络530对进入点d'的位置进行预测536。将预测的进入点d'的坐标和与用于验证的医学图像525相关联的预定的进入点d的位置坐标进行比较。然后使用预测的进入点d'和预定的进入点d的坐标之间的误差,来验证在第一步骤510中确定的神经网络530的每个神经元的参数W和b。
在该第二步骤520结束时神经网络的预测误差太大的情况下,通过重新使用相同的医学训练图像515和验证图像525,根据先前描述的训练阶段290的两个步骤510和520重新训练神经网络530。
或者,在神经网络530的重新训练期间,第一步骤510使用全部或部分验证图像525。重新训练神经网络的第二步骤520,使用与用于重新训练的第一步骤510的验证图像525相同数量的训练图像515。
应该注意的是,神经网络530可以被多次重新训练以减少预测误差。
当训练阶段290的两个步骤510、520被执行至少一次时,可以在可能的测试阶段550期间,利用测试数据库504的医学图像555来测试神经网络的最终性能。有利地,区别于图像515和525,这些医学图像555使得有可能验证为每个神经元配置参数W和b的神经网络530,使得在神经网络530有可能在面对所有情况下以良好的精度预测进入点的坐标。因此,将神经网络530预测的进入点f'的坐标与所谓的测试医学图像555中的预定的进入点f的坐标进行比较。该比较与在训练阶段的第二步骤520期间执行的比较相同。然而,与步骤520相反,该测试阶段550不会导致神经网络530的新训练周期。如果在步骤550结束时神经网络530的性能不好,则训练阶段290用新的未经训练的神经网络重新开始。
应当注意,通常仔细选择在测试阶段550中使用的图像555,以覆盖目标解剖结构中目标点ct的不同位置,以便最佳地测试训练网络530的预测能力。
在替代性训练阶段,可以训练神经网络为医学图像的每个像素或体素提供实际对应于进入点的概率。用于该替代性训练的医学图像集,可以与先前使用的医学图像集相同。然而,对于该替代性训练,优选使用在同一图像上具有多个进入点的医学图像。有利地,显示在同一图像上的进入点由至少三个不同的操作员确定。类似于上述训练阶段,神经网络的替代性训练分三个步骤进行。
先前训练的神经网络,使得可以在自动规划方法200的第四步骤240期间,基于分析确定用于规划医疗器械120要遵循的轨迹的至少一个参数集。
在根据训练阶段290训练神经网络的情况下,根据医学图像I和根据目标点T的坐标,神经网络530提供所获取的医学图像中进入点的三维坐标(x,y,z),如图6所示。
在根据替代性训练阶段来训练神经网络的情况下,根据医学图像I和目标点T的坐标,神经网络530提供医学图像的每个像素或体素是进入点的概率,如图7所示。然后选择具有最高概率的像素或体素作为进入点。
图2中所示的自动规划方法200,包括当通过由神经网络生成的规划参数集确定轨迹时实施的第五步骤250。在该第五步骤250期间,将分数分配给由连接进入点和目标点的直线限定的轨迹。
例如,分配给轨迹的分数在0到100之间,100的分数对应于理想轨迹的分数。
在本发明的这个特定实施方案的变体中,轨迹是曲线的,例如通过计算在先前分割的所获取的医学图像上最可能的轨迹,或通过具有先前学习了在早期医学介入期间由相似或相同的医疗器械遵循的轨迹的神经网络,特别是在刚度和长度方面。该参数集然后包括附加参数,使得可以定义在进入点和目标点之间的预测的轨迹。
通过本发明的这些替代性实施方案的说明,图8示出了具有或不具有医疗器械840的患者830的两个医学图像810、820。通过在两个医学图像810和820之间产生差异,可以确定医疗器械8840实际采用的轨迹。该轨迹还可以通过执行在医疗图像810中的医疗器械840的识别来确定,例如通过检测医学图像810的像素/体素中强度或对比度的强度变化来确定,以便在医学图像810中为医疗器械840规划路线。
通常基于按重要性排序的标准来确定轨迹分数。应当注意,下面描述的标准的实例不是限制性的,并且可以使用特定于给定医疗介入的其他标准来确定轨迹分数。
例如,可以将轨迹分数计算为轨迹与血管的接近度的函数。这是因为当医疗器械的轨迹可能穿过血管时,存在发生出血的风险。因此,轨迹上存在的血管数量越多,分配给轨迹的分数越低。
应该注意的是,在本次分数的评估中,可以考虑血管的尺寸。例如,如果直径大于或等于3mm的血管位于或靠近神经网络计算出的轨迹,则自动从分数中扣除分数点,例如从0到100的标度上的50个点,因为这些血管对患者可能至关重要。当穿过的血管被证明为腔静脉、门静脉或主动脉时,分数自动等于0,尤其是当从肝脏中移除肿瘤时的这种情况。
还可以根据轨迹与器官和/或骨骼结构的接近度来计算轨迹分数。
事实上,对于某些介入,例如在软组织上,轨迹上不能有骨骼结构。如果有,则分配给轨迹的分数为零。
对于其他介入,如在膝盖或肩部等骨骼结构上的介入,穿过骨骼结构不会对分配的分数产生负面影响。更准确地说,如果轨迹穿过预定的骨骼结构,则可以增加分配的分数。
对于器官,当处于危险中的器官(如肺、肠或肌肉)至少位于轨迹附近时,轨迹分数通常降低。当目标解剖结构的神经、胆管、韧带、肌腱或邻近器官至少位于轨迹附近时,情况也是如此。
还可以根据轨迹与进入点处的组织界面的入射角来计算轨迹分数。
例如,在沿着与组织界面(如皮肤或肝包膜)相切的轨迹插入半刚性针的情况下,存在针弯曲并且不遵循规划的轨迹的风险。轨迹和组织界面之间的角度越小,轨迹分数越低。该标准可以通过最佳轨迹对应于组织界面和轨迹之间的大于20°的角度的事实来反映。
也可以根据轨迹与骨骼结构的入射角计算轨迹分数。
例如,在对骨骼结构进行介入的情况下,当医疗器械与骨骼相切地插入时,存在医疗器械在骨骼上滑动的风险。然后,该标准通过轨迹和骨骼结构之间的角度越大则轨迹分数越低的事实来反映。
还可以根据轨迹的长度来计算轨迹分数,以便最小化轨迹的长度和引起患者身体损伤的固有风险。
还可以根据通过组织的脆弱性来计算轨迹分数。
例如,在对患者大脑进行介入的特定情况下,如果规划的轨迹穿过脆弱组织,则可以降低轨迹分数。
在插入半刚性针的情况下,也可以根据在插入期间所述针的变形概率来计算分数。使用所用针类型的信息(如针的长度、刚度系数或斜面的形状),结合预先确定的信息(即通过的组织的类型、入射角和/或轨迹的长度)来计算该概率。
应当注意,为了计算轨迹分数,可以预先分割所获取的医学图像,以便识别所获取的图像中存在的不同类型的要素,例如组织、血管、骨骼结构等,并且位于或靠近在预测的进入点和预定的目标点之间限定的轨迹。所获取图像的这种分割,仅在生成了医疗器械的轨迹时使用,而不在由神经网络生成所述轨迹期间使用。
根据特定于医疗介入的标准获得的轨迹分数,可以通过复发率和/或恢复时间的函数来加权。
关于复发率,当由神经网络规划的轨迹类似于先前在使用相同医疗器械进行医疗介入期间使用相同治疗参数的轨迹时,获得的分数降低,则对于经历这些医疗介入的个体的复发率是值得关注的。
同样地,关于恢复时间,当经历了具有与规划的轨迹相似的轨迹的医疗介入的个体先前观察到的恢复时间较长(例如大于三天)时,所获得的分数降低。
然后在自动规划方法200的第六步骤260期间,将分配给规划的轨迹的分数与阈值分数进行比较。
例如,在0到100的范围内,只有当所分配的分数大于或等于50时,规划的轨迹才可以被验证。优选地,如果规划轨迹的分数大于或等于70,则该规划的轨迹被验证。
在分配给轨迹的分数小于阈值分数的情况下,操作员可以选择在自动规划方法200的可能的第七步骤270期间,手动修改进入点。例如,通过图形界面进行修改,直到修改后的轨迹分数大于阈值分数。
或者,可以使用梯度算法、图形算法或任何其他优化算法(动量、Nesterov动量、AdaGrad、RMSProp、Adam等),自动修改轨迹。
最后,当神经网络提供的轨迹的分数(可能被修改)大于或等于阈值分数时,在自动规划方法200的第八步骤280期间验证轨迹。
然后,可以在医疗介入期间使用经验证的轨迹,以便以非常好的精度和医疗介入良好的最佳时机,来引导医疗器械120插入到患者110的目标解剖结构130中。
应当注意,用于引导的参考系通常对应于患者110所躺的工作台115。有利地,目标点的坐标被传送到引导参考系,在引导参考系中患者110的特征点已经预先校准。这种引导参考系的传送和校准操作是常规的。
然后,引导装置150可用于通过遵循经验证的轨迹的规划参数集来引导医疗器械120。
引导装置150可以是机器人、与机器人设备相关联或不相关联的导航系统、增强现实装置、患者特异性引导装置110或患者110解剖结构的三维模型。
增强现实装置可以是例如一副眼镜,其中规划的轨迹被投影到该副眼镜的至少一个镜片上。增强现实装置还可以是放置在患者110附近的屏幕,该屏幕显示规划的轨迹。增强现实装置还可以包括将规划轨迹投影到患者110身体上的投影仪,或者可以是全息设备。
引导装置可以包括光学导航器具,电磁导航器具或具有加速度和旋转传感器的惯性单元。
经验证的轨迹的规划参数集可用于构建患者特异性引导装置110。这种特定的引导装置通常用于医疗介入情况,例如对骨骼结构的开刀手术。应注意的是,患者特异性引导装置为个性化的一次性医疗器械,通常为3D打印的。患者特异性引导装置有助于预防手术过程中的不准确性,以便按计划进行介入。特异性引导装置通常与对应于目标解剖结构的骨骼结构的形状匹配,并且可以根据规划的轨迹的取向来引导医疗器械的插入。
在一些医疗介入的情况下,构建患者110的解剖结构的三维模型(通常称为体模),以便允许在医疗介入之前进行训练。有利地,患者110的解剖结构的三维模型因此可以包括如在通过自动规划方法200获得的轨迹的规划参数集中定义的医疗器械的进入点的指示。
通过自动规划方法200获得的结果,还可以用于向同事(例如,内科医生、外科医生或放射科医生),或者甚至向要经历医疗介入的患者110呈现医疗介入。这些结果还可以用于在医疗介入中训练同事。

Claims (14)

1.一种用于自动规划在医疗介入期间由靶向患者(110)的目标解剖结构(130)的医疗器械(120)遵循的轨迹的方法(200),所述自动规划方法包括以下步骤:
-获取(210)所述目标解剖结构的至少一个医学图像(300);
-确定(220)在预先获取的图像(300)上的目标点(145);
-根据所述目标解剖结构的医学图像,以及预先确定的目标点来生成(240)轨迹规划参数集,所述规划参数集包括所述医学图像(300)上的进入点(140)的坐标;
其特征在于,所述参数集通过使用神经网络类型(530)的机器学习方法来生成,所述机器学习方法针对所谓的医学训练图像集预先进行训练,每个医学训练图像包括与患者(110)的目标解剖结构(130)相似的目标解剖结构,每个医学训练图像与预先已经确定的目标点和至少一个进入点的坐标相关联,其中所述机器学习方法首先生成分别以2D或3D获取的医学图像的每个像素或体素是进入点的概率,所述进入点的坐标对应于具有最大概率的像素或体素的坐标。
2.如权利要求1所述的自动规划方法,其中所述机器学习方法根据获取的医学图像和预先在所述获取的医学图像中确定的目标点来确定进入点的坐标。
3.如权利要求1或2所述的自动规划方法,其中相似医学图像集包括多个相同图像,每个相同图像与不同的进入点相关联。
4.如权利要求1或2所述的自动规划方法,其中相似医学图像集包括多个相同图像,每个相同图像与由不同操作者选择的不同进入点相关联。
5.如权利要求1或2所述的自动规划方法,其中将与所述目标解剖结构相关的信息与医学图像集中的每个医学图像相关联,所述信息包括所述目标解剖结构中存在的目标解剖结构或肿瘤的类型,所述机器学习方法针对仅限于与相同类型的解剖结构或肿瘤相关联的图像的多个医学图像集进行训练。
6.如权利要求1或2所述的自动规划方法,还包括以下步骤:将分数分配给在所述规划参数集的进入点与在获取的图像上预先确定的目标点之间限定的轨迹。
7.如权利要求6所述的自动规划方法,其中对所述获取的图像进行映射,轨迹分数的分配为以下标准中至少一个的函数:
-血管的接近度;
-器官的接近度;
-骨骼结构的接近度;
-相对于组织界面的入射角;
-轨迹的长度;
-轨迹穿过的组织的脆弱性。
8.如权利要求7所述的自动规划方法,其中轨迹分数的分配考虑了医疗器械在与组织界面接触时变形的概率。
9.如权利要求7所述的自动规划方法,其中轨迹分数的分配考虑了和与所述规划轨迹相似的轨迹相关联的复发率。
10.如权利要求7所述的自动规划方法,其中轨迹分数的分配考虑了和与所述规划轨迹相似的轨迹相关联的恢复时间。
11.如权利要求7所述的自动规划方法,还包括将分配给所述轨迹的分数与阈值分数进行比较的步骤,当轨迹分数大于或等于所述阈值分数时,所述轨迹被验证。
12.如权利要求7所述的自动规划方法,还包括当分配给所述轨迹的分数低于阈值分数时修改进入点的步骤。
13.一种医疗器械的引导装置,包括用于通过如权利要求1-12中任一项所述的自动规划方法获得的规划参数集来引导医疗器械的器具。
14.如权利要求13所述的引导装置,所述引导装置为机器人引导装置、与机器人装置相关联或不相关联的导航系统、增强现实装置、患者特异性引导装置或患者解剖结构的三维模型。
CN202080043606.7A 2019-12-18 2020-12-17 为医疗介入自动规划轨迹的方法 Active CN113966204B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FRFR1914780 2019-12-18
FR1914780A FR3104934B1 (fr) 2019-12-18 2019-12-18 Méthode de planification automatique d’une trajectoire pour une intervention médicale
PCT/FR2020/052513 WO2021123651A1 (fr) 2019-12-18 2020-12-17 Méthode de planification automatique d'une trajectoire pour une intervention médicale

Publications (2)

Publication Number Publication Date
CN113966204A CN113966204A (zh) 2022-01-21
CN113966204B true CN113966204B (zh) 2024-03-29

Family

ID=70613945

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080043606.7A Active CN113966204B (zh) 2019-12-18 2020-12-17 为医疗介入自动规划轨迹的方法

Country Status (10)

Country Link
US (1) US20230008386A1 (zh)
EP (1) EP4078464B1 (zh)
JP (1) JP2023506353A (zh)
KR (1) KR20220117209A (zh)
CN (1) CN113966204B (zh)
CA (1) CA3153174A1 (zh)
ES (1) ES2972216T3 (zh)
FR (1) FR3104934B1 (zh)
IL (1) IL293534A (zh)
WO (1) WO2021123651A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI790572B (zh) * 2021-03-19 2023-01-21 宏碁智醫股份有限公司 影像相關的檢測方法及檢測裝置
FR3129282A1 (fr) * 2021-11-25 2023-05-26 Vital Technics Sas Dispositif de guidage d’au moins un dispositif médical dans un canal d’un individu
CN114757995B (zh) * 2022-06-16 2022-09-16 山东纬横数据科技有限公司 一种基于数据识别的医疗器械可视化仿真方法
NL2032742B1 (en) * 2022-08-12 2023-04-06 Univ Lishui A surgical navigation system based on artificial intelligence and graph theory algorithm
FR3141609A1 (fr) * 2022-11-04 2024-05-10 Joseph Ahmad Bihes KARKAZAN Méthode pour la génération d’un point de penetration du corps d’un sujet et dispositif associé
FR3143314A1 (fr) * 2022-12-16 2024-06-21 Quantum Surgical Dispositif d’assistance à la planification d’une intervention mini-invasive
FR3143313A1 (fr) * 2022-12-16 2024-06-21 Quantum Surgical Dispositif d’assistance à la planification d’une intervention mini-invasive sur un os
CN117653332B (zh) * 2024-02-01 2024-04-12 四川省肿瘤医院 一种影像导航策略的确定方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102271599A (zh) * 2008-12-29 2011-12-07 皇家飞利浦电子股份有限公司 关于曲率交互作用、多个曲率半径和自适应邻域的规划
WO2012092511A2 (en) * 2010-12-29 2012-07-05 The Ohio State University Automated trajectory planning for stereotactic procedures
CN103327925A (zh) * 2011-01-20 2013-09-25 皇家飞利浦电子股份有限公司 用于确定组织中的对象的移动的至少一个适用路径的方法
CN105992996A (zh) * 2014-04-04 2016-10-05 外科手术室公司 外科手术环境中的动态和交互式导航
CN106062822A (zh) * 2014-03-04 2016-10-26 赞克特机器人有限公司 用于针插入的动态规划方法
CN108765417A (zh) * 2018-06-15 2018-11-06 西安邮电大学 一种基于深度学习和数字重建放射影像的股骨x线片生成系统及方法
WO2018223925A1 (en) * 2017-06-04 2018-12-13 Chen Chieh Hsiao Method and system of determining one or more points on operation pathway
CN109961449A (zh) * 2019-04-15 2019-07-02 上海电气集团股份有限公司 图像分割的方法与设备、三维图像的重建方法与系统
CN110573105A (zh) * 2017-11-09 2019-12-13 康坦手术股份有限公司 用于对软组织进行微创医疗干预的机器人装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8538776B2 (en) * 2006-10-25 2013-09-17 Bruce Reiner Method and apparatus of providing a radiation scorecard
CN102781356A (zh) * 2009-12-30 2012-11-14 皇家飞利浦电子股份有限公司 动态消融装置
US8532352B2 (en) * 2010-10-06 2013-09-10 Siemens Aktiengesellschaft Method and system for intraoperative guidance using physiological image fusion
US9282908B2 (en) * 2013-01-16 2016-03-15 University Of Vermont Methods and systems for optimizing lesion placement to minimize and treat cardiac fibrillation
WO2014139024A1 (en) 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Planning, navigation and simulation systems and methods for minimally invasive therapy
US10340041B2 (en) * 2014-05-09 2019-07-02 Acupath Laboratories, Inc. Biopsy mapping tools
US10339268B2 (en) * 2014-12-30 2019-07-02 Covidien Lp System and method for cytopathological and genetic data based treatment protocol identification and tracking
US11026750B2 (en) * 2015-01-23 2021-06-08 Queen's University At Kingston Real-time surgical navigation
EP3258870A1 (en) * 2015-02-17 2017-12-27 Koninklijke Philips N.V. Device and method for assisting in tissue ablation
EP3533063A1 (en) * 2016-10-27 2019-09-04 Progenics Pharmaceuticals, Inc. Network for medical image analysis, decision support system, and related graphical user interface (gui) applications
US11908584B2 (en) * 2017-05-15 2024-02-20 Ne Scientific, Llc Methods and systems for modeling a necrotized tissue volume in an ablation procedure
US11278413B1 (en) * 2018-02-06 2022-03-22 Philipp K. Lang Devices, systems, techniques and methods for determining the fit, size and/or shape of orthopedic implants using computer systems, artificial neural networks and artificial intelligence
US10517681B2 (en) * 2018-02-27 2019-12-31 NavLab, Inc. Artificial intelligence guidance system for robotic surgery
US20190307516A1 (en) * 2018-04-06 2019-10-10 Medtronic, Inc. Image-based navigation system and method of using same
EP3833291A4 (en) * 2018-08-08 2022-04-20 Ceevra, Inc. SYSTEM AND PROCEDURE FOR IDENTIFICATION OF COMPARABLE CASES IN PREOPERATIVE SURGICAL PLANNING
US11109822B2 (en) * 2018-08-20 2021-09-07 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd Method of needle localization via partial computerized tomographic scanning and system thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102271599A (zh) * 2008-12-29 2011-12-07 皇家飞利浦电子股份有限公司 关于曲率交互作用、多个曲率半径和自适应邻域的规划
WO2012092511A2 (en) * 2010-12-29 2012-07-05 The Ohio State University Automated trajectory planning for stereotactic procedures
CN103327925A (zh) * 2011-01-20 2013-09-25 皇家飞利浦电子股份有限公司 用于确定组织中的对象的移动的至少一个适用路径的方法
CN106062822A (zh) * 2014-03-04 2016-10-26 赞克特机器人有限公司 用于针插入的动态规划方法
CN105992996A (zh) * 2014-04-04 2016-10-05 外科手术室公司 外科手术环境中的动态和交互式导航
WO2018223925A1 (en) * 2017-06-04 2018-12-13 Chen Chieh Hsiao Method and system of determining one or more points on operation pathway
CN110573105A (zh) * 2017-11-09 2019-12-13 康坦手术股份有限公司 用于对软组织进行微创医疗干预的机器人装置
CN108765417A (zh) * 2018-06-15 2018-11-06 西安邮电大学 一种基于深度学习和数字重建放射影像的股骨x线片生成系统及方法
CN109961449A (zh) * 2019-04-15 2019-07-02 上海电气集团股份有限公司 图像分割的方法与设备、三维图像的重建方法与系统

Also Published As

Publication number Publication date
ES2972216T3 (es) 2024-06-11
US20230008386A1 (en) 2023-01-12
CA3153174A1 (fr) 2021-06-24
EP4078464A1 (fr) 2022-10-26
CN113966204A (zh) 2022-01-21
WO2021123651A1 (fr) 2021-06-24
IL293534A (en) 2022-08-01
FR3104934B1 (fr) 2023-04-07
JP2023506353A (ja) 2023-02-16
KR20220117209A (ko) 2022-08-23
EP4078464B1 (fr) 2023-12-27
FR3104934A1 (fr) 2021-06-25

Similar Documents

Publication Publication Date Title
CN113966204B (zh) 为医疗介入自动规划轨迹的方法
EP3608870A1 (en) Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
US11848092B2 (en) Radiotherapy feedback device
EP3461296B1 (en) Multi image fusion based positioning verification
EP3589355B1 (en) Optimal deep brain stimulation electrode selection and placement on the basis of stimulation field modelling
US8152816B2 (en) Computer-assisted planning method for correcting changes in the shape of joint bones
US20160331463A1 (en) Method for generating a 3d reference computer model of at least one anatomical structure
JP2019508072A (ja) 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法
EP3416561B1 (en) Determination of dynamic drrs
EP3468668B1 (en) Soft tissue tracking using physiologic volume rendering
Morooka et al. A survey on statistical modeling and machine learning approaches to computer assisted medical intervention: Intraoperative anatomy modeling and optimization of interventional procedures
CN113994380A (zh) 基于深度学习的消融区域确定方法
WO2021168081A2 (en) Computerized prediction of humeral prosthesis for shoulder surgery
WO2020043291A1 (en) Automated pre-operative assessment of implant placement in human bone
WO2023179876A1 (en) System configured to aid in training a patient's breathing in preparation for a radiotherapy treatment
CN113993475A (zh) 通过图像分析来预测病变复发的方法
Ertan et al. Assessment of the Reproducibility of Deep Inspiration Breath Hold Technique During Left-Sided Breast Cancer Radiotherapy
US11430203B2 (en) Computer-implemented method for registering low dimensional images with a high dimensional image, a method for training an aritificial neural network useful in finding landmarks in low dimensional images, a computer program and a system for registering low dimensional images with a high dimensional image
CN117455873A (zh) 脊柱椎体定位识别方法、装置、设备及存储介质
KR20240067034A (ko) 기계적으로 획득된 조직 표면 데이터에 기초하여 표면 정합을 결정하기 위한 기술

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant