CN110072467B - 提供引导手术的图像的系统 - Google Patents

提供引导手术的图像的系统 Download PDF

Info

Publication number
CN110072467B
CN110072467B CN201780077675.8A CN201780077675A CN110072467B CN 110072467 B CN110072467 B CN 110072467B CN 201780077675 A CN201780077675 A CN 201780077675A CN 110072467 B CN110072467 B CN 110072467B
Authority
CN
China
Prior art keywords
interest
region
marker
ultrasound
visualization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780077675.8A
Other languages
English (en)
Other versions
CN110072467A (zh
Inventor
B·H·W·亨德里克斯
D·巴比克
J·W·施普利特霍夫
T·M·比德隆
G·A·托波雷克
A·波波维奇
C·赖克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Priority claimed from PCT/EP2017/083253 external-priority patent/WO2018109227A1/en
Publication of CN110072467A publication Critical patent/CN110072467A/zh
Application granted granted Critical
Publication of CN110072467B publication Critical patent/CN110072467B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound

Abstract

系统总体上可以包括跟踪设备、超声设备和处理单元。所述超声设备的位置和取向可以是能够由所述跟踪设备进行跟踪的。所述处理单元可以被配置为(i)接收与标记相关的感兴趣区域的3D信息,其中,所述感兴趣区域和所述标记二者都位于身体内,(ii)基于包括所述标记的所述身体的超声图像来确定所述标记相对于所述超声设备的位置,以及(iii)确定所述超声设备相对于所述跟踪设备的所述位置和取向。所述系统还可以包括可视化设备,并且所述处理单元还可以被配置为生成与所述身体的外表面相关的所述感兴趣区域的可视化。

Description

提供引导手术的图像的系统
技术领域
本发明总体上涉及在手术中对医生进行辅助和引导的方面。具体地,本发明涉及一种提供可视化的系统,所述可视化可以帮助医生进行手术介入。
背景技术
例如,由于乳房肿瘤的领先的发病率和普遍性,手术切除乳房肿瘤(例如乳房肿瘤切除术)是具有显著的速率增加的最常进行的手术切除术之一。乳房手术的临床目标是完全去除肿瘤组织而留下局部阳性边缘。留下的肿瘤组织的任何痕迹都可能导致肿瘤复发和后续的补救手术。放射治疗是另一种处置选择,其中留下的小的显微部分通过电离辐射进行处置。
用于乳房肿瘤切除术的典型工作流程开始于检查2D图像以制定切除计划。在不可触及的肿瘤的情况下或者当患者用新辅助化疗进行处置时,将标记置于肿瘤中以在手术期间进行引导。在手术期间,注射蓝色染料以定位附近的淋巴结,针对肿瘤细胞的存在检查所述附近的淋巴结。切除乳房肿瘤并在视觉上检查切除是否完成。切除是否完成的黄金标准是病理分析,这通常需要2天。
即使采集了各种术前数据集(乳房摄影、CT、MR、US),除了基于诊断扫描的心理映射和暴露于外科医生眼睛的解剖结构外,在执行手术肿瘤切除时,外科医生没有来自成像数据的参考。一旦患者在手术室中,成像的可能性是有限的,而可用的术前解剖学成像通常仍然未采用。在手术期间,外科医生必须依靠视觉和触觉反馈,并且通常很难限定肿瘤边缘。缺乏所需的实时反馈导致很大比例的阳性边缘,其需要在后期的额外手术。
发明内容
本发明要克服的问题是提供与手术仪器相关的肿瘤边缘的可视化。
超声图像引导用于在活检过程期间以高精度引导例如活检针朝向身体中的可疑病变。由于例如乳房的高可变形性和肿瘤边界的有限可见性,在肿瘤切除期间应用相同的手持式超声引导要困难得多。因此,很难确定诸如手术刀的切除工具相对于肿瘤边界的位置。
本发明的其他目的可以在于提供一种降低对于阳性肿瘤边缘风险的系统。通过每个独立权利要求的主题解决这些和其他目的。在从属权利要求中相应地描述了其他实施例。
总体上,提出一种系统,其包括能够跟踪仪器的跟踪设备、能够进行成像并因此跟踪身体组织中的标记的超声成像系统以及处理单元,其中,超声成像系统可以由跟踪设备进行跟踪。任选地,手术仪器也能够由跟踪设备进行跟踪。
在范例中,所述处理单元能够基于已经放置在待切除的组织中的标记的位置,将超声图像叠加在待切除的组织的术前图像上,其中,术前图像包括标记以及肿瘤边界的位置。
具体地,所述系统的所述处理单元能够基于超声系统相对于跟踪设备的位置以及超声图像中可见的标记的位置来计算标记相对于跟踪设备的位置。基于这种计算,可以向医生呈现术前图像的叠加,该图像示出例如相对于手术仪器的肿瘤边界。
根据实施例,所述系统可以总体上包括跟踪设备、超声设备和处理单元。超声设备的位置和取向可以能够由跟踪设备进行跟踪。处理单元可以被配置为(i)接收与标记相关的感兴趣区域的3D信息,其中,感兴趣区域和标记二者都位于身体内,(ii)基于包括标记的身体的超声图像来确定标记相对于超声设备的位置,以及(iii)确定标记相对于跟踪设备的位置和取向。
应当理解,标记在由超声设备生成的超声图像中是可见的,因此允许根据标记相对于超声设备的位置和超声设备本身的跟踪位置和取向来确定标记相对于跟踪设备的位置和取向。
根据实施例,所述系统还可以包括可视化设备,并且处理单元还可以被配置为生成与身体的外表面相关的感兴趣区域的可视化。
根据实施例,所述系统的可视化设备包括投影单元,所述投影单元适于将所生成的可视化投影到合适的表面上。合适的表面可以是白板,其中,白板可以被定位成使得医生可以在执行任何手术过程时看到白板上的投影。
根据实施例,显示可视化的投影的白板可以被定位在医生的头部与医生的手之间,使得医生可以在处置感兴趣区域时具有看向感兴趣区域的印象。白板可以是透明的,允许通过投影到患者上的信息的视图。
备选地,投影单元可将可视化直接投影到患者的身体的外表面上。应当注意,可视化可以包括患者的信息,例如与肿瘤边界有关的信息。所述信息还可以包括身体结构和/或肿瘤结构的任何轮廓线。
可视化还可以包括患者的外表面的相机图像的各方面,以便于识别患者的结构。应当理解,可视化可以具体地包括信息的组合,不仅包括上述信息和可视化,还包括适合于在处置患者时辅助医生的其他信息。例如,所述信息可以包括对开始肿瘤的切除的切口点/线的指示和/或对包括边界的感兴趣区域的指示。
根据实施例,所述系统可以包括视觉设备,所述视觉设备包括如上所述的跟踪设备和投影单元二者。
根据另一实施例,所述系统的可视化设备可以包括适于主动显示所生成的可视化的显示器。
根据又一实施例,可视化可以通过示出例如患者的外表面的相机图像的显示和在显示上的投影的组合来实现,所述投影图示例如在身体内部的结构。换言之,可以通过将信息投影到已经示出其他信息的显示上来实现信息的叠加。应当理解,还可以通过处理单元生成信息的叠加,并且显示可以在一个图像中示出已经组合的信息。
应当注意,标记可以包括允许基于超声图像确定标记的3D位置和取向的结构。如果单个超声图像不足以确定标记的3D位置,则还可以基于至少两个或多个投影/图像来确定标记的3D位置和取向。这可以有助于确定标记相对于超声设备的空间位置和取向。这种确定还可以或者额外地通过3D超声设备来改进。
根据另一实施例,所述系统还可以包括仪器,其中,仪器的位置和取向能够由跟踪设备进行跟踪,并且其中,所生成的可视化包括对仪器与感兴趣区域的关系的指示。
此外,所述系统可以包括用于对身体的外表面进行成像的相机。如上所述,所生成的感兴趣区域的可视化可以包括到由相机生成的图像上的叠加。
根据实施例,所述系统可以包括还能够执行超光谱/多光谱成像的成像设备。成像设备能够执行热成像和/或PPG成像。
根据又一实施例,所述系统还可以包括探头,所述探头能够由跟踪设备进行跟踪并且能够基于由超声、光谱组织感测、阻抗、THz感测、温度和PPG感测组成的组中的至少一个来进行组织感测。
对医生的表示,即可视化,可以提供肿瘤和手术仪器二者与其他界标的比例和/或关联的印象。还可以在患者的皮肤上放置额外的基准点以使表示更直观。
本发明的另一方面涉及一种计算机程序产品。计算机程序产品可以包括用于执行以下操作的指令集:基于第一图像数据来确定标记相对于身体内的感兴趣区域的位置;基于第二图像数据来确定标记相对于超声设备的位置,其中,第二图像数据是超声图像数据;基于从跟踪设备接收的数据来确定超声设备的位置和取向;确定感兴趣区域与跟踪设备之间的空间关系;在身体的外表面上生成指示感兴趣区域的位置的可视化。
因此,本发明的目标,即提供可以引导和/或至少帮助医生改善手术介入的结果的图像,可以被实施为计算机软件。
根据实施例,计算机程序产品还可以包括用于生成到从相机接收的身体的外表面的图像上的可视化的叠加的指令集。
根据另一实施例,计算机程序产品还包括用于控制投影设备、用于确定感兴趣区域的边界、以及用于生成包括将感兴趣区域的边界投影到身体的外表面上的可视化的指令集。
借助于根据实施例的计算机程序产品,成像数据和跟踪数据的实时处理允许可视化对感兴趣区域中的变化的实时适应。
优选地,相应的计算机程序可以加载到数据处理器的工作存储器中。数据处理器或处理单元可以因此配备为执行本文描述的方法的至少一部分。此外,本发明涉及一种计算机可读介质,例如CD-ROM,可以在其中存储计算机程序。然而,计算机程序也可以通过诸如万维网之类的网络呈现,并且能够从这样的网络下载到数据处理器的工作存储器中。
根据另一方面,提供一种方法,包括以下步骤:基于第一图像来确定相对于标记的身体内的感兴趣区域,其中,第一图像是术前图像;基于第二图像来确定标记相对于超声设备的空间位置,其中,第二图像由超声设备生成;确定超声设备的空间位置和取向;生成对与身体的外表面相关的感兴趣区域的空间位置的指示。
根据实施例,所述方法还可以包括提供引导指示到身体的外表面的投影的步骤。
根据实施例,所述方法可以包括确定仪器的空间位置和取向,以及生成对与感兴趣区域相关的仪器的空间位置的指示的步骤。
根据其他实施例,所述方法不包括通过手术处置人体或动物体的任何步骤。例如,所述方法不包括将标记插入感兴趣区域的步骤。尽管可视化可以实时地并且与手术过程并行地生成,但是所述方法不包括任何切入组织的步骤,也不包括任何切除组织,具体地切除肿瘤组织的步骤。
必须注意,参考不同的主题描述了实施例。具体地,参考方法类型权利要求(计算机程序)描述了一些实施例,而参考装置类型权利要求(系统)描述了其他实施例。但是,本领域普通技术人员将从以上和以下描述中明白,除了属于一种类型的主题的特征的任何组合之外,除非被告知,则与不同主题相关的特征之间的任何组合与也被认为是与本申请一起公开。
以上定义的方面以及本发明的其他方面、特征和优点也可以从下文将描述的实施例的范例中得出,并且参考实施例的范例进行说明。下面将参考实施例的范例更详细地描述本发明,但本发明不限于所述实施例的范例。
附图说明
图1图示了根据实施例的提供图像的系统。
图2示出了对标记进行成像的超声设备。
图3图示了超声设备的跟踪。
图4示出了适合于将标记放置在感兴趣区域中的设备。
图5图示了根据一个实施例的标记。
图6图示了一系列实例,其中可以有利地使用根据本发明实施例的系统。
图7是图示根据实施例的方法的步骤的流程图。
附图中的图示仅是示意性的而不是按比例的。应当注意,如果合适,在不同附图中为相似的元件提供相同的附图标记。
附图标记列表:
10 患者卧榻
20 操作灯
30 跟踪设备
40 超声设备
50 处理单元
60 显示器
70 投影设备
72 投影
80 示踪板
82 可跟踪元素
90 相机
100 标记
102 边缘
110 感兴趣区域
120 身体
122 身体的外表面
130 引入器
140 仪器
150 探头
具体实施方式
图1图示了根据实施例的系统。图2和3更详细地示出了所述系统的元件。图1中示出的是患者卧榻或工作台10和操作灯20,它们通常存在于手术室中。根据本文描述的实施例的系统包括跟踪设备30、超声设备40、处理单元50和作为可视化设备的显示器60。在图1中所示意性可视化的是被放置在身体120内的感兴趣区域110内的标记100。
任选地,所述系统可以包括至少一个相机90。相机90可以是用于对身体的外表面进行成像的视频相机,或者可以额外地或备选地是允许在可见光谱之外进行成像的相机。由任何这些相机生成的图像可以用于利用来自超声设备的超声图像和/或利用术前生成的图像来生成相机图像的叠加图像。相机相对于世界坐标系(即固定空间坐标系)或者至少相对于系统的另一个元件(如跟踪设备)的位置和取向可以是已知的。相机90可以例如被集成到操作灯或手术灯中。
跟踪设备30可以被布置在操作灯或手术灯20处,使得跟踪设备可以具体地观察操作灯的视场。在该布置中,跟踪设备的空间位置和取向能够被认为是已知的,即可以以与操作灯固定地相关,并且因此与世界坐标系相关来确定。
跟踪设备30可以包含至少一个,优选两个或更多个相机,所述相机能够例如使用被附接到仪器的光学示踪板80对仪器进行3D跟踪。备选地或额外地,可以使用仪器本身上的合适的标记图案,其能够在相机图像中识别。在两个或更多个相机的基础上,可以借助于三角测量来提高准确性。
跟踪设备30的相机也可以关于可选的相机90如上所述进行配置。在这个范例中,来自这种相机的视频图像流用于对身体的外表面进行跟踪和成像两个目的。相机位置和取向随后对应于跟踪设备的位置和取向。因此,跟踪设备相机的视频图像、超声设备、标记之间的空间关系,以及由此的诸如像MRT或CT之类的术前3D成像的3D信息是已知的。因此,来自跟踪设备相机的视频图像可以相对容易地用于整体可视化。
处理单元50可以适于确定跟踪设备的图像中的对象的视差,并且相对于跟踪设备的位置并且因此相对于固定坐标系平移这些对象。所述系统还可以包含能够在不同光谱波段监测身体的超光谱相机。除了显示器60或作为其备选方案,所述系统还可以包括能够将信息投影到患者上的投影设备70。所述系统还可以包含热PPG相机。
如在图2中可以更好地看到的,超声设备40可以被布置为与身体120的外表面122接触,使得身体内的感兴趣区域110能够由超声设备40进行成像。超声设备可以是能够执行3D超声成像的超声探头。超声设备40可以包括具有适于由跟踪设备的相机确定的多个元件82的示踪板80。例如,元件82可以是相对于彼此以独特方式布置的球体,使得可以借助于一个跟踪相机来确定示踪板80的取向。应当注意,可以利用2D-3D配准(诸如RANSAC算法)使用相机来确定取向和平移(6DOF)。
另外,可以有多个跟踪相机,其允许相对于跟踪设备30的元件82的位置以及因此跟踪板80的位置、以及因此超声设备40的位置的一种三角测量。图3示出了包括多个跟踪相机30的实施例,所述跟踪相机30用于识别超声设备40处的示踪板80的3D位置和取向。
可以通过以下步骤在世界坐标系中确定感兴趣区域,例如肿瘤的位置。由超声探头40对在手术前已经放置在肿瘤中的标记100进行成像。因此,能够相对于超声探头确定标记的位置(图1中,M->US)。标记的位置在超声图像的像素空间中将是已知的。执行从像素空间到探头空间的映射,以确定标记相对于超声探头的位置。超声探头可以具有由系统的跟踪设备30跟踪的附接的示踪板80。备选地或额外地,为其提供合适的标记图案,所述标记图案能够在例如由跟踪设备30中的相机生成的视频图像中识别。
因此,能够相对于跟踪设备确定示踪板80的元件82的位置(图1中,US->T和T->S)。当将由系统跟踪手术仪器时,还可以确定仪器相对于感兴趣区域中的标记的相对位置。可以最终确定跟踪设备相对于固定空间坐标(图1中,S->W)的位置,这允许具体地在跟踪多于一个仪器或超声探头时的坐标基础。
图4是O形扭曲标记100和导入器针130的图示,所述导入器针130适于将标记插入感兴趣区域中。O形扭曲标记可以用于标记例如在新辅助化疗完成后在成像中可能不可见的乳房病变。
图5示出了另一标记100,即在外表面上具有特征边缘102的圆柱形标记,其有助于基于超声成像来确定标记的取向。标记100中的边缘可以允许识别标记在三维(6个自由度)上的取向。当最终将要与仪器相关地确定包含边界的感兴趣区域的位置时,标记和感兴趣区域内标记的相对位置将是已知的,例如基于诸如像MRT或CT的术前3D成像的3D信息所确定的。
除了图4和5中所示的标记外,放射性种子可以用于定位。这些标记在X射线和超声波下都可以很好地看到。它们可以具有细长的圆柱形状。
应当理解,在手术期间标记将可能与肿瘤一起被去除。或者,可以使用可生物降解的超声标记。例如,聚乳酸/聚乙醇酸(PLA/PGA)托盘提供4-6周的超声可见性,并在大约12周内重新吸收。这些标记能够被放置在可以不被切除的组织区域中。
另一组标记可以包括至少两个刚性标记,其通过具有固定长度的柔性线连接。当这种标记被放置在身体内时,标记的相对运动可以是对身体组织的变形的指示。可能还有其他标记类型。
根据另一方面,提出使用超光谱或多光谱相机,其中,如本文所使用的术语“超光谱成像”是指从超出可见范围的电磁光谱范围内收集和处理信息,并且本文所使用的术语“多光谱成像”是指在电磁光谱上捕获特定频率的图像数据。可以通过滤波器或通过使用对具体波长敏感的仪器来分离波长,即使用多个光谱,这是术语“多光谱成像”的原因。这可以包括来自超出可见光范围的频率的光,例如红外线,其然后也可以由前述术语“超光谱成像”的术语“超”来定义。
光谱(多光谱或超光谱)成像可以允许从图像中提取额外信息,尤其是人眼无法利用其红色、绿色和蓝色的接受器捕获的信息。根据实施例,相机90可以是用于超光谱或多光谱成像的高光谱或超光谱滤光轮相机,其光谱范围为400至1000nm(纳米)或从1000至1700nm或从500至1700nm,其具有各种,例如6或8或甚至更多可互换滤波器,其具有分辨率为1392x1040像素的电荷耦合器件CCD或光栅图像中的物理点,或者,例如其具有铟镓砷(InGaAs)或分辨率为640x 512像素的任何其他半导体传感器,或者其具有任何其他像素分辨率的传感器。用于相机90的波段可以是包括若干波段的可见或不可见光谱,例如:
(1)蓝色:0.450-0.520μm(微米)
(2)绿色:0.515-0.600μm
(3)红色:0.60-0.69μm
(4)可见光:0.45-0.7μm
(5)红外线:0.7-1.0μm
(6)近红外线:1.0-3.0μm
(7)中红外线:3.0-50.0μm
(8)远红外线:50.0-1000.0μm
延伸波长使得能够增强几种结构之间的组织对比度。
如上所述,可能感兴趣的是至少部分地融合来自不同图像源的图像。例如,可能感兴趣的是从一个图像提取的信息与来自另一个图像的信息的叠加。为了实现这种组合图像,图像必须被配准。
例如,术中3D超声体积图像和术前2D乳房X线照相图像之间的配准可以允许在超声图像中显示肿瘤边缘。超声换能器可以大致垂直于乳房X线照相系统定位,以允许观察相同或相似的成像平面。在手术的第一步中,处理(取自超声体积的)每个超声切片以识别和分割2D中的标记。这能够使用基于阈值或活动轮廓梯度的分割来完成。一旦识别出标记并将其进行形状分割,就将形状与来自乳房X线照相图像的标记形状进行匹配和比较。应用成本函数,测量两个观察到的形状之间的相似性。该成本函数能够使用任何已知方法来实施,包括图形匹配、Housdorff距离和基于特征的方法(例如,使用标记的突出点)。在体积扫频完成之后,能够假设具有最低成本函数的切片最近似于允许在该切片中显示肿瘤边缘的乳房X射线照相投影。为了提高该方法的准确性,能够将超声射束的电子转向添加到切片扫频中。
此外,可以在来自电子转向的射束和乳房X线照相的超声的投影样合成图像(来自相同体积的多个超声切片的融合)与X射线的模拟投影图像之间比较标记形状。
此外,超声切片中肿瘤边缘的叠加能够用于对超声体积的分割进行初始化:边缘用于学习(例如使用高斯混合模型或类似模型建模的)肿瘤的声学特性,以及对分割算法(例如,活动的轮廓或水平集)进行初始化。此外,3D超声能够被配准到数字乳房断层合成(DBT)图像。由于在图像采集期间的受限制的旋转角度,DBT图像通常不被重建。能够通过使用上述方法配准到超声来克服这种限制。这种配准的结果是基于每个X射线图像中的标记的已知形状和来自缺失的旋转的标记的已知形状,其能够用来自超声图像的形状替换。使用这种信息,能够使用本领域已知的反投影算法实现来自DBT的3D体积的完全重建。
图6示出了肿瘤切除期间的一系列实例,作为用于在手术过程中提供图像引导的系统的应用的范例。图6中所示的系统的实施例包括具有示踪板80的超声设备40、跟踪设备30和投影设备70。此外,所述系统包括用于将标记插入感兴趣区域110的仪器130,其中,仪器130也具有示踪板80。所述系统还包括用于切除组织(具体地,感兴趣区域110中的组织)的仪器140,其中,仪器140还被提供有示踪板80。所述系统还包括具有示踪板80的探头150,所述探头150可以适用于组织检查。利用这样的系统,以下场景是可能的。
在拍摄具有在图像中可见的回声标记的术前图像(步骤1)之后,利用由跟踪系统30跟踪的超声探头80基于回声标记的位置来定位3D病变(步骤2),为了增强超声跟踪,可以借助于导入器130将额外的标记放置在肿瘤110中(步骤3),生成病变反投影72作为通过投影仪70在身体120上的可视化(步骤4),可以利用相对于在术前图像上可见的肿瘤边缘来确定其位置的仪器140切除肿瘤(步骤5),可以额外地基于超光谱、热、PPG成像引导介入(步骤6),并且切除区域可以借助于跟踪探头150利用组织感测(超声、光谱、阻抗)来检查(步骤7)。
图7中的流程图示出了根据本文描述的实施例所执行的步骤的原理。应当理解,所描述的步骤是主要步骤,其中,这些主要步骤可以被区分或分成若干子步骤。此外,这些主要步骤之间可能还有子步骤。
作为第一方面,可以在世界坐标系中确定肿瘤的位置。这通过以下操作来实现:将标记放置在例如肿瘤的感兴趣区域中(步骤S1),通过利用超声探头定位和跟踪标记(步骤S2),通过利用跟踪设备定位超声探头(步骤S3),通过接收直接从超声控制台到处理单元的标记位置数据和超声图像(步骤S4),以及通过接收从跟踪设备到处理单元的超声探头位置数据(步骤S5)。最后,处理单元可以确定标记、超声探头和跟踪设备之间的位置关系(步骤S6)。
作为另一方面,能够生成和提供经处理的信息,其作为对介入的引导,可以是有用的(但不是必需的)。在步骤S7中,可以生成包括肿瘤边缘的术前图像与标记的叠加。备选地或额外地,可以将实时超声图像数据(步骤S8)和/或超光谱图像数据(步骤S9)和/或视频相机图像数据(步骤S10)与术前图像数据配准,其中,标记作为配准的主要元素,即作为不同图像中的一种锚定元素。然后,可以基于图像数据生成可视化(步骤S10)并且将所述可视化显示为投影和/或显示在显示器上(步骤S11)。例如,可以在步骤S11中将标记的位置投影在患者上。
此外,在步骤S12中可以跟踪介入仪器的位置和取向,并且可以确定同一个介入仪器相对于感兴趣区域的边界的关系(步骤S13)。在步骤S14中,可以在可视化中添加仪器的表示。可以利用来自仪器的尖端的组织反馈信息来改进可视化(步骤S15)。应当注意,可用的实时图像允许将所生成的可视化适应于介入的任何进程。
尽管已经在附图和前面的描述中详细图示和描述了本发明,但是这样的图示和描述应被认为是说明性或范例性的而非限制性的;本发明不限于所公开的实施例。通过研究附图、公开内容和所附权利要求,本领域普通技术人员在实践所要求保护的发明时可以理解和实现所公开实施例的其他变型。
在权利要求中,词语“包括”不排除其他元件或步骤,并且不定冠词“一”或“一个”不排除多个。在相互不同的从属权利要求中陈述某些措施的仅有事实并不表示这些措施的组合不能用于获益。权利要求中的任何附图标记不应被解释为限制范围。

Claims (15)

1.一种提供引导手术的图像的系统,包括:
跟踪设备(30),
超声设备(40),其中,所述超声设备的位置和取向能够由所述跟踪设备进行跟踪,以及
处理单元(50),其中,所述处理单元被配置为
(i)接收与标记相关的感兴趣区域的3D信息,其中,所述感兴趣区域和所述标记二者都位于身体内,
(ii)基于包括所述标记的所述身体的超声图像来确定所述标记相对于所述超声设备的位置,并且
(iii)基于所述标记相对于所述超声设备的位置和由所述跟踪设备跟踪的所述超声设备相对于所述跟踪设备的位置和取向确定所述标记相对于所述跟踪设备的位置和取向。
2.根据权利要求1所述的系统,其中,所述系统还包括可视化设备,所述可视化设备被配置为生成与所述身体的外表面相关的所述感兴趣区域的可视化。
3.根据权利要求1和2中的任一项所述的系统,其中,所生成的所述感兴趣区域的可视化包括所述感兴趣区域的边界的投影。
4.根据权利要求2所述的系统,其中,所述可视化设备包括适于示出所生成的可视化的显示器(60)。
5.根据权利要求2所述的系统,其中,所述可视化设备具有适于投影所生成的可视化的投影单元(70)。
6.根据权利要求1至2和4至5中的任一项所述的系统,其中,所述标记(100)包括允许基于超声图像来确定所述标记的3D位置和取向的结构(102)。
7.根据权利要求1至2和4至5中的任一项所述的系统,还包括仪器(130、140、150),其中,所述仪器的位置和取向能够由所述跟踪设备进行跟踪,并且其中,所生成的可视化包括对所述仪器与所述感兴趣区域的关系的指示。
8.根据权利要求1至2和4至5中的任一项所述的系统,还包括用于对包括所述感兴趣区域的所述身体进行成像的相机(90),其中,所生成的所述感兴趣区域的可视化包括来自不同图像的图像信息的叠加。
9.根据权利要求1至2和4至5中的任一项所述的系统,还包括用于对所述感兴趣区域进行成像的超光谱或多光谱相机(90)。
10.一种计算机可读介质,其存储包括用于以下操作的指令集的计算机程序:
基于第一图像数据来确定标记相对于身体内的感兴趣区域的位置,
基于第二图像数据来确定所述标记相对于超声设备的位置,其中,所述第二图像数据是超声图像数据,
基于从跟踪设备接收的数据来确定所述超声设备的位置和取向,
确定所述感兴趣区域与所述跟踪设备之间的空间关系,
在所述身体的外表面上生成指示所述感兴趣区域的所述位置的可视化。
11.根据权利要求10所述的计算机可读介质,其中,所述计算机程序还包括用于以下操作的指令集:
生成所述可视化到从相机接收的所述身体的所述外表面的图像上的叠加。
12.根据权利要求10和11中的任一项所述的计算机可读介质,其中,所述可视化包括所述感兴趣区域的边界到所述身体的所述外表面的投影。
13.一种处理方法,包括以下步骤:
基于第一图像来确定相对于标记(100)的身体内的感兴趣区域(110),其中,所述第一图像是术前图像,
基于第二图像来确定所述标记相对于超声设备(40)的空间位置,其中,所述第二图像由所述超声设备生成,
通过由跟踪设备跟踪所述超声设备来确定所述超声设备相对于所述跟踪设备的空间位置和取向,
基于所述标记相对于所述超声设备的所述空间位置和所述超声设备相对于所述跟踪设备的所述空间位置和取向确定所述标记相对于所述跟踪设备的位置和取向,
基于所述标记相对于所述跟踪设备的所述位置和取向生成对与所述身体的外表面相关的所述感兴趣区域的空间位置的指示。
14.根据权利要求13所述的处理方法,还包括提供所述指示到所述身体的所述外表面上的投影(72)的步骤。
15.根据权利要求13和14中的任一项所述的处理方法,还包括以下步骤:确定仪器(130、140、150)的空间位置和取向,以及生成对与所述感兴趣区域相关的所述仪器的空间位置的指示。
CN201780077675.8A 2016-12-16 2017-12-18 提供引导手术的图像的系统 Active CN110072467B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662435152P 2016-12-16 2016-12-16
US62/435152 2016-12-16
EP17152112.3 2017-01-19
EP17152112 2017-01-19
PCT/EP2017/083253 WO2018109227A1 (en) 2016-12-16 2017-12-18 System providing images guiding surgery

Publications (2)

Publication Number Publication Date
CN110072467A CN110072467A (zh) 2019-07-30
CN110072467B true CN110072467B (zh) 2022-05-24

Family

ID=61027664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780077675.8A Active CN110072467B (zh) 2016-12-16 2017-12-18 提供引导手术的图像的系统

Country Status (4)

Country Link
US (1) US11571180B2 (zh)
EP (1) EP3554383B1 (zh)
JP (1) JP6745998B2 (zh)
CN (1) CN110072467B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3109611A1 (en) * 2018-08-20 2020-02-27 Butterfly Network, Inc. Methods and apparatuses for guiding collection of ultrasound data
CN110420036B (zh) * 2019-08-01 2021-03-09 无锡海斯凯尔医学技术有限公司 多类型探头兼容的数据处理方法、装置及可读存储介质
CN112568935A (zh) * 2019-09-29 2021-03-30 中慧医学成像有限公司 基于三维追踪相机的三维超声成像方法和系统
CN112914755A (zh) * 2021-01-25 2021-06-08 深圳市奥昇医疗科技有限责任公司 手术追踪系统及其控制方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3053389B1 (ja) * 1998-12-03 2000-06-19 三菱電機株式会社 動体追跡照射装置
CN102266250A (zh) * 2011-07-19 2011-12-07 中国科学院深圳先进技术研究院 超声手术导航系统及超声手术导航方法
CN103765239A (zh) * 2011-07-01 2014-04-30 皇家飞利浦有限公司 用于图像引导的介入的术中图像校正
WO2015135985A1 (en) * 2014-03-12 2015-09-17 Stichting Katholieke Universiteit Anatomical image projection system
WO2016064921A1 (en) * 2014-10-20 2016-04-28 MedSight Tech Corp. Automatic detection of regions of interest in 3d space
CN106061424A (zh) * 2013-12-20 2016-10-26 皇家飞利浦有限公司 用于跟踪穿刺器械的系统和方法
WO2016201341A1 (en) * 2015-06-12 2016-12-15 The Trustees Of Dartmouth College Systems and methods for guiding tissue resection

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01244740A (ja) 1988-03-28 1989-09-29 Fujitsu Ltd 超音波診断装置
US20030220557A1 (en) * 2002-03-01 2003-11-27 Kevin Cleary Image guided liver interventions based on magnetic tracking of internal organ motion
US20070276234A1 (en) * 2003-10-21 2007-11-29 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Intraoperative Targeting
JP4594675B2 (ja) 2004-08-20 2010-12-08 株式会社東芝 超音波診断装置及びその制御方法
US7912258B2 (en) * 2005-09-27 2011-03-22 Vanderbilt University Method and apparatus for standardizing ultrasonography training using image to physical space registration of tomographic volumes from tracked ultrasound
US8340374B2 (en) * 2007-01-11 2012-12-25 Kabushiki Kaisha Toshiba 3-dimensional diagnostic imaging system
JP5127371B2 (ja) * 2007-08-31 2013-01-23 キヤノン株式会社 超音波画像診断システム、及びその制御方法
JP5707148B2 (ja) 2010-01-27 2015-04-22 株式会社東芝 医用画像診断装置及び医用画像処理装置
US20130218024A1 (en) 2011-10-09 2013-08-22 Clear Guide Medical, Llc Interventional In-Situ Image-Guidance by Fusing Ultrasound and Video
US9295449B2 (en) * 2012-01-23 2016-03-29 Ultrasonix Medical Corporation Landmarks for ultrasound imaging
JP2013255658A (ja) 2012-06-12 2013-12-26 Toshiba Corp 超音波診断装置
US11373361B2 (en) * 2012-11-06 2022-06-28 Koninklijke Philips N.V. Enhancing ultrasound images
BR112015013247B1 (pt) * 2012-12-11 2022-07-12 Koninklijke Philips N.V. Aparelho auxiliar para assistir na realização da braquiterapia, sistema de braquiterapia para aplicar braquiterapia a um objeto vivo, e método auxiliar para assistir na realização da braquiterapia
BR112015020425B1 (pt) * 2013-02-28 2022-06-21 Koninklijke Philips N.V. Sistema de imageamento por ultrassom inspecionar um objeto em um volume e método para fornecer uma imagem de ultrassom de um objeto em um volume
JP5410629B1 (ja) * 2013-05-14 2014-02-05 健司 三木 超音波診断システム、画像処理装置およびその制御方法と制御プログラム
WO2014210430A1 (en) * 2013-06-27 2014-12-31 Tractus Corporation Systems and methods for tissue mapping
CN106068098B (zh) * 2014-02-28 2020-01-07 皇家飞利浦有限公司 用于超声引导过程的区域可视化
EP2926736B1 (en) * 2014-03-31 2020-06-17 Esaote S.p.A. Apparatus and method for ultrasound image acquisition, generation and display
JP6328993B2 (ja) 2014-05-12 2018-05-23 株式会社共伸 超音波診断装置での観察下で用いられる医療用針
US11026750B2 (en) * 2015-01-23 2021-06-08 Queen's University At Kingston Real-time surgical navigation
US9436993B1 (en) 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
JP6510301B2 (ja) * 2015-04-17 2019-05-08 株式会社日本未来医療研究所 医療支援システム、医療支援方法、画像処理装置およびその制御方法と制御プログラム
WO2016201637A1 (en) 2015-06-17 2016-12-22 Covidien Lp Guided ultrasound breast cancer screening system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3053389B1 (ja) * 1998-12-03 2000-06-19 三菱電機株式会社 動体追跡照射装置
CN103765239A (zh) * 2011-07-01 2014-04-30 皇家飞利浦有限公司 用于图像引导的介入的术中图像校正
CN102266250A (zh) * 2011-07-19 2011-12-07 中国科学院深圳先进技术研究院 超声手术导航系统及超声手术导航方法
CN106061424A (zh) * 2013-12-20 2016-10-26 皇家飞利浦有限公司 用于跟踪穿刺器械的系统和方法
WO2015135985A1 (en) * 2014-03-12 2015-09-17 Stichting Katholieke Universiteit Anatomical image projection system
WO2016064921A1 (en) * 2014-10-20 2016-04-28 MedSight Tech Corp. Automatic detection of regions of interest in 3d space
WO2016201341A1 (en) * 2015-06-12 2016-12-15 The Trustees Of Dartmouth College Systems and methods for guiding tissue resection

Also Published As

Publication number Publication date
JP2020501691A (ja) 2020-01-23
CN110072467A (zh) 2019-07-30
JP6745998B2 (ja) 2020-08-26
US11571180B2 (en) 2023-02-07
EP3554383A1 (en) 2019-10-23
EP3554383B1 (en) 2020-04-22
US20200015781A1 (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP6671432B2 (ja) 患者装着式の針ガイドの位置合わせおよび動き補償
JP6707535B2 (ja) コンピュータ断層撮影の拡張された蛍光透視法のシステム、装置、およびその利用方法
US11883118B2 (en) Using augmented reality in surgical navigation
US9138597B2 (en) Quantitative endoscopy
US11380079B2 (en) System and method for positional registration of medical image data
KR101572487B1 (ko) 환자와 3차원 의료영상의 비침습 정합 시스템 및 방법
CN110072467B (zh) 提供引导手术的图像的系统
JP6404713B2 (ja) 内視鏡手術におけるガイド下注入のためのシステム及び方法
US8295913B2 (en) Method and device for planning and/or monitoring an interventional high-frequency thermoablation
KR20190078540A (ko) 의료 시술 동안 내비게이션을 돕기 위한 증강 현실의 용도
US20150031990A1 (en) Photoacoustic tracking and registration in interventional ultrasound
CN109199598B (zh) 用于实时三维(3d)心脏成像中玻璃态视图的系统和方法
US20090093702A1 (en) Determining and identifying changes in the position of parts of a body structure
US20230200720A1 (en) Systems, devices and methods for lymph specimen tracking, drainage determination, visualization and treatment
EP3165153A1 (en) System for fluorescence aided surgery
CN111466935B (zh) 医学成像设备、用于支持医务人员的方法和存储介质
Kanithi et al. Immersive augmented reality system for assisting needle positioning during ultrasound guided intervention
WO2018109227A1 (en) System providing images guiding surgery
Mohareri et al. Automatic detection and localization of da Vinci tool tips in 3D ultrasound
US20230120638A1 (en) Augmented reality soft tissue biopsy and surgery system
JP2023165364A (ja) 画像処理装置、方法およびプログラム
Rai et al. Fluoroscopic image-guided intervention system for transbronchial localization
Nicolau et al. Augmented reality guided radio-frequency tumor ablation
Oosterom Engineering precision surgery: Design and implementation of surgical guidance

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant